JP4720700B2 - Image detection apparatus, image detection method, and image detection program - Google Patents

Image detection apparatus, image detection method, and image detection program Download PDF

Info

Publication number
JP4720700B2
JP4720700B2 JP2006255621A JP2006255621A JP4720700B2 JP 4720700 B2 JP4720700 B2 JP 4720700B2 JP 2006255621 A JP2006255621 A JP 2006255621A JP 2006255621 A JP2006255621 A JP 2006255621A JP 4720700 B2 JP4720700 B2 JP 4720700B2
Authority
JP
Japan
Prior art keywords
image
image data
difference
detection target
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006255621A
Other languages
Japanese (ja)
Other versions
JP2008077379A5 (en
JP2008077379A (en
Inventor
晃 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006255621A priority Critical patent/JP4720700B2/en
Publication of JP2008077379A publication Critical patent/JP2008077379A/en
Publication of JP2008077379A5 publication Critical patent/JP2008077379A5/ja
Application granted granted Critical
Publication of JP4720700B2 publication Critical patent/JP4720700B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、背景差分法を用いて画像検出を行う画像検出装置、画像検出方法及び画像検出プログラムに関する。   The present invention relates to an image detection apparatus, an image detection method, and an image detection program that perform image detection using a background difference method.

カメラなどの撮像手段によって撮像して得られた画像データを処理することにより、注目すべき画像(検出対象画像という)を検出することが行われている。
例えば、検出対象画像が存在しない状態で撮像された背景画像データと検出対象画像が存在する画像データとの差分演算を行うことによって検出対象画像を検出する方法があり、背景差分法と呼ばれている。
An image to be noticed (referred to as a detection target image) is detected by processing image data obtained by imaging with an imaging means such as a camera.
For example, there is a method of detecting a detection target image by performing a difference calculation between background image data captured in a state where the detection target image does not exist and image data including the detection target image, which is called a background difference method. Yes.

このとき、背景データと当該背景画像データから検出対象画像データを除いた画像データとは全く一致することが望ましいが、外光環境の変動を主な原因として、時間の経過と共にその一致性が悪くなってくる。この課題に対して、背景画像データの更新を行うことが提案されている(例えば、特許文献1参照)。   At this time, it is desirable that the background data and the image data obtained by removing the detection target image data from the background image data are completely coincident with each other. It becomes. In response to this problem, it has been proposed to update the background image data (see, for example, Patent Document 1).

特許文献1には、画像処理による検出対象画像の抽出を行う際に、背景差分演算によって得られた2値化画像データの収縮・膨張処理を適宜行うことにより、残存背景を除去する技術が開示されている。   Patent Document 1 discloses a technique for removing a residual background by appropriately performing contraction / expansion processing of binary image data obtained by background difference calculation when extracting a detection target image by image processing. Has been.

特開平6−251151号公報JP-A-6-251151

上述したように、特許文献1に開示された技術は、収縮・膨張処理を行うことによって残存背景の除去を可能とするものである。すなわち、差分画像領域内に不必要な残存背景が含まれる場合、まずは差分画像領域を収縮処理することによって残存背景を除去し、その後、膨張処理を行うことによって差分画像領域を元の画像に再現する処理を行うものである。これによって、差分画像領域内に含まれる不必要な残存背景を除去し、検出対象画像のみを差分画像領域として抽出しようとするものである。   As described above, the technique disclosed in Patent Document 1 enables removal of a residual background by performing contraction / expansion processing. That is, if unnecessary residual background is included in the difference image area, first, the difference image area is first contracted to remove the residual background, and then the expansion process is performed to reproduce the difference image area to the original image. The process which performs is performed. In this way, an unnecessary residual background included in the difference image area is removed, and only the detection target image is extracted as the difference image area.

しかしながら、収縮・膨張処理を行うことによって残存背景を除去するためには、除去したい残存背景の領域は、検出対象物体の領域に比べて十分小さいことが必要であり、残存背景の領域が検出対象物体の領域に比べて十分小さくないと、除去すべき領域を除去し、残すべき領域を残すということができないという問題がある。   However, in order to remove the residual background by performing the contraction / expansion process, the residual background area to be removed needs to be sufficiently smaller than the area of the detection target object, and the residual background area is the detection target. If it is not sufficiently smaller than the area of the object, there is a problem that the area to be removed cannot be removed and the area to be left cannot be left.

本発明は、背景差分法を用いて検出対象画像を検出する際、除去すべき残存背景を確実に除去して検出対象画像を適切に検出可能とするような背景画像の更新処理を可能とし、かつ、背景画像の更新処理を少ない演算量で短時間に行うことができる画像検出装置、画像検出方法及び画像検出プログラムを提供することを目的とする。   The present invention, when detecting a detection target image using the background subtraction method, enables a background image update process that enables the detection target image to be appropriately detected by reliably removing the residual background to be removed, An object of the present invention is to provide an image detection apparatus, an image detection method, and an image detection program that can perform background image update processing in a short time with a small amount of calculation.

(1)本発明の画像検出装置は、画像検出対象範囲を撮像して得られた画像データに基づいて前記画像検出対象範囲に存在する検出対象画像物体に対応する画像を検出対象画像として検出する画像検出装置であって、背景画像に対応する背景画像データと前記背景画像に少なくとも前記検出対象画像が含まれる全体画像に対応する画像データとの差分演算を行って差分画像データを出力する差分演算部と、前記差分画像データを2値化して2値
化画像データを出力する2値化処理部と、前記2値化画像データのうち前記背景画像データとの差分として検出された差分画像データから得られる差分画像領域をラベリング処理して前記差分画像領域に所定のラベル値を与えるラベリング処理部と、前記ラベリング処理された前記差分画像領域のうち前記検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が前記背景画像に含まれるように前記背景画像データを更新する背景画像データ更新部とを有することを特徴とする。
(1) The image detection apparatus of the present invention detects, as a detection target image, an image corresponding to a detection target image object existing in the image detection target range based on image data obtained by imaging the image detection target range. An image detection device for performing difference calculation between background image data corresponding to a background image and image data corresponding to an entire image including at least the detection target image in the background image and outputting difference image data A binarization processing unit that binarizes the difference image data and outputs binarized image data, and difference image data detected as a difference between the binarized image data and the background image data A labeling processing unit for labeling the obtained difference image region to give a predetermined label value to the difference image region, and a difference between the difference image region subjected to the labeling process. A background image data updating unit that updates the background image data so that a difference image area having a label value other than a label value given to the difference image area corresponding to the detection target image is included in the background image; It is characterized by.

このような構成とすることにより、背景差分法を用いて検出対象物体を検出する際、除去すべき残存背景を確実に除去して検出対象画像を適切に検出可能とするような背景画像更新が可能となる。これによって、外光環境の変化などに影響されにくい画像検出が可能となる。   With such a configuration, when detecting a detection target object using the background subtraction method, background image updating is performed so that the residual background to be removed can be reliably removed and the detection target image can be detected appropriately. It becomes possible. As a result, it is possible to detect an image that is not easily affected by changes in the ambient light environment.

また、本発明においては、各差分画像領域にラベル値を与えるラベリング処理を行い、ラベリング処理された前記差分画像領域のうち検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が背景画像に含まれるように前記背景画像データの更新を行うものである。これにより、除去すべき残存背景を確実に除去して検出対象画像を適切に検出可能とするような背景画像更新が可能となる。また、更新後の背景画像データは、検出対象画像以外の差分画像領域に対応する画像データを含んだものとなり、検出対象画像以外の差分画像領域は、その後の差分演算によって検出されなくなる。   Also, in the present invention, a labeling process for giving a label value to each difference image area is performed, and a label value other than the label value given to the difference image area corresponding to the detection target image among the difference image areas subjected to the labeling process. The background image data is updated so that the difference image region having the above is included in the background image. This makes it possible to update the background image so that the remaining background to be removed can be reliably removed and the detection target image can be detected appropriately. The updated background image data includes image data corresponding to the difference image area other than the detection target image, and the difference image area other than the detection target image is not detected by the subsequent difference calculation.

このため、ラベリング処理を行う際、ラベリング処理対象となる差分画像領域の数を少なくすることができるので、ラベリング処理を簡略化することができる。これにより、背景画像データ更新処理をより少ない演算量で短時間に行うことができ、それによって画像検出処理全体を少ない演算量で短時間に行うことができるといった効果も得られる。   For this reason, when the labeling process is performed, the number of difference image areas to be labeled can be reduced, so that the labeling process can be simplified. As a result, the background image data update process can be performed in a short time with a smaller amount of computation, and thus the entire image detection process can be performed in a short time with a small amount of computation.

(2)前記(1)に記載の画像検出装置においては、前記背景画像データは、画像検出処理の開始時においては前記検出対象物体が存在しない状態で前記画像検出対象範囲を撮像して得られた画像データであって、その後においては、前記背景画像データ更新部によって更新された更新後の背景画像データであることが好ましい。   (2) In the image detection apparatus according to (1), the background image data is obtained by imaging the image detection target range without the detection target object at the start of image detection processing. Thereafter, it is preferable that the image data is updated background image data updated by the background image data update unit thereafter.

これは、画像検出処理開始時においては、まず、検出対象物体(例えば操作者の手とする)が存在しない状態で前記画像検出対象範囲を撮像して得られた画像データを、背景画像データ(初期背景画像データとする)として差分演算部に与えるものであり、この初期背景画像データは、背景画像データ更新部にも与えられる。次に、操作者の手を前記画像検出対象範囲に差し出したとき、その状態を撮像して得られた現時点における画像データが差分演算部に与えられ、この現時点における画像データと前記初期背景画像データとの差分を求める。そして、その後は、背景画像データ更新部によって更新された背景画像データと現時点における画像データとの差分を求めるものである。
このような処理を行うことによって、(1)に記載の画像検出装置を実現することができる。
This is because at the start of the image detection process, first, image data obtained by imaging the image detection target range in the absence of a detection target object (for example, an operator's hand) is converted to background image data ( The initial background image data is also provided to the difference calculation unit, and this initial background image data is also provided to the background image data update unit. Next, when the operator's hand is put out into the image detection target range, the current image data obtained by imaging the state is given to the difference calculation unit, and the current image data and the initial background image data Find the difference between Thereafter, the difference between the background image data updated by the background image data update unit and the current image data is obtained.
By performing such processing, the image detection device described in (1) can be realized.

(3)前記(1)または(2)に記載の画像検出装置においては、前記ラベリング処理部におけるラベリング処理の前段階として、前記2値化画像データに対し、閉鎖・開放処理を行う閉鎖・開放処理部をさらに有することが好ましい。   (3) In the image detection apparatus according to (1) or (2), as a pre-stage of the labeling process in the labeling processing unit, a closing / opening process for performing a closing / opening process on the binarized image data. It is preferable to further have a processing unit.

このように、2値化画像データに対して閉鎖・開放処理を施すことにより、例えば、照明光の方向などの影響で、差分画像データを2値化処理する際、検出対象画像において差分画像データとして検出されない部分が存在したとしても、検出対象画像全体を1つの差分画像領域として出力することができる。このような閉鎖・開放処理を施した2値化画像
に対してラベリング処理を施すことにより、検出対象画像全体に対応する差分画像領域に所定のラベル値を与えることができる。これにより、検出対象画像データが部分的に背景画像データに反映されてしまうのを防ぐことができる。
As described above, by performing the closing / opening process on the binarized image data, for example, when the difference image data is binarized due to the influence of the direction of illumination light, the difference image data in the detection target image. Even if there is a portion that is not detected as, the entire detection target image can be output as one difference image region. By applying a labeling process to the binarized image subjected to such a closing / opening process, a predetermined label value can be given to the difference image area corresponding to the entire detection target image. Thereby, it is possible to prevent the detection target image data from being partially reflected in the background image data.

(4)前記(3)に記載の画像検出装置においては、前記閉鎖・開放処理は、その順序として閉鎖処理を行ったあとに開放処理を行うことが好ましい。
このような順序で閉鎖・開放処理を行うことにより、検出対象画像全体を差分画像領域として適切に出力することができる。
(4) In the image detection apparatus according to (3), it is preferable that the closing / opening process is performed after the closing process is performed in that order.
By performing the closing / opening process in this order, the entire detection target image can be appropriately output as a difference image region.

(5)本発明の画像検出方法は、画像検出対象範囲を撮像して得られた画像データに基づいて前記画像検出対象範囲に存在する検出対象画像物体に対応する画像を検出対象画像として検出する画像検出方法であって、背景画像に対応する背景画像データと前記背景画像に少なくとも前記検出対象画像が含まれる全体画像に対応する画像データとの差分演算を行って差分画像データを出力するステップと、前記差分画像データを2値化して2値化画像データを出力するステップと、前記2値化画像データのうち前記背景画像データとの差分として検出された差分画像データから得られる差分画像領域をラベリング処理して前記差分画像領域に所定のラベル値を与えるステップと、前記ラベリング処理された前記差分画像領域のうち前記検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が前記背景画像に含まれるように前記背景画像データを更新するステップとを有することを特徴とする。   (5) The image detection method of the present invention detects, as a detection target image, an image corresponding to a detection target image object existing in the image detection target range based on image data obtained by imaging the image detection target range. An image detection method, comprising: calculating a difference between background image data corresponding to a background image and image data corresponding to an entire image including at least the detection target image in the background image and outputting difference image data; A step of binarizing the difference image data and outputting the binarized image data; and a difference image region obtained from the difference image data detected as a difference from the background image data of the binarized image data. Providing a predetermined label value to the difference image area by performing a labeling process, and the detection target in the difference image area subjected to the labeling process Characterized by a step of the difference image area having a label value other than the label value given to the difference image area corresponding to the image to update the background image data to be included in the background image.

このような処理手順を有することによって、前記(1)に記載の画像検出装置と同様の効果を得ることができる。なお、本発明の画像検出方法においても、前記(2)〜(4)の画像検出装置が有する特徴を有することが好ましい。   By having such a processing procedure, it is possible to obtain the same effect as that of the image detection apparatus described in (1). Note that the image detection method of the present invention preferably has the characteristics of the image detection apparatuses (2) to (4).

(6)本発明の画像検出プログラムは、画像検出対象範囲を撮像して得られた画像データに基づいて前記画像検出対象範囲に存在する検出対象画像物体に対応する画像を検出対象画像として検出する画像検出方法であって、背景画像に対応する背景画像データと前記背景画像に少なくとも前記検出対象画像が含まれる全体画像に対応する画像データとの差分演算を行って差分画像データを出力するステップと、前記差分画像データを2値化して2値化画像データを出力するステップと、前記2値化画像データのうち前記背景画像データとの差分として検出された差分画像データから得られる差分画像領域をラベリング処理して前記差分画像領域に所定のラベル値を与えるステップと、前記ラベリング処理された前記差分画像領域のうち前記検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が前記背景画像に含まれるように前記背景画像データを更新するステップとを有することを特徴とする。   (6) The image detection program of the present invention detects, as a detection target image, an image corresponding to a detection target image object existing in the image detection target range based on image data obtained by imaging the image detection target range. An image detection method, comprising: calculating a difference between background image data corresponding to a background image and image data corresponding to an entire image including at least the detection target image in the background image and outputting difference image data; A step of binarizing the difference image data and outputting the binarized image data; and a difference image region obtained from the difference image data detected as a difference from the background image data of the binarized image data. Applying a labeling process to give a predetermined label value to the difference image area; and detecting the detection of the difference image area after the labeling process. Characterized by a step of the difference image area having a label value other than the label value given to the difference image area corresponding to the target image to update the background image data to be included in the background image.

このような画像検出プログラムを画像検出装置にて実行させることで、前記(1)に記載の効果を得ることができる。なお、本発明の画像検出プログラムにおいても、前記(2)〜(4)の画像検出装置が有する特徴を有することが好ましい。   By causing the image detection program to execute such an image detection program, the effect described in (1) can be obtained. Note that the image detection program of the present invention preferably has the characteristics of the image detection apparatuses (2) to (4).

以下、本発明の実施形態について説明する。
[実施形態1]
図1は本発明の各実施形態に係る画像検出装置が組み込まれた画像検出システムの外観構成を示す図である。図1に示す画像検出システムは、操作者(図示せず)が机10の操作面11上で何らかの操作を行う際、当該操作者の指先を検出するものであるとする。なお、指先を検出するには操作者の手を検出する必要があるので、本発明の各実施形態では、操作者の手を検出対象物体とし、検出対象物体としての操作者の手に対する画像を検出対象画像とする。
Hereinafter, embodiments of the present invention will be described.
[Embodiment 1]
FIG. 1 is a diagram showing an external configuration of an image detection system incorporating an image detection apparatus according to each embodiment of the present invention. The image detection system shown in FIG. 1 detects an operator's fingertip when an operator (not shown) performs some operation on the operation surface 11 of the desk 10. In addition, since it is necessary to detect the operator's hand in order to detect the fingertip, in each embodiment of the present invention, the operator's hand is set as the detection target object, and an image of the operator's hand as the detection target object is displayed. It is set as a detection target image.

これを実現するために、画像検出システムは、操作面11における画像検出対象領域(図示せず)を撮像可能な撮像装置20と、撮像装置20からの各フレームごとの画像データに基づいて検出対象画像を検出する画像検出装置(実施形態1に係る画像検出装置31または実施形態2に係る画像検出装置32)とを有する。   In order to realize this, the image detection system is configured to detect the image based on the image capturing device 20 capable of capturing an image detection target region (not shown) on the operation surface 11 and the image data for each frame from the image capturing device 20. An image detection device that detects an image (the image detection device 31 according to the first embodiment or the image detection device 32 according to the second embodiment).

図2は実施形態1に係る画像検出装置31の構成を示す図である。画像検出装置31は、背景画像に対応する背景画像データと前記背景画像の中に少なくとも前記検出対象画像が存在する画像データとの差分演算を行って差分画像データを出力する差分演算部301と、差分画像データを2値化して2値化画像データを出力する2値化処理部302と、2値化画像データのうち前記背景画像データとの差分として検出された差分画像データから得られる差分画像領域に対し個々の差分画像領域を区別可能なラベル値を与えるラベリング処理部303と、ラベリング処理された差分画像領域のうち検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が背景画像に含まれるように背景画像データの更新を行う背景画像データ更新部304とを有している。   FIG. 2 is a diagram illustrating a configuration of the image detection apparatus 31 according to the first embodiment. The image detection device 31 performs a difference calculation between background image data corresponding to a background image and image data in which at least the detection target image exists in the background image, and outputs difference image data; A binarization processing unit 302 that binarizes the difference image data and outputs the binarized image data, and a difference image obtained from the difference image data detected as a difference between the binarized image data and the background image data A labeling processing unit 303 for providing a label value for distinguishing individual difference image areas from the area; and a label value other than the label value given to the difference image area corresponding to the detection target image among the labeled difference image areas And a background image data update unit 304 that updates the background image data so that the background image includes the difference image region having

図3は実施形態1に係る画像検出処理手順を説明するフローチャートである。
また、図4は撮像装置20から得られる画像データに対応する画像を示す図である。これら図3及び図4を参照しながら実施形態1に係る画像検出処理手順を説明する。
FIG. 3 is a flowchart illustrating an image detection processing procedure according to the first embodiment.
FIG. 4 is a diagram showing an image corresponding to the image data obtained from the imaging device 20. The image detection processing procedure according to the first embodiment will be described with reference to FIGS. 3 and 4.

画像検出処理の開始時において、まず、操作面11上に操作者の手が存在しない状態で操作面11を撮像して得られた画像データを、背景画像データ(初期背景画像データという)として差分演算部301に与える(ステップS1)。図4(a)は初期背景画像データに対応する背景画像(初期背景画像)であるとする。また、この初期背景画像データは背景画像データ更新部304にも与えられる。なお、図4(a)に示す初期背景画像には、操作面11上に静止状態で置かれている箱に対応する画像(箱画像という)101が含まれているものとする。   At the start of the image detection process, first, image data obtained by imaging the operation surface 11 in a state where the operator's hand is not present on the operation surface 11 is used as background image data (referred to as initial background image data). It gives to the calculating part 301 (step S1). FIG. 4A is a background image (initial background image) corresponding to the initial background image data. The initial background image data is also given to the background image data update unit 304. Note that the initial background image shown in FIG. 4A includes an image (referred to as a box image) 101 corresponding to a box placed on the operation surface 11 in a stationary state.

次に、操作者が操作面11上で何らかの操作を行うために、自身の手を操作面11上に差し出し、さらに、操作面11には、操作者の手だけではなく、何らかの可動物体(鉛筆及び消しゴムとする)が新たに置かれたとする。このとき、撮像装置20からは、その状態を撮像して得られた現時点における画像データ(現フレーム画像データという)が出力され、その現フレーム画像データが差分演算部301に与えられる(ステップS2)。   Next, in order for the operator to perform some operation on the operation surface 11, his / her hand is put on the operation surface 11, and not only the operator's hand but also any movable object (pencil) And an eraser) are newly placed. At this time, the imaging device 20 outputs the current image data (referred to as current frame image data) obtained by imaging the state, and the current frame image data is given to the difference calculation unit 301 (step S2). .

図4(b)は現フレーム画像データに対応する画像(全体画像という)であり、この全体画像には、箱画像101、操作者の手に対応する画像(手画像という)102、鉛筆に対応する画像(鉛筆画像という)103、消しゴムに対応する画像(消しゴム画像という)104が含まれる。   FIG. 4B shows an image corresponding to the current frame image data (referred to as an entire image). The entire image includes a box image 101, an image corresponding to an operator's hand (referred to as a hand image) 102, and a pencil. The image (referred to as a pencil image) 103 and the image corresponding to the eraser (referred to as an eraser image) 104 are included.

差分演算部301では、撮像装置20から得られた現フレーム画像データと現時点における背景画像データ(画像検出処理開始時は初期背景画像データ)との差分(各画素における画素値の差分)を求めるための差分演算を行い(ステップS3)、差分演算の結果としての差分画像データを出力する。なお、この場合、画素値は輝度値であるとする。図4(c)は求められた差分画像データに対応する差分画像である。   The difference calculation unit 301 obtains a difference (a difference between pixel values in each pixel) between the current frame image data obtained from the imaging device 20 and the current background image data (initial background image data at the start of the image detection process). The difference calculation is performed (step S3), and difference image data as a result of the difference calculation is output. In this case, the pixel value is a luminance value. FIG. 4C shows a difference image corresponding to the obtained difference image data.

次に、ステップS3で求められた差分画像データに対して2値化処理部302が閾値判定を行い、2値化画像データを出力する(ステップS4)。この2値化画像データは、ステップS3で差分画像として検出された領域(差分画像領域という)の各画素は‘1’、それ以外の領域の各画像は‘0’として表される。   Next, the binarization processing unit 302 performs threshold determination on the difference image data obtained in step S3, and outputs binarized image data (step S4). In the binarized image data, each pixel in the region (referred to as a difference image region) detected as a difference image in step S3 is represented as ‘1’, and each image in other regions is represented as ‘0’.

図4(d)は2値化処理部302により得られた2値化画像データに対応する2値化画像である。図4(d)に示すように、2値化画像において、‘1’の値を有する差分画像領域は、視覚的には3つの差分画像領域A1,A2,A3を容易に区別することができるが、2値化画像データとしては、単に、‘0’または‘1’のデータの並びであるので、それぞれの差分画像領域A1,A2,A3を区別することはできない。   FIG. 4D is a binarized image corresponding to the binarized image data obtained by the binarization processing unit 302. As shown in FIG. 4D, in the binarized image, the difference image area having a value of “1” can easily distinguish the three difference image areas A1, A2, and A3 visually. However, since the binarized image data is simply an array of “0” or “1” data, the difference image areas A1, A2, and A3 cannot be distinguished from each other.

そこで、ステップS4で得られた2値化画像データをラベリング処理部303によってラベリング処理を行い、それぞれの差分画像領域A1,A2,A3に対するラベル値を出力する(ステップS5)。   Therefore, the binarized image data obtained in step S4 is subjected to a labeling process by the labeling processing unit 303, and label values for the respective difference image areas A1, A2, A3 are output (step S5).

このラベリング処理は、‘1’の値を有する画素が連結した領域(連結領域という)に属する各画素には、それぞれの連結領域ごとに所定のラベル値を与える処理である。すなわち、‘1’の値を有する画素が連結している領域(連結領域という)にそれぞれ所定のラベル値を与える。   This labeling process is a process of giving a predetermined label value for each connected region to each pixel belonging to a region (referred to as a connected region) in which pixels having a value of “1” are connected. That is, a predetermined label value is given to each area (called a connected area) where pixels having a value of “1” are connected.

図4(d)において、差分画像領域A1に対応する連結領域に属する画素にはラベル値「1」が与えられ、差分画像領域A2に対応する連結領域に属する画素にはラベル値「2」が与えられ、差分画像領域A3に対応する連結領域に属する画素にはラベル値「3」が与えられたとする。
このようなラベリング処理を行うことによって、同じ連結領域に属する画素は同じラベル値を有することとなり、それぞれの連結領域すなわち差分画像領域A1,A2,A3を区別することができる。
In FIG. 4D, the label value “1” is given to the pixels belonging to the connected area corresponding to the difference image area A1, and the label value “2” is given to the pixels belonging to the connected area corresponding to the difference image area A2. It is assumed that the label value “3” is given to the pixels belonging to the connected area corresponding to the difference image area A3.
By performing such a labeling process, the pixels belonging to the same connected area have the same label value, and the respective connected areas, that is, the difference image areas A1, A2, and A3 can be distinguished.

そして、それぞれのラベル値によって区別されたそれぞれの差分画像領域A1,A2,A3ごとに、所定の判定条件を適用することにより、個々の差分画像領域が操作者の手画像102であるか否かを判定する。ここで適用可能な判定条件としては、例えば、色情報(肌色を示す情報)を用いることができる。その判定条件に基づいてそれぞれの差分画像領域ごとに手画像102であるか否かの判定を行うと、この場合、ラベル値「1」を有する差分画像領域A1が手画像102であると判定される。なお、本発明の各実施形態においては、個々の差分画像領域が操作者の手画像102であるか否かの判定は、背景画像データ更新部304がその機能を有しているものとする。   Then, by applying a predetermined determination condition to each of the difference image areas A1, A2, and A3 distinguished by the respective label values, whether each difference image area is the operator's hand image 102 or not. Determine. As applicable determination conditions, for example, color information (information indicating skin color) can be used. When it is determined whether or not each difference image area is the hand image 102 based on the determination condition, in this case, the difference image area A1 having the label value “1” is determined to be the hand image 102. The In each embodiment of the present invention, it is assumed that the background image data update unit 304 has a function for determining whether or not each difference image area is the hand image 102 of the operator.

このようにして、まずは、操作者の手画像102である差分画像領域が決定されると、背景画像データ更新部304は、ステップS5において取得されたラベル値が、手画像102であると判定された差分画像領域のラベル値「1」であるか否かを判定し(ステップS6)、手画像102であると判定された差分画像領域以外の差分画像領域による画素を用いて背景画像データの更新を行う(ステップS7)。   In this way, first, when the difference image area that is the hand image 102 of the operator is determined, the background image data update unit 304 determines that the label value acquired in step S5 is the hand image 102. It is determined whether or not the label value of the difference image area is “1” (step S6), and the background image data is updated using pixels in the difference image area other than the difference image area determined to be the hand image 102. (Step S7).

具体的には、ステップS6によって、手画像102であると判定された差分画像領域以外の差分画像領域に属する画素の画素値を背景画像データの画素値として設定し、それを最新の背景画像データとする。なお、ステップS7において、背景画像データの更新後は、ステップS2に処理が戻り、以降は、その時点で出力される現フレーム画像データと更新後の背景画像データを用いて上述した処理を行う。   Specifically, in step S6, the pixel value of the pixel belonging to the difference image area other than the difference image area determined to be the hand image 102 is set as the pixel value of the background image data, and is set as the latest background image data. And In step S7, after the background image data is updated, the process returns to step S2, and thereafter, the above-described process is performed using the current frame image data output at that time and the updated background image data.

以上のような背景画像データ更新処理を行うことにより、操作者の手画像102に対応する差分画像領域A1以外の差分画像領域、すなわち、差分画像領域A2,A3は、背景画像として新たに組み込まれる。
これにより、更新後の背景画像データに対応する背景画像は、図4(e)のように、箱画像101の他に、差分画像領域A2である鉛筆画像103、差分画像領域A3である消しゴム画像104が新たに含まれたものとなり、次の差分演算においては、これら鉛筆画
像103や消しゴム画像104は差分画像領域として検出されなくなる。よって、以降はラベリング処理対象の数が減少し、ラベリング処理を軽減することができる。
By performing the background image data update process as described above, the difference image areas other than the difference image area A1 corresponding to the hand image 102 of the operator, that is, the difference image areas A2 and A3 are newly incorporated as background images. .
As a result, the background image corresponding to the updated background image data is not only the box image 101 but also the pencil image 103 as the difference image area A2 and the eraser image as the difference image area A3 as shown in FIG. 104 is newly included, and in the next difference calculation, the pencil image 103 and the eraser image 104 are not detected as a difference image area. Therefore, after that, the number of labeling processing targets decreases, and the labeling processing can be reduced.

以上説明したように実施形態1によれば、差分演算を行うことによって得られるそれぞれの差分画像領域(上述の例では操作者の手画像102に対応する差分画像領域A1、鉛筆画像に対応する差分画像領域A2、消しゴムに対応する差分画像領域A3)に対してラベリング処理を行い、これら差分画像領域A1,A2,A3にそれぞれラベル値を与え、与えられたラベル値に基づいて背景画像の更新を行うようにしている。   As described above, according to the first embodiment, each difference image area obtained by performing the difference calculation (the difference image area A1 corresponding to the operator's hand image 102 and the difference corresponding to the pencil image in the above example). A labeling process is performed on the image area A2 and the difference image area A3) corresponding to the eraser, label values are given to the difference image areas A1, A2, and A3, respectively, and the background image is updated based on the given label values. Like to do.

これにより、背景差分法を用いて検出対象画像を検出する際、除去すべき残存背景を確実に除去して検出対象画像を適切に検出可能とするような背景画像更新が可能となる。また、更新後の背景画像データは、検出対象画像以外の差分画像領域に対応する画像データを含んだものとなり、検出対象画像以外の差分画像領域は、以降の差分演算によって検出されなくなる。   As a result, when detecting the detection target image using the background subtraction method, it is possible to update the background image so that the residual background to be removed can be reliably removed and the detection target image can be detected appropriately. The updated background image data includes image data corresponding to the difference image area other than the detection target image, and the difference image area other than the detection target image is not detected by the subsequent difference calculation.

このため、ラベリング処理を行う際、ラベリング処理対象となる差分画像領域の数を少なくすることができるので、ラベリング処理を簡略化することができる。これにより、背景画像データ更新処理をより少ない演算量で短時間に行うことができ、それによって画像検出処理全体を少ない演算量で短時間に行うことができるといった効果も得られる。   For this reason, when the labeling process is performed, the number of difference image areas to be labeled can be reduced, so that the labeling process can be simplified. As a result, the background image data update process can be performed in a short time with a smaller amount of computation, and thus the entire image detection process can be performed in a short time with a small amount of computation.

[実施形態2]
図5は実施形態2に係る画像検出装置32の構成を示す図である。実施形態2に係る画像検出装置32は、2値化処理部302とラベリング処理部303との間に閉鎖・開放処理部305が設けられている点が図2に示す実施形態1に係る画像検出装置31と異なり、その他の構成要素は図2と同様であるので、同一部分には同一符号が付されている。
[Embodiment 2]
FIG. 5 is a diagram illustrating a configuration of the image detection device 32 according to the second embodiment. The image detection apparatus 32 according to the second embodiment is such that the closing / opening processing unit 305 is provided between the binarization processing unit 302 and the labeling processing unit 303, as shown in FIG. Unlike the device 31, the other components are the same as in FIG.

閉鎖・開放処理部305が行なう閉鎖・開放処理は、検出対象画像(この場合、操作者の手画像102)を2値化処理した2値化画像データを可能な限り理想的な2値化画像データとするために行うものである。   The closing / opening process performed by the closing / opening processing unit 305 is the ideal binarized image of binarized image data obtained by binarizing the detection target image (in this case, the operator's hand image 102). This is done to make data.

すなわち、検出対象画像としての操作者の手画像102に対応する画像データに対し、差分演算処理を行ったあと、2値化処理を行った場合、理想的には図6(a)のような手画像102を得ることが望ましい。このとき、輪郭形状は2値化処理前の手画像102とほぼ同等の形状を得ることができるが、図6(b)に示すように、2値化画像に「抜け」(図6(b)においては白抜きで表されている)などが生じることが多い。これは、例えば、照明光の方向などの影響で、検出対象物体としての操作者の手を撮像して得られた画像データを2値化処理する際、‘1’として検出されない部分が存在するなどの理由によるものと考えられる。   That is, when the binarization process is performed after the difference calculation process is performed on the image data corresponding to the hand image 102 of the operator as the detection target image, ideally as illustrated in FIG. It is desirable to obtain a hand image 102. At this time, the contour shape can obtain a shape substantially equivalent to that of the hand image 102 before the binarization process, but as shown in FIG. ) Is often represented in white). This is because, for example, there is a portion that is not detected as '1' when binarizing image data obtained by imaging an operator's hand as a detection target object due to the influence of the direction of illumination light or the like. This is thought to be due to such reasons.

この図6(b)に示すような2値化画像に対応する2値化画像データをラベリング処理して、そのラベリング処理の結果に基づいて背景画像データの更新を行うと、検出対象画像に対応する画像データが部分的に背景画像データに反映される可能性がある。これを防止するために、2値化画像データに対して、閉鎖・開放処理を施す。なお、閉鎖・開放処理は、順序として、まず、閉鎖処理を行い、その後で開放処理を行うことが好ましい。   When the binarized image data corresponding to the binarized image as shown in FIG. 6B is subjected to the labeling process, and the background image data is updated based on the result of the labeling process, it corresponds to the detection target image. There is a possibility that the image data to be partially reflected in the background image data. In order to prevent this, a closing / opening process is performed on the binarized image data. The closing / opening process is preferably performed in the order of the closing process and then the opening process.

図7は閉鎖・開放処理の一例について説明する図である。図7は一般的な画像例を用いて閉鎖・開放処理を説明するものであり、図7(a)の枠内が2値化画像の‘1’の画像領域であり、当該画像領域が閉鎖・開放処理対象となる画像(処理対象画像という)G0であるとする。なお、図7(a)に示す処理対象画像G0は、全体的には四角の形状をなすものであるが、一部に凹部P1と凸部P2を有しているものとする。これら凹部P1及
び凸部P2は処理対象画像G0全体からみれば比較的小さなものであるとする。
FIG. 7 is a diagram illustrating an example of the closing / opening process. FIG. 7 illustrates a closing / opening process using a general image example. The inside of the frame in FIG. 7A is the image area “1” of the binarized image, and the image area is closed. It is assumed that the image is an image to be released (referred to as an image to be processed) G0. It should be noted that the processing target image G0 shown in FIG. 7A has a square shape as a whole, but has a concave portion P1 and a convex portion P2 in part. It is assumed that the concave portion P1 and the convex portion P2 are relatively small when viewed from the entire processing target image G0.

2値化画像における閉鎖・開放処理は、フィルタリングの一種である膨張処理及び収縮処理を組み合わせることによって施される。ここで、膨張処理とは、処理対象画像G0の形状を適切な構造化要素gを用いて膨らます処理である。図7(b)にその処理結果(膨張処理結果)を示す。膨張処理結果は、処理対象画像G0の各画素位置に構造化要素gの原点を重ね合わせて、その和集合を取ったものに等しい。   The closing / opening processing in the binarized image is performed by combining expansion processing and contraction processing, which are a kind of filtering. Here, the expansion process is a process of expanding the shape of the processing target image G0 using an appropriate structuring element g. FIG. 7B shows the processing result (expansion processing result). The result of the expansion process is equal to the result of superimposing the origin of the structuring element g on each pixel position of the processing target image G0 and taking the union thereof.

一方、収縮処理は、処理対象画像G0の形状を削る処理である。図7(c)にその処理結果(収縮処理結果)を示す。収縮処理結果は、処理対象画像G0の各画素位置に構造化要素gの原点を重ね合わせて、構造化要素gがすっぽりと処理対象画像G0に含まれたならばその画素位置を処理結果として残す演算となる。   On the other hand, the shrinking process is a process of cutting the shape of the processing target image G0. FIG. 7C shows the processing result (shrinkage processing result). The contraction processing result is obtained by superimposing the origin of the structuring element g on each pixel position of the processing target image G0. If the structuring element g is completely included in the processing target image G0, the pixel position is left as the processing result. It becomes an operation.

閉鎖・開放処理は、このような膨張処理及び収縮処理を組み合わせることによって施される。すなわち、閉鎖処理は、同じ構造化要素gを用いて、膨張処理から収縮処理の順に処理を施すものである。その結果、構造化要素gに対して、或る程度狭い凹部を除去する効果が得られる。図7(d)は閉鎖処理結果を示すもので、図7(d)における太線枠で囲まれた画像が閉鎖処理後における処理対象画像G1であり、図7(a)の処理対象画像G0に存在していた凹部P1が除去(破線で示す)されたものとなる。   The closing / opening process is performed by combining such an expansion process and a contraction process. That is, the closing process is performed in the order of the expansion process to the contraction process using the same structuring element g. As a result, it is possible to obtain an effect of removing a recess that is somewhat narrow with respect to the structured element g. FIG. 7D shows the result of the closing process, and the image surrounded by the thick line frame in FIG. 7D is the processing target image G1 after the closing process, and the processing target image G0 in FIG. The existing concave portion P1 is removed (indicated by a broken line).

また、開放処理は、同じ構造化要素gを用いて、収縮処理から膨張処理の順に処理を施すものである。その結果、構造化要素gに対してある程度小さい凸部を除去する効果を得ることができる。図7(e)に開放処理結果を示すので、図7(e)における太線で囲まれた画像が開放処理後における処理対象画像G2であり、図7(a)の処理対象画像G0に存在していた凸部P2が除去(破線で示す)されたものとなる。
なお、閉鎖・開放処理は、まずは閉鎖処理を行ったあとに開放処理を行うので、閉鎖・開放処理結果としては、凹部P1及び凸部P2が除去された四角形状となる。
In the release process, the same structuring element g is used to perform the process from the contraction process to the expansion process. As a result, it is possible to obtain an effect of removing a convex portion that is somewhat small with respect to the structuring element g. Since the release processing result is shown in FIG. 7 (e), the image surrounded by the thick line in FIG. 7 (e) is the processing target image G2 after the release processing, and exists in the processing target image G0 in FIG. 7 (a). The projecting portion P2 that has been removed is removed (indicated by a broken line).
Since the closing / opening process is performed first after the closing process is performed, the closing / opening process results in a square shape from which the concave portion P1 and the convex portion P2 are removed.

以上説明したような閉鎖・開放処理を図6(b)に示すような「抜け」などの生じた2値化画像に対して施すことにより、隙間を塗りつぶす効果が得られ、図6(c)に示すような良好な2値化画像が得られる。すなわち、「抜け」などの生じた2値化画像に対して閉鎖・開放処理を施した2値化画像(図6(c)参照)は、検出対象画像全体が1つの差分画像領域として出力されたものとなる。このような閉鎖・開放処理を施した2値化画像に対してラベリング処理を施すことにより、検出対象画像全体に対応する差分画像領域に所定のラベル値を与えることができる。これにより、検出対象画像データが部分的に背景画像データに反映されてしまうのを防ぐことができる。なお、閉鎖・開放処理を施す以外は実施形態1と同様の処理を行うので、その説明は省略する。   By applying the closing / opening processing as described above to the binarized image in which “missing” or the like as shown in FIG. 6B occurs, the effect of filling the gap is obtained, and FIG. A good binarized image as shown in FIG. That is, in the binarized image (see FIG. 6C) obtained by performing the closing / opening process on the binarized image in which “missing” occurs, the entire detection target image is output as one difference image area. It will be. By applying a labeling process to the binarized image subjected to such a closing / opening process, a predetermined label value can be given to the difference image area corresponding to the entire detection target image. Thereby, it is possible to prevent the detection target image data from being partially reflected in the background image data. In addition, since the process similar to Embodiment 1 is performed except performing a closing / opening process, the description is abbreviate | omitted.

なお、本発明は上述の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施可能となるものである。たとえば、検出対象物体は操作者の手としたが、これに限られるものではない。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, the detection target object is an operator's hand, but is not limited thereto.

また、実施形態1において説明した画像検出処理を画像検出装置31に実行させるためのプログラとしての画像検出プログラムを作成することが可能であり、また、作成した画像検出プログラムを各種の記録媒体に記録させておくことも可能である。同様に、実施形態2において説明した画像検出処理を画像検出装置32に実行させるためのプログラムとしての画像検出プログラムを作成することが可能であり、また、作成した画像検出プログラムを各種の記録媒体に記録させておくことも可能である。
したがって、本発明は、これら画像検出プログラムとその画像検出プログラムを記録した記録媒体をも含むものである。また、画像検出プログラムはネットワークから取得する
ようにしてもよい。
Further, it is possible to create an image detection program as a program for causing the image detection apparatus 31 to execute the image detection processing described in the first embodiment, and record the created image detection program in various recording media. It is also possible to leave it. Similarly, it is possible to create an image detection program as a program for causing the image detection apparatus 32 to execute the image detection process described in the second embodiment, and the created image detection program can be stored in various recording media. It is also possible to record it.
Therefore, the present invention includes these image detection programs and a recording medium on which the image detection program is recorded. Further, the image detection program may be acquired from a network.

本発明の各実施形態に係る画像検出装置が組み込まれた画像検出システムの外観構成を示す図。The figure which shows the external appearance structure of the image detection system incorporating the image detection apparatus which concerns on each embodiment of this invention. 実施形態1に係る画像検出装置31の構成を示す図。FIG. 3 is a diagram illustrating a configuration of an image detection apparatus 31 according to the first embodiment. 実施形態1に係る画像検出処理手順を説明するフローチャート。5 is a flowchart for explaining an image detection processing procedure according to the first embodiment. 撮像装置20から得られる画像データに対応する画像を示す図。FIG. 6 is a diagram illustrating an image corresponding to image data obtained from the imaging device 20. 実施形態2に係る画像検出装置32の構成を示す図。FIG. 4 is a diagram illustrating a configuration of an image detection device 32 according to a second embodiment. 検出対象画像(操作者の手画像102)に対応する画像データに対し、差分演算処理後に2値化処理された2値化画像データの例を示す図である。It is a figure which shows the example of the binarized image data by which the binarization process was performed after the difference calculation process with respect to the image data corresponding to a detection target image (operator's hand image 102). 閉鎖・開放処理の一例について説明する図。The figure explaining an example of a closing / opening process.

符号の説明Explanation of symbols

10・・・机、11・・・操作面、20・・・撮像装置、31,32・・・画像検出装置、301・・・差分演算部、302・・・2値化処理部、303・・・ラベリング処理部、304・・・背景画像データ更新部、305・・・閉鎖・開放処理部   DESCRIPTION OF SYMBOLS 10 ... Desk, 11 ... Operation surface, 20 ... Imaging device, 31, 32 ... Image detection device, 301 ... Difference calculating part, 302 ... Binarization processing part, 303. ..Labeling processing unit, 304... Background image data updating unit, 305... Closing / opening processing unit

Claims (6)

画像検出対象範囲を撮像して得られた画像データに基づいて前記画像検出対象範囲に存在する検出対象画像物体に対応する画像を検出対象画像として検出する画像検出装置であって、
背景画像に対応する背景画像データと前記背景画像に少なくとも前記検出対象画像が含まれる全体画像に対応する画像データとの差分演算を行って差分画像データを出力する差分演算部と、
前記差分画像データを2値化して2値化画像データを出力する2値化処理部と、
前記2値化画像データから得られる差分画像領域をラベリング処理して前記差分画像領域に所定のラベル値を与えるラベリング処理部と、
前記ラベリング処理された前記差分画像領域のうち前記検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が前記背景画像に含まれるように前記背景画像データを更新する背景画像データ更新部と、
を有することを特徴とする画像検出装置。
An image detection device that detects, as a detection target image, an image corresponding to a detection target image object existing in the image detection target range based on image data obtained by capturing an image detection target range,
A difference calculation unit for performing difference calculation between background image data corresponding to a background image and image data corresponding to an entire image including at least the detection target image in the background image and outputting difference image data;
A binarization processing unit that binarizes the difference image data and outputs binarized image data;
A labeling processing section applying a predetermined label value the binary image data or al difference image areas obtained by the labeling processing on the difference image area,
The background image data is set such that the background image includes a difference image region having a label value other than the label value given to the difference image region corresponding to the detection target image among the difference image regions subjected to the labeling process. A background image data update unit to be updated;
An image detection apparatus comprising:
請求項1に記載の画像検出装置において、
前記背景画像データは、画像検出処理の開始時においては前記検出対象物体が存在しない状態で前記画像検出対象範囲を撮像して得られた画像データであって、その後においては、前記背景画像データ更新部によって更新された更新後の背景画像データであることを特徴とする画像検出装置。
The image detection apparatus according to claim 1,
The background image data is image data obtained by imaging the image detection target range in a state where the detection target object does not exist at the start of image detection processing, and thereafter, the background image data update An image detection apparatus, wherein the image detection apparatus is updated background image data updated by a unit.
請求項1または2に記載の画像検出装置において、
前記ラベリング処理部におけるラベリング処理の前段階として、前記2値化画像データに対し、閉鎖・開放処理を行う閉鎖・開放処理部をさらに有することを特徴とする画像検出装置。
The image detection apparatus according to claim 1 or 2,
An image detection apparatus, further comprising a closing / opening processing unit that performs a closing / opening process on the binarized image data as a pre-stage of a labeling process in the labeling processing unit.
請求項3に記載の画像検出装置において、
前記閉鎖・開放処理は、その順序として閉鎖処理を行ったあとに開放処理を行うことを特徴とする画像検出装置。
The image detection apparatus according to claim 3.
The image detection apparatus according to claim 1, wherein the closing / opening process is performed in the order of the closing process.
画像検出対象範囲を撮像して得られた画像データに基づいて前記画像検出対象範囲に存在する検出対象画像物体に対応する画像を検出対象画像として検出する画像検出方法であって、
背景画像に対応する背景画像データと前記背景画像に少なくとも前記検出対象画像が含まれる全体画像に対応する画像データとの差分演算を行って差分画像データを出力するステップと、
前記差分画像データを2値化して2値化画像データを出力するステップと、
前記2値化画像データから得られる差分画像領域をラベリング処理して前記差分画像領域に所定のラベル値を与えるステップと、
前記ラベリング処理された前記差分画像領域のうち前記検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が前記背景画像に含まれるように前記背景画像データを更新するステップと、
を有することを特徴とする画像検出方法。
An image detection method for detecting, as a detection target image, an image corresponding to a detection target image object existing in the image detection target range based on image data obtained by capturing an image detection target range,
Performing difference calculation between background image data corresponding to a background image and image data corresponding to an entire image including at least the detection target image in the background image, and outputting difference image data;
Binarizing the difference image data and outputting binarized image data;
And providing a predetermined label value in the difference image region by labeling the difference image region obtained the binarized image data or al,
The background image data is set such that the background image includes a difference image region having a label value other than the label value given to the difference image region corresponding to the detection target image among the difference image regions subjected to the labeling process. A step to update,
An image detection method characterized by comprising:
画像検出対象範囲を撮像して得られた画像データに基づいて前記画像検出対象範囲に存在する検出対象画像物体に対応する画像を検出対象画像として検出する画像検出プログラムであって、
背景画像に対応する背景画像データと前記背景画像に少なくとも前記検出対象画像が含まれる全体画像に対応する画像データとの差分演算を行って差分画像データを出力するステップと、
前記差分画像データを2値化して2値化画像データを出力するステップと、
前記2値化画像データから得られる差分画像領域をラベリング処理して前記差分画像領域に所定のラベル値を与えるステップと、
前記ラベリング処理された前記差分画像領域のうち前記検出対象画像に対応する差分画像領域に与えられたラベル値以外のラベル値を有する差分画像領域が前記背景画像に含まれるように前記背景画像データを更新するステップと、
を有することを特徴とする画像検出プログラム。
An image detection program for detecting, as a detection target image, an image corresponding to a detection target image object existing in the image detection target range based on image data obtained by capturing an image detection target range,
Performing difference calculation between background image data corresponding to a background image and image data corresponding to an entire image including at least the detection target image in the background image, and outputting difference image data;
Binarizing the difference image data and outputting binarized image data;
And providing a predetermined label value in the difference image region by labeling the difference image region obtained the binarized image data or al,
The background image data is set such that the background image includes a difference image region having a label value other than the label value given to the difference image region corresponding to the detection target image among the difference image regions subjected to the labeling process. A step to update,
An image detection program comprising:
JP2006255621A 2006-09-21 2006-09-21 Image detection apparatus, image detection method, and image detection program Expired - Fee Related JP4720700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006255621A JP4720700B2 (en) 2006-09-21 2006-09-21 Image detection apparatus, image detection method, and image detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006255621A JP4720700B2 (en) 2006-09-21 2006-09-21 Image detection apparatus, image detection method, and image detection program

Publications (3)

Publication Number Publication Date
JP2008077379A JP2008077379A (en) 2008-04-03
JP2008077379A5 JP2008077379A5 (en) 2009-07-02
JP4720700B2 true JP4720700B2 (en) 2011-07-13

Family

ID=39349368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006255621A Expired - Fee Related JP4720700B2 (en) 2006-09-21 2006-09-21 Image detection apparatus, image detection method, and image detection program

Country Status (1)

Country Link
JP (1) JP4720700B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616293A (en) * 2015-01-21 2015-05-13 佛山市智海星空科技有限公司 Preprocessing-based target track estimation method
CN106056097A (en) * 2016-08-17 2016-10-26 西华大学 Millimeter wave weak small target detection method

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567987A (en) * 2011-11-28 2012-07-11 贵州大学 Method for detecting manual fuzzy operation trace in image synthesis tampering
CN102663752B (en) * 2012-04-11 2014-10-15 南京理工大学 SAM weighted KEST hyperspectral anomaly detection algorithm
CN102722889B (en) * 2012-05-31 2015-12-16 信帧科技(北京)有限公司 A kind of image background acquisition methods and device
JP6095283B2 (en) * 2012-06-07 2017-03-15 キヤノン株式会社 Information processing apparatus and control method thereof
CN104282013B (en) * 2013-07-08 2017-11-21 浙江大华技术股份有限公司 A kind of image processing method and device for foreground target detection
CN103489317A (en) * 2013-10-10 2014-01-01 扬州瑞控汽车电子有限公司 Method for detecting vehicle in different scenes
JP6482196B2 (en) * 2014-07-09 2019-03-13 キヤノン株式会社 Image processing apparatus, control method therefor, program, and storage medium
CN104122271A (en) * 2014-07-09 2014-10-29 宁波摩视光电科技有限公司 Automated optical inspection (AOI)-based bullet apparent defect detection method
CN104378619B (en) * 2014-11-12 2016-09-28 合肥工业大学 A kind of hole-filling algorithm rapidly and efficiently based on front and back's scape gradient transition
CN104574409B (en) * 2015-01-19 2018-05-04 中国科学院遥感与数字地球研究所 A kind of method and device that target is detected from image
CN104504726B (en) * 2015-01-19 2017-10-13 中国科学院遥感与数字地球研究所 A kind of method and device that target is detected from image
CN104599511B (en) * 2015-02-06 2016-11-30 中国石油大学(华东) Traffic flow detection method based on background modeling
CN104952081B (en) * 2015-07-20 2018-01-12 电子科技大学 A kind of COG bias detecting methods based on extreme value difference statisticses feature
CN105679090B (en) * 2015-10-21 2017-11-28 天津师范大学 A kind of night driver driving householder method based on smart mobile phone
CN105654468B (en) * 2015-12-21 2019-03-22 中国石油大学(华东) A kind of tealeaves tender shoots detection method based on deep learning and image edge information
CN105761271B (en) * 2016-03-16 2019-03-19 武汉大学 Nuclear containment surface defect automatic testing method and system
JP7021744B2 (en) * 2018-02-05 2022-02-17 Necプラットフォームズ株式会社 Printer, transfer control device, transfer control method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083301A (en) * 2000-09-06 2002-03-22 Mitsubishi Electric Corp Traffic monitoring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616293A (en) * 2015-01-21 2015-05-13 佛山市智海星空科技有限公司 Preprocessing-based target track estimation method
CN106056097A (en) * 2016-08-17 2016-10-26 西华大学 Millimeter wave weak small target detection method
CN106056097B (en) * 2016-08-17 2019-04-26 西华大学 Millimeter wave detection method of small target

Also Published As

Publication number Publication date
JP2008077379A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4720700B2 (en) Image detection apparatus, image detection method, and image detection program
WO2005048191A3 (en) Object detection in images
JP2010239605A (en) Video editing device
JP4645457B2 (en) Watermarked image generation device, watermarked image analysis device, watermarked image generation method, medium, and program
JP2018142828A (en) Deposit detector and deposit detection method
JP2011029710A (en) Image processor, image processing program, and imaging apparatus
KR20150107581A (en) Image processing apparatus and image processing method
TWI532015B (en) Data computing method, data computing device and defect detecting device
JPH1164236A (en) Method and device for detecting defect and recording medium recording defect detection control program
JP4804433B2 (en) Image processing apparatus, image processing method, and image processing program
KR20040078538A (en) Image processing device for recognizing outline of moving target and method therefor
JP2009295028A (en) Image processing method and image processing device
JP2007102650A (en) System, method and program for detecting motion area
JP2006035505A (en) Method and device for inspecting printed matter
JP2008040724A (en) Image processing device and image processing method
JP2002140695A (en) Inspection method and its device
JP4844784B2 (en) Printing plate inspection device
WO2023243202A1 (en) Image generation method and external appearance inspection device
JP3367450B2 (en) Electronic component appearance inspection method, appearance inspection apparatus, and recording medium storing a program for causing a computer to execute the appearance inspection process
JPH06147855A (en) Image inspection method
JP2005251132A (en) Shadow detector, shadow detection method, shadow detection program, image processor using shadow detector, image processing method using shadow detection method and image processing program using shadow detection program
JP4448119B2 (en) Image processing apparatus, noise removal method, and noise removal filter
JP2007272479A (en) Overlapping shadow area discrimination method and overlapping shadow area discrimination device
JP2006279441A (en) Image processing method, apparatus, and program
JP2008032532A (en) Defect detection device, defect detection method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4720700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees