JP2016103246A - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP2016103246A
JP2016103246A JP2014242546A JP2014242546A JP2016103246A JP 2016103246 A JP2016103246 A JP 2016103246A JP 2014242546 A JP2014242546 A JP 2014242546A JP 2014242546 A JP2014242546 A JP 2014242546A JP 2016103246 A JP2016103246 A JP 2016103246A
Authority
JP
Japan
Prior art keywords
moving object
attribute information
image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014242546A
Other languages
Japanese (ja)
Other versions
JP6275022B2 (en
Inventor
全史 大津
Masafumi Otsu
全史 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014242546A priority Critical patent/JP6275022B2/en
Publication of JP2016103246A publication Critical patent/JP2016103246A/en
Application granted granted Critical
Publication of JP6275022B2 publication Critical patent/JP6275022B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image monitoring device in which accuracy of detecting a detection object is improved.SOLUTION: An image monitoring device comprises: mobile object region extraction means 51 for extracting mobile object regions from images; tracking means 53 for sequentially tracking the mobile object regions by the same mobile object on the images; attribute information calculation means 54 for calculating attribute information indicating the likelihood of a detection object with respect to the mobile object regions; region association means 55 for forming one group by associating mobile object regions having a predetermined positional relation in the mobile object region by the same mobile object, and forming independently groups in the other mobile object regions; reference attribute information calculation means 56 for calculating one reference attribute information using attribute information of the mobile object regions formed for each group; and object determination means 57 for determining whether or not the detection object is present using the reference attribute information.SELECTED DRAWING: Figure 2

Description

本発明は、監視領域を撮像した画像を順次処理し、監視領域に検出対象が存在するか否かを判定する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that sequentially processes images captured in a monitoring area and determines whether or not a detection target exists in the monitoring area.

従来、監視領域の画像をカメラで撮影し、撮影した画像から侵入者等の検出対象を検出する画像監視装置がある。このような画像監視装置では、順次撮影した画像(入力画像)と予め記憶してある基準画像(背景画像)とを比較して、変化のある領域(移動物体領域)を抽出する。そして、移動物体領域に基づいて監視領域中の侵入者(人間)の存在を検出する。しかし、移動物体領域として抽出されるのは、人間だけではない。例えば、太陽光や照明光による変化、風に揺れる植栽やその影、小動物や虫などの変化も移動物体領域として抽出される。このため、画像監視装置では、これらの外乱による変化と検出対象である人間による変化とを区別する必要がある。   2. Description of the Related Art Conventionally, there is an image monitoring apparatus that captures an image of a monitoring area with a camera and detects a detection target such as an intruder from the captured image. In such an image monitoring apparatus, a sequentially changed image (input image) is compared with a reference image (background image) stored in advance, and an area with a change (moving object area) is extracted. Then, the presence of an intruder (human) in the monitoring area is detected based on the moving object area. However, it is not only humans that are extracted as moving object regions. For example, changes due to sunlight or illumination light, planting swaying in the wind, shadows thereof, changes in small animals, insects, and the like are also extracted as moving object regions. For this reason, in the image monitoring apparatus, it is necessary to distinguish between a change caused by these disturbances and a change caused by a human being to be detected.

特許文献1には、撮影された画像情報を処理して、人間らしさを多値で示す人属性情報と、人間以外の要因らしさを多値で示す外乱属性情報とを算出し、人属性情報と外乱属性情報との累積値の比率に基づき人間の存在の有無を判定する画像センサが開示されている。特に、特許文献1の画像センサは、フレーム毎に人属性情報と外乱属性情報を算出し、それぞれの属性情報の複数フレームにおける累積値どうしを比較することで検出精度を向上させている。   In Patent Document 1, the captured image information is processed to calculate human attribute information that indicates humanity in multiple values and disturbance attribute information that indicates multiplicity of factors other than humans. An image sensor that determines the presence or absence of a human based on a ratio of a cumulative value with disturbance attribute information is disclosed. In particular, the image sensor of Patent Literature 1 improves the detection accuracy by calculating human attribute information and disturbance attribute information for each frame and comparing cumulative values of a plurality of frames of each attribute information.

特開2001−243475号公報JP 2001-243475 A

ところで、人属性情報は、移動物体領域の大きさや形状が人間らしい場合に高い値となる。また、「人間は、影や光とは違って実体が存在する」ことに着目し、移動物体領域内において、背景画像に映っている背景物のエッジを隠していたり、背景画像との輝度値の相関が低い場合に、人属性情報は高い値となる。   By the way, the human attribute information has a high value when the size and shape of the moving object region are human. Also, paying attention to the fact that “human beings exist differently from shadows and light”, the edges of background objects reflected in the background image are hidden in the moving object area, or the brightness value of the background image When the correlation of is low, the human attribute information has a high value.

しかしながら、人間以外の移動物体が撮像された場合でも、人属性情報が外乱属性情報(人以外属性情報)よりも高く算出されてしまうことがある。この原因として、移動物体の存在する位置によって入力画像上の移動物体の映り方が人間らしく見えてしまう(光の当たり方やカメラとの位置関係によって人間らしく映ってしまう)ことや、移動物体の背後に存在する背景物のテクスチャが影響して背景画像の特徴を用いて算出される属性情報の算出精度が下がってしまうことが考えられる。   However, even when a moving object other than a human being is imaged, the human attribute information may be calculated higher than the disturbance attribute information (non-human attribute information). The cause of this is that the moving object on the input image looks like a human depending on the position of the moving object (it appears human as a result of how the light hits and the position of the camera), or behind the moving object It is conceivable that the calculation accuracy of the attribute information calculated using the characteristics of the background image is lowered due to the influence of the texture of the existing background object.

特許文献1のように属性情報の累積値を用いて人間か否かを判定することの利点は、あるフレームにおいて、属性情報が精度良く算出できなくても、他のフレームで属性情報が精度良く算出されれば、検出精度が確保できることにある。   The advantage of determining whether or not a person is a person using the accumulated value of attribute information as in Patent Document 1 is that even if attribute information cannot be calculated with high accuracy in a certain frame, the attribute information with other frames has high accuracy. If calculated, the detection accuracy can be ensured.

しかしながら、前述したように属性情報を精度良く算出しにくい画像上の位置に移動物体が留まると、精度の低い属性情報が累積値(フレーム毎の属性情報の和)に大きな影響を与えることになり、その結果、精度の低い属性情報によって累積値が人間か否かを判定するための閾値を超えてしまうという問題があった。   However, as described above, if the moving object stays at a position on the image where it is difficult to accurately calculate the attribute information, the attribute information with low accuracy will greatly affect the accumulated value (the sum of the attribute information for each frame). As a result, there is a problem that the threshold value for determining whether or not the accumulated value is human is exceeded by attribute information with low accuracy.

本発明は、上記問題を鑑みてなされたものであり、検出対象の検出精度を高めた画像監視装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an image monitoring apparatus with improved detection accuracy of a detection target.

本発明の1つの態様は、監視領域を順次撮像した画像を入力し、前記画像に検出対象が存在するか否かを判定する画像監視装置であって、前記画像から移動物体領域を抽出する移動物体領域抽出手段と、同一移動物体による移動物体領域を前記画像上にて順次追跡する追跡手段と、前記移動物体領域に対して検出対象らしさを表す属性情報を算出する属性情報算出手段と、前記同一移動物体による移動物体領域において、所定の位置関係を有している移動物体領域を関連付けて1つのグループを構成させ、その他の移動物体領域を単独にてグループを構成させる領域関連付手段と、前記グループ毎に、構成する移動物体領域の属性情報を用いて1つの代表属性情報を算出する代表属性情報算出手段と、前記代表属性情報を用いて前記検出対象が存在するか否かを判定する対象判定手段と、を備えることを特徴とする画像監視装置である。   One aspect of the present invention is an image monitoring apparatus that inputs an image obtained by sequentially capturing a monitoring area and determines whether or not a detection target exists in the image, the moving object area extracting from the image An object area extracting means, a tracking means for sequentially tracking a moving object area by the same moving object on the image, an attribute information calculating means for calculating attribute information indicating the likelihood of detection for the moving object area, In a moving object region by the same moving object, a region association means for associating a moving object region having a predetermined positional relationship to form one group and forming the other moving object regions independently as a group; For each group, representative attribute information calculating means for calculating one representative attribute information using attribute information of the moving object area constituting the group, and the detection target using the representative attribute information And determining target determining means for determining whether or not there is an image monitoring apparatus comprising: a.

ここで、前記領域関連付手段は、前記移動物体領域の属性情報が変動し難い相互位置に所在する関係を前記所定の位置関係とすることが好適である。   Here, it is preferable that the area association means uses the predetermined positional relation as a relation located in a mutual position where the attribute information of the moving object area hardly changes.

また、前記領域関連付手段は、予め画像上に設定された範囲に前記移動物体領域が所在する関係を前記所定の位置関係とすることが好適である。   Further, it is preferable that the region association means sets the relationship in which the moving object region is located in a predetermined range on the image as the predetermined positional relationship.

また、前記領域関連付手段は、前記移動物体領域の追跡開始時点の位置を基準位置に設定し、当該基準位置から所定範囲内に移動物体領域が所在する関係を前記所定の位置関係として関連付け、前記移動物体領域が前記基準位置から前記所定範囲外になると、その時点における移動物体領域の位置を新たな基準位置として設定することが好適である。   In addition, the region association unit sets the position of the tracking start point of the moving object region as a reference position, associates the relationship where the moving object region is located within a predetermined range from the reference position as the predetermined positional relationship, When the moving object region is outside the predetermined range from the reference position, it is preferable to set the position of the moving object region at that time as a new reference position.

また、前記対象判定手段は、少なくとも前記代表属性情報の累積値又は平均値に基づいて前記検出対象が存在するか否かを判定することが好適である。   Further, it is preferable that the target determination unit determines whether or not the detection target exists based on at least a cumulative value or an average value of the representative attribute information.

本発明によれば、監視領域を撮像した画像を順次処理し、監視領域に検出対象が存在するか否かを判定する画像監視装置において、検出対象の検出精度を高めることができる。   ADVANTAGE OF THE INVENTION According to this invention, the detection precision of a detection target can be raised in the image monitoring apparatus which processes the image which imaged the monitoring area | region sequentially, and determines whether a detection target exists in a monitoring area | region.

本発明の実施の形態における監視領域の状況を示す図である。It is a figure which shows the condition of the monitoring area | region in embodiment of this invention. 本発明の実施の形態における画像監視装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the image monitoring apparatus in embodiment of this invention. 本発明の実施の形態における監視領域に人間が侵入したときの入力画像及び移動物体領域を示す図である。It is a figure which shows an input image and a moving object area | region when a person penetrates into the monitoring area | region in embodiment of this invention. 本発明の実施の形態における監視領域に虫が存在するときの入力画像及び移動物体領域を示す図である。It is a figure which shows an input image when a bug exists in the monitoring area | region in embodiment of this invention, and a moving object area | region. 本発明の実施の形態における属性情報を算出するためのメンバーシップ関数を示す図である。It is a figure which shows the membership function for calculating the attribute information in embodiment of this invention. 本発明の実施の形態における移動物体領域の関連付処理を説明する図である。It is a figure explaining the association process of the moving object area | region in embodiment of this invention. 本発明の実施の形態における属性情報及び代表属性情報に基づく画像判定を説明する図である。It is a figure explaining the image determination based on the attribute information and representative attribute information in an embodiment of the present invention. 本発明の実施の形態における画像監視処理を示すフローチャートである。It is a flowchart which shows the image monitoring process in embodiment of this invention. 本発明の実施例における領域関連付処理を示すフローチャートである。It is a flowchart which shows the area | region correlation process in the Example of this invention.

本発明の実施の形態について、図面に基づいて説明する。本発明の画像監視装置は、屋内や屋外の監視領域を撮像した画像から検出対象を検出するものである。本実施の形態では、屋外の監視領域にて、当該監視領域の外部から監視領域の内部に侵入してきた人間を検出する。   Embodiments of the present invention will be described with reference to the drawings. The image monitoring apparatus of the present invention detects a detection target from an image obtained by capturing an indoor or outdoor monitoring area. In the present embodiment, a person who has entered the monitoring area from the outside of the monitoring area is detected in the outdoor monitoring area.

図1は、監視領域における様々な状況を示すイメージ図である。図1(a)と図1(b)は、同じ監視領域の異なる時刻の状況を示している。監視領域には、背景物として樹木11が存在している。カメラ2は、所定の高さに設置され、監視領域を上方から下方に向かって所定の俯角で撮影している。図1(a)は、時刻Tにおいて、人間9が監視領域内を建物12に向かって歩行している状況を示している。また、図1(b)は、時刻tにおいて、監視領域内のカメラ2の付近にクモ10が存在している状況を示している。   FIG. 1 is an image diagram showing various situations in the monitoring area. FIG. 1A and FIG. 1B show the situation at different times in the same monitoring area. A tree 11 exists as a background object in the monitoring area. The camera 2 is installed at a predetermined height, and images a monitoring area at a predetermined depression angle from above to below. FIG. 1A shows a situation where a person 9 is walking in the monitoring area toward the building 12 at time T. Moreover, FIG.1 (b) has shown the condition where the spider 10 exists in the vicinity of the camera 2 in the monitoring area | region at the time t.

本実施の形態では、画像監視処理の例として、当該監視領域において検出対象である人間9と検出対象ではないクモ10を区別する場合を説明する。   In the present embodiment, as an example of image monitoring processing, a case will be described in which a person 9 that is a detection target and a spider 10 that is not a detection target are distinguished in the monitoring region.

図2は、本実施の形態における画像監視装置1の機能ブロック図である。画像監視装置1は、図2に示すように、画像入力部3、記憶部4、画像処理部5、異常判定部6、出力部7及び背景画像更新部8を含んで構成されている。本実施の形態では、画像監視装置1として各部を一体的に説明するが、画像入力部3、記憶部4、画像処理部5、異常判定部6、出力部7、背景画像更新部8を別筐体に格納し、通信技術を用いて必要な制御信号等を通信するようにしてもよい。また、本実施の形態では、カメラ2を画像監視装置1と別筐体としているが、他の構成要素と同一の筐体に組み込んでもよい。なお、これに限らず、その他の筐体構成を採用してもよい。   FIG. 2 is a functional block diagram of the image monitoring apparatus 1 in the present embodiment. As shown in FIG. 2, the image monitoring apparatus 1 includes an image input unit 3, a storage unit 4, an image processing unit 5, an abnormality determination unit 6, an output unit 7, and a background image update unit 8. In the present embodiment, each unit is described as the image monitoring apparatus 1, but the image input unit 3, the storage unit 4, the image processing unit 5, the abnormality determination unit 6, the output unit 7, and the background image update unit 8 are separately provided. You may make it store in a housing | casing and communicate a required control signal etc. using a communication technique. In the present embodiment, the camera 2 is separated from the image monitoring apparatus 1 but may be incorporated in the same housing as other components. In addition, you may employ | adopt not only this but another housing structure.

カメラ2は、監視領域を撮像する。カメラ2は、光学系、CCD素子又はC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される。カメラ2は、固定設置され、視野は一定に保たれる。そして、カメラ2は、一定の時間間隔(例えば、毎フレーム1/5秒)で順次撮像する。撮像した画像は、例えば、各画素値が、0〜255の画素値を有するデジタル画像として表現される。なお、カメラ2は、カラー画像を生成するものでもよい。   The camera 2 images the monitoring area. The camera 2 includes an optical system, an image sensor such as a CCD element or a C-MOS element, optical system parts, an analog / digital converter, and the like. The camera 2 is fixedly installed and the field of view is kept constant. The camera 2 sequentially captures images at regular time intervals (for example, every frame 1/5 second). The captured image is expressed as a digital image in which each pixel value has a pixel value of 0 to 255, for example. The camera 2 may generate a color image.

画像入力部3は、カメラ2と接続され、カメラ2で撮像された画像を順次取得し、当該画像を画像処理部5に順次出力するインターフェースである。以下、画像入力部3が取得し、画像処理部5にて検出対象の存否を判定する対象となる画像を入力画像40と称する。   The image input unit 3 is an interface that is connected to the camera 2, sequentially acquires images taken by the camera 2, and sequentially outputs the images to the image processing unit 5. Hereinafter, an image that is acquired by the image input unit 3 and is determined by the image processing unit 5 to determine whether or not a detection target exists is referred to as an input image 40.

なお、本実施の形態では、画像入力部3は、カメラ2の撮像タイミングに合わせて順次画像を取得する。しかし、これに限定されるものではなく、画像入力部3は、取得した画像を後述する記憶部4に記憶し、記憶部4を介して画像処理部5に入力画像40を順次出力してもよい。また、画像入力部3を画像監視装置1の外部に設けた記憶装置(図示しない)に接続し、当該記憶装置に記憶されているカメラ2で撮像された入力画像40を順次取得するようにしてもよい。   In the present embodiment, the image input unit 3 sequentially acquires images in accordance with the imaging timing of the camera 2. However, the present invention is not limited to this, and the image input unit 3 may store the acquired image in the storage unit 4 to be described later and sequentially output the input images 40 to the image processing unit 5 via the storage unit 4. Good. Further, the image input unit 3 is connected to a storage device (not shown) provided outside the image monitoring device 1, and the input images 40 captured by the camera 2 stored in the storage device are sequentially acquired. Also good.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ、ハードディスク等のメモリ装置で構成される。記憶部4は、画像処理部5および背景画像更新部8などからアクセス可能である。   The storage unit 4 includes a semiconductor device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and a memory device such as a hard disk. The storage unit 4 is accessible from the image processing unit 5, the background image update unit 8, and the like.

記憶部4に記憶される主な情報は、背景画像41である。背景画像41は、監視領域内に検出対象が存在しないときに撮影された画像である。背景画像41は、後述する背景画像更新部8にて適宜更新される。また、図示しないが、記憶部4は、画像監視装置1の各処理を実現するための各種プログラムやパラメータ、カメラ2の設置高や俯角などの情報も記憶する。   The main information stored in the storage unit 4 is the background image 41. The background image 41 is an image taken when there is no detection target in the monitoring area. The background image 41 is appropriately updated by a background image update unit 8 described later. Although not shown, the storage unit 4 also stores various programs and parameters for realizing each process of the image monitoring apparatus 1 and information such as the installation height and depression angle of the camera 2.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)又はMCU(Micro Control Unit)等の演算装置により構成され、記憶部4に記憶している各種プログラムを読み出して実行して画像監視処理を行う。画像監視処理では、画像入力部3によって取得された入力画像40を順次処理する。なお、本実施の形態では、入力画像40は、1フレーム毎に撮影時間順に処理される。   The image processing unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads and executes various programs stored in the storage unit 4. Perform image monitoring processing. In the image monitoring process, the input images 40 acquired by the image input unit 3 are sequentially processed. In the present embodiment, the input image 40 is processed in order of photographing time for each frame.

画像処理部5は、移動物体領域抽出手段51、位置算出手段52、追跡手段53、属性情報算出手段54、領域関連付手段55、代表属性情報算出手段56及び対象判定手段57の各モジュールを含んで構成される。以下、各モジュールについて説明する。   The image processing unit 5 includes modules of a moving object region extraction unit 51, a position calculation unit 52, a tracking unit 53, an attribute information calculation unit 54, an area association unit 55, a representative attribute information calculation unit 56, and a target determination unit 57. Consists of. Hereinafter, each module will be described.

移動物体領域抽出手段51は、画像入力部3が取得した入力画像40について、変化が生じている領域(移動物体領域)を抽出する。具体的には、入力画像40と、記憶部4に記憶されている背景画像41との差分の絶対値を求め、当該差分の絶対値が所定の閾値以上となる領域を差分領域(2値)として抽出する。そして、移動物体領域抽出手段51は、1枚のフレームから抽出された差分領域に対して、同一移動物体による差分領域をラベル付けする。具体的には、8連結で隣接する画素をひとまとまりとしてラベル領域とし、近接するラベル領域に対しては、一定の大きさや位置関係にあるものを同一移動物体であるとし、一つのラベル領域とする。以降、このラベル領域を「移動物体領域」と称する。   The moving object region extraction unit 51 extracts a region (moving object region) where a change has occurred in the input image 40 acquired by the image input unit 3. Specifically, an absolute value of a difference between the input image 40 and the background image 41 stored in the storage unit 4 is obtained, and an area where the absolute value of the difference is equal to or greater than a predetermined threshold is a difference area (binary). Extract as Then, the moving object area extraction unit 51 labels the difference area extracted from one frame with the difference area based on the same moving object. Specifically, eight adjacent and adjacent pixels are grouped as a label area, and adjacent label areas having a certain size or positional relationship are the same moving object, and one label area and To do. Hereinafter, this label area is referred to as a “moving object area”.

なお、移動物体領域の抽出は、上述した背景差分に限らず、複数のフレーム間における差分や、背景画像41と入力画像40の正規化相関や学習識別器等で検出した領域を用いてもよい。   The extraction of the moving object region is not limited to the background difference described above, and a difference between a plurality of frames, a normalized correlation between the background image 41 and the input image 40, a region detected by a learning classifier, or the like may be used. .

位置算出手段52は、移動物体領域抽出手段51にて抽出された移動物体領域について、入力画像40上の位置を算出する。具体的には、移動物体領域の重心座標を算出する。移動物体領域毎に算出した重心座標は、記憶部4に記憶されるとともに、後述する追跡手段53および領域関連付手段55などに出力される。   The position calculating unit 52 calculates the position on the input image 40 for the moving object region extracted by the moving object region extracting unit 51. Specifically, the barycentric coordinates of the moving object region are calculated. The center-of-gravity coordinates calculated for each moving object area are stored in the storage unit 4 and output to a tracking unit 53 and an area association unit 55 described later.

追跡手段53は、移動物体領域抽出手段51にて抽出された移動物体領域を時間的に追跡する。具体的には、異なる時刻に撮像された入力画像40間で、同一の移動物体による移動物体領域を対応付けることで、移動物体領域の追跡を実現する。追跡手段53は、前回フレームの移動物体領域と今回のフレームの移動物体領域との対応付けを行い、前回フレームの移動物体領域と対応付けられない移動物体領域は、新規の追跡対象として追跡を開始する。また、前回フレームまでに追跡されていた移動物体領域のうち、今回のフレームの移動物体領域と対応付けられない移動物体領域については、当該移動物体領域に対する追跡処理を終了する。なお、移動物体領域の対応付けは、位置算出手段52にて算出された重心座標や、別途算出した移動物体領域の面積を用いて、公知の手法によって行えばよい。   The tracking unit 53 temporally tracks the moving object region extracted by the moving object region extracting unit 51. Specifically, tracking of the moving object region is realized by associating the moving object regions of the same moving object between the input images 40 captured at different times. The tracking unit 53 associates the moving object region of the previous frame with the moving object region of the current frame, and starts tracking the moving object region that is not associated with the moving object region of the previous frame as a new tracking target. To do. In addition, among the moving object areas that have been tracked up to the previous frame, for the moving object area that is not associated with the moving object area of the current frame, the tracking process for the moving object area ends. The association of the moving object areas may be performed by a known method using the barycentric coordinates calculated by the position calculation unit 52 or the area of the moving object area calculated separately.

ここで、図3及び図4を参照して、本実施の形態における画像と移動物体領域について説明する。図3及び図4は、本実施の形態における各種画像と移動物体領域を示した図である。   Here, with reference to FIG. 3 and FIG. 4, an image and a moving object region in the present embodiment will be described. 3 and 4 are diagrams showing various images and moving object areas in the present embodiment.

図3は、図1(a)の状況にある監視領域を時々刻々撮像した複数の入力画像40に対応する。図4は、図1(b)の状況にある監視領域を時々刻々撮像した複数の入力画像40に対応する。背景画像41は、図3及び図4において同じ画像であり、ともに監視領域内に存在する樹木11が映っている。   FIG. 3 corresponds to a plurality of input images 40 obtained by capturing the monitoring area in the state of FIG. FIG. 4 corresponds to a plurality of input images 40 in which the monitoring area in the state of FIG. The background image 41 is the same image in FIGS. 3 and 4, and both show the trees 11 existing in the monitoring area.

まず、図3について説明する。図1(a)に示した時刻Tの時点の監視領域を撮影した入力画像T、入力画像Tの前2フレーム分と後3フレーム分の入力画像である入力画像T−2、入力画像T−1、入力画像T+1、入力画像T+2、入力画像T+3が撮影時刻順に並んでいる。これらの入力画像には、人間9と樹木11が映っており、時刻が進むにつれて、人間9は樹木11の前方を通って右方向に移動している。各フレームの入力画像と背景画像41を用いて抽出された移動物体領域は、黒色で示す移動物体領域13aとなる。なお、移動物体領域13aは、入力画像T−2の時点において新規の追跡対象として追跡が開始され、入力画像T+3の時点まで追跡されている。   First, FIG. 3 will be described. An input image T obtained by photographing the monitoring area at the time T shown in FIG. 1A, an input image T-2 that is an input image for two frames before and after the input image T, and an input image T- 1, an input image T + 1, an input image T + 2, and an input image T + 3 are arranged in order of photographing time. These input images show a person 9 and a tree 11, and the person 9 moves to the right through the front of the tree 11 as time advances. The moving object area extracted using the input image of each frame and the background image 41 becomes a moving object area 13a shown in black. The moving object region 13a is started to be tracked as a new tracking target at the time of the input image T-2 and is tracked up to the time of the input image T + 3.

次に、図4について説明する。図1(b)に示した時刻tの時点の監視領域を撮影した入力画像t、入力画像tの前2フレーム分と後3フレーム分の入力画像である入力画像t−2、入力画像t−1、入力画像t+1、入力画像t+2、入力画像t+3が撮影時刻順に並んでいる。これらの入力画像には、クモ10と樹木11が映っており、時刻が進むにつれて、クモ10は風に揺れ、画像の中央に映っている樹木11の前方を横切って右方向に移動している。このとき、クモ10は、カメラ2の近傍に存在しているため入力画像上では図3に示す人間9と同じくらいの大きさに映る。各フレームの入力画像と背景画像41を用いて抽出された移動物体領域は、黒色で示す移動物体領域13bとなる。なお、移動物体領域13bは、入力画像t−2の時点に新規の追跡対象として追跡が開始され、入力画像t+3の時点まで追跡されている。   Next, FIG. 4 will be described. An input image t obtained by photographing the monitoring area at the time t shown in FIG. 1B, an input image t-2 that is an input image for two frames before and after the input image t, and an input image t- 1, an input image t + 1, an input image t + 2, and an input image t + 3 are arranged in order of photographing time. In these input images, the spider 10 and the tree 11 are shown. As the time advances, the spider 10 sways in the wind and moves to the right across the front of the tree 11 shown in the center of the image. . At this time, since the spider 10 exists in the vicinity of the camera 2, it appears on the input image as large as the human 9 shown in FIG. 3. The moving object region extracted using the input image of each frame and the background image 41 becomes a moving object region 13b shown in black. The moving object region 13b is tracked as a new tracking target at the time of the input image t-2 and is tracked up to the time of the input image t + 3.

属性情報算出手段54は、追跡手段53にて追跡されている移動物体領域について、フレーム毎に、検出対象らしさを表わす属性情報を算出する。本実施の形態では、人間らしさを表す人属性情報を算出する。また、属性情報算出手段54は、追跡手段53にて追跡されている移動物体領域について、フレーム毎に、人間以外らしさを表す人以外属性情報を算出する。本実施の形態では、人以外属性情報として、虫らしさを表す虫属性情報を算出する。属性情報算出手段54は、フレーム毎に算出した属性情報を記憶部4に記憶するとともに、後述する代表属性情報算出手段56に出力する。以下に、人属性情報と虫属性情報の算出について詳細に説明する。   The attribute information calculation unit 54 calculates attribute information indicating the likelihood of detection for each frame of the moving object region tracked by the tracking unit 53. In the present embodiment, human attribute information representing humanity is calculated. Further, the attribute information calculation unit 54 calculates non-human attribute information representing the non-human attribute for each frame of the moving object region tracked by the tracking unit 53. In the present embodiment, insect attribute information representing insect likeness is calculated as non-human attribute information. The attribute information calculation unit 54 stores the attribute information calculated for each frame in the storage unit 4 and outputs it to the representative attribute information calculation unit 56 described later. Hereinafter, calculation of human attribute information and insect attribute information will be described in detail.

まず、人属性情報の算出について説明する。属性情報算出手段54は、追跡手段53にて追跡されている移動物体領域について、フレーム毎に、人属性情報を算出するための特徴量(人属性要素)を算出する。本実施の形態では、移動物体領域の実面積(人属性要素1)、背景輝度相関(人属性要素2)、背景エッジ保存率(人属性要素3)を算出する。   First, calculation of human attribute information will be described. The attribute information calculation unit 54 calculates a feature amount (human attribute element) for calculating human attribute information for each frame of the moving object region tracked by the tracking unit 53. In the present embodiment, the actual area of the moving object region (human attribute element 1), the background luminance correlation (human attribute element 2), and the background edge preservation ratio (human attribute element 3) are calculated.

「実面積」は、移動物体領域の大きさについて、人間の大きさとしての妥当性を示す特徴量である。属性情報算出手段54は、例えば、移動物体領域に外接する矩形について、入力画像40内の位置とカメラ2の設置高・俯角情報等のパラメータに基づいて求まる実空間での高さ×幅から実面積を算出する。「背景輝度相関」は、「人間は光や影と違って実体があり、また、衣服を身に着けているため背景とはテクスチャが異なる」ということを利用した特徴量である。属性情報算出手段54は、例えば、移動物体領域内について背景画像41の輝度値と入力画像40の輝度値の相関を算出する。相関値が低いほど人間としての妥当性が高いことを表す。「背景エッジ保存率」は、「人間は光や影と違って実体があるため背景物を隠す」ということを利用した特徴量である。属性情報算出手段54は、例えば、移動物体領域内について、「背景画像41のエッジの数」に占める「入力画像40のエッジ且つ背景画像41のエッジの数」×100で求める。すなわち、「背景エッジ保存率」が低いほど、背景物が実体によって隠されて背景物のエッジが入力画像40から消えたことを表し、実体のある人間としての妥当性が高いことを表す。   The “real area” is a feature amount indicating the validity of the size of the moving object region as a human size. For example, the attribute information calculation unit 54 calculates the actual value from the height x width in the real space obtained based on parameters such as the position in the input image 40 and the installation height and depression angle information of the camera 2 for the rectangle circumscribing the moving object region. Calculate the area. “Background luminance correlation” is a feature quantity that utilizes the fact that “human beings are different from light and shadow, and because they wear clothes, the texture is different from the background”. For example, the attribute information calculation unit 54 calculates the correlation between the luminance value of the background image 41 and the luminance value of the input image 40 in the moving object region. The lower the correlation value, the higher the human validity. The “background edge preserving rate” is a feature quantity that utilizes the fact that “human beings have a substance unlike light and shadow and therefore hide background objects”. For example, the attribute information calculation unit 54 calculates “the number of edges of the input image 40 and the edge of the background image 41” × 100 in the “number of edges of the background image 41” in the moving object region × 100. That is, as the “background edge preservation ratio” is lower, the background object is hidden by the entity and the edge of the background object disappears from the input image 40, and the validity as an actual person is higher.

なお、本実施の形態では、3つの特徴量(人属性要素)にて説明したが、これらに限定されるものではなく、3つの特徴量からいくつかを選択してもよいし、他の種々の特徴量を利用してもよい。   In the present embodiment, the three feature amounts (human attribute elements) have been described. However, the present invention is not limited to these, and some of the three feature amounts may be selected. The feature amount may be used.

属性情報算出手段54は、算出した各人属性要素の値を用いて、人属性情報を算出する。具体的には、図5に示すメンバーシップ関数に各人属性要素の値を代入し、それぞれ人らしいほど1、人らしくないほど0になるような値を求める。そして、求めた値を以下の式に代入して人属性情報を算出する。
(式1)
人属性情報=人属性値要素1×人属性値要素2×人属性値要素3・・・(1)
The attribute information calculation means 54 calculates human attribute information using the calculated value of each human attribute element. Specifically, the value of each person attribute element is substituted into the membership function shown in FIG. 5 to obtain a value that becomes 1 for a person and 0 for a person. Then, the human attribute information is calculated by substituting the obtained value into the following equation.
(Formula 1)
Person attribute information = person attribute value element 1 × person attribute value element 2 × person attribute value element 3 (1)

次に、虫属性情報の算出について、説明する。属性情報算出手段54は、追跡手段53にて追跡されている移動物体領域について、フレーム毎に、虫属性情報を算出するための特徴量(虫属性要素)を算出する。本実施の形態では、背景差分マイナス点率(虫属性要素1)、輝度平均値(虫属性要素2)、入力エッジ強度平均値(虫属性要素3)を算出する。   Next, calculation of insect attribute information will be described. The attribute information calculation unit 54 calculates a feature amount (insect attribute element) for calculating insect attribute information for each frame of the moving object region tracked by the tracking unit 53. In the present embodiment, the background difference minus point rate (insect attribute element 1), the luminance average value (insect attribute element 2), and the input edge strength average value (insect attribute element 3) are calculated.

「背景差分マイナス点率」は、「虫はカメラの直近に映るため環境光を遮って、背景画像よりも暗く映る」ということを利用した特徴量である。属性情報算出手段54は、例えば、移動物体領域内について「移動物体領域のピクセル面積」に占める「入力画像40の輝度値−背景画像41の輝度値がマイナスの値となる画素数」×100を「背景差分マイナス点率」として算出する。「背景差分マイナス点率」が高いほど、移動物体領域全体が背景画像よりも暗くなっていることを表し、環境光を遮って映る虫としての妥当性が高いことを表す。「輝度平均値」は、「虫はカメラの直近に映るため環境光を遮って背景画像よりも暗く映ること、また、虫自体が黒系の色をしている」ということを利用した特徴量である。属性情報算出手段54は、例えば、移動物体領域内の輝度値の平均値を算出する。輝度平均値が低いほど、移動物体領域全体が黒色であることを表し、入力画像に黒く映る虫としての妥当性が高いことを表す。「入力エッジ強度平均値」は、「虫はカメラの直近に映るためピントがぼやけて映る」ということを利用した特徴量である。属性情報算出手段54は、例えば、移動物体領域内について「移動物体領域のピクセル面積」に占める「入力画像40のエッジ強度の総和」を「入力エッジ強度平均値」として算出する。すなわち、「入力エッジ強度平均値」が低いほど、ピントがぼやけて映っていることを表し、カメラの直近に映る虫としての妥当性が高いことを表す。   The “background difference minus point rate” is a feature quantity that utilizes the fact that “the insect appears in the darkness of the background image by blocking the ambient light because it appears in the immediate vicinity of the camera”. For example, the attribute information calculation unit 54 sets “the luminance value of the input image 40−the number of pixels in which the luminance value of the background image 41 is a negative value” × 100 in the “pixel area of the moving object region” in the moving object region × 100. Calculated as “background difference minus point rate”. The higher the “background difference minus point rate”, the darker the moving object region is than the background image, and the higher the relevance as an insect that is shielded from the ambient light. “Luminance average value” is a feature that uses the fact that “the insects appear in the immediate vicinity of the camera so that they are darker than the background image by blocking the ambient light, and that the insects themselves have a blackish color” It is. For example, the attribute information calculation unit 54 calculates an average value of luminance values in the moving object region. The lower the luminance average value, the more the moving object area is black, and the higher the validity as an insect that appears black in the input image. The “input edge intensity average value” is a feature amount using the fact that “the insect appears in the vicinity of the camera, so the focus is blurred”. The attribute information calculation unit 54 calculates, for example, “the total edge intensity of the input image 40” occupying the “pixel area of the moving object area” in the moving object area as the “input edge intensity average value”. That is, the lower the “input edge strength average value”, the more blurred the image is, and the higher the relevance of the insect that appears in the immediate vicinity of the camera.

なお、本実施の形態では、3つの特徴量(虫属性要素)にて説明したが、これらに限定されるものではなく、3つの特徴量からいくつかを選択してもよいし、他の種々の特徴量を利用してもよい。   In the present embodiment, three feature amounts (insect attribute elements) have been described. However, the present invention is not limited to these, and some of the three feature amounts may be selected. The feature amount may be used.

属性情報算出手段54は、算出した各虫属性要素の値を用いて、虫属性情報を算出する。具体的には、図5に示すメンバーシップ関数に各虫属性要素の値を代入し、それぞれ虫らしいほど1、虫らしくないほど0になるような値を求める。そして、求めた値を以下の式に代入して虫属性値情報を算出する。
(式2)
虫属性値情報=虫属性値要素1×虫属性値要素2×虫属性値要素3・・・(2)
The attribute information calculation means 54 calculates insect attribute information using the calculated value of each insect attribute element. More specifically, the value of each insect attribute element is substituted into the membership function shown in FIG. 5, and a value that becomes 1 when it seems to be an insect and 0 when it does not seem to be an insect is obtained. The insect attribute value information is calculated by substituting the obtained value into the following equation.
(Formula 2)
Insect attribute value information = insect attribute value element 1 × insect attribute value element 2 × insect attribute value element 3 (2)

なお、本実施の形態では、人以外属性情報として虫らしさを表す虫属性情報を用いたが、これに限られるものではない。例えば、影らしさを表す特徴量から影属性値情報、植栽らしさを表す特徴量から植栽属性値情報等を求めればよい。   In the present embodiment, insect attribute information representing the nature of insects is used as attribute information other than a person, but the present invention is not limited to this. For example, what is necessary is just to obtain | require planting attribute value information etc. from the shadow attribute value information from the feature-value showing shadowiness, and the feature-value showing plantingness.

領域関連付手段55は、位置算出手段52でフレーム毎に算出された各移動物体領域の位置に基づいて、追跡手段53にて追跡されている移動物体領域のうち所定の位置関係を有している移動物体領域を関連付けてグループ化する。また、その他の移動物体領域を単独にグループ化する。関連付処理は、異なる時刻に撮像された入力画像40から抽出された移動物体領域のうち同一の移動物体として追跡処理されている移動物体領域間において行う。   The area association means 55 has a predetermined positional relationship among the moving object areas tracked by the tracking means 53 based on the position of each moving object area calculated for each frame by the position calculation means 52. Group moving object regions in association with each other. In addition, other moving object regions are grouped independently. The association processing is performed between the moving object regions that are tracked as the same moving object among the moving object regions extracted from the input image 40 captured at different times.

本実施の形態では、領域関連付手段55は、位置算出手段52で算出した移動物体領域の位置に基づき、当該位置が所定範囲内となる移動物体領域をグループ化する。ここで、所定範囲は、移動物体の画像上の位置の時間的な変化が少ないこと、すなわち、移動物体がその場で留まっている状態や移動物体の移動速度が遅い状態を判断可能な範囲とする。これは、画像上の位置が変化しない場合は、移動物体の映り方や移動物体の背後に存在する背景物が変化しないという知見に基づいて、移動物体領域の属性情報が変動し難い状態であるといえる。このため、本実施の形態は、所定範囲に所在する移動物体領域を関連付けてグループ化することで、移動物体の属性情報が変動し難い相互位置に所在する移動物体領域をグループ化する。例えば、領域関連付手段55は、基準位置を設定し、設定時点以降において当該基準位置と位置算出手段52で算出した移動物体領域の位置との距離が所定距離R以内となる2つの移動物体領域を関連付けて同一のグループとする。具体的には、領域関連付手段55は、追跡処理の開始時点のフレームの移動物体領域の重心位置を基準位置として設定すると共に、当該移動物体領域を新たなグループに割り当てる。そして、次回のフレームの移動物体領域の重心位置と基準位置とのピクセル距離を求め、当該ピクセル距離が所定距離R以内(例えば、10ピクセル以内)である場合は当該移動物体領域と基準位置を設定した移動物体領域とを関連付けて同じグループに割り当てる。さらに、次々回のフレームの移動物体領域の重心位置と基準位置とのピクセル距離を求め、当該ピクセル距離が所定距離R以内(例えば、10ピクセル以内)である場合は、当該移動物体領域を基準位置を設定した移動物体領域及び次回のフレームの移動物体領域と関連付けて基準位置を設定した移動物体領域と次回のフレームの移動物体領域と同じグループに割り当てる。領域関連付手段55は、この処理を移動物体領域に対する追跡が終了するまでフレーム毎に順次繰り返し、すべての移動物体領域について関連付けを行う。なお、処理対象となっているフレームの移動物体領域の重心位置と基準位置とのピクセル距離が所定距離R以内でなければ、当該移動物体領域の重心位置を新たな基準位置として設定すると共に、当該移動物体領域を新たなグループに割り当てて処理を繰り返す。また、基準位置を設定したフレームの次回のフレームの移動物体領域の重心位置と基準位置とのピクセル距離が所定距離R以内でなければ、当該基準位置を設定したフレームの移動物体領域のみが属する1つのグループができる。   In the present embodiment, the region association unit 55 groups the moving object regions whose positions are within a predetermined range based on the position of the moving object region calculated by the position calculating unit 52. Here, the predetermined range is a range in which it is possible to determine that the temporal change in the position of the moving object on the image is small, that is, the state where the moving object remains on the spot or the moving speed of the moving object is slow. To do. This is a state in which the attribute information of the moving object region is unlikely to fluctuate based on the knowledge that when the position on the image does not change, the way the moving object appears and the background object that exists behind the moving object does not change. It can be said. For this reason, in this embodiment, moving object regions located in a predetermined range are associated and grouped to group moving object regions located in a mutual position where the attribute information of the moving object is difficult to change. For example, the region association unit 55 sets a reference position, and two moving object regions in which the distance between the reference position and the position of the moving object region calculated by the position calculation unit 52 is within a predetermined distance R after the set time point. Are related to each other. Specifically, the region association unit 55 sets the center of gravity position of the moving object region of the frame at the start of the tracking process as a reference position, and assigns the moving object region to a new group. Then, the pixel distance between the center of gravity position of the moving object area of the next frame and the reference position is obtained, and when the pixel distance is within a predetermined distance R (for example, within 10 pixels), the moving object area and the reference position are set. Are associated with the moving object region and assigned to the same group. Further, the pixel distance between the center of gravity position of the moving object region and the reference position of the next frame is obtained. When the pixel distance is within a predetermined distance R (for example, within 10 pixels), the moving object region is set to the reference position. The moving object region in which the reference position is set in association with the set moving object region and the moving object region in the next frame and the moving object region in the next frame are assigned to the same group. The area associating means 55 sequentially repeats this process for each frame until tracking of the moving object area is completed, and associates all the moving object areas. If the pixel distance between the centroid position of the moving object region of the frame to be processed and the reference position is not within the predetermined distance R, the centroid position of the moving object region is set as a new reference position, and The moving object area is assigned to a new group and the process is repeated. Further, if the pixel distance between the center of gravity of the moving object area of the next frame of the frame for which the reference position is set and the reference position is not within the predetermined distance R, only the moving object area of the frame for which the reference position is set belongs. There can be one group.

本実施の形態では、関連付けの条件となる所定範囲をピクセル距離によって設定したが、これに限るものではなく、カメラ2の設置高や俯角などから算出した実距離を用いてもよい。また、ピクセル距離と実距離を併用して、移動物体がカメラ2の視軸方向の遠方に存在する場合のピクセル距離と移動物体がカメラ2の視軸方向の近傍に存在する場合のピクセル距離の違いを吸収するようにしてもよい。例えば、ピクセル距離が10ピクセル以内且つ、5ピクセル以内または実距離が50cm以内のものを関連付けするようにしてもよい。また、画像上又は実空間上において所定の形状の範囲を所定範囲としてもよい。また、移動物体領域同士が重複する関係になる範囲を所定範囲としてもよい。   In the present embodiment, the predetermined range as the association condition is set by the pixel distance. However, the present invention is not limited to this, and an actual distance calculated from the installation height of the camera 2 or the depression angle may be used. Further, by using both the pixel distance and the actual distance, the pixel distance when the moving object exists in the far direction in the visual axis direction of the camera 2 and the pixel distance when the moving object exists in the vicinity of the visual axis direction of the camera 2 You may make it absorb a difference. For example, a pixel distance of 10 pixels or less and 5 pixels or a real distance of 50 cm or less may be associated. Further, a range of a predetermined shape on the image or the real space may be set as the predetermined range. Further, a range in which the moving object regions overlap each other may be set as the predetermined range.

ここで、図6を参照し、本実施の形態における移動物体領域の関連付けについて説明する。図6は、本実施の形態における関連付けの例を示した図である。図6(a)は、図3に対応し、図6(b)は、図4に対応する。   Here, with reference to FIG. 6, association of the moving object region in the present embodiment will be described. FIG. 6 is a diagram showing an example of association in the present embodiment. 6A corresponds to FIG. 3, and FIG. 6B corresponds to FIG.

まず、図6(a)を例に説明する。黒色の円は、各フレームにおける移動物体領域の重心位置を示したものである。例えば、図3の時刻T−2における移動物体領域13aの重心位置を図6(a)では、重心位置T−2としている。また、白色の円は、所定距離Rを半径とする円である。   First, FIG. 6A will be described as an example. The black circle indicates the position of the center of gravity of the moving object region in each frame. For example, the center of gravity position of the moving object region 13a at time T-2 in FIG. 3 is the center of gravity position T-2 in FIG. The white circle is a circle having a predetermined distance R as a radius.

移動物体領域13aについては、時刻T−2に追跡処理を開始している。このため、重心位置T−2が基準位置として設定され、時刻T−2の移動物体領域13aがグループ1aに割り当てられる。そして、次のフレームである時刻T−1のフレームから抽出された移動物体領域13aの重心位置T−1と基準位置のピクセル距離は、所定距離R以上であるため、時刻T−1の移動物体領域13aは時刻T−2の移動物体領域13aとは関連付けられず、重心位置T−1が新たな基準位置に設定される。これにより、グループ1aには、時刻T−2の移動物体領域13aのみが属することになり、時刻T−1の移動物体領域13aは新たなグループ2aに属することになる。そして、次のフレームである時刻Tのフレームから抽出された移動物体領域13aの重心位置Tと基準位置である重心位置T−1とのピクセル距離は、所定距離R以内であるため、時刻Tの移動物体領域13aは時刻T−1の移動物体領域13aと関連付けられてグループ2aに割り当てられる。また、次のフレームである時刻T+1のフレームから抽出された移動物体領域13aの重心位置T+1と基準位置である重心位置T−1とのピクセル距離は、所定距離R以内であるため、時刻T+1の移動物体領域13aは時刻T−1の移動物体領域13a及び時刻Tの移動物体領域13aと関連付けられてグループ2aに割り当てられる。次のフレームである時刻T+2のフレームから抽出された移動物体領域13aの重心位置T+2と基準位置である重心位置T−1とのピクセル距離は、所定距離R以上であるため、時刻T+2の移動物体領域13aは時刻T−1の移動物体領域13aとは関連付けられず、重心位置T+2が新たな基準位置に設定される。これにより、グループ2aには、時刻T−1,T,T+1の移動物体領域13aが属することになり、時刻T+2の移動物体領域13aは新たなグループ3aに属することになる。また、次のフレームである時刻T+3のフレームから抽出された移動物体領域13aの重心位置T+3と基準位置である重心位置T+2とのピクセル距離は、所定距離R以内であるため、時刻T+3の移動物体領域13aは時刻T+2の移動物体領域13aと関連付けられてグループ3aに割り当てられる。   For the moving object region 13a, the tracking process is started at time T-2. For this reason, the gravity center position T-2 is set as the reference position, and the moving object region 13a at time T-2 is assigned to the group 1a. Since the pixel distance between the center of gravity T-1 of the moving object region 13a extracted from the frame at time T-1 that is the next frame and the reference position is equal to or greater than the predetermined distance R, the moving object at time T-1 The area 13a is not associated with the moving object area 13a at time T-2, and the center of gravity position T-1 is set as a new reference position. As a result, only the moving object region 13a at time T-2 belongs to the group 1a, and the moving object region 13a at time T-1 belongs to the new group 2a. Since the pixel distance between the centroid position T of the moving object region 13a extracted from the frame at time T, which is the next frame, and the centroid position T-1, which is the reference position, is within the predetermined distance R, The moving object area 13a is associated with the moving object area 13a at time T-1 and assigned to the group 2a. Further, the pixel distance between the centroid position T + 1 of the moving object region 13a extracted from the frame at time T + 1, which is the next frame, and the centroid position T-1, which is the reference position, is within the predetermined distance R. The moving object region 13a is associated with the moving object region 13a at time T-1 and the moving object region 13a at time T, and is assigned to the group 2a. Since the pixel distance between the centroid position T + 2 of the moving object region 13a extracted from the frame at the time T + 2 that is the next frame and the centroid position T-1 that is the reference position is equal to or greater than the predetermined distance R, the moving object at the time T + 2 The region 13a is not associated with the moving object region 13a at time T-1, and the center of gravity position T + 2 is set as a new reference position. As a result, the moving object region 13a at times T-1, T, and T + 1 belongs to the group 2a, and the moving object region 13a at time T + 2 belongs to the new group 3a. Further, since the pixel distance between the centroid position T + 3 of the moving object area 13a extracted from the frame at the time T + 3 which is the next frame and the centroid position T + 2 which is the reference position is within the predetermined distance R, the moving object at the time T + 3 The region 13a is associated with the moving object region 13a at time T + 2 and assigned to the group 3a.

このようにして、図3における移動物体領域13aについて、時刻T−2の移動物体領域13aはグループ1a、時刻T−1から時刻T+1の移動物体領域13aはグループ2a、時刻T+2から時刻T+3の移動物体領域13aはグループ3aとして関連付けられる。   In this way, with respect to the moving object area 13a in FIG. 3, the moving object area 13a at time T-2 is the group 1a, the moving object area 13a from time T-1 to time T + 1 is the group 2a, and the movement from time T + 2 to time T + 3. The object region 13a is associated as a group 3a.

次に、図6(b)について説明する。黒色の円は、図6(a)と同様に各フレームにおける移動物体領域の重心位置を示したものである。例えば、図4の時刻t−2における移動物体領域13bの重心位置を図6(b)では、重心位置t−2としている。また、白色の円は、図6(a)と同様に所定距離Rを半径とする円である。   Next, FIG. 6B will be described. The black circle indicates the position of the center of gravity of the moving object region in each frame, as in FIG. For example, the center of gravity position of the moving object region 13b at time t-2 in FIG. 4 is the center of gravity position t-2 in FIG. 6B. Further, the white circle is a circle having a predetermined distance R as a radius as in FIG.

移動物体領域13bは、時刻t−2に追跡処理を開始している。このため、重心位置t−2が基準位置として設定され、時刻t−2の移動物体領域13bがグループ1bに割り当てられる。そして、次のフレームである時刻t−1のフレームから抽出された移動物体領域13bの重心位置t−1と基準位置のピクセル距離は、所定距離R以上であるため、時刻t−1の移動物体領域13bは時刻t−2の移動物体領域13bとは関連付けられず、重心位置t−1が新たな基準位置に設定される。これにより、グループ1bには、時刻t−2の移動物体領域13bのみが属することになり、時刻t−1の移動物体領域13bは新たなグループ2bに属することになる。そして、次のフレームである時刻tのフレームから抽出された移動物体領域13bの重心位置tと基準位置である重心位置t−1とのピクセル距離は、所定距離R以内であるため、時刻tの移動物体領域13bは時刻t−1の移動物体領域13bと関連付けられてグループ2bに割り当てられる。また、次のフレームである時刻t+1のフレームから抽出された移動物体領域13bの重心位置t+1と基準位置である重心位置t−1とのピクセル距離は、所定距離R以内であるため、時刻t+1の移動物体領域13bは時刻t−1の移動物体領域13b及び時刻tの移動物体領域13bと関連付けられてグループ2bに割り当てられる。次のフレームである時刻t+2のフレームから抽出された移動物体領域13bの重心位置t+2と基準位置である重心位置t−1とのピクセル距離は、所定距離R以上であるため、時刻t+2の移動物体領域13bは時刻t−1の移動物体領域13bとは関連付けられず、重心位置t+2が新たな基準位置に設定される。これにより、グループ2bには、時刻t−1,t,t+1の移動物体領域13bが属することになり、時刻t+2の移動物体領域13bは新たなグループ3bに属することになる。また、次のフレームである時刻t+3のフレームから抽出された移動物体領域13bの重心位置t+3と基準位置である重心位置t+2とのピクセル距離は、所定距離R以内であるため、時刻t+3の移動物体領域13bは時刻t+2の移動物体領域13bと関連付けられてグループ3bに割り当てられる。   The moving object region 13b starts tracking processing at time t-2. For this reason, the gravity center position t-2 is set as the reference position, and the moving object region 13b at time t-2 is assigned to the group 1b. Since the pixel distance between the center of gravity position t-1 of the moving object region 13b extracted from the frame at the time t-1 that is the next frame and the reference position is equal to or greater than the predetermined distance R, the moving object at the time t-1 The region 13b is not associated with the moving object region 13b at time t-2, and the center of gravity position t-1 is set as a new reference position. As a result, only the moving object region 13b at time t-2 belongs to the group 1b, and the moving object region 13b at time t-1 belongs to the new group 2b. The pixel distance between the center of gravity position t of the moving object region 13b extracted from the frame at time t, which is the next frame, and the center of gravity position t-1, which is the reference position, is within the predetermined distance R. The moving object area 13b is associated with the moving object area 13b at time t-1 and assigned to the group 2b. Further, since the pixel distance between the centroid position t + 1 of the moving object region 13b extracted from the frame at the time t + 1 that is the next frame and the centroid position t-1 that is the reference position is within the predetermined distance R, the pixel at the time t + 1 The moving object area 13b is assigned to the group 2b in association with the moving object area 13b at time t-1 and the moving object area 13b at time t. Since the pixel distance between the centroid position t + 2 of the moving object region 13b extracted from the frame at time t + 2, which is the next frame, and the centroid position t-1, which is the reference position, is greater than or equal to the predetermined distance R, the moving object at time t + 2 The region 13b is not associated with the moving object region 13b at time t-1, and the center of gravity position t + 2 is set as a new reference position. As a result, the moving object region 13b at time t-1, t, t + 1 belongs to the group 2b, and the moving object region 13b at time t + 2 belongs to the new group 3b. In addition, since the pixel distance between the centroid position t + 3 of the moving object region 13b extracted from the frame at time t + 3 which is the next frame and the centroid position t + 2 which is the reference position is within the predetermined distance R, the moving object at time t + 3 The region 13b is associated with the moving object region 13b at time t + 2 and assigned to the group 3b.

このようにして、図4における移動物体領域13bについて、時刻t−2の移動物体領域13bはグループ1b、時刻t−1から時刻t+1の移動物体領域13bはグループ2b、時刻t+2から時刻t+3の移動物体領域13bはグループ3bとして関連付けられる。   In this way, with respect to the moving object region 13b in FIG. 4, the moving object region 13b at time t-2 is group 1b, the moving object region 13b from time t-1 to time t + 1 is group 2b, and the moving object region 13b from time t + 2 to time t + 3 is moved. The object region 13b is associated as a group 3b.

代表属性情報算出手段56は、領域関連付手段55にて同一のグループとして互いに関連付けられた移動物体領域について、同一のグループに含まれる移動物体領域の属性情報を代表する1つの代表属性情報を求める。   The representative attribute information calculation unit 56 obtains one piece of representative attribute information representing the attribute information of the moving object area included in the same group for the moving object areas associated with each other as the same group by the area association unit 55. .

本実施の形態では、同一のグループに割り当てられた移動物体領域について属性情報算出手段54にて算出された人属性情報及び虫属性情報の平均値を算出し、それを代表人属性情報および代表虫属性情報とする。代表属性情報算出手段56は、今回フレームまでに算出した代表属性情報を記憶部4に記憶するとともに、後述する対象判定手段57に出力する。   In the present embodiment, the average value of the human attribute information and the insect attribute information calculated by the attribute information calculation means 54 is calculated for the moving object regions assigned to the same group, and the average values are used as the representative attribute information and the representative insect. Attribute information. The representative attribute information calculation unit 56 stores the representative attribute information calculated up to the current frame in the storage unit 4 and outputs it to the target determination unit 57 described later.

本実施の形態では、代表属性情報として平均値を算出したが、これに限らない。代表属性情報は、グループを構成する移動物体領域から求めた各属性情報を1つの移動物体領域から求めた属性領域とみなせる程度の値にまとめたものであればよい。例えば、代表属性情報算出手段56は、グループを構成する移動物体領域の属性情報の最小値から最大値の範囲にほぼ入る値が算出できる方法で算出すればよいし、多少この範囲を逸脱してもよい。具体的には、中央値や最大値、最小値、重み付け平均、割り算等で蓄積値を低く補正した値等を代表属性情報として算出するようにしてもよい。   In the present embodiment, the average value is calculated as the representative attribute information, but the present invention is not limited to this. The representative attribute information may be any information as long as each attribute information obtained from the moving object areas constituting the group is collected to a value that can be regarded as an attribute area obtained from one moving object area. For example, the representative attribute information calculation unit 56 may calculate by a method that can calculate a value that almost falls within the range from the minimum value to the maximum value of the attribute information of the moving object area that constitutes the group. Also good. Specifically, a median value, maximum value, minimum value, weighted average, a value obtained by correcting the accumulated value to be low by division, or the like may be calculated as representative attribute information.

対象判定手段57は、代表属性情報算出手段56にて算出された代表属性情報に基づいて、移動物体領域が検出対象か否かを判定する。本実施の形態では、追跡を開始してから今回フレームまでに算出された代表人属性情報の蓄積値と代表虫属性情報の蓄積値を算出し、代表人属性情報の蓄積値が閾値以上(例えば、3以上)、かつ、代表虫属性情報に対する代表人属性情報の比率が閾値以上(例えば、2.5以上)であるときに、当該移動物体領域が検出対象、すなわち人間であると判定する。対象判定手段57は、移動物体領域に対する判定結果を後述する異常判定部6に出力する。   The target determination unit 57 determines whether or not the moving object region is a detection target based on the representative attribute information calculated by the representative attribute information calculation unit 56. In the present embodiment, the accumulated value of representative attribute information and the accumulated value of representative insect attribute information calculated from the start of tracking to the current frame are calculated, and the accumulated value of representative attribute information is equal to or greater than a threshold (for example, 3 or more) and the ratio of the representative attribute information to the representative insect attribute information is equal to or greater than a threshold (for example, 2.5 or more), it is determined that the moving object region is a detection target, that is, a human. The target determination unit 57 outputs a determination result for the moving object region to the abnormality determination unit 6 described later.

なお、本実施の形態では、代表人属性情報の蓄積値と代表虫属性情報の蓄積値の比率を用いて判定を行ったが、判定方法はこれに限定されるものではない。例えば、代表人属性情報や代表虫属性情報のうち一方の代表属性情報に基づいて判定を行ってもよい。具体的には、代表人属性情報の蓄積値、代表虫属性値情報の蓄積値、代表人属性情報の平均値や代表虫属性情報の平均値、代表人属性情報の最小値や最大値、代表虫属性情報の最小値や最大値、等に応じて判定を行ってもよく、これらを複数組み合わせて判定に用いてもよい。この場合、属性情報算出手段54および代表属性情報算出手段56は、判定に必要な属性情報を算出するようにすればよい。なお、代表属性値の蓄積値又は平均値を用いる場合、移動物体領域の各グループにおける代表属性値が平等に扱われ、対象判定手段57による判定が極端にならない点で好ましい。   In the present embodiment, the determination is performed using the ratio between the accumulated value of the representative attribute information and the accumulated value of the representative insect attribute information, but the determination method is not limited to this. For example, the determination may be made based on one representative attribute information of representative person attribute information and representative insect attribute information. Specifically, the accumulated value of representative attribute information, the accumulated value of representative insect attribute value information, the average value of representative attribute information and the average value of representative insect attribute information, the minimum and maximum values of representative attribute information, the representative The determination may be made according to the minimum value or the maximum value of the insect attribute information, or a plurality of these may be used for the determination. In this case, the attribute information calculation unit 54 and the representative attribute information calculation unit 56 may calculate attribute information necessary for the determination. In addition, when the accumulated value or the average value of the representative attribute value is used, it is preferable in that the representative attribute value in each group of the moving object region is treated equally and the determination by the target determination unit 57 does not become extreme.

また、本実施の形態では、追跡を開始してから今回フレームまでに算出された代表属性情報に基づいて判定を行ったが、これに限らず、直近の所定数のグループ(例えば、5グループ分)の代表属性情報に基づいて判定を行ってもよい。   In the present embodiment, the determination is performed based on the representative attribute information calculated from the start of tracking to the current frame. However, the present invention is not limited to this, and the most recent predetermined number of groups (for example, for five groups). The determination may be made based on the representative attribute information.

ここで、図7を参照して、本実施の形態における代表属性情報の算出について説明する。図7は、本実施の形態における各属性情報と各代表属性情報を示す図である。図7(a)は、図3及び図6(a)に対応し、図7(b)は、図4及び図6(b)に対応する。   Here, with reference to FIG. 7, calculation of representative attribute information in the present embodiment will be described. FIG. 7 is a diagram showing each attribute information and each representative attribute information in the present embodiment. 7A corresponds to FIGS. 3 and 6A, and FIG. 7B corresponds to FIGS. 4 and 6B.

図3の移動物体領域13aについて算出された人属性情報及び虫属性情報、互いに関連付けられた移動物体領域のグループ毎の代表人属性情報及び代表虫属性情報は、図7(a)に示すようにそれぞれ「3」と「0」になる。よって、代表虫属性情報に対する代表人属性情報の比率は、大きな値である「∞」となる。したがって、代表人属性情報の蓄積値が閾値以上(例えば、3以上)かつ、比率が閾値以上(例えば、2.5以上)の場合に人間であるとする判定条件を適用すると、本例において移動物体領域13aは人間であると判定される。   As shown in FIG. 7A, the human attribute information and insect attribute information calculated for the moving object region 13a in FIG. 3 and the representative attribute information and representative insect attribute information for each group of moving object regions associated with each other are as shown in FIG. It becomes “3” and “0”, respectively. Therefore, the ratio of the representative attribute information to the representative insect attribute information is “∞”, which is a large value. Therefore, when the determination condition that the person is a human being is applied when the accumulated value of the representative attribute information is greater than or equal to a threshold (for example, 3 or more) and the ratio is greater than or equal to the threshold (for example, 2.5 or more), The object region 13a is determined to be a human.

また、図4の移動物体領域13bについて算出された人属性情報及び虫属性情報、互いに関連付けられた移動物体領域のグループ毎の代表人属性情報及び代表虫属性情報は、図7(b)に示すようにそれぞれ「3」と「2.2」になる。よって、代表虫属性情報に対する代表人属性情報の比率は「1.4」となる。したがって、代表人属性情報の蓄積値が閾値以上(例えば、3以上)かつ、比率が閾値以上(例えば、2.5以上)の場合に人間であるとする判定条件を適用すると、本例において移動物体領域13bは人ではないと判定される。   Also, the human attribute information and insect attribute information calculated for the moving object area 13b in FIG. 4 and representative attribute information and representative insect attribute information for each group of moving object areas associated with each other are shown in FIG. 7B. Thus, “3” and “2.2” are obtained. Therefore, the ratio of the representative attribute information to the representative insect attribute information is “1.4”. Therefore, when the determination condition that the person is a human being is applied when the accumulated value of the representative attribute information is greater than or equal to a threshold (for example, 3 or more) and the ratio is greater than or equal to the threshold (for example, 2.5 or more), It is determined that the object region 13b is not a person.

ここで、図7(b)に示すように、時刻t−1、t、t+1のフレームにおいて移動物体領域13bの人属性情報が虫属性情報よりも高くなっている。すなわち、虫はカメラの直近に映ると人間と同じ程度の大きさに映り、人間と同様に実体があるので、人属性情報だけでは人間と虫との区別が難しくなる。そこで、虫らしさを表す虫属性情報を用いて判定を行う。しかし、時刻t−1、t、t+1のように虫が背景物の樹木11と重なる場合、背景画像の輝度を用いて算出される虫属性要素(例えば、背景差分マイナス点率)を精度良く算出することができなくなる。これは、樹木11の幹の部分が元々低い輝度値で映るため、虫の輝度値よりも輝度が低い部分が多くなるからである。このため、従来のようにフレーム毎に算出された属性情報を単に蓄積してしまうと、時刻t−1、t、t+1のように属性情報が精度良く算出できない位置に虫が留まる場合に、時刻t+1のフレームの時点で、蓄積値が「4」、属性情報の比率が「2.5」になってしまい、それぞれが前述した閾値をこえる。その結果、虫による移動物体領域である13bが「人間」として誤って判定されてしまう。本発明は、異なる時刻における同一物体による移動物体領域をその位置に基づいて関連付けてグループ化し、グループ毎に当該グループを代表する代表属性情報を算出して検出対象の判定に用いる。これにより、属性情報が精度良く算出できない位置に移動物体領域が留まっている時刻t−1、t、t+1のフレームで算出された属性情報を1つにまとめることができ、その結果、虫による移動物体領域である13bが「人間」として誤って判定されてしまうことを防止できる。   Here, as shown in FIG. 7B, the human attribute information of the moving object region 13b is higher than the insect attribute information in the frames at times t-1, t, and t + 1. In other words, insects appear in the same size as humans when viewed in the immediate vicinity of the camera, and since there are entities similar to humans, it is difficult to distinguish humans and insects from human attribute information alone. Therefore, the determination is performed using the insect attribute information indicating the insect likeness. However, when the insect overlaps the background tree 11 at times t-1, t, t + 1, the insect attribute element (for example, background difference minus point rate) calculated using the luminance of the background image is accurately calculated. Can not do. This is because the trunk portion of the tree 11 is originally projected with a low luminance value, and therefore there are more portions where the luminance is lower than the luminance value of the insect. For this reason, if the attribute information calculated for each frame is simply accumulated as in the prior art, when the insect stays at a position where the attribute information cannot be accurately calculated, such as time t-1, t, t + 1, At the time of the frame of t + 1, the accumulated value becomes “4” and the ratio of attribute information becomes “2.5”, and each exceeds the above-described threshold. As a result, the moving object region 13b due to the insect is erroneously determined as “human”. According to the present invention, moving object regions of the same object at different times are associated and grouped based on their positions, and representative attribute information representing the group is calculated for each group and used for determination of a detection target. As a result, the attribute information calculated in the frames at times t−1, t, and t + 1 when the moving object region remains at a position where the attribute information cannot be accurately calculated can be combined into one, and as a result, movement by insects can be performed. It is possible to prevent the object region 13b from being erroneously determined as “human”.

異常判定部6は、画像処理部5の対象判定手段57における判定結果に基づいて、監視領域内の異常の有無を判定する。本実施の形態では、異常判定部6は、人間と判定された移動物体領域がある場合に「異常あり」と判定し、出力部7に対してその旨の信号を出力する。   The abnormality determination unit 6 determines whether there is an abnormality in the monitoring area based on the determination result in the object determination unit 57 of the image processing unit 5. In the present embodiment, the abnormality determination unit 6 determines “abnormal” when there is a moving object region determined to be a human, and outputs a signal to that effect to the output unit 7.

出力部7は、異常判定部6から「異常あり」の信号を入力すると、異常信号を警報部(図示しない)に出力し、ブザーの鳴動や警告灯の表示などにより周囲に異常の発生を通知する。また、インターネット等の通信網を介して遠隔の監視センタ(図示しない)に監視センタに出力することによって、異常の発生を監視センタに通知する構成としてもよい。   When the “abnormal” signal is input from the abnormality determination unit 6, the output unit 7 outputs an abnormal signal to an alarm unit (not shown), and notifies the occurrence of an abnormality to the surroundings by sounding a buzzer or displaying a warning light. To do. Alternatively, the monitoring center may be notified of the occurrence of an abnormality by outputting the monitoring center (not shown) to a monitoring center via a communication network such as the Internet.

背景画像更新部8は、カメラ2にて撮影された画像(入力画像40)と対象判定手段57の判定結果などを用いて、記憶部4に記憶されている背景画像41を更新する。具体的には、対象判定手段57にて、人間がいると判定された場合は背景画像41の更新を行わず、人間がいない場合に背景画像41の更新を行う。   The background image update unit 8 updates the background image 41 stored in the storage unit 4 using the image (input image 40) taken by the camera 2 and the determination result of the target determination unit 57. Specifically, the background image 41 is not updated when the target determination unit 57 determines that there is a person, and the background image 41 is updated when there is no person.

なお、背景画像41の更新方法は、これに限定されるものではなく、人間はいないが移動物体領域がある場合は背景画像の更新頻度を低下させるなどしてもよい。また、一定時間間隔で更新する方法や移動物体領域がないと判断された画像で更新する方法、照明変動を検知した場合に更新する方法などを適用してもよい。   Note that the method of updating the background image 41 is not limited to this, and if there is a moving object region without a human being, the frequency of updating the background image may be reduced. Further, a method of updating at regular time intervals, a method of updating with an image determined to have no moving object region, a method of updating when an illumination change is detected, or the like may be applied.

以下、図8及び図9のフローチャートを参照して、本実施の形態の画像監視装置1を用いた画像監視処理を説明する。図8は、本実施形態の画像監視処理のフローチャートである。図9は、本実施形態の領域関連付処理のフローチャートである。   Hereinafter, image monitoring processing using the image monitoring apparatus 1 of the present embodiment will be described with reference to the flowcharts of FIGS. 8 and 9. FIG. 8 is a flowchart of the image monitoring process of the present embodiment. FIG. 9 is a flowchart of the area association process of this embodiment.

画像監視装置1は、画像監視処理を開始すると、ステップS1において、画像入力部3にてカメラ2で撮影した画像を入力画像40として順次取得する。以下のステップは、取得した1フレームの入力画像40に対して行われる。   When starting the image monitoring process, the image monitoring apparatus 1 sequentially acquires images taken by the camera 2 by the image input unit 3 as the input image 40 in step S1. The following steps are performed on the acquired input image 40 of one frame.

ステップS2では、移動物体領域抽出手段51にて、画像入力部3が取得した入力画像40と記憶部4に記憶されている背景画像41との差分の絶対値を閾値処理し、入力画像40中の差分領域(2値)を抽出する。   In step S <b> 2, the moving object region extraction unit 51 performs threshold processing on the absolute value of the difference between the input image 40 acquired by the image input unit 3 and the background image 41 stored in the storage unit 4. The difference area (binary) is extracted.

ステップS3では、移動物体領域抽出手段51にて、ステップS2において抽出された差分領域にラベル付けし、ラベル領域を生成する。本実施の形態では、このラベル領域を移動物体領域とする。   In step S3, the moving object area extracting means 51 labels the difference area extracted in step S2 to generate a label area. In this embodiment, this label area is a moving object area.

ステップS4では、位置算出手段52にて、移動物体領域毎に重心位置を算出する。位置算出手段52は、入力画像40から抽出された移動物体領域毎の重心位置を求めて記憶部4に記憶させるとともに、追跡手段53及び領域関連付手段55に出力する。   In step S4, the position calculation means 52 calculates the gravity center position for each moving object area. The position calculation means 52 obtains the position of the center of gravity for each moving object area extracted from the input image 40 and stores it in the storage unit 4 and outputs it to the tracking means 53 and the area association means 55.

ステップS5では、追跡手段53にて、今回のフレームの移動物体領域に対して前回フレームの移動物体領域との対応付けを行う。また、前回フレームの移動物体領域と対応付けられない移動物体領域は新規の追跡対象として追跡を開始する。また、前回フレームまでに追跡されていた移動物体領域に対して、今回のフレームの移動物体領域と対応付けられない移動物体領域について追跡を終了する。   In step S5, the tracking unit 53 associates the moving object area of the current frame with the moving object area of the previous frame. In addition, tracking is started for a moving object area that is not associated with the moving object area of the previous frame as a new tracking target. Also, the tracking of the moving object area that has not been associated with the moving object area of the current frame is terminated with respect to the moving object area that has been tracked up to the previous frame.

以下のステップS6からステップS11は、入力画像40中における全ての追跡中の移動物体領域を順次着目移動物体領域として移動物体領域毎に実行される。   The following steps S6 to S11 are executed for each moving object area by sequentially setting all the moving object areas being tracked in the input image 40 as the moving object area of interest.

ステップS7では、属性情報算出手段54にて、着目移動物体領域に対する人属性情報及び人以外属性情報(本実施の形態では虫属性情報)を算出するための特徴量(属性要素)をフレーム毎に算出する。   In step S7, the attribute information calculation means 54 calculates feature amounts (attribute elements) for calculating human attribute information and non-human attribute information (insect attribute information in the present embodiment) for the target moving object region for each frame. calculate.

ステップS8では、属性情報算出手段54にて、ステップS7で算出された特徴量を用いて、人属性情報及び虫属性情報をフレーム毎に算出する。属性情報算出手段54は、算出された人属性情報及び虫属性情報を記憶部4に記憶させるとともに、代表属性情報算出手段56に出力する。   In step S8, the attribute information calculation unit 54 calculates the human attribute information and the insect attribute information for each frame using the feature amount calculated in step S7. The attribute information calculation unit 54 stores the calculated human attribute information and insect attribute information in the storage unit 4 and outputs them to the representative attribute information calculation unit 56.

ステップS9では、領域関連付手段55にて、位置算出手段52で算出された移動物体領域の重心位置を用いて移動物体領域を関連付けしてグループ化する。領域関連付手段55は、移動物体領域のグループ分けの結果情報を記憶部4に記憶する。領域関連付手段55による処理の詳細は、図9のフローチャートを参照して後述する。   In step S9, the region association unit 55 associates and groups the moving object regions using the center of gravity position of the moving object region calculated by the position calculation unit 52. The area association means 55 stores information on the result of grouping the moving object areas in the storage unit 4. Details of the processing by the region association means 55 will be described later with reference to the flowchart of FIG.

ステップS10では、代表属性情報算出手段56にて、移動物体領域のグループ毎にステップS7で算出された人属性情報及び虫属性情報の平均値をそれぞれ算出する。   In step S10, the representative attribute information calculation means 56 calculates the average values of the human attribute information and insect attribute information calculated in step S7 for each group of moving object regions.

ステップS11では、対象判定手段57にて、移動物体領域が人間であるか否かを判定する。具体的には、ステップS10で算出されたグループ毎の人属性情報の平均値の蓄積値と、虫属性情報の平均値の蓄積値を算出すると共に、これらの比率を求める。この比率及び、人属性情報の平均値の蓄積値をそれぞれの閾値と比較し、移動物体領域が人間であるか否かを判定する。その後、対象判定手段57は、判定結果を異常判定部6に出力する。なお、現時点において、1枚分のフレームから算出した人属性情報及び虫属性値しかない場合でも、それらの比率及び、人属性情報の平均値の蓄積値をそれぞれの閾値と比較し、フレーム毎に人間であるか否かを判定すればよい。   In step S11, the target determination unit 57 determines whether or not the moving object region is a human. Specifically, the accumulated value of the average value of the human attribute information for each group calculated in step S10 and the accumulated value of the average value of the insect attribute information are calculated, and the ratio thereof is obtained. The ratio and the accumulated value of the average value of the human attribute information are compared with the respective threshold values to determine whether or not the moving object region is a human. Thereafter, the target determination unit 57 outputs the determination result to the abnormality determination unit 6. At this time, even if there are only human attribute information and insect attribute values calculated from one frame, the ratio and the accumulated value of the average value of the human attribute information are compared with the respective threshold values. What is necessary is just to determine whether it is a human.

ステップS12及びステップS13では、異常判定部6は、判定結果に基づいて、入力画像40から抽出した移動物体領域のうち「人間」と判定された移動物体領域がある場合に「異常あり」と判定して出力部7にその旨の信号を出力し、ステップS14に処理を移行させる。異常判定部6は、判定結果に基づいて、入力画像40から抽出した移動物体領域のうち「人間」と判定された移動物体領域がない場合に「異常なし」と判定して、ステップS15に処理を移行させる。   In step S12 and step S13, the abnormality determination unit 6 determines “abnormal” if there is a moving object region determined as “human” among the moving object regions extracted from the input image 40 based on the determination result. Then, a signal to that effect is output to the output unit 7, and the process proceeds to step S14. Based on the determination result, the abnormality determination unit 6 determines “no abnormality” when there is no moving object region determined as “human” among the moving object regions extracted from the input image 40, and the process proceeds to step S15. To migrate.

ステップS14では、出力部7にて、異常信号を画像監視装置1の外部に出力して、ステップS15に処理を移行させる。   In step S14, the output unit 7 outputs an abnormal signal to the outside of the image monitoring apparatus 1, and the process proceeds to step S15.

ステップS15では、背景画像更新部8にて、記憶部4の背景画像41を更新するか否かを判定した上で背景画像41の更新を行う。その後、背景画像41を更新した場合も更新しなかった場合もステップS1に処理を戻し、次回のフレームの入力画像40を取得して画像監視処理を継続する。   In step S15, the background image update unit 8 determines whether to update the background image 41 in the storage unit 4, and then updates the background image 41. Thereafter, whether or not the background image 41 is updated, the process returns to step S1, the input image 40 of the next frame is acquired, and the image monitoring process is continued.

次に、図9のフローチャートを参照して、本実施形態の領域関連付処理について説明する。   Next, the region association processing according to the present embodiment will be described with reference to the flowchart of FIG.

まず、領域関連付手段55は、ステップS91にて、移動物体領域が今回のフレームから追跡手段53で追跡を開始したものか否かを判定する。すなわち、初回出現の移動物体領域か否かを判定する。移動物体領域が初回出現であった場合は、ステップS93に処理を移行させる。また、移動物体領域が初回出現でない場合は、ステップS92に処理を移行させる。   First, in step S91, the region association unit 55 determines whether or not the moving object region has been tracked by the tracking unit 53 from the current frame. That is, it is determined whether or not the moving object region appears for the first time. If the moving object region appears for the first time, the process proceeds to step S93. If the moving object area does not appear for the first time, the process proceeds to step S92.

ステップS92では、設定されている基準位置と位置算出手段52で算出された移動物体領域の重心位置との距離を算出し、当該距離が所定距離R以上であるか否かを判定する。所定距離R以上である場合にはステップS93に処理を移行させ、所定距離R以上でない場合にはステップS95に処理を移行させる。   In step S92, the distance between the set reference position and the center of gravity position of the moving object region calculated by the position calculation means 52 is calculated, and it is determined whether or not the distance is equal to or greater than a predetermined distance R. If it is greater than or equal to the predetermined distance R, the process proceeds to step S93, and if not greater than the predetermined distance R, the process proceeds to step S95.

ステップS93では、当該移動物体領域を新規のグループに割り当てる。そして、ステップS94では、当該移動物体領域について、位置算出手段52で算出された移動物体領域の重心位置を新たな基準位置として設定する。一方、ステップS95では、当該移動物体領域を設定されている基準位置と重心位置との距離が所定距離R内となった過去のフレームの移動物体領域と関連付けてそれらと同じグループに割り当てる。すなわち、前回フレームと同じグループに割り当てる。   In step S93, the moving object region is assigned to a new group. In step S94, the center of gravity position of the moving object area calculated by the position calculating unit 52 is set as a new reference position for the moving object area. On the other hand, in step S95, the moving object area is associated with the moving object area of the past frame in which the distance between the set reference position and the center of gravity position is within the predetermined distance R, and assigned to the same group. That is, it is assigned to the same group as the previous frame.

ステップS94又はステップS95の処理が終了すると当該移動物体領域についてのグループ判定処理を終了する。   When the process of step S94 or step S95 ends, the group determination process for the moving object region ends.

以上のように、本実施の形態によれば、検出対象物以外の移動物体を検出対象物として誤検出してしまう可能性が高い移動物体領域を複数関連付けてグループ化し、当該グループに含まれる移動物体領域の判定に対する影響が大きくなり過ぎないようすることができる。これによって、監視領域を撮像した画像を順次処理し、監視領域に検出対象が存在するか否かを判定する画像監視装置において、検出対象の検出精度を高めることができる。   As described above, according to the present embodiment, a plurality of moving object regions that are likely to be erroneously detected as moving objects other than the detection target are grouped in association with each other, and movements included in the group are included. It is possible to prevent the influence on the determination of the object region from becoming too large. Thus, the detection accuracy of the detection target can be increased in the image monitoring apparatus that sequentially processes the images obtained by capturing the monitoring area and determines whether or not the detection target exists in the monitoring area.

<変形例1>
上記実施の形態では、領域関連付手段55は、基準位置との距離が所定距離以内であるか否かに基づいて移動物体領域を関連付けてグループに割り当てる処理を行った。しかしながら、本発明の目的は、属性情報を精度良く算出しにくい画像上の位置に移動物体領域が留まる場合に、その間に算出された属性情報が検出対象か否かの判定に多く使われることを防ぐものである。このため、予め、背景画像上に属性情報を精度良く算出することが困難となる可能性のある領域を設定しておき、移動物体領域が当該領域の位置に存在するか否かで関連付けするようにしてもよい。なお、背景画像上に領域を設定するのではなく、入力画像上に属性情報を精度良く算出することが困難となる可能性のある領域を設定するようにしてもよい。
<Modification 1>
In the above embodiment, the region association unit 55 performs the process of associating the moving object region and assigning it to the group based on whether the distance from the reference position is within a predetermined distance. However, it is an object of the present invention to be frequently used for determining whether or not the attribute information calculated during the time when the moving object region remains at a position on the image where it is difficult to accurately calculate the attribute information. It is something to prevent. For this reason, an area in which attribute information may be difficult to calculate with high accuracy is set in advance on the background image, and the moving object area is associated with whether or not the position exists in the area. It may be. Instead of setting an area on the background image, an area that may be difficult to accurately calculate attribute information may be set on the input image.

例えば、図3及び図4に示した背景画像41に含まれる樹木11の幹の部分は、虫属性情報を算出する際に算出精度を悪くする可能性がある。このため、背景画像41の樹木11の領域を予め設定・記憶しておき、移動物体領域が当該領域の位置に存在する時刻t−1、t、t+1の移動物体領域を関連付けて、関連付けられた移動物体領域については代表属性情報を用いて判定を行ってもよい。この場合、記憶部4に予め設定した樹木11の領域を記憶させておき、領域関連付手段55は、樹木11の領域内の位置を基準位置として設定するようにすればよい。   For example, the trunk portion of the tree 11 included in the background image 41 illustrated in FIGS. 3 and 4 may deteriorate the calculation accuracy when calculating the insect attribute information. For this reason, the area of the tree 11 of the background image 41 is set and stored in advance, and the moving object areas at the times t−1, t, and t + 1 where the moving object area exists at the position of the area are associated and associated. The moving object region may be determined using representative attribute information. In this case, the area of the tree 11 set in advance in the storage unit 4 may be stored, and the area association unit 55 may set the position in the area of the tree 11 as the reference position.

<変形例2>
上記実施の形態及び変形例では、互いに関連付けされた移動物体領域の数によらずに処理を行ったが、これに限定されるものではない。例えば、代表属性情報算出手段56は、移動物体領域を関連付けたグループ分けの結果情報を参照し、現時点までに作られたグループのすべてに2個以下の移動物体領域しか割り当てられていないか否かを判定する。そして、対象判定手段57は、すべてのグループに移動物体領域が2個以下しか含まれない場合に、代表属性情報算出手段56で算出した代表属性情報ではなく、属性情報算出手段54にてフレーム毎に算出された属性情報を用いて、移動物体領域が検出対象か否かを判定するようにすればよい。
<Modification 2>
In the above-described embodiment and modification, processing is performed regardless of the number of moving object regions associated with each other, but the present invention is not limited to this. For example, the representative attribute information calculation unit 56 refers to the grouping result information associated with the moving object area, and whether or not only two or less moving object areas are assigned to all the groups created up to the present time. Determine. Then, when all the groups include only two or less moving object regions, the target determination unit 57 uses the attribute information calculation unit 54 instead of the representative attribute information calculated by the representative attribute information calculation unit 56 for each frame. It is only necessary to determine whether or not the moving object region is a detection target using the attribute information calculated in step (b).

<変形例3>
上記実施の形態及び変形例では、対象判定手段57は、代表属性情報算出手段56で算出された代表属性情報を用いて検出対象か否かを判定し、異常判定部6は、当該判定結果に基づいて異常の有無を判定した。しかし、このような処理に限定されるものではない。例えば、対象判定手段57は、代表属性情報算出手段56で算出した代表属性情報による検出対象の判定と、属性情報算出手段54にてフレーム毎に算出された属性情報による検出対象の判定と、の両方を行い、異常判定部6は、代表属性情報を用いた検出対象の判定結果とフレーム毎に算出された属性情報のみを用いた検出対象の判定結果の両方において検出対象が存在すると判定された場合に「異常あり」とするようにしてもよい。
<Modification 3>
In the embodiment and the modification described above, the object determination unit 57 determines whether or not the object is a detection object using the representative attribute information calculated by the representative attribute information calculation unit 56, and the abnormality determination unit 6 determines that the determination result is Based on this, the presence or absence of abnormality was determined. However, it is not limited to such processing. For example, the target determination unit 57 includes determination of a detection target based on the representative attribute information calculated by the representative attribute information calculation unit 56 and determination of a detection target based on the attribute information calculated for each frame by the attribute information calculation unit 54. Both are performed, and the abnormality determination unit 6 determines that the detection target exists in both the detection target determination result using the representative attribute information and the detection target determination result using only the attribute information calculated for each frame. In some cases, “abnormal” may be set.

1 画像監視装置、2 カメラ、3 画像入力部、4 記憶部、5 画像処理部、6 異常判定部、7 出力部、8 背景画像更新部、9 人間、10 クモ、11 樹木、12 建物、13a,13b 移動物体領域、40 入力画像、41 背景画像、51 移動物体領域抽出手段、52 位置算出手段、53 追跡手段、54 属性情報算出手段、55 領域関連付手段、56 代表属性情報算出手段、57 対象判定手段。   DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus, 2 Cameras, 3 Image input part, 4 Storage part, 5 Image processing part, 6 Abnormality determination part, 7 Output part, 8 Background image update part, 9 Human, 10 Spider, 11 Tree, 12 Building, 13a , 13b Moving object area, 40 input image, 41 background image, 51 moving object area extracting means, 52 position calculating means, 53 tracking means, 54 attribute information calculating means, 55 area association means, 56 representative attribute information calculating means, 57 Object determination means.

Claims (5)

監視領域を順次撮像した画像を入力し、前記画像に検出対象が存在するか否かを判定する画像監視装置であって、
前記画像から移動物体領域を抽出する移動物体領域抽出手段と、
同一移動物体による移動物体領域を前記画像上にて順次追跡する追跡手段と、
前記移動物体領域に対して検出対象らしさを表す属性情報を算出する属性情報算出手段と、
前記同一移動物体による移動物体領域において、所定の位置関係を有している移動物体領域を関連付けて1つのグループを構成させ、その他の移動物体領域を単独にてグループを構成させる領域関連付手段と、
前記グループ毎に、構成する移動物体領域の属性情報を用いて1つの代表属性情報を算出する代表属性情報算出手段と、
前記代表属性情報を用いて前記検出対象が存在するか否かを判定する対象判定手段と、
を備えることを特徴とする画像監視装置。
An image monitoring apparatus for inputting an image obtained by sequentially imaging a monitoring area and determining whether or not a detection target exists in the image,
Moving object region extraction means for extracting a moving object region from the image;
Tracking means for sequentially tracking a moving object region by the same moving object on the image;
Attribute information calculating means for calculating attribute information representing the likelihood of detection for the moving object region;
In the moving object region by the same moving object, region association means for associating the moving object regions having a predetermined positional relationship to form one group and forming the other moving object regions independently as a group ,
Representative attribute information calculating means for calculating one representative attribute information using the attribute information of the moving object region constituting each group;
Target determination means for determining whether or not the detection target exists using the representative attribute information;
An image monitoring apparatus comprising:
請求項1に記載の画像監視装置であって、
前記領域関連付手段は、前記移動物体領域の属性情報が変動し難い相互位置に所在する関係を前記所定の位置関係としたことを特徴とする画像監視装置。
The image monitoring apparatus according to claim 1,
The image monitoring apparatus according to claim 1, wherein the region association unit uses the predetermined positional relationship as a relationship where the attribute information of the moving object region is located at a mutual position where the moving object region hardly changes.
請求項1又は2に記載の画像監視装置であって、
前記領域関連付手段は、予め画像上に設定された範囲に前記移動物体領域が所在する関係を前記所定の位置関係としたことを特徴とする画像監視装置。
The image monitoring apparatus according to claim 1 or 2,
The image monitoring apparatus according to claim 1, wherein the region association means uses the predetermined positional relationship as a relationship in which the moving object region is located in a range set in advance on the image.
請求項1又は2に記載の画像監視装置であって、
前記領域関連付手段は、前記移動物体領域の追跡開始時点の位置を基準位置に設定し、当該基準位置から所定範囲内に移動物体領域が所在する関係を前記所定の位置関係として関連付け、
前記移動物体領域が前記基準位置から前記所定範囲外になると、その時点における移動物体領域の位置を新たな基準位置として設定することを特徴とする画像監視装置。
The image monitoring apparatus according to claim 1 or 2,
The area associating means sets the position of the tracking start time of the moving object area as a reference position, and associates the relationship where the moving object area is located within a predetermined range from the reference position as the predetermined position relation,
When the moving object area is out of the predetermined range from the reference position, the position of the moving object area at that time is set as a new reference position.
請求項1から4のいずれか1項に記載の画像監視装置であって、
前記対象判定手段は、少なくとも前記代表属性情報の蓄積値又は平均値に基づいて判定することを特徴とする画像監視装置。
The image monitoring device according to any one of claims 1 to 4,
The image monitoring apparatus according to claim 1, wherein the target determination unit determines based on at least an accumulated value or an average value of the representative attribute information.
JP2014242546A 2014-11-28 2014-11-28 Image monitoring device Active JP6275022B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242546A JP6275022B2 (en) 2014-11-28 2014-11-28 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242546A JP6275022B2 (en) 2014-11-28 2014-11-28 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2016103246A true JP2016103246A (en) 2016-06-02
JP6275022B2 JP6275022B2 (en) 2018-02-07

Family

ID=56089029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242546A Active JP6275022B2 (en) 2014-11-28 2014-11-28 Image monitoring device

Country Status (1)

Country Link
JP (1) JP6275022B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017172A1 (en) * 2018-07-17 2020-01-23 ソニー株式会社 Information processing device, information processing method, and program
JP2020120362A (en) * 2019-01-28 2020-08-06 キヤノン株式会社 Image processing device, image processing method, and program
US11410443B2 (en) 2020-03-13 2022-08-09 Nec Corporation Labelling training method and system for implementing the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338187A (en) * 2005-05-31 2006-12-14 Secom Co Ltd Monitoring device
JP2012088861A (en) * 2010-10-18 2012-05-10 Secom Co Ltd Intrusion object detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338187A (en) * 2005-05-31 2006-12-14 Secom Co Ltd Monitoring device
JP2012088861A (en) * 2010-10-18 2012-05-10 Secom Co Ltd Intrusion object detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017172A1 (en) * 2018-07-17 2020-01-23 ソニー株式会社 Information processing device, information processing method, and program
US11989901B2 (en) 2018-07-17 2024-05-21 Sony Corporation Information processing device and information processing method
JP2020120362A (en) * 2019-01-28 2020-08-06 キヤノン株式会社 Image processing device, image processing method, and program
JP7191711B2 (en) 2019-01-28 2022-12-19 キヤノン株式会社 Image processing device, image processing method, and program
US11410443B2 (en) 2020-03-13 2022-08-09 Nec Corporation Labelling training method and system for implementing the same

Also Published As

Publication number Publication date
JP6275022B2 (en) 2018-02-07

Similar Documents

Publication Publication Date Title
US10032283B2 (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
US10692225B2 (en) System and method for detecting moving object in an image
US10713798B2 (en) Low-complexity motion detection based on image edges
CN112016414A (en) Method and device for detecting high-altitude parabolic event and intelligent floor monitoring system
JP2008192131A (en) System and method for performing feature level segmentation
US8494267B2 (en) Image processing device, image processing method, and program for normalizing a histogram
JP6654789B2 (en) Apparatus, program, and method for tracking object considering multiple candidates at change points
KR20160011523A (en) Device and method surveiling innormal behavior using 3d image information
JP4999794B2 (en) Still region detection method and apparatus, program and recording medium
CA2989188A1 (en) Method for ir or thermal image enchancement based on scene information for video analysis
JP2020149642A (en) Object tracking device and object tracking method
JP2013152669A (en) Image monitoring device
Sharma Human detection and tracking using background subtraction in visual surveillance
US20190096066A1 (en) System and Method for Segmenting Out Multiple Body Parts
JP6275022B2 (en) Image monitoring device
CN114120171A (en) Fire smoke detection method, device and equipment based on video frame and storage medium
JP7030451B2 (en) Image processing equipment
US20180336694A1 (en) System and Method for Passive Tracking Based on Color Features
KR102299250B1 (en) Counting device and method using composite image data
JP2014048131A (en) Image processing device, method, and program
JP5679760B2 (en) Intruder detection device
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP6585668B2 (en) Object detection device
JP5222908B2 (en) Collapse detection system and collapse detection method
JP2014157453A (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180109

R150 Certificate of patent or registration of utility model

Ref document number: 6275022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250