JP6308612B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6308612B2
JP6308612B2 JP2013227074A JP2013227074A JP6308612B2 JP 6308612 B2 JP6308612 B2 JP 6308612B2 JP 2013227074 A JP2013227074 A JP 2013227074A JP 2013227074 A JP2013227074 A JP 2013227074A JP 6308612 B2 JP6308612 B2 JP 6308612B2
Authority
JP
Japan
Prior art keywords
image
target area
stop
input
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013227074A
Other languages
Japanese (ja)
Other versions
JP2015088027A (en
Inventor
浩一郎 梶谷
浩一郎 梶谷
丈嗣 内藤
丈嗣 内藤
倫一郎 谷口
倫一郎 谷口
敬士 島田
敬士 島田
諭史 吉永
諭史 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Omron Corp
Original Assignee
Kyushu University NUC
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Omron Corp filed Critical Kyushu University NUC
Priority to JP2013227074A priority Critical patent/JP6308612B2/en
Publication of JP2015088027A publication Critical patent/JP2015088027A/en
Application granted granted Critical
Publication of JP6308612B2 publication Critical patent/JP6308612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

この発明は、ビデオカメラ等の撮像装置で撮像した対象エリアの動画像を処理して、撮像されているオブジェクトを検出する技術に関する。   The present invention relates to a technique for processing a moving image of a target area imaged by an imaging device such as a video camera and detecting an object being imaged.

従来、ビデオカメラ等の撮像装置を利用して、不審者の侵入や、不審物の放置を監視する監視システムが実用化されている。この監視システムは、撮像装置で撮像した監視対象エリア(撮像装置の撮像エリア)のフレーム画像を時系列に処理し、撮像されているオブジェクト(不審者や不審物等)を検出し、追跡する処理を行う画像処理装置を備えている。上位装置は、画像処理装置におけるオブジェクトの検出結果に応じて、オブジェクトの検出や、追跡結果を係員に対して報知する処理や、検出したオブジェクトが撮像されているフレーム画像を表示器に表示する処理等を行う。   2. Description of the Related Art Conventionally, a monitoring system for monitoring the intrusion of a suspicious person or leaving a suspicious object using an imaging device such as a video camera has been put into practical use. This monitoring system processes a frame image of a monitoring target area (imaging area of an imaging device) imaged by an imaging device in time series, and detects and tracks an imaged object (suspicious person, suspicious object, etc.) An image processing apparatus is provided. The host device performs object detection, processing for notifying an attendant of the tracking result according to the object detection result in the image processing device, and processing for displaying a frame image in which the detected object is captured on the display. Etc.

画像処理装置は、例えば、監視対象エリアの背景画像を記憶している。画像処理装置は、監視対象エリアを撮像したフレーム画像の画素毎に、その画素が背景を撮像している背景画素であるか、背景でないオブジェクト(物体)を撮像している前景画素であるかを判定した2値化画像(背景差分画像)を生成し、このフレーム画像に撮像されているオブジェクト(前景画素の塊)を検出する。   For example, the image processing apparatus stores a background image of the monitoring target area. The image processing apparatus determines, for each pixel of the frame image obtained by imaging the monitoring target area, whether the pixel is a background pixel imaging the background or a foreground pixel imaging an object (object) that is not the background. The determined binarized image (background difference image) is generated, and an object (a foreground pixel block) captured in the frame image is detected.

また、画像処理装置は、上述した背景差分画像の生成に用いる背景画像を、監視対象エリア内の明るさ等の環境変化に対応させるために、撮像装置が撮像しているフレーム画像(オブジェクトの検出にかかる処理を行ったフレーム画像)を用いて更新している。このため、オブジェクトが監視対象エリア内である程度の時間停止すると、このオブジェクトが背景画像に取り込まれ、その結果、背景画像に取り込まれたオブジェクトが検出できない見逃しが発生することがある。また、この背景に取り込まれたオブジェクトが移動を開始すると、このオブジェクトによって隠れていた背景(撮像されていなかった背景)をオブジェクトとして誤検出することもある。   The image processing apparatus also detects a frame image (object detection) captured by the imaging apparatus so that the background image used for generating the background difference image described above corresponds to environmental changes such as brightness in the monitoring target area. The image is updated using the frame image that has been subjected to the process. For this reason, when the object stops for a certain period of time in the monitoring target area, the object is captured in the background image, and as a result, there is a case in which the object captured in the background image cannot be detected. In addition, when an object captured in this background starts to move, a background hidden by this object (a background that has not been imaged) may be erroneously detected as an object.

そこで、監視対象エリア内で一時的に停止したオブジェクトの見逃しや、このオブジェクトが動きだしたときに背景をオブジェクトとして誤検出するのを防止するために、背景画像に加えて、時系列的な背景情報を用いることが提案されている(特許文献1参照)。この時系列的な背景情報は、監視対象エリアを撮像したフレーム画像において、時間的な変化が少ない静止領域の画像情報である。   Therefore, in order to prevent the object temporarily stopped in the monitoring target area from being overlooked and the background from being erroneously detected as an object when the object starts to move, time-series background information is added to the background image. Has been proposed (see Patent Document 1). This time-series background information is image information of a still area with little temporal change in a frame image obtained by imaging the monitoring target area.

特許第5115556号公報Japanese Patent No. 5115556

しかしながら、特許文献1は、停止しているオブジェクトに対して、別のオブジェクトが重なって停止すると、重なって停止している複数のオブジェクトにかかる領域を1つの静止領域として検出するので、いずれかのオブジェクトが移動すると、停止状態を継続している他のオブジェクトが、複数に分離することがある。具体的には、移動したオブジェクトによって隠れていた部分(停止状態を継続している他のオブジェクトの一部)が、この停止状態を継続している他のオブジェクトの一部として検出されずに、別のオブジェクトとして誤検出されることがある。   However, in Patent Document 1, when another object overlaps and stops with respect to a stopped object, an area related to the plurality of stopped objects is detected as one stationary area. When the object moves, other objects that are kept stopped may be separated into a plurality of objects. Specifically, the part that was hidden by the moved object (a part of another object that is still in the stopped state) is not detected as a part of the other object that is still in the stopped state, It may be erroneously detected as another object.

この発明の目的は、動画像にかかるフレーム画像に撮像されているオブジェクトを適正に検出することができる技術を提供することにある。   An object of the present invention is to provide a technique capable of appropriately detecting an object captured in a frame image related to a moving image.

この発明の画像処理装置は、上記目的を達するために、以下のように構成している。   In order to achieve the above object, the image processing apparatus of the present invention is configured as follows.

像入力部には、対象エリアを、ビデオカメラ等の撮像装置で撮像した動画像にかかるフレーム画像が入力される。また、背景画像記憶部は、対象エリアを複数に分割した領域毎に、その領域に属する画像入力部に入力された対象エリアの動画像にかかるフレーム画像の画素を対応づけた分割情報、および、画像入力部に入力された対象エリアの動画像にかかるフレーム画像の各画素について、その画素が属する領域の代表画素値を基準とした背景モデル、を対象エリアの背景画像として記憶する。例えば、背景モデルは、その画素が属する領域の代表画素値を基準とした画素値の発生頻度をモデル化したものにすればよい。この場合には、対象エリアを複数に分割した領域毎に、その領域内における、画像入力部に入力された対象エリアの動画像にかかるフレーム画像の背景画素の画素値の中央値を代表画素値とすればよい。また、各領域の代表画素値は、以下に示す、オブジェクトの検出にかかる処理を行ったフレーム画像を用いて更新すればよい。 The images input unit, the target area, a frame image is input in accordance with the moving image captured by an imaging apparatus such as a video camera. Further, the background image storage unit, for each region obtained by dividing the target area into a plurality of division information that associates the pixels of the frame image related to the moving image of the target area input to the image input unit belonging to the region, and For each pixel of the frame image applied to the moving image of the target area input to the image input unit, a background model based on the representative pixel value of the region to which the pixel belongs is stored as a background image of the target area. For example, the background model may be a model of the pixel value occurrence frequency based on the representative pixel value of the region to which the pixel belongs. In this case, for each region obtained by dividing the target area into a plurality of regions, the median value of the pixel values of the background pixels of the frame image relating to the moving image of the target area input to the image input unit in the region is set as the representative pixel value. And it is sufficient. In addition, the representative pixel value of each region may be updated using a frame image that has been subjected to processing related to object detection as described below.

オブジェクト検出部は、画像入力部に入力された対象エリアの動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出する。オブジェクト種別判定部は、オブジェクト検出部が検出したオブジェクトについて、このオブジェクトが対象エリア内で停止している停止オブジェクトであるかどうかを判定する。停止オブジェクト画像記憶部は、オブジェクト種別判定部が停止していると判定した停止オブジェクト毎に、その停止オブジェクトにかかる画像を停止オブジェクト画像として記憶する。   The object detection unit processes a frame image related to the moving image of the target area input to the image input unit, and detects an object captured in the frame image. The object type determination unit determines whether the object detected by the object detection unit is a stopped object stopped in the target area. The stop object image storage unit stores an image related to the stop object as a stop object image for each stop object that is determined to be stopped by the object type determination unit.

また、オブジェクト検出部は、背景画像記憶部が記憶する背景画像に加えて、停止オブジェクト画像記憶部が記憶する停止オブジェクト画像を用い、画像入力部に入力された対象エリアの動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出する。   The object detection unit uses a stop object image stored in the stop object image storage unit in addition to the background image stored in the background image storage unit, and uses the frame image related to the moving image of the target area input to the image input unit. To detect an object imaged in the frame image.

このように、停止しているオブジェクト毎に、停止オブジェクト画像を記憶する構成としているので、重なって停止している複数のオブジェクトにおいて、いずれかのオブジェクトが移動しても、停止状態を継続している他のオブジェクトが、複数に分離されて検出されるのを防止できる。具体的には、移動したオブジェクトによって隠れていた部分(停止状態を継続している他のオブジェクトの一部)は、この停止状態を継続している他のオブジェクトにかかる停止オブジェクト画像によって、この他のオブジェクトの一部として検出できる。したがって、動画像にかかるフレーム画像に撮像されているオブジェクトを適正に検出することができる。   As described above, since the stopped object image is stored for each stopped object, even if any of the plurality of stopped objects overlaps, the stopped state continues. It is possible to prevent other objects being detected separately from each other. Specifically, the part hidden by the moved object (a part of other objects that are still in the stopped state) is displayed by the stopped object image for the other objects that are still in the stopped state. Can be detected as part of the object. Therefore, it is possible to appropriately detect the object captured in the frame image related to the moving image.

また、オブジェクト検出部は、画像入力部に入力された対象エリアの動画像にかかるフレーム画像の画素毎に、その画素が、背景画像記憶部が記憶する背景画像、停止オブジェクト画像記憶部が記憶する停止オブジェクト画像、または、これら以外の画像のどれに相当するかを対応付けた分布画像を生成し、このフレーム画像に撮像されているオブジェクトを検出する構成にしてもよい。   The object detection unit stores, for each pixel of the frame image related to the moving image of the target area input to the image input unit, the pixel stored in the background image stored in the background image storage unit and the stop object image storage unit. A distribution image in which a stop object image or an image other than these images is associated may be generated, and an object captured in the frame image may be detected.

これにより、対象エリア内で移動しているオブジェクト、および対象エリア内で停止しているオブジェクトを適正に検出することができる。   Thereby, it is possible to appropriately detect an object moving in the target area and an object stopped in the target area.

また、停止オブジェクト画像記憶部に停止オブジェクト画像が記憶されている停止オブジェクトが移動したかどうかを判定する移動判定部と、この移動判定部が移動したと判定した停止オブジェクトについて、停止オブジェクト画像記憶部に記憶されている停止オブジェクト画像を削除する停止オブジェクト画像削除部と、を追加的に設けてもよい。これにより、停止オブジェクト画像を無駄に記憶することがなく、また、停止オブジェクト画像を用いるオブジェクト検出部の処理負荷を抑えることができる。   Further, a movement determination unit that determines whether or not a stop object whose stop object image is stored in the stop object image storage unit has moved, and a stop object image storage unit that determines whether the movement determination unit has moved. And a stop object image deleting unit that deletes the stop object image stored in the image may be additionally provided. Thereby, the stop object image is not stored in vain and the processing load of the object detection unit using the stop object image can be suppressed.

この発明によれば、動画像にかかるフレーム画像に撮像されているオブジェクトを適正に検出することができる。   According to the present invention, it is possible to appropriately detect an object captured in a frame image related to a moving image.

画像処理装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of an image processing apparatus. 監視対象エリアの背景画像を示す図である。It is a figure which shows the background image of the monitoring object area. オブジェクトが撮像されているフレーム画像を示す図である。It is a figure which shows the frame image in which the object is imaged. オブジェクトが撮像されているフレーム画像を示す図である。It is a figure which shows the frame image in which the object is imaged. オブジェクトが撮像されているフレーム画像を示す図である。It is a figure which shows the frame image in which the object is imaged. オブジェクトが撮像されているフレーム画像を示す図である。It is a figure which shows the frame image in which the object is imaged. 背景画像データ生成処理を示すフローチャートである。It is a flowchart which shows a background image data generation process. フレーム画像の分割を示す図である。It is a figure which shows the division | segmentation of a frame image. 背景モデルを示す図である。It is a figure which shows a background model. 画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image processing apparatus. 分布画像を示す図である。It is a figure which shows a distribution image. 分布画像生成処理を示すフローチャートである。It is a flowchart which shows a distribution image generation process. 種別判定処理を示すフローチャートである。It is a flowchart which shows a classification determination process. 停止オブジェクト画像生成処理を示すフローチャートである。It is a flowchart which shows a stop object image generation process. 移動オブジェクト判定処理を示すフローチャートである。It is a flowchart which shows a moving object determination process. 分布画像を示す図である。It is a figure which shows a distribution image.

以下、この発明の実施形態である画像処理装置について説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described.

図1は、この画像処理装置の主要部の構成を示すブロック図である。画像処理装置1は、制御部2と、画像入力部3と、画像処理部4と、入出力部5と、を備えている。   FIG. 1 is a block diagram showing a configuration of a main part of the image processing apparatus. The image processing apparatus 1 includes a control unit 2, an image input unit 3, an image processing unit 4, and an input / output unit 5.

制御部2は、画像処理装置1本体各部の動作を制御する。   The control unit 2 controls the operation of each part of the main body of the image processing apparatus 1.

画像入力部3は、ビデオカメラ10が撮像している動画像にかかるフレーム画像が入力される。ビデオカメラ10は、不審者の侵入や、不審物の放置等を監視する監視対象エリア(この発明で言う対象エリアに相当する。)が撮像エリア内に収まるように設置している。ビデオカメラ10は、監視対象エリアを撮像したフレーム画像を1秒間に数十フレーム(例えば、10〜30フレーム)出力する。   The image input unit 3 receives a frame image related to a moving image captured by the video camera 10. The video camera 10 is installed so that a monitoring target area (corresponding to a target area referred to in the present invention) for monitoring the intrusion of a suspicious person, the leaving of a suspicious object, etc. is within the imaging area. The video camera 10 outputs several tens of frames (for example, 10 to 30 frames) per second of a frame image obtained by imaging the monitoring target area.

画像処理部4は、画像入力部3に入力された動画像にかかるフレーム画像を時系列に処理し、フレーム画像に撮像されているオブジェクトを検出するオブジェクト検出処理を行う。このオブジェクト検出処理の詳細については、後述する。また、画像処理部4は、後述する背景画像や、監視対象エリア内で停止しているオブジェクト(停止オブジェクト)の画像(停止オブジェクト画像)を記憶するメモリ4aを有している。このメモリ4aが、この発明で言う背景画像記憶部、および停止オブジェクト画像記憶部に相当する。メモリ4aが記憶する背景画像、および停止オブジェクト画像の詳細については後述する。画像処理部4は、検出したオブジェクトについて、フレーム画像上の位置を検出し、フレーム画像間におけるオブジェクトの位置の変化から、このオブジェクトの移動軌跡を取得する追跡も行える。   The image processing unit 4 processes a frame image applied to the moving image input to the image input unit 3 in time series, and performs an object detection process for detecting an object captured in the frame image. Details of the object detection processing will be described later. In addition, the image processing unit 4 includes a memory 4a that stores a background image to be described later and an image (stopped object image) of an object (stopped object) that is stopped in the monitoring target area. The memory 4a corresponds to the background image storage unit and the stop object image storage unit referred to in the present invention. Details of the background image and the stop object image stored in the memory 4a will be described later. The image processing unit 4 can also perform tracking for detecting the position of the detected object on the frame image and acquiring the movement locus of the object from the change in the position of the object between the frame images.

なお、画像処理部4は、画像入力部3に入力されたフレーム画像に対する画像処理等を実行するマイコンを備えている。この発明にかかる画像処理プログラムは、このマイコンを動作させるプログラムである。また、このマイコンが、この発明にかかる画像処理方法を実行する。また、画像処理装置1全体、または画像処理装置1の一部(例えば、制御部2、および画像処理部4)を汎用コンピュータやパーソナルコンピュータで構成してもよいし、ボードコンピュータで画像処理装置1の一部(例えば、制御部2、および画像処理部4)を構成してもよい。この場合には、この発明にかかる画像処理プログラムは、これらのコンピュータを動作させる。また、これらのコンピュータが、この発明にかかる画像処理方法を実行する。   The image processing unit 4 includes a microcomputer that executes image processing on the frame image input to the image input unit 3. The image processing program according to the present invention is a program for operating this microcomputer. The microcomputer executes the image processing method according to the present invention. Further, the entire image processing apparatus 1 or a part of the image processing apparatus 1 (for example, the control unit 2 and the image processing unit 4) may be constituted by a general-purpose computer or a personal computer, or the image processing apparatus 1 may be configured by a board computer. (For example, the control unit 2 and the image processing unit 4) may be configured. In this case, the image processing program according to the present invention operates these computers. In addition, these computers execute the image processing method according to the present invention.

入出力部5は、図示していない上位装置との間におけるデータの入出力を制御する。入出力部5は、画像処理部4でオブジェクトが検出されたときに、その旨を上位装置(不図示)に通知する信号を出力する。入出力部5は、オブジェクトの検出を通知する信号を出力する構成であってもよいし、オブジェクトを検出したフレーム画像とともに、オブジェクトの検出を通知する信号を出力する構成であってもよいし、その他の形態であってもよい。   The input / output unit 5 controls data input / output with a host device (not shown). When the image processing unit 4 detects an object, the input / output unit 5 outputs a signal for notifying a higher-level device (not shown) to that effect. The input / output unit 5 may be configured to output a signal notifying the detection of the object, or may be configured to output a signal notifying the detection of the object together with the frame image in which the object is detected. Other forms may be used.

なお、上位装置は、画像処理装置1の入出力部5から出力された信号によって、監視対象エリア内に位置するオブジェクトの検出が通知されたときに、その旨を音声等で出力して、周辺にいる係員等に通知する構成であってもよいし、さらには、オブジェクトを検出したフレーム画像が送信されてきている場合に、そのフレーム画像を表示器に表示する構成であってもよい。   When the host device is notified of detection of an object located in the monitoring target area by a signal output from the input / output unit 5 of the image processing device 1, the host device outputs a message to that effect and It may be configured to notify a staff member or the like in the office, or may further be configured to display the frame image on a display when a frame image in which an object is detected is transmitted.

次に、この画像処理装置1におけるオブジェクト検出処理の概要について説明する。   Next, an outline of object detection processing in the image processing apparatus 1 will be described.

画像処理装置1は、監視対象エリアの背景画像L1(図2参照)をメモリ4aに記憶している。この背景画像は、第1階層である。   The image processing apparatus 1 stores a background image L1 (see FIG. 2) of the monitoring target area in the memory 4a. This background image is the first layer.

画像処理装置1は、画像処理部4が、メモリ4aに記憶している背景画像を用いて、画像入力部3に入力された監視対象エリアを撮像したフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出する。画像処理部4における、オブジェクトを検出する処理の詳細については、後述する。   In the image processing apparatus 1, the image processing unit 4 uses the background image stored in the memory 4a to process a frame image obtained by imaging the monitoring target area input to the image input unit 3, and captures the frame image. Detects an object that has been Details of the object detection process in the image processing unit 4 will be described later.

画像処理部4は、図3(A)に示すオブジェクトAが撮像されているフレーム画像を処理し、このオブジェクトAが監視対象エリア内で停止していると判定すると(オブジェクトAが停止オブジェクトであると判定すると、)、このオブジェクトAにかかる停止オブジェクト画像L2(図3(B)参照)をメモリ4aに記憶する。   When the image processing unit 4 processes the frame image in which the object A shown in FIG. 3A is captured and determines that the object A is stopped in the monitoring target area (the object A is a stopped object). If it is determined that the stop object image L2 (see FIG. 3B) related to the object A is stored in the memory 4a.

さらに、画像処理部4は、図4(A)に示すオブジェクトA、Bが撮像されているフレーム画像を処理し、このオブジェクトBが監視対象エリア内で停止していると判定すると(オブジェクトBが停止オブジェクトであると判定すると、)、このオブジェクトBにかかる停止オブジェクト画像L3(図4(B)参照)をメモリ4aに記憶する。   Furthermore, when the image processing unit 4 processes the frame images in which the objects A and B shown in FIG. 4A are captured and determines that the object B is stopped in the monitoring target area (the object B is If it is determined that the object is a stop object), the stop object image L3 (see FIG. 4B) related to the object B is stored in the memory 4a.

ただし、図4に示す例は、オブジェクトBが、オブジェクトAよりもビデオカメラ10に近い場合のフレーム画像である。すなわち、フレーム画像において、オブジェクトAの上にオブジェクトBが重なっている。   However, the example shown in FIG. 4 is a frame image when the object B is closer to the video camera 10 than the object A. That is, the object B overlaps the object A in the frame image.

この例の画像処理装置1は、背景画像L1、および停止オブジェクト画像L2、L3・・・Lnを階層として取り扱う。最下位の階層(第1階層)が、背景画像L1である。また、ビデオカメラ10により近いオブジェクトにかかる停止オブジェクト画像ほど、上位の階層である。すなわち、この例では、背景画像L1が第1階層、停止オブジェクト画像L2が第2階層、停止オブジェクト画像L3が第3階層である。   The image processing apparatus 1 in this example handles the background image L1 and the stop object images L2, L3,. The lowest hierarchy (first hierarchy) is the background image L1. Further, the higher the stop object image of the object closer to the video camera 10, the higher the hierarchy. That is, in this example, the background image L1 is the first hierarchy, the stop object image L2 is the second hierarchy, and the stop object image L3 is the third hierarchy.

また、詳細については後述するが、画像処理部4は、停止オブジェクト画像をメモリ4aに記憶しているときは、背景画像L1に加えて、記憶している全ての停止オブジェクト画像L2〜Lnを用いて、画像入力部3に入力された監視対象エリアを撮像したフレーム画像を処理し、撮像されているオブジェクトを検出する。   Although details will be described later, when the stop object image is stored in the memory 4a, the image processing unit 4 uses all the stored stop object images L2 to Ln in addition to the background image L1. Then, the frame image obtained by imaging the monitoring target area input to the image input unit 3 is processed to detect the imaged object.

これにより、図5に示すように、画像入力部3に入力された監視対象エリアを撮像したフレーム画像に別のオブジェクトCが撮像されているときには、このオブジェクトCをオブジェクトA、Bと区別して検出できる。   Thus, as shown in FIG. 5, when another object C is captured in the frame image obtained by capturing the monitoring target area input to the image input unit 3, this object C is detected separately from the objects A and B. it can.

また、画像処理部4は、図6(A)に示すように、画像入力部3に入力された監視対象エリアを撮像したフレーム画像にオブジェクトAが撮像されていないと、このオブジェクトAにかかる停止オブジェクト画像L2をメモリ4aから削除する。また、画像処理部4は、図6(B)に示すように、画像入力部3に入力された監視対象エリアを撮像したフレーム画像にオブジェクトBが撮像されていないと、このオブジェクトBにかかる停止オブジェクト画像L3をメモリ4aから削除する。   Further, as shown in FIG. 6A, the image processing unit 4 stops the object A if the object A is not captured in the frame image obtained by capturing the monitoring target area input to the image input unit 3. The object image L2 is deleted from the memory 4a. Further, as shown in FIG. 6B, the image processing unit 4 stops the object B when the object B is not captured in the frame image obtained by capturing the monitoring target area input to the image input unit 3. The object image L3 is deleted from the memory 4a.

ここで、メモリ4aに記憶している背景画像L1について説明する。背景画像L1は、(1)対象エリアを複数に分割した領域毎に、その領域に属するフレーム画像の画素を対応づけた分割情報と、
(2)フレーム画像の各画素について、その画素が属する領域の代表画素値(この例では、代表輝度値)を基準とした画素値(輝度値)の発生頻度をモデル化した背景モデルと、で構成されるデータである。
Here, the background image L1 stored in the memory 4a will be described. The background image L1 includes (1) division information that associates the pixels of the frame image belonging to the area for each area obtained by dividing the target area into a plurality of areas,
(2) For each pixel of the frame image, a background model that models the frequency of occurrence of a pixel value (luminance value) based on the representative pixel value (in this example, the representative luminance value) of the region to which the pixel belongs, It is data that is composed.

画像処理部4は、画像入力部3に入力された、オブジェクトが撮像されていないフレーム画像(例えば、図2に示したフレーム画像)を処理して、背景画像L1にかかるデータを生成する。   The image processing unit 4 processes the frame image (for example, the frame image shown in FIG. 2) that is input to the image input unit 3 and does not capture an object, and generates data related to the background image L1.

図7は、背景画像データ生成処理を示すフローチャートである。画像処理部4は、画像入力部3に入力された、オブジェクトが撮像されていないフレーム画像を、予め定めた条件に基づいて複数の領域に分割する(s1)。図8は、フレーム画像を複数の領域に分割した例を示している。図8において、破線で囲まれている部分が分割した領域である。   FIG. 7 is a flowchart showing background image data generation processing. The image processing unit 4 divides the frame image that is input to the image input unit 3 and does not capture an object into a plurality of regions based on a predetermined condition (s1). FIG. 8 shows an example in which the frame image is divided into a plurality of regions. In FIG. 8, a portion surrounded by a broken line is a divided area.

s1では、輝度Y、および色味(U,V)が類似し、且つ、比較的位置が近い画素が同じ領域(クラスタ)に属するように分割する。この場合、輝度Y、および色味(U,V)にかかる類似度の閾値や、同じ領域に属する画素間の距離の最大値等を条件として設定している。   In s1, the pixels are divided so that pixels having similar brightness Y and color (U, V) and relatively close positions belong to the same region (cluster). In this case, the threshold value of the degree of similarity relating to the luminance Y and the color (U, V), the maximum value of the distance between pixels belonging to the same region, and the like are set as conditions.

また、s1では、輝度Y、および色味(U,V)の時間的変化の傾向が類似し、且つ、比較的位置が近い画素が同じ領域に属するように分割してもよい。この場合には、輝度Y、および色味(U,V)の時間的変化の傾向を得るために、複数のフレームの背景画像を用いる。また、輝度Y、および色味(U,V)の時間的変化の傾向にかかる類似度の閾値や、同じ領域に属する画素間の距離の最大値等を条件として設定しておく。   Moreover, in s1, you may divide | segment so that the tendency of the temporal change of the brightness | luminance Y and a color (U, V) is similar, and the pixel with a comparatively near position may belong to the same area | region. In this case, a background image of a plurality of frames is used in order to obtain a tendency of temporal change in luminance Y and color (U, V). In addition, the threshold value of the degree of similarity according to the tendency of temporal change in luminance Y and color (U, V), the maximum value of the distance between pixels belonging to the same region, and the like are set as conditions.

画像処理部4は、s1で分割した領域毎に、その領域に属するフレーム画像の画素を対応づけた分割情報を生成する(s2)。フレーム画像の各画素は、いずれかの領域に属する。   For each region divided in s1, the image processing unit 4 generates division information in which the pixels of the frame image belonging to the region are associated (s2). Each pixel of the frame image belongs to one of the areas.

画像処理部4は、フレーム画像の画素毎に背景モデルを算出する(s3)。s3では、s1で分割した領域毎に、以下に示す処理を行う。   The image processing unit 4 calculates a background model for each pixel of the frame image (s3). In s3, the following processing is performed for each area divided in s1.

(1)処理対象の領域について代表輝度値を得る。代表輝度値とは、その領域に属する全ての画素の輝度値の中央値(出現頻度が最も高い輝度値)である。 (1) Obtain a representative luminance value for the region to be processed. The representative luminance value is the median value (the luminance value with the highest appearance frequency) of the luminance values of all the pixels belonging to the region.

(2)処理対象の領域に属する画素毎に、その画素の輝度値と、ここで算出した代表輝度値との差(代表輝度値−画素の輝度値)を中心とする予め定めた分布(例えば、ガウス分布)を、この対象画素の背景モデルとする。 (2) For each pixel belonging to the region to be processed, a predetermined distribution centered on the difference (representative luminance value−pixel luminance value) between the luminance value of the pixel and the representative luminance value calculated here (for example, , Gaussian distribution) as the background model of the target pixel.

図9は、ある画素の背景モデルを示す図である。図9に示す背景モデルは、代表輝度値との輝度値の差がDであった画素について設定したものである。図9に示す閾値は、その画素が背景であるかどうかを判定する判定基準である。すなわち、各画素の背景モデルは、その画素が属する領域の代表輝度値を基準とした輝度値の発生頻度をモデル化したものである。   FIG. 9 is a diagram illustrating a background model of a certain pixel. The background model shown in FIG. 9 is set for a pixel whose difference in luminance value from the representative luminance value is D. The threshold shown in FIG. 9 is a criterion for determining whether or not the pixel is the background. That is, the background model of each pixel is a model of the frequency of occurrence of luminance values with reference to the representative luminance value of the area to which the pixel belongs.

なお、背景モデルにかかる分布については、各画素に個別に設定してもよいし、全ての画素で同じに設定してもよい。   The distribution relating to the background model may be set individually for each pixel, or may be set to be the same for all pixels.

画像処理部4は、s2で生成した分割情報、および、s3で生成した各画素の背景モデルを背景画像L1にかかるデータとしてメモリ4aに記憶する(s4)。   The image processing unit 4 stores the division information generated in s2 and the background model of each pixel generated in s3 in the memory 4a as data related to the background image L1 (s4).

また、メモリ4aに記憶する停止オブジェクト画像Lnも、上述した背景画像L1と同様に、
(1)停止オブジェクトを複数に分割した領域毎に、その領域に属するフレーム画像の画素を対応づけた分割情報と、
(2)停止オブジェクトにかかる各画素について、その画素が属する領域の代表輝度値を基準とした輝度値の発生頻度をモデル化した停止オブジェクトモデルと、で構成されるデータである。
In addition, the stop object image Ln stored in the memory 4a is also similar to the background image L1 described above.
(1) For each area obtained by dividing the stop object into a plurality of pieces, division information that associates the pixels of the frame image belonging to the area;
(2) For each pixel related to the stop object, the data is composed of a stop object model that models the occurrence frequency of the luminance value with reference to the representative luminance value of the area to which the pixel belongs.

なお、停止オブジェクト画像Lnのデータには、フレーム画像において、停止オブジェクトを撮像していない画素についての分割情報、および停止オブジェクトモデルが含まれない。言い換えれば、停止オブジェクト画像Lnのデータは、フレーム画像において、停止オブジェクトを撮像している画素の分割情報、および停止オブジェクトモデルで構成される。   Note that the data of the stop object image Ln does not include the division information and the stop object model for the pixels that have not captured the stop object in the frame image. In other words, the data of the stop object image Ln is composed of the division information of the pixels capturing the stop object and the stop object model in the frame image.

停止オブジェクト画像Lnの分割は、上述のs1と同様の手法で行う。また、各画素の停止オブジェクトモデルは、上述のs3と同様の手法で設定する。   The stop object image Ln is divided by the same method as in s1 described above. In addition, the stop object model of each pixel is set by the same method as in s3 described above.

次に、この画像処理装置1におけるフレーム画像の処理動作について説明する。まず、一連の処理動作の概略を説明し、その後で、いくつかの処理について詳細に説明する。図10は、画像処理装置の動作を示すフローチャートである。   Next, a frame image processing operation in the image processing apparatus 1 will be described. First, an outline of a series of processing operations will be described, and then several processes will be described in detail. FIG. 10 is a flowchart showing the operation of the image processing apparatus.

画像処理装置1は、画像入力部3に入力されたフレーム画像の中で、時間的にもっとも古い未処理のフレーム画像を処理対象のフレーム画像に決定する(s11)。   The image processing apparatus 1 determines the oldest unprocessed frame image in time among the frame images input to the image input unit 3 as a processing target frame image (s11).

画像処理部4は、s11で決定した処理対象のフレーム画像について分布画像を生成する(s12)。この分布画像は、処理対象のフレーム画像の画素毎に、その画素が背景画像L1、その時点でメモリ4aに記憶している停止オブジェクト画像L2〜Ln、または、これら以外の画像のどれに属するかを判定した画像である。メモリ4aに複数の停止オブジェクト画像L2〜Lnを記憶しているときには、どの停止オブジェクト画像L2〜Lnにかかる画素であるかを判定している。   The image processing unit 4 generates a distribution image for the processing target frame image determined in s11 (s12). For each pixel of the frame image to be processed, this distribution image belongs to the background image L1, the stop object images L2 to Ln stored in the memory 4a at that time, or any other image. It is the image which determined. When a plurality of stop object images L2 to Ln are stored in the memory 4a, it is determined which stop object image L2 to Ln is a pixel.

停止オブジェクト画像をメモリ4aに記憶していない場合には、s12で生成される分布画像は、処理対象フレーム画像の画素毎に、その画素が背景画像L1に属する画素(L1)であるか、他のオブジェクトに属する画素(前景画素)であるかの2値画像になる。   When the stop object image is not stored in the memory 4a, the distribution image generated in s12 is, for each pixel of the processing target frame image, whether the pixel belongs to the background image L1 (L1) or other This is a binary image as to whether the pixel (foreground pixel) belonging to the object.

また、図3(B)に示した停止オブジェクト画像L2をメモリ4aに記憶している場合には、s12で生成される分布画像は、処理対象フレーム画像の画素毎に、その画素が背景画像L1に属する画素(L1)であるか、停止オブジェクト画像L2に属する画素(L2)であるか、他のオブジェクトに属する画素(前景画素)であるかの3値画像になる。   Further, when the stopped object image L2 shown in FIG. 3B is stored in the memory 4a, the distribution image generated in s12 is the background image L1 for each pixel of the processing target frame image. Is a pixel (L1) belonging to, a pixel (L2) belonging to the stopped object image L2, or a pixel (foreground pixel) belonging to another object.

また、図3(B)に示した停止オブジェクト画像L2、および図4(B)に示した停止オブジェクト画像L3をメモリ4aに記憶している場合には、s12で生成される分布画像は、処理対象フレーム画像の画素毎に、その画素が背景画像L1に属する画素(L1)であるか、オブジェクト画像L2に属する画素(L2)であるか、オブジェクト画像L3に属する画素(L3)であるか、他のオブジェクトに属する画素(前景画素)であるかの4値画像になる。   Further, when the stopped object image L2 shown in FIG. 3B and the stopped object image L3 shown in FIG. 4B are stored in the memory 4a, the distribution image generated in s12 is processed. For each pixel of the target frame image, whether the pixel is a pixel (L1) belonging to the background image L1, a pixel (L2) belonging to the object image L2, or a pixel (L3) belonging to the object image L3, It becomes a four-value image as to whether it is a pixel (foreground pixel) belonging to another object.

例えば、図3(B)に示した停止オブジェクト画像L2、および図4(B)に示した停止オブジェクト画像L3をメモリ4aに記憶している場合において、処理対象フレーム画像が図5に示すフレーム画像である場合、図11に示す分布画像が生成される。   For example, when the stop object image L2 shown in FIG. 3B and the stop object image L3 shown in FIG. 4B are stored in the memory 4a, the processing target frame image is the frame image shown in FIG. In this case, the distribution image shown in FIG. 11 is generated.

画像処理部4は、s12で生成した分布画像を処理し、撮像されているオブジェクトを検出するオブジェクト検出処理を行う(s13)。s13では、s12で生成した分布画像において、前景画素と判定した画素の塊を1つのオブジェクトとして検出する。s13で検出されるオブジェクトは、1つであるとは限らない(複数検出されることもあれば、1つも検出されないこともある。)。図11に示す例では、オブジェクトCが検出される。このs12、およびs13にかかる処理が、この発明で言うオブジェクト検出部に相当する。また、処理対象のフレーム画像に撮像されているオブジェクトA、B(停止オブジェクト画像L2、L3にかかるオブジェクト)については、後述する処理で検出される。   The image processing unit 4 processes the distribution image generated in s12, and performs an object detection process for detecting the imaged object (s13). In s13, the block of pixels determined as the foreground pixels in the distribution image generated in s12 is detected as one object. The number of objects detected in s13 is not necessarily one (a plurality of objects may be detected, or none may be detected). In the example shown in FIG. 11, the object C is detected. The processing according to s12 and s13 corresponds to the object detection unit referred to in the present invention. In addition, the objects A and B (objects related to the stop object images L2 and L3) captured in the processing target frame image are detected by processing described later.

画像処理部4は、s13で検出したオブジェクト毎に、そのオブジェクトが監視対象エリア内で停止している停止オブジェクトであるかどうかを判定する(s14)。s14では、予め定めた所定フレーム(例えば10フレーム)にわたって、検出された位置がほとんど変化していないオブジェクトを停止オブジェクトであると判定する。上述したように、画像処理部4は、検出したオブジェクトを追跡しているので、このオブジェクトについて取得している移動軌跡から、s14にかかる判定が行える。このs14にかかる処理が、この発明で言うオブジェクト種別判定部に相当する。   The image processing unit 4 determines, for each object detected in s13, whether the object is a stopped object that is stopped in the monitoring target area (s14). In s14, an object whose detected position hardly changes over a predetermined frame (for example, 10 frames) is determined as a stop object. As described above, since the image processing unit 4 tracks the detected object, the determination relating to s14 can be made from the movement trajectory acquired for the object. The processing according to s14 corresponds to the object type determination unit referred to in the present invention.

画像処理部4は、s14で停止オブジェクトであると判定したオブジェクトがあれば、そのオブジェクトについて停止オブジェクト画像Lnを生成する(s15、s16)。s16では、複数のオブジェクトについて、停止オブジェクト画像Lnを生成することもある。画像処理部4は、s16で生成した停止オブジェクト画像Lnをメモリ4aに記憶する。   If there is an object determined to be a stop object in s14, the image processing unit 4 generates a stop object image Ln for the object (s15, s16). In s16, a stop object image Ln may be generated for a plurality of objects. The image processing unit 4 stores the stop object image Ln generated in s16 in the memory 4a.

画像処理部4は、移動した停止オブジェクトの有無を判定する(s17)。停止オブジェクトとは、停止オブジェクト画像Lnをメモリ4aに記憶しているオブジェクトである。s17では、停止オブジェクト毎に、その停止オブジェクトがメモリ4aに記憶している位置にあるかどうかによって、判定する。このs17にかかる処理が、この発明で言う移動判定部に相当する。   The image processing unit 4 determines whether or not there is a stopped object that has moved (s17). The stop object is an object that stores the stop object image Ln in the memory 4a. In s17, determination is made for each stop object based on whether or not the stop object is at a position stored in the memory 4a. The processing according to s17 corresponds to the movement determination unit referred to in the present invention.

画像処理部4は、s17で移動したと判定した停止オブジェクトがあれば、その停止オブジェクトにかかる停止オブジェクト画像Lnをメモリ4aから削除する(s18)。このs18にかかる処理が、この発明で言う停止オブジェクト画像削除部に相当する。   If there is a stop object determined to have moved in s17, the image processing unit 4 deletes the stop object image Ln related to the stop object from the memory 4a (s18). The processing according to s18 corresponds to the stop object image deletion unit referred to in the present invention.

なお、s17にかかる処理で、停止状態を維持している停止オブジェクトを適正に検出できる。また、移動した停止オブジェクトについては、上述のs13で検出される。   In addition, the process concerning s17 can detect the stop object which has maintained the stop state appropriately. The stopped object that has moved is detected in s13 described above.

画像処理部4は、代表輝度値を更新し(s19)、s11に戻る。s19では、背景画像L1を分割した各領域の代表輝度値を更新するだけでなく、メモリ4aに記憶している停止オブジェクト画像Ln毎に、その停止オブジェクト画像Lnを分割した各領域の代表輝度値も更新する。具体的には、背景画像L1にかかる各領域の代表輝度値は、その領域において背景画素であると判定された画素の輝度値の中央値に更新する。同様に、停止オブジェクト画像Lnにかかる各領域の代表輝度値は、その領域において停止オブジェクト画像Lnであると判定された画素の輝度値の中央値に更新する。これにより、背景画像L1にかかる各画素の背景モデルや、停止オブジェクト画像Lnにかかる各画素の停止オブジェクトモデルは、監視対象エリア内の明るさ等の環境変化に応じて変化する。言い換えれば、背景画像L1にかかる各画素の背景モデルや、停止オブジェクト画像Lnにかかる各画素の停止オブジェクトモデルは、監視対象エリア内の明るさ等の環境変化に応じて更新される。   The image processing unit 4 updates the representative luminance value (s19), and returns to s11. In s19, not only the representative luminance value of each area obtained by dividing the background image L1, but also the representative luminance value of each area obtained by dividing the stopped object image Ln for each stopped object image Ln stored in the memory 4a. Also update. Specifically, the representative luminance value of each area related to the background image L1 is updated to the median value of the luminance values of the pixels determined to be background pixels in the area. Similarly, the representative luminance value of each region relating to the stop object image Ln is updated to the median value of the luminance values of the pixels determined to be the stop object image Ln in that region. As a result, the background model of each pixel related to the background image L1 and the stop object model of each pixel related to the stop object image Ln change according to environmental changes such as brightness in the monitoring target area. In other words, the background model of each pixel related to the background image L1 and the stop object model of each pixel related to the stop object image Ln are updated according to environmental changes such as brightness in the monitoring target area.

次に、上述したs12にかかる分布画像生成処理について詳細に説明する。図12は、この分布画像生成処理を示すフローチャートである。   Next, the distribution image generation processing according to s12 described above will be described in detail. FIG. 12 is a flowchart showing this distribution image generation processing.

画像処理部4は、最上位階層を取得する(s21)。s21で取得する最上位階層は、メモリ4aに記憶している停止オブジェクト画像の中で最上位に位置する階層である(最も、ビデオカメラ10側に位置する停止オブジェクトにかかる停止オブジェクト画像である。)。最上位階層は、図3に示す例では、停止オブジェクト画像L2であり、図4に示す例では、停止オブジェクト画像L3である。また、メモリ4aに停止オブジェクト画像を1つも記憶していなければ、s21では、図2に示す背景画像L1を最上位階層として取得する。   The image processing unit 4 acquires the highest hierarchy (s21). The highest hierarchy acquired in s21 is the hierarchy positioned at the highest level among the stopped object images stored in the memory 4a (mostly, the stopped object image related to the stopped object positioned on the video camera 10 side. ). The highest hierarchy is the stop object image L2 in the example shown in FIG. 3, and the stop object image L3 in the example shown in FIG. If no stop object image is stored in the memory 4a, the background image L1 shown in FIG. 2 is acquired as the highest layer in s21.

画像処理部4は、処理対象のフレーム画像のいずれかの画素を判定対象画素に決定する(s22)。画像処理部4は、本処理を行っていない未判定の画素を、判定対象画素に決定する。画像処理部4は、s21で取得した最上位階層を判定対象階層に設定する(s23)。   The image processing unit 4 determines any pixel of the frame image to be processed as a determination target pixel (s22). The image processing unit 4 determines an undetermined pixel that has not been subjected to this processing as a determination target pixel. The image processing unit 4 sets the highest hierarchy acquired in s21 as the determination target hierarchy (s23).

画像処理部4は、判定対象画素が、判定対象階層の画素であるかどうかを判定する(s24)。s24では、
(1)判定対象階層に、判定対象画素に対応する画素があるかどうか判定する。ここで、判定対象階層に、判定対象画素に対応する画素がないと判定すると、判定対象画素は、判定対象階層の画素でないと判定し、以下に示す(2)以降の処理を行わない。
The image processing unit 4 determines whether the determination target pixel is a pixel in the determination target hierarchy (s24). In s24,
(1) It is determined whether there is a pixel corresponding to the determination target pixel in the determination target hierarchy. Here, if it is determined that there is no pixel corresponding to the determination target pixel in the determination target hierarchy, the determination target pixel is determined not to be a pixel in the determination target hierarchy, and the following processing (2) and subsequent steps are not performed.

(2)判定対象階層に、判定対象画素に対応する画素があれば、その画素が属する領域の代表輝度値を得る。この代表輝度値は、前回のフレーム画像に対する処理のs19で更新された値である。 (2) If there is a pixel corresponding to the determination target pixel in the determination target hierarchy, the representative luminance value of the region to which the pixel belongs is obtained. This representative luminance value is the value updated in s19 of the process for the previous frame image.

(3)判定対象階層にある対応する画素の停止オブジェクトモデル(または、背景モデル)を用いて、判定対象画素がs23、または、後述するs26で決定した判定対象階層の画素であるかどうかを判定する。ここでは、判定対象階層にある対応する画素の停止オブジェクトモデル(または、背景モデル)において、判定対象画素の輝度値と、(2)で得た代表輝度値と、の差に対応する頻度が閾値以上であれば、この判定対象画素を判定対象階層の画素であると判定し、反対に、この頻度が閾値未満であれば、この判定対象画素を判定対象階層の画素でないと判定する。 (3) Using the stop object model (or background model) of the corresponding pixel in the determination target hierarchy, determine whether the determination target pixel is a pixel in the determination target hierarchy determined in s23 or s26 described later. To do. Here, in the stop object model (or background model) of the corresponding pixel in the determination target hierarchy, the frequency corresponding to the difference between the luminance value of the determination target pixel and the representative luminance value obtained in (2) is a threshold value. If it is above, this determination target pixel is determined to be a pixel of the determination target hierarchy, and conversely, if this frequency is less than the threshold, it is determined that this determination target pixel is not a pixel of the determination target hierarchy.

画像処理部4は、s24で判定対象画素が判定対象階層の画素でないと判定すると、この時点における判定対象階層が最下位層である背景画像L1であるかどうかを判定する(s25)。画像処理部4は、s25で判定対象階層が背景画像L1でないと判定すると、判定対象階層を1つ下の階層に変更し(s26)、s24に戻る。   If the image processing unit 4 determines that the determination target pixel is not a pixel of the determination target layer in s24, the image processing unit 4 determines whether or not the determination target layer at this time is the background image L1 that is the lowest layer (s25). If the image processing unit 4 determines in s25 that the determination target layer is not the background image L1, the image processing unit 4 changes the determination target layer to the next lower layer (s26), and returns to s24.

画像処理部4は、s24で判定対象画素が判定対象階層の画素であると判定すると、この判定対象画素に対して、この時点における判定対象階層を対応付ける(s27)。また、画像処理部4は、s25で判定対象階層が背景画像L1であると判定すると、この判定対象画素に対して、前景画素を対応付ける(s28)。   When the image processing unit 4 determines in s24 that the determination target pixel is a pixel in the determination target hierarchy, the image processing unit 4 associates the determination target layer with this determination target pixel (s27). If the image processing unit 4 determines that the determination target hierarchy is the background image L1 in s25, the image processing unit 4 associates the foreground pixel with the determination target pixel (s28).

画像処理部4は、s27、またはs28にかかる処理が完了すると、処理対象フレーム画像において、未処理の画素があるかどうかを判定し(s29)、未処理の画素があればs22に戻る。画像処理部4は、s29で未処理の画素がないと判定すると、本処理を終了する。   When the processing related to s27 or s28 is completed, the image processing unit 4 determines whether there is an unprocessed pixel in the processing target frame image (s29), and if there is an unprocessed pixel, returns to s22. If the image processing unit 4 determines that there is no unprocessed pixel in s29, the process ends.

画像処理部4は、この図12に示した処理を行うことで、図11に示した分布画像を生成することができる。   The image processing unit 4 can generate the distribution image shown in FIG. 11 by performing the processing shown in FIG.

なお、上記の説明では、判定対象階層を、上位の層から下位の層に変更するとしているが、下位の層から上位の層に変更するようにしてもよい。   In the above description, the determination target hierarchy is changed from an upper layer to a lower layer, but may be changed from a lower layer to an upper layer.

次に、上述したs14にかかる種別判定処理について詳細に説明する。図13は、この種別判定処理を示すフローチャートである。   Next, the type determination process according to s14 described above will be described in detail. FIG. 13 is a flowchart showing this type determination processing.

画像処理部4は、s13で検出したオブジェクト毎に、図13に示す種別判定処理を行う。画像処理部4は、処理対象のオブジェクトについて、前回処理したフレーム画像における撮像位置と、今回処理したフレーム画像における撮像位置とが、ほぼ同じであるかどうかを判定する(s31)。s31では、処理対象のオブジェクトの撮像位置が完全に一致しているかどうかを判定しているのではなく、両フレーム画像におけるオブジェクトの重なり部分の割合が、当該オブジェクト全体の所定値(例えば、90%)以上であるかどうかによって判定する。   The image processing unit 4 performs the type determination process shown in FIG. 13 for each object detected in s13. The image processing unit 4 determines whether the imaging position in the previously processed frame image and the imaging position in the currently processed frame image are substantially the same for the processing target object (s31). In s31, it is not determined whether the imaging positions of the objects to be processed are completely coincident with each other, but the ratio of the overlapping portions of the objects in both frame images is a predetermined value (for example, 90%) of the entire object. ) Judge by whether or not it is above.

画像処理部4は、s31で同じ位置でないと判定すると、この処理対象のオブジェクトを停止オブジェクトでないと判定する(s33)。   If the image processing unit 4 determines that the positions are not the same at s31, it determines that the object to be processed is not a stop object (s33).

また、画像処理部4は、s31で同じ位置であると判定すると、この処理対象のオブジェクトについて、所定フレーム数(例えば、10フレーム)連続して、同じ位置であると判定しているかどうかを判定する(s32)。画像処理部4は、所定フレーム数連続して同じ位置であると判定していなければ、s33で停止オブジェクトでないと判定する。一方、画像処理部4は、s32で所定フレーム数連続して同じ位置であると判定していれば、停止オブジェクトであると判定する(s34)。   If the image processing unit 4 determines that the position is the same at s31, the image processing unit 4 determines whether or not the object to be processed is determined to be at the same position continuously for a predetermined number of frames (for example, 10 frames). (S32). If the image processing unit 4 does not determine that it is the same position for a predetermined number of consecutive frames, it determines that it is not a stop object in s33. On the other hand, the image processing unit 4 determines that it is a stop object if it is determined in s32 that it is the same position continuously for a predetermined number of frames (s34).

次に、s16にかかる停止オブジェクト画像生成処理について説明する。図14は、この停止オブジェクト画像生成処理を示すフローチャートである。画像処理部4は、s14で停止オブジェクトであると判定したオブジェクト毎に、図14に示す処理を行う。   Next, the stop object image generation process according to s16 will be described. FIG. 14 is a flowchart showing this stop object image generation processing. The image processing unit 4 performs the process shown in FIG. 14 for each object determined to be a stop object in s14.

画像処理部4は、処理対象である停止オブジェクトの階層を判断する(s41)。ここで言う階層は、上述したようにビデオカメラ10に近いほど上位の階層である。画像処理部4は、停止オブジェクトの追跡結果から、この停止オブジェクトの階層を判断する。   The image processing unit 4 determines the hierarchy of the stop object that is the processing target (s41). The hierarchy mentioned here is a higher hierarchy as it is closer to the video camera 10 as described above. The image processing unit 4 determines the hierarchy of the stop object from the tracking result of the stop object.

画像処理部4は、処理対象の停止オブジェクトにかかる停止オブジェクト画像Ln(nは、s41で判断した階層であり、メモリ4aに記憶している他の停止オブジェクト画像と重複しない階層である。)にかかるデータを生成する(s42)。s42にかかる処理は、上述したので、ここでは説明を省略する。   The image processing unit 4 applies the stop object image Ln (n is a hierarchy determined in s41 and does not overlap with other stop object images stored in the memory 4a) related to the stop object to be processed. Such data is generated (s42). Since the process concerning s42 was mentioned above, description is abbreviate | omitted here.

画像処理部4は、s42で生成した停止オブジェクト画像Lnにかかるデータをメモリ4aに記憶し(s43)、本処理を終了する。   The image processing unit 4 stores the data related to the stopped object image Ln generated in s42 in the memory 4a (s43), and ends this process.

なお、この例では、階層を整数で設定する構成としているので、例えば、第2階層、第3階層が存在している状態であるときに、s41において、第2階層と、第3階層との間の階層に位置する停止オブジェクトであると判断すると、この停止オブジェクトの階層を第3階層とし、この時点で第3階層であった停止オブジェクトを第4階層に設定しなおす。また、第3階層が存在していない状態で第2階層、第4階層が存在している場合、第2階層と、第4階層との間の階層に位置する停止オブジェクトであると判断すると、この停止オブジェクトの階層は、第3階層に設定される。   In this example, since the hierarchy is set as an integer, for example, when the second hierarchy and the third hierarchy exist, in s41, the second hierarchy and the third hierarchy If it is determined that the object is a stop object located in the middle hierarchy, the hierarchy of the stop object is set as the third hierarchy, and the stop object that was the third hierarchy at this time is reset to the fourth hierarchy. Further, when the second hierarchy and the fourth hierarchy exist in the state where the third hierarchy does not exist, if it is determined that the object is a stop object located in a hierarchy between the second hierarchy and the fourth hierarchy, The hierarchy of this stop object is set to the third hierarchy.

次に、s17にかかる移動オブジェクト判定処理について説明する。図15は、この移動オブジェクト判定処理を示すフローチャートである。この移動オブジェクト判定処理の対象になるオブジェクトは、今回のフレーム画像に対する処理を開始する時点において、メモリ4aに停止オブジェクト画像Lnを記憶していた停止オブジェクトである。画像処理部4は、対象となる停止オブジェクト毎に、図15に示す処理を行う。   Next, the moving object determination process according to s17 will be described. FIG. 15 is a flowchart showing this moving object determination processing. The object that is the target of the moving object determination process is a stop object that has stored the stop object image Ln in the memory 4a at the time when the process for the current frame image is started. The image processing unit 4 performs the process shown in FIG. 15 for each target stop object.

画像処理部4は、処理対象である停止オブジェクトの総画素数を得る(s51)。画像処理部4は、処理対象である停止オブジェクトについて、s12で生成した分布画像において、この停止オブジェクトにかかる画素の中で、この停止オブジェクトよりも下位の層にかかる画素であると判定された画素の総数を得る(s52)。画像処理部4は、処理対象である停止オブジェクトにおいて、s52で得た画素数の割合が予め定めた割合(例えば、50%)以上であれば、処理対象のオブジェクトが移動したと判定する(s53、s54)。反対に、画像処理部4は、s53で予め定めた割合未満であると判定すると、処理対象のオブジェクトが移動していないと判定する(s53、s55)。   The image processing unit 4 obtains the total number of pixels of the stop object that is the processing target (s51). In the distribution image generated in s12, the image processing unit 4 determines, among the pixels related to the stop object, the pixels related to a lower layer than the stop object in the distribution image generated in s12. Is obtained (s52). The image processing unit 4 determines that the object to be processed has moved if the ratio of the number of pixels obtained in s52 is equal to or greater than a predetermined ratio (for example, 50%) in the stop object that is the processing target (s53). , S54). Conversely, if the image processing unit 4 determines that the ratio is less than the predetermined ratio in s53, it determines that the object to be processed has not moved (s53, s55).

なお、この移動オブジェクト判定処理は、s52にかかる処理を以下のようにしてもよい。画像処理部4は、処理対象である停止オブジェクトにかかる画素の中で、処理対象のオブジェクトの階層を含む、上位の階層にかかる画素の総数を得る。この場合、前景画素も上位の階層の画素とする。そして、s51で得た総画素数から、ここで得た画素数差し引いた画素数(すなわち、上記の例におけるs52で得た画素数)を得る構成としてもよい。   In this moving object determination process, the process related to s52 may be as follows. The image processing unit 4 obtains the total number of pixels related to the upper layer including the layer of the object to be processed among the pixels related to the stop object that is the processing target. In this case, the foreground pixels are also pixels on the upper layer. And it is good also as a structure which obtains the pixel number (namely, pixel number obtained by s52 in said example) which deducted the pixel number obtained here from the total pixel number obtained by s51.

また、処理対象である停止オブジェクトにおいて、上述した上位の階層にかかる画素数の割合が予め定めた割合(例えば、50%)未満であれば、処理対象のオブジェクトが移動したと判定するようにしてもよい。   In addition, in the stop object that is the processing target, if the ratio of the number of pixels in the upper hierarchy described above is less than a predetermined ratio (for example, 50%), it is determined that the processing target object has moved. Also good.

例えば、図4(A)に示す状態から、オブジェクトBが移動し、図16(A)に示す状態になったとき、s12で生成される分布画像は、図16(B)に示すものになる。図16において破線で囲む領域が、オブジェクトBが停止していた位置である。また、移動したオブジェクトBにかかる画素は、前景画素として検出される。すなわち、オブジェクトBは、上述のs13で検出される。また、移動したオブジェクトBがオブジェクトAに重なっていた領域については、停止オブジェクト画像L2により、オブジェクトAにかかる画素であると判定される。すなわち、オブジェクトAは、2つのオブジェクトに分離されることなく、1つのオブジェクトとして検出できる。   For example, when the object B moves from the state shown in FIG. 4 (A) to the state shown in FIG. 16 (A), the distribution image generated in s12 is as shown in FIG. 16 (B). . In FIG. 16, the area surrounded by the broken line is the position where the object B has stopped. Further, the pixel related to the moved object B is detected as a foreground pixel. That is, the object B is detected in the above s13. The area where the moved object B overlaps the object A is determined to be a pixel related to the object A by the stop object image L2. That is, the object A can be detected as one object without being separated into two objects.

このように、この画像処理装置1は、背景画像L1だけでなく監視対象エリア内で停止したオブジェクト毎に、そのオブジェクトにかかる画像(停止オブジェクト画像Ln)を生成し、フレーム画像に撮像されているオブジェクトを背景画像L1および停止オブジェクト画像Lnを用いて検出するので、撮像されているオブジェクトを適正に検出できる。具体的には、対象エリア内で停止しているオブジェクトは、上述のs17で移動していないオブジェクトとして検出される。また、対象エリア内で移動しているオブジェクトは、上述のs13で検出される。また、図16(B)で示したように、s17で移動したと判定された停止オブジェクトは、前景画素としてs13で検出されている。また、s17で移動したと判定された停止オブジェクトに隠れていた部分(停止状態を継続している他のオブジェクトの一部)は、この停止状態を継続している他のオブジェクトにかかる停止オブジェクト画像Lnによって、この他のオブジェクトの一部として検出されるので、1つのオブジェクトが複数に分離するのを抑えられる。したがって、フレーム画像に撮像されているオブジェクトの検出が適正に行える。   As described above, the image processing apparatus 1 generates an image (stopped object image Ln) related to each object stopped in the monitoring target area as well as the background image L1, and is captured in the frame image. Since the object is detected using the background image L1 and the stop object image Ln, the object being imaged can be detected appropriately. Specifically, an object stopped in the target area is detected as an object that has not moved in s17 described above. Further, the object moving in the target area is detected in s13 described above. Further, as shown in FIG. 16B, the stopped object determined to have moved in s17 is detected as a foreground pixel in s13. Further, the portion hidden by the stopped object determined to have moved in s17 (a part of the other object that continues the stopped state) is the stopped object image related to the other object that continues the stopped state. Since it is detected as a part of this other object by Ln, it is possible to suppress the separation of one object into a plurality of objects. Therefore, it is possible to appropriately detect the object captured in the frame image.

また、画像処理部4は、移動したと判定したオブジェクトについては、上述したs18で、メモリ4aに記憶している当該オブジェクトにかかる停止オブジェクト画像を削除する。したがって、停止オブジェクト画像Lnをメモリ4aに無駄に記憶することがない。また、すでに存在していないオブジェクトにかかる停止オブジェクト画像Lnを用いて、フレーム画像に対する上述の処理が行われるのを抑制できるので、画像処理部4の処理負荷を抑えることができる。   For the object determined to have moved, the image processing unit 4 deletes the stopped object image relating to the object stored in the memory 4a in s18 described above. Therefore, the stop object image Ln is not stored in the memory 4a in vain. In addition, since the above-described processing on the frame image can be suppressed using the stop object image Ln applied to the object that does not already exist, the processing load on the image processing unit 4 can be suppressed.

さらに、背景画像L1にかかる各画素の背景モデルや、停止オブジェクト画像Lnにかかる各画素の停止オブジェクトモデルにおいて、輝度値についてはその画素が対応する領域の代表輝度値の差分を基準にした分布でモデル化し、各領域の代表輝度値をs19で更新する構成としているので、監視対象エリア内の明るさ等の環境変化の影響を抑えたオブジェクトの検出が行える。   Further, in the background model of each pixel related to the background image L1 and the stop object model of each pixel related to the stop object image Ln, the luminance value has a distribution based on the difference between the representative luminance values of the region corresponding to the pixel. Since modeling is performed and the representative luminance value of each region is updated in s19, it is possible to detect an object while suppressing the influence of environmental changes such as brightness in the monitored area.

1…画像処理装置
2…制御部
3…画像入力部
4…画像処理部
4a…メモリ
5…入出力部
10…ビデオカメラ
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 2 ... Control part 3 ... Image input part 4 ... Image processing part 4a ... Memory 5 ... Input / output part 10 ... Video camera

Claims (7)

象エリアを撮像した動画像にかかるフレーム画像を入力する画像入力部と、
前記対象エリアを複数に分割した領域毎に、その領域に属する前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の画素を対応づけた分割情報、および、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の各画素について、その画素が属する領域の代表画素値を基準とした背景モデル、を前記対象エリアの背景画像として記憶する背景画像記憶部と、
前記背景画像記憶部が記憶する前記背景画像を用いて、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部が検出したオブジェクトについて、このオブジェクトが前記対象エリア内で停止している停止オブジェクトであるかどうかを判定するオブジェクト種別判定部と、
前記オブジェクト種別判定部が停止していると判定した停止オブジェクト毎に、その停止オブジェクトにかかる画像を停止オブジェクト画像として記憶する停止オブジェクト画像記憶部と、を備え、
前記オブジェクト検出部は、前記背景画像記憶部が記憶する前記背景画像に加えて、前記停止オブジェクト画像記憶部が記憶する前記停止オブジェクト画像を用い、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出する、画像処理装置。
An image input unit for inputting a frame image according to the moving image captured the Target area,
For each area obtained by dividing the target area into a plurality of areas, division information in which pixels of a frame image related to a moving image of the target area input to the image input section belonging to the area are associated with each other, and the image input section A background image storage unit that stores, as a background image of the target area, a background model based on a representative pixel value of a region to which the pixel belongs, for each pixel of the frame image related to the input moving image of the target area;
An object for processing a frame image applied to a moving image of the target area input to the image input unit using the background image stored in the background image storage unit and detecting an object captured in the frame image A detection unit;
For the object detected by the object detection unit, an object type determination unit that determines whether the object is a stopped object stopped in the target area;
A stop object image storage unit that stores an image of the stop object as a stop object image for each stop object that is determined to be stopped by the object type determination unit;
It said object detection unit, in addition to the background image in which the background image storage unit stores, the use of the stop object image paused object image storage unit stores, video of the target area input to the image input unit An image processing apparatus that processes a frame image of an image and detects an object captured in the frame image.
前記オブジェクト検出部は、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の画素毎に、その画素が、前記背景画像記憶部が記憶する前記背景画像、前記停止オブジェクト画像記憶部が記憶する前記停止オブジェクト画像、または、これら以外の画像のどれに相当するかを対応付けた分布画像を生成し、このフレーム画像に撮像されているオブジェクトを検出する、請求項1に記載の画像処理装置。 Said object detection unit, for each pixel of the moving image in such a frame image of the target area input to the image input unit, the pixel is, the background image in which the background image storage unit stores, the stop object image storage the stop object image part is stored or, generates a distribution image that associates or corresponding to any of these other images, detects the object imaged in the frame image, according to claim 1 Image processing device. 前記停止オブジェクト画像記憶部に前記停止オブジェクト画像が記憶されている停止オブジェクトが移動したかどうかを判定する移動判定部と、
前記移動判定部が移動したと判定した停止オブジェクトについて、前記停止オブジェクト画像記憶部に記憶されている前記停止オブジェクト画像を削除する停止オブジェクト画像削除部と、を備えた請求項1、または2に記載の画像処理装置。
Wherein the movement determination section for determining whether an outage object the stop object image to stop the object image storage unit is stored is moved,
For stopping the object by the mobile determining unit determines that moves, according to claim 1 or 2, provided with a stop object image deleting unit that deletes the stop object image stored in the stop object image storage unit Image processing apparatus.
前記背景モデルは、その画素が属する領域の代表画素値を基準とした画素値の発生頻度をモデル化したものである、請求項1〜3のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the background model models a pixel value occurrence frequency based on a representative pixel value of a region to which the pixel belongs . 前記対象エリアを複数に分割した領域毎に、その領域内における、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の背景画素の画素値の中央値を前記代表画素値とする、請求項1〜4のいずれかに記載の画像処理装置。 For each area obtained by dividing the target area into a plurality of areas, the median value of the pixel values of the background pixels of the frame image applied to the moving image of the target area input to the image input unit in the area is defined as the representative pixel value. The image processing apparatus according to claim 1. 対象エリアを撮像した動画像にかかるフレーム画像を入力する画像入力部と、
前記対象エリアを複数に分割した領域毎に、その領域に属する前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の画素を対応づけた分割情報、および、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の各画素について、その画素が属する領域の代表画素値を基準とした背景モデル、を前記対象エリアの背景画像として記憶する背景画像記憶部と、を備える画像処理装置のコンピュータが、
前記対象エリアの前記背景画像を用いて、前記画像入力部に入力された前記対象エリアを撮像した動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップで検出したオブジェクトについて、このオブジェクトが前記対象エリア内で停止している停止オブジェクトであるかどうかを判定するオブジェクト種別判定ステップと、
前記オブジェクト種別判定ステップで停止していると判定した停止オブジェクト毎に、その停止オブジェクトにかかる画像を停止オブジェクト画像として停止オブジェクト画像記憶部に記憶する停止オブジェクト画像記憶ステップと、を実行する画像処理方法であって、
前記オブジェクト検出ステップは、前記背景画像記憶部が記憶する前記背景画像に加えて、前記停止オブジェクト画像記憶部が記憶する停止オブジェクト画像を用い、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出するステップである、画像処理方法。
An image input unit for inputting a frame image related to a moving image obtained by imaging the target area;
For each area obtained by dividing the target area into a plurality of areas, division information in which pixels of a frame image related to a moving image of the target area input to the image input section belonging to the area are associated with each other, and the image input section A background image storage unit that stores, as a background image of the target area, a background model based on a representative pixel value of a region to which the pixel belongs, for each pixel of the frame image related to the input moving image of the target area; An image processing apparatus computer comprising:
Using said background image, the target area input to the image input unit processes the frame images of the moving image captured, the object detecting step of detecting an object imaged in the frame image of the target area When,
For the object detected in the object detection step, an object type determination step for determining whether this object is a stopped object stopped in the target area;
An image processing method for executing, for each stop object determined to be stopped in the object type determination step, a stop object image storage step of storing an image relating to the stop object as a stop object image in a stop object image storage unit Because
The object detection step uses a stop object image stored in the stop object image storage unit in addition to the background image stored in the background image storage unit, and a moving image of the target area input to the image input unit An image processing method, which is a step of processing the frame image according to the above and detecting an object imaged in the frame image.
対象エリアを撮像した動画像にかかるフレーム画像を入力する画像入力部と、
前記対象エリアを複数に分割した領域毎に、その領域に属する前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の画素を対応づけた分割情報、および、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像の各画素について、その画素が属する領域の代表画素値を基準とした背景モデル、を前記対象エリアの背景画像として記憶する背景画像記憶部と、を備える画像処理装置のコンピュータに、
前記対象エリアの前記背景画像を用いて、前記画像入力部に入力された前記対象エリアを撮像した動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップで検出したオブジェクトについて、このオブジェクトが前記対象エリア内で停止している停止オブジェクトであるかどうかを判定するオブジェクト種別判定ステップと、
前記オブジェクト種別判定ステップで停止していると判定した停止オブジェクト毎に、その停止オブジェクトにかかる画像を停止オブジェクト画像として停止オブジェクト画像記憶部に記憶する停止オブジェクト画像記憶ステップと、を実行させる画像処理プログラムであって、
前記オブジェクト検出ステップは、前記背景画像記憶部が記憶する前記背景画像に加えて、前記停止オブジェクト画像記憶部が記憶する停止オブジェクト画像を用い、前記画像入力部に入力された前記対象エリアの動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検出するス
テップである、画像処理プログラム。
An image input unit for inputting a frame image related to a moving image obtained by imaging the target area;
For each area obtained by dividing the target area into a plurality of areas, division information in which pixels of a frame image related to a moving image of the target area input to the image input section belonging to the area are associated with each other, and the image input section A background image storage unit that stores, as a background image of the target area, a background model based on a representative pixel value of a region to which the pixel belongs, for each pixel of the frame image related to the input moving image of the target area; A computer of an image processing apparatus comprising:
Using said background image, the target area input to the image input unit processes the frame images of the moving image captured, the object detecting step of detecting an object imaged in the frame image of the target area When,
For the object detected in the object detection step, an object type determination step for determining whether this object is a stopped object stopped in the target area;
Stopped and the every determination was stopped object are in the object type determination step, the image processing to be executed and stopped object image storing step, a storing stop object image storing section images according to the stop object as a stop object image A program,
The object detection step uses a stop object image stored in the stop object image storage unit in addition to the background image stored in the background image storage unit, and a moving image of the target area input to the image input unit An image processing program which is a step of processing the frame image according to the above and detecting an object imaged in the frame image.
JP2013227074A 2013-10-31 2013-10-31 Image processing apparatus, image processing method, and image processing program Active JP6308612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013227074A JP6308612B2 (en) 2013-10-31 2013-10-31 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013227074A JP6308612B2 (en) 2013-10-31 2013-10-31 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015088027A JP2015088027A (en) 2015-05-07
JP6308612B2 true JP6308612B2 (en) 2018-04-11

Family

ID=53050729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013227074A Active JP6308612B2 (en) 2013-10-31 2013-10-31 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6308612B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8588466B2 (en) * 2007-07-05 2013-11-19 Nec Corporation Object area detection system, device, method, and program for detecting an object

Also Published As

Publication number Publication date
JP2015088027A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
US9639759B2 (en) Video processing apparatus and video processing method
JP4668921B2 (en) Object detection in images
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
US9514541B2 (en) Image processing apparatus and image processing method
JP6414066B2 (en) Image processing system, image processing method, and program
JP6436077B2 (en) Image processing system, image processing method, and program
KR20130025944A (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
WO2016021147A1 (en) Image processing system for detecting retention of moving body from image, image processing method, and recording medium
JP2012003414A (en) Gesture recognition device, gesture recognition method and program
US20170220894A1 (en) Image processing device, image processing method, and program
JP7446060B2 (en) Information processing device, program and information processing method
JP4969291B2 (en) Moving object tracking device
JP2013101419A (en) Image signal processor
KR101396838B1 (en) Video stabilization method and system by selection one of various motion models
JP7176590B2 (en) Image processing device, image processing method, and program
JP2014110020A (en) Image processor, image processing method and image processing program
WO2020095644A1 (en) State-change detection device, state-change detection method, and computer-readable recording medium
JP6308612B2 (en) Image processing apparatus, image processing method, and image processing program
JP6399122B2 (en) Face detection apparatus and control method thereof
JP6603123B2 (en) Animal body detection apparatus, detection method, and program
Ortego et al. Multi-feature stationary foreground detection for crowded video-surveillance
JP2012104053A (en) Background difference processing device, background difference processing method and computer program
JP2012104872A (en) Image processing unit, and image processing program
JP2013246601A (en) Image process device
US20230177705A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180309

R150 Certificate of patent or registration of utility model

Ref document number: 6308612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250