JPH08241413A - Moving range detection device - Google Patents

Moving range detection device

Info

Publication number
JPH08241413A
JPH08241413A JP7047654A JP4765495A JPH08241413A JP H08241413 A JPH08241413 A JP H08241413A JP 7047654 A JP7047654 A JP 7047654A JP 4765495 A JP4765495 A JP 4765495A JP H08241413 A JPH08241413 A JP H08241413A
Authority
JP
Japan
Prior art keywords
image
brightness distribution
luminance distribution
area
outputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7047654A
Other languages
Japanese (ja)
Other versions
JP3585977B2 (en
Inventor
Toshikazu Fujioka
岡 利 和 藤
Hiko Nakamoto
基 孫 中
Kenji Kitamura
村 健 児 北
Takehisa Tanaka
中 武 久 田
Kazufumi Mizusawa
澤 和 史 水
Masato Mori
真 人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Tokyo Electric Power Company Holdings Inc
Original Assignee
Tokyo Electric Power Co Inc
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc, Matsushita Electric Industrial Co Ltd filed Critical Tokyo Electric Power Co Inc
Priority to JP04765495A priority Critical patent/JP3585977B2/en
Publication of JPH08241413A publication Critical patent/JPH08241413A/en
Application granted granted Critical
Publication of JP3585977B2 publication Critical patent/JP3585977B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PURPOSE: To decide the accurate position of a moving object such as the positions of human feet, etc., based on the features of luminance distribution included in an extracted area and despite the a mirror reflection image or a projection image of the moving object existing on a floor surface, etc. CONSTITUTION: A moving area detection device is provided with an original image input means 101 which samples the video signals and outputs an original image, an area extraction means 102 which extracts a monitoring object area out or the original image and outputs a binary image of the monitoring object area, a labeling means 103 which labels the linkage components to the binary image of the monitoring object area and outputs an object area label image, a luminance distribution measurement means 104 which measures the luminance distribution in the areas of the original image corresponding to every object area of the object area label image, a luminance distribution edge detection means 105 which detects one or more edges out of the luminance distribution and outputs the positions of these edges, and a boundary position decision means 110 which decides the boundary position between an actual object image and its mirror reflection or projection image among those edge positions of the luminance distribution.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像認識による監視カ
メラシステム等に用いられる画像処理装置における動領
域検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving area detecting device in an image processing device used in a surveillance camera system or the like by image recognition.

【0002】[0002]

【従来の技術】監視カメラシステム等において動物体追
尾を行う際、前後するフレーム間での輝度差分値あるい
は背景画像との輝度差分値を用いて動物体を検出する方
法が一般的である。このような技術の例として、西尾秀
一、1991年電子情報通信学会春季全国大会D-626 『エッ
ジと色情報による車両の検出』がある。この技術を、図
2を参照しながら簡単に説明する。これは、影がはっき
りと観測できる屋外において、監視エリアを撮影して特
徴成分に変換し(ステップ1)、これをSobel 変換によ
ってエッジ画像に変換し(ステップ2)、これを別に撮
影した背景エッジ画像と比較して明度の極端に低い部分
を影として検出し(ステップ3)、後はこの影を用い
て、重み付き加算処理(ステップ4)、2値化処理(ス
テップ5)、論理和処理(ステップ6)、成形処理(ス
テップ7)を行って、車両位置を決定しようとするもの
である。
2. Description of the Related Art When a moving object is tracked in a surveillance camera system or the like, it is common to detect the moving object by using a brightness difference value between preceding and following frames or a brightness difference value with a background image. As an example of such a technique, there is Shuichi Nishio, 1991 IEICE Spring National Convention D-626 "Detection of Vehicle by Edge and Color Information". This technique will be briefly described with reference to FIG. This is because in the outdoors where shadows can be clearly observed, the surveillance area is photographed and converted into characteristic components (step 1), and this is converted into an edge image by Sobel transformation (step 2). A portion having extremely low lightness as compared with the image is detected as a shadow (step 3), and thereafter, this weight is used to perform weighted addition processing (step 4), binarization processing (step 5), and logical sum processing. (Step 6) and the molding process (Step 7) are performed to determine the vehicle position.

【0003】[0003]

【発明が解決しようとする課題】広域エリアにおいて、
複数カメラを用いて動物体追尾を行う際には、動物体の
正確な位置を各カメラごとに求め、その情報を複数カメ
ラ間で交換・統合する処理が必要となる。特に人物を追
尾する場合には、その足元位置が重要な情報となる。し
かし、上記従来技術の輝度差分値による動物体検出で
は、監視エリアが屋内で床面に光沢があった場合には床
面による動物体の鏡面反射像が、また動物体の背後に光
源があった場合には動物体の影が、それぞれ動物体その
ものと共に検出されてしまうため、動物体の正確な位置
を判定できないという問題があった。
[Problems to be Solved by the Invention] In a wide area,
When tracking a moving object using a plurality of cameras, it is necessary to obtain an accurate position of the moving object for each camera and exchange / integrate the information between the plurality of cameras. Especially when tracking a person, the foot position is important information. However, in the detection of moving objects by the brightness difference value of the above-mentioned prior art, when the monitoring area is indoors and the floor surface is glossy, there is a specular reflection image of the moving object due to the floor surface, and there is a light source behind the moving object. In such a case, the shadow of the moving body is detected together with the moving body itself, and there is a problem that the accurate position of the moving body cannot be determined.

【0004】本発明は、このような従来の問題を解決す
るものであり、床面等に動物体の鏡面反射像または投影
像があっても、その動物体の位置を正確に求めることの
できる動領域検出装置を提供することを目的とする。
The present invention solves such a conventional problem, and even if there is a specular reflection image or a projected image of a moving object on the floor or the like, the position of the moving object can be accurately obtained. An object is to provide a moving area detecting device.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明の動領域検出装置は、映像信号をサンプリン
グして原画像を出力するする原画像入力手段と、原画像
から監視対象領域を抽出して監視対象領域2値画像を出
力する領域抽出手段と、監視対象領域2値画像に対して
連結成分のラベリングを行い対象領域ラベル画像を出力
するラベリング手段と、対象領域ラベル画像の各対象領
域に対応する原画像の領域で特定の軸に沿った方向の輝
度分布を測定して輝度分布を出力する輝度分布測定手段
と、輝度分布の中から一つまたはそれ以上のエッジを検
出して輝度分布エッジ位置を出力する輝度分布エッジ検
出手段と、輝度分布エッジ位置の中から実際の対象物体
像とその鏡面反射像または投影像との境界位置を選択す
る境界位置決定手段とを備えたものである。
In order to achieve the above object, a moving area detecting device of the present invention comprises an original image input means for sampling a video signal and outputting an original image, and an area to be monitored from the original image. Region extracting means for extracting the monitoring target region binary image and outputting the target region label image by labeling the connected component to the monitoring target region binary image, and the target region label image. A brightness distribution measuring unit that measures the brightness distribution in the direction along a specific axis in the area of the original image corresponding to the target area and outputs the brightness distribution, and detects one or more edges from the brightness distribution. And a boundary position determining means for selecting the boundary position between the actual target object image and its specular reflection image or projection image from the brightness distribution edge positions. It is those with a door.

【0006】[0006]

【作用】動物体像そのものと床面の鏡面反射像または投
影像とでは、一般に輝度が大きく異なるため、この構成
で輝度分布エッジ位置を求めることにより、検出された
動物体領域の中で実際に動物体に対応している領域とそ
の鏡面反射像または投影像に対応している領域との境界
を求めることができ、動物体の正確な位置、例えば人物
であれば足元位置を正確に求めることができる。
Since the image of the moving object itself and the image of the specular reflection or projection of the floor surface generally have large differences in brightness, the edge position of the brightness distribution is obtained by this configuration to actually detect the brightness in the detected object region. The boundary between the area corresponding to the moving object and the area corresponding to its specular reflection image or projection image can be obtained, and the accurate position of the moving object, for example, the foot position for a person can be obtained accurately. You can

【0007】[0007]

【実施例】以下、本発明の一実施例について図面を参照
しながら説明する。図1において、101 は映像信号をサ
ンプリングして原画像を出力するする原画像入力手段で
あり、102 は原画像から監視対象領域を抽出して監視対
象領域2値画像を出力する領域抽出手段であり、103 は
監視対象領域2値画像に対して連結成分のラベリングを
行い対象領域ラベル画像を出力するラベリング手段であ
り、104 は対象領域ラベル画像の各対象領域に対応する
原画像の領域で特定の軸に沿った方向の輝度分布を測定
して輝度分布を出力する輝度分布測定手段であり、105
は輝度分布の中から一つまたはそれ以上のエッジを検出
して輝度分布エッジ位置を出力する本発明の中核をなす
輝度分布エッジ検出手段であり、106 は輝度分布を平滑
化して平滑化輝度分布信号を出力する平滑化手段であ
り、107 は平滑化輝度分布信号に対して平滑化微分を行
って輝度分布微分信号を出力する第一の平滑化微分手段
であり、108 は輝度分布微分信号に対して平滑化微分を
行って輝度分布二階微分信号を出力する第二の平滑化微
分手段であり、109 は輝度分布二階微分信号のゼロ点を
検出し出力するゼロ点検出手段であり、110 は輝度分布
エッジ位置の中から実際の対象物体像と鏡面反射像との
境界位置を選択する境界位置決定手段であり、111 は輝
度分布エッジ位置から境界線の実空間内での位置を逆算
して境界線実位置を出力する実位置逆算手段であり、11
2 は境界位置選択手段113 が出力する境界位置を記憶す
る境界位置記憶手段であり、113 は境界位置記憶手段11
2 に記憶された1ステップまたはそれ以上前の境界位置
と前記境界線実位置とを受けて境界位置を選択して出力
する境界位置選択手段である。
An embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, 101 is an original image input means for sampling a video signal and outputting an original image, and 102 is an area extracting means for extracting a monitoring target area from the original image and outputting a monitoring target area binary image. Yes, 103 is a labeling means for labeling the monitored component region binary image with connected components and outputting the target region label image, and 104 is the region of the original image corresponding to each target region of the target region label image. Is a luminance distribution measuring means for measuring the luminance distribution in the direction along the axis of and outputting the luminance distribution.
Reference numeral 106 denotes a luminance distribution edge detecting means which is the core of the present invention for detecting one or more edges in the luminance distribution and outputting the luminance distribution edge position. Reference numeral 106 denotes a smoothing luminance distribution for smoothing the luminance distribution. 107 is a smoothing means for outputting a signal, 107 is a first smoothing differentiating means for performing a smoothing differentiation on the smoothed brightness distribution signal to output a brightness distribution differential signal, and 108 is a brightness distribution differential signal Is a second smoothing differentiating means for performing smoothing differentiation and outputting a luminance distribution second-order differential signal, 109 is a zero point detecting means for detecting and outputting the zero point of the luminance distribution second-order differential signal, and 110 is The boundary position determining means selects the boundary position between the actual target object image and the specular reflection image from the brightness distribution edge positions, and 111 calculates the boundary line position in the real space backward from the brightness distribution edge position. Output the boundary line actual position Is a position back calculation means, 11
2 is a boundary position storage means for storing the boundary position output by the boundary position selection means 113, and 113 is the boundary position storage means 11
The boundary position selecting means receives the boundary position of one step or more before stored in 2 and the actual position of the boundary line, and selects and outputs the boundary position.

【0008】以下、このように構成された動領域検出装
置の動作について説明する。原画像入力手段101 でサン
プリングされた映像信号は、原画像信号として出力さ
れ、領域抽出手段102 並びに輝度分布測定手段104 に入
力される。
The operation of the moving area detecting device having the above structure will be described below. The video signal sampled by the original image input means 101 is output as an original image signal and input to the area extracting means 102 and the luminance distribution measuring means 104.

【0009】領域抽出手段102 は、原画像入力手段101
から入力された原画像の中から監視対象領域2値画像を
抽出し出力する。領域抽出手段102 の内部構成として
は、一例として、時間的に前後するフレームの原画像の
輝度値の差分計算を行い、これを適当なしきい値で2値
化することで動領域を検出する構成としてもよい。また
別の例として、適当な方法で形成される背景画像と入力
原画像との輝度値の差分計算を行い、これを適当なしき
い値で2値化することで動領域を検出する構成としても
よい。また、これらの両者を組み合わせた構成としても
よい。また、領域抽出手段において、監視対象物体とし
て明らかに不適当であると見なされるノイズ等の領域を
除去する処理を加えてもよい。
The area extraction means 102 is an original image input means 101.
A binary image of the monitoring target area is extracted from the original image input from and output. As an internal configuration of the region extracting means 102, as an example, a configuration in which a difference between luminance values of original images of temporally preceding and following frames is calculated and binarized with an appropriate threshold value to detect a moving region. May be As another example, the difference between the brightness value of the background image formed by an appropriate method and the input original image may be calculated, and the moving area may be detected by binarizing the difference with an appropriate threshold value. Good. Further, a configuration in which both of these are combined may be adopted. Further, the area extracting means may add a process of removing an area such as noise that is apparently inappropriate as a monitoring target object.

【0010】領域抽出手段102 から出力された監視対象
領域2値画像は、ラベリング手段103 に入力される。ラ
ベリング手段103 は、監視対象領域2値画像に対して連
結領域のラベリング処理を施して対象領域ラベル画像を
出力する。
The binary image of the monitored area output from the area extracting means 102 is input to the labeling means 103. The labeling unit 103 performs a labeling process of the connected region on the binary image of the monitoring target region and outputs a target region label image.

【0011】輝度分布測定手段104 は、原画像入力手段
101 からの原画像とラベリング手段103 からのラベル画
像とを受け、ラベル画像の各ラベル領域それぞれについ
て原画像の対応する領域で、例えば走査線に直交する方
向の輝度分布を測定する。輝度分布を測定する軸の方向
に関しては、走査線に直交する方向とは限らず、監視対
象によって任意に設定できる構成としてもよい。例えば
監視対象を人物とすれば、一般に人物は直立しているこ
とが多く、走査線が水平になるように監視カメラが設置
されているとすれば、この軸は走査線に直交する方向に
とるのがよい。輝度分布値としては、例えば、各走査線
ごとにラベル領域に属する画素を集め、これらについて
の輝度値の平均値を採用することができる。
The brightness distribution measuring means 104 is an original image inputting means.
The original image from 101 and the label image from the labeling means 103 are received, and for each label area of the label image, the luminance distribution in the corresponding area of the original image, for example, in the direction orthogonal to the scanning line is measured. The direction of the axis for measuring the luminance distribution is not limited to the direction orthogonal to the scanning line, and may be set arbitrarily according to the monitoring target. For example, when a person to be monitored is a person, generally, the person is often upright, and when a surveillance camera is installed so that the scanning line is horizontal, this axis is taken in a direction orthogonal to the scanning line. Is good. As the brightness distribution value, for example, pixels belonging to the label area are collected for each scanning line, and the average value of the brightness values of these pixels can be adopted.

【0012】輝度分布エッジ検出手段105 は、輝度分布
測定手段104 で測定された各ラベル領域の輝度分布を受
けてそのエッジを検出する。輝度分布( 一次元分布値)
のエッジはさまざまな方法で検出することが可能であ
る。図1の106 〜109 は一例として考えられる輝度分布
エッジ検出手段105 の構成を示している。
The brightness distribution edge detecting means 105 receives the brightness distribution of each label area measured by the brightness distribution measuring means 104 and detects the edge thereof. Luminance distribution (one-dimensional distribution value)
The edges of can be detected in various ways. Reference numerals 106 to 109 in FIG. 1 indicate the structure of the luminance distribution edge detecting means 105 which is considered as an example.

【0013】平滑化手段106 は、輝度分布測定手段104
の出力する輝度分布信号を平滑化する。測定された輝度
分布には一般にノイズが含まれているので、平滑化する
ことでこれを取り除くことが必要である。平滑化の手段
としては、移動平均法( 単純移動平均法・多項式適合
法) などを用いることができる。また、これらを複数段
重ねる構成にしてもよい。
The smoothing means 106 is a luminance distribution measuring means 104.
The luminance distribution signal output by is smoothed. Since the measured luminance distribution generally contains noise, it is necessary to remove it by smoothing. As a smoothing means, a moving average method (simple moving average method, polynomial fitting method) or the like can be used. Further, a configuration in which these are stacked in a plurality of stages may be adopted.

【0014】第一の平滑化微分手段107 は、平滑化手段
106 で平滑化された輝度分布信号を受けて輝度分布一階
微分信号を出力する。必ずしも平滑化微分でなく、単純
な微分手段とする構成でもよいが、微分演算には一般に
ノイズを助長する作用があるため、平滑化微分を行う構
成にするのがよい。
The first smoothing differentiating means 107 is a smoothing means.
Upon receiving the luminance distribution signal smoothed by 106, the luminance distribution first-order differential signal is output. Although it is not always necessary to use the smoothing differentiation, a simple differentiating means may be used, but since the differential operation generally has an action of promoting noise, it is preferable to perform the smoothing differentiation.

【0015】第二の平滑化微分手段108 は、第一の平滑
化微分手段107 で求められた輝度分布一階微分信号を受
けて輝度分布二階微分信号を出力する。必ずしも平滑化
微分でなく、単純な微分手段とする構成でもよいが、微
分演算には一般にノイズを助長する作用があるため、平
滑化微分を行う構成にするのがよい。
The second smoothing differentiating means 108 receives the brightness distribution first-order differential signal obtained by the first smoothing differentiating means 107 and outputs a brightness distribution second-order differential signal. Although it is not always necessary to use the smoothing differentiation, a simple differentiating means may be used, but since the differential operation generally has an action of promoting noise, it is preferable to perform the smoothing differentiation.

【0016】ゼロ点検出手段109 は、第二の平滑化微分
手段108 で求められた輝度分布二階微分信号を受けてそ
のゼロ点を検出する。ここで検出されるゼロ点が、輝度
分布測定手段104 で測定された輝度分布のエッジ位置に
相当する。物体像そのものと鏡面反射像とでは一般に輝
度が大きく異なるため、ここで求められた輝度のエッジ
が、物体像と鏡面反射像との境界の候補となる。
The zero point detecting means 109 receives the luminance distribution second-order differential signal obtained by the second smoothing differentiating means 108 and detects its zero point. The zero point detected here corresponds to the edge position of the luminance distribution measured by the luminance distribution measuring means 104. Generally, the brightness of the object image itself and the specular reflection image are significantly different, and thus the edge of the brightness obtained here is a candidate for the boundary between the object image and the specular reflection image.

【0017】境界位置決定手段110 は、輝度分布エッジ
検出手段105 で求められた物体像と鏡面反射像との境界
の候補の中から境界位置を選択・決定する。図1の111
〜113 は一例として考えられる境界位置決定手段の構成
を示している。
The boundary position determining means 110 selects and determines a boundary position from among the boundary candidates between the object image and the specular reflection image obtained by the luminance distribution edge detecting means 105. 111 of FIG.
The reference numerals 113 to 113 indicate the configuration of the boundary position determining means that can be considered as an example.

【0018】実位置逆算手段111 は、輝度分布エッジ検
出手段105 で求められた物体像と鏡面反射像との境界の
候補位置( 画像中の座標) から、カメラ設置位置・設置
方向・光学系の調整値などを用いて実位置( 床面上の座
標) を逆算する。
The actual position back calculation means 111 calculates the camera installation position / installation direction / optical system from the candidate position (coordinates in the image) of the boundary between the object image and the specular reflection image obtained by the brightness distribution edge detection means 105. The actual position (coordinates on the floor) is calculated back using the adjustment value.

【0019】境界位置記憶手段112 は、境界位置選択手
段113 で求められた境界位置を各ラベル・各候補ごとに
記憶する。この構成により、1フレーム時間ないしはそ
れ以上のフレーム数時間分の境界位置を記憶する。
The boundary position storage means 112 stores the boundary position obtained by the boundary position selection means 113 for each label and each candidate. With this configuration, the boundary positions for one frame time or more frame times are stored.

【0020】境界位置選択手段113 は、実位置逆算手段
111 で求められた床面上の境界線実位置と、境界位置記
憶手段112 に記憶された1フレームないし複数フレーム
前の境界位置とを比較し、過去の境界位置に最も近いも
のを真の境界位置として選択する。この選択処理は前後
フレームで対応する各ラベルごとに実行する。
The boundary position selecting means 113 is an actual position reverse calculating means.
The actual position of the boundary line on the floor obtained in 111 is compared with the boundary position of one frame or a plurality of frames before stored in the boundary position storage means 112, and the one closest to the past boundary position is the true boundary. Select as position. This selection process is executed for each corresponding label in the preceding and following frames.

【0021】このようにして、動物体と鏡面反射像との
正確な境界位置を求めることができる。また、同様にし
て動物体とその影である投影像との正確な境界位置を求
めることができる。
In this way, the accurate boundary position between the moving object and the specular reflection image can be obtained. Further, in the same manner, the accurate boundary position between the moving object and the projected image which is the shadow thereof can be obtained.

【0022】[0022]

【発明の効果】以上説明したように、本発明の構成によ
れば、動画像から検出された動物体領域の中で実際に動
物体に対応している領域とその鏡面反射像または投影像
に対応している領域との境界を求めることができ、動物
体の正確な位置、例えば人物であれば足元位置を正確に
求めることができる。
As described above, according to the configuration of the present invention, an area that actually corresponds to a moving object in a moving object area detected from a moving image and its specular reflection image or projected image is formed. The boundary with the corresponding region can be obtained, and the accurate position of the moving body, for example, the foot position of a person can be accurately obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における動領域検出装置の構
成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a moving area detection device according to an embodiment of the present invention.

【図2】従来例におけるエッジと色情報による車両の検
出の動作を示すフロー図
FIG. 2 is a flowchart showing an operation of detecting a vehicle based on edge and color information in a conventional example.

【符号の説明】[Explanation of symbols]

101 原画像入力手段 102 領域抽出手段 103 ラベリング手段 104 輝度分布測定手段 105 輝度分布エッジ検出手段 106 平滑化手段 107 第一の平滑化微分手段 108 第二の平滑化微分手段 109 ゼロ点検出手段 110 境界位置決定手段 111 実位置逆算手段 112 境界位置記憶手段 113 境界位置選択手段 101 original image inputting means 102 area extracting means 103 labeling means 104 luminance distribution measuring means 105 luminance distribution edge detecting means 106 smoothing means 107 first smoothing differentiating means 108 second smoothing differentiating means 109 zero point detecting means 110 boundary Position determination means 111 Real position back calculation means 112 Boundary position storage means 113 Boundary position selection means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 北 村 健 児 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 田 中 武 久 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 水 澤 和 史 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 森 真 人 神奈川県横浜市鶴見区江ケ崎町4番1号 東京電力株式会社システム研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Kenji Kitamura Kenji Kitamura 3-10-1 Higashisanda, Tama-ku, Kawasaki-shi, Kanagawa Matsushita Giken Co., Ltd. (72) Takehisa Tanaka Tama-ku, Kawasaki-shi, Kanagawa 3-10-10 Higashisanda Matsushita Giken Co., Ltd. (72) Inventor Kazufumi Mizusawa 3-10-1 Higashisita 3-10-1 Higashimita, Tama-ku, Kawasaki City, Kanagawa (72) Inventor Masato Mori Kanagawa 4-1, Egasaki-cho, Tsurumi-ku, Yokohama-shi, Tokyo Prefecture

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 映像信号をサンプリングして原画像を出
力する原画像入力手段と、前記原画像から監視対象領域
を抽出して監視対象領域2値画像を出力する領域抽出手
段と、前記監視対象領域2値画像に対して連結成分のラ
ベリングを行い対象領域ラベル画像を出力するラベリン
グ手段と、前記対象領域ラベル画像の各対象領域に対応
する前記原画像の領域で輝度分布を測定して輝度分布情
報を出力する輝度分布測定手段とを備え、各対象領域ご
とに得られた前記輝度分布情報に基づいて各対象領域を
対象物体部分とその鏡面反射像部分または投影像部分と
に分離することを特徴とする動領域検出装置。
1. An original image inputting means for sampling a video signal to output an original image, an area extracting means for extracting a monitored area from the original image and outputting a monitored area binary image, and the monitored object. Labeling means for labeling the region binary image with connected components and outputting a target region label image; and a luminance distribution by measuring a luminance distribution in a region of the original image corresponding to each target region of the target region label image. A luminance distribution measuring means for outputting information, and separating each target region into a target object part and its specular reflection image part or projection image part based on the brightness distribution information obtained for each target region. Characteristic moving area detection device.
【請求項2】 映像信号をサンプリングして原画像を出
力する原画像入力手段と、前記原画像から監視対象領域
を抽出して監視対象領域2値画像を出力する領域抽出手
段と、前記監視対象領域2値画像に対して連結成分のラ
ベリングを行い対象領域ラベル画像を出力するラベリン
グ手段と、前記対象領域ラベル画像の各対象領域に対応
する前記原画像の領域で特定の軸に沿った方向の輝度分
布を測定して輝度分布を出力する輝度分布測定手段と、
前記輝度分布の中から一つまたはそれ以上のエッジを検
出して輝度分布エッジ位置を出力する輝度分布エッジ検
出手段と、前記輝度分布エッジ位置の中から実際の対象
物体像とその鏡面反射像または投影像との境界位置を選
択する境界位置決定手段とを備えた動領域検出装置。
2. An original image inputting means for sampling a video signal to output an original image, an area extracting means for extracting a monitored area from the original image and outputting a monitored area binary image, and the monitored object. Labeling means for labeling the region binary image with connected components to output a target region label image, and a region along the specific axis in the region of the original image corresponding to each target region of the target region label image. Luminance distribution measuring means for measuring the luminance distribution and outputting the luminance distribution,
Brightness distribution edge detecting means for detecting one or more edges from the brightness distribution and outputting a brightness distribution edge position, an actual target object image and a specular reflection image thereof from the brightness distribution edge position, or A moving area detecting device comprising: a boundary position determining means for selecting a boundary position with respect to a projected image.
【請求項3】 輝度分布エッジ検出手段が、入力された
輝度分布を平滑化してから二階微分することを特徴とす
る請求項2記載の動領域検出装置。
3. The moving area detection device according to claim 2, wherein the brightness distribution edge detection means smoothes the input brightness distribution and then performs second-order differentiation.
【請求項4】 輝度分布エッジ検出手段が、入力された
輝度分布を微分する際に平滑化を同時に行うことを特徴
とする請求項2または請求項3記載の動領域検出装置。
4. The moving area detecting device according to claim 2, wherein the brightness distribution edge detecting means simultaneously performs smoothing when differentiating the input brightness distribution.
【請求項5】 輝度分布エッジ検出手段が、入力された
輝度分布を平滑化して平滑化輝度分布信号を出力する平
滑化手段と、前記平滑化輝度分布信号に対して平滑化微
分を行って輝度分布微分信号を出力する第一の平滑化微
分手段と、前記輝度分布微分信号に対して平滑化微分を
行って輝度分布二階微分信号を出力する第二の平滑化微
分手段と、前記輝度分布二階微分信号のゼロ点を検出し
出力するゼロ点検出手段とを備えた請求項2または請求
項3または請求項4記載の動領域検出装置。
5. Brightness distribution edge detection means smoothes the input brightness distribution and outputs a smoothed brightness distribution signal, and smoothing differentiation is performed on the smoothed brightness distribution signal to obtain brightness. A first smoothing differentiating means for outputting a distribution differentiating signal, a second smoothing differentiating means for performing a smoothing differentiating on the brightness distribution differentiating signal and outputting a second order brightness distribution differential signal, and the second brightness distribution second order The moving area detecting device according to claim 2, 3 or 4, further comprising: zero point detecting means for detecting and outputting a zero point of the differential signal.
【請求項6】 境界位置決定手段が、各輝度分布エッジ
位置から境界線の実空間内での位置を逆算して境界線実
位置を出力する実位置逆算手段と、前記境界線実位置と
境界位置記憶手段に記憶された1ステップまたはそれ以
上前の境界位置とを受けて境界位置を選択して出力する
境界位置選択手段と、前記境界位置選択手段が出力する
境界位置を記憶する境界位置記憶手段とを備えた請求項
2または請求項3または請求項4または請求項5に記載
の動領域検出装置。
6. A boundary position deciding means calculates the position of the boundary line in the real space from each of the luminance distribution edge positions backward and outputs the boundary line actual position, and the boundary position actual position and the boundary line actual position. Boundary position selecting means for selecting and outputting a boundary position in response to the boundary position of one step or more before stored in the position storing means, and boundary position storing for storing the boundary position output by the boundary position selecting means. The moving area detection device according to claim 2, claim 3, claim 4, or claim 5.
JP04765495A 1995-03-07 1995-03-07 Moving area detection device Expired - Fee Related JP3585977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04765495A JP3585977B2 (en) 1995-03-07 1995-03-07 Moving area detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04765495A JP3585977B2 (en) 1995-03-07 1995-03-07 Moving area detection device

Publications (2)

Publication Number Publication Date
JPH08241413A true JPH08241413A (en) 1996-09-17
JP3585977B2 JP3585977B2 (en) 2004-11-10

Family

ID=12781250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04765495A Expired - Fee Related JP3585977B2 (en) 1995-03-07 1995-03-07 Moving area detection device

Country Status (1)

Country Link
JP (1) JP3585977B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120363A (en) * 1997-10-09 1999-04-30 Matsushita Electric Ind Co Ltd Moving object detection method
JP2005346348A (en) * 2004-06-02 2005-12-15 Matsushita Electric Ind Co Ltd Image processing method, device, and program
JP2009301495A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processor and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2028619A4 (en) 2006-05-25 2010-10-20 Nec Corp Video image special effect detecting device, special effect detecting method, special effect detecting program and video image reproducing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120363A (en) * 1997-10-09 1999-04-30 Matsushita Electric Ind Co Ltd Moving object detection method
JP2005346348A (en) * 2004-06-02 2005-12-15 Matsushita Electric Ind Co Ltd Image processing method, device, and program
JP4546155B2 (en) * 2004-06-02 2010-09-15 パナソニック株式会社 Image processing method, image processing apparatus, and image processing program
JP2009301495A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processor and image processing method

Also Published As

Publication number Publication date
JP3585977B2 (en) 2004-11-10

Similar Documents

Publication Publication Date Title
US7684592B2 (en) Realtime object tracking system
AU2009295350B2 (en) Detection of vehicles in an image
US6614928B1 (en) Automatic parcel volume capture system and volume capture method using parcel image recognition
Nadimi et al. Physical models for moving shadow and object detection in video
US7123745B1 (en) Method and apparatus for detecting moving objects in video conferencing and other applications
JP4451307B2 (en) How to classify objects in a scene
US8854455B2 (en) Method and device for processing recorded image information from a vehicle
JP3892059B2 (en) Moving body tracking device
KR100612858B1 (en) Method and apparatus for tracking human using robot
US20060274917A1 (en) Image processing techniques for a video based traffic monitoring system and methods therefor
US7177445B2 (en) Discriminating between changes in lighting and movement of objects in a series of images using different methods depending on optically detectable surface characteristics
EP0913794A2 (en) A method for detecting moving cast shadows for object segmentation
JP2002208007A (en) Automatic detection of scanned document
JP4313758B2 (en) How to chain edges in stereo images together
Chen et al. Indoor and outdoor people detection and shadow suppression by exploiting HSV color information
KR101026778B1 (en) Vehicle image detection apparatus
WO2023019793A1 (en) Determination method, cleaning robot, and computer storage medium
JP4740755B2 (en) Monitoring device using images
JPH08241413A (en) Moving range detection device
KR101729536B1 (en) Apparatus and Method of Detecting Moving Object in Image
Tattersall et al. Adaptive shadow identification through automatic parameter estimation in video sequences
JP3230509B2 (en) Moving image processing device
JP3957495B2 (en) Image sensor
Paul et al. A realtime object tracking system using a color camera
JP4467702B2 (en) Shadow change region determination device, image determination device and image generation device using the same, and shadow intensity ratio calculation device used therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040805

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090813

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees