JP2008097359A - Human body detector - Google Patents
Human body detector Download PDFInfo
- Publication number
- JP2008097359A JP2008097359A JP2006278972A JP2006278972A JP2008097359A JP 2008097359 A JP2008097359 A JP 2008097359A JP 2006278972 A JP2006278972 A JP 2006278972A JP 2006278972 A JP2006278972 A JP 2006278972A JP 2008097359 A JP2008097359 A JP 2008097359A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- area
- human body
- contour
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人体検出装置、特に画像処理型の人体検出装置に関するものである。 The present invention relates to a human body detection device, and more particularly to an image processing type human body detection device.
従来からTVカメラ等の撮像手段により撮像した画像を用いて撮像領域内の人の存否を検出する人体検出装置が種々提供されており、このような人体検出装置としては、所定領域を撮像する撮像手段と、撮像手段で撮像した画像から輪郭を抽出する輪郭抽出手段と、該輪郭抽出手段で抽出した輪郭から時間的な変化を元に移動体の輪郭を抽出する移動輪郭抽出手段と、該移動輪郭抽出手段で抽出した輪郭に外接する矩形状の領域からなる移動領域を検出する移動領域抽出手段と、該移動領域抽出手段で検出した移動体の移動領域に基づいて移動領域内の移動エッジ部分の方向値を抽出してそのエッジ方向値分布を作成する領域特徴量検出手段と、該領域特徴量検出手段より得られるエッジ方向値分布を元に人体検出を行う人体検出手段とを備えているものがある(例えば、特許文献1)。
ところで、移動輪郭は一つの移動体によるものであっても、外乱等のノイズやその他様々な原因によって複数に分割されてしまうことがある。このような場合、分割された移動輪郭では輪郭が途中で途切れて端点が存在することになる。 By the way, even if the moving contour is a single moving body, it may be divided into a plurality of parts due to noise such as disturbance or various other causes. In such a case, in the divided moving contour, the contour is interrupted in the middle and end points exist.
そこで、移動領域抽出手段は、端点を有する移動輪郭を検出した際に該端点を有する移動輪郭を含む正方形状の領域内で別の端点を有する移動輪郭を探索し、前記矩形状の領域内で端点を有する移動輪郭を結合して一の移動領域を形成するように構成されている。 Therefore, the moving area extracting means searches for a moving outline having another end point in the square area including the moving outline having the end point when detecting the moving outline having the end point, and within the rectangular area. The moving contours having end points are combined to form one moving region.
以下に、移動領域抽出手段における移動輪郭の結合方法について図6を参照してさらに詳しく説明する。尚、図6では移動輪郭抽出手段で抽出された移動輪郭を元に移動領域F100〜F600が検出されており、ここで、移動領域F100〜F400は一の移動体の移動輪郭が分割されてなるものであって、移動領域F500,F600はノイズによるものであるとする。 In the following, a method for combining moving contours in the moving area extracting means will be described in more detail with reference to FIG. In FIG. 6, moving areas F100 to F600 are detected based on the moving outline extracted by the moving outline extracting means. Here, the moving areas F100 to F400 are obtained by dividing the moving outline of one moving body. It is assumed that the moving areas F500 and F600 are caused by noise.
移動領域抽出手段は、端点を有する移動輪郭の移動領域F100を検出すると、画像上に移動領域F100を含む正方形状の領域W100を設定し、この領域W100内で別の端点を有する移動輪郭の探索を行う。図6に示す場合では、領域W100内に移動領域F200〜F500が検出される。 When the moving area extraction unit detects the moving area F100 of the moving outline having the end points, the moving area extracting unit sets a square area W100 including the moving area F100 on the image, and searches for a moving outline having another end point in the area W100. I do. In the case shown in FIG. 6, moving areas F200 to F500 are detected in the area W100.
このように領域W100内で移動領域F200〜F500を検出した際には、移動領域抽出手段は移動領域F100〜F500を結合し、これら移動領域F100〜F500を全て包括するとともに外接するような矩形状の領域からなる移動領域F700を作成する。この移動領域F700は、分割された移動体の移動輪郭の移動領域F100〜F400を含むものであるが、ノイズである移動領域F500をも含んでいるため、図6に示すように実際の移動体の移動領域F800よりも大きくなる。 In this way, when the moving areas F200 to F500 are detected in the area W100, the moving area extracting means combines the moving areas F100 to F500, covers all of the moving areas F100 to F500, and circumscribes the rectangle. A moving area F700 consisting of these areas is created. The moving area F700 includes moving areas F100 to F400 of the moving contours of the divided moving bodies, but also includes a moving area F500 that is noise, so that the actual moving body moves as shown in FIG. It becomes larger than the region F800.
そして、このようなノイズを含んだ移動領域F700が作成されてしまうと、当然ながら人体検出の検出精度が悪くなってしまうという問題が生じることになる。 And if the movement area | region F700 containing such a noise will be produced, naturally the problem that the detection accuracy of a human body detection will worsen arises.
つまり、従来の人体検出装置では分割された移動輪郭を結合して移動領域を作成する際にノイズ等による移動輪郭も移動領域に含まれてしまうために検出精度が悪くなるという問題があった。 In other words, the conventional human body detection apparatus has a problem in that when the divided moving contours are combined to create a moving region, the moving contour due to noise or the like is included in the moving region, so that the detection accuracy is deteriorated.
本発明は上述の点に鑑みて為されたもので、その目的は、ノイズの影響を抑制して検出精度の向上を図ることができる人体検出装置を提供することにある。 The present invention has been made in view of the above points, and an object of the present invention is to provide a human body detection device capable of suppressing the influence of noise and improving detection accuracy.
上記の課題を解決するために、請求項1の発明では、所定領域を撮像する撮像手段と、撮像手段で撮像した画像から輪郭を抽出する輪郭抽出手段と、該輪郭抽出手段で抽出した輪郭から移動体の輪郭を抽出する移動輪郭抽出手段と、該移動輪郭抽出手段で抽出した輪郭に外接する矩形状の領域からなる移動領域を検出する移動領域抽出手段と、該移動領域抽出手段で検出した移動体の移動領域に基づいて、移動領域内の移動エッジ部分の方向値を抽出してそのエッジ方向値分布を作成する領域特徴量検出手段と、該領域特徴量検出手段より得られるエッジ方向値分布を元に人体検出を行う人体検出手段とを備え、移動領域抽出手段は、端点を有する移動輪郭が抽出された際に、当該輪郭の端点を含む縦長の矩形状の領域内から、別の端点を有する輪郭を探索し、前記矩形状の領域内で端点を有する輪郭を結合して移動領域を形成するように構成されていることを特徴とする。
In order to solve the above-mentioned problem, in the invention of
請求項2の発明では、請求項1の発明において、領域特徴量検出手段は、画像の下端縁に対する移動領域の高さと、当該移動領域の縦方向の画素数及び横方向の画素数とを検出するように構成され、人体検出手段は、前記移動領域の高さが所定の閾値以上で、且つ前記移動領域の横方向の画素数が縦方向の画素数より多い場合、前記移動領域は人体によるものではないと判定するように構成されていることを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the region feature amount detecting means detects the height of the moving region with respect to the lower edge of the image, and the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the moving region. When the height of the moving area is equal to or greater than a predetermined threshold and the number of pixels in the horizontal direction of the moving area is greater than the number of pixels in the vertical direction, the moving area is determined by the human body. It is characterized by determining that it is not a thing.
請求項3の発明では、請求項1又は2の発明において、領域特徴量検出手段は、画像の下端縁に対する移動領域の高さと、当該移動領域の大きさとを検出するように構成され、人体検出手段は、前記領域特徴量検出手段より得られた前記移動領域の高さを用いて前記移動領域の大きさを実空間上の大きさに補正し、前記実空間上の大きさが所定値以下である場合は、前記移動領域は人体によるものではないと判定するように構成されていることを特徴とする。 According to a third aspect of the present invention, in the first or second aspect of the invention, the region feature amount detecting means is configured to detect the height of the moving region with respect to the lower edge of the image and the size of the moving region, thereby detecting a human body. The means corrects the size of the moving area to the size in the real space using the height of the moving area obtained from the area feature amount detecting means, and the size in the real space is equal to or less than a predetermined value. In this case, the moving area is determined not to be a human body.
請求項1の発明は、人体の移動領域が一般に縦長の領域であることを利用し、端点を有する輪郭が抽出された際に当該輪郭の端点を含む縦長の矩形状の領域内から別の端点を有する輪郭を探索し、端点を有する輪郭を結合することで移動領域の検出を行うので、端点を有する移動輪郭同士を結合する際に従来のように縦横の長さの比が等しい正方形状の領域内から別の端点を有する輪郭を探索するような場合に比べてノイズや関係のない移動輪郭等を含んでしまうことを抑制でき、移動体の形状が高精度に反映された移動領域の検出が行え、結果としてノイズの影響を抑制して検出精度の向上を図ることができるという効果を奏する。
The invention of
請求項2の発明は、移動体が撮像手段から遠い場合には移動体の形状が移動領域に精度良く反映されること、及び人体に対応する移動領域が一般に縦長であることを利用し、領域特徴量検出手段により画像の下端縁に対する移動領域の高さと当該移動領域の縦方向の画素数及び横方向の画素数とを検出して前記移動領域の高さが所定の閾値以上で且つ前記移動領域の横方向の画素数が縦方向の画素数より多い場合に、前記移動領域が人体によるものではないと判定するから、抽出された移動領域の中から人体によるものではない移動領域を容易に除去することができ、その結果、検出精度の向上を図ることができるという効果を奏する。
The invention of
請求項3の発明は、画像の下端縁に対する移動領域の高さと当該移動領域の大きさとを領域特徴量検出手段で検出して前記移動領域の高さを用いて前記移動領域の大きさを実空間上の大きさに補正し、前記実空間上の大きさが所定値以下であれば人体検出手段により前記移動領域は人体によるものではないと判定するから、抽出された移動領域の中から人体によるものではない移動領域を容易に除去することができ、その結果、検出精度の向上を図ることができるという効果を奏する。 According to the third aspect of the present invention, the height of the moving area with respect to the lower edge of the image and the size of the moving area are detected by the area feature amount detection means, and the size of the moving area is realized using the height of the moving area. If the size in the real space is corrected to be a predetermined value or less, the human body detection means determines that the moving area is not a human body, so the human body is extracted from the extracted moving areas. Therefore, it is possible to easily remove a moving region that is not caused by the above-described problem, and as a result, it is possible to improve detection accuracy.
以下に、本発明の人体検出装置の一実施形態について図1〜図5を参照して説明する。 Hereinafter, an embodiment of the human body detection device of the present invention will be described with reference to FIGS.
本実施形態の人体検出装置1は、例えば住宅屋内外間で通話を行うためのドアホンシステムとともに用いられており、このドアホンシステムは、図5に示すように、庭に設置されるカメラ装置Aと、カメラ装置Aで得られた画像をモニタする機能を備えるとともに住宅Dの屋内に設置されるドアホン親機Bと、住宅Dの屋外に設置されるドアホン子器Cとで構成されている。尚、ドアホン親機B及びドアホン子器Cは、従来周知のものを用いることができるから、本実施形態では、ドアホン親機B及びドアホン子器Cについては説明を省略し、カメラ装置Aについてのみ説明する。
The human
カメラ装置Aは、例えばセンサ付きカメラ装置であって、図1に示すように、所定領域内の人の存在を検知する人体検出装置1と、報知手段2とを備えている。
The camera device A is, for example, a camera device with a sensor, and includes a human
ここで、人体検出装置1は、画像処理型の人体検出装置であって、所定領域を撮像する撮像手段10と、出力データ変換手段11と、画像処理手段12と、輪郭画像記憶手段13と、信号処理手段14と、伝送手段15とを備えており、撮像した画像に画像処理を施すことで人体検出を行うとともに、撮像手段10で撮像した画像をドアホン親機Bに伝送するように構成されている。
Here, the human
撮像手段10は、所定領域を時系列で連続して撮像するCCD等の固体撮像素子や、CMOSイメージセンサ等の撮像素子(図示せず)と、撮像素子から出力される画像をデジタルデータに変換して濃淡画像データ(以下、単に「画像データ」と称する)を生成し、そのYUV信号を出力するA/D変換器とで構成されている。尚、一般的なCMOSカメラのようにデバイス自体がデジタル信号を出力するものであれば前記のA/D変換器を設けなくてもよい。このような撮像手段10は、広範囲に亘って人体の検知が行えるように、図4(a)に示すように、住宅の壁面等において人体の頭上に位置する程度の高さ(例えば、地面Eから2mの高さ)に設置される。 The image pickup means 10 converts a solid-state image pickup device such as a CCD that picks up a predetermined area continuously in time series, an image pickup device such as a CMOS image sensor (not shown), and an image output from the image pickup device into digital data. Thus, grayscale image data (hereinafter simply referred to as “image data”) is generated and an A / D converter that outputs the YUV signal is configured. If the device itself outputs a digital signal like a general CMOS camera, the A / D converter may not be provided. As shown in FIG. 4 (a), such an image pickup means 10 is high enough to be positioned above the human body on a wall surface of a house (for example, the ground E) so that the human body can be detected over a wide range. 2m high).
出力データ変換手段11は、撮像手段10から出力されたYUV信号からなる画像データをNTSC(National TV Standards Committee)信号からなる画像データに変換するYUV/NTSC変換機能を有するものである。 The output data conversion means 11 has a YUV / NTSC conversion function for converting image data composed of YUV signals output from the imaging means 10 into image data composed of NTSC (National TV Standards Committee) signals.
画像処理手段12は、撮像手段10により得られた画像情報に基づいて所定領域内の人の検出を行うためのものであって、撮像手段10で撮像した画像から輪郭を抽出する輪郭抽出手段12aと、該輪郭抽出手段12aで抽出した輪郭から時間的な変化を元に移動体の輪郭を抽出する移動輪郭抽出手段12bと、該移動輪郭抽出手段12bで抽出した輪郭に外接する矩形状の領域からなる移動領域を抽出する移動領域抽出手段12cと、画像上の移動領域の大きさ及び最下端の位置を検出する領域特徴量検出手段12dと、領域特徴量検出手段12dの各検出出力を元にして人体検出を行う人体検出手段12eとを備えている。
The image processing means 12 is for detecting a person in a predetermined area based on the image information obtained by the imaging means 10, and extracts a contour from the image taken by the imaging means 10. A moving contour extracting means 12b for extracting the contour of the moving body from the contour extracted by the
輪郭抽出手段12aは、撮像手段10から得られる濃淡画像データを、一般的に知られたSOBELフィルタ等を使用して微分処理して輪郭(エッジ)の抽出を行い、各画像の輪郭画像を輪郭画像記憶手段13に一定期間保存するものである。
The
移動輪郭抽出手段12bは、輪郭画像記憶手段13に保存された時系列の輪郭画像を用いて論理合成を行い、移動体の輪郭(以下、「移動輪郭」と称する)のみを抽出した合成画像を作成するものである。
The moving contour extraction unit 12b performs logical synthesis using the time-series contour images stored in the contour
移動領域抽出手段12cは、移動輪郭抽出手段12bで作成した合成画像をラベリングして移動体に相当する領域(以下、「移動領域」と称する)を検出するものであり、本実施形態では、移動領域を、移動輪郭に外接する矩形状(四角形)の領域(移動枠)で表わすように構成されている。 The moving area extracting means 12c detects the area corresponding to the moving body (hereinafter referred to as “moving area”) by labeling the composite image created by the moving contour extracting means 12b. The region is configured to be represented by a rectangular (quadrangle) region (moving frame) circumscribing the moving contour.
ところで、移動輪郭は、もとは一つの移動体によるものであっても、外乱等のノイズやその他様々な原因によって、複数に分割されてしまうことがある。このような場合、分割された移動輪郭では、輪郭が途中で途切れて、端点が存在することになる。 By the way, even if the moving contour is originally based on one moving body, it may be divided into a plurality of parts due to noise such as disturbance or various other causes. In such a case, in the divided moving contour, the contour is interrupted in the middle and end points exist.
そこで、移動領域抽出手段12cは、端点を有する移動輪郭を検出した際に、この端点を有する移動輪郭を含む縦長の矩形状の領域内で、別の端点を有する移動輪郭を探索し、前記矩形状の領域内で端点を有する移動輪郭を結合して一の移動領域を形成するように構成されている。
Therefore, when the moving
以下に、移動領域抽出手段12cにおける移動輪郭の結合方法について図2を参照してさらに詳しく説明する。尚、図2では、移動輪郭抽出手段12bで抽出された移動輪郭を元に、移動領域F1〜F6が検出されており、ここで、移動領域F1〜F4は、一の人体の移動輪郭が複数に分割されてなる端点を有する移動輪郭の移動領域であって、移動領域F5,F6は、ノイズによる移動輪郭の移動領域であるとする。
Hereinafter, the moving contour combining method in the moving
移動領域抽出手段12cは、端点を有する移動輪郭の移動領域F1を検出すると、画像上に、この移動領域F1を含む縦長の矩形状の領域Wを設定し、この領域W内で、別の端点を有する移動輪郭の探索を行う。図2に示す場合では、領域W内に、端点を有する移動輪郭の移動領域F2〜F4が検出されることになる。
When the moving
このように領域W内で他の端点を有する移動輪郭の移動領域F2〜F4を検出した際には、移動領域抽出手段12は、移動領域F1〜F4に対応する移動輪郭を結合し、これら端点を有する移動輪郭を全て包括するとともに外接する矩形状の領域からなる移動領域F7を作成するのである。 When the moving areas F2 to F4 of the moving outline having other end points in the area W are detected in this way, the moving area extracting means 12 combines the moving outlines corresponding to the moving areas F1 to F4, and these end points. A moving region F7 is created that includes all moving contours having a rectangular shape and circumscribes the moving contour.
ここで、別の端点を有する移動輪郭を探索する際に縦長の矩形状の領域Wを用いるのは、一般に人体の移動領域が縦長の矩形状であるという理由による。 Here, the reason why the vertically long rectangular region W is used when searching for a moving contour having another end point is that the moving region of the human body is generally a vertically long rectangular shape.
以上述べたように本実施形態の移動領域抽出手段12cは、端点を有する輪郭を抽出した際に当該輪郭の端点を含む縦長の矩形状の領域内から別の端点を有する輪郭を探索し、前記矩形状の領域内に存在する端点を有する輪郭を結合することによって移動領域を作成するように構成されている。このように本実施形態の移動領域抽出手段12cでは、別の端点を探索する際に人体の移動領域が一般に縦長の領域であることを利用することによって、端点を有する移動輪郭同士を結合する際にノイズや関係のない移動輪郭等が含まれてしまうことを抑制している。
As described above, the moving
領域特徴量検出手段12dは、輪郭画像記憶手段13に保存されたエッジ画像と、移動領域抽出手段12cで検出した移動体の移動領域とに基づいて、移動領域内の移動エッジ部分の方向値を抽出してそのエッジ方向値分布を作成し、このエッジ方向値分布を特徴量として出力するように構成されている。 The area feature quantity detection means 12d determines the direction value of the moving edge portion in the movement area based on the edge image stored in the contour image storage means 13 and the movement area of the moving object detected by the movement area extraction means 12c. The edge direction value distribution is created by extraction, and the edge direction value distribution is output as a feature amount.
加えて、領域特徴量検出手段12dは、移動領域毎に、画像の下端縁に対する移動領域の最下端の高さ(例えば、移動領域の最下端の画素の縦座標の値)と、移動領域の縦方向の画素数及び横方向の画素数と、移動領域の大きさ(例えば、移動領域の面積(総画素数))とを移動領域の特徴量として検出するように構成されている。
In addition, the region feature
人体検出手段12eは、領域特徴量検出手段12dで検出された各特徴量を用いて人体検出を行うためのものであり、第1〜第3の判定過程を有している。
The human
第1の判定過程は、領域特徴量検出手段12dより画像の下端縁に対する移動領域の最下端の高さと当該移動領域の縦方向の画素数及び横方向の画素数とを取得し、移動領域の最下端の高さが所定の閾値以上で、且つ前記移動領域の横方向の画素数が縦方向の画素数より多い場合、前記移動領域は人体によるものではないと判断する過程である。
In the first determination process, the height of the lowermost edge of the moving area with respect to the lower edge of the image, the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the moving area are acquired from the area feature
以下、第1の判定過程について図3(a)〜(c)を参照して説明する。尚、図3(a)では、移動領域抽出手段12cにより移動領域F8,F9が検出され、領域特徴量検出手段12dにより、画像の下端縁Gに対する移動領域F8,F9の最下端の高さ(移動領域F8,F9の最下端の画素の縦座標の値)がV1,V2であると検出され、また、各移動領域F8,F9の縦方向の長さ(画素数)がx1,x2、横方向の長さ(画素数)がy1,y2であると検出されているとする。ここで、x1>y1、x2<y2であるとする。
Hereinafter, the first determination process will be described with reference to FIGS. In FIG. 3A, the moving regions F8 and F9 are detected by the moving
第1の判定過程では、最初に、移動領域F8,F9の最下端の位置V1,V2が、所定の閾値Vth以上であるか否かを判定する。ここで、閾値Vthは、移動領域に対応する移動体が、移動体の形状が正確に反映される程度に撮像手段10より遠い位置に位置しているか否かの判断基準となる値としている。すなわち、撮像手段10は、上述したように広範囲に亘って人体の検知が行えるように住宅の壁面等において人体の頭上に設置されるため、撮像手段10に近い移動体は、上から見下ろされた状態で撮像されて、その形状が正確に反映されないことが多いのに対して、撮像手段10から遠い移動体は、その形状が正確に反映されやすい。
In the first determination process, first, it is determined whether or not the lowermost positions V 1 and V 2 of the movement regions F8 and F9 are equal to or greater than a predetermined threshold value Vth . Here, the threshold value V th is a value that serves as a criterion for determining whether or not the moving object corresponding to the moving region is positioned far from the
ここで、画像上の移動領域の最下端の位置が閾値Vth未満であれば、移動体が撮像手段10に近く、画像上には移動体の形状が正確に反映されていないとし、第1の判定過程は、移動領域が人体によるものか否かを判定できないとする。 Here, if the position of the lowermost end of the moving area on the image is less than the threshold value Vth, the moving body is close to the imaging means 10, and the shape of the moving body is not accurately reflected on the image. It is assumed that the determination process cannot determine whether or not the moving area is a human body.
一方、画像上の移動領域の最下端の位置が閾値Vth以上であれば、移動体が撮像手段10から遠く、画像上には移動体の形状が正確に反映されているとして、移動領域の形状の判定を行う。ここで行う移動体の形状の判定は、移動体が人体である可能性があるかどうかを判定するものであり、移動領域の縦方向の長さが、横方向の長さよりも長いか否かによって(本実施形態では、移動領域の縦方向の画素数が横方向の画素数よりも多いか否かによって)行われる。つまり、この移動領域の形状の判定では、車両等の移動領域が横長矩形状の移動領域(縦方向の画素数が横方向の画素数よりも少ない移動領域)で表されるのに対して、一般に人体の移動領域が縦長の矩形状の移動領域(縦方向の画素数が横方向の画素数よりも多い移動領域)で表されることを利用している。 On the other hand, if the position of the lowermost end of the moving area on the image is equal to or greater than the threshold value Vth, it is assumed that the moving body is far from the imaging means 10 and the shape of the moving body is accurately reflected on the image. Determine the shape. The determination of the shape of the moving body here is to determine whether or not the moving body may be a human body, and whether or not the vertical length of the moving area is longer than the horizontal length. (In this embodiment, depending on whether the number of pixels in the vertical direction of the moving region is larger than the number of pixels in the horizontal direction). In other words, in the determination of the shape of the moving area, the moving area of the vehicle or the like is represented by a horizontally long moving area (a moving area in which the number of pixels in the vertical direction is smaller than the number of pixels in the horizontal direction), In general, the fact that the moving area of the human body is represented by a vertically long rectangular moving area (the moving area in which the number of pixels in the vertical direction is larger than the number of pixels in the horizontal direction) is used.
例えば、移動領域F8,F9の位置V1,V2は、いずれも閾値Vth以上であるから、形状の判定が行われ、ここで移動領域F8は、縦方向の長さx1>横方向の長さy1であるから、移動領域F8は、人体によるものである可能性があると判定される一方、移動領域F9は、縦方向の長さx2<横方向の長さy2であるから、移動領域F9は、人体によるものではないと判定される。 For example, since the positions V 1 and V 2 of the movement areas F8 and F9 are both equal to or higher than the threshold value V th , the shape is determined. Here, the movement area F8 has a length x 1 in the vertical direction> a horizontal direction. since the the length y 1, the moving area F8, while it is determined that may be due to a human body, the moving area F9 is the longitudinal length x 2 <length in the transverse direction y 2 Therefore, it is determined that the movement area F9 is not caused by a human body.
つまり、上述した第1の判定過程は、移動領域抽出手段12cにより検出された複数の移動領域の中から、人体によるものではない移動領域を除去する過程である。
That is, the first determination process described above is a process of removing a moving area that is not caused by a human body from a plurality of moving areas detected by the moving
第2の判定過程は、領域特徴量検出手段12dより画像の下端縁に対する移動領域の最下端の高さと当該移動領域の大きさとを取得し、移動領域の最下端の高さを用いて移動領域の大きさを実空間上の大きさ(すなわち、移動領域に対応する移動体の実際の大きさに相当する値)に補正し、実空間上の大きさが所定値以下である場合は、移動領域は人体によるものではないと判定する過程である。
In the second determination process, the height of the lowermost end of the moving area with respect to the lower end edge of the image and the size of the moving area are acquired from the area feature
以下、第2の判定過程について図4(a),(b)を参照して説明する。尚、以下の説明では、図4(a)に示すように、撮像手段10の撮像領域内に、移動体M1,M2が存在するとし、移動領域抽出手段12cにより、図4(b)に示すように、移動体M1,M2にそれぞれ対応する移動領域F10,F11が検出された移動領域画像が得られているとする。また尚、領域特徴量検出手段12dにより各移動領域F10,F11の大きさ及び最下端の位置が検出されており、移動領域F10の大きさ(総画素数)がm1、移動領域F10の最下端の位置がV3、移動領域F11の大きさ(総画素数)がm2、移動領域F11の最下端の位置がV4であるとする。 Hereinafter, the second determination process will be described with reference to FIGS. In the following description, as shown in FIG. 4A, it is assumed that the moving bodies M1 and M2 exist in the imaging area of the imaging means 10, and the moving area extraction means 12c shows that the moving bodies M1 and M2 are shown in FIG. As described above, it is assumed that moving area images in which moving areas F10 and F11 corresponding to the moving bodies M1 and M2 are detected are obtained. In addition, the size and the lowermost position of each of the moving regions F10 and F11 are detected by the region feature amount detection means 12d, the size (total number of pixels) of the moving region F10 is m 1 , position of the lower end V 3, the size of the moving region F11 (the total number of pixels) m 2, the position of the lowermost end of the moving region F11 is assumed to be V 4.
第2の判定過程では、まず、図4(a)に示すように、実空間上における移動領域F10,F11の最下端の位置、すなわち移動体M1,M2と地面Eとの接地点R1,R2と、撮像手段10とを結ぶ直線P1,P2と水平方向との間の角度θ1,θ2が算出される。このような角度θ1,θ2は、撮像手段10の撮像方向の俯角θと、画像上の移動領域F10,F11の最下端の位置V3,V4とを用いて算出される。尚、俯角θは、ロータリエンコーダ等の俯角検出手段を用いて得るようにしてもよいし、実際に角度を計測することによって得るようにしてもよい。
In the second determination process, first, as shown in FIG. 4A, the lowest positions of the moving regions F10 and F11 in the real space, that is, the contact points R 1 , R 1 between the moving bodies M1 and M2 and the ground E, Angles θ 1 and θ 2 between the straight lines P 1 and P 2 connecting R 2 and the
ここで、実空間上における移動領域の最下端の位置と、撮像手段10とを結ぶ直線と水平方向との間の角度は、画像上の任意の画素の縦方向の座標をV、画像上の下端縁の画素の縦方向の座標を0、上端縁の画素の縦方向の座標を2Vcとすれば、θ+φ*((Vc−V)/2Vc)で与えられる(但し、φは撮像手段10の画角)。 Here, the angle between the position of the lowest end of the moving area in the real space and the straight line connecting the imaging means 10 and the horizontal direction is determined by V representing the vertical coordinate of an arbitrary pixel on the image and V on the image. If the vertical coordinate of the pixel at the lower edge is 0 and the vertical coordinate of the pixel at the upper edge is 2Vc, then θ + φ * ((Vc−V) / 2Vc) (where φ is the value of the imaging means 10) Angle of view).
これにより実空間上における移動領域F10の最下端の位置(移動体M1と地面Eとの接地点)R1と、撮像手段10とを結ぶ直線P1と水平方向との間の角度θ1、実空間上における移動領域F11の最下端の位置(移動体M2と地面Eとの接地点)R2と、撮像手段10とを結ぶ直線P2と水平方向との間の角度θ2が求められる。
Thus the R 1 (ground point of the moving object M1 and the ground E) uppermost position of the lower end of the moving region F10 in the real space, the angle theta 1 between the straight line P 1 connecting the
次に、上述したように算出した角度θ1,θ2と、撮像手段10の設置位置の地面Eからの高さHとを用いて三角測距を行うことで、実空間上の移動領域F10,F11の最下端の位置R1,R2と撮像手段10との水平面内における距離L1,L2が算出される。このような距離L1,L2は、角度θ1,θ2の正接が、それぞれH/L1、H/L2であることを利用して算出することができる。尚、本実施形態では、距離L1,L2を求めているが、このような距離L1,L2の代わりに直線P1,P2の長さを求めるようにしてもよく、直線P1,P2の長さは、角度θ1,θ2の正弦を利用して求めることができる。
Next, by performing triangulation using the angles θ 1 and θ 2 calculated as described above and the height H of the installation position of the
この後に、上述したように算出した距離L1,L2と、画像上の移動領域F10,F11の大きさm1,m2を元に、実空間上の移動領域F10,F11の大きさ(すなわち、移動領域F10,F11にそれぞれ対応する移動体M1,M2の実際の大きさに相当する値)が算出される。ここで、実空間上の移動領域F10,F11の大きさを求める際には、例えば、撮像手段10からの距離と実空間上における画素1つの大きさとの関係を示すデータベース等を用いている。 Thereafter, based on the distances L 1 and L 2 calculated as described above and the sizes m 1 and m 2 of the moving regions F10 and F11 on the image, the sizes of the moving regions F10 and F11 in the real space ( That is, values corresponding to the actual sizes of the moving bodies M1 and M2 corresponding to the moving areas F10 and F11, respectively, are calculated. Here, when obtaining the sizes of the moving areas F10 and F11 in the real space, for example, a database or the like indicating the relationship between the distance from the imaging means 10 and the size of one pixel in the real space is used.
最後に、算出した実空間上の移動領域F10,F11の大きさに基づいて、各移動領域F10,F11が人体によるものである可能性があるか否かが判定される。この判定は、移動領域F10,F11の大きさが、所定の範囲内に収まっているか否かによって行われる。 Finally, based on the calculated size of the moving areas F10 and F11 in the real space, it is determined whether or not each moving area F10 and F11 is possibly caused by a human body. This determination is performed based on whether or not the sizes of the movement areas F10 and F11 are within a predetermined range.
すなわち、実際の人体の大きさを判断基準として用い、実空間上の移動領域F10,F11の大きさが、人体の大きさよりも小さい、又は大きいものであれば、移動領域F10,F11は人体によるものではないと判断し、所定の範囲内に収まるような大きさであれば、移動領域F10,F11は人体によるものである可能性があると判定する。 That is, if the size of the moving area F10, F11 in the real space is smaller or larger than the size of the human body using the actual size of the human body as a criterion, the moving areas F10, F11 are determined by the human body. If it is determined that the size is within a predetermined range, it is determined that there is a possibility that the moving areas F10 and F11 are caused by a human body.
尚、判定基準としては、人体の身長や、横幅等、様々なものを用いるようにしてもよく、状況に応じて好適なものを採用すればよい。また尚、各移動領域F10,F11が人体によるものである可能性があるか否かについての判定は、上述したように移動領域F10,F11の大きさが、所定の範囲内に収まっているか否かによってではなく、移動領域F10,F11の大きさが所定の閾値以上であるか否かによって行うようにしてもよい。 Note that various criteria such as the height and width of the human body may be used as the determination criteria, and a suitable one may be adopted depending on the situation. In addition, as described above, whether or not each of the moving areas F10 and F11 is likely to be due to a human body is determined as to whether or not the size of the moving areas F10 and F11 is within a predetermined range. Instead of this, the determination may be made depending on whether or not the size of the moving regions F10 and F11 is equal to or greater than a predetermined threshold.
つまり、上述した第2の判定過程は、第1の判定過程と同様に、移動領域抽出手段12cにより検出された複数の移動領域の中から、人体によるものではない移動領域を除去する過程である。
That is, the second determination process described above is a process of removing a moving area that is not caused by a human body from a plurality of moving areas detected by the moving
第3の判定過程は、第1及び第2の判定過程により除去されなかった移動領域について、その移動領域が人体によるものであるか否かの判定を行う過程であって、領域特徴量検出手段12dで検出したエッジ方向値分布を移動領域のエッジ方向の特徴量として、このエッジ方向の特徴量に基づいて領域移動が外乱によるものか、人体によるものかを判定するようになっている。 The third determination process is a process for determining whether or not the moving area is removed by the human body with respect to the moving area that has not been removed by the first and second determination processes. The edge direction value distribution detected in 12d is used as the feature amount in the edge direction of the moving region, and based on the feature amount in the edge direction, it is determined whether the region movement is due to disturbance or due to the human body.
さらに詳しく説明すると、第3の判定過程は、人体の輪郭(エッジ)には直線部分より曲線部分が多く且つ複雑な形状であるためにそのエッジ方向があらゆる方向に分布しているのに対して、構造物の影等のエッジは直線的な成分が多く、エッジの分布が偏った分布になりやすいことを利用して人体検出を行う過程であり、エッジ方向値分布が偏りなく均等に分布していれば、人体であると判断するようになっている。尚、移動領域が人体を表わしている否かを判定するために、エッジ方向値分布をテーブルに格納し、人体の動きによるエッジ方向値分布テーブルと互いの分布を比較するようにしてもよく、その他の様々な方法を用いることができる。 More specifically, in the third determination process, the contour (edge) of the human body has more curved parts than the straight parts and has a complicated shape, so the edge directions are distributed in all directions. This is the process of human detection using the fact that edges of structures such as shadows have many linear components and the distribution of edges tends to be biased, and the edge direction value distribution is evenly distributed without bias. If so, it is judged to be a human body. In order to determine whether or not the moving region represents a human body, the edge direction value distribution may be stored in a table, and the edge direction value distribution table based on the movement of the human body may be compared with each other's distribution. Various other methods can be used.
そして、人体検出手段12eは、第3の判定過程により人体を検出した際には、人体検出信号を信号処理手段14へ出力するように構成されている。
The human
輪郭画像記憶手段13は、例えば、RAM等の記憶装置であって、輪郭抽出手段14aで抽出されたエッジ画像を一定期間保存するために用いられる。
The contour
信号処理手段14は、CPU等で構成されるもので、人体検出装置1の各手段の動作を制御する機能をソフトウェア等により実現しており、この信号処理手段14には、報知手段2が接続されている。そして、この信号処理手段14では、画像処理手段12の人体検出信号を受け取った際(つまりは、人の存在を検出した際)に、伝送手段15に伝送開始信号を出力するとともに、報知手段2に報知開始信号を出力するように構成されている。
The signal processing means 14 is constituted by a CPU or the like, and realizes a function for controlling the operation of each means of the human
また、信号処理手段14は、人体検出信号を受け取ってから所定時間が経過した後に、伝送手段15に伝送終了信号を出力するように構成されている。さらに、信号処理手段14は、人体検出信号を受け取ってから所定時間が経過した後に、報知手段2に報知終了信号を出力するように構成されている。尚、伝送終了信号及び報知終了信号を出力するタイミングは、使用者が自由に設定できるようにしてもよい。
Further, the signal processing means 14 is configured to output a transmission end signal to the transmission means 15 after a predetermined time has elapsed after receiving the human body detection signal. Further, the
伝送手段15は、出力データ変換手段11から出力されるNTSC信号を伝送用の信号に変調してドアホン親機Bへ出力するものであり、信号処理手段14から伝送開始信号を受け取った際に伝送を開始し、伝送終了信号を受け取った際に伝送を終了するように構成されている。尚、伝送手段15からドアホン親機Bへの画像データの伝送のタイミングは、撮像手段10の撮像のタイミングと同期させている。
The transmission means 15 modulates the NTSC signal output from the output data conversion means 11 into a signal for transmission and outputs it to the intercom base unit B. When the transmission start signal is received from the signal processing means 14, it is transmitted. The transmission is terminated when a transmission end signal is received. Note that the transmission timing of the image data from the
報知手段2は、侵入者に対して威嚇用の報知を行うためのものであって、視覚的な威嚇に用いられるライト2aや、聴覚的な威嚇に用いられる電気音響変換器(ブザーやスピーカ)等を備えており、信号処理手段14から報知開始信号を受け取ってから報知終了信号を受け取るまでの間、ライト2aを点灯したり、電気音響変換器から音声を出力したりするように構成されている。 The notification means 2 is for intimidating notification to an intruder, and includes a light 2a used for visual threat and an electroacoustic transducer (buzzer or speaker) used for auditory threat. Etc., and is configured to turn on the light 2a or to output sound from the electroacoustic transducer after receiving the notification start signal from the signal processing means 14 until receiving the notification end signal. Yes.
以上によりカメラ装置Aは構成されており、以下に、カメラ装置Aの動作について説明する。カメラ装置Aは、起動している間は、常時、撮像手段10により所定領域を撮像しており、撮像手段10により得られた画像データは、画像処理手段12に送られる一方、出力データ変換手段11を経由して伝送手段15に送られる。画像処理手段12に送られた画像には、上述したように画像処理手段12による解析処理が為され、人を検出した際には、人体検出信号が画像処理手段12から信号処理手段14へ出力される。人体検出信号を受け取った信号処理手段14は、伝送手段15に伝送開始信号を出力するとともに、報知手段2に報知開始信号を出力する。これにより報知手段2では、侵入者に対する威嚇用の報知が行われる。この報知は、例えば、信号処理手段14から報知終了信号を受け取るまで継続される。一方、伝送開始信号を受け取った伝送手段15では、出力データ変換手段11によりYUV信号からNTSC信号に変換された画像データが伝送用に変調されて、ドアホン親機Bへ順次伝送される。この伝送は、信号処理手段14からは伝送終了信号が出力されるまで継続される。
The camera apparatus A is configured as described above, and the operation of the camera apparatus A will be described below. While the camera apparatus A is activated, the
以上述べた本実施形態の人体検出装置1によれば、人体の移動領域が一般に縦長の領域であることを利用し、移動領域抽出手段12cでは端点を有する輪郭が抽出された際に、当該輪郭の端点を含む縦長の矩形状の領域内から、別の端点を有する輪郭を探索し、端点を有する輪郭を結合することで移動領域の検出を行うので、端点を有する移動輪郭同士を結合する際に、従来のように縦横の長さの比が等しい正方形状の領域内から別の端点を有する輪郭を探索するような場合に比べてノイズや関係のない移動輪郭等を含んでしまうことを抑制でき、これにより移動体の形状が高精度に反映された移動領域の検出が行え、結果として、ノイズの影響を抑制して検出精度の向上を図ることができるという効果を奏する。
According to the human
また、第1の判定過程では、移動体が撮像手段から遠い場合には移動体の形状が移動領域に精度良く反映されること、及び人体に対応する移動領域が一般に縦長であることを利用し、領域特徴量検出手段12dにより画像の下端縁に対する移動領域の高さと当該移動領域の縦方向の画素数及び横方向の画素数とを検出して、人体検出手段12eにより前記移動領域の高さが所定の閾値以上で、且つ前記移動領域の横方向の画素数が縦方向の画素数より多い場合、前記移動領域は人体によるものではないと判定しているから、抽出された移動領域の中から人体によるものではない移動領域を容易に除去することができ、その結果、検出精度の向上を図ることができるという効果を奏する。特に、第1の判定過程では移動領域の形状に基づいて移動領域が人体によるものかどうかを判定しているから、例えば人と犬等のエッジ方向値分布では区別できないような移動領域(すなわち第3の判定過程では人かどうかを区別できないような移動領域)であっても人体によるものか否かの判定が行え、その結果、第3の判定過程を行う際には、第3の判定過程では人かどうかの区別が困難な移動領域が除去されるため、検出精度のさらなる向上が図れるという効果を奏する。また、第1の判定過程を行うことによって、第3の判定過程において人体であるかどうかを判定する対象となる移動領域の数を減らすことができるようになるから、第3の判定過程で行う処理に必要な時間を短縮できる場合が増えて、人体検出がより迅速に行えるようになるという効果を奏する。
Further, in the first determination process, when the moving body is far from the imaging means, the shape of the moving body is accurately reflected in the moving area, and the moving area corresponding to the human body is generally vertically long. The height of the moving area with respect to the lower edge of the image, the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the moving area are detected by the area feature
加えて、第2の判定過程では、画像の下端縁に対する移動領域の高さと、画像上の移動領域の大きさとを領域特徴量検出手段12dで検出して、前記移動領域の高さを用いて前記移動領域の大きさを実空間上の大きさに補正して、前記実空間上の大きさが所定値以下であれば、人体検出手段12eにより前記移動領域は人体によるものではないと判定しているから、抽出された移動領域の中から人体によるものではない移動領域を容易に除去することができ、その結果、検出精度の向上を図ることができるという効果を奏する。特に、第2の判定過程では移動領域の大きさに基づいて移動領域が人体によるものかどうかを判定しているから、例えば人と犬等のエッジ方向値分布では区別できないような移動領域(すなわち第3の判定過程では人かどうかを区別できないような移動領域)であっても人体によるものか否かの判定が行え、その結果、第3の判定過程を行う際には、第3の判定過程では人かどうかの区別が困難な移動領域が除去されるため、検出精度のさらなる向上が図れるという効果を奏する。また、第2の判定過程を行うことによって、第3の判定過程において人体であるかどうかを判定する対象となる移動領域の数を減らすことができるようになるから、第3の判定過程で行う処理に必要な時間を短縮できる場合が増えて、人体検出がより迅速に行えるようになるという効果を奏する。
In addition, in the second determination process, the height of the moving area with respect to the lower edge of the image and the size of the moving area on the image are detected by the area feature amount detection means 12d, and the height of the moving area is used. If the size of the moving area is corrected to a size in the real space and the size in the real space is equal to or less than a predetermined value, the human
尚、本実施形態では、領域特徴量検出手段12dにおいて、画像の下端縁に対する移動領域の最下端の高さを検出するようにしているが、この他、画像の下端縁に対する移動領域の重心位置の高さを検出するようにしてもよく、要は画像の下端縁に対する移動領域の位置を判別できるような値であればよい。
In the present embodiment, the region feature
1 人体検出装置
10 撮像手段
12a 輪郭抽出手段
12b 移動輪郭抽出手段
12c 移動領域抽出手段
12d 領域特徴量検出手段
12e 人体検出手段
DESCRIPTION OF
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006278972A JP4760655B2 (en) | 2006-10-12 | 2006-10-12 | Human body detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006278972A JP4760655B2 (en) | 2006-10-12 | 2006-10-12 | Human body detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008097359A true JP2008097359A (en) | 2008-04-24 |
JP4760655B2 JP4760655B2 (en) | 2011-08-31 |
Family
ID=39380131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006278972A Expired - Fee Related JP4760655B2 (en) | 2006-10-12 | 2006-10-12 | Human body detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4760655B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204860A (en) * | 2009-03-02 | 2010-09-16 | Hitachi Ltd | Video-monitoring system |
JP2012174223A (en) * | 2011-02-24 | 2012-09-10 | Nippon Steel Corp | Person monitoring device, person monitoring method, and computer program |
CN102906788A (en) * | 2010-05-21 | 2013-01-30 | 松下电器产业株式会社 | Traffic line creation device and traffic line creation method |
US9965688B2 (en) | 2016-01-14 | 2018-05-08 | Canon Kabushiki Kaisha | Display apparatus, display method, and storage medium |
CN115451559A (en) * | 2022-09-26 | 2022-12-09 | 宁波奥克斯电气股份有限公司 | Air conditioner, control method and control device thereof, and readable storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03184028A (en) * | 1989-12-14 | 1991-08-12 | Konica Corp | Still video camera |
JPH0950585A (en) * | 1995-08-07 | 1997-02-18 | Hitachi Ltd | Intruder monitoring device |
JP2002312769A (en) * | 2001-04-16 | 2002-10-25 | Matsushita Electric Ind Co Ltd | Monitoring device and parameter setting method therefor |
JP2004280148A (en) * | 2003-03-12 | 2004-10-07 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for color model construction |
JP2005115932A (en) * | 2003-09-16 | 2005-04-28 | Matsushita Electric Works Ltd | Human body sensing device using image |
JP2006101384A (en) * | 2004-09-30 | 2006-04-13 | Nissan Motor Co Ltd | Human figure detecting apparatus and method |
JP2006172023A (en) * | 2004-12-14 | 2006-06-29 | Matsushita Electric Works Ltd | Human body detection device |
JP2006333146A (en) * | 2005-05-26 | 2006-12-07 | Matsushita Electric Works Ltd | Human body detector |
-
2006
- 2006-10-12 JP JP2006278972A patent/JP4760655B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03184028A (en) * | 1989-12-14 | 1991-08-12 | Konica Corp | Still video camera |
JPH0950585A (en) * | 1995-08-07 | 1997-02-18 | Hitachi Ltd | Intruder monitoring device |
JP2002312769A (en) * | 2001-04-16 | 2002-10-25 | Matsushita Electric Ind Co Ltd | Monitoring device and parameter setting method therefor |
JP2004280148A (en) * | 2003-03-12 | 2004-10-07 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for color model construction |
JP2005115932A (en) * | 2003-09-16 | 2005-04-28 | Matsushita Electric Works Ltd | Human body sensing device using image |
JP2006101384A (en) * | 2004-09-30 | 2006-04-13 | Nissan Motor Co Ltd | Human figure detecting apparatus and method |
JP2006172023A (en) * | 2004-12-14 | 2006-06-29 | Matsushita Electric Works Ltd | Human body detection device |
JP2006333146A (en) * | 2005-05-26 | 2006-12-07 | Matsushita Electric Works Ltd | Human body detector |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204860A (en) * | 2009-03-02 | 2010-09-16 | Hitachi Ltd | Video-monitoring system |
CN102906788A (en) * | 2010-05-21 | 2013-01-30 | 松下电器产业株式会社 | Traffic line creation device and traffic line creation method |
US8934671B2 (en) | 2010-05-21 | 2015-01-13 | Panasonic Corporation | Traffic line creation device and traffic line creation method |
JP2012174223A (en) * | 2011-02-24 | 2012-09-10 | Nippon Steel Corp | Person monitoring device, person monitoring method, and computer program |
US9965688B2 (en) | 2016-01-14 | 2018-05-08 | Canon Kabushiki Kaisha | Display apparatus, display method, and storage medium |
CN115451559A (en) * | 2022-09-26 | 2022-12-09 | 宁波奥克斯电气股份有限公司 | Air conditioner, control method and control device thereof, and readable storage medium |
CN115451559B (en) * | 2022-09-26 | 2023-07-04 | 宁波奥克斯电气股份有限公司 | Air conditioner, control method and control device thereof and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4760655B2 (en) | 2011-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6125188B2 (en) | Video processing method and apparatus | |
JP2633694B2 (en) | Person detection device | |
US20120087573A1 (en) | Eliminating Clutter in Video Using Depth Information | |
JP4760655B2 (en) | Human body detection device | |
JP2009187135A (en) | Vehicle periphery monitoring device, vehicle, program for monitoring vehicle periphery, and vehicle periphery monitoring method | |
TWI474173B (en) | Assistance system and assistance method | |
JP2004187298A5 (en) | ||
EP1933256A3 (en) | Eye closure recognition system and method | |
JP2010267055A (en) | Apparatus and method for detection of moving object, and computer program | |
US20130216099A1 (en) | Imaging system and imaging method | |
EP2555163A1 (en) | Image processing apparatus, image processing method, and program | |
Yu et al. | A shadow repair approach for kinect depth maps | |
JP2011087218A (en) | Loud speaker system | |
JP2019036213A (en) | Image processing device | |
JP2008185480A (en) | Human body detector | |
JP2008158790A (en) | Human body detecting device | |
JP2010140315A (en) | Object detection device | |
JP2002156464A5 (en) | ||
JP2008165595A (en) | Obstacle detection method, obstacle detection device, and obstacle detection system | |
JP2008077430A (en) | Mobile body counting device and mobile body counting method | |
KR101696086B1 (en) | Method and apparatus for extracting object region from sonar image | |
JP2008186283A (en) | Human body detector | |
JP2009245363A (en) | Behavior recognition system and method thereof | |
JP6735594B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP5679456B2 (en) | Human detection device, human detection method, and human detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100803 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101001 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |