JP5500559B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP5500559B2
JP5500559B2 JP2011518466A JP2011518466A JP5500559B2 JP 5500559 B2 JP5500559 B2 JP 5500559B2 JP 2011518466 A JP2011518466 A JP 2011518466A JP 2011518466 A JP2011518466 A JP 2011518466A JP 5500559 B2 JP5500559 B2 JP 5500559B2
Authority
JP
Japan
Prior art keywords
distance
distance image
image
occlusion
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011518466A
Other languages
English (en)
Other versions
JPWO2010140613A1 (ja
Inventor
弘宣 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chubu University Educational Foundation
Original Assignee
Chubu University Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chubu University Educational Foundation filed Critical Chubu University Educational Foundation
Priority to JP2011518466A priority Critical patent/JP5500559B2/ja
Publication of JPWO2010140613A1 publication Critical patent/JPWO2010140613A1/ja
Application granted granted Critical
Publication of JP5500559B2 publication Critical patent/JP5500559B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、入力画像から物体を検出する物体検出装置に関する。
近年、オフィスや家、公共施設などの空間において、その空間内の人の意図を理解し行動を支援する技術の実現が期待されている。このような人を観る技術を実現するためには、空間内のどこに人がいるかを知る必要があり、高精度な人検出の実現が課題となっている。
人検出は従来から盛んに研究されており、さまざまな手法が提案されている。従来の可視光カメラを用いた人検出手法は、局所特徴量とブースティングによる統計的学習からなる手法が多い。そして、局所特徴量として輝度の勾配方向をヒストグラム化した特徴量であるHOG(Histograms of Oriented Gradients)特徴量を用いた人検出方法が提案されている(例えば、非特許文献1参照)。
山内悠嗣,藤吉弘亘,Hwang Bon-Woo,金出武雄,"アピアランスと時空間特徴の共起に基づく人検出",画像の認識・理解シンポジウム(MIRU2007),pp.1492-1497,2007年
しかしながら、従来の輝度勾配特徴量を用いる人検出方法では、複雑な背景が多い場合には、人の形状を捉えることが困難となり、検出精度が低下する場合がある。また、人の重なりが多く、オクルージョンが発生する場合にも、人の形状を捉えることが困難となり、検出精度が低下する場合がある。さらに、可視光カメラを用いる従来の人検出方法では、画像中における人のサイズが未知であるため、対象の検出時に検出ウィンドウのスケールを変化させながら画像上を複数回にわたりラスタスキャンするため処理コストが高く、リアルタイム処理が困難であるという問題がある。
本発明は上記点に鑑み、入力画像から物体を検出する物体検出装置において、物体の検出精度を向上させることを目的とする。さらに、本発明は物体検出装置において物体の検出を高速化させることを他の目的とする。
上記目的を達成するため、本発明の請求項1に記載の発明では、被写体までの距離を表す距離情報を取得し、前記距離情報を各画素の情報とする距離画像を取得する距離画像取得手段と、前記距離画像中の所定領域に含まれる前記画素の距離情報を所定距離毎に分類して、距離ヒストグラムを作成する距離ヒストグラム作成手段と、前記距離画像中の位置が異なる2つの前記所定領域の前記距離ヒストグラムの類似度を特徴量として算出する特徴量算出手段と、確信度の高い学習用距離画像を正事例とし、確信度の低い学習用距離画像を負事例として、それらを識別するのに適した識別器を構築するとともに、前記識別器を用いて前記特徴量に基づいて前記距離画像から検出対象である物体を検出する識別手段とを備えている。
このように、距離画像を用い、局所領域間の距離関係を捉える距離ヒストグラム特徴量を用いることで、複雑な背景が多い場合であっても、検出対象と背景との境界を捉えることができ、物体の検出精度を向上させることができる。
また、請求項2に記載の発明は、前記識別手段は、前記所定領域に含まれる前記画素の距離情報が所定の閾値より近い距離を示すものである場合に、当該画素をオクルージョンと判定するオクルージョン判定手段と、前記所定領域中における前記オクルージョンと判定された前記画素の割合であるオクルージョン率を算出するオクルージョン率算出手段と、前記オクルージョン率を用いて前記識別器を構築する識別器構築手段とを備えることを特徴としている。
このように、距離画像の距離情報を用いることでオクルージョン領域を容易に抽出することができるため、オクルージョン領域を考慮した物体検出を行うことができる。これにより、物体の検出精度をより向上させることができる。
また、請求項3に記載の発明では、前記距離画像生成手段は、3次元空間における位置が固定されており、前記距離画像を含んだ全体距離画像を取得し、3次元空間でラスタスキャンを行うことで、前記全体距離画像から前記物体に対応した前記距離画像を取得することを特徴としている。
距離情報を有する距離画像を用いることで、3次元空間で距離に応じて検出対象の大きさを特定することができる。このため、3次元空間でラスタスキャンを行う場合には、物体の大きさに合わない距離画像を削除することができ、2次元空間でラスタスキャンを行う場合に比較して、物体の検出を高速化することができる。
また、請求項4に記載の発明では、前記識別手段は、TOFカメラであることを特徴としている。TOFカメラは、ステレオカメラのような画像間の対応計算が不要であるため、物体の検出を高速化させることができる。
本発明を適用した実施形態の人検出装置の概念図である。 距離画像上における検出ウィンドウのスキャン手順を示す説明図である。 距離ヒストグラムの算出手順を示す概念図である。 インテグラル・ヒストグラムを用いた距離ヒストグラムの算出手順を示す説明図である。 距離情報を用いた人検出の流れを示す説明図である。 リアル・アダブーストのアルゴリズムを示す説明図である。 人が重なり合っている入力距離画像を用いた場合の弱識別器の応答を示す説明図である。 ミーンシフト・クラスタリングによる検出ウィンドウの統合結果を示す説明図である。 距離ヒストグラム特徴量を用いた人検出装置による評価実験結果を示す説明図である。 距離ヒストグラム特徴量を用いた人検出装置による評価実験結果を示す説明図である。
以下、本発明の物体検出装置を適用した実施形態について説明する。本実施形態の物体検出装置は、各画素までの距離情報を有する距離画像を分析して、距離画像に含まれる物体を検出するものである。本実施形態では、物体検出装置を人を検出するための人検出装置として用いている。
図1は、本実施形態の人検出装置1の概念図である。図1に示すように、本実施形態の物体検出装置は、距離画像取得部10と演算処理部20を備えている。演算処理部20は、入力距離画像取得部21と距離ヒストグラム特徴量算出部22と識別部23とから構成されている。
距離画像取得部10は、距離画像を構成する各画素までの距離を検出可能なカメラやセンサ等の距離計測手段である。本実施形態では、距離画像取得部10としてTOF(Time
of Flight)カメラを用いている。本実施形態では、距離画像取得部10を3次元座標が固定された固定式カメラとして構成している。
TOFカメラは、カメラの周囲に付いたLEDより照射される赤外光が対象物に反射し、カメラで観測されるまでの時間を計測することにより、対象物までの距離を計測することができる。TOFカメラでは、取得した画像を構成する各画素の距離を測定することができる。TOFカメラにより生成された距離画像は、各画素がカメラからの距離に応じて異なる輝度で表される。TOFカメラは、ステレオカメラを用いた場合に比較して、カメラ較正やステレオマッチングによる画像間の対応計算が不要であるため、処理コストが低く、リアルタイム処理が可能となる。本実施形態では、TOFカメラとしてMESA社のSR−3000を用いている。SR−3000は、0.3m〜7.5m(分解能:3mにおいて22mm)までの距離情報をリアルタイムで取得することができる。
演算処理部20は、ROM、RAMなどのメモリと、CPUと、ハードディスクなどの記憶装置を備えた周知のパーソナルコンピュータを用いることができ、記憶装置に記憶したプログラムに従って各種演算処理を行うように構成されている。演算処理部20のCPUは、距離画像取得部10で取得した距離画像を入力画像として取り込み、その距離画像を用いて各種処理を実行し、人を検出するように構成されている。
本実施形態の演算処理部20は、TOFカメラより得られる距離情報を用いて人体と背景の距離関係を捉えることで入力距離画像から人を検出するように構成されている。そこで、本実施形態の演算処理部20では、入力距離画像取得部21により入力距離画像を取得し、距離ヒストグラム特徴量算出部22により入力距離画像中の2つの局所領域間の距離分布の類似度から距離ヒストグラム特徴量を算出し、識別部23により距離ヒストグラム特徴量を用いて入力距離画像から人を検出する。距離ヒストグラムは、入力距離画像の局所領域における各画素の距離情報を所定距離毎に分類して、出現する頻度をヒストグラム化したものである。また、距離ヒストグラム特徴量は、入力距離画像中の2つの局所領域から得られる距離ヒストグラムの類似度を特徴量としたものである。
図2は、入力距離画像取得部21による距離画像から検出ウィンドウを取得する手順を示す説明図である。図2では、yが高さ方向の距離、xが水平方向の距離、zが奥行き方向の距離を示している。本実施形態では、TOFカメラを高さ2.5mの位置に設置し、縦4m×横5m×奥行き7.5mの室内空間における全体距離画像を取得する。そして、室内空間全体に対応して広範囲に生成された全体距離画像から人の大きさに対応する検出ウィンドウを抽出する。識別部23は、各検出ウィンドウに人が存在するか否かを識別する。本実施形態では、TOFカメラで取得した全体距離画像からラスタスキャンによって検出ウィンドウを抽出する。
図2に示す例では、yw=0とした地面上で、所定の大きさの検出ウィンドウをTOFカメラからの距離zwを変化させながら、xw方向にラスタスキャンを繰り返すことにより、3次元実空間の地面上をラスタスキャンする。本実施形態では、検出対象である人体の大きさに対応して、検出ウィンドウを横0.6m×縦1.8mとしている。3次元実空間中のラスタスキャンにより得られる検出ウィンドウの3次元座標は、数式1を用いて座標空間[u,v]Tに投影することができる。
Figure 0005500559
ここで、行列Pは透視投影行列であり、カメラキャリブレーションにより得られた内部パラメータAと、外部パラメータである回転行列Rと平行移動ベクトルTから算出される。TOFカメラは、画像座標(u,v)と、対応する4m×5m×7.5mの空間内における世界座標(xw,yw,zw)を取得することができるため、容易にカメラキャリブレーションを行うことが可能である。そして、投影された座標空間における各検出ウィンドウを入力距離画像として距離ヒストグラムを算出する。
図3は、距離ヒストグラム算出部22による距離ヒストグラムの算出手順を示す概念図である。本実施形態では、入力距離画像を128ピクセル(縦方向)×64ピクセル(横方向)としており、この入力距離画像を8ピクセル×8ピクセルのセルに分割する。入力距離画像は16セル×8セルに分割される。
次に、入力距離画像から距離ヒストグラム特徴量の算出対象となる2つの局所領域を選択する。本実施形態では、距離ヒストグラムを算出する際に正規化を行うため、大きさの異なる領域同士の距離ヒストグラムの類似度を算出することが可能となる。距離ヒストグラムの類似度の算出対象となる領域サイズを変化させることで、人の肩や頭部にような1つのセルでは表現できないような領域における距離関係を捉えることが可能となる。この領域は、1以上のセルから構成され、本実施形態では矩形領域としている。1×1セルから8×8セルまでセル単位で変化させることにより、16セル×8セルの入力距離画像には492個の矩形領域が存在するので、1つの入力距離画像から120,786個の矩形領域の組合せ(距離ヒストグラム特徴量の候補)が得られる。
次に、選択した各領域に含まれる各画素の距離情報から距離ヒストグラムを算出する。上述のように、距離ヒストグラムは、各画素の距離情報を所定距離毎に分類して、出現する頻度をヒストグラム化したものである。例えば、1セルには64ピクセルそれぞれに距離情報が存在するので、1セルに対応する距離ヒストグラムは64個の距離情報から構成される。
図4は、インテグラル・ヒストグラム(Integral Histogram)を用いた距離ヒストグラムの算出手順を示す説明図である。本実施形態では、距離ヒストグラムの計算コストを抑えるために、インテグラル・ヒストグラム(Integral Histogram)を用いて高速に距離ヒストグラムを算出している。インテグラル・ヒストグラムについては、「F.Porikli, "Integral Histogram: A Fast Way to Extract Histograms in Cartesian Spaces", IEEE Computer Visio and Pattern Recognition, pp. 829-836, (2005)」を参照のこと。
図4に示すように、まず、距離画像を構成する各画素の距離情報を所定間隔で量子化する。これにより、所定間隔より小さい単位の距離情報が所定間隔毎にまとめられる。「所定間隔」は、検出対象の大きさによって任意に設定することができ、人体を検出対象としている本実施形態では、「所定間隔」を0.3mに設定している。本実施形態では、0m〜7.5mを0.3m間隔とするため、0.3m単位(0.3m,0.6m,0.9m,・・・,7.5m)の25個のビン(区切り)からなる距離ヒストグラムを算出することとなる。
次に、n番目のビンに対応する量子化画像inを25個作成し、下記数式2を用いて各量子化画像in(u,v)から積分画像iin(u,v)を算出する。
Figure 0005500559
ここで、sn(u,v)は、ビンnにおける行の画素の総数、iin(u,v)は列のsnの総和を表わしている。ただし、sn(u,−1)=0,iin(−1,v)=0とする。図4の積分画像の「D」の領域から距離ヒストグラムのn番目のビンDnを算出するには、n番目の積分画像iinから下記数式3により4点から和を求めればよい。
Figure 0005500559
以上のように、インテグラル・ヒストグラムを用いて距離ヒストグラムを算出することにより、領域の大きさに関係なく距離ヒストグラムのn番目のビンの値を高速に算出することが可能となる。
次に、各領域の距離ヒストグラムを、それぞれの距離ヒストグラムにおける各ビンの頻度の合計が「1」となるように正規化する。正規化距離ヒストグラムを得るためには、距離ヒストグラムの各ビンの頻度を対象領域に含まれるピクセル数で除算すればよい。
次に、算出された25個のビンから成る2つの正規化距離ヒストグラムp、q の各ビンをpn、qnとし、2つの領域の正規化距離ヒストグラムの類似度Sを算出する。本実施形態では、数式4に示すバタッチャリア(Bhattacharyya)距離による類似度Sを算出している。なお、バタッチャリア(Bhattacharyya)距離については、「A. Bhattacharyya, "On a Measure of Divergence between Two Statistical Population Defined by Probability Distributions", Bull. Calcutta Math. Soc., vol.35, pp.99-109, (1943)」を参照のこと。
Figure 0005500559
数式4で算出される類似度Sを距離ヒストグラム特徴量とする。この数式4による任意のセルの距離ヒストグラムの類似度Sの算出を、全ての矩形領域の組み合わせに対して行うことにより、距離ヒストグラム特徴量ベクトルを算出する。距離ヒストグラム特徴量は、異なる領域の類似度から得られる特徴量であるため、カメラからの距離に依存しない2つの領域の相対的な距離関係を表現する特徴量となる。
図5は、識別部23による距離情報を用いた人検出の流れを示す説明図である。図5に示すように、識別部23によって、距離ヒストグラム特徴量を用いて入力距離画像に人が含まれているか否かを判定する。本実施形態の識別部23は、周知のリアル・アダブースト(Real AdaBoost)によるカスケード型の識別器として構成されている。
図6は、リアル・アダブーストのアルゴリズムを示す説明図である。リアル・アダブーストによって構築される識別器は、識別関数が誤認識を起こしたデータを重視して再学習を行う。この処理をT回反復した後、生成された識別器群の識別関数のアンサンブルによって最終的な識別関数を生成する。
リアル・アダブーストの識別器は、弱識別器のすべての判別結果(検出対象画像であれば「1」、非検出対象画像であれば「0」)が結合機に供給され、結合機はすべての判別結果に対して、対応する弱識別器毎に学習時に算出された信頼度を重み付け加算し、その重み付き多数決の結果を出力し、結合機の出力値を評価することで入力された画像が検出対象か否かを判定するものである。識別器をカスケード型に構築することによって、検出対象の検出率を低下させることなく、誤検出率を抑制することができる
識別部23の学習には、学習用サンプル(学習用距離画像)が用いられる。学習用サンプルは、検出対象画像(人の画像)であるポジティブクラスと非検出対象画像(人以外の画像)のネガティブクラスからなる。ポジティブクラスは、検出対象である確信度が高い正事例であり、ネガティブクラスは、検出対象である確信度が低い負事例である。リアル・アダブーストでは、ポジティブクラスの特徴量とネガティブクラスの特徴量の各次元の確率密度から分離度を求め、ポジティブクラスとネガティブクラスを最も分離できる特徴量を弱識別器として選択する。このとき分離度を評価値とするため、実数による識別結果の出力が可能である。
特徴量xを入力としたリアル・アダブーストの弱識別器の出力h(x)を得るために、ポジティブクラスの特徴量の確率密度分布W+とネガティブクラスの特徴量の確率密度分布W−を作成する(図6の3.1)。確率密度分布W±は、1次元のヒストグラムにより表現され、学習サンプルの重みDtに基づいて作成される。N番目の学習サンプルから特徴量を算出し、特徴量の値に対応する1次元ヒストグラムのビンの番号jへ学習サンプルの重みDt(i)を加算することで、確率密度分布W±を作成することができる。リアル・アダブーストの弱識別器の出力ht(x)を、確率密度分布W±を用いて算出する(図6の3.2)。ここで、εは分母がゼロになることを防ぐための計数である。さらに、確率密度分布W±を用いて弱識別器選択のための評価値Zmを算出する(図6の3.3)。
そして、M個の弱識別器から評価値Zmが最も小さい弱識別器を選択し(図6の4)、学習サンプルの重みDt(i)を更新し(図6の5)、学習サンプルの重みDt(i)を正規化する(図6の6)。学習により選択された弱識別器をht(x)とすると、構築される最終識別器は、下記数式5となる。
Figure 0005500559
本実施形態の識別部23は、オクルージョンを考慮して最終識別器を構築するようにしている。つまり、複数の人が重なるような混雑したシーンにおいては、対象とする人領域にオクルージョンが発生する場合がある。オクルージョン領域から抽出される距離情報は、弱識別器の誤った応答を出力する原因となる。したがって、このようなオクルージョン領域を捉える弱識別器の出力は、そのまま最終識別器に統合しないようにする。本実施形態では、検出ウィンドウを3次元実空間においてラスタスキャンするため、ウィンドウの世界座標が既知である。そこで、TOFカメラから得られる距離情報と比較することで、カメラに対して検出ウィンドウより手前に存在する物体領域をオクルージョンとして判別し、人の識別に利用する。
3次元実空間におけるラスタスキャン時の検出ウィンドウの距離zwを用いて、オクルージョン判定の閾値を決定する。本実施形態では、オクルージョン判定の閾値を「zw−0.3m」としている。つまり、検出ウィンドウの距離zwの0.3m手前の位置を閾値として、それより近い場合にオクルージョンと判定する。検出ウィンドウ内の各画素を(u,v)、そのデプスマップをd(u,v)とすると、各座標におけるオクルージョンラベルO(u,v)は、下記数式6で表わされる。
Figure 0005500559
図5における左から2番目に示す検出ウィンドウでは、オクルージョン領域を黒色で示している。
t番目の弱識別器ht(x)の対象とする矩形領域Bt内に存在するオクルージョン領域の割合をオクルージョン率ORtとし、下記数式7により求める。
Figure 0005500559
数式7で算出されたオクルージョン率ORtを用いてオクルージョン領域を考慮した最終識別器H’(x)は下記数式8で表わされる。
Figure 0005500559
矩形領域Bt内のオクルージョン領域の割合が100%の場合(完全に重なっている場合)には、(1−ORt)=0となり、当該弱識別器の識別結果は用いられない。矩形領域Bt内のオクルージョン領域の割合が0%の場合(完全に重なっていない場合)には、(1−ORt)=1となり、当該弱識別器の識別結果は用いられる。また、矩形領域Bt内のオクルージョン領域の割合が0%より大きく100%未満の場合(一部重なっている場合)には、0<(1−ORt)<1となり、当該弱識別器の識別結果は一部用いられる。
図7は、人が重なり合っている入力距離画像を用いた場合の弱識別器の応答を示し、(a)はオクルージョン領域を考慮しない場合を示し、(b)はオクルージョン領域を考慮した場合を示している。図7(a)は数式5に示すオクルージョン領域を考慮しない弱識別器を用いた例を示し、図7(b)は数式8に示すオクルージョン領域を考慮した弱識別器を用いた例を示している。図7(a)、図7(b)は、500個の弱識別器を用いた例を示し、各弱識別器の応答は「+1(人)」〜「−1(人以外)」の範囲となる。そして、各弱識別器の応答の合計値が最終識別器の応答となる。
図7(a)に示す例では、最終識別器の応答が「−0.27」であった。つまり、オクルージョン領域を考慮しない最終識別器により識別を行った場合には、多くの弱識別器の出力がマイナス(人以外と識別)となり、結果として人以外と誤識別されることとなる。また、図7(b)に示す例では、最終識別器の応答が「+15.15」であった。つまり、オクルージョン領域を考慮した最終識別器により識別を行った場合には、図7(a)でマイナス(人以外と識別)となった各弱識別器の応答の一部または全部が用いられないため、人として正しく識別されることとなる。
本実施形態の識別部23は、3次元実空間におけるミーンシフト(Mean-Shift)・クラスタリングにより、人と識別された検出ウィンドウを統合し、全体距離画像における人領域を決定するように構成されている。
3次元ミーンシフト・クラスタリングは、下記数式9によりミーンシフト・ベクターm(x)を算出する。ここで、xは移動している検出ウィンドウの中心座標、xiは各データの3次元座標を表す。kはカーネル関数、hはバンド幅であり、本実施形態では0.3mとしている。
Figure 0005500559
図8は、ミーンシフト(Mean-Shift)・クラスタリングによる検出ウィンドウの統合結果を示す説明図である。図8は、上段が画像空間における2次元ミーンシフト・クラスタリングにより検出ウィンドウの統合を示し、下段が3次元空間における3次元ミーンシフト・クラスタリングにより検出ウィンドウの統合を示している。
本発明者は、「背景技術」の欄で記載した非特許文献1において、従来の可視光カメラによる人検出で、人と識別された検出ウィンドウをミーンシフト(Mean-Shift)・クラスタリングにより結合して検出結果とすることを提案している。しかしながら、図8の上段に示すように、画像空間におけるミーンシフト・クラスタリングでは、全体距離画像中に5人存在するにもかかわらず、検出ウィンドウが3つの領域に統合されている。つまり、画像空間におけるミーンシフト・クラスタリングでは、人の重なりのある場合に検出ウィンドウが誤って統合されてしまう可能性がある。
これに対し、本実施形態では、3次元実空間におけるミーンシフト・クラスタリングを行う。図8の下段に示すように、3次元実空間におけるミーンシフト・クラスタリングでは、全体距離画像中に5人存在する場合に、検出ウィンドウが5つの領域に統合されている。つまり、3次元実空間におけるミーンシフト・クラスタリングでは、人の重なりのある場合でも距離情報によりクラスタを分離することが可能であるため、検出ウィンドウの誤った統合を抑制することができる。
次に、本実施形態の人検出装置1を用いた評価実験結果について説明する。評価実験では、屋内にTOFカメラを2.5mの高さに設置し、人の歩行シーンと複数の人が重なり合うシーンを対象とした。学習用距離画像として、撮影した屋内のシーケンス画像から切り出した学習用ポジティブサンプル1364枚、学習用ネガティブサンプル10000枚を用いた。また、学習用とは別に作成した評価用ポジティブサンプル2206枚、評価用ネガティブサンプル8100枚を用いた。TOFカメラによる屋内の撮影は、奥行きが最長7.5mとなるため、複数の人の全身を撮影することが困難である。このため、評価実験では人の上半身(全身の上部60%)を検出対象とした。
図9は、本実施形態の人検出装置1による評価実験結果を示している。図9では、本実施形態の人検出装置1において、矩形領域サイズを可変にした場合と、可変にしない場合の双方の評価実験結果を示している。さらに、比較のために、距離画像のHOG特徴量(輝度勾配特徴量)を用いた人検出方法による評価実験結果と、距離ヒストグラム特徴量とHOG特徴量を組み合わせて用いた人検出方法による評価実験結果を示している。
図9では、実験結果の比較にROC(Receiver Operating Characteristic)カーブを用いている。ROCカーブとは、横軸に誤検出率、縦軸に検出率を示したものである。識別器の閾値を変化させることによって、誤検出率に対する検出率の比較を行うことができる。図9における左上に近いほど、検出率が高く、かつ、誤検出率が低くなり、検出性能が高いことを示す。
図9に示すように、距離ヒストグラム特徴量(矩形領域サイズの可変なし)を用いた場合には、誤検出率5.0%において検出率96.8%であり、距離画像のHOG特徴量を用いた場合より2.8%識別率が向上している。これにより、距離ヒストグラム特徴量を用いることで、検出対象と背景との境界を捉えることができるので、輝度勾配特徴量を用いる場合より、人の検出精度を向上させることができている。
また、距離ヒストグラム特徴量(矩形領域サイズの可変あり)を用いた場合には、誤検出率5.0%において検出率98.9%であり、距離ヒストグラム特徴量(矩形領域サイズの可変なし)を用いた場合より2.1%識別率が向上している。これにより、距離ヒストグラムの類似度の算出対象となる局所領域サイズを可変にすることで、人の肩や頭部にような1つのセルでは表現できないような領域における距離関係を捉えることが可能となるため、人の検出精度を向上させることができている。
さらに、HOG特徴量と距離ヒストグラム特徴量(矩形領域サイズの可変あり)を組み合わせて用いた場合には、距離ヒストグラム特徴量(矩形領域サイズの可変あり)のみを用いた場合と、同様の識別結果となっている。
図10は、本実施形態の人検出装置1において、オクルージョン対応ありとなしの評価実験結果を示している。図10に示す評価実験では、HOG特徴量と距離ヒストグラム特徴量を組み合わせた人検出方法においても、オクルージョン対応ありとなしの場合の評価実験を行った。図10においても図9と同様、ROCカーブを用いている。
図10に示すように、距離ヒストグラム特徴量(オクルージョン対応あり)を用いた場合では、誤検出率5.0%において、検出率96.9%であり、距離ヒストグラム特徴量(オクルージョン対応なし)を用いた場合より3%識別率が向上している。同様に、HOG特徴量と距離ヒストグラム特徴量(オクルージョン対応あり)を組み合わせて用いた場合では、誤検出率5.0%において、検出率96.4%であり、HOG特徴量と距離ヒストグラム特徴量(オクルージョン対応なし)を組み合わせて用いた場合より2.3%識別率が向上している。このように、オクルージョン率を用いて識別に有効な弱識別器に重み付けし、最終識別器の出力を求めることにより、オクルージョン領域の影響を抑えることができる。
次に、本実施形態の距離ヒストグラム特徴量を用いた人検出での特徴量の選択特性について説明する。HOG特徴量を用いた人検出では、人の頭部や肩のエッジが選択されることから、人の輪郭線を捉えるように特徴量が選択されている。これに対し、リアル・アダブースト識別器の初期の学習において選択された特徴量は、人の領域と背景領域の組合せが多く選択されており、人と背景の境界線を捉えている。さらに、距離ヒストグラム特徴量(矩形領域サイズの可変あり)では、人と背景の境界線を任意のサイズで捉えるように領域が選択されている。これは、人の輪郭線領域の距離関係を捉えることで大まかな人の形状を捉えていると考えられる。
次に、本実施形態の人検出装置1の処理時間について説明する。2次元空間で検出ウィンドウをラスタスキャンする場合には、画像中における人の大きさが未知であるため、検出ウィンドウの大きさを変化させながら画像上を複数回にわたってラスタスキャンする必要がある。このため、検出ウィンドウ数が多くなり、処理コストが高く、リアルタイム処理が困難である。これに対し、本実施形態では、3次元実空間での検出ウィンドウのラスタスキャンを行っている。3次元ラスタスキャンでは、画像中における人の大きさをカメラからの距離に応じて規定できるため、人の大きさに合わない検出ウィンドウを削除することができ、検出ウィンドウ数を少なくすることができる。このため、3次元ラスタスキャンでは、2次元ラスタスキャンに比較して検出ウィンドウ数を大幅に減少させることができる。
本実施形態の人検出装置1では、インテル社製のCPU(Xeon:3.00GHz)を用いた場合の1フレーム(検出ウィンドウ361個)の処理時間が、特徴量算出に要する時間が24.31ms(検出ウィンドウ1個あたり0.067ms)、識別に要する時間が45.34ms(検出ウィンドウ1個あたり0.125ms)、検出ウィンドウの統合に要する時間が31.97msとなっている。このため、本実施形態の人検出装置1では、1フレームあたり約100msで処理を行うことが可能となり、約10fpsでリアルタイム処理を行うことが可能となる。
(他の実施形態)
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、各請求項に記載した範囲を逸脱しない限り、各請求項の記載文言に限定されず、当業者がそれらから容易に置き換えられる範囲にも及び、かつ、当業者が通常有する知識に基づく改良を適宜付加することができる。
例えば、上記各実施形態では、物体検出装置の検出対象の物体を人としたが、これに限らず、動物や自動車などの人以外の物体を検出対象としてもよい。さらに、物体検出装置の検出対象は必ずしも物体全体である必要はなく、例えば人の顔のように物体の一部であってもよい。
また、上記実施形態では、距離画像取得部10としてTOFカメラを用いたが、これに限らず、距離画像取得部10は取得した画像中の各画素のカメラまでの距離が計測できればよく、例えばステレオカメラを用いることもできる。
また、上記実施形態では、距離画像取得部10として固定式カメラを用いた例について説明したが、これに限らず、本発明は3次元空間でのラスタスキャンを除いて距離画像取得部10として移動式カメラを用いる場合にも適用可能である。
また、上記実施形態では、識別部23をリアル・アダブーストによる識別器で構成したが、これに限らず、公知のSVM(サポートベクターマシーン)やニューラルネットワークを用いて識別部23を構成してもよい。
また、上記実施形態では、選択した2つの領域の距離ヒストグラムの類似度をバタッチャリア(Bhattacharyya)距離を用いて算出したが、これに限らず、他の手法によって距離ヒストグラムの類似度を算出してもよい。
また、上記実施形態では、距離画像中の矩形領域を用いて距離ヒストグラム特徴量を算出したが、これに限らず、距離画像中の任意の形状の領域を用いて距離ヒストグラム特徴量を算出することができる。
1…人検出装置、10…距離情報取得部、20…演算処理部、21…入力画像取得部、22…距離ヒストグラム算出部、23…識別部。

Claims (4)

  1. 被写体までの距離を表す距離情報を取得し、前記距離情報を各画素の情報とする距離画像を取得する距離画像取得手段と、
    前記距離画像中の所定領域に含まれる前記画素の距離情報を所定距離毎に分類して、距離ヒストグラムを作成する距離ヒストグラム作成手段と、
    前記距離画像中の位置が異なる2つの前記所定領域の前記距離ヒストグラムの類似度を特徴量として算出する特徴量算出手段と、
    確信度の高い学習用距離画像を正事例とし、確信度の低い学習用距離画像を負事例として、それらを識別するのに適した識別器を構築するとともに、前記識別器を用いて前記特徴量に基づいて前記距離画像から検出対象である物体を検出する識別手段とを備えることを特徴とする物体検出装置。
  2. 前記識別手段は、
    前記所定領域に含まれる前記画素の距離情報が所定の閾値より近い距離を示すものである場合に、当該画素をオクルージョンと判定するオクルージョン判定手段と、
    前記所定領域中における前記オクルージョンと判定された前記画素の割合であるオクルージョン率を算出するオクルージョン率算出手段と、
    前記オクルージョン率を用いて前記識別器を構築する識別器構築手段とを備えることを特徴とする請求項1に記載の物体検出装置。
  3. 前記距離画像生成手段は、3次元空間における位置が固定されており、前記距離画像を含んだ全体距離画像を取得し、3次元空間でラスタスキャンを行うことで、前記全体距離画像から前記物体に対応した前記距離画像を取得することを特徴とする請求項1または2に記載に物体検出装置。
  4. 前記識別手段は、TOFカメラであることを特徴とする請求項1ないし3のいずれか1つに記載の物体検出装置。
JP2011518466A 2009-06-03 2010-06-02 物体検出装置 Expired - Fee Related JP5500559B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011518466A JP5500559B2 (ja) 2009-06-03 2010-06-02 物体検出装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009133698 2009-06-03
JP2009133698 2009-06-03
PCT/JP2010/059326 WO2010140613A1 (ja) 2009-06-03 2010-06-02 物体検出装置
JP2011518466A JP5500559B2 (ja) 2009-06-03 2010-06-02 物体検出装置

Publications (2)

Publication Number Publication Date
JPWO2010140613A1 JPWO2010140613A1 (ja) 2012-11-22
JP5500559B2 true JP5500559B2 (ja) 2014-05-21

Family

ID=43297746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011518466A Expired - Fee Related JP5500559B2 (ja) 2009-06-03 2010-06-02 物体検出装置

Country Status (4)

Country Link
US (1) US8611604B2 (ja)
JP (1) JP5500559B2 (ja)
CN (1) CN102803991B (ja)
WO (1) WO2010140613A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339405B2 (en) 2015-12-08 2019-07-02 Panasonic Intellectual Property Management Co., Ltd. Image recognition device and image recognition method

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5441670B2 (ja) * 2009-12-22 2014-03-12 キヤノン株式会社 画像処理装置及びその制御方法
JP5441669B2 (ja) * 2009-12-22 2014-03-12 キヤノン株式会社 画像処理装置及びその制御方法
KR101298024B1 (ko) * 2010-09-17 2013-08-26 엘지디스플레이 주식회사 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
KR101298023B1 (ko) * 2010-09-17 2013-08-26 엘지디스플레이 주식회사 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
KR101326230B1 (ko) * 2010-09-17 2013-11-20 한국과학기술원 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
EP2639761B1 (en) * 2010-11-10 2019-05-08 Panasonic Intellectual Property Management Co., Ltd. Depth information generator, depth information generation method, and stereoscopic image converter
WO2012084277A1 (en) * 2010-12-22 2012-06-28 Thomson Licensing Apparatus and method for determining a disparity estimate
KR101789071B1 (ko) * 2011-01-13 2017-10-24 삼성전자주식회사 깊이 영상의 특징 추출 방법 및 장치
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
JP5821457B2 (ja) * 2011-09-20 2015-11-24 ソニー株式会社 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
US9817017B2 (en) * 2011-10-17 2017-11-14 Atlas5D, Inc. Method and apparatus for monitoring individuals while protecting their privacy
US9974466B2 (en) 2011-10-17 2018-05-22 Atlas5D, Inc. Method and apparatus for detecting change in health status
WO2013058978A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
US8553942B2 (en) * 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US9557836B2 (en) * 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
JP5743859B2 (ja) * 2011-11-14 2015-07-01 株式会社東芝 画像処理装置、方法、及び画像表示装置
US9024970B2 (en) 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
JP5950296B2 (ja) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
KR20130098675A (ko) * 2012-02-28 2013-09-05 삼성전자주식회사 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치
JP5946294B2 (ja) * 2012-03-02 2016-07-06 ヤマハ発動機株式会社 対象物検出装置、対象物検出方法、対象物検出プログラムおよび自動走行車両
JP5824413B2 (ja) * 2012-05-23 2015-11-25 日本電信電話株式会社 物体領域推定装置、物体領域推定方法及び物体領域推定プログラム
EP2706503A3 (en) * 2012-09-11 2017-08-30 Thomson Licensing Method and apparatus for bilayer image segmentation
KR101901184B1 (ko) * 2012-09-20 2018-09-21 삼성전자주식회사 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
KR101717729B1 (ko) * 2012-12-17 2017-03-17 한국전자통신연구원 영상에서의 휴먼 인지 장치 및 방법
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
JP6064674B2 (ja) * 2013-02-28 2017-01-25 株式会社デンソー 物体認識装置
CN105164549B (zh) 2013-03-15 2019-07-02 优步技术公司 用于机器人的多传感立体视觉的方法、***和设备
US9443136B2 (en) * 2013-04-12 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts from user image
CN104102895B (zh) * 2013-04-12 2019-10-25 北京三星通信技术研究有限公司 用于检测被拍摄用户的身体部位的设备和方法
US9639748B2 (en) * 2013-05-20 2017-05-02 Mitsubishi Electric Research Laboratories, Inc. Method for detecting persons using 1D depths and 2D texture
US9558563B1 (en) * 2013-09-25 2017-01-31 Amazon Technologies, Inc. Determining time-of-fight measurement parameters
JP6239334B2 (ja) * 2013-10-01 2017-11-29 スタンレー電気株式会社 対象物画像抽出装置及び対象物画像抽出方法
US10311595B2 (en) * 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
US9600993B2 (en) 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
US9430701B2 (en) 2014-02-07 2016-08-30 Tata Consultancy Services Limited Object detection system and method
KR102194930B1 (ko) * 2014-06-26 2020-12-24 엘지전자 주식회사 무선 통신 시스템에서 고주파 대역 통신을 위한 프리코딩 행렬 인덱스 보고 방법 및 이를 위한 장치
GB2529888B (en) * 2014-09-05 2020-09-23 Apical Ltd A method of image analysis
CN104202533B (zh) * 2014-09-24 2019-05-21 中磊电子(苏州)有限公司 移动检测装置及移动检测方法
JP6494253B2 (ja) * 2014-11-17 2019-04-03 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US9674415B2 (en) * 2014-12-22 2017-06-06 Google Inc. Time-of-flight camera system with scanning illuminator
US10277888B2 (en) * 2015-01-16 2019-04-30 Qualcomm Incorporated Depth triggered event feature
CN104657993B (zh) * 2015-02-12 2018-04-17 北京格灵深瞳信息技术有限公司 一种镜头遮挡检测方法及装置
CN104680145B (zh) * 2015-03-06 2018-03-09 北京格灵深瞳信息技术有限公司 一种门的开关状态变化检测方法及装置
US10013756B2 (en) 2015-03-13 2018-07-03 Atlas5D, Inc. Methods and systems for measuring use of an assistive device for ambulation
WO2017021781A1 (en) * 2015-08-03 2017-02-09 Tom Tom Global Content B.V. Methods and systems for generating and using localisation reference data
CN105335722B (zh) * 2015-10-30 2021-02-02 商汤集团有限公司 一种基于深度图像信息的检测***及方法
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
US9805274B2 (en) * 2016-02-03 2017-10-31 Honda Motor Co., Ltd. Partially occluded object detection using context and depth ordering
DE102016201741A1 (de) * 2016-02-04 2017-08-10 Hella Kgaa Hueck & Co. Verfahren zur Höhenerkennung
JP6721998B2 (ja) 2016-02-23 2020-07-15 村田機械株式会社 物体状態特定方法、物体状態特定装置、および、搬送車
JP6649796B2 (ja) 2016-02-23 2020-02-19 村田機械株式会社 物体状態特定方法、物体状態特定装置、および、搬送車
US10077007B2 (en) * 2016-03-14 2018-09-18 Uber Technologies, Inc. Sidepod stereo camera system for an autonomous vehicle
SE541141C2 (en) * 2016-04-18 2019-04-16 Moonlightning Ind Ab Focus pulling with a stereo vision camera system
KR101788269B1 (ko) * 2016-04-22 2017-10-19 주식회사 에스원 이상 상황을 감지하는 장치 및 방법
CN105976392B (zh) * 2016-05-30 2018-12-14 北京智芯原动科技有限公司 基于最大输出概率的车辆轮胎检测方法及装置
WO2018026838A1 (en) 2016-08-02 2018-02-08 Atlas5D, Inc. Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy
US10528122B2 (en) * 2016-09-30 2020-01-07 Intel Corporation Gesture experiences in multi-user environments
WO2018075053A1 (en) * 2016-10-21 2018-04-26 Siemens Aktiengesellschaft Object pose based on matching 2.5d depth information to 3d information
JP2018092489A (ja) 2016-12-06 2018-06-14 オムロン株式会社 分類装置、分類方法およびプログラム
US10417781B1 (en) 2016-12-30 2019-09-17 X Development Llc Automated data capture
WO2018182053A1 (ko) * 2017-03-27 2018-10-04 스노우 주식회사 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치
EP3388864A1 (en) * 2017-04-10 2018-10-17 Bea S.A. Method of human body recognition and human body recognition sensor
CN107480585B (zh) * 2017-07-06 2020-10-30 西安电子科技大学 基于dpm算法的目标检测方法
EP3460508A1 (en) * 2017-09-22 2019-03-27 ams AG Semiconductor body and method for a time-of-flight measurement
CN109697444B (zh) * 2017-10-20 2021-04-13 ***通信有限公司研究院 基于深度图像的对象识别方法及装置、设备、存储介质
US11003916B2 (en) 2017-11-03 2021-05-11 Toyota Research Institute, Inc. Systems and methods for object historical association
US10967862B2 (en) 2017-11-07 2021-04-06 Uatc, Llc Road anomaly detection for autonomous vehicle
KR20190054454A (ko) 2017-11-13 2019-05-22 삼성전자주식회사 인공 신경망의 양자화 방법 및 장치
JP6954812B2 (ja) * 2017-11-24 2021-10-27 トヨタ自動車株式会社 物体認識装置
JP6857147B2 (ja) * 2018-03-15 2021-04-14 株式会社日立製作所 三次元画像処理装置、及び三次元画像処理方法
JP7147292B2 (ja) * 2018-06-29 2022-10-05 株式会社デンソー 勾配方向算出装置
CN109635723B (zh) * 2018-12-11 2021-02-09 讯飞智元信息科技有限公司 一种遮挡检测方法及装置
US10818028B2 (en) * 2018-12-17 2020-10-27 Microsoft Technology Licensing, Llc Detecting objects in crowds using geometric context
CN111382592B (zh) * 2018-12-27 2023-09-29 杭州海康威视数字技术股份有限公司 活体检测方法和设备
JP7233261B2 (ja) * 2019-03-13 2023-03-06 キヤノン株式会社 3次元測量装置、撮像装置、制御方法及びプログラム
TWI703863B (zh) * 2019-06-13 2020-09-01 瑞昱半導體股份有限公司 視頻品質偵測方法與影像處理電路
CN112118439B (zh) * 2019-06-20 2024-01-23 瑞昱半导体股份有限公司 视频品质检测方法与影像处理电路
JP7382038B2 (ja) 2019-11-28 2023-11-16 国立研究開発法人宇宙航空研究開発機構 情報処理システム、情報処理装置、情報処理方法、及びプログラム
KR20210069984A (ko) * 2019-12-04 2021-06-14 삼성전자주식회사 전자 장치 및 그 제어 방법
CN113449553A (zh) * 2020-03-25 2021-09-28 阿里巴巴集团控股有限公司 一种图像检测方法及装置
EP4102256A1 (en) * 2021-06-11 2022-12-14 Infineon Technologies AG Sensor devices, electronic devices, method for performing object detection by a sensor device and method for performing object detection by an electronic device
CN114061757B (zh) * 2021-10-18 2024-03-05 浙江新图维电子科技有限公司 一种电力设备箱低功耗红外测温ai识别监控***
WO2024018746A1 (ja) * 2022-07-20 2024-01-25 株式会社Nttドコモ 識別器生成支援装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242934A (ja) * 2000-02-28 2001-09-07 Honda Motor Co Ltd 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
JP2006350645A (ja) * 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd 対象物検出装置及びその学習装置
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2008116309A (ja) * 2006-11-02 2008-05-22 Fujifilm Corp 距離画像生成方法及びその装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675377A (en) * 1995-06-30 1997-10-07 Telefonaktiebolaget Lm Ericsson True three-dimensional imaging and display system
JP3336200B2 (ja) * 1995-12-12 2002-10-21 シャープ株式会社 要素ホログラムパネルを有する3次元像表示装置
US6405929B1 (en) * 1998-05-29 2002-06-18 Hand Held Products, Inc. Material detection systems for security documents
GB2349493B (en) * 1999-04-29 2002-10-30 Mitsubishi Electric Inf Tech Method of representing an object using shape
US6539055B1 (en) * 1999-12-03 2003-03-25 Intel Corporation Scene change detector for video data
US6603580B1 (en) * 1999-12-10 2003-08-05 Xerox Corporation Scanner having a variable object plane
US6970164B1 (en) * 2000-12-18 2005-11-29 Microsoft Corporation Determining regions that are occluded from an observation point
US7031512B2 (en) * 2002-04-18 2006-04-18 Stmicroelectronics, Inc. Method and system for 3D smoothing within the bound of error regions of matching curves
US7489812B2 (en) * 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
KR100513732B1 (ko) * 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
US7301537B2 (en) * 2002-12-20 2007-11-27 Telefonaktiebolaget Lm Ericsson (Publ) Graphics processing apparatus, methods and computer program products using minimum-depth occlusion culling and zig-zag traversal
US7587064B2 (en) * 2004-02-03 2009-09-08 Hrl Laboratories, Llc Active learning system for object fingerprinting
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
US8116548B2 (en) * 2008-06-04 2012-02-14 Siemens Aktiengesellschaft Method and system for detecting 3D anatomical structures using constrained marginal space learning
JP4997178B2 (ja) 2008-06-10 2012-08-08 学校法人中部大学 物体検出装置
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
US8385599B2 (en) * 2008-10-10 2013-02-26 Sri International System and method of detecting objects
US8370282B1 (en) * 2009-07-22 2013-02-05 Google Inc. Image quality measures
US8744168B2 (en) * 2009-08-24 2014-06-03 Samsung Electronics Co., Ltd. Target analysis apparatus, method and computer-readable medium
US20110150271A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242934A (ja) * 2000-02-28 2001-09-07 Honda Motor Co Ltd 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
JP2006350645A (ja) * 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd 対象物検出装置及びその学習装置
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2008116309A (ja) * 2006-11-02 2008-05-22 Fujifilm Corp 距離画像生成方法及びその装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339405B2 (en) 2015-12-08 2019-07-02 Panasonic Intellectual Property Management Co., Ltd. Image recognition device and image recognition method

Also Published As

Publication number Publication date
CN102803991B (zh) 2014-06-04
WO2010140613A1 (ja) 2010-12-09
JPWO2010140613A1 (ja) 2012-11-22
CN102803991A (zh) 2012-11-28
US8611604B2 (en) 2013-12-17
US20120076361A1 (en) 2012-03-29

Similar Documents

Publication Publication Date Title
JP5500559B2 (ja) 物体検出装置
Ikemura et al. Real-time human detection using relational depth similarity features
CN106874894B (zh) 一种基于区域全卷积神经网络的人体目标检测方法
US10083233B2 (en) Video processing for motor task analysis
US9576201B2 (en) Method and apparatus for classifying pixels in an input image and image processing system
US9377861B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US8385599B2 (en) System and method of detecting objects
JP4997178B2 (ja) 物体検出装置
WO2019064375A1 (ja) 情報処理装置、制御方法、及びプログラム
WO2018059125A1 (zh) 一种基于毫米波图像的人体异物检测方法及***
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013210968A (ja) 物体検出装置及びその方法、プログラム
JP6095817B1 (ja) 物体検出装置
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP5290227B2 (ja) 対象物検知装置及びその学習装置
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
US20170053172A1 (en) Image processing apparatus, and image processing method
CN104537384B (zh) 一种结合似然比判决的sar目标鉴别方法
Hua et al. Detection of collapsed buildings with the aerial images captured from UAV
Mitsui et al. Object detection by joint features based on two-stage boosting
JP6851246B2 (ja) 物体検出装置
KR101473991B1 (ko) 얼굴 검출 방법 및 그 장치
Arie et al. Fast and stable human detection using multiple classifiers based on subtraction stereo with HOG features
Secord et al. Tree detection in aerial lidar and image data
JP2009181220A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R150 Certificate of patent or registration of utility model

Ref document number: 5500559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R150 Certificate of patent or registration of utility model

Ref document number: 5500559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees