JP4532171B2 - 立体物認識装置 - Google Patents

立体物認識装置 Download PDF

Info

Publication number
JP4532171B2
JP4532171B2 JP2004163611A JP2004163611A JP4532171B2 JP 4532171 B2 JP4532171 B2 JP 4532171B2 JP 2004163611 A JP2004163611 A JP 2004163611A JP 2004163611 A JP2004163611 A JP 2004163611A JP 4532171 B2 JP4532171 B2 JP 4532171B2
Authority
JP
Japan
Prior art keywords
dimensional object
image
distance data
distance
learning image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004163611A
Other languages
English (en)
Other versions
JP2005346297A (ja
Inventor
勝之 喜瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2004163611A priority Critical patent/JP4532171B2/ja
Priority to EP05011721A priority patent/EP1603071B1/en
Priority to US11/139,801 priority patent/US7545975B2/en
Priority to DE602005011891T priority patent/DE602005011891D1/de
Publication of JP2005346297A publication Critical patent/JP2005346297A/ja
Application granted granted Critical
Publication of JP4532171B2 publication Critical patent/JP4532171B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、3次元的な距離情報の分布で構成される距離画像を用いて立体物の種類を識別する立体物認識装置に関する。
従来より、画像による3次元計測技術として、2台のカメラからなるステレオカメラで対象物を異なる位置から撮像した一対の画像の相関を求め、同一物体に対する視差からステレオカメラの取り付け位置や焦点距離等のカメラパラメータを用いて三角測量の原理により対象物までの3次元画像情報(距離画像)を求める、いわゆるステレオ法による画像処理が知られている。近年、この種の画像処理を用いた立体物認識装置が実用化されており、例えば、車載の立体物認識装置においては、距離画像上のデータにグルーピング処理を施し、グループ化した距離情報の分布を、予め記憶しておいた3次元的な進路形状データ、側壁データ、立体物データ等と比較することで画像上の白線、道路に沿って存在するガードレールや縁石等の側壁、車両等の立体物を認識する技術が確立されている。
さらに、距離画像を用いて立体物をより詳細に認識するため(立体物の種類を識別するため)、例えば、特許文献1には、距離画像から背景を除去し物体に関する距離画像のみを切り出す背景切り出し装置と、切り出された対象物体領域のシルエット中心と奥行き平均とを求めるシルエット/奥行き平均計算装置と、シルエット中心が画像中心となるように平行移動する対象物体領域平行移動装置と、距離画像投影面と平行で奥行き平均だけ離れた平面上に一定の間隔を有するメッシュを定義したときの各格子点から見て平行移動を行った距離画像により定義される曲線までの高さを補間演算により求めて新たに距離画像を再合成する距離画像再合成装置と、それぞれの物体モデルが平面上で安定姿勢にあるときに平面の法線ベクトル回りの回転角と3次元形状計測装置の光軸に対する平面法線ベクトルの角度とをパラメータにして得られる距離画像を入力として、背景切り出し装置とシルエット中心/奥行き平均計算装置と対象物体領域平行移動装置と距離画像再合成装置とを通じて生成される距離画像からなる辞書データベースと、対象物体距離画像を入力として距離画像再合成装置からの出力と辞書データベース情報とを照合することにより対象物体を識別する照合・判別装置とから構成される物体形状識別装置(立体物認識装置)が開示されている。
特開2001−143072号公報
しかしながら、上述の特許文献1に開示された技術では、立体物の種類の識別に、対象物体の平行移動や距離画像の再合成、距離画像と辞書データベースとの照合等の煩雑な処理を行う必要がある。
また、上述の技術において、立体物を精度良く識別するためには識別対象となる対象物体についての辞書データベースを詳細に作成する必要があるが、このような辞書データベースの作成は膨大な時間と労力を必要とするため現実的ではない。
さらに、撮像環境等によっては撮像画像にノイズ等が発生する場合があり、このようなノイズ等が発生すると、距離画像の生成時に画素間のミスマッチングや距離データの抜け等が発生する等して、立体物の識別精度が低下する虞がある。
本発明は上記事情に鑑みてなされたもので、膨大なデータベース等を必要とすることなく、簡単な処理で立体物の識別を精度よく行うことのできる立体物認識装置を提供することを目的とする。
本発明は、撮像手段で撮像した画像を用いて撮像対象の3次元的な距離データの分布からなる距離画像を生成する距離画像生成手段と、上記距離画像上で同一立体物を示す上記距離データをグループ化するグルーピング処理手段と、予め設定された所定形状の領域であって上記グループ化した立体物の距離データ群を包含する領域を上記距離画像上に設定し、当該領域を設定分割数で分割する小領域毎に代表的な距離データを要素とする入力値を設定する入力値設定手段と、少なくとも上記入力値を入力層への入力とするニューラルネットワークを用いて予め設定した立体物に対応したパターンの出力値を演算する演算手段と、上記演算手段で演算した出力値のパターンに基づいて立体物を識別する識別手段とを備え、上記グルーピング処理手段は、上記距離画像上の上記距離データに基づいて認識対象となる立体物が載置された平面を求めるとともに、当該平面よりも上方に存在する上記距離データを立体物の距離データとして抽出し、抽出した上記距離データのうち同一立体物を示す上記距離データをグループ化することを特徴とする。
本発明の立体物認識装置によれば、膨大なデータベース等を必要とすることなく、簡単な処理で立体物の識別を精度よく行うことができる。
以下、図面を参照して本発明の形態を説明する。図面は本発明の一形態に係わり、図1は立体物認識装置の概略構成図、図2は立体物認識ルーチンを示すフローチャート、図3は立体物の種類を識別するニューラルネットワークの説明図、図4は距離画像の一例を示す説明図、図5は距離画像上で距離データ群を包含する領域の一例を示す説明図、図6は制御パラメータ学習装置の概略構成図、図7は各学習画像を示す説明図、図8は制御パラメータ学習処理のメインルーチンを示すフローチャート、図9は学習画像処理サブルーチンを示すフローチャート、図10は識別率評価サブルーチンを示すフローチャート、図11は制御パラメータの進化計算サブルーチンを示すフローチャート、図12は学習画像の追加サブルーチンを示すフローチャートである。
図1において符号1は、立体物の種類を識別する機能を備えた立体物認識装置を示す。この立体物認識装置1は、CPU、ROM、RAM、入出力インターフェース等を備えたコンピュータ2を有し、コンピュータ2の入出力インターフェースに、距離画像生成部(距離画像生成手段)6を介してステレオカメラ(撮像手段)5が接続されて要部が構成されている。
ステレオカメラ5は、例えば、互いに同期が取られた高精度(例えば、1300×1030画素)な2台のCCDカメラ5a,5bで構成され、各CCDカメラ5a,5bは、一方のCCDカメラ5aをメインカメラ、他方のCCDカメラ5bをサブカメラとして、所定の基線長で互いの撮像面垂直軸が平行となるよう配置されている。
距離画像生成部6は、各CCDカメラ5a,5bからの各アナログ信号に対応して、ゲインコントロールアンプを有するアナログインターフェース、アナログ画像データをデジタル画像データに変換するA/Dコンバータを有し、また、例えば高集積度FPGAによって構成された、画像の明暗部に対して対数変換を行うためのLOG変換テーブル等の各機能部を有する。そして、距離画像生成部6は、各CCDカメラ5a,5bからの撮像信号に対し、それぞれのゲイン調整により信号バランスを揃えた後、LOG変換により低輝度部分のコントラストを改善する等の画像補正を行い、所定の輝度階調のデジタル画像データに変換してメモリにストアする。さらに、距離画像生成部6は、例えば、高集積度FPGA等によって構成されたシティブロック距離計算回路、最小値・画素ズレ検出回路等を有し、ストアしたメイン画像及びサブ画像の2枚の画像に対し、各画像の小領域毎にシティブロック距離を算出して互いの相関を求めることで対応する領域を特定するステレオマッチング処理を行い、対象物までの距離に応じて生じる画素のズレ(=視差)から得られる対象物までの遠近情報を距離データとして数値化した3次元画像情報(距離画像)を生成する。
コンピュータ2は、これを機能的に捉えると、グルーピング処理手段としてのグルーピング処理部10と、入力値設定手段としての入力値設定部11と、演算手段としての演算部12と、識別手段としての識別部13を有する。ここで、説明を簡略化するため、本形態では、距離画像中の立体物を、2面立体物(ステレオカメラ5で2面のみが撮像された立体物)、3面立体物(ステレオカメラ5で3面が撮像された立体物)、円錐、或いは、球体の何れかに識別する場合の一例について説明する。すなわち、図1に示す立体物認識装置1は、各種撮像条件下においてステレオカメラ5で撮像した立体物(立方体、円錐、或いは、球体)を、コンピュータ2の処理によって、2面立方体、3面立方体、円錐、或いは、球体の何れかに識別する。
グルーピング処理部10は、距離画像生成部6から入力された距離画像(例えば、図4参照)上で同一立体物を示す距離データをグループ化する。具体的に説明すると、グルーピング処理部10は、先ず、認識対象となるオブジェクトが載置された平面を求める。すなわち、グルーピング処理部10は、距離画像上の距離データを、1ライン毎に最小二乗法によって直線式で近似し、近似直線から規定の範囲に入っている距離データのみを平面を求めるためのデータとして抽出し、規定の範囲外のデータを除去する。この処理は、画像の上下方向に走査して順次行われ、これにより、距離画像から平面を構成していない距離データが特異点として除去される。そして、グルーピング処理部10は、特異点除去後の距離画像上に設定した各サンプル領域の座標及び距離データをステレオカメラ5を原点とする実空間の座標に変換し、変換後のデータを、以下の(1)式で示す平面の方程式に最小二乗法を用いて当てはめるべく、マトリクスを作成して三元連立方程式を解き、各係数a,b,cを決定する。
ax+by+cz=1 …(1)
なお、以上の平面式算出処理は、例えば、本出願人による特開平11−230745号公報に詳述されている。
さらに、グルーピング処理部10は、距離画像上の距離データのうち、算出した平面式に基づく平面よりも上方に存在するもの(z座標が大きいもの)を立体物の距離データとして抽出するとともに、平面以下に存在する距離データに”0”を代入してこれを削除する。そして、グルーピング処理部10は、抽出した各距離データのうち、上下左右で互いに連続して分布する距離データに同一番号を付与し、これらを同一立体物を示す距離データ群としてグループ化する。その際、グルーピング処理部10は、グループ化された各距離データ群のうち、距離データ数が例えば20以下のものを削除する。
入力値設定部11は、予め設定された所定形状の領域であって、グルーピング処理部10でグループ化された各距離データ群をそれぞれ包含する最小の領域を上記距離画像上に設定し、当該領域を設定分割数で分割する小領域毎に代表的な距離データを算出する。そして、演算部12への入力値として、各小領域に代表的な距離データを要素xiとする入力値Xinを設定する。具体的に説明すると、例えば図5に示すように、本形態において、入力値設定部11は、距離データ群に対し、例えば矩形形状の領域を設定するようになっている。この場合、入力値設定部11は、先ず、距離データ群を囲繞する矩形領域を距離画像上に設定し、当該領域を1ライン毎に縮小することで、各辺が距離データ群の何れかの画素(距離データ)に外接する領域を得る。
さらに、入力値設定部11は、設定した領域を、予め設定された分割数の小領域(例えば、5×5の25小領域)に分割して各小領域毎に代表的な距離データ(例えば、小領域内の距離データの平均値)を求め、これらを要素とする演算部12への入力値Xin(=(x1,…xi,…,x25)を設定する。ここで、入力値設定部11は、設定した領域の縦横の画素数が5の倍数でない場合でも、グループ化した全距離データを用いて入力値Xinを設定する。すなわち、各小領域における距離データの平均値(要素xi)の算出はサブピクセルレベルで行われ、例えば、設定した領域の縦方向の画素数が6×5画素である場合、各小領域では、1.2×1画素の距離データの平均値が算出される。
演算部12は、少なくとも入力値設定部11で設定した入力値Xinの各要素xiを入力層への入力とするニューラルネットワークを用いて予め設定した立体物の種類毎に異なるパターンの出力値Youtを演算する。本形態において、ニューラルネットワークは、入力層、中間層及び出力層からなる階層型ニューラルネットワークであり、各層は、それぞれが複数のノードNin,Nmid,Nout(以下、これらを総称してノードNともいう)を有する。
このニューラルネットワークの各層を構成するノードNの数は、システムの設計者によって適宜設定される。図3に示すように、本形態において、入力層は、例えば26個のノードNin、すなわち、入力値設定部11で設定された入力値Xinの各要素xi(i=1〜25)がそれぞれ入力される25個のノードNinに加え、補数として常に出力値yi(i=26)=1.0を出力するノードNinを有する。補数を出力するノードNinを除く各ノードNinでは、入力される各要素xi(i=1〜25)に対して(2)式に示す計算を行い、その演算結果yiを出力する。
yi=1/(1+exp(−xi)) …(2)
これにより、入力層からは、全体として、出力値Yin=(y1,…,yi,…,y25)が中間層に出力される。
また、中間層は、例えば21個のノード、すなわち、入力層の各ノードNinからの出力値Yinがそれぞれ入力される設定個数(20個)のノードNmidに加え、補数として常に出力値yj(j=21)=1.0を出力する1個のノードNmidを有する。補数を出力するノードNmidを除く各ノードNmidでは、入力層からの出力値Yinに対して(3),(4)式に示す計算を行い、その演算結果yjを出力する。
xj=Σ(Kij・yi) …(3)
yj=1/(1+exp(−xj)) …(4)
これにより、中間層からは、全体として、Ymid=(y1,…,yj,…,y21)が出力層に出力される。
また、出力層は、例えば、後述する識別部13で識別すべき立体物の種類(例えば、2面立方体、3面立方体、円錐、及び球体)に対応する設定個数(4個)のノードNoutを有する。これらのノードNmidには、中間層の各ノードNmidからの出力値Ymidがそれぞれ入力され、各ノードNoutでは、中間層からの出力値Ymidに対して(5),(6)式に示す計算を行い、その演算結果Yk(k=1〜4)を出力する。
xk=Σ(Kjk・yj) …(5)
yk=1/(1+exp(−xk)) …(6)
これにより、出力層からは、全体として、出力値Yout=(y1,…,yk,…,y4)が出力される。
ここで、(2),(4),(6)式は、シグモイド関数と呼ばれ、ニューラルネットワークのノードへの入力を正規化するための関数として一般に用いられる。
また、Kijは入力層と中間層との各ノード間の荷重係数であり、Kjkは中間層と出力層との各ノード間の荷重係数である。図3に示すニューラルネットワークは都合604個の荷重係数を有し、これらは、後述する制御パラメータ学習装置20によって、遺伝的アルゴリズムを用いた学習により予め設定される。これら各荷重係数が適切に設定されることにより、ニューラルネットワークでは、認識すべき立体物の種類毎に異なるパターンの出力値Youtを出力層から出力する。
識別部13は、演算部12で演算された出力値Youtのパターンに基づいて立体物の種類を識別する。具体的には、識別部13は、例えば、ニューラルネットワークの出力層からの出力値Youtのパターンが、y1>y2、y1>y3、且つ、y1>y4である場合、立体物が2面立方体であると判定する。また、識別部13は、例えば、y2>y1、y2>y3、且つ、y2>y4である場合、立体物が3面立方体であると判定する。また、識別部13は、例えば、y3>y1、y3>y2、且つ、y3>y4である場合、立体物が円錐であると判定する。また、識別部13は、例えば、y4>y1、y4>y2、且つ、y4>y3である場合、立体物が球体であると判定する。
次に、上述のコンピュータ2で実行される立体物認識処理(立体物識別処理)について、図2に示す立体物認識ルーチンのフローチャートに従って説明する。このルーチンがスタートすると、コンピュータ2は、先ず、ステップS101において、距離画像生成部6で生成された距離画像を入力する。
続く、ステップS102において、コンピュータ2は、入力した距離画像から、立体物が載置された平面式を求め、当該平面式で規定される平面よりも上方で同一立体物を示す距離データをそれぞれグループ化する。
ステップS102からステップS103に進むと、コンピュータ2は、グループ化した距離データ群を包含する最小の矩形領域を距離画像上に設定し、当該領域を25分割する領域毎に距離データの平均値を求め、これらを各要素xiとする入力値Xinを設定する。
ステップS104〜ステップS106の処理は、上述のニューラルネットワークを用いて行われるもので、コンピュータ2は、ステップS104において、入力層の処理を行う。すなわち、コンピュータ2は、ステップS103で設定した入力値Xinの各要素xiに対応する25個の各ノードNinにおいて、上述の(2)式を用いた演算処理を行い、その演算結果yiを出力するとともに、残り1個のノードNinから補数(出力値y26=1)を出力する。
続くステップS105において、コンピュータ2は、中間層の処理を行う。すなわち、コンピュータ2は、入力層からの出力値Yinに対応する20個の各ノードNmidにおいて、上述の(3),(4)式を用いた演算処置を行い、その演算結果yjを出力するとともに、残り1個のノードNmidから補数(出力値y21=1)を出力する。
続くステップS106において、コンピュータ2は、出力層の処理を行う。すなわち、コンピュータ2は、中間層からの出力値Ymidに対応する4個の各ノードNoutにおいて、上述の(5),(6)式を用いた演算処理を行い、その演算結果ykを出力する。
そしてステップS107に進み、コンピュータ2は、出力層の各ノードNoutからの出力値Yout(=(y1,y2,y3,y4))のパターンに基づいて、立体物の種類を2面立方体、3面立方体、円錐、或いは球体の何れかに識別した後、ルーチンを抜ける。
次に、上述の立体物認識装置1で適用されるニューラルネットワークの各制御パラメータ(各荷重係数Kij,Kjk)を、遺伝的アルゴリズムを用いて学習する制御パラメータ学習装置20の構成について説明する。
図6に示すように、この制御パラメータ学習装置20は、CPU、ROM、RAM、入出力インターフェース等を備えたコンピュータ21を中心として構成されている。コンピュータ21は、これを機能的に捉えると、学習画像記憶部22と、学習画像処理部23と、識別率評価部24と、進化計算部25とを有する。
学習画像記憶部22には予め用意された複数(例えば、211)の学習画像が記憶されており、学習画像記憶部22は、学習画像処理部23に対し、各学習画像を適宜選択的に出力する。ここで、学習画像記憶部22に記憶される各学習画像は、立体物(立方体、円錐、或いは球体)を各種撮像条件でステレオ撮像した画像対に基づく距離画像で構成されている。本形態において、各学習画像はそれぞれ異なる識別番号ID(ID=1〜211)で管理されており、この識別番号IDを参照することで、学習画像中の立体物を特定することが可能となっている。例えば、識別番号ID=1〜46の学習画像は立方体(2面立方体)を撮像した画像対に基づいて生成されたものであり、識別番号ID=47〜106の学習画像は立方体(3面立方体)を撮像した画像対に基づいて生成されたものである。また、識別番号ID=107〜166の学習画像は円錐を撮像した画像対に基づいて生成されたものであり、識別番号ID=167〜211の学習画像は球体を撮像した画像対に基づいて生成されたものである。
学習画像処理部23は、グルーピング処理部23a、入力値設定部23b、及び演算部23cを有して構成され、学習画像記憶部22から入力された学習画像の処理を行う。ここで、学習画像処理部23を構成する各部は、上述のグルーピング処理部10、入力値設定部11、演算部12と略同様の構成となっている。但し、演算部23cで用いられるニューラルネットワークは、上述の図3に示したニューラルネットワークと同一形態の階層構造であるが、各ノード間に設定される荷重係数Kij,Kjkが、後述する進化計算部25からの入力に応じて適宜変更可能となっている。すなわち、本形態において、学習画像処理部23は、例えば、進化計算部25からの入力に応じて、荷重係数Kij,Kjkの異なる400通りのニューラルネットワークを構築し、構築したニューラルネットワーク毎に入力値Xinに対する演算処理を行う。
識別率評価部24は、学習画像処理部23での処理結果に基づき、立体物の識別率をニューラルネットワーク毎に評価する。すなわち、識別率評価部24では、各ニューラルネットワークの出力層からの出力値Youtのパターンに基づいて学習画像中の立体物を識別するとともに、該当する学習画像の識別番号IDを参照して出力層からの出力パターンが適正であるか否かを調べる。そして、このような処理を学習画像処理部23に入力された全ての学習画像に対して行うことで、ニューラルネットワーク毎の立体物の識別率を算出する。
進化計算部25は、ニューラルネットワークの各ノード間に設定される例えば604個の制御パラメータ(各荷重係数Kij,Kjk)に対応する要素を遺伝子型で表現した個体を複数設定し、これらを遺伝的アルゴリズムにより変異させて引き継ぐことで、最適な各荷重係数Kij,Kjkを設定する。具体的には、進化計算部25は、1世代目の個体として、例えば、604個の要素を備えた個体を400個体生成する。1世代目の各個体を構成する要素の数値は開発言語の乱数生成によりランダムに生成され、進化計算部25は、これらの個体に対し、選択・淘汰、さらには、突然変異及び交差等の遺伝的アルゴリズムによる進化演算を行うことで、最適な各荷重係数Kij,Kjkを設定する。
次に、上述のコンピュータ21で実行される制御パラメータ(荷重係数)の学習処理について、図8に示す制御パラメータ学習処理のメインルーチンのフローチャートに従って説明する。このルーチンがスタートすると、コンピュータ21は、先ず、ステップS201において、所定に選択した学習画像に対し、各個体の要素に基づいて構築される各ニューラルネットワークを用いた演算処理を行う。
この処理は、具体的には、学習画像処理部23において、例えば図9に示すサブルーチンに従って実行される。すなわち、サブルーチンがスタートすると、学習画像処理部23は、先ず、ステップS301において、学習画像記憶部22に記憶された各学習画像の中から、所定に選択されたM個の学習画像を入力する。ここで、学習画像処理部23に入力される学習画像の数Mは、初期値がM=4に設定されている。この場合、学習画像処理部23には、2面立体物を含む学習画像、3面立体物を含む学習画像、円錐を含む学習画像、及び球体を含む学習画像がそれぞれ入力される。また、制御パラメータ学習ルーチンの処理が進むと、学習画像処理部23には、上述の4個の学習画像に加え、後述するステップS208の処理において選択された学習画像が追加して入力される。なお、学習画像記憶部22から入力された各学習画像には、それぞれ異なる識別番号m(m=1〜M(M≧4))が付される。
ステップS302において、学習画像処理部23は、ステップS301で入力した各学習画像に対し、同一立体物を示す距離データをグループ化するグルーピング処理を行った後、ステップS303に進む。そして、学習画像処理部23は、各学習画像上でグループ化された距離データ群に対し、当該距離データ群を包含する最小の矩形領域を設定し、当該領域を等分割する小領域毎に距離データの平均値を求め、これらを各要素xiとする入力値Xinを設定する。なお、これら、ステップS302,S303の処理は、上述の立体物認識装置1で実行されるステップS102,S103の処理と略同様である。
ステップS303からステップS304に進むと、学習画像処理部23は、今回の処理が1世代目の個体を用いた処理であるか否か、すなわち、現在、進化計算部25に1世代目の個体(初期個体)のみが設定されているか否かを調べる。
そして、ステップS304において、進化計算部25に1世代目の固体のみが設定されており、今回の処理が1世代目の個体を用いた処理であると判定すると、学習画像処理部23は、ステップS305に進み、進化計算部25から1世代目の個体を読み込み、読み込んだ各個体の要素をそれぞれ荷重係数Kij,Kjkとする400通りのニューラルネットワークを構築する。
一方、ステップS304において、進化計算部25に2世代目以降の個体が設定されており、今回の処理が1世代目の個体を用いた処理ではないと判定すると、学習画像処理部23は、ステップS306に進み、進化計算部25から最新世代の個体を読み込み、読み込んだ各個体の要素をそれぞれ荷重係数Kij,Kjkとする400通りのニューラルネットワークを構築する。
ここで、ステップS305或いはステップS306で構築される各ニューラルネットワークには、それぞれ異なる識別番号l(l=1〜400)が付される。そして、以降の処理において、学習画像処理部23は、入力したM個の各学習画像中の立体物に対し、構築した400通りのニューラルネットワークを用いた識別処理を行う。
ステップS305或いはステップS306からステップS307に進むと、学習画像処理部23は、識別番号l=1のニューラルネットワークを選択し、続くステップS308において、識別願号m=1の学習画像を選択する。
続くステップS309〜ステップS311において、学習画像処理部23は、上述の立体物認識装置1で実行されるステップS104〜ステップS106の処理と同様の処理によって、選択した学習画像上の距離データ群に対し、選択したニューラルネットワークを用いた処理を行った後、ステップS313に進む。
ステップS311からステップS312に進むと、学習画像処理部23は、現在選択している学習画像の識別番号がm=Mであるか否かを調べることにより、現在選択しているニューラルネットワークを用いた処理を入力した全ての学習画像に対して行ったか否かを調べる。
そして、ステップS312において、現在選択している学習画像の識別番号がm<Mであると判定すると、学習画像処理部23は、ステップS313に進み、識別願号mをインクリメント(m←m+1)して次の学習画像を選択した後、ステップS309に戻る。
一方、ステップS312において、現在選択している学習画像の識別番号がm=Mであると判定すると、学習画像処理部23は、ステップS314に進む。ステップS314において、学習画像処理部23は、現在選択しているニューラルネットワークの識別番号がl=400であるか否かを調べることにより、入力した全ての学習画像に対し、全てのニューラルネットワークを用いた処理を行ったか否かを調べる。
そして、ステップS314において、現在選択しているニューラルネットワークの識別番号がl<400であると判定すると、学習画像処理部23は、ステップS315に進み、識別番号lをインクリメント(l←l+1)して次のニューラルネットワークを選択した後、ステップS308に戻る。
一方、ステップS314において、現在選択しているニューラルネットワークの識別番号がl=400であると判定すると、学習画像処理部23は、ステップS301で入力した全ての学習画像に対して、ステップS305或いはステップS306で構築した全てのニューラルネットワークを用いた処理を完了したと判定して、ルーチンを抜ける。
次に、メインルーチンのステップS202において、コンピュータ21は、ステップS201での各学習画像の処理結果に基づいて、各ニューラルネットワークによる立体物の識別率を算出する。この処理は、ステップS201で構築されたニューラルネットワーク毎に行われるもので、具体的には、各ニューラルネットワークに対する評価は識別率評価部24において、例えば、図10に示すサブルーチンに従ってそれぞれ実行される。すなわち、サブルーチンがスタートすると、識別率評価部24は、先ず、ステップS401において、識別番号がm=1の学習画像を選択する。
そして、ステップS402において、識別率評価部24は、選択した学習画像の識別番号ID(学習画像記憶部22における識別番号)が2面立方体を示すものであるか否かを調べ、2面立方体を示すものであると判定した場合にはステップS405に進む。
ステップS402からステップS405に進むと、識別率評価部24は、選択した学習画像に対応するニューラルネットワークからの出力パターンを調べ(すなわち、出力層の各ノードNoutからの各要素ykを比較し)、当該出力パターンに基づいて学習画像中の立体物を識別する。そして、この識別結果が2面立体物である場合、識別率評価部24は、学習画像中の立体物が正しく識別されたと判定する。
一方、ステップS402において、選択した学習画像の識別番号IDが2面立方体を示すものではないと判定してステップS403に進むと、識別率評価部24は、当該識別番号IDが3面立方体を示すものであるか否かを調べる。
そして、ステップS403において、識別番号IDが3面立方体を示すものであると判定した場合、識別率評価部24は、ステップS406に進み、ニューラルネットワークの出力パターンに基づいて学習画像中の立体物を識別する。そして、この識別結果が3面立方体である場合、識別率評価部24は、学習画像中の立体物が正しく識別されたと判定する。
一方、ステップS403において、選択した学習画像の識別番号IDが3面立方体を示すものではないと判定してステップS404に進むと、識別率評価部24は、当該識別番号IDが円錐を示すものであるか否かを調べる。
そして、ステップS404において、識別番号IDが円錐を示すものであると判定した場合、識別率評価部24は、ステップS407に進み、ニューラルネットワークの出力パターンに基づいて学習画像中の立体物を識別する。そして、この識別結果が円錐である場合、識別率評価部24は、学習画像中の立体物が正しく識別されたと判定する。
一方、ステップS04において、選択した学習画像の識別番号IDが円錐を示すものではないと判定した場合(すなわち、球体であると判定した場合)、識別率評価部24は、ステップS408に進み、ニューラルネットワークの出力パターンに基づいて学習画像中の立体物を識別する、そして、この識別結果が球体である場合、識別率評価部24は、学習画像中の立体物が正しく識別されたと判定する。
ステップS405、ステップS406、ステップS407、或いは、ステップS408からステップS409に進むと、識別率評価部24は、上述のステップS405〜ステップS408の判定結果に基づいてニューラルネットワークによる識別率の累計を行う。
ステップS409からステップS410に進むと、識別率評価部24は、現在選択している学習画像の識別番号がm=Mであるか否かを調べる。そして、ステップS410において、現在選択している学習画像の識別番号がm<Mであると判定すると、識別率評価部24は、ステップ411に進み、識別番号mをインクリメント(m←m+1)して次の学習画像を選択した後、ステップS402に戻る。
一方、ステップS410において、現在選択している学習画像の識別番号がm=Mであると判定すると、識別率評価部24は、ステップS409で直前に算出された識別率を最終的な識別率として登録した後、ルーチンを抜ける。
次に、メインルーチンのステップS203において、コンピュータ21は、ステップS202でニューラルネットワーク毎に算出した各識別率の中に、識別率が100%のニューラルネットワークが存在するか否かを調べる。そして、ステップS203において、識別率が100%のニューラルネットワークが存在しないと判定すると、コンピュータ21は、ステップS204に進み、遺伝的アルゴリズムを用いて各個体の進化計算を行った後、ステップS201に戻る。
このステップS204の進化計算は、具体的には、進化計算部25において、例えば、図11に示すサブルーチンに従って実行され、進化計算部25では、ステップS201で各ニューラルネットワークの構築に用いた400個体を基に、新たな400個体を次世代の個体として設定する。
サブルーチンがスタートすると、進化計算部25は、先ず、ステップS501において、各個体の評価値F(X)を算出する。具体的には、各個体の評価値F(X)は、対応するニューラルネットワークで計算した任意の学習画像の出力値Youtに対する評価値に基づき、以下の(7)式〜(11)式を用いて算出される。ここで、(7)式は、識別番号ID=1〜46の学習画像の出力値Youtに対する評価値f(X1)の算出式であり、(8)式は、識別番号ID=47〜106の学習画像の出力値Youtに対する評価値の算出式である。また、(9)式は、識別番号ID=47〜106の学習画像の出力値Youtに対する評価値f(X3)の算出式であり、(10)式は、識別番号ID=107〜166の学習画像の出力値Youtに対する評価値f(X4)の算出式である。
f(X1)=(y1・y1)・(1−y2)・(1−y3)・(1−y4) …(7)
f(X2)=(1−y1)・(y2・y2)・(1−y3)・(1−y4) …(8)
f(X2)=(1−y1)・(1−y2)・(y3・y3)・(1−y4) …(9)
f(X2)=(1−y1)・(1−y2)・(1−y3)・(y4・y4) …(10)
F(X)=f(X1)・f(X2)・f(X3)・f(X4) …(11)
ここで、各個体の評価値F(X)は、”0”〜”1”までの範囲の値をとり、”1”に近い値であるほど評価が高くなる。
ステップS501からステップS502に進むと、進化計算部25は、算出した各個体の評価値F(X)に基づき、ニューラルネットワークで使用した400個体を評価の高いものから順に並べ替え、続くステップS503において、最も評価の高い個体をエリートとして決定し、当該エリート個体を次世代に繰り越す。
続くステップS504において、進化計算部25は、エリート個体の604要素中1要素を1%の揺らぎで変化させた個体を、例えば、400個体の5%にあたる20個体生成し、これらを次世代の個体として設定する。
続くステップS505において、進化計算部25は、開発言語の乱数ジェネレータを用いて、エリート個体を除く399個体の中から任意の2個体を抽出し、抽出した2個体間で任意の要素を交換(1点交叉)することによって新たな2個体を生成する。この2個体間での交叉を用いた個体の生成は、新たな個体が379個体が生成されるまで繰り返し行われる。ここで、本形態において、2個体の要素間での交叉は、例えば、80%の確率で行われる。すなわち、進化計算部25は、開発言語の乱数ジェネレータを用いて”0”〜”100”までの数値を生成し、生成した数値が”80”以下である場合に、2個体間で任意の要素を1点交叉させる。なお、生成した数値が”80”よりも大きい場合、抽出されたそのままの個体が新たな個体として設定される。
続くステップS506において、進化計算部25は、ステップS505で生成した379個体の全ての要素に対して突然変異の判定を行い、突然変異を判定した要素を、当該要素に対して±10.0の範囲で設定される新値に置き換えた後、ルーチンを抜ける。ここで、本形態において、各要素に対する突然変異の判定は、例えば、10%の確立で行われる。すなわち、進化計算部25は、開発言語の乱数ジェネレータを用いて”0”〜”100”までの数値を各要素に対応付けて生成し、生成した数値が”10”以下である場合に、対応する要素を突然変異させる。
一方、メインルーチンのステップS203において、識別率が100%のニューラルネットワークが存在すると判定すると、コンピュータ21は、ステップS205に進み、全学習画像に対し、上述のステップS202で識別率100%を判定したニューラルネットワークを用いた処理を行い、続くステップS206において、ステップS205での全学習画像の処理結果に基づいて、上述のステップS202で識別率100%を判定したニューラルネットワークによる立体物の識別率を算出した後、ステップS207に進む。
ここで、ステップS205の処理は、具体的には、上述のステップS201の処理と同様、学習画像処理部23において、例えば図9に示すサブルーチンに従って実行される。但し、ここでは、学習画像記憶部22に記憶された全ての学習画像が用いられるため、学習画像数Mは”211”となり、また、識別率100%を判定したニューラルネットワークのみが用いられるため、ニューラルネットワークの数は”1”となる。
また、ステップS206の処理は、具体的には、上述のステップS202の処理と同様、識別率評価部24において、例えば図10に示すサブルーチンに従って実行される。但し、ここでも、全ての学習画像についての処理結果に基づいて識別率の算出が行われるため、学習画像数Mは”211”となる。
メインルーチンにおいて、ステップS207に進むと、コンピュータ21は、上述のステップS206で算出した識別率が100%であるか否かを調べ、当該識別率が100%でない場合には、ステップS208に進む。そして、ステップS208において、コンピュータ21は、上述のステップS201〜204の処理を、再度、新たな学習画像を追加して行うべく、追加すべき学習画像の選定を行った後、ステップS201に戻る。
ステップS208の処理は、具体的には、学習画像記憶部22において、例えば図12に示すサブルーチンに従って実行されるもので、学習画像記憶部22は、上述のステップS205における各学習画像の出力値Youtに基づき、記憶している211枚の学習画像の中から、新たに追加すべき学習画像を選定する。すなわち、サブルーチンがスタートすると、学習画像記憶部22は、先ず、ステップS601において、記憶している学習画像の中から識別番号ID=1の学習画像を選択する。
そして、ステップS602において、学習画像記憶部22は、選択した学習画像の識別番号IDが2面立方体を示すものであるか否かを調べ、2面立方体を示すものであると判定した場合にはステップS605に進む。ステップS602からステップS605に進むと、学習画像記憶部22は、選択した学習画像に対応するステップS205での処理結果(出力値Yout(=(y1,y2,y3,y4))を用いて、以下の(12)式により評価値G(X1)を算出し、これを保持する。
G(X1)=(y1+(1−y2)+(1−y3)+(1−y4))/4 …(12)
一方、ステップS602において、選択した学習画像の識別番号IDが2面立方体を示すものではないと判定してステップS603に進むと、学習画像記憶部22は、当該識別番号IDが3面立方体を示すものであるか否かを調べる。
そして、ステップS603において、識別番号IDが3面立方体を示すものであると判定すると、学習画像記憶部22は、ステップS606に進み、選択した学習画像に対応するステップS205での処理結果(出力値Yout(=(y1,y2,y3,y4))を用いて、以下の(13)式により評価値G(X2)を算出し、これを保持する。
G(X2)=((1−y1)+y2+(1−y3)+(1−y4))/4 …(13)
一方、ステップS603において、選択した学習画像の識別番号IDが3面立方体を示すものではないと判定してステップS604に進むと、学習画像記憶部22は、当該識別番号IDが円錐を示すものであるか否かを調べる。
そして、ステップS604において、識別番号IDが円錐を示すものであると判定すると、学習画像記憶部22は、ステップS607に進み、選択した学習画像に対応するステップS205での処理結果(出力値Yout(=(y1,y2,y3,y4))を用いて、以下の(14)式により評価値G(X3)を算出し、これを保持する。
G(X3)=((1−y1)+(1−y2)+y3+(1−y4))/4 …(14)
一方、ステップS604において、識別番号IDが円錐を示すものではないと判定すると(すなわち、球体であると判定すると)、学習画像記憶部22は、ステップS608に進み、選択した学習画像に対応するステップS205での処理結果(出力値Yout(=(y1,y2,y3,y4))を用いて、以下の(15)式により評価値G(X4)を算出し、これを保持する。
G(X4)=((1−y1)+(1−y2)+(1−y3)+y4)/4 …(15)
ステップS605、ステップS606、ステップS607、或いは、ステップS608からステップS609に進むと、学習画像記憶部22は、現在選択している学習画像の識別番号がID=211であるか否かを調べる。そして、ステップS609において、現在選択している学習画像の識別番号がID<211であると判定すると、学習画像記憶部22は、ステップS610に進み、識別番号IDをインクリメント(ID←ID+1)して次の学習画像を選択した後、ステップS602に戻る。
一方、ステップS609において、現在選択している学習画像の識別番号がID=211であると判定してステップS611に進むと、学習画像記憶部22は、学習画像の種類毎に評価値G(X)が最も低い学習画像を検索する。すなわち、ステップS611において、学習画像記憶部22は、2面立方体の学習画像の中で評価値G(X1)が最も低い学習画像を検索し、当該学習画像を画像G1として設定するとともに、3面立方体の学習画像の中で評価値G(X2)が最も低い学習画像を検索し、当該学習画像を画像G2として設定する。また、円錐の学習画像の中で評価値G(X3)が最も低い学習画像を検索し、当該学習画像を画像G3として設定するとともに、球体の学習画像の中で評価値G(X4)が最も低い学習画像を検索し、当該学習画像を画像G4として設定する。
続くステップS612において、学習画像記憶部22は、各画像G1〜G4に対応する4つの評価値G(X1)〜G(X4)の中で、G(X1)が最小値であるか否かを調べる。そして、ステップS612において、G(X1)が最小値であると判定すると、学習画像記憶部22は、ステップS615に進み、画像G1として設定した学習画像を追加すべき学習画像として保持した後、ルーチンを抜ける。
一方、ステップS612でG(X1)が最小値ではないと判定してステップS613に進むと、学習画像記憶部22は、各画像G1〜G4に対応する4つの評価値G(X1)〜G(X4)の中で、G(X2)が最小値であるか否かを調べる。
そして、ステップS613において、G(X2)が最小値であると判定すると、学習画像記憶部22は、ステップS616に進み、画像G2として設定した学習画像を追加すべき学習画像として保持した後、ルーチンを抜ける。
一方、ステップS613でG(X2)が最小値ではないと判定してステップS614に進むと、学習画像記憶部22は、各画像G1〜G4に対応する4つの評価値G(X1)〜G(X4)の中で、G(X3)が最小値であるか否かを調べる。
そして、ステップS614において、G(X3)が最小値であると判定すると、学習画像記憶部22は、ステップS617に進み、画像G3として設定した学習画像を追加すべき学習画像として保持した後、ルーチンを抜ける。
一方、ステップS614において、G(X3)が最小値ではないと判定すると(すなわち、G(X4)が最小値であると判定すると)、学習画像記憶部22は、ステップS618に進み、画像G4として設定した学習画像を追加すべき学習画像として保持した後、ルーチンを抜ける。
このような形態によれば、距離画像上で同一立体物を示す距離データ群に基づいて所定要素数の入力値Xinを設定し、少なくともこの入力値を入力層への入力とするニューラルネットワークを用いて予め設定した立体物の種類毎に異なるパターンの出力値Youtを演算し、演算した出力パターンに基づいて立体物の種類を識別するので、膨大なデータベース等を必要とすることなく、簡単な処理で立体物の識別を精度よく行うことができる。
すなわち、立体物の距離データ群に基づいて設定した入力値Xinを入力層への入力とするニューラルネットワークの出力パターンに基づいて立体物の識別を行うので、膨大なデータベース等を必要とすることなく、簡単な処理で立体物の識別を行うことができる。
また、入力値Xinを構成する各要素xiとして、距離データ群を包含する最小の領域を設定分割数で分割する小領域毎に代表的な距離データを用いることにより、距離データ群の大きさ等に左右されることなく、一律な要素数の入力値Xinを設定することができる。この場合、特に、小領域毎の距離データの平均値を入力値Xinの各要素xiとして設定することにより、距離画像の生成時に画素間のミスマッチングや距離データの抜け等が発生した場合にも、立体物の識別精度を維持することができる。
また、ニューラルネットワークの各荷重係数Kij,Kjkを、予め用意した複数の距離画像を学習画像として用いた遺伝的アルゴリズムにより設定することにより、精度の良い立体物の識別を実現可能なニューラルネットワークを、短時間で容易に構築することができる。
ここで、上述の立体物認識装置1は、例えば、ステレオカメラで自車前方を撮像した画像対から距離画像を生成して車外の立体物認識を行い、認識した立体物に基づいて警報制御や車両挙動制御等の各種運転支援制御を行う車両用運転支援装置に好適に適用することが可能である。この場合、識別する立体物の種類として、例えば、乗用車、トラック、自転車、及び歩行者等を設定することが可能であり、これら立体物の種類に応じて異なる出力パターンを出力するニューラルネットワークを適切に設定することにより、有効な各種運転支援制御を実現することができる。
なお、上述の立体物認識装置1の適用は、上述の車両用運転支援装置に限定されるものではなく、例えば、各種作業ロボットや監視装置等の立体物認識装置にも適用が可能であることは勿論である。
また、上述の立体物認識装置1において、識別すべき立体物の種類や形状等の各種要件に応じて、ニューラルネットワークの構造やノード数等を適宜変更してもよく、また、入力値Xinや出力値Youtの要素数等を適宜変更してもよいことは勿論である。
立体物認識装置の概略構成図 立体物認識ルーチンを示すフローチャート 立体物の種類を識別するニューラルネットワークの説明図 距離画像の一例を示す説明図 距離画像上で距離データ群を包含する領域の一例を示す説明図 制御パラメータ学習装置の概略構成図 各学習画像を示す説明図 制御パラメータ学習処理のメインルーチンを示すフローチャート 学習画像処理サブルーチンを示すフローチャート 識別率評価サブルーチンを示すフローチャート 制御パラメータの進化計算サブルーチンを示すフローチャート 学習画像の追加サブルーチンを示すフローチャート
符号の説明
1 … 立体物認識装置
2 … コンピュータ
5 … ステレオカメラ(撮像手段)
6 … 距離画像生成部(距離画像生成手段)
10 … グルーピング処理部(グルーピング処理手段)
11 … 入力値設定部(入力値設定手段)
12 … 演算部(演算手段)
13 … 識別部(識別手段)
20 … 制御パラメータ学習装置
21 … コンピュータ
22 … 学習画像記憶部
23 … 学習画像処理部
23a … グルーピング処理部
23b … 入力値設定部
23c … 演算部
24 … 識別率評価部
25 … 進化計算部
Kij,Kjk … 荷重係数
Xin … 入力値
xi … 要素
Yout … 出力値
代理人 弁理士 伊 藤 進

Claims (6)

  1. 撮像手段で撮像した画像を用いて撮像対象の3次元的な距離データの分布からなる距離画像を生成する距離画像生成手段と、
    上記距離画像上で同一立体物を示す上記距離データをグループ化するグルーピング処理手段と、
    予め設定された所定形状の領域であって上記グループ化した立体物の距離データ群を包含する領域を上記距離画像上に設定し、当該領域を設定分割数で分割する小領域毎に代表的な距離データを要素とする入力値を設定する入力値設定手段と、
    少なくとも上記入力値を入力層への入力とするニューラルネットワークを用いて予め設定した立体物に対応したパターンの出力値を演算する演算手段と、
    上記演算手段で演算した出力値のパターンに基づいて立体物を識別する識別手段とを備え
    上記グルーピング処理手段は、上記距離画像上の上記距離データに基づいて認識対象となる立体物が載置された平面を求めるとともに、当該平面よりも上方に存在する上記距離データを立体物の距離データとして抽出し、抽出した上記距離データのうち同一立体物を示す上記距離データをグループ化することを特徴とする立体物認識装置。
  2. 上記入力値設定手段は、上記距離データ群を囲繞する矩形領域を距離画像上に設定し、当該矩形領域を1ライン毎に縮小することで、各辺が上記距離データ群の何れかの画素に外接する上記領域を設定することを特徴とする請求項1記載の立体物認識装置。
  3. 上記入力値設定手段は、上記小領域毎の距離データの平均値を上記入力値の要素として設定することを特徴とする請求項1または請求項2記載の立体物認識装置。
  4. 上記入力値設定手段は、上記量領域毎の距離データの平均値をサブピクセルレベルで算出することを特徴とする請求項3記載の立体物認識装置。
  5. 上記演算手段で用いるニューラルネットワークに設定される各荷重係数は、予め用意した複数の距離画像を学習画像として用いた遺伝的アルゴリズムにより設定されることを特徴とする請求項1乃至請求項4の何れかに記載の立体物認識装置。
  6. 上記立体物に対応したパターンは立体物の種類毎に異なるパターンとして設定されており、上記識別手段は、上記パターンに基づいて立体物の種類を特定することを特徴とする請求項1記載の立体物認識装置。
JP2004163611A 2004-06-01 2004-06-01 立体物認識装置 Expired - Fee Related JP4532171B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004163611A JP4532171B2 (ja) 2004-06-01 2004-06-01 立体物認識装置
EP05011721A EP1603071B1 (en) 2004-06-01 2005-05-31 Three-dimensional object recognizing system
US11/139,801 US7545975B2 (en) 2004-06-01 2005-05-31 Three-dimensional object recognizing system
DE602005011891T DE602005011891D1 (de) 2004-06-01 2005-05-31 System zur Erkennung dreidimensionaler Gegenstände

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004163611A JP4532171B2 (ja) 2004-06-01 2004-06-01 立体物認識装置

Publications (2)

Publication Number Publication Date
JP2005346297A JP2005346297A (ja) 2005-12-15
JP4532171B2 true JP4532171B2 (ja) 2010-08-25

Family

ID=34937089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004163611A Expired - Fee Related JP4532171B2 (ja) 2004-06-01 2004-06-01 立体物認識装置

Country Status (4)

Country Link
US (1) US7545975B2 (ja)
EP (1) EP1603071B1 (ja)
JP (1) JP4532171B2 (ja)
DE (1) DE602005011891D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10929998B2 (en) 2017-11-23 2021-02-23 Samsung Electronics Co., Ltd. Method and apparatus for estimating disparity

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993186B1 (en) * 1997-12-29 2006-01-31 Glickman Jeff B Energy minimization for classification, pattern recognition, sensor fusion, data compression, network reconstruction and signal processing
JP2007536644A (ja) 2004-05-06 2007-12-13 ザ・レジェンツ・オブ・ザ・ユニバーシティ・オブ・カリフォルニア 画像を整列させ分類するための方法およびシステム
CN101938953B (zh) 2008-01-09 2013-12-25 阿勒根公司 辅助***外科手术的解剖学识别和空间分析
US8795204B2 (en) 2008-01-09 2014-08-05 Allergan, Inc. Anatomical recognition and dimensional analysis of breast volume to assist breast surgery
KR101636370B1 (ko) 2009-11-10 2016-07-05 삼성전자주식회사 영상 처리 장치 및 방법
CN101907448B (zh) * 2010-07-23 2013-07-03 华南理工大学 一种基于双目三维视觉的深度测量方法
WO2012017650A1 (ja) * 2010-08-03 2012-02-09 パナソニック株式会社 物体検出装置、物体検出方法及びプログラム
KR20130008334A (ko) * 2011-07-12 2013-01-22 삼성전자주식회사 입체 영상 표시 제어를 위한 주시각 제어 방법 및 이를 지원하는 단말기
US20160073087A1 (en) * 2014-09-10 2016-03-10 Lenovo (Singapore) Pte. Ltd. Augmenting a digital image with distance data derived based on acoustic range information
US10659755B2 (en) * 2015-08-03 2020-05-19 Sony Corporation Information processing device, information processing method, and program
US10587858B2 (en) * 2016-03-14 2020-03-10 Symbol Technologies, Llc Device and method of dimensioning using digital images and depth data
JP6871367B2 (ja) 2016-10-07 2021-05-12 トヨタ モーター ヨーロッパ オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法
JP2018136803A (ja) 2017-02-23 2018-08-30 株式会社日立製作所 画像認識システム
JP2018147286A (ja) 2017-03-07 2018-09-20 オムロン株式会社 対象物解析装置、対象物解析方法、学習装置及び学習方法
JP6797860B2 (ja) * 2018-05-02 2020-12-09 株式会社日立国際電気 水上侵入検知システムおよびその方法
CN111221924B (zh) * 2018-11-23 2023-04-11 腾讯科技(深圳)有限公司 一种数据处理方法、装置、存储介质和网络设备
JP7233261B2 (ja) * 2019-03-13 2023-03-06 キヤノン株式会社 3次元測量装置、撮像装置、制御方法及びプログラム
CN114485434B (zh) * 2022-01-27 2022-10-21 南京航空航天大学 基于多目测距的柔性三维织造装备导向棒安装检测方法
CN115797817B (zh) * 2023-02-07 2023-05-30 科大讯飞股份有限公司 一种障碍物识别方法、障碍物显示方法、相关设备和***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (ja) * 2001-07-16 2003-01-29 Honda Motor Co Ltd 画像測距装置
JP2003097944A (ja) * 2001-09-27 2003-04-03 Fuji Heavy Ind Ltd 画像処理装置および画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2812958B2 (ja) 1988-07-28 1998-10-22 株式会社リコー 物体認識方式
JP2969202B2 (ja) 1991-05-08 1999-11-02 日本電信電話株式会社 ニューラルネットワークによる3次元物体の認識方法
JPH05280953A (ja) 1992-03-31 1993-10-29 N T T Data Tsushin Kk 物体認識方法
JP3151472B2 (ja) 1992-12-08 2001-04-03 日本電信電話株式会社 3次元物体像の生成方法
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
JPH0991383A (ja) * 1995-09-26 1997-04-04 Suzuki Motor Corp 類似度判定装置および記号識別装置
DE19753620C1 (de) 1997-12-03 1999-10-07 Bernd Michaelis Verfahren zur Erkennung von Abweichungen der Oberflächenform von einer vorgegebenen Form durch eine dreidimensionale Meßwerterfassung und eine nachfolgende Verarbeitung mit einem künstlichen neuronalen Netz
JP3850541B2 (ja) 1998-02-18 2006-11-29 富士重工業株式会社 高度計測装置
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP4391624B2 (ja) * 1999-06-16 2009-12-24 本田技研工業株式会社 物体認識装置
JP2001143072A (ja) 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> 物体形状識別装置
US6959109B2 (en) * 2002-06-20 2005-10-25 Identix Incorporated System and method for pose-angle estimation
KR20050085576A (ko) * 2002-12-11 2005-08-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 컴퓨터 비전 시스템 및 조명 불변 신경 네트워크를사용하는 방법
JP4426436B2 (ja) * 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (ja) * 2001-07-16 2003-01-29 Honda Motor Co Ltd 画像測距装置
JP2003097944A (ja) * 2001-09-27 2003-04-03 Fuji Heavy Ind Ltd 画像処理装置および画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10929998B2 (en) 2017-11-23 2021-02-23 Samsung Electronics Co., Ltd. Method and apparatus for estimating disparity

Also Published As

Publication number Publication date
EP1603071A1 (en) 2005-12-07
US7545975B2 (en) 2009-06-09
DE602005011891D1 (de) 2009-02-05
JP2005346297A (ja) 2005-12-15
US20050264557A1 (en) 2005-12-01
EP1603071B1 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
JP4532171B2 (ja) 立体物認識装置
US10891500B2 (en) Method and apparatus for acquiring traffic sign information
CN109559338B (zh) 一种基于加权主成分分析法及m估计的三维点云配准方法
CN109614935B (zh) 车辆定损方法及装置、存储介质及电子设备
JP5778237B2 (ja) ポイントクラウド内の埋め戻しポイント
CN106548520A (zh) 一种点云数据去噪的方法和***
WO2021052283A1 (zh) 处理三维点云数据的方法和计算设备
CN112883820B (zh) 基于激光雷达点云的道路目标3d检测方法及***
CN111274943A (zh) 一种检测方法、装置、电子设备及存储介质
CN111476242A (zh) 一种激光点云语义分割方法及装置
CN111311702B (zh) 一种基于BlockGAN的图像生成和识别模块及方法
EP4174792A1 (en) Method for scene understanding and semantic analysis of objects
CN113034593A (zh) 6d位姿标注方法、***及存储介质
CN114612443A (zh) 一种多模态数据复杂缺陷特征检测方法
CN112270694A (zh) 基于激光雷达扫描图进行城市环境动态目标检测的方法
CN108986210B (zh) 三维场景重建的方法和设备
CN117372604B (zh) 一种3d人脸模型生成方法、装置、设备及可读存储介质
JP7034746B2 (ja) 特徴表現装置、それを含む認識システム、及び特徴表現プログラム
CN110363863B (zh) 一种神经网络的输入数据生成方法和***
JP3251840B2 (ja) 画像認識装置
CN107240133A (zh) 一种立体视觉映射模型建立方法
EP3961556A1 (en) Object recognition device and object recognition method
CN110910450A (zh) 一种基于混合特征感知神经网络进行3d目标检测的方法
KR102643819B1 (ko) 접촉 분포 예측 장치 및 그 방법
Yang et al. 3d-adv: Black-box adversarial attacks against deep learning models through 3d sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100610

R150 Certificate of patent or registration of utility model

Ref document number: 4532171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees