JP5515018B2 - 環境認識装置 - Google Patents

環境認識装置 Download PDF

Info

Publication number
JP5515018B2
JP5515018B2 JP2011267169A JP2011267169A JP5515018B2 JP 5515018 B2 JP5515018 B2 JP 5515018B2 JP 2011267169 A JP2011267169 A JP 2011267169A JP 2011267169 A JP2011267169 A JP 2011267169A JP 5515018 B2 JP5515018 B2 JP 5515018B2
Authority
JP
Japan
Prior art keywords
reference image
distance
image sensor
deviation
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011267169A
Other languages
English (en)
Other versions
JP2013120083A (ja
Inventor
南己 淺谷
正敏 奥富
茂樹 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Tokyo Institute of Technology NUC
Original Assignee
Honda Motor Co Ltd
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Tokyo Institute of Technology NUC filed Critical Honda Motor Co Ltd
Priority to JP2011267169A priority Critical patent/JP5515018B2/ja
Priority to US13/693,719 priority patent/US8896689B2/en
Priority to DE102012222361.4A priority patent/DE102012222361B4/de
Publication of JP2013120083A publication Critical patent/JP2013120083A/ja
Application granted granted Critical
Publication of JP5515018B2 publication Critical patent/JP5515018B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、距離画像センサ及び2つの画像センサを用いて被写体までの距離等を推定する装置に関する。
ステレオカメラから得られる輝度情報に基づき、勾配法にしたがって平面パラメータ及び距離を推定する手法が提案されている(非特許文献1参照)。
距離画像センサを通じて取得された距離画像と、ステレオカメラのそれぞれを通じて取得された画像とを統合することにより、距離画像を推定する手法が提案されている(非特許文献2参照)。
具体的には、距離尤度及び輝度尤度に基づいて総合尤度が計算され、複数の距離候補値のうち総合尤度が最高となる距離候補値が、距離画像の各ピクセルにおける距離真値として推定される。
"Lucas-Kanade 20 Years On : A Unifying Framework Part 1 : The Quantity Approximated, the Warp Update Rule, and the Gradient Descent Approximation", S. Baker and I.Matthews, International Journal of Computer Vision (2004) Volume: 56, Issue: 3, Pages: 221-255 "Fusion of Time-of-Flight Depth and Stereo for High Accuracy Depth Maps", JieJie Zhu, et al. IEEE (2008)
しかし、距離尤度及び輝度尤度のそれぞれの重みが、被写体までの距離の遠近とは無関係に経験則にしたがって定められる。このため、測定誤差が大きい遠距離の情報の影響が総合尤度に無視し得ない程度に反映され、距離推定精度が低下する可能性がある。
そこで、本発明は、被写体までの距離を含む当該被写体情報の推定精度の向上を図りうる装置を提供することを課題とする。
本発明は、被写体までの距離を計測するように構成されている距離画像センサと、前記被写体を撮像することにより、当該被写体の指定物理量を画素値として有する複数のピクセルによって構成される基準画像を取得するように構成されている基準画像センサと、前記被写体を撮像することにより、当該被写体の前記指定物理量を画素値として有する複数のピクセルによって構成されている参照画像を取得するように構成されている参照画像センサと、を用いて前記被写体の表面の位置及び姿勢を推定する装置に関する。
本発明の第1態様の環境認識装置は、前記基準画像の少なくとも一部である対象領域に属する各ピクセルについて、前記距離画像センサによる距離計測値により位置が定まる実点と、当該実点を前記基準画像センサの視線方向について仮想面に投影した結果としての仮想点との間隔の長短に応じて定まる第1偏差と、前記基準画像センサの光軸方向について前記基準画像センサと前記実点及び前記仮想点のうち一方である対象点との距離である対象点距離とに基づき、前記第1偏差について増加関数であり、かつ、前記対象点距離について減少関数である多変数関数として定義されている第1コスト関数にしたがって、第1コストを算定するように構成されている第1演算処理要素と、前記基準画像の前記対象領域に属する各ピクセルについて、前記基準画像のピクセルの画素値と、前記仮想面の位置及び姿勢に応じた形で当該基準画像のピクセルに対応する前記参照画像のピクセルの画素値との偏差としての第2偏差に基づき、前記第2偏差について増加関数である第2コスト関数にしたがって第2コストを算定するように構成されている第2演算処理要素と、前記基準画像の前記対象領域に属する複数のピクセルについて、前記第1コストと前記第2コストとの総和である合計コストをその最小値に近づけるように前記仮想面を探索することにより、前記被写体の表面の位置及び姿勢を推定するように構成されている第3演算処理要素とを備えていることを特徴とする。
本発明の第1態様の環境認識装置によれば、第1コスト関数が対象点距離の減少関数として定義されているので、対象点距離が長いほど当該ピクセルの第1コストが小さく評価される。したがって、対象点距離の測定又は推定誤差が大きい蓋然性が高いピクセルの第1コストの合計コストに対する寄与度が小さくなる。これにより、被写体までの距離を含む当該被写体情報の推定精度の向上が図られる。
本発明の第1態様の環境認識装置において、前記第1コスト関数が前記距離画像センサによる前記被写体までの距離の測定結果の確度について減少関数として定義され、前記第1演算処理要素は、距離の測定結果の確度を認識した上で、前記第1偏差と、前記対象点距離と、当該確度とに基づき、前記第1コスト関数にしたがって前記第1コストを算定するように構成されていることが好ましい。
本発明の第1態様の環境認識装置において、前記第2コスト関数が前記基準画像センサ及び前記参照画像センサのうち少なくとも一方による画素値の測定結果の確度について増加関数として定義され、前記第2演算処理要素は、画素値の測定結果の確度を認識した上で、少なくとも前記第2偏差と、当該確度とに基づき、前記第2コスト関数にしたがって前記第2コストを算定するように構成されていることが好ましい。
本発明の第1態様の環境認識装置において、前記第3演算処理要素は、最小二乗法にしたがって前記被写体の表面の位置及び姿勢を推定するように構成されていることが好ましい。
本発明の第2態様の環境認識装置は、被写体までの距離を計測するように構成されている距離画像センサと、前記被写体を撮像することにより、当該被写体の指定物理量を画素値として有する複数のピクセルによって構成される基準画像を取得するように構成されている基準画像センサと、前記被写体を撮像することにより、当該被写体の前記指定物理量を画素値として有する複数のピクセルによって構成されている参照画像を取得するように構成されている参照画像センサと、を用いて前記被写体の表面の位置及び姿勢を推定する装置であって、前記距離画像センサにより取得された距離画像の複数のピクセル位置のそれぞれについて、前記基準画像センサ及び前記参照画像センサのそれぞれにより撮像された同一箇所の前記指定物理量は同一であるという拘束条件にしたがって、距離計測値に応じた前記基準画像センサのピクセル位置を参照画像センサに投影したピクセル位置と、距離候補値に応じた前記基準画像センサのピクセル位置を参照画像センサに投影したピクセル位置との偏差である視差残差に基づいて第1偏差を算出するように構成されている第1演算処理要素と、前記基準画像センサ及び前記参照画像センサが前記距離候補値に応じた視差を有するという仮定に基づき、当該視差に応じた形で当該基準画像のピクセルに対応する前記参照画像のピクセルの画素値を取得した上で、前記基準画像及び前記参照画像の複数のピクセルのそれぞれについて画素値である前記指定物理量の偏差を第2偏差として算出するように構成されている第2演算処理要素と、前記第1演算処理要素により算出された前記第1偏差と、前記第2演算処理要素により算出された前記第2偏差とに基づき、前記基準画像と前記参照画像との乖離度を算出するととともに、複数の前記距離候補値のうち前記乖離度が最小になるような前記距離候補値を、前記距離画像の各ピクセルにおける距離真値として推定するように構成されている第3演算処理要素とを備えていることを特徴とする。
本発明の第2態様の環境認識装置によれば、「同一又は略同一の時刻において基準画像センサ及び参照画像センサのそれぞれにより撮像された同一箇所の前記指定物理量は同一である」という普遍的な条件にしたがって第1偏差が算出される。このため、経験則に基づいて設計された評価関数にしたがって距離候補値の尤度が評価される場合と比較して、距離真値、ひいては距離画像の推定精度の向上を図ることができる。
本発明の第2態様の環境認識装置において、前記第1演算処理要素が、前記視差残差から前記指定物理量の偏差への変換を実行することにより、前記第1偏差を算出することが好ましい。
本発明の第2態様の環境認識装置において、前記第1演算処理要素が、前記視差残差に対して前記指定物理量のエピポーラライン方向の勾配を乗じることにより、前記変換を実行することにより、前記第1偏差を算出することが好ましい。
本発明の実施形態としての環境認識装置の構成説明図。 本発明の実施形態としての環境認識方法のフローチャート。 基準画像座標系及び距離画像座標系の相関関係に関する説明図。 実点、仮想面及び仮想点に関する説明図。 基準画像座標系及び参照画像座標系の関係に関する説明図。 環境認識結果に関する説明図。
(構成)
図1に示されている環境認識装置1は、距離画像センサC0と、基準画像センサC1と、参照画像センサC2とを備えている。環境認識装置1は、たとえば、車両又は脚式移動ロボットなどの移動装置に搭載され、当該移動装置の環境を認識するために利用される。
距離画像センサC0はたとえばTOF(Time-of-Flight)距離画像センサであり、各ピクセルが距離計測値Ds’(図4参照)を画素値として有する1次距離画像を取得する。距離画像センサC0の撮像面又は平面上に配列されている撮像素子群により「1次距離画像座標系」が定義される。
基準画像センサC1は可視光ステレオカメラの一方のカメラ(たとえば左側カメラ)であり、各ピクセルが少なくとも輝度(指定物理量)を画素値として有する基準画像を取得する。基準画像センサC1の光軸方向がZ軸方向として定義されている(図4参照)。基準画像センサC1の撮像面又は平面上に配列されている撮像素子群により「基準画像座標系」が定義される。基準画像座標系の横方向がX軸方向として定義され、縦方向がY軸方向として定義される。
参照画像センサC2は可視光ステレオカメラの他方のカメラ(たとえば右側カメラ)であり、基準画像と同じく各ピクセルが少なくとも輝度を画素値として有する参照画像を取得する。参照画像センサC2の撮像面又は平面上に配列されている撮像素子群により「参照画像座標系」が定義される。
距離画像センサC0、基準画像センサC1及び参照画像センサC2のそれぞれのカメラパラメータ(内部パラメータ及び外部パラメータ)は既知であり、環境認識装置1を構成するコンピュータのメモリに保存されている。たとえば、1次距離画像座標系及び基準画像座標系の間の座標変換を表わす回転行列及び並進行列又はこれに等価なクォータニオンはメモリに保存されている。同様に、基準画像座標系及び参照画像座標系の間の座標変換を表わす回転行列及び並進行列又はこれに等価なクォータニオンはメモリに保存されている。
環境認識装置1がロボットに搭載されている場合、1次距離画像座標系、基準画像座標系及び参照画像座標系のそれぞれのロボット座標系に対する位置及び姿勢は、ロボットの挙動を表わす順キネマティクスモデルにしたがって算出された上でメモリに保存される。
ロボット座標系は、ロボットの質量中心(たとえば基体に含まれている。)が原点として定義され、ロボットの上方が+x方向として定義され、右方向が+y方向として定義され、前方が+z方向として定義されている。ロボット座標系の世界座標系における位置及び姿勢は、たとえば、ロボットの行動計画により定義される。
環境認識装置1は、プログラマブルコンピュータにより構成されており、当該画像を対象として後述する演算処理を実行するように構成されている第1演算処理要素11と、第2演算処理要素12と、第3演算処理要素13とを備えている。当該3つの演算処理要素11〜13は、単一のコンピュータにより構成されていてもよいし、物理的に独立している複数のコンピュータにより構成されていてもよい。
各演算処理要素が担当演算処理を実行するように「構成されている」とは、各演算処理要素を構成するCPU等の演算処理装置が、ROM、RAM等のメモリ又は記録媒体から必要な情報に加えてソフトウェアを読み出し、当該情報に対して当該ソフトウェアにしたがって演算処理を実行するように「プログラムされている」ことを意味する。
(機能)
前記構成の環境認識装置1によって実行される環境認識方法について説明する。
距離画像センサC0による距離計測値Ds[s]を画素値として有する複数のピクセルによって構成される「2次距離画像」が取得される(図2/STEP002)。ここで「s」は基準画像座標系におけるピクセル位置のうち、基準画像において対象領域又はROI(Region of Interest)に含まれ、距離計測値Dsが割り当てられたピクセル位置(量子化された点の位置)、正確にはその座標値を意味する。
具体的には、まず距離画像センサC0による被写体までの距離計測値Ds’(図4参照)を画素値として有する複数のピクセルs’によって構成される「1次距離画像」が取得される。そして、1次距離画像座標系の各ピクセル位置における距離計測値Ds’に応じた画素値が、基準画像座標系の各ピクセル位置uに割り当てられることにより2次距離画像が取得される。
具体的には、図3に示されているように、1次距離画像座標系のピクセル位置s’が、基準画像座標系に座表変換された結果としての点位置s”が求められる。1次距離画像座標系を基準とした観測点Psの位置は、ベクトル^p’=Ds’^e’(s’)により表わされる。「^」はベクトルを意味する(以下同じ。)。「^e’(s’)」は、1次距離画像座標系のピクセル位置s’を通る距離画像センサC0の視線方向を示す単位ベクトルである。
1次距離画像座標系から基準画像座標系への座標変換を表わす回転行列R及び並進行列Tに基づき、基準画像座標系を基準とした観測点Psの位置を表わすベクトル^p”=R^p’+Tが計算される。回転行列R及び並進行列Tは、予めメモリに保存されている。回転行列R及び並進行列Tは、数学的にこれと等価なクォータニオンによって定義されていてもよい。
当該ベクトル^p”及びその奥行き方向成分(X−Y座標系である基準画像座標系に対して垂直なZ方向の成分)であるZs”に基づき、基準画像座標系において観測点Psに対応する座標位置s”=(1/Zs”)^p”が求められる。
基準画像座標系において当該座標位置s”(図3白丸参照)は、一般的にピクセル位置s(図3黒丸参照)に一致しない。このため、最近傍点補間法、双線形補間法又はバイキュービックスプライン法など、公知の補間方法にしたがって、基準画像座標系の各ピクセル位置sに対して、座標位置s”に対応する距離Zs”に基づいて定まる距離(実点距離)Zsが割り当てられる。
そして、基準画像座標系の各ピクセル位置sに対して、2次距離画像座標系を基準とした観測点Psの位置を表わすベクトル^p=Ds^e(s)のノルムDs(s)が画素値として割り当てられる。「^e(s)」は、2次距離画像座標系のピクセル位置sを通る、距離画像センサC0の視線方向を示す単位ベクトルである。
ただし、距離画像センサC0及び基準画像センサC1のそれぞれの解像度の相違等を考慮して、基準画像座標のすべてのピクセル位置に距離計測値が割り当てられる必要はない。これにより、2次距離画像が取得される。
また、基準画像センサC1を通じて、少なくとも輝度を画素値として有する複数のピクセルにより構成される「基準画像」が取得される(図2/STEP004)。
さらに、参照画像センサC2を通じて、基準画像と同様に少なくとも輝度を画素値として有する複数のピクセルにより構成される「参照画像」が取得される(図2/STEP006)。
同一時刻において取得され、メモリに保存されている同一時刻における2次距離画像、基準画像及び参照画像を対象として次に説明する一連の処理が実行される。なお、距離画像センサC0、基準画像センサC1及び参照画像センサC2が完全に同期していない場合、同一時刻における2次距離画像、基準画像及び参照画像が、若干異なった又は略同一の時刻のそれぞれにおいて取得されてもよい。
まず、基準画像座標系のピクセル位置sについて仮想面(平面)が設定される(図2/STEP008)。具体的には、仮想面の位置及び姿勢を表わすベクトル^n/dにより定義される平面パラメータ^qが設定される。平面パラメータ^qの初期値は任意であってもよいが、後述するように平面パラメータ^qは前回値が修正されることにより、今回値が設定される。「^n」は仮想面の単位法線ベクトルである(図4参照)。「d」は基準画像センサC1の撮像素子から仮想面までの距離である(図4参照)。
第1演算処理要素11は、実点Psと仮想点Pcとの間隔|Ds−Dc|の広狭に応じて定まる第1偏差e1に基づき、第1コスト関数f1にしたがって「第1コスト」を算定する(図2/STEP010)。
図4に示されているように「実点」とは、2次距離画像座標系におけるピクセル位置s=(u,v)の画素値Ds(s)に応じて実空間位置が定まる点Ps=(1/Ds)^sを意味する。また「仮想点」とは、ピクセル位置^sからその画素値Ds(s)の方向(基準画像センサC1の視線方向)について実点Psを仮想面に投影した点を意味する。
第1偏差e1として、実点距離Zsと仮想点距離Zcとの偏差|Zs−Zc|が採用される。実点距離Zsは、基準画像センサC1の光軸方向(Z方向)について、基準画像センサC1と実点Psとの距離である。仮想点距離Zcは、基準画像センサC1と仮想点Pcとの距離である(図4参照)。
なお、実点Psと仮想点Pcとの間隔|Ds−Dc|の広狭に応じて幾何学的関係から一義的に定まるさまざまな距離が、第1偏差e1として採用されてもよい。例えば、当該間隔|Ds−Dc|そのもののほか、実点PsがZ方向について仮想面に投影された結果としての点と、仮想点Pcとの指定方向についての間隔が第1偏差e1として採用されてもよい。また、仮想点PcがZ方向について被写体に相当する平面に投影された結果としての点と、実点Psとの指定方向についての間隔が第1偏差e1として採用されてもよい。
第1コスト関数f1は、第1偏差e1を変数とする連続的又は段階的な増加関数である。すなわち(∂f1/∂e1)>0又はf1(e1+δe1)−f1(e1)>0(δe1>0)という関係式が成立する。第1コスト関数f1は、たとえば関係式(10)にしたがって定義されている。
f1(e1)=Σse1 2(s) ..(10)。
「Σs」は、2次距離画像座標系における和を意味する。第1偏差e1は仮想面の平面パラメータ^q=^n/dを変数とする関数であるため、第1偏差e1に基づいて算出される第1コストも仮想面の平面パラメータ^qを変数とする関数となる。
第1コスト関数f1は、第1偏差e1に加えて、実点距離Zs及び仮想点距離Zcのうち一方である対象点距離Zを変数とする多変数関数であってもよい。第1コスト関数f1は、対象点距離Zについて減少関数として定義される。この場合、第1コスト関数f1は、たとえば関係式(11)にしたがって定義される。
f1(e1, Z)=Σsg1(Z(s))e1 2(s),
g1(Z)=1/Zn(n>0。たとえばn=1又は2。) ..(11)。
関係式(11)により定義される第1コスト関数f1は、次に説明するようにその対象点距離Zに対する挙動特性が、基準画像センサC1及び参照画像センサC2の視差残差Δuのそれと少なくとも部分的に一致又は近似する。したがって、この第1コスト関数f1は、当該視差残差Δuを一義的に定める幾何学的な関係に鑑みて妥当な形で定義されていることがわかる。ここで、この点について説明する。
ここでは簡単のため、基準画像センサC1及び参照画像センサC2が、等しい内部パラメータを持ち互いの光軸が平行になるよう配置された平行ステレオの場合について説明する。基準画像センサC1及び参照画像センサC2が平行ステレオの関係にない場合、図5(a)に示されているように視差残差Δuは参照画像センサC2に距離計測値Dsと距離候補値Dcを投影した時のそれぞれのピクセル位置の差となる。
視差残差Δuは、実点距離Zsと、仮想点距離Zcと、両画像センサC1及びC2の基線長Lとに基づき、関係式(111)にしたがって定義される(図4参照)。
Δu=L{(1/Zs)-(1/Zc)} ..(111)。
「u」は基準画像座標系(又は参照画像座標系)における横方向の位置を表わす座標値である。平行ステレオの場合、u軸の方向はエピポーラ線と平行になる。基準画像と、視差残差Δuが存在するという仮定下での参照画像との輝度の誤差ΔIは、エピポーラ拘束条件を考慮に入れて、関係式(112)により表現される(図5(b)参照)。
ΔI=(∂I/∂u)^eepΔu ..(112)。
「^eep」は基準画像座標系におけるエピポーラ線の方向を表わす単位ベクトルである。ここで(∂I/∂u)は輝度勾配を表すベクトルであり、「(∂I/∂u)^eep」はエピポーラ線方向の輝度勾配を表す。特にu軸とエピポーラ線が平行の場合,u軸方向のみの輝度勾配となる。関係式(112)にしたがって、距離残差ΔZ=Zs−Zcが存在する場合の輝度残差ΔIが計算されうる。
関係式(112)は、同一時刻において基準画像センサC1及び参照画像センサC2のそれぞれにより撮像された同一箇所の指定物理量(ここでは輝度)は同一であるという拘束条件にしたがって、距離計測値Dsに応じて基準画像センサC1の「s」(基準画像座標系におけるピクセル位置)を参照画像センサC2に投影したピクセル位置と、距離候補値Dcに応じて基準画像センサC1の「s」を参照画像センサC2に投影したピクセル位置との偏差である視差残差Δuが、輝度残差(指定物理量の偏差)に変換されることを表わしている。
第1演算処理要素11により、関係式(112)にしたがって輝度残差ΔIが第1偏差e1として算出されてもよい。
Δu=(du/dZc)ΔZ及びΔZ=Zs−Zcという関係式にしたがって関係式(111)が変形されることにより、視差残差Δuは関係式(113)によって表現される。
Δu=-(L/Zc2)(Zs-Zc) ..(113)。
関係式(113)によれば、仮想点距離Zcが対象点距離Zとして定義された場合、視差残差Δuは対象点距離Zの逆数(1/Z)のべき乗に比例する項を含む。このため、関係式(11)の第1コスト関数f1の対象点距離Zに対する依存性を、視差残差Δuのそれと少なくとも部分的に一致又は近似させることができる。したがって、この第1コスト関数f1は、当該視差残差Δuを一義的に定める、基準画像センサC1、参照画像センサC2、実点Psの位置及び仮想点Pcの位置の幾何学的な配置関係に鑑みて妥当な形で定義されていることがわかる。
第1コスト関数f1は、第1偏差e1又は第1偏差e1及び対象点距離Zに加えて、距離画像センサC0による距離計測値Ds’の確度r1を変数とする多変数関数であってもよい。第1コスト関数f1は、確度r1について連続的又は段階的な減少関数として定義される。
確度r1(s)は、距離画像センサC0の受光強度の増加関数として定義される。すなわち、距離画像座標系におけるピクセル位置sの画素値の基礎となった、1次距離画像座標系におけるピクセル位置における距離画像センサの受光強度が高いほど、確度r1(s)の値が大きくなる。この場合、第1コスト関数f1は、たとえば関係式(12)〜(15)のうちいずれか1つにしたがって定義される。
f1(e1, Z, r1)=Σsh1(r1(s))g1(Z(s))e1 2(s),
h1(r1)=1/r1 n(n>0。たとえばn=1。) ..(12)。
f1(e1, Z, r1)=h1sr1(s)/N)Σig1(Z(s))e1 2(s),
h1(r1)=1/r1 n(n>0。たとえばn=1。Σsr1(s)/Nは対象領域に属するピクセル群の確度r1の平均値。) ..(13)。
f1(e1, r1)=Σsh1(r1(s))e1 2(s) ..(14)。
f1(e1, r1)=h1sr1(s)/N)Σie1 2(s) ..(15)。
第2演算処理要素12は、基準画像センサC1及び参照画像センサC2のそれぞれが、同一の仮想面を撮像しているという仮定下で、参照画像を基準画像座標系に座標変換することにより変換画像を生成する(図2/STEP012)。具体的には、基準画像座標系のピクセル位置s1に対して、参照画像座標系のうち当該仮想面の位置及び姿勢に応じた視差が存在する場合におけるピクセル位置s2の輝度が割り当てられた画像が変換画像として取得される。
第2演算処理要素12は、基準画像座標系及び変換画像座標系の同一ピクセル位置sにおける画素値の偏差としての第2偏差e2に基づき、第2コスト関数f2にしたがって「第2コスト」を算定する(図2/STEP014)。
第2コスト関数f2は、第2偏差e2を変数とする連続的又は段階的な増加関数である。すなわち(∂f2/∂e2)>0又はf2(e2+δe2)−f2(e2)>0(δe2>0)という関係式が成立する。第2コスト関数f2は、たとえば関係式(20)にしたがって定義されている。
f2(e2)=Σse2 2(s) ..(20)。
第2偏差e2は仮想面の平面パラメータ^q=^n/dを変数とする関数であるため、第2偏差e2に基づいて算出される第2コストも仮想面の平面パラメータ^qを変数とする関数となる。
第2コスト関数f2は、第2偏差e2又は第2偏差e2及び対象点距離Zに加えて、基準画像センサC1及び参照画像センサC2のうち少なくとも一方による画素値の確度r2を変数とする多変数関数であってもよい。第2コスト関数f2は、確度r2について連続的又は段階的な減少関数として定義される。
確度r2(s)は、たとえば、画素の微分値が特徴的な値になるか否かという基準にしたがって、高低が定まる関数として定義される。この場合、第2コスト関数f2は、たとえば関係式(21)又は(22)にしたがって定義される。
f2(e2, r2)=Σsh2(r2(s))e2 2(s),
h2(r2)=1/r2 m(m>0。たとえばm=1。) ..(21)。
f2(e2, r2)=h2sr2(s)/M)Σse2 2(s),
h2(r2)=1/r2 m(m>0。たとえばm=1。Σsr2(s)/Mは基準画像センサの対象領域又は参照画像センサにおいてこれに対応する領域に属するピクセル群の確度r2の平均値。) ..(22)。
確度r2(s)は、画素値である輝度の勾配が基準値以下である場合、予め定められている正の所定値とされてもよい。
第3演算処理要素13は、第1コストと第2コストとの合計コストCが最小値に近づくように、最小二乗法にしたがって仮想面を探索する(図2/STEP016)。これにより、被写体の表面の位置及び姿勢が推定される。前記のように第1コスト及び第2コストはともに仮想面の平面パラメータ^qを変数とする関数であるため、合計コストCも関係式(31)又は(32)により表現されるように、平面パラメータ^qの関数C(^q)として定義される。
C(^q)=f1(^q)+f2(^q) ..(31)。
C(^q)=αf1(^q)+(1-α)f2(^q), (0<α<1)..(32)。
また、関係式(112)及び(113)により、輝度残差ΔIと距離残差ΔZとの関係が対応付けられている。このため、第1偏差e1が輝度残差ΔIにより、幾何学的な配置関係に鑑みて妥当な形で、同次元で表現されうる。或いは、第2偏差e2が距離残差ΔZにより、幾何学的な配置関係に鑑みて妥当な形で、同次元で表現されうる。
そして、仮想面の平面パラメータを(∂C(^q)/∂^q)に応じた分だけ変動させる勾配法にしたがって、合計コストCを最小値にする平面パラメータ^qが探索される。
合計コストの前回値と今回値との差が閾値以下になる等、平面パラメータ^qが一定の収束条件を満足しているか否かに応じて、仮想面の探索が終了したか否かが判定される(図2/STEP018)。当該判定結果が否定的である場合(図2/STEP018‥NO)、前回平面パラメータ^q(k)(kは平面パラメータの更新回数を表わす指数である。)が勾配法にしたがって更新された結果としての今回平面パラメータ^q(k+1)が設定される(図2/STEP008)。その上で前記した一連の処理が繰り返される(図2/STEP010〜STEP018)。
その一方、当該判定結果が肯定的である場合(図2/STEP018‥YES)、第3演算処理要素13は、その時点での平面パラメータ^qによって定義される仮想面の位置及び姿勢を、被写体の表面の位置及び姿勢として推定する(図2/STEP020)。
図6(a)には左から順に、基準画像、参照画像及び距離真値を画素値として有する距離画像の一例が示されている。距離画像において、画素値である距離が遠いほど明度が低く、画素値である距離が近いほど明度が高くなっている。図6(b)には、本発明の環境認識方法にしたがって得られた距離画像が示されている。その一方、図6(c)には、従来技術である非特許文献1記載の手法をステレオカメラより得られた輝度情報に適用し得られた距離画像が示されている。
基準画像及び参照画像に含まれる物体表面は実際にはほぼ平面状であるものの(図6(a)参照)、従来技術によれば、その表面における文字又は画像などの存在に由来して、物体表面に比較的大きい凹凸が存在することを表わす距離画像が取得される(図6(c)参照)。その一方、本発明によれば、物体表面にわずかな凹凸が存在するもののほぼ平面状であって、実際に近い距離画像が取得されており、環境認識精度の向上が図られていることがわかる(図6(b)参照)。
なお、可視光カメラを通じて取得される色(RGB値)、赤外光カメラを通じて取得される温度など、可視光カメラを通じて取得される輝度とは異なる物理量が指定物理情報として距離画像が推定されてもよい。
本発明の環境認識装置1によれば、第1コスト関数が対象点距離Zの減少関数として定義されているので、対象点距離Zが長いほど当該ピクセルの第1コストが小さく評価される(関係式(11)〜(15)参照)。したがって、対象点距離Zの測定又は推定誤差が大きい蓋然性が高いピクセルの第1コストの合計コストCに対する寄与度が小さくなる。これにより、被写体の表面位置および姿勢を表わす平面パラメータ^qの推定精度の向上が図られる。
さらに、合計コストCが第1偏差e1の二乗和及び対象点距離Zの逆数(1/Z)のべき乗、並びに、第2偏差e2の二乗和に基づいて計算される(関係式(10)〜(15)及び関係式(20)〜(22)参照)。このため、評価関数が当該残差の対数関数又は指数関数である場合(例えば非特許文献2の式(5)参照)と比較して、合計コストの計算量を低減し、その計算速度の向上を図ることができる。
1‥環境認識装置、11‥第1演算処理要素、12‥第2演算処理要素、13‥第3演算処理要素、C0‥距離画像センサ、C1‥基準画像センサ、C2‥参照画像センサ。

Claims (7)

  1. 被写体までの距離を計測するように構成されている距離画像センサと、
    前記被写体を撮像することにより、当該被写体の指定物理量を画素値として有する複数のピクセルによって構成される基準画像を取得するように構成されている基準画像センサと、
    前記被写体を撮像することにより、当該被写体の前記指定物理量を画素値として有する複数のピクセルによって構成されている参照画像を取得するように構成されている参照画像センサと、を用いて前記被写体の表面の位置及び姿勢を推定する装置であって、
    前記基準画像の少なくとも一部である対象領域に属する各ピクセルについて、前記距離画像センサによる距離計測値により位置が定まる実点と、当該実点を前記基準画像センサの視線方向について仮想面に投影した結果としての仮想点との間隔の長短に応じて定まる第1偏差と、前記基準画像センサの光軸方向について前記基準画像センサと前記実点及び前記仮想点のうち一方である対象点との距離である対象点距離とに基づき、前記第1偏差について増加関数であり、かつ、前記対象点距離について減少関数である多変数関数として定義されている第1コスト関数にしたがって、第1コストを算定するように構成されている第1演算処理要素と、
    前記基準画像の前記対象領域に属する各ピクセルについて、前記基準画像のピクセルの画素値と、前記仮想面の位置及び姿勢に応じた形で当該基準画像のピクセルに対応する前記参照画像のピクセルの画素値との偏差としての第2偏差に基づき、前記第2偏差について増加関数である第2コスト関数にしたがって第2コストを算定するように構成されている第2演算処理要素と、
    前記基準画像の前記対象領域に属する複数のピクセルについて、前記第1コストと前記第2コストとの総和である合計コストをその最小値に近づけるように前記仮想面を探索することにより、前記被写体の表面の位置及び姿勢を推定するように構成されている第3演算処理要素とを備えていることを特徴とする環境認識装置。
  2. 請求項1記載の環境認識装置において、
    前記第1コスト関数が前記距離画像センサによる前記被写体までの距離の測定結果の確度について減少関数として定義され、
    前記第1演算処理要素は、距離の測定結果の確度を認識した上で、前記第1偏差と、前記対象点距離と、当該確度とに基づき、前記第1コスト関数にしたがって前記第1コストを算定するように構成されていることを特徴とする環境認識装置。
  3. 請求項1又は2記載の環境認識装置において、
    前記第2コスト関数が前記基準画像センサ及び前記参照画像センサのうち少なくとも一方による画素値の測定結果の確度について増加関数として定義され、
    前記第2演算処理要素は、画素値の測定結果の確度を認識した上で、少なくとも前記第2偏差と、当該確度とに基づき、前記第2コスト関数にしたがって前記第2コストを算定するように構成されていることを特徴とする環境認識装置。
  4. 請求項1〜3のうちいずれか1つに記載の環境認識装置において、
    前記第3演算処理要素は、最小二乗法にしたがって前記被写体の表面の位置及び姿勢を推定するように構成されていることを特徴とする環境認識装置。
  5. 被写体までの距離を計測するように構成されている距離画像センサと、
    前記被写体を撮像することにより、当該被写体の指定物理量を画素値として有する複数のピクセルによって構成される基準画像を取得するように構成されている基準画像センサと、
    前記被写体を撮像することにより、当該被写体の前記指定物理量を画素値として有する複数のピクセルによって構成されている参照画像を取得するように構成されている参照画像センサと、を用いて前記被写体の表面の位置及び姿勢を推定する装置であって、
    前記距離画像センサにより取得された距離画像の複数のピクセル位置のそれぞれについて、前記基準画像センサ及び前記参照画像センサのそれぞれにより撮像された同一箇所の前記指定物理量は同一であるという拘束条件にしたがって、距離計測値に応じた前記基準画像センサのピクセル位置を参照画像センサに投影したピクセル位置と、距離候補値に応じた前記基準画像センサのピクセル位置を参照画像センサに投影したピクセル位置との偏差である視差残差に基づいて第1偏差を算出するように構成されている第1演算処理要素と、
    前記基準画像センサ及び前記参照画像センサが前記距離候補値に応じた視差を有するという仮定に基づき、当該視差に応じた形で当該基準画像のピクセルに対応する前記参照画像のピクセルの画素値を取得した上で、前記基準画像及び前記参照画像の複数のピクセルのそれぞれについて画素値である前記指定物理量の偏差を第2偏差として算出するように構成されている第2演算処理要素と、
    前記第1演算処理要素により算出された前記第1偏差と、前記第2演算処理要素により算出された前記第2偏差とに基づき、前記基準画像と前記参照画像との乖離度を算出するととともに、複数の前記距離候補値のうち前記乖離度が最小になるような前記距離候補値を、前記距離画像の各ピクセルにおける距離真値として推定するように構成されている第3演算処理要素とを備えていることを特徴とする環境認識装置。
  6. 請求項5記載の環境認識装置において、
    前記第1演算処理要素が、前記視差残差から前記指定物理量の偏差への変換を実行することにより、前記第1偏差を算出することを特徴とする環境認識装置。
  7. 請求項6記載の環境認識装置において、
    前記第1演算処理要素が、前記視差残差に対して前記指定物理量のエピポーラライン方向の勾配を乗じることにより、前記変換を実行することにより、前記第1偏差を算出することを特徴とする環境認識装置。
JP2011267169A 2011-12-06 2011-12-06 環境認識装置 Expired - Fee Related JP5515018B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011267169A JP5515018B2 (ja) 2011-12-06 2011-12-06 環境認識装置
US13/693,719 US8896689B2 (en) 2011-12-06 2012-12-04 Environment recognition apparatus
DE102012222361.4A DE102012222361B4 (de) 2011-12-06 2012-12-05 Umgebungserkennungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011267169A JP5515018B2 (ja) 2011-12-06 2011-12-06 環境認識装置

Publications (2)

Publication Number Publication Date
JP2013120083A JP2013120083A (ja) 2013-06-17
JP5515018B2 true JP5515018B2 (ja) 2014-06-11

Family

ID=48431632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011267169A Expired - Fee Related JP5515018B2 (ja) 2011-12-06 2011-12-06 環境認識装置

Country Status (3)

Country Link
US (1) US8896689B2 (ja)
JP (1) JP5515018B2 (ja)
DE (1) DE102012222361B4 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9098754B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
JP6843552B2 (ja) * 2016-08-23 2021-03-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム。
JP7119444B2 (ja) * 2018-03-13 2022-08-17 株式会社リコー 測距システム、測距方法、車載装置、車両
JP2020003236A (ja) * 2018-06-25 2020-01-09 株式会社リコー 測距装置、移動体、測距方法、測距システム
CN110895822B (zh) * 2018-09-13 2023-09-01 虹软科技股份有限公司 深度数据处理***的操作方法
JP7312275B2 (ja) * 2019-12-25 2023-07-20 京セラ株式会社 情報処理装置、センシング装置、移動体、情報処理方法、及び、情報処理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3614935B2 (ja) * 1995-06-20 2005-01-26 オリンパス株式会社 三次元画像計測装置
JP2006331108A (ja) * 2005-05-26 2006-12-07 Tama Tlo Kk 画像処理装置、画像処理方法、および、プログラム
JP2007081806A (ja) * 2005-09-14 2007-03-29 Konica Minolta Holdings Inc 撮像システム
JP4814669B2 (ja) * 2006-03-28 2011-11-16 株式会社デンソーアイティーラボラトリ 3次元座標取得装置
JP4392507B2 (ja) * 2006-11-08 2010-01-06 国立大学法人東京工業大学 3次元サーフェス生成方法
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
JP2009186287A (ja) * 2008-02-05 2009-08-20 Tokyo Institute Of Technology 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム
JP2011013803A (ja) * 2009-06-30 2011-01-20 Ihi Corp 周囲形状検出装置、自律移動装置、移動体の操縦補助装置、周囲形状検出方法、自律移動装置の制御方法及び移動体の操縦補助方法
JP2011203148A (ja) * 2010-03-26 2011-10-13 Toyota Motor Corp 推定装置、推定方法、及び推定プログラム

Also Published As

Publication number Publication date
DE102012222361B4 (de) 2016-12-15
DE102012222361A1 (de) 2013-06-06
US8896689B2 (en) 2014-11-25
JP2013120083A (ja) 2013-06-17
US20130141546A1 (en) 2013-06-06

Similar Documents

Publication Publication Date Title
WO2021093240A1 (en) Method and system for camera-lidar calibration
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5515018B2 (ja) 環境認識装置
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US9672630B2 (en) Contour line measurement apparatus and robot system
US10083512B2 (en) Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system
US9639942B2 (en) Information processing apparatus, information processing method, and storage medium
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP5959899B2 (ja) 接触状態推定装置
JP6370038B2 (ja) 位置姿勢計測装置及び方法
US20130230235A1 (en) Information processing apparatus and information processing method
KR100855657B1 (ko) 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
JP5615055B2 (ja) 情報処理装置及びその処理方法
JP2019000136A (ja) 視線計測装置及びプログラム
JP2011174880A (ja) 位置姿勢推定方法及びその装置
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
JP6282377B2 (ja) 3次元形状計測システムおよびその計測方法
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP4935769B2 (ja) 平面領域推定装置及びプログラム
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及***
Yamano et al. Improving the accuracy of a fisheye stereo camera with a disparity offset map
JP4590592B2 (ja) 三次元計測装置および三次元計測方法
Iida et al. High-accuracy Range Image Generation by Fusing Binocular and Motion Stereo Using Fisheye Stereo Camera
JP5359477B2 (ja) 道路領域推定装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140226

R150 Certificate of patent or registration of utility model

Ref document number: 5515018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees