JP4424797B2 - 3D shape detection method - Google Patents

3D shape detection method Download PDF

Info

Publication number
JP4424797B2
JP4424797B2 JP33571599A JP33571599A JP4424797B2 JP 4424797 B2 JP4424797 B2 JP 4424797B2 JP 33571599 A JP33571599 A JP 33571599A JP 33571599 A JP33571599 A JP 33571599A JP 4424797 B2 JP4424797 B2 JP 4424797B2
Authority
JP
Japan
Prior art keywords
correspondence
image
parallax
degree
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33571599A
Other languages
Japanese (ja)
Other versions
JP2001153633A (en
Inventor
収文 中山
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP33571599A priority Critical patent/JP4424797B2/en
Publication of JP2001153633A publication Critical patent/JP2001153633A/en
Application granted granted Critical
Publication of JP4424797B2 publication Critical patent/JP4424797B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、立体映像通信や、立体映像放送、立体画像生成、3次元形状計測、3次元物体認識、移動ロボット用ナビゲーションなど、ステレオ画像に基づく3次元情報の抽出を行なう広範囲の産業分野で利用することができる、両眼視差を用いて立体の3次元位置や形状を安定に検出する立体形状検出方法に関する。
【0002】
【従来の技術】
従来より、2つあるいは3つ以上の撮像手段により得た2つあるいは3つ以上の画像による両眼視差を利用して立体の形状を検出する方法が各種提案されている。この種の立体形状検出方法の原理を、最も基本となる2つの撮像手段による場合について図14を用いて説明する。
テレビカメラのような一対の撮像手段(以下カメラという)1−1,1−2の撮像面I1、I2に対してレンズL1、L2を通じて物体上の同一点Pが投影されている。ここで、撮像面I1、I2は互いに同一平面上に配置され、各撮像面から対応するレンズ間での焦点距離fは等しく、さらにカメラ1−1,1−2の光軸は互いに平行でbだけ離れて設置してあるとする。
【0003】
もし、一対の撮像手段1−1,1−2が任意の配置となっていても、カメラ間の幾何関係をあらかじめ測定しておくことで、撮像された画像を上記状態で得られた画像に変換することは可能である。したがって、上記状態を基準に話を進める。このとき、物体上の点Pは撮像された画像ではそれぞれp1 (p1x,p1y)、p2 (p2x,p2y)の位置で観測される。ここで、両画像で対応する点の画像上での位置のずれを視差dとよぶ。ここでは、d=p2x−p1xとなる。
一方のカメラ(ここではカメラ1−1とする) から見た時の物体点pの3次元座標(X1,Y1,Z1)は以下の式(1a)〜(1c)のように表される。
【0004】
Z1=f・(b/d) …(1a)
X1=p1x・(b/d)…(1b)
Y1=p1y・(b/d)…(1c)
【0005】
ここで、Z1はカメラ1−1からの距離、fはカメラの焦点距離、bは両カメラ間距離、dは視差、X1はカメラ1−1からの3次元X座標、p1xは画像中心からのX座標、Y1はカメラ1−1からの3次元y座標, p1yは画像中心からのY座標である。
このように、3次元情景中の任意の点に対する両画像での投影点を定めれば、投影点の画像での座標値と視差値が求められるので、上式(1a)〜(1c)により3次元位置を求めることができる。これが両眼視による3次元位置算出の原理である。なお、3つ以上の撮像手段を用いた場合でも、任意の2つの撮像手段を考えれば、上記と同じとなる。
【0006】
上記原理より明らかなように、視差を用いて3次元位置を求めるためには、両画像で対応する同一物体の投影点を求めることが必要である。これを「対応探索問題」と呼ぶ。
以下、「対応探索問題」についてさらに詳しく説明する。
いま、一対の撮像手段により得られたステレオ画像を考える。一方の画像( ここでは左画像とする) のある点p1 に着目する。このとき、他方画像(ここでは右画像とする) でのp1 に対応する点p2 は、2つのカメラの位置関係より決定されるエピポーラ線と呼ばれる拘束線上に位置する。
【0007】
ここでは2つのカメラの光軸は互いに平行と等価な場合に画像変換を行なうので、エピポーラ線は同一走査線( 同一y座標) で、かつ、p2 はp1 を他方画像へ写した位置より左方に位置する。したがって、対応点探索には左画像の各位贋(p1 )に対して、右画像での同一走査線上を、p1 のx座標より左方に向けてある探索範囲Rだけ走査しながら最も類似した箇所を定めることで対応する組みが得られる。このとき、点のみで類似度を定めるのは困難なため、点を含む一定の範囲の情報を利用して類似度を求める。
一般には、探索範囲には複数の対応候補が存在するので、真の対応箇所を定めることは容易ではなく、いかに正しく対応箇所を得るかが両眼視差を用いる3次元距離計測の要点である。
【0008】
これまで提案された代表的な方式としては以下のものに大別できる。
(1) 画像の各位置で独立に対応を求める方法。
(2) 画像の各位置で周囲の一定範囲あるいは画像全体での何らかの支持を元に対応を求める方法。
上記(1) の代表的なものとしては、一方の画像を一定の大きさを持つ小領域に区切り各小領域に対して、あるいは一方の画像の各画素に対して、あるいは一方の画像の特徴点に対して、他方画像を走査して小領域内の輝度分布の類似性を、正規化相関、輝度差の絶対値和(SAD)、輝度値の差の2乗和(SSD)などで評価して最も類似した部分と対応を付けるものがある。
【0009】
上記(2) では以下のものなどがある。
(a) 近傍の距離変化は小さいとして視差変化の大きさに制限を設ける方法。
(b) 局所的な領域で求めた対応度合(対応エネルギー)と隣り合う領域の視差の違いで定義される歪みエネルギーの画像全体の総和を弛緩的に最小化することで全体で最も良い対応を得るエネルギー最小化法。
(c) 対応付ける特徴量の信頼性に着目して高信頼なエッジ点から順に対応を求めていき、より信頼性が低いエッジ点の対応に既に求まったより信頼性の高いエッジ点の対応情報を利用するもの。
【0010】
ここでは、(c) 特徴の信頼性に基づく方法(山口・中山・白井・浅田「信頼性の高い対応を優先した多段階ステレオ法」電子情報通信学会論文誌、Vo1,J74-D-II、No.7,1991 )について説明する。
これによれば、輝度値の急変する部分(エッジ点) を対応付ける特徴点とするとき、次の2つの特長を持つ。
i)エッジ点の位置情報は輝度変化(コントラスト)が大きいほど確かで逆に低いほど不安定なる。
ii) 画像においてコントラストが大きいエッジ点の個数は少ないので対応候補が少なく容易に対応付けられる。
これら特長に着目し、あらかじめエッジをコントラスト値の大きさで複数のグループに分類しておき、まず、最もコントラストの高いグループに属す信頼が高く容易に対応付けられるエッジ点の対応を求め、順によりコントラストの低いグループのエッジ点を対応付ける。
【0011】
【発明が解決しようとする課題】
まず、前記(1) の画像の各位置で独立に対応を求める方法では、画像の各位置で独立に対応を求めている。しかし、独立に対応付けたのでは、対象情景中に類似した形状の立体が複数あったり繰り返し模様を含む物体があると、真に対応する部分と偽の対応の部分との類似度の違いはわずかであるため、画像のノイズや照明の影響により容易に誤った部分と対応してしまう。実際には物体のない位置の距離を示すことがある。
次に、前記(2) の周囲の何らかの支持を元に対応を求める方法の問題について述べる。
【0012】
まず、前記(a) の方法では、着目部分の対応を独立に求めるのではなく、近接領域との視差変化の大きさに制限を設けて周囲の対応状況を反映させることで安定した対応を得ている。
しかし、画像中に設けた着目部分をあらかじめ決められた順序で走査して、対応付けの難易度に無関係に処理するものがほとんどであり、繰り返しパターンがあるなど対応付けが困難な部分を先に対応付けてしまい、もしその部分が誤対応となれば、その影響が後段に伝わり、結果として広い範囲で誤った対応を生じる。
【0013】
次に前記(b) の方法では、エネルギー最小化により画像の部分でなく全体の対応の一貫性を考えることで、矛盾のない対応を得ているが、一般にエネルギー最小化には多くの繰り返し演算が必要であり実用的でない。
また前記(c) の方法では、グループ分けはコントラストの大きさにより分けているが、同一コントラスト群に属すエッジ点については、従来の固定的な順序で対応を求めているので、繰り返しパターンでの順序性による誤対応伝播の問題がある。
しかも、高コントラストのエッジの対応に誤りを生じると、その情報が後段のよりコントラストの低いエッジ点への対応付けに利用され、結果として誤った情報が広範囲に伝播して誤対応が増加する。さらに、対応付けの初期段階では高コントラストの少量のエッジ点しか用いないので、視差のヒストグラムに投票するエッジ点の個数が少なくヒストグラム形状が不安定となり、繰り返しパターンにより弱くなるという問題もある。
【0014】
本発明は上記した事情を考慮してなされたものであって、従来では対応付けが困難であった繰り返しパターン部の対応を安定に得ることができ、画像全体から正しい対応を得ることができる立体形状検出方法を提供することである。
【0015】
【課題を解決するための手段】
立体の3次元情報獲得する方法を基本である2つの撮像装置を用いた場合について本発明を説明する。
2次元の配列で各要素に値を持つ形式の情報を画像と定義する。図1に示すように、一対のテレビカメラなどの撮像手段1−1,1−2を用いて対象情景を撮像して2つの画像を得る。これをステレオ画像と呼ぶ。もし、一対の撮像手段1−1,1−2の光軸が互いに平行でかつ撮像面が同一平面上にないならば、画像補正部3で取得したカメラの外部(幾何)パラメータおよびカメラ内部パラメータを用いて、互いに平行に置かれた一対の撮像手段1−1,1−2で得られた画像と等価となるように画像補正を行ない、特徴抽出部4において2つの画像毎に特徴画像を抽出する。
【0016】
次いで、上記特徴画像を入力とし、ステレオ対応付け部5で情景中にある立体2の2つの画像での投影点を定めることで2つの画像を対応付け、2つの画像間での位置のずれ(両眼視差:以下では単に視差と呼ぶ) を求め、距離変換部6において前記した式(1a)〜(1c)によりカメラ1−1からの3次元位置を定める。
2つの画像での同一立体2の投影点は、一方の画像のある部分ついて他方面像中から似通った部分を探索することで得る。ここで、対象情景中に類似した形状の立体が複数あったり、繰り返し模様を含む物体があると、それら類似パターンのために似通った部分が複数存在して対応が曖昧となる。このような場合に、最も似通った部分と対応付けると、画像のノイズや照明の影響により容易に誤った部分と対応して、実際とは異なった3次元位置を算出する可能性がある。
【0017】
そこで、本発明では、両画像間での対応の唯一性を対応の安定度の指標として、対象領域の位置によらず、対応の安定度(唯一度)の高い順序で対応付けることで、従来手法の問題である固定の走査順序による誤った対応情報の伝播を防ぐ。これにより繰り返しパターンの存在下でも安定な対応は他の影響を受けず正しい対応を得ることを可能とする。
また、繰り返しパターン部など局所的には類似したパターンがあり安定度が低い部分の対応を求めるときには、周囲にある既に対応の求まった安定度の高い部分の視差値の助けを得ることで対応情報を伝播していき、徐々に安定した対応を得る。このように、対応が唯一で曖昧性がないという意味で最適な順序で対応を求めているので、繰り返しパターンの存在下でも安定した対応が得られる。
上記対応の唯一性は次のように求める。一方の画像の着目領域と他方画像での対応候補領域とで定義される何らかの類似度を、候補領域を走査しながら求めた類似度分布について、類似度が最も高い部分が次に高い部分に比べて突出しているほど唯一性が高いとする。
【0018】
すなわち、本発明においては、図1に示すように、ステレオ対応付け部5に、撮像した同じ物体を含む情景の画像を小領域に分割する小領域分割手段5aと、一方の画像の各小領域に対して、他方画像の探索範囲内における局所画像の対応の唯一性を評価して対応度を定める対応度計算部5bと、上記対応度に基づき処理順序を決定する処理順序決定部5cと、上記処理順序で上記両小領域を対応付ける小領域対応付け部5dを設ける。そして、対応度計算部5bにおいて、対応の求まっていない小領域毎に探索領域内での類似度の分布を作成し、該類似度の分布から対応可能性を決める対応度を求める。次いで、処理順序決定部5cで対応度のよいものから順番に並べ、小領域対応付け部5dにおいて安定した対応が得られる部分から順に対応を求めていく。
また、類似パターンなどで局所的には対応が求まらない部分については、周囲にある既に対応が求まった部分の対応情報を利用することで徐々に安定した対応を得る。
【0019】
対応付ける特徴量としては、エッジを用いる場合にはコントラストによらず着目領域内の全てのエッジ点を用い、輝度値を用いる場合には、着目領域内の輝度値分布をそのまま利用することで、十分な数の特徴により安定した類似度分布を得て、正しい対応の取得を可能となる。
これにより、対応が明らかな部分は他に影響されず安定に対応が求まり、繰り返しパターンなどで対応が不明確な部分は周囲からの既に対応の求まった小領域の対応情報を使用することで安定した対応を得ることができる。
したがって、画像全体に渡って安定して正しい視差が得られるので、立体の3次元位置や形状を正しく求めることが可能となる。
また、上記において、一方の画像から同一画像へ対応を求めた場合の自己対応度と、一方の画像から他方の画像へ対応を求めた場合の他己対応度を用いて小領域の対応度を求めてもよい。
【0020】
【発明の実施の形態】
図2は本発明の実施例のシステムの構成例を示す図である。同図において、11はCPU、12はCRT、液晶ディスプレイ等の表示装置、キーボード、マウス等の入力装置から構成される入出力装置、13はROM、RAM等から構成されるメモリ、14はプログラム、データ等を記憶する外部記憶装置、15は電話回線を使用してデータ通信をするためのモデム、LAN等のネットワークを使用してデータ通信を行うためのネットワークカード等を含む通信インタフェースである。
【0021】
撮像装置(以下カメラという)1−1,1−2で撮像された対象情景は、インタフェースI/Fを介してCPU11に入力される。外部記憶装置14には本発明の処理を行うためのプログラムが格納されており、CPU11に入力された対象情景は上記プログラムで処理されて立体形状が検出され、処理結果が外部記憶装置14に格納され、また入出力装置11から出力される。また、第3のカメラ1−3を設け、第3のカメラ1−3で撮像された対象情景をCPU11に入力し、上記カメラ1−1,1−2で撮像された対象情景に加えて、カメラ1−3で撮像された対象情景を利用して立体形状を検出するようにしてもよい。
【0022】
次に本発明の第1の実施例の対応付け処理の概略を図3により説明する。なお、ここでは2台のカメラを用いて対象情景を撮像した場合について説明するが、上記のように3台以上のカメラを用い、これらのカメラで撮像された対象情景のそれぞれの対応を取り、より対応度の高いものを用いて立体形状を検出するようにしてもよい。
図3において、カメラ1−1,1−2により対象情景を撮像し、その結果であるa,bの2つの濃淡画像(左右濃淡画像) を得る。ここで、一対のカメラ1−1,1−2間の位置関係は任意とするが、あらかじめ何らかの手段によって2つのカメラ間の幾何的な関係は求まっているものとする。なお、ここでは便宜上カメラ1−1を左カメラ、カメラ1−2を右カメラと呼ぶ。以下ではこの規則にのっとり、左と右の接頭文字を付けて2つのカメラの出力を区別する。
【0023】
次に、画像補正部3では、2つのカメラ1−1,1−2で撮像された2つの画像について、2つのカメラ1−1,1−2の光軸が平行で、しかも撮像面が同一平面となるような関係(基準配置) にしたときに観測できる画像となるように、画像補正部3においてカメラ間の幾何関係を用いて2つの濃淡画像a、bを補正し、左右補正濃淡画像c,dを得る。
上記補正は、任意位置でのカメラに対する基準配置のカメラのX,Y,Z軸それぞれの回転角度をθ、φ、ξとし、2次歪み係数をκとすると、基準配置での画像の座標pc (xc ,yc )は、任意位置で撮像された画像の座標po (xo ,yo )を用いて以下の式(2a),(2b) のように表される。
【0024】
【数1】

Figure 0004424797
【0025】
この関係式により任意配置のカメラで撮像された両画像を基準配置のカメラで撮像した画像に変換できる。これら補正濃淡画像c,dより特徴抽出部4で2つの画像毎に特徴画像e,f(エッジ点、エッジ強度、エッジ方向) を求める。
エッジ点、エッジ強度、エッジ方向を求める手段についてはここでは言及しないが、例えばエッジ点は濃淡画像にラプラシアンガウシアンを積和的に作用させたもののゼロ交差点から得られ、エッジ強度は濃淡画像にグラーディエントガウシアンを積和的に作用させて得られたベクトルの大きさで、また、エッジ方向はそのベクトルの方向でそれぞれ得ることもできる。
ステレオ対応付け部5では、これら特徴画像e,fを入力として2つの画像のエッジ点間の対応付け処理を行ない、各エッジ点位置について視差値を持つ視差画像gを得る。この視差画像gより距離変換部6で前記式(1a)〜(1c)で示した関係式を用いて対象物の距離hを算出する。
【0026】
次に、図3におけるステレオ対応付け処理部5の詳細について図4により説明する。
ステレオ対応付け処理部5では、図4に示すように、まず左特徴画像を、小領域分割部5aにおいて一定の大きさの小領域に分割する。このとき、小領域は互いに重ならないように配置しても良いし、互いにある程度重なるように小領域を配置しても良い。ここでは、小領域の一辺の大きさの1/2だけずらしながら配置したものを考える。
次に、対応度計算部5bでは、対応の求まっていない小領域(以下では未対応小領域と呼ぶ) 毎に、属するエッジ点と、その対応候補点を用いて対応可能性の善し悪しを決める対応度を求める。ここで、対応候補点とは、他方特徴画像(右特徴画像) のエピポーラ線上で対応探索範囲にあるエッジ点群でエッジの属性(エッジ強度とエッジ方向) が対応付ける対象のエッジと類似しているものを指す。また、対応度を求めるとは、小領域を代表する視差(代表視差と呼ぶ) を求めるとともに、その視差がどれだけ安定しているかを定めることを意味する。
【0027】
これに続き、対応度による処理順序決定部5cでは、未対応小領域について対応度の良いものから順に並べ、その上位α%を「対応付け処理対象小領域」とする。ここで、上位α%の代わりに、上位β個としても良い。
次に、上記「対応付け処理対象小領域」とされた各小領域について、小領域対応付け部5dにおいて、小領域に属す各エッジ点について、他方特徴画像を調べ。そして、小領域の代表視差に相当する位置に実際にエッジ点があれば、それらエッジ点対を対応付ける。これにより、各エッジ点毎の視差値が求まる。それを前記した視差画像gに書き込む。さらに、実際に対応付けたエッジ点があれば、その旨を記録しておく。
次いで、対応点が一点以上求まったかを調べ、対応点が一点以上求まった場合には、前記対応度計算部5bに戻り、その周囲の未対応小領域に周囲伝播(後述する)させ、さらに対応度の良いものから悪いものへの一連の処理を繰り返す。そして対応点が求まらなくなったら処理を終了する。
【0028】
次に、上記対応度計算部5bについて図5を用いて説明する。対応度計算部5bにおいては、まず、小領域の中から未対応であってまだ対応度を計算していないものがあるかを調べ、未対応領域を求める(5b−1)。
そして、未対応領域について視差のヒストグラムを作成し、対応の類似度分布を求める(5b−2)。
続いて対応度計算処理部5b−3で小領域の代表視差および対応度を実際に計算する。この操作を対応度を求めていない未対応小領域について繰り返す。
【0029】
ここで、上述した視差のヒストグラムの作成方法について図6により説明する。ここでは左画像のある小領域について考える。
左画像の小領域に属す全てのエッジ点について次の操作を行なう。まず、あるエッジ点PLi に着目する。ここでは、左右補正画像は光軸が平行で撮像面が同一平面に位置するカメラで撮像された場合と同じとなるように補正されているので、PLi のエピポーラ線は水平線となり、PLi を右画像に投影するとPLi'の位置となる。
PLi の対応点はPLi'と同一水平線上で、かつ、PLi'よりも左側に位置する。ここで、探索範囲をRとして、PLi'から左に最大Rまで走査していき、得られたエッジ点の中で、PLi と属性値であるエッジ強度とエッジ方向が類似したエッジ点を対応候補点として抽出する。そして、これら対応点対とで定義される視差値でもって、横軸を視差値とし縦軸を頻度とする視差のヒストグラムに投票する。
【0030】
図6では、PR1〜PR3がPLi のエピポーラ線上から得られ、PR2、PR3は属性値が類似していたので対応候補となったが、PR1は属性値が異なっていたので対応候補とならなかった場合を示している。対応候補点PR2、PR3については、同図に示すようにそれぞれ視差がd1,d2となり、これを視差のヒストグラムに投票する。
同様の操作を、左小領域内の各エッジ点について行なうことにより、図6に示すような類似度分布として視差のヒストグラムが得られる。
【0031】
次に、図5に示した対応度計算処理部5b−3について図7により説明する。まず、図6に示した類似度分布に基づいて対応度算出部5b−31で対応度を計算する。対応度が閾値以下ならば周囲視差伝播部5b−32で周囲の小領域の対応情報を元に代表視差を決定するとともに対応度を再計算する。もし、対応度が閾値以上ならばその対応度を採用する。
以下、対応度算出部5b−31について更に詳述する。
ここで、図8に示すような類似度分布があったとする。ここでは、類似度分布のピークの大きさの大きい順にP1,P2,…とし、それを与える視差値をd1,d2…とし、最大ピークP1の左右それぞれでの谷の位置をv1,v2としている。ここで、最大ピーク値(Pm)、ピーク比(Pr)、尖度(Pk)、対応集中度(Pc)を以下のように定義する。
【0032】
Pm=P1/(小領域の一辺の大きさ)…(3a)
Pr=1−P2/P1…(3b)
Pk=m(4)/〔m(2)・m(2)〕−3…(3c)
Pc=(v1〜v2までの面積)/(少領域内のエッジ点の個数)…(3d)
【0033】
ただし、m(k)は以下の式(3e)(3f)に示すように、視差値をdとしてv1〜v2までの値を用いた視差頻度のk次モーメントを表す。なお、式(3e)(3f)において、dは視差値、dvは視差値の平均、P(d)は視差dでの頻度、v1は最小視差値、v2は最大視差値を表す。
【0034】
【数2】
Figure 0004424797
【0035】
そして、対応度Smは、Pm,Pr,Pk,Pcと任意の混合関数f(・)を用いて以下の式(3g)のように定義する。
Sm=f(Pm,Pr,Pk,Pc)…(3g)
ここで、f(・)は任意であるが、一例として、次の式(3h)のように定義できる。ただし、k1〜k4は任意の混合係数である。
f(Pm,Pr,Pk,Pc)
=k1・Pm+k2・Pr+k3・Pk+k4・Pc…(3h)
【0036】
次に、図7に示した周囲視差伝播部5b−32について説明する。図9に示すように着目小領域の周囲のある一定範囲に存在するNw個の小領域をWn(i){i:j=1〜Nw}、その中で既に対応の求まったNm個の小領域群(図9の斜線を付した領域)をWm(i){i:j=1〜Nm}とし、Wm(i)が持つ代表視差値を周囲小領域視差dm(i){i:j=1〜Nm}とする。
次に、図10に示すように周囲領域視差dm(i)を横軸にとり、縦軸に頻度を取った周囲小領域視差dm(i)の値のヒストグラムを作成する。このヒストグラムの最大ピークをPd1、次ピークをPd2として、最大ピークを与える視差をdnとする。
ここで、対応率Nm/Nwが閾値以上で、かつ、図10に示すdm(i)のヒストグラムの最大ピークが次ピークに比べ十分大きいなら、そのピークを与える視差値dnを周囲代表視差とする。
【0037】
次に、図11に示すように、着目小領域の視差のヒストグラムについて、第1、第2、第3ピークそれぞれの左右の谷部を求め、それに挟まれる領域を第1山(v11〜v12)、第2山(v21〜v22)、第3山(v31〜v32)とする。
周囲の小領域から求めた代表視差dnが第1山、第2山、第3山のいずれかに含まれるなら、その山の最大値を与える視差を代表視差とする。また、その時の対応度をWm(i)の対応度の平均値とする。
【0038】
以上説明したように、本実施例においては、対応度、代表視差を求めて対応度の順に処理順序を決定して2つの画像のエッジ点を対応付け、各エッジ点位置について視差値を持つ視差画像を得ているので、従来手法の問題である固定の走査順序による誤った対応情報の伝播を防ぐことができ、正しい対応を得ることができる。また、局所的には対応が求まらない部分については、周囲にある既に対応が求まった部分の対応情報を利用して、徐々に安定した対応を得ているので、繰り返しパターンなどの存在下でも安定した対応を得ることができる。
【0039】
上述した第1の実施例では、類似度をエッジを用いて求めているが、類似度として輝度の正規化相関値、輝度差の絶対値和(SAD) 、輝度値の差の2乗和(SSD)のいずれかの値を用いることもできる。
以下、輝度の正規化相関値、輝度差の絶対値和(SAD) 、輝度値の差の2乗和(SSD)を用いる本発明の第2に実施例について説明する。
本実施例の処理は、前記図2〜図11により説明した第1の実施例の処理と基本的には同じであるが、前記図8に示した類似度分布を、輝度の正規化相関値、輝度差の絶対値和(SAD) もしくは輝度値の差の2乗和(SSD)を用いて求める。
【0040】
すなわち、図12に示すように、一方画像の対応付け対象の小領域Aに対して、他方画像の探索領域に設けた同形状の小領域Bとで計算される輝度の正規化相関値、輝度差の絶対値和(SAD) 、輝度値の差の2乗和(SSD)のいずれかの値をVとするとき、(C−V)を類似度として、探索領域内での小領域を走査しながら類似度分布を作成する。なお、Cは類似度を負値にしないための任意の定数である。それ以外の処理は、第1の実施例と同様であり、上記類似度に基づき対応度を計算して処理順序を決定し対応付けを行う。
【0041】
以下に、上記正規化相関値、輝度差の絶対値和(SAD) 、輝度値の差の2乗和(SSD)について説明する。
▲1▼正規化相関
左画像の小領域内の各位置(i,j)での輝度値をqL (i,j)、右画像の小領域Bの各位置(i,j)での輝度値をqR (i,j)、小領域の一辺の大きさをwとして、正規化相関値は次の式(4a)〜(4c)で表される。
【0042】
【数3】
Figure 0004424797
【0043】
▲2▼輝度値の絶対和(SAD)
上記▲1▼と同じ記号を用いると輝度差の絶対値和E2は次の式(5a)で表される。
【0044】
【数4】
Figure 0004424797
【0045】
▲3▼輝度差の2乗和(SSD)
上記▲1▼と同じ記号を用いると輝度差の2乗和E3は次の式(6a)で表される。
【0046】
【数5】
Figure 0004424797
【0047】
以上の実施例では、図7に示した対応度算出部5b−31で対応度を計算する際、一方の画像から他方の画像への対応を求めた場合の他己対応度を用いているが、他己対応度に加え、一方の画像から同一画像へ対応を求めた場合の自己対応度を用い、その両者から対応度を求めることもできる。
以下、上記自己対応度を用いた本発明の第3の実施例について説明する。
本実施例の処理は、前記図2〜図11により説明した第1の実施例の処理と基本的には同じであるが、上記したように他己対応度S1に加え、自己対応度S2を導入する。
自己対応度S2は図13に示すように左画像中の小領域Aと同一左画像の左探索範囲内の候補領域Cとで定められる類似度ヒストグラムより同様に計算される。図13に示す左探索範囲は、着目小領域Aを挟んで左右に同じだけ右画像の探索範囲分の幅を持つ。また、他己対応度S1は図13に示すように左画像での小領域Aと右画像の右探索範囲内の候補領域Bとで定められる類似度ヒストグラムより前記実施例で定義された方法で計算される。
【0048】
対応度算出部5b−31における対象小領域Aの対応度の算出は、上記2つの対応度S1,S2からf2(S1,S2)の混合関数を用いた値として算出される。ここで、f(・)は任意であるが、例えば以下のようなものが考えられる。
f2(S1,S2)=C1・S1+C2・S2
ここで、C1,C2は任意の混合係数である。
本実施例においては、以上のようにして算出された対応度を用いて、前記第1の実施例で説明した手法により対応付け処理を行い、以下第1の実施例と同様な処理を行って視差画像を得る。
【0049】
【発明の効果】
以上のように本発明においては、以下の効果を得ることができる。
(1)両画像間の対応付けを、画像の位置によらず対応の唯一性に基づいて正しい対応が得られる順序で行うことにより、従来方式の問題であった、固定の走査順序による誤った対応情報の伝播を防ぐことができる。さらに、類似パターンなどで安定度が低く対応付けが困難な部分については、周囲にある安定度の高い対応の視差値を参考に対応を求めることで、 従来では対応付けが困難であった繰り返しパターン部の対応を安定に得ることができ、画像全体について正しい対応を得ることができる。
(2)対応付ける特徴量としては、エッジを用いる場合にはコントラストによらず着目領域内の全てのエッジ点を用い、輝度値を用いる場合には着目領域内の輝度値分布をそのまま利用することで、十分な数の特徴を使用して安定した類似度分布形状を得ることができる。
これにより、高コントラストのエッジ点など一部の特徴を用いた際に起こり得る少量の偽の部分による顕著な類似度ピークの形成の阻害がなくなり、画像全体から正しい対応を得ることができる。
【図面の簡単な説明】
【図1】本発明の原理を説明する図である。
【図2】本発明の実施例のシステムの構成例を示す図である。
【図3】第1の実施例の対応付け処理の概略を示す図である。
【図4】図3に示したステレオ対応付け処理部の詳細を示す図である。
【図5】図4に示した対応度計算部の詳細を示す図である。
【図6】視差のヒストグラムの作成方法を説明する図である。
【図7】図5に示した対応度計算処理部の詳細を示す図である。
【図8】類似度分布とピークとの関係を示す図である。
【図9】対象小領域と周囲小領域の関係を示す図である。
【図10】周囲小領域の視差のヒストグラムを示す図である。
【図11】対象少領域の視差のヒストグラムと山との関係を示す図である。
【図12】相関値/SSD値/SAD値を用いた類似度分布の作成を説明する図である。
【図13】自己対応度と他己対応度の関係を示す図である。
【図14】ステレオ距離計測の原理を説明する図である。
【符号の説明】
1−1〜1−3 撮像手段(カメラ)
2 立体
3 画像補正部
4 特徴抽出部
5 ステレオ対応付け部
5a 小領域分割手段
5b 対応度計算部
5c 処理順序決定部
5d 小領域対応付け部
6 距離変換部[0001]
BACKGROUND OF THE INVENTION
The present invention is used in a wide range of industrial fields for extracting 3D information based on stereo images, such as 3D video communication, 3D video broadcasting, 3D image generation, 3D shape measurement, 3D object recognition, and navigation for mobile robots. 3D shape detection that can stably detect the 3D position and shape of a 3D object using binocular parallax Method About.
[0002]
[Prior art]
Conventionally, various methods for detecting a three-dimensional shape using binocular parallax based on two or three or more images obtained by two or three or more imaging means have been proposed. The principle of this type of three-dimensional shape detection method will be described with reference to FIG.
The same point P on the object is projected through the lenses L1 and L2 onto the imaging surfaces I1 and I2 of a pair of imaging means (hereinafter referred to as cameras) 1-1 and 1-2 such as a television camera. Here, the imaging surfaces I1 and I2 are arranged on the same plane, the focal lengths f between the corresponding lenses from each imaging surface are equal, and the optical axes of the cameras 1-1 and 1-2 are parallel to each other and b. Suppose that they are installed only apart.
[0003]
Even if the pair of imaging units 1-1 and 1-2 is arbitrarily arranged, by measuring the geometric relationship between the cameras in advance, the captured image can be converted into an image obtained in the above state. It is possible to convert. Therefore, the discussion proceeds based on the above state. At this time, the point P on the object is observed at the positions of p1 (p1x, p1y) and p2 (p2x, p2y) in the captured image. Here, the positional shift on the image of the corresponding points in both images is called parallax d. Here, d = p2x−p1x.
The three-dimensional coordinates (X1, Y1, Z1) of the object point p when viewed from one camera (here, camera 1-1) are expressed as the following equations (1a) to (1c).
[0004]
Z1 = f · (b / d) (1a)
X1 = p1x. (B / d) (1b)
Y1 = p1y · (b / d) (1c)
[0005]
Here, Z1 is the distance from the camera 1-1, f is the focal distance of the camera, b is the distance between both cameras, d is the parallax, X1 is the three-dimensional X coordinate from the camera 1-1, and p1x is from the center of the image. The X coordinate, Y1 is the three-dimensional y coordinate from the camera 1-1, and p1y is the Y coordinate from the center of the image.
Thus, if the projection point in both images for an arbitrary point in the three-dimensional scene is determined, the coordinate value and the parallax value in the image of the projection point can be obtained, so the above formulas (1a) to (1c) A three-dimensional position can be obtained. This is the principle of three-dimensional position calculation by binocular vision. Even when three or more image pickup means are used, if any two image pickup means are considered, it is the same as described above.
[0006]
As is apparent from the above principle, in order to obtain a three-dimensional position using parallax, it is necessary to obtain the corresponding projection points of the same object in both images. This is called a “correspondence search problem”.
Hereinafter, the “correspondence search problem” will be described in more detail.
Consider a stereo image obtained by a pair of imaging means. Attention is paid to a point p1 in one image (here, left image). At this time, the point p2 corresponding to p1 in the other image (here, the right image) is located on a constraint line called an epipolar line determined from the positional relationship between the two cameras.
[0007]
Here, since the image conversion is performed when the optical axes of the two cameras are equivalent to each other, the epipolar line is the same scanning line (the same y coordinate), and p2 is to the left of the position where p1 is copied to the other image. Located in. Therefore, in the corresponding point search, for each position (p1) of the left image, the most similar part is scanned on the same scanning line in the right image while scanning only the search range R toward the left from the x coordinate of p1. A corresponding set can be obtained. At this time, since it is difficult to determine the degree of similarity using only points, the degree of similarity is obtained using information within a certain range including the points.
In general, since a plurality of correspondence candidates exist in the search range, it is not easy to determine a true correspondence location, and how to obtain the correspondence location correctly is the main point of three-dimensional distance measurement using binocular parallax.
[0008]
The typical methods proposed so far can be broadly classified as follows.
(1) A method for obtaining the correspondence independently at each position of the image.
(2) A method for obtaining a response at each position of an image based on some support in the surrounding area or the entire image.
As a typical example of the above (1), one image is divided into small regions having a certain size, for each small region, for each pixel of one image, or characteristics of one image. The other image is scanned with respect to the point, and the similarity of the luminance distribution in the small area is evaluated by normalized correlation, the sum of absolute values of luminance differences (SAD), the sum of squares of differences of luminance values (SSD), etc. Some of them correspond to the most similar parts.
[0009]
The above (2) includes the following.
(a) A method of limiting the magnitude of parallax change assuming that the distance change in the vicinity is small.
(b) The best overall response is achieved by loosely minimizing the total sum of distortion energy defined by the difference in correspondence (corresponding energy) obtained in the local area and the difference in parallax between adjacent areas. Obtaining energy minimization method.
(c) Focusing on the reliability of the feature value to be matched, the correspondence is obtained in order from the highly reliable edge point, and the correspondence information of the edge point having higher reliability already obtained for the correspondence of the edge point having lower reliability is used. What to do.
[0010]
Here, (c) Method based on feature reliability (Yamaguchi, Nakayama, Shirai, Asada “Multistage Stereo Method Prioritizing Highly Reliable Response”, IEICE Transactions, Vo1, J74-D-II, No. 7, 1991) will be described.
According to this, there are the following two features when the feature point (edge point) where the brightness value changes suddenly is used as the feature point to be associated.
i) The position information of the edge point is more reliable as the luminance change (contrast) is larger, and is more unstable as the luminance information is lower.
ii) Since the number of edge points with high contrast in the image is small, the number of correspondence candidates is small and the correspondence can be easily performed.
Focusing on these features, the edges are classified into multiple groups according to the size of the contrast value in advance, and first, the correspondence of edge points that belong to the group with the highest contrast and can be easily associated is determined. Associate edge points of low contrast groups.
[0011]
[Problems to be solved by the invention]
First, in the method (1) for obtaining the correspondence independently at each position of the image, the correspondence is obtained independently at each position of the image. However, if they are independently associated, if there are multiple objects with similar shapes in the target scene or there are objects that contain repeated patterns, the difference in similarity between the true corresponding part and the false corresponding part is Since it is slight, it easily corresponds to an erroneous portion due to the noise of the image and the influence of illumination. It may actually indicate the distance of the position where there is no object.
Next, the problem of a method for obtaining a response based on some support around (2) will be described.
[0012]
First, in the method (a), instead of obtaining the correspondence of the target portion independently, a stable correspondence is obtained by limiting the magnitude of the parallax change with the adjacent area and reflecting the surrounding correspondence situation. ing.
However, in most cases, the target portion provided in the image is scanned in a predetermined order and processed regardless of the difficulty level of the association. If the corresponding part is mis-corresponding, the influence is transmitted to the subsequent stage, and as a result, mis-corresponding in a wide range occurs.
[0013]
Next, in the method (b), there is a consistent response by considering the consistency of the entire response, not the image part, by energy minimization. Is necessary and impractical.
In the method (c), the grouping is divided according to the size of the contrast, but since the edge points belonging to the same contrast group are determined in the conventional fixed order, the repeated pattern is used. There is a problem of mis-response propagation due to order.
In addition, when an error occurs in correspondence with a high-contrast edge, the information is used for associating with an edge point having a lower contrast in the subsequent stage, and as a result, erroneous information is propagated over a wide range and the miscorrespondence increases. Furthermore, since only a small amount of edge points with high contrast are used in the initial stage of association, there is a problem that the number of edge points to vote for the parallax histogram is small, the histogram shape becomes unstable, and it becomes weak due to the repeated pattern.
[0014]
The present invention has been made in consideration of the above-described circumstances, and it is possible to stably obtain the correspondence of the repeated pattern portion, which has conventionally been difficult to associate, and to obtain the correct correspondence from the entire image. Shape detection Method Is to provide.
[0015]
[Means for Solving the Problems]
The present invention will be described in the case of using two imaging devices that are based on a method of acquiring three-dimensional three-dimensional information.
Information in a form having a value for each element in a two-dimensional array is defined as an image. As shown in FIG. 1, the target scene is imaged using imaging means 1-1 and 1-2 such as a pair of television cameras to obtain two images. This is called a stereo image. If the optical axes of the pair of imaging units 1-1 and 1-2 are parallel to each other and the imaging surfaces are not on the same plane, the camera external (geometric) parameters and camera internal parameters acquired by the image correction unit 3 are used. Is used to correct the image so as to be equivalent to the image obtained by the pair of imaging units 1-1 and 1-2 placed in parallel with each other, and the feature extraction unit 4 obtains a feature image for every two images. Extract.
[0016]
Next, the feature image is used as an input, and the stereo correspondence unit 5 associates the two images by determining projection points of the two images of the solid 2 in the scene, and a positional shift between the two images ( Binocular parallax (hereinafter simply referred to as parallax) is obtained, and the distance conversion unit 6 determines the three-dimensional position from the camera 1-1 according to the above equations (1a) to (1c).
The projection point of the same solid 2 in the two images is obtained by searching for a similar part from the other side image for a certain part of one image. Here, if there are a plurality of solids having a similar shape in the target scene or an object including a repetitive pattern, there are a plurality of similar parts due to the similar patterns, and the correspondence becomes ambiguous. In such a case, if it is associated with the most similar part, there is a possibility that a three-dimensional position different from the actual one is calculated in correspondence with an erroneous part easily due to the influence of image noise or illumination.
[0017]
Therefore, in the present invention, the uniqueness of correspondence between the two images is used as an index of stability of correspondence, and the correspondence is made in the order of high degree of correspondence stability (uniqueness) regardless of the position of the target region. This prevents the propagation of incorrect correspondence information due to the fixed scanning order. This makes it possible to obtain a correct response without being affected by other effects even in the presence of a repetitive pattern.
In addition, when finding the correspondence of parts with locally similar patterns such as repeated pattern parts and low stability, the correspondence information is obtained with the help of the disparity values of the parts with high stability that have already been found. And gradually get a stable response. In this way, since the correspondence is obtained in the optimum order in the sense that the correspondence is unique and there is no ambiguity, a stable correspondence can be obtained even in the presence of a repetitive pattern.
The uniqueness of the above correspondence is obtained as follows. In the similarity distribution obtained by scanning the candidate area with some similarity defined by the target area in one image and the corresponding candidate area in the other image, the highest similarity part is compared to the next highest part. It is assumed that the more prominent it is, the higher the uniqueness.
[0018]
That is, in the present invention, as shown in FIG. 1, the stereo association unit 5 includes a small area dividing unit 5a that divides a captured scene image including the same object into small areas, and each small area of one image. On the other hand, a correspondence calculation unit 5b that evaluates the uniqueness of the correspondence of the local image within the search range of the other image and determines the correspondence, a processing order determination unit 5c that determines the processing order based on the correspondence, A small region association unit 5d that associates the small regions with each other in the processing order is provided. Then, the correspondence degree calculation unit 5b creates a similarity distribution in the search area for each small area for which correspondence is not obtained, and obtains a correspondence degree that determines the possibility of correspondence from the distribution of similarity degrees. Next, the processing order determination unit 5c arranges the components in order from the one with the best correspondence, and the small region association unit 5d sequentially obtains the correspondence from the portion where the stable correspondence is obtained.
In addition, for a portion of the similar pattern or the like for which correspondence is not obtained locally, a correspondence that is gradually stabilized can be obtained by using correspondence information of a portion in the surrounding that has already been obtained.
[0019]
When using edges, all feature points in the region of interest are used regardless of contrast. When using luminance values, the luminance value distribution in the region of interest is used as is. It is possible to acquire a stable correspondence by obtaining a stable similarity distribution with a large number of features.
As a result, the part where the correspondence is clear can be found stably without being influenced by others, and the part where the correspondence is unclear due to the repeated pattern etc. is stable by using the correspondence information of the small area from which the correspondence has already been obtained. Can be obtained.
Therefore, since the correct parallax can be stably obtained over the entire image, the three-dimensional position and shape of the solid can be obtained correctly.
Also, in the above, the degree of correspondence of the small area is calculated using the degree of self-correspondence when the correspondence from one image is obtained to the same image and the degree of self-correspondence when the correspondence is obtained from one image to the other image. You may ask for it.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 2 is a diagram showing a configuration example of the system according to the embodiment of the present invention. In the figure, 11 is a CPU, 12 is a display device such as a CRT or liquid crystal display, an input / output device composed of input devices such as a keyboard and a mouse, 13 is a memory composed of ROM, RAM, etc., 14 is a program, An external storage device 15 for storing data and the like is a communication interface 15 including a modem for performing data communication using a telephone line, a network card for performing data communication using a network such as a LAN, and the like.
[0021]
The target scene imaged by the imaging devices (hereinafter referred to as cameras) 1-1 and 1-2 is input to the CPU 11 via the interface I / F. A program for performing the processing of the present invention is stored in the external storage device 14. The target scene input to the CPU 11 is processed by the above program to detect a three-dimensional shape, and the processing result is stored in the external storage device 14. And output from the input / output device 11. In addition, the third camera 1-3 is provided, the target scene imaged by the third camera 1-3 is input to the CPU 11, and in addition to the target scene imaged by the cameras 1-1 and 1-2, You may make it detect a solid shape using the object scene imaged with the camera 1-3.
[0022]
Next, the outline of the association processing of the first embodiment of the present invention will be described with reference to FIG. In addition, although the case where the target scene is imaged using two cameras will be described here, the correspondence of each of the target scenes captured by these cameras using three or more cameras as described above, You may make it detect a solid shape using a thing with a higher correspondence degree.
In FIG. 3, the target scene is imaged by the cameras 1-1 and 1-2, and two gray images (right and left gray images) as a result are obtained. Here, the positional relationship between the pair of cameras 1-1 and 1-2 is arbitrary, but it is assumed that the geometric relationship between the two cameras is obtained in advance by some means. Here, for convenience, the camera 1-1 is called a left camera, and the camera 1-2 is called a right camera. In the following, according to this rule, the left and right prefixes are used to distinguish the outputs of the two cameras.
[0023]
Next, in the image correction unit 3, the optical axes of the two cameras 1-1 and 1-2 are parallel and the imaging surfaces of the two images captured by the two cameras 1-1 and 1-2 are the same. The image correction unit 3 corrects the two gray images a and b using the geometric relationship between the cameras so as to obtain an image that can be observed when the relationship becomes a plane (reference arrangement), and the right and left corrected gray images. c and d are obtained.
In the above correction, if the rotation angles of the X, Y, and Z axes of the camera in the reference position relative to the camera at an arbitrary position are θ, φ, ξ, and the secondary distortion coefficient is κ, the image coordinates pc in the reference position (Xc, yc) is expressed by the following equations (2a) and (2b) using the coordinates po (xo, yo) of the image captured at an arbitrary position.
[0024]
[Expression 1]
Figure 0004424797
[0025]
With this relational expression, both images captured by an arbitrarily arranged camera can be converted into an image captured by a referencely arranged camera. The feature extraction unit 4 obtains feature images e and f (edge points, edge strength, and edge direction) for each of the two images from the corrected grayscale images c and d.
The method for obtaining the edge point, edge strength, and edge direction is not mentioned here.For example, the edge point is obtained from the zero crossing point of Laplacian Gaussian applied to the grayscale image, and the edge strength is obtained from the grayscale image. It is also possible to obtain the magnitude of a vector obtained by multiply-acting Deent Gaussian and the edge direction in the direction of the vector.
The stereo associating unit 5 performs associating processing between the edge points of the two images using the feature images e and f as inputs, and obtains a parallax image g having a parallax value for each edge point position. From the parallax image g, the distance conversion unit 6 calculates the distance h of the object using the relational expressions shown in the expressions (1a) to (1c).
[0026]
Next, details of the stereo correspondence processing unit 5 in FIG. 3 will be described with reference to FIG.
As shown in FIG. 4, the stereo association processing unit 5 first divides the left feature image into small regions of a certain size in the small region dividing unit 5a. At this time, the small areas may be arranged so as not to overlap each other, or the small areas may be arranged so as to overlap each other to some extent. Here, what is arranged by shifting by half the size of one side of the small area is considered.
Next, in the correspondence degree calculation unit 5b, for each small region for which correspondence is not obtained (hereinafter referred to as an unsupported small region), the correspondence between the edge points to which the correspondence belongs and the correspondence candidate points are used to determine whether the correspondence is good or bad. Find the degree. Here, the correspondence candidate point is similar to the edge to be matched with the edge attributes (edge strength and edge direction) in the edge point group in the correspondence search range on the epipolar line of the other feature image (right feature image). Refers to things. Finding the correspondence level means obtaining a parallax representing a small area (referred to as a representative parallax) and determining how stable the parallax is.
[0027]
Subsequently, in the processing order determination unit 5c based on correspondence, the non-corresponding small regions are arranged in descending order of correspondence, and the higher α% is set as “corresponding processing target small region”. Here, instead of the upper α%, the upper β may be used.
Next, for each of the small areas designated as “corresponding processing target small areas”, the small area associating unit 5d checks the other feature image for each edge point belonging to the small area. Then, if there is actually an edge point at a position corresponding to the representative parallax of the small area, the edge point pair is associated. Thereby, the parallax value for each edge point is obtained. It is written in the parallax image g described above. Further, if there is an actually associated edge point, that fact is recorded.
Next, it is checked whether or not one or more corresponding points have been obtained. If one or more corresponding points are obtained, the corresponding degree calculation unit 5b returns to the surrounding non-corresponding small region (described later) to further deal with it. Repeat a series of processes from good to bad. When no corresponding point can be obtained, the process is terminated.
[0028]
Next, the correspondence calculation unit 5b will be described with reference to FIG. In the correspondence level calculation unit 5b, first, it is checked whether there is a small region that is not yet supported and the correspondence level has not yet been calculated, and an uncorresponding region is obtained (5b-1).
Then, a disparity histogram is created for the unsupported region, and a corresponding similarity distribution is obtained (5b-2).
Subsequently, the correspondence calculation processing unit 5b-3 actually calculates the representative parallax and the correspondence of the small area. This operation is repeated for non-corresponding small areas for which the correspondence level is not obtained.
[0029]
Here, a method of creating the above-described parallax histogram will be described with reference to FIG. Here, a small area with a left image is considered.
The following operation is performed for all edge points belonging to the small area of the left image. First, attention is paid to a certain edge point PLi. Here, the right and left corrected images are corrected so that they are the same as when captured by a camera whose optical axis is parallel and the imaging surface is located on the same plane, so the epipolar line of PLi is a horizontal line, and PLi is the right image. When projected onto, it becomes the position of PLi '.
The corresponding point of PLi is located on the same horizontal line as PLi ′ and on the left side of PLi ′. Here, assuming that the search range is R, scanning is performed from PLi ′ to the maximum R to the left, and among the obtained edge points, edge points whose edge strength and edge direction are similar to PLi and attribute values are correspondence candidates. Extract as a point. Then, with the parallax values defined by these corresponding point pairs, a vote is given for a parallax histogram with the parallax value on the horizontal axis and the frequency on the vertical axis.
[0030]
In FIG. 6, PR1 to PR3 are obtained from the epipolar line of PLi, and PR2 and PR3 are corresponding candidates because the attribute values are similar, but PR1 is not a corresponding candidate because the attribute values are different. Shows the case. For the corresponding candidate points PR2 and PR3, the parallaxes are d1 and d2, respectively, as shown in the figure, and these are voted on the parallax histogram.
By performing the same operation for each edge point in the left small region, a parallax histogram is obtained as a similarity distribution as shown in FIG.
[0031]
Next, the correspondence calculation processing unit 5b-3 illustrated in FIG. 5 will be described with reference to FIG. First, the correspondence level is calculated by the correspondence level calculation unit 5b-31 based on the similarity distribution shown in FIG. If the correspondence level is equal to or less than the threshold value, the peripheral parallax propagation unit 5b-32 determines the representative parallax based on the correspondence information of the surrounding small areas and recalculates the correspondence level. If the correspondence level is equal to or higher than the threshold value, the correspondence level is adopted.
Hereinafter, the correspondence calculation unit 5b-31 will be described in further detail.
Here, it is assumed that there is a similarity distribution as shown in FIG. Here, P1, P2,... Are set in descending order of the peak size of the similarity distribution, the parallax values giving them are d1, d2,..., And the valley positions at the left and right of the maximum peak P1 are v1, v2. . Here, the maximum peak value (Pm), peak ratio (Pr), kurtosis (Pk), and corresponding concentration (Pc) are defined as follows.
[0032]
Pm = P1 / (size of one side of small area) (3a)
Pr = 1-P2 / P1 (3b)
Pk = m (4) / [m (2) · m (2)]-3 (3c)
Pc = (area from v1 to v2) / (number of edge points in the small area) (3d)
[0033]
However, m (k) represents the k-th moment of the parallax frequency using the values from v1 to v2, where the parallax value is d, as shown in the following formulas (3e) and (3f). In equations (3e) and (3f), d is the parallax value, dv is the average of the parallax values, P (d) is the frequency at the parallax d, v1 is the minimum parallax value, and v2 is the maximum parallax value.
[0034]
[Expression 2]
Figure 0004424797
[0035]
The degree of correspondence Sm is defined as in the following equation (3g) using Pm, Pr, Pk, Pc and an arbitrary mixing function f (•).
Sm = f (Pm, Pr, Pk, Pc) (3 g)
Here, f (•) is arbitrary, but can be defined as the following equation (3h) as an example. However, k1 to k4 are arbitrary mixing coefficients.
f (Pm, Pr, Pk, Pc)
= K1 · Pm + k2 · Pr + k3 · Pk + k4 · Pc (3h)
[0036]
Next, the peripheral parallax propagation unit 5b-32 illustrated in FIG. 7 will be described. As shown in FIG. 9, Nw small areas existing in a certain range around the target small area are Wn (i) {i: j = 1 to Nw}, among which Nm small areas whose correspondence has already been obtained. The area group (area with hatching in FIG. 9) is Wm (i) {i: j = 1 to Nm}, and the representative parallax value of Wm (i) is Surrounding small area parallax dm (i) {i: j = 1 to Nm}.
Next, as shown in FIG. small Area parallax dm (i) is plotted on the horizontal axis and frequency is plotted on the vertical axis Surrounding small area parallax dm (i) The value of the Create a histogram for. The maximum peak of this histogram is Pd1, the next peak is Pd2, and the parallax that gives the maximum peak is dn.
Here, if the correspondence rate Nm / Nw is equal to or greater than the threshold and the maximum peak of the dm (i) histogram shown in FIG. 10 is sufficiently larger than the next peak, the parallax value dn that gives that peak is taken as the representative representative parallax. .
[0037]
Next, as shown in FIG. 11, the left and right troughs of the first, second, and third peaks are obtained for the parallax histogram of the target small region, and the region between the first and second peaks (v11 to v12) is determined. , Second mountain (v21 to v22), third mountain (v31 to v32).
If the representative parallax dn obtained from the surrounding small area is included in any of the first mountain, the second mountain, and the third mountain, the parallax that gives the maximum value of the mountain is set as the representative parallax. Further, the correspondence level at that time is the average value of the correspondence levels of Wm (i).
[0038]
As described above, in the present embodiment, the correspondence degree and the representative parallax are obtained, the processing order is determined in the order of the correspondence degree, the edge points of the two images are associated, and the parallax having the parallax value for each edge point position Since the image is obtained, it is possible to prevent propagation of incorrect correspondence information due to a fixed scanning order, which is a problem of the conventional method, and to obtain a correct correspondence. In addition, for parts that cannot be found locally, the correspondence information of the parts that have already been found in the surrounding area is used to gradually obtain stable correspondence. But you can get a stable response.
[0039]
In the first embodiment described above, the similarity is obtained by using an edge. As the similarity, the normalized correlation value of luminance, the absolute value sum of luminance differences (SAD), the square sum of the luminance value differences (SAD) Any value of (SSD) can also be used.
The second embodiment of the present invention using the normalized correlation value of luminance, the sum of absolute values of luminance differences (SAD), and the square sum of differences of luminance values (SSD) will be described below.
The processing of this embodiment is basically the same as the processing of the first embodiment described with reference to FIGS. 2 to 11, but the similarity distribution shown in FIG. The sum of absolute values of luminance differences (SAD) or the sum of squares of differences of luminance values (SSD) is used.
[0040]
That is, as shown in FIG. 12, the normalized correlation value of the luminance and the luminance calculated from the small region A to be associated with one image with the small region B having the same shape provided in the search region of the other image When any one of the sum of absolute values of differences (SAD) and the sum of squares of differences of luminance values (SSD) is V, (C−V) is used as a similarity, and a small region in the search region is scanned. While creating the similarity distribution. C is an arbitrary constant for preventing the similarity from being a negative value. The other processes are the same as those in the first embodiment, and the correspondence order is calculated based on the similarity, the processing order is determined, and the association is performed.
[0041]
The normalized correlation value, the absolute value sum of luminance differences (SAD), and the square sum of the luminance value differences (SSD) will be described below.
(1) Normalized correlation
The luminance value at each position (i, j) in the small area of the left image is q L (I, j), the luminance value at each position (i, j) in the small area B of the right image is q R The normalized correlation value is expressed by the following equations (4a) to (4c) where (i, j) and the size of one side of the small region are w.
[0042]
[Equation 3]
Figure 0004424797
[0043]
(2) Absolute sum of luminance values (SAD)
When the same symbols as in the above (1) are used, the absolute value sum E2 of the luminance difference is expressed by the following equation (5a).
[0044]
[Expression 4]
Figure 0004424797
[0045]
(3) Sum of squares of luminance difference (SSD)
When the same symbols as in the above (1) are used, the square sum E3 of the luminance difference is expressed by the following equation (6a).
[0046]
[Equation 5]
Figure 0004424797
[0047]
In the above embodiment, when the correspondence level calculation unit 5b-31 shown in FIG. 7 calculates the correspondence level, the other degree of correspondence when the correspondence from one image to the other image is obtained is used. In addition to the degree of self-correspondence, the degree of correspondence can be obtained from both by using the degree of self-correspondence when the correspondence is obtained from one image to the same image.
The third embodiment of the present invention using the above self-correspondence will be described below.
The processing of this embodiment is basically the same as the processing of the first embodiment described with reference to FIGS. 2 to 11, but as described above, the self-correspondence S2 is set in addition to the other-self correspondence S1. Introduce.
Self-response S2 is FIG. As shown in FIG. 5, the calculation is similarly performed from the similarity histogram determined by the small area A in the left image and the candidate area C in the left search range of the same left image. FIG. The left search range shown in FIG. 5 has the same width as the search range of the right image on the left and right sides of the target small area A. Also, the self-correspondence degree S1 is FIG. As shown in FIG. 6, the calculation is performed by the method defined in the above embodiment from the similarity histogram defined by the small area A in the left image and the candidate area B in the right search range of the right image.
[0048]
The calculation of the degree of correspondence of the target small area A in the degree-of-correspondence calculation unit 5b-31 is calculated as a value using the mixed function of the two correspondence degrees S1, S2 to f2 (S1, S2). Here, f (•) is arbitrary, but for example, the following can be considered.
f2 (S1, S2) = C1 · S1 + C2 · S2
Here, C1 and C2 are arbitrary mixing coefficients.
In the present embodiment, using the correspondence degree calculated as described above, the association processing is performed by the method described in the first embodiment, and the same processing as in the first embodiment is performed thereafter. A parallax image is obtained.
[0049]
【The invention's effect】
As described above, the following effects can be obtained in the present invention.
(1) The correspondence between the two images is performed in the order in which the correct correspondence is obtained based on the uniqueness of the correspondence regardless of the position of the image. Propagation of correspondence information can be prevented. Furthermore, for similar patterns, etc., where the stability is low and difficult to associate, the repetitive pattern, which was difficult to associate in the past, is determined by referring to the corresponding disparity values with high stability in the surrounding area. It is possible to stably obtain the correspondence of the parts, and to obtain the correct correspondence for the entire image.
(2) As feature quantities to be associated, when using edges, all edge points in the region of interest are used regardless of contrast, and when using luminance values, the luminance value distribution in the region of interest is used as it is. Using a sufficient number of features, a stable similarity distribution shape can be obtained.
Thereby, there is no hindrance to the formation of a remarkable similarity peak due to a small amount of false portions that may occur when some features such as high-contrast edge points are used, and correct correspondence can be obtained from the entire image.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 is a diagram illustrating a configuration example of a system according to an embodiment of this invention.
FIG. 3 is a diagram illustrating an outline of association processing according to the first embodiment;
4 is a diagram illustrating details of a stereo association processing unit illustrated in FIG. 3; FIG.
FIG. 5 is a diagram illustrating details of a correspondence calculation unit illustrated in FIG. 4;
FIG. 6 is a diagram illustrating a method of creating a parallax histogram.
7 is a diagram showing details of a correspondence degree calculation processing unit shown in FIG. 5;
FIG. 8 is a diagram illustrating a relationship between a similarity distribution and a peak.
FIG. 9 is a diagram illustrating a relationship between a target small area and a surrounding small area.
FIG. 10 is a diagram illustrating a parallax histogram of surrounding small regions.
FIG. 11 is a diagram showing a relationship between a parallax histogram of a target small region and a mountain;
FIG. 12 is a diagram illustrating creation of a similarity distribution using correlation values / SSD values / SAD values.
FIG. 13 is a diagram showing a relationship between a self-correspondence level and another self-correspondence level.
FIG. 14 is a diagram illustrating the principle of stereo distance measurement.
[Explanation of symbols]
1-1 to 1-3 Imaging means (camera)
2 solid
3 Image correction unit
4 Feature extraction unit
5 Stereo mapping part
5a Small area dividing means
5b Correspondence level calculation part
5c Processing order determination unit
5d Small region association part
6 Distance converter

Claims (4)

2つ以上の撮像手段により同じ物体を含む情景の映像を撮影したステレオ画像について、一方の画像の各局所領域に対して、他方画像の探索範囲内における局所映像の対応の唯一性を評価して対応度を定め、上記対応度に基づき、対応が容易に得られる順序で一方の画像の各局所領域と他方の画像の局所領域とを対応付ける方法であって、
対応が唯一に定まらない局所領域に関しては、該局所領域の対応可能性情報に加えて、該局所領域から一定範囲にある周辺の局所領域で既に対応の求まっている局所領域の対応可能性情報を用いて唯一の対応を求め、該対応付けに基づき立体形状を検出する
ことを特徴とする立体形状検出方法。
For a stereo image obtained by photographing a scene image including the same object by two or more imaging means, the uniqueness of the correspondence of the local image within the search range of the other image is evaluated for each local region of one image. defining a degree of correspondence, based on the correspondence degree, a method of Ru associates the local area of each local region and the other image of one image in the sequence corresponding is easily obtained,
For a local region whose correspondence is not uniquely determined, in addition to the correspondence information on the local region, correspondence information on the local region that has already been found to be supported in the surrounding local region within a certain range from the local region. A three-dimensional shape detection method characterized in that a unique correspondence is obtained by using and a three-dimensional shape is detected based on the correspondence.
対応が唯一に求まらない局所領域の持つ対応可能性情報と、その局所領域から一定範囲にある既に対応の求まっている局所領域の対応可能性情報とを個別に扱い、Dealing with the possibility information of a local area where the correspondence is not uniquely determined, and the possibility information of the local area that is already in the fixed range from the local area,
それぞれの対応可能性の組み合わせから算出した唯一の対応を決定するDetermine the only response calculated from the combination of each response possibility
ことを特徴とする請求項1の立体形状検出方法。The three-dimensional shape detection method according to claim 1.
2つ以上の撮像手段により同じ物体を含む情景の映像を撮影したステレオ画像について、一方の画像の各局所領域に対して、他方画像の探索範囲内における局所映像の対応の唯一性を評価して対応度を定め、上記対応度に基づき、対応が容易に得られる順序で一方の画像の各局所領城と他方の画像の局所領域とを対応付ける方法であって、
一方の画像から他方画像へ対応を求めた場合の他己対応度に加えて、一方の画像から同一画像へ対応を求めた場合の自己対応度を用いて定義した対応度を使用する
ことを特徴とする立体形状検出方法。
For a stereo image obtained by photographing a scene image including the same object by two or more imaging means , the uniqueness of the correspondence of the local image within the search range of the other image is evaluated for each local region of one image. It is a method of determining the correspondence and associating each local castle of one image with the local region of the other image in the order in which correspondence is easily obtained based on the correspondence.
Use the degree of correspondence defined using the degree of self-correspondence when seeking correspondence from one image to the same image in addition to the degree of other self-correspondence when seeking correspondence from one image to the other image <br / > A solid shape detection method characterized by that.
請求項1または請求項2のいずれかの立体形状検出方法と、請求項3に記載の立体形状検出方法を組み合わせたThe solid shape detection method according to claim 1 and the solid shape detection method according to claim 3 are combined.
ことを特徴とする立体形状検出方法。A solid shape detection method characterized by the above.
JP33571599A 1999-11-26 1999-11-26 3D shape detection method Expired - Fee Related JP4424797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33571599A JP4424797B2 (en) 1999-11-26 1999-11-26 3D shape detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33571599A JP4424797B2 (en) 1999-11-26 1999-11-26 3D shape detection method

Publications (2)

Publication Number Publication Date
JP2001153633A JP2001153633A (en) 2001-06-08
JP4424797B2 true JP4424797B2 (en) 2010-03-03

Family

ID=18291676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33571599A Expired - Fee Related JP4424797B2 (en) 1999-11-26 1999-11-26 3D shape detection method

Country Status (1)

Country Link
JP (1) JP4424797B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4097869B2 (en) * 2000-01-17 2008-06-11 日本放送協会 Corresponding point reliability estimation device and corresponding point search device
WO2004038661A1 (en) * 2002-10-22 2004-05-06 Toyota Jidosha Kabushiki Kaisha Image processing method and image processor
JP2014132219A (en) * 2011-04-20 2014-07-17 Sanyo Electric Co Ltd Information acquisition device and object detector
JP5856888B2 (en) * 2012-03-27 2016-02-10 グローリー株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program
JP6209825B2 (en) * 2013-02-15 2017-10-11 株式会社リコー Parallax detection device and parallax detection method
JP6342128B2 (en) 2013-08-23 2018-06-13 キヤノンメディカルシステムズ株式会社 Image processing apparatus, method, program, and stereoscopic image display apparatus
JP6565188B2 (en) 2014-02-28 2019-08-28 株式会社リコー Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6332703B2 (en) * 2016-02-29 2018-05-30 セコム株式会社 Space recognition device
CN111351446B (en) * 2020-01-10 2021-09-21 奕目(上海)科技有限公司 Light field camera calibration method for three-dimensional topography measurement
CN113763562B (en) * 2021-08-31 2023-08-29 哈尔滨工业大学(威海) Binocular vision-based vertical face feature detection and vertical face feature processing method

Also Published As

Publication number Publication date
JP2001153633A (en) 2001-06-08

Similar Documents

Publication Publication Date Title
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
US8326025B2 (en) Method for determining a depth map from images, device for determining a depth map
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
US8447099B2 (en) Forming 3D models using two images
Devarajan et al. Distributed metric calibration of ad hoc camera networks
US7471809B2 (en) Method, apparatus, and program for processing stereo image
US9025862B2 (en) Range image pixel matching method
US20090167843A1 (en) Two pass approach to three dimensional Reconstruction
JP4701848B2 (en) Image matching apparatus, image matching method, and image matching program
JP4424797B2 (en) 3D shape detection method
US6480620B1 (en) Method of and an apparatus for 3-dimensional structure estimation
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
Zhao et al. Double propagation stereo matching for urban 3-d reconstruction from satellite imagery
CN110443228B (en) Pedestrian matching method and device, electronic equipment and storage medium
CN116468760A (en) Multi-source remote sensing image registration method based on anisotropic diffusion description
Zhang et al. High quality depth maps from stereo matching and ToF camera
JP2807137B2 (en) 3D shape detection method
CN107194334B (en) Video satellite image dense Stereo Matching method and system based on optical flow estimation
CN117115242B (en) Identification method of mark point, computer storage medium and terminal equipment
JPH047805B2 (en)
US20210349218A1 (en) System and method for processing measured 3d values of a scene
Chen et al. Stereo with zooming
Januzi Triple-camera setups for image-based depth estimation
Qin et al. Uncertainty-Guided Depth Fusion from Multi-View Satellite Images to Improve the Accuracy in Large-Scale DSM Generation. Remote Sens. 2022, 14, 1309
Son et al. Stereo matching algorithm using a simplified trellis diagram iteratively and bi-directionally

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091208

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees