JP6326641B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法

Info

Publication number
JP6326641B2
JP6326641B2 JP2017536209A JP2017536209A JP6326641B2 JP 6326641 B2 JP6326641 B2 JP 6326641B2 JP 2017536209 A JP2017536209 A JP 2017536209A JP 2017536209 A JP2017536209 A JP 2017536209A JP 6326641 B2 JP6326641 B2 JP 6326641B2
Authority
JP
Japan
Prior art keywords
depth
image processing
processing apparatus
image
object region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017536209A
Other languages
English (en)
Other versions
JPWO2017033422A1 (ja
Inventor
木村 雅之
雅之 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Application granted granted Critical
Publication of JP6326641B2 publication Critical patent/JP6326641B2/ja
Publication of JPWO2017033422A1 publication Critical patent/JPWO2017033422A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、空間の3次元構造を効率的に記述する画像処理装置および画像処理方法に関する。
3次元構造は、それぞれが3次元座標を持つ点群(Point Cloud)として表現されることが多い。しかしながら、多数の点群データをそのまま用いるのは効率が悪い。
そこで、点群データをある単位で区切って構造化し、データ量を削減する手法が提案されている。例えば、特許文献1において、ステレオカメラで取得した距離画像から前方物体が存在する領域を短冊状のセグメント(以下、”Stixel”と称する)の集合として表現する手法が開示されている。
米国特許第8548229号明細書
本開示は、空間の3次元構造化において、奥行きの連続性を表現可能な画像処理装置および画像処理方法を提供する。
本開示における画像処理装置は、距離画像取得部と、座標算出部と、基準面検出部と、物体領域検出部と、奥行き算出部と、グルーピング部と、を備える。距離画像取得部は、撮像した画像より、距離画像を取得する。座標算出部は、距離画像の画素毎の3次元座標を算出する。基準面検出部は、画素毎の3次元座標に基づいて、距離画像において所定の高さを有する基準面を検出する。物体領域検出部は、画素毎の3次元座標に基づいて、距離画像において、基準面上に存在する物体領域を検出する。奥行き算出部は、物体領域内の縦ライン毎の奥行きを、縦ライン上の画素の3次元座標に基づいて決定する。グルーピング部は、物体領域において、隣接する縦ライン間の奥行きの変化量を算出し、奥行きの変化量が所定の閾値以下となる前記縦ラインの集合をグループ化し、各グループを所定のデータ形式で記述する。
本開示における画像処理方法は、撮像した画像より、距離画像を取得するステップを含む。距離画像の画素毎の3次元座標が算出される。画素毎の3次元座標に基づいて、距離画像において所定の高さを有する基準面が検出される。距離画像において、基準面上に存在する物体領域が検出される。物体領域内の縦ライン毎の奥行きが、縦ライン上の画素の3次元座標に基づいて決定される。物体領域において、隣接する縦ライン間の奥行きの変化量が算出され、奥行きの変化量が所定の閾値以下となる縦ラインの集合がグループ化され、各グループが所定のデータ形式で記述される。
図1は、車両前方映像の一例を示した図である。 図2は、Stixel生成の様子を模式的に示した図である。 図3は、車両前方映像の他の一例を示した図である。 図4Aは、図2の映像を撮像して生成された距離画像の横方向と奥行きの関係を示した図である。 図4Bは、図4のグラフよりStixelを生成した図である。 図5は、第1の実施の形態における画像処理装置の一構成例を示すブロック図である。 図6は、第1の実施の形態における画像処理装置の処理の流れを示すフローチャートである。 図7は、カメラ光軸と基準面の距離との関係を示した図である。 図8は、基準面検出の結果の一例を示す模式図である。 図9は、物体領域検出の結果の一例を示す模式図である。 図10は、物体領域のグルーピング結果の一例を示す模式図である。 図11は、物体領域のグルーピング結果と前方風景を対応付けた図である。 図12は、他の実施の形態における画像処理装置の一構成例を示すブロック図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施の形態)
[1.Stixel構造]
図1は車両前方映像の一例を示した図である。図1は、車両前方左側に車10、中央に車20が走行し、右側に建造物30があることを示している。また、図2は、Stixel生成の様子を模式的に示した図である。図2は図1の映像をStixelで表現した場合を示す。
Stixelはカメラから見て、垂直方向に奥行きがほぼ等しい点群を1枚の板にまとめることで、実質的な意味はほぼ変わらないまま、データ量を削減することができる。図1、図2に示すように、車10は、6つのStixel11に変換されている。ここで、中央のStixelは、車10の垂直成分に従い、両端のStixelより垂直成分が大きくなっている。同様に、車20は、6つのStixel21、建造物30は、3つのStixel31に変換されている。
また、図1において、奥行き方向(z)の手前から奥に向かって、車20、建造物30、車10が、順に存在する。従って、図2においても、奥行き方向(z)の手前から奥に向かって、Stixel21、Stixel31、Stixel11が、順に配置される。
ところで、Stixel構造には、「奥行きが連続的に変化するシーンを上手く記述できない」という課題がある。この課題を、図3〜図4Bを用いて説明する。
図3は車両前方映像の他の一例を示した図である。図3は、車両前方(図3の中央部)に交差点があり、対向車線を車が走行し、道路両脇に建造物があることを示している。図4Aは、図3の映像を撮像して生成された距離画像の横方向と奥行き方向の関係を示した図である。図4Aにおいて、xは距離画像の横方向、zは奥行き方向を示す。
図4Bは、図4AのグラフよりStixelを生成した図である。図4Bに示すように、飛び飛び(不連続)の奥行きにStixelが配置される。Stixelは「カメラから見て奥行きがほぼ等しい点群」を構造化したものであるため、個々のStixelは原則カメラに正対する。このことは、奥行きの連続性を判断する処理を行う場合に問題となる。
具体的な例として、前方に交差点、特に左右の曲がり角があるかどうかを判断したい場合を考える。図3の画像を左から右に見ていくと、交差点に達するまでと、交差点を越えてからは道路脇に建物がある。ここで、図4において、図3の画像を左から右に見た場合に、点x1は交差点の開始点、点x2は交差点の終了点とする。この場合、図4Aに示す奥行きのグラフにおいては、交差点以外のところでは、奥行きはほぼ一定の割合で変化し、交差点で(点x1〜点x2の区間)は、奥行きが急激に変化する。これは、交差点では、道路脇の建物の奥行きから、道の向こうの建物の奥行きへと変化するためである。しかしながら、Stixelでは、奥行きが一定の割合で変化しても、急激に変化しても1つの値しか持たない。そのため、図4Bの点線で示すようにStixelの奥行きは段階的に変化する。従って、Stixelの奥行き情報から、奥行きが一定の割合で変化している箇所と奥行きが急激に変化している箇所(点x1、点x2付近)、即ち曲がり角を区別するのは困難である。個々のStixelの幅を細くすれば不連続性についてはある程度緩和されるが、Stixelの数が増えるのでデータ量の削減には逆効果となる。
以下、図5〜図11を用いて、第1の実施の形態を説明する。
[2.構成]
図5は、第1の実施の形態における画像処理装置の一構成例を示すブロック図である。画像処理装置100は、距離画像取得部110、座標算出部120、基準面検出部130、物体領域検出部140、奥行き算出部150、グルーピング部160、CPU170、メモリ180、撮像部190を備える。
距離画像取得部110は、撮像部190が撮像した画像の各画素が示す2次元座標より、撮像部190からの距離を表す距離画像を取得する。
座標算出部120は、距離画像取得部110が取得した距離画像における各画素の3次元座標を算出する。3次元座標の算出方法については後述する。
基準面検出部130は、座標算出部120が算出した各画素の3次元座標に基づいて、距離画像における地面や道路面などの基準面を検出する。基準面検出部130は、距離画像の縦ライン毎に演算を行う。基準面検出部130は縦ラインの画素毎に、基準面の画素であるかどうかを判定し、基準面の画素を検出する。
物体領域検出部140は、座標算出部120が算出した各画素の3次元座標に基づいて、距離画像における基準面上に存在する物体の領域を検出する。物体領域検出部140は、距離画像の縦ライン毎に、ライン上の画素が基準面上に存在する物体の画素であるかどうかを判定し、物体領域を検出する。
奥行き算出部150は、物体領域検出部140で判定された物体領域内の各画素の3次元座標に基づいて、物体領域内の奥行き(誤差などによるばらつきを含む)を算出する。奥行き算出部150は、物体領域内において、縦ライン毎に、奥行きの算出を行う。
グルーピング部160は、物体領域内の縦ライン毎の奥行き変化量に基づいて、奥行きが連続的に変化している縦ラインの集合(すなわち、画素の集合)を特定し、集合毎にグルーピングを行う。また、グルーピング部160は各グループを所定のデータ形式で記述する。
CPU170は距離画像の各画素の3次元座標を算出する処理をはじめ、画像処理装置100全体の動作を制御する。なお、各種処理を行うために別途DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)などのハードウェアを用いてもよい。
メモリ180はCPU170のワークメモリや、距離画像を記憶しておくために用いるもので、DRAMなどの揮発性メモリやフラッシュメモリなどの不揮発性メモリからなる。
撮像部190は、例えば、車載カメラであり、車両の天井又はダッシュボードの上面などに取り付けられる。これにより、撮像部190は、車両の前方を撮影する。なお、撮像部190は、車両の内部ではなく、外部に取り付けられてもよい。撮像部190は、例えば、ステレオカメラやレーザーレンジファインダーなどによって構成される。本開示では、撮像部190はステレオカメラを用いるものとして説明する。
[3.動作]
以上のように構成された画像処理装置100について、その動作を説明する。
図6は第1の実施の形態における画像処理装置100の処理の流れを示すフローチャートである。
距離画像取得部110は、ステレオカメラでステレオ画像対を撮影し、視差の大きさ(視差量)を画素値とする距離画像を取得する(ステップS101)。なお、ステレオカメラのキャリブレーションは既存の手法を用いて実施することができる。加えて、視差の算出方法は所謂Semi−GlobalMatchingを始めとした既存の手法を用いることが出来るが、輝度変化の小さい領域を含めて可能な限りすべての画素に対して視差が求まる手法を用いることが望ましい。
次に、座標算出部120は、視差画像から各画素の奥行きを含めた3次元座標を算出する(ステップS102)。
ここで、視差量dと奥行きzの関係は以下の式で表すことが出来る。
Figure 0006326641
ただし、bはステレオカメラの基線長、即ちカメラ間の間隔を、fはカメラの焦点距離をそれぞれ表す。なお、視差量が0の画素はzが無限大となるが、これは所謂、無限遠を表すものとして解釈する。
また、奥行きzが定まった場合、左右及び上下方向の座標(x,y)は以下の式で表すことが出来る。
Figure 0006326641
ただし、u、vはそれぞれ視差画像の画素の左右及び上下方向の座標で、予めキャリブレーションで求めた画像の光学中心(カメラの光軸が通過する位置)を原点とする。
なお、ここで得られる3次元座標(x,y,z)を表す座標系は、ステレオカメラのいずれか一方(例えば左右のカメラの左側)の光学中心を原点とし、光軸方向をz軸、画像の左右、上下方向をそれぞれx軸、y軸とする。また、x軸、y軸、z軸の正の方向はそれぞれ順に右側、上側、前側とする。
次に、基準面検出部130は、座標算出部120が算出した各画素の3次元座標に基づいて、距離画像における、地面や道路面を表す基準面を検出する(ステップS103)。
基準面の高さを推定する具体的な手順について、図7を用いて説明する。図7は、カメラ光軸と基準面Qの距離との関係を示した図である。図7において、カメラ60の設置高さをh、光軸の俯角をθとする。基準面Qが平坦であると仮定すると、任意の点Pの場合、図7より、カメラ60からの奥行きzに対して、光軸から基準面までの距離yは以下の式で表すことができる。
Figure 0006326641
ステップS102で求めたある画素の3次元座標(x,y,z)に対して、奥行きzの位置に物体が存在する場合、y座標の値は(数3)より求まる−Yより大きな値となる。実際には視差量(即ち奥行き)や俯角に誤差を含む可能性、および現実の基準面が完全な平坦ではない可能性を考慮して、yが−Yから所定の閾値の範囲内にある画素を基準面に属すると判定する。
図8は、基準面検出の結果の一例を示す模式図である。図8は、図3で示す映像に対して基準面を検出した結果であり、黒塗りの領域が基準面を表す。
次に、物体領域検出部140は、距離画像の縦ライン毎に、基準面上に存在する物体領域を検出する(ステップS104)。
具体的には、物体領域検出部140は、縦ライン毎に基準面領域の上端の画素を物体の物体領域の下端として、画像の上方向に向かって画素を順にスキャンし、当該画素の奥行きと物体領域下端の奥行きの差が所定の閾値以下の範囲を物体の領域と判定する。図9は物体領域検出の結果の一例を示す模式図である。各矢印が当該縦ラインにおける物体の領域を表す。なお、物体領域検出部140は、物体の領域下端の奥行きが十分大きい(即ち無限遠に近い)場合、当該ライン上には物体がないと判断するようにしてもよい。この場合、物体領域検出部140は、は便宜上物体領域の上端と下端が同じ位置とみなす。
奥行き算出部150は、物体領域が定まった後、視差画像の縦ライン毎に、物体領域に属する各画素の奥行きから、物体領域の奥行きを算出する(ステップS105)。
具体的には、奥行き算出部150は、縦ライン毎に物体領域に属する画素の奥行きの平均を求める、などの手法を用いることで算出する。あるいは、奥行き算出部150は、物体領域の下端に近い画素ほど大きな重みを有するような重み付き平均を用いてもよい。
この場合、奥行き算出部150は、大きな重みを付けた側と反対側の端に近い画素には小さい重み付けを行ってもよい。このような重み付けを用いる理由として、物体の領域の検出において真の物体領域をはみ出して検出してしまった場合に、その影響を低減することが挙げられる。即ち通常の(画像の上方が鉛直上向きになるような)配置において、物体領域を上側にはみ出すと、更に奥側に物体がない場合には奥行きが無限遠になる上、奥側に物体があるとしても真の物体領域の奥行きからは大きく離れていることが多い。これに対して物体領域を下側にはみ出した場合、下側は路面であるため真の物体領域の奥行きから大きく離れている可能性は非常に低い。このことから平均を取る場合、上側にはみ出している場合の方が奥行き誤差は大きくなると考えられる。従って、下側に大きな重みを課す重み付け平均を取ることによって誤差を低減することが可能となる。
なお、カメラを上下反対(画像の上方が鉛直下向き)に設置している場合は上側に大きな重みを課すことで同様の効果を得ることが出来る。
次に、グルーピング部160は、物体領域内で隣接する縦ライン間での奥行きの変化量を算出し、その変化量の大きさが所定の閾値以下の縦ラインの集合(すなわち、縦ライン上の画素の集合)をグルーピングする(ステップS106)。なお、閾値の決定方法として、例えば縦ライン毎の奥行きに応じて閾値を定めることができる。(数1)より、奥行きzと視差量dは反比例の関係にあるため、視差量が一定量変化する場合、奥行きが大きいほど変化量も大きくなる。従って、奥行きが大きいほど閾値も大きくするのが自然である。あるいは同じく(数1)より、ある視差量dに誤差±Δdを加えた際の奥行き変化量Δzを求めることが出来、このΔzに基づいて閾値を決定するようにしてもよい。
また、閾値は、縦ライン毎の奥行きおよび距離画像の奥行きの検出誤差量に応じて定めてもよい。
なお、グルーピング部160は、グルーピングの際に、ある縦ラインLにおいて奥行き変化量が閾値を上回ったとしても、一定ライン先までに奥行きが縦ラインLの奥行きに近づくような場合は、縦ラインLをグループ境界としないようにしてもよい。これによって特定の縦ラインの奥行きに誤差が生じている場合や、ポールなどの細い物体が手前に立っている場合にそれらを無視してグループを構成することができる。
また、グルーピング部160は、隣接する縦ライン間で奥行きが手前から奥に変化する場合と奥から手前に変化する場合で、異なる大きさの閾値を用いてもよい。例えば、図3のように道路側に建物が連続して建っている直線道路を想定すると、大まかな傾向として画像の左側では物体領域の奥行きは(左から右に見て)手前から奥に変化し、画像の右側では奥から手前に変化すると考えられる。従って、画像の左側で奥行きが奥から手前に変化する(右側の場合は手前から奥に変化する)場合は手前に突き出た物体が存在する、物体領域の奥行きが誤っているなどイレギュラーなケースであると考えられる。このようなケースに対して、奥行き変化の方向に応じて閾値を変えることによって、誤ったグルーピングがなされることを防ぐことが出来る。
最後に、グルーピング部160は、グルーピングされた各集合(グループ)を所定のデータ形式で記述する(ステップS107)。ここで、どのようなデータ形式として表現するかについては、複数の方式が考えられる。例えば、各グループの両端の物体領域の上端および下端からなる4点の3次元座標によって表現することが考えられる。これは各グループをこの4点によって構成される3次元空間中の平面として表現するもので、特に3次元空間中で何らかの処理を行う(例えば空間中のどこが物体によって遮蔽されているかを判定するなど)際に有用である。
別の方式として、各グループの両端の物体領域の上端および下端からなる4点の距離画像上の2次元座標と、同物体領域の両端の物体領域の奥行きによって表現することが考えられる。これは距離画像上で特にグループ境界に着目して何らかの処理を行う(例えば隣のラインとの比較を行うなど)場合に有用である。また、この表現形式において、物体領域の両端以外の各ラインの奥行きを、物体領域両端の奥行きを線形補間して得られる値で修正してもよい。
図10は、物体領域のグルーピング結果の一例を示す模式図である。具体的には、図10は、後者の表現形式において、奥行きを線形補間した結果を模式的に表す図である。グラフ上に描かれた両端が丸の実線が各グループを表している。図10の場合は、6つのグループにグルーピングされている。このように、図10においては、図4Bで表現できていなかった奥行きの連続性が表現出来るようになることが分かる。また、図4Bでは、21個のStixelで表現されていた3次元構造が6個のグループで表現出来ることになり、データ量も削減することができる。
[4.グルーピング結果の利用方法]
グルーピングされた物体領域の情報を利用する例として、建物などの構造物の隙間を検出し、進入可能領域を探すことが挙げられる。(進入可能領域は、例えば、道路、駐車場など車両が進入できる領域である。)
図11は、図10の物体領域のグルーピング結果と図3の前方風景画像を対応付けた図である。図11において、グループの端点で奥行きが大きく変化している箇所が構造物の隙間に相当すると考えられる。図11では、図10で奥行きが大きく変化している箇所を図3に対応付けるために点線を引いているが、3箇所の隙間が検出されていることが分かる。検出された隙間が実際に進入可能領域であるかどうかは、例えばGNSS(GlobalNavigation Satellite System)によって画像処理装置を搭載している車両の自己位置を検出し、地図情報と照合するなどの方法が考えられる。
この時、検出された進入可能領域の情報と地図情報を照合することで、GNSSが保持している自己位置を補正することも可能である。GNSSが保持している自己位置は時間経過や環境に応じて様々な誤差が蓄積していく。これに対して、検出された進入可能領域の位置は、撮像部190によって画像が撮影された瞬間の自己位置から検出されるため、時間経過や環境に応じた誤差は含まれない。従って、検出された進入可能領域の情報と、進入可能領域の地図上の位置情報から、自己位置のずれを検出することが可能となる。例えば、地図上では20m先に交差点があるが、検出された進入可能領域は22m先にある、という場合には、GNSSが保持している自己位置は真の自己位置より2mほど前方にずれていると判断し、GNSSが保持している自己位置を2m後ろの位置に補正する。
上記を定式化すると以下のように表すことができる。まず、進入可能領域がn個検出されたとして、それらの3次元位置をそれぞれX=(x,y,z)、X=(x,y,z)、…、X=(x,y,z)とする。ついで、ある位置X=(x,y,z)に進入可能領域が存在する確率P(X)を定義する。確率P(X)の求め方として、例えばX(1≦k≦n、以降同様とする)を中心とする正規分布の和を求める、Xから距離が一定の範囲に一定の値を割り振る、など複数の方法を用いることができる。同様にして、地図情報に基づいてある位置Xに交差点が存在する確率Q(X)を定める。Q(X)はGNSSが保持している自己位置から一意に定めることができる。
ついで自己位置の補正量をX’=(x’,y’,z’)とする。求めるべきX’の値は以下の式によって定められる値を最大化する値である。
Figure 0006326641
なお、(数4)を計算するにあたってXの範囲を有限にする必要があるので、例えば撮像部190の視野角から定まる一定の範囲などを用いるのが望ましい。加えてX’の変化量が小さいほど必要な計算回数が増えていく一方で、X’の変化量を大きくすると補正後の残留誤差が大きくなる(例えば変化量を1m単位とすると1m未満の残留誤差が生じる)ので、処理速度および許容できる残留誤差の大きさに応じてX’の変化量を定める必要がある。
[5.効果など]
本開示の画像処理装置100において、座標算出部120は、距離画像取得部110が取得した距離画像の画素毎の3次元座標を算出する。基準面検出部130は、画素毎の3次元座標に基づいて、距離画像において所定の高さを有する基準面を検出し、物体領域検出部140は、画素毎の3次元座標に基づいて、距離画像における基準面上に存在する物体領域を検出する。また、奥行き算出部150は、物体領域内の縦ライン毎の奥行きを、縦ライン上の画素の3次元座標に基づいて決定する。グルーピング部160は、物体領域において、隣接する縦ライン間の奥行きの変化量を算出し、奥行きの変化量が所定の閾値以下となる縦ラインの集合をグループ化し、各グループを所定のデータ形式で記述する。
これにより、物体領域において、奥行きの変化量がほぼ一定(即ち奥行きが連続的に変化する)の縦ラインの集合を一つの集合としてグルーピングする。
従って、前方風景を撮像した画像の奥行きの連続性を表現できると共に、データ量を削減することができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
そこで、以下、他の実施の形態を例示する。
本開示では、撮像部190としてステレオカメラを用いたが、距離画像と画素間の位置関係が対応付けられたカラー画像またはグレースケール画像を撮像する撮像装置でもよい。これによって距離情報とともに色(または輝度)情報を併せて取得できるようになり、グルーピング処理においても色情報を利用することができるようになる。色情報の具体的な利用方法として、例えばグルーピングの際の閾値を、隣接する縦ライン間で物体領域の色または輝度の差に応じて重み付けすることが挙げられる。隣接する物体領域の色の差が極端に小さい場合、それらは同一の物体である可能性が高く、奥行きの差があるとしてもノイズの影響である可能性が高い。従って、色の差が小さい場合はグルーピングの閾値を大きく(境界と判断されにくく)することが有用と考えられる。
また、本開示では、画像処理装置100は撮像部190を備えていたが、撮像部190は画像処理装置と別体であっても構わない。図12は、画像処理装置の他の構成例を示すブロック図である。図12において、図5と同様の動作を行う構成要素に関しては、同符号を付与し、説明を省略する。
図12に示すように、画像処理装置200は、距離画像取得部110、座標算出部120、基準面検出部130、物体領域検出部140、奥行き算出部150、グルーピング部160、CPU170、メモリ180、とを備える。撮像部190と画像処理装置200は、互いに通信可能である。画像処理装置200は、撮像部190が撮像した画像を有線通信や無線通信を用いて取得する。
また、本開示の画像処理装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェアにより実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施の形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
加えて、上記実施の形態の各処理をソフトウェアで実現する場合に、処理の一部あるいは全体を別々のハードウェアで行ってもよい。具体的な形態として、本実施の形態において、画像処理装置が保持していた情報の一部や、画像処理装置が実行していた処理の一部を、ネットワークを介したサーバ側で所持・実行してもよい。また、画像処理装置からの要求に応じて、一部の処理の実行をサーバで行い、処理結果を応答として画像処理装置に返すことで、上記で説明してきたものと同等の機能を実現してもよい。
また、基準面の検出や物体領域の検出など処理の流れの各ステップにおいて、本文で記載の手法以外に、任意の公知の手法を用いてもよい。
本発明は前方空間の3次元構造を記述し、それに基づいて種々の処理を行う画像処理装置および画像処理方法に適用可能である。
100,200 画像処理装置
110 距離画像取得部
120 座標算出部
130 基準面検出部
140 物体領域検出部
150 奥行き算出部
160 グルーピング部
170 CPU
180 メモリ
190 撮像部

Claims (13)

  1. 撮像した画像より、距離画像を取得する距離画像取得部と、
    前記距離画像の画素毎の3次元座標を算出する座標算出部と、
    前記画素毎の3次元座標に基づいて、前記距離画像において所定の高さを有する基準面を検出する基準面検出部と、
    前記画素毎の3次元座標に基づいて、前記距離画像において前記基準面上に存在する物体領域を検出する物体領域検出部と、
    前記物体領域内の縦ライン毎の奥行きを、前記縦ライン上の画素の3次元座標に基づいて決定する奥行き算出部と、
    前記物体領域において、隣接する縦ライン間の奥行きの変化量を算出し、前記奥行きの変化量が所定の閾値以下となる前記縦ラインの集合をグループ化し、各グループを所定のデータ形式で記述するグルーピング部と、を備えた画像処理装置。
  2. 前記グルーピング部は、前記各グループを、前記グループの両端の縦ラインの上端および下端からなる4点に対する3次元座標によって記述する請求項1に記載の画像処理装置。
  3. 前記グルーピング部は、前記各グループを、前記グループの両端の縦ラインの上端および下端の4点に対する距離画像上の2次元座標と、前記グループの両端の領域の奥行きによって記述する請求項1に記載の画像処理装置。
  4. 前記グルーピング部は、前記各グループを、前記各グループの縦ライン毎の上端及び下端の4点に対する前記距離画像上の2次元座標と、前記グループの両端の領域の奥行きを線形補間して得られる前記縦ライン毎の奥行きによって記述する請求項1に記載の画像処理装置。
  5. 前記奥行き算出部は、前記物体領域に含まれる各画素の奥行きの平均値を前記物体領域の奥行きとして算出する請求項2乃至4のいずれか一項に記載の画像処理装置。
  6. 前記奥行き算出部は、前記物体領域の上端または下端に近い画素ほど重み付けを大きくし、前記各画素の奥行きの重み付き平均を前記領域の奥行きとして算出する請求項1記載の画像処理装置。
  7. 前記所定の閾値は、前記縦ライン毎の奥行きに応じて定められる、請求項1記載の画像処理装置。
  8. 前記所定の閾値は前記縦ライン毎の奥行きおよび前記距離画像の奥行きの検出誤差量に応じて定められる請求項1記載の画像処理装置。
  9. 前記所定の閾値は、隣接する縦ライン間で前記物体領域の奥行きが左から右に見て手前から奥に変化している場合と、奥から手前に変化している場合で異なる値を用いる請求項1記載の画像処理装置。
  10. さらに、前記画像を撮像する撮像部を備え、
    前記撮像部は、前記距離画像と画素間の位置関係が対応付けられたカラー画像またはグレースケール画像を撮像し、
    前記グルーピング部は、前記所定の閾値を隣接する前記縦ライン間で前記物体領域の色または輝度の差に応じて重み付けされる請求項1記載の画像処理装置。
  11. 前記グルーピング部は、あるグループの右端と隣接するグループの左端の奥行きの差が所定の範囲内である箇所を進入可能領域と判定する請求項1に記載の画像処理装置。
  12. 前記進入可能領域の位置と地図情報とを比較し、自己位置の誤差を補正するための補正量を算出することを特徴とする、請求項11に記載の画像処理装置。
  13. 撮像した画像より、距離画像を取得する距離画像取得ステップと、
    前記距離画像の画素毎の3次元座標を算出する座標算出ステップと、
    前記画素毎の3次元座標に基づいて、前記距離画像において所定の高さを有する基準面を検出する基準面検出ステップと、
    前記画素毎の3次元座標に基づいて、前記距離画像において前記基準面上に存在する物体領域を検出する物体領域検出ステップと、
    前記物体領域内の縦ライン毎の奥行きを、前記縦ライン上の画素の3次元座標に基づいて決定する奥行き算出ステップと、
    前記物体領域において、隣接する縦ライン間の奥行きの変化量を算出し、前記奥行きの変化量が所定の閾値以下となる前記縦ラインの集合をグループ化し、各グループを所定のデータ形式で記述するグルーピングステップとを含む画像処理方法。
JP2017536209A 2015-08-21 2016-08-09 画像処理装置および画像処理方法 Active JP6326641B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015163391 2015-08-21
JP2015163391 2015-08-21
PCT/JP2016/003658 WO2017033422A1 (ja) 2015-08-21 2016-08-09 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP6326641B2 true JP6326641B2 (ja) 2018-05-23
JPWO2017033422A1 JPWO2017033422A1 (ja) 2018-07-05

Family

ID=58099734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017536209A Active JP6326641B2 (ja) 2015-08-21 2016-08-09 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US10482615B2 (ja)
EP (1) EP3324359B1 (ja)
JP (1) JP6326641B2 (ja)
WO (1) WO2017033422A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564055B (zh) * 2017-08-28 2020-11-03 中国科学院遥感与数字地球研究所 一种基于遥感的滑坡体体积估计方法
JP7181026B2 (ja) * 2018-08-28 2022-11-30 ヤンマーパワーテクノロジー株式会社 障害物検知システム
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
US11361505B2 (en) * 2019-06-06 2022-06-14 Qualcomm Technologies, Inc. Model retrieval for objects in images using field descriptors
US11734873B2 (en) * 2019-12-13 2023-08-22 Sony Group Corporation Real-time volumetric visualization of 2-D images
CN111614907B (zh) * 2020-05-29 2021-08-10 济南博观智能科技有限公司 一种双相机目标匹配方法、***、卡口相机及存储介质
US11842546B2 (en) * 2021-05-13 2023-12-12 GM Global Technology Operations LLC Sensor fusion-based top-view three-dimensional stixel representation for general obstacle detection in a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064628A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法
JP2012168838A (ja) * 2011-02-16 2012-09-06 Fuji Heavy Ind Ltd 車両検出装置
JP2012243050A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2015090546A (ja) * 2013-11-05 2015-05-11 富士重工業株式会社 車外環境認識装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
US20160217335A1 (en) * 2009-02-27 2016-07-28 GM Global Technology Operations LLC Stixel estimation and road scene segmentation using deep learning
DE102011111440A1 (de) * 2011-08-30 2012-06-28 Daimler Ag Verfahren zur Umgebungsrepräsentation
US20140071240A1 (en) * 2012-09-11 2014-03-13 Automotive Research & Testing Center Free space detection system and method for a vehicle using stereo vision
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
US9305219B2 (en) * 2014-01-23 2016-04-05 Mitsubishi Electric Research Laboratories, Inc. Method for estimating free space using a camera system
US9811756B2 (en) * 2015-02-23 2017-11-07 Mitsubishi Electric Research Laboratories, Inc. Method for labeling images of street scenes
US9928430B2 (en) * 2015-04-10 2018-03-27 GM Global Technology Operations LLC Dynamic stixel estimation using a single moving camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064628A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法
JP2012168838A (ja) * 2011-02-16 2012-09-06 Fuji Heavy Ind Ltd 車両検出装置
JP2012243050A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2015090546A (ja) * 2013-11-05 2015-05-11 富士重工業株式会社 車外環境認識装置

Also Published As

Publication number Publication date
US10482615B2 (en) 2019-11-19
US20180182113A1 (en) 2018-06-28
EP3324359A1 (en) 2018-05-23
WO2017033422A1 (ja) 2017-03-02
EP3324359A4 (en) 2018-07-18
EP3324359B1 (en) 2019-10-02
JPWO2017033422A1 (ja) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6326641B2 (ja) 画像処理装置および画像処理方法
EP3876141A1 (en) Object detection method, related device and computer storage medium
US11328479B2 (en) Reconstruction method, reconstruction device, and generation device
JP6179639B2 (ja) 道路境界物の検出方法及び検出装置
JP6515650B2 (ja) 校正装置、距離計測装置及び校正方法
EP3082066A1 (en) Road surface gradient detection device
EP3070430B1 (en) Moving body position estimation device and moving body position estimation method
CN107545586B (zh) 基于光场极线平面图像局部的深度获取方法及***
JP2016029564A (ja) 対象検出方法及び対象検出装置
JP5752618B2 (ja) ステレオ視差算出装置
JP6201148B2 (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーション機能を備えた移動体搭載用カメラ及びプログラム
JP2011191905A (ja) ステレオカメラ装置
JP2008185375A (ja) Sar画像の3d形状算出装置及びsar画像の歪補正装置
US10977816B2 (en) Image processing apparatus, image processing program, and driving assistance system
US20180365846A1 (en) Image processing apparatus, moving body device control system, computer-readable medium, and image processing method
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
CN114419165B (zh) 相机外参校正方法、装置、电子设备和存储介质
JP7315216B2 (ja) 補正距離算出装置、補正距離算出用プログラムおよび補正距離算出方法
JP6991700B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6571492B2 (ja) 対応点探索方法、および距離測定装置
JP7136721B2 (ja) 演算装置、視差算出方法
WO2014054124A1 (ja) 路面標示検出装置及び路面標示検出方法
CN112288821A (zh) 一种相机外参标定的方法及装置
WO2023040137A1 (zh) 数据处理
KR101020921B1 (ko) 회전형 카메라 제어방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180208

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R151 Written notification of patent or utility model registration

Ref document number: 6326641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03