JP6014867B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6014867B2
JP6014867B2 JP2012273391A JP2012273391A JP6014867B2 JP 6014867 B2 JP6014867 B2 JP 6014867B2 JP 2012273391 A JP2012273391 A JP 2012273391A JP 2012273391 A JP2012273391 A JP 2012273391A JP 6014867 B2 JP6014867 B2 JP 6014867B2
Authority
JP
Japan
Prior art keywords
distance
slope
image
index value
vertical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012273391A
Other languages
English (en)
Other versions
JP2014119858A (ja
Inventor
齋藤 徹
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2012273391A priority Critical patent/JP6014867B2/ja
Publication of JP2014119858A publication Critical patent/JP2014119858A/ja
Application granted granted Critical
Publication of JP6014867B2 publication Critical patent/JP6014867B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、ステレオ撮像画像に基づき対応点探索法により対応点までの距離を算出し、その結果に基づき得られる距離画像データに基づいて画像内に存在する物体の検出処理を行う画像処理装置に関する。
特許第4714104号公報
例えば先行車両やその他の障害物の接近を検知して車両を制動させるなどの衝突回避や、オートクルーズ等といった運転者を支援するための運転支援技術が知られている。このような運転支援技術では、車両前方に存在する物体までの距離を検出し、その結果に基づき車両制動やスロットル制御等の車両制御が行われる。
撮像された物体までの距離の情報を得るための手法として、例えば上記特許文献1に記載されるような対応点探索法を用いた手法が知られている。
従来では、対応点探索法により算出した各対応点についての距離の情報を、各対応点の座標(画像平面としての二次元空間上の座標)と対応づけて距離画像として保持し、この距離画像を用いて、画像内に存在する物体の検出処理を実行している。
図10を参照して従来の物体検出処理の概要を説明する。
先ず、従来の物体検出処理では、上記のようにして得られた距離画像を、図10Aに示されるように画像縦方向に沿った分割線によって複数の領域(以下、「縦領域VR」と表記)に分割する。そして、これら縦領域VRごとに、その縦領域VR内に存在する距離データから奥行き方向の距離分布を表す距離ヒストグラムを作成し、度数が最大となる位置(対応点)の距離をその縦領域VR内に存在する物体の代表距離とする。図10Bは、このような縦領域VRごとの処理で求まった代表距離を黒丸によって模式的に表している。
次に、代表距離が得られた度数最大となる各対応点について、近接する各対応点までの距離や方向などの関係性から、同一物体とみなされる画素範囲をグループ化する。図10Cは、図10Aに示した画像内に存在する3つの先行車両がそれぞれグループG1、G2、G3としてグループ化されたことを模式的に表している。
このようにして、撮像画像内に存在する各物体が、その物体までの距離の情報も含めて検出されたことになる。
上記のような物体検出処理は、道路面よりも上側に存在する物体を対象として行うが、車両前方に坂が存在する場合には、該坂も道路面上に存在する物体として検出される場合がある。
この点を加味し、特許文献1に記載の従来手法では、上記の物体検出処理によって検出した物体ごとに、該物体が坂であるか否かを判別するようにしている。
しかしながら上記の従来手法によると、物体検出処理において、縦領域VRごとに求まった距離ヒストグラムの度数が最大となる対応点間の距離や方向などの関係性からグループ化を行うので、坂と坂以外の物体とが近接して存在していると、それらが纏めてグループ化されてしまう虞がある。
そして、このように坂と坂以外の物体とが纏められたグループについて、坂か否かの判別が行われると、坂の部分では距離データの密度が比較的疎となるのに対し、坂以外の物体では距離データが密集するために、正しく坂と判別することができない虞があった。
特に、坂が急である場合には、奥行き方向の距離分布の態様が坂と該坂の近接物とで近似するので、物体検出処理においてそれらが纏めてグループ化されてしまう可能性が高くなり、坂の誤判別の可能性が高まることとなる。
上記のように誤判別が行われ、本来は坂と判別されるべきものを正しく判別できないと、検出物体は障害物として認識されて、制動がかけられてしまい、画像認識に基づく車両制御の誤作動が生じてしまう。
そこで、本発明は坂であるか否かの判別精度の向上を図り、車両制御の誤作動を防止することを目的とする。
本発明の画像処理装置は、ステレオ撮像された一対の画像データ間の対応点をパターンマッチングにより検出し、該検出された対応点間の座標のずれを視差として算出した結果に基づき、実空間上における前記対応点までの距離を画像上に表した距離画像データを生成する距離画像生成部と、前記距離画像データを画像縦方向に沿った分割線により短冊状に分割して得た個々の領域を縦領域としたときに、該縦領域ごとに、その距離分布に基づいて被写体の坂らしさを表す坂指標値を算出し、該坂指標値に基づき、被写体が坂以外であるとみなされる前記縦領域を選択する領域選択部と、前記領域選択部が選択した前記縦領域を検出対象領域として、前記距離画像データに基づき、画像内に存在する物体を検出する物体検出処理部とを備えるものである。
上記本発明によれば、坂と坂以外の物体とが纏めてグループ化されたものについて坂の判別が行われてしまうことがない。
本発明によれば、坂の判別精度を向上することができ、車両制御の誤作動を防止することができる。
車両制御を行うためのシステム構成を模式的に示した図である。 図1に示したシステム構成における、物体検出に係る部分の構成を抽出して示した図である。 距離画像の一例を示した図である。 縦領域の画像縦方向における距離分布についての説明図である。 坂の判別手法についての説明図である。 再判別としての坂判別の説明図である。 領域選択処理を実現するために実行されるべき具体的な処理の手順を示したフローチャートである。 第1の坂指標値に基づく坂判別の変形例についての説明図である。 第2の坂指標値に基づく坂判別の変形例についての説明図である。 従来の物体検出処理の概要を説明するための図である。
<1.システム全体構成>
図1は、本発明に係る実施の形態としての画像処理装置を備え、車両1についての車両制御を行うためのシステム構成を模式的に示している。本システムは、車両1に対して設けられた撮像装置2、車外環境認識装置3、車両制御装置4、舵角センサ5、車速センサ6、アクチュエータ7、ディスプレイ8を備えて構成される。
本システムでは、撮像装置2で得られた撮像画像に基づき、車外環境認識装置3が車両前方に存在する物体を認識する。そして本システムでは、車両制御装置4が、車外環境認識装置3で認識された物体との衝突を回避したり、先行車両としての物体との離間距離(車間距離)を安全とされる距離に保つ制御等を実行する。
具体的に、車両制御装置4は、操舵の角度を検出する舵角センサ5や車両1の走行速度を検出する車速センサ6を通じて取得した現在の車両1の走行状態の情報と、車外環境認識装置3で検出された車両1の前方に存在する物体に関する情報とに基づき、先行車両との車間距離を安全とされる距離に保ったり、また物体との衝突が想定される場合には車両1を自動的に制動させるための制御をアクチュエータ7に対して実行する。ここでアクチュエータ7は、車両1を制動するためのブレーキやスロットルバルブ、舵角等を制御するためのアクチュエータを包括的に表したものである。
また、車両制御装置4は、物体との衝突が想定される場合には、運転者の前方に配置されたディスプレイ8にその旨の警告表示が行われるように制御を行う。
なお、車両制御装置4は、車外環境認識装置3と一体に形成することも可能である。
本実施の形態の画像処理装置は、撮像装置2で得られた撮像画像に基づき、画像内に存在する(車両1の前方に存在する)物体についての検出処理を実行し、上記のシステム構成においては、車外環境認識装置3に内在される。
<2.物体検出に係る構成>
図2は、図1に示した撮像装置2の内部構成と、車外環境認識装置3の内部構成のうち物体検出に係る要部の構成とを抽出して示している。なお、図中では図1に示した車両制御装置4も併せて示している。
撮像装置2には、第1カメラ部20-1、第2カメラ部20-2、A/D変換器21-1、A/D変換器21-2、画像補正部22及びインターフェイス部(I/F部)23が設けられている。
第1カメラ部20-1、第2カメラ部20-2は、それぞれカメラ光学系と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えて構成され、前記カメラ光学系により前記撮像素子の撮像面に被写体像が結像され、該撮像素子にて受光光量に応じた電気信号が画素単位で得られる。
第1カメラ部20-1、第2カメラ部20-2は、いわゆるステレオ法による測距が可能となるように設置される。本例における第1カメラ部20-1、第2カメラ部20-2は、車両1のフロントガラスの上部付近において、車幅方向に所定間隔を空けて配置されている。第1カメラ部20-1、第2カメラ部20-2の光軸は平行とされている。
また、第1カメラ部20-1、第2カメラ部20-2の焦点距離はそれぞれ同値とされ、またフレーム周期は同期しているものとする。フレームレートは、例えば60fpsである。
第1カメラ部20-1の撮像素子で得られた電気信号はA/D変換器21-1に、第2カメラ部20-2の撮像素子で得られた電気信号はA/D変換器21-2に供給され、それぞれA/D変換が行われる。これにより、画素単位で所定階調による輝度値を表すデジタル画像信号(画像データ)が得られる。
画像補正部22には、A/D変換器21-1を介して得られる第1カメラ部20-1による撮像画像に基づく画像データ(以下、「第1撮像画像データ」と表記)と、A/D変換器21-2を介して得られる第2カメラ部20-2による撮像画像に基づく画像データ(以下、「第2撮像画像データ」と表記)とが入力される。
画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対し、第1カメラ部20-1、第2カメラ部20-2の取り付け位置の誤差に起因するずれの補正を例えばアフィン変換等を用いて行う。また画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対しノイズの除去等を含む輝度値の補正も行う。
インターフェイス部23は、外部装置との間で各種のデータをやり取りするために設けられている。画像補正部22によって補正の施された第1撮像画像データ、第2撮像画像データは、インターフェイス部23を介して車外環境認識装置3に転送される。
車外環境認識装置3には、インターフェイス部31、バス32、画像処理部33及びメモリ部34が設けられている。インターフェイス部31、画像処理部33、メモリ部34はそれぞれバス32を介して接続され、バス32を介しての相互のデータ通信が可能とされる。
インターフェイス部31は、外部装置との間で各種のデータをやり取りするために設けられている。先のインターフェイス部23によって撮像装置2側から転送された第1撮像画像データ、第2撮像画像データは、インターフェイス部31にて受信される。このようにインターフェイス部31によって受信された第1撮像画像データ、第2撮像画像データは、バス32を介してメモリ部34に保持され、画像処理部33の処理に供される。
また、画像処理部33が行う後述する物体検出処理の結果は、インターフェイス部31を介して車両制御装置4に転送される。先の図1の説明からも理解されるように、車両制御装置4は、このように転送された物体検出処理結果に基づき前述した車両制御を実行する。
画像処理部33は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びワークエリアとしてのRAM(Random Access Memory)を備えた半導体集積回路で構成され、ROMに格納されたプログラムに従った各種の処理を実行する。
特に本実施の形態の場合、画像処理部33は、インターフェイス部31を介してメモリ部34に保持された第1撮像画像データ、第2撮像画像データに基づき、以下の処理を実行する。
先ず、メモリ部34に保持された第1撮像画像データ、第2撮像画像データに基づき距離画像を生成する距離画像生成処理を実行する。次に、距離画像生成処理で生成した距離画像に基づく領域選択処理を実行し、続いて領域選択処理の結果を用いて前記距離画像について画像内に存在する物体を検出する物体検出処理を実行する。
本例の場合には、距離画像生成処理、領域選択処理、物体検出処理は、ROMに格納されたプログラムに従ったCPUによるソフトウェア処理で実現される。図2中では便宜的に、これらの処理を実行するハードウェアがそれぞれ存在するものと擬制し、それぞれ距離画像生成処理部33A、領域選択処理部33B、物体検出処理部33Cと表している。
<3.距離画像生成処理>
先ず、距離画像生成処理部33Aが実行する距離画像生成処理について説明する。距離画像生成処理は、ステレオ撮像された一対の画像データ間の対応点をパターンマッチングにより検出し、検出された対応点間の座標のずれを視差として算出した結果に基づき、実空間上における対応点までの距離を画像上に表した距離画像データを生成する処理である。
以下に、対応点探索法により視差を求めるための手法について、その概要を説明する。
以下の説明では、第1撮像画像データを基準画像Tとし、第2撮像画像データを比較画像Cとする場合を例示する。
以下の説明においては、基準画像Tにおける各画素の位置を座標(i,j)で表す。座標(i,j)は、基準画像Tの左下隅を原点とし、水平方向(横方向)をi座標軸、垂直方向(縦方向)をj座標軸とした場合の画素のi座標、j座標を表す。また比較画像Cについては、基準画像Tの原点に予め対応づけられた画素を原点として同様にi座標、j座標を取る。
また、以下の説明では、画素ごとの輝度値を輝度値pで表し、基準画像Tにおける座標(i,j)で特定される画素の輝度値pを輝度値p1ij、比較画像Cにおける座標(i,j)で特定される画素の輝度値pを輝度値p2ijと表記する。
先ず、距離画像生成処理では、基準画像Tを、例えば4・4画素などの所定の複数画素で成る画素ブロック単位で分割し、画素ブロック単位で、比較画像Cとのパターンマッチング処理を行って、前記対応点としての、基準画像Tと比較画像Cとの間で対応している点(同じ被写体が撮像されているとみなされる点)を検出する。
具体的には、比較画像Cを水平方向に延在する4画素幅の水平ラインに分割し、基準画像Tの1つの画素ブロックを取り出してそれに対応する比較画像Cの水平ライン上を1画素単位で順次水平方向(i方向)にシフトさせながら、基準画像Tの画素ブロックにおける16個の画素の輝度値p1ijとそれに対応する比較画像Cにおける16個の画素の輝度値p2ijとを取得する。そして、これら基準画像Tの輝度値p1ijと比較画像Cの輝度値p2ijとの差の絶対値をそれぞれ合計した下記[式1]で求められるシティブロック距離CBが最小となる水平ライン上の画素ブロックを、基準画像Tの画素ブロックに最も近い輝度値特性を有する比較画像C上の画素ブロック(対応点)として特定する。
CB=Σ|p1ij−p2ij| ・・・[式1]
このように特定した比較画像C上の画素ブロックと、もとの基準画像T上の画素ブロックとの座標のずれ量を算出し、そのずれ量を視差dpとして求める。視差dpの値は、検出された対応点ごとに求まるものであり、距離画像生成処理では、このように得られた視差dpの値を、その視差dpが検出された対応点の位置の情報と対応づけて保持する。
上記のように求めた視差dpは、第1カメラ部20-1と第2カメラ部20-2との離間距離に由来する基準画像Tと比較画像Cとにおける同一物体の写像位置に関する水平方向の相対的なずれ量を表す。このような視差dpの値を用いて、第1カメラ部20-1と第2カメラ部20-2との中央位置から対応点としての被写体までの距離(実空間上の距離)を三角測量の原理に基づいて算出する。
対応点としての被写体までの実空間上における距離の算出は、例えば以下のようにして行うことができる。
先ず前提として、第1カメラ部20-1と第2カメラ部20-2との中央位置の真下に位置する道路面上の点を原点とし、車両1の車幅方向(水平方向)をX軸、車高方向をY軸、車長方向(距離方向)をZ軸とした三次元空間を定義する。
該三次元空間上において、視差dpが求められた対応点としての被写体が存在する位置の座標(X,Y,Z)は、該視差dpが求められた対応点の画像上の座標を(ic,jc)とすると、算出された視差dpの値を用いて、下記の[式2]〜[式4]により求まる。
X=CD/2+Z・PW・(ic−IV) ・・・[式2]
Y=CH+Z・PW・(jc−JV) ・・・[式3]
Z=CD/(PW・(dp−DP)) ・・・[式4]
ただし、CDは第1カメラ部20-1と第2カメラ部20-2との間隔、PWは1画素当たりの視野角、CHは第1カメラ部20-1及び第2カメラ部20-2の取り付け高さ、IV、JVはそれぞれ車両1の正面における無限遠点の画像上のi座標、j座標、DPは消失点視差を表す。
視差dpが算出された対応点としての被写体までの距離(以下、「距離L」と表記)は、[式4]により、算出された視差dpの値とCD,PW,DPの値とを用いて算出できる。
このとき、距離画像生成処理では、視差dpの信頼性を向上させる目的から、求めた視差dpについてのフィルタリング処理を施す。例えば、車道の映像のみからなる特徴に乏しい4・4画素の画素ブロックを比較画像Cの4画素幅の水平ライン上で走査した場合は、比較画像Cの車道が撮像されている部分ではすべて相関が高くなり、対応する画素ブロックが特定されて視差dpが算出されてもその視差dpの信頼性は低い。このため、そのような視差dpは前記フィルタリング処理で無効とし、当該画素ブロックの視差dpの値としては0(無効値)を割り当てる。
このようなフィルタリング処理が行われる結果、視差dpは、通常、基準画像Tの水平方向に隣り合う画素間で輝度値p1ijの差が大きないわゆるエッジ部分についてのみ有効な値を持つデータとなる。そしてこれに伴い、視差dpの算出結果から得られる距離画像としても、同様にエッジ部分についてのみ有効な値を持つデータとなる。
距離画像生成処理では、対象とする画素ブロックについて、算出した視差dpの値から先の[式4]により距離Lを算出し、算出した距離Lの値を当該画素ブロックの位置の情報(座標(i,j))と対応づけて保持する。
このように距離Lの値を画像上の位置の情報と対応づけた情報は、これをi軸とj軸による二次元平面上に展開すると、各対応点(各被写体)までの実空間上における距離Lを画像上に表すものとなる。この意味で、上記のように距離Lの値を画像上の位置の情報と対応づけた情報のことを、以下「距離画像」と表記する。
<4.領域選択処理>
[4-1.第1判別処理]
次に、領域選択処理部33Bが実行する領域選択処理について説明する。
図3Aは、取得された距離画像の一例として、車両1の前方に坂が存在し、該坂の近傍に道路標識Iとしての坂以外の物体が存在している場合の距離画像を模式的に表している。
領域選択処理においては、先ず距離画像を画像縦方向に沿った分割線により複数の領域(以下、「縦領域VR」と表記)に分割する。
図3Bは、図3Aに示す距離画像を複数の縦領域VRに分割した例を示している。図3Bから分かるように、距離画像を複数の縦領域VRに分割することによって、坂と坂以外の物体とがそれぞれ異なる縦領域VR内に含まれるようにできる。図3Bの例では、画面左端からn番目の縦領域VRを縦領域VR_nとしたときに、道路標識Iが縦領域VR_nと縦領域VR_n+1に含まれ、坂が縦領域VR_n+2〜VR_n+8に含まれた例を示している。
領域選択処理では、上記のように距離画像を複数の縦領域VRに分割した後に、これら縦領域VRごとに、その距離分布に基づいて被写体の坂らしさを表す坂指標値を算出する。そして、該坂指標値に基づき、被写体が坂以外であるとみなされる縦領域VRを選択する。
図4は、縦領域VRの画像縦方向における距離分布についての説明図であり、図4Aは、図3Bに示した縦領域VR_n及び縦領域VR_n+1としての、道路標識Iが含まれた縦領域VRの距離分布を例示し、図4Bは、図3Bに示した縦領域VR_n+2〜VR_n+8としての、坂が含まれた縦領域VRの距離分布を例示している。
図4A,図4Bを比較すると、被写体が坂である場合と坂以外の物体である場合とで距離分布の態様が全く異なることが確認できる。従って、縦領域VRごとに、その距離分布に基づいて被写体が坂であるか否かの判別が可能であることが分かる。
具体的に、被写体が坂以外である場合には、図4Aのように或る距離に密集した距離分布を示し、被写体が坂である場合には、図4Bのように画像の上側となるほど距離Lの値が徐々に大となるような距離分布を示す。このような距離分布の態様の差に基づき、被写体が坂であるか坂以外の物体であるかの判別を行うことができる。
より具体的には、同じ距離が密集する度合いが高ければ、被写体が坂以外の物体であると判別でき、同じ距離が密集する度合いが低ければ、被写体が坂以外の物体ではないと判別できる。この点に鑑み本実施の形態では、同じ距離が密集する度合いを表す指標値を坂指標値(第1の坂指標値)として算出し、該坂指標値と所定の閾値との大小関係に基づき、被写体が坂以外の物体であるか否かの判別を行う。
上記のように同じ距離が密集する度合いを表す第1の坂指標値の具体的な算出手法としては、種々考えることができるが、以下ではその一例を挙げて説明を行う。
図5Aは、坂の判別手法の具体的な手順を説明するための図である。
先ず、この場合の坂の判別手法では、縦領域VR内に含まれる距離Lのデータ総数をJ、データ総数Jを均等に分割したときの区分の総数をK、前記区分ごとのデータ個数をJ/Kとしたとき、縦領域VRごとに、画像下側から順に距離Lの数をカウントし、カウントしたJ/K個の距離Lごとに、その代表距離の値を得ていく。
図5Aでは、対象とする縦領域VR内に含まれる距離Lのデータ総数J=40個とされ、データ総数Jを12.5%ごとに均等分割したときの各区分を例示している(図中右側)。この場合には、J/K=5個となる。すなわち、上記の各区分の境界値は5の倍数(5〜35)となる。
この手法では、前述のように画像下側から順に距離Lのデータ数をカウントしていき、該カウント値が、上記区分の境界値に至るまでの間に(つまり5の倍数に至るまでの間に)、その区分についての代表距離の値を順次取得していく。代表距離については、その区分の距離Lの平均値であっても良いしピーク値であっても良い。或いはその区分について最初に取得(カウント)した距離Lの値を用いてもよい。
ここでは、その区分の距離Lの平均値を代表距離の値として取得する。
このように画像下側から順に距離Lのデータ数をカウントし、区分ごとの代表距離を順次取得していきながら、代表距離が重なる区分の数を、前記の坂指標値(第1の坂指標値)として算出する。そして、該坂指標値が、所定の閾値(「閾値th1」とする:第1閾値)以上であるか否かを判別することで、被写体が坂以外であるか否かの切り分けを行う。本例では、閾値th1の例として「3」を設定する。
図5Bは、被写体が坂以外の物体である場合における区分ごとの代表距離の値を例示し、図5Cは、被写体が坂である場合における区分ごとの代表距離の値を例示している。なおこれらの図においても、総数J=40、J/K=5であるとする。
被写体が坂以外の物体の場合は、図4Aで例示したように、距離の分布としては或る距離に集中するような分布となるので、複数の区分で代表距離が重複することになる。図5Bでは、10〜15の区分、15〜20の区分及び20〜25の区分で代表距離の値が同値で重なっており、それ以外の区分では代表距離の値が異なっている例が示されている。
一方、被写体が坂である場合には、図4Bで例示した通り、画像の上側となるほど徐々に距離Lの値が大となるような距離分布を示すので、複数の区分で代表距離が重複する可能性は非常に低く、図5Bの坂以外の物体の場合のように代表距離が3つの区分で重なるということはない。図5Cでは、坂の部分(ここでは5〜10の区分から25〜30の区分までの部分)において、各区分の代表距離の値がほぼ0.2m〜0.3m程度の差となっている例が示されている。
本例では、前述のように代表距離が重なる区分の数を坂指標値として算出し、該坂指標値が閾値th1(前述のようにこの場合は「3」)以上であるか否かを判別する。そしてその結果、前記坂指標値が閾値th1以上であった場合には、被写体が坂以外の物体であるとの判別結果を得る。
従って、図5Bに示したように被写体が坂以外の物体である場合に、これを適正に坂以外の物体であると判別することができる。また、図5Cに示すように被写体が坂である場合には、これを適正に坂以外の物体ではないと判別することができる。
[4-2.第2判別処理]
次に、図6を参照して第2の判別処理について説明する。
上記のような第1判別処理によっては、坂以外の物体として、例えば道路標識Iのように距離の値が全体的に或る一定範囲に集中する物体を確実に坂以外の物体として切り分けることができるが、坂以外の物体としては、例えば図6Aに示すキャリアカーのように、坂に類似する物体も存在するため、坂に類似する物体を判別するための以下の第2判別処理を行う。第2判別処理は、第1判別処理において坂以外ではない(坂である)と判別された縦領域VRについて、さらに第2の坂指標値を求めて行う再判別処理である。
図6Bは、坂の距離分布(◆によるプロット)とキャリアカーの距離分布(□によるプロット)とを対比して示している。
図6Bに示されるように、キャリアカーの距離分布には、比較的大きなピークが生じるのに対し、坂の距離分布にはそのような大きなピークは生じない。これは、坂は画像内の或る範囲内でほぼ一様に傾斜する態様であるのに対し、キャリアカーは画面の或る範囲内にて傾斜部分が一部のみに存在していることに起因する。また、坂は路面と連続して傾斜しているのに対し、キャリアカーは、先行車両として走行中である場合には、その後端部は路面と連続していないことにも起因する。
このような距離分布の差に基づき、坂とキャリアカー(坂以外の物体)との切り分けを行うことができる。具体的には、先の第1判別処理において坂以外ではない(坂である)とみなされた縦領域VRについて、さらにその距離分布の平滑度合いを表す値を第2の坂指標値として算出し、第2の坂指標値に基づき、その縦領域VRの被写体が坂以外であるか否かの再判別を行う。
第2の坂指標値の具体的な算出手法については種々考えられるが、本例では、対象とする縦領域VRの距離分布のピークの度数を、第2の坂指標値として用いる。すなわち、対象とする縦領域VRについて、度数が最大となる距離Lを検出し、検出したピークの度数を第2の坂指標値とする。
この場合の再判別では、取得した距離分布のピークの度数としての第2の坂指標値が、所定の閾値(「閾値th2」とする:第2閾値)以上であるか否かを判別する。該判別により、第2の坂指標値が閾値th2以上であるとされた場合には、当該縦領域VRの被写体が坂以外の物体であるとして、当該縦領域VRを物体検出処理の対象領域として選択する。一方、第2の坂指標値が閾値th2以上ではないとされた場合は、当該縦領域VRの被写体が坂以外の物体ではない(つまり坂である)として、当該縦領域VRの距離データを削除することで物体検出処理の対象領域から除外する。
このように坂と、キャリアカーなどの坂に類似する物体とでは、坂の方が距離分布の平滑度合いが高いという特性を利用して、坂と坂以外の物体との切り分けを行うことができる。
<5.物体検出処理について>
次いで、物体検出処理部33Cが実行する物体検出処理について説明する。
物体検出処理では、上記の第2判別処理によって坂であると判別されて距離データが削除された縦領域VRが処理対象から除外される。
物体検出処理の具体的な処理内容については、従来から行われているものと同様であるため、以下では要点のみを述べる。
先ず、物体検出処理では、例えば縦領域VR内に存在する距離データから奥行き方向の距離分布を表す距離ヒストグラムを作成し、度数が最大となる位置(対応点)の距離Lをその縦領域VR内に存在する物体の代表距離とする。そして、代表距離が得られた度数最大となる各対応点について、近接する各対応点までの距離や方向などの関係性から、同一物体とみなされる画素範囲をグループ化し、画像内に存在する各物体の範囲を特定する。これにより、画像内に存在する物体が、該物体までの距離Lの情報も含めて検出される。
<6.領域選択処理の手順>
次に、図7のフローチャートを参照して、上記した領域選択処理の手順を説明する。
図7において、CPU(画像処理部33のCPU、以下に同じ)は、距離画像を画像縦方向に沿った分割線によってN個(Nは2以上の自然数)の縦領域VRに短冊状に分割する(ステップS101)。
そして、縦領域識別番号nの値を「1」にセットする(ステップS102)。縦領域識別番号nの値は、ステップS101の短冊化で得られたN個の縦領域VRのうち処理対象とする縦領域VRを識別するためにCPUが管理する値である。
次に、n番目の縦領域VRについてその距離Lのデータ総数JをX%ごとに均等に区分する(ステップS103)。ここで、該均等区分処理で得られた区分の数をKとする。
さらにCPUは、閾値thc=J/Kと設定する(ステップS104)。閾値thcは、区分の切れ目を検出するための閾値である。
次に、区分識別番号k=0と設定する(ステップS105)。区分識別番号kの値は、ステップS103の処理で得られたK個の区分のうち、処理対象とする区分を識別するためにCPUが管理する値である。
続いて、画像下側から順に距離Lのデータ数のカウントを開始し(ステップS106)、カウント値が閾値thc以上となるまで待機する(ステップS107)。
カウント値が閾値thc以上となった場合は、k番目の区分の代表距離を取得する(ステップS108)。本例の場合は、k番目の区分としてカウントしたJ/K個の距離Lの平均値をk番目の区分の代表距離の値として算出し取得する。
さらに、区分識別番号kの値をインクリメント(k←k+1)する(ステップS109)と共に、閾値thcの値にJ/Kを加算する(thc←thc+J/K)処理を行う(ステップS110)。これにより、次の区分の代表距離の取得のための準備が為される。
次に、代表距離が重なっている区分の数が閾値th1以上であるか否かを判別する(S111)。本例の場合は、代表距離の値が同値で重なっている区分の数を第1の坂指標値として求め、第1の坂指標値が閾値th1以上(前述の例では「3」)であるか否かを判別する。
ステップS111において、代表距離が重なっている区分の数が閾値th1以上であると判別された場合は、ステップS112に進み、n番目の縦領域VRを物体検出の対象領域として選択する。続いて、ステップS113において縦領域識別番号nの値が縦領域VRの総数N以上であるか否かを判別する。
ステップS113において、縦領域識別番号nの値がN以上であると判別された場合は、対象とするフレーム画像(距離画像)内の全ての縦領域VRについての処理(坂判別)が完了し、領域選択処理を終了する。
一方、ステップS113において、処理対象縦領域識別番号nの値がN以上ではないと判別された場合は、ステップS114に進んで縦領域識別番号nの値をインクリメント(n←n+1)した後に、先のステップS103に戻り、n番目の縦領域VRについての区分処理を実行する。これにより、次の縦領域VRについての坂判別処理が開始される。
一方で、前述のステップS111において、代表距離が重なっている区分の数が閾値th1以上ではないと判別された場合は、ステップS115に進み、カウント値がデータ総数Jに至ったか否かを判別する。すなわち、対象とするn番目の縦領域VR内における全ての距離Lのデータをカウントし終え、全ての区分の代表距離の取得及び代表距離に基づくステップS111の判別処理が完了したか否かを判別していることに相当する。
ステップS115において、カウント値がデータ総数Jに至っていないと判別された場合は、ステップS107に戻り、カウント値が閾値thcとなるまで待機する。
一方、ステップS115でカウント値がデータ総数Jに至ったと判別された場合、すなわち、代表距離が重なっている区分の数が閾値th1以上ではないことが確定した場合は、n番目の縦領域VRの被写体は坂である場合とキャリアカーのような坂と類似した坂以外の物体である場合との双方が考えられる。このため、以下のステップS116〜S118によって、前述した第2の坂指標値に基づく再判別処理を実行する。
先ず、ステップS116において、n番目の縦領域VRの距離分布のピークを検出し、続くステップS117において、ピークの度数(第2の坂指標値)が閾値th2以上であるか否かを判別する。
ステップS117において、ピークの度数が閾値th2以上であると判別された場合は、ステップS118に進み、n番目の縦領域VRを物体検出の対象範囲として選択した後に、先のステップS113に処理を進める。すなわち、ピークの度数が閾値th2以上である場合は、n番目の縦領域VRの被写体は例えばキャリアカー等の坂以外の物体であるとみなすことができるので、ステップS113に処理を進めて、n≧Nにより残りの縦領域VRが存在するか否かを判別し、存在する場合は次の縦領域VRについての処理を開始(S114以降)して、存在しない場合は領域選択処理を終了する。
一方、ステップS117において、ピークの度数が閾値th2以上ではないと判別された場合は、n番目の縦領域VRの被写体は坂であるとみなすことができるので、n番目の縦領域VRについては距離データを削除することで物体検出の対象領域に選択せず、ステップS118に進むことなくステップS113に進む。
上述のように、ステップS113でn≧Nではないと判別された場合は次の縦領域VRについての処理を開始(S114以降)し、n≧Nであると判別された場合は領域選択処理を終了する。
<7.まとめ>
上記で説明したように、本実施の形態では、距離画像を複数の縦領域VRに短冊状に分割し、分割した縦領域VRごとに、坂指標値に基づき被写体が坂以外の物体であるか否かの判別を行い、該判別によって坂以外の物体であるとされた縦領域VRを検出対象領域として物体検出処理を実行している。
従って、従来のように坂と坂以外の物体とが纏めてグループ化されたものについて坂の判別が行われることがなく、坂か坂以外の物体であるかの判別をより正確に行うことができ、坂の判別精度の向上が図られる。そしてその結果、車両制御の誤動作を防止できる。
また、縦領域VRごとに、画像縦方向において同じ距離が密集する度合いを表す指標値を第1の坂指標値として算出し、第1の坂指標値と所定の閾値th1との大小関係に基づき、被写体が坂以外の物体であるか否かの判別を行っている。
従って、被写体が確実に坂以外の物体であるとみなすことのできるケースを適正に切り分けることができる。
さらに、縦領域VRごとに、画像下側から順に距離Lのデータ数をカウントし、カウントしたJ/K個の距離Lごとにその代表距離の値を得ると共に、代表距離の値が重なる区分の数を第1の坂指標値として算出し、第1の坂指標値が第1閾値th1以上であるか否かを判別している。
これによれば、被写体が坂以外の物体であるか否かの判別は、対象とする縦領域VR内の全データを参照する前に完了することが可能となり、その分、判別に係る処理負担の軽減及び処理時間の短縮化が図られる。
さらにまた、被写体が坂以外の物体ではないと判別された縦領域VRについて、その距離分布に基づく第2の坂指標値を算出し、第2の坂指標値に基づき、縦領域VRの被写体が坂以外であるか否かの再判別を行っている。
このように、第1判別処理により確実に坂以外の物体であるとみなすことのできる縦領域VRを切り分け、その後に、第2判別処理として残された縦領域VRについて被写体が坂であるか否かの再判別を行うことにより、判別に係る処理負担の軽減を図ることができる。
すなわち、1度の判別処理により被写体が坂か坂以外の物体であるかの判別を行う(キャリアカー等との切り分けも含む)場合には、画像内の個々の縦領域VRにつき実行すべき処理の負担は増大傾向となるが、上記のように判別を二段階に分けて実行すれば、第1段階目の判別の処理負担を軽くすることが可能であり、全体として処理負担の軽減が図られ、処理時間の短縮化も図られる。
また、第2の坂指標値として、距離分布の平滑度合いを表す値を算出し、その値に基づき被写体が坂以外の物体であるか否かの再判別を行っている。
これによれば、被写体が坂であるか、キャリアカーのような坂と類似した坂以外の物体であるかの切り分けを行うことができる。
さらに、第2の坂指標値として、距離分布のピークの度数を算出し、第2の坂指標値と所定の閾値th2との比較結果に基づき、被写体が坂以外であるか否かの再判別を行っている。
これによれば、被写体が坂であるか、キャリアカーのような坂と類似した坂以外の物体であるかの切り分けを確実に行うことができる。
<8.変形例>
以下に、坂判別の手法の変形例について説明する。
例えば、第1の坂指標値に基づく坂判別については、対象とする縦領域VR内に存在する距離Lについて、その度数分布表(距離ヒストグラムでも良い)を作成し、その結果から第1の坂指標値を得て、被写体が坂以外の物体であるか否かの判別を行うこともできる。
或いは、第1の坂指標値に基づく坂判別の手法としては、以下のような距離Lのデータ密度に基づく手法を採ることもできる。
具体的には、先ず、対象とする縦領域VR内に存在する距離Lの最大値(L_max)と最小値(L_min)について、それらの差分の絶対値が閾値thlより大であることを条件として課す(|L_max−L_min|>thl)。該条件を満たさない縦領域VRは、被写体が坂以外の物体であると判別して、物体検出処理の対象領域としては選択しない。
一方、上記条件を満たす場合は、所定の距離区分、例えば、距離0.5m単位で区切った距離区分ごとに、距離Lのデータ数をカウントし、データ数が所定の閾値(「閾値thd」と表記)以上となる距離区分を、距離Lのデータが存在する距離区分として検出する。
その上で、検出した距離区分の個数が、距離区分の総数に占める割合(%)を、第1の坂指標値として求め、第1の坂指標値が、所定の閾値(「閾値th1'」と表記)以上であるか否かを判別し、該判別で肯定結果が得られた場合は被写体が坂以外の物体ではないとし、否定結果が得られた場合は被写体が坂以外の物体であるとする。例えば、閾値th1'は75%に設定されているとする。
図8Aは、被写体が坂であった場合における距離区分ごとのデータ(距離L)の分布例を模式的に表し、図8Bは被写体が坂以外の物体であった場合における距離区分ごとのデータの分布例を模式的に表している。
上記の手法によれば、図8Aのケースでは、第1の坂指標値は5/5で100%と算出され、閾値th1'=75%以上であるため、適正に坂以外の物体ではないとの判別結果を得ることができる。
一方、図8Bのケースについては、第1の坂指標値は2/5で40%と算出され、閾値th1'未満であるため、適正に坂以外の物体であるとの判別結果を得ることができる。
また、第2の坂指標値に基づく再判別の手法としては、前述のように距離分布のピークの度数を指標値とする手法以外にも、例えば図9に示すような手法を採ることもできる。
図9において、図9Aは被写体が坂である縦領域VRについての距離分布の例を示し、図9Bは被写体が坂に類似した坂以外の物体である縦領域VRについての距離分布の例を示している。
先ず、対象とする縦領域VRの距離Lのデータに基づき、例えば0.5m単位などの所定の距離区分ごとの代表距離の値(例えば平均値)を得る。図9A,図9Bにそれぞれ示す黒丸は、距離区分ごとの代表距離を表している。
次に、距離区分ごとの代表距離についての近似直線apを例えば最小二乗法などにより求めた上で、近似直線apに対する距離区分ごとの代表距離の乖離量の合計値を、第2の坂指標値として求める。第2の坂指標値が所定の閾値(「閾値th2'」と表記)以上であるか否かを判別し、該判別により肯定結果が得られた場合は被写体が坂以外の物体であるとし、否定結果が得られた場合は被写体が坂以外の物体ではないとする。
図6Bで説明したように、被写体が坂に類似する坂以外の物体である場合には距離分布に比較的大きなピークが生じるので、近似直線apに対する各代表距離の乖離量の合計値は、被写体が坂である場合との比較で大となる。図9Bでは両矢印によって、近似直線apからの乖離量が大となっている代表距離を表している。
従って、上記の手法によっても、坂と坂に類似した坂以外の物体とを適正に切り分けることができる。
1・車両、2・撮像装置、3・車外環境認識装置、31・インターフェイス(I/F)部、32・バス、33・画像処理部、33A・距離画像生成処理部、33B・領域選択処理部、33C・物体検出処理部

Claims (5)

  1. ステレオ撮像された一対の画像データ間の対応点をパターンマッチングにより検出し、該検出された対応点間の座標のずれを視差として算出した結果に基づき、実空間上における前記対応点までの距離を画像上に表した距離画像データを生成する距離画像生成部と、
    前記距離画像データを画像縦方向に沿った分割線により短冊状に分割して得た個々の領域を縦領域としたときに、該縦領域ごとに、その距離分布に基づいて被写体の坂らしさを表す坂指標値を算出し、該坂指標値に基づき、被写体が坂以外であるとみなされる前記縦領域を選択する領域選択部と、
    前記領域選択部が選択した前記縦領域を検出対象領域として、前記距離画像データに基づき、画像内に存在する物体を検出する物体検出処理部と、を備える
    画像処理装置。
  2. 前記領域選択部は、
    前記縦領域ごとに、画像縦方向において同じ距離が密集する度合いを表す指標値を第1の坂指標値として算出すると共に、
    前記縦領域ごとに、前記第1の坂指標値と所定の第1閾値との大小関係に基づき、前記被写体が坂以外であるとみなされる縦領域であるか否かの判別を行う
    請求項1に記載の画像処理装置。
  3. 前記領域選択部は、
    前記縦領域内に含まれる距離データの総数をJ、該総数Jを均等に分割したときの区分の総数をK、前記区分ごとのデータ個数をJ/Kとしたときに、
    前記縦領域ごとに、画像下側から順に距離データをカウントし、カウントしたJ/K個の距離データごとにその代表距離の値を得ると共に、該代表距離の値が重なる区分の数を前記第1の坂指標値として算出し、該第1の坂指標値が前記第1閾値以上であるか否かを判別する
    請求項2に記載の画像処理装置。
  4. 前記領域選択部は、
    前記第1の坂指標値と前記第1閾値とに基づく判別の結果、坂以外ではないとみなされた前記縦領域について、さらにその距離分布に基づく第2の坂指標値を算出し、該第2の坂指標値に基づき、該縦領域の被写体が坂以外であるか否かの再判別を行う
    請求項2に記載の画像処理装置。
  5. 前記領域選択部は、
    前記第2の坂指標値として、前記坂以外ではないとみなされた前記縦領域の距離分布の平滑度合いを表す値を算出する
    請求項4に記載の画像処理装置。
JP2012273391A 2012-12-14 2012-12-14 画像処理装置 Active JP6014867B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012273391A JP6014867B2 (ja) 2012-12-14 2012-12-14 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012273391A JP6014867B2 (ja) 2012-12-14 2012-12-14 画像処理装置

Publications (2)

Publication Number Publication Date
JP2014119858A JP2014119858A (ja) 2014-06-30
JP6014867B2 true JP6014867B2 (ja) 2016-10-26

Family

ID=51174664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012273391A Active JP6014867B2 (ja) 2012-12-14 2012-12-14 画像処理装置

Country Status (1)

Country Link
JP (1) JP6014867B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016019009A (ja) * 2014-07-04 2016-02-01 日立オートモティブシステムズ株式会社 情報処理装置
JP6564218B2 (ja) * 2015-03-27 2019-08-21 株式会社Subaru 車外環境認識装置
JP6719328B2 (ja) * 2016-08-11 2020-07-08 株式会社Subaru 車外監視装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3674400B2 (ja) * 1999-08-06 2005-07-20 日産自動車株式会社 周囲環境認識装置
JP4714104B2 (ja) * 2006-07-31 2011-06-29 富士重工業株式会社 物体傾き検出装置
JP4832227B2 (ja) * 2006-09-07 2011-12-07 富士重工業株式会社 物体検出装置および物体検出方法
JP4956453B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 物体検出装置
JP5603625B2 (ja) * 2010-03-24 2014-10-08 本田技研工業株式会社 物体検出装置

Also Published As

Publication number Publication date
JP2014119858A (ja) 2014-06-30

Similar Documents

Publication Publication Date Title
JP4956452B2 (ja) 車両用環境認識装置
EP3082066B1 (en) Road surface gradient detection device
JP4876080B2 (ja) 環境認識装置
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP3516856B2 (ja) 車外監視装置
JP5693994B2 (ja) 車両検出装置
JP6376429B2 (ja) 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6156400B2 (ja) 走行路面検出装置及び走行路面検出方法
JP6358160B2 (ja) 走行路面検出装置及び走行路面検出方法
US20100246896A1 (en) Image processing device
JP4638369B2 (ja) 車線位置検出装置
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
JPWO2013133129A1 (ja) 移動物***置姿勢推定装置及び移動物***置姿勢推定方法
CN111368607A (zh) 一种机器人、障碍物的检测方法及检测装置
JP6810009B2 (ja) 視差算出装置
JP2008262333A (ja) 路面判別装置および路面判別方法
JP5073700B2 (ja) 物体検出装置
JP4939137B2 (ja) 車線認識装置
JP4721278B2 (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP4956099B2 (ja) 壁検出装置
JP6014867B2 (ja) 画像処理装置
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US20200193184A1 (en) Image processing device and image processing method
KR101289386B1 (ko) 스테레오 비전 기반의 장애물체 검출 및 분리 방법과 이를 실행하는 장치
JP6719328B2 (ja) 車外監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160831

R150 Certificate of patent or registration of utility model

Ref document number: 6014867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250