[第1実施形態]
本発明の第1実施形態を以下に図面を参照して説明する。この第1実施形態は、本願の第1発明、第5発明の実施形態である。まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、車両1の前方の画像を撮像する2つの撮像装置としての赤外線カメラ2R,2Lが接続されると共に、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3と、車両10の走行速度(車速)を検出する車速センサ4と、車両10のブレーキ操作(詳しくはブレーキペダルが操作されているか否か)を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な警報情報を出力するためのスピーカ6と、前記赤外線カメラ2R,2Lにより撮像された画像や視覚的な警報情報を表示するための表示装置7とが接続されている。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)、画像メモリなどを含む電子回路により構成され、前記赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル化されて入力される。さらに、図示は省略するが、画像処理ユニット1には、車両10の右左折用方向指示器(いわゆるウィンカー)の操作信号(右左折用方向指示器が操作されているか否かを示すON・OFF信号)も入力される。そして、画像処理ユニット1は、入力されたデータを基に、人(歩行者)などの対象物を検出する処理や、その検出した対象物の車両10に対する実空間位置(車両10からの距離を含む)を検出する処理、該対象物に関する警報を、適宜、前記スピーカ6や表示装置7を介して運転者に対して発する処理などをマイクロコンピュータにより実行する。これらの処理は、マイクロコンピュータのROMにあらかじめ実装されたプログラムを該マイクロコンピュータにより実行することにより実現され、そのプログラムは、本発明の測距用プログラムを含んでいる。
補足すると、画像処理ユニット1は、本発明の測距装置としての機能と車両の周辺監視装置としての機能とを含んでいる。
図2に示すように、前記赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、車両10の車幅方向の中心に対して左右対称である。そして、該赤外線カメラ2R,2Lは、基本的には、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように車両10の前部に固定されている。ただし、実際には、赤外線カメラ2R,2Lの構造的なばらつきや、車両10に対する組付け位置のばらつきなどに起因して、赤外線カメラ2R,2Lの光軸の向きや高さは、ある程度のばらつきを生じる。なお、各赤外線カメラ2R,2Lは、遠赤外域に感度を有する撮像装置であり、それにより撮像される物体の温度が高いほど、その物体の画像の出力信号のレベルが高くなる(該物体の画像の輝度が高くなる)特性を有している。
また、前記表示装置7は、本実施形態では、例えば車両10のフロントウィンドウに画像などの情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7は、HUD7aの代わりに、もしくは、HUD7aと共に、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを含んでもよい。
次に、本実施形態の周辺監視装置の全体的動作(画像処理ユニット1の処理)を図3および図4のフローチャートを参照して説明する。なお、図3および図4のフローチャートの処理のうち、前記特許文献1に記載されている処理と同じ処理については、本明細書での詳細な説明は省略する。補足すると、図3および図4のフローチャートの処理は、画像処理ユニット1のマイクロコンピュータが実行するプログラムにより実現される処理である。
画像処理ユニット1は、所定の演算処理周期で、STEP1〜STEP20の処理を繰り返し実行する。以下、説明すると、画像処理ユニット1は、まず、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、それぞれの画像を画像メモリに格納する(STEP3)。これにより、各赤外線カメラ2R,2Lにより撮像された画像が画像処理ユニット1に取り込まれる。以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像という。これらの右画像および左画像は、いずれもグレースケール画像である。なお、右画像および左画像の全体は、いずれも方形状の2次元画像で、そのサイズ(縦方向および横方向の寸法)および画素数は互いに同一である。また、右画像および左画像は、本発明における第1の撮像画像、第2の撮像画像に相当するものである。
補足すると、STEP1〜3の処理は、前記特許文献1の図3のS11〜S13の処理と同じである。
次いで、画像処理ユニット1は、車両10の走行環境に応じて、右画像と左画像とに対象物を抽出すべき対象物抽出領域を設定する(STEP4)。この場合、対象物抽出領域の設定に際して考慮される走行環境として、本実施形態では、車両10の車速(前記車速センサ4により検出される車速)と、ウィンカーの動作の有無と、画像処理ユニット1の過去の演算処理周期(前回の演算処理周期)で抽出された対象物の車両10に対する相対距離(車両10の前後方向における対象物の相対距離)とが含まれる。
本実施形態では、STEP4で設定される対象物抽出領域は、比較的大きめの面積の領域である拡大領域Sbと比較的小さめの面積の領域である標準領域Ssとの2種類があり、そのいずれかの領域に設定される。ここで、これらの拡大領域Sbおよび標準領域Ssを図5を参照して説明する。図5は右画像と左画像とを上下に並列させて示している。
右画像および左画像のそれぞれに設定される拡大領域Sbは、いずれも各画像と同じ形状の領域(方形領域)で、且つ、そのサイズ(横方向の寸法FHbおよび縦方向の寸法FVb)が互いに同一の領域である。本実施形態では、右画像および左画像のそれぞれの拡大領域Sbは、各々、右画像、左画像の全体領域と同一サイズ(同一面積)の方形領域である。また、右画像および左画像のそれぞれに設定される標準領域Ssは、いずれも右画像および左画像の全体領域よりも小さい面積の方形領域で、且つ、そのサイズ(横方向の寸法FHsおよび縦方向の寸法FVs)が互いに同一の領域である。
この場合、右画像および左画像のそれぞれでの拡大領域Sbの位置(左右の各画像に対して互いに同一の位置関係で固定された座標系(例えば図5のxy座標系Cb)での拡大領域Sbの位置)は、右画像と左画像とで同じである。本実施形態では、拡大領域Sbのサイズは、左右の各画像の全体領域と同一であるので、拡大領域Sbは、左右の各画像において、該画像の全体領域と一致する。補足すると、「領域の位置」は、該領域に固定された代表点(該領域の中心点や頂点など)の位置を意味する。
一方、左右の各画像での標準領域Ssの位置(左右の各画像に対して互いに同一の位置関係で固定された座標系(例えば図5のxy座標系Cb)での標準領域Ssの位置)は、図5に示す例の如く一般には相違する。すなわち、標準領域Ssの代表点を例えば該標準領域Ssの左上の頂点とし、図5に示すように、右画像の座標系Cbでの標準領域Ssの左上の頂点の位置(座標)を(xrb,yrb)とし、左画像の座標系Cbでの標準領域Ssの左上の頂点の位置(座標)を(xlb,ylb)とおくと、一般には、xrb≠xlbまたはyrb≠ylbである。この標準領域Ssは、その各画像での配置位置が、車両10の製造時や保守・点検時などに作業者によってあらかじめ設定される領域である。左右の各画像における標準領域Ssの位置の設定の仕方については後述する。
なお、図5において、画像内の点に関する位置の座標成分値の符号における添え字「b」は、図5の座標系Cbでの座標成分値であることを示しており、添え字「s」は図5の座標系Csにおける位置を示すことを意味する。座標系Csは標準領域Ssに対して固定された座標系である。いずれの座標系Cb,Csでもx軸は画像の横方向の軸、y軸は画像の縦方向の軸である。補足すると、本実施形態では、左右の各画像の全体領域と、拡大領域Sbとは一致するので、座標系Cbは、各画像に対して固定された座標系としての意味を持つと同時に、拡大領域Sbに対して固定された座標系としての意味を持つ。
上記STEP4では、例えば車両10の車速が、あらかじめ定めた所定速度以下である(比較的低速である)という要件と、車両10の右左折用方向指示器が動作しているといういう要件(車両10のウィンカースイッチがONになっているという要件)と、過去(例えば前回の演算処理周期)に抽出された対象物のうちに、車両10に対する相対距離(車両10の前後方向での距離)があらかじめ定めた所定値以下となる対象物(車両10との距離が比較的短い対象物)が存在するという要件とのうちのいずれかの要件が満たされる場合には、対象物抽出領域として拡大領域Sbが設定される。また、上記のいずれの要件も満たされない場合には、対象物抽出領域として標準領域Ssが設定される。
なお、STEP4の処理は、本発明における対象物抽出領域設定手段を構成するものである。
補足すると、車両10の前方に存在する対象物は、後述するように右画像および左画像の対象物抽出領域内で検出されるので、該対象物抽出領域を変更するということは、赤外線カメラ2R,2Lの視野角(画角)を変更することと同等の効果を奏する。この場合、対象物抽出領域の横方向の寸法が、赤外線カメラ2R,2Lの水平方向の視野角(画角)に相当し、対象物抽出領域の縦方向の寸法が赤外線カメラ2R,2Lの垂直方向の視野角(画角)に相当する。従って、各対象物抽出領域Sb,Ssの横方向の寸法および縦方向の寸法は、それぞれに対応して要求される画角に応じて設定すればよい。
また、本実施形態では、右画像および左画像のそれぞれの拡大領域Sbは、各画像の全体領域に一致させたが、該全体領域よりも小さい面積の領域であってもよい。例えば図5の仮想線の領域Sb’で示すような領域を拡大領域としてもよい。ただし、本実施形態で対象物の距離を算出する手法では、左右の各画像での拡大領域の横方向位置は、右画像と左画像とで同じ位置になるように設定される。その場合、図5の座標系Cbでの拡大領域の左上の頂点の位置を(xb,yb)とし、左右の画像の全体領域の横方向のサンプリング数をFHm、縦方向のサンプリング数をFVmとしたとき、xb、ybの値(ピクセル単位での値)が、例えばそれぞれ次式(1),(2)により与えられる値となるように、拡大領域を左右の各画像に設定すればよい。ここで、「横方向のサンプリング数」および「縦方向のサンプリング数」は、それぞれ、横方向における画像の全体領域の分割数[ピクセル]、縦方向における画像の全体領域の分割数[ピクセル]を意味する。
xb=(1/2)×FHm×(1−RHfov/MHfov) ……(1)
yb=(1/2)×FVm×(1−RVfov/MVfov) ……(2)
なお、式(1),(2)におけるRHfovは、赤外線カメラ2R,2Lの水平方向(横方向)の要求画角、RVfovは、赤外線カメラ2R,2Lの垂直方向(縦方向)の要求画角、MHfovは、赤外線カメラ2R,2Lの水平方向の最大画角、RVfovは、赤外線カメラ2R,2Lの垂直方向の最大画角である。
図3および図4のフローチャートの説明に戻って、画像処理ユニット1は、次に、前記右画像および左画像のうちの一方を基準画像とし、この基準画像を2値化する(STEP5)。基準画像は、本実施形態では右画像である。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。また、上記2値化処理は、基準画像のうちの、前記STEP4で設定された対象物抽出領域で行なわれる。
次いで、画像処理ユニット1は、前記2値化画像に対してSTEP6〜9の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP6)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP7)、そのライン群のそれぞれを対象物として抽出する(STEP8)。これにより、基準画像の対象物抽出領域内で、対象物が抽出される。
なお、STEP6〜8の処理により抽出される対象物には、一般には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。
前記図5には、夜間において赤外線カメラ2R,2Lから得られる右画像および左画像の模式的な例を示している。この例では、車両10の前方に他車両が存在しており、他車両の全体が、概略的に破線で示すように右画像および左画像に捉えられている。この場合、図5で参照符号T1〜T5を付した部分が高輝度領域となり、これらの部分T1〜T5のうちの対象物抽出領域に存在するものが対象物として抽出される。T1,T2は他車両のテールランプに相当する部分であり、T4,T5は他車両の後輪に相当する部分であり、T3は他車両の排気管に相当する部分である。なお、図5では、T1〜T5を実線で模式的に示している。実際の画像から抽出される対象物の形状は、一般には、図5のように整った形状とはならない。
補足すると、前記STEP5の2値化処理は、STEP4で設定された対象物抽出領域によらずに、基準画像の全体領域で行なうようにしてもよい。この場合には、STEP6〜8の処理をSTEP4で設定された対象物抽出領域内で行なうようにすればよい。また、STEP5〜8の処理は、これらの処理を行なう対象物抽出領域を除いて、前記特許文献1の図3のS14〜S17の処理と同じである。
次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP9)。なお、各対象物の重心の位置は、該対象物に含まれるランレングスデータの各ラインの位置(各ラインの中心位置)の座標に該ラインの長さを乗じたものを、該対象物に含まれるランレングスデータの全てのラインについて加算し、その加算結果を該対象物の面積により除算することにより求められる。また、各対象物の重心の代わりに、該対象物の外接四角形の重心(中心)の位置を求めてもよい。
次いで、画像処理ユニット1は、前記STEP8で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP10)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP8の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP8の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP7で付したラベル)が対象物Aのラベルと同じラベルに変更される。
次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP11)。なお、このSTEP11では、読込んだヨーレートの検出値を積分することにより、車両10の回頭角(方位角)の算出も行なわれる。補足すると、STEP9〜11の処理は、前記特許文献1のS18〜S20の処理と同じである。
一方、画像処理ユニット1は、STEP10,11の処理と並行して、STEP12〜14の処理を実行する。このSTEP12〜14の処理は、STEP8で抽出した各対象物の車両10からの距離(相対距離)を求めるための処理である。その処理を概略的に説明すると、まず、右画像(基準画像)のうち、各対象物を含む領域を探索画像R1として抽出する(STEP12)。探索画像R1は、例えば該対象物の外接四角形の領域である。
次いで、STEP4で設定された左画像の対象物抽出領域内で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域(探索画像R1よりも広い領域)である探索領域R2が設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域(探索画像R1と同じ形状および寸法の領域)が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP13)。
具体的には、左画像の探索領域R2内の複数の位置に、探索画像R1と同じ形状および寸法の領域が相関性判定領域として設定され、その各位置の相関性判定領域の輝度分布と探索画像R1の輝度分布との一致度合いを表す特徴量が算出される。該特徴量としては、例えば、相関性判定領域の各画素の輝度値と該画素に対応する探索画像R1の画素の輝度値との差の絶対値を、該相関性判定領域の全ての画素について積算してなる絶対差分和が用いられる。この場合、該特徴量(絶対差分和)の値が小さいほど、相関性判定領域の輝度分布と探索画像R1の輝度分布との一致度合いが高いことを意味する。そして、該特徴量(絶対差分和)の値が最小となる相関性判定領域が、探索画像R1との相関性が最も高い領域とされ、その領域が対応画像R3として抽出される。なお、STEP13の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。
補足すると、探索領域R2は、その内部に、対応画像R3が存在する可能性が高い領域に設定すればよく、探索画像R1が過去から時系列的に抽出されている対象物に対応するものである場合には、該対象物の距離(車両10からの相対距離)の過去履歴などを基に、探索領域R2の設定位置や寸法を適宜変更するようにしてもよい。対応画像R3の探索をできるだけ短時間で行う上では、探索領域R2を狭めに設定することが望ましい。
次いで、右画像の対象物抽出領域における前記探索画像R1の重心の位置(あるいは探索画像R1に含まれる対象物(高輝度領域)の重心の位置)と、左画像の対象物抽出領域における前記対応画像R3の重心の位置(あるいは対応画像R3に含まれる対象物(高輝度領域)の重心の位置)との横方向の差分の画素数を視差Δdとして算出し、その視差Δdを基に、対象物の車両10からの距離z(車両10の前後方向における距離)が算出される(STEP14)。なお、視差の算出と距離の算出処理の詳細は後述する。
以上がSTEP12〜14の処理の概要である。なお、STEP12〜14の処理は、前記STEP8で抽出された各対象物に対して実行される。補足すると、STEP14の処理には、本発明におけるパラメータ決定手段、距離算出手段としての機能が含まれる。
前記STEP11およびSTEP14の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(車両10に対する相対位置)である実空間位置を算出する(STEP15)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(3)、(4)、(5)により算出される。
X=x×z×p/f ……(3)
Y=y×z×p/f ……(4)
Z=z ……(5)
なお、x、yは基準画像上での対象物のx座標、y座標である。ただし、この場合の座標系は、図示は省略するが、基準画像の中心点の付近に原点を有するxy座標系である。その原点は、前記実空間座標系のZ軸上に対象物が存在するときに、該対象物の基準画像上でのx座標、y座標が共に0となるようにあらかじめ定められた点である。
次いで、画像処理ユニット1は、車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(3)により求めた値から、前記STEP10で求めた回頭角の時系列データに応じて補正する(STEP16)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の車両10に対する移動ベクトルを求める(STEP17)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間。以下、モニタ期間という)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の車両10に対する相対速度ベクトルに比例する。なお、STEP15〜17の処理は、前記特許文献1の図3のS21〜S23の処理と同じである。
次に、画像処理ユニット1は、前記STEP8で抽出された各対象物が、車両10との接触を回避すべき回避対象であるか否かを判定する回避対象判定処理を実行する(STEP18)。この回避対象判定処理を図6および図7を参照して以下に説明する。図6はSTEP18の回避対象判定処理を示すフローチャート、図7はこの回避対象判定処理で使用する領域を説明するための図である。
図6を参照して、回避対象判定処理では、まず、対象物の実空間位置に関する第1の判定処理としての第1対象物位置判定処理が実行される(STEP31)。この第1対象物位置判定処理は、車両10と対象物との接触を車両10の操舵やブレーキ操作によって余裕をもって回避できるか否かを判定するための処理である。具体的には、該第1対象物位置判定処理では、前記STEP4で設定した対象物抽出領域に対応する赤外線カメラ2R,2Lの視野角内の領域(以下、撮像監視領域という)のうち、車両10からのZ方向の距離(車両10の前後方向の距離)が、所定値以下となる領域(以下、第1領域という)に対象物の現在の実空間位置(実空間位置の今回値)が存在するか否かが判定される。
この場合、車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、前記STEP17で移動ベクトルを求めるための前記モニタ期間の時間で、該移動ベクトルのZ方向成分を除算することにより、該モニタ期間での対象物の平均速度Vz(車両10の前後方向での対象物の相対速度の平均値Vz)が求められ、この平均速度Vzに所定の定数T(時間の次元の定数)を乗じてなる値Vz・Tが前記第1領域の、Z方向の境界を規定する上記所定値として設定される。
ここで、前記第1領域を図7を参照して説明する。図7において、対象物抽出領域が前記拡大領域Sbに設定されている場合における前記撮像監視領域は、平面視で図中の直線L1b,L2bの間の領域により表され、対象物抽出領域が前記標準領域Ssに設定されている場合における前記撮像監視領域は、平面視で図中の直線L1s,L2sの間の領域で表される。従って、前記第1領域は、平面視で、図7の三角形abcまたはadeで囲まれた領域となる。なお、第1領域abcまたはadeは、上下方向では、所定の高さ(例えば車両10の高さの2倍程度の高さ)を有する領域である。
STEP31の第1対象物位置判定処理は、このような第1領域abcまたはadeに対象物が存在するか否かを判定する処理であり、対象物の現在の実空間位置のZ方向位置がVz・T以下で、且つ、Y方向位置が所定の高さ以下の位置であるときに、該対象物が第1領域に存在すると判定される。なお、車両10の前後方向における対象物の相対速度Vzが車両10から遠ざかる向きの相対速度である場合には、該対象物は第1領域に存在しないと判定される。
STEP31において、対象物が第1領域abcまたはade内に存在しないと判定された場合(STEP31の判定結果がNOとなる場合)は、車両10の操舵やブレーキ操作によって該対象物と車両10との接触を余裕をもって回避し得る状況である。そして、この場合には、画像処理ユニット1は、STEP36において、該対象物が回避対象で無いと判定し、該対象物についての回避対象判定処理を終了する。
一方、STEP31において、対象物が第1領域abcまたはade内に存在すると判定された場合(STEP31の判断結果がYESとなる場合)には、画像処理ユニット1はさらに、対象物の実空間位置に関する第2の判定処理としての第2対象物位置判定処理を実行する(STEP32)。この第2対象物位置判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、車両10と対象物との接触の可能性が高いか否かを判定するための処理である。具体的には、該第2対象物位置判定処理では、対象物が、図7に示すように車両10の両側で前後方向に延在する(車両10の車幅中心線L0と平行に延在する)ように設定された一対の境界線L3,L4の間の領域AR2(以下、第2領域AR2という)に存在するか否かが判定される。
この場合、第2領域AR2の左右の境界線L3,L4は、それらの間隔をWとしたとき、図7に示すように、車両10の車幅中心線L0から左右に同じ間隔W/2を有する位置に設定される。そして、境界線L3,L4の間隔Wは、車両10の車幅αよりも若干広い間隔に設定される。なお、対象物が第2領域AR2に存在するか否かは、対象物の現在の実空間位置のX方向成分の値が、境界線L3のX方向位置と境界線L4のX方向位置との間の値であるか否によって判定される。
補足すると、第2領域AR2の幅Wは、前記STEP4で対象物抽出領域を設定するために考慮した車両10の走行環境(車両10の車速や、ウィンカーの動作など)に応じて変化させるようにしてもよい。この場合、対象物抽出領域として前記拡大領域Sbが設定されるような走行環境では、標準領域Ssが設定されるような走行環境よりも、第2の領域AR2の幅を広くすることが好ましい。
STEP32において、対象物の実空間位置が第2領域AR2に存在すると判定された場合(STEP32の判定結果がYESとなる場合)は、対象物が現在の実空間位置に留まったとした場合に、該対象物が車両10と接触する可能性が高い。この場合には、画像処理ユニット1は、次に、対象物が歩行者(人)であるか(より正確には人である可能性が高いか否か)の判定処理を行なう(STEP33)。対象物が歩行者であるか否かの判定は、公知の手法(例えば特開2003−284057号公報に記載されている手法)を使用すればよく、グレースケール画像上での対象物の形状や大きさ、輝度分布等の特徴に基づいて行なうことができる。
このSTEP33の歩行者判定処理で、対象物が歩行者である可能性が高いと判断した場合には、対象物が歩行者であるとの判定の信頼性を高めるために、STEP34に進み、該対象物が他車両や電柱などの人工構造物であるか否かの判定処理(人工構造物判定処理)が行なわれる。対象物が人工構造物であるか否かの判定は、公知の手法(例えば特開2003−16429号公報や特開2003−230134号公報に記載されている手法)を使用すればよく、対象物の画像(グレースケール画像または2値化画像)における直線部分や直角部分の有無、他車両のウィンドウシールド部分の有無などに基づいて行うことができる。あるいは、パターンマッチングの手法により対象物が人工構造物であるか否かの判定を行なうようにしてもよい。
そして、STEP34で、対象物が人工構造物でないと判定された場合(STEP34の判定結果がNOとなる場合)には、画像処理ユニット1は、STEP35において、対象物が回避対象であると判定し、回避対象判定処理を終了する。従って、対象物が前記第1領域abcまたはade内の第2領域AR2に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
また、STEP33で対象物が歩行者でないと判定され、あるいは、STEP34で対象物が人工構造物であると判定された場合には、前記STEP36に進んで、対象物が回避対象で無いと判定され、回避対象判定処理が終了する。
一方、前記STEP32において、対象物が第2領域AR2に存在しないと判定された場合(STEP32の判定結果がNOとなる場合)には、画像処理ユニット1は、次に、対象物の移動方向に関する進入接触判定処理を実行する(STEP37)。この進入接触判定処理は、対象物が前記第2領域AR2に進入し、且つ、車両10と接触する可能性が高いか否かを判定する処理である。具体的には、対象物の移動ベクトルが現状に維持されると仮定し、この移動ベクトルを含む直線と、車両10の前端位置における実空間座標系のXY平面との交点のX方向位置が求められる。そして、この求めたX方向位置が、車両10の車幅中心線L0のX方向位置を中心とする所定範囲(車両10の車幅よりも若干広い範囲)に存在することを要件(以下、進入接触要件という)として、この進入接触要件が満たされるか否かが判定される。
STEP37において、対象物が前記進入接触要件を満たす場合(STEP37の判定結果がYESとなる場合)には、対象物が将来、車両10と接触する可能性が高い。そこで、この場合には、画像処理ユニット1は、前記STEP35において、該対象物が回避対象であると判定し、回避対象判定処理を終了する。
また、STEP37において、対象物が前記進入接触要件を満たさない場合(STEP37の判定結果がNOとなる場合)には、対象物が車両10と接触する可能性が低いので、画像処理ユニット1は、前記STEP36おいて、該対象物が回避対象で無いと判定し、回避対象判定処理を終了する。
以上がSTEP18の回避対象判定処理の詳細である。
図3および図4のフローチャートの説明に戻って、STEP18の回避対象判定処理において、対象物が回避対象でないと判定された場合(回避対象であると判定された対象物が存在しない場合)には、STEP18の判定結果がNOとなる。この場合には、画像処理ユニット1の今回の演算処理周期の処理は終了して、次回の演算処理周期でSTEP1からの処理を再開する。
また、STEP18の回避対象判定処理において、対象物が回避対象であると判定された場合(回避対象であると判定された対象物が存在する場合)には、STEP18の判定結果がYESとなる。この場合には、STEP19に進んで、画像処理ユニット1は、回避対象であると判定された対象物に関する実際の警報を行なうべきか否かの判定を行なう警報出力判定処理を実行する。この警報出力判定処理では、前記ブレーキセンサ5の出力から、運転者による車両10のブレーキ操作がなされていることが確認され、且つ、車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、警報を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、車両10の減速加速度が所定の閾値以下である場合には、警報を行なうべきと判定される。
そして、画像処理ユニット1は、警報を行なうべきと判定した場合(STEP19の判断結果がYESとなる場合)には、前記スピーカ6と表示装置7とによる警報を車両10の運転者に対して発する警報発生処理を実行する(STEP20)。そして、この警報発生処理の後、今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。上記警報発生処理では、例えば表示装置7に前記基準画像を表示すると共に、その基準画像中の、回避対象の対象物の画像を強調的に表示する。さらに、そのような対象物が存在することをスピーカ6から運転者に音声案内する。これにより、該対象物に対する運転者の注意が喚起される。なお、運転者に対する警報は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。また、車両10が自動操舵を行い得る車両である場合には、STEP18で回避対象であると判定された対象物との接触を回避するように車両10の操舵制御を実行するようにしてもよい。
また、STEP19で警報を行なわないと判断したとき(全ての対象物について警報を行なわないと判断したとき)には、STEP21の判断結果がNOとなり、この場合には、そのまま今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。
以上が本実施形態の周辺監視装置の全体的作動である。
次に、説明を後回しにしたSTEP14の処理(対象物の視差および距離の算出処理)と、標準領域Ssの設定とに関して詳細に説明する。
本実施形態では、前記標準領域Ssは、本発明における基準画像領域に相当している。この標準領域Ssは、車両10の製造時や保守・点検時などに、作業者によってあらかじめ設定される領域であり、その設定は次のように行なわれる。
すなわち、車両10の製造時や保守・点検時などに、車両10を停止させた状態で、エイミング用対象物が車両10の正面前方に配置される。この場合、エイミング用対象物の車両10に対する相対位置は既定の位置である。そして、この状態で、各赤外線カメラ2R,2Lの撮像画像(右画像および左画像)中のエイミング用対象物と各画像の標準領域Ssとの相対的な位置関係(標準領域Ssに対して固定された基準点(例えば標準領域Ssの左上の頂点)との位置関係)が既定の位置関係になるように、各画像中での標準領域Ssの位置が設定される。換言すれば、各画像の標準領域Ssに対して固定された座標系(2次元座標系)でのエイミング用対象物の位置(該対象物の重心点または中心の位置)の座標値が、既定の座標値になるように各画像中での標準領域Ssの位置が設定される。この場合、標準領域Ssに対するエイミング用対象物の、縦方向での既定位置は、左右の画像で同じであるが、標準領域Ssに対するエイミング用対象物の、横方向での既定位置は、左右の画像で相違する。
ここで、赤外線カメラ2R,2Lの光軸が正確に、車両10の前後方向に平行に延在し、且つ、それらの光軸の間隔と高さとが設計値どおりになっている状態(以降、赤外線カメラ2R,2Lの理想組付け状態)では、上記のように標準領域Ssを設定したとき、該標準領域Ssは、その中心点が、左画像および右画像の中心点と一致する位置で各画像に設定される。
しかるに、一般には、赤外線カメラ2R,2Lの組付け状態は、理想組付け状態に対してずれ(光軸の向きや高さのずれ)を生じている。このため、一般には、標準領域Ssは、左右の各画像の中央には設定されず、例えば前記図5に示したように、各画像の中央からずれた位置に設定される。
さらに、上記のように標準領域Ssを設定した後、左画像の標準領域Ssに対するエイミング用対象物の相対位置と右画像の標準領域Ssに対するエイミング用対象物の相対位置との横方向の差分の画素数Δdsをエイミング用対象物の視差として求め、この視差Δd0と、車両10の前後方向(Z方向)でのエイミング用対象物の相対距離z0(これは既定値である)とが、次式(5)の関係を満たすように、基準視差オフセット量Ldisp(画素数単位の量)を決定する。
z0=(f×D)/((Δd0+Ldisp)×p) ……(5)
なお、式(5)におけるfは、赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの光軸の間隔である基線長、pは画素間隔(互いに隣接する画素の間隔)である。f,Dは前記理想組付け状態における設計値である。また、標準領域Ssに対するエイミング用対象物の相対位置は、一般的には、標準領域Ssに対して固定された基準点(標準領域Ssに対して所定の位置関係を有する基準点)に対するエイミンング用対象物の相対位置である。換言すれば、標準領域Ssに対して固定された座標系(2次元座標系)でのエイミング用対象物の位置である。本実施形態では、左右の各画像における標準領域Ssに対する対象物の相対位置は、例えば、図5に示すように、標準領域Ssの左上の頂点を原点とする座標系Csでの対象物の位置(これは、標準領域Ssの左上の頂点を基準点としたときの該基準点に対する対象物の相対位置を意味する)として求められる。
ここで、左右の各画像での対象物の位置、ひいては、視差は、画素単位でしか算出できないので、算出し得る視差は、長さの単位([m]、[cm]など)では離散値となる。このため、仮に式(5)のLdispを0とすると、式(5)の右辺の演算により求められる相対距離は、実際の相対距離に対して誤差を生じる。この誤差を補償するための補正パラメータが、前記基準視差オフセット量Ldispである。
本実施形態では、車両10の製造時や保守・点検時に、上述のように決定された基準視差オフセット量Ldispが、標準領域Ss上で抽出される対象物の視差と相対距離との関係を規定する基準パラメータの1つとして、画像処理ユニット1に備えたEEPROMなどの図示しない不揮発性メモリ(書き込み・消去可能な不揮発性メモリ)に記憶保持される。
この不揮発性メモリは、本発明における記憶手段に相当するものである。
なお、式(5)の右辺のf、D、pも、標準領域Ss上で抽出される対象物の視差と相対距離との関係を規定する基準パラメータであるが、これらは、本実施形態では固定値であり、画像処理ユニット1のROMもしくはEEPROMにあらかじめ記憶保持されている。また、左右の各画像における標準領域Ssの位置を示すデータも、基準視差オフセット量Ldispと共に不揮発性メモリに記憶保持される。左右の各画像における標準領域Ssの位置を示すデータは、各画像に固定された座標系での標準領域Ssの代表点の位置である。本実施形態では、例えば、左右の各画像の全体領域(本実施形態ではこれは拡大領域Sbに一致する)の左上の頂点を原点とする座標系Cbでの、標準領域Ssの左上の頂点(標準領域Ssの代表点)の位置(座標)が各画像における標準領域Ssの位置を表す位置データとして、不揮発性メモリに記憶保持される。
次に、前記STEP14における視差および距離の算出処理を以下に詳細に説明する。
この処理は、マイクロコンピュータのROMにあらかじめ実装されたサブルーチンプログラムを該マイクイロコンピュータにより実行することによって実現される処理である。
本実施形態では、前記STEP8で抽出された各対象物の視差Δdは、対象物抽出領域が標準領域Ssおよび拡大領域Sbのいずれに設定されている場合であっても、右画像における対象物抽出領域に対する対象物の相対位置(横方向の相対位置)と、左画像における対象物抽出領域に対する対象物の相対位置(横方向の相対位置)との差分の画素数として算出される。この場合、右画像における拡大領域Sbと標準領域Saとの間の位置関係と、左画像における拡大領域Sbと標準領域Sbとの間の位置関係とは、一般には互いに異なるので、対象物の視差の値は、一般には、対象物抽出領域に依存するものとなる。
具体的には、図5を参照して、対象物抽出領域が標準領域Ssに設定されている場合には、右画像における対象物の標準領域Ssに対する相対位置は、該右画像の標準領域Ssの左上の頂点を原点とする座標系Csでの該対象物の位置(座標)として求められる。左画像についても同様である。従って、対象物抽出領域が標準領域Ssに設定されている場合における対象物の視差は、右画像における座標系Csでの対象物の横方向位置(座標系Csでのx座標)と、左画像における座標系Csでの対象物の横方向位置(座標系Csでのx座標)との差分の画素数として求められる。例えば、右画像内の対象物T3の座標系Csでの位置(座標)を(x3rs,y3rs)とし、左画像内の対象物T3の座標系Csでの位置(座標)を(x3ls,y3ls)とすると、対象物抽出領域が標準領域Ssに設定されている場合における対象物T3の視差Δd3sは、|x3rs−x3ls|の画素数として算出される。
なお、左右の各座標系Csは、前記した如く、不揮発性メモリに記憶保持された標準領域Ssの位置データを基に、各画像上で設定される。
また、対象物抽出領域が前記拡大領域Sbに設定されている場合には、右画像における対象物の標準領域Ssに対する相対位置は、該右画像の拡大領域Sbの左上の頂点(本実施形態では、これは右画像の全体領域の左上の頂点)を原点とする座標系Cbでの該対象物の位置(座標)として求められる。左画像についても同様である。従って、対象物抽出領域が拡大領域Sbに設定されている場合における対象物の視差は、右画像における座標系Cbでの対象物の横方向位置(座標系Cbでのx座標)と、左画像における座標系Cbでの対象物の横方向位置(座標系Cbでのx座標)との差分の画素数として求められる。例えば、右画像の対象物T3の座標系Cbでの位置(座標)を(x3rb,y3rb)とし、左画像の対象物T3の座標系Cbでの位置(座標)を(x3lb,y3lb)とすると、対象物抽出領域が拡大領域Sbに設定されている場合における対象物T3の視差Δd3bは、|x3rb−x3lb|の画素数として算出される。
以降、対象物抽出領域が標準領域Ssに設定された場合に、左右の画像のそれぞれの標準領域Ssで抽出された同一の対象物(例えば図のT3)の視差を一般的にΔdsで表す。同様に、対象物抽出領域が拡大領域Sbに設定された場合に、左右の画像のそれぞれの拡大領域Sbで抽出された同一の対象物(例えば図のT1〜T5)の視差を一般的にΔdbで表す。
そして、上記の如く求めた視差Δds,Δdbから、次のように、対象物の車両10に対する相対距離が算出される。
すなわち、対象物抽出領域が標準領域Ssに設定されている場合には、該標準領域Ssが基準画像領域に一致するので、画像処理ユニット1は、前記した如く不揮発性メモリに記憶保持された、焦点距離f、基線長D、画素間隔p、および基準視差オフセットLdispを対象物の視差と相対距離との関係を規定するパラメータとして決定する。
そして、上記の如く求めた視差から、前記式(5)と同等の次式(6)により対象物の相対距離zを算出する。
z=(f×D)/((Δds+Ldisp)×p) ……(6)
一方、対象物抽出領域が拡大領域Sbに設定されている場合には、右画像および左画像のそれぞれにおける拡大領域Sbの位置関係と、標準領域Ss(基準画像領域)に位置関係とが一般には相違しているため、対象物抽出領域が拡大領域Sbに設定されている場合における対象物の視差と距離との関係は、対象物抽出領域が拡大領域Sbに設定されている場合における対象物の視差と距離との関係と一般には相違する。従って、上記の如くもとめた視差Δdbを前記式(6)にそのまま適用しても、対象物の相対距離を正しく算出することができない。
そこで、この場合には、画像処理ユニット1は、基準パラメータのうちの基準視差オフセット量Ldispを次のように補正して、視差と相対距離との関係を規定するパラメータを決定する。
すなわち、不揮発性メモリに記憶保持された標準領域Ss(基準画像領域)の位置データを基に、右画像の座標系Cbでの標準領域Ssの横方向位置と、左画像の座標系Cbでの標準領域Sbの横方向位置との偏差Δx(=xrb−xlb)を算出する。そして、この偏差Δxを不揮発性メモリに記憶保持された前記基準視差オフセット量Ldispに加えることによって、拡大領域Sbに対応する視差オフセット量Sdispを算出する。
すなわち、次式(7)により、視差オフセット量Sdispを算出する。
Sdisp=(xrb−xlb)+Ldisp
=Δx+Ldisp ……(7)
そして、このようにして求めた視差オフセット量Sdispと前記焦点距離f、基線長Dおよび画素間隔pとの組を、視差と距離との関係を表すパラメータとして決定する。
ここで、xrbは、右画像の座標系Cbでの標準領域Ss(基準画像領域)の横方向位置を示すものであるから、右画像における拡大領域Sbと標準領域Ssとの位置関係を表すものとなる。また、xlbは、左画像の座標系Cbでの標準領域Ss(基準画像領域)の横方向位置を示すものであるから、左画像における拡大領域Sbと標準領域Ssとの位置関係を表すものとなる。
従って、視差オフセット量Sdispは、左右の各画像における拡大領域Sbと標準領域Ssとの位置関係と、基準視差オフセット量Ldispとを基に決定されることとなる。
そして、上記の如く拡大領域Sbに対応するパラメータ(視差オフセット量Sdispを含む)を決定した後、対象物の視差Δdbから、次式(8)により、対象物の距離zを算出する。
z=(f×D)/((Δdb+Sdisp)×p) ……(8)
以上が、STEP14の処理の詳細である。
補足すると、各対象物抽出領域に対応して、視差と距離との関係を規定するパラメータ(特に視差オフセット量)を決定する処理が、本発明におけるパラメータ決定手段の処理に相当する。そして、式(6)または(8)により、対象物の距離zを算出する処理が、本発明における距離算出手段の処理に相当する。
以上のように視差を求めて対象物の距離を算出することにより、対象物抽出領域を拡大領域Sbおよび標準領域Ssのいずれに設定した場合であっても、対象物の距離を精度よく算出することができる。
また、本実施形態では、車両10の前記した走行環境に応じて対象物抽出領域を設定することにより、走行環境に適した対象物抽出領域を設定できる。例えば、図5に示すように、車両10の前方の他車両が車両10に近い場合に、対象物抽出領域を拡大領域Sbに設定することにより、標準領域Ssでは捉えきれない他車両の全体を拡大領域Sb内で捉えることができるので、例えば前記STEP34の人工構造物判定処理において、対象物T1〜T5が他車両の構成要素であることを認識しやすくなる。また、車両10のウィンカーが動作しているとき、すなわち、車両10が左右いずれかに旋回しようとしているときには、対象物抽出領域は、拡大領域Sbに設定されるので、車両10の前方の広い領域(車幅方向に広い領域)で、対象物を抽出することが可能となる。このため、車両10の前方の広範囲にわたって、運転者に注意を喚起することが可能となる。
補足すると、本実施形態では、基準画像領域としての前記標準領域Ssは、前記したように、エイミング用対象物の標準領域Ssに対する縦方向の位置(高さ)が左右の画像で同じなるように、該標準領域Ssが設定される。このため、各画像における標準領域Ssの縦方向の位置は、一般には左右の画像で異なるものの、両画像の標準領域Ssに同一の対象物が存在する場合、その対象物の標準領域Ss上での高さはほぼ同一となる。従って、前記STEP13で、左画像の標準領域Ss上で対応画像を探索する場合、右画像の標準領域Ss上での探索画像の高さと同じ高さ位置で対応画像を探索するようにすることで、その探索を効率よく行なうことができる。
一方、左右の各画像の拡大領域Sbの相互の縦方向の位置関係は、左右の各画像の標準領域Ssの相互の縦方向の位置関係と一般には異なるので、両画像の拡大領域Sbに同一の対象物が存在する場合、その対象物の拡大領域Sb上での高さは一般には異なる。この場合、前記STEP13で、左画像の標準領域Ss上で対応画像を探索する場合、右画像における標準領域Ssの縦方向の位置(例えば図5の座標系Cbでの縦方向位置「yrb」)と左画像における標準領域Ssの縦方向の位置(例えば図5の座標系Cbでの縦方向位置「ylb」)との差分だけ、右画像の拡大領域Ss上での探索画像の高さと異なる高さ位置(左画像の拡大領域Ss上での高さ位置)で対応画像を探索するようにすることで、その探索を効率よく行なうことができる。なお、拡大領域Sbを各画像の全体領域よりも小さい領域に設定する場合には、各画像における拡大領域Sbの縦方向の位置の差分が、標準領域Ssの縦方向の位置の差分と同じになるように、各画像における拡大領域Sbを設定すれば、左右の各画像の拡大領域Sb上での同一の対象物の高さが左右の画像でほぼ同じになる。
[第2実施形態]
次に、本発明の第2実施形態を図8を参照して説明する。この第2実施形態は、本願の第2発明、第5発明の実施形態である。図8は、本実施形態で設定される対象物抽出領域を示す図である。なお、本実施形態は、対象物抽出領域の設定の仕方と、対象物の距離の算出の仕方だけが前記第1実施形態と相違するものであるので、第1実施形態と同一の構成部分もしくは同一の処理部分については説明を省略し、相違点部分を中心に説明する。
本実施形態では、前記STEP4で設定される対象物抽出領域は、第1実施形態と同様に標準領域Ssと拡大領域S2bとの2種類があり、第1実施形態と同様に、車両10の走行環境に応じて設定される。この場合、標準領域Ssは、基準画像領域に相当し、その形状およびサイズと、左右の各画像での位置の設定の仕方は、前記第1実施形態と同じである。また、標準領域Ssに係わる前記基準視差オフセット量Ldispも第1実施形態と同じで、車両10の製造時や保守・点検時に第1実施形態で説明した如く求められる。そして、この基準視差オフセット量Ldispが、焦点距離f、基線長Dおよび画素間隔pと共に、視差と距離との関係を規定する基準パラメータとして、EEPROMなどの不揮発性メモリ(記憶手段)に記憶保持される。また、該不揮発性メモリには、左右の各画像における標準領域Ssの位置を表す位置データも、第1実施形態と同様に記憶保持される。
一方、本実施形態では、前記STEP4において、図8に示す如く、拡大領域S2bは、右画像および左画像の全体領域ではなく、右画像における拡大領域S2bと標準領域Ssとの間の位置関係と、左画像における拡大領域S2bと標準領域Ssとの間の位置関係とが一致するように、左右の各画像における拡大領域S2bの位置が設定される。
具体的には、本実施形態では、図8に示す如く、拡大領域S2bは、方形状の領域で、且つ、そのサイズ(縦方向の寸法FV2bおよび横方向の寸法FH2b)が、左右の画像の全体領域のサイズよりも、多少小さい領域に定められている。そして、右画像における拡大領域S2bは、その中心点Prが右画像の標準領域Ssの中心点と一致するような位置に設定される。同様に、左画像における拡大領域S2bは、その中心点Plが左画像の標準領域Ssの中心点と一致するような位置に設定される。なお、左右の各画像の標準領域Ssの中心点は、前記不揮発性メモリに記憶保持された標準領域Ssの位置データを基に決定される。
補足すると、左右の各画像における拡大領域S2bの中心点Pr,Plの縦方向の位置は、標準領域Ssの中心点の縦方向の位置と一致していなくてもよい。ただし、左右の各画像の拡大領域S2bに同一の対象物が捉えられている場合に、各拡大領域S2b上での該対象物の縦方向の位置が同じになるようにする上では、拡大領域S2bの中心点と標準領域Ssの中心点との縦方向の位置ずれ量は、左右の画像で同じであることが好ましい。
上記のように拡大領域S2bを設定したとき、右画像における拡大領域S2bと標準領域Ssとの間の位置関係と、左画像における拡大領域S2bと標準領域Ssとの間の位置関係とが一致する。このため、対象物抽出領域が拡大領域S2bに設定されていて、各拡大領域S2bに同一の対象物が捕らえられている場合に、右画像の拡大領域S2bに対する該対象物の相対位置(例えば該拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の座標)と、左画像の拡大領域S2bに対する該対象物の相対位置(例えば該拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の座標)との横方向の差分の画素数を該対象物の視差として算出したとき、その視差と該対象物の距離との関係は、前記式(6)により表されることとなる。すなわち、不揮発性メモリに記憶保持された前記基準パラメータが、標準領域Ssにおける視差と距離との関係を規定するだけでなく、拡大領域Sbにおける視差と距離との関係を規定するものとなる。これは、標準領域Ssに対して固定された座標系での対象物の視差と、拡大領域S2bに対して固定された座標系での対象物の視差とが同じ値になるからである。
そして、本実施形態では、前記STEP14の処理において、対象物抽出領域が標準領域Ssに設定されている場合には、前記第1実施形態と同一の手法で、対象物の視差と、距離とが算出される。
一方、対象物抽出領域が拡大領域S2bに設定されている場合には、上記の如く、右画像の拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の位置(座標)と、左画像の拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の位置(座標)との横方向の差分の画素数を該対象物の視差として算出する。この視差の算出の仕方は、第1実施形態と同じである。ただし、本実施形態では、その視差から、対象物の距離を算出するときには、前記式(6)により、対象物の距離zが算出される。
従って、対象物抽出領域が拡大領域S2bと標準領域Ssとのいずれに設定されている場合であっても、前記した如く不揮発性メモリに記憶保持された基準視差オフセット量Ldisp、焦点距離f、基線長Dおよび画素間隔pからなる基準パラメータを基に、前記式(6)により、対象物の視差から対象物の距離zが算出される。
以上説明した以外の構成および処理は、前記第1実施形態と同じである。かかる本実施形態においても、第1実施形態と同様の効果を奏することができる。
[第3実施形態]
次に本発明の第3実施形態を説明する。この第3実施形態は、本願の第3発明、第5発明の実施形態である。なお、本実施形態は、第1実施形態とSTEP14の処理の一部だけが相違するものであるので、その相違点を中心に説明し、第1実施形態と同一構成部分および同一処理部分については説明を省略する。
本実施形態では、STEP4における対象物抽出領域の設定の仕方は、第1実施形態と同じであり、図5に示したように、拡大領域Sbと標準領域Ssとのいずれかに設定される。
ここで、前記第1実施形態では、拡大領域Sbを設定したときに、標準領域Ss(基準画像領域)における視差と距離との関係を規定する基準パラメータ(基準視差オフセット量Ldisp、焦点距離f、基線長Dおよび画素間隔p)を基に、前記STEP14において、拡大領域Sbにおける視差と距離との関係を規定するパラメータ(前記視差オフセット量Sdisp、焦点距離f、基線長Dおよび画素間隔p)のうちの視差オフセット量Sdispを算出して、該パラメータを決定するようにした。
これに対して本実施形態では、車両10の製造時や保守・点検時に前記基準視差オフセット量Ldispを求めるだけでなく、拡大領域Sbに対応する視差オフセット量Sdispも前記式(7)に従って算出しておき、それを、基準視差オフセット量Ldsipと共に不揮発性メモリ(記憶手段)に記憶保持しておく。これにより、対象物抽出領域として設定される各種類の領域である標準領域Ssと拡大領域Sbとのそれぞれに対応して、対象物の視差と距離との関係を規定するパラメータが、あらかじめ不揮発性メモリに記憶保持されることとなる。なお、左右の各画像における標準領域Ssの位置と拡大領域Sbの位置とをそれぞれ表す位置データも、不揮発性メモリに記憶保持される。そして、STEP4では、対象物抽出領域は、それに対応して不揮発性メモリに記憶保持されている位置データにより表される位置に設定される。
そして、本実施形態では、STEP14の処理において、対象物抽出領域が標準領域Ssに設定されている場合には、対象物の視差から距離を算出するときに、標準領域Ssに対応するパラメータである基準視差オフセット量Ldispと用いて、前記式(6)により、対象物の距離を算出する。また、対象物抽出領域が拡大領域Sbに設定されている場合には、対象物の視差から距離を算出するときに、拡大領域Sbに対応するパラメータである視差オフセット量Sdispと用いて、前記式(8)により、対象物の距離を算出する。なお、いずれの場合であっても、視差の算出の仕方は、第1実施形態と同じである。
以上説明した以外の構成および処理は、第1実施形態と同じである。
かかる本実施形態においても、第1実施形態と同様の効果を奏することができる。なお、本実施形態においても、拡大領域Sbは、各画像の全体領域に一致している必要はなく、例えば図5の仮想線の領域Sb’を拡大領域としてもよい。
また、拡大領域Sbを左右の各画像の全体領域と一致させるようにした場合において、該拡大領域Sbに関する視差と距離との関係を規定するパラメータ(視差オフセット量Sdispなど)を、車両10の製造時や保守・点検時に不揮発性メモリなどの記憶手段にあらかじめ記憶保持しておくことで、対象物抽出領域として拡大領域Sbだけを使用して、対象物の抽出処理や該対象物の車両10からの距離の算出処理を行なうようにすることも可能である。
[第4実施形態]
次に、本発明の第4実施形態を図9を参照して説明する。この第4実施形態は、本願の第4発明、第5発明の実施形態である。図9は、本実施形態で設定される対象物抽出領域を示す図である。なお、本実施形態は、対象物抽出領域における視差の算出の仕方と距離の算出の仕方だけが、前記第1実施形態と相違するものであるので、第1実施形態と同一の構成部分もしくは同一の処理部分については説明を省略し、相違点部分を中心に説明する。
前記第1実施形態では、対象物抽出領域が標準領域Ssおよび拡大領域Sbのいずれに設定されている場合でも、対象物の視差を求めるときに、右画像に設定されている対象物抽出領域に対する該対象物の相対位置と、左画像に設定されている対象物抽出領域(右画像と同じ種類の対象物抽出領域)に対する該対象物の相対位置との横方向の差分の画素数を該対象物の視差として算出した。
これに対して本実施形態では、対象物抽出領域が標準領域Ssおよび拡大領域Sbのいずれに設定されている場合でも、前記STEP14において、右画像の標準領域Ss(基準画像領域)に対する該対象物の相対位置と、左画像の標準領域Ss(基準画像領域)に対する該対象物の相対位置との横方向の差分の画素数を該対象物の視差として算出する。
具体的には、対象物抽出領域が標準領域Ssに設定されている場合における視差の算出の仕方は、第1実施形態と同じである。すなわち、右画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)と、左画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)との横方向の差分の画素数が該対象物の視差として算出される。
一方、対象物抽出領域が拡大領域Sbに設定されている場合における視差の算出の仕方は、第1実施形態と異なる。すなわち、対象物抽出領域が標準領域Ssに設定されている場合と同様に、右画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)と、左画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)との横方向の差分の画素数が該対象物の視差として算出される。例えば、図9の対象物T1(車両10の前方の他車両の左側テールランプの部分)の拡大領域Sbにおける視差は、右画像の標準領域Ssに対して固定された座標系Csでの対象物のx座標であるx1rsと、左画像の標準領域Ssに対して固定された座標系Csでの対象物のx座標であるx1lsとの差分の画素数として求められる。
このようにして各種類の対象物抽出領域で対象物の視差を算出したとき、その視差と、該対象物の距離との関係は、対象物抽出領域の種類によらずに、前記式(6)により表される。従って、車両10の製造時は保守・点検時に不揮発性メモリに記憶保持された前記基準パラメータが、標準領域Ssと拡大領域Sbとの両者に関して、視差と距離との関係を規定するものとなる。
そこで、本実施形態では、前記STEP14において上記の如く対象物の視差を求め、この求めた視差から前記式(6)により該対象物の距離を求める。以上説明した以外の構成および処理は第1実施形態と同じである。
なお、本実施形態では、左右の各画像における前記標準領域Ssの位置を表すものとして、車両10の製造時や保守・点検時に不揮発性メモリに記憶保持された位置データは、本願の第4発明、第9発明、第13発明における基準点位置データに相当している。その位置データは、前記第1実施形態で説明した如く、左右の各画像の全体領域の左上の頂点を原点とする座標系(各画像に対して固定された座標系)での、標準領域Ssの左上の頂点(標準領域Ssの代表点)の位置(座標)である。そして、標準領域Ssの左上の頂点が第4発明、第9発明、第13発明における基準点に相当している。
かかる本実施形態においても第1実施形態と同様の効果を奏することができる。
補足すると、本実施形態では、拡大領域Sbを第1実施形態と同じにしたが、例えば第2実施形態と同じに設定するようにしてもよい。より一般的には、各画像における拡大領域のサイズおよび位置は任意でよく、また、それらのサイズおよび位置が、右画像と左画像とで異なっていてもよい。
なお、以上説明した実施形態では、対象物抽出領域を2種類にしたが、より多くの対象物抽出領域を走行環境に応じて可変的に設定するようにしてもよい。