JP2017156965A - 道路領域検出装置 - Google Patents

道路領域検出装置 Download PDF

Info

Publication number
JP2017156965A
JP2017156965A JP2016039273A JP2016039273A JP2017156965A JP 2017156965 A JP2017156965 A JP 2017156965A JP 2016039273 A JP2016039273 A JP 2016039273A JP 2016039273 A JP2016039273 A JP 2016039273A JP 2017156965 A JP2017156965 A JP 2017156965A
Authority
JP
Japan
Prior art keywords
parallax
road
value
image
difference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016039273A
Other languages
English (en)
Inventor
和宏 宮里
Kazuhiro Miyasato
和宏 宮里
深町 映夫
Akio Fukamachi
映夫 深町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016039273A priority Critical patent/JP2017156965A/ja
Publication of JP2017156965A publication Critical patent/JP2017156965A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】遠方にて道路勾配が減少している道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができる道路領域検出装置を提供する。【解決手段】道路領域検出方法は、作成された道路モデルの視差値からV-disparity平面に投影された視差値を差し引いた視差差分値Δdispを算出し、視差差分値Δdispの軌跡(波形部)を抽出する。更に、画像から消失点のV座標位置を算出し、複数の波形部のうち、消失点のV座標位置に最も近い波形部とV座標軸とによって囲まれてなる図形の面積が、他の何れの区間における図形の面積よりも大きく、且つこの軌跡における最大の視差差分値が所定の閾値以上であると判定したときは、道路モデルに基づいて推定した道路領域の遠方端を、消失点のV座標位置に最も近い波形部のV座標位置の最大端側に変更する。【選択図】図3

Description

本発明は、画像取得手段により取得された画像から、道路領域を検出する道路領域検出装置に関する。
障害物への衝突回避及びACC(Adaptive Cruise Control) 等の運転者支援システムに適用される道路領域検出装置は、車両前方の道路領域と障害物とをできるだけ正確に識別する必要がある。
そこで、従来の道路領域検出装置の一つ(以下、「従来装置」と称呼される。)は、撮像画像から算出された画素毎の視差(disparity) をU−V平面に表現した視差図を使用してU−視差図(U-disparity平面)を作成する。そして、従来装置は、U-disparity平面の下端から上端に向かって、各行について左右の道路境界(白線及びガードレール等のエッジ)を探索する。更に、従来装置は、U-disparity平面上において探索された左右の道路境界の間を道路領域として検出する(例えば、特許文献1を参照。)。
より具体的に述べると、U-disparity平面は、横軸に視差図の横軸であるU座標軸、縦軸に視差(disparity) を対応させた画像である。U-disparity平面の各画素値は、視差図を縦軸と平行な複数の仮想線により区切られてできる複数の微小区間に存在する視差の頻度を輝度(階調)によって表現している。図15(A)に示した例によれば、車両が平坦路を走行中であるときのU-disparity平面において、道路境界(エッジ)81に対応する点は比較的高い輝度を有し、走行可能領域(即ち、道路領域)82に対応する点は比較的低い輝度を有する。そこで、従来装置はU-disparity平面上にて探索した左右のエッジ間83を道路領域として検出する。
特開2014−67407号公報
ところが、例えば、遠方が下り坂となっている平坦路を車両が走行している場合、画像上、遠方の道路領域が見えなくなり、道路遠方の障害物(例えば、ガードレール及びフェンス等)が「道路が遠方まで平坦であれば道路領域である領域」に存在する場合がある(図15(B)の領域84を参照。)。この場合の道路遠方の視差は、道路が遠方まで平坦である場合の視差とは異なる。この差異はU-disparity平面上においても現れ、遠方が下り坂となっている平坦路の場合、図15(C)に示したように、遠方の道路領域に比較的高い輝度を示す領域85が現れる。しかしながら、従来装置はこれらの視差の差異を判別することができず、結果として、障害物が存在する領域(以下、「障害物領域」とも称呼する。)を道路領域と(即ち、下り坂の道路を平坦な道路と)誤検出してしまうという問題があった。この問題は、道路が平坦路から下り坂に変化する場合に限らず、登り坂の勾配を正、下り坂の勾配を負とすれば、道路勾配が減少するすべての場合に当てはまる。
本発明は上記問題に対処するために為されたものである。即ち、本発明の目的の一つは、車両が現在走行している道路の路面の勾配に対し遠方の路面の勾配が減少する道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができ、以て、障害物を正しく認識することが可能な道路領域検出装置を提供することにある。
そこで、本発明の道路領域検出装置(以下、「本発明装置」とも称呼する。)は、
画像取得手段(20)と、視差画像作成手段と、V−視差平面作成手段と、道路モデル作成手段と、遠方端位置決定手段と、を備える。
前記画像取得手段は、何れもが車両前方の路面を撮影する左カメラ(20L)及び右カメラ(20R)によりステレオ画像を取得する(ステップ310)。
前記視差画像作成手段は、前記ステレオ画像から同ステレオ画像上の各点の視差値を算出するとともに同視差値を同ステレオ画像と同じV座標軸及びU座標軸を有する画像上に配置した視差画像(40)を作成する(ステップ320)。
前記V−視差平面作成手段は、前記視差画像を、前記視差画像の縦軸であるV座標軸と平行な複数の仮想線(43)によって細分割して複数の微小区間(dU)を得るとともに、前記複数の微小区間のそれぞれの視差値を、前記視差画像のV座標軸を縦軸として有し前記微小区間のそれぞれの視差値を横軸として有するV−視差平面へ投影することによって、複数のV−視差平面(50)を作成する(ステップ330)。
前記道路モデル作成手段は、前記複数のV−視差平面のそれぞれに投影された視差値から主要な直線を道路モデルとして抽出することによって前記複数のV−視差平面のそれぞれに対して道路モデル(53)を作成する(ステップ340)。
前記遠方端位置決定手段は、前記道路モデルに基づいて前記微小区間のそれぞれの道路領域の遠方端を推定し(ステップ350、図11のルーチン)、前記複数のV−視差平面のそれぞれの各V座標位置において、前記作成された道路モデルの視差値から前記投影された視差値を差し引いた値である視差差分値(Δdisp)を算出する(ステップ1220)。
更に、前記遠方端位置決定手段は、前記視差差分値を、前記V座標軸を縦軸として有し同視差差分値を横軸として有するV−視差差分値平面(60)へ投影し、同視差差分値が0となる隣接する2点間に存在する視差差分値の軌跡であって正の値を示す軌跡を一つの波形部(61)として認識する(ステップ360、ステップ1230、ステップ1280)。
加えて、前記遠方端位置決定手段は、前記取得したステレオ画像の一方から消失点(96)のV座標位置を算出し(ステップ1310)、前記波形部のうち、前記消失点のV座標位置に最も近い波形部(61a)と前記V座標軸とによって囲まれてなる図形の面積が他の何れの波形部と前記V座標軸とによって囲まれてなる図形の面積よりも大きく、且つ前記消失点のV座標位置に最も近い波形部における最大の視差差分値(ΔdispMAX) が所定の閾値(Δdispth)以上であるという特定条件が成立するか否かを判定する(ステップ370、ステップ1320、ステップ1330)。
更に、前記遠方端位置決定手段は、前記特定条件が成立しない場合(ステップ1330:No)には前記道路領域の遠方端を前記推定した遠方端に設定し(ステップ1410:No)、前記特定条件が成立する場合(ステップ1330:Yes)には前記道路領域の遠方端を前記消失点のV座標位置に最も近い波形部のV座標位置の最大値(63)に変更する(ステップ1410にて「Yes」と判定、ステップ1420)。
車両が現在走行している路面の勾配に対し遠方の路面の勾配が減少している道路において、V−視差平面上、前記作成される道路モデル(図16(A)中の破線91を参照。)と前記視差値(同図中の実線92を参照。)との差である「視差差分値」は、車両が現在走行している路面においては比較的小さく(同図中の領域93を参照。)、遠方の路面においては比較的大きい(同図中の領域94を参照。)傾向がある。
一方、例えば、画像上のエッジ(道路の白線及び道路脇のガードレール等)を抽出し、それらのエッジを結ぶ線の延長線が複数あるとき、これらの延長線同士の交点を消失点96と定めると、上記道路の場合、図16(B)に示したように、道路遠方の路面高さ95は、消失点96の高さより低い位置に存在する。
そこで、発明者は「視差差分値が比較的小さい範囲」と「視差差分値が比較的大きい範囲」との境界が本来の道路領域の遠方端(画像平面における道路領域の上端)と略一致することに着目し、「視差差分値が比較的大きい範囲」を特定するための以下の方法を着想した。
その方法は、先ず、上記得られた視差差分値をV−視差差分値平面に投影して視差差分値が0となる隣接する2点間に存在する視差差分値の軌跡であって正の値を示す軌跡を一つの波形部として認識する。この波形部が複数得られる場合には、消失点のV座標位置に最も近い位置にある波形部が「実際の道路領域と道路モデルによる道路領域との乖離度合い」を表していると推定する。次に、この波形部とV座標軸とによって囲まれてなる図形が所定の大きさ(他の何れの波形部とV座標軸とによって囲まれてなる図形の面積よりも大きく、且つ消失点のV座標位置に最も近い波形部における最大の視差差分値が所定の閾値以上)を有するならば、上記推定が確からしいと判断する。
これにより、本発明装置によれば、視差差分値が比較的大きい範囲を特定し、この視差差分値の範囲に対応する視差差分値の軌跡(波形部)のV座標位置の最大端(画像平面における下端)が本来の道路領域の遠方端(画像平面における上端)であると推定することができる。
このように、本発明装置によれば、車両が現在走行している路面の勾配に対し遠方の路面の勾配が減少している道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができる。その結果、本発明方法によれば、障害物を正しく認識することが可能となる。
上記説明においては、本発明の理解を助けるために、後述する実施形態に対応する発明の構成に対し、その実施形態で用いた名称及び/又は符号を括弧書きで添えている。しかしながら、本発明の各構成要素は、前記符号によって規定される実施形態に限定されるものではない。本発明の他の目的、他の特徴及び付随する利点は、以下の図面を参照しつつ記述される本発明の実施形態についての説明から容易に理解されるであろう。
図1は、本発明の実施形態に係る道路領域検出装置の概略構成図である。 図2は、図1に示したカメラが撮影(取得)するステレオカメラ画像の例である。 図3は、図1に示した道路領域検出装置のCPUが実行する「道路領域検出・修正ルーチン」を示したフローチャートである。 図4は、図1に示した道路領域検出装置が作成する視差画像の例であり、図4(A)は平坦な道路の場合、図4(B)は遠方にて勾配が減少する道路の場合の視差画像の例である。 図5は、図1に示した道路領域検出装置が算出して得られるV−視差平面の例であり、図5(A)は視差画像の例、図5(B)は視差画像中央付近の微小区間に対応するV−視差平面の例、図5(C)は視差画像中央と右端の中間付近の微小区間に対応するV−視差平面の例である。 図6は、図1に示した道路領域検出装置が算出して得られるV−視差平面の例であり、遠方で道路の勾配が減少する道路の例を示した図である。 図7は、図1に示した道路領域検出装置が行う道路領域の推定方法を説明するための図である。 図8(A)は、図1に示した道路領域検出装置が算出した視差差分値をV−視差差分値平面に投影してできる軌跡(波形部)を説明するための図であり、図8(B)は、波形部と消失点のV座標位置との関係を説明するための図である。 図9は、図1に示した道路領域検出装置が行う消失点の算出方法を説明するための図である。 図10は、図1に示した道路領域検出装置が行う道路領域遠方端位置変更方法を説明するための図である。 図11は、図1に示した道路領域検出装置のCPUが実行する「道路領域推定ルーチン」を示したフローチャートである。 図12は、図1に示した道路領域検出装置のCPUが実行する「視差差分値の軌跡(波形部)抽出ルーチン」を示したフローチャートである。 図13は、図1に示した道路領域検出装置のCPUが実行する「勾配減少有無判定ルーチン」を示したフローチャートである。 図14は、図1に示した道路領域検出装置のCPUが実行する「道路領域遠方端位置変更ルーチン」を示したフローチャートである。 図15(A)は、U−視差図の例を、図15(B)は遠方の道路が見えなくなる画像例を、図15(C)は、図15(B)の画像をU−視差図に変換した例をそれぞれ示した図である。 図16(A)は、V−視差図の例を示した図であり、図16(B)は、消失点の求め方の例を示した図である。
以下、図面を参照しながら本発明の実施形態に係る道路領域検出装置(以下、「本検出装置」とも称呼する。)について説明する。
(構成)
図1に示したように、本検出装置は、図1に示した車両10に適用される。本検出装置は、カメラ装置20と、電子制御装置30と、を備えている。
カメラ装置20は左右一組のステレオカメラ(左カメラ20L及び右カメラ20R)を備える。カメラ装置20は、左カメラ20L及び右カメラ20Rがインナーリアビューミラー(いわゆるルームミラー)22の両端にそれぞれ位置するように、車体18に固定されている。左カメラ20Lの光軸24Lは、カメラ装置20が車体18に固定された状態において所定の俯角φを有し且つ車体前後方向に一致している。同様に、右カメラ20Rの光軸24Rは、カメラ装置20が車体18に固定された状態において所定の俯角φを有し且つ車体前後方向に一致している。更に、左カメラ20Lの撮像素子の中心及び右カメラ20Rの撮像素子の中心を結ぶ直線は車体18の横幅方向と平行となっている。従って、左カメラ20L及び右カメラ20Rのそれぞれは、車両進行方向(車両前方)の路面を撮像することができるようになっている。なお、左カメラ20L及び右カメラ20Rのそれぞれの撮像素子は、CCD及びCMOS等の固体撮像素子である。
より具体的に述べると、左カメラ20L及び右カメラ20Rのそれぞれは、電子制御装置30と電気的に接続され、電子制御装置30からの指示に従って、車両10から前方に所定距離だけ離間した位置から遠方の位置までの路面を撮像することができる。左カメラ20L及び右カメラ20Rにより撮像された画像は、図2に示したような左右一組の画像を構成する。この一組の画像は、以下、「ステレオ画像」とも称呼する。
電子制御装置(ECU)30は周知のマイクロコンピュータを含む電子回路であり、CPU、ROM、RAM及びインタフェースI/F等を含む。ECUは、エレクトリックコントロールユニットの略称である。CPUは、メモリ(ROM)に格納されたインストラクション(ルーチン)を実行することにより後述する各種機能を実現する。
(作動)
次に、本検出装置の作動について説明する。
<全体フロー>
電子制御装置30のCPUは、一定時間(例えば、100ms)が経過する毎に図3にフローチャートにより示した「道路領域検出・修正ルーチン」を実行するようになっている。従って、CPUは所定のタイミングにてステップ300から処理を開始して以下に述べるステップ310乃至ステップ380の処理を順に実行してステップ395に進み、本ルーチンを一旦終了する。
ステップ310:CPUは、カメラ装置20に撮像を行わせ、それにより得られた一組の画像(即ち、ステレオ画像)を受け取る。
ステップ320:CPUは、受け取った一組の画像から視差画像を作成する。
より具体的に述べると、CPUは、先ず、受け取った一組の画像に基づいて、周知のステレオマッチング法の一つであるブロックマッチング法により視差を算出する。即ち、CPUは、受け取った一組の画像のうちの一方の画像(例えば、右カメラ20Rにより撮影された画像(右画像))を小面積の正方形又は長方形の領域に分割し、分割した各領域に撮影されている物標が他方の画像(例えば、左カメラ20Lにより撮影された画像(左画像))の対応する領域において撮影されている位置を決定し、その位置に基づいて右画像及び左画像の間の位置ずれ量を視差として算出する。例えば、図2に示したように、路側に設置された標識M1のx座標位置は、右画像においてx1、左画像において(x1+d)となる。従って、視差はこれらの水平方向(x軸方向)の差分(位置のずれ)dである。
次に、CPUは、この算出した視差を用いて視差画像を作成する。視差画像は、横軸がU座標軸であり縦軸がV座標軸であるU−V平面の画像であって、各(U,V)座標における視差が輝度(階調)により表現された画像である。
図4(A)は、道路が遠方まで平坦である場合に得られる視差画像の例である。この視差画像40において、道路領域41のうち車両10の近傍の領域41aは視差が比較的大きいので明るい画像となり、遠方の領域41bは視差が比較的小さいので暗い画像となる。更に、道路領域41の両端の外側にある領域42は、路側のガードレール及びフェンス等の障害物領域42であり、道路領域41よりも明るく表現されている。これは、同一のV座標位置における道路領域41及び障害物領域42と車両10との距離関係を比べると、障害物領域42の方が車両10に近い傾向があるからである。即ち、同一のV座標位置においては、道路領域41の視差よりも障害物領域42の視差の方が大きくなる傾向があるからである。
これに対し、図4(B)は、道路の勾配が遠方にて減少する場合に得られる視差画像40の例である。道路の勾配が遠方にて減少する場合、道路が画像から消失する地点よりも遠方の領域は視差が非常に小さい。よって、図4(B)の視差画像40においては、道路の勾配の変化点より遠方の領域41cは図4(A)に示した例(41b)よりも暗くなっている。
ステップ330:CPUは、図5に示したように、ステップ330にて得られた視差画像40からV-disparity平面50を作成する。
より具体的に述べると、CPUは、図5(A)に示したように、ステップ320において作成された視差画像40を「V座標軸(縦軸)と平行な複数の仮想線43」により細分割して、微小区間dUを得る。この微小区間dUの区間幅は3から5画素が適当である。CPUは、更に、その仮想線43により分割された複数の微小区間dU内のそれぞれに存在する視差値を、V−視差平面(以下、「V-disparity平面」とも称呼する。)にそれぞれ投影する。V-disparity平面は、微小区間dUのそれぞれに対する平面であり、その縦軸は視差画像のV座標軸と同じ(即ち、縦軸は視差画像の縦軸と同じ)であり、その横軸は微小区間dU内の視差(disparity)値である。V-disparity平面50に投影された視差値51は、以下、視差点群51とも称呼される。
図5(B)に示したV-disparity平面50に対応する微小区間dUには道路遠方まで障害物領域42(ガードレール及びフェンス等)が存在しないので、V-disparity平面50に投影される視差点群51は、視差d0から視差が微小な領域まで略直線状に延在し、その後、視差が略0である領域においてV軸に沿う。これに対し、図5(C)に示したV-disparity平面50に対応する微小区間dUには障害物領域42が存在する。障害物領域42は略一定の視差値を有するので、視差点群はV座標軸と平行な方向に延びる直線52となる。
更に、遠方にて勾配が減少する道路の場合、図6(A)に示した視差画像40の中央付近の微小区間dUに対するV-disparity平面50において、視差点群51は、道路勾配の変化点において急激にその傾きを変える(図6(B)の点P1を参照。)。これは、道路勾配の変化点より遠方の領域(視差の小さい領域)において、V座標の変化に対する視差の変化が大きくなることによる。
ステップ340:CPUは、複数のV-disparity平面に投影された視差値に基づいてそれぞれ道路モデルを作成する。
より具体的に述べると、CPUは、先ず、各微小区間dUに対応するV-disparity平面50に存在する「主要な直線」を抽出する。「主要な直線」とは、V座標軸と平行な直線を除き、各V-disparity平面50における最も長い直線である。前述したように、V-disparity平面50に投影される道路領域の視差点群51は略直線状となる。この投影された道路領域の視差点群(直線)51は、V-disparity平面50の「最も長い直線」、即ち、「主要な直線」となる。
主要な直線の抽出は、例えば、古典的な直線抽出手法であるハフ変換を用いて行われる。ハフ変換は、V-disparity平面50上の視差点群51を近似して得られる直線とV-disparity平面の原点とを結ぶ垂線の長さをρ、垂線とV座標軸とのなす角度をθとして、この近似直線に対応するρ、θの組合せをρ−θ平面(直交座標)に投票する。CPUは、各微小区間dUについてハフ変換によって最も投票値が大きくなるρとθ(ρ−θ平面における一点)をそれぞれ「主要な直線」として抽出する。そして、CPUは抽出したそれぞれの「主要な直線」を「道路モデル」として各微小区間dUのV-disparity平面50上に作成する。
ステップ350:CPUは、各微小区間dUについて、ステップ340にて作成された道路モデルとステップ330にて算出された(V-disparity平面50に投影された)視差点群51とを比較することにより道路領域を推定する。
より具体的に述べると、図7に示したように、CPUはV-disparity平面50に作成された道路モデル53と視差点群51とを併記する。CPUは、更に、道路モデル53に、視差が大きいほど大きい「高さの閾値ΔVth」を加える(V座標軸上は道路モデル53から「高さの閾値ΔVth」を減算する)ことにより、道路領域判定用閾値Vthを求めて、この閾値Vthを併記する。本例においては、高さの閾値ΔVthは視差に対して線形的に増加する値である。
障害物52の上端52aが道路領域判定用閾値Vthを超える場合、CPUは障害物52の下端52bよりも下の領域54を道路領域と推定する。この道路領域判定用閾値Vthは、路側に設置される通常のガードレール及びフェンス等を障害物として認識することができる値に設定されている。
ステップ360:CPUは、各微小区間dUに対応するV-disparity平面50の各V座標において、道路モデルの視差値から視差点群51の視差値を差し引いた値である「視差差分値」をそれぞれ算出する。
より具体的に述べると、例えばV座標軸の上端の座標が0、下端の座標が(j−1)(jは正の整数)である場合、CPUは以下の(1)式に従って各微小区間dUに対応するV-disparity平面の「視差差分値Δdisp(V)」を0から(j−1)まで算出しそれぞれRAMに記憶する。

Δdisp(V) = dispmodel(V) − dispact(V) …(1)

(1)式において、dispmodel(V)は座標Vにおける道路モデルの視差値、dispact(V)は座標Vにおける視差点群51の視差値である。
図8(A)に示したように、CPUは更に、RAMに記憶された座標V毎の視差差分値Δdisp(V)をV−視差差分値平面60に投影して描かれる軌跡のうち視差差分値 Δdisp(V) が「0」となる「互いに隣接する2点」の間の軌跡であって、その値が正の値となる軌跡61を、一つの「波形部」と認識する。
ステップ370:CPUは、ステップ310にて入力した画像から消失点の高さ(V座標位置)を算出する。消失点とは、カメラ装置20により撮像された直線道路の画像において、道路の幅が遠くに行くほど小さくなり、やがて一点に収束する点である。
例えば、消失点の位置は、周知のエッジ抽出法を用いて算出される。より具体的に述べると、図9に示したように、CPUは左カメラ20Lによる撮像画像における白線、ガードレール及びフェンス等の直線状に連続するエッジ群を複数抽出する。CPUは、それらエッジ群を結んでできる複数の直線の交点を消失点96として算出するとともに消失点の高さ(V座標位置)を求める。なお、消失点96の算出には右カメラ20Rにより撮像された画像が用いられてもよい。左カメラ20Lによる撮像画像と右カメラ20Rによる撮像画像との間において、消失点96のU座標軸方向の座標Uは一致しないが、V座標軸方向の座標Vは一致するからである。
次に、CPUは、図8(B)に示したようにステップ360にて算出された各微小区間dUにおける「視差差分値の軌跡(波形部)61」を用いて、遠方の道路勾配が車両近傍の道路勾配に対して減少しているか否か(道路勾配の減少有無)を判定する。
より具体的に述べると、CPUは、波形部61を視差差分値Δdisp(V)が「0」から正の値となり次いで再び「0」になるまでの波形部(61a、61b、61c、…)に区分し、その波形部において消失点96のV座標位置62に最も近い波形部を抽出する。本例において、消失点96のV座標位置62に最も近い波形部は61aである。本例のように波形部61が複数得られる場合には、消失点96のV座標位置62に最も近い位置にある波形部が「実際の道路領域と道路モデルによる道路領域との乖離度合い」を表していると推定される。
次に、CPUは波形部61aが以下の2つの条件を同時に満たすか否かを判定する。CPUは、波形部61aが以下の2つの条件を同時に満たすならば、上記推定が確からしいと判断する。
(条件1)波形部61とV座標軸とによって囲まれてなる図形の面積が他の何れの波形部とV座標軸とによって囲まれてなる図形の面積よりも大きい。
(条件2)視差差分値の軌跡61における最大の視差差分値ΔdispMAX が所定の閾値Δdispth以上である。
本例の視差差分値の波形部61aは上記の条件1及び条件2の何れも満たす。従って、CPUは遠方にて道路勾配が減少していると判定する。これらの条件は、視差差分値の軌跡61が視差算出時のノイズによって生じる場合と、遠方の道路勾配が車両近傍の道路勾配に対して減少していることによって得られる場合と、を区別するために設定される。
ステップ380:CPUは、ステップ370にて遠方にて道路勾配が減少していると判定したときは、図10に示したように、ステップ350にて道路モデル53から推定した道路領域の上端(即ち、道路の遠方端)62を、視差差分値の軌跡61aのV座標位置の最大端63に変更する。この最大端63は、V-disparity平面上、道路モデル53と視差点群51とが離間し始める点P2に相当する。
以下、上記ステップ350、ステップ360、ステップ370及びステップ380の具体的な作動を説明する。
<道路領域推定ルーチン>
CPUはステップ350に進むと、図11にフローチャートにより示した「道路領域推定ルーチン」を実行するようになっている。従って、CPUはステップ1100を経由してステップ1110に進み、V-disparity平面に、抽出された道路モデル53を当てはめる(図7を参照。)。
次いで、CPUはステップ1120に進み、図7に示したように、高さの閾値ΔVthを道路モデル53に加え、道路領域判定用閾値Vthを算出してステップ1130に進み、道路領域判定用閾値Vthを超える視差値(視差点群51)があるか否かを判定する。道路領域判定用閾値Vthを超える視差値がある場合、CPUはステップ1130にて「Yes」と判定してステップ1140に進み、その視差値を有する部分のV座標の最大値(即ち、障害物52の下端52b)よりもV座標が大きい領域54(図7における下端52bよりも下の領域54)を道路領域と推定してステップ1195に進んで図3のステップ360に進む。
これに対し、道路領域判定用閾値Vthを超える視差点群51が無い場合、CPUはステップ1130にて「No」と判定してステップ1150に進み、道路モデル53とV座標軸との交点P3よりも下の(V座標が大きい)領域を道路領域と推定してステップ1195に進んで図3のステップ360に進む。
<視差差分値の軌跡(波形部)抽出ルーチン>
CPUはステップ360に進むと、図12にフローチャートにより示した「視差差分値の軌跡算出ルーチン」を実行するようになっている。従って、CPUはステップ1200を経由してステップ1210に進み、座標Vの値を「0」に設定してステップ1220に進み、前述した(1)式に従って視差差分値Δdisp(V)を算出する。
次いで、CPUはステップ1230に進み、視差差分値Δdisp(V)が「0」よりも大きいか否かを判定する。視差差分値Δdisp(V)が「0」よりも大きい場合、CPUはステップ1230にて「Yes」と判定してステップ1240に進み、視差差分値Δdisp(V)をRAMに記憶する。これに対し、視差差分値Δdisp(V)が「0」以下(負の値も含む)の場合、CPUはステップ1230にて「No」と判定してステップ1270に進んで視差差分値の値を「0」に設定してステップ1240に進み、ECU30内のRAMに、算出された視差差分値Δdisp(V)を記憶する。
次いで、CPUはステップ1250にて座標Vの値を1つインクリメントしてステップ1260に進み、座標Vの値が(j−1)以上であるか否かを判定する。座標Vの値が(j−1)以上である場合、CPUはステップ1260にて「Yes」と判定してステップ1280に進む。座標Vの値が(j−1)未満の場合、CPUはステップ1260にて「No」と判定してステップ1220に進み、ステップ1220乃至ステップ1250及びステップ1270の処理を実行してステップ1260に進む。即ち、CPUは本ルーチンをV座標の値0から開始して、座標Vの値が(j−1)となるまで本ルーチンの処理を繰り返す。
次いで、CPUはステップ1280に進むと視差差分値Δdisp(V)を、V座標軸を縦軸とし視差差分値Δdispを横軸とするV−視差差分値平面(V-Δdisp平面) 60へ投影し、視差差分値の軌跡(波形部)61を抽出した後、ステップ1295を経由して図3のステップ370に進む。
<勾配減少有無判定ルーチン>
CPUはステップ370に進むと、図13にフローチャートにより示した「勾配減少有無判定ルーチン」を実行するようになっている。従って、CPUはステップ1300を経由してステップ1310に進み、カメラ装置20が取得した画像から消失点の高さ(V座標位置)を算出する。
次いで、CPUはステップ1320に進み、図8(B)に示したように、「消失点の高さ62に最も近い視差差分値の波形部(軌跡)61a」を抽出する。換言すると、CPUはステップ1280にて複数の視差差分値の軌跡61が得られた場合、これらの中から「消失点の高さ62に最も近い視差差分値の波形部61a」を選択する。
次いで、CPUはステップ1330に進み、特定条件が成立するか否か、即ち、ステップ1320において抽出された「波形部61a」が、前述した2つの条件(条件1及び条件2)を同時に満足するか否かを判定する。
前述した2つの条件が同時に成立する場合、CPUはステップ1330にて「Yes」と判定してステップ1340に進み、道路勾配減少フラグXdkg の値を「1」に設定して(道路勾配が減少していると判断して)ステップ1395に進む。一方、前述した2つの条件のうち何れかが成立しない場合、CPUはステップ1330にて「No」と判定してステップ1350に進み、道路勾配減少フラグXdkg の値を「0」に設定して(道路勾配が減少していないと判断して)ステップ1395に進む。その後、CPUはステップ1395を経由して図3のステップ380に進む。
<道路領域遠方端位置変更ルーチン>
CPUはステップ380に進むと、図14にフローチャートにより示した「道路領域遠方端位置変更ルーチン」を実行するようになっている。従って、CPUはステップ1200を経由してステップ1410に進み、道路勾配減少フラグXdkg の値が「1」であるか否かを判定する。
CPUが図13のステップ1340を経由していた(勾配減少ありと判定した)場合、道路勾配減少フラグXdkg の値は「1」となっている。従って、CPUはステップ1410にて「Yes」と判定してステップ1420に進み、「ステップ350にて推定した道路領域の上端(遠方端)62を消失点に最も近い視差差分値の波形部(軌跡)61aの下端(V座標位置の最大端)の高さ63に修正」するとともに道路勾配減少フラグXdkg の値を「0」に設定してステップ1495に進み、その後、図3のステップ395に進む。これに対し、CPUが図13のステップ1350を経由していた(勾配減少なしと判定した)場合、道路勾配減少フラグXdkg の値は「0」となっている。従って、CPUはステップ1410にて「No」と判定してステップ1495に直接進み、その後、図3のステップ395に進む。即ち、ステップ350にて推定された道路領域の変更は行われない。
以上、説明したように、本検出装置は、視差画像の微小区間に対応する複数のV-disparity平面(V−視差平面)50に投影された視差値に基づいてそれぞれ道路モデル53を作成し、この道路モデルに基づいて微小区間における道路領域の遠方端をそれぞれ推定する。
更に、本検出装置は、V-disparity平面50の各V座標位置において、作成された道路モデル53の視差値から投影された視差値51を差し引いた値である「視差差分値Δdisp」を算出するとともに、視差差分値Δdispを、V座標軸を縦軸とし視差差分値Δdispを横軸とするV−視差差分値平面60へ投影し、
視差差分値Δdisp(V)が「0」となる隣接する2点間に存在する視差差分値Δdisp(V)の軌跡であって正の値を示す軌跡を1つの波形部61として認識する。
加えて、本検出装置は、取得した画像から消失点96のV座標位置を算出し、波形部61のうち消失点96のV座標位置に最も近い波形部61aとV座標軸とによって囲まれてなる図形の面積が、他の何れの波形部とV座標とによって囲まれてなる図形の面積よりも大きく(すべての区間における図形の面積の中で最も大きな面積を有し、)且つ消失点96のV座標位置に最も近い波形部61aにおける最大の視差差分値ΔdispMAX が所定の閾値以上であるときは、道路領域の遠方端62を消失点のV座標位置に最も近い波形部61aのV座標位置の最大端側63に変更する。
従って、本検出装置によれば、車両が現在走行している路面の勾配に対し遠方の路面の勾配が減少している道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができ、その結果、障害物を正しく認識することができる。
本発明は上記実施形態に限定されることはなく、本発明の範囲内において種々の変形例を採用することができる。例えば、視差の計算はブロックマッチング法により行われていたが、セミグローバルマッチング(SGM)法その他の手法により行われてもよい。
10…車両、20…カメラ装置、30…電子制御装置(ECU)、40…視差画像、41…道路領域、42…障害物領域、50…V−視差平面、51…視差値(視差点群)、53…道路モデル、60…V−視差差分値平面、61…視差差分値の軌跡、96…消失点。

Claims (1)

  1. 何れもが車両前方の路面を撮影する左カメラ及び右カメラによりステレオ画像を取得する画像取得手段と、
    前記ステレオ画像から同ステレオ画像上の各点の視差値を算出するとともに同視差値を同ステレオ画像と同じV座標軸及びU座標軸を有する画像上に配置した視差画像を作成する視差画像作成手段と、
    前記視差画像を、前記視差画像の縦軸であるV座標軸と平行な複数の仮想線によって細分割して複数の微小区間を得るとともに、前記複数の微小区間のそれぞれの視差値を、前記視差画像のV座標軸を縦軸として有し前記微小区間のそれぞれの視差値を横軸として有するV−視差平面へ投影することによって、複数のV−視差平面を作成するV−視差平面作成手段と、
    前記複数のV−視差平面のそれぞれに投影された視差値から主要な直線を道路モデルとして抽出することによって前記複数のV−視差平面のそれぞれに対して道路モデルを作成する道路モデル作成手段と、
    前記道路モデルに基づいて前記微小区間のそれぞれの道路領域の遠方端を推定し、
    前記複数のV−視差平面のそれぞれの各V座標位置において、前記作成された道路モデルの視差値から前記投影された視差値を差し引いた値である視差差分値を算出し、
    前記視差差分値を、前記V座標軸を縦軸として有し同視差差分値を横軸として有するV−視差差分値平面へ投影し、同視差差分値が0となる隣接する2点間に存在する視差差分値の軌跡であって正の値を示す軌跡を一つの波形部として認識し、
    前記取得したステレオ画像の一方から消失点のV座標位置を算出し、
    前記波形部のうち、前記消失点のV座標位置に最も近い波形部と前記V座標軸とによって囲まれてなる図形の面積が他の何れの波形部と前記V座標軸とによって囲まれてなる図形の面積よりも大きく、且つ前記消失点のV座標位置に最も近い波形部における最大の視差差分値が所定の閾値以上であるという特定条件が成立するか否かを判定し、
    前記特定条件が成立しない場合には前記道路領域の遠方端を前記推定した遠方端に設定し、
    前記特定条件が成立する場合には前記道路領域の遠方端を前記消失点のV座標位置に最も近い波形部のV座標位置の最大値に変更する、遠方端位置決定手段と、
    を備える道路領域検出装置。
JP2016039273A 2016-03-01 2016-03-01 道路領域検出装置 Pending JP2017156965A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039273A JP2017156965A (ja) 2016-03-01 2016-03-01 道路領域検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039273A JP2017156965A (ja) 2016-03-01 2016-03-01 道路領域検出装置

Publications (1)

Publication Number Publication Date
JP2017156965A true JP2017156965A (ja) 2017-09-07

Family

ID=59809814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039273A Pending JP2017156965A (ja) 2016-03-01 2016-03-01 道路領域検出装置

Country Status (1)

Country Link
JP (1) JP2017156965A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062153B2 (en) 2018-10-15 2021-07-13 Samsung Electronics Co., Ltd. Apparatus and method for converting image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062153B2 (en) 2018-10-15 2021-07-13 Samsung Electronics Co., Ltd. Apparatus and method for converting image

Similar Documents

Publication Publication Date Title
US9536155B2 (en) Marking line detection system and marking line detection method of a distant road surface area
US8259174B2 (en) Camera auto-calibration by horizon estimation
JP6096723B2 (ja) 走行区画線認識装置及び走行区画線認識プログラム
RU2568777C2 (ru) Устройство обнаружения движущихся тел и система обнаружения движущихся тел
US9898669B2 (en) Traveling road surface detection device and traveling road surface detection method
JP6158779B2 (ja) 画像処理装置
US20150262365A1 (en) Image processing device and image processing method
US20180372866A1 (en) Object detection apparatus and object detection method
WO2014104183A1 (ja) 境界線認識装置及び分岐路判定装置
US20180005073A1 (en) Road recognition apparatus
US9489585B2 (en) Lane mark recognition device
JP6087858B2 (ja) 走行区画線認識装置及び走行区画線認識プログラム
US20150243169A1 (en) Traffic lane situation determining device and method for determining traffic lane situation
US9508000B2 (en) Object recognition apparatus
JP2009169847A (ja) 車外監視装置
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
US9916672B2 (en) Branching and merging determination apparatus
JP5805619B2 (ja) 境界線認識装置
US10102628B2 (en) Object recognizing apparatus and haze determination method
US10953885B2 (en) Road surface detecting apparatus
KR101603293B1 (ko) 차선인식방법
US10906540B2 (en) Vehicle control apparatus
JP2017156965A (ja) 道路領域検出装置
US20190188497A1 (en) Apparatus for identifying line marking on road surface
JP6132808B2 (ja) 認識装置