JP3736044B2 - 道路白線検出装置 - Google Patents
道路白線検出装置 Download PDFInfo
- Publication number
- JP3736044B2 JP3736044B2 JP16000697A JP16000697A JP3736044B2 JP 3736044 B2 JP3736044 B2 JP 3736044B2 JP 16000697 A JP16000697 A JP 16000697A JP 16000697 A JP16000697 A JP 16000697A JP 3736044 B2 JP3736044 B2 JP 3736044B2
- Authority
- JP
- Japan
- Prior art keywords
- white line
- road
- vehicle
- detection device
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、道路上の白線を検出する道路白線検出装置に関し、車線内を走行するように制御するレーンキープ装置、車線内を走行しているかを監視する車線逸脱警報装置、同一車線上の先行車を認識して一定の車間距離で追従する先行車追従装置などに用いられるものである。
【0002】
【従来の技術とその問題点】
道路上の白線の検出方法として、画像における画素間の輝度変化を検出し、変化率が所定値以上の点を白線の端(以下、エッジと呼ぶ)として検出する。
この白線エッジ検出法は従来からよく用いられているが、次のような欠点がある。
(1) ノイズに弱い;白線以外の、道路上の標識文字、看板や標識などの影、アスファルトの継ぎ目など、輝度が急激に変換する点を白線と誤認することがある。
(2) コントラストの低下に弱い;画像がぼやけている場合にはエッジが明確に表われないため、白線エッジを判別するためのしきい値の設定が難しい。
(3) 検出精度が低い;白線がかすれていたり、輪郭がはっきりしない場合には検出エッジの位置が急激に変化し、精度を確保しにくい。
【0003】
このような問題を解決するために、例えば、特開平8−202877号公報ではニューラルネットの活用、特開平8−261756号公報ではサーチウインドウの大きさの制限、特開平8−315125号公報では道路モデルの参照などの方法が提案されている。
しかし、これらの方法は、いずれもエッジ検出法を用いる点では変りがなく、上記問題を根本的に解決することはできない。特に、コントラストの低下によってエッジ自体が検出できなくなった場合には、いずれの方法も効果がない。
【0004】
一方、原画像の時間積分をとることにより、看板、道路上の標識文字や影のような、自車両に対して相対速度を持つノイズ成分を除去するようにした白線検出方法が知られている(例えば、特開平9−35065号公報参照)。
しかし、この方法にも、時間積分によって位相が遅れ、画像のぼけによって検出精度が低下するという問題がある。
【0005】
本発明の目的は、道路上の白線を正確に検出することにある。
【0006】
【課題を解決するための手段】
本発明の原理について説明する。
図1は、車両の進行方向が白線と平行な場合の道路上の白線の画像を示す。図から明らかなように、道路上に一定の幅で描かれた白線も撮影画像上では遠ざかるほど幅が狭くなる。画像上において、任意の水平走査線に注目すると、任意の走査線上の白線の幅wiは一定であることがわかる。
【0007】
本発明はこの原理に基づくものであるが、図2に示す座標系を用いて上記原理の論理的な証明を行なう。
今、図2に示すように、X−Y平面を車両に対して水平な面とし、Z軸が撮像カメラのレンズ位置を通るような車両固定座標系XYZを設定する。また、カメラはX−Y面から高さHcの位置O’(レンズ中心)に設置するものとし、カメラのピッチ角をθc、焦点距離をfcとすると、撮像カメラによる画面座標系xyは、カメラのレンズの光軸X’に垂直で、O’からfcだけ離れた面に定まる。なお、Y’軸はレンズ中心O’を通りY軸に平行な線である。また、道路平面が平坦であるとすればX−Y平面は道路平面と同一面となる。
【0008】
図3は、図2に示す画面座標系xyを図1の画面上に重ねた図である。
透視変換と逆透視変換により、XYZ座標系とX’Y’Z’座標系とxy座標系との関係を求める。まず、X’Y’Z座標系上の任意の点(X’,Y’,Z’)に対応する画面xy座標系の点(x,y)は次式により求められる。
【数1】
x=−fc・Y’/X’,
y=−fc・Z’/X’
次に、X’Y’Z’座標系の任意の点(X’,Y’,Z’)と、対応するXYZ座標系の点(X,Y,Z)との関係は、Z軸方向へのHcの平行移動と、Y軸回りのθc回転との組合せで得られるから、
【数2】
X’=Xcosθc−(Z−Hc)sinθc,
Y’=Y,
Z’=Xsinθc+(Z−Hc)cosθc
となる。
【0009】
数式2と数式1に代入すると、
【数3】
x=−fc・Y/{Xcosθc−(Z−Hc)sinθc},
y=−fc・{Xsinθc+(Z−Hc)cosθc}/{Xcosθc−(Z−Hc)sinθc}
となる。
特に、XYZ座標系上の点(X,Y,Z)が平坦な道路上の点であるとき、
【数4】
Z=0
となるから、数式3は次のように表わされる。
【数5】
x=−fc・Y/{Xcosθc+Hcsinθc},
y=−fc・{Xsinθc−Hccosθc}/{Xcosθc+Hcsinθc}
これは、平坦な道路上の点(X,Y)に対応する画面上の点(x,y)である。
また、数式3を(X,Y)について解けば、
【数6】
X=−Hc{ysinθc−fccosθc}/{ycosθc+fcsinθc},
Y=−Hc・x/{ycosθc+fcsinθc}
となり、画面上の点(x,y)から道路上の点(X,Y)を逆算することができる。
【0010】
以上の関係を用いて、y=yiの走査線上の白線の幅wiを求める。
まず、道路平面XYZ上の距離Xにおける白線幅をΔYとし、その白線幅ΔYの画面上での幅をΔxとすると、数式5により、
【数7】
Δx=−fc・ΔY/{Xcosθc+Hcsinθc}
となる。ここで、数式6を使ってXを消去すれば、
【数8】
ΔX=ΔY(ycosθc+fcsinθc)
を得る。
したがって、任意の走査線(y=yi)上の白線の幅wiは、算出した数式8において、Δx→wi、ΔY→Wr(実際の白線幅)、y→yiと置き換えて、
【数9】
wi=Wr(yicosθc+fcsinθc)
となる。
【0011】
数式9から明らかなように、任意の走査線上の白線の幅wiは、走査線を横切るx座標とは無関係で、走査線の位置yiのみにより決る。言い換えれば、任意の捜査線上の白線の幅wiは一定である。
【0012】
ところで、数式9は、上述したように車両の進行方向が白線と平行な場合における白線幅wiである。より一般化して、車両が白線に対してヨー角φをなす場合を考えると、数式9における実際の白線幅WrをWrcosφに置き換え、
【数式10】
wi=Wrcosφ(yicosθc+fcsinθc)
とすればよい。
【0013】
次に、道路平面が平坦でなく、道路勾配が変化する場合について考察する。
道路勾配のモデルとしては、図4に示すような道路の高さZが距離Xだけで決り、横位置Yには依存しないものを考える。
【数式11】
Z=Z(X)
図4において、座標系は図2に示す車両固定座標系XYZであり、L1は実際の白線、L2は白線のX−Y平面への投影線である。なお、投影中心はカメラのレンズ中心(0,0,Hc)である。
【0014】
図4に示す道路勾配モデルにおいて、実際の白線L1上の点P(X,Y,Z)と、その投影点Po(Xo,Yo,Zo)との関係を考えると、道路の勾配変化に関わらず次の関係が成立する。
【数式12】
X/Xo+Z/Hc=1
実際の白線幅wiと投影面上での白線幅wioとの関係についても、同様な比例関係が成立する。
【数式13】
wio/wi=Xo/X
もし、この比を走査線位置yiで表わすことができれば、数式9と組合せることにより、道路勾配がある時でも画面上の白線幅は走査線位置から決ることになる。そのために、まず数式11および数式12を解いて次の関係式を得る。
【数式14】
X/Xo=f(Xo)
ここで、関数fは数式11で定義した道路勾配の関数に依存する。
【0015】
さらに、逆透視変換の式から、
【数式15】
Xo=g(yi)=−Hc{yisinθc−fccosθc}/{yicosθc+fcsinθc}
となるので、数式15を数式14に代入することによって数式13は次のように表わされる。
【数式16】
wio/wi=X/Xo=(g・f)(yi)
結局、道路勾配がある場合の画面上での白線幅は、
【数式17】
wi=Wr(g・f)(yi)(yicosθc+fcsinθc)
となり、画面上での白線幅wiは走査線位置yiだけにより決ることが解る。
【0016】
(1) 請求項1の発明は、車両の周囲を撮像する手段と、車両の現在位置を検出して走行中の道路を特定し、道路地図情報を記憶する記憶手段から走行中の道路の実際の白線の幅を取得する手段と、走行中の道路の実際の白線幅に基づいて撮影画像における走査線ごとの白線幅を演算する白線幅演算手段と、撮影画像上の走査線ごとの白線幅に応じた走査線ごとの白線モデルを設定する白線モデル設定手段と、撮影画像から走査線ごとに白線モデルと同一の大きさの部分画素を抜き出し、部分画素の画像と白線モデルとの合致度を演算する合致度演算手段と、合致度が最大となる部分画素の中心点を撮影画像における白線中心点とし、撮影画像における走査線ごとの白線中心点を車両に対して水平な平面に投影する投影手段とを備え、投影点を走行中の道路の実際の白線中心点とする。
(2) 請求項2の道路白線検出装置は、車両に対して水平な平面上の投影点と各投影点の合致度に基づいて、実際の白線形状を演算する白線形状演算手段を備える。
(3) 請求項3の道路白線検出装置は、合致度演算手段によって、部分画素列の画像と白線モデルとの内積をとり、内積値を合致度とするようにしたものである。
(4) 請求項4の道路白線検出装置は、白線モデル設定手段によって、走行中の道路の勾配を考慮して白線モデルを設定するようにしたものである。
(5) 請求項5の道路白線検出装置は、白線モデル設定手段によって、走行中の道路の、実際の白線の車両に対するヨー角を考慮して白線モデルを設定するようにしたものである。
(6) 請求項6の道路白線検出装置は、白線モデルを、撮影画像における白線幅の倍以下の幅を有し、撮影画像における白線幅に対応する中央部分の値を1とし、その両側部分の値を−1としたものである。
(7) 請求項7の道路白線検出装置は、白線幅取得手段によって、路車間通信により路側ビーコンから走行中の道路の実際の白線幅を取得するようにしたものである。
(8) 請求項8の道路白線検出装置は、合致度演算手段によって、部分画素列の画像と白線モデルとの内積値を撮影画像における白線幅で除して合致度を演算するようにしたものである。
【0017】
【発明の効果】
(1) 請求項1の発明によれば、白線幅に応じた白線モデルと撮影画像との合致度に基づいて白線を検出するので、道路上の標識文字、看板や標識などの影、アスファルトの継ぎ目や路肩などを白線と誤認するようなことがない。また、白線の中心を演算するので、白線のかすれや不鮮明な白線輪郭などに対しても検出精度が安定する。
(2) 請求項2の発明によれば、道路上の実際の白線形状を正確に求めることができる。
(3) 請求項3の発明によれば、従来のエッジ検出法に比べてしきい値を設定する必要もなく、簡単な演算により白線を検出することができる。したがって、専用LSI化することが容易になり、画像処理の高速化を図ることができる。
(4) 請求項4および請求項5の発明によれば、より正確な正確な白線中心点を求めることができる。
(5) 請求項6の発明によれば、マイクロコンピュータによる合致度の演算負担と白線検出精度とのトレードオフにおいて、両者をほぼ満足させることができる。
(6) 請求項7の発明によれば、路車間通信により白線幅を取得するようにしたので、GPS航法や自律航法のための装置が不要となり、正確な白線幅が得られる。
(7) 請求項8の発明によれば、合致度の正規化が図られ、白線幅が変化しても同一の合致度が得られる。
【0018】
【発明の実施の形態】
−発明の第1の実施の形態−
本発明の道路白線検出装置を、白線で規定された車線内を走行するように制御するレーンキープ装置に応用した第1の実施の形態を説明する。
【0019】
図5は第1の実施の形態の構成を示す。
車両1にはカメラ2、ナビゲーションコントローラー10、画像処理コントローラー20、データ通信部30、車両制御コントローラー40、車速センサー、舵角センサー、ヨーレートセンサー、横Gセンサーなどのセンサ類が設けられる。ナビゲーションコントローラー10、画像処理コントローラー20、データ通信部30および車両制御コントローラー40はそれぞれ、マイクロコンピュータとその周辺部品から構成される。
【0020】
カメラ2は、車両前方を撮像して画像処理コントローラー20に映像信号を出力する。ナビゲーションコントローラー10は、道路地図情報を記憶する記憶部11と、GPS受信機(不図示)からのGPS信号と地磁気センサー(不図示)からの方位信号などに基づいて、車両の現在位置、目的地までの最適経路などを演算する演算部12を備える。そして、車両周辺の道路地図上に目的地までの最適経路を表示して乗員を誘導するとともに、道路の白線幅などの情報をデータ通信部30を介して画像処理コントローラー20へ送る。
【0021】
画像処理コントローラー20は、カメラ2からの映像信号を記憶する画像メモリ21と画像を処理する画像処理部22とを備え、カメラ2で撮像された画像を処理して道路上の白線を検出する。データ通信部30は、コントローラー10,20,40間のデータの送受信を行なう。車両制御コントローラー40は、同期信号を発生する同期信号発生部41と、センサーからの検出情報と、画像処理コントローラー20で検出された道路上の白線情報とに基づいて、車両1を車線に沿って自律走行させるために操舵制御を行なう車両制御部42を備える。
【0022】
次に、図6〜図9に示すフローチャートにより、第1の実施の形態の動作を説明する。
図6は、ナビゲーションコントローラー10の動作を示すフローチャートである。なお、ナビゲーションコントローラー10の動作の内、本発明に直接関係しない目的地までの経路演算などの処理については説明を省略する。
ナビゲーションコントローラー10は、100msごとに車両制御コントローラー40から送られる同期信号に同期してこの動作を実行する。ステップ1において、GPS受信機からのGPS信号と地磁気センサーからの方位信号とに基づいて車両の現在位置を算出し、マップマッチングなどにより現在走行中の道路を特定して算出した現在位置を補正する。次にステップ2で、記憶部11から現在位置周辺の道路地図情報を読み出し、現在走行中の道路の白線幅Wrを取得する。そしてステップ3で、白線幅Wrを画像処理コントローラー20へ送る。
【0023】
図7は、画像処理コントローラー20の処理を示すフローチャートである。
画像処理コントローラー20は、100msごとに車両制御コントローラー40から送られる同期信号に同期してこの処理を実行する。ステップ11において、カメラ2で撮像を行なって画像データを入力し、画像メモリ21に記憶する。なお、画像データは、カメラ2の撮像素子の各画素ごとの輝度情報A[x,y]として記憶される。ステップ12で、ナビゲーションコントローラー10から白線幅Wrを読み込む。
【0024】
ステップ13で、入力画像において、図10に示すように下から順に5本おきに走査線を選択する。これは、実際の道路上では手前から順に遠い方へ走査線を選択していることになる。また、選択した走査線に対して下から順に番号i(=1〜n)を付ける。続くステップ14で、選択した走査線ごとに、走査線を横切る白線が何画素分wiになるかを算出する。具体的には、白線幅Wrと走査線のy座標yiを数式9に代入して画素数wiを求め、さらに四捨五入して偶数の整数にする。ここで、数式9におけるwiは画面上での白線幅であるが、表示装置の画素ピッチは一定であるから、画面上の操作線を横切る白線の幅を画素数で表わすことができる。
【0025】
ステップ15において、走査線ごとに求めた白線画素数に応じて、図11に示すように白線モデル{M[−wi],・・,M[−1],M[0],M[1],・・,M[wi]}を設定する。つまり、モデルは白線画素数wiに対して(2wi+1)個の画素数を持ち、データとしては中央値が0、その両側のそれぞれ幅(wi/2)の区間の値が1、さらにその外側の幅(wi/2)の区間の値が−1になっている。なお、wiは偶数であるから(wi/2)も整数である。モデルを数式化すると次のように表わされる。
【数18】
【0026】
ところで、白線は各車線の左右に存在するが、左右の白線の両方を検出することにすると、演算量が多くなる上に、どちらか一方の白線が検出不能な場合には白線検出結果が不安定になる。そこで、この実施の形態では車線の左側の白線だけを抽出し、左側白線を基準にしてその右側を一定の間隔で走行することにする。ステップ16において、道路左側の白線だけを抽出するために、走査線の中で実際に白線の検出を行なう検出区間を走査線ごとに決定する。具体的には、前回のサンプリング時に抽出された白線中心の位置(xi[n-1])を中心に幅Wxを取る。
【数19】
xmini=xi[n-1]−Wx/2,
xmaxi=xi[n-1]+Wx/2
ここで、(n-1)は前回のサンプリング時のデータであることを示す。なお、例外として初回のサンプリング時のみXminに画面の左端を設定し、Xmaxに画面中央を設定する。
【0027】
ステップ17で、走査線ごとに決定した検出区間(x=xmini〜xmaxi)の間で左から順に、走査線の中から所定の横位置xを中心にして白線モデルと同じ幅である(2wi+1)個分の画素列{A[x−wi,yi],・・,A[x−1,yi],A[x,yi],A[x+1,yi],・・,A[x+wi,yi]}を抜き出し、抜き出した部分画像と白線モデルとの内積を求め、その値を位置(x,yi)における合致度(a[x,yi])とする。
【数20】
【0028】
原画像から抽出した部分画像と白線モデルとの内積をとることは、部分画像に対して白線モデルで重み付けをすることである。内積の値は、原画像から抽出した部分画像が白線モデルに一致している時ほど大きくなる。詳細には、部分画像に含まれる白線が、部分画像の中心に白線がきた時、あるいは部分画像上の白線の幅が白線モデルの幅に一致した時に、内積の値は最大になる。さらに、部分画像のコントラストがより明確な(白線より明るく、その他はより暗い)ほど内積の値は大きくなる。
【0029】
ステップ18で、算出した合致度の中から最高の合致度を抽出し、その横位置xを求める。そして、横位置xを今着目している走査線における白線中心の候補点(xi,yi)とし、その点での合致度(a[xi,yi])をその点の確からしさaiとする。続くステップ19で、白線候補点(xi,yi)に対して逆透視変換を行ない、車両固定座標系のX−Y平面に投影する。すなわち、投影点(Xi,Yi)は、カメラ2の諸元に関して道路からの高さをHcとし、ピッチ角をθcとし、焦点距離をfcとすると、以下のようになる。
【数21】
Xi=−Hc(yisinθc−fccosθc)/(yicosθc+fcsinθc),
Yi=−Hc・xi/(yicosθc+fcsinθc)
【0030】
ステップ20において、車両固定座標系XYZの投影点(Xi,Yi)に基づいて、道路左側の白線を最少二乗法を用いて2次曲線
【数22】
Y=aYX2+bYX+cY
で同定する。すなわち、2次曲線の各係数(aY,bY,cY)は、連立方程式
【数23】
の解として求められる。ステップ21で、2次曲線の係数(aY,bY,cY)(以下、白線同定パラメーターと呼ぶ)を車両制御コントローラーに送信する。送信されたデータは車両制御コントローラー40内のメモリに記憶される。
【0031】
図8、図9は、車両制御コントローラー40の処理を示すフローチャートである。
車両制御コントローラー40は、内蔵タイマカウンタの10msのサンプリングタイムごとにこの処理を実行する。ステップ31において、内蔵タイマカウンタのカウンタ値をインクリメントする。ただし、カウンタ値が0になったらクリヤする。すなわち、
【数24】
【0032】
次に、ステップ32で、カウント値が0、すなわち100msが経過したかどうかを確認し、100msが経過したらステップ33,34の処理を行なう。つまり、ステップ33,34の処理は100msごとに行なわれる。ステップ33で、ナビゲーションコントローラー10と車両制御コントローラー40に100mSごとの同期信号を送り、続くステップ34で、メモリから白線同定パラメーター(aY,bY,cY)を読み出す。この白線同定パラメーター(aY,bY,cY)は、100msごとに画像処理コントローラー20から車両制御コントローラー40へ送られ、メモリに格納されるものである。したがって、この白線同定パラメーターは100ms前に撮像した画像に基づいて演算されたものである。
【0033】
ステップ35では、ヨーレートおよび横速度を推定するために、オブザーバーで使用する観測量として車速センサーから車速V、ヨーレートセンサーからヨーレート(dψ/dt)を入力し、さらに舵角センサーから制御入力である舵角δを入力する。続くステップ36で、2輪モデルを使って設計されたオブザーバーから、車両のヨーレート(dψc/dt)と横速度VYを推定する。ここで、ヨーレートにはヨーレートセンサーによる検出値(dψ/dt)をそのまま使ってもよいが、センサー検出値にはノイズ成分が含まれているので、オブザーバーにより推定値(dψc/dt)を求める。
【数25】
また、u1は入力であり、前輪舵角をδとして、
【数26】
となる。さらに、A1,B1,C1は2輪モデルを状態方程式、
【数27】
で記述した時の係数行列であり、K1はオブザーバーゲインである。
【0034】
ステップ37において、上記ステップ34で読み出した白線同定パラメーター(aY,bY,cY)が何10ms前に入力した画像のものであるかを算出する。処理遅れ時間Tdは、図12に示すように、画像処理時間Tvとデータ更新待ち時間Thの和である。
【数28】
Td=Tv+Th
【0035】
図12において、画像処理時間Tvは、カメラ2が画像を取り込んでから、その処理結果である白線同定パラメーター(aY,bY,cY)を車両制御コントローラー40が受信するまでの時間で、上述したようにこの実施の形態では100msである。また、データ更新待ち時間Thは、車両制御コントローラー40が白線同定パラメーター(aY,bY,cY)を受信してから実際にその値を使用するまでの保持時間である。図12に示す注視点距離Loは、車速Vが増加している場合の変化を示し、車速Vの増加に応じて画像処理時間Tvの空想距離が増加している。
【0036】
ステップ38では、処理遅れ時間Tdと車速Vとに基づいて図4に示すようにカメラ2から点P(X,Y,Z)までの注視点距離Loを求める。
【数29】
ただし、Tsはサンプリング時間で、この実施の形態では10msである。すなわち、注視点距離Loは処理遅れ時間Tdの間に車両1が進んだ空走距離に等しい。続くステップ39で、注視点における白線中心線の位置/方向/曲率を検出する。画像処理コントローラー20で求めた白線同定パラメーター(aY,bY,cY)を基に、注視点距離Loでの白線の横位置YL、方向φLおよび曲率ρLを求める。
【数30】
【0037】
ステップ40において、車両1の移動量を算出する。処理遅れ時間Tdの間の車両1の移動量として、横移動量ΔYcおよびヨー角変化量Δψcを求める。具体的には、上記オブザーバーで求めた横速度VYとヨーレート(dψc/dt)をそれぞれ積分して求める。
【数31】
ステップ41では、現在の車両1の対道路位置とヨー角を算出する。車両移動量と注視点での白線位置/方向の差として、現在の車両1の道路に対する横位置Ycおよびヨー角ψcを算出する。
【数32】
Yc=ΔYc−YL,
ψc=Δψc−ψL
【0038】
次に、ステップ42で目標操舵角を決定する。車両が白線の右側を一定の間隔Wで走行するように操舵角を制御する。すなわち、目標横位置を−Wとし、目標ヨー角を0とする。フィードフォワード制御とフィードバック制御を行ない、フィードフォワード項を道路曲率に比例するように決定し、フィードバック項をPI制御によって決める。
【数33】
数式33において、右辺の第1項がフィードフォワード項、第2項が横位置Ycに関するフィードバック項、第3項がヨー角ψcに関するフィードバック項である。また、KYP,KYIはそれぞれ横位置に対する比例ゲインと積分ゲインであり、KψP,KψIはそれぞれヨー角に対する比例ゲインと積分ゲインである。sはラプラス演算子を表わす。特に、フィードフォワード制御項で曲率にかかるゲインKρ(V)は車速によって決る値とする。ステップ43で、目標舵角δ*になるように操舵アクチュエータの位置制御を行なう。
【0039】
図13は、従来の装置による白線検出結果(b)と、第1の実施の形態による白線検出結果(c)とを比較したものである。
(a)に示すような原画像の一走査線分に対して、従来の装置では輝度変化の大きな点を白線エッジと判断しているが、この実施の形態では白線モデルとの合致度が最大になる点を白線の中心と判断する。
【0040】
−発明の第2の実施の形態−
上述した第1の実施の形態では白線幅に基づいて白線モデルを決定する例を示したが、白線の検出精度を向上させるために、白線幅に加え、白線の車両に対するヨー角と道路勾配を考慮して白線モデルを決定する第2の実施の形態を説明する。
なお、この第2の実施の形態の構成は図5に示す第1の実施の形態の構成と同様であり、説明を省略する。
【0041】
図14〜図17に示すフローチャートにより、第2の実施の形態の動作を説明する。なお、図6〜図9に示す処理と同様な処理を行なうステップに対しては同一のステップ番号を付して相違点を中心に説明する。
図14は、ナビゲーションコントローラー10の処理を示すフローチャートである。なお、ナビゲーションコントローラー10の動作の内、本発明に直接関係しない目的地までの経路演算などの処理については説明を省略する。
ナビゲーションコントローラー10は、100msごとに車両制御コントローラー40から送られる同期信号に同期してこの処理を実行する。ステップ1、2で、上述したように、車両の現在位置を算出した後、現在走行中の道路の白線幅Wrを取得する。
【0042】
ステップ2Aで、車載の3軸地磁気センサー(不図示)を使って、GPS座標系における車両の姿勢として、X−Y平面における車両の進行方向を表わすヨー角と、X−Y平面に対するピッチ角を求める。続くステップ2Bで、ナビゲーション用地図の中から、現在地から見て車両進行方向100m以内にあるすべての道路ノードについて、GPS座標系における位置(Xni,Yni,Zni)を取得する。ステップ2Cでは、図2に示す車両固定座標系を設定し、ステップ2Aで求めた車両姿勢を使って各ノードの位置を車両固定座標系に変換し、(Xni’,Yni’,Zni’)とする。
【0043】
ステップ2Dで、勾配変化率を同定する。道路の高さ変化Zを距離Xに対する2次式とし、車両固定座標系に変換された各ノード座標から2次係数azを同定し、この値を勾配変化率とする。
【数34】
Z=azX2
なお、一次の項と定数項を0としたのは、原点では道路がX−Y平面に接することを利用している。また、最小二乗法の具体的方法は白線を同定した場合と同様である。ステップ2Eでは、白線幅Wrと勾配変化率azを画像処理コントローラー20へ送り、勾配変化率azを車両制御コントローラー40へ送る。
【0044】
図15は、画像処理コントローラー20の処理を示すフローチャートである。画像処理コントローラー20は、100msごとに車両制御コントローラー40から送られる同期信号に同期してこの処理を実行する。ステップ11でカメラ2から画像データを入力して画像メモリ21に記憶する。続くステップ12Aで、ナビゲーションコントローラー10から白線幅Wrと勾配変化率azを読み込む。さらに、車両制御コントローラー40から白線ヨー角φLを読み込む。ステップ13で、入力画像において下から順に5本おきに走査線を選択する。ステップ14Aで、選択した走査線ごとに、走査線を横切る白線が何画素分wiになるかを算出する。具体的には、白線幅Wr、勾配変化率az、および白線ヨー角φLと、選択された走査線のy座標yiを数式9に代入した式となる。
【数35】
wi=WrcosφL(g・f)(yi)(yicosθc+fcsinθc)
さらに、この値を四捨五入して偶数の整数にする。
【0045】
以下、ステップ15〜21における処理は、図7に示す第1の実施の形態の画像処理と同様であり、説明を省略する。
【0046】
図16、図17は、車両制御コントローラー40の処理を示すフローチャートである。
車両制御コントローラー40は、内蔵タイマカウンタの10msのサンプリングタイムごとにこの処理を実行する。ステップ31、32において、上述したようにタイマカウンタの計算を行なう。そして、100msごとに、ステップ33Aで、ナビゲーションコントローラー10と画像処理コントローラー20に同期信号を出力するとともに、後述するステップで算出された白線の車両1に対するヨー角φLを画像処理コントローラー20へ出力する。さらにステップ34Aで、画像処理コントローラー20から入力した白線同定パラメーター(aY,bY,cY)と、ナビゲーションコントローラー10から入力した勾配変化率azをバッファーメモリから読み出す。これらの白線同定パラメーター(aY,bY,cY)と勾配変化率azは、100ms前に算出された値である。
【0047】
ステップ35、36で、上述したようにセンサーから車速V、ヨーレート(dψ/dt)および舵角δを入力し、オブザーバーによりヨーレート(dψc/dt)および横速度VYを推定する。さらにステップ37、38で、上述したように処理遅れ時間Tdを算出し、注視点距離Loを求める。
【0048】
ステップ38Aにおいて、道路の勾配変化による影響を除去するために、注視点距離Loを補正して疑似注視点距離Lo’を求める。具体的には、数式12において、
【数36】
Xo→Lo’,
X→Lo,
H→Hc,
Z=azLo3+bzLo2+cz
と置換することにより求められる。
【数37】
【0049】
ステップ39Aでは、疑似注視点における白線中心線の位置/方向/曲率を検出する。画像処理コントローラー20で求めた白線同定パラメーター(aY,bY,cY)を基に、疑似注視点Lo’における白線の横位置YL’、方向φL’および曲率ρL’を求める。
【数38】
ステップ39Bで、疑似注視点Lo’における白線の横位置YL’、方向φL’および曲率ρL’に対して、道路の勾配変化分による影響を除去するための補正を行なって横位置YL、方向φLおよび曲率ρLを求める。
【数39】
【0050】
以下、ステップ40〜43における処理は、図8、図9に示す第1の実施の形態の車両制御と同様であり、説明を省略する。
【0051】
−発明の実施の形態の変形例−
白線モデル設定の変形例を説明する。
走査線ごとに求めた白線画素数に応じて、図18に示すように白線モデル{M[−wi],・・,M[−1],M[0],M[1],・・,M[wi]}を設定する。つまり、モデルは白線画素数wiに対して(2wi+1)個の画像数を持つが、データとしては以下のように4m個分だけが0でない値になる。ここで、mは任意の整数である。
【数40】
この変形例の白線モデルを白線検出に用いると、白線モデルの合致度を求めるための内積計算の回数が2wi回から4m回に減り、マイクロコンピュータの負担を軽減することができる。
【0052】
−発明の実施の形態の変形例−
白線モデル合致度の算出の変形例を説明する。
横位置xで抜き出した部分画像と白線モデルとの内積をモデルの幅(2wi+1)で除し、その値を位置(x,yi)におけるモデルに対する合致度(a[x,yi])とする。
【数41】
【0053】
また、高速道路のランプなどにおいて、道路上の実際の白線幅Wrが変化することがある。このような場合は、実際の白線幅Wrを車両からの距離に応じた関数で表わし、車両からの距離に応じた実際の白線幅Wrに基づいて画面上の走査線ごとの白線幅を演算する。そして、算出した走査線ごとの白線幅に応じて走査線ごとの白線モデルを設定し、走査線ごとに部分画像と白線モデルとの内積をとり、その内積値をモデルの幅(2wi+1)で除する。
【0054】
このような合致度の算出方法によれば、高速道路のランプなどにおいて白線幅Wrが変化しても同じ合致度が得られ、合致度の演算を正規化することができ、白線同定パラメーターを正確に求めることができる。
【0055】
上述した実施の形態とその変形例では、GPS航法により車両が現在走行中の道路を特定し、道路地図情報から走行中の道路の白線幅を読み出す例を示したが、路車間通信により路側ビーコンから走行中の道路の白線幅を取得するようにしてもよい。
【0056】
以上の一実施の形態とその変形例の構成において、カメラ2が撮像手段を、ナビゲーションコントローラー10が白線幅取得手段を、画像処理コントローラー20が白線幅演算手段、白線モデル設定手段、合致度演算手段、投影手段および白線形状演算手段をそれぞれ構成する。
【図面の簡単な説明】
【図1】 車両の進行方向が白線と平行な場合の道路上の白線の画像を示す図である。
【図2】 車両固定座標系XYZと画面座標系xyを示す図である。
【図3】 図2に示す画面座標系xyを図1の画面上に重ねた図である。
【図4】 道路勾配モデルを示す図である。
【図5】 第1の実施の形態の構成を示す図である。
【図6】 第1の実施の形態のナビゲーションコントローラーの動作を示すフローチャートである。
【図7】 第1の実施の形態の画像処理コントローラーの動作を示すフローチャートである。
【図8】 第1の実施の形態の車両制御コントローラーの動作を示すフローチャートである。
【図9】 図8に続く、第1の実施の形態の車両制御コントローラーの動作を示すフローチャートである。
【図10】 画面上の走査線の選択方法を説明するための図である。
【図11】 白線モデルを示す図である。
【図12】 処理遅れ時間Tdを説明する図である。
【図13】 従来の装置による白線検出結果と第1の実施の形態による白線検出結果とを比較した図である。
【図14】 第2の実施の形態のナビゲーションコントローラーの動作を示すフローチャートである。
【図15】 第2の実施の形態の画像処理コントローラーの動作を示すフローチャートである。
【図16】 第2の実施の形態の車両制御コントローラーの動作を示すフローチャートである。
【図17】 図16に続く、第2の実施の形態の車両制御コントローラーの動作を示すフローチャートである。
【図18】 白線モデルの変形例を示す図である。
【符号の説明】
1 車両
2 カメラ
10 ナビゲーションコントローラー
20 画像処理コントローラー
30 データ通信部
40 車両制御コントローラー
Claims (8)
- 車両の周囲を撮像する手段と、
車両の現在位置を検出して走行中の道路を特定し、道路地図情報を記憶する記憶手段から走行中の道路の実際の白線の幅を取得する手段と、
前記走行中の道路の実際の白線幅に基づいて、前記撮影画像における走査線ごとの白線幅を演算する白線幅演算手段と、
前記撮影画像上の走査線ごとの白線幅に応じた走査線ごとの白線モデルを設定する白線モデル設定手段と、
前記撮影画像から走査線ごとに前記白線モデルと同一の大きさの部分画素を抜き出し、前記部分画素の画像と前記白線モデルとの合致度を演算する合致度演算手段と、
前記合致度が最大となる部分画素の中心点を撮影画像における白線中心点とし、前記撮影画像における走査線ごとの白線中心点を車両に対して水平な平面に投影する投影手段とを備え、
前記投影点を走行中の道路の実際の白線中心点とすることを特徴とする道路白線検出装置。 - 請求項1に記載の道路白線検出装置において、
前記車両に対して水平な平面上の投影点と各投影点の前記合致度に基づいて、実際の白線形状を演算する白線形状演算手段を備えることを特徴とする道路白線検出装置。 - 請求項1または請求項2に記載の道路白線検出装置において、
前記合致度演算手段は、前記部分画素列の画像と前記白線モデルとの内積をとり、内積値を合致度とすることを特徴とする道路白線検出装置。 - 請求項1〜3のいずれかの項に記載の道路白線検出装置において、
前記白線モデル設定手段は、走行中の道路の勾配を考慮して白線モデルを設定することを特徴とする道路白線検出装置。 - 請求項1〜4のいずれかの項に記載の道路白線検出装置において、
前記白線モデル設定手段は、走行中の道路の、実際の白線の車両に対するヨー角を考慮して白線モデルを設定することを特徴とする道路白線検出装置。 - 請求項1〜5のいずれかの項に記載の道路白線検出装置において、
前記白線モデルは、前記撮影画像における白線幅の倍以下の幅を有し、前記撮影画像における白線幅に対応する中央部分の値を1とし、その両側部分の値を−1とすることを特徴とする道路白線検出装置。 - 請求項1〜6のいずれかの項に記載の道路白線検出装置において、
前記白線幅取得手段は、路車間通信により路側ビーコンから走行中の道路の実際の白線幅を取得することを特徴とする道路白線検出装置。 - 請求項3〜7のいずれかの項に記載の道路白線検出装置において、
前記合致度演算手段は、前記部分画素列の画像と前記白線モデルとの内積値を前記撮影画像における白線幅で除して合致度を演算することを特徴とする道路白線検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16000697A JP3736044B2 (ja) | 1997-06-17 | 1997-06-17 | 道路白線検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16000697A JP3736044B2 (ja) | 1997-06-17 | 1997-06-17 | 道路白線検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH117534A JPH117534A (ja) | 1999-01-12 |
JP3736044B2 true JP3736044B2 (ja) | 2006-01-18 |
Family
ID=15705946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16000697A Expired - Fee Related JP3736044B2 (ja) | 1997-06-17 | 1997-06-17 | 道路白線検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3736044B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60179439A (ja) | 1984-02-25 | 1985-09-13 | Toyoda Gosei Co Ltd | ゴム組成物 |
JP3661684B2 (ja) * | 2002-11-28 | 2005-06-15 | 日産自動車株式会社 | 車線逸脱防止装置 |
JP5704099B2 (ja) * | 2012-03-21 | 2015-04-22 | トヨタ自動車株式会社 | 走行路認識装置 |
US20130253753A1 (en) * | 2012-03-23 | 2013-09-26 | Google Inc. | Detecting lane markings |
EP3358302B1 (en) * | 2015-09-30 | 2021-03-31 | Nissan Motor Co., Ltd. | Travel control method and travel control device |
JP6965739B2 (ja) | 2017-12-27 | 2021-11-10 | 株式会社デンソー | 車両制御装置 |
-
1997
- 1997-06-17 JP JP16000697A patent/JP3736044B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH117534A (ja) | 1999-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7461720B2 (ja) | 車両位置決定方法及び車両位置決定装置 | |
CN113554698B (zh) | 车辆位姿信息生成方法、装置及电子设备、存储介质 | |
EP2933790B1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
JP5714940B2 (ja) | 移動***置測定装置 | |
JP2012127896A (ja) | 移動***置測定装置 | |
US11157753B2 (en) | Road line detection device and road line detection method | |
CN110402368A (zh) | 用在交通工具导航中的集成式的基于视觉的惯性传感器*** | |
JP2005038407A (ja) | 車両用外界認識装置 | |
JP2011180982A (ja) | 区画線検出装置 | |
JP2020052695A (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
CN112567264A (zh) | 用于获取坐标变换信息的装置和方法 | |
US20200364470A1 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
CN113160594A (zh) | 变化点检测装置以及地图信息发布*** | |
JP2021149863A (ja) | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 | |
JPH1123291A (ja) | 車両用画像処理装置 | |
JP3736044B2 (ja) | 道路白線検出装置 | |
JP4256992B2 (ja) | 障害物検出装置 | |
EP3795952A1 (en) | Estimation device, estimation method, and computer program product | |
JP7234840B2 (ja) | 位置推定装置 | |
JP7003972B2 (ja) | 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
JP2940366B2 (ja) | 対象物の追従認識装置 | |
JPH1139464A (ja) | 車両用画像処理装置 | |
JP3304905B2 (ja) | 対象物の追従認識装置 | |
JP5557036B2 (ja) | 退出判定装置、退出判定プログラム及び退出判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050719 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051017 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091104 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101104 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |