JP6449627B2 - 走行区画線認識装置 - Google Patents

走行区画線認識装置 Download PDF

Info

Publication number
JP6449627B2
JP6449627B2 JP2014238077A JP2014238077A JP6449627B2 JP 6449627 B2 JP6449627 B2 JP 6449627B2 JP 2014238077 A JP2014238077 A JP 2014238077A JP 2014238077 A JP2014238077 A JP 2014238077A JP 6449627 B2 JP6449627 B2 JP 6449627B2
Authority
JP
Japan
Prior art keywords
recognition
vehicle
model
road
model considering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014238077A
Other languages
English (en)
Other versions
JP2016099887A (ja
Inventor
泰樹 河野
泰樹 河野
直輝 川嵜
直輝 川嵜
鶴田 知彦
知彦 鶴田
俊輔 鈴木
俊輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014238077A priority Critical patent/JP6449627B2/ja
Priority to US14/949,593 priority patent/US20160148059A1/en
Publication of JP2016099887A publication Critical patent/JP2016099887A/ja
Application granted granted Critical
Publication of JP6449627B2 publication Critical patent/JP6449627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の走行支援等のために、車線を区画する走行区画線を認識する走行区画線認識装置に関する。
従来、車両の走行支援を行うために、道路の車線を区画する走行区画線を認識する走行区画線認識装置が提案されている。このような装置として、特許文献1に記載の装置のように、遠方の走行区画線まで認識するため、車両近傍の領域と車両遠方の領域とで、異なる認識モデルを用いて走行区画線を認識するものがある。
特開2013−196341号公報
遠方の走行区画線まで認識しようとすると遠距離認識モデルを用いる必要があるが、道路の状況によっては、遠距離認識モデルを用いると走行区画線の認識が不安定になるおそれがある。例えば、渋滞中で車両から遠方の走行区画線が見えない場合に遠距離認識モデルを用いると、走行区画線の認識が不安定になるおそれがある。
本発明は、上記実情に鑑み、車両の様々な状況においてロバスト性の高い走行区画線の認識を実現可能な走行区画線認識装置を提供することを主たる目的とする。
請求項1に記載の発明は、上記課題を解決するため、車載カメラにより撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置であって、前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つを含み、前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合して、前記区画線を認識する認識手段を備える。
請求項1に記載の発明によれば、車線の区画線を認識するために、1次モデル、2次モデル及び3次モデルのうちの少なくとも2つの認識モデルが用いられる。そして、車両の状況に応じて複数の認識モデルによる認識結果が統合され、区画線が認識される。よって、車両の様々な状況において、ロバスト性の高い区画線の認識を実現できる。
また、請求項2に記載の発明は、車載カメラにより撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置であって、前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つを含み、前記車両の状況に応じて用いる前記認識モデルを切替えて、前記区画線を認識する認識手段を備える。
請求項2に記載の発明によれば、車線の区画線を認識するために、1次モデル、2次モデル及び3次モデルのうちの少なくとも2つの認識モデルが用いられる。そして、車両の状況に応じて用いられる認識モデルが切替えられる。よって、車両の様々な状況において、ロバスト性の高い区画線の認識を実現できる。
また、請求項3に記載の発明は、車載カメラにより撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置であって、前記認識モデルは、近距離に特化した近距離モデル、中距離に特化した中距離モデル、及び遠距離に特化した遠距離モデルのうちの少なくとも2つを含み、前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合して、前記区画線を認識する認識手段を備える。
請求項3に記載の発明によれば、請求項1に記載の発明と同様の効果を奏する。
また、請求項4に記載の発明は、車載カメラにより撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置であって、前記認識モデルは、近距離に特化した近距離モデル、中距離に特化した中距離モデル、及び遠距離に特化した遠距離モデルのうちの少なくとも2つを含み、前記車両の状況に応じて用いる前記認識モデルを切替えて、前記区画線を認識する認識手段を備える。
請求項4に記載の発明によれば、請求項2に記載の発明と同様の効果を奏する。
第1実施形態に係る走行区画線認識装置の概略構成を示すブロック図。 第1実施形態に係る白線認識の処理手順を示すフローチャート。 近傍白線認識の処理手順を示すフローチャート。 中距離白線認識の処理手順を示すフローチャート。 遠方白線認識の処理手順を示すフローチャート。 第2実施形態に係る走行区画線認識装置の概略構成を示すブロック図。 第2実施形態に係る白線認識の処理手順を示すフローチャート。
以下、走行区画線認識装置を具現化した各実施形態について、図面を参照しつつ説明する。各実施形態に係る走行区画線認識装置により認識された走行区画線は、レーンキーピングアシスト制御(LKA制御)やレーン逸脱警報等の走行支援に用いられる。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
(第1実施形態)
まず、第1実施形態に係る走行区画線認識装置20について、図1を参照して説明する。走行区画線認識装置20は、車載カメラ10により撮影された画像、及び車両状況取得装置11により取得された情報に基づいて、道路の車線を区画する白線(区画線)を認識する。なお、ここでは、車線を区画する黄色線も含めて白線という。
車載カメラ10は、CCDカメラやCMOSカメラ等であり、車両の前側の車幅中央、例えばルームミラー中央に取り付けられており、車両前方の道路を撮影する。
車両状況取得装置11は、車両の状況を表す情報を取得する各種装置である。車両の状況は、車両周辺の状況及び車両の挙動を含み、例えば、車両周辺の立体物情報、道路の路面環境、道路の属性、道路の路面ペイントの色情報、道路の勾配の変化量、分岐路情報、車速、ピッチ角やロール角等の走行状態が挙げられる。
車両状況取得装置11は、具体的には、ステレオカメラ、周辺カメラ、ミリ波レーダ、レーザレーダ、超音波センサ、温度センサ、レインセンサ、車速センサ、ヨーレートセンサ、角度センサ、GPS受信機、地図記憶装置、車車間通信装置、路車間通信装置等の各種装置である。
ステレオカメラ及び周辺カメラは、撮影した画像から車両周辺の他車両や歩行者、路側物である立体物を検出する。さらにステレオカメラは、道路の勾配やカーブ等の道路の形状を検出する。ミリ波レーダ、レーザレーダ及び超音波センサは、車両周辺の他車両や歩行者、路側物である立体物を検出する。温度センサは、外気温を検出する。レインセンサは、降雨量を検出する。
車速センサは、車輪速度すなわち車両の速度を検出する。ヨーレートセンサは、車両のヨーレートを検出する。角度センサは、車両のピッチ角及びロール角を検出する。GPS受信機は、GPS衛星から送信された信号に基づいて、車両の現在位置及び現在時刻の情報を取得する。車車間通信装置は、車車間通信装置を備えた他車両から、他車両の位置や速度の情報を受信する。路車間通信装置は、路側機から、ガードレール等の路側物(立体物)の位置情報、他車両や歩行車等の立体物の位置情報、道路の形状及び属性を受信する。
走行区画線認識装置20は、CPU、ROM、RAM及びI/O等を備えた周知のマイクロコンピュータである。CPUがROMに記憶されている各種プログラムを実行することにより、認識部30の機能を実現する。
認識部30(認識手段)は、認識モデルを用いて道路の白線を認識する。認識モデルは、近距離モデル、中距離モデル及び遠距離モデルを含む。また、認識部30は、近距離認識部31、中距離認識部32、遠距離認識部33、認識統合部34を含む。さらに、認識部30は、認識距離検出部41、周辺監視部42、道路情報取得部43、ペイント色取得部44、勾配検出部45、分岐路判定部46、車速検出部47、走行状態検出部48、安定性検出部49、統合比率算出部50を含む。
近距離認識部31は、車載カメラ10により撮影された画像に基づき、近距離モデルを用いて車両近傍の白線を認識する。すなわち、近距離認識部31は、近距離モデルを用いて白線パラメータを推定する。近距離モデルとしては、例えば、直線を考慮した1次モデル、近距離に特化した近距離モデルが挙げられる。近距離に特化した近距離モデルは、1次モデルをベースとして他のモデルを加味したモデルであり、例えば、1次モデルをベースとして2次モデルを加味したモデルや、1次モデルをベースとして3次モデルを加味したモデルである。
中距離認識部32は、車載カメラ10により撮影された画像に基づき、中距離モデルを用いて車両近傍から車両遠方の間の中距離の白線を認識する。すなわち、中距離認識部32は、中距離モデルを用いて白線パラメータを推定する。中距離モデルとしては、例えば、定常カーブを考慮した2次モデル、中距離に特化した中距離モデルが挙げられる。中距離に特化した中距離モデルは、2次モデルをベースとして他のモデルを加味したモデルであり、例えば、2次モデルをベースとして3次モデルを加味したモデルや、2次モデルをベースとして1次モデルを加味したモデルである。
遠距離認識部33は、車載カメラ10により撮影された画像に基づき、遠距離モデルを用いて車両遠方の白線を認識する。すなわち、遠距離認識部33は、遠距離モデルを用いて白線パラメータを推定する。遠距離モデルとしては、例えば、クロソイドカーブを考慮した3次元モデル、遠距離に特化した遠距離モデルが挙げられる。遠距離に特化した遠距離モデルは、3次モデルをベースとして他のモデルを加味したモデルであり、例えば、3次モデルをベースとして2次モデルを加味したモデルや、3次モデルをベースとして1次モデルを加味したモデルである。
認識統合部34は、近距離認識部31、中距離認識部32及び遠距離認識部33のそれぞれによる認識結果を、後述する統合比率算出部50により算出された統合比率で統合して、白線を認識する。
認識距離検出部41(認識距離検出手段)は、白線を認識している距離である認識距離を検出する。詳しくは、認識距離検出部41は、近距離認識部31、中距離認識部32、及び遠距離認識部33により認識された白線に含まれるエッジ点のうち、車両から最も遠方のエッジ点までの距離を認識距離として検出する。
周辺監視部42(立体物情報取得手段)は、車両状況取得装置11の各種装置により取得された情報に基づいて、車両周辺の立体物情報を取得する。立体物情報は、車両から立体物までの距離、立体物の横方向(車幅方向)位置、車両に対する立体物の相対速度である。
道路情報取得部43(道路情報取得手段)は、車両状況取得装置11の各種装置により取得された情報に基づいて、道路の路面環境又は道路の属性を取得する。道路の路面環境は、雨で濡れた路面、路面に雪が積もった雪道、砂利道、夜間、白線がかすれている等である。道路の属性は、高速道路、一般道である市街地道路やバイパス道路、山道等である。
ペイント色取得部44(色取得手段)は、車載カメラ10により撮影された画像に基づいて、路面ペイントの色情報を取得する。具体的には、路面の区画線の色が白色、黄色、青色、橙色のいずれかを取得する。
勾配検出部45(勾配検出手段)は、車両状況取得装置11の各種装置により取得された情報に基づいて、道路の勾配の変化量を検出する。分岐路判定部46(分岐路判定手段)は、車両状況取得装置11の各種装置により取得された情報に基づいて、車線が分岐路か否か判定する。
車速検出部47(車速検出手段)は、車速センサの検出値に基づいて、車両の速度を検出する。走行状態検出部48(走行状態検出手段)は、車両状況取得装置11の各種装置により取得された情報に基づいて、車両の走行状態を検出する。詳しくは、走行状態検出部48は、角度センサの検出値に基づいて、車両のピッチ角及びロール角を検出する。また、走行状態検出部48は、例えば車速センサにより検出された車輪速度から駆動輪の加速度を検出し、この加速度と基準加速度とを比較して、車両のスリップを検出する。
安定性検出部49(安定性検出手段)は、近距離モデル、中距離モデル及び遠距離モデルのそれぞれについて、白線認識の安定性を検出する。詳しくは、安定性検出部49は、近距離認識部31、中距離認識部32及び遠距離認識部33のそれぞれによる過去の認識結果の変動に応じて、それぞれの白線認識の安定性を検出する。安定性検出部49は、過去に推定した白線パラメータの変動が比較的小さい場合は白線認識の安定性を比較的高く算出し、白線パラメータの変動が比較的大きい場合は白線認識の安定性を比較的低く算出する。
統合比率算出部50は、車両の状況に応じて、近距離認識部31、中距離認識部32及び遠距離認識部33のそれぞれによる認識結果の統合比率を算出する。すなわち、統合比率算出部50は、認識距離、立体物情報、道路の路面環境又は属性、路面ペイントの色、道路の勾配の変化量、分岐路判定結果、車速、走行状態、及び各認識モデルの安定性に応じて、統合比率を算出する。以下、統合比率の算出手法について説明する。
認識距離が短いほど、白線が遠くまで見えにくいため、統合比率算出部50は、認識距離が短いほど、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。また、車両周辺に立体物が多いほど、白線が遠くまで見えにくいため、統合比率算出部50は、車両周辺に立体物が多いほど、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。
路面が濡れていると、光が路面に反射して遠方が見えにくいため、統合比率算出部50は、路面が濡れている場合には、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。また、雪道や砂利道は、白線が遠くまで見えにくいため、統合比率算出部50は、路面が雪道や砂利道の場合には、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。また、夜間ではヘッドライトで遠方が見えにくいため、統合比率算出部50は、夜間の場合には、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。
また、一般道は、高速道路よりも障害物が多く白線が遠くまで見えにくいため、統合比率算出部50は、道路が一般道の場合は、道路が高速道路の場合よりも、低次モデルの使用率が高くなるように統合比率を算出する。また、山道ではカーブが多いため、統合比率算出部50は、道路が山道の場合は、低次モデルよりも高次モデルの使用率が高くなるように統合比率を算出する。
道路の路面ペイントが黄色、すなわち区画線が黄色の場合、前方に工事区間があることを示していることがある(例えばドイツ)。工事区間では障害物が多いので、統合比率算出部50は、道路の路面ペイントが黄色の場合には、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。
坂道への進入部分のように道路の勾配の変化量が所定量よりも大きい場所では、遠方の白線を誤認識しやすい。よって、統合比率算出部50は、道路の勾配の変化量が所定量よりも大きい場合には、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。
車線が前方で分岐している分岐路の場合、安定して白線を認識するためには、分岐部分よりも遠方の白線を認識する必要がある。よって、統合比率算出部50は、車線が分岐路と判定された場合には、低次モデルよりも高次モデルの使用率が高くなるように統合比率を算出する。
車速が低い場合は渋滞している可能性が高く、遠くまで白線が見えにくい可能性が高い。また、車速が高い場合は、遠くまで白線が見えやすい可能性が高い。よって、統合比率算出部50は、車速が低いほど高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出し、車速が高いほど低次モデルよりも高次モデルの使用率が高くなるように統合比率を算出する。
車両が所定角度よりも大きくピッチング又はローリングしていたり、車両がスリップしていたりして、不安定な走行状態の場合には、遠方の白線を誤認識しやすい。よって、統合比率算出部50は、車両のピッチ角又はロール角が所定角度よりも大きい場合に、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。また、統合比率算出部50は、車両がスリップしている場合に、高次モデルよりも低次モデルの使用率が高くなるように統合比率を算出する。
また、安定性が高いモデルを優先して用いると、白線認識の安定性が向上する。よって、統合比率算出部50は、安定性が高い認識モデルほど使用比率が高くなるように統合比率を算出する。
統合比率算出部50は、各車両の状況に応じて、それぞれ統合比率を算出し、算出した各統合比率を統合して、認識結果の統合に用いる統合比率を算出する。
次に、白線を認識する処理手順について、図2のフローチャートを参照して説明する。本処理手順は、車載カメラ10により画像が撮影された都度、走行区画線認識装置20が実行する。
まず、車載カメラ10により撮影された画像に基づき、近距離モデルを用いて車両の近傍白線を認識する(S10)。近距離モデルによる白線認識の詳細については後述する。
続いて、車載カメラ10により撮影された画像に基づき、中距離モデルを用いて車両から中距離の白線を認識する(S20)。中距離モデルによる白線認識の詳細については後述する。
続いて、車載カメラ10により撮影された画像に基づき、遠距離モデルを用いて車両から遠距離の白線を認識する(S30)。遠距離モデルによる白線認識の詳細については後述する。
ここで、S10〜S30の処理の順番は、上記順番に限らない。以下に示すパターン1〜7のいずれかのパターンで処理を行えばよい。
(パターン1)
S10、S20、S30の順に処理を行う。S20の認識処理は、S10における認識結果を用いて行う。また、S30の認識処理は、S10における認識結果及びS20における認識結果の両方、もしくは、S10における認識結果及びS20における認識結果のいずれかを用いて行う。
(パターン2)
S10、S30、S20の順に処理を行う。パターン1と同様に、S30の認識処理は、S10における認識結果を用いて行う。また、S20の認識処理は、S10における認識結果及びS30における認識結果の両方、もしくは、S10における認識結果及びS30における認識結果のいずれかを用いて行う。
(パターン3)
S20、S10、S30の順で処理を行う。パターン1,2と同様に、S10の認識処理は、S20における認識結果を用いて行う。また、S30の認識処理は、S10における認識結果及びS20における認識結果の両方、もしくは、S10における認識結果及びS20における認識結果のいずれかを用いて行う。
(パターン4)
S20、S30、S10の順で処理を行う。パターン1〜3と同様に、S30の認識処理は、S20における認識結果を用いて行う。また、S10の認識処理は、S20における認識結果及びS30における認識結果の両方、もしくは、S20における認識結果及びS30における認識結果のいずれかを用いて行う。
(パターン5)
S30、S10、S20の順で処理を行う。パターン1〜4と同様に、S10の認識処理は、S30における認識結果を用いて行う。また、S20の認識処理は、S10における認識結果及びS30における認識結果の両方、もしくは、S10における認識結果及びS30における認識結果のいずれかを用いて行う。
(パターン6)
S30、S20、S10の順で処理を行う。パターン1〜5と同様に、S20の認識処理は、S30における認識結果を用いて行う。また、S10の認識処理は、S20における認識結果及びS30における認識結果の両方、もしくは、S20における認識結果及びS30における認識結果のいずれかを用いて行う。
(パターン7)
パターン1〜6では、各認識モデルによる認識処理に依存関係があったが、パターン7では、各認識モデルによる認識処理を独立して行う。すなわち、S10〜S30の処理を独立して行う。この場合、S10〜S30の認識処理の順番はどのように行ってもよい。
続いて、各車両の状況、すなわち、認識距離、立体物情報、道路の路面環境又は属性、路面ペイントの色、道路の勾配の変化量、分岐路判定結果、車速、走行状態、及び各認識モデルの安定性を取得する(S40)。
続いて、S40で取得した各車両の状況に基づいて統合比率を算出し、算出した統合比率に変更する(S50)。続いて、S10、S20及びS30のそれぞれにおける認識結果を、S50で変更した統合比率で統合し、統合した認識結果により白線を認識する(S60)。すなわち、S10、S20及びS30のそれぞれで推定した白線パラメータを、S50で切り替えた統合比率で統合する。以上で本処理を終了する。
次に、各認識モデルにより白線を認識する処理手順についてそれぞれ説明する。ここでは、一例としてパターン1の場合について説明する。まず、近距離モデルにより白線を認識する処理手順について、図3のフローチャートを参照して説明する。
まず、車載カメラ10の撮影画像の近傍領域において、近傍エッジ点を抽出する(S11)。次に、S11で抽出したエッジ点をハフ変換して直線を検出し(S12)、検出した直線の中から白線候補の直線を算出する(S13)。具体的には、検出した直線の中からハフ変換の投票数が多いものを白線候補とする。
続いて、白線候補の絞り込みを行う(S14)。具体的には、例えば撮影画像における白背候補の周囲の路面に対するコンストラストの比率が所定の閾値よりも高いものや、白線候補部分の輝度とその周囲の輝度との差が所定の閾値よりも大きいものに白線候補を限定する。他にも、線の太さ、車線幅等の様々な白線らしさを示す特徴を考慮して、白線候補を絞り込んでもよい。そして、車両の中心から左右方向に最も近い白線候補を選択する。
続いて、S14で絞り込んだ白線候補を構成するエッジ点を、鳥瞰座標に変換する(S15)。鳥瞰座標とは、路面を平面と仮定したときの座標である。
続いて、S15で変換した鳥瞰座標のエッジ点から、周知の手法により近傍白線パラメータを推定する(S16)。詳しくは、S15で変換した鳥瞰座標のエッジ点、過去に抽出したエッジ点、及び車両のヨーレートを用いて、近傍白線パラメータは、車線位置、車線傾き、車線曲率、車線幅である。以上で本処理を終了する。
次に、中距離モデルにより白線を認識する処理手順について、図4のフローチャートを参照して説明する。ここでは、中距離モデルとして2次モデルを想定している。
まず、車載カメラ10の撮影画像の中距離領域において、中距離エッジ点を抽出する(S21)。続いて、S21で抽出したエッジ点を、近傍の白線認識処理で推定した近傍白線パラメータを用いて、ノイズである可能性が低い領域に存在するエッジ点に絞り込む(S22)。具体的には、近傍白線パラメータに含まれる車線位置、車線幅から白線が存在すると予想される位置を限定し、限定した位置に対応するエッジ点を選択する。他にも、様々な白線らしさを示す特徴を考慮して絞り込んでもよい。
続いて、S22で絞り込んだエッジ点を2次式で近似し、中距離白線パラメータを推定する(S23)。以上で本処理を終了する。
次に、遠距離モデルにより白線を認識する処理手順について、図5のフローチャートを参照して説明する。ここでは、遠距離モデルとして3次モデルを想定している。
まず、車載カメラ10の撮影画像の遠方領域において、遠方エッジ点を抽出する(S31)。続いて、S31で抽出したエッジ点を、図4のフローチャートのS22の処理と同様に、中距離の白線認識処理で推定した中距離白線パラメータを用いて絞り込む(S32)。
続いて、S32で絞り込んだエッジ点を3次式で近似し、遠距離白線パラメータを推定する。以上で本処理を終了する。
以上説明した第1実施形態によれば、以下の効果を奏する。
・車両の状況に応じて複数の認識モデルによる認識結果が統合されて白線が認識されるため、車両の様々な状況において、ロバスト性の高い白線の認識を実現できる。
・車両の状況に応じて、複数の認識モデルによる認識結果の統合比率が切り替えられるため、ロバスト性の高い白線の認識を実現できる。
・認識距離が短いほど、遠方まで白線が認識できないため、低次モデルの使用が適する。よって、車両の状況として認識距離を用いることにより、安定して白線を認識できる。
・車速が低いほど、渋滞に近い状態であり、低次モデルの使用が適する。一方、車速が高いほど、遠方まで白線が見える状態であるため、高次モデルの使用が適する。よって、車両の状況として車速を用いることにより、安定して白線を認識できる。
・車両周辺の立体物が多いほど、遠方まで白線が認識できないため、低次モデルの使用が適する。よって、車両の状況として車両周辺の立体物情報を用いることにより、安定して白線を認識できる。
・濡れた路面、雪道や砂利道等の白線が認識しにくい路面環境では、低次モデルの使用が適する。また、高速道路と比較して一般道路は障害物が多く、遠方まで白線が認識できないため、低次モデルの使用が適する。また、山道はカーブが多く、高次モデルの使用が適する。よって、車両の状況として路面環境又は道路属性の道路情報を用いることにより、安定して白線を認識できる。
・車線が分岐路の場合、安定して白線を認識するためには、分岐部分よりも遠方の白線を認識する必要がある。そして、分岐部分よりも遠方の白線を認識するには、高次モデルの使用が適する。よって、車両の状況として分岐路判定の結果を用いることにより、安定して白線を認識できる。
・道路の路面ペイントが黄色の場合、前方に工事区間があることを示していることがある。工事区間では、障害物が多いので、低次モデルの使用が適する。よって、車両の状況として路面ペイントの色情報を用いることにより、安定して白線を認識できる。
・坂道への進入部分のように道路の勾配が大きく変化する場所では、遠方の白線を誤認識しやすいため、低次モデルの使用が適する。よって、車両の状況として勾配の変化量を用いることにより、安定して白線を認識できる。
・複数の認識モデルのうち、安定して白線を認識している認識モデルを優先して用いることにより、白線認識の安定性が向上する。よって、車両の状況としてそれぞれの認識モデルによる白線認識の安定性を用いることにより、安定して白線を認識できる。
・車両がピッチングやローリングしていたり、車両が路面を滑っていたりして、車両の走行が不安定な状態では、遠方の白線を認識すると誤認識しやすいため、低次モデルの使用が適する。よって、車両の状況として車両の走行状態を用いることにより、安定して白線を認識できる。
(第2実施形態)
第2実施形態に係る走行区画線認識装置20Aについて、第1実施形態に係る走行区画線認識装置20と異なる点について説明する。
図6に示すように、走行区画線認識装置20Aの認識部30は、認識統合部34及び統合比率算出部50の代わりに、モデル選択部35を備える。モデル選択部35は、車両の状況に応じて、用いる認識モデルを選択する。詳しくは、モデル選択部35は、統合比率算出部50と同様に、車両の状況に応じて、各認識モデルの使用比率を算出し、最も使用比率の高い認識モデルを選択する。
次に、白線を認識する処理手順について、図7のフローチャートを参照して説明する。本処理手順は、車載カメラ10により画像が撮影された都度、走行区画線認識装置20Aが実行する。
まず、各車両の状況、すなわち、認識距離、立体物情報、道路の路面環境又は属性、路面ペイントの色、道路の勾配の変化量、分岐路判定結果、車速、走行状態、及び各認識モデルの安定性を取得する(S41)。
続いて、S41で取得した各車両の状況に基づいて、用いる認識モデルを切り替える(S42)。続いて、S42で切り替えた認識モデルを用いて白線を認識する(S43)。すなわち、S42で切り替えた認識モデルに応じて、近傍の白線認識処理、中距離の白線認識処理及び遠方の白線認識処理のうちのいずれかを行い、白線パラメータを算出する。以上で本処理を終了する。
以上説明した第2実施形態によれば、第1実施形態と同様に、車両の様々な状況において、ロバスト性の高い白線の認識を実現できる。
(他の実施形態)
・第1実施形態において、各車両の状況のうち少なくとも1つの車両の状況に応じて、統合比率を算出すればよい。
・第2実施形態において、各車両の状況のうち少なくとも1つの車両の状況に応じて、用いる認識モデルを切替えればよい。
・複数の認識モデルは、近距離モデル、中距離モデル及び遠距離モデルのうちの少なくとも2つを含めばよい。すなわち、複数の認識モデルは、近距離モデルと遠距離モデルの2つ、中距離モデルと遠距離モデルの2つ、近距離モデルと中距離モデルの2つでもよい。
10…車載カメラ、20,20A…走行区画線認識装置。

Claims (17)

  1. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記区画線を認識している距離である認識距離を検出する認識距離検出手段と、を備え、
    前記認識手段は、前記車両の状況として、前記認識距離検出手段により検出された前記認識距離を用いる走行区画線認識装置。
  2. 前記車両の速度を検出する車速検出手段を備え、
    前記認識手段は、前記車両の状況として、前記車速検出手段により検出された前記車両の速度を用いる請求項1に記載の走行区画線認識装置。
  3. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記車両の速度を検出する車速検出手段と、を備え、
    前記認識手段は、前記車両の状況として、前記車速検出手段により検出された前記車両の速度を用いる走行区画線認識装置。
  4. 前記車両の周辺の立体物情報を取得する立体物情報取得手段を備え、
    前記認識手段は、前記車両の状況として、前記立体物情報取得手段により取得された前記立体物情報を用いる請求項1〜のいずれかに記載の走行区画線認識装置。
  5. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記車両の周辺の立体物情報を取得する立体物情報取得手段と、を備え、
    前記認識手段は、前記車両の状況として、前記立体物情報取得手段により取得された前記立体物情報を用いる走行区画線認識装置。
  6. 前記車線が分岐路か否かを判定する分岐路判定手段を備え、
    前記認識手段は、前記車両の状況として、前記分岐路判定手段による判定結果を用いる請求項1〜のいずれかに記載の走行区画線認識装置。
  7. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記車線が分岐路か否かを判定する分岐路判定手段と、を備え、
    前記認識手段は、前記車両の状況として、前記分岐路判定手段による判定結果を用いる走行区画線認識装置。
  8. 前記道路の路面ペイントの色情報を取得する色取得手段を備え、
    前記認識手段は、前記車両の状況として、前記色取得手段により取得された前記色情報を用いる請求項1〜のいずれかに記載の走行区画線認識装置。
  9. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記道路の路面ペイントの色情報を取得する色取得手段と、を備え、
    前記認識手段は、前記車両の状況として、前記色取得手段により取得された前記色情報を用いる走行区画線認識装置。
  10. 前記道路の勾配の変化量を検出する勾配検出手段を備え、
    前記認識手段は、前記車両の状況として、前記勾配検出手段により検出された前記変化量を用いる請求項1〜のいずれかに記載の走行区画線認識装置。
  11. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記道路の勾配の変化量を検出する勾配検出手段と、を備え、
    前記認識手段は、前記車両の状況として、前記勾配検出手段により検出された前記変化量を用いる走行区画線認識装置。
  12. 前記複数の認識モデルのそれぞれについて、前記区画線の認識の安定性を検出する安定性検出手段を備え、
    前記認識手段は、前記車両の状況として、前記安定性検出手段により検出された前記安定性を用いる請求項1〜11のいずれかに記載の走行区画線認識装置。
  13. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記複数の認識モデルのそれぞれについて、前記区画線の認識の安定性を検出する安定性検出手段と、を備え、
    前記認識手段は、前記車両の状況として、前記安定性検出手段により検出された前記安定性を用いる走行区画線認識装置。
  14. 前記車両の走行状態を検出する走行状態検出手段を備え、
    前記認識手段は、前記車両の状況として、前記走行状態検出手段により検出された前記走行状態を用いる請求項1〜13のいずれかに記載の走行区画線認識装置。
  15. 車載カメラ(10)により撮影された車両前方の画像に基づき、認識モデルを用いて道路の車線を区画する区画線を認識する走行区画線認識装置(20)であって、
    前記認識モデルは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、もしくは、直線を考慮した1次モデル、定常カーブを考慮した2次モデル、及びクロソイドカーブを考慮した3次モデルのうちの少なくとも2つのモデル、を含み、
    前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合することにより、もしくは、前記車両の状況に応じて用いる前記認識モデルを切替えることにより、前記区画線を認識する認識手段と、
    前記車両の走行状態を検出する走行状態検出手段と、を備え、
    前記認識手段は、前記車両の状況として、前記走行状態検出手段により検出された前記走行状態を用いる走行区画線認識装置。
  16. 前記認識手段は、前記車両の状況に応じて複数の前記認識モデルによる認識結果を統合して前記区画線を認識する場合に、前記車両の状況に応じて前記複数の認識モデルによる認識結果の統合比率を変更する請求項1〜15のいずれかに記載の走行区画線認識装置。
  17. 前記道路の路面環境又は前記道路の属性を取得する道路情報取得手段を備え、
    前記認識手段は、前記車両の状況として、前記道路情報取得手段により取得された前記路面環境又は前記属性を用いる請求項1〜16のいずれかに記載の走行区画線認識装置。
JP2014238077A 2014-11-25 2014-11-25 走行区画線認識装置 Active JP6449627B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014238077A JP6449627B2 (ja) 2014-11-25 2014-11-25 走行区画線認識装置
US14/949,593 US20160148059A1 (en) 2014-11-25 2015-11-23 Travel lane marking recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238077A JP6449627B2 (ja) 2014-11-25 2014-11-25 走行区画線認識装置

Publications (2)

Publication Number Publication Date
JP2016099887A JP2016099887A (ja) 2016-05-30
JP6449627B2 true JP6449627B2 (ja) 2019-01-09

Family

ID=56010549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238077A Active JP6449627B2 (ja) 2014-11-25 2014-11-25 走行区画線認識装置

Country Status (2)

Country Link
US (1) US20160148059A1 (ja)
JP (1) JP6449627B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230093275A (ko) * 2020-10-14 2023-06-27 우이시 (상하이) 오토모티브 테크놀로지스 리미티드 교통 혼잡 감지 방법, 장치, 전자 기기 및 저장 매체

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116369A (ja) * 2017-01-16 2018-07-26 株式会社Soken 車線認識装置
JP6889005B2 (ja) 2017-04-05 2021-06-18 株式会社Soken 道路パラメータ推定装置
US11273836B2 (en) * 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
FR3082162B1 (fr) * 2018-06-11 2020-06-05 Renault S.A.S Procede et dispositif de mise au point d'une boucle fermee d'un dispositif d'aide a la conduite avance
JP7359715B2 (ja) * 2020-02-14 2023-10-11 株式会社Soken 道路形状推定装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7151996B2 (en) * 2000-04-14 2006-12-19 Mobileye Technologies Limited System and method for generating a model of the path of a roadway from an image recorded by a camera
JP3780848B2 (ja) * 2000-12-27 2006-05-31 日産自動車株式会社 車両の走行路認識装置
JP5141599B2 (ja) * 2009-03-06 2013-02-13 日産自動車株式会社 車線認識装置及び方法
JP5618744B2 (ja) * 2010-05-26 2014-11-05 三菱電機株式会社 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法
JP2012212282A (ja) * 2011-03-31 2012-11-01 Honda Elesys Co Ltd 路面状態検出装置、路面状態検出方法、及び路面状態検出プログラム
US20130141520A1 (en) * 2011-12-02 2013-06-06 GM Global Technology Operations LLC Lane tracking system
JP5926080B2 (ja) * 2012-03-19 2016-05-25 株式会社日本自動車部品総合研究所 走行区画線認識装置およびプログラム
JP6270102B2 (ja) * 2012-10-10 2018-01-31 株式会社リコー 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230093275A (ko) * 2020-10-14 2023-06-27 우이시 (상하이) 오토모티브 테크놀로지스 리미티드 교통 혼잡 감지 방법, 장치, 전자 기기 및 저장 매체
KR102671660B1 (ko) * 2020-10-14 2024-06-04 우이시 (상하이) 오토모티브 테크놀로지스 리미티드 교통 혼잡 감지 방법, 장치, 전자 기기 및 저장 매체

Also Published As

Publication number Publication date
US20160148059A1 (en) 2016-05-26
JP2016099887A (ja) 2016-05-30

Similar Documents

Publication Publication Date Title
JP6449627B2 (ja) 走行区画線認識装置
JP6189815B2 (ja) 走行区画線認識システム
JP6804596B2 (ja) 処理装置
JP6544445B2 (ja) 車両の走行制御方法および車両の走行制御装置
US9077958B2 (en) Road departure warning system
JP6462328B2 (ja) 走行制御システム
US10147002B2 (en) Method and apparatus for determining a road condition
US10964217B2 (en) Travel control method and travel control apparatus
US20190156129A1 (en) Traveling Road Boundary Estimation Apparatus and Traveling Assistance System Using Same
JP6285321B2 (ja) 道路形状認識装置
US9360332B2 (en) Method for determining a course of a traffic lane for a vehicle
JP6626410B2 (ja) 自車位置特定装置、自車位置特定方法
JP6140658B2 (ja) 走行区画線認識装置、走行区画線認識プログラム
US20120277990A1 (en) Method and apparatus for determining a plausible lane for guiding a vehicle and an automobile
JP2006209511A (ja) 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
WO2020066505A1 (ja) 認識装置
JP2006209510A (ja) 画像認識装置及び画像認識方法
JP4232806B2 (ja) 車両制御装置
JP6828655B2 (ja) 自車位置推定装置
JP2016081361A (ja) 走行区画線認識装置
WO2015098510A1 (ja) 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法
JP6426512B2 (ja) 走行区画線認識装置
JP6143184B2 (ja) 走行可否判定装置
JP2020125988A (ja) 進入車線推定システム、進入車線推定方法、及び進入車線推定プログラム
JP2018206071A (ja) 区画線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181206

R150 Certificate of patent or registration of utility model

Ref document number: 6449627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250