JP4843880B2 - Road environment detection device - Google Patents

Road environment detection device Download PDF

Info

Publication number
JP4843880B2
JP4843880B2 JP2001242804A JP2001242804A JP4843880B2 JP 4843880 B2 JP4843880 B2 JP 4843880B2 JP 2001242804 A JP2001242804 A JP 2001242804A JP 2001242804 A JP2001242804 A JP 2001242804A JP 4843880 B2 JP4843880 B2 JP 4843880B2
Authority
JP
Japan
Prior art keywords
roadside
host vehicle
vehicle
detected
traveling direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001242804A
Other languages
Japanese (ja)
Other versions
JP2003058997A (en
Inventor
琢 高浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2001242804A priority Critical patent/JP4843880B2/en
Publication of JP2003058997A publication Critical patent/JP2003058997A/en
Application granted granted Critical
Publication of JP4843880B2 publication Critical patent/JP4843880B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Controls For Constant Speed Travelling (AREA)
  • Regulating Braking Force (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、自車両周辺の走行路環境を検出する走行路環境検出装置に関し、特に検出された自車両周辺の物体が路側構造物であるか否かを判定するのに好適なものである。
【0002】
【従来の技術】
このような走行路環境検出装置としては、例えば特開2000−56019号公報に記載されるものがある。この走行路環境検出装置は、レーザレーダの照射範囲を複数の領域に区切り、各領域の受信強度から物体の存在を判定するものであり、各検出領域の受信強度を加算した値と加算しない値との比較を行い、その比較結果に基づいて、路側リフレクタを含む場合には、受信強度を加算しない検出領域の距離で補正を行うことにより、路側リフレクタと先行車両とを区別できるようにしている。
【0003】
【発明が解決しようとする課題】
ところで、前記路側リフレクタのように、形状が小さく、反射強度の強い物体は横方向(車両幅方向)の位置を精度よく検出することが困難である。その原因は、車両のように一つの物体の両側端部の二つのリフレクタの中心座標の平均化によって精度を向上することができないこと、形状が小さいためにレーザレーダ等のスキャニングの間隔に埋もれる場合があること、反射波が比較的乱れて戻るために実際の形状以上の大きさを持つ物体として誤検出する場合があることなどが挙げられる。従って、前記従来の走行路環境検出装置では、先行車両と路側構造体とを区別して検出することはできても、路側構造体自体の横位置を精度よく検出することは困難である。
【0004】
本発明は、上記諸問題を解決するために開発されたものであり、路側リフレクタのような路側構造体の位置を精度よく検出することができる走行路環境検出装置を提供することを目的とするものである。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明のうち請求項1に係る走行路環境検出装置は、自車両の走行状態を検出する自車両走行状態検出手段と、自車両周辺の物体を検出する物体検出手段と、前記物体検出手段で検出された物体が路側構造物である可能性を算出する路側構造物可能性算出手段と、前記路側構造物可能性算出手段で算出された路側構造物である可能性が高いときに、前記自車両走行状態検出手段で検出された自車両の走行状態に応じて、当該路側構造物である可能性が高い物体の位置情報を変更する路側構造物位置情報変更手段と、自車両の将来の進行方向を算出する自車両進行方向算出手段と、前記物体検出手段で検出された複数の物体がなす自車両進行方向への曲線の状態を検出する物体群曲線状態検出手段と、前記物体検出手段で検出された物体に接触するときの自車両の速度を低減するための制動力及び自車両が走行している車線を逸脱しないための制動力を制御する制動力制御手段と、を備え
前記物体検出手段で検出された物体に接触するときの自車両の速度を低減するための制動力は、前記自車両が備える全ての車輪に均等に分配される制動力であり、
前記自車両が走行している車線を逸脱しないための制動力は、前記自車両が備える左輪または自車両が備える右輪のみにかかる制動力であり、
前記制動力制御手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状態検出手段で検出された複数の物体がなす曲線との平面視角度が小さいほど、前記自車両が走行している車線を逸脱しないための制動力の割合を大きくし、
前記物体群曲線状態検出手段で検出された複数の物体がなす曲線は、前記路側構造物である可能性が高い複数の物体がなす曲線であることを特徴とするものである。
【0006】
本発明の路側構造物とは、例えば路側リフレクタのように、路側に沿って連続的に配設されているものを想定している。例えば路側構造物が路側リフレクタである場合、複数の路側リフレクタを群として捉えて走行路の路側とすることができるので、その路側と自車両の走行状態との関係から、路側構造物である可能性が高い物体の位置情報を適切に変更して、後段の制御系や認識系に出力するようにした。
【0007】
また、本発明のうち請求項2に係る走行路環境検出装置は、前記請求項1の発明において、自車両進行方向の走行路の曲率を検出する走行路曲率検出手段を備え、前記路側構造物可能性算出手段は、前記走行路曲率検出手段で検出された走行路の曲率及び前記物体群曲線状態検出手段で検出された複数の物体がなす曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出することを特徴とするものである。
【0008】
また、本発明のうち請求項3に係る走行路環境検出装置は、前記請求項1又は2の発明において、記路側構造物可能性算出手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向及び前記物体群曲線状態検出手段で検出された複数の物体がなす曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出することを特徴とするものである。
【0009】
また、本発明のうち請求項4に係る走行路環境検出装置は、前記請求項1乃至3の何れかの発明において、自車両周辺の走行路環境を撮像する走行路環境撮像手段と、路側構造物の形態を記憶する路側構造物形態記憶手段とを備え、前記路側構造物可能性算出手段は、前記走行路環境撮像手段で撮像された走行路環境の中から抽出された前記物体検出手段で検出された物体の形態と前記路側構造物形態記憶手段で記憶されている路側構造物の形態との類似性に基づいて当該物体が路側構造物である可能性を算出することを特徴とするものである。
【0010】
また、本発明のうち請求項5に係る走行路環境検出装置は、前記請求項1乃至4の何れかの発明において、記路側構造物位置情報変更手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状態検出手段で検出された複数の物体がなす曲線との平面視角度が所定値以上であるときに、当該自車両の将来の進行方向と複数の物体がなす曲線との交点を、それらの物体群の位置情報とすることを特徴とするものである。
【0011】
また、本発明のうち請求項6に係る走行路環境検出装置は、前記請求項1乃至5の何れかの発明において、記路側構造物位置情報変更手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状検出手段で検出された複数の物体がなす曲線との平面視角度が所定値未満か、若しくはその角度が得られないときに、それら複数の物体からなる物体群の中心位置を当該物体群の位置情報とすることを特徴とするものである。
【0012】
また、本発明のうち請求項7に係る走行路環境検出装置は、前記請求項1乃至6の何れかの発明において、記路側構造物位置情報変更手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状検出手段で検出された複数の物体がなす曲線との交点に自車両が到達するまでの時間を求め、その時間が所定値より小さいときに、当該自車両の将来の進行方向と複数の物体がなす曲線との交点を、それらの物体群の位置情報とすることを特徴とするものである。
【0014】
【発明の効果】
而して、本発明のうち請求項1に係る走行路環境検出装置によれば、検出された物体が路側構造物である可能性を算出し、その可能性が高いときに、自車両の走行状態に応じて、当該路側構造物である可能性が高い物体の位置情報を変更する構成としたため、例えば当該路側構造物である可能性が高い複数の物体群と自車両とが接触するような場合には、自車両の将来の進行方向と物体との接触点を物体の位置情報とするといったように、その物体の位置情報を用いた適切な制御や認識を可能とすることができ、その分だけ、路側リフレクタなどの路側構造物の位置精度を向上することができる。
また、本発明のうち請求項1に係る走行路環境検出装置によれば、検出された物体に接触するときの自車両の速度を低減するための制動力及び自車両が走行している車線を逸脱しないための制動力を制御可能とし、算出された自車両の将来の進行方向と検出された複数の物体がなす曲線との平面視角度が小さいほど、自車両が走行している車線を逸脱しないための制動力の割合を大きくする構成としたため、自車両が路側構造物と考えられる物体群に向かって進行していないときには走行車線を逸脱しないように制動力を制御し、自車両が路側構造物と考えられる物体群に向かって進行しているときには物体に接触するときの自車両の速度を低減するように制動力を制御することが可能となる。
【0015】
また、本発明のうち請求項2に係る走行路環境検出装置によれば、検出された走行路の曲率及び検出された複数の物体がなす曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出する構成としたため、複数の物体がなす曲線の状態が検出された走行路の曲率に合致又はほぼ合致していれば、例えばそれらの物体は、路側リフレクタのように路側に沿って連続的に配設された路側構造物であると判定することができるので、物体が路側構造物である可能性を正確に算出することが可能となる。
【0016】
また、本発明のうち請求項3に係る走行路環境検出装置によれば、算出された自車両の将来の進行方向及び検出された複数の物体がなす曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出する構成としたため、複数の物体がなす曲線の状態が算出された自車両の将来の進行方向に合致又はほぼ合致していれば、例えばそれらの物体は、路側リフレクタのように路側に沿って連続的に配設された路側構造物であると判定することができるので、物体が路側構造物である可能性を正確に算出することが可能となる。
【0017】
また、本発明のうち請求項4に係る走行路環境検出装置によれば、撮像された走行路環境の中から抽出された物体の形態と記憶されている路側構造物の形態との類似性に基づいて当該物体が路側構造物である可能性を算出する構成としたため、例えばパターンマッチング等による形態の類似性に基づいて、物体が路側構造物である可能性を正確に算出することが可能となる。
【0018】
また、本発明のうち請求項5に係る走行路環境検出装置によれば、算出された自車両の将来の進行方向と複数の物体がなす曲線との平面視角度が所定値以上であるとき、即ち自車両がそれらの物体群に向かって進行すると考えられるときに、当該自車両の将来の進行方向と複数の物体がなす曲線との交点を、それらの物体群の位置情報とする構成としたため、それらの物体群が路側リフレクタのように路側に沿って連続的に配設されたものであるときに、自車両が走行路の路側に接触する位置或いはそれを超えて逸脱する位置を精度よく検出することが可能となる。
【0019】
また、本発明のうち請求項6に係る走行路環境検出装置によれば、算出された自車両の将来の進行方向と検出された複数の物体がなす曲線との平面視角度が所定値未満か、若しくはその角度が得られないとき、即ち自車両がそれらの物体群に向かって進行していないと考えられるときに、それら複数の物体からなる物体群の中心位置を当該物体群の位置情報とする構成としたため、それらの物体群が路側リフレクタのように路側に沿って連続的に配設されたものであるときに、自車両走行路の路側の全体的な横位置を精度よく検出することが可能となる。
【0020】
また、本発明のうち請求項7に係る走行路環境検出装置によれば、算出された自車両の将来の進行方向と検出された複数の物体がなす曲線との交点に自車両が到達するまでの時間を求め、その時間が所定値より小さいときに、当該自車両の将来の進行方向と複数の物体がなす曲線との交点を、それらの物体群の位置情報とする構成としたため、それらの物体群が路側リフレクタのように路側に沿って連続的に配設されたものであるときに、自車両が走行路の路側に接触する位置或いはそれを超えて逸脱する可能性があるときに、その位置を精度よく検出することが可能となる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
図1は本発明の走行路環境検出装置を適用した先行車両追従走行装置付き車両の一実施形態を示すシステム構成図である。外界認識装置1には、スキャニング式レーザレーダ2で走査した結果から、自車両前方の物体を抽出するレーダ処理装置3が接続されている。このレーダ処理装置3は、検出された一つ或いは複数の物体に対して自車両を原点とする二次元座標値、即ち検出物体の位置を算出する機能が付加されている。
【0023】
また、前記外界認識装置1には、CCDカメラ4で撮像された自車両前方の画像から自車両の走行レーンを検出する画像処理装置5が接続されている。前記CCDカメラ4は、自車両前方の状況を広角且つ高速に把握できるプログレッシブスキャン式のものであり、また前記画像処理装置5は、前記レーダ処理装置3で検出された物体の形態と、予め記憶されている路側リフレクタ等の路側構造物の形態とをパターンマッチングによって比較し、その物体が路側構造物である可能性を算出する機能が付加されている。
【0024】
更に、前記外界認識装置1には、自車両の走行状態を検出するための車速センサ6及び操舵角センサ7が接続されている。前記車速センサ6は、従動輪である後輪の回転速度から自車両の走行速度Vを検出するものである。また、前記操舵角センサ7は、ステアリングホイールの操舵角δを検出するものである。なお、この車両には、図示しないエンジン回転センサ、トルクコンバータのトルク比を検出するトルク比センサ(回転数比センサ)、自動変速比の変速比を検出するギヤ比センサ(変速機コントローラ)等が備えられている。
【0025】
そして、前記外界認識装置1では、例えば後述する演算処理から、前記検出物体が路側リフレクタ等の路側構造物であるか否かを判定し、それが路側構造物であると判定された場合には、自動ブレーキ制御装置8が、当該路側構造物に接触しないようにするか、若しくは接触するときの速度を低減するための制動力を算出し、その制動力に応じて負圧ブレーキブースタ9を作動し、各車輪に制動力を付与して路側構造物との接触を回避したり、或いは接触時の速度を低減したりする。また、外界認識装置1で、前記障害物候補が障害物ではなく、自車両と同等の速度で走行する先行車両であると判断された場合には、図示されない先行車両追従走行制御装置に判断結果を出力し、当該先行車両追従走行制御装置は、エンジンの出力と各車輪への制動力とを制御して先行車両に追従走行する制御を行う。なお、前記外界認識装置1内の記憶装置には、例えば図7bに示すような路側リフレクタ等の路側構造物の形態がパターンとして記憶されている。
【0026】
前記外界認識装置1、レーダ処理装置3、画像処理装置5、自動ブレーキ制御装置8等は、夫々マイクロコンピュータとその周辺機器、並びに各アクチュエータを駆動するための駆動回路等を備えており、互いに通信回路を介して情報を送受信できるようになっている。
次に、前記自動ブレーキ制御装置8で行われる後述の障害物検出のための演算処理の原理について説明する。まず、自車両と検出物体との相対速度が検出されたときに自車両と当該検出物体とが接触する接触可能性の算出原理について説明する。
【0027】
例えば図2aに示すように、自車両の前端中央部を原点とする二次元直交座標において、障害物候補の相対位置及び相対速度が検出されたら、その相対速度ベクトルの横軸、即ち図中のX軸切片X0を算出する。自車両の幅がW0であるとき、前記相対速度ベクトルのX軸切片の絶対値|X0|が自車両の幅の半分W0/2以下であるときに、障害物候補と自車両とが接触する可能性が高い。そこで、例えば図2bに示すように、前記相対速度ベクトルのX軸切片の絶対値|X0|が“0”であるときの接触可能性を“1.0(=100%)”とし、当該相対速度ベクトルのX軸切片の絶対値|X0|が自車両の幅の半分W0/2のときの接触可能性を“0.8(=80%)”とし、それより相対速度ベクトルのX軸切片の絶対値|X0|が大きいときには接触可能性が大きく減少するような接触可能性算出マップを設定し、実際に検出される障害物候補の相対位置及び相対速度から接触可能性を算出設定する。なお、この実施形態では、接触可能性が“0.8(=80%)”であるときに障害物と判定する。
【0028】
次に、前記外界認識装置1で行われる検出物体の位置情報変更の原理について説明する。例えば、前記レーダ処理装置3や画像処理装置5で検出された物体が、自車両周辺の車両や落下物であるときには、その位置情報を変更する必要はない。しかし、検出された物体が、路側リフレクタのような路側構造物であるときには、その存在位置情報を変更した方が、後段の制御系の制御、或いは認識系の認識に有効な場合が多い。
【0029】
前述のように路側リフレクタのような路側構造物は、その形状が非常に小さく、また反射強度が強いために、検出された位置情報、特に横方向の位置情報精度が低い。しかし、路側リフレクタのような路側構造物は、図3aに示すように、複数個連続して、且つ路側に沿って存在する場合が多い。図3bは、図3aの様子をレーザレーダでスキャニングして、そのスキャニング範囲内に存在する物体を検出したものである。ここで、制御システムとしては必要な場合にのみ、物体の正確な位置情報が得られればよく、全てを検出できる必要はないという条件を考慮し、通常は複数の路側構造物をまとめてグルーピングし、その物体群の中心位置に対して前述の障害物判定を行えばよい。一方、自車両の現在の走行状態とその履歴から、将来、路側構造物群との接触の可能性がある場合などには、当該路側構造物群と自車両の将来の進行方向との交点を物体群の位置とすれば、前述の障害物判定で確実に障害物と判定することができる。
【0030】
次に、前述のようにして検出された物体群が路側構造物群である可能性を算出する原理について説明する。この路側構造物群可能性算出原理は二つに大別される。一つは、前述のように路側リフレクタのような路側構造物が路側に沿って連続的に配設されている、即ちそれら路側構造物のなす曲線の状態は走行路の曲率と合致又はほぼ合致していることに着目したものであり、もう一つは画像情報として捉えた路側構造物の形態が予め記憶されている路側構造物の形態に類似しているか否かの判定、所謂パターンマッチングを行うものである。更に、前者に用いる走行路の曲率は、例えば白線などのレーンマーカーから検出するものと、将来の自車両の進行方向から推定するものが適用できる。
【0031】
まず、本実施形態では、図4に示すように、検出された物体群の平面視近似直線を求め、その傾き(平面視傾斜角度)Ai と切片Bi とを算出する。対象となる検出物体は、個々の距離が20m以内に接近して存在するもの、及び等間隔又はほぼ等間隔に存在するものとした。そして、前記画像処理装置5でレーンマーカー等から走行路の曲率が求められたときには、その走行路曲率とこの検出物体群近似直線とを比較し、その類似性から路側構造物の可能性を算出する。なお、図4中の座標x(0),y(0) 、座標x(1),y(1) 、座標x(2),y(2) は、前記自車両の前端中央部を原点とする二次元直交座標における各検出物体のx,y座標である。
【0032】
一方、自車両の将来の進行方向は以下のようにして算出する。操舵角速度と加速度が一定であるという仮定の下に、車速V及び操舵角δを用いて、下記2式に示す二輪モデルの並進・回転運動の合成から自車両の将来の移動軌跡を推定する。
【0033】
【数1】

Figure 0004843880
【0034】
ここで、式中、ψ' はヨーレートを、βはスリップ角を、mは自車両の質量を、Kf,Krは夫々前後輪のコーナリングパワーを、lf,lrは夫々自車両重心から前輪軸までの距離及び重心から後輪軸までの距離を、Iは車両中心旋回慣性を、sはラプラス演算子を示している。一方、図5に示すような前記自車両の前端中央部を原点とする二次元直交座標における自車両の推定軌跡を下記3式で表す。
【0035】
【数2】
Figure 0004843880
【0036】
ここで、式中、kはサンプリング番号、Δtは例えば0.1秒程度に設定されたサンプリング時間であり、β(k),δ(k) は、夫々、前記2式のラプラス領域から逆変換して求めたスリップ角とヨーレートである。従って、例えば3秒先の将来(k=1〜30)まで、前記2式及び3式の演算ループを回すことで、自車両の移動軌跡を推定することができ、更に3式のX,Yの値から最小二乗法により自車両移動軌跡の傾き(平面視傾斜角度)AV を求めることができる。なお、簡単のため、自車両移動軌跡を直線で近似する。
【0037】
このようにして得られた自車両の将来の進行方向、即ち将来の移動軌跡は、走行路の曲率に沿っているという前提から、この移動軌跡と前記検出物体群近似直線とを比較し、両者の類似性から路側構造物の可能性を算出する。一方、図6に示すように、前記検出物体が路側構造物である可能性が高いときに、前記自車両の将来の移動軌跡と当該検出物体群近似直線とのなす平面視角度Aが、例えば30°以上であるときには、自車両は路側構造物側に向けて走行していると考えられるから、それら路側構造物群が配設されている走行路の路側に接触する、或いはそれを超えて逸脱する可能性が高い。そのような場合には、前述のように、自車両の将来の移動軌跡と検出物体群近似直線との交点(x,y)を求め、その交点座標を検出物体群の位置情報とする。同様の理由により、前記自車両の将来の移動軌跡と検出物体群近似直線との交点(x,y)に自車両が到達する時間t=(x +y 1/2が、例えば3秒以下であるときにも、当該交点座標を検出物体群の位置情報とする。これら以外であるときには、前述のように検出物体の中心位置を位置情報とする。
【0038】
一方、前記パターンマッチングは、以下のようにして行う。まず、図7aに示すように、検出した物体の前記自車両の前端中央部を原点とする二次元直交座標における位置座標を、下記4式に従って、前記CCDカメラ4で撮像した画像上の座標に変換し、レーダで検出した物体の位置におけるカメラ撮像画像上の画像領域p1 を抽出する。
【0039】
【数3】
Figure 0004843880
【0040】
ここで、式中、pix-v,pix-u は画像上の縦・横方向の座標であり、pix-w,pix-h は抽出した画像領域の幅と高さを示す。また、fはCCDカメラ4のレンズから受光面までの距離を画素換算した値であり、Hはカメラ取付け高さ、x,yは、夫々、レーダで検出した物体との横方向・縦方向の距離を示し、w,hは、夫々、例えば二次元スキャニング式レーザレーダで検出した物体の横幅と高さを示している。
【0041】
次に、図7bに示すように、前記抽出した画像領域p1 に対し、最も類似していると考えられる路側リフレクタなどの路側構造物の像p2 を選出し、例えば図7cに示すように、両者の像の最も左上方にあるエッジを注目点とし、その注目点を、像の左隅部を原点とする極座標(r1 ,θ1 )、(r2 ,θ2 )で表し、図7dに示すように、それらをベクトルとして重ね合わせた後、その合成ベクトルの余弦値から類似性を判定する。なお、この実施形態では、抽出画像p1 の四隅について同様に判定を行い、それらの合計を4で割って正規化する。
【0042】
次に、前述した原理に従って、検出物体の位置情報を算出出力する演算処理について、図8のフローチャートを用いて説明する。この演算処理は、所定のサンプリング周期ΔT(例えば10msec. )毎にタイマ割込処理される。なお、このフローチャートでは、特に通信のためのステップを設けていないが、例えばフローチャート中で得られた情報は随時記憶装置に記憶されるし、必要な情報は随時記憶装置から読出される。
【0043】
この演算処理のステップS1では、前記車速センサ6で検出された自車速度VSP、操舵角センサ7で検出された操舵角θを読込み、自車速度VSPを時間微分して自車加速度dVSP/dtを算出すると共に、読込んだ操舵角θを下記1式で示す疑似微分器で微分して操舵角速度dθ/dtを算出する。
G(Z)=(cZ2 −c)/(Z2 −aZ+b) ……… (1)
但し、式中、Zは時間進み演算子、a、b、cは夫々正数である。
【0044】
次にステップS2に移行して、前述のように二輪モデルを用いて、自車両の進行方向の移動軌跡を算出し、その平面視傾斜角度AV を求める。
次にステップS3に移行して、例えばこの演算処理が行われる10回に一度、つまり100msec. 毎(レーザレーダ処理装置3の処理周期に相当)に前記レーザレーダ2(実質的にはレーザレーダの処理装置3)の測距結果から検出物体を抽出し、自車両に対する検出物体の相対位置を前記自車両を原点とする二次元直交座標における(x、y)座標として読込む。なお、検出物体をロストしたときや新たに捕捉したときのように、測距状況に変化が生じると、入出力変数の全ての過去値を現在の測距値にセットし直すように構成されている。
【0045】
次にステップS4に移行して、例えばこの演算処理が行われる5回に一度、つまり50msec. 毎(画像処理装置5の処理周期に相当)に前記CCDカメラ4(実質的には画像処理装置5)の撮像画像から自車両走行レーンのレーンマーカー(図では白線)を検出し、走行車線の曲率r等の形状を検出する。なお、これと共に、例えば特開平11−296660号公報に記載されるように、走行車線に対する自車両のヨー角、走行車線中央からの自車両の横位置等を算出するようにしてもよい。
【0046】
次にステップS5に移行して、前述のように検出物体群の近似直線を求め、その平面視傾斜角度Ai と自車両正面軸への切片Bi を算出する。
次にステップS6に移行して、前記ステップS4で検出した走行車線の曲率rと前記ステップS5で算出した検出物体群の近似直線の平面視傾斜角度Ai とから、下記5式に従って、検出された物体(群)が路側構造物である可能性P1 を算出する。
【0047】
P1 =f2 (f1 (r)ー|Ai |) ……… (5)
ここで、式中のf1 は、図9に示すように、走行車線の曲率rを、前記自車両を原点とする二次元直交座標における傾き、即ち平面視傾斜角度に変換する関数であり、曲線路ほど大きな値となる。また、式中のf2 は、図10に示すように、前記関数f1 によって変換された走行車線の平面視傾斜角度と前記検出物体群近似直線の平面視傾斜角度Ai とが近しい(差が小さい)ときに大きな値を出力する関数である。従って、算出される可能性P1 は、正規化された0〜1の範囲内で、値が大きいほど、検出物体(群)が路側構造物である可能性が高いことを示している。
【0048】
次にステップS7に移行して、前記ステップS2で算出した自車両の将来の進行方向の移動軌跡の平面視傾斜角度AV と前記ステップS5で算出した検出物体群の近似直線の平面視傾斜角度Ai とから、下記6式に従って、検出された物体(群)が路側構造物である可能性P2 を算出する。
P2 =f2 (|AV |ー|Ai |) ……… (6)
ここで、式中のf2 は、前述と同様に、自車両の移動軌跡の平面視傾斜角度AV と前記検出物体群近似直線の平面視傾斜角度Ai とが近しい(差が小さい)ときに大きな値を出力する関数である。従って、算出される可能性P2 は、正規化された0〜1の範囲内で、値が大きいほど、検出物体(群)が路側構造物である可能性が高いことを示している。
【0049】
次にステップS8に移行して、前述のように、検出物体(群)のあるカメラ画像上の領域p1 を抽出し、その領域の画像と予め記憶した路側構造物の画像パターンp2 との比較から、下記7式に従って、検出された物体(群)が路側構造物である可能性P3 を算出する。
P3 =f5 (r1 ーr2 )・cos(|θ1 ーθ2 |) ……… (7)
ここで、式中のf5 は、図11に示すように、抽出されたカメラ画像領域p 1の特徴点と予め記憶された路側構造物の画像p2 の特徴点とが近しい(差が小さい)ときに大きな値を出力する関数である。従って、算出される可能性P3 は、正規化された0〜1の範囲内で、値が大きいほど、検出物体(群)が路側構造物である可能性が高いことを示している。
【0050】
次にステップS9に移行して、前記ステップS6で算出した路側構造物可能性P1 が0.7以上であるか、或いは前記ステップS7で算出した路側構造物可能性P2 が0.75以上であるか、或いは前記ステップS8で算出した路側構造物可能性P3 が0.9以上である場合に検出した物体群が路側構造物である可能性が高いとしてステップS10に移行し、そうでない場合にステップS11に移行する。
【0051】
前記ステップS10では、前記ステップS2で二輪モデルを用いて算出した自車両の移動軌跡と前記ステップS5で算出した検出物体群の近似直線との交点を求め、その交点が自車両の移動軌跡上にあるときに、当該移動軌跡と検出物体群の近似直線とのなす角度(平面視)AC を求めると共に、接触可能性フラグfAcを“1”にセットし、そうでないときには接触可能性フラグfAcは“0”にリセットしてからステップS12に移行する。
【0052】
前記ステップS12では、前記接触可能性フラグfAcが“1”のセット状態であり、且つ前述のように前記ステップS10で算出した自車両移動軌跡と検出物体群近似直線との平面交差角度の絶対値|AC |が30°以上であるか否かを判定し、当該接触可能性フラグfAcが“1”のセット状態であり、且つ当該平面交差角度の絶対値|AC |が30°以上である場合にはステップS13に移行し、そうでない場合にはステップS14に移行する。
【0053】
前記ステップS14では、前記接触可能性フラグfAcが“1”のセット状態であり、且つ前述のように前記自車両の将来の移動軌跡と検出物体群近似直線との交点(xC ,yC )に自車両が到達する時間tC =(xC 2 +yC 2 1/2 が3秒以下であるか否かを判定し、当該接触可能性フラグfAcが“1”のセット状態であり、且つ当該交点(xC ,yC )に自車両が到達する時間tC が3秒以下である場合には前記ステップS13に移行し、そうでない場合にはステップS15に移行する。
【0054】
前記ステップS13では、前述のように前記ステップS10で求めた前記自車両の将来の移動軌跡と検出物体群近似直線との交点座標を検出物体(群)の位置情報として後段に出力してからステップS16に移行する。
一方、前記ステップS15では、前述のように前記ステップS5で求めた検出物体群の近似直線の中心座標を検出物体(群)の位置情報として後段に出力してから前記ステップS16に移行する。
【0055】
これに対し、前記ステップS11では、前記ステップS3で求めた検出物体座標を検出物体の位置情報として後段に出力してから前記ステップS16に移行する。
そして、前記ステップS16では、使用した種々の過去値を更新してからメインプログラムに復帰する。
【0056】
次に、前述した原理に従って、ブレーキアクチュエータ、即ち負圧ブレーキブースタ9への指令値を算出出力する演算処理について、図12のフローチャートを用いて説明する。この演算処理も、所定のサンプリング周期ΔT(例えば10msec. )毎にタイマ割込処理される。なお、このフローチャートでは、特に通信のためのステップを設けていないが、例えばフローチャート中で得られた情報は随時記憶装置に記憶されるし、必要な情報は随時記憶装置から読出される。
【0057】
この演算処理では、まずステップS21で、前記エンジン回転数、トルク比、ギヤ比といった自車両状態量の検出を行うと共に、前記図8の演算処理で算出出力された物体の相対位置情報を読込む。
次にステップS22に移行して、前記ステップS21で読込んだ検出物体の相対位置情報から相対速度ベクトルVr を算出し、前述のようにして障害物可能性を算出する。なお、相対速度ベクトルの算出は、前記1式のディジタルフィルタの係数をレーザレーダスキャニング周期毎に設計し直した疑似微分器から求めることができる。
【0058】
次にステップS23に移行して、前記ステップS22で算出した障害物可能性から、前述のように障害物が存在するか否かの判定を行い、障害物が存在する場合にはステップS24に移行し、そうでない場合にはステップS29に移行する。
前記ステップS24では、前記接触可能性フラグFAcが“1”のセット状態であり、且つ前記ステップS23で障害物であると判定された物体が、前記図8の演算処理で路側構造物であると判定されたものであるか否かを判定し、当該接触可能性フラグFAcが“1”のセット状態であり、且つ障害物であると判定された物体が路側構造物である場合にはステップS25に移行し、そうでない場合にはステップS26に移行する。
【0059】
前記ステップS25では、下記8式に従って速度低減ゲインKを算出してからステップS27に移行する。
K=f3 (AC ) ……… (8)
ここで、式中のf3 は、図13に示すように、前記図8の演算処理のステップS10で算出した自車両移動軌跡と検出物体群近似直線との平面交差角度の絶対値|AC |が大きいほど、つまり自車両が路側構造物に向かっているほど、大きな値を出力する関数である。
【0060】
また、前記ステップS26では、前記速度低減ゲインKを“0”としてから前記ステップS27に移行する。
前記ステップS27では、路側構造物側に向かって自車両が走行し、走行車線の路側に接触したり、或いは路側を超えて逸脱したりするときの速度を低減するための速度低減用制動力を発生する制動流体圧(図ではブレーキ圧)と、走行車線を逸脱しないようにするための車線逸脱防止用制動力を発生するブレーキ圧とを算出してからステップS28に移行する。具体的には、まず下記9式に従って目標減速度αCAを算出し、それを達成するためのブレーキトルクTbrk を下記10式に従って、そのブレーキトルクTbrk を発生するためのブレーキ圧PCAを下記11式に従って算出する。
【0061】
【数4】
Figure 0004843880
【0062】
ここで、式中のVp は検出物体速度、Lは検出物体までの距離、Lt は目標車間距離、TW は駆動軸トルク、Rt はトルク比、Ratはギヤ比、Rdef はディファレンシャルギヤのギヤ比、Ne はエンジン回転数、Te はエンジン回転数Ne で決まるエンジンブレーキトルク、Je はエンジンイナーシャ、mは自車両質量、RW は車輪転がり動半径、Sb はブレーキシリンダ面積、Rb はブレーキロータ半径、μb はブレーキパッド摩擦係数であり、ブレーキ圧は四輪に均等に分配されるものとする。また、制動制御開始タイミングは、下記12式で表れる検出物体接触までの時間が3秒以下になったときである。
【0063】
【数5】
Figure 0004843880
【0064】
次に下記13式に従って車線逸脱防止用ブレーキ圧PLDを算出する。
【0065】
【数6】
Figure 0004843880
【0066】
ここで、式中、yV は前記図8の演算処理のステップS4で算出した走行車線中央に対する自車両横変位、ψは走行車線に対するヨー角、Tp は運転者が見ている前方注視点までの距離で、例えば40mとする。また、rは走行車線曲率、kは正のゲイン係数、f4 は図14に示す関数であり、算出される車線逸脱防止用ブレーキ圧PLDは、正値のときに右輪にだけ作用するブレーキ圧、負値のときに左輪にだけ作用するブレーキ圧となり、ブレーキ圧を方輪にのみかけることにより自車両の進路を変更し、車線逸脱を防止するものである。
【0067】
前記ステップS28では、下記14式に従って、前記ステップS25又はステップS26で設定した速度低減ゲインKを用いてブレーキアクチュエータへの指令値、即ちブレーキ圧Pbrkを算出出力してから前記ステップS29に移行する。
【0068】
【数7】
Figure 0004843880
【0069】
ここで、速度低減ゲインKが大きい、即ち自車両が路側構造物に向かっているときほど、速度を低減するための速度低減用ブレーキ圧が優先され、Kが小さく、自車両が路側構造物に向かっていないときには車線逸脱防止用ブレーキ圧が優先される。
このように、本実施形態の走行路環境検出装置によれば、検出された物体群をグループ化し、その検出物体群が路側構造物である可能性を算出し、その可能性が高いときに、自車両の走行状態に応じて、それらの物体群の位置情報を変更するようにしたため、路側構造物である可能性が高い物体群と自車両とが接触するような場合には、自車両の将来の移動軌跡と物体群近似直線との交点、即ち自車両の将来の進行方向と物体との接触点を物体の位置情報とするといったように、その物体の位置情報を用いた適切な制御や認識を可能とすることができ、その分だけ、路側リフレクタなどの路側構造物の位置精度を向上することができる。
【0070】
また、検出された走行路の曲率及び検出された物体群近似曲線(直線を含む)の状態に基づいてそれらの物体が路側構造物である可能性を算出するとか、算出された自車両の将来の移動軌跡(進行方向)及び検出された物体群近似曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出するとか、撮像された走行路環境の中から抽出された物体の形態と記憶されている路側構造物の形態との類似性に基づいて当該物体が路側構造物である可能性を算出するようにしたため、物体が路側構造物である可能性を正確に算出することが可能となる。
【0071】
また、算出された自車両の将来の移動軌跡(進行方向)と物体群近似曲線(直線を含む)との平面視角度が所定値以上であるとき、即ち自車両がそれらの物体群に向かって進行すると考えられるときや、算出された自車両の将来の移動軌跡(進行方向)と検出された物体群近似曲線との交点に自車両が到達するまでの時間が所定値より小さいときに、当該自車両の将来の移動軌跡と物体群近似曲線との交点を、それらの物体群の位置情報とするようにしたため、それらの物体群が路側リフレクタのように路側に沿って連続的に配設されたものであるときに、自車両が走行路の路側に接触する位置或いはそれを超えて逸脱する位置を精度よく検出することが可能となる。
【0072】
また、算出された自車両の将来の移動軌跡(進行方向)と検出された物体群近似曲線(直線を含む)との平面視角度が所定値未満か、若しくはその角度が得られないとき、即ち自車両がそれらの物体群に向かって進行していないと考えられるときに、物体群の中心位置を当該物体群の位置情報とする構成としたため、それらの物体群が路側リフレクタのように路側に沿って連続的に配設されたものであるときに、自車両走行路の路側の全体的な横位置を精度よく検出することが可能となる。
【0073】
また、算出された自車両の将来の移動軌跡(進行方向)と検出された物体群近似曲線(直線を含む)との平面視角度が小さいほど、自車両が走行している車線を逸脱しないための制動力の割合を大きくするようにしたため、自車両が路側構造物と考えられる物体群に向かって進行していないときには走行車線を逸脱しないように制動力を制御し、自車両が路側構造物と考えられる物体群に向かって進行しているときには物体に接触するときの自車両の速度を低減するように制動力を制御することが可能となる。
【0074】
以上より、前記車速センサ6、操舵角センサ7、図8の演算処理のステップS1が本発明の自車両状態検出手段を構成し、以下同様に、前記レーザレーダ2、レーダ処理装置3、図8の演算処理のステップS3が物体検出手段を構成し、前記図8の演算処理のステップS6〜ステップS8が路側構造物可能性算出手段を構成し、前記図8の演算処理のステップS9〜ステップS15が路側構造物位置情報変更手段を構成し、前記図8の演算処理のステップS4が走行路曲率検出手段を構成し、前記図8の演算処理のステップS5が物体群曲線状検出手段を構成し、前記図8の演算処理のステップS2が自車両進行方向算出手段を構成し、前記CCDカメラ4、画像処理装置5、図8の演算処理のステップS4が走行路環境撮像手段を構成し、前記外界認識装置1内の記憶装置が路側構造物形態記憶手段を構成し、前記図12の演算処理が制動力制御手段を構成している。
【0075】
なお、前記実施形態では、夫々の演算処理装置にマイクロコンピュータを用いたが、これに代えて各種の論理回路を用いることも可能である。
【図面の簡単な説明】
【図1】本発明の障害物検出装置を備えた先行車両追従走行制御付き車両の一例を示す車両構成図である。
【図2】障害物検出に必要な障害物候補相対速度ベクトルとその接触可能性の説明図である。
【図3】路側リフレクタの検出結果の説明図である。
【図4】検出物体群の近似直線の説明図である。
【図5】自車両の将来の移動軌跡の説明図である。
【図6】検出物体群の近似直線と自車両の将来の移動軌跡の説明図である。
【図7】パターンマッチングの説明図である。
【図8】図1の外界認識装置で行われる演算処理のフローチャートである。
【図9】図8の演算処理で用いられる制御マップである。
【図10】図8の演算処理で用いられる制御マップである。
【図11】図8の演算処理で用いられる制御マップである。
【図12】図1の自動ブレーキ制御装置で行われる演算処理のフローチャートである。
【図13】図12の演算処理で用いられる制御マップである。
【図14】図12の演算処理で用いられる制御マップである。
【符号の説明】
1は外界認識装置
2はレーザレーダ
3はレーザレーダ処理装置
4はCCDカメラ
5は画像処理装置
6は車速センサ
7は操舵角センサ
8は自動ブレーキ制御装置
9は負圧ブレーキブースタ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a traveling road environment detection device that detects a traveling road environment around the host vehicle, and is particularly suitable for determining whether or not the detected object around the host vehicle is a roadside structure.
[0002]
[Prior art]
An example of such a road environment detection device is disclosed in Japanese Patent Application Laid-Open No. 2000-56019. This traveling road environment detection device divides the irradiation range of the laser radar into a plurality of areas and determines the presence of an object from the reception intensity of each area, and a value that does not add the value obtained by adding the reception intensity of each detection area When the roadside reflector is included based on the comparison result, the roadside reflector and the preceding vehicle can be distinguished from each other by correcting with the distance of the detection area where the reception intensity is not added. .
[0003]
[Problems to be solved by the invention]
By the way, it is difficult to detect the position in the lateral direction (vehicle width direction) with high accuracy for an object having a small shape and strong reflection intensity, such as the roadside reflector. The cause is that the accuracy cannot be improved by averaging the center coordinates of the two reflectors at both ends of one object as in the case of a vehicle, and because the shape is small, it is buried in the scanning interval of laser radar etc. And the fact that the reflected wave is relatively disturbed and returned, so that it may be erroneously detected as an object having a size larger than the actual shape. Therefore, in the conventional traveling road environment detection device, it is difficult to accurately detect the lateral position of the road side structure itself even though the preceding vehicle and the road side structure can be distinguished and detected.
[0004]
The present invention has been developed to solve the above-described problems, and an object of the present invention is to provide a traveling road environment detection device that can accurately detect the position of a roadside structure such as a roadside reflector. Is.
[0005]
[Means for Solving the Problems]
  In order to achieve the above object, a traveling road environment detection device according to claim 1 of the present invention is a vehicle traveling state detection means for detecting a traveling state of the host vehicle, and an object detection for detecting an object around the host vehicle. A roadside structure possibility calculation means for calculating a possibility that the object detected by the object detection means is a roadside structure; and a roadside structure calculated by the roadside structure possibility calculation means Road-side structure position information changing means for changing position information of an object that is likely to be the road-side structure according to the running state of the own vehicle detected by the own-vehicle running state detecting means when the property is high WhenAn own vehicle traveling direction calculating means for calculating a future traveling direction of the own vehicle, and an object group curve state detecting means for detecting a state of a curve in the traveling direction of the own vehicle formed by a plurality of objects detected by the object detecting means. And braking force control means for controlling the braking force for reducing the speed of the host vehicle when contacting the object detected by the object detecting unit and the braking force for not deviating from the lane in which the host vehicle is traveling. When,With,
  The braking force for reducing the speed of the host vehicle when contacting the object detected by the object detection means is a braking force that is evenly distributed to all wheels of the host vehicle,
  The braking force not to deviate from the lane in which the host vehicle is traveling is the braking force applied only to the left wheel provided in the host vehicle or the right wheel provided in the host vehicle,
  The braking force control means has a small planar view angle between a future traveling direction of the host vehicle calculated by the host vehicle traveling direction calculating means and a curve formed by a plurality of objects detected by the object group curve state detecting means. As a result, the ratio of the braking force not to deviate from the lane in which the host vehicle is traveling is increased,
  A curve formed by a plurality of objects detected by the object group curve state detection means is a curve formed by a plurality of objects that are highly likely to be the roadside structure.It is characterized by this.
[0006]
The roadside structure of the present invention is assumed to be continuously arranged along the roadside, such as a roadside reflector. For example, when the roadside structure is a roadside reflector, a plurality of roadside reflectors can be regarded as a group and used as the roadside of the road, so the roadside structure can be a roadside structure because of the relationship between the roadside and the traveling state of the vehicle. The position information of highly object is appropriately changed and output to the control system and recognition system in the later stage.
[0007]
  According to a second aspect of the present invention, there is provided a traveling road environment detecting device according to the first aspect of the present invention, wherein the traveling road curvature detecting means detects the curvature of the traveling road in the traveling direction of the host vehicle.StepAnd the roadside structure possibility calculation means includes a curvature of the traveling road detected by the traveling road curvature detection means and a state of a curve formed by a plurality of objects detected by the object group curve state detection means. The possibility that the object is a roadside structure is calculated.
[0008]
  Moreover, in the invention of claim 1 or 2, the traveling road environment detection device according to claim 3 of the present invention,in frontThe roadside structure possibility calculating means is based on a future traveling direction of the host vehicle calculated by the host vehicle traveling direction calculating means and a state of a curve formed by a plurality of objects detected by the object group curve state detecting means. The possibility that these objects are roadside structures is calculated.
[0009]
According to a fourth aspect of the present invention, there is provided a road environment detection device according to any one of the first to third aspects, a road road environment imaging means for imaging a road road environment around the host vehicle, and a roadside structure. Roadside structure form storage means for storing the form of an object, and the roadside structure possibility calculation means is the object detection means extracted from the traveling road environment imaged by the traveling road environment imaging means. Calculating the possibility that the object is a roadside structure based on the similarity between the form of the detected object and the form of the roadside structure stored in the roadside structure form storage means It is.
[0010]
  In addition, in the invention according to any one of the first to fourth aspects, the traveling road environment detection device according to the fifth aspect of the present invention includesin frontThe roadside structure position information changing unit is a plan view of a future traveling direction of the host vehicle calculated by the host vehicle traveling direction calculating unit and a curve formed by a plurality of objects detected by the object group curve state detecting unit. When the angle is equal to or greater than a predetermined value, an intersection of the future traveling direction of the host vehicle and a curve formed by a plurality of objects is used as position information of these object groups.
[0011]
  In addition, the traveling road environment detection device according to claim 6 of the present invention is the invention according to any one of claims 1 to 5,in frontThe roadside structure position information changing means includes a future traveling direction of the host vehicle calculated by the host vehicle traveling direction calculating unit and the object group curve shape.stateWhen the planar view angle with a curve formed by a plurality of objects detected by the detection means is less than a predetermined value or the angle cannot be obtained, the center position of the object group consisting of the plurality of objects is determined as the position of the object group. It is characterized by being information.
[0012]
  In addition, in the invention according to any one of the first to sixth aspects, the traveling road environment detection device according to the seventh aspect of the invention includes:in frontThe roadside structure position information changing means includes a future traveling direction of the host vehicle calculated by the host vehicle traveling direction calculating unit and the object group curve shape.stateThe time until the host vehicle reaches the intersection with the curve formed by the plurality of objects detected by the detecting means is obtained, and when the time is smaller than a predetermined value, the future traveling direction of the host vehicle and the plurality of objects are The intersection with the curve to be formed is used as positional information of these object groups.
[0014]
【The invention's effect】
  Thus, according to the traveling road environment detecting device according to claim 1 of the present invention, the possibility that the detected object is a roadside structure is calculated. Since the position information of an object that is likely to be the roadside structure is changed according to the state, for example, a plurality of object groups that are likely to be the roadside structure are in contact with the host vehicle. In this case, it is possible to enable appropriate control and recognition using the position information of the object, such as the point of contact between the object and the future traveling direction of the own vehicle. Accordingly, the positional accuracy of roadside structures such as roadside reflectors can be improved.
  Moreover, according to the traveling road environment detecting device according to claim 1 of the present invention, the braking force for reducing the speed of the host vehicle when contacting the detected object and the lane in which the host vehicle is traveling are determined. It is possible to control the braking force so as not to deviate, and the smaller the planar angle between the calculated future traveling direction of the own vehicle and the curved line formed by the detected objects, the more the vehicle deviates from the lane in which the own vehicle is traveling Since the ratio of the braking force is not increased, the braking force is controlled so that the vehicle does not deviate from the driving lane when the vehicle is not traveling toward the object group considered to be a roadside structure. When traveling toward an object group considered as a structure, the braking force can be controlled so as to reduce the speed of the host vehicle when contacting the object.
[0015]
Moreover, according to the traveling road environment detection device according to claim 2 of the present invention, these objects are roadside structures based on the detected curvature of the traveling road and the state of the curve formed by the detected plurality of objects. Since it is configured to calculate a certain possibility, if the state of the curve formed by a plurality of objects matches or substantially matches the curvature of the detected traveling road, for example, those objects follow the roadside like a roadside reflector. Therefore, it is possible to accurately calculate the possibility that the object is a roadside structure.
[0016]
According to the traveling road environment detecting device according to claim 3 of the present invention, based on the calculated future traveling direction of the own vehicle and the state of the curve formed by the detected plurality of objects, those objects are roadside. Since it is configured to calculate the possibility of being a structure, if the state of the curve formed by a plurality of objects matches or substantially matches the calculated future traveling direction of the vehicle, for example, those objects are roadside reflectors. Thus, since it can be determined that the roadside structures are continuously arranged along the roadside, it is possible to accurately calculate the possibility that the object is a roadside structure.
[0017]
According to the traveling road environment detecting device of the present invention, the similarity between the form of the object extracted from the captured traveling road environment and the form of the stored roadside structure is provided. Based on the configuration that calculates the possibility that the object is a roadside structure based on, for example, it is possible to accurately calculate the possibility that the object is a roadside structure based on, for example, pattern similarity Become.
[0018]
Moreover, according to the traveling road environment detection device according to claim 5 of the present invention, when the calculated planar view angle between the future traveling direction of the host vehicle and the curve formed by the plurality of objects is a predetermined value or more, That is, when the host vehicle is considered to travel toward the object group, the intersection of the future traveling direction of the host vehicle and the curve formed by the plurality of objects is used as the position information of the object group. When the object group is arranged continuously along the roadside like a roadside reflector, the position where the host vehicle contacts the roadside of the traveling road or the position where the vehicle deviates beyond it is accurately determined. It becomes possible to detect.
[0019]
According to the travel road environment detection device of the present invention, whether the calculated plane view angle between the calculated future traveling direction of the host vehicle and the curves formed by the detected plurality of objects is less than a predetermined value. Or when the angle cannot be obtained, that is, when it is considered that the host vehicle is not moving toward the object group, the center position of the object group composed of the plurality of objects is used as the position information of the object group. Therefore, when these object groups are arranged continuously along the roadside like a roadside reflector, the overall lateral position on the roadside of the vehicle traveling road can be detected accurately. Is possible.
[0020]
According to the traveling road environment detecting device according to claim 7 of the present invention, until the own vehicle reaches the intersection of the calculated future traveling direction of the own vehicle and the curve formed by the detected plurality of objects. When the time is smaller than a predetermined value, the intersection of the future traveling direction of the host vehicle and the curve formed by the plurality of objects is used as the position information of those object groups. When the object group is arranged continuously along the roadside like a roadside reflector, when the own vehicle may deviate from the position where it touches the roadside of the traveling road or beyond, The position can be detected with high accuracy.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a system configuration diagram showing an embodiment of a vehicle with a preceding vehicle following traveling device to which the traveling road environment detecting device of the present invention is applied. A radar processing device 3 that extracts an object ahead of the host vehicle from the result of scanning with the scanning laser radar 2 is connected to the external recognition device 1. The radar processing apparatus 3 is added with a function of calculating a two-dimensional coordinate value with the own vehicle as an origin, that is, a position of a detected object, for one or a plurality of detected objects.
[0023]
The external environment recognition device 1 is connected to an image processing device 5 that detects a traveling lane of the host vehicle from an image in front of the host vehicle captured by the CCD camera 4. The CCD camera 4 is of a progressive scan type capable of grasping the situation in front of the host vehicle at a wide angle and at a high speed, and the image processing device 5 stores the form of the object detected by the radar processing device 3 in advance. A function of comparing the form of a roadside structure such as a roadside reflector by pattern matching and calculating the possibility that the object is a roadside structure is added.
[0024]
Furthermore, a vehicle speed sensor 6 and a steering angle sensor 7 for detecting the traveling state of the host vehicle are connected to the external environment recognition device 1. The vehicle speed sensor 6 detects the traveling speed V of the host vehicle from the rotational speed of the rear wheel, which is a driven wheel. The steering angle sensor 7 detects a steering angle δ of the steering wheel. The vehicle includes an engine rotation sensor (not shown), a torque ratio sensor (rotational speed ratio sensor) for detecting the torque ratio of the torque converter, a gear ratio sensor (transmission controller) for detecting the gear ratio of the automatic gear ratio, and the like. Is provided.
[0025]
And in the said external field recognition apparatus 1, when the said detection object determines whether it is roadside structures, such as a roadside reflector, for example from the arithmetic processing mentioned later, and when it determines with it being a roadside structure, The automatic brake control device 8 calculates the braking force for preventing the contact with the roadside structure or reducing the speed at the time of contact, and operates the negative pressure brake booster 9 according to the braking force. Then, a braking force is applied to each wheel to avoid contact with the roadside structure, or to reduce the speed at the time of contact. Further, when the outside recognition device 1 determines that the obstacle candidate is not an obstacle but a preceding vehicle that travels at the same speed as the own vehicle, the determination result is given to a preceding vehicle follow-up travel control device (not shown). The preceding vehicle follow-up travel control device performs control to follow the preceding vehicle by controlling the output of the engine and the braking force to each wheel. The storage device in the external environment recognition device 1 stores a pattern of a roadside structure such as a roadside reflector as shown in FIG.
[0026]
The external recognition device 1, the radar processing device 3, the image processing device 5, the automatic brake control device 8 and the like each include a microcomputer and its peripheral devices, a drive circuit for driving each actuator, and the like, and communicate with each other. Information can be transmitted and received through a circuit.
Next, the principle of calculation processing for obstacle detection, which will be described later, performed by the automatic brake control device 8 will be described. First, the calculation principle of the possibility of contact where the host vehicle and the detected object come into contact when the relative speed between the host vehicle and the detected object is detected will be described.
[0027]
For example, as shown in FIG. 2a, when the relative position and the relative speed of the obstacle candidate are detected in the two-dimensional orthogonal coordinates with the center of the front end of the host vehicle as the origin, the horizontal axis of the relative speed vector, that is, An X-axis intercept X0 is calculated. When the width of the host vehicle is W0, the obstacle candidate and the host vehicle come into contact when the absolute value | X0 | of the X-axis intercept of the relative speed vector is equal to or less than half of the width of the host vehicle W0 / 2. Probability is high. Therefore, for example, as shown in FIG. 2b, the contact possibility when the absolute value | X0 | of the X-axis intercept of the relative velocity vector is “0” is set to “1.0 (= 100%)”. The contact probability when the absolute value | X0 | of the velocity vector X-axis intercept is half W0 / 2 of the width of the host vehicle is set to “0.8 (= 80%)”, and the X-axis intercept of the relative velocity vector When the absolute value of | X0 | is large, a contact possibility calculation map is set so that the contact possibility is greatly reduced, and the contact possibility is calculated and set from the relative position and relative speed of the obstacle candidate actually detected. In this embodiment, the obstacle is determined when the contact possibility is “0.8 (= 80%)”.
[0028]
Next, the principle of changing the position information of the detected object performed by the external environment recognition apparatus 1 will be described. For example, when the object detected by the radar processing device 3 or the image processing device 5 is a vehicle or a falling object around the host vehicle, it is not necessary to change the position information. However, when the detected object is a roadside structure such as a roadside reflector, changing the presence position information is often more effective for control of the control system in the subsequent stage or recognition of the recognition system.
[0029]
As described above, a roadside structure such as a roadside reflector has a very small shape and a high reflection intensity, so that the accuracy of detected position information, particularly in the lateral direction, is low. However, in many cases, a plurality of roadside structures such as roadside reflectors exist continuously along the roadside as shown in FIG. 3a. FIG. 3b is a diagram in which an object existing within the scanning range is detected by scanning the state of FIG. 3a with a laser radar. Here, it is necessary to obtain accurate position information of the object only when necessary as a control system, and it is not necessary to be able to detect all of them. Usually, a plurality of roadside structures are grouped together. The above-described obstacle determination may be performed on the center position of the object group. On the other hand, if there is a possibility of contact with the roadside structure group in the future based on the current running state of the host vehicle and its history, the intersection of the roadside structure group and the future traveling direction of the host vehicle is determined. If it is set as the position of the object group, it can be reliably determined as an obstacle by the above-described obstacle determination.
[0030]
Next, the principle of calculating the possibility that the object group detected as described above is a roadside structure group will be described. This roadside structure group possibility calculation principle is roughly divided into two. One is that roadside structures such as roadside reflectors are continuously arranged along the roadside as described above, that is, the state of the curve formed by these roadside structures matches or substantially matches the curvature of the road. The other is to determine whether the form of the roadside structure captured as image information is similar to the form of the roadside structure stored in advance, so-called pattern matching. Is what you do. Furthermore, as the curvature of the road used for the former, for example, those detected from lane markers such as white lines and those estimated from the traveling direction of the host vehicle in the future can be applied.
[0031]
First, in the present embodiment, as shown in FIG. 4, an approximate straight line of a detected object group in plan view is obtained, and its inclination (inclination angle in plan view) AiAnd intercept BiAnd calculate. The target detection objects were assumed to be close to each other within 20 m, and to be present at equal or almost equal intervals. When the curvature of the traveling road is obtained from the lane marker or the like by the image processing device 5, the traveling road curvature is compared with the detected object group approximate straight line, and the possibility of the roadside structure is calculated from the similarity. To do. Note that the coordinates x (0), y (0), coordinates x (1), y (1), and coordinates x (2), y (2) in FIG. X and y coordinates of each detected object in two-dimensional orthogonal coordinates.
[0032]
On the other hand, the future traveling direction of the host vehicle is calculated as follows. Under the assumption that the steering angular velocity and the acceleration are constant, the future movement trajectory of the host vehicle is estimated from the combination of the translational and rotational motions of the two-wheel model shown in the following equation (2) using the vehicle speed V and the steering angle δ.
[0033]
[Expression 1]
Figure 0004843880
[0034]
Where ψ ′ is the yaw rate, β is the slip angle, m is the mass of the host vehicle, Kf and Kr are the cornering powers of the front and rear wheels, and lf and lr are each from the center of gravity of the host vehicle to the front wheel axle. , I is the vehicle center turning inertia, and s is the Laplace operator. On the other hand, the estimated trajectory of the host vehicle in two-dimensional orthogonal coordinates with the origin at the center of the front end of the host vehicle as shown in FIG.
[0035]
[Expression 2]
Figure 0004843880
[0036]
Here, in the equation, k is a sampling number, Δt is a sampling time set to about 0.1 seconds, for example, and β (k) and δ (k) are inversely transformed from the Laplace region of the above two equations, respectively. The slip angle and yaw rate obtained from the above. Therefore, for example, by moving the calculation loops of Formula 2 and Formula 3 until the future (k = 1 to 30) ahead of 3 seconds, the movement trajectory of the host vehicle can be estimated. The inclination of the vehicle's trajectory (tilt angle in plan view) A by the least square method from the value ofVCan be requested. For the sake of simplicity, the vehicle trajectory is approximated by a straight line.
[0037]
  Based on the premise that the future traveling direction of the host vehicle thus obtained, that is, the future movement trajectory is along the curvature of the traveling road, the movement trajectory is compared with the detected object group approximate straight line. The possibility of a roadside structure is calculated from the similarity. On the other hand, as shown in FIG. 6, when there is a high possibility that the detected object is a roadside structure, a planar view angle A formed by a future movement locus of the host vehicle and the detected object group approximate straight lineCHowever, if it is 30 ° or more, for example, it is considered that the host vehicle is traveling toward the roadside structure side, so that it contacts the roadside of the roadway where the roadside structure group is disposed, or Is likely to deviate beyond. In such a case, as described above, the intersection (xC, YC) And the intersection coordinates are used as position information of the detected object group. For the same reason, the intersection of the future movement locus of the host vehicle and the detected object group approximate straight line (xC, YC) Time t when the host vehicle reachesC= (XC 2+ YC 2)1/2However, even when it is 3 seconds or less, for example, the intersection coordinates are used as position information of the detected object group. If it is other than these, as described above, the detected objectgroupThe center position of is used as position information.
[0038]
On the other hand, the pattern matching is performed as follows. First, as shown in FIG. 7a, the position coordinates of the detected object in the two-dimensional orthogonal coordinates with the origin at the center of the front end of the host vehicle are set to the coordinates on the image captured by the CCD camera 4 according to the following four formulas. An image region p1 on the image captured by the camera at the position of the object detected by the radar is extracted.
[0039]
[Equation 3]
Figure 0004843880
[0040]
In the equation, pix-v and pix-u are vertical and horizontal coordinates on the image, and pix-w and pix-h indicate the width and height of the extracted image area. Further, f is a pixel-converted distance from the lens of the CCD camera 4 to the light receiving surface, H is the camera mounting height, and x and y are the horizontal and vertical directions of the object detected by the radar, respectively. The distance is indicated, and w and h indicate the width and height of the object detected by, for example, a two-dimensional scanning laser radar.
[0041]
Next, as shown in FIG. 7b, an image p2 of a roadside structure such as a roadside reflector considered to be most similar to the extracted image region p1 is selected. For example, as shown in FIG. The edge at the upper left of the image is the point of interest, and the point of interest is represented by polar coordinates (r1, θ1), (r2, θ2) with the left corner of the image as the origin, as shown in FIG. Are superimposed as vectors, and similarity is determined from the cosine value of the combined vector. In this embodiment, the same determination is made for the four corners of the extracted image p1, and the sum is divided by 4 and normalized.
[0042]
Next, calculation processing for calculating and outputting the position information of the detected object according to the principle described above will be described with reference to the flowchart of FIG. In this calculation process, a timer interrupt process is performed every predetermined sampling period ΔT (for example, 10 msec.). In this flowchart, no particular communication step is provided. For example, information obtained in the flowchart is stored in the storage device as needed, and necessary information is read out from the storage device as needed.
[0043]
In step S1 of this calculation process, the vehicle speed V detected by the vehicle speed sensor 6 is detected.SPThe steering angle θ detected by the steering angle sensor 7 is read, and the vehicle speed VSPThe vehicle acceleration dVSPIn addition to calculating / dt, the steering angular velocity dθ / dt is calculated by differentiating the read steering angle θ with a pseudo-differentiator represented by the following equation (1).
G (Z) = (cZ2-C) / (Z2-AZ + b) ……… (1)
However, in the formula, Z is a time advance operator, and a, b, and c are positive numbers.
[0044]
Next, the process proceeds to step S2, where the movement trajectory in the traveling direction of the host vehicle is calculated using the two-wheel model as described above, and the plan view inclination angle A is calculated.VAsk for.
Next, the process proceeds to step S3. For example, the laser radar 2 (substantially the laser radar) is executed once every 10 times when the arithmetic processing is performed, that is, every 100 msec. (Corresponding to the processing period of the laser radar processing apparatus 3). The detected object is extracted from the distance measurement result of the processing device 3), and the relative position of the detected object with respect to the host vehicle is read as (x, y) coordinates in two-dimensional orthogonal coordinates with the host vehicle as the origin. In addition, it is configured to reset all past values of input / output variables to the current distance value when the distance measurement situation changes, such as when the detected object is lost or newly captured. Yes.
[0045]
Next, the process proceeds to step S4, and the CCD camera 4 (substantially the image processing device 5) is executed once every five times when this arithmetic processing is performed, that is, every 50 msec. (Corresponding to the processing cycle of the image processing device 5). ), The lane marker (white line in the figure) of the host vehicle travel lane is detected, and the shape such as the curvature r of the travel lane is detected. At the same time, as described in, for example, Japanese Patent Application Laid-Open No. 11-296660, the yaw angle of the host vehicle with respect to the traveling lane, the lateral position of the host vehicle from the center of the traveling lane, and the like may be calculated.
[0046]
Next, the process proceeds to step S5, where an approximate straight line of the detected object group is obtained as described above, and the inclination angle A in plan view is obtained.iAnd intercept B to the front axis of the vehicleiIs calculated.
Next, the process proceeds to step S6, where the curvature r of the traveling lane detected in step S4 and the approximate straight line inclination angle A of the detected object group calculated in step S5 are obtained.iFrom the above, the possibility P1 that the detected object (group) is a roadside structure is calculated according to the following equation (5).
[0047]
P1 = f2(F1(R)-| Ai|) ……… (5)
Where f in the formula1As shown in FIG. 9, is a function for converting the curvature r of the traveling lane into a tilt in two-dimensional orthogonal coordinates with the vehicle as the origin, that is, a tilt angle in plan view. Also, f in the formula2Is the function f as shown in FIG.1And the plane inclination angle A of the detected object group approximate straight line.iIt is a function that outputs a large value when and are close (small difference). Therefore, the calculated possibility P1 indicates that the detection object (group) is more likely to be a roadside structure as the value is larger within a normalized range of 0 to 1.
[0048]
Next, the process proceeds to step S7, and the plan view inclination angle A of the movement trajectory of the own vehicle calculated in step S2 in the future traveling direction.VAnd the plan view inclination angle A of the approximate straight line of the detected object group calculated in step S5.iFrom the above, the possibility P2 that the detected object (group) is a roadside structure is calculated according to the following six equations.
P2 = f2(| AV| ー | Ai|) ……… (6)
Where f in the formula2Is a plan view inclination angle A of the movement trajectory of the host vehicle, as described above.VAnd a tilt angle A in plan view of the detected object group approximate straight lineiIt is a function that outputs a large value when and are close (small difference). Therefore, the calculated possibility P2 indicates that the larger the value is within the normalized range of 0 to 1, the higher the possibility that the detected object (group) is a roadside structure.
[0049]
Next, the process proceeds to step S8, where, as described above, the area p1 on the camera image with the detected object (group) is extracted, and the image of the area is compared with the image pattern p2 of the roadside structure stored in advance. The possibility P3 of the detected object (group) being a roadside structure is calculated according to the following equation (7).
P3 = fFive(R1-r2) ・ cos (| θ1-θ2 |) ……… (7)
Where f in the formulaFive11 is a function that outputs a large value when the feature point of the extracted camera image region p 1 is close to the feature point of the road-side structure image p 2 stored in advance (the difference is small). It is. Accordingly, the calculated possibility P3 indicates that the larger the value is within the normalized range of 0 to 1, the higher the possibility that the detected object (group) is a roadside structure.
[0050]
Next, the process proceeds to step S9, where the roadside structure possibility P1 calculated in step S6 is 0.7 or more, or the roadside structure possibility P2 calculated in step S7 is 0.75 or more. Alternatively, if the roadside structure possibility P3 calculated in step S8 is 0.9 or more, the detected object group is likely to be a roadside structure, and the process proceeds to step S10. The process proceeds to S11.
[0051]
In step S10, an intersection point between the movement locus of the own vehicle calculated using the two-wheel model in step S2 and the approximate straight line of the detected object group calculated in step S5 is obtained, and the intersection point is on the movement locus of the own vehicle. An angle (plan view) A formed by the movement locus and the approximate straight line of the detected object group at a certain timeCAnd a contact possibility flag fAcIs set to “1”, otherwise contact possibility flag fAcIs reset to "0" and then the process proceeds to step S12.
[0052]
In step S12, the contact possibility flag fAcIs the set state of “1”, and the absolute value of the plane crossing angle | A between the vehicle trajectory calculated in step S10 and the detected object group approximate straight line as described above | ACIt is determined whether or not | is 30 ° or more, and the contact possibility flag fAcIs a set state of “1” and the absolute value of the plane crossing angle | ACIf | is 30 ° or more, the process proceeds to step S13; otherwise, the process proceeds to step S14.
[0053]
In step S14, the contact possibility flag fAcIs the set state of “1”, and as described above, the intersection (xC, YC) Time t when the host vehicle reachesC= (XC 2+ YC 2)1/2Is less than 3 seconds, the contact possibility flag fAcIs in the set state of “1” and the intersection (xC, YC) Time t when the host vehicle reachesCIf it is 3 seconds or less, the process proceeds to step S13. If not, the process proceeds to step S15.
[0054]
In step S13, as described above, the intersection coordinates of the future movement trajectory of the host vehicle obtained in step S10 and the detected object group approximate straight line are output to the subsequent stage as position information of the detected object (group), and then the step is performed. The process proceeds to S16.
On the other hand, in step S15, the center coordinates of the approximate straight line of the detected object group obtained in step S5 as described above are output to the subsequent stage as position information of the detected object (group), and then the process proceeds to step S16.
[0055]
In contrast, in step S11, the detected object coordinates obtained in step S3 are output to the subsequent stage as position information of the detected object, and then the process proceeds to step S16.
In step S16, the various past values used are updated before returning to the main program.
[0056]
Next, calculation processing for calculating and outputting a command value to the brake actuator, that is, the negative pressure brake booster 9 according to the principle described above will be described with reference to the flowchart of FIG. Also in this calculation process, a timer interrupt process is performed every predetermined sampling period ΔT (for example, 10 msec.). In this flowchart, no particular communication step is provided. For example, information obtained in the flowchart is stored in the storage device as needed, and necessary information is read out from the storage device as needed.
[0057]
In this calculation process, first, in step S21, the vehicle state quantity such as the engine speed, torque ratio, and gear ratio is detected, and the relative position information of the object calculated and output in the calculation process of FIG. 8 is read. .
Next, the process proceeds to step S22, where the relative velocity vector V is calculated from the relative position information of the detected object read in step S21.rAnd the possibility of obstacles is calculated as described above. The calculation of the relative velocity vector can be obtained from a pseudo-differentiator in which the coefficient of the digital filter of the formula 1 is redesigned for each laser radar scanning period.
[0058]
Next, the process proceeds to step S23, where it is determined whether or not there is an obstacle from the obstacle possibility calculated in step S22. If there is an obstacle, the process proceeds to step S24. If not, the process proceeds to step S29.
In step S24, the contact possibility flag FAcIs set to “1” and it is determined whether or not the object determined to be an obstacle in step S23 is determined to be a roadside structure in the arithmetic processing of FIG. And the contact possibility flag FAcIs set to “1” and the object determined to be an obstacle is a roadside structure, the process proceeds to step S25. Otherwise, the process proceeds to step S26.
[0059]
In step S25, the speed reduction gain K is calculated according to the following equation 8, and then the process proceeds to step S27.
K = fThree(AC) ……… (8)
Where f in the formulaThreeAs shown in FIG. 13, the absolute value | A of the plane intersection angle between the vehicle trajectory calculated in step S10 of the calculation process of FIG. 8 and the detected object group approximate straight line | ACThis is a function that outputs a larger value as | is larger, that is, as the host vehicle is moving toward the roadside structure.
[0060]
In step S26, the speed reduction gain K is set to “0”, and then the process proceeds to step S27.
In the step S27, the braking force for speed reduction for reducing the speed when the host vehicle travels toward the roadside structure and contacts the roadside of the driving lane or deviates beyond the roadside. After calculating the generated brake fluid pressure (brake pressure in the figure) and the brake pressure for generating the lane departure preventing braking force for preventing the vehicle from departing from the traveling lane, the process proceeds to step S28. Specifically, first, the target deceleration rate α according to the following formula 9CAAnd the brake torque T to achieve itbrkAccording to the following equation (10)brkBrake pressure P to generateCAIs calculated according to the following equation (11).
[0061]
[Expression 4]
Figure 0004843880
[0062]
Where V in the formulapIs the detected object speed, L is the distance to the detected object, LtIs the target inter-vehicle distance, TWIs the drive shaft torque, RtIs the torque ratio, RatIs the gear ratio, RdefIs the gear ratio of the differential gear, NeIs the engine speed, TeIs the engine speed NeEngine brake torque determined byeIs engine inertia, m is own vehicle mass, RWIs the wheel rolling radius, SbIs the brake cylinder area, RbIs the brake rotor radius, μbIs the brake pad friction coefficient, and the brake pressure is evenly distributed to the four wheels. Also, the braking control start timing is when the time until the detection object contact represented by the following equation 12 is 3 seconds or less.
[0063]
[Equation 5]
Figure 0004843880
[0064]
Next, brake pressure P for preventing lane departure according to the following equation (13)LDIs calculated.
[0065]
[Formula 6]
Figure 0004843880
[0066]
Where yVIs the lateral displacement of the vehicle with respect to the center of the traveling lane calculated in step S4 of the arithmetic processing of FIG.pIs the distance to the forward gazing point that the driver is looking at, for example 40 m. R is the lane curvature, k is a positive gain coefficient, fFourIs a function shown in FIG. 14, and the calculated lane departure prevention brake pressure PLDIs a brake pressure that acts only on the right wheel when the value is positive, and a brake pressure that acts only on the left wheel when the value is negative. Is to prevent.
[0067]
  In step S28, the speed reduction gain K set in step S25 or step S26 is used according to the following equation (14).brakeCommand value to actuator, ie brake pressure PbrkAfter calculating and outputting, the process proceeds to step S29.
[0068]
[Expression 7]
Figure 0004843880
[0069]
Here, as the speed reduction gain K is larger, that is, when the host vehicle is moving toward the roadside structure, priority is given to the brake pressure for speed reduction for reducing the speed, K is smaller, and the host vehicle becomes the roadside structure. When not heading, priority is given to lane departure prevention brake pressure.
As described above, according to the traveling road environment detection device of the present embodiment, the detected object group is grouped, and the possibility that the detected object group is a roadside structure is calculated. Since the position information of these object groups is changed according to the traveling state of the own vehicle, in the case where the object group likely to be a roadside structure and the own vehicle are in contact with each other, Appropriate control using the position information of the object such as the intersection of the future movement trajectory and the object group approximate line, that is, the contact point between the future direction of the own vehicle and the object is used as the object position information. Recognition can be made possible, and the positional accuracy of roadside structures such as roadside reflectors can be improved accordingly.
[0070]
Further, based on the detected curvature of the traveling road and the state of the detected object group approximate curve (including a straight line), the possibility of those objects being roadside structures is calculated, or the calculated future of the own vehicle Calculating the possibility that these objects are roadside structures based on the movement trajectory (traveling direction) of the object and the state of the detected object group approximate curve, or of the object extracted from the imaged traveling road environment Since the possibility that the object is a roadside structure is calculated based on the similarity between the form and the stored form of the roadside structure, the possibility that the object is a roadside structure is accurately calculated Is possible.
[0071]
Further, when the calculated planar view angle between the future movement trajectory (traveling direction) of the host vehicle and the object group approximate curve (including a straight line) is equal to or greater than a predetermined value, that is, the host vehicle is moving toward the object group. When it is considered that the vehicle travels or when the time until the vehicle reaches the intersection of the calculated future movement locus (traveling direction) of the vehicle and the detected approximate curve of the object group is smaller than a predetermined value, Since the intersection of the future movement trajectory of the host vehicle and the object group approximate curve is used as the position information of those object groups, these object groups are continuously arranged along the roadside like roadside reflectors. Therefore, it is possible to accurately detect the position at which the host vehicle contacts the road side of the traveling path or the position that deviates beyond the position.
[0072]
Further, when the calculated planar view angle between the future movement trajectory (traveling direction) of the own vehicle and the detected object group approximate curve (including a straight line) is less than a predetermined value, or the angle cannot be obtained, that is, When it is considered that the host vehicle is not moving toward the object group, the center position of the object group is set as the position information of the object group, so that the object group is located on the roadside like a roadside reflector. It is possible to accurately detect the overall lateral position on the road side of the own vehicle traveling path when the vehicle is continuously disposed along the road.
[0073]
In addition, the smaller the planar view angle between the calculated future movement trajectory (traveling direction) of the host vehicle and the detected object group approximate curve (including a straight line) is, the smaller the deviation from the lane in which the host vehicle is traveling. Since the ratio of the braking force of the vehicle is increased, the braking force is controlled so that the vehicle does not deviate from the driving lane when the vehicle is not moving toward the object group considered to be a roadside structure. It is possible to control the braking force so as to reduce the speed of the host vehicle when contacting the object when traveling toward the object group considered to be.
[0074]
  As described above, the vehicle speed sensor 6, the steering angle sensor 7, and step S1 of the calculation process of FIG. 8 constitute the vehicle state detection means of the present invention, and the laser radar 2, the radar processing device 3, and FIG. Step S3 of the calculation process constitutes an object detection means, Steps S6 to S8 of the calculation process of FIG. 8 constitute a roadside structure possibility calculation means, and Steps S9 to S15 of the calculation process of FIG. Constitutes roadside structure position information changing means, step S4 of the calculation process of FIG. 8 constitutes a traveling road curvature detection means, and step S5 of the calculation process of FIG.state8 constitutes the vehicle traveling direction calculating means, the CCD camera 4 and the image processing device 5, and step S4 of the computing process in FIG. 8 is the traveling road environment imaging means. , The storage device in the external environment recognition device 1 constitutes roadside structure form storage means, and the arithmetic processing in FIG. 12 constitutes braking force control means.
[0075]
In the embodiment, a microcomputer is used for each arithmetic processing unit. However, various logic circuits can be used instead.
[Brief description of the drawings]
FIG. 1 is a vehicle configuration diagram showing an example of a vehicle with preceding vehicle follow-up travel control equipped with an obstacle detection device of the present invention.
FIG. 2 is an explanatory diagram of an obstacle candidate relative velocity vector necessary for obstacle detection and its contact possibility.
FIG. 3 is an explanatory diagram of a detection result of a roadside reflector.
FIG. 4 is an explanatory diagram of an approximate straight line of a detected object group.
FIG. 5 is an explanatory diagram of a future movement trajectory of the host vehicle.
FIG. 6 is an explanatory diagram of an approximate straight line of a detected object group and a future movement locus of the host vehicle.
FIG. 7 is an explanatory diagram of pattern matching.
FIG. 8 is a flowchart of arithmetic processing performed by the external environment recognition device of FIG. 1;
9 is a control map used in the arithmetic processing of FIG.
10 is a control map used in the arithmetic processing of FIG.
11 is a control map used in the arithmetic processing of FIG.
12 is a flowchart of calculation processing performed by the automatic brake control device of FIG. 1;
13 is a control map used in the arithmetic processing of FIG.
14 is a control map used in the arithmetic processing of FIG.
[Explanation of symbols]
1 is an external recognition device
2 is laser radar
3 is a laser radar processing device
4 is a CCD camera
5 is an image processing apparatus
6 is a vehicle speed sensor
7 is a steering angle sensor
8 is an automatic brake control device
9 is a negative pressure brake booster

Claims (7)

自車両の走行状態を検出する自車両走行状態検出手段と、自車両周辺の物体を検出する物体検出手段と、前記物体検出手段で検出された物体が路側構造物である可能性を算出する路側構造物可能性算出手段と、前記路側構造物可能性算出手段で算出された路側構造物である可能性が高いときに、前記自車両走行状態検出手段で検出された自車両の走行状態に応じて、当該路側構造物である可能性が高い物体の位置情報を変更する路側構造物位置情報変更手段と、自車両の将来の進行方向を算出する自車両進行方向算出手段と、前記物体検出手段で検出された複数の物体がなす自車両進行方向への曲線の状態を検出する物体群曲線状態検出手段と、前記物体検出手段で検出された物体に接触するときの自車両の速度を低減するための制動力及び自車両が走行している車線を逸脱しないための制動力を制御する制動力制御手段と、を備え
前記物体検出手段で検出された物体に接触するときの自車両の速度を低減するための制動力は、前記自車両が備える全ての車輪に均等に分配される制動力であり、
前記自車両が走行している車線を逸脱しないための制動力は、前記自車両が備える左輪または自車両が備える右輪のみにかかる制動力であり、
前記制動力制御手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状態検出手段で検出された複数の物体がなす曲線との平面視角度が小さいほど、前記自車両が走行している車線を逸脱しないための制動力の割合を大きくし、
前記物体群曲線状態検出手段で検出された複数の物体がなす曲線は、前記路側構造物である可能性が高い複数の物体がなす曲線であることを特徴とする走行路環境検出装置。
Self-vehicle running state detecting means for detecting the running state of the own vehicle, object detecting means for detecting an object around the own vehicle, and roadside for calculating the possibility that the object detected by the object detecting means is a roadside structure Depending on the traveling state of the host vehicle detected by the host vehicle traveling state detecting unit when there is a high possibility that the structure possibility calculating unit and the roadside structure possibility calculating unit calculate the roadside structure A roadside structure position information changing unit that changes position information of an object that is likely to be the roadside structure, a host vehicle traveling direction calculating unit that calculates a future traveling direction of the host vehicle, and the object detecting unit. An object group curve state detecting means for detecting a state of a curve in the traveling direction of the own vehicle formed by a plurality of objects detected in step (b), and reducing the speed of the own vehicle when contacting the object detected by the object detecting means. Braking force for & And a braking force control means for controlling the braking force for not departing from the lane in which the vehicle is traveling,
The braking force for reducing the speed of the host vehicle when contacting the object detected by the object detection means is a braking force that is evenly distributed to all wheels of the host vehicle,
The braking force not to deviate from the lane in which the host vehicle is traveling is the braking force applied only to the left wheel provided in the host vehicle or the right wheel provided in the host vehicle,
The braking force control means has a small planar view angle between a future traveling direction of the host vehicle calculated by the host vehicle traveling direction calculating means and a curve formed by a plurality of objects detected by the object group curve state detecting means. As a result, the ratio of the braking force not to deviate from the lane in which the host vehicle is traveling is increased,
The traveling road environment detection device characterized in that a curve formed by a plurality of objects detected by the object group curve state detection means is a curve formed by a plurality of objects that are highly likely to be the roadside structure .
自車両進行方向の走行路の曲率を検出する走行路曲率検出手段を備え、前記路側構造物可能性算出手段は、前記走行路曲率検出手段で検出された走行路の曲率及び前記物体群曲線状態検出手段で検出された複数の物体がなす曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出することを特徴とする請求項1に記載の走行路環境検出装置。Includes a travel path curvature detection means to detect the curvature of the traffic lane of the subject vehicle advancing direction, the roadside structure possibility calculation means, curvature and the object group curve of the running path detected by the traveling road curvature detecting means The travel road environment detection device according to claim 1, wherein a possibility that the objects are roadside structures is calculated based on a state of a curve formed by the plurality of objects detected by the state detection means. 記路側構造物可能性算出手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向及び前記物体群曲線状態検出手段で検出された複数の物体がなす曲線の状態に基づいてそれらの物体が路側構造物である可能性を算出することを特徴とする請求項1又は2に記載の走行路環境検出装置。 Before SL roadside structures possibility calculation means, the state of the curve in which the plurality of objects detected in the future traveling direction and the object group curve state detecting means of the vehicle calculated by the vehicle traveling direction calculation means eggplant The travel road environment detection device according to claim 1 or 2, wherein the possibility of the objects being roadside structures is calculated based on the roadside structure. 自車両周辺の走行路環境を撮像する走行路環境撮像手段と、路側構造物の形態を記憶する路側構造物形態記憶手段とを備え、前記路側構造物可能性算出手段は、前記走行路環境撮像手段で撮像された走行路環境の中から抽出された前記物体検出手段で検出された物体の形態と前記路側構造物形態記憶手段で記憶されている路側構造物の形態との類似性に基づいて当該物体が路側構造物である可能性を算出することを特徴とする請求項1乃至3の何れかに記載の走行路環境検出装置。  A roadside environment imaging unit that images a roadway environment around the host vehicle and a roadside structure form storage unit that stores a form of the roadside structure, and the roadside structure possibility calculation unit includes the roadside environment imaging unit. Based on the similarity between the form of the object detected by the object detection means extracted from the traveling road environment imaged by the means and the form of the roadside structure stored in the roadside structure form storage means The travel road environment detection device according to any one of claims 1 to 3, wherein a possibility that the object is a roadside structure is calculated. 記路側構造物位置情報変更手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状態検出手段で検出された複数の物体がなす曲線との平面視角度が所定値以上であるときに、当該自車両の将来の進行方向と複数の物体がなす曲線との交点を、それらの物体群の位置情報とすることを特徴とする請求項1乃至4の何れかに記載の走行路環境検出装置。 Before SL roadside structure position information changing means, the plane of the plurality of objects forming curve detected in a future traveling direction and the object group curve state detecting means of the vehicle calculated by the vehicle traveling direction calculation means 5. An intersection point between a future traveling direction of the host vehicle and a curve formed by a plurality of objects when the viewing angle is equal to or greater than a predetermined value is used as position information of the object group. The travel road environment detection device according to any one of the above. 記路側構造物位置情報変更手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状検出手段で検出された複数の物体がなす曲線との平面視角度が所定値未満か、若しくはその角度が得られないときに、それら複数の物体からなる物体群の中心位置を当該物体群の位置情報とすることを特徴とする請求項1乃至5の何れかに記載の走行路環境検出装置。 Before SL roadside structure position information changing means, said plurality of objects forms a curve detected by the host vehicle traveling direction calculated by the calculating means and future traveling direction of the vehicle the object group curved state detecting means The center position of an object group composed of a plurality of objects is used as position information of the object group when the planar view angle is less than a predetermined value or the angle cannot be obtained. The travel road environment detection device according to any one of the above. 記路側構造物位置情報変更手段は、前記自車両進行方向算出手段で算出された自車両の将来の進行方向と前記物体群曲線状検出手段で検出された複数の物体がなす曲線との交点に自車両が到達するまでの時間を求め、その時間が所定値より小さいときに、当該自車両の将来の進行方向と複数の物体がなす曲線との交点を、それらの物体群の位置情報とすることを特徴とする請求項1乃至6の何れかに記載の走行路環境検出装置。 Before SL roadside structure position information changing means, said plurality of objects forms a curve detected by the host vehicle traveling direction calculated by the calculating means and future traveling direction of the vehicle the object group curved state detecting means When the time until the host vehicle reaches the intersection is obtained and the time is smaller than the predetermined value, the intersection of the future traveling direction of the host vehicle and the curve formed by a plurality of objects is obtained as position information of the object group. The travel road environment detection device according to any one of claims 1 to 6.
JP2001242804A 2001-08-09 2001-08-09 Road environment detection device Expired - Fee Related JP4843880B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001242804A JP4843880B2 (en) 2001-08-09 2001-08-09 Road environment detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001242804A JP4843880B2 (en) 2001-08-09 2001-08-09 Road environment detection device

Publications (2)

Publication Number Publication Date
JP2003058997A JP2003058997A (en) 2003-02-28
JP4843880B2 true JP4843880B2 (en) 2011-12-21

Family

ID=19073020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001242804A Expired - Fee Related JP4843880B2 (en) 2001-08-09 2001-08-09 Road environment detection device

Country Status (1)

Country Link
JP (1) JP4843880B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101782362B1 (en) * 2015-12-14 2017-10-13 현대자동차주식회사 Vehicle, and control method for the same

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3954951B2 (en) * 2002-10-17 2007-08-08 本田技研工業株式会社 Vehicle object detection device
JP3954993B2 (en) * 2003-07-07 2007-08-08 本田技研工業株式会社 Vehicle object detection device
JP3900099B2 (en) 2003-03-20 2007-04-04 日産自動車株式会社 Lane departure prevention device
JP4678121B2 (en) * 2003-09-26 2011-04-27 日産自動車株式会社 Lane departure prevention device
JP2005067426A (en) * 2003-08-26 2005-03-17 Daihatsu Motor Co Ltd Collision avoidance device
JP5075152B2 (en) * 2009-03-24 2012-11-14 日立オートモティブシステムズ株式会社 Vehicle control device
JP5597932B2 (en) * 2009-04-20 2014-10-01 トヨタ自動車株式会社 Vehicle track generation method and vehicle track generation device
JP5655497B2 (en) * 2010-10-22 2015-01-21 トヨタ自動車株式会社 Obstacle recognition device and obstacle recognition method
JP2013140515A (en) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc Solid object detection device and program
US11151395B2 (en) 2017-08-07 2021-10-19 Hitachi Astemo, Ltd. Roadside object detection device, roadside object detection method, and roadside object detection system
CN110389995B (en) * 2019-07-31 2023-02-21 北京百度网讯科技有限公司 Lane information detection method, apparatus, device, and medium
CN112319465A (en) * 2020-11-28 2021-02-05 景德镇学院 Intelligent driving environment perception analysis system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3125550B2 (en) * 1993-12-24 2001-01-22 日産自動車株式会社 Vehicle forward recognition device and vehicle travel control device
JP3341186B2 (en) * 1994-03-31 2002-11-05 オムロン株式会社 Object discriminating apparatus and method, and vehicle equipped with object discriminating apparatus
JP3352528B2 (en) * 1994-05-20 2002-12-03 マツダ株式会社 Vehicle travel path estimation device
JPH10151960A (en) * 1996-11-26 1998-06-09 Omron Corp Distance measuring device
JPH10325869A (en) * 1997-05-26 1998-12-08 Honda Motor Co Ltd Radar device for vehicle and automatic traveling control system using it
JP3519617B2 (en) * 1998-10-29 2004-04-19 三菱電機株式会社 Control target sorting device
JP3714116B2 (en) * 1999-08-09 2005-11-09 トヨタ自動車株式会社 Steering stability control device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101782362B1 (en) * 2015-12-14 2017-10-13 현대자동차주식회사 Vehicle, and control method for the same
US9849837B2 (en) 2015-12-14 2017-12-26 Hyundai Motor Company Vehicle capable of determining driving lane and control method for the same

Also Published As

Publication number Publication date
JP2003058997A (en) 2003-02-28

Similar Documents

Publication Publication Date Title
US11809194B2 (en) Target abnormality determination device
US9235767B2 (en) Detection region modification for driving assistance apparatus and driving assistance method
US20210188356A1 (en) Vehicle control device
CN109435945B (en) Vehicle control system, vehicle control method, and storage medium
US20210188258A1 (en) Vehicle control device
US20210188262A1 (en) Vehicle control device
JP2019156174A (en) Vehicle control device, vehicle, vehicle control method, and program
US20200317192A1 (en) Vehicle control device
JP7082940B2 (en) Travel track determination processing and automatic driving device
RU2735720C1 (en) Method of estimating a vehicle, a method for correcting a route, a vehicle evaluation device and a route correction device
JP4843880B2 (en) Road environment detection device
US11526173B2 (en) Traveling trajectory correction method, traveling control method, and traveling trajectory correction device
US20200307569A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6610799B2 (en) Vehicle traveling control method and traveling control apparatus
US20200290624A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6961964B2 (en) Collision avoidance device
RU2745936C1 (en) Stop line positioning device and vehicle control system
JP2005332192A (en) Steering support system
JP2004322916A (en) Driving support system
JP7130580B2 (en) Road surface detector
JP2019172068A (en) Operation determination device, operation determination method, and program
JP6340738B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JP6365688B2 (en) Forward gaze distance setting device and travel control device
CN114523968B (en) Surrounding vehicle monitoring device and surrounding vehicle monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110926

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees