JP2011204053A - 車両の運転支援装置 - Google Patents
車両の運転支援装置 Download PDFInfo
- Publication number
- JP2011204053A JP2011204053A JP2010071375A JP2010071375A JP2011204053A JP 2011204053 A JP2011204053 A JP 2011204053A JP 2010071375 A JP2010071375 A JP 2010071375A JP 2010071375 A JP2010071375 A JP 2010071375A JP 2011204053 A JP2011204053 A JP 2011204053A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- line
- driving
- sight
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】この発明は、自車の進行方向変更状態を判定することができ、自車の走行に関連する緊急度を低減した走行を可能にする車両の運転支援装置を提供することを目的とする。
【解決手段】自車を運転する運転者の視線を認識する(S2)視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、上記視線情報に基づいて、自車の進行方向変更状態を判定し(S7)、自車の進行方向変更に伴う自車前方の走行環境に基づいて、運転を補助する運転補助手段(S3、S7〜S18)を備えた。
【選択図】図10
【解決手段】自車を運転する運転者の視線を認識する(S2)視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、上記視線情報に基づいて、自車の進行方向変更状態を判定し(S7)、自車の進行方向変更に伴う自車前方の走行環境に基づいて、運転を補助する運転補助手段(S3、S7〜S18)を備えた。
【選択図】図10
Description
この発明は、自車を運転する運転者の視線を認識する視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置に関する。
従来より、自車の進行方向や自車前方の走行環境を判定し、その判定結果に応じて運転補助を実行する運転支援装置が知られている。
運転支援装置では、一般的に、ヨーレートや横加速度といった自車の状態量を所定の検出手段で検出することにより、自車のカーブ走行状態等を判定し、この判定結果に基づいて進行方向を判定している。
しかしながら、このような判定方法では、上記検出手段の検出結果に対して実行される所定の演算処理により、車両の進行方向の判定にタイムラグが生じる。このため、例えば、直進状態からカーブ走行状態へ移行する時等、自車の進行方向変更状態を的確に判定することができないという問題があった。
ところで、従来、車両を運転する運転者の視線を認識し、認識された視線情報に基づいて車両の運転補助を実行するものが提案されている。下記特許文献1では、運転者の視線情報に基づいて自車の進行路形状を推定するものが開示されており、進行路形状としてカーブ形状(カーブの曲率半径)を推定している。そして、同文献では、推定されたカーブ形状に応じて速度警告や、車線認識追従走行等の運転補助を実行している。
また、下記特許文献2には、運転者の視線情報と、運転者の眼球運動の特性とに基づいて、自車前方の注意対象に対する運転者の視認状態を判定するものが開示されている。この場合、運転者が本当に注意対象を視認しているか否かを精度良く判定でき、上記注意対象を視認していないと判定した時には、所定の運転補助を実行することにより、上記注意対象との接触を回避する等して、自車の走行に関連する緊急度を低減した走行を可能にしている。
しかしながら、上記特許文献1の場合、視線情報に基づいて現在走行中のカーブ形状を推定しているに過ぎず、自車の進行方向変更に伴う自車前方の走行環境の変化を判定することはできない。
また、上記特許文献2の場合、あくまでも視線情報等に基づいて上記注意対象に対する視認状態を判定するものであり、車両の進行方向変更状態を判定するものではない。
この発明は、自車の進行方向変更状態を判定することができ、自車の走行に関連する緊急度を低減した走行を可能にする車両の運転支援装置を提供することを目的とする。
この発明の車両の運転支援装置は、自車を運転する運転者の視線を認識する視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、上記視線情報に基づいて、自車の進行方向変更状態を判定し、自車の進行方向変更に伴う自車前方の走行環境に基づいて、運転を補助する運転補助手段を備えたものである。
この構成によれば、視線認識手段の視線情報に基づいて進行方向変更状態を判定することができ、該進行方向変更状態を認識した運転補助により、自車の走行に関連する緊急度を低減した走行を実現することが可能になる。
この発明の一実施態様においては、自車の進行方向変更状態を、該変更による自車の状態量に基づいて検出する状態量検出手段を備え、上記運転補助手段は、上記状態量検出手段による検出に基づき、進行方向変更状態を認識して運転を補助する第1運転補助部と、上記視線情報に基づいて、進行方向変更状態を予測して、上記第1運転補助部よりも上記視線情報を主体として運転を補助する第2運転補助部とを有し、進行方向変更時付近では、上記第1運転補助部による運転補助の実行前に、第2運転補助部による運転補助を実行するものである。
この構成によれば、自車の進行方向が実際に変更される前に、視線情報によって自車前方の走行環境を把握できるため、自車前方の物体の認識を早期かつ確実に行え、装置を高効率で作動させることが可能になる。
この発明の一実施態様においては、上記状態量検出手段が、操舵状態検出部を備え、該操舵状態検出部は、操舵角変化による自車の状態量の変化を検出するとともに、上記第2運転補助部は、所定操舵状態変化時における上記視線情報に基づいて、運転を補助するものである。
この構成によれば、運転者の進行方向変更の意思が明確で、視線方向が変更後の進行方向を向いている可能性が高い状態での視線情報に基づいて運転補助を実行できるため、高精度な運転補助が可能になる。
この発明の一実施態様においては、上記状態量検出手段が、操舵による操作トルクを検出するとともに、上記第2運転補助部は、操作トルクに基づいて上記所定操舵状態変化時を判定するものである。
この構成によれば、操作トルクの変化に基づく判定により、進行方向変更の意思がより明確に示された状態を判定できる。このため、視線情報に基づく運転補助をより高精度に実行することが可能になる。
この発明の一実施態様においては、上記第2運転補助部が、上記視線認識手段による運転者の後方視認の認識中、若しくは後方視認の認識後所定期間内における視認情報に基づいて、運転を補助するものである。
この構成によれば、車線変更の意思が明確な状態での視線情報に基づいて運転補助を実行するため、車線変更時において高精度な運転補助が可能になる。
なお、本発明で言うところの後方視認とは、車両後方の視認のみならず、車両の側方かつ後方の視認も含む。
この発明の一実施態様においては、上記運転補助手段が、自車前方の所定領域内に存在する物体を検出し、該物体に関連する物体情報に基づいて緊急度を判定する緊急度判定手段を備え、該緊急度判定手段は、上記所定領域内に存在する上記物体のうち、視線が指向する一部の領域に存在するものを、上記視線情報に基づいて優先して確定し、この物体に対する緊急度を判定するものである。
この構成によれば、緊急度を判定する際の重要物体を絞り込むことが可能になり、運転補助の動作処理を効率化することができる。
この発明によれば、視線認識手段の視線情報に基づいて進行方向変更状態を判定することができ、該進行方向変更状態を認識した運転補助により、自車の走行に関連する緊急度を低減した走行を実現することが可能になる。
以下、図面に基づいて本発明の実施形態を詳述する。
図1は、本発明の実施形態に係る運転支援装置1を備える車両Vの概略的な構成を示すブロック図である。図1に示す車両Vの運転支援装置1は、パワートレイン2やブレーキ装置3等を制御する制御装置としてのCPU10、該CPU10に接続され、これに車両Vの状態量に関連する各種データを出力する車速センサ11、操舵角センサ12、操作トルクセンサ13、ヨーレートセンサ14、横加速度センサ15、及びレーダー装置16、視線検出カメラ17を備えている。
図1は、本発明の実施形態に係る運転支援装置1を備える車両Vの概略的な構成を示すブロック図である。図1に示す車両Vの運転支援装置1は、パワートレイン2やブレーキ装置3等を制御する制御装置としてのCPU10、該CPU10に接続され、これに車両Vの状態量に関連する各種データを出力する車速センサ11、操舵角センサ12、操作トルクセンサ13、ヨーレートセンサ14、横加速度センサ15、及びレーダー装置16、視線検出カメラ17を備えている。
さらに、運転支援装置1は、運転者に対して所定の警報を行うワーニング装置18と、各種制御プログラムや、CPU10に出力された各種データを記憶する記憶装置19とを備えている。
また、運転支援装置1は、その車速を制御して定速走行させるか、または先行車両に追従走行させる公知のACC制御システムを備えており、このACC制御システムによる運転補助を実行可能としている。
ここで、車速センサ11は、車両Vの車速を検出して、検出した車速に対応するデータをCPU10に出力するものであり、上記ACC制御では、CPU10が、車速センサ11からのデータに基づいてパワートレイン2やブレーキ装置3を適宜制御し、先行走行車両が存在しない時には車両Vを一定の目標速度で定速走行させる定速走行制御(所謂クルーズ走行制御)を、先行走行車両が存在する時には該先行走行車両に対して一定の目標車間距離を維持した状態で車両Vを追従走行させる追従走行制御を行う。
操舵角センサ12は、ステアリングホイール4の操舵角θを検出するもので、検出した操舵角θに対応するデータをCPU10に出力し、操作トルクセンサ13は、運転者によるステアリングホイール4の操作トルクTを検出して、検出した操作トルクTに対応するデータをCPU10に出力する。
また、ヨーレートセンサ14は、車両Vのヨーレートφを検出するもので、検出したヨーレートφに対応するデータをCPU10に出力する。また、横加速度センサ15は、車両Vに作用する横加速度Gを検出して、検出した横加速度Gに対応するデータをCPU10に出力する。
レーダー装置16は、車両Vの前方の走行環境を認識するためのものであり、例えば、前方物体の検出が行われる。レーダー装置16は、フロントバンパの前端部に取付けられ、所定周波数の電波を送信する。そして、車両Vの前方の物体に当たって反射してきた電波を受信し、この受信信号を物体情報としてCPU10に出力する。この時、送信波と受信波との時間差から、自車(車両V)から物標(前方物体)までの距離が求められる。また、送信波に対する受信波の波長シフトから、自車と前方物体との相対速度が求められる。
なお、レーダー装置16としては、電磁波を送信するものであればよく、例えば赤外線を送信するものであってもよい。この場合、電波と同様、赤外線の反射により自車から前方物体までの距離、及び自車と前方物体との相対速度を求めることができる。また、本実施形態では、車両Vがレーダー装置16を備えているが、2つのカメラ装置により撮影された画像を処理することによって前方物体までの距離を求めることができる公知のステレオカメラであってもよい。
視線検出カメラ17は、可視光領域や赤外線領域にて運転者の目を撮影して視線を認識する手段である。この視線検出カメラ17は、車室内のインストルメントパネル上部に配設され、ステアリングホイール4のコラム付近に位置している。視線検出カメラ17は、撮影した画像を利用して認識した運転者の視線に関連する情報を視線情報としてCPU10に出力する。
ワーニング装置18は、車両Vの運転者に対して音声や画面表示等で所定の警報を行うものであり、例えば、車両Vと前方物体とが急接近した時等、自車の走行に関連する緊急度が高まった時に、CPU10からの制御信号を受信して所定の警報を行う。
記憶装置19は、各種制御プログラムや、CPU10に出力された各種データの他、車両Vの状態量に関連する各種閾値として、ヨーレートφに関連する閾値φ0、横加速度Gに関連する閾値G0、操作トルクTに関連する閾値T0、及び操舵角の変化量の絶対値|Δθ|に関連する閾値Δθ0を記憶している。
次に、本実施形態に係る運転支援装置1の動作について説明する。図2は、車線変更を行うことができない走行帯Z1、Z2を有する道路の右カーブ直前を車両(自車)Vが走行している状態を示しており、車両Vの前方で同じ走行帯Z2を走行している他車V1と、左側に隣接する走行帯Z1を走行している他車V2とが存在している。
ここで、図1に示す運転支援装置1のうち、レーダー装置16では、図2にて二点鎖線で示すように車両Vの進行方向に対して左右に所定角度広がりをもつ電波の照射領域Aが設定されており、図2では、照射領域Aに他車V1のみが入っている。この時、他車V1で反射された受信波に基づいて、車両Vから他車V1までの距離、及び車両Vと他車V1との相対速度が求められる。
また、レーダー装置16は、前方物体で反射される受信波に基づき、この前方物体の像(輪郭線)に対応するエッジを検出し、図3に示すような仮想の視認面上に前方物体認識データを生成する。図2の場合、レーダー装置16は、他車V1の像に対応するエッジを検出し、このエッジの検出によって、他車V1は、図3にて破線で示すような前方物体PFM1として認識される。そして、レーダー装置16は、この前方物体PFM1の認識結果を示す前方物体認識データを生成し、これを物体情報としてCPU10に出力する。この前方物体認識データにより、CPU10は、車両Vに対する前方物体の相対的な位置を認識することが可能になる。
なお、上述したエッジは、レーダー装置16から送信した電波に対して受信波を受けたものについてのみ検出される。このため、例えば、図2に示す車線L1〜L4については、レーダー装置16から電波を送信したとしても電波の反射がなく、受信波を受信できないため、前方物体認識データでは、車線L1〜L3に対応するエッジが検出されることはない。図3では、便宜上車線L1〜L3を仮想線(二点鎖線)で示している。
ところで、運転支援装置1では、車両Vの前方の照射領域A内に前方物体が存在した場合、レーダー装置16から出力される上記受信信号や上記前方物体認識データを含む物体情報に基づいて車両Vの走行に関連する緊急度を判定し、この緊急度に応じて所定の運転補助を実行するようになっている。
具体的には、車両Vから前方物体までの距離、及び車両Vと前方物体との相対速度に基づいて、該前方物体との接近状態が判定される。ここでは、該前方物体との距離が所定以下であって、かつ上記相対速度が所定の負(進行方向の速度を正とする)の値以下、つまりは前方物体の移動速度が車両Vの車速に比べて著しく低速であった場合、両者が接近状態であると判定し、上記緊急度が高い状態にあると判定される。
そして、車両Vに対して前方物体が急接近する等して、上記緊急度が高い状態にあると判定された場合には、車両Vの前方の走行環境が大きく変化していることから、運転補助が実行されるようになっている。ここでは、ワーニング装置18による警報が行われる。
一方、緊急度が低い状態にあると判定された場合には、上述したACC制御システムが作動し、上記定速走行制御や、上記追従走行制御が実行される。
図4は、図2に示す状態からさらに進んで、車両Vが右カーブを走行している状態を示している。図4に示す状態では、他車V1のみならず、隣接する走行帯Z1で右カーブを走行しているV2もレーダー装置16の照射領域Aに入っている。
この場合、車両Vから他車V1、V2までの距離、及び車両Vと他車V1、V2との相対速度が求められるとともに、他車V1、V2の双方のエッジが検出されて前方物体認識データが生成される。このため、通常であれば、レーダー装置16の出力に基づいて、他車V1のみならず、他車V2も前方物体であると認識され、他車V1、V2の双方に対する緊急度が判定されることになる。
但し、図4の場合、走行帯Z1、Z2は車線変更ができないため、通常であれば、車両Vとの接近により緊急度が高まるのは、同じ走行帯Z2を走行している先行走行車両(他車V1)のみであり、隣接する走行帯Z1を走行する他車V2については、多少接近したとしても緊急度が高くなることはない。
そこで、本実施形態では、現在車両Vが走行する位置より前方の前方走行予定帯を判定することで、進行方向変更状態を判定することができるようになっており、この前方走行予定帯に前方物体が存在した場合には、この前方物体が他に優先して重要物体と確定される。そして、この重要物体を対象として上記緊急度が判定され、運転補助が実行されるようになっている。
運転支援装置1では、ヨーレートセンサ14や横加速度センサ15で検出されたヨーレートφや横加速度G等の車両Vの状態量の変化に基づいて、前方走行予定帯の形状、つまりは進行方向変更状態が判定される。
例えば、図4の場合であれば、ヨーレートφや横加速度Gの変化に基づいて走行帯Z2のカーブの曲率半径が算出され、この算出結果に基づいてカーブ形状が判定される。そして、このカーブ形状の判定に基づいて、前方走行予定帯として、図4にてハッチングで示すような予測エリアZaが判定されるようになっている。
図4に示す状態では、予測エリアZaに他車V1が存在する一方、他車V2は予測エリアZaから外れていることから、他車V1が優先的に重要物体と確定される。
このため、車両Vがさらに進んで右カーブを走行している時、例えば、図5に示すように、他車V1がレーダー装置16の照射領域Aから外れる代わりに他車V2が照射領域Aに入ったとしても、該他車V2が重要物体であると誤認識することを防止できる。
しかしながら、上述したように、ヨーレートセンサ14や横加速度センサ15等から出力されるデータに基づいて進行方向変更状態を判定する場合、以下に述べるような問題がある。
具体的には、ヨーレートセンサ14から出力されるヨーレートφを例に挙げて説明すると、ヨーレートセンサ14から出力されるデータは、一般的にフィルタ処理等の所定の演算処理が実行される。このため、ヨーレートφの変化は、図6に示すように、実際に操舵角θが変化を開始した時間t1から時間τだけ遅れた時間t2で検出されることになってしまう。
このため、例えば、図7に示すように、車両Vが直進状態から右カーブ走行状態に移行する直前の、進行方向変更時付近では、操舵角θが変化を開始した状態であっても、ヨーレートφの変化が検出されないことから、走行帯Z2のカーブ形状を認識することができず、結果として重要物体の確定、及び的確な運転補助ができないという問題が生じてしまう。
そこで、本実施形態では、ヨーレートφ等の車両Vの状態量の変化に基づいて走行方向変更状態を判定する前であっても、ステアリングホイール4における操舵状態が所定以上変化すると(本明細書では、これを所定操舵状態変化時と言う。)、視線検出カメラ17の視線情報に基づいて進行方向変更状態が予測され、上記視線情報を主体として、上記緊急度の判定や運転補助が実行されるようになっている。
図8は、図7に示す場合において、車両Vの前方で同じ走行帯Z2を走行する他車V1を運転者Mが注視している状態を示している。図7では、車両Vが直進状態である一方で、他車V1が右カーブを走行していることから、運転者Mの視線X1、X2は、図8に示すように、車両Vの進行方向に対して右側を指向している。
この時、視線検出カメラ17は、例えば、図8(a)に示すように運転者Mの顔の向きが車両Vの進行方向に対して右側に動いた時の視線X1の方向、または、図8(b)に示すように運転者Mの顔が車両Vの進行方向を向いたままの状態で、眼球が進行方向に対して右側に動いた時の視線X2の方向を認識している。
そして、本実施形態では、視線検出カメラ17から出力される視線情報を解析することにより、運転者Mの視線X1、X2が指向する前方領域として、視認エリアZeが判定される。この視認エリアZeは、視線X1、X2の方向に対して所定角度Δα、Δβ(但し、Δα=Δβ)だけ左右に広がりをもつ領域であり、図8では、進行方向に対して右側に角度α1(β1)だけ傾いた線Y1(Y2)と、角度α2(β2)(α2>α1、β2>β1)だけ傾いた線Y1′(Y2′)との間の領域である。
図示の場合、視認エリアZeが、進行方向に対して右側に傾いていることを判定でき、この視認エリアZeの傾きに基づいて、直進状態から右カーブ走行状態に移行する状態を予測できる。
図7の場合、視認エリアZeには他車V1が存在することから、ステアリングホイール4が、上述した所定操舵状態変化時となり、運転者Mが右カーブ走行の意思を明確に示したところで、他車V1が優先的に重要物体と確定される。
図9は、車線変更を行うことができる走行帯Z3、Z4を有する直線道路を車両V(自車)が走行している状態を示している。また、図9では、車両Vの前方で同じ走行帯Z3を走行している他車V3と、右側に隣接する走行帯Z4を走行している他車V4とが存在しており、車両Vは、図中二点鎖線に示すように、走行帯Z4から、右側に隣接する他の走行帯Z5に車線変更しようとしている。
このように、車両Vが車線変更する場合、図2〜図8に示す右カーブ走行の場合と同様、車両Vは進行方向変更状態となるが、図9に示すように車両Vが車線変更する直前の状態では、ヨーレートセンサ14等による状態量の変化は検出されない。
そこで、車線変更の直前になると、運転者は、一般的に変更先の走行環境を確認するために、車両側部のサイドミラー5等を目視する等して後方(ここでは、側方かつ後方も含む)の走行環境を確認することから、本実施形態では、この走行環境の確認動作に伴う視線の変化を視線検出カメラ17で認識し、その認識後、所定期間内において視線が前方に移った時、その視認エリアZeに基づいて緊急度の判定や運転補助が実行されるようになっている。
これにより、直進状態において同じ走行帯Z3を走行する他車V3を重要物体であると誤認識することを防止でき、他車V4を対象として上記緊急度を判定し、運転補助を実行することができる。
なお、図2〜図8においては、車両Vが右カーブを走行する場合を説明し、図9においては、右側に隣接する走行帯に車線変更する場合を説明したが、運転支援装置1では、左カーブを走行する場合や、左側に隣接する走行帯に車線変更する場合においても同様の制御が実行される。
次に、図10に示すフローチャートとともに、車両Vに備えられた運転支援装置1の動作について説明する。
先ず、運転支援装置1では、ステップS1において、車速センサ11、操舵角センサ12、操作トルクセンサ13、ヨーレートセンサ14、横加速度センサ15から各種データがCPU10に入力される。さらに、レーザー装置16からは、物体情報に関連するデータがCPU10に入力され、視線検出カメラ17からは、視線情報に関連するデータがCPU10に入力される。
先ず、運転支援装置1では、ステップS1において、車速センサ11、操舵角センサ12、操作トルクセンサ13、ヨーレートセンサ14、横加速度センサ15から各種データがCPU10に入力される。さらに、レーザー装置16からは、物体情報に関連するデータがCPU10に入力され、視線検出カメラ17からは、視線情報に関連するデータがCPU10に入力される。
次に、CPU10は、視線検出カメラ17から入力されるデータに基づき、運転者M(図8参照)の視線X1、X2の方向を認識する(ステップS2)。
さらに、CPU10は、ステップS3に移行して、レーダー装置16から入力されるデータに基づき、前方物体の検出状態を認識する。ここで、レーダー装置16により前方物体が検出された時には(ステップS4:YES)、レーダー装置16から入力されるデータに基づいて車両Vから前方物体までの距離、及び車両Vと前方物体との相対速度を求めるとともに、ステップS5に移行し、ヨーレートセンサ14、横加速度センサ15から入力されるデータに基づいて、進行方向変更状態を判定する。
ステップS5では、CPU10が、ヨーレートφに関連する閾値φ0、または横加速度Gに関連する閾値G0を記憶装置19(図1参照)から読み出し、ヨーレートセンサ14、横加速度センサ15により検出されたヨーレートφ、横加速度Gと比較する。そして、ヨーレートφが閾値φ0以下か、または横加速度Gが閾値G0以下である時(ステップS5:NO)、車両Vの進行方向が、図2、図7、図9に示すような直進方向であると判定し、ステップS6に移行する。
ステップS6では、CPU10が、操舵角センサ12により検出された操舵角θに基づいてその変化量の絶対値|Δθ|(以下、絶対値|Δθ|と略記する。)を算出する。そして、CPU10は、上述した所定操舵状態変化時であるか否かを判定すべく設定された、絶対値|Δθ|に関連する閾値Δθ0を読み出し、算出された絶対値|Δθ|と比較するか、または操作トルクTに関連する閾値T0を読み出し、操作トルクセンサ13により検出された操作トルクTと比較する。
ここで、ステアリングホイール4の旋回操作が行われると、図6に示すように、絶対値|Δθ|とともに、操作トルクTも併せて上昇する。そこで、ステップS6では、絶対値|Δθ|が、閾値Δθ0を超えるか、または操作トルクTが閾値T0を超えた時(図6の時間tx(t1<tx<t2)参照)(ステップS6:YES)、所定操舵状態変化時であると判定する。
この時、車両Vは、図2、図7、図9に示すように直進状態であるものの、運転者Mが進行方向変更の意思を明確に示していると推測できる。そこで、CPU10は、ステップS7に移行し、ステップS2で判定した視線X1、X2の方向に基づいて、図8に示す視認エリアZeを判定することで、進行方向変更状態を予測する。
そして、CPU10は、ステップS3において前方物体が検出されたことに基づき、ステップS7で判定した視認エリアZeを、前方物体が存在する確定エリアZ0に設定する(ステップS8)。そして、CPU10は、ステップS9に移行して、確定エリアZ0に存在する前方物体を、上記緊急度を判定する際の対象となる重要物体と確定する。
次に、CPU10は、ステップS10に移行し、レーダー装置16から入力されるデータにより求めた上記重要物体までの距離、及び重要物体との相対速度に基づいて、接近状態を判定し、上記緊急度を判定する。
ここで、ステップS10において、上記緊急度が高い状態であると判定した場合には(ステップS11:YES)、ステップS12に移行し、運転補助を実行する。ここでは、CPU10が、図1に示すワーニング装置18に所定の制御信号を送信して、ワーニング装置18による警報を行わせる。そして、一連の処理をステップS1にリターンする。
一方、上記緊急度が高い状態でなければ(ステップS11:NO)、CPU10は、ステップS13に移行し、レーダー装置16により検出された重要物体が、自車と同じ走行帯を走行する先行走行車両であるか否かを判定する。
ここで、重要物体が先行走行車両でなければ(ステップS13:NO)、そのまま一連の処理をステップS1にリターンする。一方、重要物体が先行走行車両であれば(ステップS13:YES)、ステップS14に移行し、運転補助を実行する。ここでは、CPU10が、パワートレイン2やブレーキ装置3を適宜制御し、上述した追従走行制御を実行する。そして、一連の処理をステップS1にリターンする。
また、ステップS6において、絶対値|Δθ|が閾値Δθ0以下か、または操作トルクTが閾値T0以下の時には(ステップS6:NO)、CPU10は、ステップS15に移行し、視線検出カメラ17からの視線情報に基づいて、運転者Mが、車線変更直前に行われる走行環境の確認のために、後方に視線方向を変化させ、その後視線を前方に移行させたか否かを判定する。
ここで、車線変更直前に行われる視線方向の変化を認識できた時には(ステップS15:YES)、車線変更の意思が明確に示されたと推測できる。そこで、CPU10は、ステップS7以降の処理を実行し、視認エリアZeに基づき確定エリアZ0を設定するとともに、上記緊急度の判定や運転補助を実行する。
一方、車線変更直前に行われる視線方向の変化が認識されなかった時には(ステップS15:NO)、カーブ等の道路形状の変化によって車両Vの状態量の変化が検出されることもなく、かつ運転者Mが、車線変更の意思も示していないことから、車両Vの進行方向は直進方向のまま変更がないと推測できる。
この時、CPU10は、レーダー装置16により検出された全て(単一でも可)の前方物体に対して接近状態を判定し(ステップS16)、ステップS11以降の処理を実行する。
また、ステップS5において、ヨーレートφが閾値φ0を超えるか、または横加速度Gが閾値G0を超えた時には(ステップS5:YES)、CPU10は、ヨーレートφや横加速度Gが大きな値を示したことに基づき、車両Vが、カーブの走行等によって進行方向変更状態になったと判定する。
そして、CPU10は、ステップS17に移行し、ヨーレートφや横加速度Gといった車両Vの状態量に基づいて現在走行中のカーブの曲率半径を算出するとともに、この算出結果に基づいて図4に示すような予測エリアZaを判定する。
さらに、CPU10は、ステップS3において前方物体が検出されたことに基づき、上記予測エリアZaを、前方物体が存在する確定エリアZ0に設定し、ステップS9以降の処理を実行する。
ところで、ステップS3において、レーダー装置16により前方物体が検出されなかった場合には(ステップS4:NO)、CPU10は、ステップS18に移行して運転補助を実行する。ここでは、CPU10が、パワートレイン2やブレーキ装置3等を適宜制御し、上述した定速走行制御を実行する。そして、一連の処理をステップS1にリターンする。
このように、本実施形態では、CPU10が、視線検出カメラ17により認識された視線情報に基づいて、進行方向変更状態(直進状態からカーブ走行状態への変更や、車線変更)を予測するとともに、車両Vの進行方向変更に伴う自車前方の走行環境(前方物体への接近状態)に基づいて、車両Vの運転補助(ワーニング装置18による警報、先行走行車両に対する追従走行制御、設定速度を維持する定速走行制御)を実行している。
この場合、視線検出カメラ17の視線情報に基づいて進行方向変更状態を判定することができ、該進行方向変更状態を認識した運転補助により、上記緊急度を低減した走行を実現することが可能になる。
また、CPU10は、ヨーレートφや横加速度Gといった車両Vの状態量に基づいて進行方向変更状態を判定し、これに基づく運転補助を実行する一方、車両Vの状態量に基づく進行方向変更状態の判定を実行する前に、該進行方向変更状態を視線情報に基づいて予測し、該視線情報を主体とした運転補助を実行している。
これにより、車両Vの進行方向が実際に変更される前に、視線情報によって車両Vの前方の走行環境を把握できるため、自車前方の重要物体の認識を早期かつ確実に行える。この場合、進行方向変更状態を判定するための演算処理が早期に実行されるため、CPU10において演算処理の負荷が一時に集中することを防止できる。従って、CPU10の演算処理の高速化が図れ、運転支援装置1を高効率で作動させることが可能になる。
また、絶対値|Δθ|または操作トルクTが所定の閾値Δθ0、T0を超えた所定操舵状態変化時に、視線情報に基づいた運転補助を実行することで、運転者Mの進行方向変更の意思が明確で、視線方向が変更後の進行方向を向いている可能性が高い状態での視線情報に基づいて運転補助を実行できるため、高精度な運転補助が可能になる。
また、操作トルクTが所定の閾値T0を超えた時に、所定操舵状態変化時であると判定することで、進行方向変更の意思がより明確に示されたことを判定できる。このため、視線情報に基づく運転補助をより高精度に実行することができる。
また、視線検出カメラ17が運転者Mの後方視認状態を認識した後の所定期間内に視線を前方に移行させた際の視線情報に基づいて運転補助を実行することにより、車線変更の意思が明確で、視線方向が車線変更後の進行方向を向いている可能性が高い状態での視線情報に基づいて運転補助を実行することができる。このため、車線変更時において高精度な運転補助が可能になる。
また、CPU10が、車両Vの前方の所定領域(レーダー装置16の照射領域A)に存在する前方物体のうち、視線が指向する一部の領域(視認エリアZeに基づいて確定された確定エリアZ0)に存在する重要物体を優先して確定し、かつこの重要物体に対する緊急度を判定することで、緊急度を判定する際の重要物体を絞り込むことが可能になり、運転補助の動作処理(図10のステップS12〜S14)を効率化することができる。
なお、本発明で言うところの運転補助は、ステップS12で実行される警報、ステップS14で実行される追従走行制御、及びステップS18で実行される定速走行制御に必ずしも限定されない。例えば、所定の認識手段により認識された車線に沿って車両を走行させる車線追従走行制御や、前照灯の光軸制御等であってもよい。
また、進行方向変更状態となる場合としては、直進状態からカーブ走行状態へ移行する場合や、車線変更する場合に必ずしも限定されない。例えば、互いに曲率半径が異なる第1カーブから第2カーブへ走行状態を移行する場合や、一時停車を目的として路肩へ移動する場合等、進行方向変更の際に視線方向の変化が伴う状態であればよい。
また、車両が目的地までの走行路を案内するナビゲーション装置を備えている場合であれば、該ナビゲーション装置の位置判定情報に基づいて道路形状を認識できることから、この道路形状の認識に基づいて車両Vの状態量を間接的に判定してもよい。
また、ステップS15では、運転者Mの後方視認状態の認識後、所定期間内における視認エリアZeに基づいて運転補助を実行することとしたが、例えば、運転者の後方視認状態の認識中における視認エリアZeに基づいて運転補助DRを実行するようにしてもよい。
また、図10に示すステップS8では、図8に示すように視線X1、X2に対して所定角度Δα、Δβだけ左右に広がりをもつ視認エリアZeを設定することとしたが、必ずしもこれに限定されるものではなく、例えば、視線の方向が現在の進行方向より右寄り、左寄りのいずれであるかを判定し、この判定に基づいて視認エリアZeを設定してもよい。
また、本発明で言うところの、視線情報を主体として運転を補助するとは、該視線情報に基づいて進行方向変更状態が予測された時、視線情報に基づく運転補助に高い優先度が設定されていることを意味しており、上述した実施形態のように、上記視線情報に基づいて進行方向変更状態が予測された時、視認情報に基づく運転補助が一律的に実行されることに必ずしも限定されない。従って、重み付け等によって、自車の状態量に基づく運転補助よりも上記視線情報に基づく運転補助のほうが高い確率で選定されるような制御であってもよい。
この発明の構成と、上述の実施形態との対応において、
この発明の、視線認識手段は、視線検出カメラ17に対応し、
以下同様に、
運転補助手段は、ステップS3及びステップS7〜S18を実行するCPU10に対応し、
状態量検出手段は、操舵角センサ12、操作トルクセンサ13、ヨーレートセンサ14、及び横加速度センサ15に対応し、
第1運転補助部は、ステップS9〜S14、及びステップS17を実行するCPU10に対応し、
第2運転補助部は、ステップS7〜S16を実行するCPU10に対応し、
操舵状態検出部は、操舵角センサ12及び操作トルクセンサ13に対応し、
緊急度判定手段は、ステップS10、S16を実行するCPU10に対応するも、
この発明は、上述の実施形態の構成のみに限定されるものではなく、多くの実施の形態を得ることができる。
この発明の、視線認識手段は、視線検出カメラ17に対応し、
以下同様に、
運転補助手段は、ステップS3及びステップS7〜S18を実行するCPU10に対応し、
状態量検出手段は、操舵角センサ12、操作トルクセンサ13、ヨーレートセンサ14、及び横加速度センサ15に対応し、
第1運転補助部は、ステップS9〜S14、及びステップS17を実行するCPU10に対応し、
第2運転補助部は、ステップS7〜S16を実行するCPU10に対応し、
操舵状態検出部は、操舵角センサ12及び操作トルクセンサ13に対応し、
緊急度判定手段は、ステップS10、S16を実行するCPU10に対応するも、
この発明は、上述の実施形態の構成のみに限定されるものではなく、多くの実施の形態を得ることができる。
1…運転支援装置
10…CPU
12…操舵角センサ
13…操作トルクセンサ
14…ヨーレートセンサ
15…横加速度センサ
17…視線検出カメラ
10…CPU
12…操舵角センサ
13…操作トルクセンサ
14…ヨーレートセンサ
15…横加速度センサ
17…視線検出カメラ
Claims (6)
- 自車を運転する運転者の視線を認識する視線認識手段を備え、
該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、
上記視線情報に基づいて、自車の進行方向変更状態を判定し、
自車の進行方向変更に伴う自車前方の走行環境に基づいて、運転を補助する運転補助手段を備えた
車両の運転支援装置。 - 自車の進行方向変更状態を、該変更による自車の状態量に基づいて検出する状態量検出手段を備え、
上記運転補助手段は、上記状態量検出手段による検出に基づき、進行方向変更状態を認識して運転を補助する第1運転補助部と、
上記視線情報に基づいて、進行方向変更状態を予測して、上記第1運転補助部よりも上記視線情報を主体として運転を補助する第2運転補助部とを有し、
進行方向変更時付近では、上記第1運転補助部による運転補助の実行前に、第2運転補助部による運転補助を実行する
請求項1記載の車両の運転支援装置。 - 上記状態量検出手段は、操舵状態検出部を備え、
該操舵状態検出部は、操舵角変化による自車の状態量の変化を検出するとともに、
上記第2運転補助部は、所定操舵状態変化時における上記視線情報に基づいて、運転を補助する
請求項2記載の車両の運転支援装置。 - 上記状態量検出手段は、操舵による操作トルクを検出するとともに、
上記第2運転補助部は、操作トルクに基づいて上記所定操舵状態変化時を判定する
請求項2または3記載の車両の運転支援装置。 - 上記第2運転補助部は、上記視線認識手段による運転者の後方視認の認識中、若しくは後方視認の認識後所定期間内における視認情報に基づいて、運転を補助する
請求項2〜4のいずれか一項に記載の車両の運転支援装置。 - 上記運転補助手段は、自車前方の所定領域内に存在する物体を検出し、該物体に関連する物体情報に基づいて緊急度を判定する緊急度判定手段を備え、
該緊急度判定手段は、上記所定領域内に存在する上記物体のうち、視線が指向する一部の領域に存在するものを、上記視線情報に基づいて優先して確定し、この物体に対する緊急度を判定する
請求項1〜5のいずれか一項に記載の車両の運転支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010071375A JP2011204053A (ja) | 2010-03-26 | 2010-03-26 | 車両の運転支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010071375A JP2011204053A (ja) | 2010-03-26 | 2010-03-26 | 車両の運転支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011204053A true JP2011204053A (ja) | 2011-10-13 |
Family
ID=44880622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010071375A Pending JP2011204053A (ja) | 2010-03-26 | 2010-03-26 | 車両の運転支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011204053A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014141700A1 (ja) * | 2013-03-13 | 2014-09-18 | 株式会社デンソー | 車両用顔画像認証装置 |
CN104773174A (zh) * | 2014-01-13 | 2015-07-15 | 通用汽车环球科技运作有限责任公司 | 用于控制混合动力总成***中的蠕变扭矩的方法和装置 |
US10131353B2 (en) | 2015-09-02 | 2018-11-20 | Hyundai Motor Company | Vehicle and method for controlling the same |
CN109562763A (zh) * | 2016-08-09 | 2019-04-02 | 日产自动车株式会社 | 自动驾驶车辆的控制方法及控制装置 |
WO2019155778A1 (ja) * | 2018-02-08 | 2019-08-15 | 株式会社デンソー | 衝突回避支援装置、プログラム、衝突回避支援方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004189101A (ja) * | 2002-12-11 | 2004-07-08 | Nissan Motor Co Ltd | 車両用運転操作補助装置およびその装置を備えた車両 |
JP2005346648A (ja) * | 2004-06-07 | 2005-12-15 | Denso Corp | 視界支援装置およびプログラム |
JP2009020570A (ja) * | 2007-07-10 | 2009-01-29 | Denso Corp | 車両用走行支援装置 |
JP2009067334A (ja) * | 2007-09-17 | 2009-04-02 | Denso Corp | 車両安全装置 |
JP2009274482A (ja) * | 2008-05-12 | 2009-11-26 | Toyota Motor Corp | 運転支援装置、運転支援方法 |
-
2010
- 2010-03-26 JP JP2010071375A patent/JP2011204053A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004189101A (ja) * | 2002-12-11 | 2004-07-08 | Nissan Motor Co Ltd | 車両用運転操作補助装置およびその装置を備えた車両 |
JP2005346648A (ja) * | 2004-06-07 | 2005-12-15 | Denso Corp | 視界支援装置およびプログラム |
JP2009020570A (ja) * | 2007-07-10 | 2009-01-29 | Denso Corp | 車両用走行支援装置 |
JP2009067334A (ja) * | 2007-09-17 | 2009-04-02 | Denso Corp | 車両安全装置 |
JP2009274482A (ja) * | 2008-05-12 | 2009-11-26 | Toyota Motor Corp | 運転支援装置、運転支援方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014141700A1 (ja) * | 2013-03-13 | 2014-09-18 | 株式会社デンソー | 車両用顔画像認証装置 |
CN104773174A (zh) * | 2014-01-13 | 2015-07-15 | 通用汽车环球科技运作有限责任公司 | 用于控制混合动力总成***中的蠕变扭矩的方法和装置 |
CN104773174B (zh) * | 2014-01-13 | 2018-03-30 | 通用汽车环球科技运作有限责任公司 | 用于控制混合动力总成***中的蠕变扭矩的方法和装置 |
US10131353B2 (en) | 2015-09-02 | 2018-11-20 | Hyundai Motor Company | Vehicle and method for controlling the same |
CN109562763A (zh) * | 2016-08-09 | 2019-04-02 | 日产自动车株式会社 | 自动驾驶车辆的控制方法及控制装置 |
CN109562763B (zh) * | 2016-08-09 | 2021-05-04 | 日产自动车株式会社 | 自动驾驶车辆的控制方法及控制装置 |
WO2019155778A1 (ja) * | 2018-02-08 | 2019-08-15 | 株式会社デンソー | 衝突回避支援装置、プログラム、衝突回避支援方法 |
JP2019139401A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社デンソー | 衝突回避支援装置、プログラム、衝突回避支援方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11987238B2 (en) | Driving support apparatus | |
EP3611069B1 (en) | Vehicle control device | |
RU2622616C1 (ru) | Устройство управления транспортным средством | |
US9902399B2 (en) | Vehicle travelling control device for controlling a vehicle in traffic | |
JP7416176B2 (ja) | 表示装置 | |
RU2741126C1 (ru) | Способ управления движением и устройство управления движением для транспортного средства с помощью при вождении | |
US9159023B2 (en) | System for predicting a driver's intention to change lanes | |
JP6555067B2 (ja) | 車線変更支援装置 | |
US8630793B2 (en) | Vehicle controller | |
EP3581449A1 (en) | Driving assist control device | |
JP2020189543A (ja) | 車両の走行制御装置 | |
JP6485328B2 (ja) | 車両の運転支援装置 | |
JP6363516B2 (ja) | 車両の走行制御装置 | |
CN110799403B (zh) | 车辆控制装置 | |
JP2004345518A (ja) | 車両用走行制御装置 | |
US11008012B2 (en) | Driving consciousness estimation device | |
JP2019182328A (ja) | 運転支援装置 | |
JP5488105B2 (ja) | 車両の運転支援装置 | |
WO2019142312A1 (ja) | 車両制御装置、それを有する車両、および制御方法 | |
JP2011204053A (ja) | 車両の運転支援装置 | |
JP6524878B2 (ja) | 車線変更支援装置 | |
WO2017022150A1 (ja) | 自動運転支援装置、自動運転支援方法及び自動運転支援プログラム | |
US20220161805A1 (en) | Vehicle controller and method thereof | |
JP2017056785A (ja) | 車両制御装置、及び車両制御方法 | |
JP2004237813A (ja) | 車両用制動制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140401 |