JP2016103249A - 運転支援装置および運転支援方法 - Google Patents

運転支援装置および運転支援方法 Download PDF

Info

Publication number
JP2016103249A
JP2016103249A JP2014242556A JP2014242556A JP2016103249A JP 2016103249 A JP2016103249 A JP 2016103249A JP 2014242556 A JP2014242556 A JP 2014242556A JP 2014242556 A JP2014242556 A JP 2014242556A JP 2016103249 A JP2016103249 A JP 2016103249A
Authority
JP
Japan
Prior art keywords
risk
driver
vehicle
level
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014242556A
Other languages
English (en)
Inventor
康洋 青木
Yasuhiro Aoki
康洋 青木
水谷 政美
Masami Mizutani
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014242556A priority Critical patent/JP2016103249A/ja
Priority to US14/881,638 priority patent/US20160152182A1/en
Publication of JP2016103249A publication Critical patent/JP2016103249A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】後方車による危険性に対する適切な気づきを運転者に促すことを目的とする。【解決手段】運転支援装置は、自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定する第1の判定部と、前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定する第2の判定部と、前記第2の判定部が前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価する評価部と、前記評価部が評価した気づき易さと前記判定部が判定した危険度とに基づいて、前記後方車の強調表示の態様を決定する決定部と、を備える。【選択図】図1

Description

本発明は、運転支援装置および運転支援方法に関する。
車両を運転する運転者に車両の後方(後側方を含む)の情報を提示することで、運転を支援する技術がある。関連する技術として、後側方車両の操作結果や運転者である人間の心理的判断特性も考慮して警報を行う技術が提案されている。
また、ヘッドアップディスプレイ表示像への運転者の視線の頻度に応じてウィンドシールドに表示されたヘッドアップディスプレイ表示像の輝度レベルを変化させる技術が提案されている。
また、自車線と異なる車線の後側方車両の自車両に対する接近、もしくは離反する度合いの少なくとも何れかを示す目印を後側方領域の映像に重畳表示する技術が提案されている(例えば、特許文献1乃至3を参照)。
特開平08−058503号公報 特開平07−061257号公報 特開2008−015758号公報
車両の運転席に設置されたモニタに表示される映像に含まれる後方車の部分を強調表示することで、運転者に後方車に対する気づきを促すことができる。この場合、後方車に対する運転者の気づき易さに応じて強調表示の態様を変化させることで、運転者の気づき易さに応じた適切な気づきを促すことが好ましい、という知見を発明者は得た。
1つの側面として、本発明は、後方車による危険性に対する適切な気づきを運転者に促すことを目的とする。
1つの態様では、運転支援装置は、自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定する第1の判定部と、前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定する第2の判定部と、前記第2の判定部が前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価する評価部と、前記評価部が評価した気づき易さと前記判定部が判定した危険度とに基づいて、前記後方車の強調表示の態様を決定する決定部と、を備える。
1つの側面によれば、後方車による危険性に対する適切な気づきを運転者に促すことができる。
車両およびカメラの視野の一例を示す図である。 運転支援装置の一例を示す機能ブロック図である。 TTC、車間距離および相対速度と危険度との一例を示す図である。 危険度判定処理の一例を示すフローチャートである。 気づき判定処理の一例を示すフローチャート(その1)である。 気づき判定処理の一例を示すフローチャート(その2)である。 リスク感受性評価処理の一例を示すフローチャートである。 強調表示処理の一例を示すフローチャートである。 モニタに表示される映像の一例を示す図(その1)である。 モニタに表示される映像の一例を示す図(その2)である。 モニタに表示される映像の一例を示す図(その3)である。 他の例における気づき判定処理を示すフローチャート(その1)である。 他の例におけるリスク感受性評価処理の一例を示すフローチャートである。 3台のカメラを用いた車両およびカメラの視野の一例を示す図である。 図14の例における運転支援装置の一例を示す機能ブロック図である。 2台のカメラを用いた車両およびカメラの視野の一例を示す図である。 図16の例における運転支援装置の一例を示す機能ブロック図ある。 運転支援装置のハードウェア構成の一例を示す図である。
以下、図面を参照して、実施形態について説明する。図1は、車両1およびカメラ2の視野Vの一例を示している。車両1は、例えば自動車であってもよい。また、車両1は、自動車以外の車両、例えばダンプトラック等の運搬車両であってもよい。車両1は、図1の矢印の方向に走行している。
以下において、自身が運転する車両1を自車とし、自車の後方を走行する車両1を後方車とする。後方車は、他者が運転する。実施形態では、自車と後方車とは異なる車線を走行しているものとする。車線数は特に限定されない。また、自車と後方車とは同一車線を走行していてもよい。
車両1は、走行方向の後方を視野Vとするカメラ2(バックカメラとも称されることもある)を搭載している。カメラ2は、例えば広角レンズを使用することにより、後方の広い視野の映像を撮影することができる。
図2は、車両1に備えられる運転支援装置11の一例を示している。運転支援装置11は、カメラ2とモニタ12と視線検出装置13とに接続されている。モニタ12は、車両1の運転席の近傍に備えられる表示装置である。例えば、モニタ12は、運転席のインストルメントパネルの側部に設置されてもよい。インストルメントパネルは、例えば、燃料計や水温計等の計器類を表示するパネルである。
視線検出装置13は、車両1の運転者の視線を検出する装置である。視線検出装置13は、任意の手法で運転者の視線を検出してもよい。例えば、視線検出装置13は、目頭に対する虹彩の位置に基づいて運転者の視線を検出してもよい。また、視線検出装置13は、赤外線を用いて、角膜反射に対する瞳孔の位置に基づいて運転者の視線を検出してもよい。
図2の例の運転支援装置11は、後方映像取得部21と後方車情報生成部22と後方車情報記憶部23と危険度判定部24と視線情報取得部25と気づき判定部26とリスク感受性評価部27とリスク感受性記憶部28と強調方法決定部29と表示制御部30と照度検出部31とを備える。
後方映像取得部21は、カメラ2が撮影している車両1の後方の映像を取得する。例えば、カメラ2は所定のフレームレートで後方の映像を撮影し、後方映像取得部21は、所定のフレームレートで後方の映像を取得する。後方映像取得部21は、取得部の一例である。
後方車情報生成部22は、取得した後方の映像に基づいて、自車の後方を走行する後方車を検出する。後方車情報生成部22は、例えば、テンプレートマッチングによる移動体の検出方法を用いて、映像に含まれる後方車を検出してもよい。また、後方車情報生成部22は、例えば、オプティカルフローによる移動体の検出手法を用いてもよい。
後方車情報生成部22は、後方車に関する情報を生成する。後方車情報生成部22は、後方映像取得部21が取得した映像に後方車が出現したことを検出する。後方車情報生成部22は、後方車が出現したことを検出した時刻Tb(以下、出現時刻Tbと称する)を後方車情報記憶部23に記憶する。
また、後方車情報生成部22は、後方映像取得部21が取得した映像に基づいて、後方車が自車を追い抜いたことを検出する。後方車情報生成部22は、後方車が自車を追い抜いた時刻Te(以下、追い抜き時刻Teと称する)を後方車情報記憶部23に記憶する。
後方車情報生成部22は、自車と後方車との間の走行方向における車間距離Lを演算する。例えば、後方車は路面上に存在することから、事前に映像における路面上の点の実際の距離を測定することで、後方車情報生成部22は、自車と後方車との車間距離Lを演算することができる。この車間距離Lは、走行している自車と後方車との間の走行方向における相対距離を示す。
後方車情報生成部22は、カメラ2が撮影する連続する2つのフレームの間での車間距離の変化に基づいて、自車に対する後方車の相対速度Vを演算する。相対速度Vがプラスのときには、後方車は自車に接近していることになり、相対速度Vがマイナスのときには、後方車は自車から遠ざかることになる。車間距離Lおよび相対速度Vの演算手法は、上記の手法に限定されない。
後方車情報記憶部23は、後方車情報生成部22が生成した出現時刻Tbと追い抜き時刻Teと車間距離Lと相対速度Vとを含む後方車情報を後方車情報記憶部23に記憶する。後方車情報生成部22は、所定のタイミングで後方車情報記憶部23に記憶されている後方車情報を更新する。後方車情報記憶部23は、他の情報を記憶してもよい。
実施形態では、後方車情報生成部22は、後方車が自車を追い抜いた後に、後方車情報記憶部23に記憶されている後方車情報を更新する例を説明する。ただし、後方車情報生成部22が後方車情報を更新するタイミングは特に限定されない。例えば、後方車情報生成部22は、運転中に定期的に後方車情報を更新してもよい。
危険度判定部24は、後方車による自車に対する危険性の度合いを示す危険度を判定する。危険度判定24は、第1の判定部の一例である。危険度判定部24は、車間距離Lと相対速度Vと衝突余裕時間とのうち何れか1つ以上の要素に基づいて危険度を判定する。衝突余裕時間は、Time to Collision(TTC)とも称される。以下、衝突余裕時間をTTCと称する。
TTCは、自車と後方車とが同一車線を走行していると仮定した場合、自車と後方車との車間距離Lがゼロになるまでの時間である。衝突余裕時間TTCは、車間距離Lを相対速度Vで除算した値(TTC=L/V)になる。従って、TTCは、車間距離Lと相対速度Vとの両者に基づく値になる。
例えば、危険度判定部24は、TTCの値を危険度の値としてもよい。TTCの値は時間であるため、例えばTTCが6秒であれば、危険度判定部24は危険度を6と判定してもよい。
実施形態では、危険度判定部24は、所定の閾値に基づいて、複数段階に危険度を離散化してレベル分けする。閾値は、予め危険度判定部24に設定されていてもよい。図3(A)は、TTCと危険度との対応関係を示す一例である。
危険度判定部24は、車間距離Lに応じて危険度のレベルを対応付けてもよい。車間距離Lが長くなるに応じて危険度は低くなり、車間距離Lが短くなるに応じて危険度は高くなる。図3(B)は、車間距離Lと危険度のレベルとの対応関係の一例を示している。
危険度判定部24は、相対速度Vに応じて危険度のレベルを対応付けてもよい。相対速度Vは遅くなるに応じて危険度は低くなり、相対速度Vが速くなるに応じて危険度は低くなる。図3(C)は、相対速度Vと危険度のレベルとの対応関係の一例を示している。
図3(A)〜(C)の例では、危険度は4段階にレベル分けされている。ただし、危険度のレベルは4段階には限定されない。危険度がレベル1のときは、危険度は比較的低いことを示す。危険度は、レベルが高くなるに応じて、危険であることを示す。従って、危険度がレベル4のときに、危険度は最も危険であることを示す。
TTCが大きいと、自車と後方車とが衝突するまでにかかる時間が長くなる。従って、TTCが大きい場合、危険度はレベル1になる。例えば、TTCが6秒以上のときに危険度をレベル1としてもよい。
TTCが小さくなるに応じて、自車と後方車とが衝突するまでにかかる時間が短くなる。従って、TTCが中程度の場合(例えば、4秒≦TTC<6秒)、危険度はレベル2としてもよい。TTCが小さい場合(例えば、2秒≦TTC<4秒)、危険度はレベル3としてもよい。TTCが非常に小さい場合(例えば、0秒<TTC<2秒)、危険度はレベル4としてもよい。
上述したように、危険度判定部24は、TTCと車間距離Lと相対速度Vとのうち2つまたは3つを基準に危険度を判定してもよい。例えば、相対速度Vがゼロに近づくほど、TTCの値は大きくなる。相対速度Vがゼロになると、TTCの値は無限大になる。このため、TTCの値を基準とすると、危険度判定部24が判定する危険度は低くなる。従って、危険度はレベル1になる。
このとき、後方車が自車に接近していたとする。この場合、車間距離Lは非常に短くなる。車間距離Lが非常に短い状態で、自車の運転者が急ブレーキの操作を行った場合、または後方車の運転者が急加速の操作を行った場合、TTCに基づく危険度がレベル1であったとしても、実際の危険度は高くなる。
この場合、危険度判定部24は、TTCに基づく危険度と車間距離Lに基づく危険度とのうち高い方の危険度を採用する。これにより、TTCに基づく危険度は安全であることを示していたとしても、車間距離Lに基づく危険度は危険であることを示している。従って、危険度判定部24は、危険度が高い方の車間距離Lに基づく危険度を選択することで、より安全性を考慮した危険度の選択を行うことができる。
視線情報取得部25は、視線検出装置13が検出する運転者の視線の情報(以下、視線情報と称する)を取得する。視線情報取得部25が取得する視線情報は、運転者の視線軌跡を含む。
気づき判定部26は、モニタ12に表示される映像に強調表示が行われたときにおける運転者の強調表示に対する気づきを判定する。気づき判定部26は、視線情報取得部25から視線情報を取得して、取得した視線情報が示す視線軌跡に基づいて運転者の気づきを判定する。気づき判定部26は、第2の判定部の一例である。
例えば、気づき判定部26は、モニタ12に強調表示が行われてから所定時間以内に運転者がモニタ12を見たか否かを視線情報の視線軌跡に基づいて判定する。また、例えば、気づき判定部26は、運転者がモニタ12を所定時間注視しているか否か、または複数回見たかを視線情報の視線軌跡に基づいて判定する。
リスク感受性評価部27は、運転者の危険性に対する気づき易さを評価する。実施形態では、運転者の危険性に対する気づき易さをリスク感受性と称する。リスク感受性評価部27は、危険度判定部24が判定する危険度と気づき判定部26が判定する判定結果とに基づいて、リスク感受性を評価する。リスク感受性評価部27は、評価部の一例である。
リスク感受性と運転者の熟練度との相関性は比較的高い。ただし、運転者の熟練度が高い場合であっても、運転者のリスク感受性が低くなる場合がある。例えば、運転者の疲労度が高い場合や体調が悪い場合等は、運転者のリスク感受性は低くなる。
リスク感受性記憶部28は、リスク感受性評価部27が評価したリスク感受性を記憶する。リスク感受性評価部27は、自車が後方車に追い抜かされるごとに運転者のリスク感受性の評価を行い、リスク感受性記憶部28に記憶されているリスク感受性の更新を行う。
これにより、運転中に動的に変化する運転者の状態に応じたリスク感受性に更新することができる。また、リスク感受性評価部27は、定期的にリスク感受性を評価して、評価したリスク感受性を更新してもよい。
強調方法決定部29は、危険度判定部24が判定した危険度とリスク感受性記憶部28が記憶している運転者のリスク感受性とに基づいて、映像に写っている後方車の強調表示の態様を決定する。強調表示の態様は、強調表示のレベルの一例である。また、強調方法決定部29は、決定部の一例である。
実施形態では、強調方法決定部29は、危険度のレベルとリスク感受性のレベルとに応じて、強調表示の態様を決定する。強調方法決定部29は、危険度のレベルまたはリスク感受性のレベルに変更がなければ、現在の強調表示の態様を維持する。一方、強調方法決定部29は、危険度のレベルまたはリスク感受性のレベルに変更があれば、強調表示の態様を変更する。
表示制御部30は、後方映像取得部21が取得した映像に対して、強調方法決定部29が決定した態様の強調表示を重畳する。そして、表示制御部30は、強調表示が重畳された映像をモニタ12に表示する制御を行う。映像は所定のフレームレートの動画像であるため、モニタ12には強調表示が重畳された動画像の映像が表示される。
<後方車情報生成処理の一例>
次に、図4に一例として示すフローチャートを参照して、後方車情報生成処理の一例について説明する。後方車情報生成部22は、カメラ2が撮影する連続する2つのフレームの間での車間距離の変化に基づいて、自車に対する後方車の相対速度Vを演算する(ステップS1)。
また、後方車情報生成部22は、上述したように、自車と後方車との車間距離Lを演算する(ステップS2)。後方車情報記憶部23は、演算された相対速度Vおよび車間距離Lを記憶する。
危険度判定部24は、後方車情報記憶部23から相対速度Vおよび車間距離Lを取得する。そして、危険度判定部24は、車間距離Lに基づく危険度レベルを判定する(ステップS3)。車間距離Lが長ければ危険度レベルは低くなり、車間距離Lが長ければ危険度レベルは高くなる。
危険度判定部24は、車間距離Lを相対速度Vで除算してTTCを演算する(ステップS4)。そして、危険度判定部24は、TTCに基づく危険度レベルを判定する(ステップS3)。TTCが大きければ危険度レベルは低くなり、TTCが小さければ危険度レベルは高くなる。
危険度判定部24は、車間距離Lに基づく危険度とTTCに基づく危険度との何れの危険度が高いかを判定し、高い方の危険度を危険度として使用する。上述したように、危険度判定部24は、車間距離Lに基づく危険度とTTCに基づく危険度と相対速度Vに基づく危険度とのうち最も高い危険度を危険度として使用してもよい。
<気づき判定処理の一例>
次に、図5および図6に一例として示すフローチャートを参照して、気づき判定処理について説明する。気づき判定処理は、リスク感受性を評価するために行われる。リスク感受性評価部27は、後方車情報記憶部23に記憶されている後方車情報から追い抜き時刻Teおよび出現時刻Tbを取得する(ステップS11)。
リスク感受性評価部27は、追い抜き時刻Teから出現時刻Tbを減算して、差分時間ΔT(=Te−Tb)を得る(ステップS12)。差分時間ΔTは、映像に後方車が出現してから、該後方車が自車を追い抜くまでの時間である。後方車が自車を追い抜いたか否かは、例えば、映像に写っていた後方車が徐々に大きくなり、映像から後方車が消えたことにより検出することができる。
差分時間ΔTが大きい場合、後方車は長い時間をかけて自車を追い抜いたことになる。一方、差分時間ΔTが小さい場合、後方車は短時間で自車を追い抜いたことになる。後方車が短時間で自車を追い抜いた場合、自車の運転者は、リスク感受性にかかわらず、十分に後方を確認することが難しい。
後方車が短時間で自車を追い抜いた場合、モニタ12に表示される映像に重畳される強調表示は短時間で消える。このため、リスク感受性が高い運転者でも、強調表示に気づかない場合がある。この場合、リスク感受性評価部27が評価する運転者のリスク感受性の確度を低下させる可能性がある。従って、差分時間ΔTが「ΔT>Tmin」を満たす場合に、リスク感受性評価部27は、リスク感受性の評価を行う。Tminは予め設定された第1の閾値である。
一方、差分時間ΔTが十分に長い時間の場合、モニタ12には、強調表示が長時間表示されることになる。この場合、リスク感受性が低い運転者でも、強調表示に気づく可能性が高くなり、リスク感受性が低い運転者の評価が高くなる可能性がある。従って、差分時間ΔTが「ΔT<Tmax」を満たす場合に、リスク感受性評価部27は、リスク感受性の評価を行う。
実施形態では、リスク感受性評価部27は、差分時間ΔTが「Tmin<ΔT<Tmax」を満たしているか否かを判定する(ステップS13)。Tminは予め設定された第1の閾値である。Tmaxは予め設定された第2の閾値である。TminおよびTmaxは、リスク感受性を適切に評価できる時間に設定されることが好ましい。
差分時間ΔTが「Tmin<ΔT<Tmax」を満たしていない場合(ステップS13でNO)、リスク感受性評価部27はリスク感受性の評価を行わない。この場合、気づき判定処理は行われない。従って、処理はそのまま終了する。
一方、差分時間ΔTが「Tmin<ΔT<Tmax」を満たしている場合(ステップS13でYES)、リスク感受性の評価を行うために気づき判定の処理が行われる。このため、処理は「A」に進む。「A」以降の処理は、気づき判定部26が行う。
図6を参照して、「A」以降の処理について説明する。気づき判定部26は、表示制御部30が強調表示を開始した時刻(以下、強調表示開始時刻Tsと称する)を検出する(ステップS14)。
気づき判定部26は、視線情報取得部25から運転者の視線情報を取得する(ステップS15)。気づき判定部26は、強調表示開始時刻Tsから所定時間以内にモニタ12を見たか否かを視線情報の視線軌跡に基づいて判定する(ステップS16)。
例えば、気づき判定部26は、強調表示開始時刻Tsを検出して、該時刻Tsから時間の計測を行い、所定時間以内に運転者の視線の先がモニタ12の範囲内にあるか否かを判定する。上記の所定時間は任意に設定してもよい。
モニタ12に映し出されている後方車に強調表示がされると、モニタ12が表示する映像に目立つ変化が生じる。モニタ12に目立つ変化が生じたときには、運転者は、モニタ12に視線を向ける可能性が高い。
気づき判定部26が強調表示開始時刻Tsから所定時間以内にモニタ12を見たと判定したとき(ステップS16でYES)、気づき判定部26は、運転者が強調表示に短時間で気づいたと判定する(ステップS17)。
一方、気づき判定部26が強調表示開始時刻Tsから所定時間以内にモニタ12を見ていないと判定したとき(ステップS16でNO)、所定時間経過後、運転者が所定回数以上モニタ12を見たか否かを判定する(ステップS18)。モニタ12を見たか否かは、視線情報の視線軌跡に基づく。
実施形態では、後方車が接近するに応じて、強調表示の表示レベルが強くなる。このため、運転者が短時間で強調表示に気づかなかったとしても、強調表示開始時刻Tsから所定時間経過後に、運転者は何回かモニタ12に視線を向けることがある。
運転者が、強調表示開始時刻Tsから所定時間経過後に所定回数以上、モニタ12を見たとする。この場合(ステップS18でYES)、気づき判定部26は、モニタ12を所定回数見たときの時刻(以下、気づき時刻Twと称する)で気づいたと判定する(ステップS19)。
所定回数は任意の回数であってもよい。例えば、所定回数は1回であってもよいし、2回であってもよい。ただし、運手者は後方車に気づいていない場合でも、偶発的に視線軌跡がモニタ12を向く可能性がある。そこで、所定回数は1回でなく、複数回であることが好ましい。
気づき時刻Twは、運転者の視線軌跡が上記の所定回数目のときにモニタ12に向いた時刻である。例えば、所定回数が2回の場合、運転者の視線軌跡が2回目にモニタ12を向いた時刻が気づき時刻Twとなる。運転者の視線軌跡がモニタ12に向いた時刻は、運転者がモニタ12を見た時刻である。
運転者の視線軌跡が、強調表示開始時刻Tsから所定時間経過後に所定回数以上、モニタ12に向かわなかった場合、つまり、この間に運転者がモニタ12を見なかったとする(ステップS18でNO)。この場合、気づき判定部26は、運転者に強調表示の気づきがなかったと判定する(ステップS20)。
気づき判定部26は、以上の判定を行う。気づき判定部26の判定が終わると、処理は「B」から図5の「B」に戻り、処理が終了する。以上により、気づき判定部26は、運転者の気づきを判定する。
従って、図6の例の場合、気づき判定部26は、運転者の気づきを3段階のレベルに判定する。例えば、気づき判定部26は、ステップS20の場合、気づきレベルをゼロと判定してもよい。
また、気づき判定部26は、ステップS19の場合、気づきレベルを1と判定してもよい。また、気づき判定部26は、ステップS17の場合、気づきレベルを2と判定してもよい。気づきレベルは3段階には限定されない。気づきレベルは2段階であってもよいし、4段階以上であってもよい。
<リスク感受性の評価の処理の一例>
次に、図7のフローチャートを参照して、リスク感受性の評価の処理の一例を説明する。リスク感受性評価部27は、気づき判定部26が判定した判定結果を取得する(ステップS30)。以下、この判定結果を気づき判定結果と称する。
実施形態では、リスク感受性評価部27は、リスク感受性を「高」と「並」と「低」との3段階のレベルで評価する。リスク感受性は4段階以上であってもよいし、2段階であってもよい。評価されたリスク感受性は、リスク感受性記憶部28に記憶される。実施形態では、運転者のリスク感受性の初期値は「並」であるとする。
上述したように、気づき判定部26は、気づき判定結果が、「短時間で気づいた」、「モニタ12を所定回数見たときの時刻Twで気づいた」または「気づきがなかった」の何れかであると判定する。
リスク感受性評価部27は、気づき判定結果が「短時間で気づいた」であるか否かを判定する(ステップS31)。リスク感受性評価部27は、気づき判定結果が「短時間で気づいた」の場合(ステップS31でYES)、リスク感受性を1段階上げる(ステップS32)。つまり、気づき易さのレベルを1つ上げる。
一方、気づき判定結果が「短時間で気づいた」でない場合(ステップS31でNO)、リスク感受性評価部27は、気づき判定結果が「気づきがなかった」であるか否かを判定する(ステップS33)。
気づき判定結果が「気づきがなかった」である場合、運転者は、出現時刻Tbから追い抜き時刻Teまでモニタ12に表示されている強調表示に気づかなかったことになる。気づき判定結果が「気づきがなかった」である場合(ステップS33でYES)、運転者のリスク感受性のレベルを2段階下げる(ステップS34)。
例えば、リスク感受性記憶部28に記憶されている運転者のリスク感受性が「高」の場合であっても、リスク感受性評価部27はリスク感受性のレベルを2段階下げて、「低」にする。なお、リスク感受性記憶部28に記憶されている運転者のリスク感受性が「中」の場合、リスク感受性評価部27はリスク感受性のレベルを1段階下げて、「低」にする。つまり、気づき易さのレベルを2つ下げる。
一方、気づき判定結果が「気づきがなかった」でない場合(ステップS33でNO)、気づき判定結果は「モニタ12を所定回数見たときの時刻Twで気づいた」になる。この場合、リスク感受性評価部27は、運転者が所定回数目で気づいた時刻Twにおける危険度に基づいて、リスク感受性を評価する(ステップS35)。
気づき時刻Twにおける危険度がレベル1またはレベル2の場合(以下、この場合を危険度が「小」とする)、リスク感受性評価部27は、現在のリスク感受性のレベルを維持する(ステップS36)。
危険度が「小」の場合、モニタ12に表示される強調表示の度合いも弱いため、運転者は、強調表示に気づきにくい。従って、リスク感受性評価部27は、リスク感受性記憶部28に記憶されている現在のリスク感受性のレベルを維持する。
気づき時刻Twにおける危険度がレベル3の場合(以下、この場合を危険度が「中」とする)、リスク感受性評価部27は、現在のリスク感受性のレベルを1段階下げる(ステップS37)。気づき時刻Twのときの危険度が「中」の場合、モニタ12に表示される強調表示の度合いはある程度強い。このため、リスク感受性評価部27は、リスク感受性のレベルを1段階下げる。
気づき時刻Twにおける危険度がレベル4の場合(以下、この場合を危険度が「大」とする)、リスク感受性評価部27は、現在のリスク感受性のレベルを2段階下げる(ステップS34)。気づき時刻Twのときの危険度が「大」の場合、モニタ12に表示される強調表示の度合いは強い。このため、リスク感受性評価部27は、リスク感受性のレベルを2段階下げる。
リスク感受性評価部27は、以上のようにして、運転者のリスク感受性を評価する。リスク感受性の評価は、気づき判定部26が運転者の気づきを判定するごとに行ってもよい。気づき判定部26は、後方車が出現してから自車を追い抜くごとに気づき判定を行ってもよい。
この場合、リスク感受性の評価は、後方車が自車を追い抜くごとに行われる。従って、運転者が自車を運転している間に動的にリスク感受性記憶部28が記憶する運転者のリスク感受性が更新されていく。
<強調表示の処理の一例>
次に、図8のフローチャートを参照して、強調表示の処理の一例を説明する。強調方法決定部29は、リスク感受性記憶部28からリスク感受性を取得し、危険度判定部24が判定した危険度を取得する(ステップS41)。
強調方法決定部29は、取得したリスク感受性と危険度とに基づいて、モニタ12に表示する強調表示の態様を決定する(ステップS42)。実施形態では、強調方法決定部29は、リスク感受性のレベルと危険度のレベルとに基づいて、強調表示の態様を決定する。
運転者のリスク感受性が高い場合、モニタ12に表示される強調表示が強いと、却って視認性が低下し、リスク感受性の高い運転者にとっては煩わしい。一方、運転者のリスク感受性が低い場合には、モニタ12に表示される強調表示は強い方が好ましい。
また、危険度が低いときに、モニタ12に表示される強調表示が強いと、運転者の視認性が低下する。このため、危険度が低いときには、モニタ12には弱い強調表示が行われることが好ましい。一方、危険度が高いときには、モニタ12には強い強調表示が行われることが好ましい。
表示制御部30は、後方映像取得部21が取得した自車の後方の映像を入力する(ステップS43)。表示制御部30は、後方の映像に対して、強調方法決定部29が決定した態様の強調表示を重畳する(ステップS44)。
そして、表示制御部30は、強調表示を重畳した映像をモニタ12に表示する(ステップS45)。モニタ12には、カメラ2が撮影している映像がリアルタイムに表示される。そして、この映像に写っている後方車に対して強調表示が重畳表示されている。
<モニタに表示される映像の一例>
次に、図9乃至図11を参照して、モニタに表示される映像の一例について説明する。図9は、リスク感受性が「高」の場合における、危険度レベルに応じた強調表示が重畳された映像の一例を示している。
実施形態では、映像に写っている後方車35を囲う矩形の枠が強調表示36であるとする。強調表示は、矩形の枠には限定されない。例えば、強調表示は、映像に写っている後方車35を円形や楕円形の枠であってもよい。また、強調表示は、映像に写っている後方車35そのものの表示態様を変化させるものであってもよい。
図9(A)〜図9(D)はリスク感受性が「高」の運転者の場合のモニタ12の表示例である。図9(A)の場合、危険度レベル1であるため、危険性は低い。従って、強調方法決定部29は、映像に対して強調表示36を重畳しない。このため、図9(A)の例の映像には強調表示36は含まれていない。なお、図9(A)の時点で、強調方法決定部29は、強調表示36を映像に含めてもよい。
図9(B)は、危険度レベル2の場合の映像の例を示している。図9(B)の場合、後方車35は図9(A)のときと比較して自車に接近している。つまり、車間距離Lが短くなっている。
このため、強調方法決定部29は、映像に対して強調表示36を重畳する。図9(B)の例では、運転者のリスク感受性は「高」である。よって、強調方法決定部29は、枠の幅が小さい態様の強調表示36を重畳するように決定している。つまり、強調方法決定部29は、弱い強調表示36を映像に重畳している。
運転者のリスク感受性が「高」の場合、強調表示36の枠の幅が小さくても、強調表示36に気づき易い。枠の幅が大きい強調表示36は、映像の視認性を低下させる要因となり、リスク感受性の高い運転者にとっては煩わしい表示になる。このため、強調方法決定部29は、枠の幅が小さい態様の強調表示36を重畳する決定を行う。
図9(C)は、図9(B)の状態より、さらに後方車35が自車に接近した映像の例を示している。後方車35が自車に接近しているため、映像に写る後方車35が大きくなり、強調表示36も大きくなる。
図9(D)は、図9(C)の状態より、さらに後方車35が自車に接近した映像の例を示している。強調方法決定部29は、危険度レベル4のときには、強調表示36の枠の色を変化させている。
例えば、強調方法決定部29は、図9(B)および(C)のときには、強調表示36の枠の色を黄色に決定し、図9(D)のときには、強調表示36の枠の色を赤色に決定してもよい。図9乃至図11の例では、強調表示36の枠の色が黄色の場合、薄い網掛けが強調表示36に施されている。また、強調表示36の枠の色が赤色の場合、濃い網掛けが強調表示36に施されている。
危険度レベル4のときには、4段階の危険度のうち最もレベルが高い。従って、危険度レベル4のときには、強調方法決定部29は、運転者に危険度レベルが最も高いことを認識させるため、強調表示36の枠の色を変化させている。
図10(A)〜図10(D)はリスク感受性が「並」の運転者の場合のモニタ12の表示例である。上述した場合と同様、図10(A)の場合、危険度レベル1であるため、モニタ12の映像には強調表示36は含まれていない。
図10(B)は、危険度レベル2の場合の映像の例を示している。強調方法決定部29は、危険度レベル2であるため、強調表示36を映像に重畳している。図10(B)は、リスク感受性が「並」の運転者が運転している場合のモニタ12の表示例である。
運転者のリスク感受性が「並」のため、強調方法決定部29は、リスク感受性が「高」の場合の強調表示36より強い態様で強調表示36を映像に重畳させることが好ましい。図10(B)の例では、図9(B)の例と比較して、強調表示36の枠の幅が大きくなっている。
従って、モニタ12に表示される強調表示36は、図9(B)の場合よりも強く表示される。実施形態では、強調方法決定部29は、運転者のリスク感受性に応じて、強調表示36の枠の幅を変更しているが、この例には限定されない。例えば、運転者のリスク感受性が「並」の場合には、強調表示36の枠を低速に点滅させてもよい。
図10(C)は、図10(B)の状態より、さらに後方車35が自車に接近した映像の例を示している。後方車35が自車に接近しているため、映像に写る後方車35が大きくなり、強調表示36も大きくなる。
図10(D)は、図10(C)の状態より、さらに後方車35が自車に接近した映像の例を示している。強調方法決定部29は、危険度レベル4のときには、強調表示36の枠の色を変化させている。上述した場合と同様、強調方法決定部29は、危険度レベル2または3のときには、枠の色を黄色にし、危険度レベル4のときには、枠の色を赤色に決定してもよい。
図11(A)〜図11(D)はリスク感受性が「低」の運転者の場合のモニタ12の表示例である。上述した場合と同様、図11(A)の場合、危険度レベル1であるため、モニタ12の映像には強調表示36は含まれていない。
図11(B)は、危険度レベル2の場合の映像の例を示している。強調方法決定部29は、危険度レベル2であるため、強調表示36を映像に重畳している。図11(B)は、リスク感受性が「低」の運転者が運転している場合のモニタ12の表示例である。
運転者のリスク感受性が「低」のため、強調方法決定部29は、リスク感受性が「並」の場合の強調表示36より強い態様で強調表示36を映像に重畳させることが好ましい。図11(B)の例では、図10(B)の例と比較して、強調表示36の枠の幅が大きくなっている。
従って、モニタ12に表示される強調表示36は、図10(B)の場合よりも強く表示される。つまり、強調表示36の枠の幅は、リスク感受性が「低」の運転者が運転している場合が最も大きい。なお、強調表示36の枠を点滅させる場合、強調方法決定部29は、強調表示36の枠を高速に点滅させてもよい。
図11(C)は、図11(B)の状態より、さらに後方車35が自車に接近した映像の例を示している。後方車35が自車に接近しているため、映像に写る後方車35が大きくなり、強調表示36も大きくなる。
図11(D)は、図11(C)の状態より、さらに後方車35が自車に接近した映像の例を示している。強調方法決定部29は、危険度レベル4のときには、強調表示36の枠の色を変化させている。上述した場合と同様、強調方法決定部29は、危険度レベル2または3のときには、枠の色を黄色にし、危険度レベル4のときには、枠の色を赤色に決定してもよい。
<リスク感受性の制限の一例>
上述した例では、リスク感受性評価部27は、運転者のリスク感受性を「高」と「並」と「低」とに分けて評価している。このとき、リスク感受性評価部27は、評価できるリスク感受性を「並」または「低」に制限してもよい。つまり、リスク感受性評価部27は運転者のリスク感受性を「高」と評価しないように制限してもよい。
例えば、運転者が自車を運転している時間帯が夜間である場合には、運転者は、映像に写る後方車を気づくことが、昼間よりも難しくなる。このため、リスク感受性評価部27が運転者のリスク感受性を「高」と評価できる場合でも、リスク感受性評価部27は運転者のリスク感受性を「並」と評価してもよい。
照度検出部31は、後方映像取得部21が取得した映像を入力し、映像の照度を検出する。照度が予め設定された照度の閾値より低い場合には、照度検出部31は、自車の周囲が暗いことを検出し、夜間であると判定してもよい。照度が低いか否かは、例えば、映像の各画素の輝度値に基づいて判定することができる。
照度検出部31が夜間であると判定した場合、リスク感受性評価部27に夜間であることを通知する。この通知を入力したリスク感受性評価部27は、リスク感受性を「高」と評価しないようにしてもよい。これにより、より安全な運転支援を行うことができる。
また、運転支援装置11に予め運転者の技量を設定してもよい。運転者が初心者であると設定されている場合には、リスク感受性評価部27は、リスク感受性を「高」と評価しないようにしてもよい。これにより、より安全な運転支援を行うことができる。
<注視に基づくリスク感受性の評価の一例>
次に、リスク感受性の評価の他の例について、図12および図13のフローチャートを参照して説明する。上述した図12のフローチャートは図6のフローチャートのステップS18およびS19が異なる。
気づき判定部26は、強調表示開始時刻Tsから所定時間経過後に、一定時間以上、運転者がモニタ12を見たか否かを判定する(ステップS18−1)。運転者がモニタ12を見たか否かは、視線情報の視線軌跡に基づく。
運転者12の視線軌跡が一定時間以上、モニタ12に向いているときには、モニタ12に表示されている強調表示36を運転者が注視している可能性が高い。この場合、気づき判定部26は、一定時間以上の注視による気づきがあったと判定する(S19−1)。
図13のフローチャートは、図7のフローチャートのステップS35が異なる。リスク感受性評価部27は、運転者がモニタ12を注視したときの危険度を判定する(S35−1)。運転者がモニタ12を注視したか否かは視線情報の視線軌跡に基づく。
運転者の視線軌跡が一定時間以上、モニタ12に向かっているときの危険度が「小」の場合、リスク感受性評価部27は、リスク感受性の段階を維持する(ステップS36)。危険度が小さいときは、強調表示36の強さは弱い。リスク感受性評価部27は、弱い強調表示36でも、運転者に気づきがあったため、リスク感受性の段階を維持する。
運転者の視線軌跡が一定時間以上、モニタ12に向かっているときの危険度が「中」の場合、リスク感受性評価部27は、リスク感受性の段階を1段階下げる(ステップS37)。この場合、モニタ12に表示される強調表示はある程度強いため、リスク感受性評価部27は、リスク感受性の段階を1段階下げる。
運転者の視線軌跡が一定時間以上、モニタ12に向かっているときの危険度が「大」の場合、リスク感受性評価部27は、リスク感受性の段階を2段階下げる(ステップS34)。危険度が「大」のときの強調表示36は強い。この段階になるまで、運転者がモニタ12を注視しない場合、リスク感受性評価部27は、運転者のリスク感受性が低いと判定する。よって、リスク感受性評価部27は、運転者のリスク感受性を2段階下げる。
従って、リスク感受性評価部27は、運転者がモニタ12を見た回数に基づいてリスク感受性の評価を行ってもよいし、運転者がモニタ12を一定時間以上注視したか否かに基づいてリスク感受性の評価を行ってもよい。
<3台のカメラを使用した例>
図14は、3台のカメラを用いた例を示している。図14の例は、図1に示した後方を撮影するカメラ2に加えて、左カメラ2Lおよび右カメラ2Rが車両1に設置されている例を示している。左カメラ2Lおよび右カメラ2Rは、カメラ2の前方(例えば、運転席の側方)に設置されている。
左カメラ2Lは車両1の左側後方を撮影している。右カメラ2Rは車両1の右側後方を撮影している。左カメラ2Lの視野は、図14の例に示す視野VLである。右カメラ2Rの視野は、図14の例に示す視野VRである。左カメラ2Lの視野VLおよび右カメラ2Rの視野VRは、車両1の進行方向に直交する方向に長い。
左カメラ2Lは、自車が走行している車線の左側の車線を走行している後方車を遠い位置から捉えることができる。右カメラ2Rは、自車が走行している車線の右側の車線を走行している後方車を遠い位置から捉えることができる。
図15は、3台のカメラを設置した場合の運転支援装置11の一例を示している。後方映像取得部21は、カメラ2、左カメラ2Lおよび右カメラ2Rから映像を取得する。危険度判定部24は、カメラ2、左カメラ2Lまたは右カメラ2Rが後方車を捉えたときに、危険度を判定する。
そして、リスク感受性評価部27は、運転者のリスク感受性を評価する。強調方法決定部29は、上述したように、危険度とリスク感受性とに基づいて、強調表示36の態様を決定する。
3台のカメラが撮影する映像は、1台のモニタに表示されてもよいが、それぞれ異なるモニタに表示されることが好ましい。そこで、図15の例に示すように、表示制御部30は、左モニタ12Lと右モニタ12Rとバックミラーモニタ41とに映像を表示する。
左モニタ12Lは、例えば、運転席のインストルメントパネルの左側に設置される。右モニタ12Rは、例えば、運転席のインストルメントパネルの右側に設置される。バックミラーモニタ41は、運転席の上部に設置されるバックミラーの一部または全部に映像を表示する。
左カメラ2Lが撮影した後方車の映像に強調表示36が重畳される場合には、強調表示36が重畳された映像は左モニタ12Lに表示される。右カメラ2Rが撮影した後方車の映像に強調表示36が重畳される場合には、強調表示36が重畳された映像は右モニタ12Rに表示される。
カメラ2が撮影した後方車の映像に強調表示36が重畳される場合には、強調表示36が重畳された映像はバックミラーモニタ41に表示される。これにより、3台のカメラが撮影した映像に対して、強調方法決定部29が決定した態様の強調表示36が重畳され、重畳された映像が対応するモニタに表示される。
左カメラ2Lが撮影した映像は左モニタ12Lに表示される。右モニタ2Lが撮影した映像は右モニタ12Rに表示される。カメラ2が撮影した映像はバックミラーモニタ41に表示される。
運転者は、後方を確認するときに、バックミラーを視認する。よって、運転者はバックミラーモニタ41に表示されるカメラ2の映像に重畳される強調表示36を気づき易くなる。
同様に、運転者の右側にある右モニタ12Rに表示される映像に強調表示36が重畳された場合、および運転者の左側にある左モニタ12Lに表示される映像に強調表示36が重畳された場合、運転者の左右に対応するモニタに強調表示36が表示される。従って、運転者は、強調表示36を気づき易くなる。
<2台のカメラを使用した例>
上記3台のカメラを使用した例のうち、2台のみを使用してもよい。たとえばカメラ2とバックミラーモニタ41を除いて、カメラ2L、2Rと、モニタ12L,12Rの2台構成にしてもよい。
図16は、2台のカメラを用いた例を示している。図16は、図14に示したカメラ2の設置例のうち、左カメラ2Lおよび右カメラ2Rが車両1に設置されている一例を示している。
図17は、2台のカメラを設置した場合の運転支援装置11の一例を示している。後方映像取得部21は、左カメラ2Lおよび右カメラ2Rから映像を取得する。危険度判定部24は、左カメラ2Lまたは右カメラ2Rが後方車を捉えたときに、危険度を判定する。
そして、リスク感受性評価部27は、運転者のリスク感受性を評価する。強調方法決定部29は、上述したように、危険度とリスク感受性とに基づいて、強調表示36の態様を決定する。
上述したように、2台のカメラが撮影する映像は、1台のモニタに表示されてもよいが、それぞれ異なるモニタに表示されることが好ましい。そこで、図15の例に示すように、表示制御部30は、左モニタ12Lと右モニタ12Rとに映像を表示する。
上述したように、左モニタ12Lは、例えば、運転席のインストルメントパネルの左側に設置される。また、右モニタ12Rは、例えば、運転席のインストルメントパネルの右側に設置される。
左カメラ2Lが撮影した後方車の映像に強調表示36が重畳される場合には、強調表示36が重畳された映像は左モニタ12Lに表示される。右カメラ2Rが撮影した後方車の映像に強調表示36が重畳される場合には、強調表示36が重畳された映像は右モニタ12Rに表示される。
これにより、2台のカメラが撮影した映像に対して、強調方法決定部29が決定した態様の強調表示36が重畳され、重畳された映像が対応するモニタに表示される。左カメラ2Lが撮影した映像は左モニタ12Lに表示される。右モニタ2Lが撮影した映像は右モニタ12Rに表示される。運転者の左右に対応するモニタに強調表示36が表示されるため、運転者は、強調表示36を気づき易くなる。
<運転支援装置のハードウェア構成の一例>
次に、図18の例を参照して、運転支援装置11のハードウェア構成の一例を説明する。図18の例に示すように、バス100に対して、CPU111とRAM112とROM113と補助記憶装置114と媒体接続部115と入出力インタフェース116とが接続されている。
CPU111は任意の処理回路である。CPU111はRAM112に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態の処理を行うプログラムを適用することができる。ROM113はRAM112に展開されるプログラムを記憶する不揮発性の記憶装置である。
補助記憶装置114は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等を補助記憶装置114に適用することができる。媒体接続部115は、可搬型記録媒体118と接続可能に設けられている。入出力インタフェース116は、外部機器とデータの入出力を行うインタフェースである。外部機器としては、例えば、カメラ2やモニタ12、視線検出装置13等がある。
可搬型記録媒体118としては、可搬型のメモリや光学式ディスク(例えば、Compact Disk(CD)やDigital Versatile Disk(DVD)等)を適用することができる。この可搬型記録媒体118に実施形態の処理のプログラムが記録されていてもよい。
運転支援装置11のうち、後方車情報記憶部23およびリスク感受性記憶部28は、RAM112や補助記憶装置114により実現されてもよい。運転支援装置11のうち、後方車情報記憶部23およびリスク感受性記憶部28以外の各部はCPU111により実現されてもよい。
RAM112、ROM113および補助記憶装置114は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。
<その他>
従って、運転者の視線軌跡による気づきと後方車による自車に対する危険度とに基づいて運転者の気づき易さを評価し、気づき易さと危険度とに基づいて強調表示の態様を決定していることで、危険性に対する適切な気づきを運転者に促すことができる。
運転者の危険性に対するリスク感受性(気づき易さ)は、運転者によって変わる。リスク感受性が高い運転者に対しては、視認性が低下するような強い強調表示を行わなくても、弱い強調表示で後方車による危険性の気づきを促すことができる。
一方、リスク感受性が低い運転者に対しては強い強調表示を行うことで、後方車による危険性の気づきを促すことができる。従って、運転者のリスク感受性を評価し、リスク感受性と危険性とに基づいて、強調表示の態様を決定することで、運転者に適切な気づきを促すことができる。
熟練度の高い運転者は、リスク感受性に対して高い傾向にある。ただし、運転時間が長時間の場合、熟練度の高い運転者であっても、リスク感受性は低くなる。リスク感受性評価部27は、後方車が自車を追い抜くごとに運転者のリスク感受性の評価を行う。このため、運転中の運転者の状態に応じて、危険性に対する適切な気づきを運転者に促すことができる。
本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。以上の実施形態について、さらに以下の付記を開示する。
(付記1)
自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定する第1の判定部と、
前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定する第2の判定部と、
前記第2の判定部が前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価する評価部と、
前記評価部が評価した気づき易さと前記判定部が判定した危険度とに基づいて、前記後方車の強調表示の態様を決定する決定部と、
を備える運転支援装置。
(付記2)
前記第1の判定部は、前記危険度のレベルを段階的に判定し、
前記第2の判定部は、前記気づきのレベルを段階的に判定し、
前記評価部は、前記気づき易さのレベルを段階的に評価し、
前記決定部は、前記気づき易さのレベルと前記危険度のレベルとに基づいて、前記強調表示の強さを維持または段階的に変更する、
付記1記載の運転支援装置。
(付記3)
前記第1の判定部は、前記相対距離を前記相対速度で除算した衝突余裕時間に基づく危険度と前記相対距離に基づく危険度とのうち、高い方の危険度を使用する、
付記1記載の運転支援装置。
(付記4)
前記第1の判定部は、前記衝突余裕時間に基づく危険度と前記相対距離に基づく危険度と前記相対速度に基づく危険度とのうち、最も高い危険度を使用する、
付記1記載の運転支援装置。
(付記5)
前記評価部は、前記映像に前記後方車が出現してから前記後方車が自車を追い抜くまでの時間が予め設定された第1の閾値より長いときに前記気づき易さの評価を行う、
付記1記載の運転支援装置。
(付記6)
前記評価部は、前記後方車が出現してから前記後方車が自車を追い抜くまでの時間が前記第1の閾値より長く、且つ予め設定された第2の閾値より短いときに前記気づき易さの評価を行う、
付記5記載の運転支援装置。
(付記7)
前記評価部は、前記強調表示がされてから所定時間内に前記運転者の視線軌跡が表示装置に向いたときに、前記気づき易さのレベルを高くする変更を行う、
付記2記載の運転支援装置。
(付記8)
前記評価部は、前記強調表示されてから所定時間経過後に前記運転者の視線軌跡が所定回数、前記表示装置に向いたときの危険度に応じて、前記気づき易さのレベルを維持または下げる変更を行う、
付記7記載の運転支援装置。
(付記9)
前記評価部は、前記強調表示されてから所定時間経過後に前記運転者の視線軌跡が一定時間以上、前記表示装置に向いているときの危険度に応じて、前記気づき易さのレベルを維持または下げる変更を行う、
付記7記載の運転支援装置。
(付記10)
前記自車の後方の映像を取得する取得部と、
前記後方の映像を表示するモニタの表示制御を行う表示制御部と、
を備え、
前記決定部は、前記後方の映像に重畳する前記強調表示の態様を決定する、
付記1記載の運転支援装置。
(付記11)
前記自車の後方の映像と前記自車の左側後方の映像と右側後方の映像とを取得する取得部と、
前記後方の映像を表示するバックミラーモニタと前記左側後方の映像を表示する第1のモニタと前記右側後方の映像を表示する第2のモニタとの表示制御を行う表示制御部と、
を備え、
前記決定部は、前記後方の映像と前記左側後方の映像と前記右側の映像とのそれぞれの映像に重畳する前記強調表示の態様を決定する、
付記10記載の運転支援装置。
(付記12)
前記自車の周囲の照度を検出する検出部、を備え、
前記評価部は、前記照度に基づいて、前記気づき易さの上限を設定して評価を行う、
付記1記載の運転支援装置。
(付記13)
自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定し、
前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定し、
前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価し、
前記気づき易さと前記危険度とに基づいて、前記後方車の強調表示の態様を決定する、
処理をコンピュータが実行する運転支援方法。
(付記14)
コンピュータに
自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定し、
前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定し、
前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価し、
前記気づき易さと前記危険度とに基づいて、前記後方車の強調表示の態様を決定する、
処理を実行させるための運転支援プログラム。
1 車両
2 カメラ
11 運転支援装置
12 モニタ
21 後方映像取得部
22 後方車情報生成部
23 後方車情報記憶部
24 危険度判定部
25 視線情報取得部
26 気づき判定部
27 リスク感受性評価部
28 リスク感受性記憶部
29 強調方法決定部
30 表示制御部
36 強調表示
111 CPU
112 RAM
113 ROM

Claims (11)

  1. 自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定する第1の判定部と、
    前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定する第2の判定部と、
    前記第2の判定部が前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価する評価部と、
    前記評価部が評価した気づき易さと前記判定部が判定した危険度とに基づいて、前記後方車の強調表示の態様を決定する決定部と、
    を備える運転支援装置。
  2. 前記第1の判定部は、前記危険度のレベルを段階的に判定し、
    前記第2の判定部は、前記気づきのレベルを段階的に判定し、
    前記評価部は、前記気づき易さのレベルを段階的に評価し、
    前記決定部は、前記気づき易さのレベルと前記危険度のレベルとに基づいて、前記強調表示の強さを維持または段階的に変更する、
    請求項1記載の運転支援装置。
  3. 前記第1の判定部は、前記相対距離を前記相対速度で除算した衝突余裕時間に基づく危険度と前記相対距離に基づく危険度とのうち、高い方の危険度を使用する、
    請求項1または2記載の運転支援装置。
  4. 前記評価部は、前記後方車が出現してから前記後方車が自車を追い抜くまでの時間が予め設定された第1の閾値より長いときに前記気づき易さの評価を行う、
    請求項1乃至3のうち何れか1項に記載の運転支援装置。
  5. 前記評価部は、前記後方車が出現してから前記後方車が自車を追い抜くまでの時間が前記第1の閾値より長く、且つ予め設定された第2の閾値より短いときに前記気づき易さの評価を行う、
    請求項4記載の運転支援装置。
  6. 前記評価部は、前記強調表示がされてから所定時間内に前記運転者の視線軌跡が表示装置に向いたときに、前記気づき易さのレベルを高くする変更を行う、
    請求項2記載の運転支援装置。
  7. 前記評価部は、前記強調表示されてから所定時間経過後に前記運転者の視線軌跡が所定回数、前記表示装置に向いたときの危険度に応じて、前記気づき易さのレベルを維持または下げる変更を行う、
    請求項6記載の運転支援装置。
  8. 前記評価部は、前記強調表示されてから所定時間経過後に前記運転者の視線軌跡が一定時間以上、前記表示装置に向いているときの危険度に応じて、前記気づき易さのレベルを維持または下げる変更を行う、
    請求項6記載の運転支援装置。
  9. 前記自車の後方の映像を取得する取得部と、
    前記後方の映像を表示するモニタの表示制御を行う表示制御部と、
    を備え、
    前記決定部は、前記後方の映像に重畳する前記強調表示の態様を決定する、
    請求項1乃至8のうち何れか1項に記載の運転支援装置。
  10. 前記自車の周囲の照度を検出する検出部、を備え、
    前記評価部は、前記照度に基づいて、前記気づき易さの上限を設定して評価を行う、
    請求項1乃至9のうち何れか1項に記載の運転支援装置。
  11. 自車と後方車との相対速度と相対距離との一方または双方に基づいて、前記後方車による危険性の度合いを示す危険度を判定し、
    前記自車の運転者の視線軌跡に基づいて、前記運転者による前記後方車に対する気づきを判定し、
    前記運転者による気づきがあったと判定したときの前記危険度に基づいて、前記運転者の前記危険性に対する気づき易さを評価し、
    前記気づき易さと前記危険度とに基づいて、前記後方車の強調表示の態様を決定する、
    処理をコンピュータが実行する運転支援方法。
JP2014242556A 2014-11-28 2014-11-28 運転支援装置および運転支援方法 Withdrawn JP2016103249A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014242556A JP2016103249A (ja) 2014-11-28 2014-11-28 運転支援装置および運転支援方法
US14/881,638 US20160152182A1 (en) 2014-11-28 2015-10-13 Driving support device and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242556A JP2016103249A (ja) 2014-11-28 2014-11-28 運転支援装置および運転支援方法

Publications (1)

Publication Number Publication Date
JP2016103249A true JP2016103249A (ja) 2016-06-02

Family

ID=56078657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242556A Withdrawn JP2016103249A (ja) 2014-11-28 2014-11-28 運転支援装置および運転支援方法

Country Status (2)

Country Link
US (1) US20160152182A1 (ja)
JP (1) JP2016103249A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004348A (ja) * 2017-06-16 2019-01-10 ディーピーティー株式会社 移動体用映像表示装置およびその方法
CN111824164A (zh) * 2019-04-11 2020-10-27 泰州市朗嘉尚网络科技有限公司 周围信息采集显示方法
WO2023218545A1 (ja) * 2022-05-11 2023-11-16 三菱電機株式会社 表示制御装置および表示制御方法
JP7504327B2 (ja) 2022-05-11 2024-06-21 三菱電機株式会社 表示制御装置および表示制御方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6103716B2 (ja) * 2014-06-17 2017-03-29 富士重工業株式会社 車両の走行制御装置
JP6319349B2 (ja) * 2015-04-03 2018-05-09 株式会社デンソー 情報提示装置
CN105946854A (zh) * 2016-06-17 2016-09-21 京东方科技集团股份有限公司 车载动力自动控制***及其控制方法、汽车
FR3058552B1 (fr) * 2016-09-28 2020-10-30 Valeo Schalter & Sensoren Gmbh Dispositif d'aide a la conduite pour vehicule permettant la selection d'une representation visuelle d'un objet sur une scene de route
US9663118B1 (en) 2016-11-02 2017-05-30 Smartdrive Systems, Inc. Autonomous vehicle operator performance tracking
US20200283028A1 (en) * 2017-11-17 2020-09-10 Sony Semiconductor Solutions Corporation Information processing apparatus and information processing method
FR3083195A1 (fr) * 2018-06-29 2020-01-03 Valeo Comfort And Driving Assistance Dispositif d'affichage pour l'aide a la conduite
JP6587776B1 (ja) * 2018-11-26 2019-10-09 三菱電機株式会社 情報提示制御装置、情報提示装置及び情報提示制御方法、並びにプログラム及び記録媒体
JP7180421B2 (ja) * 2019-02-04 2022-11-30 トヨタ自動車株式会社 車両制御装置
DE102019002403A1 (de) * 2019-04-02 2020-10-08 Daimler Ag Verfahren und Vorrichtung zur Beeinflussung einer optischen Ausgabe von Bilddaten auf einer Ausgabeeinrichtung in einem Fahrzeug
US10807527B1 (en) * 2019-05-01 2020-10-20 Smartdrive Systems, Inc. Systems and methods for verifying whether vehicle operators are paying attention
CN111361506A (zh) * 2020-03-26 2020-07-03 江铃汽车股份有限公司 一种提示灯控制方法、***、可读存储介质及车辆
US11644835B2 (en) * 2020-07-29 2023-05-09 Toyota Research Institute, Inc. Game-theoretic planning for risk-aware interactive agents
JP7314900B2 (ja) * 2020-10-15 2023-07-26 トヨタ自動車株式会社 自動運転システム及び車両の制御方法
DE102022100579A1 (de) 2022-01-12 2023-07-13 Zf Cv Systems Global Gmbh Fahrerunterstützungssystem, Verfahren zur Unterstützung eines Bedienungsvorganges einer Vorrichtung seitens einer Bedienperson, sowie Fahrzeug und elektronische Verarbeitungseinheit

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP3853542B2 (ja) * 1999-07-26 2006-12-06 パイオニア株式会社 画像処理装置、画像処理方法及びナビゲーション装置
JP4425495B2 (ja) * 2001-06-08 2010-03-03 富士重工業株式会社 車外監視装置
WO2008038369A1 (fr) * 2006-09-28 2008-04-03 Pioneer Corporation Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement
EP1974998B1 (en) * 2007-03-26 2011-05-25 Aisin AW Co., Ltd. Driving support method and driving support apparatus
US8947219B2 (en) * 2011-04-22 2015-02-03 Honda Motors Co., Ltd. Warning system with heads up display
CN103827938A (zh) * 2011-09-22 2014-05-28 丰田自动车株式会社 驾驶辅助装置
US9852632B2 (en) * 2012-02-10 2017-12-26 Mitsubishi Electric Corporation Driving assistance device and driving assistance method
JP5761162B2 (ja) * 2012-11-30 2015-08-12 トヨタ自動車株式会社 車両位置推定装置
EP2950292B1 (en) * 2013-01-28 2024-04-17 Nec Corporation Driving support device, driving support method, and recording medium storing driving support program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004348A (ja) * 2017-06-16 2019-01-10 ディーピーティー株式会社 移動体用映像表示装置およびその方法
CN111824164A (zh) * 2019-04-11 2020-10-27 泰州市朗嘉尚网络科技有限公司 周围信息采集显示方法
WO2023218545A1 (ja) * 2022-05-11 2023-11-16 三菱電機株式会社 表示制御装置および表示制御方法
JP7504327B2 (ja) 2022-05-11 2024-06-21 三菱電機株式会社 表示制御装置および表示制御方法

Also Published As

Publication number Publication date
US20160152182A1 (en) 2016-06-02

Similar Documents

Publication Publication Date Title
JP2016103249A (ja) 運転支援装置および運転支援方法
JP6454368B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
JP5406328B2 (ja) 車両用表示装置、その制御方法及びプログラム
JP5171629B2 (ja) 走行情報提供装置
JP6669019B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP5109750B2 (ja) 運転者状態検出装置、意識状態検出方法
US20180201276A1 (en) Driver condition detection system
JP2020024532A (ja) 脇見運転検出装置
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
JP6213435B2 (ja) 注意過多状態判定装置及び注意過多状態判定プログラム
CN113631411B (zh) 显示控制装置、显示控制方法及记录介质
Chang et al. An implementation of smartphone-based driver assistance system using front and rear camera
JP2018148530A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6811743B2 (ja) 安全運転支援装置
JP2018198842A (ja) 運転者状態推定装置
JP2007133644A (ja) 歩行者認識装置
JP7276082B2 (ja) 運転者状態推定装置
JP6649063B2 (ja) 車両後方表示装置及び表示制御装置
WO2013114871A1 (ja) 運転支援装置及び運転支援方法
JP6415968B2 (ja) 通信装置、警告装置、表示装置、制御方法、プログラム、及び記憶媒体
JP2017076180A (ja) 状態判定装置
JP7043795B2 (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
JP7294483B2 (ja) 運転支援装置、運転支援方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20171127