JP6891926B2 - 車両システム、車両システムで実行される方法、および運転者支援システム - Google Patents

車両システム、車両システムで実行される方法、および運転者支援システム Download PDF

Info

Publication number
JP6891926B2
JP6891926B2 JP2019144857A JP2019144857A JP6891926B2 JP 6891926 B2 JP6891926 B2 JP 6891926B2 JP 2019144857 A JP2019144857 A JP 2019144857A JP 2019144857 A JP2019144857 A JP 2019144857A JP 6891926 B2 JP6891926 B2 JP 6891926B2
Authority
JP
Japan
Prior art keywords
vehicle
information
occupant
display
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019144857A
Other languages
English (en)
Other versions
JP2020035437A (ja
Inventor
ビキャズ アプマヌー
ビキャズ アプマヌー
ショーン ブライカー
ショーン ブライカー
ティー・ピング キャング
ティー・ピング キャング
ユー ジャング
ユー ジャング
ビラル アラスリー
ビラル アラスリー
スコット ウェーレンティー
スコット ウェーレンティー
デューア ヴァング
デューア ヴァング
原 哲也
哲也 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of JP2020035437A publication Critical patent/JP2020035437A/ja
Application granted granted Critical
Publication of JP6891926B2 publication Critical patent/JP6891926B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、車両システム、車両システムで実行される方法、および運転者支援システムに関する。
車両は、車両の近くの情報を収集するカメラを装備することができる。車両はまた、車室内の情報を収集するために車室内に配置されるカメラを装備することができる。車載カメラを運転者状態監視システムで利用して、車両の乗員の行動を観察することができる。
一実施形態によれば、車両内の車両システムは、車両の外側の対象物を含む、車両の近傍の環境を調べるように構成される第1のセンサと、車両の乗員の顔情報を示すデータを取得するように構成される第2のセンサと、第1および第2のセンサと通信し、乗員が車両の外側の対象物を見ていることを示す顔情報を示すデータに応じて、車両システムのディスプレイに対象物に関する情報を出力するようにプログラムされるプロセッサと、を備える。
第2の実施形態によれば、車両のシステムで実行される方法は、1つ以上の車両センサから生成されるデータを利用して、車両の乗員が目を細めて見ていることを判定することと、1つ以上の車両センサを介して、乗員が目を細めて見ていることに応じて、乗員が目を細めて見ている車両の近傍の対象物を特定すること、乗員が目を細めて見ていることに応じて、車両の外側に位置する対象物に関する情報を、システムのディスプレイに出力すること、を備える。
第3の実施形態によれば、車両の運転者支援システムは、車両の乗員を監視するとともに、車両の近傍の1以上の対象物を特定するように構成される運転者状態モニタと、目標挙動に基づいて運転者支援機能を実行するように構成される運転者支援コントローラと、を備え、目標挙動は、車両の周囲の環境に基づいて定義され、運転者支援コントローラは、運転者が目を細めて対象物を見ていることに応じて、車両のディスプレイに、その対象物に関する情報を出力するための指令を送信するように運転者支援機能を動作させるように構成される。
運転者状態監視システムを含む車両のブロック図の一実施形態を示す。 注視しているデータ及び目を細めているデータに基づいて、車両の乗員が情報を見る際に援助を必要としているかどうかを判定するために利用されるフローチャートを示す。 本開示に従う、ユーザの画像から顔パラメータを取得するための例示的な画像処理方法を示す。 一実施形態における車両の乗員の環境の一例を示す。 乗員を支援する車両HMIの一例を示す。
本開示の実施形態が本明細書に記載される。しかしながら、開示された実施形態は単なる例であり、他の実施形態は様々な代替の形態を取り得ることが理解されたい。図は必ずしも一定の縮尺ではなく、一部の特徴部分は、特定のコンポーネントの詳細を示すために誇張または最小化され得る。したがって、本明細書に開示された特定の構造上および機能上の詳細は、限定するものとして解釈されるべきではなく、単に実施形態を様々に使用することを当業者に教示するための代表的な基礎として解釈されるべきである。当業者には理解されるように、いずれか1つの図に関して図示および説明された様々な特徴は、1つまたは複数の他の図に示された特徴と組み合わせて、明示的に図示または説明されていない実施形態を作り出すことができる。図示された特徴の組み合わせは、典型的な用途のための代表的な実施形態を提供する。しかしながら、本開示の教示と矛盾しない特徴の様々な組み合わせおよび変形は、特定の用途または実装のために望ましい可能性がある。
図1は、車両システム100の例示的なブロック図を示す。システム100は、コントローラ101を含むことができる。コントローラ101は、電子制御装置(ECU)のような車両コントローラであり得る。本明細書ではECU101とも呼ばれるコントローラ101は、本明細書で説明される方法およびシステムのための命令を実行するように構成されたプロセッサに具現化することができる。コントローラ101は、メモリ(図1に個別には示されていない)、ならびに車両内の特有の処理を行う他のコンポーネントを含むことができる。コントローラ101は、コマンドを処理するクアッドコアプロセッサのような、コンピュータプロセッサ、マイクロプロセッサ、または、他の任意のデバイス、一連のデバイス、あるいは、本明細書で説明される動作を実行可能な他の機構のような、1つまたは複数の演算装置とすることができる。メモリは命令およびコマンドを記憶することができる。命令は、ソフトウェア、ファームウェア、コンピュータコード、またはそれらの任意の組み合わせの形態とすることができる。メモリは、揮発性メモリ、不揮発性メモリ、電子メモリ、磁気メモリ、光メモリ、または他の任意の形態のデータ記憶装置などの、任意の形態の1つまたは複数のデータ記憶装置とすることができる。一例において、メモリは、2GBのDDR3、ならびに128GBのマイクロSDカードなどの他の取り外し可能なメモリコンポーネントを含むことができる。
コントローラ101は、車両内外の様々なセンサ、モジュール、および車両システムと通信することができる。システム100は、例えば他の車両、車線、ガードレール、道路上の対象物、建物、歩行者などを含む、車両の周囲に関する情報を検出するための、様々なカメラ、LIDARセンサ、レーダセンサ、超音波センサ、または、他のセンサのようなセンサを含むことができる。図1に示す例では、システム100は、車載カメラ103および107、通信機105、車車間通信機109、GPSモジュール113、HMIディスプレイ115、ならびに他のセンサ、コントローラ、およびモジュールを含むことができる。図1は例示的なシステムであり、システム100はより多くのまたはより少ないセンサ、および様々なタイプのセンサを含むことができる。さらに、図1の車両は、説明のために特定の位置に特定のセンサを備えるように示されているが、システム100は、同じまたは異なる種類の追加のセンサを含む、車両内または車両上の異なる位置に追加のセンサを備えることができる。
車両システム100は通信機105を備えることができる。通信機105は、ブルートゥース(登録商標、以下同様)通信機であってもよい。例示的な一実施形態では、システム100は、ブルートゥース通信機105を使用して、ユーザの携帯デバイス(例えば、携帯電話、スマートフォン、PDA、タブレット、または無線リモートネットワーク接続を有する任意の他のデバイス)と通信する。そして、携帯デバイスは、例えばセルラータワーとの通信を介して、車両システム100の外部のネットワークと通信するために使用することができる。いくつかの実施形態において、タワーは、WiFiアクセスポイントであってもよい。
ユーザが携帯デバイスに関連付けられたデータプランを持っている場合、データプランは広帯域送信を可能にし、システムはより広い帯域幅を使用することができる(データ転送を高速化する)。さらに別の実施形態では、携帯デバイスは、車両に設置されているセルラー通信デバイス(図示せず)と置き換えられる。さらに別の実施形態では、携帯デバイスは、例えば(限定はしないが)802.11gネットワーク(すなわち、WiFi)またはWiMaxネットワークを介して通信することができる無線ローカルエリアネットワーク(LAN)デバイスであってもよい。一実施形態では、到来データは、通話付きデータプランまたはデータプランによって携帯デバイスを通じ、さらに車載ブルートゥース通信機を通じて、車両のECU101に渡されてもよい。例えば、ある一時データの場合、そのデータがもはや必要とされなくなるときまで、データはHDDまたは他の記憶媒体に記憶されることができる。
別の実施形態では、通信機105は、車載通信装置またはセルラーモデムであってもよい。車載通信装置は、車外サーバと通信するために、携帯デバイス(例えば、携帯電話)がブルートゥース通信機とペアリングされることを必要としないかもしれない。代わりに、車載モデムは、車外のネットワークと通信するための独自の能力を有するかもしれない。
車載カメラ(内部カメラとも呼ばれる)103は、車室内にいる乗員(例えば、運転者または同乗者)を監視するために車内に据え付けることができる。車載カメラ103は、運転者を監視するために運転者状態監視システム(DSM)と協働することができる。DSMは車両システム100とは別個に設けられてもよいし、車両システム100の一機能として具現化されてもよい。車載カメラ103は、車両内の乗員の画像を捕捉するために利用することができる。車載カメラ103は、以下でさらに論じるように、乗員の眼球の動きおよび乗員の頭の動きなどの、乗員についての顔情報を取得することができる。車載カメラは、カラーカメラ、赤外線カメラ、または飛行時間型カメラであってもよい。
コントローラ101は、DSMから運転者状態データを受信して、車両内の異常な状況を判定することができる。DSMは、運転者に向けたカメラ、健康スキャナ、およびインストルメントパネルなどの1つまたは複数の活動センサを使用して、運転者によって実行される活動を監視する。活動センサに基づいて、運転者状態監視システムは、運転者が、例えば、異常な状況として、注意を逸らせているか、病気であるか、もしくは眠気を催しているかを判定することができる。
車載カメラ103は、メータコンソールに据え付けられ、運転者の顔、特に運転者の目を捕捉することができる。運転者状態監視システムまたはECU101は、運転者に向けたカメラ103から受信したデータを処理し、運転者の注視方向に基づいて運転者が道路から目を逸しているかどうかを監視することができる。運転者が目を逸している場合、運転者状態監視システムまたはECU101は、異常状態と判定する。運転者状態監視システムまたはECU101は、また、運転者の目がどれだけの時間どれだけ開いているかに基づいて、運転者が眠気を催しているかを判定し、または警告してもよい。
健康スキャナは、ステアリングホイールまたは運転者が触れる適切な場所に取り付けることができる。健康スキャナは、運転者の心臓の鼓動を調べる。運転者状態監視システムは、健康スキャナから受信したデータを処理し、心臓の鼓動に基づき、運転者が、心臓発作などの深刻な体調不良またはエピソードを病んでいるかどうかを監視する。運転者が深刻な体調不良またはエピソードを病んでいる場合、運転者状態監視システムは、異常な状況と判定する。
運転者支援システムは、車両システム100が有する外部カメラ107を含む様々なセンサを利用して、車両の周囲の外部環境を検出する。そして、運転者支援システムの運転者支援コントローラが、検出された車両周囲の外部環境に基づいて、車両の目標挙動を設定する。さらに、運転者支援コントローラは、設定された車両の目標挙動に従い、車両の駆動力、制動力、および操舵角度などを制御することによって、例えば、障害物との接触を回避するように車両制御を実行する。なお、運転者支援システムは、車両システム100とは別個に設けられてもよいし、車両システム100の一機能として具現化されてもよい。運転者支援システムが車両システム100の一機能として具現化される場合、運転者支援コントローラは、運転者支援機能の一環として、運転者が目を細めて対象物を見ていることに応じて、車両のディスプレイに、その対象物に関する情報を出力するための指令を送信するようにしても良い。運転者支援システムにより運転者支援機能が作動している間、運転者操作センサによって検出される運転者の操作に応じて、運転者支援機能は取り消されるかまたは無効にされてもよい。アクセル/ブレーキペダルの踏み込み度合またはステアリングホイールの操作トルクが所定の閾値を超えると、運転者支援システムの運転者オーバーライドモジュールは、運転者が能動的に車両を操作していると判定する。その後、運転者は運転者支援機能から車両制御を引き継ぐ。
車両システム100は、少なくとも1つの外部カメラ107を含むことができる。外部カメラ107はルームミラーに取り付けることができる。外部カメラ107は、また、車両のフロントガラスを通して車室外に面しており、車両の前方の環境の画像データを収集することができる。外部カメラ107は、車両の前方に関する情報およびデータを収集し、車両の前方の状況を監視するために利用されることができる。また、カメラ107は、車両前方の状況を撮像し、カメラの位置から見た車線マーカの位置や、例えば対向車のヘッドライトの発光の有無などを正確に検出するために用いることができる。例えば、外部カメラ107を利用して、車両周囲の車両、前方の車線マーカ、および他の対象物検出に関する画像データを生成することができる。車両には、車両の後方近傍回りの車両の環境を監視するなどの同様の事情のために、後方カメラ(図示せず)が装備されてもよい。
システム100は、また、車々間または車両インフラストラクチャ間通信モジュール(例えば、V2Xモジュール)109を含むことができる。V2Xモジュール109は、車両に近い対象物との間でデータを送受信するために利用されることができる。そのようなデータは、車両の周囲の環境に関するデータ、または車両がV2Xモジュール109を利用して通信している対象物に関する情報を含むことができる。1つのシナリオにおいて、車両システム100は、ユーザが車両の外側の対象物を目を細めて見ていたことを認識するかもしれない。車両システム100は、その対象物を特定するために、車両内の様々なカメラおよびセンサを利用することができる。V2Xモジュール109のコントローラは、その対象物と通信することができるかどうかを判定することができる。このシナリオでは、対象物は、車両システム100のHMIを利用して車両の乗員に提示され得る、特別なもの、または詳細な情報のような、対象物についての情報を送信するためのV2X能力を有する看板または注目点(POI)であるかもしれない。POIは、車両からの要求に応答して、V2Xインフラストラクチャを利用してそのような情報を車両に送信することができる。
システム100はまた、車両の現在位置を検出または決定する全地球測位システム(GPS)113を含むことができる。いくつかの状況では、GPS113を利用して、車両が走行している速度を決定することができる。システム100は、また、車両が走行している現在の速度を検出または決定する車両速度センサ(図示せず)を含むことができる。システム100は、また、車両の現在の進行方向を検出または決定するコンパスまたは3次元(3D)ジャイロスコープを含むことができる。地図データはメモリに記憶することができる。GPS113は地図データを更新することができる。地図データは、先進運転者支援システム(ADAS)で利用することができる情報を含むことができる。そのようなADAS地図データ情報は、詳細な車線情報、勾配情報、道路曲率データ、車線マーキング特性などを含むことができる。このようなADAS地図情報は、道路名、道路種別、制限速度情報などの従来の地図データに加えて利用することができる。コントローラ101は、GPS113からのデータ、ならびにジャイロスコープ、車速センサ、および地図データからのデータ/情報を利用して、車両の場所または現在位置を決定することができる。
システム100は、ヒューマンマシンインターフェース(HMI)ディスプレイ115も含むことができる。HMIディスプレイ115は、車室内の任意の種類のディスプレイを含むことができる。そのようなHMIディスプレイは、ダッシュボードディスプレイ、ナビゲーションディスプレイ、マルチメディアディスプレイ、ヘッドアップディスプレイ、薄膜トランジスタ液晶ディスプレイ(TFT LCD)などを含むことができる。HMIディスプレイ115は、また、スピーカに接続されて、コマンドまたは車両のユーザインターフェースに関する音を出力することができる。HMIディスプレイ115は、車両内の乗員(例えば、運転者または同乗者)に様々なコマンドまたは情報を出力するために利用することができる。例えば、自動制動シナリオでは、HMIディスプレイ115は、車両が制動する準備がなされ、それに関してユーザにフィードバックを提供する準備がなされたとのメッセージを表示することができる。HMIディスプレイ115は、関連情報を乗員に表示するために利用される、任意の種類のモニタまたはディスプレイを利用することができる。
インストルメントパネルは、様々な車両のシステムを制御するために車両の内部に取り付けることができる。例えば、それらのシステムは、エアコン、音楽プレーヤー、ビデオプレーヤー、およびGPSナビゲーションを含む。運転者状態監視システムは、インストルメントパネルから受信したデータを処理し、運転者が注意を逸らされているかどうかを監視する。例えば、車両が走行しているときにインストルメントパネルが操作されていると、運転者は潜在的に運転者の注意を逸らす二次的な作業に関与している。運転手が注意を逸らされている場合、運転者状態監視システムは異常な状況と判定することができる。
視覚的表示を提供することに加えて、HMIディスプレイ115は、また、タッチスクリーン、ユーザインターフェースボタンなどを介してユーザ入力を受け取るように構成することができる。HMIディスプレイ115は、AV機器制御、自律車両システム制御、特定の車両機能、車室温度制御などのような様々な車両制御を示すユーザコマンドを受信するように構成することができる。コントローラ101は、そのようなユーザ入力を受信し、次に、そのユーザ入力に従って実行することを、関連する車両のシステムのコンポーネントに命令することができる。
LIDARセンサ、レーダセンサなどを含むセンサは、車両のどこにでも取り付けることができる。例えば、LIDARセンサは、車両の周囲を360度見渡せるように、車両の屋根に取り付けることができる。さらに、様々なセンサは、車両の360度の視野を提供するために車両を囲むように取り付けることができる。車両は、また、1つまたは複数のカメラ、1つまたは複数のLIDARセンサ、1つまたは複数のレーダセンサ、1つまたは複数の超音波センサ、および/または1つまたは複数の他の環境センサを装備することができる。アクチュエータを利用して様々なセンサの視野角を調整または制御することができる。センサはECU101とともに利用されて、対象物を識別することができる。例えば、前方LIDARセンサおよびコーナーLIDARセンサが利用されてもよい。前方LIDARセンサは、どの車両および対象物が車両の前方周辺にいるかを判定するために使用されることができる。また、コーナーLIDARセンサは、対象物を検出して分類するために利用することができ、車両の周辺の車両周辺視野を強化するために使用することができる。
前方レーダセンサは、車両のフロントバンパに取り付けることができる。コーナーレーダセンサはバンパのコーナーに取り付けることができる。レーダセンサは、対象物を検出および分類し、車両の周辺の車両周辺視野を強化するように構成することができる。レーダセンサは、様々な車両安全システムを支援または向上するために利用することができる。前方レーダセンサは、車両のフロントバンパに組み込まれて、対象物が車両の前方にあることを判定することができる。コーナーレーダセンサは、後部バンパまたは車両の側面に配置され得る。コーナーレーダセンサは、対象物が運転者の死角にあるかを判定するために利用されることができ、ならびに後退時に左右後方から接近する車両または対象物を検出することができる。そのような機能は、車線変更時または駐車スペースからの後退時に、運転者が他の車両の回りを通り抜けることを可能にすることができ、ならびに、差し迫っている可能性がある衝突を回避するために、自律緊急制動をアシストすることを可能にすることができる。
コントローラ101は、車載カメラ103、外部カメラ107、GPS113およびHMIディスプレイ115を含む様々な車両コンポーネントから情報およびデータを受信することができる。コントローラ101は、そのようなデータを利用して、運転者の支援または自律運転に関連し得る車両機能を提供する。例えば、内部カメラ103、および外部カメラ107によって収集されたデータは、アダプティブクルーズ制御、自動駐車、駐車支援、自動緊急制動(AEB)などに関連する機能を提供または強化するために、GPSデータおよび地図データと共に利用されてもよい。コントローラ101は、車両の様々なシステム(例えば、エンジン、トランスミッション、ブレーキ、ステアリング機構、ディスプレイ、センサ、ユーザインターフェースデバイスなど)と通信することができる。例えば、コントローラ101は、車両を減速させるためにブレーキに信号を送るように、または車両の経路を変更するためにステアリング機構に、あるいは車両を加速または減速させるためにエンジンまたはトランスミッションに信号を送るように構成することができる。コントローラ101は、例えば、様々な車両センサから入力信号を受信してディスプレイ装置に出力信号を送信するように構成することができる。コントローラ101は、また、追加の情報(例えば、地図、道路情報、天気、車両情報)にアクセスするため、1つまたは複数のデータベース、メモリ、インターネット、またはネットワークと通信することができる。以下に、より詳細に説明されるように、コントローラは、また、内部カメラ103と共に利用されて、車両の乗員の顔の特徴を識別することができる。
図2は、車両の乗員の不自然な目を判定するために利用される運転者状態監視システム(DSM)の例示的なフローチャート200を示す。DSMは、上述した、図1に示されるようなシステムを利用して、201で、運転者を監視することができる。DSMは、また、車両の同乗者など、車両の他の乗員を監視するために利用されることができる。DSMは、運転者の様々な習慣および活動を監視するため、様々なセンサ、カメラ、およびプロセッサ/コントローラを含むことができる。
一例において、DSMは、203で、運転者が目を細めて見ているかを監視することができる。DSMは、運転者の「通常状態」またはデフォルト状態を決定するために乗員(例えば、運転者または同乗者)の履歴データを利用することができる。一例において、デフォルト状態は、単に、運転している車両の典型的な周辺状況を監視する運転者であってもよい。乗員の異常状態が識別されない場合、DSMは、201で、運転者を監視し続けることができる。しかしながら、別の例では、DSMは、DSMの様々なセンサによって収集されたデータに応じて、乗員から異常な行動を識別するかもしれない。一例において、注視データ(例えば、運転者の頭の動きを監視するカメラから収集されたデータ)は、運転者が車両の周囲および外側を見ていることを識別することができる。さらに、DSMは、顔認識データを利用して、乗員の目が細くなって見ていることを判定することができる。例えば、顔認識データに関して収集され記憶された履歴情報に基づいて、ユーザの目が異常な状態にある(例えば、目を細めて見ている)ことを識別することができる。顔認識データによって識別されるものとして、乗員が目を細めて見ていると判定された場合、DSMは、車両に近接しているが、乗員(例えば、運転者または同乗者)が車両に近接している対象物がなんであるかをはっきりと識別するにはまだ範囲外である対象物を識別するために、乗員は目を細めて見ているとみなすことができる。そのようなシナリオでは、DSMシステムは、特定の状況を識別するために他の異常な活動について乗員をさらに評価してもよい。DSMは、乗員が目を細めて見ていないと判定した場合、乗員を監視し続けることができる。
DSMは、205で、車両の乗員が情報を探しているかどうかを判定することができる。DSMは、注視データ、頭の動きデータ、顔認識データ、および/または他のデータを利用して、ユーザが情報を探しているかを判定することができる。一例において、DSMが、注視データから乗員が自分の車の外を見ていると判定した場合、次に、DSMは、顔認識データを利用して、ユーザが目を細めながら対象物を見ていることを識別することができる。車載カメラ103から取得された情報から導出される注視データと顔認識データの両方を利用することによって、DSMは、乗員が情報を探していることを判定することができる。ユーザが情報を探していないとDSMが判定した場合には、DSMは、何らかの異常な状態について車両の乗員を監視し続けることができる。特定の実施形態では、DSMは、乗員に向けられたカメラ103を利用して乗員の顔領域を分析することができる。DSMは、システムが正常状態であると見なす履歴データと比較して、ユーザの顔の動きおよび目の動作(例えば、目を細めて見ている、または見ている)の現在の状態を比較することができる。DSMは、そのような顔認識データから、通常の状態と比較して、乗員の目が、乗員が情報を探している動き(例えば、目を細めて見ている)をしていることを判定することができる。
DSMが、乗員が情報を探しているとの判定に至った場合、DSMは、207で、運転者が情報を探している場所を判定することができる。車室内のカメラ103が乗員の頭を見ることで、乗員の目がどこを見ているか、および頭の動きを評価することができる。データは、乗員が見ている場所を特定し、または乗員が目を細めて見ているかを識別するために、目の領域の画像から取得されるピクセルを評価するためのパラメータを含むことができる。DSMは、車載カメラシステム(VCS)と連携して動作し、注視データ、頭の動きデータ、顔認識データ、および/または他のデータを利用して、乗員が情報を探している場所を判定することができる。例えば、乗員の頭が特定の方向を向いている場合、DSMはこの情報を監視し、乗員がその方向または近傍で情報を探していると判定することができる。
ステップ209で、DSMは、乗員が車両の内部の情報を探しているかの判定に進むことができる。上述のように、DSMは、VCSと連携して、注視データ、頭の動きデータ、顔認識データ、および/または他のデータを利用して、乗員が情報を探している場所を判定することができる。DSMは、乗員が車内を見ていることを示す注視データと頭の動きデータを収集する。例えば、DSMは、車両内の対象物を見ている乗員に向けられたカメラを利用して、データおよび情報を収集することができる。次いで、DSMは、情報が何であるかを判断しようとして、顔認識データまたは他のデータにより、乗員が瞳を凝らしている(例えば、目を細めている)と判定されるかどうかを判定するために乗員を監視することができる。例えば、乗員の視力が悪い場合、乗員は目を細めて車両のディスプレイを見ることで、そのディスプレイ上のテキスト情報を読み取る可能性がある。DSMは、DSMによって収集されたデータおよび情報によって、これを認識することができる。
乗員が車両内部の情報を見ているとDSMが判定した場合、ステップ211で、DSMは車両コンピュータシステムと通信して、ヒューマンマシンインターフェース(HMI)を変更することができる。DSMは、車載カメラまたは他のセンサによって集められた情報から、乗員が車両内の対象物に注目していることを判定することができる。乗員がその情報を解明するために、乗員が焦点を合わせているか、または瞳を凝らしている(例えば、目を細めている)場合、システムは、運転者が見ている情報がなにかを判定し、乗員がその情報を見ることを支援することができる。1つのシナリオでは、システムは、運転者がマルチメディアシステムのディスプレイ上のテキスト情報を見るのに瞳を凝らしていることを判定することができる。乗員がこの情報を見るのに瞳を凝らしていることを判定すると、システムは、テキスト情報のフォントサイズまたは画像を拡大することによって応じることができる。従って、フォントサイズが拡大された場合、乗員が瞳を凝らすことなくその情報を識別または解明することをより容易にすることができる。DSMが、(例えば、顔認識データまたは頭の動きデータまたは注視データを利用することから)乗員が瞳を凝らしていることを検知し続ける場合、乗員を支援するためにサイズおよびフォントを拡大させ続けてもよい。システムは、乗員に無理がないことを検出するまでフォントを拡大させ続けるように構成されてもよい。システムはまた、そのような情報を識別するためにユーザが目を凝らしている、車室内の他の車載オブジェクト(例えば、本、地図、紙、新聞、タブレットなど)を検出することができるかもしれない。
別のシナリオでは、システムは、ステップ213において、乗員が車両の内部の情報を見ていないと判定し、代わりに乗員が車両の外部の情報を見ているかどうかを判定することができる。DSMは、車載カメラ103または別のセンサによって収集された情報から、乗員が車両の外部の対象物に焦点を合わせていることを判定することができる。乗員が車両の外部の情報を解明するために、注目し、瞳を凝らしている(例えば、目を細めて見ている)場合、システムは、乗員が見ている情報が何かを判定し、乗員がその情報を見ることを支援することができる。1つのシナリオでは、システムは、乗員が、車両が接近している道路標識に目を凝らしていると判定するかもしれない。システムは、センサによって収集されたデータ(例えば、注視データ、頭部動きデータ、顔認識データ、および/または他のデータ)を利用して、乗員が見ている外部の対象物が何かを判定することができる。乗員が道路標識を見るのに瞳を凝らしていると判定すると、システムは、乗員が情報を識別するのを容易にするために、対象物(例えば、道路標識)に関する情報を収集することができる。
ステップ215で、DSMは、VCSと連携して動作し、車両の近くの対象物に関する情報を収集し、そのような情報を車両内のHMIにて提示することができる。DSMは、注視データ、頭の動きデータ、顔認識データ、および/または他のデータを利用して、乗員が情報を探している場所を判定することができる。乗員が車両の外部を見ているとDSMが判定すると、DSMは、乗員が見ている正確な対象物が何かを判定するために、車両の外側の環境を監視する様々な外部カメラまたは車載カメラと協働することができる。例えば、DSMは、乗員が車両の外側を見ていると判定することができ、次に、乗員が見ているのがどの対象物かを判定するために、車両の前方に向けられているカメラ107(例えば、バックミラーに取り付けられているが、フロントガラスの外側を向いている)と協働することができる。車両環境を監視するカメラは、対象物を識別し、対象物に関する追加情報を引き出して、乗員を支援するために利用さえ得る情報(例えば、画像)を収集することができる。例えば、対象物が識別されると、VCSは車外サーバと連携して動作し、その対象物に関する追加情報を収集することができる。例えば、看板のサインがカメラによって認識される場合、VCSは、ダウンロードしてユーザに提示するために、看板についての詳細を識別するように、GPSデータと注目点データベースの情報を利用することができる。しかしながら、別の実施形態では、VCSは、サーバが対象物について特定される追加の情報を一切有さない、車両の外部に位置する看板または別のサインを識別することもできる。VCSは、ユーザに提示され得る情報(例えば、画像)を収集するために、車両の外側に取り付けられたセンサ(例えば、カメラ、Lidarセンサ、レーダセンサ)と連携して動作することができる。このようにして、看板のズームイン画像は、車室内のディスプレイ上でユーザに提示することができる。
従って、フォントサイズが拡大された場合、乗員が瞳を凝らすことなくその情報を識別または解明することをより容易にすることができる。DSMが、(例えば、顔認識データまたは頭の動きデータまたは注視データを利用することから)乗員が瞳を凝らしていることを検知し続ける場合、乗員を支援するためにサイズおよびフォントを拡大させ続けてもよい。システムは、乗員に無理がないことを検出するまでフォントを拡大させ続けるように構成されてもよい。システムはまた、そのような情報を識別するためにユーザが目を凝らしている、車室内の他の車載オブジェクト(例えば、本、地図、紙、新聞、タブレットなど)を検出することができるかもしれない。例えば、システムは、車載カメラを利用することで、ユーザが運転席側ウィンドウの外、または別のシナリオでは助手席側ウィンドウの外の対象物を見ていることを識別することができる。システムは、車両の該当する側(例えば、運転席側または助手席側のいずれか)に配置された外部カメラまたはセンサを利用することにより、その対象物に関する追加の情報を収集することができる(例えば、対象物にズームインし、その対象物に関する情報を収集するために、運転席ドアパネルまたはドアミラーのカメラを利用する)。
図3は、本開示による、ユーザの画像から顔のパラメータを取得するための例示的な画像処理方法を示す。この画像処理方法は、図2に示すフローチャートを参照して上述したように、ユーザの目の領域に関する顔パラメータを取得するために使用され、または他の種類の顔パラメータを取得するために使用される。
図3に示すように、画像310は、顔検出アルゴリズムを用いて処理され、画像内の顔領域311を検出し、および顔領域311内の目領域312a、312bを検出する。次に、本明細書で説明するように、目領域312a、312b内の画素を分析して顔パラメータの値を取得する。
撮影した画像310から検出される顔パラメータの他の例は、ユーザとディスプレイとの間の距離に関する距離パラメータ、ユーザに関する1つまたは複数のデモグラフィックパラメータ、およびユーザが眼鏡を掛けているかどうかを示す眼鏡パラメータを含むが、これらに限定されない。距離パラメータは、ユーザがディスプレイから近すぎるか遠すぎるかを判断するために使用され、そのどちらもユーザが視認することに困難を体感していることを示す。
いくつかの実施形態では、顔認識アルゴリズムを使用して、視認困難を示す特定の種類の表情または顔の動きを検出する。例えば、目を細めて見ていることを示す、眉をひそめること、または目の近くの皮膚にしわが寄っていることは、ユーザが視認困難を体感している兆候である。そのような実施形態では、顔パラメータは、ユーザが視認困難を体感していることを示す、異なる所定の顔の特徴についての1つまたは複数のフラグを含む。その顔の特徴が検出された場合、フラグの値は「TRUE」に設定され、顔パラメータにおけるフラグの閾値数(1つまたは複数など)が「TRUE」に設定されている場合、ユーザは視認困難を体感していると判定される。例えば、顔パラメータは、眉をひそめること、目を細めて見ていること、および目の近くにしわが寄っていることに関する2つのフラグを含み、両方のフラグが「TRUE」である場合、ユーザは視認困難を体感していると判定される。
例えば、距離パラメータは、撮影された画像におけるユーザの顔の見かけの大きさに基づいて取得することができる。長さ寸法または面積に関して測定することができる顔の見かけのサイズが、全画像サイズの一部としての最大閾値よりも大きい場合、ユーザはディスプレイに近すぎると判定される。同様に、顔の見かけのサイズが全画像サイズの一部としての最小閾値よりも小さい場合、ユーザはディスプレイから遠すぎると判定される。これらの結果のいずれにおいても、ユーザは表示されたコンテンツを視覚的に解明することが困難を感じているとみなされる。一方、顔の見かけの大きさが、最小閾値と最大閾値の間にある場合、ユーザは視認困難を体感していないとみなされる。
デモグラフィックパラメータまたはデータは、例えば、ユーザの年齢、性別、または人種の推定値を含むことができる。そのようなパラメータまたはデータは、ユーザが視力障害の高いリスクに関連する何らかの人口統計学的カテゴリに入るかどうかを判定するために使用することができる。例えば、いくつかの実施形態では、ユーザが高リスクの人口統計学的カテゴリに識別されているという判定に応じて、ユーザは視聴困難を体感しているとみなされる。そのような実施形態では、ディスプレイの明るさを明るくしたり、またはフォントおよび画像サイズを拡大したりするなどの修正措置が、他の顔パラメータをチェックすることなく自動的に行われてもよい。
図4Aは、自動車の近傍の環境を評価する車両のDSMサーベイの例示的な図である。図4Aに示すように、乗員(例えば、運転者)は、特に運転している状況において、フロントガラスから外を見ている。また、図4Aの状況に示すように、車両は道路を走行している。車両の近位領域を見るために取り付けられているカメラは、目標対象物401を識別することができる。カメラは、車両の外側に取り付けられてもよく、又は車両の内側であるが車両の外側を見るように取り付けられてもよい(例えば、バックミラーに取り付けられたカメラ)。1つのシナリオにおける目標対象物401は道路標識403であってもよい。カメラは、遠方から路側対象物の詳細な画像を収集するためにカメラのズーム機能を使用するなどして、目標対象物401に関する情報を収集することを選択することができる。図4には示されていないが、車載カメラまたはDSMは、運転者を監視して、ユーザが対象物を見ているかどうかを判定することができる。
図4Bは、DSMからの目を細めて見ているシナリオの識別に応答する車両のHMIの一例である。乗員(例えば、運転者)は、特に運転している状況において、フロントガラスから外を見ている。図4Bの状況に示されるように、車両は道路を走行している。車両の近位領域を見るために取り付けられているカメラは、目標対象物401を識別することができる。カメラは、車両の外側に取り付けられてもよく、又は車両の内側であるが車両の外側を見るように取り付けられてもよい(例えば、バックミラーに取り付けられたカメラ)。1つのシナリオにおける目標対象物401は、道路標識403または別の対象物であってもよい。カメラは、遠方から路側対象物の詳細な画像を収集するためにカメラのズーム機能を使用するなどして、目標対象物401に関する情報を収集することを選択することができる。対象物403を識別するのは難しいかもしれないが、車両のカメラは、詳細な道路標識409を受像する画像にズームインすることができるかもしれない。詳細な道路標識409は、対象物403の拡大された画像である。図4Bには示されていないが、車載カメラまたはDSMは、運転者を監視して、ユーザが対象物を見ているかどうかを判定することができる。
詳細な道路標識409は、車両内の様々なディスプレイに表示することができる。例えば、道路標識403に関する情報は、車両ナビゲーションシステム405に表示されてもよい。車両ナビゲーションシステム405は、対象物403に関する情報407を表示することができる。そのような情報407は、対象物の拡大画像、対象物に関する詳細情報(例えば、対象物を説明するテキスト情報)、または対象物403に基づく代替経路情報を含むことができる。そのような情報407は、上述のように、車外サーバによって検索することができる。なお、テキスト情報を読み上げる音声が、可聴情報として、スピーカから出力されてもよい。
代替の実施形態では、車載カメラまたはセンサは、ユーザがどこを見ているか、ならびにユーザの頭の動きの追跡を続けることができる。DSMは、注視データ、頭の動きデータ、および他のデータを利用して、ユーザが車両の近傍の特定の方向にある情報を探しているかどうかを判定することができる。そして、車両コンピュータシステムは、そのようなデータを利用して、車両内のどのディスプレイがユーザへの出力に理想的であるかを識別することができる。例えば、車両コンピュータシステムは、ユーザがまっすぐ前を見ていると判定すると、インストルメントパネルのディスプレイまたはヘッドアップディスプレイに情報を出力することができる。別のシナリオでは、車両コンピュータシステムは、運転者が、少し右のマルチメディアディスプレイまたはナビゲーションディスプレイの近くを見ていると判定するかもしれない。この場合、車両コンピュータシステムは、ナビゲーションディスプレイ/マルチメディアディスプレイに情報を出力してもよい。このように、車両コンピュータシステムは、車両内の乗員の注視データまたは頭の動きに関する情報に応じてディスプレイを選択および識別することができる。
例示的な実施形態が上述されたが、これらの実施形態が、特許請求の範囲によって包含される全ての可能な形態を説明することは意図されていない。本明細書で使用されている文言は、限定ではなく説明の文言であり、本開示の主旨および範囲から逸脱することなく様々な変更が可能であることを理解されたい。前述のように、様々な実施形態の特徴を組み合わせて、本発明のさらなる実施形態を形成することができ、それは明示的に説明または図示されていない場合がある。様々な実施形態は、1つまたは複数の所望の特性に関して、利点を提供するかまたは他の実施形態または従来技術の実装形態よりも好ましいものとして説明され得るが、当業者であれば、特定の用途や実装に依存する、所望のシステム全体の属性を達成するために、1つまたは複数の特徴または特性が妥協され得ることを認めるだろう。これらの属性は、コスト、強度、耐久性、ライフサイクルコスト、市場性、外観、包装、サイズ、保守性、重量、製造性、組み立ての容易さなどを含み得るが、これらに限定されない。したがって、任意の実施形態が1つまたは複数の特性に関して他の実施形態または従来技術の実装形態よりも望ましくないと説明される限りにおいて、これらの実施形態は本開示の範囲外ではなく、特定の用途には望ましいことがある。
100:車両システム、101:コントローラ、103:内部カメラ、105:通信機、107:外部カメラ、109:車車間通信機、113:GPSモジュール、115:ディスプレイ

Claims (20)

  1. 車両の外側の対象物を含む、車両の近傍の環境を調べるように構成される第1のセンサと、
    車室内に配置され、車両の乗員の顔情報を示すデータを取得するように構成される第2のセンサと、
    第1および第2のセンサと通信し、乗員が目を細めて車両の外側の対象物を見る動作を示す顔情報を示すデータに応じて、車両システムのディスプレイに対象物に関する情報を出力するようにプログラムされるプロセッサと、を備える車両内の車両システム。
  2. 第2のセンサは、さらに、乗員の頭の動き情報を示すデータを取得するように構成され、
    プロセッサは、さらに、少なくとも頭の動き情報を示すデータを利用して、乗員が車両の外側の対象物を見ていることを識別するようにプログラムされる、請求項1の車両システム。
  3. 第1のセンサは、さらに、車両の外側の対象物の画像情報を示すデータを取得するように構成され
    プロセッサは、さらに、画像情報を示すデータを利用して、ディスプレイ上に対象物のグラフィック画像を出力するようにプログラムされる、請求項1の車両システム。
  4. プロセッサは、さらに、対象物に関する可聴情報を出力するようにプログラムされる請求項1の車両システム。
  5. プロセッサは、さらに、第1のセンサと顔情報を示すデータとを利用して対象物を識別するように構成される、請求項1の車両システム。
  6. 前記情報は、対象物を説明するテキストを含む、請求項1の車両システム。
  7. プロセッサは、さらに、車両システムと通信する車外サーバを利用して対象物の情報を検索するように構成される、請求項1の車両システム。
  8. プロセッサは、さらに、第2のセンサから取得された頭の動き情報を示すデータに応じて、対象物の情報を出力するための車両システムのディスプレイを選択するようにプログラムされる、請求項2の車両システム。
  9. 対象物は、道路標識、POI、または看板である、請求項1の車両システム。
  10. プロセッサは、さらに、ユーザが車両システムのディスプレイ上の対象物の情報を見るのに目を細めていることを判定すると、ディスプレイ上に表示されている対象物の情報を拡大するようにプログラムされる、請求項1の車両システム。
  11. 1つ以上の車両センサから生成されるデータを利用して、車両の乗員が目を細めて見ていることを判定すること、
    1つ以上の車両センサを介して、乗員が目を細めて見ていることに応じて、乗員が目を細めて見ている車両の近傍の対象物を特定すること、および
    乗員が目を細めて見ていることに応じて、車両の外側に位置する対象物に関する情報を、システムのディスプレイに出力すること、を備える車両システムで実行される方法。
  12. 前記方法は、
    1つ以上の車両センサから生成されるデータに応じて、乗員の頭の動きを判定するステップ、および
    乗員の頭の動きに応じて、情報を出力するディスプレイを選択するステップを含む、請求項11の方法。
  13. ディスプレイは、インストルメントパネル、ナビゲーションディスプレイ、またはヘッドアップディスプレイのうちの少なくとも1つである、請求項12の方法。
  14. 対象物の場所を特定するステップを含む、請求項12の方法。
  15. 前記方法は、1つ以上の車両センサを介して、目を細めて見ていることに応じて、乗員が見ている車内の対象物を特定するステップを含む、請求項11の方法。
  16. 前記方法は、乗員が目を細めて見ている車内の対象物が前記ディスプレイである場合、当該ディスプレイ上に表示されている対象物の情報を拡大するステップを含む、請求項15の方法。
  17. 前記方法は、対象物に関する可聴情報を出力するステップを含む、請求項11の方法。
  18. 対象物に関する情報は、対象物の画像を含む、請求項11の方法。
  19. 車両の乗員を監視するとともに、車両の近傍の1以上の対象物を特定するように構成される運転者状態モニタと、
    目標挙動に基づいて運転者支援機能を実行するように構成される運転者支援コントローラと、を備え、
    目標挙動は、車両の周囲の環境に基づいて定義され、運転者支援コントローラは、運転者が目を細めて車両の近傍の1以上の対象物を見ていることに応じて、車両のディスプレイに、その対象物に関する情報を出力するための指令を送信するように運転者支援機能を動作させるように構成される車両の運転者支援システム。
  20. 運転者支援コントローラは、ユーザが車両のディスプレイ上の対象物の情報を見るのに目を細めていることを判定すると、ディスプレイ上に表示されている対象物の情報を拡大するように構成される、請求項19の運転者支援システム。
JP2019144857A 2018-08-29 2019-08-06 車両システム、車両システムで実行される方法、および運転者支援システム Active JP6891926B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/116,716 US10902273B2 (en) 2018-08-29 2018-08-29 Vehicle human machine interface in response to strained eye detection
US16/116,716 2018-08-29

Publications (2)

Publication Number Publication Date
JP2020035437A JP2020035437A (ja) 2020-03-05
JP6891926B2 true JP6891926B2 (ja) 2021-06-18

Family

ID=69640068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144857A Active JP6891926B2 (ja) 2018-08-29 2019-08-06 車両システム、車両システムで実行される方法、および運転者支援システム

Country Status (2)

Country Link
US (1) US10902273B2 (ja)
JP (1) JP6891926B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328591B1 (en) * 2021-01-25 2022-05-10 Ford Global Technologies, Llc Driver assistance system for drivers using bioptic lenses
US11687155B2 (en) * 2021-05-13 2023-06-27 Toyota Research Institute, Inc. Method for vehicle eye tracking system
US20230080085A1 (en) * 2021-09-10 2023-03-16 Aptiv Technologies Limited Driver vision assistance systems and methods

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
JP4270010B2 (ja) * 2004-04-05 2009-05-27 株式会社デンソー 物体危険判定装置
JP4687521B2 (ja) 2006-03-15 2011-05-25 オムロン株式会社 表示装置および方法、並びにプログラム
JP4867463B2 (ja) 2006-05-09 2012-02-01 株式会社デンソー 運転支援装置
JP4231884B2 (ja) 2006-09-27 2009-03-04 株式会社デンソーアイティーラボラトリ 注視対象物検出装置および注視対象物検出方法
JP2009096384A (ja) 2007-10-18 2009-05-07 Aisin Seiki Co Ltd 運転支援装置及び運転支援方法
JP5239343B2 (ja) 2008-01-10 2013-07-17 日産自動車株式会社 車載用ナビゲーション装置および車載用ナビゲーション装置における運転者の関心度推定方法
US11292477B2 (en) * 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US20120093358A1 (en) 2010-10-15 2012-04-19 Visteon Global Technologies, Inc. Control of rear-view and side-view mirrors and camera-coordinated displays via eye gaze
US9472163B2 (en) 2012-02-17 2016-10-18 Monotype Imaging Inc. Adjusting content rendering for environmental conditions
JP2014120114A (ja) 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
GB2523345B (en) 2014-02-20 2018-01-17 Samsung Electronics Co Ltd Detecting user viewing difficulty from facial parameters
US20160267335A1 (en) * 2015-03-13 2016-09-15 Harman International Industries, Incorporated Driver distraction detection system
JP6508095B2 (ja) * 2016-03-11 2019-05-08 トヨタ自動車株式会社 車両の自動運転制御システム
US10261514B2 (en) * 2017-08-16 2019-04-16 Uber Technologies, Inc. Systems and methods for communicating autonomous vehicle scenario evaluation and intended vehicle actions
US10474916B2 (en) * 2017-11-20 2019-11-12 Ashok Krishnan Training of vehicles to improve autonomous capabilities
JP7121583B2 (ja) * 2018-08-07 2022-08-18 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム

Also Published As

Publication number Publication date
US20200074197A1 (en) 2020-03-05
JP2020035437A (ja) 2020-03-05
US10902273B2 (en) 2021-01-26

Similar Documents

Publication Publication Date Title
US10882398B2 (en) System and method for correlating user attention direction and outside view
US11641492B2 (en) Image processing apparatus and image processing method
CN107415938B (zh) 基于乘员位置和注意力控制自主车辆功能和输出
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant's emotion
US9786192B2 (en) Assessing driver readiness for transition between operational modes of an autonomous vehicle
EP3070700B1 (en) Systems and methods for prioritized driver alerts
US7680592B2 (en) System and apparatus for drive assistance
US10764536B2 (en) System and method for a dynamic human machine interface for video conferencing in a vehicle
US20170174129A1 (en) Vehicular visual information system and method
US20200269848A1 (en) System for adjusting and activating vehicle dynamics features associated with a mood of an occupant
KR20160142167A (ko) 차량용 디스플레이 장치 및 이를 구비한 차량
JP6891926B2 (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
US10232772B2 (en) Driver assistance system
JP2005165422A (ja) 衝突可能性判定装置
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
JP6720732B2 (ja) 車両の制御装置
US11414099B2 (en) Dynamic stop time threshold selection for hands-free driving
US10067341B1 (en) Enhanced heads-up display system
CN112534487A (zh) 信息处理设备、移动体、信息处理方法和程序
WO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
JP2007280203A (ja) 情報提示装置、自動車、及び情報提示方法
JP2019086983A (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP7294483B2 (ja) 運転支援装置、運転支援方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6891926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150