JP6589991B2 - ヒューマンインターフェース - Google Patents

ヒューマンインターフェース Download PDF

Info

Publication number
JP6589991B2
JP6589991B2 JP2017544407A JP2017544407A JP6589991B2 JP 6589991 B2 JP6589991 B2 JP 6589991B2 JP 2017544407 A JP2017544407 A JP 2017544407A JP 2017544407 A JP2017544407 A JP 2017544407A JP 6589991 B2 JP6589991 B2 JP 6589991B2
Authority
JP
Japan
Prior art keywords
finger
information
display
driver
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017544407A
Other languages
English (en)
Other versions
JPWO2017061183A1 (ja
Inventor
美佐雄 中里
美佐雄 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Publication of JPWO2017061183A1 publication Critical patent/JPWO2017061183A1/ja
Application granted granted Critical
Publication of JP6589991B2 publication Critical patent/JP6589991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、ヒューマンインターフェースに関し、特に、車両で用いられるヒューマンインターフェースに関する。
近年、例えば、前方の歩行者や車両などを検知して運転者に注意を促すとともに、接触等の可能性がある場合には自動的に車両を制動するプリクラッシュセーフティ・システム(自動ブレーキ・システム)や、先行車両を検知して該先行車両との車間距離を保ちつつ所定の設定速度で走行するアダプティブオートクルーズ・システムなどの先進的運転支援システム(ADAS(Advanced Driver Assistance System))の開発が進められている。
一方、特許文献1には、運転者が運転中にクエリ検索操作を行うことができるシステム(ヒューマンインターフェース)が開示されている。このシステムでは、第一の入力装置を用いて、運転者の指のオブジェクト(又はアイテム)へのポインティングを検知し、第二の入力装置を用いて、上記オブジェクト(又はアイテム)の選択指示を受け取る。より具体的には、このシステムでは、第一の入力装置(例えばカメラ)により手の画像を撮像し、該撮像画像を処理してポインティングする指の指先の位置に対応する表示装置(例えばヘッドアップディスプレイ(Head Up Display:HUD))上のオブジェクト等の位置を判定する。そして、第二の入力装置(例えばマイクロフォン)を用いて運転者によるオブジェクト等の選択指示を受け取り、選択されたアイテム等に関連付けされたオペレーションを実行する。
特開2014−179097号公報
ところで、上述したプリクラッシュセーフティ・システムなどでは、検知した歩行者や車両などの物体に関する詳細な情報を提示することが望まれる状況がある。このような状況において、例えば、複数の物体が検知されている場合には、すべての物体について詳細情報を提示すると、表示情報が煩雑になり、安全運転の観点からも好ましくない。そこで、このような場合には、複数の検知物体の中から運転者が所望する物体をマッチング(選択)して、当該物体の詳細情報のみを提示させることが望ましい。
ここで、上述したように、特許文献1に記載のシステムによれば、運転者が運転中にクエリ検索操作を行うことができる。しかしながら、このシステム(ヒューマンインターフェース)では、オブジェクト等を選択するために、例えば、指先でポインティングする動作と発声等の動作とを行う必要があるため、運転者の注意が運転よりもオブジェクト等を選択(マッチング)することに注がれるおそれがあり、また、選択(マッチング)に要する時間も長くなるおそれがあった。
本発明は、上記問題点を解消する為になされたものであり、視線を操作スイッチなどに移動させることなく、かつステアリングホイールから両手を離すことなく、運転者が所望する車両周囲に存在する物体の情報を、よりシンプルな動作によって、より短い時間で、マッチングして提示することが可能なヒューマンインターフェースを提供することを目的とする。
本発明に係るヒューマンインターフェースは、車両の周辺に存在する周辺物体の情報を取得する周辺物体情報取得手段と、周辺物体情報取得手段により取得された周辺物体を示す目印情報を車両の周辺の実景に重畳させて表示する表示手段と、車両のステアリングホイールを握っている運転者の手の指を検知する指検知手段と、指検知手段により検知された指の位置又は動きに応じて、表示手段によって重畳表示されている目印情報の中から、運転者が所望する目印情報をマッチングするマッチング手段と、マッチング手段によりマッチングされた目印情報が示す周辺物体の情報を表示手段によって重畳表示させる表示制御手段とを備えることを特徴とする。
本発明に係るヒューマンインターフェースによれば、車両の周辺に存在する周辺物体の情報が取得され、取得された周辺物体を示す目印情報が車両の周辺の実景に重畳されて表示される。そのため、運転者は、視線を例えば前方に向けたまま情報提供可能な周辺物体を認識することができる。なお、その際に、目印情報のみが重畳表示されるため、表示される情報が煩雑になることを防止できる。一方、車両のステアリングホイールを握っている運転者の手の指が検知され、検知された指の位置(有無を含む)又は動きに応じて、重畳表示されている目印情報の中から、運転者が所望する目印情報がマッチングされる。そして、マッチングされた目印情報が示す周辺物体の情報が重畳表示される。そのため、運転者は、両手でステアリングホイールを握った状態のまま、単一の動作(指先の動きのみ)により、所望の目印情報をマッチングして、該目印情報が示す周辺物体の情報(詳細情報)を重畳表示させることができる。その結果、視線を操作スイッチなどに移動させることなく、かつステアリングホイールから両手を離すことなく、運転者が所望する車両周囲に存在する物体の情報を、よりシンプルな動作によって、より短い時間で、マッチングして提示することが可能となる。
本発明に係るヒューマンインターフェースでは、指検知手段が、ステアリングホイールから前方に出ている指を検知することが好ましい。このようにすれば、運転者の指の位置又は動きを確実にかつ精度よく検知でき、その検知結果(検知情報)を用いて運転者が所望する目印情報を的確にマッチングすることが可能となる。
本発明に係るヒューマンインターフェースでは、指検知手段が、車両の車室内の上部に配設され、当該配設された箇所から下方に向けた検知範囲を有しており、該検知範囲には、ステアリングホイールから前方に出ている指が入り、かつ、ステアリングホイールが入らないことが好ましい。このようにすれば、検知情報を処理する際に、該検知情報からステアリングホイールを除去する必要がなくなるため、処理負荷を軽減でき、処理時間を短縮することが可能となる。
本発明に係るヒューマンインターフェースでは、マッチング手段が、検知範囲を複数の領域に分け、指検知手段により検知された指の位置又は動きに応じて、複数の領域に含まれるいずれかの領域に運転者の指が入っているか否かを判定するとともに、指が入っていると判定した場合に、該指が入っている領域に対応する目印情報をマッチングすることが好ましい。この場合、検知範囲に設定された領域に指が入ったか否かを判定することにより、運転者が所望する目印情報を判別できるため、処理負荷を軽減でき、処理時間をより短縮することが可能となる。
本発明に係るヒューマンインターフェースでは、マッチング手段が、指検知手段により検知された指の位置又は動きに基づいて、指が指している方向を取得するとともに、取得した方向から運転者が指で指している目印情報をマッチングすることが好ましい。この場合、検知された指の位置又は動き(軌跡)に基づいて、該指が指している方向が取得されるとともに、取得された方向から運転者が指で指している目印情報がマッチングされる。そのため、取得された周辺物体が多数存在し、多数の目印情報が重畳表示されている場合であっても、その多数の目印情報の中から運転者が所望する目印情報を的確に判別することが可能となる。
本発明に係るヒューマンインターフェースでは、上記指検知手段が距離画像センサにより構成されることが好ましい。このようにすれば、距離画像センサによって指の位置を示す三次元の位置情報(3次元座標)を高精度に得ることができる。さらに、その三次元位置情報から、例えば、運転者が指で指している方向等を的確に取得することが可能となる。
本発明に係るヒューマンインターフェースでは、上記目印情報がアイコンであることが好ましい。このようにすれば、車両の周辺の実景に重畳表示されるアイコンによって、運転者に情報提供可能な周辺物体を容易に認識させることができる。
本発明によれば、視線を操作スイッチなどに移動させることなく、かつステアリングホイールから両手を離すことなく、運転者が所望する車両周囲に存在する物体の情報を、よりシンプルな動作によって、より短い時間で、マッチングして提示することが可能となる。
第1実施形態に係る運転支援システムの構成を示すブロック図である。 運転支援システムを構成するモーションセンサの検知範囲を示す図であり、(a)は正面図、(b)は側面図である。 第1実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。 第1実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。 第2実施形態に係る運転支援システムの構成を示すブロック図である。 第2実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。 第2実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、図中、同一又は相当部分には同一符号を用いることとする。また、各図において、同一要素には同一符号を付して重複する説明を省略する。
(第1実施形態)
ここでは、本発明に係るヒューマンインターフェース(ヒューマンマシンインターフェース(Human Machine Interface:HMI))を、ヘッドアップディスプレイを用いたAR(Augmented Reality:拡張現実)を利用して、車両の周辺(特に、車両の前方)に存在する物体(周辺物体)の情報を運転者に提示する運転支援システムに適用した場合を例にして説明する。なお、本実施形態では、車両の前進方向を「前方(前側)」とし、車両の後退方向を「後方(後側)」とし、車両の前進方向を向いた場合の右側を「右方(右側)」とし、車両の前進方向を向いた場合の左側を「左方(左側)」とする。
まず、図1、図2を併せて参照して、第1実施形態に係る運転支援システム1の構成について説明する。図1は、運転支援システム1の構成を示すブロック図である。また、図2は、運転支援システム1を構成するモーションセンサ11の検知範囲を示す図であり、(a)は正面図、(b)は側面図である。
運転支援システム1は、情報提供可能な周辺物体を示すアイコン(請求の範囲に記載の目印情報に相当)を車両周辺の実景に重畳表示し、重畳表示しているアイコンの中から運転者によってポインティング(選択)されたアイコンに対応する周辺物体の詳細情報を重畳表示する。その際に、運転支援システム1は、運転者がステアリングホイールを握った手の指(例えば、人差し指)によるジェスチャを検知し、運転者が指で指しているアイコンをマッチングする。特に、運転支援システム1は、指の検知範囲を複数の領域に分け、複数の領域のうちの任意の領域に指が入ったか否かを判定することでポインティングされているアイコンを判別する。なお、本実施形態では、アイコンを左側と右側とに1個ずつ重畳表示し、検知範囲を左側の領域と右側の領域との2つの領域に分けた場合を例にして説明する。
運転支援システム1は、周辺物体情報取得装置10(請求の範囲に記載の周辺物体情報取得手段に相当)と、モーションセンサ11(請求の範囲に記載の指検知手段に相当)と、ヘッドアップディスプレイ20(請求の範囲に記載の表示手段に相当)と、電子制御装置(以下、「ECU(Electronic Control Unit)」という)31とを備えている。
周辺物体情報取得装置10は、車両の周辺(特に、車両の前方)に存在する周辺物体の情報を取得する装置である。周辺物体情報取得装置10は、車両に搭載されるセンサを用いて周辺物体を検知することで情報を取得するものでもよいし、車両の外部から周辺物体の情報を取得するものでもよい。周辺物体情報取得装置10は、取得した周辺物体の情報(周辺物体情報)をECU31に送信する。周辺物体は、例えば、自動車、自動二輪車、原動機付自転車、自転車、歩行者、動物などである。周辺物体情報は、例えば、位置(例えば、自車両を基準とした相対座標や緯度経度等の絶対座標)、移動速度、移動方向、種別、車種、排気量などである。
上記車両に搭載されるセンサとしては、例えば、ミリ波レーダ、レーザレーダ等のレーダセンサ、カメラを用いた画像センサなどを用いることができる。これらのセンサにより、車両の周辺の物体の有無、物体が存在する場合にはその物体の位置、大きさ、種別等の情報を取得する。さらに、物体の位置の時系列データを取得することで、物体の移動速度や移動方向等も取得できる。なお、画像センサの場合、近赤外線カメラや赤外線カメラを用いることで夜間等の周辺が暗い状況でも物体を検知することができる。
また、上記車両の外部からの取得装置としては、例えば、車車間通信装置、路車間通信装置などを挙げることができる。車車間通信装置を用いた場合には、車車間通信装置の通信可能範囲内に存在する他車両から、例えば、位置、移動速度、移動方向、種別、車種、及び排気量等の情報を取得できる。一方、路車間通信装置を用いた場合には、路側装置(交通インフラ)の通信可能範囲内に自車両が入ったときに、路側装置で取得している物体の位置、移動速度、移動方向、及び種別等の情報を取得できる。なお、車車間通信や路車間通信によって周辺物体の情報を取得する場合には、車両(運転者)の死角になる場所に存在する周辺物体の情報も取得できる。
モーションセンサ11は、運転者が手(特に、両手)でステアリングホイールを握っている状態でステアリングホイールから前方(フロントガラス側)に出した指の位置(有無を含む)及び動き(手振り/ジェスチャ)を検知するセンサである。モーションセンサ11としては、例えば、近赤外線を利用したTOF(Time Of Flight)方式の距離画像センサを用いることが好ましい。
この距離画像センサは、例えば、近赤外線を発光するLEDと、物体(例えば、手の指など)で反射された反射光を受光し、画素毎に光電変換した電気信号を出力するイメージセンサ(例えば、CMOSイメージセンサやCCDイメージセンサ)と、近赤外線の発光から受光までの時間を計測し、その時間と光の速度から物体までの距離を画素毎に算出するTOF処理部とを有している。
モーションセンサ11は、この画素毎の距離情報を用いて、検知範囲に入った物体(ステアリングホイールよりも前方に出ている指)の位置情報(例えば、モーションセンサ11を基準とした3次元の相対座標)を取得する。例えば、モーションセンサ11は、画素毎に距離が所定値よりも短いか否かを判定することで物体が存在するか否かを判定し、物体が存在すると判定した場合には、その物体が存在する領域内の複数の各画素での距離と画素の2次元の位置から位置情報を取得する。モーションセンサ11は、検知した物体の位置情報を示す検知情報をECU31に送信する。なお、モーションセンサ11は画素毎の距離情報をECU31に送信し、ECU31で画素毎の距離情報から物体が存在するか否かの判定や物体の位置情報を取得する処理を行ってもよい。
モーションセンサ11は、車両の車室内の上部における運転席側かつステアリングホイールよりも前側の所定の箇所(例えば、車室の天井における運転席側の前端部の所定の箇所、又はフロントガラスにおける運転席側の上端部の所定の箇所等)に配設されている。モーションセンサ11は、配設された箇所から下方に向けて近赤外線を発光し、下方に向けた検知範囲を有している。
図2に示すように、モーションセンサ11の検知範囲Rは、ステアリングホイールWが入らず、かつステアリングホイールWから前方に出ている指FFが入る範囲に設定することが好ましい。特に、検知範囲Rは、運転者が両手でステアリングホイールWをホームポジション(例えば、車両直進時に10時10分の位置)等で握っているときに、前方の任意の方向を指している指(人差し指)FFだけが入り、かつそれ以外の指が入らない範囲に設定することが望ましい。また、検知範囲Rは、ステアリングホイールWの前方に配置されているインスツルメントパネルが入らない範囲に設定することが望ましい。
ここで、検知範囲Rは、例えば、中心軸Aの左側の視野角LA、右側の視野角RA、前側の視野角FA、後側の視野角BA及び検知距離Lにより規定される。検知距離Lは、モーションセンサ11とステアリングホイールWとの上下方向の距離等に基づいて決められる。左右の視野角LA,RAは、ステアリングホイールWの直径(例えば35cm)と検知距離L等に基づいて決められる(例えば30°)。前後の視野角FA,BAは、ステアリングホイールWの設置角度θ等に基づいて決められる(例えば15°)。
ヘッドアップディスプレイ20は、車両の前方の実景(風景)に各種情報を重畳表示する表示装置である。ヘッドアップディスプレイ20は、例えば、映像(実像)をフロントガラスに向けて投影し、その映像をフロントガラスの内側の一部に設けられたハーフミラーで運転者の方向へ反射させることでその映像をフロントガラスの前方に結像させて虚像を形成する。ヘッドアップディスプレイ20は周知の表示装置であるので、詳細な構成については説明を省略する。
ヘッドアップディスプレイ20は、ECU31から表示制御情報を受信すると、その表示制御情報に示されるフロントガラスの所定の表示位置に所定の映像(例えば、周辺物体を示すアイコンや周辺物体の詳細情報)を投影する。
ECU31は、運転支援システム1を総合的に制御するコントロールユニットである。ECU31は、例えば、演算を行うマイクロプロセッサ、該マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果等の各種データを記憶するRAM、その記憶内容が保持されるバックアップRAM及び入出力I/F等を有している。ECU31では、ROMなどに記憶されているプログラムがマイクロプロセッサによって実行されることにより、マッチング部31a(請求の範囲に記載のマッチング手段に相当)、及び表示制御部31b(請求の範囲に記載の表示制御手段に相当)の各機能が実現される。
マッチング部31aは、ヘッドアップディスプレイ20で重畳表示されている左側のアイコンと右側のアイコンから運転者が指FFで指しているアイコンをマッチングする。具体的には、マッチング部31aは、モーションセンサ11の検知範囲Rを中心軸Aの左側と右側とに分け、検知範囲Rに左側の領域と右側の領域を設定している。左側のアイコンと右側のアイコンが重畳表示されている場合、マッチング部31aは、モーションセンサ11で検知した物体の位置情報を用いて、運転者の指FFが左側の領域に入っているかあるいは右側の領域に入っているかを判定する。例えば、マッチング部31aは、いずれか一方の領域に指FFが連続して所定時間(例えば数秒からコンマ数秒程度)入っている場合に、当該領域に運転者の指FFが入っていると判定する。マッチング部31aは、左側の領域に運転者の指FFが入っていると判定した場合には運転者が左側のアイコンを指していると判定し、右側の領域に運転者の指FFが入っていると判定した場合には運転者が右側のアイコンを指していると判定する。
なお、上述のマッチング部31aでは検知範囲Rを左側の領域と右側の領域の2つの領域に分け、各領域に対応してアイコンをマッチングする場合を示したが、中間領域とその左側の領域および右側の領域の3つの領域に分ける場合など、検知範囲Rを3つ以上の領域に分け、3つ以上の領域に対応してアイコンをマッチングする構成としてもよい。
表示制御部31bは、周辺物体情報取得装置10で情報を取得している周辺物体(情報提供可能な周辺物体)を示すアイコンをヘッドアップディスプレイ20で重畳表示させる。特に、表示制御部31bは、ヘッドアップディスプレイ20の表示範囲を左側と右側とに分け、左側と右側にアイコンを1個ずつ重畳表示する。
具体的には、表示制御部31bは、左側と右側の各周辺物体について、周辺物体情報取得装置10の座標系での周辺物体の位置をヘッドアップディスプレイ20の座標系での位置に変換する。また、表示制御部31bは、左側と右側の各周辺物体について、ヘッドアップディスプレイ20の座標系において周辺物体の位置の近傍にアイコンを重畳表示する位置を設定する。そして、表示制御部31bは、左側と右側の各周辺物体について、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。アイコンの絵柄、色等については、運転者が視認しやすいものが適宜選ばれる。図3,4,6,7において一例として示したアイコンは、三角形の中にエクスクラメーションマーク(感嘆符)を配置した絵柄である。
なお、左側と右側の少なくとも一方の側において、2つ以上の周辺物体の情報が取得されている場合、例えば、周辺物体に優先順位を付けて、優先順位が最も高い周辺物体のアイコンを重畳表示するようにすることが好ましい。ここで、優先順位は、例えば、周辺物体が動物体かあるいは静止物体か、走行している道路上に存在するか否か、走行中の道路に向かって移動しているか否か、車両から死角になる場所に存在するか否か、移動速度等により決めることが好ましい。
また、表示制御部31bは、マッチング部31aでいずれか一方のアイコンがマッチングされた場合に、そのアイコンが示す周辺物体の詳細情報をヘッドアップディスプレイ20で重畳表示させる。具体的には、表示制御部31bは、ヘッドアップディスプレイ20の座標系において周辺物体(アイコンでもよい)の位置の近傍に詳細情報を重畳表示する位置を設定する。そして、表示制御部31bは、詳細情報の映像情報(例えば、詳細情報の文字列からなる映像情報)と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。重畳表示する詳細情報は、例えば、種別、車種、排気量、移動速度、移動方向などである。
なお、詳細情報を重畳表示する場合、全てのアイコンの重畳表示を停止してもよいし、詳細情報を表示しない周辺物体のアイコンの重畳表示のみを停止してもよい。詳細情報を表示する周辺物体のアイコンを重畳表示し続ける場合、表示制御部31bは、そのアイコンを重畳表示するための表示制御情報をヘッドアップディスプレイ20に送信する。
次に、運転支援システム1の動作について説明する。ここでは、図3及び図4に示す例を用いて、動作を説明する。図3は、運転支援システム1において、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。また、図4は、運転支援システム1において、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。
図3,4に示す例では、運転支援システム1が搭載された車両の前方の左側に停車している駐車車両PVの前側(車両から死角となる場所)に存在する原動機付自転車O1(図3等に示す例では、駐車車両PVから原動機付自転車O1の運転者のヘルメットだけが見えている)と、車両の前方の右側に存在する動物(猫)O2とが、車両の前方に存在する周辺物体である。周辺物体情報取得装置10は、これらの周辺物体O1,O2の各情報をそれぞれ取得し、これらの各情報を示す周辺物体情報信号をECU31に送信する。
ECU31は、各周辺物体O1,O2について、周辺物体情報取得装置10で取得した周辺物体の位置をヘッドアップディスプレイ20の座標系での位置に変換し、その変換した位置の近傍にアイコンを重畳表示する位置を設定し、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置にアイコンの映像を投影する。これにより、図3に示すように、車両の前方における左側の駐車車両PVの前側の上方にアイコンI1が重畳表示され、右側の猫O2の近傍にアイコンI2が重畳表示される。
前方を見ている運転者は、この2つのアイコンI1,I2を視認し、このアイコンI1,I2により情報提供可能な周辺物体があることを容易に認識することができる。この例の場合、運転者は、アイコンI2で示される周辺物体(猫O2)を視認できているが、駐車車両PVの死角に入っているアイコンI1で示される周辺物体を視認できていないので、アイコンI1で示される周辺物体の詳細情報を得ようとする。このアイコンI1をマッチングするために、運転者は、ステアリングホイールWを両手LH,RHで握ったまま、かつ前方を見ている状態で、左手LHの人差し指FFをアイコンI1の方向に向けて指さす。その際、運転者は、モーションセンサ11の検知範囲Rの左側の領域内に入るように人差し指FFを出せばよい。モーションセンサ11は、検知範囲Rに入った指FFを検知し、検知した指FFの位置情報を示す検知信号をECU31に送信する。
ECU31は、モーションセンサ11で検知した指FFの位置情報を用いて検知範囲Rの左側の領域に指FFが入っていると判定し、運転者が指FFによる操作で左側のアイコンI1を指していると判定する。そして、ECU31は、アイコンI1の位置の近傍に周辺物体O1の詳細情報を重畳表示する位置を設定し、周辺物体O1の詳細情報の映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置に周辺物体O1の詳細情報の映像を投影する。
これにより、図4に示すように、周辺物体O1(アイコンI1)の近傍に周辺物体O1の詳細情報DI(例えば、原動機付自転車(50cc)、5km/h)が重畳表示される。この例の場合、詳細表示DIが重畳表示された周辺物体O1を示すアイコンI1は重畳表示され続け、周辺物体O2を示すアイコンI2の重畳表示は停止される。
前方を見ている運転者は、この詳細情報DIを視認する。この詳細情報D1により、運転者は、駐車車両PVの前側に原動機付自転車が存在し、この原動機付自転車が道路上に出てくる可能性があることを知る。そこで、運転者は、駐車車両PVを追い越す際に原動機付自転車が出てくることを想定して、例えば、車両を減速させる運転操作等を行うことができる。
以上、詳細に説明したように、本実施形態によれば、車両の周辺に存在する周辺物体の情報が取得され、取得された周辺物体を示すアイコンが車両の周辺の実景に重畳されて表示される。そのため、運転者は、視線を例えば前方に向けたまま情報提供可能な周辺物体を認識することができる。一方、車両のステアリングホイールWを握っている運転者の手の指FFが検知され、検知された指FFの位置(検知領域)に応じて、重畳表示されているアイコンの中から、運転者が所望するアイコンがマッチングされる。そして、マッチングされたアイコンに対応する周辺物体の情報が重畳表示される。そのため、運転者は、両手でステアリングホイールWを握った状態のまま、単一の動作(操作)により、所望のアイコンをマッチングして、該アイコンが示す周辺物体の情報(詳細情報)を重畳表示させることができる。その結果、運転者は、視線を操作スイッチなどに移動させることなく、かつステアリングホイールWから両手を離すことなく、所望する車両周囲に存在する物体の情報を、よりシンプルな動作により、より短い時間で、マッチングして提示させることが可能となる。
本実施形態によれば、ステアリングホイールWから前方に出ている指FFを検知することにより、運転者の指FFの位置(検知領域)を確実にかつ精度よく検知することができ、その検知結果(検知情報)を用いて運転者が所望するアイコンを的確にマッチングすることが可能となる。また、本実施形態によれば、モーションセンサ11が車室内の上部に配設され、配設された箇所から下方に向けた検知範囲が、ステアリングホイールWが入らない範囲かつステアリングホイールWから前方に出ている指FFが入る範囲に設定されているので、モーションセンサ11の検知情報からステアリングホイールWを除去する必要がなく、ECU31の処理負荷を軽減でき、処理時間を短縮することが可能となる。
本実施形態によれば、モーションセンサ11がTOF方式の距離画像センサによって構成されているため、モーションセンサ11によって指FFの位置を示す三次元の位置情報を高精度に得ることができ、その三次元位置情報から、例えば、運転者が指FFで指している向き等を的確に取得することが可能となる。
本実施形態によれば、モーションセンサ11の検知範囲を複数(例えば2つ)の領域に分け、モーションセンサ11の検知情報を用いて複数の領域のうちの任意の領域に運転者の指が入ったか否かを判定することでアイコンをマッチングする構成としているので、ECU31の処理負荷を軽減でき、処理時間をより短縮することが可能となる。また、いずれかの領域に指が入ればよいので、運転者は大雑把な指差し動作(操作)でアイコンをマッチングすることができる。
(第2実施形態)
次に、図5を参照して、第2実施形態に係る運転支援システム2の構成について説明する。運転支援システム2は、第1実施形態に係る運転支援システム1と比較すると、運転者が指で指しているアイコンのマッチング方法が異なる。運転支援システム2では、指が指している方向を算出し、その指している方向から運転者が所望しているアイコンをマッチングする。なお、第1実施形態ではアイコンを重畳表示する数が検知範囲を分ける領域の数に応じて制限されたが、第2実施形態では重畳表示するアイコンの数は制限されない。
運転支援システム2は、周辺物体情報取得装置10と、モーションセンサ11と、ヘッドアップディスプレイ20と、ECU32とを備えている。周辺物体情報取得装置10、モーションセンサ11及びヘッドアップディスプレイ20について第1の実施形態で説明したものと同様のものなので、説明を省略し、以下ではECU32について説明する。
ECU32は、運転支援システム2を総合的に制御するコントロールユニットである。ECU32は、上述したECU31と同様に、例えば、マイクロプロセッサ、ROM、RAM、バックアップRAM及び入出力I/F等を有している。ECU32では、ROMなどに記憶されているプログラムがマイクロプロセッサによって実行されることにより、マッチング部32a(請求の範囲に記載のマッチング手段に相当)、及び表示制御部32b(請求の範囲に記載の表示制御手段に相当)の各機能が実現される。
マッチング部32aは、ヘッドアップディスプレイ20で重畳表示されているアイコンから運転者が指FFで指しているアイコンをマッチングする。具体的には、アイコンが重畳表示されている場合、マッチング部32aは、モーションセンサ11で検知した物体(指FF)の位置情報を用いて、運転者の指FFが指している方向を算出する。例えば、マッチング部32aは、物体の複数の三次元座標データを用いてステアリングホイール側からフロントガラス側に延びる仮想線を求め、この仮想線がステアリングホイール側からフロントガラス側に指す方向を求める。
マッチング部32aは、この指FFが指している方向からヘッドアップディスプレイ20の座標系での指FFが指している位置を算出する。そして、マッチング部32aは、重畳表示されている各アイコンについてヘッドアップディスプレイ20の座標系において指FFが指している位置とアイコンの位置とをそれぞれ比較し、指FFがいずれのアイコンを指しているかを判定する。例えば、マッチング部32aは、アイコンの位置を中心として所定の判定領域を設定し、その判定領域に指FFが指している位置が連続して所定時間(例えば、数秒からコンマ数秒程度)入っている場合に指FFがそのアイコンを指していると判定する。
表示制御部32bは、周辺物体情報取得装置10で情報を取得している周辺物体を示すアイコンをヘッドアップディスプレイ20に重畳表示させる。具体的には、表示制御部32bは、周辺物体情報取得装置10が情報を取得している各周辺物体について、第1実施形態に係る表示制御部31bと同様の処理により周辺物体を示すアイコンを重畳表示する位置を求め、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。
また、表示制御部32bは、運転者の指FFが指している位置を示すカーソルをヘッドアップディスプレイ20に重畳表示させる。具体的には、表示制御部32bは、マッチング部32aで求めた指FFが指している位置をカーソルを重畳表示する位置(例えば、カーソンの中心位置、カーソルの先端位置)として設定し、カーソルの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。カーソルの絵柄、色等については、運転者が視認しやすいものが適宜選ばれる。図6で一例として示すカーソルは、矢印の絵柄である。カーソルの重畳表示は、アイコンがマッチングされると停止される。なお、カーソルの重畳表示を行わない構成としてもよい。また、カーソルの表示に代えて、例えば、指FFで指されたアイコンを反転表示(表示色を変更)するようにしてもよい。
また、表示制御部32bは、マッチング部32aで1つのアイコンをマッチングした場合にそのアイコンが示す周辺物体の詳細情報をヘッドアップディスプレイ20に重畳表示させる。具体的には、表示制御部32bは、上述した表示制御部31bと同様の処理により詳細情報を重畳表示する位置を求め、詳細情報の映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。
次に、運転支援システム2の動作について説明する。ここでは、図6及び図7に示す例を用いて、動作を説明する。図6は、運転支援システム2において、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。図7は、運転支援システム2において、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。
図6,7に示す例では、運転支援システム2が搭載された車両の前方の左側に停車している駐車車両PVの前側に存在する原動機付自転車O1と、車両の前方の右側に存在する猫O2と、車両の前方の横断歩道を渡ろうとしている歩行者O3,O4と、車両の前方に存在する先行車両O5と、対向車両O6が、車両の前方に存在する周辺物体である。周辺物体情報取得装置10は、これらの周辺物体O1〜O6の各情報を取得し、これらの各情報を示す周辺情報信号をECU32に送信する。
ECU32は、各周辺物体O1〜O6について、周辺物体情報取得装置10で取得した周辺物体の位置をヘッドアップディスプレイ20の座標系での位置に変換し、その変換した位置の近傍にアイコンを重畳表示する位置を設定し、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。
ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置にアイコンの映像を投影する。これにより、図6に示すように、車両の前方における左側の駐車車両PVの前側の上方にアイコンI1が重畳表示され、右側の猫O2の近傍にアイコンI2が重畳表示され、各歩行者O3,O4の近傍にアイコンI3,I4が重畳表示され、先行車両O5の近傍にアイコンI5が重畳表示され、対向車両O6の近傍にアイコンI6が重畳表示される。
前方を見ている運転者は、この6つのアイコンI1〜I6を視認する。この例の場合、運転者は、アイコンI2〜I6で示される周辺物体(猫O2、各歩行者O3,O4、各車両O5,O6)を視認できているが、駐車車両PVの死角に入っているアイコンI1で示される周辺物体を視認できていないので、アイコンI1で示される周辺物体の詳細情報を得ようとする。このアイコンI1をマッチングするために、運転者は、ステアリングホイールWを両手LH,RHで握ったまま前方を見ている状態で、左手LHの人差し指FFをアイコンI1の方向に向けて指さす。モーションセンサ11は、検知範囲Rに入った指FFを検知し、検知した指FFの位置情報をECU32に送信する。
ECU32は、モーションセンサ11で検知した指FFの位置情報を用いて指FFが指している方向を算出し、その指している方向からヘッドアップディスプレイ20の座標系において指FFが指している位置を算出する。そして、ECU32は、この指FFが指している位置にカーソルを重畳表示するために、カーソルの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置にカーソルの映像を投影する。これにより、図6に示すように、運転者が指FFで指している位置を示すカーソルCが重畳表示される。なお、カーソルCの表示に代えて、例えば、指FFで指されたアイコンI1〜I6を反転表示(表示色を変更)するようにしてもよい。
前方を見ている運転者は、このカーソルCを視認し、カーソルCを見ながら指FFを動かす。カーソルCとマッチング対象のアイコンI1とが離れている場合、運転者は、カーソルCがアイコンI1に近づくように指FFを動かす。
カーソルCがアイコンI1の直近まで近づくとあるいはアイコン11に重なると、ECU32は、モーションセンサ11で検知した指FFの位置情報から算出した指FFが指している方向(指FFが指している位置)により、運転者が指FFで指しているアイコンI1をマッチングする。そして、ECU32は、アイコンI1で示す周辺物体O1の詳細情報の映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。
ヘッドアップディスプレイ20は、表示制御情報で示される位置に周辺物体O1の詳細情報の映像を投影する。これにより、図7に示すように、周辺物体O1の近傍に詳細情報DIが重畳表示される。この例の場合、詳細表示DIが重畳表示された周辺物体O1を示すアイコンI1は重畳表示され続け、周辺物体O2〜O6を示すアイコンI2〜I6の重畳表示は停止される。前方を見ている運転者は、上述した第1実施形態と同様に、この詳細情報DIを視認し、駐車車両PVの前側に存在する原動機付自転車が道路上に出てくる可能性があることを知ることができる。
本実施形態によれば、モーションセンサ11により検知された運転者の指FFの三次元位置に基づいて、指FFしている指の方向が取得されるとともに、取得された方向から運転者が指で指しているアイコンがマッチングされる。そのため、取得された周辺物体が多数存在し、多数のアイコンが重畳表示されている場合であっても、その多数のアイコンの中から運転者が所望しているアイコンを的確に判別することができる。また、本実施形態によれば、運転者の指FFによるマッチング操作中にカーソルを重畳表示する構成としているので、指FFで指す位置を所望のアイコンに合わせ易くできる。
また、本実施形態によれば、重畳表示する周辺物体(アイコン)の数が制限されない。さらに、詳細情報として、マッチングされたアイコンの詳細情報(所望の詳細情報)のみが表示されるため、重畳表示される画像により煩雑さを与えることが防止できる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、上記実施形態では、実景に重畳表示するためにヘッドアップディスプレイ20を用いたが、ヘッドアップディスプレイ20に代えて、例えば、ヘッドマウントディスプレイ等の表示装置を用いてもよい。
上記実施形態では、車両の前方の実景に重畳表示する場合を例にして説明したが、車両の後方等の他の方向の実景に重畳表示する場合にも適用することができる。また、上記実施形態では前方の実景に前方に存在する周辺物体のアイコンを重畳表示する構成としたが、これに加えて後方や側方に存在する周辺物体のアイコンを重畳表示する構成としてもよい。例えば、後方や側方に存在する物体を検知する検知手段により後方や側方を走行する車両等を検知し、その車両等を示すアイコンを重畳表示し、そのアイコンがポインティングされた場合には後方や側方の車両等の詳細情報を重畳表示する。これにより、ドアミラー等で得られる情報に相当する情報を運転者が視線を前方から移動させることなく得ることができる。また、ドアミラーの代替としてカメラ等で取得した画像を表示させ、例えば、左右に並走車両が存在している状態のときにのみ、アイコンにて運転者に知らせるとともに、該アイコンが指差しされたときに、カメラで取得した画像を表示すること(ドアミラーレス対応)も可能となる。
上記実施形態では、情報提供可能な周辺物体が存在することをアイコンで示したが、周辺物体を囲む矩形枠等の他の目印情報を用いて周辺物体が存在することを示してもよい。また、上記実施形態では周辺物体の詳細情報を文字列で重畳表示する例を示したが、カメラで撮像した画像等の他の形態の詳細情報を重畳表示してもよい。例えば、夜間等で暗い場合には赤外線カメラの撮像画像を詳細情報として重畳表示したり、後方や側方を撮像するカメラの撮像画像を詳細情報として重畳表示したりしてもよい。
上記実施形態では、指検知手段として距離画像センサで構成されるモーションセンサを示したが、三次元カメラ、レーダセンサ等で構成される他の指検知手段を適用してもよい。
上記実施形態ではモーションセンサ11の検知範囲としてステアリングホイールWの入らない範囲を設定したが、ステアリングホイールWが入る検知範囲を設定してもよい。この場合、例えば、モーションセンサ11の検知情報からステアリングホイールWの情報をマスクし、マスク後の検知情報を用いて運転者が所望するアイコン(詳細情報)を判定することが好ましい。
上記実施形態では、モーションセンサ11(距離画像センサ)を、運転席側の車室内上部かつステアリングホイールよりも前側の箇所(例えば、天井の運転席側の前端部や、フロントガラスの運転席側の上端部等)に配設したが、これらの位置に代えて、例えば、フロントガラスとダッシュボードとの間や、メータの筐体部などに配設してもよい。
また、上記実施形態では、モーションセンサ11(距離画像センサ)によって取得された指の三次元位置情報に基づいて、運転者が指差している方向を取得し、アイコンとのマッチングを行う構成としたが、このような構成に代えて、例えば、モーションセンサ11(距離画像センサ)により指先の3次元座標を検出し、該3次元座標をヘッドアップディスプレイ20上の座標と同期させ、任意のアイコンと座標マッチングを行う構成としてもよい。なお、この場合も、重畳表示されるアイコンの数は制限されない。
1,2 運転支援システム
10 周辺物体情報取得装置(周辺物体情報取得手段)
11 モーションセンサ(指検知手段)
20 ヘッドアップディスプレイ(表示手段)
31,32 ECU
31a,32a マッチング部(マッチング手段)
31b,32b 表示制御部(表示制御手段)

Claims (10)

  1. 車両の周辺に存在する周辺物体の情報を自動的に取得する周辺物体情報取得手段と、
    前記周辺物体情報取得手段により取得された情報を表示可能な周辺物体を示す目印情報を前記車両の周辺の実景に重畳させて自動的に表示する表示手段と、
    前記車両のステアリングホイールを握っている運転者の手の指を検知する指検知手段と、
    前記指検知手段により検知された指の位置又は動きに応じて、前記表示手段によって重畳表示されている目印情報の中から、運転者が所望する目印情報をマッチングするマッチング手段と、
    前記マッチング手段によりマッチングされた目印情報が示す周辺物体の情報を前記表示手段によって重畳表示させる表示制御手段と、を備え
    前記表示手段は、表示範囲を左側と右側とに分け、左側と右側に前記目印情報を1個ずつ重畳表示することを特徴とするヒューマンインターフェース。
  2. 前記指検知手段は、前記ステアリングホイールから前方に出ている指を検知することを特徴とする請求項1に記載のヒューマンインターフェース。
  3. 前記指検知手段は、前記車両の車室内の上部に配設され、当該配設された箇所から下方に向けた検知範囲を有しており、
    前記検知範囲には、前記ステアリングホイールから前方に出ている指が入り、かつ、前記ステアリングホイールが入らないことを特徴とする請求項2に記載のヒューマンインターフェース。
  4. 前記マッチング手段は、前記検知範囲を複数の領域に分け、前記指検知手段により検知された指の位置又は動きに応じて、前記複数の領域に含まれるいずれかの領域に運転者の指が入っているか否かを判定するとともに、指が入っていると判定した場合に、該指が入っている領域に対応する前記目印情報をマッチングすることを特徴とする請求項3に記載のヒューマンインターフェース。
  5. 前記マッチング手段は、前記指検知手段により検知された指の位置又は動きに基づいて、該指が指している方向を取得するとともに、取得した方向から運転者が指で指している目印情報をマッチングすることを特徴とする請求項3に記載のヒューマンインターフェース。
  6. 前記指検知手段は、距離画像センサにより構成されることを特徴とする請求項1〜5のいずれか1項に記載のヒューマンインターフェース。
  7. 前記指の位置は、前記距離画像センサにより検知された指先の3次元座標であることを特徴とする請求項6に記載のヒューマンインターフェース。
  8. 前記目印情報は、アイコンであることを特徴とする請求項1〜7のいずれか1項に記載のヒューマンインターフェース。
  9. 前記表示手段は、左側と右側の少なくとも一方の側において、2つ以上の周辺物体の情報が取得されている場合、該周辺物体に優先順位を付けて、優先順位が最も高い周辺物体の目印情報を重畳表示することを特徴とする請求項1〜8のいずれか1項に記載のヒューマンインターフェース。
  10. 前記表示手段は、前記情報を重畳表示する場合、全ての目印情報、又は、前記情報を表示しない周辺物体の目印情報の重畳表示を停止することを特徴とする請求項1〜のいずれか1項に記載のヒューマンインターフェース。
JP2017544407A 2015-10-05 2016-08-25 ヒューマンインターフェース Active JP6589991B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015197375 2015-10-05
JP2015197375 2015-10-05
PCT/JP2016/074806 WO2017061183A1 (ja) 2015-10-05 2016-08-25 ヒューマンインターフェース

Publications (2)

Publication Number Publication Date
JPWO2017061183A1 JPWO2017061183A1 (ja) 2018-08-30
JP6589991B2 true JP6589991B2 (ja) 2019-10-16

Family

ID=58487504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017544407A Active JP6589991B2 (ja) 2015-10-05 2016-08-25 ヒューマンインターフェース

Country Status (2)

Country Link
JP (1) JP6589991B2 (ja)
WO (1) WO2017061183A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121042A (ja) * 2017-12-28 2019-07-22 株式会社デンソー 対象選択装置
JP6754472B2 (ja) * 2019-06-14 2020-09-09 株式会社Subaru 車両の情報表示装置
CN114360321B (zh) * 2021-11-09 2023-04-07 易显智能科技有限责任公司 机动车驾驶员手部动作感知***、培训***和培训方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330450A (ja) * 2000-03-13 2001-11-30 Alpine Electronics Inc ナビゲーション装置
JP4788199B2 (ja) * 2005-05-31 2011-10-05 日産自動車株式会社 コマンド入力装置
JP2008296792A (ja) * 2007-05-31 2008-12-11 Toyota Motor Corp 車両用走行制御装置、及び車両
JP2010108264A (ja) * 2008-10-30 2010-05-13 Honda Motor Co Ltd 車両周辺監視装置
JP4975889B1 (ja) * 2012-02-07 2012-07-11 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、及び表示装置
US9477315B2 (en) * 2013-03-13 2016-10-25 Honda Motor Co., Ltd. Information query by pointing
WO2014196038A1 (ja) * 2013-06-05 2014-12-11 三菱電機株式会社 視線検知による情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JPWO2017061183A1 (ja) 2018-08-30
WO2017061183A1 (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
US11364930B2 (en) Vehicle control system, vehicle control method and program
CN110678371B (zh) 车辆控制***、车辆控制方法及存储介质
CN110730740B (zh) 车辆控制***、车辆控制方法及存储介质
JP6547155B2 (ja) 車両制御システム、車両制御方法、およびプログラム
US11203360B2 (en) Vehicle control system, vehicle control method and program
WO2017094316A1 (ja) 運転支援装置
US20180345991A1 (en) Vehicle control system, vehicle control method, and storage medium
JP6307895B2 (ja) 車両用周辺監視装置
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
US20180286095A1 (en) Display Assistance Device and Display Assistance Method
JP6744064B2 (ja) 自動車用画像表示システム
US11565713B2 (en) Vehicle control system, vehicle control method, and vehicle control program
US20180348757A1 (en) Vehicle control system, vehicle control method, and storage medium
CN110709304A (zh) 车辆控制***、车辆控制方法及车辆控制程序
JP6827378B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP2010173530A (ja) 走行支援装置
JP5898539B2 (ja) 車両走行支援システム
CN108973989B (zh) 车辆控制***、车辆控制方法及存储介质
JP6589991B2 (ja) ヒューマンインターフェース
JP6840035B2 (ja) 車両制御システム
KR101985496B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
JP2011192070A (ja) 車両の周辺監視装置
JP6838728B2 (ja) 画像表示システム、画像表示方法及びコンピュータプログラム
JP2017027487A (ja) 情報呈示装置及び情報呈示方法
JP2020140603A (ja) 表示制御装置、表示制御方法、および表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R150 Certificate of patent or registration of utility model

Ref document number: 6589991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150