JP7309339B2 - 移動性における支援のための視線主導型伝達 - Google Patents

移動性における支援のための視線主導型伝達 Download PDF

Info

Publication number
JP7309339B2
JP7309339B2 JP2018193232A JP2018193232A JP7309339B2 JP 7309339 B2 JP7309339 B2 JP 7309339B2 JP 2018193232 A JP2018193232 A JP 2018193232A JP 2018193232 A JP2018193232 A JP 2018193232A JP 7309339 B2 JP7309339 B2 JP 7309339B2
Authority
JP
Japan
Prior art keywords
distance
person
event
vehicle
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018193232A
Other languages
English (en)
Other versions
JP2019091432A (ja
Inventor
ヴィーベル-ヘルボト,クリスティアーネ
クリューガー,マッティ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2019091432A publication Critical patent/JP2019091432A/ja
Application granted granted Critical
Publication of JP7309339B2 publication Critical patent/JP7309339B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、人が動的環境において車両を操作するのを支援する分野に属する。特に、人が運転支援システム(drive assistance system)を利用して車両を操作するのを支援するための方法およびシステムが提案される。
動的環境、例えば自動車の領域においては、そのような動的環境に関与する他の交通参加者や物体などの実在物が多くなるにつれて、行動することがより厳しくなる。そのような複雑な、極めて動的な環境ついての一般的な例は、市街地における交通環境である。車両を運転している人は、車両をナビゲートするために、配慮すべき課題の増加に対処しなければならず、大量の情報をうまく処理する必要がある。特に、ユーザは、車両を運転するためにどのように行動すべきかについて最良の決定に至るために、多くの情報を収集し、それらの収集された情報を処理、例えばフィルタ処理しなければならない。この状況をうまく処理できるように、ユーザ、特に運転者の運転タスクの実行を支援する様々な運転支援システムが開発されている。そのような運転支援システムの一つの重要な側面は、自車両の環境を知覚することのできる車載のセンサシステムによって取得される情報については、当該情報をその車両の運転者である人間が直接知覚する必要はない、という点である。したがって、人は、あるシーンの他の態様に集中することができる。そのような支援システムは、多くの場合、重要度に応じて情報をフィルタ処理することができる。
交通状況は、環境内の関連する全ての側面を知覚し及び情報をフィルタ処理することについて人間を支援することが望ましい一つの例にすぎない。そのような支援を行うシステムは、ボートや船舶をナビゲートする人、あるいは動的環境において行動しなくてはならない他の任意の人にとっても好適であることは明らかある。
運転支援システムは、環境についてのセンサ情報を取得するセンサを用いてシーンを分析し、上記取得されたセンサ情報を処理して、現在の交通状況においてどのように振る舞うべきかについての警告や提案を行うことで、あるいは更に少なくとも部分的に運転機能を自律的に実行することで、車両ユーザとして行動する人間を支援する。運転支援システムから操作者への情報提示では、情報が正しく伝達されるようにユーザが能動的に自らの注意をシフトさせなければならない、という欠点がある。したがって、交通シーンの他の側面に対するユーザの集中がそこなわれることとなり、安全性が低下し得る。
この問題を克服し、必ずしも人の注意を能動的にシフトすることを要することなく、人の注意野(field of attention)を拡張するような情報を人間に提供するためには、運転タスク用としては通常は用いられないようなリソースを使用することが望ましい。これにより、どのように反応すべきかを決定するための情報として通常は人間が使用しないような情報を利用することが可能となる。動的状況についてのそのような人間の感覚拡張は、動的環境において行動する物体、特に車両が、互いに対して相対的に移動するような高度に動的な環境において、特に有利である。
従来、例えば或る実在物の、或る人に対する距離および/または方向を、その人に伝達する試みが行われている。その結果として、例えば何かに遮られ又は視線から外れていることで或る実在物を認識さえしていなかった人でも、その実在物の存在、方向、及び接近の程度を知らされることで、反応することができる。これにより、とりわけ、通常ならばそのような状況では能動的に使用されないような人間の利用可能な感覚、例えば触覚が使用される場合には、人間にとっての環境知覚が向上する。1つのそのような既知のシステムは、死角監視システム(blind spot surveillance system)であり、車両前方エリアに注目する車両ユーザによっては通常は能動的に観察されない当該車両の環境エリアを観察する。観察外エリアにおいて他車両が自車両に接近すると、運転者に警告が出力される。例えば、ユーザが実際に車両運転者である場合には、ステアリングホイールの振動を用いてそのユーザに刺激が与えられる。これは、環境を知覚するために能動的に使用されていない運転者の感覚能力が、追加情報を提供するためにどのように使用され得るかの典型的な例である。これにより、ユーザは、与えられた追加情報を用いて、交通状況全体に関する評価を改善することができる。例えば、車両運転者の死角を走行する他車両の存在について、ユーザに警報が発出され得る。その後、ユーザは、一瞥を投げて当該状況についての追加知識、すなわち自分が以前に気づいていなかった知識を得ることができる。
特開2015-032286号公報
本発明の目的は、タスクに関連のある実在物についての可能性のある事象、または自車両と他の物体(対象物体)との間の関係についての、認識容易な情報を車両操作者(ユーザ)に提供することによって、その人が動的環境において状況を判断するのを支援することである。
この課題は、独立請求項1に記載の、自車両を操作しながら動的環境を評価する人を支援する方法、及び、対応する独立請求項に記載のシステムによって解決される。
従属請求項は、本発明の他の有利な実施形態を含む。
自車両を操作する人の動的環境の評価を支援するための本方法は、人の視線方向を特定し、当該視線方向に基づいて対象物体を識別するステップを含む。対象物体(対象実在物)は、支援される人が瞬間的に焦点を合わせた自車両環境内の物体として識別される。予測情報を生成するステップにおいて、対象物体および自車両の将来の挙動が予測される。そのような挙動は、例えば対象物体の予測軌道を含む。次に、自車両と対象物体とについての事象余裕時間(time-to-event)または距離もしくは距離変動が推定され、その後、アクチュエータを駆動するための信号であって上記推定された事象余裕時間または距離もしくは距離変動を示す信号が生成される。上記信号はアクチュエータに出力され、当該アクチュエータは、人がその知覚能力によって知覚することのできる刺激を発生させる。
本発明の方法は、特に、事象余裕時間に関する情報、または対象物体と自車両との間の距離に関する情報、または対象物体と自車両との間の距離変動(例えば、自車両と、自車両の先行物(predecessor)である対象物体との間の間隙が狭くなっていくこと)に関する情報を提供することによって人の状況評価に寄与することのできる支援システムを提供する。事象余裕時間は、衝突余裕時間(TTC、time-to-contact)、又は、環境の或る領域内にある実在物との相対的な距離もしくは速度についての同様な尺度であり得る。事象は、例えば、対象物体と自車両との間の仮想の衝突、または特定位置への対象物体の到達であり得る。上記環境の領域は、例えば動的環境に関する評価支援機能を人がアクティブ化した場合において、その人が視線を向ける領域として定義され得る。本方法により提供される視線方向に依存した情報は、人およびユーザが、遭遇した状況に対して適切なアクションを行うことをサポートする。その結果、人は、安全性及び快適性が向上された状態で自車両の運転タスクを良好に実行することができる。
本方法は、事象余裕時間、例えば衝突余裕時間や、自車両の直接環境(direct environment)内にある実在物間の距離変動に対応する、相対距離および相対速度についての同様な尺度を、人が直接知覚することのできるフィードバック信号により、リアルタイムで符号化する機能を有する。これにより、人は、複雑な且つ迅速に変化する交通環境において自車両を制御しつつ、そのような追加情報を考慮することが可能となる。これは、一般的タスクに直接干渉することなく、特に運転者として行動する人が実行する車両制御に直接的に干渉することなく実現される。人は車両操作の制御ループの一部であり続けるので、車両の完全自律制御におけるような制限は生じない。さらに、本発明の方法は、人間の注視行動(gaze behavior)の二つの潜在能力を活用することにより、人と運転支援システムとの間の直観的な態様でのインタラクション(interaction)を実現する。一方において、注視行動、特に人の視線の焦点は、人の一般的な注意方向、特に人の注意の焦点方向を示している。したがって、本運転支援システムは、人の視線検出を行い、特定された視線方向を解釈してその人の意図の予測をも行い得る。他方において、指示的視線(直示的視線、deictic gaze)は、人とシステムとの間のコミュニケーションを確立するための非言語伝達ツールとなる。したがって、本方法は、実在物に関連のある人、例えば自車両のユーザと、本方法または本方法を実施する自車両内に設置されたシステムと、の注意共有(joint attention)を確立するためのさらなる伝達経路として、視線検出を行う。視線検出は、また、人間にとって直観的な態様で、且つユーザと自車両との間の他のインタラクション手段に影響を与えることなく、本方法を実施するシステムと人との間の確認的フィードバック(confirmatory feedback)を可能にする。さらに、人は、指示的視線を用いることで、特にその人が環境内のどの実在物についての事象余裕時間を知ることを望んでいるのかを、本方法を実装するシステムに示すことができる。なお、本明細書において「事象余裕時間」とは、対象物体についての、何らかの他の実在物との関係または自車両の環境内における何らかの位置との関係を表現する、任意の値を表すものと理解されたい。運転支援システムの能力がより完全に使用されることとなり得る。また、車両の操縦者の注意の焦点が明確となるので、自車両に搭載された処理リソース(複数)が、より経済的な形で同時に用いられ得る。運転支援システムへの指示にあたってユーザに大きな追加負担を生じさせることなく、ユーザ側からの求めに応じて補足情報が提供されるので、自車両操作のための制御ループ内におけるユーザの役割を維持しつつ、本方法により支援される運転システムの受容性が高まることとなり得る。
指示的(直示的、deictic)という用語は、直接的に示すこと、または直接的に指摘すること意味し、より詳細には、指示的視線とは、環境内の実在物(またはそのような実在物の鏡像)または環境内の複数の実在物の組合せに、直接的に向けられた視線、として理解されたい。視線という用語は、一般に、人の眼、頭部、および首の協調した動きを意味し、ここでは特に、人の眼、特に瞳孔が向けられている方向によって定義される人の視覚的注意の方向を意味する。
本方法は、高密度の交通、または困難な環境条件、例えば夜、薄明、雨、霧、もしくは降雪などの、見通しの悪い状態において操縦(navigate)を行う場合に、特に有利である。したがって、特にそのような環境条件下での事故発生のリスクが低減される。
例えばレーン変更のような、距離および速度がすばやく変動する複雑な交通状況が、より容易に処理できるようになる。これは、本発明の方法を採用することにより、事象余裕時間情報や相対速度情報に相当する相対距離及び距離変動などの情報へのアクセスが容易になることで達成される。本方法は、人が個々の状況評価を行うのを支援してユーザ快適性を増進する、協調的(cooperative)な支援システムを実現する。動的環境における操縦行動の決定についての安全性と効率性が、より向上する。本方法は、ユーザとしての人が意思決定ループの中に留まってその状況の対処を担当し続ける、という更なる利点をもった、協調的なマン-マシン・インタラクションの手法を実現する。これとは異なり、既知の半自律型システムは、自動化に本質的な問題の影響を受ける。例えば、機械によってタスクの全体が実行される場合、人は、そのタスクの実行を技術システムに完全に依拠するようになり、周囲の環境や当該環境の要素については、一般に、運転支援システムがおそらくは監視していると思ってあまり注意しないようになる。その結果、システムの誤用が生じたり、ユーザの注意力が悪化したり、困難な状況を扱う能力が低下することとなって、事故リスクはむしろ増加することとなり得る。
これに代えて又はこれに加えて、上記生成された信号は、事象余裕時間または距離もしくは距離変動を符号化したものとすることができ、上記生成された信号は、事象余裕時間、距離または距離変動の減少に伴って顕著性が増加するようにアクチュエータを駆動するよう適合される。
事象余裕時間、距離または距離変動を上記信号に符号化することで、アクチュエータに、直観的に理解可能な態様で人へ追加情報を伝えさせることができる。
他の実施形態によると、本方法は、知覚された環境であって事象余裕時間、距離、または距離変動が推定された環境に適合するように、上記生成された信号、特に、上記符号化された、推定された事象余裕時間、距離、または距離変動を、修正することを含む。
これにより、上記信号に含めた情報を、交通環境における視界低下などの特定の状況に対してさらに適合させることができ、情報のコンテキスト感度、例えば霧に遭遇したときに先行車両までの距離が急減してしまうような状況が、さらに改善すされる。
さらに、これに代えて又はこれに加えて、特に事象余裕時間、距離、または距離変動について新たに推定された値が考慮されるように、或る時間間隔で、上記生成された信号が更新され、当該更新された信号が繰り返し出力される。
伝達される情報は時間と共に変更されるので、すばやく変化する可能性のある動的環境についての状況認識が改善される。
他の有利な実施形態によれば、本方法は、生成され更新された信号を繰り返し出力すること、及び、上記信号の上記繰り返し出力を、ユーザ入力、しきい値に対する超過又は減少、特に事象余裕時間がクリティカルな時間マージンを超えること又は上記距離がクリティカルな距離値を超えること、の少なくとも一つに基づいて終了すること、を特徴とする。
これにより、関連する情報およびその人が実際に所望している情報のみが伝達されることとなる。すなわち、自車両を操作している人に過剰な情報が与えられることが回避される。
これに代えて又はこれに加えて、本方法は、動的環境の評価についての支援を要求するユーザ入力を人から受信することを含む。ユーザ入力は、インターフェースコンポーネントに印加された圧力を検知すること、音響コマンドを受信すること、人のジェスチャーを検知すること、視線パターンを測定すること、筋肉活性化のパターンを検出すること、および人のニューロン活性化のパターンを判断すること、のうちの少なくとも1つによって受信され得る。
支援機能を開始するためのユーザとの上記インタラクションにより、ユーザが特定のニーズに合わせて調整された追加情報を実際に望むときにのみ又は欲するときにのみ支援機能を発揮するよう調整することができる。ユーザは、運転支援システム機能がアクティブ化されたときにその運転支援システムの支援を能動的に要求することとなるので、当該システムの受容性が向上する。
他の好ましい実施形態によれば、本方法は、動的環境の評価についての支援をアクティブ化することが要求されているか否かを、特に人の注視行動を監視することにより判断する。
人の注視行動を監視することは、人が支援を必要とするかどうかを決定するために有効な方法である。
これに代えて又はこれに加えて、本方法は、事象余裕時間、距離または距離変動を推定することにより、人が動的環境を評価するのを支援し、アクチュエータを駆動するための信号であって且つその人がそれと判る挙動として注意を払った(挙動的に注意を払った)動的環境の領域についての事象余裕時間、距離または距離変動を示す信号を、生成する。
ユーザの視線パターンを分析することによりその人の注視行動を監視すると、特に有利である。
パターン認識は、例えば人の頭部および特に眼を画像化するカメラを介して収集される画像信号を用いることで、人の注視行動によりその人の意図を分類するための、従ってそれらを識別するための、効率的な方法を提供する。
これに代えて又はこれに加えて、アクチュエータは、事象余裕時間、距離または距離変動を符号化する上記生成された信号に基づいて人の触覚刺激を生じさせるように構成されている。事象余裕時間、距離または距離変動は、触覚刺激の刺激周波数、振幅、特に振幅変調などの波形、パルス間隔、およびパルス持続時間(pulse duration)のうちの少なくとも1つにおいて符号化される。
他の有利な実施形態によれば、アクチュエータは、事象余裕時間、距離または距離変動を符号化する上記生成された信号に基づいて可聴音信号を発出するよう構成されている。事象余裕時間、距離または距離変動は、音響信号のピッチ、ボリューム、持続時間、音色および音声コンテンツのうちの少なくとも1つにおいて符号化される。
これに代えて又はこれに加えて、アクチュエータは、事象余裕時間、距離または距離変動を符号化する上記生成された信号に基づいて視覚信号を発出するよう構成される。事象余裕時間、距離または距離変動は、視覚信号の色、輝度、コントラスト、および視覚的に知覚できるパターン、のうちの少なくとも1つにおいて符号化される。
これに代えて又はこれに加えて、アクチュエータは、事象余裕時間、距離または距離変動を符号化する生成された信号に基づいて熱信号を放出するように構成される。事象余裕時間、距離または距離変動は、温度レベル、温度レベルの変化、知覚される温度レベル、または温度レベルの知覚される変化において符号化される。特に、事象余裕時間が短い場合には知覚される温度を高くし、知覚される温度を低くすることで事象余裕時間、距離または距離変動が大きいことが示されるように、事象余裕時間が符号化され得る。事象余裕時間、距離または距離変動を符号化するために使用される温度範囲は、絶対値として、又は或る温度に対する相対値として選択され得る。温度範囲は、環境のコンテキスト特徴、例えば環境の周囲温度および/または人の体温に応じて変動させ得る。知覚される温度は、実際の温度の平均値を変化させることなく変動(変調)させるものとすることができる。したがって、変化した温度による火傷や凍傷のリスクが回避される。
これに代えて又はこれに加えて、アクチュエータは、事象余裕時間、距離または距離変動を符号化する上記生成された信号に基づいて電磁信号を発出するように構成される。電磁信号は、人の神経系の活動を電磁的に刺激するように適合される。事象余裕時間、距離または距離変動は、電磁信号の電界及び又は磁界のパラメータ、人の身体上の刺激位置及び又は刺激持続時間のうちの少なくとも1つにおいて符号化される。
刺激は、経頭蓋磁気刺激(transcranial magnetic stimulation)などの磁気誘導によってまたは人の神経細胞への電流の印加によって、例えば人と直接接触する伝導性媒体を使用する間接的刺激によって、発生させることができる。
これに代えて又はこれに加えて、アクチュエータは、事象余裕時間、距離または距離変動を符号化する上記生成された信号に基づいて化学信号を発出するように構成される。事象余裕時間は、化学信号の刺激位置、刺激量、刺激持続時間、刺激頻度、刺激のパターンおよび化学組成のうちの少なくとも1つにおいて符号化される。
化学信号は、人の神経系の活動の変動を生じる反応をもたらすように選択される。
これに加えて又はこれに代えて、刺激は、アクチュエータが光パルスを感光性の生体組織に放出することによって生成され得る。これは、微生物型ロドプシンなどの光遺伝学的アクチュエータ(optogenetic actuator)を含んだ組織と組合せて用いる場合に実現性を有し得る。
有利な実施形態によれば、事象余裕時間、距離または距離変動を符号化する上記信号は、さらに、ユーザが選択した好み(preference)及びコンテキストから見た適切性(context adequacy)のうちの少なくとも1つに応じて生成される。これにより、システムを、種々のユーザに適合したものとすることができ、複数のユーザの様々な性格や当該ユーザの実際の気分にさえも適合させることができることとなる。その結果、システムの受容性はさらに向上され得る。
本発明のさらなる態様によると、人が動的環境を評価するのを支援するための本システムは、人の視線方向を特定し、これに基づき対象物体を特定するように構成された、視線方向特定ユニットを備える。また、プロセッサが、対象物体の将来の挙動と自車両の将来の挙動とを予測する予測情報を生成するよう構成される。プロセッサは、また、自車両と対象物体とについての事象余裕時間または距離もしくは距離変動を推定するように構成される。また、システムは、アクチュエータを駆動するための信号であって推定された事象余裕時間または距離もしくは距離変動を示す信号を生成するよう構成された信号生成器を含む。アクチュエータは、人がその知覚能力によって知覚できる刺激を発生する。
本発明の第3の態様は、コンピュータまたはデジタル信号プロセッサ上で実行されたときに上述した実施形態のいずれかに記載のステップを実行するプログラムコード手段をもつコンピュータプログラム(コンピュータプログラム製品)によって、上述した課題を解決する。プログラムは、機械読み取りが可能なデータ担体上に記憶され得る。
本発明の第3の態様は、上記プログラムがコンピュータまたはデジタル信号プロセッサ上で実行されるとき、当該コンピュータまたはデジタル信号プロセッサと協働することのできる、電子的に読取りが可能な制御信号をもつデジタル記憶媒体によって、上記課題を解決する。
システムの構成、種々の方法ステップ、並びに、そのような方法およびシステムを使用することについての種々の利点は、添付の図面を含む実施形態の説明から明らかになる。
一の実施形態に係る信号符号化のプロセスのフローチャートである。 一の実施形態に係る支援システムの起動のプロセスの他のフローチャートである。 一の実施形態に係る支援システムが起動されるシナリオを示す図である。 一の実施形態に係る支援システムが起動される他のシナリオを示す図である。 一の実施形態に係る主要な構成要素を示すブロック図である。
概して、本発明は、移動システムの分野に関し、移動システムの操作における支援に関する。移動システムは、車両(乗り物)、特に車またはオートバイであり得る。移動システムは、また、船舶、航空用乗り物(air vehicle)、または宇宙用乗り物(space vehicle)であり得る。車両は、車両に乗っているユーザ(人)によって制御されるか、または遠隔制御位置(設備)から遠隔制御され得る。車両は、部分的にまたは完全に自律的に操作され得る。車両のユーザ(操作者)及び本支援方法のユーザは、例えば運転者(車両運転者)であり、オートバイの場合はライダーであり、あるいは上記乗り物(vehicle)の場合はそのパイロットであり得る。あるいは、ユーザは、車両の操作に関する1つまたは複数のサブタスクを通常は実行してパイロットまたは運転者を支援する副運転者(co-driver)、副パイロット、またはナビゲータであってもよい。ユーザは、また、車両操作についての教師であってもよく、一般的にはその車両についての重複した車両制御を行い得る。さらに、遠隔制御される車両の場合、ユーザは、遠隔操作車両を当該車両から離れた位置から車両制御する操作者であり得る。
本出願において、車両を操作するとは、車両を運転する(操る)こと、又は、操舵、加速もしくは減速(制動)の少なくとも一つを実行すること、当該車両のナビゲート(方向案内、道案内)を行うこと、もしくは当該車両のそのような操作を監視すること、と理解されたい。
本発明は、事象余裕時間(TTE、time-to-event)という用語を使用する。事象余裕時間は、事象が発生するまでに経過する時間を表す尺度である。事象は、物体間の衝突、例えば環境内を移動する2つの実在物間の衝突、あるいは他の物体に対して特定の位置またはしきい値距離に達することであり得る。この場合、事象余裕時間は、衝突までの時間または衝突余裕時間(TTC)に相当する。TTCの算出は、他の先進運転者支援システム(ADAS)から知られているように、交通状況に関与する実在物についての予測軌道に基づいて行われ得る。利用可能な情報が十分でなく、要求されている確からしさをもったTTEを得ることができない場合、TTEの推定値が算出され得る。TTE推定値という用語は、TTEの判断尺度を意味し、そのTTEに含まれる不確実性にとらわれることなく見積られた、TTEの推測値および予測値を意味する。TTE推定値という用語は、また、動的環境の評価に関連があると考えられる種々のパラメータおよび変数によりTTE推定値に変更を加えることを表す際にも使用される。例えば、TTE推定値の変更は、そのコンテキストにおいて関連のある要因としての特定の人、特定の車両、および種々の環境要因に起因して予測される実在物の予測軌道への適応であり得る。また例えば、TTE推定値の変更は、例えば運転支援システムにより実際に与えられるTTE推定値よりもわずかに短いTTE推定時間値を出力するというような、より慎重な通知を行うという戦略的選択であり得る。
現在のコンテキストにおける挙動的注意(behavioral attention)という用語は、実在物によりもたらされる任意の挙動または事象であって注意行動プロセスを示すと考えられるものをいう。挙動的に注意を払われた領域(behaviorally attended region)とは、人の環境のうち実在物に関連付けられるべき領域であって、検出された視線が向いている領域をいうものと理解される。視線方向は、人の眼の瞳孔が向いた方向(焦点)を特定することによって検出され得る。例えば、眼の焦点面および眼の中心窩が特定され得る。人の眼の眼挙動は、分類され、挙動的注意および/または挙動的に注意を払われた領域の特定において考慮され得る。眼の眼挙動は、さらに人の眼球運動における凝視(fixation)および断続性運動(サッカード、saccade)を特定することによって特定され得る。また、これに加えて又はこれに代えて、人の頭部の向きなどの他の挙動が、挙動のインジケータとして使用され得る。概して、実在物が行う何らかの挙動であって、その実在物が注意を向けている領域を推測するための情報を表すもの、として分類され得る挙動は、挙動的注意という用語の下に集約され得る。
図1は、一実施形態に従う、信号符号化のプロセスのフローチャートである。
ステップS1において、少なくとも1つのセンサ1、2、3、4が、システム1の環境から信号を連続的におよび/または間欠的に(繰り返し)取得する。システムの環境は、実在物、例えば自車両の環境に対応し、当該自車両は、センサ1、2、3、4と、プロセッサ5を含む処理機器と、メモリ6と、ユーザインターフェースハードウェアとを搭載し得る。さらに、ステップS2において、センサ1、2、3、4のうちの少なくとも1つが、人の視線方向の特定を可能とするセンサ信号を取得する。
センサ1、2、3、4のうちの少なくとも1つは、車両の運転席に着座した人を監視するカメラまたはカメラアレイであり得る。センサ1、2、3、4のうちの少なくとも1つは、人の視線方向を判断することを可能にするセンサ信号を取得する。任意の一般に知られているアイトラッキングシステムが使用され得る。カメラは、特に、人の上半身(胴)、首および頭部をカバーし得る。カメラまたはカメラアレイの視野は、運転タスクを実行するときに車両の運転者が通常眺める方向をユーザが見ているときの、当該ユーザの頭部の正面像を主に含み得る。人は、特に自車両の運転者であり、同時にシステムのユーザである。環境から取得された信号と人の注視行動に関する情報を含む信号と、の双方が、処理の際にプロセッサ5に与えられて解釈される。カメラおよびプロセッサは、視線方向特定ユニットを構成する。
ステップS3において、環境からの信号は、環境及び当該環境の一部を構成する実在物を表現するように、既知の手法により処理される。実在物の例は、静止物体および移動物体であり、例えば他の交通参加者またはインフラストラクチャなどの対象物体のみならず、交通信号などの道路インフラストラクチャ要素である。
ステップS3において、プロセッサ5は、人の注視行動に関する情報を含む信号をさらに解釈する。これには、特に、注視行動に関する情報を含む信号の解釈が含まれ得る。人の注視行動に関する信号情報を解釈することには、ドライビングミラーを考慮に入れるための、及び、自車両の内部に配置されたミラー又は自車両の外側に取り付けられたミラーによりそれぞれ変更および反射された視軸を考慮に入れるための、前処理を行うことを含み得る。
注視行動に関する情報を含む処理された信号は、その後、ステップS4において、当該処理された信号から支援機能の起動要求が導出されるか否かについての分析および解釈が行われる。ステップS5において支援機能の起動要求がないと判断される場合、本方法はステップS1およびS2に戻る。
ステップS4において支援機能要求があると判断された場合、ステップS6において、支援機能が起動される。支援機能を起動している間、環境内の関心領域が識別される。これは、検出された視線方向を環境の領域と相関させることにより、及び又は、検出された視線方向を、関心領域内または関心領域に関連付けられた領域(挙動的に注意を払われた領域)内において本システムが配置し及び知覚した1つまたは複数の実在物と相関させることにより、実行され得る。
挙動的に注意を払われた領域に関連付けられた領域は、自車両の環境内の領域を表す、注意を払われた領域を含み得る。これは、例えば、注意を払われた領域が、情報を示すミラー又はスクリーンを含んでいるような場合、例えば操作者が直接観測できない領域に関する画像情報を表示するミラーまたはスクリーンを含んでいる場合である。例えば、自車両は、機能するセンターミラーがないトラックであり得る。しかしながら、操作者によって読み取られ得るように配置されたスクリーン上に、そのトラックのすぐ後ろのエリアに関する情報が提示され得る。
したがって、概して自車両の環境において予め定義されたエリアは、操作者が眺めたなりの当該予め定義されたエリア内の実際の方向とは異なる、その操作者が見た他の方向への挙動的ジェスチャーにマッピングされ得る。
後続のステップS7において、事象余裕時間、例えば関心領域内で識別された対象実在物に関する事象余裕時間が、プロセッサによって計算される。この衝突余裕時間は、例えば、ステップS2において自車両の運転支援システムによって生成されたデータから判断され、ステップS3において解釈され得る。
対象実在物についての推定された事象余裕時間は、ステップS7に続くステップS8において、伝達実行の基準が満たされたか否かの判断に使用され得る。これは、対象物体についての推定された事象余裕時間を、時間しきい値と比較することによって行われ得る。ステップS8において伝達実行の基準が満たされていないと判断された場合、本方法はステップS1およびS2に戻る。一方、伝達実行の基準が満たされている場合、例えば、事象余裕時間が所定のしきい値を下回っている場合、または、伝達の実行を操作者が明示的に要求した場合には、本方法はステップS9に進む。
ステップS9において、推定された事象余裕時間は、信号(作動信号)に符号化される。事象余裕時間を作動信号に符号化するために、ステップS10において、追加のパラメータが収集され得る。追加のパラメータ(変調パラメータ)は、例えばコンテキスト依存パラメータであるものとすることができる。コンテキスト依存パラメータは、事象余裕時間を符号化して作動信号を生成する際に考慮される。
コンテキスト依存パラメータは、環境および環境の具体的な状態、例えば霧や雨雪に起因する視界、湿度に起因する眩惑(グレア、glare)、氷結などの道路状態、路面、などを表すものとすることができる。
ステップS11において、上記作動信号は、人がその知覚能力によって知覚することのできる刺激を生じさせるためのアクチュエータ8.1、8.2に与えられる。特に、予測される事象についての事象余裕時間を示す作動信号は、人に対する触覚信号により発出され得る。
図2は、一実施形態に従う、支援システム起動処理の他のフローチャートを示す。特に、図2の実施形態は、支援システムがユーザによって能動的に要求されなかった場合のシステム起動処理を示している。この場合、支援システムは、例えば人の挙動パターンの変化に基づいて、その人が支援を受けることで得られる利益を推定するように適合され得る。
ステップS21において、センサ1、2、3、4は、人についての観測情報、例えばユーザについてのカメラ撮像画像を連続的に取得する。ステップS22において、プロセッサ5は、取得された画像に対して処理を実行する。この処理では、特に、例えば視線方向や特定の方向に向かう視線の発生頻度についての、ユーザ挙動の変化を判断し、又は同様な観測情報を取得するための処理を実行する。
次に、ステップS23において、プロセッサ5は、各観測情報に関し、環境についての追加情報がユーザにとって有益であり且つユーザに歓迎されるであろうとする尤もらしさを推定する。特に、検知された環境において発生する可能性があるものとして定義された特定の事象についての事象余裕時間を示す情報から、ユーザが利益を得るかどうかが推定され得る。推定された上記尤もらしさが所定のしきい値を超える場合、システムは、支援機能をアクティブ化することでユーザが利益を得るであろうと判断する。その結果、ステップS24において、支援機能がアクティブ化される。これに代えて、ステップS24において、支援機能のアクティブ化がユーザに少なくとも提案される。
ステップS23からの上記推定された尤もらしさが所定のしきい値を下回る場合、システムは、ユーザが支援機能のアクティブ化から利益を得ないであろうと判断する。その結果、ステップS25において、支援機能はアクティブ化されない。これに代えて、ステップS25において、支援機能のアクティブ化は、ユーザに少なくとも提案され、ユーザ確認を受信した後にのみ実行され得る。
図3は、一実施形態に従う、支援システムが起動されアクティブである場合の、第1の例示的なシナリオを示す。
図示されたシナリオは、特に、ユーザが支援機能から利益を受け得るか否かについての推定に基づいて、システムが、当該システムとユーザとの間のインタラクションを開始することを示している。図示されたシナリオは、交通環境における車両の運転支援の分野に属する。それぞれのシナリオは、本方法から逸脱することなく船の操縦などの用途や登山、スキーなどの活動に適用され得ることは、明らかである。
システム、例えば当該システムのカメラセンサ1、2、3、4(図5参照)は、車両運転者である人が選ぶ操舵位置を監視し、かつ、ステップS31において、運転者が車両の左サイドミラーを頻繁に見ていることを検出する。自車両のレーンの左側に他の走行レーンが存在することを考慮して、システムは、左レーンへのレーン変更の意図された挙動を予測する。ステップS32において、システムは、ユーザの挙動パターンを特定し、車両ユーザは支援機能から利益を得ることができる可能性があるものと判断する。システムは、その支援をユーザに提案する。支援についてのこの提案は、アクチュエータ8.1、8.2を介した触覚信号を使用することで実行され得る。これらのアクチュエータは、車両のステアリングホイールに組み込まれているものとすることができる。ステップS3において、ユーザは、自身の希望を確認し、提案された支援を受け入れる。この受入れは、例えばユーザがステアリングホイールをきつく握ることで、システムにより受信されるものとすることができる。ステップS31~S33におけるシステムとユーザとの間のインタラクションにより、支援機能が実質的に開始される。ステップS34において、ユーザは、さらに、車両環境内における関心のある物体または特に関心のある領域を指示する。例示的な第1のシナリオでは、ユーザは、その視線を、車両の左サイドミラーであって且つ当該左サイドミラーの中に見える実在物に集中させる。この実在物(対象物体)は、ユーザが指示的視線を用いることで識別される対象物体であり、例えば左レーン上を近づいて来る車であり得る。
図3に示すシステムのカメラセンサ1、2、3、4を用いて、プロセッサは、後続のステップS35において、指示的視線を認識し、視線の方向を判断し、左サイドミラーの可視領域内の関心実在物を識別する。この処理は、複雑な交通シナリオが、ユーザにとって特に関心のある部分的なシナリオへと縮減される、という効果をもたらす。システムは、事象余裕時間、例えば、自車両と左レーン上を後方から近づいている対象物体とが関与する現在の状況についての衝突余裕時間を算出する。これは、ステップS36において、自車両の先進運転支援システムにおいて算出され得る。衝突余裕時間の計算は、公知であり、自車両の予測軌道と対象車両(対象物体)の予測軌道とが交差するまでの、推定される経過時間を出力し得る。
システムは、次に、推定された衝突余裕時間を、アクチュエータ8.1、8.2に与える信号に符号化する。本事例では、アクチュエータ8.1、8.2は、自車両のステアリングホイールに組み込まれた振動触覚アクチュエータであり得る。ステップS37において、アクチュエータ8.1、8.2は、衝突余裕時間の推定値を自車両のユーザに動的フィードバックとして伝達する。第1の例示的なシナリオでは、動的フィードバックは、ステアリングホイールにおける振動によってユーザに伝達され得る。振動は、衝突余裕時間の値が所定のしきい値を下回っている間ずっと、アクチュエータ8.1、8.2によってパルス振動の形態で生成され得る。ステップS38において、ユーザは、次に、アクチュエータ8.1、8.2により発出される振動触覚信号によりユーザに伝達された、システムが推定した衝突余裕時間を示す情報を考慮して、左レーンへのレーン変更を実行する。ここで、レーン変更の操作は、システムから出力され且つ直観的な態様で与えられる、関連のある追加情報を考慮して行われる。
図4は、一実施形態に従う、支援システムのプロセスが開始される第2の例示的なシナリオを示す。基本的な交通シナリオは、図3に示された第1の例示的なシナリオに関して説明したシナリオと同様である。
図3とは異なり、図示の第2の例示的なシナリオでは、特に、システムとユーザとの間のインタラクションを、当該ユーザが能動的に要求する。図示されたシナリオも、動的に変化する交通環境における車両の運転支援の分野に属する。
ステップS41において、ユーザは、システムの支援機能をアクティブ化することで利益を得たい、というユーザの要求を明示的に示す。これは、ステアリングホイールをきつく握ることによって行われ得る。ステアリングホイールに組み込まれた触覚センサは、要求信号を認識し、システムに対し支援が求められた旨の情報を伝達する。この受入れは、例えばユーザがステアリングホイールをきつく握ることによって、システムによって受信され得る。ステップS41におけるシステムとユーザとの間のインタラクションにより、支援機能が本質的に開始する。ステップS42において、ユーザはさらに、車両環境内における関心のある物体または特に関心のある領域を指示する。例示的な第2のシナリオでは、ユーザは、再び、その視線を左サイドミラー上であって且つ当該左サイドミラー中の可視の実在物上に集中させる。この実在物(対象物体)は、例えば左レーン上を接近して来る車であり、ユーザが指示的視線を用いることで対象として設定される。
好ましい実施形態では、上述において順に説明したステップ41とステップ42とが、同時に実行され得る。特に、ステアリングホイールを加圧して支援機能をアクティブ化する際に操作者が挙動的に注意を払った方向が、関心のある領域を決定する。
これに加えて又はこれに代えて、ユーザ要求が行われた時刻の前後に時間ウィンドウが定義され得る。最も顕著であると判断された操作者の指示的視線が、関心領域の特定に用いられ得る。時間ウィンドウは、操作者要求の時刻より前の開始時間を含むことができる。
図4に示すシステムのセンサ1、2、3、4は、指示的視線を認識する。後続のステップS43において、プロセッサ5は、視線方向を判断し、左サイドミラー中の可視領域内(目に見える領域内)の関心実在物を識別する。システムは、次に、事象余裕時間、例えば現在の状況についての衝突余裕時間を取得する。これは、ステップS44において、車両の先進運転支援システムにより計算され得る。衝突余裕時間の計算は、自車両の予測軌道と対象車両(対象物体)の予測軌道とが交差するまでの推定経過時間を出力する。
ステップS44において、システムは、推定された上記衝突余裕時間を、アクチュエータ8.1、8.2に与えられる信号に符号化する。本事例でも、アクチュエータは、自車両のステアリングホイールに組み込まれた振動触覚アクチュエータを含み得る。ステップS45において、アクチュエータ8.1、8.2は、自車両のユーザに対し、衝突余裕時間の推定値を動的フィードバックとして伝達する。この例示的なシナリオにおいても、動的フィードバックは、ステアリングホイールにおける振動によってユーザに伝達され得る。
振動は、衝突余裕時間値が所定のしきい値を下回る間ずっと、アクチュエータによりパルス振動の形態で生成され得る。次に、ステップS46において、ユーザは、アクチュエータ8.1、8.2により発出された振動触覚信号により伝達された、システムが推定した衝突余裕時間を示す情報を考慮して、左レーンへのレーン変更を実行する。レーン変更の操作は、アクチュエータ8.1、8.2を介してシステムから直観的な態様で提供される、関連のある追加情報を考慮して実行される。
図5は、本発明のシステムの一実施形態に従う主要な構成要素を示すブロック図である。
センサ1~センサ4は、実在物が互いに対して移動し得る動的シナリオにおいて、実在物を物理的に繰り返し検知する。この例では、衝突余裕時間推定は、センサ信号源として働く様々なセンサ1、2、3、4からの情報を統合することによって行われ得る。
センサ1~センサ4は、車両中に配置された又は車両に取り付けられたレーダ、カメラおよび/またはレーザスキャナからのデータを含み得る。センサ1~センサ4は、センサデータを提供する。センサデータは、道路インフラストラクチャ要素、車両、交通参加者などの関連する実在物を識別する特徴についてフィルタ処理され、位置および距離の推定に用いられる。
複数のサンプルにわたる実在物の距離および位置を統合することにより、現在の相対的速度が判断され得る。
自車両の速度および加速度並びにジオメトリに関する情報と、利用可能なマップデータから取得された又はオンライン測定値に基づく道路曲率および道路傾斜などの地形的情報と、を組合せて、自車両についての、1つまたは複数の対象車両などの他の実在物との将来の衝突に関する予測が計算され得る。
この検知は、システムよって支援される人および運転支援システムによって支援される人によって操作される自車両に関係のある、相対位置および速度を判断するための基礎を形成する。検知された値から、実在物の状態(方向、速度)に関する情報が、周期的な間隔で導出される。この情報は、メモリ6に記憶され、例えば挙動予測および軌道推定のための基礎となる。反復される測定のそれぞれについて、関与する実在物の個々の軌道および相対速度が、プロセッサ5において推定される。推定値は、環境内の1つまたは複数の関心実在物と他の関連する実在物との間の考えられる将来の接触に関する推測または予測のための基礎を与える。また、シナリオに関し利用可能であって且つ関連があり得る追加の情報が、そのような推定を行う際に組み込まれ得る。また、プロセッサ5により衝突余裕時間の推定が実行される。将来の挙動を予測するためのアルゴリズム、例えば自車両および対象物体を含む実在物のそれぞれの将来の軌道を推定するためのアルゴリズムは、本技術分野において既知であり、したがって、それらの詳細は省略され得る。予測処理のため、可能性としての関連実在物(関連がある可能性のある実在物)が特定された方向のそれぞれについて、種々の衝突余裕時間にわたる確率分布が生成され得る。そのような分布は、それら分布が利用可能な情報に関連付けられた不確実性を維持しているという点において有利であり、信号選択基準の適用に好適であり得る。
センサ1、2、3、4は、また、車両のユーザとして行動している人を監視する、1つまたは複数のセンサを含む。特に、それらのセンサは、人の頭部および特に眼を含む上半身を検知対象範囲とする。プロセッサ5は、センサ1、2、3、4からの監視信号を用い、例えば頭部の向き及び眼の瞳孔の空間的配置を考慮して、これらの監視信号に基づいて人の視線方向を判断する。視線方向を判断するための基本的なアルゴリズムは、例えば携帯電話におけるエネルギー節約機能の分野から既知である。他の既知のアルゴリズムとして、デジタルカメラにおける視線ベース焦点制御から知られているものがある。本発明によれば、そのようなアルゴリズムが、人の視線方向の特定に用いられ得る。特定された視線方向について、当該特定された視線方向により規定される視野の中に配されているミラーの影響を補正し、さらに、関心視野(関心をもって見ている視野、a visual field of interest)を環境の実在物に対応付けることにより、環境内の関心領域(a region of interest)が判断され得る。さらに、その人の周囲環境の領域内にある関心実在物(entities of interest)も、上記特定された視線方向に基づいて判断され得る。
方向性の衝突余裕時間(directional time-to-collision)を符号化した信号を生成するための基礎として、どの接触推定値が使用されるべきかが、プロセッサ5により決定され得る。そのような決定は、関心領域を規定する所与の方向における予測の利用可能性、事象の近接度などのコンテキストに依存した判断基準、それぞれの実在物の関連性、及び予測の確実性に基づき得る。方向性衝突余裕時間の推定値は、支援機能をアクティブ化するか否かの決定に応じて、インターフェース(例えば触覚インターフェース)を介して人が刺激されるようになっているか否かに基づき、信号に符号化される。信号は、少なくとも1つのアクチュエータまたはアクチュエータアレイ8.1、8.2を駆動するよう適合されたドライバユニット7により生成される。
システムは、それぞれ対応する形式の信号に従ってそれぞれ対応する刺激を人に与える複数のアクチュエータ8.1、8.2を備え得る。すなわち、アクチュエータ8.1、8.2は、特に、振動触覚アクチュエータ、ラウドスピーカー、発光体、電極、および加熱要素の、一つ又は複数であり得る。複数のアクチュエータ8.1、8.2がアレイ構成で配置されると特に好ましく、人への刺激が人の身体周りで行われることが更に好ましい。これは、ベストやジャケットにアクチュエータ8.1、8.2を配したり、例えば人が車両の操作者である場合に必ずその人の身体または腰の周りに配されることとなる複数の異なる部材にアクチュエータ8.1、8.2を取り付けることで、実現され得る。上記異なる部材のそのような組合せの一つは、車両の座席と組み合わせてシートベルトを用いることである。
本発明は、環境内の現在の状況において、その環境内の関心実在物である例えば自車両と、他の関連する実在物(識別された対象物体)である例えば一つ又は複数の対象車両と、の衝突などの事象が発生するまでの時間に関する情報を人に提供する。
この情報を用いることで、複数の実在物が互いに対して移動し得る動的なシナリオでの状況評価に、肯定的な効果をもたらし得る。したがって、このような情報は、自転車又はオートバイの乗車、車の運転、ボート、船または航空機のナビゲートといったものだけでなく、スキーやスノーボードをする際などを含む、移動するシナリオにおいて特に有益である。
本発明を有利に適用し得るエリアには、特に、交通環境が含まれ得る。
本発明は、自車両のレーン変更が関与する運転シナリオにおいて、極めて有利であり得る。レーン変更を含む交通シナリオには、一の交通方向に沿って複数のレーンがある場合におけるレーン変更、一の方向に一のレーンを含む道路の場合での自車両による1つまたは複数の他の車両の追い越し、入口レーンまたは出口レーンを用いた高速道路への進入又は高速道路からの離脱、が含まれ得る。上記に列挙された例示的な交通状況の各々においては、隣接する他のレーン上を走行する他車両間のフィッティングギャップ(fitting gap、割り込みに適した他車両間の隙間)に自車両がスムーズに収まるように、当該自車両の速度を調整することが必要となる。自車両および他の交通参加者を危険にさらすことなく且つスムーズに、この運転操作を実行するために、自車両が走行する自レーン、及び他のレーンを、特に他の車両に関して監視すべきである。上記他車両の速度が関与する距離および距離の変動を、監視すべきである。本方法および本システムは、交通状況および/または環境内の、遭遇した交通状況に関連する他車両に対する衝突余裕時間の推定値を符号化することで、自車両を運転する人が交通状況を評価する際に特に有利に働く。自車両を運転する人の注視行動を用いてシステムをアクティブ化することにより、その人は、交通状況を構成する動的環境の評価を直観的な態様で支援する本システムを確実に利用して、遭遇した交通状況をうまく処理することができる。さらに、その人は、これまでと変わることなく、実際の交通状況をうまく処理するために必要な決定を行うための決定ループの中に存在している。
本発明を有利に採用し得る動的環境を呈する他の交通状況として、その交差点内における交通流を明確に調節するための交通信号を備えていない当該交差点において転回を行う状況がある。特に、左折や右折を行うこと、フィッティングギャップを特定すると共に当該特定したフィッティングギャップにスムーズに合流することで進行中の交通に合流すること、あるいは、横断することとなる反対レーン上の反対方向からの交通に直面しつつ左折を行うこと、などの運転操縦がサポートされる。レーン変更を含む交通状況と同様に、転回を行う状況においては、自車両の中にいる人は、他の移動する交通参加者についての連続的な監視、例えばそれら交通参加者のそれぞれの車速を推定することが必要となる。そして、その人は、推定した車速に応じて、他の実在物間にある適切なフィッティングギャップを選択すべくその人の挙動を適切に調整し、自車両の速度を適宜調整する。本方法および本システムは、交通状況における他車両との衝突余裕時間の推定値又は他車両に対する相対車速を符号化することで、自車両を運転する人が交通状況を評価する際に特に有利に作用する。自車両を運転する人の注視行動を用いてシステムのアクティブ化を開始させるか又はそのシステムの機能を変更することで、当該システムは、直観的な態様で、交通状況を構成する動的環境の関連領域に注目して、遭遇した交通状況をうまく処理させることができる。
雨、雪、霧、薄明および/または夜などの困難な環境条件下での自車両の運転には、動的に変化する環境が関係する。特に、自車両の速度または環境内の他の対象物体の相対速度または絶対速度の評価は、特に困難であるか又は不可能でさえあり得る。本支援方法は、環境内の関係するものまたは少なくとも存在するものとしてユーザによって示される他の実在物に対する衝突余裕時間を符号化することにより交通状況を評価することにおいて、有利に採用され得る。
本方法および本システムは、また、レースドライバが、最適化された状況評価に基づいて戦術的運転操作を計画し及び実行するのをサポートすることにおいて、有利に採用され得る。例えば、本発明から利益を受け得る他の運転状況として、カーブに入る前に相手を追い越すことが実現可能であるかどうかを判定する際に支援を行うような場合があり得る。
100…電力需給管理装置、102…送配電システム、104…送配電指令センター、106…ネットワーク、108…顧客管理サーバ、110、112…発電所、114、116…工場、120、122、124、126、128…住宅、130、132、134…車両、140、142、144…蓄電池、150、152、154…充放電制御装置、200、310…処理装置、202、312…記憶装置、204、314…通信装置、220…提供者管理部、222…状態情報取得部、224…性能算出部、226…インセンティブ付与部、228…需給制御部、250…提供者管理データベース(提供者管理DB)、252…蓄電池管理データベース(蓄電池管理DB)、300…利用管理装置、302…蓄電池制御ECU、304…テレメトリ・コントロール・ユニット(TCU)、306…車載ネットワークバス、320…動作情報取得部、322…状態情報提供部。

Claims (16)

  1. 自車両を操作している人が動的環境を評価するのを支援するための方法であって、前記方法は、
    - 前記人の視線方向を特定し(S2)、これに基づき対象物体を識別する(S6)ステップと、
    - 前記対象物体と前記自車両との将来の挙動を予測する予測情報を生成するステップと、
    - 事象余裕時間、又は前記自車両と前記対象物体との間の距離もしくは距離変動を推定する(S7)ステップと、
    - アクチュエータを駆動するための信号であって前記推定された事象余裕時間または距離もしくは距離変動を示す信号を生成する(S9、S11)ステップであって、前記アクチュエータは、前記人がその知覚能力によって知覚できる刺激を生じさせるものであるステップと、
    - 前記人により前記動的環境の評価についての支援をアクティブ化することが要求されているか否かを判断するために、前記人の視線パターンを分析し、前記人の注視行動を監視する(S4)ステップと、
    - 前記人が前記動的環境の評価についての支援をアクティブ化することを要求していると判断する時にのみ前記支援を提供する(S8,S9,S11)ステップと、を含む
    方法。
  2. 前記生成された信号は、前記事象余裕時間または距離を符号化したものであり、
    前記生成された信号は、事象余裕時間または距離が減少するほど顕著性が増すように前記アクチュエータ(8.1、8.2)を駆動するよう適合される、
    ことを特徴とする、請求項1に記載の方法。
  3. 前記生成された信号、特に、前記符号化された、推定された事象余裕時間または距離もしくは距離変動は、知覚されたコンテキストであって前記事象余裕時間または距離もしくは距離変動が推定されたコンテキストに基づいて、特に、前記自車両および前記対象物体の一方の予測軌道、および/または知覚された環境状態に基づいて、修正されることを特徴とする、
    請求項1または2に記載の方法。
  4. 特に、前記事象余裕時間または距離もしくは距離変動についての新しい推定値を考慮して、前記生成された信号が更新され、前記更新された信号が或る時間期間にわたって繰り返し出力される、
    ことを特徴とする、請求項1ないし3のいずれか一項に記載の方法。
  5. 前記生成され更新された信号の繰り返し出力は、前記人によるユーザ入力又はしきい値を超えること、特に、前記事象余裕時間がクリティカルな時間マージンを超えること、または前記距離がクリティカルな距離値を超えること、の少なくとも一つによって終了される、
    ことを特徴とする、請求項4に記載の方法。
  6. 前記動的環境の評価における支援を要求する前記人からのユーザ入力を受信することを含み、
    前記ユーザ入力は、インターフェースコンポーネントへの圧力を検知すること、音響コマンドを受信すること、前記人のジェスチャーを検知すること、視線パターンを測定すること、筋肉活性化のパターンを検出すること、および前記人のニューロン活性化のパターンを特定すること、のうちの少なくとも1つによって受信される、ことを特徴とする、
    請求項1ないし5のいずれか一項に記載の方法。
  7. 前記動的環境の評価のための支援をアクティブ化することが要求されているか否かは、前記人の注視行動を監視することによって判断される、
    を特徴とする、請求項1ないし6のいずれか一項に記載の方法。
  8. 前記事象余裕時間または距離もしくは距離変動を推定して、前記アクチュエータを駆動する信号であって前記人が挙動的に注意を払った領域に関する前記事象余裕時間又は距離もしくは距離変動を表す信号を生成する、
    ことを特徴とする、請求項7に記載の方法。
  9. 前記ユーザの視線パターンを分析することにより、前記人の前記注視行動を監視すること、
    を特徴とする、請求項7または8に記載の方法。
  10. 前記アクチュエータ(8.1、8.2)は、前記事象余裕時間または距離もしくは距離変動を符号化する前記生成された信号に基づいて前記人の触覚刺激を生じさせるよう構成され、
    前記事象余裕時間または距離もしくは距離変動は、前記触覚刺激の刺激頻度、振幅、特に振幅変調などの波形、パルス間間隔、およびパルス持続期間のうちの少なくとも1つにおいて符号化される、
    ことを特徴とする、請求項1ないし9のいずれか一項に記載の方法。
  11. 前記アクチュエータは、前記事象余裕時間または距離もしくは距離変動を符号化する前記生成された信号に基づいて可聴音信号を発出するよう構成され、
    前記事象余裕時間または距離もしくは距離変動は、前記音信号のピッチ、ボリューム、持続時間、音色および音声コンテンツのうちの少なくとも1つにおいて符号化される、
    ことを特徴とする、請求項1ないし10のいずれか一項に記載の方法。
  12. 前記アクチュエータは、前記事象余裕時間または距離もしくは距離変動を符号化する前記生成された信号に基づいて視覚信号を発出するように構成され、
    前記事象余裕時間または距離もしくは距離変動は、前記視覚信号の色、輝度、コントラスト、および視覚的に知覚できるパターンのうちの少なくとも1つにおいて符号化される、
    ことを特徴とする、請求項1ないし11のいずれか一項に記載の方法。
  13. 前記アクチュエータは、前記事象余裕時間または距離もしくは距離変動を符号化する前記生成された信号に基づいて熱信号を発出するよう構成され、
    前記事象余裕時間または距離もしくは距離変動は、温度レベル、温度レベルの変化、知覚される温度、および温度レベルの知覚される変化のうちの少なくとも1つにおいて符号化される、
    ことを特徴とする、請求項1ないし12のいずれか一項に記載の方法。
  14. 前記アクチュエータは、前記事象余裕時間または距離もしくは距離変動を符号化する前記生成された信号に基づいて電磁信号を発出するよう構成され、
    前記電磁信号は、前記人の神経系の活動を電磁的に刺激するよう構成され、
    前記事象余裕時間または距離もしくは距離変動は、前記電磁信号の電界および/または磁界のパラメータ、刺激位置、ならびに刺激持続時間のうちの少なくとも1つにおいて符号化される、
    ことを特徴とする、請求項1ないし13のいずれか一項に記載の方法。
  15. 前記アクチュエータは、前記事象余裕時間または距離もしくは距離変動を符号化する前記生成された信号に基づいて化学信号を発出するよう構成され、
    前記事象余裕時間は、前記化学信号の刺激位置、刺激量、刺激持続時間、刺激頻度、刺激のパターンおよび化学組成のうちの少なくとも1つにおいて符号化される、
    ことを特徴とする、請求項1ないし14のいずれか一項に記載の方法。
  16. 自車両を操作している人が動的環境を評価するのを支援するためのシステムであって、前記システムは、
    前記人の視線方向を特定し、それに基づいて対象物体を特定するよう構成された視線方向特定ユニット(1、2、3、4、5)と、
    前記対象物体と前記自車両との将来の挙動を予測する予測情報を生成するよう構成され、前記自車両と前記対象物体とについての事象余裕時間または距離もしくは距離変動を推定する(S7)よう構成されたプロセッサ(5)と、
    アクチュエータを駆動するための信号であって前記推定された事象余裕時間または距離もしくは距離変動を示す信号を生成する(S9)よう構成された信号生成器(7)と、
    を備え、
    前記アクチュエータは、前記人がその知覚能力によって知覚できる刺激を生じさせるものであり、
    前記プロセッサ(5)は、前記人により前記動的環境の評価についての支援をアクティブ化することが要求されているか否かを判断するために、前記人の視線パターンを分析し、前記人の注視行動を監視するように構成され、
    前記システムは、前記人が前記動的環境の評価についての支援をアクティブ化することを要求していると前記プロセッサが判断する時にのみ前記支援を提供するように構成されている
    システム。
JP2018193232A 2017-10-20 2018-10-12 移動性における支援のための視線主導型伝達 Active JP7309339B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17197513.9 2017-10-20
EP17197513.9A EP3474253B1 (en) 2017-10-20 2017-10-20 Gaze-guided communication for assistance in mobility

Publications (2)

Publication Number Publication Date
JP2019091432A JP2019091432A (ja) 2019-06-13
JP7309339B2 true JP7309339B2 (ja) 2023-07-18

Family

ID=60268185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193232A Active JP7309339B2 (ja) 2017-10-20 2018-10-12 移動性における支援のための視線主導型伝達

Country Status (3)

Country Link
US (1) US10543854B2 (ja)
EP (1) EP3474253B1 (ja)
JP (1) JP7309339B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3498558B1 (en) * 2016-08-09 2021-10-20 Nissan Motor Co., Ltd. Control method and control device of automatic driving vehicle
WO2019127079A1 (en) * 2017-12-27 2019-07-04 Bayerische Motoren Werke Aktiengesellschaft Vehicle lane change prediction
DE102018128706A1 (de) * 2018-11-15 2020-05-20 Bayerische Motoren Werke Aktiengesellschaft Dynamischer Informationsschutz für Anzeigeeinrichtungen
DE102019005592A1 (de) * 2019-08-08 2021-02-11 Daimler Ag Verfahren zum Bereitstellen einer Funktion einer Funktionseinheit eines Kraftfahrzeugs, Assistenzsystem sowie Kraftfahrzeug
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
DE102019220223A1 (de) * 2019-12-19 2021-06-24 Robert Bosch Gmbh Verfahren zum Betreiben eines Sensors eines Kraftfahrzeugs
US11535253B2 (en) * 2020-09-18 2022-12-27 GM Global Technology Operations LLC Lane change maneuver intention detection systems and methods
US20220392261A1 (en) * 2021-06-04 2022-12-08 Rockwell Collins, Inc. Pilot safety system with context-sensitive scan pattern monitoring and alerting
EP4163896A1 (en) * 2021-10-08 2023-04-12 Honda Research Institute Europe GmbH Assistance system with relevance-dependent stimulus modulation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046807A (ja) 2006-08-14 2008-02-28 Toyota Motor Corp 運転支援装置
JP2013109542A (ja) 2011-11-21 2013-06-06 Suzuki Motor Corp 運転支援装置
JP2014153875A (ja) 2013-02-07 2014-08-25 Mitsubishi Electric Corp 運転支援装置
JP2016024778A (ja) 2014-07-24 2016-02-08 株式会社デンソー 車両用報知システム、報知制御装置、及び報知装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4604691B2 (ja) * 2004-12-07 2011-01-05 日産自動車株式会社 車両用警報装置、車両周囲状況の警報方法
JP2007286898A (ja) * 2006-04-17 2007-11-01 Denso Corp 運転支援装置及びプログラム
JP2008021265A (ja) * 2006-07-14 2008-01-31 Denso It Laboratory Inc 運転支援装置及びコンピュータプログラム
WO2008126389A1 (ja) * 2007-04-02 2008-10-23 Panasonic Corporation 安全運転支援装置
US20150009010A1 (en) * 2013-07-03 2015-01-08 Magna Electronics Inc. Vehicle vision system with driver detection
US9308914B1 (en) * 2015-01-23 2016-04-12 Denso International America, Inc. Advanced driver assistance system for vehicle
EP3088269B1 (en) * 2015-04-29 2021-07-21 Bayerische Motoren Werke Aktiengesellschaft Method, system, and computer program product for monitoring a driver of a vehicle
US9493118B1 (en) * 2015-06-24 2016-11-15 Delphi Technologies, Inc. Cognitive driver assist with variable warning for automated vehicles
EP3235701B1 (en) * 2016-04-20 2021-08-18 Honda Research Institute Europe GmbH Method and driver assistance system for assisting a driver in driving a vehicle
US10733460B2 (en) * 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
EP3513265A4 (en) * 2016-09-14 2020-04-22 Nauto Global Limited SYSTEMS AND METHODS FOR DETERMINING ALMOST COLLISIONS
US10453150B2 (en) * 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046807A (ja) 2006-08-14 2008-02-28 Toyota Motor Corp 運転支援装置
JP2013109542A (ja) 2011-11-21 2013-06-06 Suzuki Motor Corp 運転支援装置
JP2014153875A (ja) 2013-02-07 2014-08-25 Mitsubishi Electric Corp 運転支援装置
JP2016024778A (ja) 2014-07-24 2016-02-08 株式会社デンソー 車両用報知システム、報知制御装置、及び報知装置

Also Published As

Publication number Publication date
EP3474253B1 (en) 2024-04-10
JP2019091432A (ja) 2019-06-13
US20190118834A1 (en) 2019-04-25
EP3474253A1 (en) 2019-04-24
US10543854B2 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
JP7309339B2 (ja) 移動性における支援のための視線主導型伝達
US11993293B2 (en) Information processing apparatus, moving apparatus, and method, and program
JP7032966B2 (ja) 車両安全支援装置および方法
US10232861B2 (en) Apparatus, method and system for controlling a user situation awareness modification of a user of a vehicle
US10363945B2 (en) Apparatus and method for controlling a user situation awareness modification of a user of a vehicle, and a user situation awareness modification processing system
JP7324716B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
EP3540711B1 (en) Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
JP6287728B2 (ja) 車載システム、車両制御装置、および車両制御装置用のプログラム
US20230054024A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
JP7357006B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
KR20210151802A (ko) 정보 처리 장치, 이동 장치 및 방법, 그리고 프로그램
US10475348B2 (en) Method for assisting a person in acting in a dynamic environment and corresponding system
JP7342637B2 (ja) 車両制御装置および運転者状態判定方法
EP3723066A1 (en) Method for assisting a person in acting in a dynamic environment and corresponding system
WO2022172724A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6839217B2 (ja) 動的環境における操作および調整のためのオプティカルフローベース支援
Hussain et al. Artificial proprioceptive reflex warning using EMG in advanced driving assistance system
EP3693943B1 (en) Method for assisting a person in acting in a dynamic environment and corresponding system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150