JP2019175439A - 動的環境における操作および調整のためのオプティカルフローベース支援 - Google Patents

動的環境における操作および調整のためのオプティカルフローベース支援 Download PDF

Info

Publication number
JP2019175439A
JP2019175439A JP2019029093A JP2019029093A JP2019175439A JP 2019175439 A JP2019175439 A JP 2019175439A JP 2019029093 A JP2019029093 A JP 2019029093A JP 2019029093 A JP2019029093 A JP 2019029093A JP 2019175439 A JP2019175439 A JP 2019175439A
Authority
JP
Japan
Prior art keywords
output signal
feature score
person
optical flow
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019029093A
Other languages
English (en)
Other versions
JP6839217B2 (ja
Inventor
クリューガー,マッティ
Krueger Matti
ヴェルジング,ハイコ
Wersing Heiko
エッゲルト,ユリアン
Eggert Julian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2019175439A publication Critical patent/JP2019175439A/ja
Application granted granted Critical
Publication of JP6839217B2 publication Critical patent/JP6839217B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G9/00Traffic control systems for craft where the kind of craft is irrelevant or unspecified
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】動的環境において操作を行うことについて人を支援する方法を提供する。【解決手段】方法は、少なくとも1つのセンサ、例えばカメラから、動的環境の少なくとも2つの時系列の連続画像を含むセンサデータを取得するステップを含む。上記少なくとも2つの連続画像に基づいて、オプティカルフローが算出される。画像空間における選択された領域の空間位置に関連する特徴スコアが決定され、特徴スコア場が生成される。生成された特徴スコア場に基づいて、選択された領域間の相対的空間関係に関する情報を含む方向性刺激情報を含んだ出力信号が生成される。生成された出力信号は、少なくとも1つのアクチュエータに供給され、当該少なくとも1つのアクチュエータは、上記方向性刺激情報を人に伝える。【選択図】図5

Description

本発明は、動的環境のための支援システム、例えば運転支援システムの分野におけるものである。本発明は、特に、自動車領域、船舶領域、または航空機において操作を行うことについて人を支援するための方法およびシステム、ならびに対応するユーザインタフェースに関する。
運転支援システムは、車両用途において増々一般的なものとなっている。このような車両支援システムの目的は、活動性および複雑さを増す交通状況において運転者の作業負荷を軽減するべく、様々な機能を遂行することによって種々の方法により、自車両を運転する人を支援することである。これにより、運転支援システムは、交通安全性をも向上する。
特許文献1は、前方衝突警報機能を実装するためのシステムを提案している。この方法は、自車両の前方円弧(frontal arc)内に存在する物体が自車両との衝突経路上にあるかどうかを判断する。実際に他の車両が自車両との衝突経路上にあり、且つ推定された衝突余裕時間が所定の閾値を下回っていると判断される場合、このシステムは、自車両を操作している運転者に警告信号を発する。
しかしながら、特許文献1で提案された方法は、自車両の前方領域のみを監視するものであるので、運転者は、単に警告信号を受信するのみであり、衝突が切迫しているという情報以上の追加情報は与えられない、という限界がある。また、この方法においては、自車両運転者に対して衝突余裕時間さえも提供されない。すなわち、この方法は、基本的な情報のみを運転者に与えるものであり、自車両を操作する人をより一般的な方法で支援することには適していない。
他のより一般的な手法として、特許文献2は、スマートネックレスを開示している。このスマートネックレスは、ステレオビジョンと、画像データ、物体データ、位置データ、および地図データを処理することのできる統合的処理機能と、を備えて、着用者に音響出力または触覚出力を提供する。環境内でのナビゲーションを支援するべく、ネックレスのそれぞれの側部に配された2つの振動アクチュエータが当該ネックレスの着用者に情報を提供する。しかしながら、このネックレスは、着用者に対し、方向情報のみを提供するものであり、他の実在物(実在物)までの距離などの、高度な情報を提供するものではない。このため、着用者に伝えられる、動的環境内における状況の急速な変化についての認識も、限られたものとなる。
欧州特許第2993654(B1)号明細書 国際公開第2015/108877(A1)号
したがって、動的に変化する環境内での操作に際し高度な支援機能を人に提供することについての技術的問題を解決する必要がある。
独立請求項1に記載の、動的環境で操作を行うことについて人を支援する方法、対応するシステム、およびコンピュータプログラムは、上記技術的問題を取り扱う。
従属請求項は、本発明のさらなる有利な実施形態を規定する。
第1の態様に係る、動的環境で操作することについて人を支援する本方法は、動的環境についての、時系列な、少なくとも2つの連続画像を含むセンサデータを、少なくとも一つのセンサから取得する。上記少なくとも2つの連続画像に基づいてオプティカルフローが算出され、オプティカルフローベクトル場が生成される。当該オプティカルベクトルフロー場に基づき、画像空間内において選択された領域の空間位置についての特徴スコアが算出され、特徴スコア場が生成される。
上記生成された特徴スコア場に基づいて、上記選択された領域間の相対的な空間的関係に関する情報を含む方向性刺激情報(directional stimulus information)を含んだ出力信号が決定される。この出力信号は、少なくとも1つのアクチュエータに供給され、当該少なくとも1つのアクチュエータが、方向性刺激情報を伝える信号を人に与える。
本発明は、動的環境についての人の認識および理解を支援し及び強化し、人が種々のタスクを実行するに際してその人のパフォーマンスを改善できるようにする。具体的には、本発明は、急な変化がある場合でも動的環境内の少なくとも1つの実在物または位置に関連する環境要素の力学的運動を正しく理解することについての改善をもたらす。
力学的運動についての理解を改善することにより、その人のナビゲーション行動の安全性および経済性は向上し、当該改善された理解によって、環境内の障害物を、たとえそれが動的な性質を有するものであっても回避するべくその人の挙動がガイドされ、当該回避の能力が改善される。例えば、移動状況(mobile context)での監視能力の改善に加え、自動車を運転すること、バイクまたはオートバイに乗ること、ボートまたは船舶をナビゲートすることなどの、様々な移動タスクにおける安全性およびパフォーマンスが、本発明の方法から利益を得る。
本発明の中核となるアイデアは、刺激の方向性割り当てができるような刺激、特に非視覚刺激を含む刺激を、オプティカルフロー情報を用いて生成することにより、動的環境で操作を行う人の空間認知を強化することである。
これを達成するために、オプティカルフローに基づいて特徴スコアが算出され、その結果、画像空間内に特徴スコア場が形成される。次いで、この特徴スコア場は、出力信号にマッピングされ(変換され)、この出力信号が、少なくとも1つのアクチュエータを制御して、人に対する少なくとも一つの方向性刺激を生成する。
1つの刺激(または複数の刺激)は、人または人に関連する車両(乗り物、vehicle)の内部または外部の環境における、検出可能な変化を表す(以下、船舶、航空機等の乗り物をも広く含み得るものとして「車両」の語を用いるものとする)。人は、(その)外部刺激に反応し得るか、または用いられた刺激を敏感に感じ取る。刺激が感覚受容器に印加されると、その感覚受容器は、その人の体外からの情報を受信することとなる。上記人に関連する車両は、その人によってモニタされている車両、及び又はその人によって遠隔制御される車両とすることができる。
オプティカルフローベクトル場において入手することのできるタスクに関連する可能性のある情報を提供することにより動的環境で操作を行う人を支援する本方法は、基本的には2つの主要なステップを組み合わせたものである。
第1のステップでは、一方において環境内の少なくとも1つの位置についてのオプティカルフローの測定および推定が行われ、第2のステップでは、少なくとも方向情報を含むオプティカルフローベースの特徴スコアが被支援者(assisted person)へ伝達される。
オプティカルフローとは、所与の視野角(perspective(view angle))から見た、環境内のシーンを横切る可視特徴(visible features)の動きの方向(directions)および相対速度のパターンをいう。すなわち、オプティカルフローは、好ましくは同じイメージングデバイスによって得られた少なくとも2つの連続画像の変化から推定される、可視シーン(visible scene)の相対的な性質であり、視野角および空間内の場所(位置)に依存した変化を示す。
オプティカルフローが推定される位置は、観察点(または観察位置、観察場所)と称することができる。
オプティカルフローの算出または少なくとも推定は、通常、時系列の画像における、又はより一般的には順序付けられた画像のシーケンスにおける、視覚的特徴の変位の検出に依拠する。オプティカルフロー算出のための様々なアルゴリズムが知られており、それらは当業者によりオプティカルフロー算出の際に適用され得る。或る位置のオプティカルフローの算出は、その環境について用いることのできるモデルが入手可能であれば、その同じ環境における他の点についての利用可能なオプティカルフロー情報に基づいて行うこともできる。すなわち、必ずしも観察点のそれぞれについて専用の光学センサを用いてオプティカルフロー算出のための光学データを取得する必要はない。
(一次)特徴情報を表す上記算出されたオプティカルフローから、様々な特徴(二次特徴)を抽出するものとすることができる。
可視の抽出可能な特徴をもつ動的環境内を移動する場合には、上記算出されたオプティカルフローは、観察者が向かっている点から放射するように見える。この点は、いかなる方向のオプティカルフローも提示せず、オプティカルフローベクトル場の拡張点(expansion point)を規定する。
同様に、他の物体が直線軌道で観察者に近づくとき、その物体の中心はオプティカルフローを提示しないが、それを囲む区域、例えば、近づいている物体の本体は、オプティカルフローベクトル場において視覚的に拡張するように見える。このような近づいている物体は、観察者に対し適切な移動先についての信号通知ではなく、差し迫った衝突の方向についての信号通知を与えるような、追加の拡張点となる。
本方法の好ましい実施形態では、オプティカルフローは、少なくとも1つの拡張点を含むオプティカルフローベクトル場として算出される。特徴スコアは、オプティカルフローベクトル場における少なくとも1つの拡張点のまわりの、少なくとも1つの拡張速度に関する第1の情報を含む。
拡張点は、わずかな限られた計算努力(calculation effort)で特定され、そのセンサに関連する、したがって、例えば支援を受ける人に関連する、動的環境の今後の展開についての貴重な情報を含む。
特に、一のセンサ測定の、予め定められた少なくとも1つの視野角についての、オプティカルフローベクトル場の拡張点の位置が特定され、これらの拡張点の特定された位置または方向が、アクチュエータへの出力信号を用いて人に伝達される。
拡張点の使用は特に利点がある。拡張点は、オプティカルフローベクトル場の拡張の中心として定義される。拡張の中心の要件は、本発明の文脈においては、例えば、特定の用途要件、センサデータのデータ品質、およびファンクション許容誤差基準(function−tolerance criteria)に依存して、多少厳密に適用され得る。ファンクション許容誤差基準は、例えば、空間及び又は時間の特定の範囲内で拡張中心が移動しても的確であるとされ得るように規定することができる。
拡張点は、オプティカルフローベクトルの顕著な発散を示す。オプティカルフローベクトルは、共通の並進を法として(modulo a common translation)、拡張点を向いているか、または拡張点から発している。
拡張点は、静止したものであってもよく、また、移動、シフト、もしくは成長するものであってもよい。拡張点は、並進オプティカルフローが重畳され得る。
さらに、いくつかの実施形態では、さらに、静的な拡張点からの偏差が、それ自体、出力信号における信号影響因子(signal−influencing factor)として使用され得る。
本方法の他の実施形態によると、特徴スコアは、拡張速度と平均局所並進ベクトルとの間の関係に関する第2の情報を含むことを特徴とする。
これに加えて又はこれに代えて、本方法は、算出された特徴スコアを、少なくとも1つの閾値と比較する。決定された方向性刺激情報は、決定された特徴スコアが少なくとも1つの閾値を超える場合にのみ被支援者に信号で伝えられる。
したがって、被支援者への認知負荷は、その動的環境において最も関係のある展開にまで低減される。
他の実施形態では、本方法は、決定された特徴スコアに基づく出力信号を生成する。この出力信号の生成には、少なくとも1つの拡張点を刺激位置にマッピングすることが含まれる。
すなわち、被支援者は、アクチュエータによって発せられた刺激を当該被支援者の体の敏感な領域で受け取る(感知する)ことができ、当該刺激の位置が、算出されたオプィカルフローベクトル場に固有の、動的環境に関する特定の情報を伝達する。
これに加えて又はこれに代えて、本方法は、被支援者の自己中心座標(egocentric coordinates)における、決定された特徴スコアに対応する特徴が存在する位置(特徴位置、feature location)への方向を、被支援者の体の知覚刺激位置にマッピングすることにより、当該決定された特徴スコアに基づく出力信号を生成する。知覚された刺激の位置は、基本的には人の自己中心座標における、上記対応する特徴位置の方向に対応している。
被支援者は、アクチュエータによって発せられた刺激を当該被支援者の体の敏感な領域で受け取り、当該刺激の位置が、当該被支援者の注意を関連する方向へ誘導するような態様で、その動的環境についての特定の方向情報を伝達する。
好ましくは、本方法は、少なくとも1つの拡張速度を少なくとも1つの刺激パラメータにマッピングすることにより、決定された特徴スコアに基づく出力信号を生成する。上記少なくとも1つの刺激パラメータは、特に、刺激位置、刺激周波数、および刺激強度のうちの少なくとも1つとすることができる。
これにより、その動的環境についての方向情報だけでなく、状況の緊急性や、動的環境におけるシーンの展開についての様々な様相の相対的緊急性といった他の側面も、刺激の方向、周波数、および強度などの複数の刺激次元を互いに独立して用いることで伝達され得る。
画像内の物体と、センサの位置に存在する実在物との間の相対速度は、刺激パラメータを調整することによってコード化することができる。
遅い特徴の拡張速度は、人によって知覚される刺激の顕著性、例えば強度に影響を及ぼし得る出力信号のパラメータでコード化することができる。
これに加えて又はこれに代えて、決定された特徴スコアに基づく出力信号を生成する本方法は、人の自己中心画像フレーム(egocentric image frame)への、特徴スコア場のマッピングを含む。
すなわち、特徴スコアベクトル場上のオプティカルベクトルフロー場に固有の情報を、対応する座標、および被支援者の視覚能力の限界に変換することによって、動的環境の直観的理解がサポートされる。
画像内の位置のそれぞれにおける可視特徴の運動方向および相対速度の推定を含む、画像空間における特徴スコア場が、被支援者の自己中心基準フレームにマップされると、その人により知覚された刺激位置と、実際の空間特徴の位置及び方向と、の対応付けが行われる。その人の空間認識は著しく高まることとなる。
これにより、オプティカルフロー算出の対象位置は、被支援者が操作を行っている動的環境または被支援者が監視している動的環境における1つまたは複数の位置に対応する。これには、その人自身の位置、またはその人によって制御される物理的実在物の位置、あるいは、動的環境内でのタスク実行に際して関心の対象となり得る任意の他の位置を含み得る。
この方法の有利な実施形態では、少なくとも1つの他の視野角(視野)についての少なくとも1つの他のオプティカルフローが算出され、当該少なくとも1つの他のオプティカルフローに基づいて、他の特徴スコアが決定される。生成される出力信号は、上記決定された特徴スコアおよび他の特徴スコアに基づく方向性刺激情報を含む。
すなわち、この実施形態では、観察位置は、被支援者がいる位置などの一つの位置には限定されず、したがって、その位置における被支援者の視野角の制限を受けない。これに代えて、環境内の対応する座標を持った適切な位置、例えば複数の特定の実在物の位置、または複数の実在物のそれぞれの部分の位置に、環境を観察するための1つまたは複数の位置が配される。例えば大きな車両を操縦しているというような特定の使用状況においては、車両の各部分が現在どこに向かっているか、または車両のどの部分が他の物体との衝突経路上にあるかについてより正確な情報を得るために、その車両の複数の部分または側部の複数の視野角からオプティカルフロー情報を得ることが有利である。
実施形態に依存して、オプティカルフローから導出される様々な特徴スコアを決定してユーザに伝達することができる。
これに加えて又はこれに代えて、人が受け取る情報は、動的環境における1つまたは複数の位置について算出されたオプティカルフローから生成され得る。
一の有利な実施形態によると、本方法は、決定された特徴スコアに基づいて出力信号を生成し、当該決定された特徴スコアに基づいて、人間が知覚することのできる刺激信号、特に、触覚信号、音響信号、前庭信号(vestibular signals)、化学信号、電子信号、または嗅覚信号のうちの少なくとも1つを決定することを含む。
これにより、信号伝達の1つまたは複数のモダリティ(modality、様相、種類)を用いて環境関連情報の伝達が行われ、刺激位置または刺激コードを用いて、空間的な位置の区別及び又は方向の区別が可能とされ得る。このような信号は、電磁気による刺激または化学的刺激によって供給される信号のほか、例えば、人が視覚、音響、接触、温度、向き、および加速度についての感覚を用いて知覚する信号であり得る。特に、刺激信号は、十分な空間分解能を有し、且つ又は刺激信号に対して特定のデコーディング能力を備える、被支援者の体の部分に印加される。
人が環境において特定のタスクを実行しているときに、その人を支援するための情報をその環境内の他の関連する要素についての視覚的知覚を損なわせることなく伝達するには、非視覚信号、例えば触覚信号に、位置または方向の情報をコード化することが望ましく且つ有利である。人の体(例えば、胴体)への知覚刺激の位置は、人の自己中心座標における対応する特徴位置への方向(向き)に、大まかに対応させることができる。これに代えて又はこれに加えて、特徴位置の方向から生じているように思わせる音響を生成してもよい。知覚された刺激位置と実際の特徴位置との間のそのような直接の一致は、好ましくはあるが、多くの使用事例では必ずしも必要とされない。
一実施形態によれば、出力信号は、少なくとも一つの拡張点の位置、および少なくとも一つのセンサ観察位置に対し相対的な当該拡張点への方向、のうちの少なくとも1つを伝達する。
自己中心基準フレームにおいて、知覚刺激の複数の位置に関連付けて、複数の拡張点間、又は人もしくは物理的実在物に対する相対的な複数の拡張点の方向間、のマッピングを行うことが、好ましいものとなり得る。複数の拡張点は、対応する出力信号の特性あるいは干渉の程度もしくは範囲(extent of interference)に応じて、人に対し同時に又は連続して伝達され得る。
一の実施形態では、例えば複数の物理的実在物に関連づけられた複数の観察位置についての複数の拡張点が、出力信号において同時に伝達される。
これに追加して、様々な刺激もしくは知覚の位置や態様、または、刺激周波数、刺激強度その他の刺激特有の変数用いて、観察位置または対応する物理的実在物の識別をコード化するものとすることができる。
いくつかの有利な実施形態では、安定性(stability)からの逸脱量、例えば移動する拡張点を、出力信号における信号影響因子として用いることができる。すなわち、その支援の確実性の尺度が、例えば刺激の時間的特性を用いて伝達される。この時間的特性には、例えば、刺激の継続時間、及び又は刺激の継続時間に対する刺激強度の比が含まれ得る。
これに加えて又はこれに代えて、各拡張点の中心周囲の少なくとも1つの拡張速度が、出力信号によって伝達される。
これに加えて又はこれに代えて、刺激の空間的特徴、例えば(瞬間的に、又は動いている刺激の場合には或る時間に亘って)その刺激によりカバーされる領域が、少なくとも1つの信号次元において、(不)確実性に比例したものとなり得る。
これに加えて又はこれに代えて、出力信号は、1つまたは複数のモダリティを用いて、一の拡張点の周囲の拡張速度を伝達する。例えば、人の体の、観察位置から見た拡張点の相対方向に対応する位置に、触覚胴体刺激(tactile torso stimulation)を行う場合には、圧力、強度、振動数、継続時間、またはパターンなどの触覚刺激のパラメータを用いて、拡張速度をコード化することができる。
これに加えて又はこれに代えて、種々の異なる知覚モダリティ(sensory modality)が時間的及び空間的にはっきりと区別されるようにすることで、複数の知覚モダリティの特定の組合せを有利に用いることができる。
これに加えて又はこれに代えて、同じ知覚モダリティを用いて方向及び位置の双方ならびに拡張速度を出力信号により伝達することは、多くのシナリオにおいて好ましいものとなり得る。
これに加えて又はこれに代えて、さらに他の実施形態として、マルチセンサリ・ファシリテーション(multisensory facilitation)の効果を用いて被支援者個々のハンディキャップを補うべく複数の知覚モダリティを用いて同一のまたは少なくとも部分的にオーバーラップする情報を伝達することは、多くのシナリオにおいて有利になり得る。
これに加えて又はこれに代えて、例えば速い拡張速度は遅い拡張速度に比べてより顕著なかたちで知覚される、というように、拡張速度を出力信号において顕著性変化方式(a saliency−contingent manner)でコード化することが好ましい。
これに加えて又はこれに代えて、出力信号は拡張速度をコード化し、当該拡張速度は付加因子により調整される。拡張速度は、基本的に、衝突余裕時間に逆比例(anti−proportional、reciprocally proportional)するので、付加的な調整、例えば自身の移動速度を用いる付加的な調整を用いて車間時間(time headway)をエンコードする信号(車間時間関連信号)を生成することができる。
調整を行わない場合、移動している人または物理的実在物の進行方向に対応する拡張点についての伝達された拡張速度は、当該進行方法における衝突余裕時間のほか、例えば自身の移動速度もエンコードするものとなる。伝達された拡張速度を、進行方向における自身の速度に対応または比例する量だけ減少するように調整すると、伝達された信号においてはこの速度情報が失われ、進行方向における拡張速度は、単に衝突余裕時間をコード化したものとなる。
これに加えて又はこれに代えて、進行方向についての伝達された拡張速度は、現在の制限速度に比例した量だけ減少させることができる。これにより、運転者は、操作挙動が速度制限を遵守しているかどうかを知らされることとなる。
他の有利な実施形態によれば、出力信号は、例えば、レーダー、ライダー、もしくは音響センサなどの1つまたは複数の追加のセンサ、または距離を測定するための任意の光学的方法から取得された距離情報と組み合わされたオプティカルフローを含む。
距離を測定するための光学的方法は、例えば、立体画像の評価に基づくか、または環境の画像から抽出された視覚的に分類可能な物体の平均サイズのデータベースに依拠することができる。
そのような距離情報は、その後、例えば対応する拡張速度信号を調整するために使用される。異なるサイズの2つの物体は、視点位置から異なる距離にある場合には視覚的空間を同じ量を占有し得る。双方の物体がその人に近づく速度によっては、その結果として生ずる観察者の視点から見た両者の光学的拡張は、それら物体のサイズおよび距離に差があるにもかかわらず同一となり得る。出力信号を距離情報によって調整するかまたは補足することは、絶対空間距離に関する知識が必要とされる実施形態では有利である。
本発明の第2の態様によれば、動的環境で操作を行うことについて人を支援するためのシステムが、上述の技術的問題を解決する。本システムは、少なくとも1つのセンサから動的環境についての少なくとも2つの時系列の連続画像を含むセンサデータを取得するように構成された取得ユニットを含む。本システムは、少なくとも2つの上記連続画像に基づいてオプティカルフローを算出し、画像空間における選択された領域の空間位置に関連する特徴スコアを決定して特徴スコア場を生成し、生成した特徴スコア場に基づいて方向性刺激情報を含む出力信号を生成するよう構成されたプロセッサを含む。方向性刺激情報は、上記選択された領域間の相対的空間関係に関する情報を含む。上記プロセッサは、出力信号を少なくとも1つのアクチュエータに供給する。アクチュエータは、方向性刺激情報を被支援者に信号で伝える(伝達する)よう構成されている。
有利な実施形態に従う本システムでは、被支援者は、物理的実在物、例えば、車両、二輪車、飛行機、船舶に、関連のある人である。これは、人が物理的実在物をモニタしている場合に特に有利である。
有利な実施形態によれば、センサの視野角は、人の視野角に代えてまたはこれに加えて、物理的実在物の視野角に対応する。
或る種のタスクは、物理的実在物をモニタする人を必要とする。そのような人は、物理的実在物以外の他の位置に居てもよい。また、観察位置は、上記モニタを担当する被支援者の位置に代えて又はこれに加えて、それぞれの上記実在物の位置とすることができる。
例えば、その人は、また、被支援者によって直接制御されない物理的実在物に関して生成されたそのような信号を解釈することができる。可能性のある使用事例として、トレーナまたは運転教師よってモニタされるオートバイ初心者などの他の交通参加者をモニタする作業が含まれる。本システムにより、トレーナは、運転初心者の視点から状況を把握することができ、これにより、適切な指示、助言、および注意を与えることができる。
同様に、自動車の副運転者(co−driver)は、運転者と比べてわずかにシフトした視点を有しているので、運転者の視点からのオプティカルフローベース情報を用いれば、運転者の視点からのシーンをより良く理解することとなり得る。また同様に、これは、自動車教習所の教官の助けになると共に、自身が有するシフトした視点から運転状況を理解することが困難である神経質な副運転者との対立を防ぐ助けともなり得る。
この実施形態の他の使用状況によると、航空管制官は、対象とする飛行機などの1つまたは複数の実在物のオプティカルフロー情報を用いて、複数の飛行機の軌道に関する情報をより良く統合することができようになる。航空管制官は、個々の飛行機の視点からのオプティカルフローベース情報を受け取って、軌道推定をより良好に行うことができる。これに加えて又はこれに代えて、クリティカル(critical)な着陸ゾーンおよび滑走路または誘導路の部分の視点からのオプティカルフロー情報、または滑走路もしくは誘導路の全体の視点からのオプティカルフロー情報が、伝達され得る。したがって、空港の環境内における、特定のクリティカルなエリアについてのモニタリングが改善される。可能性のある定性的な利益に加え、特に動的環境における種々の位置についての情報やシーン変数を受け取る複数の知覚モダリティの使用と組み合わせることで、モニタリングバンド幅(monitoring bandwidth)および被支援者の能力が増大する。
第3の態様によると、上述した課題は、コンピュータプログラムであって、コンピュータまたはデジタル信号プロセサで実行されたときに、動的環境で操作を行うことについての支援を行う本方法の一の態様に係るステップを実行するプログラムコード手段を有する、コンピュータプログラムによって解決される。
以下の図面を参照して、本発明の実施形態を説明する。
車両内の運転者の視点からの第1のオプティカルフローを視覚化した図である。 車両内の運転者の視点からの第2のオプティカルフローを視覚化した図である。 車両内の運転者の視点からの第3のオプティカルフローを視覚化した図である。 2つの異なる視野角からの検証を伴うオプティカルフローを用いて、移動中の複数の船舶についてのオプティカルフローを視覚化した図である。 方法の第1の実施形態の簡単化されたフロー図である。 方法の第2の実施形態の簡単化されたフロー図である。 本発明に係るシステムの概略を示す図である。
これらの図において、同じ参照符号は、同じかまたは対応する要素を示す。異なる複数の図に示された同じ参照符号についての説明は、簡潔のため、可能であれば省略される。
図1は、車両内の運転者の視点からの第1のオプティカルフローを視覚化した図である。車両は、人によって操作される物理的実在物の一例である。この視覚化では、被支援者は、動的環境の一例としての交通環境における車両の運転者である。
矢印1の向きは、環境内の対応するシーン位置(scene location)でのオプティカルフローの方向を表す。矢印1の長さは、対応するシーン位置でのオプティカルフローの速度を表す。
オプティカルフローの速度は画像座標における変位の量に関して算出されるので、当該車両の所定の自車速度に対し、図1の視覚化図の上部に示されたより遠方の領域のカメラ座標または網膜座標は、視覚化の下部に示された近くの領域よりも、遅いオプティカルフローを示す。
オプティカルフローが発生するように見える拡張点2は、自車両の進行方向及び又は現在の目的地に対応する。
したがって、本支援機能は、図1においては、拡張点2を囲むフローに比例する顕著性を用いて自車両の進行方向を示す刺激を作り出すこととなる。
オプティカルフローは、通常、動的な環境の近傍よりも遠方においてより遅いので、所与の接近速度において、遠方の拡張点2の顕著性は、一般に、近くの拡張点2の顕著性よりも低い。
図2は、自車両内の運転者の視点からの第2のオプティカルフローを視覚化した図である。
図2は、他の物体、例えば他の車両3が、視覚化されたシーン内で自車両と同じ車速および軌道で移動している場合には、当該他の車両3の位置にはオプティカルフローが存在しないことを示している。これは、センサデータの一連の画像のうちの2つの連続画像間の視覚的特徴の変位が生じないためである。
図3は、自車両内の運転者の視点からの第3のオプティカルフローを視覚化した図である。
図3は、図2よりも後の時点に得られた図2に示されたシーンの続きを示している。
他の車両3は、自車両の車速に対して車速を減少させている。これにより、図3の画像内の他の車両3の視覚的表現は、図2における他の車両3の視覚的表現と比較して大きくなっている。図3には、新しい第2の拡張点2’と共に実線矢印1’により描かれたオプティカルフローが、図3の残りの部分に点線矢印1で描かれたオプティカルフローに追加して示されている。
図1から図3に示した視覚化図から、本発明を用いることで図2から図3への動的環境の変化に関して人が行う状況評価に良い効果を持ち得ることが明らかとなる。動的環境内における力学的運動についての理解が改善されることにより、より安全かつより経済的なナビゲーション動作、移動案内、および、被支援者による障害物回避が可能になり得る。
すなわち、様々な移動タスク、例えば、バイクまたはオートバイに乗ること、車両を運転すること、ボート、船舶、もしくは航空機をナビゲートすることや、そのような移動コンテキスト(mobility context)におけるタスクをモニタすることなどにおける安全性やパフォーマンスが、本発明から利益を受け得る。
図4は、第1の船舶4および第2の船舶5をオプティカルフローと共に示したオプティカルフローの視覚化図であり、上方から見て異なる2つの視野角および位置からのセンサデータによって確認されたものである。
矢印1の向きは、図4のそれぞれのシーン位置のオプティカルフローの方向を表し、矢印1の長さは当該シーン位置の速度を表す。
図4の左側部分は、一の視野角に対応する位置A(視点A)から得られたセンサデータに基づいている。第1の船舶4の移動は、第1の船舶4の前方の水平線に安定した拡張点2をもつオプティカルフローを発生させる。
第2の船舶5は、右下から接近し、点Aと交差しない軌道上に小さなオプティカルフローを作り出す。第2の船舶5によって作り出されるオプティカルフローは、位置Aから算出される場合には安定した拡張点2を生成しない。
図4の右側部分は、第1の船舶4の右下部分の位置(視点)Bから得られたセンサデータに基づく。第1の船舶4の移動は、図4の一方の側(上部)から他方の側(下部)まで移動する一定のオプティカルフローを発生させる。
ただし、位置Bからの視野角においては、第2の船舶5の接近は安定した拡張点2を付加的に生成することとなり、これにより、第2の船舶5の方向から衝突が迫っていることが示される。これは、対応する物体境界部分の視野角、すなわち図4の位置Bの視野角からのオプティカルフロー特徴の伝達が、例えば図4の位置Aに対応する単一の視野角および位置からのオプティカルフローのみを考慮に入れる場合よりも優位となり得る、という利点を示している。
図5は、動的環境において操作を行う人を支援する方法の第1の実施形態の簡単化されたフロー図である。
ステップS1において、1つまたは複数のセンサを用いて環境から時系列の一連の画像を取得する。
ステップS2において、上記一連の画像を用い、画像データに基づくオプティカルフローを算出しまたは推定する。
続くステップS3において、上記算出されたオプティカルフローに基づいて、異なる時刻からの少なくとも2つの画像内において選択された領域(複数)についての特徴スコアが、対応する位置に関連付けられて、決定される。
ステップS4において、上記特徴スコアは、1つまたは複数の出力信号にマッピングされて(変換されて)少なくとも1つのアクチュエータ10に供給される。上記1つまたは複数の出力信号は、人によって知覚されたとき少なくとも方向刺激として解釈され得る方向情報を含む。
ステップS5において、ステップS4において生成された出力信号は、少なくとも1つのアクチュエータ10に供給された後、人に伝達される。
動的環境において操作を行うことについて人を支援する本方法の基本プロセスは、図6に示すように、特徴スコアの調整を含めるように拡張することができる。
図6は、方法の第2の実施形態の簡単化されたフロー図を示す。
出力信号を生成する本拡張プロセスは、図5に示されたような基本プロセスのすべてのステップS1、S3、S4、およびS5を含む。
図6のステップS2’は、図5のステップS2に対応するものであるが、一連の画像を用いて1つの視野角または複数の視野角について取得された画像データに基づくオプティカルフローを算出する点が異なる。
図5に示されたステップに加えて、第2の実施形態は、他のセンサデータを取得するステップS6と、特徴スコアを調整するステップS7と、をさらに含む。
ステップS6において、他のセンサデータが、少なくとも1つの他のセンサ7から取得される。他のセンサデータは、他のセンサ7と物体との間の距離の距離情報を画像情報に含むことができる。
ステップS7において、ステップS3からの算出された特徴スコアが、ステップS6において取得された他のセンサデータに基づいて調整される。すなわち、ステップS7によって提供される調整済み特徴スコアは、オプティカル特徴スコア推定からの情報および他のセンサ7からの情報の双方を用いたものである。
図7は、本発明に係る、動的環境において操作することについて人を支援するためのシステム6の、一実施形態の簡単化された概要を示す図である。
システム6は、センサ位置から車両周囲のシーンの360°画像を記録するための、センサモジュールまたはセンサ7、例えば、カメラを含む。センサモジュールは、複数のセンサ位置に配された複数のセンサ7、特に、様々な車両本体境界面(vehicle body boundaries)に配置された複数のセンサ7を含むことができ、各センサ7は所定の視野角を有する。特に、センサモジュール7は、時系列の連続画像を取得し、記録された時系列の画像からセンサデータを生成する。
例えばインタフェースである取得モジュール8は、少なくとも1つのセンサ7からのセンサデータを取得し、当該センサデータを処理モジュール9に供給する。
例えば1つまたは複数のプロセッサおよび関連する一時的および非一時的なメモリ能力を有する処理モジュール9は、連続して取得される画像から視覚的特徴の移動ベクトルを推測することによりオプティカルフロー情報を算出するための、アプリケーションソフトウエア(プログラム)を実行する。上記視覚的特徴の移動ベクトルの推測は、例えば時系列画像におけるエッジ又は形状などの特徴を用いて行われる。
触覚ユーザインタフェース10は、例えば人の体のまわりに配置された等間隔の振動モータのアレイを含み、わずかな位置誤差のみで人がその位置を突き止めることのできる触感(刺激)を発生させ得る。位置誤差は4cmよりも小さいものであり得る。知覚された刺激位置は、対応する拡張点の方向に対応し、刺激強度は、その拡張点のまわりの(正の)拡張速度をコード化する。他の実施態様では、その強度がその拡張点の確実性をコード化し、刺激の周波数によって拡張速度がコード化される。
処理モジュール9は、オプティカルフロー情報からの拡張点および拡張速度を被支援者へのヒューマンインターフェース上にマッピングする。この場合、刺激が与えられる側面と拡張点の方向との対応付けは、上記インタフェースの異なる部分が、異なる視点からのオプティカルフロー情報に反応し得るように行われる。
上述した形態においては、支援システム6は、シーンにおける環境関連の複数の事象および構成要素に関する情報、例えば、動的環境における交通シーンに関する情報を、そのユーザに知らせることができる。
動的環境におけるシーンのそのような構成要素の一例は、進行方向である。自車両の移動は、自車両の進行方向にほぼ安定した拡張点をもたらす。
動的環境におけるシーンのそのような構成要素の他の例は、(車両)速度である。自身が移動することによって生成される拡張点の周囲の拡張速度は、自車両自体の車両速度に比例する。
動的環境におけるシーンのそのような構成要素のさらに他の例は、迫っている衝突である。自車両との衝突経路上にある他の物体は、拡張点および拡張速度を発生させる。例えば、フローベクトル場において物体輪郭により生成されるエリアは、自車両とその物体との間の速度差に関する情報を含んでいる。距離情報、他の物体のサイズ情報、または自車両に関する速度情報と組み合わせれば、拡張速度および拡張点は、衝突が起こるまでの方向と時間(衝突余裕時間、TTC)とに関する情報を含む。
動的環境において操作を行うことについて人を支援する本方法は、多くのシナリオで特に有利である。
交通環境において、突然の渋滞や加速を行う運転者などの路上の特定の状況は、追突事故のリスクを増加させる。本発明を適用すると、後ろから急速に接近する車両に対して視覚的刺激の拡大がもたらされる。したがって、特に自車両および接近する車両の交通環境の態様は、出力信号、例えば触覚支援信号に、コード化されるべきである。自車両を操作しつつそのような危険の接近を知らされる人は、自車両の前面に通常向けられている顕在的注意(overt attention)の集中を、自車両の後部から近づいている危険を知るためにシフトする必要がないので、追突事故を防止する可能性が高くなる。
同様に、一の道路の同じレーンにおいて突然減速した物体に被支援者が接近すると、急速に拡大する視覚的刺激が生成されるが、この視覚的刺激と共に、対応する顕著性を用いた通知を行うことで、マルチセンサリ・ファシリテーション(multisensory facilitation)の効果によりその人の反応が改善され得る。
上述の方法およびシステムは、複数の及び空間的に対向する車両境界から延びる視野角からオプティカルフローベクトル場を得るための手段を提供し得る。したがって、ただ1つの視野角からのフロー情報、通常はその人自身の視野角からのフロー情報を用いる場合と比較して、衝突回避も容易となる。特に、バス、コンテナ船、および飛行機などの大きな車両では、車両を操作する人の視野角からのオプティカルフロー情報のみを使用した場合には、支援システムの有用性はその人の近くにおける事象およびシーンに限定される。例えば車両の後部から迫って来る衝突は、予想されないこととなる。人の観察位置および視野角からのオプティカルフローは、一例として示したようなオプティカルフローベクトル場から得られる安定な拡張点とは異なり、衝突に特有の特徴を提示しないためである。けれども、自車両から見た複数の様々な視野角(視線方向)に固有の、より多くのオプティカルフロー推定を行えば、そのような特有の特徴を含むこととなり、被支援者に適切な通知を行うことができる。本支援システムおよび本支援方法は、人が複数の視点から周囲環境を同時に観察できるようにする。言い換えれば、本支援システムおよび本支援方法は、自車両を中心としたより多くの視点を適用することができる。これは、特に、例えば図4に示した船舶のシーンに当てはまる。
進路優先権違反: 運転者は、進路の優先権を有している場合には、他のレーンから接近する車両をチェックしないことが多い。このため、進路優先権違反が発生した場合には特に危険な状態となる。側面から接近する車両は、視覚的刺激の拡大を発生させるので、触覚支援信号にコード化され得ることとなり、被支援者が他の車両を知覚していない場合であっても、被支援者である運転者に反応する機会を与え得る。
特に有利な用途は、人の制限速度遵守の支援である。特に、動的に変化する交通環境の中で多くのことが要求されるシナリオにおいては、適用される制限速度を監視することは、自車両を操作する人にとって優先度の低いものとなり得る。ここに提案する支援機能は、視覚に対する高い需要(多くのものを見なければならないような状況)から直接的な影響を受けることのない他のモダリティにより、自車両の速度についての情報を人に知らせることができる。これにより、制限速度遵守が容易となる。さらに、現在の制限速度に従って進行方向の拡張速度に調整を加えることで、被支援者は、デフォルト動作として制限速度からの逸脱に気づかされる。
上述した実施形態に示したような支援に慣れた人は、その被支援者が直接的に制御していない実在物に対して生成されたそのような出力信号も、解釈することができるであろう。一の有利な実施形態は、トレーナによってモニタされるオートバイ初心者などの他の交通参加者をモニタする作業である。本支援システムにより、トレーナは、初心者の視点から状況をより良く理解することができる。トレーナは、より適切な指示、助言、および注意を初心者に与えることができるようになる。
航空管制官は、対象とする1つまたは複数の実在物のオプティカルフロー情報を用いて、複数の飛行機の軌道に関する情報の統合を改善し得る。例えば、管制官は、個々の飛行機の視点からのオプティカルフロー情報を(選択的に)受け取って、軌道推定を改善することができる。これに代えて、重要な(クリティカルな)着陸ゾーンおよび滑走路部分の視点からのオプティカルフロー情報を伝達して、そのような重要なエリアのモニタリングを改善することができる。可能性のある定性的利益に加えて、特に、複数の知覚モダリティを組み合わせて様々な異なる位置またはシーン変数に関する情報を受け取るようにすることで、「モニタリングバンド幅(monitoring bandwidth)」を改善することができる。
本発明の例示的な実施態様ならびに特定のシナリオは、これらの例に示された動的環境において操作を行うことについての支援から、人がどのように利益を得るかを示している。上述の例は、説明を目的としたものであって、添付の特許請求の範囲で規定される本発明を制限することを意図したものではない。

Claims (28)

  1. 動的環境において操作を行うことについて人を支援する方法であって、
    少なくとも1つのセンサ(7)から前記動的環境の少なくとも2つの時系列の連続画像を含むセンサデータを取得するステップ(S1)と、
    前記少なくとも2つの連続画像に基づいてオプティカルフローを算出するステップ(S2)と、
    画像空間における選択された領域の空間位置に関連する特徴スコアを決定して特徴スコア場を生成するステップ(S3)と、
    前記生成された特徴スコア場に基づいて方向性刺激情報を含む出力信号を生成するステップ(S4)であって、前記方向性刺激情報は前記選択された領域間の相対的空間関係に関する情報を含むものであるステップ(S4)と、
    前記出力信号を少なくとも1つのアクチュエータ(10)に供給するステップと、
    前記アクチュエータ(10)により前記方向性刺激情報を前記人に伝えるステップ(S5)と
    を含む、方法。
  2. 少なくとも1つの拡張点(2)を含むオプティカルフローベクトル場として前記オプティカルフローを算出するステップを含むこと、および、
    前記特徴スコアは、前記オプティカルフローベクトル場における前記少なくとも1つの拡張点(2)のまわりの少なくとも1つの拡張速度に関する第1の情報を含むこと、
    を特徴とする請求項1に記載の方法。
  3. 前記特徴スコアは、前記拡張速度と平均局所並進ベクトルとの間の関係に関する第2の情報を含む、
    ことを特徴とする請求項2に記載の方法。
  4. 前記特徴スコアを少なくとも1つの閾値と比較するステップを含むこと、および、
    前記特徴スコアが前記少なくとも1つの閾値を超える場合のみ前記方向性刺激情報が前記人に信号で伝えられること、
    を特徴とする請求項1から3のいずれかに記載の方法。
  5. 前記決定された特徴スコアに基づいて前記出力信号を生成する前記ステップは、前記少なくとも1つの拡張点(2)を刺激位置にマッピングすることを含む、
    ことを特徴とする請求項2から4のいずれかに記載の方法。
  6. 前記決定された特徴スコアに基づいて前記出力信号を生成する前記ステップは、前記人の自己中心座標における対応する特徴位置に向かう方向を、前記人の自己中心座標における前記対応する特徴位置の前記方向に本質的に対応する前記人の体の知覚刺激位置にマッピングすることを含む
    ことを特徴とする請求項2から5のいずれかに記載の方法。
  7. 前記決定された特徴スコアに基づいて前記出力信号を生成する前記ステップは、前記少なくとも1つの拡張速度を少なくとも1つの刺激パラメータ、特に、刺激位置、刺激周波数、および刺激強度のうちの少なくとも1つにマッピングすることを含む、
    ことを特徴とする請求項2から6のいずれかに記載の方法。
  8. 前記決定された特徴スコアに基づいて前記出力信号を生成する前記ステップは、前記特徴スコア場を前記人の自己中心画像フレームにマッピングすることを含む、
    ことを特徴とする請求項2から7のいずれかに記載の方法。
  9. 少なくとも1つの他の視野角について少なくとも1つの他のオプティカルフローを算出するステップと、
    前記少なくとも1つの他のオプティカルフローに基づいて他の特徴スコアを決定するステップと、
    を含むこと、および、
    前記生成される出力信号は、前記決定された特徴スコアおよび前記他の特徴スコアに基づく方向性刺激情報を含むこと、
    を特徴とする請求項1から8のいずれかに記載の方法。
  10. 同じ空間方向について、前記決定された特徴スコアおよび前記他の特徴スコアに基づいて前記出力信号を生成することを含む、
    ことを特徴とする請求項9に記載の方法。
  11. 前記決定された特徴スコアおよび前記他の特徴スコアに基づいて異なる複数の空間方向について前記出力信号を生成することを含む、
    ことを特徴とする請求項9または10に記載の方法。
  12. 前記出力信号は、前記センサの少なくとも1つの観察位置に関連する前記拡張点(2)の少なくとも1つの位置、および当該拡張点(2)への少なくとも1つの方向、のうちの少なくとも1つを伝達する、
    ことを特徴とする請求項1から11のいずれかに記載の方法。
  13. 前記出力信号は、各拡張点(2)の中心周囲の少なくとも1つの拡張速度を伝達する、
    ことを特徴とする請求項1から12のいずれかに記載の方法。
  14. 前記出力信号は、複数の観察位置、特に、複数の物理的実在物に関連する前記複数の観察位置についての、複数の拡張点(2)を同時に伝達する、
    ことを特徴とする請求項1から13のいずれかに記載の方法。
  15. 前記出力信号は、前記出力信号の特性及び又は干渉の程度もしくは範囲に応じて、複数の拡張点(2)を、前記人に同時にまたは時間的に連続して伝達する、
    ことを特徴とする請求項1から14のいずれかに記載の方法。
  16. 前記出力信号は、拡張速度をコード化する1つまたは複数の知覚モダリティを用いて、特に、触覚刺激の圧力、強度、振動数、継続期間、またはパターンなどの触覚刺激のパラメータを用いて、拡張点の周囲の拡張速度を伝達する、
    ことを特徴とする請求項1から15のいずれかに記載の方法。
  17. 前記出力信号は、方向および位置の両方、ならびに拡張速度を、同じ知覚モダリティを用いて伝達する、
    ことを特徴とする請求項2から16のいずれかに記載の方法。
  18. 前記出力信号は、顕著性変化方式で前記拡張速度をコード化し、特に、速い拡張速度は、遅い拡張速度よりも高い顕著性を伝える、
    ことを特徴とする請求項2から17のいずれかに記載の方法。
  19. 前記出力信号は、複数の知覚モダリティを用いて、一つの同じ方向情報を伝達する、
    ことを特徴とする請求項2から18のいずれかに記載の方法。
  20. 前記出力信号は、前記拡張速度をコード化し、
    前記拡張速度は、追加の要因によって、特に前記進行方向における自身の速度に比例する量、または現在の制限速度に比例する量だけ、調整される、
    ことを特徴とする請求項2から19のいずれかに記載の方法。
  21. 前記出力信号は、前記拡張速度をコード化し、
    前記拡張速度は、追加の要因によって調整される、
    ことを特徴とする請求項2から20のいずれかに記載の方法。
  22. 前記生成される出力信号は、1つまたは複数の追加のセンサからの距離情報などの距離情報と組み合わされた前記オプティカルフローを含む、
    ことを特徴とする請求項2から21のいずれかに記載の方法。
  23. 前記決定された特徴スコアに基づいて前記出力信号を生成する前記ステップは、前記決定された特徴スコアに基づいて人間により知覚可能である信号、特に、触覚信号、音響信号、前庭信号、化学信号、電子信号、または嗅覚信号のうちの少なくとも1つを決定することを含む、
    ことを特徴とする請求項1から12のいずれかに記載の方法。
  24. 人が動的環境で操作するのを支援するためのシステムであって、
    少なくとも1つのセンサ(7)から前記動的環境の少なくとも2つの時系列の連続画像を含むセンサデータを取得するよう構成された取得ユニット(8)と、
    プロセッサ(9)であって、
    前記少なくとも2つの連続画像に基づいてオプティカルフローを算出し、
    画像空間における選択された領域の空間位置に関連する特徴スコアを決定して特徴スコア場を生成し、
    前記生成した特徴スコア場に基づいて、前記選択された領域間の相対的空間関係に関する情報を含む方向性刺激情報を含んだ出力信号を生成し、
    前記出力信号を少なくとも1つのアクチュエータ(10)に供給する、
    よう構成されたプロセッサ(9)と、
    前記方向刺激情報を前記人に信号で伝えるように構成された前記少なくとも1つのアクチュエータ(10)と、
    を有するシステム。
  25. 前記人は、物理的実在物、例えば、車両、二輪車、飛行機、または船舶に関連し、
    前記人は、前記物理的実在物をモニタする、
    ことを特徴とする請求項24に記載のシステム。
  26. 前記少なくとも1つのセンサ(7)の視野角は、前記人の視野角に代えて又はこれに加えて前記物理的実在物の視野角に対応する、
    ことを特徴とする請求項25に記載のシステム。
  27. 前記少なくとも1つのセンサ(7)、特に、カメラなどの光センサを備える、
    ことを特徴とする請求項24から26のいずれかに記載のシステム。
  28. コンピュータまたはデジタルシグナルプロセッサで実行されたときに請求項1から23の一つに記載の前記ステップを実行するプログラムコード手段を有するコンピュータプログラム。
JP2019029093A 2018-02-21 2019-02-21 動的環境における操作および調整のためのオプティカルフローベース支援 Active JP6839217B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP18157906 2018-02-21
EP18157906.1 2018-02-21
EP19151745.7 2019-01-15
EP19151745.7A EP3531337B1 (en) 2018-02-21 2019-01-15 Optical flow based assistance for operation and coordination in dynamic environments

Publications (2)

Publication Number Publication Date
JP2019175439A true JP2019175439A (ja) 2019-10-10
JP6839217B2 JP6839217B2 (ja) 2021-03-03

Family

ID=61628099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029093A Active JP6839217B2 (ja) 2018-02-21 2019-02-21 動的環境における操作および調整のためのオプティカルフローベース支援

Country Status (3)

Country Link
US (1) US10937175B2 (ja)
EP (1) EP3531337B1 (ja)
JP (1) JP6839217B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4163896A1 (en) 2021-10-08 2023-04-12 Honda Research Institute Europe GmbH Assistance system with relevance-dependent stimulus modulation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006096A (ja) * 1999-06-23 2001-01-12 Honda Motor Co Ltd 車両の周辺監視装置
JP2001199296A (ja) * 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2005149200A (ja) * 2003-11-17 2005-06-09 Nissan Motor Co Ltd リスク報知装置、リスク報知装置を備える車両および運転座席
JP2008004989A (ja) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd 車両周囲表示装置
JP2008006920A (ja) * 2006-06-28 2008-01-17 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2014106901A (ja) * 2012-11-29 2014-06-09 Aisin Seiki Co Ltd 距離算出装置、衝突検出システム、距離算出方法、衝突検出方法、及びプログラム
JP2016068606A (ja) * 2014-09-26 2016-05-09 本田技研工業株式会社 鞍乗型車両の接近報知装置
JP2017167915A (ja) * 2016-03-17 2017-09-21 富士通テン株式会社 運転支援装置及び運転支援方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3846494B2 (ja) * 2004-07-13 2006-11-15 日産自動車株式会社 移動障害物検出装置
EP2463843B1 (en) * 2010-12-07 2015-07-29 Mobileye Vision Technologies Ltd. Method and system for forward collision warning
US9233472B2 (en) * 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US9629774B2 (en) 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
EP3146506B1 (en) * 2014-05-22 2019-12-11 Mobileye Vision Technologies Ltd. Systems and methods for braking a vehicle based on a detected object

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006096A (ja) * 1999-06-23 2001-01-12 Honda Motor Co Ltd 車両の周辺監視装置
JP2001199296A (ja) * 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2005149200A (ja) * 2003-11-17 2005-06-09 Nissan Motor Co Ltd リスク報知装置、リスク報知装置を備える車両および運転座席
JP2008004989A (ja) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd 車両周囲表示装置
JP2008006920A (ja) * 2006-06-28 2008-01-17 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2014106901A (ja) * 2012-11-29 2014-06-09 Aisin Seiki Co Ltd 距離算出装置、衝突検出システム、距離算出方法、衝突検出方法、及びプログラム
JP2016068606A (ja) * 2014-09-26 2016-05-09 本田技研工業株式会社 鞍乗型車両の接近報知装置
JP2017167915A (ja) * 2016-03-17 2017-09-21 富士通テン株式会社 運転支援装置及び運転支援方法

Also Published As

Publication number Publication date
EP3531337B1 (en) 2022-03-16
EP3531337A1 (en) 2019-08-28
JP6839217B2 (ja) 2021-03-03
US20190259167A1 (en) 2019-08-22
US10937175B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
US9849832B2 (en) Information presentation system
EP3540711B1 (en) Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
US11904688B2 (en) Method for calculating an AR-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
JP2019182305A (ja) 車両制御装置、車両制御方法、およびプログラム
EP2560151A1 (en) Driving support device
JPWO2019167457A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
CN111788459A (zh) 辅助信息在显示单元上的显现
JP7139902B2 (ja) 報知装置
KR20210151802A (ko) 정보 처리 장치, 이동 장치 및 방법, 그리고 프로그램
WO2020031689A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
WO2021193099A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6856085B2 (ja) 車両用表示制御装置、方法及びプログラム
JP2019079363A (ja) 車両制御装置
WO2020183892A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
JP6839217B2 (ja) 動的環境における操作および調整のためのオプティカルフローベース支援
JP7004534B2 (ja) 車両の制御装置及び車両の制御方法
WO2020255751A1 (ja) 自動運転システム
EP3723066A1 (en) Method for assisting a person in acting in a dynamic environment and corresponding system
KR20230089780A (ko) 충돌 방지 방법 및 장치
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
WO2020090250A1 (ja) 画像処理装置と画像処理方法およびプログラム
Martinez et al. The effects of tactile display on automated vehicle takeover: a literature review
WO2023149003A1 (ja) 車両制御装置
JP7294091B2 (ja) 表示制御装置および表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210212

R150 Certificate of patent or registration of utility model

Ref document number: 6839217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250