JP2019021306A - 色盲のための拡張現実車両支援 - Google Patents

色盲のための拡張現実車両支援 Download PDF

Info

Publication number
JP2019021306A
JP2019021306A JP2018119182A JP2018119182A JP2019021306A JP 2019021306 A JP2019021306 A JP 2019021306A JP 2018119182 A JP2018119182 A JP 2018119182A JP 2018119182 A JP2018119182 A JP 2018119182A JP 2019021306 A JP2019021306 A JP 2019021306A
Authority
JP
Japan
Prior art keywords
vehicle
driver
data
overlay
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018119182A
Other languages
English (en)
Other versions
JP6729636B2 (ja
Inventor
ダイ,シユアン
Siyuan Dai
アレチガ,ニコス
Arechiga Nikos
忠緯 林
Chung-Wei Lin
忠緯 林
真一 白石
Shinichi Shiraishi
真一 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2019021306A publication Critical patent/JP2019021306A/ja
Application granted granted Critical
Publication of JP6729636B2 publication Critical patent/JP6729636B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/32Holograms used as optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Vascular Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)

Abstract

【課題】色覚異常を有する運転者を補助する。【解決手段】車両の周辺環境内にあり、前記車両の運転者によって視認可能な灯火の種類を識別する識別ステップと、前記識別した灯火の種類に基づいて、前記車両の運転者が行うべき動作を決定する決定ステップと、前記車両の運転者が行うべき動作を視覚的に表すARオーバーレイを生成し、前記車両の運転者が視認するARヘッドセットに出力する案内ステップと、を含む。【選択図】図1

Description

(関連出願への相互参照)
本出願は、「AUGMENTED REALITY VEHICULAR ASSISTANCE FOR COLOR BLINDNESS」と題し、2017年7月18日に出願された米国特許出願第15/653,342号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
本明細書は、色盲の運転者に拡張現実車両支援を提供するための拡張現実に関する。
色盲は、色覚異常とも呼ばれ、色または色の違いを見分ける能力の低下を指す。赤緑色盲が最も一般的な形態であり、青黄色盲および全色盲が続く。赤緑色盲は、男性の8%、北欧系の女性の0.5%までに影響を及ぼす。色盲には治療法がない。
色を見分ける能力は、老齢によって低下する。ある特定の国では、色盲であることにより特定の職種の資格が得られなくなる場合がある。例えば、一部の国では、色盲の人はパイロット、列車の運転士、タクシー運転手として働く資格が得られない。
米国特許第9,384,565号明細書 特開2016−058092号公報
本明細書に記載するのは、車両に新しい車両機能または異なる車両機能を提供するよう動作する拡張現実システム(ARシステム)である。本明細書では拡張現実を「AR」とも呼ぶ。
ARシステムは車両に含まれうる。ARシステムは、ARヘッドセットと、車両の運転者が装着する1つ以上のARグローブとを含む。
色盲に苦しむ多くの運転者は、車両を運転する際の難しさを訴えている。具体的には、これらの運転者らは、(1)交通信号および(2)他の車両のブレーキ灯を認識する際に苦労する傾向がある。例えば、赤緑色盲の運転者は赤と緑の交通信号を混同することがあり、これは残念なことに交通事故につながる。これらの運転者はまた、運転者の前方の車両のブレーキ灯が点灯しているか否かを識別することもできない。この状況も交通事故につながる。
本明細書に記載するARシステムは、ARハードウェア(例えば、ヘッドアップ・ディスプレイ・ユニット「HUD」やARゴーグル)の動作を制御して、色盲の運転者が車両を操作するときにその運転環境を理解し、正しく解釈するのを支援することによって車両の性能を改善する。
色盲の運転者を支援する車両システムを設計する際の難題の1つは、様々な度合いの色盲があることを理解することであり、車両用途での色盲の問題を解決しようとするいかなる車両システムも、あらゆる度合いの色盲に対応することができなければならない。一般に、車両用途での色盲の問題を解決しようとする既存の解決策は、センサおよびディスプレイを使用してライトを検出することによって、色盲に苦しむ人がディスプレイによりア
クセスしやすくするという問題に的を絞っている。これら既存の解決策は、あらゆる度合いの色盲に対応することができないため、適切ではない。高度の色盲である一部の人は、たとえこれら既存の解決策の助けがあっても交通信号を識別するのにやはり苦労する場合があり、よってこのように、これら既存の解決策は、そうした運転者が車両を運転しているときにその運転環境を理解し、または正しく解釈するのを助けることができない。比較すると、本明細書に記載するARシステムは、色盲の度合いにかかわらず、すべての色盲の運転者を支援することができる。
いくつかの実施形態では、ARシステムは、車載コンピュータ、電子制御ユニット(ECU)または車両の何らかの他の車載ユニット(OBU)を使用して実施される。ARシステムは、車両の要素である、(1)ARヘッドセット、および(2)ARグローブのうちの1つ以上の動作を制御するように動作する。特に、ARシステムは、ARヘッドセットおよびARグローブのうちの1つ以上を操作して、車両の色盲の運転者がその運転環境に位置している交通信号およびブレーキ灯を正しく理解し、解釈するのを支援する。
ARヘッドセットは、HUDまたはARゴーグルを含む。いくつかの実施形態では、HUDは、図5に示すような3次元HUD(3D−HUD)である。色盲の運転者は、HUDまたはARゴーグルを通して自分の運転環境を見る。この運転環境が交通信号またはブレーキ灯を含む場合、ARシステムは、運転者が、その運転環境内の点灯した交通信号またはブレーキ灯を理解し、正しく解釈するのを支援する1つ以上の単語をグラフィックに表現するグラフィックオーバーレイを生成する。いくつかの実施形態では、単語は、運転環境内の点灯した交通信号またはブレーキ灯に基づいて運転者が取るべき措置を記述する。いくつかの実施形態では、グラフィックオーバーレイによって提供される命令が運転者によって迅速に理解されうるように、使用される単語数が最小限に抑えられることが好ましい。
交通信号の例において、いくつかの実施形態では、ARシステムは、GPS情報と画像検出アルゴリズムとの組み合わせを使用して、HUDまたはARゴーグル上の点灯した交通信号の位置を検出し、次いでARヘッドセットに、緑の灯火では「進行」という単語、黄色い灯火では「減速」という単語、赤い灯火では「停止」という単語を表現するグラフィックオーバーレイを表示させる。例えば、図4A〜図4Eを参照されたい。
ブレーキ灯の例において、いくつかの実施形態では、ARシステムは、深度センサおよび画像検出アルゴリズムを使用して、運転者の車両の前方を走行している第2の車両の1つ以上の点灯したブレーキ灯の位置を検出し、次いでARヘッドセットに、第2の車両のブレーキ灯が点灯したときに「ブレーキ」という単語を表現するグラフィックオーバーレイを表示させる。第2の車両のブレーキ灯が点灯していないとき、ARヘッドセットによってグラフィックオーバーレイは表現されない。例えば、図4Eを参照されたい。
いくつかの実施形態では、ARシステムは、色盲のために運転者が理解することが難しいこの地理的位置に存在する1つ以上の関心地点を識別する。例えば、ARシステムは、1つ以上の点灯した交通信号またはブレーキ灯を識別する。
いくつかの実施形態では、ARシステムは、関心地点の存在およびそのARシステムを含む車両からの距離を検出し、関心地点の存在およびその車両からの距離を記述する環境データを生成する1つ以上の車載センサ;ARシステムを含む車両の地理的位置を記述する全地球測位システム(GPS)データ;関心地点の地理的位置を記述するGPSデータ(例えば、狭域通信(DSRC)無線メッセージングまたは何らかの他の無線メッセージングプロトコルによってARシステムに送信されうる);ならびに車両のGPSデータを使用して車両がライトデータ構造に格納されたディジタルデータによって記述される関心
地点の近くにあるかどうか識別するために問い合わせまたは相互参照を行うことができる交通信号や道路標識などの静的関心地点の地理的位置を記述するディジタルデータを含むライトデータ構造、という各種のディジタルデータのうちの1つ以上を使用して1つ以上の関心地点を識別する。
いくつかの実施形態では、ARシステムは、ARヘッドセットに1つ以上の関心地点についての1つ以上のグラフィックオーバーレイを表示させるためのグラフィックデータを生成する。1つ以上のグラフィックオーバーレイは、ARシステムによって、運転者の色盲を明確に緩和するように構成される。ARシステムは、ARゴーグル(または、いくつかの実施形態では、HUDもしくは3D−HUD)にグラフィックデータを提供して、それらに1つ以上のグラフィックオーバーレイを表示させる。例えば、図4A〜図4Eを参照されたい。本発明者らの研究によれば、ARシステムは、色盲の運転者の運転体験および安全性を大幅に向上させ、またARシステムは、運転環境における通常は見分けられない点灯した色に応答するために運転者がどんな車両動作を実施すべきかを簡潔に記述する単語を使用するために、あらゆる度合いの色盲に役立つ。
1台または複数のコンピュータのシステムを、動作に際してシステムに特定の操作または動作を行わせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせをシステム上にインストールすることによってそれらの動作を行うように構成することができる。1つ以上のコンピュータプログラムを、データ処理装置によって実行された場合に装置に特定の操作または動作を行わせる命令を含むことによってそれらの動作を行うように構成することができる。
1つの一般的な態様は、ARヘッドセットを含む車両のための方法を含み、本方法は、車両の運転環境における点灯した灯火を識別するステップと、車両の運転環境において点灯した灯火が識別されたことに応答して実施すべき車両動作を決定するステップと、ARヘッドセットを使用して、点灯した灯火が識別されたことに応答して実施すべき車両動作を記述する単語を視覚的に表現するARオーバーレイを表示するステップと、を含む。
本態様の他の実施形態は、対応するコンピュータシステム、装置、および方法の動作を行うように各々構成された1台または複数のコンピュータ記憶装置上に記録されたコンピュータプログラムを含む。
各実施態様は以下の特徴のうちの1つ以上を含みうる。
点灯した灯火が、交通信号の赤い灯火、ブレーキ灯の赤い灯火、交通信号の黄色い灯火、および交通信号の緑の灯火を含むグループの中から選択される方法。
単語が、交通信号の赤い灯火では停止する、ブレーキ灯の赤い灯火ではブレーキをかける、交通信号の黄色い灯火では減速する、および交通信号の緑の灯火では停止する、を含むグループの中から選択される方法。
点灯した灯火が、車両によって受信された狭域通信メッセージに含まれる、点灯した灯火を記述するディジタルデータに基づいて識別される方法。
ARヘッドセットが、ARオーバーレイが現実世界で3次元を有するように視覚的に現れるようにARオーバーレイを表示するように動作する3次元ヘッドアップ・ディスプレイ・ユニットである方法。
ARヘッドセットがARゴーグルである方法。
ARオーバーレイが車両動作を記述する1つの単語のテキストからなる方法。
方法が、点灯した灯火が識別されることに対してリアルタイムで実行される方法。
前述の技法の各実施態様は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含みうる。
1つの一般的態様は車両のシステムを含む。
本システムは、ARヘッドセットと、ARヘッドセットに通信可能に結合された車載コ
ンピュータシステムであって、車載車両コンピュータシステムによって実行された場合に車載車両コンピュータシステムに、車両の運転環境における点灯した灯火を識別させ、車両の運転環境において点灯した灯火が識別されたことに応答して実施すべき車両動作を決定させ、ARヘッドセットに、点灯した灯火が識別されたことに応答して実施すべき車両動作を記述する単語を視覚的に表現するARオーバーレイを表示させるコンピュータコードを格納した非一時的メモリを含む車載コンピュータシステムと、を含む。
本態様の他の実施形態は、対応するコンピュータシステム、装置、および方法の動作を行うように各々構成された1台または複数のコンピュータ記憶装置上に記録されたコンピュータプログラムを含む。
各実施態様は以下の特徴のうちの1つ以上を含みうる。
点灯した灯火が、車両の1つ以上の車載センサによって記録された運転環境の測定値に基づいて識別されるシステム。
点灯した灯火が、車両によって受信された狭域通信メッセージに含まれる、点灯した灯火を記述するディジタルデータに基づいて識別されるシステム。
ARヘッドセットが、ARオーバーレイが現実世界で3次元を有するように視覚的に現れるようにARオーバーレイを表示するように動作する3次元ヘッドアップ・ディスプレイ・ユニットであるシステム。
ARヘッドセットがARゴーグルであるシステム。
ARオーバーレイが車両動作を記述する1つの単語のテキストからなるシステム。
ARオーバーレイが、点灯した灯火が識別されることに対してリアルタイムで表示されるシステム。
前述の技法の各実施態様は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含みうる。
1つの一般的態様はコンピュータプログラム製品を含む。
本コンピュータプログラム製品は、車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、車両の運転環境における点灯した灯火を識別させ、車両の運転環境において点灯した灯火が識別されたことに応答して実施すべき車両動作を決定させ、車両のARヘッドセットに、点灯した灯火が識別されたことに応答して実施すべき車両動作を記述する単語を視覚的に表現するARオーバーレイを表示させる、コンピュータ実行可能コードを格納した車両の車載コンピュータシステムの非一時的メモリを含む。
本態様の他の実施形態は、対応するコンピュータシステム、装置、および方法の動作を行うように各々構成された1台または複数のコンピュータ記憶装置上に記録されたコンピュータプログラムを含む。
各実施態様は以下の特徴のうちの1つ以上を含みうる。
点灯した灯火が、車両の1つ以上の車載センサによって記録された運転環境の測定値に基づいて識別されるコンピュータプログラム製品。
点灯した灯火が、車両によって受信された狭域通信メッセージに含まれる、点灯した灯火を記述するディジタルデータに基づいて識別されるコンピュータプログラム製品。
ARヘッドセットが、ARオーバーレイが現実世界で3次元を有するように視覚的に現れるようにARオーバーレイを表示するように動作する3次元ヘッドアップ・ディスプレイ・ユニットであるコンピュータプログラム製品。
ARオーバーレイが車両動作を記述する1つの単語のテキストからなるコンピュータプログラム製品。
前述の技法の各実施態様は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含みうる。
本発明に係る案内方法は、
車両の周辺環境内にあり、前記車両の運転者によって視認可能な灯火の種類を識別する識別ステップと、前記識別した灯火の種類に基づいて、前記車両の運転者が行うべき動作を決定する決定ステップと、前記車両の運転者が行うべき動作を視覚的に表すARオーバーレイを生成し、前記車両の運転者が視認するARヘッドセットに出力する案内ステップと、を含む。
また、前記灯火の種類は、交通信号、または、他の車両が有するブレーキ灯のいずれかであることを特徴としてもよい。
また、前記案内ステップでは、赤色の交通信号を識別した場合に、停止すべき旨を表す前記ARオーバーレイを生成することを特徴としてもよい。
また、前記案内ステップでは、黄色の交通信号を識別した場合に、減速すべき旨を表す前記ARオーバーレイを生成することを特徴としてもよい。
また、前記案内ステップでは、先行車両のブレーキ灯の点灯を識別した場合に、減速すべき旨を表す前記ARオーバーレイを生成することを特徴としてもよい。
また、前記識別ステップでは、一の灯火が点灯していることを表す狭域通信メッセージを受信し、前記狭域通信メッセージに基づいて、前記灯火の種類を識別することを特徴としてもよい。
また、前記識別ステップでは、第一の車両のブレーキ灯が点灯したことを表す狭域通信メッセージを、前記第一の車両から受信することを特徴としてもよい。
また、前記識別ステップでは、交通信号機の赤色または黄色の灯火が点灯していることを表す狭域通信メッセージを、前記交通信号機に対応する路側装置から受信することを特徴としてもよい。
また、前記ARヘッドセットは、ARゴーグル、または、3次元ヘッドアップディスプレイのいずれかであることを特徴としてもよい。
また、前記ARオーバーレイは、前記車両の運転者が行うべき動作を記述した文字を含むことを特徴としてもよい。
本発明に係る案内装置は、
車両の周辺環境内にあり、前記車両の運転者によって視認可能な灯火の種類を識別する識別手段と、前記識別した灯火の種類に基づいて、前記車両の運転者が行うべき動作を決定する決定手段と、前記車両の運転者が行うべき動作を視覚的に表すARオーバーレイを生成し、前記車両の運転者が視認するARヘッドセットに出力する案内手段と、を有する。
本開示は、限定のためではなく例として、添付の図面の各図に示されており、図面において類似した参照符号は類似した要素を指すのに使用されている。
いくつかの実施形態による車両のARシステムの動作環境を示すブロック図である。 いくつかの実施形態による車両のARシステムを含むコンピュータシステムの例を示すブロック図である。 いくつかの実施形態による色盲の運転者にARベースの支援を提供するための方法例の流れ図である。 いくつかの実施形態によるARシステムによって提供されるグラフィックオーバーレイの例である。 いくつかの実施形態によるARシステムによって提供されるグラフィックオーバーレイの例である。 いくつかの実施形態によるARシステムによって提供されるグラフィックオーバーレイの例である。 いくつかの実施形態によるARシステムによって提供されるグラフィックオーバーレイの例である。 いくつかの実施形態によるARシステムによって提供されるグラフィックオーバーレイの例である。 いくつかの実施形態による3D−HUDを示すブロック図である。
ARと仮想現実(VR)は同じものではない。VRでは、ユーザは、外界を見ることのできないVRヘッドセットと、VRヘッドセットによって表示される画像に対応する音声を提供すると共に、現実世界の音声を消去するヘッドホンとを装着している。言い換えれば、VRの目的は、現実世界を完全に忘れるようにユーザをVR世界に没頭させることである。
したがって、VRは、運転者の注意を現実世界に存在する車道からそらし、よって、この理由で安全上の問題があるため、車両での配備に適さない。ARシステムおよびARマネージャは、人命を危険にさらす安全上の問題があるため、運転者にVR体験を提供しない。
ARでは、ユーザは、ユーザがARヘッドセットを通して見たときに現実世界がユーザに見えるように構成されている透明ガラス(またはプラスチックもしくは何らかの他の適切な透明材料)を含むARヘッドセットを装着している。ARヘッドセットは、現実世界の上に重なるグラフィックイメージを含む仮想物体を表示する。仮想物体は、視覚的に、透明、半透明、不透明、または固体として表示されうる。仮想物体は、ARヘッドセットを通して見たときの現実世界の見え方を強化または修正する。ユーザは、現実世界の感じ方を強化または修正するARグローブを装着していてもよい。言い換えれば、ARの目的は、現実世界がAR体験の一部であるため、ユーザに現実世界を完全に忘れさせることなく、現実世界に体験を追加することである。
本明細書には、色盲の運転者がARを使用して運転環境(車両の周辺環境)を理解し、正しく解釈するのを支援する車両システムの実施形態が記載される。
(例示的概要)
図1を参照すると、いくつかの実施形態による車両123のARシステム199のための動作環境100が示されている。動作環境100は、車両123およびサーバ107のうちの1つ以上を含みうる。これらの要素は、ネットワーク105を介して相互に通信可能に結合されうる。図1には、1台の車両123、1台のサーバ107、および1つのネットワーク105が示されているが、実際には動作環境100は、1台または複数の車両123、1台または複数のサーバ107、および1つ以上のネットワーク105を含みうる。
いくつかの実施形態では、車両123がARシステム199を含むため、車両123は「自車」と呼ばれる。例えば、いくつかの実施形態では、ARシステム199は、車両123の運転者が車両123の前方を走行している第2の車両のブレーキ灯を見分け、正しく解釈するのを支援し(例えば、図4E参照)、これらの実施形態では、自車の前方を走行している第2の車両と車両123を区別するために、車両123は自車と呼ばれうる。
ARシステム199は、図1では、サーバ107および車両123の要素として破線で示されている。これは、いくつかの実施形態では、ARシステム199の機能が、サーバ107や車両123などの複数のエンドポイントにわたって分散されるからである。例えば、いくつかの実施形態では、ライトデータ構造184はサーバ107の要素であり、ラ
イトデータ構造184に関連したARシステム199の機能は、例えば、サーバ107が車両123より高い計算処理能力を有しうるために、サーバ107によって提供される。
いくつかの実施形態では、サーバ107は、動作環境100のオプションの機能である。例えば、いくつかの実施形態では、車両123のARシステム199は、サーバ107を使用せずにARシステム199のすべての機能を提供するように動作する。例えば、いくつかの実施形態では、ライトデータ構造184は車両123の要素であり、車両123のARシステム199はライトデータ構造184に関連するARシステムの機能を提供する。
ネットワーク105は従来型の有線または無線とすることができ、スター型構成、トークンリング構成、または他の構成を含む多くの異なる構成を有しうる。さらに、ネットワーク105は、ローカル・エリア・ネットワーク(LAN)、広域ネットワーク(WAN)(例えばインターネット)、または、複数の機器および/もしくはエンティティが通信するための他の相互接続データパスを含みうる。いくつかの実施形態では、ネットワーク105は、ピアツーピアネットワークを含みうる。またネットワーク105は、多種多様な通信プロトコルでデータを送信するための電気通信ネットワークの各部分に結合され、またはこれらを含みうる。いくつかの実施形態では、ネットワーク105は、Bluetooth(登録商標)通信ネットワーク、またはショート・メッセージ・サービス(SMS)、マルチメディア・メッセージング・サービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接データ接続、ワイヤレス・アプリケーション・プロトコル(WAP)、電子メール、DSRC、全二重無線通信などによるものを含むデータを送受信するためのセルラ通信ネットワークを含む。またネットワーク105は、3G、4G、LTE、LTE−V2X、VoLTEまたは任意の他のモバイル・データ・ネットワークもしくはモバイル・データ・ネットワークの組み合わせを含むモバイル・データ・ネットワークも含みうる。さらに、ネットワーク105は1つまたは複数のIEEE802.11無線ネットワークも含みうる。
いくつかの実施形態では、車両123はDSRC搭載車両である。いくつかの実施形態では、DSRC搭載車両は、DSRC無線機144とDSRC準拠のGPSユニット150とを含む車両である。DSRC無線機144は、DSRC搭載車両が位置している管轄区域において5.9GHz帯域でDSRCメッセージを合法的に送受信することを許可されたDSRC送信機およびDSRC受信機を含む電子ハードウェアデバイスである。
DSRCメッセージは、車両などの移動性の高い装置によって送受信されるように特に構成されており、その任意の派生または分岐を含む以下のDSRC規格のうちの1つ以上に準拠した無線メッセージである。
EN 12253:2004 Dedicated Short−Range Communication−Physical layer using microwave at 5.8 GHz (review)
EN 12795:2002 Dedicated Short−Range Communication(DSRC)−DSRC Data link layer:Medium Access and Logical Link Control(review)
EN 12834:2002 Dedicated Short−Range Communication−Application layer(review)
EN 13372:2004 Dedicated Short−Range Communication(DSRC)−DSRC profiles for RTTT applications(review)
EN ISO 14906:2004 Electronic Fee Collec
tion−Application interface
米国、ヨーロッパ、およびアジアでは、DSRCメッセージは5.9GHzで送信される。米国では、DSRCメッセージには、5.9GHz帯域の75MHzの周波数域が割り振られている。ヨーロッパおよびアジアでは、DSRCメッセージには、5.9GHz帯域の30MHzの周波数域が割り振られている。したがって、無線メッセージは、5.9GHz帯域で動作しない限り、DSRCメッセージではない。また無線メッセージは、DSRC無線機のDSRC送信機によって送信されない限り、DSRCメッセージではない。
したがって、DSRCメッセージは、Wi−Fi(登録商標)メッセージ、3Gメッセージ、4Gメッセージ、LTEメッセージ、ミリ波通信メッセージ、ブルートゥース(登録商標)メッセージ、衛星通信、および315MHzまたは433.92MHzでキーフォブによって送信またはブロードキャストされる短距離無線メッセージ、のいずれでもない。例えば、米国では、リモート・キーレス・システムのキーフォブは、315MHzで動作する短距離無線送信機を含み、この短距離無線送信機からの送信またはブロードキャストは、DSRCメッセージではない。というのは、例えば、そのような送信またはブロードキャストは、DSRC規格に準拠せず、DSRC無線機のDSRC送信機によって送信されず、5.9GHzで送信されないからである。別の例として、ヨーロッパおよびアジアでは、リモート・キーレス・システムのキーフォブは、433.92MHzで動作する短距離無線送信機を含み、この短距離無線送信機からの送信またはブロードキャストは、米国におけるリモート・キーレス・システムについて上述したのと同様の理由でDSRCメッセージではない。
いくつかの実施形態では、DSRC搭載車両は、従来の全地球測位システムユニット(GPSユニット)を含まず、代わりにDSRC準拠のGPSユニット150を含む。従来のGPSユニットは、従来のGPSユニットの実際の位置の±10メートルの精度で従来のGPSユニットの位置を記述する位置情報を提供する。比較すると、DSRC準拠のGPSユニット150は、DSRC準拠のGPSユニット150の実際の位置の±1.5メートルの精度でDSRC準拠のGPSユニット150の位置を記述するGPSデータ185を提供する。この精度を「車線レベルの精度」という。というのは、例えば、車道の車線は一般に約3メートル幅であり、±1.5メートルの精度は、車両123が、同じ方向に交通が流れている複数の車線を有する車道を走行しているときでさえも、車両123がどの車線を走行しているか識別するのに十分だからである。
いくつかの実施形態では、DSRC準拠のGPSユニット150は、その2次元位置を、屋根のない状態にある時間の68%にわたって、GPSユニット150の実際の位置の1.5メートル以内で特定し、監視し、追跡するように動作する。車道の車線は通常は幅3メートル未満であるため、GPSデータ185の2次元誤差が1.5メートル未満であるときには常に、本明細書に記載するARシステム199は、DSRC準拠のGPSユニット150によって提供されるGPSデータ185を分析し、車両123を含む車道上の複数の車両の相対位置に基づいて車両123が車道のどの車線走行しているか判定しうる。
DSRCメッセージの一例が、基本安全メッセージ(BSMメッセージ)である。車両123のDSRC無線機144は、一定の間隔(例えば、0.1秒ごとに1回またはユーザが構成可能な何らかの他の間隔)でBSMメッセージを送信する。各BSMメッセージは、BSMメッセージをブロードキャストした車両を記述するBSMデータを含む。BSMデータは、特に、BSMメッセージをブロードキャストした車両の一意の識別子およびその車両のGPSデータ185を記述するディジタルデータである。このようにして、車
道上を走行する複数のDSRC搭載車両の個々の車両は、車両自体を他のDSRC搭載車両に対して自動的に識別し、他の車両にその車両の地理的位置を車線レベルの精度で知らせることができる。本明細書に記載するARシステム199は、この情報を使用して、例えば、ブレーキ灯の存在を識別し、車両123までのブレーキ灯の距離はブレーキ灯が車両123の運転者にとっての関心地点になるものであるかどうか識別しうる。
いくつかの実施形態では、交通信号などの路側設備がDSRC無線機144を含み、これらの交通信号は、その地理的位置を記述するディジタルデータ、および、オプションで、交通信号のどの灯火が現在点灯しているか(赤い灯火か、黄色い灯火か、それとも緑の灯火か)を指示する情報を含むDSRCメッセージを送信しうる。本明細書に記載するARシステム199は、このDSRCメッセージを受信し、ディジタルデータを抽出し、ARヘッドセット198に、DSRCメッセージから抽出されたディジタルデータによって記述される交通信号の点灯した灯火に対応するグラフィックオーバーレイを表現させる。
ネットワーク105は、車両123と車道上の他の車両との間で共有される1つ以上の通信路を含みうる。通信路はDSRC、LTE−V2X、全二重無線通信または任意の他の無線通信プロトコルを含みうる。例えば、ネットワーク105は、DSRCメッセージ、DSRCプローブ、BSM、または本明細書に記載するデータのいずれかを含む全二重メッセージを送信するのに使用されうる。
車両123は任意の種類の車両である。例えば、車両123は、自動車、トラック、スポーツ・ユーティリティ・ビークル、バス、トレーラトラック、ドローンまたは任意の他の車道を走る乗り物の各種の車両のうちの1つである。
いくつかの実施形態では、車両123は自律型車両または半自律型車両である。
いくつかの実施形態では、車両123は、プロセッサ125A、メモリ127A、DSRC無線機144を含む通信ユニット145A、ARヘッドセット198、1つ以上のARグローブ196、およびARシステム199の各要素のうちの1つまたは複数を含む。車両123のこれらの要素は、バス120Aを介して相互に通信可能に結合されている。
サーバ107は、プロセッサベースのコンピューティングデバイスである。例えば、サーバ107は、パーソナルコンピュータ、ラップトップ、メインフレーム、またはサーバとして機能するように動作する任意の他のプロセッサベースのコンピューティングデバイス、の各種のプロセッサベースのコンピューティングデバイスのうちの1つまたは複数を含みうる。サーバ107は、ハードウェアサーバを含みうる。
いくつかの実施形態では、サーバ107は、プロセッサ125B、メモリ127B、通信ユニット145B、およびARシステム199の各要素のうちの1つ以上を含む。サーバ107のこれらの要素は、バス120Bを介して相互に通信可能に結合されている。
本明細書では、車両123のプロセッサ125Aおよびサーバ107のプロセッサ125Bをまとめて、または個別に「プロセッサ125」と呼ぶこともある。というのは、例えば、車両123のプロセッサ125Aは車両123の構成要素に、サーバ107のプロセッサ125Bが提供するのと同様の機能を提供するからである。同様の理由で、本明細書で提供する説明では、車両123とサーバ107とに共通する要素を指す場合に、すなわち、メモリ127Aとメモリ127Bとをまとめて、または個別に指す場合に「メモリ127」の用語を、通信ユニット145Aと通信ユニット145Bとをまとめて、または個別に指す場合に「通信ユニット145」の用語を使用する。
次に、車両123およびサーバ107について説明する。
(車両123)
いくつかの実施形態では、プロセッサ125およびメモリ127は、車載コンピュータシステム(図2に関連して後述するコンピュータシステム200など)の要素である。車載コンピュータシステムはARシステム199の動作を行わせ、または制御するように動作する。車載コンピュータシステムは、メモリ127に格納されたデータにアクセスし、データを実行して、ARシステム199またはARシステム199の要素(例えば、図2参照)について本明細書に記載する機能を提供するように動作する。車載コンピュータシステムは、車載コンピュータシステムに、図3に関連して後述する方法300のステップのうちの1つ以上を実行させるARシステム199を実行するように動作する。
プロセッサ125は、計算処理を行い、表示装置に電子表示信号を提供する算術論理演算装置、マイクロプロセッサ、汎用コントローラ、または何らかの他のプロセッサアレイを含む。プロセッサ125はデータ信号を処理し、複雑命令セットコンピュータ(CISC)アーキテクチャ、縮小命令セットコンピュータ(RISC)アーキテクチャ、または命令セットの組み合わせを実施するアーキテクチャを含む様々なコンピューティングアーキテクチャを含みうる。車両123は1つ以上のプロセッサ125を含みうる。他のプロセッサ、オペレーティングシステム、センサ、ディスプレイ、および物理構成も可能である。
メモリ127はプロセッサ125によってアクセスされ、実行されうる命令またはデータを格納する。命令またはデータは、本明細書に記載する技法を行うためのコードを含みうる。メモリ127は、ダイナミック・ランダム・アクセス・メモリ(DRAM)デバイス、スタティック・ランダム・アクセス・メモリ(SRAM)デバイス、フラッシュメモリ、または何らかの他のメモリデバイスとしうる。いくつかの実施形態では、メモリ127は、ハード・ディスク・ドライブ、フロッピー・ディスク・ドライブ、CD−ROMデバイス、DVD−ROMデバイス、DVD−RAMデバイス、DVD−RWデバイス、フラッシュ・メモリ・デバイス、またはより永続的に情報を格納するための何らかの他の大容量記憶装置を含む、不揮発性メモリまたは類似した永続記憶装置および媒体も含む。メモリ127の一部分は、バッファまたは仮想ランダム・アクセス・メモリ(仮想RAM)として使用するために確保されうる。車両123は1つ以上のメモリ127を含みうる。
車両123のメモリ127は、GPSデータ185、環境データ186、グラフィックデータ187、および頭部位置データ188、の各種のディジタルデータのうちの1つまたは複数を格納しうる。いくつかの実施形態では、メモリ127は、ライトデータ構造184を格納する。
GPSデータ185は、車両123の地理的位置を記述するディジタルデータである。いくつかの実施形態では、GPSデータ185は、車両123の地理的位置を車線レベルの精度で記述する。GPSデータ185は、例えば、車両123が交通信号またはブレーキ灯を含む地理的位置に位置しているかどうかを識別するために、ARシステム199によって使用される。
いくつかの実施形態では、GPSデータ185は、他のDSRC搭載車両、DSRC搭載交通信号、DSRC搭載道路標識などの、車両123の運転環境内の他のDSRC搭載物体の地理的位置を記述するディジタルデータを含む。これらの実施形態では、ARシステム199は、プロセッサ125によって実行された場合に、プロセッサ125に、車両123の地理的位置をその他のDSRC搭載物体の地理的位置と比較することによって、車両123が交通信号またはブレーキ灯を含む地理的位置に位置しているかどうか判定さ
せるように動作するコードまたはルーチンを含む。
ライトデータ構造184は、地理的領域内の異なる交通信号または道路標識の緯度および経度を記述するディジタルデータを含むテーブル、または何らかの他のデータ構造である。ARシステム199は、プロセッサ125によって実行された場合に、プロセッサ125に、GPSデータ185をライトデータ構造184に格納されたディジタルデータと比較して、車両123の現在GPS位置が交通信号または道路標識に対応するかどうか識別させるように動作するコードおよびルーチンを含む。
環境データ186は、車両123の外部の運転環境を記述するディジタルデータである。いくつかの実施形態では、環境データ186は、センサセット170の1つ以上の外部センサの測定値を記述する。ARシステム199は、プロセッサ125によって実行された場合に、プロセッサ125に、環境データ186を分析させて、車両123の運転環境が交通信号または車両123の前方を走行している別の車両のブレーキ灯を含むかどうか識別させるように動作するコードおよびルーチンを含む。
いくつかの実施形態では、環境データ186は、1つ以上の関心地点を記述する。関心地点は、点灯されている、車両123の運転者の色盲の特定の種類および度合いによる影響を受ける色の、車両123の運転環境内の物体である。いくつかの実施形態では、ARシステム199は、プロセッサ125によって実行された場合に、プロセッサ125に、環境データ186(および、GPSデータ185やライトデータ構造184などの他の入力)を分析して、車両123の現在の運転環境における1つ以上の関心地点を識別させるように動作するコードおよびルーチンを含む。ARシステム199は、識別された関心地点が定期的に更新されるように、この分析を時間の経過と共に一定の間隔で繰り返しうる。
グラフィックデータ187は、ARヘッドセット198に、環境データ186によって記述される1つ以上の関心地点に基づいて1つ以上のARオーバーレイを表示させるように動作するディジタルデータである。例えば、グラフィックデータ187は、ARヘッドセット198に、図4A〜図4Eに示すARオーバーレイのうちの1つ以上を表示させるように動作する。
頭部位置データ188は、車両123の運転者の頭部の向きを記述するディジタルデータである。いくつかの実施形態では、頭部位置データ188は、センサセット170に含まれる1つ以上の内部センサの測定値を記述する。例えば、センサセット170は、車両123の運転者の頭部の向きを追跡する1つ以上の内部カメラを含み、頭部位置データ188は、これらのセンサの測定値を記述する。いくつかの実施形態では、ARヘッドセット198は、運転者の頭部の向きを追跡する1つ以上の加速度計を含む。
通信ユニット145は、ネットワーク105または別の通信路との間でデータを送受信する。いくつかの実施形態では、通信ユニット145は、DSRC送受信機、DSRC受信機、および車両123(またはサーバ107などの他の何らかの装置)をDSRC対応装置にするのに必要な他のハードウェアまたはソフトウェアを含みうる。
いくつかの実施形態では、通信ユニット145は、ネットワーク105への、または別の通信路への直接物理接続のためのポートを含む。例えば、通信ユニット145は、USB、SD、CAT−5、またはネットワーク105との有線通信のための類似のポートを含む。いくつかの実施形態では、通信ユニット145は、IEEE802.11;IEEE802.16;BLUETOOTH(登録商標);EN ISO 14906:2004 Electronic Fee Collection−Application
interface;EN 11253:2004 Dedicated Short−Range Communication−Physical layer using
microwave at 5.8 GHz (review);EN 12795:2002 Dedicated Short−Range Communication(DSRC)−DSRC Data link layer:Medium Access and Logical Link Control(review);EN 12834:2002 Dedicated Short−Range Communication−Application layer(review);EN 13372:2004 Dedicated Short−Range Communication(DSRC)−DSRC profiles for RTTT applications(review);2014年8月28日に出願された、「Full−Duplex
Coordination System」という名称の米国特許出願第14/471387号明細書に記載されている通信方法;または別の適切な無線通信方法を含む、1つまたは複数の無線通信方法を使用してネットワーク105または他の通信路とデータを交換するための無線送受信機を含む。
いくつかの実施形態では、通信ユニット145は、参照によりその全体が本明細書に組み込まれる、米国特許出願第14/471387号明細書に記載されている全二重協調システムを含む。
いくつかの実施形態では、通信ユニット145は、ショート・メッセージ・サービス(SMS)、マルチメディア・メッセージング・サービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接データ接続、WAP、電子メール、または別の適切な種類の電子通信によるものを含む、セルラ通信ネットワーク上でデータを送受信するためのセルラ通信送受信機を含む。いくつかの実施形態では、通信ユニット145は有線ポートおよび無線送受信機を含む。また通信ユニット145は、TCP/IP、HTTP、HTTPS、およびSMTP、ミリ波、DSRCなどを含む標準ネットワークプロトコルを使用したファイルまたはメディアオブジェクトの配布のためのネットワーク105への他の従来型の接続も提供する。
いくつかの実施形態では、通信ユニット145は、DSRC無線機144を含む。DSRC無線機144は、DSRC送信機およびDSRC受信機を含むハードウェアユニットである。DSRC送信機は、5.9GHz帯域上でDSRCメッセージを送信およびブロードキャストするように動作する。DSRC受信機は、5.9GHz帯域上でDSRCメッセージを受信するように動作する。
いくつかの実施形態では、DSRC無線機144は、BSMメッセージをブロードキャストするための周波数を制御するディジタルデータを格納する非一時的メモリを含む。いくつかの実施形態では、非一時的メモリは、車両123のGPSデータ185が、DSRC無線機144によって定期的にブロードキャストされるBSMメッセージの要素としてブロードキャストされるように、車両123のGPSデータ185のバッファバージョンを記憶する。
いくつかの実施形態では、DSRC無線機144は、車両123をDSRC規格に準拠させるのに必要な任意のハードウェアまたはソフトウェアを含む。いくつかの実施形態では、DSRC準拠のGPSユニット150は、DSRC無線機144の要素である。
いくつかの実施形態では、DSRC準拠のGPSユニット150は、車両123またはDSRC準拠のGPSユニット150を、その任意の派生および分岐を含む以下のDSRC規格のうちの1つまたは複数に準拠させるのに必要な任意のハードウェアおよびソフト
ウェアを含む。
EN 12253:2004 Dedicated Short−Range Communication−Physical layer using microwave at 5.8 GHz (review)
EN 12795:2002 Dedicated Short−Range Communication(DSRC)−DSRC Data link layer:Medium Access and Logical Link Control(review)
EN 12834:2002 Dedicated Short−Range Communication−Application layer(review)
EN 13372:2004 Dedicated Short−Range Communication(DSRC)−DSRC profiles for RTTT applications(review)
EN ISO 14906:2004 Electronic Fee Collection−Application interface
いくつかの実施形態では、DSRC準拠のGPSユニット150は、車線レベルの精度で車両123の位置を記述するGPSデータ185を提供するように動作する。
ARヘッドセット198は、任意の従来のARヘッドセット、ARゴーグルまたはARグラスである。ARヘッドセット198の例には、Google(商標) Glass、CastAR、Moverio BT−200、Meta、Vuzix M−100、Laster SeeThru、Icis、Optinvent ORA−S、GlassUP、Atheer One、K−Glass、およびMicrosoft(登録商標)Hololensのうちの1つ以上が含まれうる。ARヘッドセット198は、車両123を運転する際に車両123の運転者が運転に集中できるように構成されている。
いくつかの実施形態では、ARヘッドセット198は、運転者の頭部の向きを追跡し、運転者の頭部の向きを記述する頭部位置データ188を出力する1つ以上のセンサ(例えば加速度計)を含む。頭部位置データ188は、ARシステム199によって、例えば、ARヘッドセット198に、運転者の視野内にある(または、オプションで、運転者の視野から分かりにくい)関心地点を記述するARオーバーレイをいつ表示させるか判定するのに使用される。例えば、ARシステム199は、プロセッサ125によって実行された場合に、ARヘッドセット198に、運転者の頭部の向きが、運転者がARオーバーレイによって記述される関心地点の方向の道路を見ていることを指示するときに、ARオーバーレイを表示させるように動作するコードおよびルーチンを含む。例えば、ARシステム199は、グラフィックデータ187をARヘッドセット198に提供する。
いくつかの実施形態では、ARヘッドセット198は3D−HUDである。3D−HUDの一例を図5に示す。例えば、車両123の運転者は3D−HUDを見ることができ、3D−HUDは、図4A〜図4Eに示すような1つ以上の仮想オーバーレイを表示しうる。
いくつかの実施形態では、1つ以上の仮想オーバーレイは、ARヘッドセット198によって、運転者には3つの次元(X軸、Y軸およびZ軸)を有するように見える3次元仮想オーバーレイとして表示される。車両123フロントガラスの横線はX軸であり、フロントガラスの縦線はY軸であり、Z軸は、運転者の頭部と車両123の外部環境の方向にフロントガラスを通り抜ける。
車両123は1つ以上のARグローブ196を含みうる。ARグローブ196は、車両
123の運転者が現実世界に存在するかのように仮想オーバーレイにタッチし、握り、触ることができるように構成された触覚フィードバックグローブである(例えば、図4A〜図4Eに示す仮想オーバーレイを参照されたい)。
いくつかの実施形態では、ARグローブ196は、ARシステム199によって新しく表示された仮想オーバーレイの存在を運転者に通知するために、運転者に触覚フィードバックを提供しうる。
いくつかの実施形態では、センサセット170の1つ以上のセンサは、何らかの他の現実世界の物体または仮想物体に対するARグローブ196の位置を記述するデータを記録するように動作しうる。
いくつかの実施形態では、ARグローブ196は、ARグローブ196に含まれている運転者の指にトルクを加える、力フィードバックユニット(ここではモータ)を含む。これらのモータは、ARシステム199によって制御された場合に、特定の仮想オーバーレイの堅さをシミュレートするために、運転者の手/指の動きによって引き起こされる力の方向および大きさを動的に変更するように動作する。このようにして、ARグローブ196のモータは、運転者が革の握りやハンドルのような柔らかい物体を表す仮想物体を扱っている場合には軽い抵抗を提供し、仮想物体が、現実世界では金属でできている物体のような、より高密度の物体を表す場合には重い抵抗を提供する。
いくつかの実施形態では、ARグローブ196は、ARグローブ196内の運転者の指先に触覚振動を提供する他の小型モータを含む。これらの触覚振動は、運転者が指でタッチインターフェースをタップし、または凹凸面に指を走らせる衝撃をシミュレートする。
いくつかの実施形態では、ARグローブ196に含まれるモータは、運転者の指がARヘッドセット198によって表示される仮想物体を貫通するのを物理的に防止することができる物理的フィードバックを提供するように動作するのに十分なほど強力である。
以下でより詳細に説明するように、ARグローブ196は、ARシステム199から受信するデータを一時的に格納する非一時的なキャッシュまたはバッファを含みうる。
センサセット170は、車両123の外部の物理環境を測定するように動作する1台または複数のセンサ(すなわち、外部センサ)を含む。例えば、センサセット170は、車両123に近接した物理環境(すなわち、運転環境)の1つ以上の物理特性を記録する1台または複数のセンサを含む。メモリ127は、運転環境からセンサセット170によって記録された1つ以上の物理特性を記述する環境データ186を格納しうる。
いくつかの実施形態では、環境データ186は、ARシステム199によって、GPSデータ185またはメモリ127に格納された他のデータを確認または拒否するのに使用されうる。例えば、GPSデータ185は車両123が特定のランドマークの近くに位置していることを指示し、環境データ186はその特定のランドマークを含む画像を含み、それによってGPSデータ185の正確さが確認されうる。
いくつかの実施形態では、センサセット170には、カメラ、LIDARセンサ、レーダセンサ、レーザ高度計、赤外線検知器、動き検知器、サーモスタット、聴音器、一酸化炭素センサ、二酸化炭素センサ、酸素センサ、質量空気流量センサ、エンジン冷却剤温度センサ、スロットル位置センサ、クランクシャフト位置センサ、自動車エンジンセンサ、バルブタイマ、空気燃焼比メータ、死角メータ、カーブフィーラ、不具合検出器、ホール効果センサ、マニホールド絶対圧センサ、駐車センサ、レーダガン、速度計、速度センサ
、タイヤ空気圧モニタリングセンサ、トルクセンサ、トランスミッション油温センサ、タービン速度センサ(TSS)、可変リラクタンスセンサ、車両速度センサ(VSS)、水センサ、車輪速度センサ、および任意の他の種類の自動車センサの各車両センサのうちの1台または複数が含まれうる。
いくつかの実施形態では、センサセット170は、車両123の内部の物理環境を測定するように動作する1台または複数のセンサ(すなわち、内部センサ)を含む。例えば、センサセット170は、車両123の車内の物理環境の1つ以上の物理特性を記録する1台または複数のセンサを含む。メモリ127は、車両123の車内からからセンサセット170によって記録された1つ以上の物理特性を記述する頭部位置データ188を格納しうる。
いくつかの実施形態では、ARシステム199は、プロセッサ125によって実行された場合に、プロセッサ125に、図3に関連して後述する方法300の1つまたは複数のステップを実行させるように動作するコードおよびルーチンを含む。
いくつかの実施形態では、車両123のARシステム199は、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向け集積回路(ASIC)を含むハードウェアを使用して実施されうる。いくつかの他の実施形態では、ARシステム199は、ハードウェアとソフトウェアとの組み合わせを使用して実施される。ARシステム199は、装置(例えばサーバや他の装置)の組み合わせに、またはそれらの装置のうちの1台に格納されうる。
ARシステム199については、図2〜図5に関連して以下でより詳細に説明する。
(サーバ107)
いくつかの実施形態では、サーバ107は、ARシステム199、通信ユニット145、プロセッサ125、およびメモリ127の各要素のうちの1つまたは複数を含むクラウドサーバである。
サーバ107の、ARシステム199、プロセッサ125、メモリ127、および通信ユニット145の各要素は、車両123について上述した要素と同じまたは同様であり、よって、ここではこれらの要素の説明を繰り返さない。
いくつかの実施形態では、車両123の通信ユニット145は、GPSデータ185や環境データ186などのディジタルデータを含む1つ以上の無線メッセージ(すなわち、1つ以上の要求メッセージ)を、ネットワーク105を介して一定の間隔でサーバ107に送信し、サーバ107のARシステム199は、これらの入力、およびオプションで、ライトデータ構造184などの他のローカルでアクセス可能なデータに基づいて車両123のグラフィックデータ187を決定する。次いでサーバ107の通信ユニット145は、1つ以上の要求メッセージが車両123によって最初に受信されたのと同様のやり方で、ネットワーク105を介して車両123の通信ユニット145にグラフィックデータ187を送信する。
次に図2を参照すると、いくつかの実施形態によるARシステム199を含むコンピュータシステム200の例を示すブロック図が描かれている。
いくつかの実施形態では、コンピュータシステム200は、図3に関連して後述する方法300の1つ以上のステップを行うようにプログラムされた専用コンピュータシステムを含みうる。
いくつかの実施形態では、コンピュータシステム200は、サーバ107の要素としうる。
いくつかの実施形態では、コンピュータシステム200は、車両123の車載コンピュータとしうる。
いくつかの実施形態では、コンピュータシステム200は、車両123の電子制御ユニット、ヘッドユニット、または何らかの他のプロセッサベースのコンピューティングデバイスを含みうる。
いくつかの例によれば、コンピュータシステム200は、ARシステム199、プロセッサ125、通信ユニット145、センサセット170、メモリ127、ARグローブ196、およびARヘッドセット198、の各要素のうちの1つ以上を含みうる。コンピュータシステム200の各構成要素はバス120によって通信可能に結合されている。
図示の実施形態において、プロセッサ125は信号線238を介してバス120に通信可能に結合されている。通信ユニット145は信号線246を介してバス120に通信可能に結合されている。センサセット170は信号線248を介してバス120に通信可能に結合されている。ARグローブ196は信号線241を介してバス120に通信可能に結合されている。ARヘッドセット198は信号線242を介してバス120に通信可能に結合されている。メモリ127は信号線244を介してバス120に通信可能に結合されている。
コンピュータシステム200の、プロセッサ125、通信ユニット145、センサセット170、ARグローブ196、ARヘッドセット198、およびメモリ127の各要素については、図1に関連して上述したので、ここではそれらの説明を繰り返さない。
メモリ127は、図1に関連して上述したデータのいずれかを格納しうる。メモリ127は、コンピュータシステム200がその機能を提供するのに必要な任意のデータを格納しうる。
いくつかの実施形態では、メモリ127は、コンテキストデータ299を格納する。コンテキストデータ299は、ARシステム199によって、環境データ186を分析し、環境データ186に基づいて現実世界に存在する地点をどのように識別し、記述するか特定するのに使用される情報を記述するディジタルデータを含む。例えば、コンテキストデータ299は、どのようにして、点灯されていない他の灯火中にある点灯した灯火を識別し、次いで点灯した灯火の色を判定するか、および、特定の色の点灯した灯火の存在が識別されたことに基づいて、車両123の運転者がどんな措置を取るべきかを記述するディジタルデータである。
コンテキストデータ299の一例では、環境データ186が、点灯した灯火が緑であることを指示するディジタルデータを含む場合には、コンテキストデータ299は、ARシステム199が、運転者は進むべきであると判定するのに必要な任意の情報を記述するディジタルデータを含む。これにより、ARシステム199は、ARヘッドセット198に、「進行」という単語が、車両123の運転者に見える関心地点(例えば、緑の灯火)の現実世界の位置と相関するARヘッドセット198の視覚位置でARオーバーレイにおいて表現されたARオーバーレイを表示させるように動作するグラフィックデータ187を生成する。
コンテキストデータ299の別の例では、環境データ186が、点灯した灯火が黄であることを指示するディジタルデータを含む場合には、コンテキストデータ299は、ARシステム199が、運転者が減速するべきであると判定するのに必要な任意の情報を記述するディジタルデータを含む。これにより、ARシステム199は、ARヘッドセット198に、「減速」という単語が、車両123の運転者に見える関心地点(例えば、黄色い灯火)の現実世界の位置と相関するARヘッドセット198の視覚位置でARオーバーレイにおいて表現されたARオーバーレイを表示させるように動作するグラフィックデータ187を生成する。
コンテキストデータ299の別の例では、環境データ186が、点灯した灯火が赤であり、交通信号または道路標識の要素であることを指示するディジタルデータを含む場合には、コンテキストデータ299は、ARシステム199が、運転者が停止すべきであると判定するのに必要な任意の情報を記述するディジタルデータを含む。これにより、ARシステム199は、ARヘッドセット198に、「停止」という単語が、車両123の運転者に見える関心地点(例えば、交通信号または道路標識の赤い灯火)の現実世界の位置と相関するARヘッドセット198の視覚位置でARオーバーレイにおいて表現されたARオーバーレイを表示させるように動作するグラフィックデータ187を生成する。
コンテキストデータ299の別の例では、環境データ186が、点灯した灯火が赤であり、車両の要素(例えばブレーキ灯)であることを指示するディジタルデータを含む場合には、コンテキストデータ299は、ARシステム199に、運転者がブレーキをかけるべきであることが分かるようにするディジタルデータを含み、よって、ARシステム199は、ARヘッドセット198に、「ブレーキ」という単語が、車両123の運転者に見える関心地点(例えば、車両の赤い灯火)の現実世界の位置と相関するARヘッドセット198の視覚位置でARオーバーレイにおいて表現されたARオーバーレイを表示させるように動作するグラフィックデータ187を生成する。コンテキストデータ299は、ブレーキ灯が滅灯する場合、運転者は減速するが停止しない場合もあるため、「ブレーキ」という単語と「停止」という単語によってブレーキ灯と停止灯との間で動作を区別していることに留意されたい。
図2に示す例示の実施形態では、ARシステム199は、通信モジュール202を含む。通信モジュール202は、ARシステム199とコンピュータシステム200の他の構成要素との間の通信を処理するためのルーチンを含むソフトウェアとすることができる。いくつかの実施形態では、通信モジュール202は、ARシステム199とコンピュータシステム200の他の構成要素との間の通信を処理するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。
通信モジュール202は、通信ユニット145を介して、動作環境100の1つ以上の要素との間でデータを送受信する。例えば、通信モジュール202は、通信ユニット145を介して、ライトデータ構造184、GPSデータ185、環境データ186、グラフィックデータ187、頭部位置データ188、およびコンテキストデータ299の各要素のうちの1つ以上を送受信する。通信モジュール202は、通信ユニット145を介して、図1に関連して上述した、または図3に関連して後述するデータまたはメッセージのいずれかを送受信しうる。
いくつかの実施形態では、通信モジュール202は、ARシステム199の構成要素からデータを受信し、そのデータをメモリ127(またはARグローブ196のバッファもしくはキャッシュ)に格納する。例えば、通信モジュール202は、(ネットワーク105を介して)通信ユニット145からメモリ127に関連して上述したデータのいずれかを受信し、このデータをメモリ127(またはARグローブ196のバッファもしくはキ
ャッシュ)に格納する。
いくつかの実施形態では、通信モジュール202は、ARシステム199の構成要素間の通信を処理しうる。
いくつかの実施形態では、通信モジュール202はコンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセス可能、実行可能とすることができる。通信モジュール202は、信号線222を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適合されうる。
次に図3を参照すると、いくつかの実施形態による色盲の運転者にARベースの支援を提供するための方法例300の流れ図が示されている。
方法300について本明細書に記載するステップのうちの1つ以上は、1台または複数のコンピュータシステム200によって実行されうる。
ステップ303で、ARシステムは、車両のGPSユニットを使用して車両の位置を特定する。位置はGPSデータによって記述される。いくつかの実施形態では、GPSユニットはDSRC準拠のGPSユニットであり、GPSデータは現実世界における車両の実際の位置に対して±1.5メートル以内の精度であるDSRC準拠のGPSデータである。
ステップ305で、ARシステムは、車両の外部センサを使用して環境データを生成する。環境データは車両の外部の環境を記述する。
ステップ307で、ARシステムは、GPSデータ、環境データおよびコンテキストデータのうちの1つ以上を分析して、運転環境が1つ以上の点灯した交通信号またはブレーキ灯を含むかどうかを識別し、点灯した交通信号またはブレーキ灯を含む場合、それらは、「1つ以上の関心地点」であるものとして指定される。いくつかの実施形態では、メモリは、地理的領域内の異なる交通信号の緯度および経度を記述するディジタルデータを含むライトデータ構造(例えば、テーブルや何らかの他のディジタルデータ構造)を格納する。ARシステムは、GPSデータをライトデータ構造に格納されたディジタルデータと比較して、車両の現在の地理的位置が交通信号の位置に対応するかどうかを識別する。いくつかの実施形態では、ARシステムは、ライトデータ構造に依拠してすべての種類の灯火を識別しない。例えば、第2の車両のブレーキ灯は、ライトデータ構造に格納されたディジタルデータを参照せずに、環境データのみに基づいてARシステムによって識別されうる。
ステップ308で、ARシステムは、1つ以上の関心地点についてのグラフィックデータを決定する。グラフィックデータは、1つ以上の関心地点に含まれる特定の色に関連して運転者の色盲を明確に緩和するように構成された1つ以上のARオーバーレイを記述する。
ステップ309で、ARシステムは、色盲の運転者を支援するようにグラフィック情報を含む1つ以上のグラフィックオーバーレイをARシステムに表示させる。
実験によれば、ARシステム199は、車両の運転環境における点灯した灯火の発生に対してリアルタイムまたはほぼリアルタイムで方法300を実行する。
次に図4A〜図4Eを参照すると、いくつかの実施形態によるARシステムによって提
供されるグラフィックオーバーレイの例が示されている。
図4Aを参照する。縦型の交通信号499は、赤い灯火415、黄色い灯火420、および緑の灯火425の3つの灯火を含む。図4Aにおいて、環境データ186は、緑の灯火425が点灯されていることを指示している。オプションで、縦型の交通信号499によって送信されるDSRCメッセージが、緑の灯火425が点灯されていることを指示する。コンテキストデータ299は、車両123の運転者がどんな措置を取るべきか、すなわち、運転者は走行を開始し、または走行を継続するべきであると記述する。したがって、ARシステム199は、ARヘッドセット198に、「進行」という単語、またはこの動作を記述するこの単語を綴るための何らかの他の変形(例えば、「GO」、「進め」など)を表現する、緑の灯火425に対応するARオーバーレイ401を表現させるグラフィックデータ187を生成する。
図4Bを参照する。環境データ186は、黄色い灯火420が点灯されていることを指示している。オプションで、縦型の交通信号499によって送信されるDSRCメッセージが、黄色い灯火420が点灯されていることを指示する。コンテキストデータ299は、車両123の運転者がどのような行動を取るべきか、すなわち、運転者は、赤い灯火の点灯に備えて減速(すなわち、速度を遅くする)すべきであると記述する。したがって、ARシステム199は、ARヘッドセット198に、「減速」という単語、またはこの動作を記述するこの単語を綴るための何らかの他の変形を表現する、黄色い灯火420に対応するARオーバーレイ402を表現させるグラフィックデータ187を生成する。
図4Cを参照する。環境データ186は、赤い灯火415が点灯されていることを指示している。オプションで、縦型の交通信号499によって送信されるDSRCメッセージが、赤い灯火415が点灯されていることを指示する。コンテキストデータ299は、車両123の運転者がどんな措置を取るべきか、すなわち、運転者は停止するべきであると記述する。したがって、ARシステム199は、ARヘッドセット198に、「停止」という単語、またはこの動作を記述するこの単語を綴るための何らかの他の変形を表現する、赤い灯火415に対応するARオーバーレイ403を表現させるグラフィックデータ187を生成する。
図4Dを参照する。横型の交通信号498は、赤い灯火415、黄色い灯火420、および緑の灯火425の3つの灯火を含む。図4Dにおいて、環境データ186は、赤い灯火415が点灯されていることを指示している。オプションで、横型の交通信号498によって送信されるDSRCメッセージが、赤い灯火415が点灯されていることを指示する。コンテキストデータ299は、車両123の運転者がどんな措置を取るべきか、すなわち、運転者は停止するべきであると記述する。したがって、ARシステム199は、ARヘッドセット198に、「停止」という単語、またはこの動作を記述するこの単語を綴るための何らかの他の変形を表現する、赤い灯火415に対応するARオーバーレイ403を表現させるグラフィックデータ187を生成する。
図4Eを参照する。第2の車両が自車の前方を走行している。第2の車両は、3D−HUDを通して見たときに自車の運転者に見える。第2の車両は、第1のブレーキ灯421および第2のブレーキ灯422を含む。図4Eにおいて、環境データ186は、第1のブレーキ灯421および第2のブレーキ灯422が点灯されていることを指示している。オプションで、第2の車両によって送信されるDSRCメッセージが、第1のブレーキ灯421および第2のブレーキ灯422が点灯されていることを指示する。コンテキストデータ299は、車両123の運転者がどんな措置を取るべきか、すなわち、自車のブレーキをかけ始めるべきであると記述する。したがって、ARシステム199は、3D−HUDに、各々が、「ブレーキ」という単語、またはこの動作を記述するこの単語を綴るための
何らかの他の変形を表現する、第1のブレーキ灯421に対応する第1のARオーバーレイ405と第2のブレーキ灯422に対応する第2のARオーバーレイ404とをそれぞれ表現させるグラフィックデータ187を生成する。
図5を参照すると、ARヘッドセット198が3D−HUDである実施形態におけるARヘッドセット198を示すブロック図が描かれている。
いくつかの実施形態では、3D−HUDは、プロジェクタ1001、可動スクリーン1002、スクリーン駆動ユニット1003、光学系(レンズ1004、1006、反射器1005などを含む)を含む。プロジェクタ1001は、ディジタル・ミラー・デバイス(DMD)・プロジェクタ、液晶プロジェクタなど、任意の種類のプロジェクタとすることができる。プロジェクタ1001は、可動スクリーン1002上にARオーバーレイ1008を投影する。ARオーバーレイ1008は、3つの次元を有し、車両の運転者が見たときに現実世界に存在するように視覚的に現れる仮想物体を含みうる。例えば、運転者がARオーバーレイ1008を見ると、ARオーバーレイ1008は、運転者には、現実世界の物体の画像ではなく、3つの次元を有し、運転者と同じ物理的実体として存在する、現実世界の物体であるように見える。
可動スクリーン1002は透明板を含み、よって、投影画像の光は可動スクリーン1002を透過して車両(例えば、車両123)のフロントガラス1007に投影される。フロントガラス1007に投影された画像は、フロントガラスに投影された物体ではなく、あたかも現実世界の3次元空間に存在する現実物体(1011a、1011bとして示す)であるかのように、運転者1010に知覚される。
いくつかの実施形態では、3D−HUDは、スクリーン1002上の投影位置を調整することによって、運転者1010に対する画像の方向(言い換えると、フロントガラスにおける画像位置)を制御することができる。さらに、スクリーン1002は、位置1003aと位置1003bとの間の範囲でスクリーン駆動ユニット1003によって移動可能である。スクリーン1002の位置を調整することにより、現実世界における運転者1010からの投影画像の深さ(距離)を変えることができる。一例では、スクリーン1002の可動範囲(位置1003aと位置1003bとの間の距離)は5mmであり、これは現実世界での5mから無限遠に対応する。3D−HUDの使用により、運転者1010は、投影画像が現実世界(3次元空間)に存在していると知覚することができる。例えば、画像が現実物体(歩行者、自動車など)と同じ3次元位置(または少なくとも実質的に同じ深さ)に投影された場合、運転者は投影画像を見るために目の焦点を調節する必要がなく、現実物体を実ながら投影画像を容易に把握することが可能になる。
図5に示す3D−HUDは例として提供されている。他の例も可能である。これらの例には、図5に示す3D−HUDと、程度の差はあるが同様の複雑さを有するヘッドアップディスプレイが含まれる。例えば、将来においては、可動スクリーン1002などの可動部品を必要としないヘッドアップディスプレイが出現することが予想される。例えば、移動しない静止スクリーンが配置される可能性もある。配置されるヘッドアップディスプレイが2次元のヘッドアップ・ディスプレイ・ユニットではない可能性もある。いくつかの実施形態では、図1〜4Eに関連して上述したARシステム199およびグラフィックデータ187は、そのような構成要素と共に動作するように設計される。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも良いことは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハ
ードウェアとともに説明される。しかし、ここでの説明は、データおよびコマンドを受信する任意のタイプのコンピュータシステムおよび任意の周辺機器について適用できる。
本明細書における「一実施形態」または「ある実施形態」等という用語は、その実施形態と関連づけて説明される特定の特徴・構造・性質が少なくとも本発明の一つの実施形態に含まれることを意味する。「一実施形態における」等という用語は本明細書内で複数用いられるが、これらは必ずしも同一の実施形態を示すものとは限らない。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気または光学式カード、USBキーを含む不揮発性フラッシュメモリ、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワークや公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以上の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
105 ネットワーク
107 サーバ
120 バス
123 車両
125 プロセッサ
127 メモリ
144 DSRC無線機
145 通信ユニット
150 DSRC準拠のGPSユニット
170 センサセット
184 ライトデータ構造
185 GPSデータ
186 環境データ
187 グラフィックデータ
188 頭部位置データ
196 ARグローブ
198 ARヘッドセット
199 ARシステム

Claims (12)

  1. 車両の周辺環境内にあり、前記車両の運転者によって視認可能な灯火の種類を識別する識別ステップと、
    前記識別した灯火の種類に基づいて、前記車両の運転者が行うべき動作を決定する決定ステップと、
    前記車両の運転者が行うべき動作を視覚的に表すARオーバーレイを生成し、前記車両の運転者が視認するARヘッドセットに出力する案内ステップと、
    を含む、案内方法。
  2. 前記灯火の種類は、交通信号、または、他の車両が有するブレーキ灯のいずれかである、
    請求項1に記載の案内方法。
  3. 前記案内ステップでは、赤色の交通信号を識別した場合に、停止すべき旨を表す前記ARオーバーレイを生成する、
    請求項1または2に記載の案内方法。
  4. 前記案内ステップでは、黄色の交通信号を識別した場合に、減速すべき旨を表す前記ARオーバーレイを生成する、
    請求項1から3のいずれかに記載の案内方法。
  5. 前記案内ステップでは、先行車両のブレーキ灯の点灯を識別した場合に、減速すべき旨を表す前記ARオーバーレイを生成する、
    請求項1から4のいずれかに記載の案内方法。
  6. 前記識別ステップでは、一の灯火が点灯していることを表す狭域通信メッセージを受信し、前記狭域通信メッセージに基づいて、前記灯火の種類を識別する、
    請求項1から5のいずれかに記載の案内方法。
  7. 前記識別ステップでは、第一の車両のブレーキ灯が点灯したことを表す狭域通信メッセージを、前記第一の車両から受信する、
    請求項6に記載の案内方法。
  8. 前記識別ステップでは、交通信号機の赤色または黄色の灯火が点灯していることを表す狭域通信メッセージを、前記交通信号機に対応する路側装置から受信する、
    請求項6または7のいずれかに記載の案内方法。
  9. 前記ARヘッドセットは、ARゴーグル、または、3次元ヘッドアップディスプレイのいずれかである、
    請求項1から8のいずれかに記載の案内方法。
  10. 前記ARオーバーレイは、前記車両の運転者が行うべき動作を記述した文字を含む、
    請求項1から9のいずれかに記載の案内方法。
  11. 請求項1から10のいずれかに記載の案内方法をコンピュータに実行させるためのプログラム。
  12. 車両の周辺環境内にあり、前記車両の運転者によって視認可能な灯火の種類を識別する識別手段と、
    前記識別した灯火の種類に基づいて、前記車両の運転者が行うべき動作を決定する決定手段と、
    前記車両の運転者が行うべき動作を視覚的に表すARオーバーレイを生成し、前記車両の運転者が視認するARヘッドセットに出力する案内手段と、
    を含む、案内装置。
JP2018119182A 2017-07-18 2018-06-22 色盲のための拡張現実車両支援 Active JP6729636B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/653,342 US10527849B2 (en) 2017-07-18 2017-07-18 Augmented reality vehicular assistance for color blindness
US15/653,342 2017-07-18

Publications (2)

Publication Number Publication Date
JP2019021306A true JP2019021306A (ja) 2019-02-07
JP6729636B2 JP6729636B2 (ja) 2020-07-22

Family

ID=64951560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018119182A Active JP6729636B2 (ja) 2017-07-18 2018-06-22 色盲のための拡張現実車両支援

Country Status (3)

Country Link
US (1) US10527849B2 (ja)
JP (1) JP6729636B2 (ja)
DE (1) DE102018117135A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210068761A (ko) * 2019-12-02 2021-06-10 가톨릭관동대학교산학협력단 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템 및 방법
WO2021177594A1 (ko) * 2020-03-06 2021-09-10 삼성전자 주식회사 Ar hud를 이용하여 운전자의 주행을 돕는 방법 및 장치

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009037835B4 (de) 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
WO2015043620A1 (en) * 2013-09-24 2015-04-02 Metaio Gmbh Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US10885676B2 (en) * 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
JP6839625B2 (ja) * 2017-07-27 2021-03-10 京セラ株式会社 飛行体、通信端末、及びプログラム
US10423844B2 (en) * 2017-09-27 2019-09-24 Toyota Jidosha Kabushiki Kaisha Personalized augmented reality vehicular assistance for color blindness condition
JP2019121320A (ja) * 2018-01-11 2019-07-22 株式会社小糸製作所 車車間通信システム、車両システム、車両用照明システム及び車両
WO2020142112A1 (en) * 2019-07-08 2020-07-09 Futurewei Technologies, Inc. System and method to identify points of interest from within autonomous vehicles
US20210122388A1 (en) * 2019-10-23 2021-04-29 Ford Global Technologies, Llc Vehicle display enhancement
CN111899540B (zh) * 2020-06-21 2022-09-06 肖咸锋 一种图型式道路交通指示装置
US20240042851A1 (en) * 2022-08-08 2024-02-08 GM Global Technology Operations LLC Head-up display with adaptive color palette

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008094377A (ja) * 2006-09-14 2008-04-24 Toyota Motor Corp 車両用表示装置
JP2009099060A (ja) * 2007-10-18 2009-05-07 Toyota Motor Corp 運転支援システム
JP2012121527A (ja) * 2010-12-10 2012-06-28 Toyota Motor Corp 画像表示装置
WO2016174882A1 (ja) * 2015-04-28 2016-11-03 住友電気工業株式会社 車載装置及び運転支援方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
US20110229023A1 (en) * 2002-11-01 2011-09-22 Tenebraex Corporation Technique for enabling color blind persons to distinguish between various colors
AU2003300514A1 (en) * 2003-12-01 2005-06-24 Volvo Technology Corporation Perceptual enhancement displays based on knowledge of head and/or eye and/or gaze position
EP2232458B1 (de) * 2007-12-13 2018-06-27 Continental Teves AG & Co. oHG Verfahren und vorrichtung zur unterstützung eines fahrzeugbedieners
US8831849B2 (en) 2012-02-13 2014-09-09 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for traffic signal recognition
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
US9384565B2 (en) 2013-11-06 2016-07-05 Software Ag Colorblind accessibility test for a screen display
DE102014000803B4 (de) * 2014-01-22 2019-05-09 Audi Ag Fahrzeug, Anzeigesystem und Verfahren zum Anzeigen einer verkehrsrelevanten Information
EP2933707B1 (en) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Head mounted display presentation adjustment
US9373046B2 (en) 2014-09-10 2016-06-21 Continental Automotive Systems, Inc. Detection system for color blind drivers
WO2016205143A1 (en) * 2015-06-14 2016-12-22 Sony Interactive Entertainment Inc. Gloves that include haptic feedback for use with hmd systems
US10049571B2 (en) * 2016-06-29 2018-08-14 Toyota Jidosha Kabushiki Kaisha Situational understanding of unknown roadway conditions that are ahead for a connected vehicle
US10281925B2 (en) * 2016-10-21 2019-05-07 Toyota Jidosha Kabushiki Kaisha Estimate of geographical position of a vehicle using wireless vehicle data
US9996980B1 (en) * 2016-11-18 2018-06-12 Toyota Jidosha Kabushiki Kaisha Augmented reality for providing vehicle functionality through virtual features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008094377A (ja) * 2006-09-14 2008-04-24 Toyota Motor Corp 車両用表示装置
JP2009099060A (ja) * 2007-10-18 2009-05-07 Toyota Motor Corp 運転支援システム
JP2012121527A (ja) * 2010-12-10 2012-06-28 Toyota Motor Corp 画像表示装置
WO2016174882A1 (ja) * 2015-04-28 2016-11-03 住友電気工業株式会社 車載装置及び運転支援方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210068761A (ko) * 2019-12-02 2021-06-10 가톨릭관동대학교산학협력단 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템 및 방법
KR102270011B1 (ko) * 2019-12-02 2021-06-28 가톨릭관동대학교산학협력단 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템 및 방법
WO2021177594A1 (ko) * 2020-03-06 2021-09-10 삼성전자 주식회사 Ar hud를 이용하여 운전자의 주행을 돕는 방법 및 장치

Also Published As

Publication number Publication date
JP6729636B2 (ja) 2020-07-22
DE102018117135A1 (de) 2019-01-24
US10527849B2 (en) 2020-01-07
US20190025584A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP6729636B2 (ja) 色盲のための拡張現実車両支援
US10423844B2 (en) Personalized augmented reality vehicular assistance for color blindness condition
JP7200832B2 (ja) デジタル行動ツインに基づくコネクティッド車両のための衝突回避
JP6844581B2 (ja) 拡張現実を用いた車線案内
JP6428876B2 (ja) 車載拡張現実システム向けの遮蔽調整システム
CN110892233B (zh) 用于传感器范围和视场的车载增强可视化的方法和装置
US10895465B2 (en) Optimizing a route selection for a highly autonomous vehicle
CN111161008B (zh) Ar/vr/mr乘车共享助理
JP7413811B2 (ja) Vehicle-to-Everything通信に基づく車両構成要素の修正
JP2019212297A (ja) 車線変更タイミングインジケータ
JP6798526B2 (ja) 運転者へのロードミラー内容の提供
US11148594B2 (en) Apparatus and method for around view monitoring using lidar
KR20190078664A (ko) 컨텐츠를 표시하기 위한 장치 및 방법
US11186289B2 (en) Concealment system for improved safe driving
US20230339492A1 (en) Generating and depicting a graphic of a phantom vehicle
WO2023239806A1 (en) Systems and methods for heads-up display
KR101373855B1 (ko) 번호인식기술을 활용한 과속감지 및 단속시스템
CN116403435A (zh) 为自主和辅助驾驶交通工具调配对等方辅助安全模型的***和方法
US11257363B2 (en) XR-based slot reservation system for connected vehicles traveling through intersections
CN114527735A (zh) 用于控制自动驾驶车辆的方法和装置、车辆及存储介质
WO2021076734A1 (en) Method for aligning camera and sensor data for augmented reality data visualization
Ostojic Framework For Integration of the Driving Simulator in Connected Vehicle Environment
JP2021535519A (ja) 拡張現実dsrcデータ可視化

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151