JP5829154B2 - 拡張現実システム - Google Patents

拡張現実システム Download PDF

Info

Publication number
JP5829154B2
JP5829154B2 JP2012055381A JP2012055381A JP5829154B2 JP 5829154 B2 JP5829154 B2 JP 5829154B2 JP 2012055381 A JP2012055381 A JP 2012055381A JP 2012055381 A JP2012055381 A JP 2012055381A JP 5829154 B2 JP5829154 B2 JP 5829154B2
Authority
JP
Japan
Prior art keywords
facility
augmented reality
traveling
camera
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012055381A
Other languages
English (en)
Other versions
JP2013190255A (ja
Inventor
瀧沢 昭彦
昭彦 瀧沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012055381A priority Critical patent/JP5829154B2/ja
Publication of JP2013190255A publication Critical patent/JP2013190255A/ja
Application granted granted Critical
Publication of JP5829154B2 publication Critical patent/JP5829154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、拡張現実の技術に関するものである。
拡張現実(AR:Augmented Reality)の技術としては、通信を介してサーバから取得した周辺の施設の情報を、カメラが撮影している実空間の周辺の風景を表す映像上の当該施設に対応する位置に重畳表示する通信端末が知られている(たとえば、特許文献1)。
特開2010-239568号公報
上述した拡張現実の技術によれば、ユーザが、道路上を進行しているときに、カメラの撮影画像上に情報が重畳表示される施設と、走行中との道路との位置関係を誤認してしまうことがある。
すなわち、たとえば、走行中の道路の左側にある、現在位置から少し離れている施設の位置が、当該道路が前方で右に大きくカーブしているために、現在位置から見て右側に位置する場合に、カメラの撮影画像上の当該施設が移り込む位置付近に当該施設の情報を表示すると、当該情報はカメラ撮影映像の右側に表示されることとなる。そして、この場合において、道路の見通しが悪いときには、ユーザは、当該施設の情報がカメラ撮影映像の右側に表示されていることより、当該施設が走行中の道路の右側に位置すると誤認してしまうことがある。
そこで、本発明は、施設の情報を、カメラが撮影している実空間の周辺の風景を表す映像上の施設に対応する位置に当該施設の情報を表示する仮想現実システムにおいて、施設と走行中の道路との位置関係のユーザの誤認を抑制することを課題とする。
前記課題達成のために、本発明は、自動車に搭載される拡張現実システムに、前記自動車前方の風景を撮影するカメラと、前記自動車の現在位置と現在の進行方向とを現在状態として算出する現在状態算出手段と、施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、地図データと前記現在状態とより求まる前記カメラの撮影範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像上に、当該撮影画像中の当該拡張現実情報が関係づけられた施設が写り込む位置に関連づけた形態で配置した拡張現実画像を表示する拡張現実画像表示手段と、前記現在状態と前記地図データとに基づいて、前記自動車が走行中の道路である走行中道路と、当該道路の起点に向かう方向と終点に向かう方向とのうちの前記自動車が進行している方向である走行方向とを検出する検出手段と、前記地図データに基づいて、前記走行中道路を前記走行方向に進む場合に、前記カメラの撮影範囲に含まれる各施設が、前記走行中道路の右側と左側のいずれに位置するかを判定する施設左右位置算出手段と設け、前記拡張現実画像表示手段において、前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報と、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報との区別をユーザが視認可能な形態で、前記カメラの撮影範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像上に配置するようにしたものである。
このような拡張現実システムによれば、各施設の情報を、走行中の道路の右側にある施設の情報と左側にある施設の情報との区別をユーザが視認可能な形態で、カメラの撮影画像上に表示するので、ユーザの施設と走行中の道路との左右の位置関係のユーザの誤認を抑制することができる。
ここで、このような拡張現実システムは、前記拡張現実画像表示手段において、前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像の右半分の領域内に配置し、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像の左半分の領域内に配置するように構成してもよい。
また、このような拡張現実システムは、前記拡張現実画像表示手段において、前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報と、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報とを、相互に異なる装飾を施した形態で、前記カメラで撮影した撮影映像上に配置するように構成してもよい。また、この場合には、前記拡張現実画像表示手段において、前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を示すテキストと、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を示すテキストとを、相互に異なる文字色で、前記カメラで撮影した撮影映像上に配置するようにしてもよい。
また、このような拡張現実システムは、前記拡張現実画像表示手段において、前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、右を表す記号もしくは文字を付した形態で、前記カメラで撮影した撮影映像上に配置し、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、左を表す記号もしくは文字を付した形態で、前記カメラで撮影した撮影映像上に配置するように構成してもよい。
このようにすることより、ユーザは、より容易にカメラで撮影した撮影映像上に表示された情報に対応する施設が走行中道路の左右いずれ側に位置するかを把握することができるようになる。
また、以上のような拡張現実システムでは、前記拡張現実画像表示手段において、前記拡張現実情報が表す情報を、当該拡張現実情報が関係づけられた施設が写り込む位置からの吹き出しの形態で、前記カメラで撮影した撮影映像上に配置するように構成してもよい。
このようにすることより、ユーザは、より直感的に、カメラで撮影した撮影映像上に表示された情報に対応する施設が実風景中のいずれが当該施設であるかを把握することができるようになる。
また、以上のような拡張現実システムに、目的地までのルートを設定するルート設定手段を設け、前記拡張現実画像表示手段において、前記拡張現実画像に、前記カメラで撮影した撮影映像上で前記ルートを表すルート図形を含めるようにしてもよい。
以上のように、本発明によれば、カメラが撮影している実空間の周辺の風景を表す映像上の施設に対応する位置に当該施設の情報を表示する仮想現実システムにおいて、施設と走行中の道路との位置関係のユーザの誤認を抑制することができる。
本発明の実施形態に係る車載システムの構成を示すブロック図である。 本発明の実施形態に係る車載システムの記憶装置の記憶内容を示す図である。 本発明の実施形態に係るARタグ表示処理を示すフローチャートである。 本発明の実施形態に係るARタグ表示処理の処理例を示す図である。 本発明の実施形態に係るARタグ表示処理の処理例を示す図である。 本発明の実施形態に係るARタグ表示処理の処理例を示す図である。 本発明の実施形態に係るARタグ表示処理の他の処理例を示す図である。
以下、本発明の実施形態について説明する。
図1aに本実施形態に係る車載システムの構成を示す。
車載システムは、自動車に搭載されるシステムであり、図示するように、車載システム1は、表示装置101、操作部102、自動車の前方の風景を撮影するカメラ103、GPS受信機104、自動車の車速や角速度を計測する車両状態センサ105、制御部106、ナビゲーション部107、AR表示部108、記憶装置109、外部装置を無線または有線で接続するための外部インタフェース110とを備えている。
ただし、車載システム1は、ハードウエア的には、マイクロプロセッサや、メモリや、その他の周辺デバイスを有する一般的な構成を備えたコンピュータを用いて構成してよく、この場合、以上に示した車載システム1の各部、または、その一部は、マイクロプロセッサが予め用意されたプログラムを実行することにより具現化するプロセスとして実現されるものであって良い。また、この場合、このようなプログラムは、記録媒体や適当な通信路を介して、車載システム1に提供されるものであって良い。
ここで、このような車載システム1のカメラ103は、図1bに示すように、自動車前部に搭載され、自動車前方の風景を撮影する。
また、このような車載システム1には、外部インタフェース110を用いてスマートフォン2などを接続することができる。
次に、車載システム1の記憶装置109の記憶内容について説明する。
図2に示すように、記憶装置109には、地図データ、ARデータベースが格納される。
ここで、地図データは、道路地図を表すデータであり予め記憶装置109に記憶される。
また、ARデータベースは、施設の情報を表すARデータを蓄積したものであり、各ARデータは、ARデータが情報を表す施設の種別を示す情報種別、ARデータが情報を表す施設の位置を表す座標、拡張現実のためにカメラ103が撮影した映像上に表すARタグを表すARタグデータ、ARデータが情報を表す施設についての詳細な情報である詳細情報とを有する。ここで、本実施形態では、ARタグとしてARデータが情報を表す施設の施設名を用いる。ただし、ARタグとしては、施設の種別を示す図形であるアイコンなどを用いるようにすることもできる。
ここで、ARデータベースの各ARデータは、予め記憶装置109に記憶されたものであってもよいが、AR表示部108が、車載システム1に接続されたスマートフォン2を介して、移動体通信網を含むWAN3上のARサーバ4より取得して記憶装置109に格納したものであってもよい。
さて、このような構成において、車載システム1のナビゲーション部107は、記憶装置109に記録されている地図データを用いて、GPS受信機104や車両状態センサ105を利用した、自車の現在位置や自車の現在の前方方向の算出や、ユーザからの目的地の設定の受け付けや、設定された目的地までのルートの探索を行う。また、ナビゲーション部107は、現在位置周辺の地図上に現在位置を表すマークや目的地を表すマークや目的地までのルートを表したナビゲーション画像の生成などを行う。
一方、AR表示部108は、AR画像の生成を行う。AR画像の生成動作の詳細については後述する。
そして、制御部106は、操作部102を用いたユーザのモード選択操作に応じて、ナビゲーションモード、ARモードのいずれかを選択的に設定する。そして、ナビゲーションモードの設定期間中は、表示装置101に上述したナビゲーション画像を表示し、ARモードの設定期間中は、表示装置101に上述したAR画像を表示する。
以下、上述のようにAR表示部108が行うAR画像の生成動作について説明する。
図3に、AR表示部108が行うAR画像生成処理の手順を示す。
図示するように、この処理では、まず、カメラ103が撮影した映像を仮AR画像として取得する(ステップ302)。
そして、次に、ナビゲーション部107が上述のように算出している現在位置と現在の前方方向とよりカメラ103の実空間上の撮影範囲を算出する(ステップ304)。そして、算出したカメラ103の撮影範囲内の座標が登録されているARデータをARデータベースから抽出する(ステップ306)。
また、地図データを参照して、ナビゲーション部107が上述のように算出している現在位置と現在の前方方向より、現在自動車が走行している道路と、自車が進行している当該道路の走行方向(上り方向:道路の終点に向かう方向/下り方向:道路の起点に向かう方向)を識別する(ステップ308)。
そして、ステップ306で抽出した各ARデータについて(ステップ310、318、320)、ステップ312-316の処理を行う。
すなわち、抽出したARデータに登録されている座標が、ステップ308で識別した走行中の道路の、走行方向に見て左側の座標であるかどうかを調べる(ステップ312)。ARデータに登録されている座標が、走行中の道路の走行方向に見て左側の座標であるかどうかは、より具体的には、たとえば、次のようにして求めることができる。すなわち、走行中の道路上の当該座標に最寄りの地点を求める。そして、求めた地点における識別した道路の走行方向(上り方向/下り方向)の道路の方向を観察方向として、求めた地点から観察方向を向いた状態で、当該座標が求めた地点より左側にある場合に、当該座標が、走行中の道路の走行方向に見て左側の座標であると判定し、他の場合に、当該座標が、走行中の道路の走行方向に見て右側の座標であると判定する。
そして、ステップ312で、抽出したARデータに登録されている座標が、走行中の道路の走行方向に見て左側の座標であると判定された場合は、抽出したARデータに対応する施設は走行中道路の左側に位置する施設であると見なし、抽出したARデータのARタグデータが表すARタグを、仮AR画像の左半分の領域内の位置に、ナビゲーション部107が上述のように算出している現在位置と現在の前方方向とより算出される当該ARタグのARタグデータに登録されている座標が写り込む、カメラ103の撮影映像中の位置からの吹き出しの形態で描画する(ステップ314)。
ここで、各ARタグは、できるだけ他のARタグと重ならないように、仮AR画像の左半分の領域内の、当該ARタグのARタグデータの座標が写り込むカメラ103の撮影映像中の位置のできるだけ近くの位置に配置する。
一方、ステップ312で、抽出したARデータに登録されている座標が、走行中の道路の走行方向に見て左側の座標であると判定されなかった場合、すなわち、抽出したARデータに登録されている座標が、走行中の道路の走行方向に見て右側の座標である場合には、抽出したARデータに対応する施設は走行中道路の右側に位置する施設であると見なし、抽出したARデータのARタグデータが表すARタグを、仮AR画像の右半分の領域内の位置に、ナビゲーション部107が上述のように算出している現在位置と現在の前方方向とより算出される当該ARタグのARタグデータに登録されている座標が写り込む、カメラ103の撮影映像中の位置からの吹き出しの形態で描画する(ステップ316)。
ここで、各ARタグは、できるだけ他のARタグと重ならないように、仮AR画像の右半分の領域内の、当該ARタグのARタグデータの座標が写り込むカメラ103の撮影映像中の位置のできるだけ近くの位置に配置する。
この結果、図4aに示すように、マーク401が自動車の現在位置と現在の進行方向とを表すものとして、自動車が現在走行している道路402の左側に「Aビル」、「Bビル」が位置し、道路402の右側に「Cビル」が位置する場合、図4bに示すように、仮AR画像は、カメラ103が撮影した画像410上の左半分の領域内に、道路402の左側に位置する「Aビル」のARタグ421と、「Bビル」のARタグ422が配置され、カメラ103が撮影した画像410上の右半分の領域内に、道路402の左側に位置する「Cビル」のARタグ423が配置されたものとなる。ここで、いずれのARタグ421-423も、カメラ103が撮影した画像410中に当該ARタグ対応する施設が写り込んでいる位置からの吹き出しの形態で描画される。
さて、図3に戻り、以上のようにして、ステップ306で抽出した各ARデータについてステップ312-316の処理を行ったならば(ステップ318)、ナビゲーション部107によって目的地までのルートが設定されているかどうかを調べ(ステップ322)、設定されていなければ仮AR画像を、そのままAR画像として出力し(ステップ326)、ステップ302からの処理に踊る。
一方、目的地までのルートが設定されている場合には(ステップ322)、各AR画像に含まれるカメラ103が撮影した映像上で当該ルートを案内するルート案内図形を仮AR画像上に描画した上で、(ステップ324)、仮AR画像をAR画像として出力し(ステップ326)、ステップ302からの処理に踊る。
ここで、図4bの仮AR画像中の矢印図形431が、ステップ324で描画されるルート案内図形であり、当該ルート案内図形は、設定されたルートに従った自動車の進行方向を表している。
以上、AR表示部108が行うAR画像生成処理について説明した。
このようなAR画像生成処理によれば、前方風景からだけでは、走行中の道路の左右どちら側にあるか判別し難い施設であっても、そのARタグが、施設と走行中の道路との左右の位置関係に従って、AR画像の左側/右側に表示されることになるので、ユーザはARタグの左右の配置より、当該施設と走行中の道路との左右の位置関係を容易に認識することができる。また、ARタグの吹き出し元より、当該ARタグが情報を表す実風景中の施設も容易に認識することができる。
すなわち、たとえば、自動車が現在走行している道路が前方でカーブしているために前方風景からだけでは、遠くの施設が走行中の道路の左右どちら側にあるか判別し難い場合において、図5a1に示すように、走行中の道路402の右側に位置しておりカメラ103が撮影した画像410で右側に写り込むこととなる施設「Yビル」と、走行中の道路402の左側に位置しているにもかかわらずに、カメラ103が撮影した画像410では右側に写り込むこととなる施設「Xマンション」とが存在する場合を考える。
この場合、走行中道路402の右側にある施設「Yビル」については、図5b1に示すように、施設「Yビル」と道路402との左右の位置関係に従って、カメラ103が撮影した画像410上の右半分の領域内に、「Yビル」のARタグ501が、画像410の右側に含まれる「Yビル」の像の位置からの吹き出しの形態で、「Yビル」の像近傍の位置に配置される。
一方、走行中道路402の左側にある施設「Xマンション」については、施設「Xマンション」と道路402との左右の位置関係に従って、カメラ103が撮影した画像410上の左半分の領域内に、「Xマンション」のARタグ502が、画像410の右側に含まれる「Xマンション」の像の位置からの吹き出しの形態で配置されることとなる。
よって、「Yビル」のARタグ501よりカメラ103が撮影した画像410で右側に写り込んでいる「Yビル」が走行中の道路402の右側に位置していることと、当該「Yビル」の実風景上の位置とを直接的に認識することができる。
また、ユーザは、「Xマンション」のARタグ502がAR画像の左側に配置されていることより、カメラ103が撮影した画像410では右側に写り込んでいる「Xマンション」が、実際には走行中の道路402の左側に位置していることを容易に認識することができると共に、ARタグ502の吹き出し元より、「Xマンション」実風景上の位置を容易に認識することができる。
次に、自動車が現在走行している道路が前方でカーブしているために前方風景からだけでは、遠くの施設が走行中の道路の左右どちら側にあるか判別し難い場合において、図5a2に示すように、走行中の道路402の右側に位置しておりカメラ103が撮影した画像410で右側に写り込むこととなる施設「Zビル」と、走行中の道路402の左側に位置しているにもかかわらずに、カメラ103が撮影した画像410では右側に写り込むこととなる施設「XXビル」が存在する場合を考える。
この場合、施設「Zビル」については、図5b2に示すように、施設「Zビル」と道路402との左右の位置関係に従って、カメラ103が撮影した画像410上の右半分の領域内に、「Zビル」のARタグ511が、画像410の右側に含まれる「Zビル」の像の位置からの吹き出しの形態で、「Zビル」の像近傍の位置に配置される。
一方、図5b2に示すように、施設「XXビル」については、施設「XXビル」と道路402との左右の位置関係に従って、カメラ103が撮影した画像410上の左半分の領域内に、「XXビル」のARタグ512が、画像410の右側に含まれる「XXビル」の像の位置からの吹き出しの形態で配置されることとなる。
よって、ユーザは、「Zビル」のARタグ511よりカメラ103が撮影した画像410で右側に写り込んでいる「Zビル」が走行中の道路402の右側に位置していることと、当該「Zビル」の実風景上の位置とを直接的に認識することができる。
また、ユーザは、「XXビル」のARタグ512がAR画像の左側に配置されていることより、施設「XXビル」が実際には走行中の道路402の左側に位置していることを容易に認識することができると共に、ARタグ512の吹き出し元より、「XXビル」実風景上の位置を容易に認識することができる。
また、たとえば、自動車が現在走行している前方に高架が存在しているために前方風景からだけでは、遠くの施設が走行中の道路の左右どちら側にあるか判別し難い場合において、図6a1に示すように、道路402が前方でカーブしているために、走行中の道路402の右側に位置しているにもかかわらずに、カメラ103が撮影した画像410では正面に写り込むこととなる施設「Rビル」が存在する場合、図6b1に示すように、当該施設「Rビル」と道路402との左右の位置関係に従って、カメラ103が撮影した画像410上の右半分の領域内に、「Rビル」のARタグ601が、画像410の中央部分に含まれる「Rビル」の像の位置からの吹き出しの形態で配置されることとなる。
よって、ユーザは、「Rビル」のARタグ601のAR画像の右側に配置されていることより、「Rビル」が走行中の道路402の右側に位置していることを、ARタグ601の吹き出し元より、「Rビル」実風景上の位置を容易に認識することができる。
また、同様に、自動車が現在走行している前方に高架が存在しているために前方風景からだけでは、遠くの施設が走行中の道路の左右どちら側にあるか判別し難い場合において、図6a2に示すように、道路402が前方でカーブしているために、走行中の道路402の左側に位置しているにもかかわらずに、カメラ103が撮影した画像410では正面から右側に写り込むこととなる施設「Qビル」が存在する場合、図6b2に示すように、当該施設「Qビル」と道路402との左右の位置関係に従って、カメラ103が撮影した画像410上の左半分の領域内に、「Qビル」のARタグ602が、画像410の中央から右部分にかけて含まれる「Qビル」の像の位置からの吹き出しの形態で配置されることとなる。
よって、ユーザは、「Qビル」のARタグ602のAR画像の左側に配置されていることより、「Qビル」が走行中の道路402の左側に位置していることを、ARタグ602の吹き出し元より、「Qビル」実風景上の位置を容易に認識することができる。
以上、本発明の実施形態について説明した。
ところで、以上の実施形態では、ARタグのAR画像の左右の配置位置によって、当該ARタグが情報を表す施設と、走行中の道路との左右の位置関係を示すようにしたが、ARタグが情報を表す施設と走行中の道路との左右の位置関係は、ユーザがARタグとの区別を視認可能な他の形態によって表すようにしてもよい。
すなわち、たとえば、ARタグを、当該ARタグが情報を表す移設が、走行中道路の左右のいずれに位置するかを表す文字や記号を付して表示することにより、各ARタグが情報を表す施設と、走行中の道路との左右の位置関係を示すようにしてもよい。すなわち、この場合には、たとえば、図7aに示すように、走行中の道路402の左側に施設「XXビル」が存在し、走行中の道路402の右側に施設「Zビル」が存在する場合には、図7b1に示すように、走行中道路402の左側に位置する「XXビル」のARタグ701を左を表す「L」の文字を付して表示し、走行中道路402の右側に位置する「Zビル」のARタグ702を右を表す「R」の文字を付して表示するようにする。
または、ARタグが情報を表す施設が、走行中道路の左右のいずれに位置するかに応じて、ARタグを異なる修飾を施して表示することにより、各ARタグが情報を表す施設と、走行中の道路との左右の位置関係を示すようにしてもよい。すなわち、この場合には、たとえば、図7aに示すように、走行中の道路402の左側に施設「XXビル」が存在し、走行中の道路402の右側に施設「Zビル」が存在する場合には、図7b2に示すように、走行中道路402の左側に位置する「XXビル」のARタグ711と、走行中道路402の右側に位置する「Zビル」のARタグ712とを異なる修飾を施して表示するようにする。なお、図7b2では、ARタグが情報を表す移設が、走行中道路402の左右のいずれに位置するかに応じて、ARタグの文字色と背景色とを異ならせた場合を示している。
なお、以上の実施形態においてAR表示部108は、表示されたAR画像上でARタグのユーザの選択が発生したならば、選択されたARタグのARデータに登録されている詳細情報を表示する処理なども行うようにしてよい。
1…車載システム、2…スマートフォン、3…WAN、4…ARサーバ、101…表示装置、102…操作部、103…カメラ、104…GPS受信機、105…車両状態センサ、106…制御部、107…ナビゲーション部、108…AR表示部、109…記憶装置、110…外部インタフェース。

Claims (4)

  1. 自動車に搭載される拡張現実システムであって、
    前記自動車前方の風景を撮影するカメラと、
    前記自動車の現在位置と現在の進行方向とを現在状態として算出する現在状態算出手段と、
    施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、地図データと前記現在状態とより求まる前記カメラの撮影範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像上に、当該撮影画像中の当該拡張現実情報が関係づけられた施設が写り込む位置に関連づけた形態で配置した拡張現実画像を表示する拡張現実画像表示手段と、
    前記現在状態と前記地図データとに基づいて、前記自動車が走行中の道路である走行中道路と、当該道路の起点に向かう方向と終点に向かう方向とのうちの前記自動車が進行している方向である走行方向とを検出する検出手段と、
    前記地図データに基づいて、前記走行中道路を前記走行方向に進む場合に、前記カメラの撮影範囲に含まれる各施設が、前記走行中道路の右側と左側のいずれに位置するかを判定する施設左右位置算出手段とを有し、
    前記拡張現実画像表示手段は、
    前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像の右半分の領域内に、当該拡張現実情報が関係づけられた施設が写り込む位置からの吹き出しの形態で配置し、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像の左半分の領域内に、当該拡張現実情報が関係づけられた施設が写り込む位置からの吹き出しの形態で配置することを特徴とする拡張現実システム。
  2. 請求項1記載の拡張現実システムであって、
    目的地までのルートを設定するルート設定手段を有し、
    前記拡張現実画像表示手段は、前記拡張現実画像に、前記カメラで撮影した撮影映像上で前記ルートを表すルート図形を含めることを特徴とする拡張現実システム。
  3. カメラを備えた自動車に搭載されたコンピュータによって読み取られ実行されるコンピュータプログラムであって、
    当該コンピュータプログラムは、前記コンピュータを、
    前記自動車の現在位置と現在の進行方向とを現在状態として算出する現在状態算出手段と、
    施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、地図データと前記現在状態とより求まる前記カメラの撮影範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像上に、当該撮影画像中の当該拡張現実情報が関係づけられた施設が写り込む位置に関連づけた形態で配置した拡張現実画像を表示する拡張現実画像表示手段と、
    前記現在状態と前記地図データとに基づいて、前記自動車が走行中の道路である走行中道路と、当該道路の起点に向かう方向と終点に向かう方向とのうちの前記自動車が進行している方向である走行方向とを検出する検出手段と、
    前記地図データに基づいて、前記走行中道路を前記走行方向に進む場合に、前記カメラの撮影範囲に含まれる各施設が、前記走行中道路の右側と左側のいずれに位置するかを判定する施設左右位置算出手段として機能させ、
    前記拡張現実画像表示手段は、
    前記施設左右位置算出手段が前記走行中道路の右側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像の右半分の領域内に、当該拡張現実情報が関係づけられた施設が写り込む位置からの吹き出しの形態で配置し、前記施設左右位置算出手段が前記走行中道路の左側に位置すると判定した施設に関係づけられた拡張現実情報が表す情報を、前記カメラで撮影した撮影映像の左半分の領域内に、当該拡張現実情報が関係づけられた施設が写り込む位置からの吹き出しの形態で配置することを特徴とするコンピュータプログラム。
  4. 請求項3記載のコンピュータプログラムであって、
    当該コンピュータプログラムは、前記コンピュータを、さらに、目的地までのルートを設定するルート設定手段として機能させ、
    前記拡張現実画像表示手段は、前記拡張現実画像に、前記カメラで撮影した撮影映像上で前記ルートを表すルート図形を含めることを特徴とするコンピュータプログラム
JP2012055381A 2012-03-13 2012-03-13 拡張現実システム Active JP5829154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012055381A JP5829154B2 (ja) 2012-03-13 2012-03-13 拡張現実システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055381A JP5829154B2 (ja) 2012-03-13 2012-03-13 拡張現実システム

Publications (2)

Publication Number Publication Date
JP2013190255A JP2013190255A (ja) 2013-09-26
JP5829154B2 true JP5829154B2 (ja) 2015-12-09

Family

ID=49390687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055381A Active JP5829154B2 (ja) 2012-03-13 2012-03-13 拡張現実システム

Country Status (1)

Country Link
JP (1) JP5829154B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6107590B2 (ja) * 2013-10-16 2017-04-05 株式会社デンソー ヘッドアップディスプレイ装置
JPWO2021053843A1 (ja) * 2019-09-18 2021-03-25
CN112212865B (zh) * 2020-09-23 2023-07-25 北京市商汤科技开发有限公司 Ar场景下的引导方法、装置、计算机设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4551247B2 (ja) * 2005-03-04 2010-09-22 株式会社シーズ・ラボ 沿線目標物表示装置および沿線目標物表示プログラム
JP2007256048A (ja) * 2006-03-23 2007-10-04 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP5320133B2 (ja) * 2009-03-31 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ 情報提示システム、情報提示サーバ、通信端末、および情報提示方法
JP5665077B2 (ja) * 2010-08-10 2015-02-04 アルパイン株式会社 車載ナビゲーション装置

Also Published As

Publication number Publication date
JP2013190255A (ja) 2013-09-26

Similar Documents

Publication Publication Date Title
US11698268B2 (en) Street-level guidance via route path
JP5921320B2 (ja) 表示システム、携帯装置、車載装置、及び、プログラム
JP2009020089A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP5955662B2 (ja) 拡張現実システム
US12033244B2 (en) Map driven augmented reality
EP2988097B1 (en) Driving support system, method, and program
JP2009236843A (ja) ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
JP6345381B2 (ja) 拡張現実システム
CN110672110A (zh) 车辆的导航方法、装置、设备及计算机可读存储介质
Lin et al. Design and implement augmented reality for supporting driving visual guidance
JP5883723B2 (ja) 3次元画像表示システム
JP5829154B2 (ja) 拡張現実システム
JP4800252B2 (ja) 車載装置及び交通情報提示方法
JP5774524B2 (ja) 拡張現実システム
KR20130112191A (ko) 경로 안내 인터페이스를 구비한 ar 내비게이션 장치 및 경로 안내 제공 방법
US11656089B2 (en) Map driven augmented reality
JP5680481B2 (ja) 車載システム
JP5702476B2 (ja) 表示装置、制御方法、プログラム、記憶媒体
JP2009026164A (ja) 車線認識装置及びナビゲーション装置
WO2022039011A1 (ja) コンピュータシステムによるナビゲーション
JP5196426B2 (ja) ナビゲーション装置
JP2011179920A (ja) 表示制御装置、表示制御方法、プログラム、および記録媒体
JP6444514B2 (ja) 表示制御装置、表示装置および経路案内方法
JP2012007983A (ja) 運転支援装置
JP2019105581A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151021

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5829154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150