JP2011529569A - ナビゲーションデータを三次元で表示するコンピュータ装置および方法 - Google Patents
ナビゲーションデータを三次元で表示するコンピュータ装置および方法 Download PDFInfo
- Publication number
- JP2011529569A JP2011529569A JP2011520331A JP2011520331A JP2011529569A JP 2011529569 A JP2011529569 A JP 2011529569A JP 2011520331 A JP2011520331 A JP 2011520331A JP 2011520331 A JP2011520331 A JP 2011520331A JP 2011529569 A JP2011529569 A JP 2011529569A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- navigation
- navigation information
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 40
- 230000009471 action Effects 0.000 claims abstract description 72
- 238000004590 computer program Methods 0.000 claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 11
- 238000013500 data storage Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000287107 Passer Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Navigation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Instructional Devices (AREA)
Abstract
本発明は、プロセッサ(11)および当該プロセッサ(11)へアクセス可能なメモリ(12、13、14、15)を備えるコンピュータ装置に関する。メモリは、前記プロセッサ(11)に、(a)ナビゲーション情報を取得させる、(b)そのナビゲーション情報に対応する画像を取得させる、(c)その画像およびそのナビゲーション情報の少なくとも一部を表示させるように構成されたデータおよび命令を備えるコンピュータプログラムを備え、そのナビゲーション情報の少なくとも一部はその画像に重ね合わせられる。プロセッサ(11)は、(b1)その画像に対応する深さ情報を取得し、その深さ情報を使用してアクション(c)を実行することをさらに許可される。
Description
本発明は、ナビゲーション情報を表示するコンピュータ装置、方法、コンピュータプログラム、およびそのようなコンピュータプログラムを有するデータ記憶媒体に関する。
ナビゲーションシステムは過去20年でより大衆的となっている。長年に渡って、これらのシステムは、道路のセンターラインの単純な幾何学的表示から、ユーザをナビゲートするのを補助するために現実世界の現実的な画像/写真の提供へと進化してきた。
米国のフィリップス・コーポレーション(U.S. Philips Corp)による米国特許第5115398号明細書は、画像ピックアップ部、例えば車載のビデオカメラ、により生成されるローカル車両環境の前方画像を生成する工程を備えるナビゲーションデータを表示する方法およびシステムを記述している。撮像された画像は表示部に表示される。移動方向を示すナビゲーションデータから形成される指示信号がその表示された画像に重ね合わされる。組み合わせモジュールが、表示部に表示される組み合わせ信号を形成するようにその指示信号およびその環境の画像を組み合わせるために提供される。
トムトム・インターナショナル・べステーロン・フエンノートシャップ(TomTom International B. V.)による国際公開第2006132522号もナビゲーション命令をカメラ画像に重ね合わせることを記述している。重ね合わされたナビゲーション命令の所在地とカメラ画像とを合致させるために、パターン認識技術が使用される。ナビゲーション情報を重ね合わせる代替方法が欧州特許出願公開第1751499号明細書に記述されている。
米国特許第6285317号明細書は、ローカル・シーン(local scene)の上にオーバーレイとして表示される方向情報を生成するように構成される移動車両のためのナビゲーションシステムを記述している。ローカル・シーンの情報プロバイダ、例えば移動車両に車載した使用に適応したビデオカメラによって、ローカル・シーンが提供されてもよい。ビデオカメラを調整することによって、すなわち、カメラの視覚を決定し、ある倍率によって所望の表示画面を有する投影スクリーン上に投影される全てのポイントを縮尺することによって、ローカル・シーンに方向情報がマッピングされる。また、自動車に取り付けられたカメラの地面に対する高さが測定され、それに応じて三次元ナビゲーションソフトウェアにおける視点の高さが変更される。この手順はかなり煩わしいことが理解されるだろう。また、このナビゲーションシステムは、カメラによって撮像されたローカル・シーン中に含まれる、他の車両等の、オブジェクトを処理することはできない。ナビゲーション命令を画像に重ね合わせるための先行技術の解決策はしばしばかなり正確ではない。ナビゲーション命令は、しばしばマルチに解釈可能であり、ユーザにとって分かりにくい。また、先行技術の解決策は、比較的多くのコンピュータ処理能力を必要とする。
本発明の目的は、上で認識された問題のうち少なくとも1つを取り除く方法およびコンピュータ装置を提供することである。
ある側面によれば、プロセッサおよび前記プロセッサへアクセス可能なメモリを備えるコンピュータ装置が提供され、前記メモリは、前記プロセッサに、(a)ナビゲーション情報を取得させる、(b)前記ナビゲーション情報に対応する画像を取得させる、(c)前記画像、および前記ナビゲーション情報の少なくとも一部、を表示させる、ように構成されたデータおよび命令を備えるコンピュータプログラムを備え、前記ナビゲーション情報の少なくとも一部は前記画像に重ね合わせられ、前記プロセッサは、(b1)前記画像に対応する深さ情報を取得し、前記深さ情報を使用してアクション(c)を実行することをさらに許可されることを特徴とする。
ある側面によれば、ナビゲーション情報を表示する方法が提供され、前記方法は、(a)ナビゲーション情報を取得する工程と、(b)前記ナビゲーション情報に対応する画像を取得する工程と、(c)前記画像、および前記ナビゲーション情報の少なくとも一部を表示する工程と、を備え、前記ナビゲーション情報の少なくとも一部は、前記画像に重ね合わされ、前記方法は、(b1)前記画像に対応する深さ情報を取得して、前記深さ情報を使用してアクション(c)を実行する工程をさらに備えることを特徴とする。
これらの側面は、ナビゲーション上尾法および画像を、総合的且つユーザフレンドリーな方法で提供する簡便且つ正確な方法を提供する。
ある側面によれば、前記コンピュータ装置に上記に従った方法を実行させるのを許可する、コンピュータ装置によってロードされ得るデータおよび命令を備えるコンピュータプログラムが提供される。
ある側面によれば、そのようなプログラムを備えるデータ記憶媒体が提供される。
実施形態は、高性能且つコンピュータの時間を消費するパターン認識技術を使用する必要なしに、ナビゲーション情報を画像に重ね合わせるための簡便に適用可能な解決策を提供する。より良く解釈可能な組み合わせ画像を提供するために、他の車両、歩行者、および同様のもの等の、画像中に含まれる一時的なオブジェクトを考慮に入れることを提供する。
本発明は、本発明の実施形態を示すことのみが意図されるが、その範囲を限定するものではない、いくつかの図面を参照して詳細に説明されるだろう。本発明の範囲は、付属の請求項およびその技術的均等物によって定義される。
以下で提供される実施形態は、ユーザフレンドリーなビューを与えるためにナビゲーション装置において例えば画像およびナビゲーションデータを組み合わせる方法を記述する。システムは、ナビゲーション命令をユーザに提供する、より直観的な方法を提供する。実施形態は、例えばナビゲーション装置の周囲、および、左折を示す矢印等の重ね合わされたナビゲーション命令を示す、より良い画像統合を提供するために三次元情報(深さ情報)を使用する。深さ情報は、ナビゲーション情報を画像に重ね合わせる時に、車両または建物等の画像におけるオブジェクトを決定し、これらのオブジェクトを考慮するために使用され得る。深さ情報を使用することによって、二次元情報を使用するのみである、複雑なパターン認識技術を適用する必要がなくなる。この方法は、よりユーザフレンドリーな結果を取得する一方で、比較的重い計算が抑えられる。このことを達成するために、ある実施形態によれば、ナビゲーション情報は、ナビゲーション情報の外観を変更することが可能な方法で画像上に描かれ、その結果、視認可能なオブジェクトの後ろにあるべき部分は、視認可能なオブジェクトの前にある部分とは異なる方法で描かれる。
さらにその上、道路回廊(例えば障害物、信号、交通標識等)に配置されるオブジェクトの視認性を向上させることを許可する方法で、画像は予め処理されてもよい。深さ情報は、ナビゲーション装置に取り付けられた、または、(例えば車両に取り付けられた)ナビゲーション装置によってアクセス可能な、三次元カメラを使用して提供されてもよく、または、深さ情報は、ナビゲーション装置または車両の現在の位置および方向についての情報を使用して、外部ソース(例えば画像データベース)からダウンロードされてもよい。ここで記述される実施形態は、ナビゲーション装置として機能するように構成されたコンピュータ装置によって全て実行されてもよい。
コンピュータ装置
図1では、実施形態を実行するために適した、可能性があるコンピュータ装置10の外観が与えられる。コンピュータ装置10は算術演算を実行するためのプロセッサ11を備える。
図1では、実施形態を実行するために適した、可能性があるコンピュータ装置10の外観が与えられる。コンピュータ装置10は算術演算を実行するためのプロセッサ11を備える。
プロセッサ11は、ハードディスク12、読み出し専用メモリ(ROM)13、電気的消去可能ROM(EEPRM)14、およびランダム・アクセス・メモリ(RAM)15を含む、複数のメモリ構成要素と接続されてもよい。これらのメモリの種類の全ては必ずしも備える必要はない。さらにその上、これらのメモリ構成要素は、物理的にプロセッサ11の近くに位置している必要はなく、プロセッサ11から離れて配置されてもよい。
プロセッサ11は、キーボード16、およびマウス17のように、ユーザにより命令、データ等を入力する手段と接続されてもよい。当業者にとって既知である、タッチスクリーン、トラックボール、および/または音声変換器等の、他の入力手段も備えてもよい。
プロセッサ11と接続された読み出し部19が提供される。読み出し部19は、フロッピーディスク20またはCDROM21のようなデータ記憶媒体からデータを読み出し、場合によってはそのデータ記憶媒体にデータを書き込むように、構成される。他のデータ記憶媒体は、当業者にとって既知であるように、テープ、DVD、CD−R,DVD−R、メモリースティック等であってもよい。
プロセッサ11は、ディスプレイ18、例えばモニターまたはLCD(液晶ディスプレイ)スクリーン、または当業者にとって既知である他の種類のディスプレイと接続されてもよいだけではなく、出力データを紙にプリントするプリンタ23と接続されてもよい。プロセッサ11は、スピーカ29と接続されてもよい。
コンピュータ装置10は、以下でより詳細に説明されるように、ビデオカメラ、三次元カメラ、ステレオカメラまたはあらゆる他の適した既知のカメラシステム等の、カメラCAをさらに備えてもよく、または、カメラCAと通信するように構成されてもよい。コンピュータ装置10は、プロセッサ11による使用のための現在位置等についての位置情報を決定する測位システムPSをさらに備えてもよい。位置システムは、以下のうち1つ以上を備えてもよい。
・GPS(グローバル・ポジショニング・システム)部等の全地球的航法衛星システム(GNSS)。
・1つ以上のホイール2の回転数を感知することによって自動車が移動した距離を測定するオドメータ(走行距離計)等のDMI(距離測定機器)。
・回転加速度を測定するように構成された3つのジャイロ部、および、3つの直交方向に沿った3つの並進加速装置等の、IMU(慣性計測装置)。
プロセッサ11は、入力/出力手段25によって、ネットワーク27、例えば公衆交換電話網(PSTN)、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、インターネット等と接続されてもよい。プロセッサ11は、ネットワーク27を介して他の通信装置と通信するように構成されてもよい。これらの接続は、車両はストリートを縦断する間にデータを収集するので、リアルタイムに全てが接続されていないかもしれない。
データ記憶媒体20、21は、実施形態に従った方法を実行する機能をプロセッサに提供するように構成されたデータおよび命令の形式でコンピュータプログラムを備えてもよい。しかしながら、そのようなコンピュータプログラムは、あるいは、通信ネットワーク27を介してダウンロードされてもよい。
プロセッサ11は、スタンドアロン(独立型)システムとして、または、大型コンピュータのサブタスクを実行するようにそれぞれが構成された複数の並行動作プロセッサとして、実施されてもよい。本発明の機能の一部は、ネットワーク27を介してプロセッサ11と通信する遠隔プロセッサによって実行されてもよい。
自動車の中で適用される場合、コンピュータ装置10は図1に示される全ての構成要素を有する必要がないことが観察される。例えば、その場合コンピュータ装置10はスピーカおよびプリンタを有する必要はない。自動車の中での実施に関する限り、コンピュータ装置10は少なくとも、プロセッサ11、適当なプログラムを格納するいくつかのメモリ、および操作者から命令およびデータを受信し、操作者に出力データを示すいくつかの種類のインタフェースを備えてもよい。このコンピュータ装置10はナビゲーション装置として機能するように構成されてもよいことが理解されるだろう。
カメラ/深さセンサ
この文脈で使用される画像という用語は、交通状況の、写真等の、画像に言及している。これらの画像は、フォトカメラまたはビデオカメラ等の、カメラCAを使用することによって取得されてもよい。カメラCAはナビゲーション装置の一部であってもよい。
この文脈で使用される画像という用語は、交通状況の、写真等の、画像に言及している。これらの画像は、フォトカメラまたはビデオカメラ等の、カメラCAを使用することによって取得されてもよい。カメラCAはナビゲーション装置の一部であってもよい。
しかしながら、カメラCAはナビゲーション装置から離れて提供されてもよく、ナビゲーション装置と通信するように構成されてもよい。ナビゲーション装置は、画像を撮像するためにカメラCAに命令を送信するように構成されてもよく、カメラCAからそのような画像を受信するように構成されてもよい。同時に、カメラCAはナビゲーション装置から命令を受信するとすぐに画像を撮像し、この画像をナビゲーション装置に送信するように構成されてもよい。カメラCAおよびナビゲーション装置は、通信するために、例えばブルートゥースを使用して、通信リンクをセットアップするように構成されてもよい。カメラCAは、画像および深さ情報を撮像するように構成されている三次元カメラ3CAであってもよい。三次元カメラ3CAは、例えば、2つのレンズシステム、および、処理部を備えるステレオカメラ(立体視)であってもよい。そのようなステレオカメラは、異なる透視地点から撮られたおおよそ同じ画像を提供して、同時に2つの画像を撮像してもよい。この差異は、深さ情報を計算する処理部によって使用され得る。三次元カメラ3CAの使用は、画像および深さ情報を同時に提供し、深さ情報は実質的に画像の全ての画素に対して適用可能である。
さらなる実施形態によれば、カメラCAは単一のレンズシステムを備えるが、一連の画像を解析することによって深さ情報を読み出す。カメラCAは、連続した時間に少なくとも2つの画像を撮像するように構成され、各画像は、異なる透視地点から撮られたおおよそ同じ画像を提供する。この場合も先と同様に、視点の差異は、深さ情報を計算するために使用され得る。これを行うために、ナビゲーション装置は、異なる画像間の視点の差異を計算するために測位システムからの位置情報を使用する。この実施形態は、この場合も先と同様に、画像および深さ情報を同時に提供し、深さ情報は、実質的に画像の全ての画素に対して利用可能である。
さらなる実施形態によれば、深さ情報は、ナビゲーション装置を備える、または、深さ情報をナビゲーション装置に提供するように構成された、1つ以上の(レーザの)スキャナ(不図示)等の深さセンサを使用することによって取得される。レーザスキャナ3(j)は、周囲に関する深さ情報を備える、レーザサンプルを得、建築用ブロック、木、標識、停車中の自動車、人々等に関する深さ情報を含んでもよい。レーザスキャナ3(j)は、マイクロプロセッサμPとも接続されてもよく、これらのレーザサンプルをマイクロプロセッサμPへ送信してもよい。
さらなる実施形態によれば、深さ情報は、ナビゲーション装置を備える、または、深さ情報をナビゲーション装置に提供するように構成された、1つ以上の(レーザの)スキャナ(不図示)等の深さセンサを使用することによって取得される。レーザスキャナ3(j)は、周囲に関する深さ情報を備える、レーザサンプルを得、建築用ブロック、木、標識、停車中の自動車、人々等に関する深さ情報を含んでもよい。レーザスキャナ3(j)は、マイクロプロセッサμPとも接続されてもよく、これらのレーザサンプルをマイクロプロセッサμPへ送信してもよい。
ある実施形態によれば、プロセッサ11およびプロセッサ11へアクセス可能なメモリ12、13、14、15を備えるコンピュータ装置10が提供され、メモリは、プロセッサ11に、(a)ナビゲーション情報を取得させる、(b)そのナビゲーション情報に対応する画像を取得させる、(c)その画像、およびそのナビゲーション情報の少なくとも一部、を表示させる、ように構成されたデータおよび命令を備えるコンピュータプログラムを備え、そのナビゲーション情報の少なくとも一部は画像に重ね合わせられ、プロセッサ11は、(b1)その画像に対応する深さ情報を取得し、その深さ情報を使用してアクション(c)を実行することをさらに許可される。
コンピュータ装置10は、図1を参照して上述のように説明したコンピュータ装置と一致してもよい。コンピュータ装置10は、手持ちサイズのナビゲーション装置または内蔵型のナビゲーション装置等のナビゲーション装置であってもよい。メモリは、ナビゲーション装置の一部であってもよく、遠隔に配置されてもよく、またはこの2つの可能性の組み合わせであってもよい。
従って、ナビゲーション情報を表示する方法が提供され、その方法は、(a)ナビゲーション情報を取得する工程と、(b)そのナビゲーション情報に対応する画像を取得する工程と、(b1)その深さ情報を使用してアクション(c)を実行するために、その画像に対応する深さ情報を取得する工程と、(c)その画像、およびそのナビゲーション情報の少なくとも一部を表示する工程と、を備え、そのナビゲーション情報の少なくとも一部は、その画像に重ね合わせられる。その方法は、必ずしもこの特定の順序で実行される必要はないことが理解されるだろう。
ここで記述されるアクションは、ループで実行されてもよく、すなわち、予め定められた時間間隔で、または、ある動きが検出された後またはある距離が移動した後に、等の予め定められた時間で繰り返されてもよいことが理解されるだろう。ループは、拡張された画像が十分に更新されることを確実にするかもしれない。
実際、画像はビデオ供給の一部であってもよい。その場合、アクションは、滑らかで一貫したビューをユーザに提供するために少なくとも十分な頻度で、そのビデオ供給のそれぞれの新しい画像に対して実行されてもよい。
ある実施形態によれば、アクション(a)はナビゲーション機能を実行する工程を備え、そのナビゲーション機能は、ナビゲーション情報を出力として生成し、そのナビゲーション情報は、
ナビゲーション命令、
デジタルマップデータベースの選択、
名称、
標識、
道路配置、
建物、
建物の外観、
駐車場、
関心地点、
インジケータ、
のうちの少なくとも1つを備える。
ナビゲーション命令、
デジタルマップデータベースの選択、
名称、
標識、
道路配置、
建物、
建物の外観、
駐車場、
関心地点、
インジケータ、
のうちの少なくとも1つを備える。
ナビゲーション情報は、実行されるべきあるターンまたは操作を示す矢印等の、あらゆる種類のナビゲーション命令を備えてもよい。ナビゲーション情報は、デジタルマップデータベースの選択、すなわち、移動方向に見られる現在位置の近くを示すデータベースにおけるレンダリングされる画像またはオブジェクトの選択等の、デジタルマップデータベースの選択をさらに備えてもよい。デジタルマップデータベースはストリートの名称、都市の名称等の名称を備えてもよい。ナビゲーション情報は、交通標識(一時停止の道路標識、道路標識)または広告パネルの表現を示す、例えば絵文字等の標識も備えてもよい。さらにその上、ナビゲーション情報は、場合により、車線、道路の配置の表現である、線状配列(lineation)(車線分割線、車線区分線)、例えば道路におけるオイルまたは砂などの道路無効化、道路における穴、スピードランプ等の道路上のオブジェクト、および、店、博物館、レストラン、ホテル等の関心地点を備える、道路配置を備えてもよい。ナビゲーション情報は、表示された場合に、ユーザ指向を補助するために表示されてもよい建物または建物の外観を示す画像等の、彼/彼女をナビゲートするのを補助する情報をユーザに提供するあらゆる他の種類のナビゲーション情報を備えてもよいことが理解されるだろう。また、ナビゲーション情報は、駐車場を示す指標を備えてもよい。ナビゲーション情報は、ユーザの注意を画像中のあるオブジェクトに引き付けるために重ね合わされたインジケータであってもよい。インジケータは、ユーザの注意をその交通標識に引き付けるために、例えば交通標識の周囲において重ね合わされた円形または正方形であってもよい。
コンピュータ装置は、ユーザ指向およびナビゲートを補助するために全ての種類のナビゲーション情報を計算するかもしれないナビゲーション機能を実行するように構成されてもよい。ナビゲーション機能は、測位システムを使用して現在位置を決定してもよく、その現在位置に対応するデジタルマップデータベースの一部を表示する。ナビゲーション機能は、ストリートの名称、関心地点についての情報等の、表示されるべき現在位置と関連付けられたナビゲーション情報を読み出す工程をさらに備えてもよい。
ナビゲーション機能は、スタート住所または現在位置から、特定の目的地までのルートを計算する工程と、表示されるべきナビゲーション命令を計算する工程とをさらに備えてもよい。ある実施形態によれば、画像は、ナビゲーション情報が関連している位置の画像である。よって、特定のジャンクションで取られるべき右折を示す矢印である場合、画像はそのジャンクションのビューを提供してもよい。実際、画像は、ユーザがそのジャンクションに近づいている視野方向に見られるようなジャンクションのビューを提供してもよい。
コンピュータ装置がメモリまたは遠隔メモリからそのような画像を取得するように構成される場合、コンピュータ装置は、正確な画像を選択するために位置情報を使用してもよい。各画像は、対応する位置情報と関連して格納されてもよい。位置情報に加えて、方向情報が、ユーザの視野方向または移動方向に対応する画像を選択するために使用されてもよい。
ある実施形態によれば、アクション(b)はカメラから画像を取得する工程を備える。方法は、内蔵型カメラが生成する画像を備えるナビゲーション装置によって実行されてもよい。方法は、遠隔カメラから画像を受信するように構成されたナビゲーション装置によって実行されてもよい。遠隔カメラは例えば車両に取り付けられたカメラであってもよい。
それ故、コンピュータ装置は、カメラを備えてもよく、またはカメラにアクセスしてもよく、アクション(b)はカメラから画像を取得する工程を備えてもよい。さらなる実施形態によれば、アクション(b)は、メモリから画像を取得する工程を備える。メモリは画像のデータベースを備えてもよい。画像は、正確な画像すなわちナビゲーション情報に対応する画像の選択を許可するために、ナビゲーション装置の位置情報および方向情報と関連して格納されてもよい。メモリは、方法を実行するコンピュータ装置(例えばナビゲーション装置)により備えられてもよく、またはそのコンピュータ装置(例えばナビゲーション装置)によってアクセス可能であってもよい。
コンピュータ装置は、従って、メモリから画像を取得するように構成されてもよい。
ある実施形態によれば、アクション(b)で取得される画像は、アクション(b1)での使用のための、その画像に対応する深さ情報を備える。これは、図3aおよび3bを参照して以下でより詳細に説明されるだろう。
ある実施形態によれば、アクション(b)は、三次元カメラから画像を取得する工程を備える。三次元カメラは画像および深さ情報を同時に撮像するように構成されてもよい。上述のように、深さ情報を提供するために2つのレンズを有するカメラを使用して、立体視として既知の技術がこのために使用されてもよい。代替によれば、深さセンサ(例えば、レーザスキャナ)を備えるカメラがこのために使用されてもよい。それ故、コンピュータ装置10は三次元カメラ(ステレオカメラ)を備えてもよく、アクション(b)はその三次元カメラから画像を取得する工程を備えてもよい。
ある実施形態によれば、アクション(b1)は、一連の画像を解析することによって深さ情報を読み出す工程を備える。これを実行するために、アクション(b)は、(通常のカメラ、すなわち非三次元カメラを使用して)異なる位置と関連付けられた少なくとも2つの画像を取得する工程を備えてもよい。よって、アクション(b)は、1以上の画像を撮像するために、または、メモリから1以上の画像を読み出すために、カメラまたは同様のものを使用する工程を備えてもよい。アクション(b1)は、前のアクション(b)で取得された画像を取得する工程を備えてもよい。一連の画像は解析され、画像の範囲内の異なる領域および/または画素に対する深さ情報を取得するために使用されてもよい。
従って、コンピュータ装置(例えばナビゲーション装置)は、一連の画像を解析することによって深さ情報を読み出す工程を備えるアクション(b1)を実行するように構成されてもよい。ある実施形態によれば、アクション(b1)は、三次元マップデータベース等のデジタルマップデータベースから深さ情報を読み出す工程を備える。三次元マップデータベースは、ナビゲーション装置のメモリに格納されてもよく、または、(例えばインターネットまたは携帯電話ネットワークを使用して)ナビゲーション装置によってアクセス可能な遠隔メモリに格納されてもよい。三次元マップデータベースは、道路ネットワークについての情報、ストリートの名称、一方通行道路、関心地点(POF)等を備えてもよいが、所在地についての情報や、建物、建物の入口/出口、木等のオブジェクトの三次元形状も含む。カメラの現在の位置および方向を組み合わせて、ナビゲーション装置は特定の画像と関連付けられた深さ情報を計算し得る。車両またはナビゲーション装置に取り付けられたカメラから画像が取得される場合、カメラまたは車両からの位置情報および方向情報が必要とされる。これは、適当な慣性計測装置(IMU)および/またはGPSを使用することによって、および/またはこれのために適したあらゆる他の装置を使用することによって、提供されてもよい。
従って、コンピュータ装置(例えばナビゲーション装置)は、デジタルマップデータベースから深さ情報を読み出す工程を備えるアクション(b1)を実行するように構成されてもよい。デジタルマップデータベースは、メモリに格納された三次元マップデータベースであってもよい。
深さ情報を読み出すためにデジタルマップデータベースを使用する場合、深さ情報を計算し、これを画像に十分な精度でマッピングすることができるために、正確な位置情報および方向情報が要求されることが理解されるだろう。
ある実施形態によれば、アクション(b1)は深さセンサから深さ情報を取得する工程を備える。これは、コンピュータ装置と通信するように構成された内蔵型深さセンサまたは遠隔深さセンサであってもよい。何れにしても、深さ情報は画像にマッピングされなければならない。
一般に、画像への深さ情報のマッピングは、図4を参照して以下で詳細に説明されるアクション(c1)および/またはアクション(c3)で行われる。
図3aは、アクション(b)で取得されてもよい画像を示し、図3bは、アクション(b1)で取得されてもよい深さ情報を示す。深さ情報は図3aに示される画像に対応する。図3aおよび図3bに示される画像および深さ情報は、三次元カメラを使用して取得されるが、通常のカメラを使用して、または、適切に統合された、カメラおよび、レーザスキャナまたはレーダの組み合わせを使用して取得された一連の画像を解析することによって構成されてもよい。図3aおよび3bに見られるように、これは必要条件ではないことが理解されるが、実質的に各画像の画素の深さ情報が利用可能である。
画像およびナビゲーション情報の直観的統合を達成するために、ジオ変換モジュールが提供されてもよく、それは画像の透視と合致させるための透視変換を使用して、ナビゲーション情報を変換するために、現在の位置および方向についての情報、画像の位置および深さ情報を使用してもよい。
画像および深さ情報は、(三次元カメラ、外部データベースまたは一連の画像等の)ソースから得られ、深さ情報解析モジュールによって使用される。深さ情報解析モジュールは、深さ情報を使用して画像における領域を識別する。そのような領域は、例えば建物、道路表面、交通信号等に関してもよい。
深さ情報解析モジュールおよびジオ変換モジュールの結果は、画像および重ね合わされたナビゲーション情報の組み合わせである、組み合わせ画像を構成する構成モジュールによって使用される。構成モジュールは、異なる領域に対する異なるフィルタおよび/または異なる透明性を使用して、ジオ変換されたナビゲーション情報を用いて深さ情報解析モジュールから領域を1つにまとめる。組み合わせ画像はナビゲーション装置のディスプレイ18に出力されてもよい。
図4は、実施形態に従ったフロー図である。図4は、図2に関して上述したようにアクション(c)のより詳細な実施形態を提供する。
図4に示されるモジュールは、ソフトウェアモジュールだけでなくハードウェアモジュールであってもよいことが理解されるだろう。
図4は、図2を参照して上述したようなアクション(a)、(b)および(b1)を示し、より詳細に示されるアクション(c)が後に続かず、アクション(c1)、(c2)および(c3)を備える、
ある実施形態によれば、アクション(c)は、ナビゲーション情報に関してジオ変換アクションを実行する(c1)を備える。
ある実施形態によれば、アクション(c)は、ナビゲーション情報に関してジオ変換アクションを実行する(c1)を備える。
このジオ変換アクションは、ナビゲーション情報が正確な方法で画像に重ね合わされることを確実にするために、ナビゲーション情報(例えば矢印)に関して実行される。これを達成するために、ジオ変換アクションは、例えば、画像を取得するために使用される現実世界位置、方向およびカメラの較正係数を有する、二次元画像座標への三次元ナビゲーション情報からの透視投影を実行して、画像と関連付けられた局所座標にナビゲーション情報を変換する。言い換えると、画像は、あらゆる三次元ポイントが投影され得る、三次元リアリティに配置され、方向づけられた面である。ナビゲーション情報を局所座標に変換することによって、ナビゲーション情報の形状が、画像の透視ビューと合致するように適合される。当業者は、三次元リアリティの二次元画像への(例えばx、y、zからx、yへの)透視投影のように、どのようにしてそのようなローカル座標への変換が実行され得るか、を理解するだろう。
また、ナビゲーション情報を局所座標へ変換することによって、ナビゲーション情報が正確な位置で画像に重ね合わされることが保証される。
このジオ変換アクションを実行するために、以下の入力が使用されてもよい。
−深さ情報、
−ナビゲーション情報、
−位置および方向情報。
−ナビゲーション情報、
−位置および方向情報。
場合により、カメラ較正情報は入力としても使用されてもよい。よって、ある実施形態によれば、(c)は、(c1)ナビゲーション情報に関してジオ変換アクションを実行する工程を備え、ジオ変換アクションは、ナビゲーション情報を局所座標に変換する工程を備える。これを実行することによって、ナビゲーション情報の方向だけでなく位置も、画像の透視に適合される。深さ情報を使用することによって、丘、傾斜、ナビゲーション装置/カメラの方向等を考慮して、局所座標へのこの変換が正確に実行される。
アクション(c1)は、慣性計測装置(IMU)等の、さらなる位置/方向システムからの入力を使用することによる、さらにより正確な方法で実行されてもよい。そのようなIMUからの情報は、ジオ変換アクションの結果を確認するおよび/または改良するための追加の情報源として使用されてもよい。
従って、コンピュータ装置は、(c1)ナビゲーション情報に関してジオ変換アクションを実行する工程、を備えるアクション(c)を実行するように構成されてもよい。
アクション(c1)は「標準」座標から局所座標へナビゲーション情報を変換する工程を備えてもよい。
さらなる実施形態によれば、アクション(c)は、(c2)深さ情報解析アクションを実行する工程、を備える。この深さ情報解析アクションを実行するために、深さ情報が入力として使用される。
ある実施形態によれば、アクション(c2)は、画像における領域を識別する工程と、画像におけるそれぞれ識別された領域に対して、ナビゲーション情報を表示する方法を適合させる工程と、を備える。
深さ情報を使用することによって、異なる領域を識別することが比較的容易になる。深さ情報において、三次元ポイント群が識別され得、比較的単純なパターン認識技術が、そのような点群がどのような種類の(車両、通行人、建物等の)オブジェクトを表すのかを識別するために使用されてもよい。
例として、深さ情報の使用無しに画像において交通標識を識別しようと試みる場合、ある形状を有し、ある色を有する、画像の範囲内における領域を認識するために、パターン認識技術が使用されるだろう。深さ情報が使用される場合、交通標識は、深さ情報において、実質的に同じ深さ情報(例えば8,56m)を有する画素の集合を検索することによってはるかに容易に識別され得、一方、深さ情報におけるその画素集合の周囲は実質的により高い深さ情報(例えば34,62m)を有する。
深さ情報の範囲で交通標識がひとたび識別されると、画像における対応する領域も容易に識別され得る。
深さ情報を使用して異なる領域を識別する工程は多くの方法で行われ得、そのうちの1つは、深さ情報が可能性のある交通標識を識別するために使用される、以下の例を通じて説明されるだろう。
例えば、第1のアクションにおいて、ナビゲーション装置または道路からあまりにも遠い全ての深さ情報画素が除外される。
第2のアクションにおいて、平面オブジェクト、すなわち、実質的に同じ距離(深さ値、例えば28m)を有し、従って表面を与える、深さ情報画素の集合を検索するために、残りのポイントにおいて検索が行われてもよい。
第3のアクションにおいて、識別された平面オブジェクトの形状が決定されてもよい。形状が(円形の、長方形の、三角形の、等の)予め定められた形状に対応する場合、平面オブジェクトは交通標識として識別される。もしそうでないなら、識別された平面オブジェクトは標識であるとは見なされない。同様のアプローチが他のオブジェクトを識別する工程に使用され得る。
例えば、車両を認識するために、ある次元(高さ/幅)を有する点群に対して検索が行われてもよい。大型建物(図10a、10b参照)の一部である店を認識するために、道路と垂直であり、建物の外形の範囲内のある所在地にある平面オブジェクトに対して検索が行われてもよい。建物の範囲内のある所在地は、前もってメモリに格納されてもよく、デジタルマップデータベースの一部であってもよい。
上述したように、画像に適用される画像認識技術は、深さ情報を使用した領域の識別に加えて、またはその領域の識別と共同して実施されてもよい。画像に適用されるこれらの画像認識技術は、
−画像分割、
−パターン認識、
−動的輪郭(active contour)、
−形状の検出、形状係数、
等のあらゆる既知の適切なアルゴリズムを使用してもよい。
−画像分割、
−パターン認識、
−動的輪郭(active contour)、
−形状の検出、形状係数、
等のあらゆる既知の適切なアルゴリズムを使用してもよい。
ある領域に対して、深さ情報解析アクションは、ナビゲーション情報が、その特定の領域における画像によって表示されたオブジェクトの背後にあることを提案するために、ナビゲーション情報を透明な方法で表示すること、または、画像におけるその領域に対して少しもナビゲーション情報を表示しないことを決定してもよい。ある領域は、例えば交通信号または車両または建物であってもよい。ナビゲーション情報を透明な方法で表示することによって、または、ナビゲーション情報を全く表示しないことによって、よりユーザフレンドリー且つ直観的なビューがユーザに対して創出される。
それ故、コンピュータ装置は、深さ情報解析アクションを実行する工程(c2)を備える、アクション(c2)を実行するように構成されてもよい。
アクション(c2)は、画像における領域を識別する工程と、画像におけるそれぞれ識別された領域に対してナビゲーション情報を表示する方法を適合させる工程と、を備えてもよい。
アクション(c1)および(c2)はお互い同時にまたは相互作用して実行されてもよいことが理解されるだろう。言い換えると、深さ情報解析モジュールおよびジオ変換もモジュールは、相互作用して動作してもよい。そのような相互作用の例は、深さ情報解析モジュールおよびジオ変換モジュールの両方が、深さ情報に基づいてピッチ情報およびスロープ情報を計算してもよいことである。そこで、同一のピッチ値およびスロープ値を両方計算する代わりに、モジュールのうちの1つはスロープおよび/またはピッチを計算してこれを使用してもよく、両方の結果が一貫しているかどうかを確認するための追加の情報源である。
最後に、アクション(c3)において、組み合わせ画像が計算され、例えばナビゲーション装置のディスプレイ18に出力される。これは、構成モジュールによって行われてもよい。
図5aは、深さ情報を使用せずにナビゲーション装置によって提供されてもよい結果ビューを描写しており、すなわちナビゲーション情報を二次元画像上に描画している。図5aによれば、ナビゲーション情報は、すなわち右折矢印は、右の建物を通って移動することを提案しているように見える。
図5bは、上述のような方法を実行する場合にナビゲーション装置によって提供されてもよい結果ビューを描写している。深さ情報を使用することによって、車両および標識だけでなく、右の建物等のオブジェクトも認識することが可能となる。従って、ナビゲーション情報は、オブジェクトの背後に隠され得、または高度の透明性で描画され得る。
実施形態は、あいまいな操作決定等の、可能性のあるあいまいなナビゲーション命令を提供する可能性を低下させる。実施形態に従った深さ情報を使用せずにナビゲーション装置によって提供されてもよい組み合わせ画像を描写する図6aを参照されたい。実施形態に従った深さ情報を使用することによって、ユーザが第1番目の右折ではなく、第2番目の右折をすべきことを明確に示す、図6bに示されるような組み合わせ画像が示されてもよい。
実施形態の別の利点は、ジオ変換アクションが(矢印等の)ナビゲーション情報を再形成することを許可するという事実である。これが行われない場合、図7aに示されるような組み合わせ画像が生じるが、一方で、ジオ変換アクション/モジュールの使用は、図7bに示されるような矢印がより良く実際の道路表面をたどっている組み合わせ画像に帰結するかもしれない。ジオ変換アクション/モジュールは、画像を撮像するカメラの方向によって引き起こされてもよい、スロープの影響およびピッチの影響を除去する。図7bの例では、可能ではあるけれども、矢印は建物の背後に隠されていないことが留意される。
上述したように、ナビゲーション情報は道路配置を備える。図8aは、実施形態に従った深さ情報を使用せずにナビゲーション装置によって提供されてもよい組み合わせ画像を示す。図に示すように、車両または歩行者のようなオブジェクトと重なって道路配置が表示される。実施形態を使用する場合、そのようなオブジェクトを備える画像における領域を識別すること、および、その領域の範囲内における道路配置を表示しないこと(または高度の透明性で表示すること)が可能である。この結果は図8bに示される。
図9は、別の例を示す。この例によれば、ナビゲーション情報は画像における標識に対応する標識であり、アクション(c)においてナビゲーション情報である標識は、ナビゲーション情報である標識が画像における標識よりも大きい方法で、画像に重ね合わされる。図9に示されるように、ナビゲーション情報である標識は、画像における標識から逸脱した位置に重ね合わされてもよい。ナビゲーション情報である標識が、画像における標識と関連している(ユーザにとって視認可能でなくてもよい)ことをさらに示すために、標識が重ね合わされていることを強調するために線40が重ね合わされてもよい。線40は、ナビゲーション情報である標識と、画像における実際の標識と接続している、接続線を備えてもよい。線40は、画像における標識に実際の位置を示す線をさらに備えてもよい。
そこで、この実施形態によれば、アクション(c)は、重ね合わされたナビゲーション情報と、画像内のオブジェクトとの関係を示すための線40を表示する工程をさらに備える。
もちろん、代替によれば、ナビゲーション情報である標識は、画像における標識と重なるように、重ね合わされてもよい。
重ね合わせ線または画像における標識を覆うような重ね合わせは、深さ情報を使用することによって、比較的簡便で正確な方法で行われ得ることが理解されるだろう。
コンピュータプログラムおよびデータ記憶媒体
ある実施形態によれば、前記コンピュータ装置に記述された方法の何れかを実行させることを許可する、コンピュータ装置によってロードされ得るデータおよび命令を備えるコンピュータプログラムが提供される。コンピュータ装置は、図1を参照して上述したようなコンピュータ装置であってもよい。
ある実施形態によれば、前記コンピュータ装置に記述された方法の何れかを実行させることを許可する、コンピュータ装置によってロードされ得るデータおよび命令を備えるコンピュータプログラムが提供される。コンピュータ装置は、図1を参照して上述したようなコンピュータ装置であってもよい。
さらなる実施形態によれば、そのようなコンピュータプログラムを備えるデータ記憶媒体が提供されてもよい。
所見
上述した実施形態は、パターン認識技術を画像に使用する1のような先行技術、および画像上のナビゲーション情報の位置を較正する較正技術2と組み合わされ得ることが理解されるだろう。
上述した実施形態は、パターン認識技術を画像に使用する1のような先行技術、および画像上のナビゲーション情報の位置を較正する較正技術2と組み合わされ得ることが理解されるだろう。
重ね合わせという用語は、ある項目が他の項目上に表示されることを示すためだけには使用されず、画像の内容と関連して画像の範囲内の予め定められた位置にナビゲーション情報が配置され得ることを示すために使用されることが理解されるだろう。このように、画像の内容との空間的な関係であるように、ナビゲーション情報を重ね合わせることが可能である。
従って、画像およびナビゲーション情報を1つにまとめる代わりに、ナビゲーション情報は、ナビゲーション情報が画像の内容と論理的な関係を有するように画像の範囲内に正確に配置され得る。
上の記述は、例示的であり、限定的ではないことが意図される。従って、以下に並べられた請求の範囲を逸脱せずに記述されるような修正が発明についてなされてもよいことが当業者にとって明らかであろう。
Claims (18)
- プロセッサ(11)および前記プロセッサ(11)へアクセス可能なメモリ(12、13、14、15)を備えるコンピュータ装置(10)であって、前記メモリは、前記プロセッサ(11)に、
(a)ナビゲーション情報を取得させる、
(b)前記ナビゲーション情報に対応する画像を取得させる、
(c)前記画像、および前記ナビゲーション情報の少なくとも一部、を表示させる、ように構成されたデータおよび命令を備えるコンピュータプログラムを備え、
前記ナビゲーション情報の少なくとも一部は前記画像に重ね合わせられ、前記プロセッサ(11)は、(b1)前記画像に対応する深さ情報を取得し、前記深さ情報を使用してアクション(c)を実行することをさらに許可されることを特徴とするコンピュータ装置(10)。 - (a)は、ナビゲーション機能を実行する工程を備え、前記ナビゲーション機能は、出力としてナビゲーション情報を生成し、前記ナビゲーション情報は、
−ナビゲーション命令、
−デジタルマップデータベースの選択、
−名称、
−標識、
−道路配置
−建物、
−建物の外観、
−駐車場、
−関心地点、
−インジケータ
のうちの少なくとも1つを備えることを特徴とする請求項1に記載のコンピュータ装置。 - 前記画像が、ナビゲーション情報が関係する位置の画像であることを特徴とする請求項1または2に記載のコンピュータ装置。
- (b)が、カメラから画像を取得する工程を備えることを特徴とする請求項1乃至3の何れか1項に記載のコンピュータ装置。
- (b)が、メモリから画像を取得する工程を備えることを特徴とする請求項1乃至3の何れか1項に記載のコンピュータ装置。
- (b)で取得された前記画像は、アクション(b1)での使用のための、前記画像に対応する深さ情報を備えることを特徴とする請求項1乃至5の何れか1項に記載のコンピュータ装置。
- (b)は、三次元カメラから画像を取得する工程を備えることを特徴とする請求項6に記載のコンピュータ装置。
- (b1)は、一連の画像を解析することによって深さ情報を読み出す工程を備えることを特徴とする請求項1乃至5の何れか1項に記載のコンピュータ装置。
- (b1)は、デジタルマップデータベースから深さ情報を読み出す工程を備えることを特徴とする請求項1乃至8の何れか1項に記載のコンピュータ装置。
- (b1)は、深さセンサから深さ情報を取得する工程を備えることを特徴とする請求項1乃至9の何れか1項に記載のコンピュータ装置。
- (c)は、前記ナビゲーション情報に関してジオ変換アクションを実行する工程(c1)を備え、前記ジオ変換アクションは、前記ナビゲーション情報を局所座標に変換する工程を備えることを特徴とする請求項1乃至10の何れか1項に記載のコンピュータ装置。
- アクション(c)は、深さ情報解析アクションを実行する工程(c2)を備えることを特徴とする請求項1乃至11の何れか1項に記載のコンピュータ装置。
- アクション(c2)は、前記画像における領域を識別する工程と、前記画像におけるそれぞれ識別された領域に対して、ナビゲーション情報を表示する方法を適合させる工程と、を備えることを特徴とする請求項12に記載のコンピュータ装置。
- 前記ナビゲーション情報は、前記画像における標識と対応する標識であり、アクション(c)において、ナビゲーション情報である前記標識は、ナビゲーション情報である前記標識が前記画像における前記標識よりも大きくして前記画像に重ね合わされることを特徴とする請求項1乃至13の何れか1項に記載のコンピュータ装置。
- アクション(c)は、前記重ね合わされたナビゲーション情報と、前記画像内のオブジェクトとの関係を示す線(40)を表示する工程をさらに備えることを特徴とする請求項1乃至14の何れか1項に記載のコンピュータ装置。
- ナビゲーション情報を表示する方法であって、前記方法は、
(a)ナビゲーション情報を取得する工程と、
(b)前記ナビゲーション情報に対応する画像を取得する工程と、
(c)前記画像、および前記ナビゲーション情報の少なくとも一部を表示する工程と、を備え、前記ナビゲーション情報の少なくとも一部は、前記画像に重ね合わされ、前記方法は、(b1)前記画像に対応する深さ情報を取得して、前記深さ情報を使用してアクション(c)を実行する工程をさらに備えることを特徴とする方法。 - コンピュータ装置に請求項16に記載の方法を実行させ、前記コンピュータ装置によってロードされ得るデータおよび命令を備えることを特徴とするコンピュータプログラム。
- 請求項17に記載のコンピュータプログラムを備えることを特徴とするデータ記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2008/060094 WO2010012311A1 (en) | 2008-07-31 | 2008-07-31 | Computer arrangement and method for displaying navigation data in 3d |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011529569A true JP2011529569A (ja) | 2011-12-08 |
Family
ID=40193648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011520331A Withdrawn JP2011529569A (ja) | 2008-07-31 | 2008-07-31 | ナビゲーションデータを三次元で表示するコンピュータ装置および方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20110103651A1 (ja) |
EP (1) | EP2307855A1 (ja) |
JP (1) | JP2011529569A (ja) |
KR (1) | KR20110044218A (ja) |
CN (1) | CN102037325A (ja) |
AU (1) | AU2008359901A1 (ja) |
BR (1) | BRPI0822658A2 (ja) |
CA (1) | CA2725552A1 (ja) |
WO (1) | WO2010012311A1 (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013111302A1 (ja) * | 2012-01-26 | 2013-08-01 | パイオニア株式会社 | 表示装置、制御方法、プログラム、記憶媒体 |
WO2014002167A1 (ja) * | 2012-06-25 | 2014-01-03 | パイオニア株式会社 | 情報表示装置、情報表示方法、情報表示プログラム及び記録媒体 |
WO2015146068A1 (ja) * | 2014-03-28 | 2015-10-01 | パナソニックIpマネジメント株式会社 | 情報表示装置、情報表示方法及びプログラム |
WO2018207308A1 (ja) * | 2017-05-11 | 2018-11-15 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
JP2019032234A (ja) * | 2017-08-08 | 2019-02-28 | 株式会社プロドローン | 表示装置 |
JP2019095213A (ja) * | 2017-11-17 | 2019-06-20 | アイシン・エィ・ダブリュ株式会社 | 重畳画像表示装置及びコンピュータプログラム |
JP2019518222A (ja) * | 2016-03-11 | 2019-06-27 | カールタ インコーポレイテッド | リアルタイムオンラインエゴモーション推定を有するレーザスキャナ |
US11398075B2 (en) | 2018-02-23 | 2022-07-26 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
US11506500B2 (en) | 2016-03-11 | 2022-11-22 | Kaarta, Inc. | Aligning measured signal data with SLAM localization data and uses thereof |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
US11815601B2 (en) | 2017-11-17 | 2023-11-14 | Carnegie Mellon University | Methods and systems for geo-referencing mapping systems |
US11830136B2 (en) | 2018-07-05 | 2023-11-28 | Carnegie Mellon University | Methods and systems for auto-leveling of point clouds and 3D models |
US12014533B2 (en) | 2018-04-03 | 2024-06-18 | Carnegie Mellon University | Methods and systems for real or near real-time point cloud map data confidence evaluation |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010016805A (ja) * | 2008-06-04 | 2010-01-21 | Sanyo Electric Co Ltd | 画像処理装置、運転支援システム、及び画像処理方法 |
US8849570B2 (en) * | 2009-03-19 | 2014-09-30 | Microsoft Corporation | Projected way-finding |
US8121640B2 (en) | 2009-03-19 | 2012-02-21 | Microsoft Corporation | Dual module portable devices |
US20100241999A1 (en) * | 2009-03-19 | 2010-09-23 | Microsoft Corporation | Canvas Manipulation Using 3D Spatial Gestures |
US8566020B2 (en) | 2009-12-01 | 2013-10-22 | Nokia Corporation | Method and apparatus for transforming three-dimensional map objects to present navigation information |
US20110302214A1 (en) * | 2010-06-03 | 2011-12-08 | General Motors Llc | Method for updating a database |
US9317133B2 (en) * | 2010-10-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating augmented reality content |
KR101191040B1 (ko) | 2010-11-24 | 2012-10-15 | 주식회사 엠씨넥스 | 차량의 전방 도로 표시 장치 |
US20120162412A1 (en) * | 2010-12-22 | 2012-06-28 | Electronics And Telecommunications Research Institute | Image matting apparatus using multiple cameras and method of generating alpha maps |
US8717418B1 (en) * | 2011-02-08 | 2014-05-06 | John Prince | Real time 3D imaging for remote surveillance |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US8630805B2 (en) * | 2011-10-20 | 2014-01-14 | Robert Bosch Gmbh | Methods and systems for creating maps with radar-optical imaging fusion |
US20150029214A1 (en) * | 2012-01-19 | 2015-01-29 | Pioneer Corporation | Display device, control method, program and storage medium |
US8666655B2 (en) | 2012-07-30 | 2014-03-04 | Aleksandr Shtukater | Systems and methods for navigation |
US9175975B2 (en) | 2012-07-30 | 2015-11-03 | RaayonNova LLC | Systems and methods for navigation |
JP6015228B2 (ja) | 2012-08-10 | 2016-10-26 | アイシン・エィ・ダブリュ株式会社 | 交差点案内システム、方法およびプログラム |
JP6015227B2 (ja) * | 2012-08-10 | 2016-10-26 | アイシン・エィ・ダブリュ株式会社 | 交差点案内システム、方法およびプログラム |
JP5935636B2 (ja) * | 2012-09-28 | 2016-06-15 | アイシン・エィ・ダブリュ株式会社 | 交差点案内システム、方法およびプログラム |
US9091628B2 (en) | 2012-12-21 | 2015-07-28 | L-3 Communications Security And Detection Systems, Inc. | 3D mapping with two orthogonal imaging views |
US9798461B2 (en) * | 2013-03-15 | 2017-10-24 | Samsung Electronics Co., Ltd. | Electronic system with three dimensional user interface and method of operation thereof |
US20140368434A1 (en) * | 2013-06-13 | 2014-12-18 | Microsoft Corporation | Generation of text by way of a touchless interface |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
JP6445808B2 (ja) * | 2014-08-26 | 2018-12-26 | 三菱重工業株式会社 | 画像表示システム |
US20170102699A1 (en) * | 2014-12-22 | 2017-04-13 | Intel Corporation | Drone control through imagery |
US9593959B2 (en) * | 2015-03-31 | 2017-03-14 | International Business Machines Corporation | Linear projection-based navigation |
CN107850445B (zh) * | 2015-08-03 | 2021-08-27 | 通腾全球信息公司 | 用于生成及使用定位参考数据的方法及*** |
FR3056490B1 (fr) * | 2016-09-29 | 2018-10-12 | Valeo Vision | Procede de projection d'une image par un systeme de projection d'un vehicule automobile, et systeme de projection associe |
CN107014372A (zh) * | 2017-04-18 | 2017-08-04 | 胡绪健 | 一种室内导航的方法以及用户终端 |
WO2018232631A1 (zh) * | 2017-06-21 | 2018-12-27 | 深圳配天智能技术研究院有限公司 | 一种图像处理方法、装置、***及计算机存储介质 |
US20200326202A1 (en) * | 2017-12-21 | 2020-10-15 | Bayerische Motoren Werke Aktiengesellschaft | Method, Device and System for Displaying Augmented Reality POI Information |
CN111373223B (zh) * | 2017-12-21 | 2024-03-19 | 宝马股份公司 | 用于显示增强现实导航信息的方法、装置和*** |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL8901695A (nl) * | 1989-07-04 | 1991-02-01 | Koninkl Philips Electronics Nv | Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem. |
US6222583B1 (en) * | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
US6285317B1 (en) * | 1998-05-01 | 2001-09-04 | Lucent Technologies Inc. | Navigation system with three-dimensional display |
JP3931336B2 (ja) * | 2003-09-26 | 2007-06-13 | マツダ株式会社 | 車両用情報提供装置 |
US8108142B2 (en) * | 2005-01-26 | 2012-01-31 | Volkswagen Ag | 3D navigation system for motor vehicles |
DE202005021607U1 (de) * | 2005-06-06 | 2008-11-20 | Tomtom International B.V. | Navigationsvorrichtung mit Kamerainformation |
-
2008
- 2008-07-31 CA CA2725552A patent/CA2725552A1/en not_active Abandoned
- 2008-07-31 EP EP08786715A patent/EP2307855A1/en not_active Withdrawn
- 2008-07-31 BR BRPI0822658-0A patent/BRPI0822658A2/pt not_active IP Right Cessation
- 2008-07-31 CN CN2008801292654A patent/CN102037325A/zh active Pending
- 2008-07-31 JP JP2011520331A patent/JP2011529569A/ja not_active Withdrawn
- 2008-07-31 US US12/736,819 patent/US20110103651A1/en not_active Abandoned
- 2008-07-31 KR KR1020117002524A patent/KR20110044218A/ko not_active Application Discontinuation
- 2008-07-31 AU AU2008359901A patent/AU2008359901A1/en not_active Abandoned
- 2008-07-31 WO PCT/EP2008/060094 patent/WO2010012311A1/en active Application Filing
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013111302A1 (ja) * | 2012-01-26 | 2013-08-01 | パイオニア株式会社 | 表示装置、制御方法、プログラム、記憶媒体 |
JP5702476B2 (ja) * | 2012-01-26 | 2015-04-15 | パイオニア株式会社 | 表示装置、制御方法、プログラム、記憶媒体 |
JPWO2013111302A1 (ja) * | 2012-01-26 | 2015-05-11 | パイオニア株式会社 | 表示装置、制御方法、プログラム、記憶媒体 |
WO2014002167A1 (ja) * | 2012-06-25 | 2014-01-03 | パイオニア株式会社 | 情報表示装置、情報表示方法、情報表示プログラム及び記録媒体 |
WO2015146068A1 (ja) * | 2014-03-28 | 2015-10-01 | パナソニックIpマネジメント株式会社 | 情報表示装置、情報表示方法及びプログラム |
JP2015194473A (ja) * | 2014-03-28 | 2015-11-05 | パナソニックIpマネジメント株式会社 | 情報表示装置、情報表示方法及びプログラム |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
US11506500B2 (en) | 2016-03-11 | 2022-11-22 | Kaarta, Inc. | Aligning measured signal data with SLAM localization data and uses thereof |
US11585662B2 (en) | 2016-03-11 | 2023-02-21 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
JP2019518222A (ja) * | 2016-03-11 | 2019-06-27 | カールタ インコーポレイテッド | リアルタイムオンラインエゴモーション推定を有するレーザスキャナ |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
WO2018207308A1 (ja) * | 2017-05-11 | 2018-11-15 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
JP7055324B2 (ja) | 2017-08-08 | 2022-04-18 | 株式会社プロドローン | 表示装置 |
JP2019032234A (ja) * | 2017-08-08 | 2019-02-28 | 株式会社プロドローン | 表示装置 |
US11535155B2 (en) | 2017-11-17 | 2022-12-27 | Aisin Corporation | Superimposed-image display device and computer program |
JP2019095213A (ja) * | 2017-11-17 | 2019-06-20 | アイシン・エィ・ダブリュ株式会社 | 重畳画像表示装置及びコンピュータプログラム |
US11815601B2 (en) | 2017-11-17 | 2023-11-14 | Carnegie Mellon University | Methods and systems for geo-referencing mapping systems |
US11398075B2 (en) | 2018-02-23 | 2022-07-26 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
US12014533B2 (en) | 2018-04-03 | 2024-06-18 | Carnegie Mellon University | Methods and systems for real or near real-time point cloud map data confidence evaluation |
US11830136B2 (en) | 2018-07-05 | 2023-11-28 | Carnegie Mellon University | Methods and systems for auto-leveling of point clouds and 3D models |
Also Published As
Publication number | Publication date |
---|---|
CN102037325A (zh) | 2011-04-27 |
WO2010012311A1 (en) | 2010-02-04 |
AU2008359901A1 (en) | 2010-02-04 |
CA2725552A1 (en) | 2010-02-04 |
KR20110044218A (ko) | 2011-04-28 |
BRPI0822658A2 (pt) | 2015-06-30 |
EP2307855A1 (en) | 2011-04-13 |
US20110103651A1 (en) | 2011-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011529569A (ja) | ナビゲーションデータを三次元で表示するコンピュータ装置および方法 | |
JP2011529568A (ja) | ナビゲーションデータを三次元で表示する方法 | |
CN112204343B (zh) | 高清晰地图数据的可视化 | |
US9858717B2 (en) | System and method for producing multi-angle views of an object-of-interest from images in an image dataset | |
US9984500B2 (en) | Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display | |
US20130162665A1 (en) | Image view in mapping | |
US8571354B2 (en) | Method of and arrangement for blurring an image | |
AU2005332711B2 (en) | Navigation device with camera-info | |
US20100118116A1 (en) | Method of and apparatus for producing a multi-viewpoint panorama | |
US20130197801A1 (en) | Device with Camera-Info | |
US20090015685A1 (en) | Navigation and Inspection System | |
JP2010511212A (ja) | 画像内の平面オブジェクトを識別し且つ位置判定する方法及び装置 | |
US20220058844A1 (en) | Attention guidance for ground control labeling in street view imagery | |
JP2009206702A (ja) | 画像処理装置、画像処理方法 | |
TWI426237B (zh) | Instant image navigation system and method | |
WO2019119358A1 (en) | Method, device and system for displaying augmented reality poi information | |
KR102482829B1 (ko) | 차량용 ar 디스플레이 장치 및 ar 서비스 플랫폼 | |
Olesk | Vision-based positioning and navigation with 3D maps: concepts and analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111004 |