JP4487188B2 - 情報処理装置および方法、プログラム、並びにナビゲーション装置 - Google Patents

情報処理装置および方法、プログラム、並びにナビゲーション装置 Download PDF

Info

Publication number
JP4487188B2
JP4487188B2 JP2004309460A JP2004309460A JP4487188B2 JP 4487188 B2 JP4487188 B2 JP 4487188B2 JP 2004309460 A JP2004309460 A JP 2004309460A JP 2004309460 A JP2004309460 A JP 2004309460A JP 4487188 B2 JP4487188 B2 JP 4487188B2
Authority
JP
Japan
Prior art keywords
vertex
target point
viewpoint
depth
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004309460A
Other languages
English (en)
Other versions
JP2006120057A (ja
Inventor
泉 浦野
夏雄 香田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004309460A priority Critical patent/JP4487188B2/ja
Priority to US11/242,945 priority patent/US7420558B2/en
Priority to KR1020050094537A priority patent/KR101216693B1/ko
Priority to CNB2005101146552A priority patent/CN100346356C/zh
Priority to EP05292246A priority patent/EP1650712A3/en
Publication of JP2006120057A publication Critical patent/JP2006120057A/ja
Application granted granted Critical
Publication of JP4487188B2 publication Critical patent/JP4487188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Image Generation (AREA)

Description

本発明は、情報処理装置および方法、プログラム、並びにナビゲーション装置に関し、特に、例えば、視点位置からの距離に応じて視野角が制御された3次元画像を提供することができるようにした情報処理装置および方法、プログラム、並びにナビゲーション装置に関する。
従来、例えば3次元空間の立体を平面に投影するなどし、3次元空間を立体的に表現した2次元の立体画像(3次元画像)がある。図1は、立体の3次元空間における座標情報を用いて、そのような3次元画像を生成する画像処理装置の構成例を示す図である。
図1において、画像処理装置1は、3次元オブジェクト入力部11および3次元オブジェクト描画部12により構成される。図1において、長方形は、画像処理装置1を構成する処理部を示し、角丸長方形は、それらの処理部に入力または出力されるデータを示している。
画像処理装置1は、例えば頂点の座標情報等により構成される、3次元空間の立体(オブジェクト)を表すデータである3次元オブジェクト21を入力として受け付け、その3次元オブジェクト21に基づいて、3次元画像22を生成する画像処理装置である。
3次元オブジェクト入力部11は、立体の構造を記述したデータ(3次元オブジェクト21)を読み込み、その記述内容を3次元のオブジェクト階層を含むシーングラフに変換し、それを3次元オブジェクト描画部12に供給する。
3次元オブジェクト描画部12は、そのシーングラフに基づいて3次元画像を生成する。3次元オブジェクト描画部12は、多角形検出部13および多角形描画部14により構成される。多角形検出部13は、入力されたシーングラフの中から多角形を検出し、その情報を多角形描画部14に供給する。多角形描画部14は、供給された多角形の頂点を2次元投影面に投影し、3次元画像22を描画し、その3次元画像22を画像処理装置1の外部に出力する。
このような画像処理装置1による3次元画像処理の具体的な処理の流れは、図2のフローチャートのようになる。すなわち、ステップS1において、3次元オブジェクト入力部11は、画像処理装置1の外部より供給される3次元オブジェクト21を読み込み、それをシーングラフに変換し、それを3次元オブジェクト描画部12の多角形検出部13に供給する。多角形検出部13は、ステップS2において、そのシーングラフから多角形を検出するための多角形検出処理を実行し、その検出結果を多角形描画部14に供給する。ステップS3において、多角形描画部14は、その検出結果に基づいて、シーングラフに未処理の多角形が存在するか否かを判定する。未処理の多角形が存在すると判定した場合、多角形描画部14は、処理をステップS4に進め、シーングラフに基づいてその多角形を2次元投影面に描画する。ステップS4の処理を終了すると、多角形描画部14は、処理をステップS2に戻し、次の多角形についてそれ以降の処理を繰り返す。
すなわち、3次元オブジェクト描画部12の多角形検出部13と多角形描画部14はステップS2乃至ステップS4の処理を繰り返し、シーングラフに含まれる全ての多角形を2次元投影面に描画する(3次元画像22を描画する)ように動作する。そして、ステップS3において、未処理の多角形が存在しないと判定した場合、多角形描画部14は、描画した3次元画像22を画像処理装置1の外部に出力し、3次元画像処理を終了する。
このように描画処理を利用して、移動体の現在位置から見た道路地図上における前方の道路の3次元画像を生成し、その3次元画像を用いて移動体の現在位置を案内する方法がある(例えば特許文献1参照)。図3の3次元画像31は、このような方法を利用して生成した、例えば、所謂カーナビゲーションシステム等において利用される案内画像の1つであり、自動車の運転手の視界を表現した3次元画像である。この3次元画像31は、ユーザである運転手が実際に見ている風景に近似するように描画された画像であり、この画像に重畳される道案内画像を、運転手が直感的に(容易に)理解することができるようにするための画像である。
このような3次元画像31においては、遠近感を表現するために、視点からの距離に比例して物体が小さく表現される。すなわち、3次元空間において、視点からの距離が遠い物体ほど小さく描画されており、視点に近い物体ほど大きく描画されている。
つまり、図4Aに示されるように、運転手(自動車)41が、端43Aと端43Bをはさんで向かい合うように並ぶ建造物44−1乃至建造物44−6の間の道路43を矢印42の方向に進む場合、3次元画像31においては、図4Bに示されるように、運転手41より遠い位置に存在する物体は小さく表現され、運転手41に近づくほど大きく表現されるので、道路の端43Aおよび43Bの間隔も運転手41からの距離に比例して狭くなる。また、建造物44−1乃至44−6も、運転手41からの距離に比例して小さく表現される。
ただし、このような遠近法が考慮された3次元画像においては、例えば広角歪等の歪が発生しやすい(例えば、特許文献2参照)。例えば、遠近法を利用して描画された3次元画像の場合、画像の周囲の部分(画像の端の部分)が引き伸ばされたようになってしまう(歪が生じてしまう)ことがあった。このような歪を抑制し、遠近法による作図を正確に行う為には、画像処理装置1は、3次元空間上における視点と物体の正しい位置を認識してその位置関係を正確に設定し、その設定を作図に利用する必要がある。例えば、視点から近い対象物体の3次元画像の方が視点から遠い対象物体の3次元画像よりも遠近感が強調される等、視点と対象物体との距離によって3次元画像の奥行き感が変化するが、このような設定が適切に行われていない場合、3次元画像上において対象物体が歪んでしまう。
特公平6−90041号公報 特開2000−122524号公報
しかしながら、画像処理装置1が、視点と対象物の位置関係を正確に設定し、3次元画像化する場合、生成された3次元画像においては、建造物44−1乃至建造物44−6の、運転手41(視点)に対する角度は、運転手41(視点)までの距離に関わらず、一定となってしまう。
つまり、例えば、図4Bに示されるように、3次元画像においては、建造物44−1の道路43(端43A)に向かう面44−1−A、建造物44−2の道路43(端43A)に向かう面44−2−A、建造物44−3の道路43(端43A)に向かう面44−3−A、建造物44−4の道路43(端43B)に向かう面44−4−A、建造物44−5の道路43(端43B)に向かう面44−5−A、および、建造物44−6の道路43(端43B)に向かう面44−6−Aの各面は、その向きが面44−1−A乃至面44−3−Aと面44−4−A乃至面44−6−Aとで互いに異なるものの、運転手41に対する角度、すなわち、図4Bの下側に対する角度が互いに等しくなるように描画される。
図4Bの場合、図4Bの下側からの投影図が、運転手41(視点)から見た視界を示す3次元画像である。この3次元画像においては、建造物44−1乃至44−6の面44−1−A乃至面44−6−Aは、それぞれ、範囲44−1−B乃至範囲44−6−Bに描画される。つまり、この3次元画像において、面44−1−A乃至面44−6−Aは、いずれも図4Bの下側に対して90度に近い大きな角度を有する部分であるので投影される範囲の広さが距離によって比較的変化しない。従って、3次元画像上において、面44−1−A乃至面44−6−Aの各面は、視点に近くなっても見え辛く表現される(描画範囲が狭い)。
これに対して、実際の視界の場合、運転手41は、近くの建造物に対して視線を移動して合わせることができる(建造物の方向を向くことができる)ため、近距離の物体について、運転手41は、図4Bの場合より多くの情報を得ることができる。例えば、遠くの位置(例えば、建造物44−1や建造物44−4の位置)では面44−1−Aや面44−4−Aが運転手41の位置からほとんど見えなくても、近くの位置(例えば、建造物44−3乃至建造物44−6の位置)に近づくと、それらの方向に視線を移動させることにより、運転手41は、これらの面(面44−1−Aおよび面44−4−A)をより詳細に観察することができる。すなわち、運転手41は、視線の方向を移動させることにより、物体に対する観察の度合いを視点からの距離に応じて変化させることができる。
このように視点を必要に動かすことにより、運転手41は、近距離の物体からより多くの情報を得ることができる。つまり、
通常、実際の世界においては、視点となる運転手41にとって、距離が近い位置の情報ほど重要であり、遠くなるほどその重要度は低下する。
しかしながら、上述したように歪を発生させないように3次元画像31を描画するので、画像処理装置1は、このような重要度に応じた表現を行うことができないという課題があった。つまり、画像処理装置1は、視点位置からの距離に応じてその視野角が制御された3次元画像を生成することができないという課題があった。
例えば、図4Bに示されるように、運転手41の視線の方向は固定されてしまうので、通常のモニタのように人間の視界より狭い画面にこのような3次元画像31が表示される場合、運転手41は、実際の視界ほど、近くの物体の情報を得ることができない恐れがあった。
また、ユーザである運転手41は、3次元画像31において、実際の視界のように、近距離の物体に対して視界を広げる(視線を移動させる)ことができないため、3次元画像31に表現される視界が狭く感じてしまう恐れがあった。
さらに、上述したように、カーナビゲーションシステムの案内画像にこの3次元画像31を利用した場合、同様の理由から、ユーザである運転手41に実際に見る視界と3次元画像31の視界の範囲が異なるように感じさせてしまい、運転手41が3次元画像31を直感的に現実の風景と対応させることができず、案内画像の内容を容易に理解することができない場合があるという恐れがあった。
また、このような視界の狭さを補うために、広角レンズを用いた場合のような効果を適用し、広い角度の視界の画像を通常の視界に圧縮して表現する方法がある。このような方法を用いて生成された広角画像には、広い視野角の情報が全て表現されるが、そのために画像が歪んでしまっていた。これにより、広角画像は、ユーザである運転手41が容易にその画像の内容を把握することができない恐れがあった。カーナビゲーションシステムの案内画像(小さい画面)に利用する場合、その問題は顕著になり、運転手41がその広角画像を直感的に現実の風景と対応させることができず、案内画像の内容を容易に理解することができない恐れがあった。
以上のように、これまで3次元オブジェクトの描画においては、奥行きに関係なく遠近法により一定の視野角度で描画していたため、視点からの距離に応じてオブジェクトを任意に変形することが困難であるという課題があった。また、広角画像のようにオブジェクトを変形させた場合、画像が歪んでしまい、その視認性が低下してしまうという課題があった。
本発明は、このような状況に鑑みてなされたものであり、例えば、画像の視認性を低下させずにオブジェクトを変形させ、オブジェクトの位置関係などに応じて表現される情報量に偏りを生じさせ、視点位置からの距離に応じてその視野角が制御された3次元画像を生成することにより、ユーザにとってより見やすい3次元画像を提供することができるようにするためのものである。
本発明の情報処理装置は、3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成する情報処理装置であって、前記3次元空間に存在する多角形の頂点を検出する頂点検出手段と、前記頂点検出手段により検出された前記頂点の位置を検出する位置検出手段と、前記位置検出手段による前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定する奥行き判定手段と、前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる頂点移動手段と、前記頂点を前記平面に投影し、前記3次元画像を描画する描画手段とを備える。
前記頂点移動手段は、前記奥行き判定手段により前記頂点が前記目標点よりも遠くに位置すると判定された場合、前記頂点の投影位置を移動させずに前記平面に投影させることができる。
前記頂点移動手段は、前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、さらに、前記平面に表される前記視界における前記横方向と異なる他の方向の前記目標点から離れる向きにも、前記頂点の投影位置を移動させることができる。
前記頂点移動手段は、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差に正比例する移動量分、前記他の方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させることができる。
前記他の方向は、前記平面に表される前記視界における、前記横方向に垂直な縦方向であるようにすることができる。
本発明の情報処理方法は、3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成する情報処理装置の情報処理方法であって、前記情報処理装置の頂点検出手段が、前記3次元空間に存在する多角形の頂点を検出し、前記情報処理装置の位置検出手段が、検出された前記頂点の位置を検出し、前記情報処理装置の奥行き判定手段が、前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定し、前記情報処理装置の頂点移動手段が、前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させ、前記情報処理装置の描画手段が、前記頂点を前記平面に投影し、前記3次元画像を描画する。
本発明のプログラムは、3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成するコンピュータを、前記3次元空間に存在する多角形の頂点を検出する頂点検出手段と、前記頂点検出手段により検出された前記頂点の位置を検出する位置検出手段と、前記位置検出手段による前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定する奥行き判定手段と、前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる頂点移動手段と、前記頂点を前記平面に投影し、前記3次元画像を描画する描画手段として機能させる。
本発明のナビゲーション装置は、3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成し、経路案内を行うナビゲーション装置であって、前記ユーザの現在位置および進行方向を検出する位置情報検出手段と、前記位置情報検出手段による検出結果に基づいて、前記3次元空間で表される地図情報を取得する地図情報取得手段と、前記地図情報取得手段により取得された前記地図情報が示す前記3次元空間に存在する多角形の頂点を検出する頂点検出手段と、前記頂点検出手段により検出された前記頂点の位置を検出する位置検出手段と、前記位置検出手段による前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定する奥行き判定手段と、前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる頂点移動手段と、前記頂点を前記平面に投影し、前記3次元画像を描画する描画手段と、前記描画手段により描画された前記3次元画像を表示する表示手段とを備える。
本発明の情報処理装置および方法、並びにプログラムにおいては、3次元空間に存在する多角形の頂点が検出され、検出された頂点の位置が検出され、頂点の位置の検出結果に基づいて、視点からみて頂点が奥行き方向に目標点よりも遠くに位置するか否かが判定され、頂点が目標点よりも近くに位置すると判定された場合、視点から目標点までの奥行き方向の距離と視点から頂点までの奥行き方向の距離との差の2乗に比例する移動量分、平面に表される視界における横方向の目標点から離れる向きに、頂点の投影位置が移動され、頂点が平面に投影され、3次元画像が描画される。
本発明のナビゲーション装置においては、ユーザの現在位置および進行方向が検出され、その検出結果に基づいて、3次元空間で表される地図情報が取得され、取得された地図情報が示す3次元空間に存在する多角形の頂点が検出され、その検出された頂点の位置が検出され、頂点の位置の検出結果に基づいて、視点からみて頂点が奥行き方向に目標点よりも遠くに位置するか否かが判定され、頂点が目標点よりも近くに位置すると判定された場合、視点から目標点までの奥行き方向の距離と視点から頂点までの奥行き方向の距離との差の2乗に比例する移動量分、平面に表される視界における横方向の目標点から離れる向きに、頂点の投影位置が移動され、頂点が平面に投影され、3次元画像が描画され、その描画された3次元画像が表示される。
本発明によれば、例えば、視点位置からの距離に応じて視野角を制御することにより、ユーザにとってより見やすい3次元画像を提供することができる。
以下に、本発明の実施の形態について図面を参照して説明する。
図5は、本発明を適用した画像処理装置の一実施の形態の構成例を示している。
図5において、画像処理装置101は、例えば、3次元空間の立体(オブジェクト)に関する情報に基づいて、そのオブジェクトを平面に投影した3次元画像を生成する画像処理装置である。画像処理装置101は、3次元オブジェクト入力部111および3次元オブジェクト描画部112により構成される。なお、図5において、長方形は、画像処理装置101を構成する処理部を示し、角丸長方形は、それらの処理部に入力または出力されるデータを示している。
画像処理装置101は、例えば頂点の座標情報等により構成される、3次元空間の立体(オブジェクト)を表すデータである3次元オブジェクト131を入力として受け付け、その3次元オブジェクト131に基づいて、3次元画像132を生成する画像処理装置である。
3次元オブジェクト入力部111は、立体の構造を記述したデータ(3次元オブジェクト131)を読み込み、その記述内容を3次元のオブジェクト階層を含むシーングラフに変換し、それを3次元オブジェクト描画部112に供給する。
3次元オブジェクト描画部112は、そのシーングラフに基づいて3次元画像132を生成する。3次元オブジェクト描画部112は、多角形検出部121、頂点検出部122、視線ベクトル位置関係検出部123、頂点奥行き判定部124、頂点移動部125、および多角形描画部126により構成される。
多角形検出部121は、入力されたシーングラフの中から多角形を検出し、その情報を頂点検出部122に供給する。頂点検出部122は、多角形検出部121において検出された多角形の頂点を検出し、その情報を視線ベクトル位置関係検出部123に供給する。視線ベクトル位置関係検出部123は、頂点検出部122において検出された各頂点の、立体空間における視点からの目標点の方向を示すベクトルである視線ベクトルを基準とする相対位置を求めることにより、各頂点と視線ベクトルとの位置関係を検出する。
図6は、視線ベクトルについて説明するための模式図である。図6に示されるように、平面に投影する3次元空間141には、3次元空間141を投影する位置および方向(範囲)を決定するために、視点151と目標点152が設定される。視点151はユーザの位置を示し、目標点152は、そのユーザの視界の中心となる位置と、投影画像の奥行き(立体度)を示す。すなわち、3次元画像は、ユーザが視点151において目標点152の方向を見たときの視界を表す画像であり、目標点152までの距離はその視界の奥行きを表している。例えば、画像処理装置101は、ユーザが遠くを見ない場合の視界を表す3次元画像を生成するとき、視点151と目標点152との距離を短く設定し、ユーザが遠くまで見る場合の視界を表す3次元画像を生成するとき、視点151と目標点152との距離を長く設定する。
図6に示されるように、この視点151から目標点152へ向かうベクトルを視線ベクトル161とし、視点151を含み視線ベクトル161に対して垂直な平面上において互いに垂直なベクトルをベクトル162およびベクトル163とする。つまり、視線ベクトル161は、視点151を基準とする目標点152の方向を示し、ベクトル162およびベクトル163は、その視線ベクトル161の垂直方向を示す。
図5の視線ベクトル位置関係検出部123は、この視線ベクトル161に対する各頂点の位置を検出する。つまり、視線ベクトル位置関係検出部123は、多角形を構成する各頂点に関して、図7に示されるように、視線ベクトル161への距離Uと、視線ベクトル161に垂直な横方向のベクトル162への距離Wを算出する。図5に戻り、視線ベクトル位置関係検出部123は、このように検出した各頂点の情報を頂点奥行き判定部124に供給する。
頂点奥行き判定部124は、視線ベクトル位置関係検出部123より供給された情報に基づいて、各頂点の視点151からの奥行きについて判定し、例えば、各頂点が目標点152より奥(遠く)に存在するか否かを判定し、その判定結果と頂点に関する情報を頂点移動部125に供給する。なお、この閾値となる奥行きの基準値は、どのような値であってもよく、目標点152の奥行きでなくてもよい。例えば、目標点152の奥行きの半分の距離であってもよいし、目標点152の奥行きの2倍の距離であってもよい。
頂点移動部125は、頂点奥行き判定部124の判定結果に基づいて、頂点の座標を補正し、頂点の位置を移動させる。図8は、頂点移動部125による頂点の位置を移動させる様子を説明する図である。
図8において、頂点171乃至頂点173は視点151から見て目標点152より手前(図8において点線191より下側)に存在する。従って、頂点移動部125は、これらの頂点171乃至頂点173を奥行き(目標点152までの視線ベクトル方向の距離)に応じた移動量で、視線ベクトル161に垂直な横方向のベクトル162の方向(図8中右方向)に移動させる。例えば、頂点移動部125は、視点151から目標点152までの距離から、各頂点の、視線ベクトル161に垂直なベクトル162までの距離Wを引いた値の2乗に比例するように移動量を決定する。図8において、四角181乃至四角183は、それぞれ、黒丸で示される頂点171乃至頂点173の移動後の点を示している。
また、図8において、頂点174および頂点175は視点151から見て目標点152より奥(図8において点線191より上側)に存在する。従って、頂点移動部125は、これらの頂点174および頂点175を移動させない。
さらに、図8において、頂点201乃至頂点203は、頂点171乃至頂点173と同様に、視点151から見て目標点152より手前(図8において点線191より下側)に存在する。しかしながら、頂点201乃至頂点203は、視線ベクトル161を挟んで頂点171乃至頂点173と反対側(図8において、視線ベクトル161の左側)に位置している。従って、頂点移動部125は、これらの頂点201乃至頂点203を奥行き(目標点152までの視線ベクトル方向の距離)に応じた移動量で、視線ベクトル161に垂直な横方向のベクトル162の逆方向(図8中左方向)に移動させる。図8において、四角211乃至四角213は、それぞれ、黒丸で示される頂点201乃至頂点203の移動後の点を示している。
なお、頂点の移動距離の決定方法は、視点151からの奥行きに基づくものであればどのような方法であっても良い。例えば、視点151からの奥行きが遠い頂点ほど移動距離が増すように制御しても良いし、目標点152より奥の頂点も移動させるようにしてもよい。
頂点移動部125は、このように頂点を移動させると、その移動後の頂点に関する情報を多角形描画部126に供給する。多角形描画部126は、供給された多角形の頂点(移動後の頂点)を2次元投影面に投影し、3次元画像132を描画し、その3次元画像132を画像処理装置101の外部に出力する。
なお、以上においては、頂点の横方向(ベクトル162の方向またはその逆方向)の移動についてのみ説明したが、画像処理装置101は、上述した横方向の場合と同様に、縦方向(ベクトル163の方向またはその逆方向)についても頂点を移動させる(座標を補正する)。ただし、頂点の横方向の移動と縦方向の移動は、互いに独立しているので、画像処理装置101は、頂点の横方向の移動量の決定方法と縦方向の移動量の決定方法とを互いに独立して設定することができる。つまり、画像処理装置101は、例えば、ある頂点の横方向の移動量を奥行きの2乗に比例するようにし、縦方向の移動量を奥行きに正比例するようにすることができる。このように、画像処理装置101は、頂点の、縦方向の移動量と横方向の移動量を任意に設定することができる。もちろん、画像処理装置101は、縦方向または横方向の一方にのみ頂点を移動させるようにすることもできる。
なお、移動の方向(補正の方向)は縦方向および横方向に限らず、視線ベクトルに対して、斜め方向、回転方向、奥行き方向等どのような方向であってもよい。また、各方向の補正を組み合わせ手用いるようにしてももちろんよい。
これにより、画像処理装置101は、3次元画像が、ユーザが容易に視認できなくなるほどの不要な歪を生じさせないように、投影画像における立体の頂点の位置を適切に補正し、ユーザがより見やすい画像を生成することができる。
このような画像処理装置101による3次元画像処理の具体的な処理の流れを、図9のフローチャートを参照して説明する。
3次元画像処理が開始されると、ステップS31において、3次元オブジェクト入力部111は、画像処理装置1の外部より供給される3次元オブジェクト131を読み込み、そのファイルに記述された内容を3次元のオブジェクト階層を含むシーングラフに変換し、そのシーングラフを3次元オブジェクト描画部112の多角形検出部121に供給する。多角形検出部121は、ステップS32において、そのシーングラフから多角形を検出するための多角形検出処理を実行し、その検出結果を頂点検出部122に供給する。
頂点検出部122は、ステップS33において、多角形検出部121による検出結果に基づいて、未処理の多角形が存在するか否かを判定する。後述する頂点に関する処理が行われていない多角形が存在すると判定した場合、頂点検出部122は、処理をステップS34に進め、その多角形を構成する頂点(多角形の頂点)を検出し、それを視線ベクトル位置関係検出部123に供給する。
視線ベクトル位置関係検出部123は、ステップS35において、頂点検出部122が検出した頂点の内、未処理の頂点が存在するか否かを判定し、後述する頂点の移動に関する処理を行っていない未処理の頂点が存在すると判定した場合、処理をステップS36に進め、視線ベクトル161に対する頂点の相対位置(図7のUおよびW)を検出し、その相対位置に関する情報を頂点奥行き判定部124に供給する。
頂点奥行き判定部124は、ステップS37において、視線ベクトル位置関係検出部123より供給された情報に基づいて、その頂点の奥行きが目標点152より遠いか否か等、頂点の奥行きに関する判定を行い、その判定結果と、座標等の頂点に関する情報を頂点移動部125に供給する。頂点移動部125は、ステップS38において、供給された判定結果に応じて頂点の座標を補正し、頂点を移動させる。頂点を移動させると頂点移動部125は、その移動後の頂点に関する情報を多角形描画部126に供給した後、処理をステップS35に戻し、それ以降の処理を繰り返させる。すなわち、3次元オブジェクト描画部112の各部は、ステップS35乃至ステップS38の処理を繰り返し、頂点検出部122が検出した全ての頂点について移動に関する処理を行う。
そして、ステップS35において、未処理の頂点が存在しないと判定した場合、視線ベクトル位置関係検出部123は、処理をステップS39に進める。ステップS39において、多角形描画部126は、頂点移動部125より供給された情報に基づいて、移動後の頂点を用いて、それらの頂点が構成する多角形を描画する。多角形を描画すると多角形描画部126は、処理をステップS32に戻し、次の多角形について、それ以降の処理を繰り返す。つまり、3次元オブジェクト描画部112の各部は、3次元空間の全ての立体の多角形を検出して処理するまで、ステップS32乃至ステップS39の処理を繰り返す。
そして、ステップS33において、未処理の多角形が存在しないと判定した場合、頂点検出部122は、多角形描画部126に、描画した3次元画像を出力させ、3次元画像処理を終了する。
以上のように3次元画像処理を実行することにより、画像処理装置101は、投影画像における立体の頂点の位置を適切に補正し、ユーザがより見やすい3次元画像を生成することができる。
つまり、図10Aに示されるように、ユーザ241(自動車)が、端243Aと端243Bをはさんで向かい合うように並ぶ建造物244−1乃至建造物244−6の間の道路243を矢印242の方向(図中上方向)に見ている(視線を向けている)場合、3次元画像においては、図10Bに示されるように、ユーザ241より遠い位置に存在する建造物244−1および建造物244−4が小さく表現され、ユーザ241に近い位置に存在する建造物244−3乃至建造物244−6が大きく表現される。また、図10Aにおいて、互いに向かい合っていた建造物244−1乃至建造物244−6の道路243側の面244−1−A乃至244−6−Aは、3次元画像において、ユーザ241の方向に開くように補正される。すなわち、図10Bに示されるように、面244−1−A乃至面244−6−Aの各面の、図10Bの下側に対して投影される場合の描画範囲244−1−B乃至244−6−Bは、各面のユーザ241からの距離によって大きく変化する。
つまり、上述したように3次元空間における各多角形の頂点の移動量が視点からの距離に応じて異なるため、図10Bに示されるように、ユーザ241から見て遠くに位置する面244−1−Aと面244−4−Aの図10Bの下側に対する角度の補正量は比較的少ないが、ユーザ241から見て近くに位置する面244−3−Aと面244−6−Aの、図10Bの下側に対する角度の補正量は比較的大きい。従って、面244−1−A乃至面244−6−Aの各面の描画範囲244−1−B乃至244−6−Bは、描画範囲244−3−Bおよび描画範囲244−6−B、描画範囲244−2−Bおよび描画範囲244−5−B、描画範囲244−1−Bおよび描画範囲244−4−Bの順番に広くなる。つまり、3次元画像においては、面244−3−Aおよび面244−6−A、面244−2−Aおよび面244−5−A、面244−1−Aおよび面244−4−Aの順番で見やすい画像として描画される(開いた状態で描画される)。
具体的な画像としては、図11のようになされる。図11の画像251は、図3の画像31と同じ視界の3次元画像を示す図であり、図3の画像31に描画された立体の頂点を移動させた後に描画された画像である。従って、図11において、画像251は手前のビルと遠くのビルとで向きが変化し、近くのビルほど、道路を挟んで向かい合っていた横の面が、ユーザにとって見やすくなるように描画されている。また、この画像251は、近傍のオブジェクトに対する視界が広がる実際のユーザの視界の特性と類似しているので、ユーザが直感的に画像の内容を把握しやすくなる。
つまり、以上のような3次元画像生成の手法は様々な分野に適用可能であるが、例えば、カーナビゲーションシステムに用いるようにしてもよい。
図12は、本発明を適用したカーナビゲーションシステムの構成例を示すブロック図である。図12において、長方形は、カーナビゲーションシステム300を構成する装置を示し、角丸長方形は、各装置に入力または出力されるデータを示している。
図12に示されるように、カーナビゲーションシステム300は、自動車を運転する運転手に対して道案内や現在地の通知を行うシステムであり、位置情報検出装置301、地図データベース302、画像処理装置303、および地図表示デバイス304により構成される。
位置情報検出装置301は、例えば、ユーザ等より入力されるルート指定311を受け付け、さらに地図データベース302を利用して現在地情報312を取得し、それらの情報を用いて、現在位置を検出し、その現在位置から視野情報313を生成し、それを画像処理装置303に供給する。
画像処理装置303は、画像処理装置101と同様の画像処理を行う装置であり、描画する立体の頂点を移動させて、画像を最適な形に変形させる処理を行うことができる。画像処理装置303は、位置情報検出装置301より視野情報を取得すると、地図データベース303より3次元地図情報314を取得し、それらの情報に基づいて3次元画像の出力画像315を生成し、地図表示デバイス304にそれを供給する。
地図表示デバイス304は、出力画像315に基づいて、地図を表示するための地図表示出力316をカーナビゲーションシステム300の外部に出力する。
このようにすることにより、カーナビゲーションシステム300は、立体の頂点が補正された画像を用いて、道案内や現在地表示を行うことができる。これにより、ユーザは、より実際の視界に近い3次元画像で道案内や現在地表示が行われるため、直感的に(より容易に)その画像の内容を把握することができる。
このようなカーナビゲーションシステム300によるナビゲーション処理の具体的な流れを図13のフローチャートを参照して説明する。
ナビゲーション処理を開始すると、位置情報検出装置301は、ステップS51において、現在位置および進行方向を検出し、ステップS52において、視野情報を生成し、それを画像処理装置303に供給する。画像処理装置303は、ステップS53において、位置情報検出装置301より供給された視野情報に基づいて、地図データベース302より3次元で表される地図情報である3次元地図情報314を取得する。
3次元地図情報314を取得した画像処理装置303は、ステップS54において、3次元画像処理を実行する。この3次元画像処理は、図9のフローチャートを参照して説明した3次元画像処理をサブフローとして実行する処理であり、その処理内容は図9のフローチャートと同様であるので、その説明を省略する。
ステップS54において、3次元画像処理が実行され、出力画像315が生成され出力されると、ディスプレイ等よりなる地図表示デバイス304は、その出力画像315を取得し、ステップS55において、その出力画像等に基づいて、出力用画像を生成し、ステップS56において出力用画像を表示する。
出力用画像を表示すると、地図表示デバイス304は、ステップS57に処理を進め、ナビゲーション処理を終了するか否かを判定し、ナビゲーション処理を継続し、終了しないと判定した場合、処理をステップS51に戻し、それ以降の処理を繰り返す。そして、ステップS57において、ナビゲーション処理を終了すると判定した場合、地図表示デバイス304は、処理をステップS58に進め、終了処理を行った後、ナビゲーション処理を終了する。
以上のように、頂点を移動させる補正処理を含む画像処理を、カーナビゲーション処理に適応することにより、カーナビゲーションシステム300は、立体の頂点が補正された画像を用いて、道案内や現在地表示を行うことができる。これにより、ユーザは、より近い物体が示す情報をより詳細に把握することができる。また、この画像は、より実際の視界に近い3次元画像構成されるため、直感的に(より容易に)その画像の内容を把握することができる。
つまり、従来の遠近法では、広角でオブジェクトを表示すると画像の上下の端部に近づくにつれて歪が生じるが、本発明の画像処理方法を3次元オブジェクトに施した場合、カーナビゲーションシステム300は、歪なしに広い視野角でオブジェクトを表示することができ、ユーザが容易に視認可能な画像を提供することができるという効果を得る。
また、この方法を3次元オブジェクトに施すと、カーナビゲーションシステム300は、目標点より遠いオブジェクトは小さく表示されるが、目標点より近いオブジェクトは大きく表示されるという効果がある。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、例えば、図5の画像処理装置101は、図14に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
図14において、パーソナルコンピュータ400のCPU(Central Processing Unit)401は、ROM(Read Only Memory)402に記憶されているプログラム、または記憶部413からRAM(Random Access Memory)403にロードされたプログラムに従って各種の処理を実行する。RAM403にはまた、CPU401が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU401、ROM402、およびRAM403は、バス404を介して相互に接続されている。このバス404にはまた、入出力インタフェース410も接続されている。
入出力インタフェース410には、キーボード、マウスなどよりなる入力部411、CRT、LCDなどよりなるディスプレイ、並びにスピーカなどよりなる出力部412、ハードディスクなどより構成される記憶部413、モデムなどより構成される通信部414が接続されている。通信部414は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース410にはまた、必要に応じてドライブ415が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア421が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部413にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図14に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア421により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM402や、記憶部413に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
従来の画像処理装置の構成例を示す図である。 従来の3次元画像処理を説明するフローチャートである。 従来の3次元画像の例を示す図である。 従来の3次元画像の特徴の例を示す図である。 本発明を適用した画像処理装置の構成例を示すブロック図である。 3次元空間の例を説明する図である。 視線ベクトルと頂点の関係を示す情報を説明する図である。 頂点の移動の様子を説明する模式図である。 3次元画像処理を説明するフローチャートである。 3次元画像の特徴の例を示す図である。 3次元画像の例を示す図である。 本発明を適用したカーナビゲーションシステムの構成例を示す図である。 ナビゲーション処理を説明するフローチャートである。 本発明を適用したパーソナルコンピュータの例を示す図である。
符号の説明
101 画像処理装置, 111 3次元オブジェクト入力部, 112 3次元オブジェクト描画部, 121 多角形検出部, 122 頂点検出部, 123 視線ベクトル位置関係検出部, 124 頂点奥行き判定部, 125 頂点移動部, 126 多角形描画部, 131 3次元オブジェクト, 132 3次元画像, 151 視点, 152 目標点, 161 視線ベクトル, 300 カーナビゲーションシステム, 301 位置情報検出装置, 302 地図データベース, 303 画像処理装置, 304 地図表示デバイス, 400 パーソナルコンピュータ

Claims (8)

  1. 3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成する情報処理装置であって、
    前記3次元空間に存在する多角形の頂点を検出する頂点検出手段と、
    前記頂点検出手段により検出された前記頂点の位置を検出する位置検出手段と、
    前記位置検出手段による前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定する奥行き判定手段と、
    前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる頂点移動手段と
    前記頂点を前記平面に投影し、前記3次元画像を描画する描画手段と
    を備える報処理装置。
  2. 前記頂点移動手段は、前記奥行き判定手段により前記頂点が前記目標点よりも遠くに位置すると判定された場合、前記頂点の投影位置を移動させずに前記平面に投影させる
    求項1に記載の情報処理装置。
  3. 前記頂点移動手段は、前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、さらに、前記平面に表される前記視界における前記横方向と異なる他の方向の前記目標点から離れる向きにも、前記頂点の投影位置を移動させる
    求項1に記載の情報処理装置。
  4. 前記頂点移動手段は、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差に正比例する移動量分、前記他の方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる
    求項3に記載の情報処理装置。
  5. 前記他の方向は、前記平面に表される前記視界における、前記横方向に垂直な縦方向である
    請求項3に記載の情報処理装置。
  6. 3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成する情報処理装置の情報処理方法であって、
    前記情報処理装置の頂点検出手段が、前記3次元空間に存在する多角形の頂点を検出し、
    前記情報処理装置の位置検出手段が、検出された前記頂点の位置を検出し、
    前記情報処理装置の奥行き判定手段が、前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定し、
    前記情報処理装置の頂点移動手段が、前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させ、
    前記情報処理装置の描画手段が、前記頂点を前記平面に投影し、前記3次元画像を描画する
    報処理方法。
  7. 3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成するコンピュータを、
    前記3次元空間に存在する多角形の頂点を検出する頂点検出手段と、
    前記頂点検出手段により検出された前記頂点の位置を検出する位置検出手段と、
    前記位置検出手段による前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定する奥行き判定手段と、
    前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる頂点移動手段と、
    前記頂点を前記平面に投影し、前記3次元画像を描画する描画手段
    として機能させるためのプログラム。
  8. 3次元空間において視点から目標点を見たときの視界を表すように、前記3次元空間を、前記視点から前記目標点に向かう奥行き方向に対して垂直な平面に投影した3次元画像を生成し、経路案内を行うナビゲーション装置であって、
    前記ユーザの現在位置および進行方向を検出する位置情報検出手段と、
    前記位置情報検出手段による検出結果に基づいて、前記3次元空間で表される地図情報を取得する地図情報取得手段と、
    前記地図情報取得手段により取得された前記地図情報が示す前記3次元空間に存在する多角形の頂点を検出する頂点検出手段と、
    前記頂点検出手段により検出された前記頂点の位置を検出する位置検出手段と、
    前記位置検出手段による前記頂点の位置の検出結果に基づいて、前記視点からみて前記頂点が前記奥行き方向に前記目標点よりも遠くに位置するか否かを判定する奥行き判定手段と、
    前記奥行き判定手段により前記頂点が前記目標点よりも近くに位置すると判定された場合、前記視点から前記目標点までの前記奥行き方向の距離と前記視点から前記頂点までの前記奥行き方向の距離との差の2乗に比例する移動量分、前記平面に表される前記視界における横方向の前記目標点から離れる向きに、前記頂点の投影位置を移動させる頂点移動手段と、
    前記頂点を前記平面に投影し、前記3次元画像を描画する描画手段と、
    前記描画手段により描画された前記3次元画像を表示する表示手段と
    を備えるビゲーション装置。
JP2004309460A 2004-10-25 2004-10-25 情報処理装置および方法、プログラム、並びにナビゲーション装置 Active JP4487188B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004309460A JP4487188B2 (ja) 2004-10-25 2004-10-25 情報処理装置および方法、プログラム、並びにナビゲーション装置
US11/242,945 US7420558B2 (en) 2004-10-25 2005-10-05 Information processing apparatus and method, program, and navigation apparatus
KR1020050094537A KR101216693B1 (ko) 2004-10-25 2005-10-07 정보처리장치 및 방법, 프로그램과 내비게이션장치
CNB2005101146552A CN100346356C (zh) 2004-10-25 2005-10-25 信息处理装置及方法、以及导航装置
EP05292246A EP1650712A3 (en) 2004-10-25 2005-10-25 Generation of a 3D image with controlled viewing angle for navigation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004309460A JP4487188B2 (ja) 2004-10-25 2004-10-25 情報処理装置および方法、プログラム、並びにナビゲーション装置

Publications (2)

Publication Number Publication Date
JP2006120057A JP2006120057A (ja) 2006-05-11
JP4487188B2 true JP4487188B2 (ja) 2010-06-23

Family

ID=35484095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004309460A Active JP4487188B2 (ja) 2004-10-25 2004-10-25 情報処理装置および方法、プログラム、並びにナビゲーション装置

Country Status (5)

Country Link
US (1) US7420558B2 (ja)
EP (1) EP1650712A3 (ja)
JP (1) JP4487188B2 (ja)
KR (1) KR101216693B1 (ja)
CN (1) CN100346356C (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487188B2 (ja) * 2004-10-25 2010-06-23 ソニー株式会社 情報処理装置および方法、プログラム、並びにナビゲーション装置
US7590487B2 (en) * 2006-08-10 2009-09-15 Alpine Electronics, Inc. Method and apparatus of displaying three-dimensional arrival screen for navigation system
JP4251218B2 (ja) 2007-01-31 2009-04-08 ソニー株式会社 情報処理装置、画像表示装置、情報処理システム、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラム
JP4858197B2 (ja) 2007-01-31 2012-01-18 ソニー株式会社 情報処理装置、画像表示装置、情報処理システム、情報処理方法およびプログラム
KR102341800B1 (ko) 2007-09-26 2021-12-21 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
US8209121B1 (en) * 2007-10-10 2012-06-26 Google Inc. Registration of location data to street maps using hidden markov models, and application thereof
US7675513B2 (en) 2008-03-14 2010-03-09 Evans & Sutherland Computer Corp. System and method for displaying stereo images
US8868338B1 (en) 2008-11-13 2014-10-21 Google Inc. System and method for displaying transitions between map views
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US9454847B2 (en) * 2009-02-24 2016-09-27 Google Inc. System and method of indicating transition between street level images
US9477368B1 (en) * 2009-03-31 2016-10-25 Google Inc. System and method of indicating the distance or the surface of an image of a geographical object
US8442764B2 (en) * 2009-05-29 2013-05-14 Schulze & Webb Ltd. 3-D map display
JP2011047866A (ja) * 2009-08-28 2011-03-10 Kddi Corp 表示方法および表示システム
CN103069814B (zh) * 2010-08-10 2016-05-11 株式会社尼康 图像处理装置、图像处理方法、显示装置、显示方法及程序
DE102010034139A1 (de) * 2010-08-12 2012-02-16 Valeo Schalter Und Sensoren Gmbh Verfahren zur Unterstützung eines Parkvorgangs eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
CN102054280B (zh) * 2010-11-29 2013-06-12 广东威创视讯科技股份有限公司 快速生成矢量图的方法及装置
JP6087185B2 (ja) * 2013-03-25 2017-03-01 株式会社ジオ技術研究所 3次元地図表示システム
FR3019361B1 (fr) * 2014-03-28 2017-05-19 Airbus Helicopters Procede de detection et de visualisation des obstacles artificiels d'un aeronef a voilure tournante
KR101668802B1 (ko) * 2014-09-03 2016-11-09 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법
JP6239186B2 (ja) * 2015-06-30 2017-11-29 三菱電機株式会社 表示制御装置及び表示制御方法及び表示制御プログラム
CN108292469B (zh) * 2015-12-09 2021-02-05 笠原一 位置信息确定方法、装置以及计算机存储介质
KR102087494B1 (ko) * 2018-03-15 2020-03-10 정상문 모바일 실시간 시뮬레이션 게임에서 객체를 표시하는 방법
US10652514B2 (en) * 2018-07-19 2020-05-12 Facebook, Inc. Rendering 360 depth content
CN109191890A (zh) * 2018-08-10 2019-01-11 重庆唯哲科技有限公司 基于深度读取的车库辅助驾驶方法及辅助***
CN111723716B (zh) * 2020-06-11 2024-03-08 深圳地平线机器人科技有限公司 确定目标对象朝向的方法、装置、***、介质及电子设备

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3621214A (en) * 1968-11-13 1971-11-16 Gordon W Romney Electronically generated perspective images
JPH0690041B2 (ja) * 1989-06-26 1994-11-14 本田技研工業株式会社 移動体の現在位置表示装置
US5751927A (en) * 1991-03-26 1998-05-12 Wason; Thomas D. Method and apparatus for producing three dimensional displays on a two dimensional surface
JP2759934B2 (ja) 1992-09-07 1998-05-28 澁谷工業株式会社 ガスレーザ装置におけるダスト除去装置
JP3635729B2 (ja) * 1995-08-31 2005-04-06 株式会社セガ 画像処理方法、画像処理装置および疑似体験装置
JP3635359B2 (ja) * 1995-11-09 2005-04-06 株式会社ルネサステクノロジ 透視投影計算装置および透視投影計算方法
EP1460604A3 (en) * 1996-04-16 2006-11-02 Xanavi Informatics Corporation Map display device, navigation device and map display method
JP3375258B2 (ja) * 1996-11-07 2003-02-10 株式会社日立製作所 地図表示方法及び装置並びにその装置を備えたナビゲーション装置
JPH10198822A (ja) * 1997-01-10 1998-07-31 Sharp Corp 画像合成装置
JP3116019B2 (ja) * 1997-06-30 2000-12-11 一成 江良 三次元画像データ作成方法および三次元カラー画像表示方法
US6014145A (en) * 1997-07-07 2000-01-11 International Business Machines Corporation Navagation with optimum viewpoints in three-dimensional workspace interactive displays having three-dimensional objects with collision barriers
JPH11238144A (ja) * 1998-02-20 1999-08-31 Nippon Columbia Co Ltd 画像変換装置及び画像変換方法及び画像変換プログラムが記録された記録媒体
US6061066A (en) * 1998-03-23 2000-05-09 Nvidia Corporation Method and apparatus for creating perspective correct graphical images
US6191794B1 (en) * 1998-04-08 2001-02-20 Nvidia Corporation Method and apparatus for scaling texture maps for graphical images
JP2000122524A (ja) 1998-10-09 2000-04-28 Yoyogi Live Animation:Kk 遠近法作図習熟器
JP3668019B2 (ja) * 1998-10-27 2005-07-06 株式会社ソニー・コンピュータエンタテインメント 記録媒体、画像処理装置および画像処理方法
RU2001130343A (ru) * 1999-04-09 2003-08-20 Сони Компьютер Энтертейнмент Инк. (Jp) Способ и устройство для создания объемных изображений
US6346938B1 (en) * 1999-04-27 2002-02-12 Harris Corporation Computer-resident mechanism for manipulating, navigating through and mensurating displayed image of three-dimensional geometric model
US6710774B1 (en) * 1999-05-12 2004-03-23 Denso Corporation Map display device
JP2001133271A (ja) * 1999-11-08 2001-05-18 Alpine Electronics Inc 車載用ナビゲーション装置
JP3280355B2 (ja) * 1999-11-18 2002-05-13 株式会社ナムコ 画像生成システム及び情報記憶媒体
US6476813B1 (en) * 1999-11-30 2002-11-05 Silicon Graphics, Inc. Method and apparatus for preparing a perspective view of an approximately spherical surface portion
US6198488B1 (en) * 1999-12-06 2001-03-06 Nvidia Transform, lighting and rasterization system embodied on a single semiconductor platform
JP3718472B2 (ja) * 1999-12-06 2005-11-24 富士通株式会社 画像表示方法および装置
WO2001069537A1 (fr) * 2000-03-14 2001-09-20 Aisin Aw Co., Ltd. Dispositif d'affichage de carte routiere et support d'enregistrement utilise dans ledit dispositif
DE60137660D1 (de) * 2000-03-17 2009-04-02 Panasonic Corp Kartenanzeige- und Navigationsvorrichtung
JP2001283254A (ja) * 2000-03-31 2001-10-12 Mitsubishi Electric Corp 3次元グラフィックス描画装置およびその方法
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
US6628284B1 (en) * 2000-09-07 2003-09-30 International Business Machines Corporation Method and apparatus for processing graphics perspective transformations
JP2002257562A (ja) * 2001-03-02 2002-09-11 Kenwood Corp ナビゲーション装置
US6943789B2 (en) * 2001-03-16 2005-09-13 Mitsubishi Electric Research Labs, Inc Conversion of adaptively sampled distance fields to triangles
JP4763947B2 (ja) * 2001-09-30 2011-08-31 株式会社三共 遊技機
US6882934B2 (en) * 2002-03-14 2005-04-19 Matsushita Electric Industrial Co., Ltd. Apparatus and method for displaying map
JP3838143B2 (ja) * 2002-04-12 2006-10-25 松下電器産業株式会社 地図表示装置
US20040165776A1 (en) * 2002-09-20 2004-08-26 Albert-Jan Brouwer Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures
KR100520707B1 (ko) * 2003-10-20 2005-10-17 엘지전자 주식회사 3차원 지도에서의 다중레벨 텍스트데이터 표시방법
JP4487188B2 (ja) * 2004-10-25 2010-06-23 ソニー株式会社 情報処理装置および方法、プログラム、並びにナビゲーション装置

Also Published As

Publication number Publication date
CN1766932A (zh) 2006-05-03
JP2006120057A (ja) 2006-05-11
EP1650712A3 (en) 2011-08-17
US7420558B2 (en) 2008-09-02
KR20060052131A (ko) 2006-05-19
CN100346356C (zh) 2007-10-31
KR101216693B1 (ko) 2012-12-28
EP1650712A2 (en) 2006-04-26
US20060087507A1 (en) 2006-04-27

Similar Documents

Publication Publication Date Title
JP4487188B2 (ja) 情報処理装置および方法、プログラム、並びにナビゲーション装置
WO2021197189A1 (zh) 基于增强现实的信息显示方法、***、装置及投影设备
JP6092437B1 (ja) 仮想空間画像提供方法、及びそのプログラム
EP3321889A1 (en) Device and method for generating and displaying 3d map
US8768043B2 (en) Image display apparatus, image display method, and program
WO2014020663A1 (ja) 地図表示装置
US20210225017A1 (en) Structuring visual data
JP2022523478A (ja) マルチビュー視覚データからの損傷検出
US8749547B2 (en) Three-dimensional stereoscopic image generation
KR102582407B1 (ko) 포비에이티드 메시들로 몰입형 비디오 콘텐츠를 렌더링하기 위한 방법들, 시스템들, 및 매체들
WO2009128181A1 (ja) 画像表示装置、画像表示装置の制御方法及び情報記憶媒体
US20230005101A1 (en) Information processing apparatus, information processing method, and recording medium
TW201919390A (zh) 顯示系統以及顯示方法
EP3511910A1 (en) Apparatus and method for generating view images
US20030080937A1 (en) Displaying a virtual three-dimensional (3D) scene
US20190137770A1 (en) Display system and method thereof
KR101473234B1 (ko) 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템
US20210037230A1 (en) Multiview interactive digital media representation inventory verification
JP2009259130A (ja) 画像表示装置、画像表示装置の制御方法及びプログラム
JP5174522B2 (ja) 画像表示装置、画像表示装置の制御方法及びプログラム
Ueno et al. [Poster] Overlaying navigation signs on a road surface using a head-up display
US20170052684A1 (en) Display control apparatus, display control method, and program
WO2022239297A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250