JP4980153B2 - Image display device and image display method - Google Patents
Image display device and image display method Download PDFInfo
- Publication number
- JP4980153B2 JP4980153B2 JP2007164072A JP2007164072A JP4980153B2 JP 4980153 B2 JP4980153 B2 JP 4980153B2 JP 2007164072 A JP2007164072 A JP 2007164072A JP 2007164072 A JP2007164072 A JP 2007164072A JP 4980153 B2 JP4980153 B2 JP 4980153B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- map image
- cube
- mapping
- mapped
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は、画像制御技術に関連し、特に、3次元画像表示技術に関する。 The present invention relates to an image control technique, and more particularly to a three-dimensional image display technique.
近年、地球を模した立体オブジェクト、いわば、「仮想地球」をさまざまな角度から観察可能なアプリケーション・ソフトウェアが広く利用されつつある(以下、このようなアプリケーション・ソフトウェアのことを「仮想地球儀アプリケーション」とよぶ)。 In recent years, application software that can observe the three-dimensional object that imitates the earth, that is, the “virtual earth” from various angles has been widely used (hereinafter, such application software is referred to as “virtual globe application”). Called).
仮想地球儀アプリケーションでは、人工衛星や航空機から実際の地球(以下、「仮想地球」と区別するために「実地球」とよぶ)を撮影したときの実写画像を仮想地球の表面に貼り付けることも多い。このような仮想地球儀アプリケーションの実現には、インターネットやコンピュータ・グラフィックス技術の発達に加えて、NASA(National Aeronautics and Space Administration)による衛星写真の無償提供も大きく寄与している。衛星写真が貼り付けられた仮想地球をさまざまな位置から観察することにより、あたかも宇宙空間から実地球を眺めているかのようなユーザインタフェースが実現される。立体的な仮想地球を俯瞰しながら目的地を探すというユーザインタフェースのおもしろさにより、仮想地球儀アプリケーションは注目を集めている。 In a virtual globe application, a real image of a real earth (hereinafter referred to as “real earth” to distinguish it from “virtual earth”) from artificial satellites or aircraft is often pasted on the surface of the virtual earth. . In addition to the development of the Internet and computer graphics technology, the free provision of satellite photographs by NASA (National Aeronautics and Space Administration) contributes greatly to the realization of such virtual globe applications. By observing the virtual earth to which the satellite photograph is pasted from various positions, a user interface as if looking at the real earth from outer space is realized. Virtual globe applications are attracting attention due to the interesting user interface of finding a destination while looking down at a three-dimensional virtual earth.
しかしながら、衛星写真が貼り付けられた仮想地球をさまざまな位置から観察できるユーザインタフェースを提供したとしても、ユーザには実地球を眺めているという実感が湧かない、言い換えれば「写実性」とでもいうべきものがともなわないことがある。たとえば、高度500メートルから実地球を見たときには、地上の構造物や山脈、河川がくっきりと見える。一方、高度1万メートルから実地球を見たときには、地表面は大気中の水蒸気によって霞んで見えるかもしれない。また、地表面の一部は月の影や雲によって隠されているかもしれない。このように、実地球の「見え方」は高度によってさまざまに変化する。特に、遠距離から実地球を眺める場合には、遠距離観察にともなう写実性が重要である。 However, even if a user interface is provided that allows the user to observe the virtual earth with satellite images from various positions, the user does not feel that he or she is looking at the real earth. In other words, it is also called “realism”. Sometimes there is nothing to do. For example, when you see the real earth from an altitude of 500 meters, you can clearly see the structures, mountain ranges, and rivers on the ground. On the other hand, when you look at the real earth from an altitude of 10,000 meters, the ground surface may appear muddy due to water vapor in the atmosphere. Also, part of the ground surface may be hidden by the moon's shadow and clouds. In this way, the “view” of the real earth varies depending on altitude. In particular, when viewing the real earth from a long distance, the realism associated with long-distance observation is important.
本発明は、本発明者の上記認識に基づいてなされたものであり、その主たる目的は、立体オブジェクトと視点との距離に対応するかたちにて立体オブジェクトを写実的に表現するための技術、を提供することである。 The present invention has been made on the basis of the above recognition of the present inventor, and the main purpose thereof is a technique for realistically expressing a three-dimensional object in a form corresponding to the distance between the three-dimensional object and the viewpoint. Is to provide.
本発明のある態様は、画像表示装置に関する。
この装置は、仮想空間内にある立体オブジェクトの表面に貼り付けるべき画像として、球座標マップ画像とキューブマップ画像をそれぞれ保持する。
この装置は、ユーザが指定する視点から立体オブジェクト表面までの距離を観察距離とし、この観察距離が所定の境界値よりも大きいときには、キューブマップ画像を立体オブジェクトにマッピングし、観察距離が境界値以下であるときには、球座標マップ画像を立体オブジェクトにマッピングする。
One embodiment of the present invention relates to an image display device.
This apparatus holds a spherical coordinate map image and a cube map image as images to be pasted on the surface of a three-dimensional object in the virtual space.
This device uses the distance from the viewpoint specified by the user to the surface of the three-dimensional object as an observation distance. When this observation distance is larger than a predetermined boundary value, the cube map image is mapped to the three-dimensional object, and the observation distance is equal to or less than the boundary value. If it is, the spherical coordinate map image is mapped to the solid object.
なお、本発明を方法、システム、プログラム、記録媒体により表現したものもまた、本発明の態様として有効である。 In addition, what expressed this invention with the method, the system, the program, and the recording medium is also effective as an aspect of this invention.
本発明によれば、立体オブジェクトを仮想空間においていっそう写実的に表現しやすくなる。 According to the present invention, a three-dimensional object can be expressed more realistically in a virtual space.
図1は、仮想地球202と視点の関係を示す模式図である。
画像表示装置100は、コンピュータ・グラフィックスにより3次元の仮想空間200を生成する。仮想空間200には仮想地球202が含まれる。仮想地球202は、実地球を模した球体状の立体オブジェクトである。ユーザは、仮想空間200内の任意の位置に視点を移動して仮想地球202を観察する。
FIG. 1 is a schematic diagram showing the relationship between the
The
観察画像204aは、座標Aから仮想地球202を眺めたときの2次元画像である。以下、仮想空間内の所定の視点位置から仮想地球202を見た場合にスクリーンに投影される2次元画像のことを「観察画像」とよぶ。航空機から見た実地球の姿と人工衛星軌道から見た実地球の姿、あるいは、月軌道から見た実地球の姿は互いに異なる。低空から地表面を眺めると木々や町並みがくっきり見えるが、高空から地表面を眺めたときには大気中の水蒸気によって地表は霞んで見える。また、雲や月の影によって地表面の一部が隠されることもある。実地球を俯瞰したときの映像に近い写実的な観察画像204を生成するためには、視点と仮想地球202との距離に応じて画像表現方法を変化させる必要がある。本実施例に示す画像表示装置100は、視点と仮想地球202との距離に応じた写実性を提供できる。
The
ユーザが視点を座標Aに設定すると、画面には観察画像204aが表示される。座標Aは仮想地球202の地表面に近いため、観察画像204aには、山脈や港湾、街といった地表面の詳細が表現される。
一方、観察画像204bは、座標Bを視点として仮想地球202を眺めたときの画像である。座標Bは座標Aに比べると地表から遠い。そのため、観察画像204bでは、地表面の詳細はくっきり表現されないが、代わりに仮想地球202全体の明暗がはっきりと表現されている。
When the user sets the viewpoint to coordinate A, an
On the other hand, the
本実施例においては、実地球の実写画像やコンピュータ・グラフィックスにより実地球を模した画像をベースとして観察画像を生成する。以下、このベースとなる画像のことを「基本ソース画像」とよぶ。実写に基づく基本ソース画像の場合、実地球を撮影したときの高度や位置はさまざまである。また、広角レンズにより広い範囲を対象として撮影された基本ソース画像もあれば、望遠レンズにより狭い範囲を対象として詳細に撮影された基本ソース画像もある。このように、基本ソース画像によって画像の「詳細度」もさまざまである。たとえば、1画素が1メートル×1メートルに対応する詳細度の高い、すなわち、精緻な基本ソース画像もあれば、1画素が150メートル×150メートルに対応する詳細度の低い、すなわち、粗い基本ソース画像もある。位置や詳細度といった観察条件の異なるさまざまな基本ソース画像は、「球座標マップ画像」または「キューブマップ画像」の2種類の形式にて保持される。観察画像204中における所定点Pの画素値は、点Pに対応する地球表面上の点Qの2次元パラメータ座標に基づいて、球座標マップ画像またはキューブマップ画像のいずれかのテクスチャから対応するテクセル値を読み出し、点Qにテクスチャマッピングすることによって求められるが、詳細は後述する。 In this embodiment, an observation image is generated based on a real image of the real earth or an image imitating the real earth by computer graphics. Hereinafter, this base image is referred to as a “basic source image”. In the case of a basic source image based on live action, the altitude and position when the real earth is photographed vary. In addition, there is a basic source image taken for a wide range by a wide-angle lens, and a basic source image taken in detail for a narrow range by a telephoto lens. As described above, the “detail level” of the image varies depending on the basic source image. For example, there is a high level of detail, that is, a fine basic source image where 1 pixel corresponds to 1 meter × 1 meter, or a low level of detail, ie, a rough basic source, where 1 pixel corresponds to 150 meters × 150 meters. There are also images. Various basic source images having different observation conditions such as position and detail are stored in two types of formats, “spherical coordinate map image” and “cube map image”. Based on the two-dimensional parameter coordinates of the point Q on the earth surface corresponding to the point P, the pixel value of the predetermined point P in the observation image 204 is the corresponding texel from the texture of either the spherical coordinate map image or the cube map image. The value is read out and texture-mapped to the point Q, which will be described in detail later.
図2(a)、図2(b)、図2(c)は、球座標マップ画像と詳細度との関係を示す模式図である。
図2(a)の球体206aは、仮想地球202を包含する形状として想定された球体である。この球体206aの表面は複数の格子状領域208に分割される。同図においては、北極と南極を結ぶ軸を中心として、緯度・経度に平行するかたちで各格子状領域208が設定される。図2(a)の球体206aの場合、8枚の格子状領域208に分割される。
各格子状領域208は、メルカトル図法等の既知の方法により平面展開される。格子状領域208は、所定画素数により表現される平面状の球座標マップ画像250と対応づけられる。図2(a)においては、格子状領域208aに対応するのは球座標マップ画像250aである。各球座標マップ画像250は画像メモリに保持される。ここでいう画像メモリは、フラッシュディスクなどの不揮発性メモリであることが好ましい。球形状の格子状領域208を平面形状の球座標マップ画像250に変換するため、極点付近の格子状領域208の一部が大きく引き延ばされることになる。
FIG. 2A, FIG. 2B, and FIG. 2C are schematic diagrams showing the relationship between the spherical coordinate map image and the level of detail.
A
Each lattice region 208 is planarly developed by a known method such as Mercator projection. The grid area 208 is associated with a planar spherical
図2(b)の球体206bも、仮想地球202を包含する形状の球体であるが、球体206bの表面は、図2(a)の8枚の格子状領域をさらに緯度・経度方向に2分割した32枚の格子状領域208に分割される。球体206bにおける格子状領域208bも、所定画素数の球座標マップ画像250と対応づけられる。図2(b)においては、格子状領域208bに対応するのは球座標マップ画像250bである。格子状領域208aの球座標マップ画像250aと格子状領域208bの球座標マップ画像250bは、対象領域の大きさは異なっても、表現に要する画素数は同じである。球体206aに比べて球体206bは、より多くの格子状領域208に分割されている。そのため、格子状領域208aの球座標マップ画像250aに比べると格子状領域208bの球座標マップ画像250bの方が、狭い範囲を詳細に表現できることになる。すなわち、格子状領域208aの球座標マップ画像250aよりも、格子状領域208bの球座標マップ画像250bの方が詳細度が高い。図2(c)の球体206cの表面は、図2(b)の32枚の格子状領域をさらに緯度・経度方向に2分割した128枚の格子状領域208に分割されている。このため、球体206cの格子状領域208cは、図2(a)から図2(c)に示す3つの球体206の中で、最も詳細度の高い球座標マップ画像250cが対応づけられる。詳しくは後述するが、本実施例における詳細度は、レベル0からレベル8の9段階に分けられる。レベル0(L0)は、詳細度が最も低いかわりに球座標マップ画像250がカバーする範囲が最も広い。レベル8(L8)は、詳細度が最も高いかわりに球座標マップ画像250がカバーする範囲は最も狭い。図2(a)〜図2(c)の場合、球体206c、球体206b、球体206aの順に詳細度レベルが高い。
The
画像表示装置100は、格子状領域208の分割方法において異なる複数種類の球体を想定し、各球体それぞれについて詳細度が異なる複数種類の球座標マップ画像250を用意しておく。まず、仮想地球202の表面から視点までの距離に応じて詳細度が特定される。図8に関連して後述するが、この距離が大きいほど詳細度は低くなる。
The
図3(a)、図3(b)、図3(c)は、球座標マップ画像250を仮想地球202の表面にマッピングすることにより、観察画像の画素値を求める方法を説明する図である。
特定された詳細度の球座標マップ画像250に基づいて観察画像を生成するとき、観察画像中の点Pにおける画素値は、以下のテクスチャマッピングの処理にて求められる。まず、対象点Pの位置を観察画像のスクリーン座標(x,y)により特定する。点P(x,y)に対応する仮想地球202の表面上の点Qの2次元パラメータ座標は、図3(a)のように、仮想地球202に対して定められる緯度θ、経度φの組合せである球座標(θ,φ)により特定される。ここで、経度φは、地点Q、北極点、および南極点を通る大円と、グリニッジ子午線とがなす角度であり、東経には+、西経には−をつけて0〜180度の角度で表される。緯度θは、地点Qにおける天頂の方向と赤道面とがなす角度であり、北緯には+、南緯には−をつけて0〜90度の角度で表される。
FIGS. 3A, 3 </ b> B, and 3 </ b> C are diagrams for explaining a method of obtaining the pixel value of the observation image by mapping the spherical coordinate
When an observation image is generated based on the spherical coordinate
次に、点Qにマッピングされるべきテクスチャである球座標マップ画像250を特定する。格子状にメモリ展開された球座標マップ画像250のいずれをテクスチャとして使用するかは、点Qの球座標(θ,φ)の値の範囲により決めることができる。図3(b)のように、8枚の格子状領域からなる球座標マップ画像250を用いる場合を考える。図3(b)の球座標マップ画像250は、経度φの範囲によってA〜Dの4つの領域に分けられている。経度θが0〜90度の範囲ではA領域の画像が、90〜180度の範囲ではB領域の画像が、−180〜−90度の範囲ではC領域の画像が、−90〜0度の範囲ではD領域の画像がそれぞれ使われる。さらに、この球座標マップ画像250は、緯度θの範囲によって、アルファベットA〜Dの前に付した+/−の符号で区別される2つの領域に分けられている。緯度θが0〜90度の範囲では、+A〜+Dのいずれかの領域の画像が使われ、緯度θが−90〜0度の範囲では、−A〜−Dのいずれかの領域の画像が使われる。
たとえば、点Qの緯度θが40度、経度φが50度であれば、+A領域の画像(符号250a)が使用すべきテクスチャとして特定される。特定したテクスチャから点Qの2次元パラメータ座標(θ,φ)に基づいてテクセル値を読み出し、点Qにマッピングする。点Qにマッピングされたテクセル値が観察画像中の点Pにおける画素値となる。
Next, a spherical coordinate
For example, if the latitude θ of the point Q is 40 degrees and the longitude φ is 50 degrees, the image in the + A region (reference numeral 250a) is specified as the texture to be used. A texel value is read from the identified texture based on the two-dimensional parameter coordinates (θ, φ) of the point Q, and mapped to the point Q. The texel value mapped to the point Q becomes the pixel value at the point P in the observation image.
詳細度が高い球座標マップ画像250を用いる場合も、緯度θ、経度φの範囲の区切り方が異なる以外は同様である。図3(c)の32枚の格子状領域からなる球座標マップ画像250は、経度φの範囲の45度ずつ区切ることで経度の方向にA〜Hの8つの領域に分けられる。さらに、この球座標マップ画像250は、緯度θの範囲を45度ずつ区切ることで緯度の方向に4つの領域に分けられる。緯度θが0〜45度の範囲では+A1〜+H1のいずれかの領域の画像が、45〜90度の範囲では+A2〜+H2のいずれかの領域の画像が、−45〜0度の範囲では−A1〜−H1のいずれかの画像が、−90〜−45度の範囲では−A2〜−H2のいずれかの画像がそれぞれ使われる。たとえば、点Qの緯度θが40度、経度φが50度であれば、+B1領域の画像(符号250b)が使用すべきテクスチャとして特定され、点Qの2次元パラメータ座標(θ,φ)にもとづいてテクセル値が読み出され、点Qにマッピングされる。
The same applies to the case where the spherical coordinate
以下、このような球座標マップ画像250の仮想地球202へのマッピングを「球マッピング」とよぶ。
Hereinafter, such mapping of the spherical coordinate
図4(a)、図4(b)、図4(c)は、キューブマップ画像と詳細度との関係を示す模式図である。
図4(a)の立方体210aは、仮想地球202を包含する形状として想定された立方体である。この立方体210aの表面は複数の格子状領域212に分割される。同図においては、北極側を上面、南極側を底面とするかたちで、立方体210が設定される。図4(a)の立方体210aの場合、6枚の格子状領域212に分割される。各格子状領域212も平面展開される。各格子状領域212は、所定画素数の平面状のキューブマップ画像252と対応づけられる。図4(a)においては、格子状領域212aに対応するのはキューブマップ画像252aである。各格子状領域212のキューブマップ画像252は、画像メモリに保持される。
FIG. 4A, FIG. 4B, and FIG. 4C are schematic diagrams showing the relationship between the cube map image and the level of detail.
A
図4(b)の立方体210bの表面は、図4(a)の6枚の格子状領域をさらに縦横にそれぞれ2分割した24枚の格子状領域212に分割される。立方体210bの格子状領域212bのキューブマップ画像252bも、所定画素数の画像として保持される。格子状領域212aのキューブマップ画像252aに比べると格子状領域212bのキューブマップ画像252bの方が、狭い範囲を詳細に表現できることになる。図3(c)の立方体210cの表面は、図4(b)の24枚の格子状領域をさらに縦横にそれぞれ2分割した96枚の格子状領域212に分割されている。このため、立方体210cの格子状領域212cは、図4(a)から図4(c)に示す3つの立方体210の中で、最も詳細度の高いキューブマップ画像252が対応づけられる。キューブマップ画像252も、球座標マップ画像250と同様に、後述のようにレベル0からレベル8の9段階の詳細度をもつ。
The surface of the
画像表示装置100は、格子状領域212の分割の仕方において異なる複数種類の立方体を想定し、各立方体それぞれについて詳細度が異なる複数種類のキューブマップ画像252を用意しておく。まず、仮想地球202の表面から視点までの距離に応じて詳細度が特定される。
The
図5および図6を参照して、キューブマップ画像252を仮想球体202の表面にマッピングすることにより、観察画像の画素値を求める方法を説明する。
With reference to FIG. 5 and FIG. 6, a method of obtaining the pixel value of the observation image by mapping the
図5(a)、図5(b)は、立方体210の各面と、キューブマップ画像252の各格子状領域の対応関係を説明する図である。図5(a)のように、立方体210の各面がワールド座標系(x,y,z)のxy面、yz面、zx面に対して平行になるように設定する。立方体210の各面の向きは、+X、−X、+Y、−Y、+Z、−Zの6方向であり、これらの6方向により立方体210の各面を識別する。図5(b)は、図5(a)の立方体210を展開して得られるキューブマップ画像252である。+X、−X、+Y、−Y、+Z、−Zの各面のテクスチャに対してテクスチャ座標系(S,T)が定義される。6方向のいずれかの面のテクスチャを特定して、テクスチャ座標値(S,T)を指定することにより、特定されたテクスチャの指定された座標のテクセルを読み出すことができる。
FIGS. 5A and 5B are diagrams illustrating the correspondence between each surface of the
図6(a)、図6(b)、図6(c)は、キューブマップ画像252を仮想球体202の表面にマッピングすることにより、観察画像の画素値を求める方法を説明する図である。
特定されたキューブマップ画像252に基づいて観察画像を生成するとき、観察画像中の点Pにおける画素値は、以下のテクスチャマッピングの処理にて求められる。まず、対象点Pの位置を観察画像のスクリーン座標(x,y)により特定する。点P(x,y)に対応する仮想地球202の表面上の点Qの2次元パラメータ座標は、図6(a)のように、仮想地球202に対して定められる緯度θ、経度φの組合せである球座標(θ,φ)により特定される。
FIGS. 6A, 6 </ b> B, and 6 </ b> C are diagrams illustrating a method for obtaining the pixel value of the observation image by mapping the
When an observation image is generated based on the specified
次に、点Qにマッピングされるべきテクスチャであるキューブマップ画像252を特定する。キューブマップ画像252のいずれの面をテクスチャとして使用するかは、点Qの球座標(θ,φ)により定まる方位により決めることができる。仮想球体202の中心と点Qを結ぶ直線が立方体210のいずれの面と交わるかを判定する。図6(a)の例では、仮想球体202の中心と点Qを結ぶ直線は立方体210の+Z面と交点Rにおいて交わる。交点Rの+Z面における座標値すなわちテクスチャ座標(S,T)を求めておく。図6(b)のように、6枚の格子状領域からなるキューブマップ画像252を用いる場合は、キューブマップ画像252の+Z面のテクスチャ(符号252a)が使用すべきテクスチャとして特定される。特定したテクスチャから点Rのテクスチャ座標(S,T)に対応するテクセル値を読み出して点Qにマッピングする。このようにしてキューブマッピングの手法によって点Qにマッピングされたテクセル値が観察画像中の点Pにおける画素値となる。
Next, a
詳細度が高いキューブマップ画像252を用いる場合も、テクスチャの解像度が高くなる以外は同様である。図6(c)の24枚の格子状領域からなるキューブマップ画像252を用いる場合も、キューブマップ画像252の+Z面のテクスチャ(符号252b)が使用すべきテクスチャとして特定される。図6(c)のテクスチャの解像度は図6(b)のテクスチャの解像度の2倍である。この2倍の解像度をもつテクスチャから点Rのテクスチャ座標(S,T)に対応するテクセル値が読み出され、点Qにマッピングされる。
The same applies to the case where the
以下、このようなキューブマップ画像252の仮想地球202へのマッピングを「キューブマッピング」とよぶ。
Hereinafter, such mapping of the
詳細度の異なるキューブマップ画像252は、ミップマップ(MIP-MAP)テクスチャで構成することができる。
図7(a)、図7(b)、図7(c)、図7(d)は、キューブマップ画像252のミップマップ構造を説明する図である。キューブマップ画像252は、図7(a)のように立方体の面ごとに詳細度レベル1〜3のテクスチャを並べたデータ構造を有する。レベル1の6枚のテクスチャは、各面が低解像度のテクスチャで構成される図7(b)のキューブマップ画像に対応する。レベル2の6枚のテクスチャは、図7(b)の低解像度のテクスチャに比べて解像度が縦横とも2倍になった中解像度のテクスチャで各面が構成された図7(c)のキューブマップ画像に対応する。レベル3の6枚のテクスチャは、図7(c)の中解像度のテクスチャに比べて解像度がさらに縦横とも2倍になった高解像度のテクスチャで各面が構成された図7(d)のキューブマップ画像に対応する。
FIG. 7A, FIG. 7B, FIG. 7C, and FIG. 7D are diagrams for explaining the mipmap structure of the
球座標マップ画像は、仮想地球202の表面上の位置を定める緯度および経度の組合せである球座標に対応づけて画素値を格納したテクスチャであるため、仮想地球202にテクスチャマッピングされたときの画層の歪みが少ないという利点がある。そのため、球座標マップは、衛星写真から得られた実写画像を格納するのにより適している。ただし、極座標には極点が存在するというデメリットがあり、北極や南極といった極点に近づくほど格子状領域208の画像が引き延ばされるため球座標マップ画像250の歪みが大きなってしまう。そして極点においては、複数の球座標マップ画像250が一転に集中してマッピングされることになるため、極点を上部から観察すると、極点に向かう集中線が描画されることになり、描画品質が著しく劣化するという不都合が生じる。
The spherical coordinate map image is a texture in which pixel values are stored in association with spherical coordinates that are combinations of latitude and longitude that determine the position on the surface of the
一方、キューブマップ画像の場合、立方体の6方向から見た地球の画像をテクスチャとしてもつことになるため、データ構造上は球座標マップ画像にような特異点が存在せず、極点に向かって集中線が生じるという問題は発生しない。ただし、通常は球座標のデータ構造で提供される衛星写真をキューブマップ画像に移し替えるには前処理が必要となるというデメリットがある。しかしながら、キューブマッピングはコンピュータグラフィックスの分野で確立した技術であるから、さまざまなコンピュータグラフィックスのエフェクト技術を利用できるという利点がある。中にはキューブマップ画像を前提としてエフェクト処理を行うためのロジックがハードウェアとして組み込まれていることもある。このため、キューブマップ画像を仮想地球202にマッピングする場合、グロウシェーディング(gouraud shading)やバイリニアフィルタリング(bi-liner filtering)、フォグ(Fog)といったさまざまなエフェクト技術を利用しやすいというメリットがある。そのため、キューブマップ画像には、衛星写真のような地球の実写画像そのものを使うよりは、物理シミュレーションなどの計算によって生成される仮想的な地球の画像を利用することがより適切であることも多い。
On the other hand, in the case of a cube map image, the Earth image viewed from the six directions of the cube has a texture, so there is no singular point on the data structure as in the spherical coordinate map image, and it concentrates toward the extreme point. The problem of line formation does not occur. However, there is a demerit that pre-processing is required to transfer a satellite photograph normally provided in a spherical coordinate data structure to a cube map image. However, since cube mapping is a technology established in the field of computer graphics, there is an advantage that various computer graphics effect technologies can be used. In some cases, logic for effect processing on the premise of a cube map image is incorporated as hardware. Therefore, when mapping the cube map image to the
そこで、画像表示装置100は、仮想地球202の地表面近くに視点が設定されるときには、マッピング時の歪みが小さく地表面を正確に表現しやすい球マッピングを実行し、視点が仮想地球202から遠く離れるときには、仮想地球202全体を俯瞰しやすく宇宙から見た地球の様子を演出しやすいキューブマッピングを実行する。こうして仮想地球202にマッピングされた球座標マップ画像またはキューブマップ画像に基づいて、観察画像全体が生成される。このような処理方法により、近距離だけでなく遠距離から観察しても写実的な観察画像を生成しやすくなっている。
Therefore, when the viewpoint is set near the ground surface of the
図8は、詳細度を説明するための模式図である。
視点214aから仮想地球202を所定画角にて観察したときにカバーされる範囲は、観察範囲216aである。視点214aよりも遠い視点214bから仮想地球202を上記画角にて観察したときカバーされる範囲は、観察範囲216bである。更に、遠い視点214cから仮想地球202を上記画角にて観察したときにカバーされる範囲は、観察範囲216cである。
FIG. 8 is a schematic diagram for explaining the degree of detail.
The range covered when the
観察範囲216aは、3つの観察範囲216の中で範囲は最も狭いが、地表を最も詳細に観察できる。すなわち詳細度は3つの視点214a、b、cの中で最も高い。一方、観察範囲216cは、3つの観察範囲216a、b、cの中で最も範囲が大きいが、その分だけ詳細度は最も低くなっている。このように、視点と仮想地球202との距離に応じて詳細度が特定される。
The
図9は、観察距離と詳細度との関係を説明するための模式図である。
先述したように、詳細度は、レベル0からレベル8の9段階に分けられる。レベル0(L0)は、詳細度が最も低いかわりに観察範囲216が最も広く、レベル8は詳細度が最も高いかわりに観察範囲216は最も狭い。視点が仮想地球202の表面から遠いときにはキューブマップ画像、近いときには球座標マップ画像が仮想地球202にマッピングされる。キューブマッピングと球マッピングのいずれを採用するかは、視点から仮想地球202の地表面までの距離(以下、「観察距離」とよぶ)によって決定される。
FIG. 9 is a schematic diagram for explaining the relationship between the observation distance and the degree of detail.
As described above, the level of detail is divided into nine levels from
仮想地球202の地表面からは所定の「境界距離」が設定される。この境界距離の値のことを「境界値」とよぶ。境界面218は、仮想地球202の地表面から境界距離だけ離れた面を示す。観察距離が境界距離よりも長いとき、いいかえれば、視点が境界面218の外にあるときには、キューブマップ画像がマッピングされる。一方、観察距離の大きさが境界値以下のときには球座標マップ画像がマッピングされる。以下においては、仮想地球202から境界面218までの空間を「近距離圏」、境界面218よりも遠い空間を「遠距離圏」とよぶ。
A predetermined “boundary distance” is set from the ground surface of the
ここで、視点を遠距離圏の点Hから仮想地球202の地表面上の点Oに向けて移動させる。点Oは、点Hの仮想地球202表面に対する投影点である。点Oから近い順に、点A、B、C、・・・、Hと一直線上に並ぶものとする。
Here, the viewpoint is moved from the point H in the far field to the point O on the ground surface of the
観察距離が線分OHよりも大きいときには、レベル0のソース画像に基づくキューブマップ画像(以下、「キューブマップ画像(L0)」のように表記する)が仮想地球202にマッピングされる。視点が点Hよりも地表面に近づき線分GH上に至ると、キューブマップ画像(L0)ではなくキューブマップ画像(L1)がマッピングされる。このように、視点が点Hよりも仮想地球202側に動くと、マッピングすべきキューブマップ画像が切り替わる。
When the observation distance is larger than the line segment OH, a cube map image (hereinafter referred to as “cube map image (L0)”) based on the
視点が点Gよりも地表面に近づき点FG上に至るとキューブマップ画像(L2)、視点が線分EF上に至るとキューブマップ画像(L3)がマッピングされる。視点が点Eよりも地表面に近づくとキューブマップ画像(L4)がマッピングされる。境界距離は線分ODよりも長く、線分OEよりも短く設定されている。このため、視点が線分DE上を仮想地球202に向かって移動し続け、視点が境界面218を通り抜けると、すなわち、観察距離が境界値以下となると、キューブマップ画像(L4)ではなく球座標マップ画像(L4)がマッピングされる。視点が点Dを通過し線分CD上に至ると、球座標マップ画像(L5)がマッピングされる。このように仮想地球202に近づくほど、詳細度のレベルが高いマップ画像がマッピング対象として選択される。観察距離が境界値以下となったときには、キューブマッピングから球マッピングにマッピング方法が切り替えられる。仮想地球202から視点が遠ざかるときにはちょうど逆プロセスとなる。
When the viewpoint approaches the ground surface rather than the point G and reaches the point FG, the cube map image (L2) is mapped, and when the viewpoint reaches the line segment EF, the cube map image (L3) is mapped. When the viewpoint approaches the ground surface rather than the point E, the cube map image (L4) is mapped. The boundary distance is set longer than the line segment OD and shorter than the line segment OE. For this reason, when the viewpoint continues to move on the line segment DE toward the
画像表示装置100においては、キューブマッピングと球マッピングの見た目上の切り替えをスムーズにするために、いくつかの工夫が施されている。
(1)まず、線分DE上を視点が移動するときには、同一詳細度のマップ画像がマッピング対象として選択されている。図9の場合、視点が線分DE上にあって、遠距離圏側にあるときにはキューブマップ画像(L4)がマッピングされ、近距離圏側にあるときには同じ詳細度の球座標マップ画像(L4)がマッピングされる。キューブマッピングであっても球マッピングであっても、マッピングの切り替えに際しては同一詳細度のマップ画像が選択されるので、マッピング方法の切り替えにともなう見た目上の違和感が抑制される。
In the
(1) First, when the viewpoint moves on the line segment DE, a map image having the same level of detail is selected as a mapping target. In the case of FIG. 9, the cube map image (L4) is mapped when the viewpoint is on the line segment DE and is on the far field side, and the spherical coordinate map image (L4) having the same level of detail when it is on the near field side. Are mapped. Regardless of cube mapping or sphere mapping, map images with the same level of detail are selected when switching the mapping, so that the uncomfortable feeling of appearance associated with the switching of the mapping method is suppressed.
(2)視点が遠距離圏にあるとき、すなわち、キューブマップ画像がマッピングされるときには、仮想地球202に対してはさまざまなエフェクトが施される。たとえば、太陽光によって仮想地球202の水平線を光らせたり、月の影による陰影をつけたり、あるいは、大気中の水蒸気によって地表が霞む様子を演出表現する。画像表示装置100は、キューブマップ画像がマッピングされた仮想地球202に複数種類のエフェクトを施す。遠距離圏にある視点が境界面218に近づくにしたがって施すべきエフェクトの種類が削減される。たとえば、視点が点Hよりも遠いときには、5種類のエフェクトを施すとする。視点が線分GH上にあるときには、4種類のエフェクトを施す。視点が線分FG上にあるときには3種類のエフェクトを施し、視点が線分DE上にあるときにはすべてのエフェクトを無効化する。遠距離圏の視点が境界面218に近づくにしたがって施すべきエフェクトの種類を削減していくことにより、マッピング方法の切り替えにともなう見た目上の変化からユーザの注目をそらしている。
なお、エフェクトの種類を削減するだけでなく、エフェクトの量を減少させてもよい。たとえば、太陽光の照り返しを表現するために鏡面反射光によるエフェクト表現を行う場合、視点が境界面218に近づくにしたがって入射光の設定値を弱めてもよい。
(2) When the viewpoint is in the far range, that is, when the cube map image is mapped, various effects are applied to the
In addition to reducing the types of effects, the amount of effects may be reduced. For example, when effect expression using specular reflection light is performed in order to express sunlight reflection, the set value of incident light may be weakened as the viewpoint approaches the
(3)視点が境界面218を通過するとき、雲の中を通り抜ける演出が実行される。仮想空間200においては、境界面218を薄く包む切替圏220が設定される。視点が切替圏220に入ると、雲の演出を実行する。このような処理方法によってもマッピング方法の切り替えにともなう見た目の上の違和感を抑制しやすくなる。
(3) When the viewpoint passes through the
図10は、境界距離と仮想地球202との関係を示す模式図である。
上述したように、球マッピングの場合、極点に集中線が発生する。極点付近の格子状領域208の形状が三角形となるため、各三角形の頂点が極点に集中するためである。一方、キューブマッピングの場合、仮想地球202全体について比較的均等にマッピングできる。そこで、極点付近では境界距離が短くなるように境界面218を設定する。
このような設定によれば、視点が極点近くにあるときには、視点が仮想地球202の地表面近くに至るまでキューブマッピングが実行される。すなわち、視点が極点付近にあるときには集中線の発生しないキューブマッピングが優先的に選択される。
FIG. 10 is a schematic diagram showing the relationship between the boundary distance and the
As described above, in the case of sphere mapping, a concentrated line is generated at the extreme point. This is because the shape of the lattice region 208 near the poles is a triangle, and the vertices of each triangle are concentrated on the poles. On the other hand, in the case of cube mapping, the entire
According to such a setting, when the viewpoint is near the extreme point, cube mapping is executed until the viewpoint reaches near the ground surface of the
図11は、画像表示装置100の機能ブロック図である。
ここに示す各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
FIG. 11 is a functional block diagram of the
Each block shown here can be realized in hardware by an element such as a CPU of a computer or a mechanical device, and in software it is realized by a computer program or the like. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.
画像表示装置100は、ユーザインタフェース処理部110、データ処理部120およびデータ保持部140を含む。
ユーザインタフェース処理部110は、ユーザからの入力処理やユーザに対する情報表示のようなユーザインタフェース全般に関する処理を担当する。データ処理部120は、ユーザインタフェース処理部110を介した入力操作を元にして各種のデータ処理を実行する。データ処理部120は、ユーザインタフェース処理部110とデータ保持部140の間のインタフェースの役割も果たす。データ保持部140は、予め用意された各種の設定データや、データ処理部120から受け取ったさまざまなデータを格納する。
The
The user
ユーザインタフェース処理部110は、入力部112と表示部114を含む。入力部112はユーザからの入力操作を受け付ける。表示部114は、観察画像などの各種情報を画面表示させる。
The user
データ保持部140は、球座標マップ画像保持部144およびキューブマップ画像保持部146を含む。球座標マップ画像保持部144は、詳細度において異なる複数種類の球座標マップ画像を保持する。画像メモリ240に対応する。キューブマップ画像保持部146は、詳細度において異なる複数種類のキューブマップ画像を保持する。キューブマップ画像保持部146も画像メモリ240に対応する。
The
データ処理部120は、マッピング部122、位置検出部128、エフェクト部136および雲演出部138を含む。
マッピング部122は、各種マップ画像を仮想地球202にマッピングする。マッピング部122は、球マッピング部124、キューブマッピング部126およびマッピング選択部132を含む。マッピング選択部132は、観察距離と境界値を比較して、キューブマップ画像と球座標マップ画像のいずれを仮想地球202にマッピングするか判定する。また、観察距離に応じて、マップ画像の詳細度を決定する。球マッピング部124は、マッピング選択部132が球マッピングを選択するとき、指定された詳細度の球座標マップ画像を仮想地球202にマッピングする。キューブマッピング部126は、マッピング選択部132がキューブマッピングを選択するとき、指定された詳細度のキューブマップ画像を仮想地球202にマッピングする。
The
The
位置検出部128は、ユーザが入力部112を介して指定した視点の座標を検出する。
エフェクト部136は、視点が遠距離圏にあるときに仮想地球202にさまざまなエフェクトを施す。また、観察距離に応じて実行すべきエフェクトと無効にすべきエフェクトを特定する。雲演出部138は、視点が境界面218を包む切替圏220を通過するときに、雲の中を通り抜ける動画像を表示させる。
The
The
図12は、マッピング処理過程を示すフローチャートである。
ユーザが仮想空間200内における視点を変更したとき、図12に示す処理が開始される。まず、位置検出部128は、変更後の視点の座標を検出する(S10)。視点が近距離圏内であれば(S12のY)、マッピング選択部132は球マッピングを選択する(S14)。このとき観察距離に応じて詳細度も決定される。球マッピング部124は、球座標マップ画像保持部144から該当する球座標マップ画像を読み出し、仮想地球202にマッピングする(S16)。
FIG. 12 is a flowchart showing the mapping process.
When the user changes the viewpoint in the
一方、遠距離圏内であれば(S12のN)、マッピング選択部132はキューブマッピングを選択する(S18)。このとき観察距離に応じて詳細度も決定される。キューブマッピング部126は、キューブマップ画像保持部146から該当するキューブマップ画像を読み出し、仮想地球202にマッピングする(S20)。エフェクト部136は、観察距離に応じて各種エフェクトの実行可否を判定する(S22)。エフェクトを施すときには(S22のY)、観察距離に応じて複数種類のエフェクトの全部または一部を施す(S24)。視点が境界面218に近く、エフェクト不要であるときには(S22のN)、S24はスキップされる。
On the other hand, if it is within a long range (N of S12), the
表示部114は、キューブマップ画像または球座標マップ画像のマッピングにより観察画像を表示させる(S25)。
雲演出部138は、視点が切替圏220内にあるか判定する(S26)。雲演出部138は、視点がこの切替圏220内にあるときに(S26のY)、雲を示す画像を観察画像上に重ねあわせる(S28)。
The
The
球マッピングは、球座標マップ画像を仮想地球202にマッピングするときに歪みが小さいため、地表面を詳細に示す上で有利である。一方、視点が仮想地球202から遠いときには、キューブマッピングにおける多彩なエフェクト技術を使用できるため、実地球を宇宙空間から眺めたときの雰囲気を再現しやすくなる。視点が仮想地球202から遠いときには、キューブマップ画像を仮想地球202にマッピングするときの歪みの影響も小さくなる。このように、球マッピングとキューブマッピングを相補的に活用することにより、仮想地球202と視点との距離に対応したかたちにて、仮想地球202を写実的に表現できる。
Spherical mapping is advantageous in showing the ground surface in detail because distortion is small when a spherical coordinate map image is mapped to the
タンジェント空間などに基づく公知のレンダリング技術は、球マッピングよりもキューブマッピングに親和性があり、キューブマップ画像については、雲の表面を立体的に見せたり雲の影を作るといったエフェクトを施しやすい。 A known rendering technique based on tangent space has affinity for cube mapping rather than sphere mapping, and the cube map image is likely to have an effect of making the surface of the cloud appear three-dimensional or making a cloud shadow.
更に、詳細度が異なる球座標マップ画像、または、キューブマップ画像をマッピングすることにより、観察距離に応じた写実性を実現しやすいマップ画像を選択できる。マッピング方法の切り替え、すなわち、キューブマッピングと球マッピングの切り替えに際しては、同一詳細度のマップ画像を選択し、エフェクトの種類の変更、雲を通り抜ける演出により、切り替えにともなう見た目上の違和感を抑制している。 Furthermore, by mapping spherical coordinate map images or cube map images with different levels of detail, map images that can easily realize realism according to the observation distance can be selected. When switching the mapping method, that is, switching between cube mapping and sphere mapping, select a map image with the same level of detail, change the type of effect, and produce effects that pass through the clouds to suppress the uncomfortable feeling that is associated with the switching. Yes.
本実施例においては地球をモチーフとして説明したが、地球などの天体に限らず、仮想空間において表現可能なさまざまな物体に本発明を応用可能である。また、本実施例においては、「キューブマッピング」については立方体を対象として説明したが、立方体に限らず、対象物の形状に応じてさまざまな形状の六面体、あるいは、多面体形式のマップ画像をマッピングしてもよい。 In the present embodiment, the earth has been described as a motif. However, the present invention is not limited to celestial bodies such as the earth, but can be applied to various objects that can be expressed in a virtual space. In this embodiment, “cube mapping” has been described for a cube. However, the present invention is not limited to a cube, and map images of various shapes such as hexahedrons or polyhedrons are mapped according to the shape of the object. May be.
仮想地球202の一部だけではなく、地表面全体を一画面にて見たい場合もある。ユーザからの指示に応じて、3次元球体状の仮想地球202を2次元平面図に展開してもよい。球体を2次元平面に展開するための方法論としては、メルカトル図法やミラー図法といったさまざまな方法論が確立されている。球座標マップ画像はメモリ上で平面展開されているから、その画像をそのまま2次元表示させれば2次元地図になる。このように、球座標マップ画像を用いた場合、仮想地球202を3次元表示している状態から、2次元平面の地図を表示する状態に簡単に移行できるという利点がある。球座標マッピングを用いることで、地球の3次元表示状態と平面地図表示状態の切り換えをともなうアプリケーションの開発も容易である。
In some cases, it is desired to view not only a part of the
仮想地球202と視点の距離が大きいときには、実写ではなくコンピュータグラフィックス画像を仮想地球202にマッピングしてもよい。このコンピュータグラフィックス画像は、詳細な地形データそのものでなくてもよい。まず、フラッシュメモリには詳細な地形データを配置せず、陸地と海の境界を示すベクトルデータ、都市や森林の配置を示すテクスチャデータだけを用意しておく。仮想地球202から視点が離れているときには、このような省サイズデータの細部をフラクタル処理により補うことにより、擬似的にマップ画像を生成してもよい。視点が仮想地球202に近づくと、ネットワークを介してサーバから詳細なテクスチャデータをストリーミングし、フラクタル画像のマッピングから正確・詳細な画像のマッピングに移行させてもよい。オフライン時や、ハードディスクの空き容量が乏しいときには、視点が仮想地球202から一定距離以内に近づかないように制御してもよい。
When the distance between the
画像表示装置100の機能は、「画像表示プログラム」というコンピュータ・プログラムとして提供されてもよい。たとえば、画像表示プログラムがDLL(Dynamic Link Library)として提供され、アプリケーション・ソフトウェアは、表現したい物体の球座標マップ画像とキューブマップ画像を用意した上で、画像表示プログラムとリンクする。このような態様によれば、アプリケーション・プログラムは、画像表示プログラムの機能を取り込むことができるため、観察距離に応じて写実的にオブジェクトの表現することができる。
The functions of the
アプリケーション・ソフトウェアがコンピュータゲーム・ソフトウェアであれば、ゲームフィールドの地形画像を球座標マップ画像、キューブマップ画像として画像表示プログラムに提供すれば、ゲームフィールドを遠近から写実的に眺める機能を実現できる。
たとえば、画像表示プログラムの機能を利用することにより、ゲームフィールド上のある地点Aから上昇して、地点Bに向けて降下するという画像表現を簡易に実現できる。
If the application software is computer game software, a game field terrain image can be provided to the image display program as a spherical coordinate map image and a cube map image, thereby realizing a function of realistically viewing the game field from a distance.
For example, by using the function of the image display program, it is possible to easily realize an image expression that rises from a certain point A on the game field and descends toward the point B.
更に、加速度センサやジャイロセンサを搭載したコントロールデバイスにより視点を動的に変化させてもよい。このような態様によれば、直感的なユーザインタフェースにて、地球をさまざまな角度から俯瞰できる。 Furthermore, the viewpoint may be dynamically changed by a control device equipped with an acceleration sensor or a gyro sensor. According to such an aspect, it is possible to look down at the earth from various angles with an intuitive user interface.
以上、本発明を実施例をもとに説明した。この実施例はあくまで例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 In the above, this invention was demonstrated based on the Example. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. is there.
100 画像表示装置、 110 ユーザインタフェース処理部、 112 入力部、 114 表示部、 120 データ処理部、 122 マッピング部、 124 球マッピング部、 126 キューブマッピング部、 128 位置検出部、 132 マッピング選択部、 134 画像選択部、 136 エフェクト部、 138 雲演出部、 140 データ保持部、 144 球座標マップ画像保持部、 146 キューブマップ画像保持部、 200 仮想空間、 202 仮想地球、 204 観察画像、 206 球体、 208 格子状領域、 210 立方体、 212 格子状領域、 214 視点、 216 観察範囲、 218 境界面、 220 切替圏、 240 画像メモリ、 242 画像領域。 100 image display device, 110 user interface processing unit, 112 input unit, 114 display unit, 120 data processing unit, 122 mapping unit, 124 sphere mapping unit, 126 cube mapping unit, 128 position detection unit, 132 mapping selection unit, 134 images Selection unit, 136 effect unit, 138 cloud rendering unit, 140 data holding unit, 144 spherical coordinate map image holding unit, 146 cube map image holding unit, 200 virtual space, 202 virtual earth, 204 observation image, 206 sphere, 208 grid Area, 210 cube, 212 grid area, 214 viewpoints, 216 observation range, 218 interface, 220 switching area, 240 image memory, 242 image area.
Claims (11)
前記立体オブジェクトの表面にマッピングされるべき画像として、キューブマップ画像を保持するキューブマップ画像保持部と、
ユーザから、前記仮想空間内における視点の指定を検出する位置検出部と、
前記視点から前記立体オブジェクト表面までの距離である観察距離が所定の境界値よりも大きいときには、前記キューブマップ画像を前記立体オブジェクトにマッピングし、前記観察距離が前記境界値以下であるときには、前記球座標マップ画像を前記立体オブジェクトにマッピングするテクスチャマッピング部と、
を備えることを特徴とする画像表示装置。 A spherical coordinate map image holding unit that holds a spherical coordinate map image in which pixels are stored in association with spherical coordinates, as an image to be mapped to the surface of the three-dimensional object in the virtual space;
As an image to be mapped to the surface of the three-dimensional object, a cube map image holding unit that holds a cube map image,
A position detection unit that detects designation of a viewpoint in the virtual space from a user;
When the observation distance, which is the distance from the viewpoint to the surface of the solid object, is larger than a predetermined boundary value, the cube map image is mapped to the solid object, and when the observation distance is less than the boundary value, the sphere A texture mapping unit for mapping a coordinate map image to the solid object;
An image display device comprising:
前記球座標マップ画像は、前記現実の物体を実写した画像を利用したものであり、
前記キューブマップ画像は、所定の計算により生成され、前記現実の物体を模式的に表す画像を利用したものであることを特徴とする請求項1に記載の画像表示装置。 The solid object imitates a real object,
The spherical coordinate map image is an image obtained by taking an image of the real object,
The image display apparatus according to claim 1, wherein the cube map image is generated by a predetermined calculation and uses an image schematically representing the real object.
前記テクスチャマッピング部は、前記観察距離に対応する詳細度の前記球座標マップ画像を前記立体オブジェクトにマッピングすることを特徴とする請求項1に記載の画像表示装置。 The spherical coordinate map image holding unit holds a plurality of types of spherical coordinate map images with different degrees of detail,
The image display apparatus according to claim 1, wherein the texture mapping unit maps the spherical coordinate map image having a degree of detail corresponding to the observation distance to the solid object.
前記テクスチャマッピング部は、前記観察距離に対応する詳細度の前記キューブマップ画像を前記立体オブジェクトにマッピングすることを特徴とする請求項1または3に記載の画像表示装置。 The cube map image holding unit holds a plurality of types of cube map images having different levels of detail,
The image display apparatus according to claim 1, wherein the texture mapping unit maps the cube map image having a degree of detail corresponding to the observation distance to the solid object.
マッピング方法の切り替えの前後において、前記立体オブジェクトを覆う雲を通り抜ける演出を実行する雲演出部、を更に備えることを特徴とする請求項1に記載の画像表示装置。 The three-dimensional object is an object that imitates a celestial body having clouds,
The image display device according to claim 1, further comprising a cloud effect unit that executes an effect of passing through the clouds covering the solid object before and after the switching of the mapping method.
ユーザから、前記仮想空間内における視点の指定を検出するステップと、
前記視点から前記立体オブジェクト表面までの距離である観察距離と所定の境界値との長短を比較するステップと、
前記観察距離が前記境界値よりも大きいとき、前記立体オブジェクトの表面にマッピングされるべき画像であるキューブマップ画像を前記立体オブジェクトにマッピングするステップと、
前記観察距離が前記境界値以下であるとき、前記立体オブジェクトの表面にマッピングされるべき画像として、球座標に対応づけて画素が格納された球座標マップ画像を前記立体オブジェクトにマッピングするステップと、
を実行させることを特徴とする画像表示方法。 Generating a virtual space including a standing body object,
Detecting a designation of a viewpoint in the virtual space from a user;
Comparing an observation distance, which is a distance from the viewpoint to the surface of the solid object, and a predetermined boundary value;
Mapping a cube map image , which is an image to be mapped to the surface of the three-dimensional object, when the observation distance is larger than the boundary value;
When the observation distance is equal to or less than the boundary value , mapping a spherical coordinate map image in which pixels are stored in association with spherical coordinates as the image to be mapped to the surface of the solid object, to the solid object;
The image display method characterized by performing.
前記立体オブジェクトの表面にマッピングされるべき画像として、キューブマップ画像を保持する機能と、
ユーザから、前記仮想空間内における視点の指定を検出する機能と、
前記視点から前記立体オブジェクト表面までの距離である観察距離が所定の境界値よりも大きいときには、前記キューブマップ画像を前記立体オブジェクトにマッピングし、前記観察距離が前記境界値以下であるときには、前記球座標マップ画像を前記立体オブジェクトにマッピングする機能と、
をコンピュータに発揮させることを特徴とする画像表示プログラム。 A function of holding a spherical coordinate map image in which pixels are stored in association with spherical coordinates as an image to be mapped to the surface of a three-dimensional object in the virtual space;
A function of holding a cube map image as an image to be mapped to the surface of the three-dimensional object;
A function for detecting designation of a viewpoint in the virtual space from a user;
When the observation distance, which is the distance from the viewpoint to the surface of the solid object, is larger than a predetermined boundary value, the cube map image is mapped to the solid object, and when the observation distance is less than the boundary value, the sphere A function of mapping a coordinate map image to the solid object;
An image display program for causing a computer to exhibit the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007164072A JP4980153B2 (en) | 2007-06-21 | 2007-06-21 | Image display device and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007164072A JP4980153B2 (en) | 2007-06-21 | 2007-06-21 | Image display device and image display method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009003708A JP2009003708A (en) | 2009-01-08 |
JP2009003708A5 JP2009003708A5 (en) | 2010-07-22 |
JP4980153B2 true JP4980153B2 (en) | 2012-07-18 |
Family
ID=40320025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007164072A Active JP4980153B2 (en) | 2007-06-21 | 2007-06-21 | Image display device and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4980153B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5616198B2 (en) * | 2010-11-16 | 2014-10-29 | 三菱プレシジョン株式会社 | Method and apparatus for generating appearance display image of same feature having different level of detail |
KR101722177B1 (en) * | 2016-07-15 | 2017-04-03 | (주)인트라테크 | Method and apparatus for hybrid displaying of VR(virtual reality) contents |
CN106899840B (en) * | 2017-03-01 | 2018-06-05 | 北京大学深圳研究生院 | Panoramic picture mapping method |
CN114596399A (en) * | 2022-03-16 | 2022-06-07 | 北京字跳网络技术有限公司 | Image processing method and device and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195132A (en) * | 1997-10-31 | 1999-07-21 | Hewlett Packard Co <Hp> | Buffer for texture mapping and three-dimensional graphics processor and system therefor and method therefor and storage medium for storing processing program |
JP4896761B2 (en) * | 2007-02-16 | 2012-03-14 | 株式会社日立製作所 | 3D map display system, 3D map display method, and program thereof |
-
2007
- 2007-06-21 JP JP2007164072A patent/JP4980153B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009003708A (en) | 2009-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3359918B1 (en) | Systems and methods for orienting a user in a map display | |
CN107564089B (en) | Three-dimensional image processing method, device, storage medium and computer equipment | |
Ikeuchi et al. | Numerical shape from shading and occluding boundaries | |
US9183666B2 (en) | System and method for overlaying two-dimensional map data on a three-dimensional scene | |
JP4963105B2 (en) | Method and apparatus for storing images | |
CN115690336B (en) | Satellite beam coverage area visualization method, server and storage medium | |
US20130314402A1 (en) | Apparatus and method for displaying images | |
JP2019175457A (en) | Method and system for efficiently rendering cloudy weather effect graphics in three-dimensional map | |
US9466149B2 (en) | Lighting of graphical objects based on environmental conditions | |
US20140267273A1 (en) | System and method for overlaying two-dimensional map elements over terrain geometry | |
US9582929B2 (en) | Dynamic skydome system | |
JP2007066064A (en) | Image generating device and image generating program | |
JPWO2018216536A1 (en) | Video generator and video generation method | |
Bradley et al. | Image-based navigation in real environments using panoramas | |
CN104867175A (en) | Real-scene displaying device for virtual effect picture and implementing method therefor | |
JP4980153B2 (en) | Image display device and image display method | |
CN106251282A (en) | A kind of generation method and device of mechanical arm sampling environment analogous diagram | |
CN110852952B (en) | Large-scale terrain real-time drawing method based on GPU | |
CN110313020A (en) | Image processing method, equipment and computer readable storage medium | |
EP2225730A2 (en) | Transition method between two three-dimensional geo-referenced maps | |
CN114898026A (en) | Dynamic loading and unloading method for landscape based on position and sight | |
JP6503098B1 (en) | Image processing apparatus, image processing program and image processing method | |
CN111970504A (en) | Display method, device and system for reversely simulating three-dimensional sphere by utilizing virtual projection | |
Timokhin et al. | Computer modeling and visualization of accurate terrain shadows in virtual environment system | |
US20240144641A1 (en) | Display device, display method, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100603 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101125 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120410 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120418 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150427 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4980153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |