JP4980153B2 - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP4980153B2
JP4980153B2 JP2007164072A JP2007164072A JP4980153B2 JP 4980153 B2 JP4980153 B2 JP 4980153B2 JP 2007164072 A JP2007164072 A JP 2007164072A JP 2007164072 A JP2007164072 A JP 2007164072A JP 4980153 B2 JP4980153 B2 JP 4980153B2
Authority
JP
Japan
Prior art keywords
image
map image
cube
mapping
mapped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007164072A
Other languages
Japanese (ja)
Other versions
JP2009003708A (en
JP2009003708A5 (en
Inventor
智則 下村
ディラン・カスバート
デイル・トーマス
ジェイムス・マクラーレン
ジェローム・リアー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2007164072A priority Critical patent/JP4980153B2/en
Publication of JP2009003708A publication Critical patent/JP2009003708A/en
Publication of JP2009003708A5 publication Critical patent/JP2009003708A5/ja
Application granted granted Critical
Publication of JP4980153B2 publication Critical patent/JP4980153B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、画像制御技術に関連し、特に、3次元画像表示技術に関する。   The present invention relates to an image control technique, and more particularly to a three-dimensional image display technique.

近年、地球を模した立体オブジェクト、いわば、「仮想地球」をさまざまな角度から観察可能なアプリケーション・ソフトウェアが広く利用されつつある(以下、このようなアプリケーション・ソフトウェアのことを「仮想地球儀アプリケーション」とよぶ)。   In recent years, application software that can observe the three-dimensional object that imitates the earth, that is, the “virtual earth” from various angles has been widely used (hereinafter, such application software is referred to as “virtual globe application”). Called).

仮想地球儀アプリケーションでは、人工衛星や航空機から実際の地球(以下、「仮想地球」と区別するために「実地球」とよぶ)を撮影したときの実写画像を仮想地球の表面に貼り付けることも多い。このような仮想地球儀アプリケーションの実現には、インターネットやコンピュータ・グラフィックス技術の発達に加えて、NASA(National Aeronautics and Space Administration)による衛星写真の無償提供も大きく寄与している。衛星写真が貼り付けられた仮想地球をさまざまな位置から観察することにより、あたかも宇宙空間から実地球を眺めているかのようなユーザインタフェースが実現される。立体的な仮想地球を俯瞰しながら目的地を探すというユーザインタフェースのおもしろさにより、仮想地球儀アプリケーションは注目を集めている。   In a virtual globe application, a real image of a real earth (hereinafter referred to as “real earth” to distinguish it from “virtual earth”) from artificial satellites or aircraft is often pasted on the surface of the virtual earth. . In addition to the development of the Internet and computer graphics technology, the free provision of satellite photographs by NASA (National Aeronautics and Space Administration) contributes greatly to the realization of such virtual globe applications. By observing the virtual earth to which the satellite photograph is pasted from various positions, a user interface as if looking at the real earth from outer space is realized. Virtual globe applications are attracting attention due to the interesting user interface of finding a destination while looking down at a three-dimensional virtual earth.

しかしながら、衛星写真が貼り付けられた仮想地球をさまざまな位置から観察できるユーザインタフェースを提供したとしても、ユーザには実地球を眺めているという実感が湧かない、言い換えれば「写実性」とでもいうべきものがともなわないことがある。たとえば、高度500メートルから実地球を見たときには、地上の構造物や山脈、河川がくっきりと見える。一方、高度1万メートルから実地球を見たときには、地表面は大気中の水蒸気によって霞んで見えるかもしれない。また、地表面の一部は月の影や雲によって隠されているかもしれない。このように、実地球の「見え方」は高度によってさまざまに変化する。特に、遠距離から実地球を眺める場合には、遠距離観察にともなう写実性が重要である。   However, even if a user interface is provided that allows the user to observe the virtual earth with satellite images from various positions, the user does not feel that he or she is looking at the real earth. In other words, it is also called “realism”. Sometimes there is nothing to do. For example, when you see the real earth from an altitude of 500 meters, you can clearly see the structures, mountain ranges, and rivers on the ground. On the other hand, when you look at the real earth from an altitude of 10,000 meters, the ground surface may appear muddy due to water vapor in the atmosphere. Also, part of the ground surface may be hidden by the moon's shadow and clouds. In this way, the “view” of the real earth varies depending on altitude. In particular, when viewing the real earth from a long distance, the realism associated with long-distance observation is important.

本発明は、本発明者の上記認識に基づいてなされたものであり、その主たる目的は、立体オブジェクトと視点との距離に対応するかたちにて立体オブジェクトを写実的に表現するための技術、を提供することである。   The present invention has been made on the basis of the above recognition of the present inventor, and the main purpose thereof is a technique for realistically expressing a three-dimensional object in a form corresponding to the distance between the three-dimensional object and the viewpoint. Is to provide.

本発明のある態様は、画像表示装置に関する。
この装置は、仮想空間内にある立体オブジェクトの表面に貼り付けるべき画像として、球座標マップ画像とキューブマップ画像をそれぞれ保持する。
この装置は、ユーザが指定する視点から立体オブジェクト表面までの距離を観察距離とし、この観察距離が所定の境界値よりも大きいときには、キューブマップ画像を立体オブジェクトにマッピングし、観察距離が境界値以下であるときには、球座標マップ画像を立体オブジェクトにマッピングする。
One embodiment of the present invention relates to an image display device.
This apparatus holds a spherical coordinate map image and a cube map image as images to be pasted on the surface of a three-dimensional object in the virtual space.
This device uses the distance from the viewpoint specified by the user to the surface of the three-dimensional object as an observation distance. When this observation distance is larger than a predetermined boundary value, the cube map image is mapped to the three-dimensional object, and the observation distance is equal to or less than the boundary value. If it is, the spherical coordinate map image is mapped to the solid object.

なお、本発明を方法、システム、プログラム、記録媒体により表現したものもまた、本発明の態様として有効である。   In addition, what expressed this invention with the method, the system, the program, and the recording medium is also effective as an aspect of this invention.

本発明によれば、立体オブジェクトを仮想空間においていっそう写実的に表現しやすくなる。   According to the present invention, a three-dimensional object can be expressed more realistically in a virtual space.

図1は、仮想地球202と視点の関係を示す模式図である。
画像表示装置100は、コンピュータ・グラフィックスにより3次元の仮想空間200を生成する。仮想空間200には仮想地球202が含まれる。仮想地球202は、実地球を模した球体状の立体オブジェクトである。ユーザは、仮想空間200内の任意の位置に視点を移動して仮想地球202を観察する。
FIG. 1 is a schematic diagram showing the relationship between the virtual earth 202 and the viewpoint.
The image display device 100 generates a three-dimensional virtual space 200 by computer graphics. The virtual space 200 includes a virtual earth 202. The virtual earth 202 is a spherical solid object that imitates the real earth. The user moves the viewpoint to an arbitrary position in the virtual space 200 and observes the virtual earth 202.

観察画像204aは、座標Aから仮想地球202を眺めたときの2次元画像である。以下、仮想空間内の所定の視点位置から仮想地球202を見た場合にスクリーンに投影される2次元画像のことを「観察画像」とよぶ。航空機から見た実地球の姿と人工衛星軌道から見た実地球の姿、あるいは、月軌道から見た実地球の姿は互いに異なる。低空から地表面を眺めると木々や町並みがくっきり見えるが、高空から地表面を眺めたときには大気中の水蒸気によって地表は霞んで見える。また、雲や月の影によって地表面の一部が隠されることもある。実地球を俯瞰したときの映像に近い写実的な観察画像204を生成するためには、視点と仮想地球202との距離に応じて画像表現方法を変化させる必要がある。本実施例に示す画像表示装置100は、視点と仮想地球202との距離に応じた写実性を提供できる。   The observation image 204a is a two-dimensional image when the virtual earth 202 is viewed from the coordinate A. Hereinafter, a two-dimensional image projected on the screen when the virtual earth 202 is viewed from a predetermined viewpoint position in the virtual space is referred to as an “observation image”. The real earth seen from the aircraft and the real earth seen from the satellite orbit are different from the real earth seen from the moon orbit. When you look at the ground surface from a low sky, you can see trees and streets clearly, but when you look at the ground surface from a high sky, the surface of the earth looks muddy due to water vapor in the atmosphere. Also, part of the ground surface may be hidden by the shadows of clouds and the moon. In order to generate a realistic observation image 204 that is close to the image when the real earth is looked down, it is necessary to change the image expression method according to the distance between the viewpoint and the virtual earth 202. The image display apparatus 100 shown in the present embodiment can provide realism according to the distance between the viewpoint and the virtual earth 202.

ユーザが視点を座標Aに設定すると、画面には観察画像204aが表示される。座標Aは仮想地球202の地表面に近いため、観察画像204aには、山脈や港湾、街といった地表面の詳細が表現される。
一方、観察画像204bは、座標Bを視点として仮想地球202を眺めたときの画像である。座標Bは座標Aに比べると地表から遠い。そのため、観察画像204bでは、地表面の詳細はくっきり表現されないが、代わりに仮想地球202全体の明暗がはっきりと表現されている。
When the user sets the viewpoint to coordinate A, an observation image 204a is displayed on the screen. Since the coordinate A is close to the ground surface of the virtual earth 202, the observation image 204a represents details of the ground surface such as a mountain range, a port, and a city.
On the other hand, the observation image 204b is an image when the virtual earth 202 is viewed with the coordinate B as a viewpoint. Coordinate B is far from the ground surface compared to coordinate A. Therefore, in the observation image 204b, details of the ground surface are not clearly expressed, but instead, the lightness and darkness of the entire virtual earth 202 is clearly expressed.

本実施例においては、実地球の実写画像やコンピュータ・グラフィックスにより実地球を模した画像をベースとして観察画像を生成する。以下、このベースとなる画像のことを「基本ソース画像」とよぶ。実写に基づく基本ソース画像の場合、実地球を撮影したときの高度や位置はさまざまである。また、広角レンズにより広い範囲を対象として撮影された基本ソース画像もあれば、望遠レンズにより狭い範囲を対象として詳細に撮影された基本ソース画像もある。このように、基本ソース画像によって画像の「詳細度」もさまざまである。たとえば、1画素が1メートル×1メートルに対応する詳細度の高い、すなわち、精緻な基本ソース画像もあれば、1画素が150メートル×150メートルに対応する詳細度の低い、すなわち、粗い基本ソース画像もある。位置や詳細度といった観察条件の異なるさまざまな基本ソース画像は、「球座標マップ画像」または「キューブマップ画像」の2種類の形式にて保持される。観察画像204中における所定点Pの画素値は、点Pに対応する地球表面上の点Qの2次元パラメータ座標に基づいて、球座標マップ画像またはキューブマップ画像のいずれかのテクスチャから対応するテクセル値を読み出し、点Qにテクスチャマッピングすることによって求められるが、詳細は後述する。   In this embodiment, an observation image is generated based on a real image of the real earth or an image imitating the real earth by computer graphics. Hereinafter, this base image is referred to as a “basic source image”. In the case of a basic source image based on live action, the altitude and position when the real earth is photographed vary. In addition, there is a basic source image taken for a wide range by a wide-angle lens, and a basic source image taken in detail for a narrow range by a telephoto lens. As described above, the “detail level” of the image varies depending on the basic source image. For example, there is a high level of detail, that is, a fine basic source image where 1 pixel corresponds to 1 meter × 1 meter, or a low level of detail, ie, a rough basic source, where 1 pixel corresponds to 150 meters × 150 meters. There are also images. Various basic source images having different observation conditions such as position and detail are stored in two types of formats, “spherical coordinate map image” and “cube map image”. Based on the two-dimensional parameter coordinates of the point Q on the earth surface corresponding to the point P, the pixel value of the predetermined point P in the observation image 204 is the corresponding texel from the texture of either the spherical coordinate map image or the cube map image. The value is read out and texture-mapped to the point Q, which will be described in detail later.

図2(a)、図2(b)、図2(c)は、球座標マップ画像と詳細度との関係を示す模式図である。
図2(a)の球体206aは、仮想地球202を包含する形状として想定された球体である。この球体206aの表面は複数の格子状領域208に分割される。同図においては、北極と南極を結ぶ軸を中心として、緯度・経度に平行するかたちで各格子状領域208が設定される。図2(a)の球体206aの場合、8枚の格子状領域208に分割される。
各格子状領域208は、メルカトル図法等の既知の方法により平面展開される。格子状領域208は、所定画素数により表現される平面状の球座標マップ画像250と対応づけられる。図2(a)においては、格子状領域208aに対応するのは球座標マップ画像250aである。各球座標マップ画像250は画像メモリに保持される。ここでいう画像メモリは、フラッシュディスクなどの不揮発性メモリであることが好ましい。球形状の格子状領域208を平面形状の球座標マップ画像250に変換するため、極点付近の格子状領域208の一部が大きく引き延ばされることになる。
FIG. 2A, FIG. 2B, and FIG. 2C are schematic diagrams showing the relationship between the spherical coordinate map image and the level of detail.
A sphere 206 a in FIG. 2A is a sphere assumed as a shape that includes the virtual earth 202. The surface of the sphere 206a is divided into a plurality of lattice regions 208. In the figure, each lattice region 208 is set in a form parallel to the latitude and longitude with the axis connecting the north and south poles as the center. In the case of the sphere 206a in FIG. 2A, the sphere 206a is divided into eight lattice regions 208.
Each lattice region 208 is planarly developed by a known method such as Mercator projection. The grid area 208 is associated with a planar spherical coordinate map image 250 expressed by a predetermined number of pixels. In FIG. 2A, the spherical coordinate map image 250a corresponds to the lattice area 208a. Each spherical coordinate map image 250 is held in an image memory. The image memory here is preferably a non-volatile memory such as a flash disk. Since the spherical grid area 208 is converted into the planar spherical coordinate map image 250, a part of the grid area 208 near the pole is greatly extended.

図2(b)の球体206bも、仮想地球202を包含する形状の球体であるが、球体206bの表面は、図2(a)の8枚の格子状領域をさらに緯度・経度方向に2分割した32枚の格子状領域208に分割される。球体206bにおける格子状領域208bも、所定画素数の球座標マップ画像250と対応づけられる。図2(b)においては、格子状領域208bに対応するのは球座標マップ画像250bである。格子状領域208aの球座標マップ画像250aと格子状領域208bの球座標マップ画像250bは、対象領域の大きさは異なっても、表現に要する画素数は同じである。球体206aに比べて球体206bは、より多くの格子状領域208に分割されている。そのため、格子状領域208aの球座標マップ画像250aに比べると格子状領域208bの球座標マップ画像250bの方が、狭い範囲を詳細に表現できることになる。すなわち、格子状領域208aの球座標マップ画像250aよりも、格子状領域208bの球座標マップ画像250bの方が詳細度が高い。図2(c)の球体206cの表面は、図2(b)の32枚の格子状領域をさらに緯度・経度方向に2分割した128枚の格子状領域208に分割されている。このため、球体206cの格子状領域208cは、図2(a)から図2(c)に示す3つの球体206の中で、最も詳細度の高い球座標マップ画像250cが対応づけられる。詳しくは後述するが、本実施例における詳細度は、レベル0からレベル8の9段階に分けられる。レベル0(L0)は、詳細度が最も低いかわりに球座標マップ画像250がカバーする範囲が最も広い。レベル8(L8)は、詳細度が最も高いかわりに球座標マップ画像250がカバーする範囲は最も狭い。図2(a)〜図2(c)の場合、球体206c、球体206b、球体206aの順に詳細度レベルが高い。   The sphere 206b in FIG. 2B is also a sphere having a shape that includes the virtual earth 202, but the surface of the sphere 206b is further divided into two in the latitude and longitude directions by dividing the eight lattice regions in FIG. 2A. It is divided into 32 lattice-like regions 208. The grid area 208b in the sphere 206b is also associated with the spherical coordinate map image 250 having a predetermined number of pixels. In FIG. 2B, the spherical coordinate map image 250b corresponds to the lattice area 208b. The spherical coordinate map image 250a of the grid area 208a and the spherical coordinate map image 250b of the grid area 208b have the same number of pixels for expression even if the size of the target area is different. The sphere 206b is divided into more lattice regions 208 than the sphere 206a. Therefore, the spherical coordinate map image 250b of the lattice region 208b can express a narrower range in detail than the spherical coordinate map image 250a of the lattice region 208a. That is, the degree of detail is higher in the spherical coordinate map image 250b in the lattice region 208b than in the spherical coordinate map image 250a in the lattice region 208a. The surface of the sphere 206c in FIG. 2C is divided into 128 lattice regions 208 obtained by further dividing the 32 lattice regions in FIG. 2B into two in the latitude and longitude directions. For this reason, the grid area 208c of the sphere 206c is associated with the spherical coordinate map image 250c having the highest level of detail among the three spheres 206 shown in FIGS. 2 (a) to 2 (c). As will be described in detail later, the level of detail in this embodiment is divided into nine levels from level 0 to level 8. Level 0 (L0) has the widest range covered by the spherical coordinate map image 250 instead of the lowest level of detail. At level 8 (L8), the range covered by the spherical coordinate map image 250 is the narrowest instead of the highest level of detail. In the case of FIGS. 2A to 2C, the level of detail is higher in the order of the sphere 206c, the sphere 206b, and the sphere 206a.

画像表示装置100は、格子状領域208の分割方法において異なる複数種類の球体を想定し、各球体それぞれについて詳細度が異なる複数種類の球座標マップ画像250を用意しておく。まず、仮想地球202の表面から視点までの距離に応じて詳細度が特定される。図8に関連して後述するが、この距離が大きいほど詳細度は低くなる。   The image display apparatus 100 assumes a plurality of different types of spheres in the method of dividing the lattice area 208, and prepares a plurality of types of spherical coordinate map images 250 having different degrees of detail for each sphere. First, the degree of detail is specified according to the distance from the surface of the virtual earth 202 to the viewpoint. As will be described later with reference to FIG. 8, the greater the distance, the lower the level of detail.

図3(a)、図3(b)、図3(c)は、球座標マップ画像250を仮想地球202の表面にマッピングすることにより、観察画像の画素値を求める方法を説明する図である。
特定された詳細度の球座標マップ画像250に基づいて観察画像を生成するとき、観察画像中の点Pにおける画素値は、以下のテクスチャマッピングの処理にて求められる。まず、対象点Pの位置を観察画像のスクリーン座標(x,y)により特定する。点P(x,y)に対応する仮想地球202の表面上の点Qの2次元パラメータ座標は、図3(a)のように、仮想地球202に対して定められる緯度θ、経度φの組合せである球座標(θ,φ)により特定される。ここで、経度φは、地点Q、北極点、および南極点を通る大円と、グリニッジ子午線とがなす角度であり、東経には+、西経には−をつけて0〜180度の角度で表される。緯度θは、地点Qにおける天頂の方向と赤道面とがなす角度であり、北緯には+、南緯には−をつけて0〜90度の角度で表される。
FIGS. 3A, 3 </ b> B, and 3 </ b> C are diagrams for explaining a method of obtaining the pixel value of the observation image by mapping the spherical coordinate map image 250 onto the surface of the virtual earth 202. .
When an observation image is generated based on the spherical coordinate map image 250 with the specified level of detail, the pixel value at the point P in the observation image is obtained by the following texture mapping process. First, the position of the target point P is specified by the screen coordinates (x, y) of the observation image. The two-dimensional parameter coordinates of the point Q on the surface of the virtual earth 202 corresponding to the point P (x, y) are a combination of latitude θ and longitude φ determined for the virtual earth 202 as shown in FIG. Is specified by spherical coordinates (θ, φ). Here, the longitude φ is an angle formed by the great circle passing through the point Q, the North Pole and the South Pole, and the Greenwich meridian, with + in the east longitude and-in the west longitude with an angle of 0 to 180 degrees. expressed. The latitude θ is an angle formed by the direction of the zenith at the point Q and the equatorial plane, and is represented by an angle of 0 to 90 degrees with + on the north latitude and-on the south latitude.

次に、点Qにマッピングされるべきテクスチャである球座標マップ画像250を特定する。格子状にメモリ展開された球座標マップ画像250のいずれをテクスチャとして使用するかは、点Qの球座標(θ,φ)の値の範囲により決めることができる。図3(b)のように、8枚の格子状領域からなる球座標マップ画像250を用いる場合を考える。図3(b)の球座標マップ画像250は、経度φの範囲によってA〜Dの4つの領域に分けられている。経度θが0〜90度の範囲ではA領域の画像が、90〜180度の範囲ではB領域の画像が、−180〜−90度の範囲ではC領域の画像が、−90〜0度の範囲ではD領域の画像がそれぞれ使われる。さらに、この球座標マップ画像250は、緯度θの範囲によって、アルファベットA〜Dの前に付した+/−の符号で区別される2つの領域に分けられている。緯度θが0〜90度の範囲では、+A〜+Dのいずれかの領域の画像が使われ、緯度θが−90〜0度の範囲では、−A〜−Dのいずれかの領域の画像が使われる。
たとえば、点Qの緯度θが40度、経度φが50度であれば、+A領域の画像(符号250a)が使用すべきテクスチャとして特定される。特定したテクスチャから点Qの2次元パラメータ座標(θ,φ)に基づいてテクセル値を読み出し、点Qにマッピングする。点Qにマッピングされたテクセル値が観察画像中の点Pにおける画素値となる。
Next, a spherical coordinate map image 250 that is a texture to be mapped to the point Q is specified. Which of the spherical coordinate map images 250 expanded in a memory pattern in the lattice shape is used as a texture can be determined by the range of the values of the spherical coordinates (θ, φ) of the point Q. Consider the case of using a spherical coordinate map image 250 composed of eight grid-like regions as shown in FIG. The spherical coordinate map image 250 in FIG. 3B is divided into four areas A to D according to the range of longitude φ. When the longitude θ is in the range of 0 to 90 degrees, the image of the A area is in the range of 90 to 180 degrees, the image of the B area is in the range of −180 to −90 degrees, and the image of the C area is in the range of −90 to 0 degrees. In the range, images in the D area are used. Further, the spherical coordinate map image 250 is divided into two regions which are distinguished by +/− symbols attached in front of the alphabets A to D according to the range of the latitude θ. When the latitude θ is in the range of 0 to 90 degrees, an image in any region of + A to + D is used, and in the range of latitude θ is in the range of −90 to 0 degrees, an image in any region of −A to −D is used. used.
For example, if the latitude θ of the point Q is 40 degrees and the longitude φ is 50 degrees, the image in the + A region (reference numeral 250a) is specified as the texture to be used. A texel value is read from the identified texture based on the two-dimensional parameter coordinates (θ, φ) of the point Q, and mapped to the point Q. The texel value mapped to the point Q becomes the pixel value at the point P in the observation image.

詳細度が高い球座標マップ画像250を用いる場合も、緯度θ、経度φの範囲の区切り方が異なる以外は同様である。図3(c)の32枚の格子状領域からなる球座標マップ画像250は、経度φの範囲の45度ずつ区切ることで経度の方向にA〜Hの8つの領域に分けられる。さらに、この球座標マップ画像250は、緯度θの範囲を45度ずつ区切ることで緯度の方向に4つの領域に分けられる。緯度θが0〜45度の範囲では+A1〜+H1のいずれかの領域の画像が、45〜90度の範囲では+A2〜+H2のいずれかの領域の画像が、−45〜0度の範囲では−A1〜−H1のいずれかの画像が、−90〜−45度の範囲では−A2〜−H2のいずれかの画像がそれぞれ使われる。たとえば、点Qの緯度θが40度、経度φが50度であれば、+B1領域の画像(符号250b)が使用すべきテクスチャとして特定され、点Qの2次元パラメータ座標(θ,φ)にもとづいてテクセル値が読み出され、点Qにマッピングされる。   The same applies to the case where the spherical coordinate map image 250 having a high level of detail is used, except that the method of dividing the range of latitude θ and longitude φ is different. The spherical coordinate map image 250 made up of 32 grid-like areas in FIG. 3C is divided into eight areas A to H in the longitude direction by dividing each of the longitude φ ranges by 45 degrees. Further, the spherical coordinate map image 250 is divided into four regions in the direction of latitude by dividing the range of latitude θ by 45 degrees. When the latitude θ is in the range of 0 to 45 degrees, the image in any area of + A1 to + H1 is in the range of 45 to 90 degrees, and the image in any of the areas of + A2 to + H2 is in the range of −45 to 0 degrees. Any one of A1 to -H1 is used, and any one of -A2 to -H2 is used in the range of -90 to -45 degrees. For example, if the latitude θ of the point Q is 40 degrees and the longitude φ is 50 degrees, the image of the + B1 region (reference numeral 250b) is specified as the texture to be used, and the two-dimensional parameter coordinates (θ, φ) of the point Q are specified. The texel value is read out and mapped to the point Q.

以下、このような球座標マップ画像250の仮想地球202へのマッピングを「球マッピング」とよぶ。   Hereinafter, such mapping of the spherical coordinate map image 250 to the virtual earth 202 is referred to as “sphere mapping”.

図4(a)、図4(b)、図4(c)は、キューブマップ画像と詳細度との関係を示す模式図である。
図4(a)の立方体210aは、仮想地球202を包含する形状として想定された立方体である。この立方体210aの表面は複数の格子状領域212に分割される。同図においては、北極側を上面、南極側を底面とするかたちで、立方体210が設定される。図4(a)の立方体210aの場合、6枚の格子状領域212に分割される。各格子状領域212も平面展開される。各格子状領域212は、所定画素数の平面状のキューブマップ画像252と対応づけられる。図4(a)においては、格子状領域212aに対応するのはキューブマップ画像252aである。各格子状領域212のキューブマップ画像252は、画像メモリに保持される。
FIG. 4A, FIG. 4B, and FIG. 4C are schematic diagrams showing the relationship between the cube map image and the level of detail.
A cube 210 a in FIG. 4A is a cube assumed as a shape including the virtual earth 202. The surface of the cube 210a is divided into a plurality of lattice-like regions 212. In the figure, a cube 210 is set in such a manner that the north pole side is an upper surface and the south pole side is a bottom surface. In the case of the cube 210a in FIG. 4A, the cube 210a is divided into six lattice regions 212. Each grid area 212 is also developed in a plane. Each grid area 212 is associated with a planar cube map image 252 having a predetermined number of pixels. In FIG. 4A, the cube map image 252a corresponds to the lattice area 212a. A cube map image 252 of each grid area 212 is held in an image memory.

図4(b)の立方体210bの表面は、図4(a)の6枚の格子状領域をさらに縦横にそれぞれ2分割した24枚の格子状領域212に分割される。立方体210bの格子状領域212bのキューブマップ画像252bも、所定画素数の画像として保持される。格子状領域212aのキューブマップ画像252aに比べると格子状領域212bのキューブマップ画像252bの方が、狭い範囲を詳細に表現できることになる。図3(c)の立方体210cの表面は、図4(b)の24枚の格子状領域をさらに縦横にそれぞれ2分割した96枚の格子状領域212に分割されている。このため、立方体210cの格子状領域212cは、図4(a)から図4(c)に示す3つの立方体210の中で、最も詳細度の高いキューブマップ画像252が対応づけられる。キューブマップ画像252も、球座標マップ画像250と同様に、後述のようにレベル0からレベル8の9段階の詳細度をもつ。   The surface of the cube 210b in FIG. 4B is divided into 24 lattice regions 212 obtained by further dividing the six lattice regions in FIG. The cube map image 252b of the grid area 212b of the cube 210b is also held as an image having a predetermined number of pixels. Compared to the cube map image 252a of the grid area 212a, the cube map image 252b of the grid area 212b can express a narrow range in detail. The surface of the cube 210c in FIG. 3C is divided into 96 lattice regions 212 obtained by further dividing the 24 lattice regions in FIG. 4B into two vertically and horizontally. For this reason, the grid area 212c of the cube 210c is associated with the cube map image 252 having the highest level of detail among the three cubes 210 shown in FIGS. 4 (a) to 4 (c). Similarly to the spherical coordinate map image 250, the cube map image 252 also has nine levels of detail from level 0 to level 8, as will be described later.

画像表示装置100は、格子状領域212の分割の仕方において異なる複数種類の立方体を想定し、各立方体それぞれについて詳細度が異なる複数種類のキューブマップ画像252を用意しておく。まず、仮想地球202の表面から視点までの距離に応じて詳細度が特定される。   The image display apparatus 100 assumes a plurality of types of cubes that differ in how the grid area 212 is divided, and prepares a plurality of types of cube map images 252 having different degrees of detail for each cube. First, the degree of detail is specified according to the distance from the surface of the virtual earth 202 to the viewpoint.

図5および図6を参照して、キューブマップ画像252を仮想球体202の表面にマッピングすることにより、観察画像の画素値を求める方法を説明する。   With reference to FIG. 5 and FIG. 6, a method of obtaining the pixel value of the observation image by mapping the cube map image 252 onto the surface of the virtual sphere 202 will be described.

図5(a)、図5(b)は、立方体210の各面と、キューブマップ画像252の各格子状領域の対応関係を説明する図である。図5(a)のように、立方体210の各面がワールド座標系(x,y,z)のxy面、yz面、zx面に対して平行になるように設定する。立方体210の各面の向きは、+X、−X、+Y、−Y、+Z、−Zの6方向であり、これらの6方向により立方体210の各面を識別する。図5(b)は、図5(a)の立方体210を展開して得られるキューブマップ画像252である。+X、−X、+Y、−Y、+Z、−Zの各面のテクスチャに対してテクスチャ座標系(S,T)が定義される。6方向のいずれかの面のテクスチャを特定して、テクスチャ座標値(S,T)を指定することにより、特定されたテクスチャの指定された座標のテクセルを読み出すことができる。   FIGS. 5A and 5B are diagrams illustrating the correspondence between each surface of the cube 210 and each grid area of the cube map image 252. FIG. As shown in FIG. 5A, each surface of the cube 210 is set to be parallel to the xy plane, yz plane, and zx plane of the world coordinate system (x, y, z). The orientation of each surface of the cube 210 is six directions of + X, −X, + Y, −Y, + Z, and −Z, and each surface of the cube 210 is identified by these six directions. FIG. 5B is a cube map image 252 obtained by developing the cube 210 of FIG. A texture coordinate system (S, T) is defined for the texture of each surface of + X, −X, + Y, −Y, + Z, and −Z. By specifying the texture of any surface in the six directions and specifying the texture coordinate value (S, T), the texel at the specified coordinate of the specified texture can be read.

図6(a)、図6(b)、図6(c)は、キューブマップ画像252を仮想球体202の表面にマッピングすることにより、観察画像の画素値を求める方法を説明する図である。
特定されたキューブマップ画像252に基づいて観察画像を生成するとき、観察画像中の点Pにおける画素値は、以下のテクスチャマッピングの処理にて求められる。まず、対象点Pの位置を観察画像のスクリーン座標(x,y)により特定する。点P(x,y)に対応する仮想地球202の表面上の点Qの2次元パラメータ座標は、図6(a)のように、仮想地球202に対して定められる緯度θ、経度φの組合せである球座標(θ,φ)により特定される。
FIGS. 6A, 6 </ b> B, and 6 </ b> C are diagrams illustrating a method for obtaining the pixel value of the observation image by mapping the cube map image 252 onto the surface of the virtual sphere 202.
When an observation image is generated based on the specified cube map image 252, the pixel value at the point P in the observation image is obtained by the following texture mapping process. First, the position of the target point P is specified by the screen coordinates (x, y) of the observation image. The two-dimensional parameter coordinates of the point Q on the surface of the virtual earth 202 corresponding to the point P (x, y) are a combination of latitude θ and longitude φ determined for the virtual earth 202 as shown in FIG. Is specified by spherical coordinates (θ, φ).

次に、点Qにマッピングされるべきテクスチャであるキューブマップ画像252を特定する。キューブマップ画像252のいずれの面をテクスチャとして使用するかは、点Qの球座標(θ,φ)により定まる方位により決めることができる。仮想球体202の中心と点Qを結ぶ直線が立方体210のいずれの面と交わるかを判定する。図6(a)の例では、仮想球体202の中心と点Qを結ぶ直線は立方体210の+Z面と交点Rにおいて交わる。交点Rの+Z面における座標値すなわちテクスチャ座標(S,T)を求めておく。図6(b)のように、6枚の格子状領域からなるキューブマップ画像252を用いる場合は、キューブマップ画像252の+Z面のテクスチャ(符号252a)が使用すべきテクスチャとして特定される。特定したテクスチャから点Rのテクスチャ座標(S,T)に対応するテクセル値を読み出して点Qにマッピングする。このようにしてキューブマッピングの手法によって点Qにマッピングされたテクセル値が観察画像中の点Pにおける画素値となる。   Next, a cube map image 252 that is a texture to be mapped to the point Q is specified. Which surface of the cube map image 252 is used as a texture can be determined by the orientation determined by the spherical coordinates (θ, φ) of the point Q. It is determined which surface of the cube 210 the line connecting the center of the virtual sphere 202 and the point Q intersects. In the example of FIG. 6A, the straight line connecting the center of the virtual sphere 202 and the point Q intersects with the + Z plane of the cube 210 at the intersection R. A coordinate value on the + Z plane of the intersection R, that is, a texture coordinate (S, T) is obtained in advance. As shown in FIG. 6B, when a cube map image 252 including six grid regions is used, the texture on the + Z plane (reference numeral 252a) of the cube map image 252 is specified as a texture to be used. A texel value corresponding to the texture coordinates (S, T) of the point R is read from the identified texture and mapped to the point Q. In this way, the texel value mapped to the point Q by the cube mapping method becomes the pixel value at the point P in the observation image.

詳細度が高いキューブマップ画像252を用いる場合も、テクスチャの解像度が高くなる以外は同様である。図6(c)の24枚の格子状領域からなるキューブマップ画像252を用いる場合も、キューブマップ画像252の+Z面のテクスチャ(符号252b)が使用すべきテクスチャとして特定される。図6(c)のテクスチャの解像度は図6(b)のテクスチャの解像度の2倍である。この2倍の解像度をもつテクスチャから点Rのテクスチャ座標(S,T)に対応するテクセル値が読み出され、点Qにマッピングされる。   The same applies to the case where the cube map image 252 having a high degree of detail is used, except that the resolution of the texture is increased. Also in the case of using the cube map image 252 including the 24 grid-like regions in FIG. 6C, the texture on the + Z plane (reference numeral 252b) of the cube map image 252 is specified as the texture to be used. The texture resolution in FIG. 6C is twice the texture resolution in FIG. A texel value corresponding to the texture coordinates (S, T) of the point R is read from the texture having twice the resolution and mapped to the point Q.

以下、このようなキューブマップ画像252の仮想地球202へのマッピングを「キューブマッピング」とよぶ。   Hereinafter, such mapping of the cube map image 252 to the virtual earth 202 is referred to as “cube mapping”.

詳細度の異なるキューブマップ画像252は、ミップマップ(MIP-MAP)テクスチャで構成することができる。
図7(a)、図7(b)、図7(c)、図7(d)は、キューブマップ画像252のミップマップ構造を説明する図である。キューブマップ画像252は、図7(a)のように立方体の面ごとに詳細度レベル1〜3のテクスチャを並べたデータ構造を有する。レベル1の6枚のテクスチャは、各面が低解像度のテクスチャで構成される図7(b)のキューブマップ画像に対応する。レベル2の6枚のテクスチャは、図7(b)の低解像度のテクスチャに比べて解像度が縦横とも2倍になった中解像度のテクスチャで各面が構成された図7(c)のキューブマップ画像に対応する。レベル3の6枚のテクスチャは、図7(c)の中解像度のテクスチャに比べて解像度がさらに縦横とも2倍になった高解像度のテクスチャで各面が構成された図7(d)のキューブマップ画像に対応する。
Cube map images 252 with different degrees of detail can be composed of mipmap (MIP-MAP) textures.
FIG. 7A, FIG. 7B, FIG. 7C, and FIG. 7D are diagrams for explaining the mipmap structure of the cube map image 252. FIG. The cube map image 252 has a data structure in which textures of detail levels 1 to 3 are arranged for each surface of a cube as shown in FIG. The six textures of level 1 correspond to the cube map image of FIG. 7B, in which each surface is composed of a low resolution texture. The six textures of level 2 are the cube map of FIG. 7C in which each surface is composed of a medium resolution texture whose resolution is doubled both vertically and horizontally compared to the low resolution texture of FIG. 7B. Corresponds to the image. The six textures at level 3 are the cubes in FIG. 7 (d) in which each surface is composed of high-resolution textures whose resolution is doubled both vertically and horizontally compared to the medium-resolution texture in FIG. 7 (c). Corresponds to the map image.

球座標マップ画像は、仮想地球202の表面上の位置を定める緯度および経度の組合せである球座標に対応づけて画素値を格納したテクスチャであるため、仮想地球202にテクスチャマッピングされたときの画層の歪みが少ないという利点がある。そのため、球座標マップは、衛星写真から得られた実写画像を格納するのにより適している。ただし、極座標には極点が存在するというデメリットがあり、北極や南極といった極点に近づくほど格子状領域208の画像が引き延ばされるため球座標マップ画像250の歪みが大きなってしまう。そして極点においては、複数の球座標マップ画像250が一転に集中してマッピングされることになるため、極点を上部から観察すると、極点に向かう集中線が描画されることになり、描画品質が著しく劣化するという不都合が生じる。   The spherical coordinate map image is a texture in which pixel values are stored in association with spherical coordinates that are combinations of latitude and longitude that determine the position on the surface of the virtual earth 202. Therefore, the image when the texture mapping is performed on the virtual earth 202 is performed. There is an advantage that the distortion of the layer is small. For this reason, the spherical coordinate map is more suitable for storing a real image obtained from a satellite photograph. However, the polar coordinates have a demerit that there are poles, and the image of the lattice region 208 is stretched as the poles such as the north pole and the south pole are closer, so that the distortion of the spherical coordinate map image 250 becomes larger. At the extreme points, a plurality of spherical coordinate map images 250 are concentrated and mapped. Therefore, when the extreme points are observed from above, a concentrated line toward the extreme points is drawn, and the drawing quality is remarkably high. The inconvenience of deterioration occurs.

一方、キューブマップ画像の場合、立方体の6方向から見た地球の画像をテクスチャとしてもつことになるため、データ構造上は球座標マップ画像にような特異点が存在せず、極点に向かって集中線が生じるという問題は発生しない。ただし、通常は球座標のデータ構造で提供される衛星写真をキューブマップ画像に移し替えるには前処理が必要となるというデメリットがある。しかしながら、キューブマッピングはコンピュータグラフィックスの分野で確立した技術であるから、さまざまなコンピュータグラフィックスのエフェクト技術を利用できるという利点がある。中にはキューブマップ画像を前提としてエフェクト処理を行うためのロジックがハードウェアとして組み込まれていることもある。このため、キューブマップ画像を仮想地球202にマッピングする場合、グロウシェーディング(gouraud shading)やバイリニアフィルタリング(bi-liner filtering)、フォグ(Fog)といったさまざまなエフェクト技術を利用しやすいというメリットがある。そのため、キューブマップ画像には、衛星写真のような地球の実写画像そのものを使うよりは、物理シミュレーションなどの計算によって生成される仮想的な地球の画像を利用することがより適切であることも多い。 On the other hand, in the case of a cube map image, the Earth image viewed from the six directions of the cube has a texture, so there is no singular point on the data structure as in the spherical coordinate map image, and it concentrates toward the extreme point. The problem of line formation does not occur. However, there is a demerit that pre-processing is required to transfer a satellite photograph normally provided in a spherical coordinate data structure to a cube map image. However, since cube mapping is a technology established in the field of computer graphics, there is an advantage that various computer graphics effect technologies can be used. In some cases, logic for effect processing on the premise of a cube map image is incorporated as hardware. Therefore, when mapping the cube map image to the virtual earth 202, there is an advantage that various effect techniques such as glow shading, bi-liner filtering, and fog can be easily used. For this reason, it is often more appropriate to use a virtual Earth image generated by a calculation such as a physical simulation rather than using a real image of the Earth such as a satellite photograph. .

そこで、画像表示装置100は、仮想地球202の地表面近くに視点が設定されるときには、マッピング時の歪みが小さく地表面を正確に表現しやすい球マッピングを実行し、視点が仮想地球202から遠く離れるときには、仮想地球202全体を俯瞰しやすく宇宙から見た地球の様子を演出しやすいキューブマッピングを実行する。こうして仮想地球202にマッピングされた球座標マップ画像またはキューブマップ画像に基づいて、観察画像全体が生成される。このような処理方法により、近距離だけでなく遠距離から観察しても写実的な観察画像を生成しやすくなっている。   Therefore, when the viewpoint is set near the ground surface of the virtual earth 202, the image display apparatus 100 executes spherical mapping with a small distortion during mapping and easily expresses the ground surface, and the viewpoint is far from the virtual earth 202. When leaving, cube mapping is executed that makes it easy to look down on the entire virtual earth 202 and produce the state of the earth as seen from space. The entire observation image is generated based on the spherical coordinate map image or the cube map image mapped to the virtual earth 202 in this way. By such a processing method, it is easy to generate a realistic observation image not only from a short distance but also from a long distance.

図8は、詳細度を説明するための模式図である。
視点214aから仮想地球202を所定画角にて観察したときにカバーされる範囲は、観察範囲216aである。視点214aよりも遠い視点214bから仮想地球202を上記画角にて観察したときカバーされる範囲は、観察範囲216bである。更に、遠い視点214cから仮想地球202を上記画角にて観察したときにカバーされる範囲は、観察範囲216cである。
FIG. 8 is a schematic diagram for explaining the degree of detail.
The range covered when the virtual earth 202 is observed from the viewpoint 214a at a predetermined angle of view is an observation range 216a. An observation range 216b is a range that is covered when the virtual earth 202 is observed from the viewpoint 214b farther than the viewpoint 214a at the angle of view. Furthermore, the range covered when the virtual earth 202 is observed from the far viewpoint 214c at the angle of view is the observation range 216c.

観察範囲216aは、3つの観察範囲216の中で範囲は最も狭いが、地表を最も詳細に観察できる。すなわち詳細度は3つの視点214a、b、cの中で最も高い。一方、観察範囲216cは、3つの観察範囲216a、b、cの中で最も範囲が大きいが、その分だけ詳細度は最も低くなっている。このように、視点と仮想地球202との距離に応じて詳細度が特定される。   The observation range 216a has the narrowest range among the three observation ranges 216, but can observe the ground surface in the most detail. That is, the level of detail is the highest among the three viewpoints 214a, b, and c. On the other hand, the observation range 216c has the largest range among the three observation ranges 216a, b, and c, but the degree of detail is the lowest. Thus, the degree of detail is specified according to the distance between the viewpoint and the virtual earth 202.

図9は、観察距離と詳細度との関係を説明するための模式図である。
先述したように、詳細度は、レベル0からレベル8の9段階に分けられる。レベル0(L0)は、詳細度が最も低いかわりに観察範囲216が最も広く、レベル8は詳細度が最も高いかわりに観察範囲216は最も狭い。視点が仮想地球202の表面から遠いときにはキューブマップ画像、近いときには球座標マップ画像が仮想地球202にマッピングされる。キューブマッピングと球マッピングのいずれを採用するかは、視点から仮想地球202の地表面までの距離(以下、「観察距離」とよぶ)によって決定される。
FIG. 9 is a schematic diagram for explaining the relationship between the observation distance and the degree of detail.
As described above, the level of detail is divided into nine levels from level 0 to level 8. Level 0 (L0) has the widest observation range 216 instead of the lowest level of detail, and level 8 has the narrowest observation range 216 instead of the highest level of detail. When the viewpoint is far from the surface of the virtual earth 202, the cube map image is mapped to the virtual earth 202, and when the viewpoint is near, the spherical coordinate map image is mapped to the virtual earth 202. Whether to adopt cube mapping or spherical mapping is determined by the distance from the viewpoint to the ground surface of the virtual earth 202 (hereinafter referred to as “observation distance”).

仮想地球202の地表面からは所定の「境界距離」が設定される。この境界距離の値のことを「境界値」とよぶ。境界面218は、仮想地球202の地表面から境界距離だけ離れた面を示す。観察距離が境界距離よりも長いとき、いいかえれば、視点が境界面218の外にあるときには、キューブマップ画像がマッピングされる。一方、観察距離の大きさが境界値以下のときには球座標マップ画像がマッピングされる。以下においては、仮想地球202から境界面218までの空間を「近距離圏」、境界面218よりも遠い空間を「遠距離圏」とよぶ。   A predetermined “boundary distance” is set from the ground surface of the virtual earth 202. The value of this boundary distance is called “boundary value”. The boundary surface 218 indicates a surface that is separated from the ground surface of the virtual earth 202 by a boundary distance. When the observation distance is longer than the boundary distance, in other words, when the viewpoint is outside the boundary surface 218, the cube map image is mapped. On the other hand, when the observation distance is less than or equal to the boundary value, the spherical coordinate map image is mapped. In the following, the space from the virtual earth 202 to the boundary surface 218 is referred to as “near-range”, and the space farther than the boundary surface 218 is referred to as “far-field”.

ここで、視点を遠距離圏の点Hから仮想地球202の地表面上の点Oに向けて移動させる。点Oは、点Hの仮想地球202表面に対する投影点である。点Oから近い順に、点A、B、C、・・・、Hと一直線上に並ぶものとする。   Here, the viewpoint is moved from the point H in the far field to the point O on the ground surface of the virtual earth 202. Point O is a projection point of point H onto the surface of virtual earth 202. It is assumed that the points A, B, C,...

観察距離が線分OHよりも大きいときには、レベル0のソース画像に基づくキューブマップ画像(以下、「キューブマップ画像(L0)」のように表記する)が仮想地球202にマッピングされる。視点が点Hよりも地表面に近づき線分GH上に至ると、キューブマップ画像(L0)ではなくキューブマップ画像(L1)がマッピングされる。このように、視点が点Hよりも仮想地球202側に動くと、マッピングすべきキューブマップ画像が切り替わる。   When the observation distance is larger than the line segment OH, a cube map image (hereinafter referred to as “cube map image (L0)”) based on the level 0 source image is mapped to the virtual earth 202. When the viewpoint approaches the ground surface rather than the point H and reaches the line segment GH, the cube map image (L1) is mapped instead of the cube map image (L0). Thus, when the viewpoint moves to the virtual earth 202 side from the point H, the cube map image to be mapped is switched.

視点が点Gよりも地表面に近づき点FG上に至るとキューブマップ画像(L2)、視点が線分EF上に至るとキューブマップ画像(L3)がマッピングされる。視点が点Eよりも地表面に近づくとキューブマップ画像(L4)がマッピングされる。境界距離は線分ODよりも長く、線分OEよりも短く設定されている。このため、視点が線分DE上を仮想地球202に向かって移動し続け、視点が境界面218を通り抜けると、すなわち、観察距離が境界値以下となると、キューブマップ画像(L4)ではなく球座標マップ画像(L4)がマッピングされる。視点が点Dを通過し線分CD上に至ると、球座標マップ画像(L5)がマッピングされる。このように仮想地球202に近づくほど、詳細度のレベルが高いマップ画像がマッピング対象として選択される。観察距離が境界値以下となったときには、キューブマッピングから球マッピングにマッピング方法が切り替えられる。仮想地球202から視点が遠ざかるときにはちょうど逆プロセスとなる。   When the viewpoint approaches the ground surface rather than the point G and reaches the point FG, the cube map image (L2) is mapped, and when the viewpoint reaches the line segment EF, the cube map image (L3) is mapped. When the viewpoint approaches the ground surface rather than the point E, the cube map image (L4) is mapped. The boundary distance is set longer than the line segment OD and shorter than the line segment OE. For this reason, when the viewpoint continues to move on the line segment DE toward the virtual earth 202 and the viewpoint passes through the boundary surface 218, that is, when the observation distance is equal to or less than the boundary value, the spherical coordinates instead of the cube map image (L4) are used. The map image (L4) is mapped. When the viewpoint passes through the point D and reaches the line segment CD, the spherical coordinate map image (L5) is mapped. Thus, the closer to the virtual earth 202, the higher the level of detail is selected as the mapping target. When the observation distance is less than or equal to the boundary value, the mapping method is switched from cube mapping to sphere mapping. When the viewpoint moves away from the virtual earth 202, the reverse process is performed.

画像表示装置100においては、キューブマッピングと球マッピングの見た目上の切り替えをスムーズにするために、いくつかの工夫が施されている。
(1)まず、線分DE上を視点が移動するときには、同一詳細度のマップ画像がマッピング対象として選択されている。図9の場合、視点が線分DE上にあって、遠距離圏側にあるときにはキューブマップ画像(L4)がマッピングされ、近距離圏側にあるときには同じ詳細度の球座標マップ画像(L4)がマッピングされる。キューブマッピングであっても球マッピングであっても、マッピングの切り替えに際しては同一詳細度のマップ画像が選択されるので、マッピング方法の切り替えにともなう見た目上の違和感が抑制される。
In the image display apparatus 100, some ideas are taken in order to smoothly switch the appearance of cube mapping and sphere mapping.
(1) First, when the viewpoint moves on the line segment DE, a map image having the same level of detail is selected as a mapping target. In the case of FIG. 9, the cube map image (L4) is mapped when the viewpoint is on the line segment DE and is on the far field side, and the spherical coordinate map image (L4) having the same level of detail when it is on the near field side. Are mapped. Regardless of cube mapping or sphere mapping, map images with the same level of detail are selected when switching the mapping, so that the uncomfortable feeling of appearance associated with the switching of the mapping method is suppressed.

(2)視点が遠距離圏にあるとき、すなわち、キューブマップ画像がマッピングされるときには、仮想地球202に対してはさまざまなエフェクトが施される。たとえば、太陽光によって仮想地球202の水平線を光らせたり、月の影による陰影をつけたり、あるいは、大気中の水蒸気によって地表が霞む様子を演出表現する。画像表示装置100は、キューブマップ画像がマッピングされた仮想地球202に複数種類のエフェクトを施す。遠距離圏にある視点が境界面218に近づくにしたがって施すべきエフェクトの種類が削減される。たとえば、視点が点Hよりも遠いときには、5種類のエフェクトを施すとする。視点が線分GH上にあるときには、4種類のエフェクトを施す。視点が線分FG上にあるときには3種類のエフェクトを施し、視点が線分DE上にあるときにはすべてのエフェクトを無効化する。遠距離圏の視点が境界面218に近づくにしたがって施すべきエフェクトの種類を削減していくことにより、マッピング方法の切り替えにともなう見た目上の変化からユーザの注目をそらしている。
なお、エフェクトの種類を削減するだけでなく、エフェクトの量を減少させてもよい。たとえば、太陽光の照り返しを表現するために鏡面反射光によるエフェクト表現を行う場合、視点が境界面218に近づくにしたがって入射光の設定値を弱めてもよい。
(2) When the viewpoint is in the far range, that is, when the cube map image is mapped, various effects are applied to the virtual earth 202. For example, the horizon of the virtual earth 202 is illuminated by sunlight, the shadow of the moon is shaded, or the appearance of the earth's surface obscured by water vapor in the atmosphere is expressed. The image display apparatus 100 applies a plurality of types of effects to the virtual earth 202 to which the cube map image is mapped. The type of effect to be applied is reduced as the viewpoint in the far field approaches the boundary surface 218. For example, when the viewpoint is farther than the point H, it is assumed that five types of effects are applied. When the viewpoint is on the line segment GH, four types of effects are applied. When the viewpoint is on the line segment FG, three types of effects are applied, and when the viewpoint is on the line segment DE, all effects are invalidated. By reducing the types of effects to be applied as the far-field viewpoint approaches the boundary surface 218, the user's attention is diverted from the apparent change accompanying the switching of the mapping method.
In addition to reducing the types of effects, the amount of effects may be reduced. For example, when effect expression using specular reflection light is performed in order to express sunlight reflection, the set value of incident light may be weakened as the viewpoint approaches the boundary surface 218.

(3)視点が境界面218を通過するとき、雲の中を通り抜ける演出が実行される。仮想空間200においては、境界面218を薄く包む切替圏220が設定される。視点が切替圏220に入ると、雲の演出を実行する。このような処理方法によってもマッピング方法の切り替えにともなう見た目の上の違和感を抑制しやすくなる。   (3) When the viewpoint passes through the boundary surface 218, an effect of passing through the clouds is executed. In the virtual space 200, a switching zone 220 that thinly wraps the boundary surface 218 is set. When the viewpoint enters the switching zone 220, a cloud effect is executed. Even with such a processing method, it is easy to suppress a sense of incongruity on appearance due to switching of the mapping method.

図10は、境界距離と仮想地球202との関係を示す模式図である。
上述したように、球マッピングの場合、極点に集中線が発生する。極点付近の格子状領域208の形状が三角形となるため、各三角形の頂点が極点に集中するためである。一方、キューブマッピングの場合、仮想地球202全体について比較的均等にマッピングできる。そこで、極点付近では境界距離が短くなるように境界面218を設定する。
このような設定によれば、視点が極点近くにあるときには、視点が仮想地球202の地表面近くに至るまでキューブマッピングが実行される。すなわち、視点が極点付近にあるときには集中線の発生しないキューブマッピングが優先的に選択される。
FIG. 10 is a schematic diagram showing the relationship between the boundary distance and the virtual earth 202.
As described above, in the case of sphere mapping, a concentrated line is generated at the extreme point. This is because the shape of the lattice region 208 near the poles is a triangle, and the vertices of each triangle are concentrated on the poles. On the other hand, in the case of cube mapping, the entire virtual earth 202 can be mapped relatively evenly. Therefore, the boundary surface 218 is set so that the boundary distance becomes short near the pole.
According to such a setting, when the viewpoint is near the extreme point, cube mapping is executed until the viewpoint reaches near the ground surface of the virtual earth 202. That is, when the viewpoint is in the vicinity of the extreme point, cube mapping in which no concentrated line is generated is preferentially selected.

図11は、画像表示装置100の機能ブロック図である。
ここに示す各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
FIG. 11 is a functional block diagram of the image display apparatus 100.
Each block shown here can be realized in hardware by an element such as a CPU of a computer or a mechanical device, and in software it is realized by a computer program or the like. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.

画像表示装置100は、ユーザインタフェース処理部110、データ処理部120およびデータ保持部140を含む。
ユーザインタフェース処理部110は、ユーザからの入力処理やユーザに対する情報表示のようなユーザインタフェース全般に関する処理を担当する。データ処理部120は、ユーザインタフェース処理部110を介した入力操作を元にして各種のデータ処理を実行する。データ処理部120は、ユーザインタフェース処理部110とデータ保持部140の間のインタフェースの役割も果たす。データ保持部140は、予め用意された各種の設定データや、データ処理部120から受け取ったさまざまなデータを格納する。
The image display apparatus 100 includes a user interface processing unit 110, a data processing unit 120, and a data holding unit 140.
The user interface processing unit 110 is in charge of processing related to the entire user interface such as input processing from the user and information display for the user. The data processing unit 120 executes various data processing based on an input operation via the user interface processing unit 110. The data processing unit 120 also serves as an interface between the user interface processing unit 110 and the data holding unit 140. The data holding unit 140 stores various setting data prepared in advance and various data received from the data processing unit 120.

ユーザインタフェース処理部110は、入力部112と表示部114を含む。入力部112はユーザからの入力操作を受け付ける。表示部114は、観察画像などの各種情報を画面表示させる。   The user interface processing unit 110 includes an input unit 112 and a display unit 114. The input unit 112 receives an input operation from the user. The display unit 114 displays various information such as observation images on the screen.

データ保持部140は、球座標マップ画像保持部144およびキューブマップ画像保持部146を含む。球座標マップ画像保持部144は、詳細度において異なる複数種類の球座標マップ画像を保持する。画像メモリ240に対応する。キューブマップ画像保持部146は、詳細度において異なる複数種類のキューブマップ画像を保持する。キューブマップ画像保持部146も画像メモリ240に対応する。   The data holding unit 140 includes a spherical coordinate map image holding unit 144 and a cube map image holding unit 146. The spherical coordinate map image holding unit 144 holds a plurality of types of spherical coordinate map images that differ in detail. This corresponds to the image memory 240. The cube map image holding unit 146 holds a plurality of types of cube map images having different degrees of detail. The cube map image holding unit 146 also corresponds to the image memory 240.

データ処理部120は、マッピング部122、位置検出部128、エフェクト部136および雲演出部138を含む。
マッピング部122は、各種マップ画像を仮想地球202にマッピングする。マッピング部122は、球マッピング部124、キューブマッピング部126およびマッピング選択部132を含む。マッピング選択部132は、観察距離と境界値を比較して、キューブマップ画像と球座標マップ画像のいずれを仮想地球202にマッピングするか判定する。また、観察距離に応じて、マップ画像の詳細度を決定する。球マッピング部124は、マッピング選択部132が球マッピングを選択するとき、指定された詳細度の球座標マップ画像を仮想地球202にマッピングする。キューブマッピング部126は、マッピング選択部132がキューブマッピングを選択するとき、指定された詳細度のキューブマップ画像を仮想地球202にマッピングする。
The data processing unit 120 includes a mapping unit 122, a position detection unit 128, an effect unit 136, and a cloud effect unit 138.
The mapping unit 122 maps various map images to the virtual earth 202. The mapping unit 122 includes a sphere mapping unit 124, a cube mapping unit 126, and a mapping selection unit 132. The mapping selection unit 132 compares the observation distance and the boundary value to determine which of the cube map image and the spherical coordinate map image is mapped to the virtual earth 202. Further, the degree of detail of the map image is determined according to the observation distance. When the mapping selection unit 132 selects the sphere mapping, the sphere mapping unit 124 maps the spherical coordinate map image with the specified level of detail to the virtual earth 202. When the mapping selection unit 132 selects the cube mapping, the cube mapping unit 126 maps the cube map image having the specified level of detail to the virtual earth 202.

位置検出部128は、ユーザが入力部112を介して指定した視点の座標を検出する。
エフェクト部136は、視点が遠距離圏にあるときに仮想地球202にさまざまなエフェクトを施す。また、観察距離に応じて実行すべきエフェクトと無効にすべきエフェクトを特定する。雲演出部138は、視点が境界面218を包む切替圏220を通過するときに、雲の中を通り抜ける動画像を表示させる。
The position detection unit 128 detects the coordinates of the viewpoint specified by the user via the input unit 112.
The effect unit 136 applies various effects to the virtual earth 202 when the viewpoint is in the far range. Also, the effect to be executed and the effect to be invalidated are specified according to the observation distance. The cloud rendering unit 138 displays a moving image that passes through the clouds when the viewpoint passes through the switching zone 220 that wraps the boundary surface 218.

図12は、マッピング処理過程を示すフローチャートである。
ユーザが仮想空間200内における視点を変更したとき、図12に示す処理が開始される。まず、位置検出部128は、変更後の視点の座標を検出する(S10)。視点が近距離圏内であれば(S12のY)、マッピング選択部132は球マッピングを選択する(S14)。このとき観察距離に応じて詳細度も決定される。球マッピング部124は、球座標マップ画像保持部144から該当する球座標マップ画像を読み出し、仮想地球202にマッピングする(S16)。
FIG. 12 is a flowchart showing the mapping process.
When the user changes the viewpoint in the virtual space 200, the process shown in FIG. 12 is started. First, the position detection unit 128 detects the coordinates of the changed viewpoint (S10). If the viewpoint is within a short range (Y in S12), the mapping selection unit 132 selects a sphere mapping (S14). At this time, the level of detail is also determined according to the observation distance. The sphere mapping unit 124 reads the corresponding sphere coordinate map image from the sphere coordinate map image holding unit 144 and maps it to the virtual earth 202 (S16).

一方、遠距離圏内であれば(S12のN)、マッピング選択部132はキューブマッピングを選択する(S18)。このとき観察距離に応じて詳細度も決定される。キューブマッピング部126は、キューブマップ画像保持部146から該当するキューブマップ画像を読み出し、仮想地球202にマッピングする(S20)。エフェクト部136は、観察距離に応じて各種エフェクトの実行可否を判定する(S22)。エフェクトを施すときには(S22のY)、観察距離に応じて複数種類のエフェクトの全部または一部を施す(S24)。視点が境界面218に近く、エフェクト不要であるときには(S22のN)、S24はスキップされる。   On the other hand, if it is within a long range (N of S12), the mapping selection unit 132 selects cube mapping (S18). At this time, the level of detail is also determined according to the observation distance. The cube mapping unit 126 reads the corresponding cube map image from the cube map image holding unit 146 and maps it to the virtual earth 202 (S20). The effect unit 136 determines whether various effects can be executed according to the observation distance (S22). When applying the effect (Y in S22), all or some of the plurality of types of effects are applied according to the observation distance (S24). When the viewpoint is close to the boundary surface 218 and no effect is required (N in S22), S24 is skipped.

表示部114は、キューブマップ画像または球座標マップ画像のマッピングにより観察画像を表示させる(S25)。
雲演出部138は、視点が切替圏220内にあるか判定する(S26)。雲演出部138は、視点がこの切替圏220内にあるときに(S26のY)、雲を示す画像を観察画像上に重ねあわせる(S28)。
The display unit 114 displays the observation image by mapping the cube map image or the spherical coordinate map image (S25).
The cloud rendering unit 138 determines whether the viewpoint is within the switching zone 220 (S26). When the viewpoint is within the switching zone 220 (Y in S26), the cloud effect unit 138 superimposes an image showing a cloud on the observation image (S28).

球マッピングは、球座標マップ画像を仮想地球202にマッピングするときに歪みが小さいため、地表面を詳細に示す上で有利である。一方、視点が仮想地球202から遠いときには、キューブマッピングにおける多彩なエフェクト技術を使用できるため、実地球を宇宙空間から眺めたときの雰囲気を再現しやすくなる。視点が仮想地球202から遠いときには、キューブマップ画像を仮想地球202にマッピングするときの歪みの影響も小さくなる。このように、球マッピングとキューブマッピングを相補的に活用することにより、仮想地球202と視点との距離に対応したかたちにて、仮想地球202を写実的に表現できる。   Spherical mapping is advantageous in showing the ground surface in detail because distortion is small when a spherical coordinate map image is mapped to the virtual earth 202. On the other hand, when the viewpoint is far from the virtual earth 202, various effect techniques in cube mapping can be used, so that it is easy to reproduce the atmosphere when the real earth is viewed from outer space. When the viewpoint is far from the virtual earth 202, the influence of distortion when mapping the cube map image to the virtual earth 202 is also reduced. In this way, by using the spherical mapping and the cube mapping in a complementary manner, the virtual earth 202 can be realistically expressed in a form corresponding to the distance between the virtual earth 202 and the viewpoint.

タンジェント空間などに基づく公知のレンダリング技術は、球マッピングよりもキューブマッピングに親和性があり、キューブマップ画像については、雲の表面を立体的に見せたり雲の影を作るといったエフェクトを施しやすい。   A known rendering technique based on tangent space has affinity for cube mapping rather than sphere mapping, and the cube map image is likely to have an effect of making the surface of the cloud appear three-dimensional or making a cloud shadow.

更に、詳細度が異なる球座標マップ画像、または、キューブマップ画像をマッピングすることにより、観察距離に応じた写実性を実現しやすいマップ画像を選択できる。マッピング方法の切り替え、すなわち、キューブマッピングと球マッピングの切り替えに際しては、同一詳細度のマップ画像を選択し、エフェクトの種類の変更、雲を通り抜ける演出により、切り替えにともなう見た目上の違和感を抑制している。   Furthermore, by mapping spherical coordinate map images or cube map images with different levels of detail, map images that can easily realize realism according to the observation distance can be selected. When switching the mapping method, that is, switching between cube mapping and sphere mapping, select a map image with the same level of detail, change the type of effect, and produce effects that pass through the clouds to suppress the uncomfortable feeling that is associated with the switching. Yes.

本実施例においては地球をモチーフとして説明したが、地球などの天体に限らず、仮想空間において表現可能なさまざまな物体に本発明を応用可能である。また、本実施例においては、「キューブマッピング」については立方体を対象として説明したが、立方体に限らず、対象物の形状に応じてさまざまな形状の六面体、あるいは、多面体形式のマップ画像をマッピングしてもよい。   In the present embodiment, the earth has been described as a motif. However, the present invention is not limited to celestial bodies such as the earth, but can be applied to various objects that can be expressed in a virtual space. In this embodiment, “cube mapping” has been described for a cube. However, the present invention is not limited to a cube, and map images of various shapes such as hexahedrons or polyhedrons are mapped according to the shape of the object. May be.

仮想地球202の一部だけではなく、地表面全体を一画面にて見たい場合もある。ユーザからの指示に応じて、3次元球体状の仮想地球202を2次元平面図に展開してもよい。球体を2次元平面に展開するための方法論としては、メルカトル図法やミラー図法といったさまざまな方法論が確立されている。球座標マップ画像はメモリ上で平面展開されているから、その画像をそのまま2次元表示させれば2次元地図になる。このように、球座標マップ画像を用いた場合、仮想地球202を3次元表示している状態から、2次元平面の地図を表示する状態に簡単に移行できるという利点がある。球座標マッピングを用いることで、地球の3次元表示状態と平面地図表示状態の切り換えをともなうアプリケーションの開発も容易である。   In some cases, it is desired to view not only a part of the virtual earth 202 but the entire ground surface on one screen. In response to an instruction from the user, the three-dimensional spherical virtual earth 202 may be developed in a two-dimensional plan view. Various methodologies such as Mercator projection and mirror projection have been established as methodologies for expanding a sphere into a two-dimensional plane. Since the spherical coordinate map image is developed in a plane on the memory, if the image is displayed two-dimensionally as it is, it becomes a two-dimensional map. Thus, when the spherical coordinate map image is used, there is an advantage that it is possible to easily shift from a state where the virtual earth 202 is displayed in three dimensions to a state where a map of a two-dimensional plane is displayed. By using spherical coordinate mapping, it is easy to develop an application that involves switching between the three-dimensional display state of the earth and the planar map display state.

仮想地球202と視点の距離が大きいときには、実写ではなくコンピュータグラフィックス画像を仮想地球202にマッピングしてもよい。このコンピュータグラフィックス画像は、詳細な地形データそのものでなくてもよい。まず、フラッシュメモリには詳細な地形データを配置せず、陸地と海の境界を示すベクトルデータ、都市や森林の配置を示すテクスチャデータだけを用意しておく。仮想地球202から視点が離れているときには、このような省サイズデータの細部をフラクタル処理により補うことにより、擬似的にマップ画像を生成してもよい。視点が仮想地球202に近づくと、ネットワークを介してサーバから詳細なテクスチャデータをストリーミングし、フラクタル画像のマッピングから正確・詳細な画像のマッピングに移行させてもよい。オフライン時や、ハードディスクの空き容量が乏しいときには、視点が仮想地球202から一定距離以内に近づかないように制御してもよい。   When the distance between the virtual earth 202 and the viewpoint is large, a computer graphics image may be mapped to the virtual earth 202 instead of a real image. The computer graphics image may not be detailed terrain data itself. First, detailed terrain data is not arranged in the flash memory, but only vector data indicating the land-sea boundary and texture data indicating the arrangement of cities and forests are prepared. When the viewpoint is away from the virtual earth 202, a pseudo map image may be generated by supplementing such details of the size-saving data with fractal processing. When the viewpoint approaches the virtual earth 202, detailed texture data may be streamed from the server via the network, and the mapping from the fractal image mapping to the accurate / detailed image mapping may be performed. Control may be performed so that the viewpoint does not approach within a certain distance from the virtual earth 202 when offline or when the free space of the hard disk is scarce.

画像表示装置100の機能は、「画像表示プログラム」というコンピュータ・プログラムとして提供されてもよい。たとえば、画像表示プログラムがDLL(Dynamic Link Library)として提供され、アプリケーション・ソフトウェアは、表現したい物体の球座標マップ画像とキューブマップ画像を用意した上で、画像表示プログラムとリンクする。このような態様によれば、アプリケーション・プログラムは、画像表示プログラムの機能を取り込むことができるため、観察距離に応じて写実的にオブジェクトの表現することができる。   The functions of the image display apparatus 100 may be provided as a computer program called “image display program”. For example, an image display program is provided as a DLL (Dynamic Link Library), and application software prepares a spherical coordinate map image and a cube map image of an object to be expressed, and links with the image display program. According to such an aspect, the application program can capture the function of the image display program, so that the object can be realistically represented according to the observation distance.

アプリケーション・ソフトウェアがコンピュータゲーム・ソフトウェアであれば、ゲームフィールドの地形画像を球座標マップ画像、キューブマップ画像として画像表示プログラムに提供すれば、ゲームフィールドを遠近から写実的に眺める機能を実現できる。
たとえば、画像表示プログラムの機能を利用することにより、ゲームフィールド上のある地点Aから上昇して、地点Bに向けて降下するという画像表現を簡易に実現できる。
If the application software is computer game software, a game field terrain image can be provided to the image display program as a spherical coordinate map image and a cube map image, thereby realizing a function of realistically viewing the game field from a distance.
For example, by using the function of the image display program, it is possible to easily realize an image expression that rises from a certain point A on the game field and descends toward the point B.

更に、加速度センサやジャイロセンサを搭載したコントロールデバイスにより視点を動的に変化させてもよい。このような態様によれば、直感的なユーザインタフェースにて、地球をさまざまな角度から俯瞰できる。   Furthermore, the viewpoint may be dynamically changed by a control device equipped with an acceleration sensor or a gyro sensor. According to such an aspect, it is possible to look down at the earth from various angles with an intuitive user interface.

以上、本発明を実施例をもとに説明した。この実施例はあくまで例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. is there.

仮想地球と視点の関係を示す模式図である。It is a schematic diagram which shows the relationship between a virtual earth and a viewpoint. (a)は球座標マップ画像と詳細度との関係を示す第1の模式図、(b)は球座標マップ画像と詳細度との関係を示す第2の模式図、(c)は球座標マップ画像と詳細度との関係を示す第3の模式図である。(A) is the 1st schematic diagram which shows the relationship between a spherical coordinate map image and a detail level, (b) is the 2nd schematic diagram which shows the relationship between a spherical coordinate map image and a detail level, (c) is a spherical coordinate. It is a 3rd schematic diagram which shows the relationship between a map image and a detail level. (a)は観察画像の画素値を求める方法を説明するための仮想地球の図、(b)は観察画像の画素値を求める方法を説明する球座標マップ画像の第1の図、(c)は観察画像の画素値を求める方法を説明する球座標マップ画像の第2の図である。(A) is a view of a virtual earth for explaining a method for obtaining a pixel value of an observation image, (b) is a first diagram of a spherical coordinate map image for explaining a method for obtaining a pixel value of an observation image, (c). FIG. 4 is a second diagram of a spherical coordinate map image for explaining a method for obtaining a pixel value of an observation image. (a)はキューブマップ画像と詳細度との関係を示す第1の模式図、(b)はキューブマップ画像と詳細度との関係を示す第2の模式図、(c)はキューブマップ画像と詳細度との関係を示す第3の模式図である。(A) is a first schematic diagram showing the relationship between the cube map image and the level of detail, (b) is a second schematic diagram showing the relationship between the cube map image and the level of detail, and (c) is a cube map image and It is a 3rd schematic diagram which shows the relationship with a detail level. (a)は立方体の各面と、キューブマップ画像の各格子状領域の対応関係を説明するための立方体の図、(b)は立方体の各面と、キューブマップ画像の各格子状領域の対応関係を説明するためのキューブマップ画像の図である。(A) is a diagram of a cube for explaining the correspondence between each surface of the cube and each grid-like region of the cube map image, and (b) is the correspondence between each surface of the cube and each grid-like region of the cube map image. It is a figure of the cube map image for demonstrating a relationship. (a)は観察画像の画素値を求める方法を説明するための仮想球体の図、(b)は観察画像の画素値を求める方法を説明するためのキューブマップ画像の第1の図、(c)は観察画像の画素値を求める方法を説明するためのキューブマップ画像の第2の図である。(A) is a diagram of a virtual sphere for explaining a method for obtaining a pixel value of an observation image, (b) is a first diagram of a cube map image for explaining a method for obtaining a pixel value of an observation image, (c) ) Is a second diagram of a cube map image for explaining a method of obtaining a pixel value of an observation image. (a)はキューブマップ画像のミップマップ構造を説明する第1の図、(b)はキューブマップ画像のミップマップ構造を説明する第2の図、(c)はキューブマップ画像のミップマップ構造を説明する第3の図、(d)はキューブマップ画像のミップマップ構造を説明する第4の図である。(A) is a first diagram illustrating a mipmap structure of a cube map image, (b) is a second diagram illustrating a mipmap structure of a cube map image, and (c) is a mipmap structure of a cube map image. FIG. 3D is a fourth diagram for explaining the mipmap structure of the cube map image. 詳細度を説明するための模式図である。It is a schematic diagram for demonstrating a degree of detail. 観察距離と詳細度との関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between observation distance and detail. 境界距離と仮想地球との関係を示す模式図である。It is a schematic diagram which shows the relationship between boundary distance and virtual earth. 画像表示装置の機能ブロック図である。It is a functional block diagram of an image display apparatus. マッピング処理過程を示すフローチャートである。It is a flowchart which shows a mapping process process.

符号の説明Explanation of symbols

100 画像表示装置、 110 ユーザインタフェース処理部、 112 入力部、 114 表示部、 120 データ処理部、 122 マッピング部、 124 球マッピング部、 126 キューブマッピング部、 128 位置検出部、 132 マッピング選択部、 134 画像選択部、 136 エフェクト部、 138 雲演出部、 140 データ保持部、 144 球座標マップ画像保持部、 146 キューブマップ画像保持部、 200 仮想空間、 202 仮想地球、 204 観察画像、 206 球体、 208 格子状領域、 210 立方体、 212 格子状領域、 214 視点、 216 観察範囲、 218 境界面、 220 切替圏、 240 画像メモリ、 242 画像領域。   100 image display device, 110 user interface processing unit, 112 input unit, 114 display unit, 120 data processing unit, 122 mapping unit, 124 sphere mapping unit, 126 cube mapping unit, 128 position detection unit, 132 mapping selection unit, 134 images Selection unit, 136 effect unit, 138 cloud rendering unit, 140 data holding unit, 144 spherical coordinate map image holding unit, 146 cube map image holding unit, 200 virtual space, 202 virtual earth, 204 observation image, 206 sphere, 208 grid Area, 210 cube, 212 grid area, 214 viewpoints, 216 observation range, 218 interface, 220 switching area, 240 image memory, 242 image area.

Claims (11)

仮想空間内にある立体オブジェクトの表面にマッピングされるべき画像として、球座標に対応づけて画素が格納された球座標マップ画像を保持する球座標マップ画像保持部と、
前記立体オブジェクトの表面にマッピングされるべき画像として、キューブマップ画像を保持するキューブマップ画像保持部と、
ユーザから、前記仮想空間内における視点の指定を検出する位置検出部と、
前記視点から前記立体オブジェクト表面までの距離である観察距離が所定の境界値よりも大きいときには、前記キューブマップ画像を前記立体オブジェクトにマッピングし、前記観察距離が前記境界値以下であるときには、前記球座標マップ画像を前記立体オブジェクトにマッピングするテクスチャマッピング部と、
を備えることを特徴とする画像表示装置。
A spherical coordinate map image holding unit that holds a spherical coordinate map image in which pixels are stored in association with spherical coordinates, as an image to be mapped to the surface of the three-dimensional object in the virtual space;
As an image to be mapped to the surface of the three-dimensional object, a cube map image holding unit that holds a cube map image,
A position detection unit that detects designation of a viewpoint in the virtual space from a user;
When the observation distance, which is the distance from the viewpoint to the surface of the solid object, is larger than a predetermined boundary value, the cube map image is mapped to the solid object, and when the observation distance is less than the boundary value, the sphere A texture mapping unit for mapping a coordinate map image to the solid object;
An image display device comprising:
前記立体オブジェクトは、現実の物体を模したものであり、
前記球座標マップ画像は、前記現実の物体を実写した画像を利用したものであり、
前記キューブマップ画像は、所定の計算により生成され、前記現実の物体を模式的に表す画像を利用したものであることを特徴とする請求項1に記載の画像表示装置。
The solid object imitates a real object,
The spherical coordinate map image is an image obtained by taking an image of the real object,
The image display apparatus according to claim 1, wherein the cube map image is generated by a predetermined calculation and uses an image schematically representing the real object.
前記球座標マップ画像保持部は、詳細度が異なる複数種類の前記球座標マップ画像を保持し、
前記テクスチャマッピング部は、前記観察距離に対応する詳細度の前記球座標マップ画像を前記立体オブジェクトにマッピングすることを特徴とする請求項1に記載の画像表示装置。
The spherical coordinate map image holding unit holds a plurality of types of spherical coordinate map images with different degrees of detail,
The image display apparatus according to claim 1, wherein the texture mapping unit maps the spherical coordinate map image having a degree of detail corresponding to the observation distance to the solid object.
前記キューブマップ画像保持部は、詳細度が異なる複数種類の前記キューブマップ画像を保持し、
前記テクスチャマッピング部は、前記観察距離に対応する詳細度の前記キューブマップ画像を前記立体オブジェクトにマッピングすることを特徴とする請求項1または3に記載の画像表示装置。
The cube map image holding unit holds a plurality of types of cube map images having different levels of detail,
The image display apparatus according to claim 1, wherein the texture mapping unit maps the cube map image having a degree of detail corresponding to the observation distance to the solid object.
マッピング方法の切り替えの前後において、マッピングされる前記キューブマップ画像と前記球座標マップ画像の詳細度は同一であることを特徴とする請求項3または4に記載の画像表示装置。   5. The image display device according to claim 3, wherein the cube map image to be mapped and the spherical coordinate map image have the same level of detail before and after the switching of the mapping method. 前記観察距離が前記境界値よりも大きいとき、前記立体オブジェクトに対してコンピュータ・グラフィックスによるエフェクトを施すエフェクト部、を更に備えることを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, further comprising: an effect unit that applies an effect by computer graphics to the three-dimensional object when the observation distance is larger than the boundary value. 前記エフェクト部は、前記観察距離が前記境界値に近づくにしたがって前記エフェクトを減少させることを特徴とする請求項6に記載の画像表示装置。   The image display device according to claim 6, wherein the effect unit reduces the effect as the observation distance approaches the boundary value. 前記立体オブジェクトは、雲を有する天体を模したオブジェクトであって、
マッピング方法の切り替えの前後において、前記立体オブジェクトを覆う雲を通り抜ける演出を実行する雲演出部、を更に備えることを特徴とする請求項1に記載の画像表示装置。
The three-dimensional object is an object that imitates a celestial body having clouds,
The image display device according to claim 1, further comprising a cloud effect unit that executes an effect of passing through the clouds covering the solid object before and after the switching of the mapping method.
前記球座標マップ画像または前記キューブマップ画像がマッピングされる前記立体オブジェクト表面上の位置によって、マッピング方法の切り替え判断基準となる前記境界値を異ならせることを特徴とする請求項1に記載の画像表示装置。   The image display according to claim 1, wherein the boundary value serving as a mapping method switching determination criterion varies depending on a position on the surface of the solid object to which the spherical coordinate map image or the cube map image is mapped. apparatus. 体オブジェクトを含む仮想空間を生成するステップと、
ユーザから、前記仮想空間内における視点の指定を検出するステップと、
前記視点から前記立体オブジェクト表面までの距離である観察距離と所定の境界値との長短を比較するステップと、
前記観察距離が前記境界値よりも大きいとき、前記立体オブジェクトの表面にマッピングされるべき画像であるキューブマップ画像を前記立体オブジェクトにマッピングするステップと、
前記観察距離が前記境界値以下であるとき、前記立体オブジェクトの表面にマッピングされるべき画像として、球座標に対応づけて画素が格納された球座標マップ画像を前記立体オブジェクトにマッピングするステップと、
を実行させることを特徴とする画像表示方法。
Generating a virtual space including a standing body object,
Detecting a designation of a viewpoint in the virtual space from a user;
Comparing an observation distance, which is a distance from the viewpoint to the surface of the solid object, and a predetermined boundary value;
Mapping a cube map image , which is an image to be mapped to the surface of the three-dimensional object, when the observation distance is larger than the boundary value;
When the observation distance is equal to or less than the boundary value , mapping a spherical coordinate map image in which pixels are stored in association with spherical coordinates as the image to be mapped to the surface of the solid object, to the solid object;
The image display method characterized by performing.
仮想空間内にある立体オブジェクトの表面にマッピングされるべき画像として、球座標に対応づけて画素が格納された球座標マップ画像を保持する機能と、
前記立体オブジェクトの表面にマッピングされるべき画像として、キューブマップ画像を保持する機能と、
ユーザから、前記仮想空間内における視点の指定を検出する機能と、
前記視点から前記立体オブジェクト表面までの距離である観察距離が所定の境界値よりも大きいときには、前記キューブマップ画像を前記立体オブジェクトにマッピングし、前記観察距離が前記境界値以下であるときには、前記球座標マップ画像を前記立体オブジェクトにマッピングする機能と、
をコンピュータに発揮させることを特徴とする画像表示プログラム。
A function of holding a spherical coordinate map image in which pixels are stored in association with spherical coordinates as an image to be mapped to the surface of a three-dimensional object in the virtual space;
A function of holding a cube map image as an image to be mapped to the surface of the three-dimensional object;
A function for detecting designation of a viewpoint in the virtual space from a user;
When the observation distance, which is the distance from the viewpoint to the surface of the solid object, is larger than a predetermined boundary value, the cube map image is mapped to the solid object, and when the observation distance is less than the boundary value, the sphere A function of mapping a coordinate map image to the solid object;
An image display program for causing a computer to exhibit the above.
JP2007164072A 2007-06-21 2007-06-21 Image display device and image display method Active JP4980153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007164072A JP4980153B2 (en) 2007-06-21 2007-06-21 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007164072A JP4980153B2 (en) 2007-06-21 2007-06-21 Image display device and image display method

Publications (3)

Publication Number Publication Date
JP2009003708A JP2009003708A (en) 2009-01-08
JP2009003708A5 JP2009003708A5 (en) 2010-07-22
JP4980153B2 true JP4980153B2 (en) 2012-07-18

Family

ID=40320025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007164072A Active JP4980153B2 (en) 2007-06-21 2007-06-21 Image display device and image display method

Country Status (1)

Country Link
JP (1) JP4980153B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5616198B2 (en) * 2010-11-16 2014-10-29 三菱プレシジョン株式会社 Method and apparatus for generating appearance display image of same feature having different level of detail
KR101722177B1 (en) * 2016-07-15 2017-04-03 (주)인트라테크 Method and apparatus for hybrid displaying of VR(virtual reality) contents
CN106899840B (en) * 2017-03-01 2018-06-05 北京大学深圳研究生院 Panoramic picture mapping method
CN114596399A (en) * 2022-03-16 2022-06-07 北京字跳网络技术有限公司 Image processing method and device and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195132A (en) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> Buffer for texture mapping and three-dimensional graphics processor and system therefor and method therefor and storage medium for storing processing program
JP4896761B2 (en) * 2007-02-16 2012-03-14 株式会社日立製作所 3D map display system, 3D map display method, and program thereof

Also Published As

Publication number Publication date
JP2009003708A (en) 2009-01-08

Similar Documents

Publication Publication Date Title
EP3359918B1 (en) Systems and methods for orienting a user in a map display
CN107564089B (en) Three-dimensional image processing method, device, storage medium and computer equipment
Ikeuchi et al. Numerical shape from shading and occluding boundaries
US9183666B2 (en) System and method for overlaying two-dimensional map data on a three-dimensional scene
JP4963105B2 (en) Method and apparatus for storing images
CN115690336B (en) Satellite beam coverage area visualization method, server and storage medium
US20130314402A1 (en) Apparatus and method for displaying images
JP2019175457A (en) Method and system for efficiently rendering cloudy weather effect graphics in three-dimensional map
US9466149B2 (en) Lighting of graphical objects based on environmental conditions
US20140267273A1 (en) System and method for overlaying two-dimensional map elements over terrain geometry
US9582929B2 (en) Dynamic skydome system
JP2007066064A (en) Image generating device and image generating program
JPWO2018216536A1 (en) Video generator and video generation method
Bradley et al. Image-based navigation in real environments using panoramas
CN104867175A (en) Real-scene displaying device for virtual effect picture and implementing method therefor
JP4980153B2 (en) Image display device and image display method
CN106251282A (en) A kind of generation method and device of mechanical arm sampling environment analogous diagram
CN110852952B (en) Large-scale terrain real-time drawing method based on GPU
CN110313020A (en) Image processing method, equipment and computer readable storage medium
EP2225730A2 (en) Transition method between two three-dimensional geo-referenced maps
CN114898026A (en) Dynamic loading and unloading method for landscape based on position and sight
JP6503098B1 (en) Image processing apparatus, image processing program and image processing method
CN111970504A (en) Display method, device and system for reversely simulating three-dimensional sphere by utilizing virtual projection
Timokhin et al. Computer modeling and visualization of accurate terrain shadows in virtual environment system
US20240144641A1 (en) Display device, display method, and computer-readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100603

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4980153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250