JP3453119B2 - Information storage medium and game device - Google Patents

Information storage medium and game device

Info

Publication number
JP3453119B2
JP3453119B2 JP2000376702A JP2000376702A JP3453119B2 JP 3453119 B2 JP3453119 B2 JP 3453119B2 JP 2000376702 A JP2000376702 A JP 2000376702A JP 2000376702 A JP2000376702 A JP 2000376702A JP 3453119 B2 JP3453119 B2 JP 3453119B2
Authority
JP
Japan
Prior art keywords
cloud
virtual camera
game
space
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000376702A
Other languages
Japanese (ja)
Other versions
JP2002183756A (en
Inventor
俊明 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000376702A priority Critical patent/JP3453119B2/en
Publication of JP2002183756A publication Critical patent/JP2002183756A/en
Application granted granted Critical
Publication of JP3453119B2 publication Critical patent/JP3453119B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、オブジェクト空間
を仮想カメラから見た画像を生成し、当該生成画像を表
示させることによって所与のゲームを実行するためのゲ
ーム情報、情報記憶媒体及びゲーム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game information, an information storage medium, and a game device for generating an image of an object space viewed from a virtual camera and displaying the generated image to execute a given game. Regarding

【0002】[0002]

【従来の技術】従来、テレビゲーム装置等の画像におい
て、雲を表現する際には、処理を軽減するために、一枚
の平面状のポリゴンに雲のテクスチャをマッピングした
雲オブジェクトをオブジェクト空間に複数水平に設定し
て、雲を表現していた。しかしながら、例えば、飛行機
を操縦するゲームなどにおいて、操縦者の視点から見た
画像を生成する場合には、仮想カメラ(視点)が雲と水
平となることもあり、雲に厚味がないことが分かってし
まうといった問題があった。そのため、雲オブジェクト
を常に仮想カメラの視線方向に垂直に対向させるいわゆ
るビルボード処理を行なっていた。
2. Description of the Related Art Conventionally, when representing a cloud in an image of a video game device or the like, in order to reduce the processing, a cloud object in which the texture of the cloud is mapped to one flat polygon is placed in the object space. Clouds were expressed by setting them horizontally. However, for example, when generating an image viewed from the operator's viewpoint in a game of operating an airplane, the virtual camera (viewpoint) may be horizontal to the cloud, and the cloud may not be thick. There was a problem that I could understand. For this reason, so-called billboard processing is performed in which the cloud object is always opposed vertically to the line-of-sight direction of the virtual camera.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来に
おいては、雲のテクスチャをマッピングさせた1枚のポ
リゴンを、常に、仮想カメラに対する上下左右位置を固
定し、かつ、仮想カメラの視線方向に垂直に配置する方
法が採られていた。そのため、仮想カメラの位置や視線
方向等が変化しても雲は全く変化しないため、違和感が
生じるといった問題があった。またさらに、例えば視線
方向の仰角あるいは俯角が大きくなると、±90°の角
度を境にして、雲が反転して表現されてしまうといった
問題があった。そのため、仮想カメラの位置や視線方向
等の変化に対しても、違和感のない雲の表現が望まれて
いた。特にゲームにおいては、各フレームに係る処理を
所与の時間内に行なわなければならないため、仮想カメ
ラの位置や視線方向の変化に対して違和感のない雲を表
現する際の、処理負担の増大を抑えなければならないと
いった問題もあった。
However, in the conventional art, one polygon on which the texture of the cloud is mapped is always fixed in the vertical and horizontal positions with respect to the virtual camera and is perpendicular to the line-of-sight direction of the virtual camera. The method of arrangement was adopted. Therefore, even if the position of the virtual camera, the direction of the line of sight, or the like changes, the cloud does not change at all, and there is a problem that a feeling of strangeness occurs. Furthermore, for example, when the elevation angle or depression angle in the line-of-sight direction becomes large, there is a problem that the cloud is inverted and expressed at an angle of ± 90 °. Therefore, it has been desired to create a cloud expression that does not cause discomfort even when the position of the virtual camera or the direction of the line of sight changes. Especially in a game, the processing for each frame must be performed within a given time, which increases the processing load when expressing a cloud that is comfortable with changes in the position of the virtual camera and the direction of the line of sight. There was also the problem of having to suppress it.

【0004】本発明の課題は、仮想カメラの位置や視線
方向の変化に対して、矛盾のない雲の表現を実現するこ
とである。
An object of the present invention is to realize consistent cloud representation for changes in the position of the virtual camera and the direction of the line of sight.

【0005】[0005]

【課題を解決するための手段】以下、上記課題を解決す
るための手段を説明するが、その前に、本明細書を通じ
て使用する重要な用語である「雲素」および「雲状オブ
ジェクト」について、その解釈を説明する。
[Means for Solving the Problems] Hereinafter, the means for solving the above problems will be described. Before that, the important terms "cloud element" and "cloud object" used throughout the specification will be described. , Explain its interpretation.

【0006】本明細書開示の技術は「雲」を如何に表現
するかを主眼においた技術である。しかし、現実社会に
おいては、「雲」の性質上、1つの「雲」は通常1つの
「雲」であって、「小さい雲」が寄り集まって1つの
「雲」を構成するとは考えないのが一般的である。コン
ピュータグラフィックスの分野においては、「雲」を粒
子系(いわゆるパーティクル)により表現する手法が知
られているが、この手法によれば、「雲」は「粒子(パ
ーティクル)」の集合であって、「小さい雲」の集合で
はない。しかし、本技術は粒子(パーティクル)1つ1
つを制御するものではないため、「雲」を構成する単位
が「粒子(パーティクル)」とは言い得ない。そこで、
「雲」を構成する要素であり、単位であることを表すた
め「雲素」という言葉を用いている。
The technique disclosed in the present specification focuses on how to express a “cloud”. However, in the real world, due to the nature of "clouds", one "cloud" is usually one "cloud", and we do not think that "small clouds" gather together to form one "cloud". Is common. In the field of computer graphics, a method of expressing a “cloud” by a particle system (so-called particles) is known. According to this method, a “cloud” is a set of “particles”. , Not a set of "small clouds". However, this technology is one by one
It cannot be said that the unit that constitutes the "cloud" is a "particle" because it does not control one. Therefore,
The term "cloud element" is used to indicate that it is an element that constitutes "cloud" and is a unit.

【0007】上記趣旨より、本明細書を通じて雲素と
は、雲状オブジェクトを構成する要素を特定するための
言葉である。したがって、雲素の意には雲状オブジェク
トも含まれる。即ち、雲状オブジェクト(例えば、小さ
い雲や、一側面のみを表した雲状オブジェクト)の集合
体や、複数の雲状オブジェクトの択一的選択物等が1つ
の雲状オブジェクト(例えば、大きい雲や、一側面の側
から見た雲状オブジェクト)であってもよいからであ
る。また、雲素の意には、複数の粒子(パーティクル)
の集合体も含まれる。即ち、雲状オブジェクトの構成要
素には、複数の粒子を1つの単位とする場合も含まれる
からである。
From the above meaning, the term "cloud element" is used throughout the present specification to specify the elements constituting the cloud object. Therefore, the term cloud includes a cloud-shaped object. That is, a cloud-shaped object (for example, a small cloud or a cloud-shaped object that represents only one side), an alternative selection of a plurality of cloud-shaped objects, or the like is one cloud-shaped object (for example, a large cloud). Or a cloud-like object viewed from one side). Also, in the meaning of cloud, there are multiple particles.
It also includes a collection of. That is, this is because the constituent elements of the cloud-like object include a case where a plurality of particles are one unit.

【0008】また、「雲状オブジェクト」とは、次のこ
とを意味する。即ち、本明細書開示の技術は「雲」を主
眼においてはいるが、「雲」のみに本技術が適用可能で
あるのではないことを意味する。「雲状オブジェクト」
とは、「煙」や「霧」、「もや」といった、そのあり方
を「雲」と共通にするオブジェクトを含む意味である。
The "cloud-shaped object" means the following. That is, although the technology disclosed in the present specification focuses on the “cloud”, it means that the present technology is not applicable only to the “cloud”. "Cloud object"
Is meant to include objects such as "smoke", "fog", and "haze" that have the same form as "cloud".

【0009】第1の発明は、プロセッサによる演算・制
御により、第1の仮想カメラ(例えば、図2に示す仮想
カメラ100)から見た第1のオブジェクト空間の画像
を生成して、所与のゲームを実行することとなる第1の
装置に対して、前記第1の仮想カメラの所与の角度パラ
メータ(例えば、図2に示すピッチ角X)の値に応じて
予め用意された複数種類の第1の雲素(例えば、図3に
示す雲パーツA(122),雲パーツB(124))
を、前記所与の角度パラメータの現在値に応じた所与の
割合で合成処理することにより、前記第1のオブジェク
ト空間に前記第1の仮想カメラに向けて配置される板状
体の第1の雲状オブジェクト(例えば、実施の形態にお
ける小雲ビルボード)に反映させるテクスチャ情報(例
えば、図4に示す小雲テクスチャ102)を生成する第
1の生成手段(例えば、図31に示す小雲描画部63
2)、を機能させるための、前記プロセッサによる演算
可能なゲーム情報である。
According to a first aspect of the present invention, an image of a first object space viewed from a first virtual camera (for example, the virtual camera 100 shown in FIG. 2) is generated by calculation / control by a processor, and a given image is given. With respect to the first device which executes the game, a plurality of types prepared in advance according to the value of the given angle parameter (for example, the pitch angle X shown in FIG. 2) of the first virtual camera are provided. First cloud (for example, cloud part A (122) and cloud part B (124) shown in FIG. 3)
Are combined at a given ratio according to the current value of the given angle parameter, so that the first plate-shaped body placed toward the first virtual camera in the first object space is processed. First generation means (for example, the small cloud shown in FIG. 31) for generating texture information (for example, the small cloud texture 102 shown in FIG. 4) to be reflected on the cloud-shaped object (for example, the small cloud billboard in the embodiment). Drawing unit 63
2) is game information that can be calculated by the processor for causing the above-mentioned function.

【0010】ここで、第1の装置は、コンピュータ装置
であってもよいし、携帯用/家庭用/業務用のゲーム装
置であってもよい。所与の角度パラメータとは、第1の
仮想カメラを第1のオブジェクト空間に設定する上で必
要となる、第1の仮想カメラに係る角度パラメータのこ
とであり、例えば、第1の仮想カメラのロール角やピッ
チ角、ヨー角といった角度のことである。また、所与の
割合での合成処理には、例えば、第1の雲素が2つであ
って、1:0や0:1の割合で合成処理する場合、即
ち、第1の雲素を切り換える場合も含む。
Here, the first device may be a computer device or a portable / home / commercial game device. The given angle parameter is an angle parameter relating to the first virtual camera, which is necessary for setting the first virtual camera in the first object space. An angle such as a roll angle, a pitch angle, or a yaw angle. Further, in the synthesis processing at a given ratio, for example, when the first cloud is two and the synthesis processing is performed at a ratio of 1: 0 or 0: 1, that is, the first cloud is Including the case of switching.

【0011】この第1の発明によれば、例えば、第1の
雲状オブジェクトの一側面(例えば、正面)と他側面
(例えば、裏面)を表す2つの第1の雲素を用意し、第
1の仮想カメラの視線方向に応じて、その第1の雲素を
切り換えること等が可能である。即ち、第1の雲状オブ
ジェクトは第1の仮想カメラに向けて配置されるため、
例えば、第1の雲状オブジェクトの正面と裏面を矛盾な
く、かつ容易に表現することが可能である。
According to the first aspect of the invention , for example, two first cloud elements representing one side surface (for example, front surface) and the other side surface (for example, rear surface) of the first cloud-shaped object are prepared, It is possible to switch the first cloud element according to the line-of-sight direction of the first virtual camera. That is, since the first cloud-shaped object is arranged toward the first virtual camera,
For example, the front surface and the back surface of the first cloud-like object can be easily represented without any contradiction.

【0012】また更に、第1の仮想カメラの「角度パラ
メータの現在値に応じ」て、第1の雲状オブジェクトに
反映されるテクスチャ情報が生成されるため、第1のオ
ブジェクト空間に第1の雲状オブジェクトを配置する
際、第1の雲状オブジェクトの上下左右方向を考慮する
必要がない。即ち、例えば、第1の仮想カメラのロール
角が変化する場合には、第1の雲状オブジェクトを、当
該ロール角に応じて回転させる必要が生じるが、そのロ
ール角に応じてテクスチャ情報が生成されるため、第1
の雲状オブジェクトは、単に、第1のオブジェクト空間
に配置するだけ(より正確には、第1のオブジェクト空
間には、第1の雲状オブジェクトを配置する位置を決定
するだけ)で済む。
Furthermore, since the texture information reflected in the first cloud-like object is generated "according to the current value of the angle parameter" of the first virtual camera, the first object space has the first texture information. When arranging the cloud-shaped object, it is not necessary to consider the vertical and horizontal directions of the first cloud-shaped object. That is, for example, when the roll angle of the first virtual camera changes, it is necessary to rotate the first cloud-shaped object according to the roll angle, but texture information is generated according to the roll angle. Because the first
The cloud-shaped object of 1 is simply placed in the first object space (more precisely, the position where the first cloud-shaped object is placed in the first object space is determined).

【0013】第2の発明は、第1の発明のゲーム情報で
あって、前記第1の雲素は少なくとも透明度情報(例え
ば、実施の形態におけるα値)を含む色情報を有するテ
クスチャ情報であり、前記第1の生成手段に対して、前
記複数種類の第1の雲素の色情報を、前記所与の割合で
合算することにより前記複数種類の第1の雲素を合成処
理する、ように機能させるための情報(例えば、実施の
形態における式(2)、(3))を含むことを特徴とし
ている。
A second invention is the game information of the first invention , wherein the first cloud is texture information having color information including at least transparency information (for example, α value in the embodiment). , Combining the color information of the plurality of types of first cloud elements at the given ratio with respect to the first generation unit to synthesize the plurality of types of first cloud elements. It is characterized in that it includes information (for example, equations (2) and (3) in the embodiment) for causing the above to function.

【0014】この第2の発明によれば、第1の雲素の合
成処理は、色情報の合算で済む。また、色情報が透明度
情報だけの場合には、色情報の合算演算をさらに容易に
済ませることができる。即ち、例えば、第1の雲状オブ
ジェクトの色を「白色」として予め設定しておけば、透
明度情報の演算のみで、簡単に、描画される第1の雲状
オブジェクトの色を決定することができる。
According to the second aspect of the present invention , the first cloud element synthesizing process can be performed by summing the color information. Further, when the color information is only the transparency information, the total calculation of the color information can be more easily completed. That is, for example, if the color of the first cloud-shaped object is preset as “white”, the color of the first cloud-shaped object to be drawn can be easily determined only by calculating the transparency information. it can.

【0015】第3の発明は、第2の発明のゲーム情報で
あって、前記第1の装置に対して、所与のアニメーショ
ン(例えば、図7に示す気流テクスチャ104)を前記
第1の雲素の色情報に反映させるアニメーション反映手
段、を機能させるための情報を含むことを特徴とする
A third invention is the game information of the second invention , wherein a given animation (for example, the airflow texture 104 shown in FIG. 7) is given to the first device by the first cloud. It is characterized in that it includes information for operating the animation reflecting means for reflecting the color information of the elementary color .

【0016】この第3の発明によれば、第1の雲素の色
情報が時間経過に従って変化するため、気流の様子を表
現することができる。
According to the third aspect of the present invention , the color information of the first cloud changes with the passage of time, so that the appearance of the air flow can be expressed.

【0017】この場合、さらに第4の発明のように、第
3の発明のゲーム情報に、前記アニメーション反映手段
に対して、前記第1の雲素に反映させる前記所与のアニ
メーションの向き、縮尺、及び部分の内少なくとも1つ
を変更する、ように機能させるための情報を含ませるこ
ととしてもよい。
In this case, as in the fourth aspect,
The game information according to the third aspect of the present invention causes the animation reflecting means to change at least one of the direction, scale, and part of the given animation reflected in the first cloud. Information may be included.

【0018】この第4の発明によれば、第1の雲素は複
数種類あるため、その種類によって、アニメーションを
反映させる向きや縮尺、部分(例えば、アニメーション
を第1の雲素にマッピングする場合には、第1の雲素に
対するマッピングの向きなど)を変更することにより、
1つのアニメーションであっても様々な気流を表現する
ことが可能となる。
According to the fourth aspect of the present invention , since there are a plurality of types of the first cloud, depending on the type, the direction, scale, and part (for example, when the animation is mapped to the first cloud) that reflects the animation. By changing the direction of the mapping for the first cloud, etc.),
It is possible to express various air flows even with one animation.

【0019】また、第5の発明のように、第3または第
4の発明のゲーム情報であって、前記所与のアニメーシ
ョンは、少なくとも透明度情報を含む色情報の時間的変
化を表すアニメーションであり、前記アニメーション反
映手段に対して、前記所与のアニメーションに基づいて
前記第1の雲素の色情報を決定する、ように機能させる
ための情報を含むこととしてもよい。
Further, as in the fifth invention, the third or the third
In the game information according to the fourth aspect of the present invention, the given animation is an animation that represents a temporal change of color information including at least transparency information, and is based on the given animation to the animation reflecting means. Information for causing the first cloud element to determine the color information of the first cloud element may be included.

【0020】この第5の発明によれば、所与のアニメー
ションを、例えば、周期的に色情報が変化したり、透明
度情報のみが変化するといったものとすることができ
る。例えば、第1の雲素の色を「白色」と予め決定され
ている場合には、第1の雲素が描画される際の色を、
「透明度情報」のみによって決定することができるた
め、第1の雲素の色情報を決定する処理を簡便化するこ
とが可能である。
According to the fifth aspect of the invention , a given animation can be, for example, one in which color information changes periodically or only transparency information changes. For example, when the color of the first cloud is previously determined to be “white”, the color at which the first cloud is drawn is
Since it can be determined only by the “transparency information”, the process of determining the color information of the first cloud can be simplified.

【0021】第6の発明は、第1から第5の発明のいず
れかのゲーム情報であって、前記第1の生成手段に対し
て、前記所与の角度パラメータを前記第1の仮想カメラ
のピッチ角及び/又はヨー角の角度パラメータとする手
段と、前記第1の仮想カメラの、ピッチ角及び/又はヨ
ー角の角度パラメータの値に応じて予め用意された複数
種類の第1の雲素を、対応する前記第1の仮想カメラの
角度パラメータの現在値に応じた所与の割合で合成処理
する手段と、を機能させるための情報を含むことを特徴
としている。
The sixth invention is any one of the first to fifth inventions.
A piece of game information for the first generation means, a means for setting the given angle parameter as a pitch angle and / or a yaw angle parameter of the first virtual camera; A plurality of types of first cloud elements prepared in advance according to the value of the angle parameter of the pitch angle and / or the yaw angle of one virtual camera are set to the current value of the angle parameter of the corresponding first virtual camera. It is characterized in that it includes information for operating the means for performing the combining processing at a given ratio according to the information.

【0022】この第6の発明によれば、仮想カメラに向
けて配置される板状体の第1の雲状オブジェクトの欠点
を補うことができる。即ち、例えば、第1の雲状オブジ
ェクトの右側面と左側面の、2つの第1の雲素を用意し
ておけば、第1の仮想カメラのヨー角に応じて、第1の
雲状オブジェクトの右側面と左側面を矛盾無く表現する
ことができる。また同様に、例えば、第1の雲状オブジ
ェクトの上面と下面の、2つの第1の雲素を用意してお
けば、第1の仮想カメラのピッチ角に応じて、第1の雲
状オブジェクトの上面と下面を矛盾無く表現することが
できる。
According to the sixth aspect of the present invention , it is possible to compensate for the drawback of the first cloud-shaped object of the plate-shaped body arranged toward the virtual camera. That is, for example, if two first cloud elements on the right side surface and the left side surface of the first cloud-shaped object are prepared, the first cloud-shaped object is generated according to the yaw angle of the first virtual camera. The right side and left side of can be expressed without contradiction. Similarly, for example, if two first cloud elements, that is, the upper surface and the lower surface of the first cloud-shaped object, are prepared, the first cloud-shaped object is generated according to the pitch angle of the first virtual camera. The upper surface and the lower surface of can be expressed without contradiction.

【0023】第7の発明は、第1から第6の発明のいず
れかのゲーム情報であって、前記第1の生成手段に対し
て、前記ピッチ角に応じて予め用意された第1の雲素が
ある場合には、その第1の雲素を前記第1の仮想カメラ
のロール角或いはヨー角に応じて回転させるとともに、
前記ヨー角に応じて予め用意された第1の雲素がある場
合には、その第1の雲素を前記第1の仮想カメラのロー
ル角或いはピッチ角に応じて回転させて前記合成処理を
行う、ように機能させるための情報を含むことを特徴と
している。
The seventh invention is any one of the first to sixth inventions.
If there is a first cloud element prepared in advance corresponding to the pitch angle in the game information of any one of them, then the first cloud element is used as the first cloud element. Rotate according to the roll angle or yaw angle of the virtual camera of
If there is a first cloud element prepared in advance according to the yaw angle, the first cloud element is rotated according to the roll angle or the pitch angle of the first virtual camera to perform the combining process. It is characterized by including information for performing the function.

【0024】この第7の発明によれば、第1の仮想カメ
ラに係る角度パラメータの内、一の角度パラメータに応
じて用意された第1の雲素であったとしても、他の角度
パラメータに応じて回転させて、合成処理される。例え
ば、ヨー角に応じて、第1の雲状オブジェクトの右側面
と左側面の2つの第1の雲素が用意されていた場合、勿
論、ヨー角に応じてその2つの第1の雲素が合成処理さ
れるが、ロール角に応じて回転された上で、合成処理さ
れる。即ち、第1の発明の効果として上述した通り、第
1の雲状オブジェクトは、単に、第1のオブジェクト空
間に配置されるのみであるため、第1の仮想カメラがロ
ールした場合にも矛盾のないテクスチャ情報を生成する
必要がある。このため、ヨー角やピッチ角に応じて用意
された第1の雲素に対して、ロール角に応じて回転させ
ることによって、第1の仮想カメラがロールした場合に
も、第1の生成手段は、矛盾のないテクスチャ情報を生
成することができる。
According to the seventh aspect of the present invention , of the angle parameters relating to the first virtual camera, even if it is the first cloud element prepared according to one angle parameter, it is changed to another angle parameter. According to the rotation, the composite processing is performed. For example, when two first cloud elements on the right side surface and the left side surface of the first cloud-shaped object are prepared according to the yaw angle, of course, the two first cloud elements according to the yaw angle are prepared. Are combined, but are rotated according to the roll angle and then combined. That is, as described above as the effect of the first invention , since the first cloud-shaped object is simply arranged in the first object space, even if the first virtual camera rolls, there is no contradiction. Need to generate no texture information. Therefore, even when the first virtual camera rolls by rotating the first cloud element prepared according to the yaw angle and the pitch angle according to the roll angle, the first generation unit Can generate consistent texture information.

【0025】第8の発明は、第1から第7の発明のいず
れかのゲーム情報であって、前記第1の生成手段に対し
て、前記第1の仮想カメラのピッチ角が水平方向用と垂
直方向用の少なくとも2種類の予め用意された第1の雲
素を、前記第1の仮想カメラのピッチ角に応じた所与の
割合で合成処理することにより、前記第1の仮想カメラ
のピッチ角に応じて予め用意された複数種類の第1の雲
素を合成処理する、ように機能させるための情報を含む
ことを特徴としている。
The eighth invention is any one of the first to seventh inventions.
This is the game information of any one of the first cloud units prepared in advance for the first generation unit, in which at least two types of pitch angles of the first virtual camera are for horizontal direction and for vertical direction. Are combined at a given ratio according to the pitch angle of the first virtual camera to obtain a plurality of types of first cloud elements prepared in advance according to the pitch angle of the first virtual camera. It is characterized in that it includes information for functioning so as to perform a combining process.

【0026】この第8の発明によれば、一の第1の雲状
オブジェクトに対する第1の仮想カメラの視線方向が変
化した場合、即ち、第1の仮想カメラのピッチ角が変化
した場合であっても、その形状等に矛盾のない第1の雲
状オブジェクトを表現することが可能となる。
According to the eighth aspect, when the line-of-sight direction of the first virtual camera with respect to the one first cloud-shaped object is changed, that is, the pitch angle of the first virtual camera is changed. However, it is possible to represent the first cloud-like object having no contradiction in its shape or the like.

【0027】そしてこの場合、第9の発明のように、第
8の発明のゲーム情報であって、前記第1の生成手段に
対して、前記第1の仮想カメラのロール角に応じて前記
水平方向用および前記垂直方向用の第1の雲素を回転さ
せて前記合成処理を行う、ように機能させるための情報
を含むように構成してもよい。
In this case, as in the ninth invention,
In the game information according to the eighth aspect of the present invention , the first generation means is configured to rotate the first cloud element for the horizontal direction and the first cloud element for the vertical direction according to a roll angle of the first virtual camera. It may be configured to include information for causing the above-mentioned synthesizing process to function.

【0028】この第9の発明によれば、第1の仮想カメ
ラがロールした場合においても、第1の雲状オブジェク
ト自体を回転させることなく、矛盾のない第1の雲状オ
ブジェクトを表現することができる。
According to the ninth aspect of the present invention , even if the first virtual camera rolls, the first cloud-like object can be represented without any contradiction without rotating the first cloud-like object itself. You can

【0029】さらにこの場合、第10の発明のように、
第8または第9の発明のゲーム情報であって、前記垂直
方向用の第1の雲素には、前記第1の仮想カメラのピッ
チ角が仰角および俯角の場合に対応する、更に2種類の
第1の雲素があり、前記第1の生成手段に対して、前記
垂直方向用の第1の雲素に含まれる前記2種類の第1の
雲素を、前記第1の仮想カメラのピッチ角に応じて切り
換えることにより、前記垂直方向用の第1の雲素とす
る、ように機能させるための情報を含むように構成して
もよい。
Further, in this case, as in the tenth invention ,
The game information according to the eighth or ninth invention , wherein the first cloud for the vertical direction further includes two types corresponding to the case where the pitch angle of the first virtual camera is an elevation angle and a depression angle. There is a first cloud element, and the two types of first cloud elements included in the vertical first cloud element are set to the first virtual camera pitch with respect to the first generation unit. It may be configured to include information for causing the first cloud element for the vertical direction to function by switching according to the angle.

【0030】この第10の発明によれば、垂直方向用の
第1の雲素には、ピッチ角が仰角の場合と俯角の場合の
第1の雲素があり、ピッチ角によって切り換えられるた
め、一の第1の雲状オブジェクトの上面と下面とを、そ
の形状等に矛盾なく、容易に表現することができる。
According to the tenth aspect of the present invention , the first cloud element for the vertical direction includes the first cloud element when the pitch angle is the elevation angle and when the pitch angle is the depression angle, and the first cloud element is switched depending on the pitch angle. It is possible to easily express the upper surface and the lower surface of the one first cloud-like object without contradiction with the shape or the like.

【0031】第11の発明は、第8から第10の発明の
いずれかのゲーム情報であって、前記水平方向用の第1
の雲素には、前記第1の仮想カメラのヨー角の角度範囲
を等分した各角度範囲に対応する、更に複数種類の第1
の雲素があり、前記第1の生成手段に対して、前記水平
方向用の第1の雲素に含まれる前記複数種類の第1の雲
素を、前記第1の仮想カメラのヨー角に応じて切り換え
ることにより、前記水平方向用の第1の雲素とする、よ
うに機能させるための情報を含むことを特徴としてい
る。
The eleventh invention is the invention of the eighth to tenth inventions.
Any of the game information, the first for the horizontal direction
The cloud elements of the first virtual camera correspond to respective angular ranges obtained by equally dividing the angular range of the yaw angle of the first virtual camera.
And the plurality of types of first cloud elements included in the horizontal first cloud element are set to the yaw angle of the first virtual camera with respect to the first generation unit. It is characterized in that it includes information for causing the first cloud element for the horizontal direction to function as it is switched according to the switching.

【0032】この第11の発明によれば、一の第1の雲
状オブジェクトに対する第1の仮想カメラの視線方向が
変化した場合、即ち、第1の仮想カメラのヨー角が変化
した場合であっても、その形状等に矛盾のない第1の雲
状オブジェクトを表現することが可能となる。
According to the eleventh aspect, when the line-of-sight direction of the first virtual camera with respect to the first cloud-shaped object changes, that is, the yaw angle of the first virtual camera changes. However, it is possible to represent the first cloud-like object having no contradiction in its shape or the like.

【0033】第12の発明のゲーム情報は、プロセッサ
による演算・制御により、仮想カメラ(例えば、図2に
示す仮想カメラ100)から見たオブジェクト空間の画
像を生成して、所与のゲームを実行することとなる装置
に対して、前記オブジェクト空間に配置される雲状オブ
ジェクト(例えば、図2に示す小雲テクスチャ102)
を複数種類の雲素(例えば、図3に示す雲パーツA(1
22)、雲パーツB(124))から生成するととも
に、前記仮想カメラの位置または視線方向が変化する場
合に、前記複数種類の雲素を所与の処理により切り換え
ることにより前記雲状オブジェクトを生成する手段(例
えば、図31に示す小雲描画部632)、を機能させる
ための、前記プロセッサによる演算可能なゲーム情報で
ある。
The game information of the twelfth aspect of the invention is to execute a given game by generating an image of an object space viewed from a virtual camera (for example, the virtual camera 100 shown in FIG. 2) by calculation / control by a processor. A cloud-like object placed in the object space (for example, the cloud texture 102 shown in FIG. 2) for the device to be used.
To a plurality of types of cloud elements (for example, cloud part A (1
22), the cloud-shaped object B is generated from the cloud part B (124), and the cloud-shaped object is generated by switching the plurality of types of cloud elements by a given process when the position or line-of-sight direction of the virtual camera changes. This is game information that can be calculated by the processor for causing the means (for example, the small cloud drawing unit 632 shown in FIG. 31) to function.

【0034】この第12の発明によれば、例えば、雲状
オブジェクトの一側面(例えば、正面)と他側面(例え
ば、裏面)を表す2つの雲素を用意し、仮想カメラの視
線方向に応じて、その雲素を切り換えること等が可能で
ある。即ち、仮想カメラの視線方向が変化した場合であ
っても雲状オブジェクトの正面と裏面を矛盾なく、かつ
容易に表現することが可能である。
According to the twelfth aspect of the invention , for example, two cloud elements representing one side surface (for example, front surface) and the other side surface (for example, rear surface) of the cloud-like object are prepared, and the two cloud elements are provided according to the line-of-sight direction of the virtual camera. Then, the cloud can be switched. That is, even when the line-of-sight direction of the virtual camera changes, the front and back of the cloud-like object can be represented easily and consistently.

【0035】第13の発明は、プロセッサによる演算・
制御により、第2の仮想カメラ(例えば、図14に示す
仮想カメラ100)から見た第2のオブジェクト空間の
画像を生成して、所与のゲームを実行することとなる第
2の装置に対して、雲モデル空間(例えば、図14に示
す中雲座標系)に第2の雲素(例えば、図14に示す小
雲ビルボード24−1〜32)を複数配置する第2の配
置手段(例えば、図31に示す中雲生成部612)と、
前記雲モデル空間を透視変換することにより、前記第2
のオブジェクト空間に前記第2の仮想カメラに向けて配
置される板状体の第2の雲状オブジェクトに反映させる
テクスチャ情報(例えば、実施の形態における中雲テク
スチャ)を生成する第2の生成手段(例えば、図31に
示す中雲描画部634)と、を機能させるための、前記
プロセッサによる演算可能なゲーム情報である。
A thirteenth aspect of the present invention is a calculation by a processor.
By the control, to the second device which is to execute the given game by generating the image of the second object space viewed from the second virtual camera (for example, the virtual camera 100 shown in FIG. 14). Then, a second arranging unit for arranging a plurality of second cloud elements (for example, small cloud billboards 24-1 to 32 shown in FIG. 14) in the cloud model space (for example, the middle cloud coordinate system shown in FIG. 14) ( For example, the middle cloud generation unit 612) shown in FIG.
By performing perspective transformation of the cloud model space, the second
Second generating means for generating texture information (for example, a medium cloud texture in the embodiment) to be reflected in the second cloud-shaped object of the plate-shaped object arranged toward the second virtual camera in the object space (For example, the middle cloud drawing unit 634 shown in FIG. 31) and game information that can be calculated by the processor for functioning.

【0036】この第13の発明によれば、第2のオブジ
ェクト空間に配置される第2の雲状オブジェクトは板状
体ではあるが、様々な態様の第2の雲状オブジェクトを
表現することができる。なぜならば、第2の雲状オブジ
ェクトに反映される、第2の生成手段によって生成され
るテクスチャ情報は、第2の雲素が複数配置された雲モ
デル空間を透視変換したものであるため、透視変換の仕
方によって、種々のテクスチャ情報を生成することが可
能だからである。また本発明により、第2のオブジェク
ト空間に係る処理と、テクスチャ情報を生成する処理と
を区別して処理することが可能となり、第2のオブジェ
クト空間に係る処理負荷を軽減させることができる。な
おここで、第2の装置は、コンピュータ装置であっても
よいし、携帯用/家庭用/業務用のゲーム装置であって
もよい。また第2の雲素を板状体により構成してもよ
い。
According to the thirteenth invention , although the second cloud-like object arranged in the second object space is a plate-like object, it is possible to express the second cloud-like object in various modes. it can. This is because the texture information generated by the second generation unit and reflected on the second cloud-like object is perspective-transformed from the cloud model space in which a plurality of second cloud elements are arranged. This is because it is possible to generate various types of texture information depending on the conversion method. Further, according to the present invention, it is possible to distinguish between the processing related to the second object space and the processing for generating texture information, and it is possible to reduce the processing load related to the second object space. Here, the second device may be a computer device or a portable / home / commercial game device. Moreover, the second cloud may be formed of a plate-shaped body.

【0037】第14の発明は、第13の発明のゲーム情
報であって、前記第2の生成手段に対して、前記第2の
仮想カメラと、前記雲モデル空間を透視変換するための
雲モデル用仮想カメラ(例えば、図14に示す雲視点2
20)とを連動させ、前記雲モデル用仮想カメラに基づ
いて前記雲モデル空間を透視変換する、ように機能させ
るための情報を含むことを特徴としている。
A fourteenth invention is the game information according to the thirteenth invention , wherein a cloud model for perspective-transforming the second virtual camera and the cloud model space is provided to the second generating means. Virtual camera (for example, the cloud viewpoint 2 shown in FIG. 14)
20) and the information for causing the cloud model space to perform perspective transformation based on the cloud model virtual camera.

【0038】この第14の発明によれば、雲モデル用仮
想カメラと、第2の仮想カメラとが連動するため、第2
のオブジェクト空間に配置される、板状体の第2の雲状
オブジェクトであっても、形状等において矛盾なく表現
することが可能である。
According to the fourteenth invention , since the cloud model virtual camera and the second virtual camera are linked,
Even the second cloud-shaped object, which is a plate-shaped object and is arranged in the object space, can be expressed in a consistent shape.

【0039】第15の発明は、第13または第14の発
のゲーム情報であって、前記第2の配置手段に対し
て、前記複数の第2の雲素の配置を、前記雲モデル空間
の所与の範囲に偏った分布とする、ように機能させるた
めの情報(例えば、実施の形態における式(4))を含
むことを特徴としている。
The fifteenth invention is the thirteenth or fourteenth invention.
This is clear game information, and causes the second arranging means to make the arrangement of the plurality of second cloud elements have a distribution biased to a given range of the cloud model space. Information (for example, Expression (4) in the embodiment) is included.

【0040】この第15の発明によれば、例えば、第2
の雲素の色が「薄い白色」である場合、第2の雲素の配
置位置の偏りによって、その偏った所与の範囲において
は「濃い白色」として表現することができる。即ち、雲
モデル空間における配置位置に偏りを持たせることによ
って、第2の雲状オブジェクトの色の濃淡に変化をつけ
ることができる。
According to the fifteenth invention , for example, the second
If the color of the cloud element is “light white”, it can be expressed as “dark white” in the given range in which it is biased due to the bias of the arrangement position of the second cloud element. That is, by giving a bias to the arrangement position in the cloud model space, it is possible to change the shade of the color of the second cloud-shaped object.

【0041】第16の発明は、第13から第15の発明
のいずれかのゲーム情報であって、前記第2の配置手段
に対して、前記雲モデル空間に配置する前記各第2の雲
素の大きさを変更する、ように機能させるための情報
(例えば、実施の形態における式(5))を含むことを
特徴とする。
The sixteenth invention is the thirteenth to fifteenth inventions.
Which is any one of the game information for changing the size of each of the second cloud elements arranged in the cloud model space to the second arrangement means (for example, , Equation (5) in the embodiment is included.

【0042】この第16の発明によれば、雲モデル空間
における第2の雲素の配置位置が同じであっても、第2
の雲素の大きさを異ならしめることができるため、生成
するテクスチャ情報を異ならしめる、即ち、種々の形態
の第2の雲状オブジェクトを容易に表現することができ
る。
According to the sixteenth aspect of the present invention , even if the second cloud elements are arranged at the same position in the cloud model space,
Since it is possible to make the sizes of the cloud elements different, the generated texture information can be made different, that is, the second cloud-shaped objects of various forms can be easily expressed.

【0043】第17の発明は、第13から第16のいず
れかのゲーム情報であって、前記第2の装置に対して、
前記第2のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づいて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定する色情報決
定手段(例えば、図31に示す色決定部638)、を機
能させるための情報を含むことを特徴とする。
The seventeenth invention is any one of the thirteenth to sixteenth inventions.
A Re of game information, to the second device,
A color information determining unit (for example, in FIG. 31) that determines the color information of the texture information generated by the second generating unit based on the light source of the second object space and the second cloud-shaped object. The color determination unit 638) to be shown is included.

【0044】この第17の発明によれば、第2のオブジ
ェクト空間における、光源に係るシェーディング処理を
テクスチャ情報に施すことにより、最終的に、第2の雲
状オブジェクトの色情報を矛盾なく表現させることがで
きる。即ち、第2のオブジェクト空間においては、光源
と、第2の雲状オブジェクトとは存在するが、第2の雲
状オブジェクトに反映されるテクスチャ情報は別途生成
される。このため、第2のオブジェクト空間における光
源と、第2の雲状オブジェクトの配置状況等に応じて、
テクスチャ情報の色情報を決定することにより、最終的
に、色において矛盾のない、リアリスティックな第2の
雲状オブジェクトを表現することが可能である。
According to the seventeenth aspect , the shading processing relating to the light source in the second object space is applied to the texture information so that the color information of the second cloud-like object is finally expressed without contradiction. be able to. That is, although the light source and the second cloud-shaped object exist in the second object space, the texture information reflected in the second cloud-shaped object is separately generated. Therefore, depending on the light source in the second object space, the arrangement state of the second cloud-like object, and the like,
By determining the color information of the texture information, it is possible to finally represent a realistic second cloud-like object that is consistent in color.

【0045】第18の発明は、第17の発明のゲーム情
報であって、前記色情報決定手段に対して、前記第2の
雲状オブジェクトにおける少なくとも2つの特定点(例
えば、図16に示す特定点22−1〜9)の色情報を、
前記第2のオブジェクト空間における光源に基づいて決
定し、この特定点の色情報に基づいて前記テクスチャ情
報の色情報を決定する、ように機能させるための情報を
含むことを特徴とする。
An eighteenth invention is the game information according to the seventeenth invention , wherein at least two specific points in the second cloud-like object (for example, the identification shown in FIG. 16) are provided to the color information determining means. Color information of points 22-1 to 9)
It is characterized in that it includes information for causing it to be determined based on the light source in the second object space and to determine the color information of the texture information based on the color information of the specific point.

【0046】例えば、「雲」を真横から見た場合、通
常、太陽光線の当たる上側は明るく、下側は暗い。しか
し、「雲」が1つである場合ならまだしも、複数の
「雲」が存在する場合、単に、上側を明るく、下側を暗
くするといった、一様な表現手法では、リアルな雲を表
現することができない。そこで、この第18の発明によ
れば、例えば、第2の雲状オブジェクトの複数の特定点
における色情報をまず求め、この特定点の色情報に基づ
いて、テクスチャ情報(即ち、終局的には第2の雲状オ
ブジェクト)の色情報を決定することとすれば、第2の
オブジェクト空間における、第2の雲状オブジェクトの
配置状況等に応じた色を表現することができる。
For example, when the "cloud" is viewed from the side, the upper side where the sun rays hit is usually bright and the lower side is dark. However, if there is only one "cloud", if there are multiple "clouds", then a uniform cloud is used to express a realistic cloud by simply brightening the upper side and darkening the lower side. I can't. Therefore, according to the eighteenth invention , for example, color information at a plurality of specific points of the second cloud-shaped object is first obtained, and based on the color information of the specific points, texture information (that is, finally, If the color information of the second cloud-shaped object) is determined, it is possible to represent a color according to the arrangement state of the second cloud-shaped object in the second object space.

【0047】またこの場合、第19の発明のように、
18の発明のゲーム情報であって、前記色情報決定手段
に対して、前記光源の光線方向の角度に応じて予め用意
された複数の色情報を、当該特定点における前記光源の
光線方向の角度に応じた所与の割合で合成処理すること
により、前記各特定点の色情報を決定する、ように機能
させるための情報(例えば、図31に示す関数データ9
30)を含むこととしてもよい。
[0047] Also, in this case, as in the invention of the first 19, second
The game information according to the eighteenth invention , wherein a plurality of color information prepared in advance for the color information determining means according to the angle of the light source in the direction of the light beam is used to determine the angle of the light source in the direction of the light ray at the specific point Information for causing the color information of each of the specific points to be determined by performing a combining process at a given ratio according to (for example, the function data 9 shown in FIG. 31).
30) may be included.

【0048】従来、光源に係る輝度計算は、輝度値を加
算する処理が一般的であった。即ち、ある輝度値を加算
することによって、明るい状態の色を表現することが可
能ではあったが、最大輝度である「白色」のRGB値
が、R=255、G=255、B=255であるため、
段々と「白色」に近づかざるを得なかった。従って、も
ともと「白色」である「雲」に対する輝度計算は、困難
なものであった。この第19の発明によれば、複数の色
情報(例えば、オレンジ色と白色と灰色)を予め用意
し、特定点における色情報が光源の光線方向に応じて決
定されるため、例えば、様々な色に染められた「雲」
(例えば、上側をオレンジ色にする等)を容易に表現す
ることができる。
Conventionally, in the brightness calculation of the light source, the process of adding the brightness values has been general. That is, although it was possible to represent a bright color by adding a certain brightness value, the RGB value of the maximum brightness "white" is R = 255, G = 255, B = 255. Because there is
I had no choice but to approach "white" gradually. Therefore, it is difficult to calculate the brightness for the "cloud" that is originally "white". According to the nineteenth invention , a plurality of color information (for example, orange, white, and gray) is prepared in advance, and the color information at a specific point is determined according to the light ray direction of the light source. Clouds dyed in color
(For example, the upper side is colored orange) can be easily expressed.

【0049】第20の発明は、第1から第11のいずれ
かの発明のゲーム情報と、第13から第19の発明のい
ずれかのゲーム情報とを含むゲーム情報であって、前記
第1の装置と前記第2の装置は同一の装置であり、当該
装置に対して、前記第1の仮想カメラを前記第2の仮想
カメラとする手段と、前記第1の生成手段により生成さ
れたテクスチャ情報を前記第1の雲状オブジェクトに反
映させる手段と、前記第1の雲状オブジェクトを前記第
2の雲素とする手段と、を機能させるための情報を含む
ことを特徴とする。
The twentieth invention is any of the first to eleventh inventions.
Game information of that invention and the inventions of the thirteenth to nineteenth inventions
Game information including the game information of a certain amount , wherein the first device and the second device are the same device, and the first virtual camera is connected to the second virtual device for the device. Means for making a camera, means for reflecting the texture information generated by the first generating means on the first cloud-shaped object, means for making the first cloud-shaped object the second cloud element , And includes information for operating the.

【0050】この第20の発明によれば、第1から第1
1の発明のいずれかの発明の効果と、第13から第19
の発明のいずれかの発明の効果とを備えるゲーム情報を
実現することができる。具体的には、例えば、第1の仮
想カメラ(第2の仮想カメラ)の視線方向に対して矛盾
のない、板状体の第1の雲状オブジェクト(第2の雲
素)を生成することができ、かつ、様々な態様の第2の
雲状オブジェクトを表現することができる。
According to this twentieth invention , the first to the first
The effect of any one of the inventions of 1 and 13th to 19th
It is possible to realize game information having the effect of any one of the inventions of. Specifically, for example, to generate a first cloud-shaped object (second cloud) of a plate-like body, which is consistent with the line-of-sight direction of the first virtual camera (second virtual camera). In addition, it is possible to represent the second cloud-shaped object in various modes.

【0051】第21の発明のゲーム情報は、プロセッサ
による演算・制御により、仮想カメラ(例えば、図14
に示す仮想カメラ100)から見たオブジェクト空間の
画像を生成して、所与のゲームを実行することとなる装
置に対して、所与のアニメーションが施された複数種類
の雲素(例えば、図3に示す小雲テクスチャ102)を
重ね合わせて、前記オブジェクト空間に配置される雲状
オブジェクト(例えば、実施の形態における中雲ビルボ
ード)を生成する手段(例えば、図31に示す中雲生成
部612及び中雲描画部634)、を機能させるため
の、前記プロセッサによる演算可能なゲーム情報であ
る。
The game information according to the twenty-first aspect of the invention is the virtual camera (eg, FIG.
The virtual camera 100 shown in FIG. 2) generates an image of the object space and executes a given game, and a plurality of types of cloud elements (for example, a diagram in FIG. A means for generating a cloud-shaped object (for example, a middle cloud billboard in the embodiment) arranged in the object space by superimposing the small cloud texture 102 shown in FIG. 612 and middle cloud drawing unit 634) are game information that can be calculated by the processor to cause the functions.

【0052】この第21の発明によれば、雲素には所与
のアニメーションが施されているため、気流を表現する
ことができる。ただし、雲素が複数重ね合わされた部分
においては、所与のアニメーションも重ね合わされてい
るため、当該部分においては気流を明確に表現できない
が、雲素が重なっていない部分や、重なる数の少ない部
分においては、気流が表現される。即ち、例えば、雲状
オブジェクトの中央付近に偏りを持たせて雲素を重ねて
表現した場合、中央付近の気流は視認できないが、周縁
における気流を視認することができ、よりリアリスティ
ックな雲を表現することができる。
According to the twenty-first aspect of the invention , since the cloud has a given animation, it is possible to represent the air flow. However, in the part where the cloud elements are overlapped, the given animation is also overlapped, so the airflow cannot be clearly expressed in that part, but the part where the cloud elements do not overlap or the part where the number of overlaps is small In, the airflow is represented. That is, for example, when cloud elements are overlapped and expressed with a bias near the center of the cloud-like object, the airflow near the center cannot be visually recognized, but the airflow at the periphery can be visually recognized, and a more realistic cloud can be created. Can be expressed.

【0053】第22の発明のゲーム情報は、プロセッサ
による演算・制御により、第3の仮想カメラ(例えば、
図20に示す仮想カメラ100)から見た第3のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
こととなる第3の装置に対して、所与の配置位置繰り返
しパターンを展開することにより前記第3のオブジェク
ト空間に複数配置する第3の雲素(例えば、実施の形態
における中雲ビルボード)の配置位置を決定する配置位
置決定手段(例えば、図31に示す中雲配置部614)
と、前記配置位置決定手段により決定された配置位置
に、板状体の前記第3の雲素を配置する第3の配置手段
(例えば、図31に示す中雲配置部614)と、前記第
3の雲素を、前記第3の仮想カメラに対する所与の方向
に向ける対向配置手段(例えば、図31に示す中雲配置
部614)と、を機能させるための、前記プロセッサに
よる演算可能なゲーム情報である。
The game information according to the twenty-second aspect of the present invention is calculated and controlled by the processor so that the third virtual camera (for example,
An image of the third object space viewed from the virtual camera 100) shown in FIG. 20 is generated, and a given arrangement position repeating pattern is developed for the third device which is to execute a given game. By doing so, the arrangement position determining means (for example, the middle cloud arrangement shown in FIG. 31) for deciding the arrangement position of a plurality of third cloud elements (for example, the middle cloud billboard in the embodiment) arranged in the third object space. Part 614)
A third arranging unit (for example, a middle cloud arranging unit 614 shown in FIG. 31) for arranging the third cloud element of the plate-like member at the arrangement position determined by the arrangement position determining unit; A game that can be calculated by the processor for causing the third arranging unit to face the third virtual camera in a given direction in a given direction (for example, the middle cloud arranging unit 614 shown in FIG. 31). Information.

【0054】ここで、第3の装置は、コンピュータ装置
であってもよいし、携帯用/家庭用/業務用のゲーム装
置であってもよい。また所与の配置位置繰り返しパター
ンとは、第3の雲素の配置位置が決定されたある単位領
域における、配置位置のパターンのことであり、例えば
このパターンを縦2×横2×高さ2に配置(展開)する
ことによって、単位領域の8倍(=2×2×2)の大き
さの領域における第3の雲素の配置位置を決定すること
ができる。
Here, the third device may be a computer device or a portable / home / commercial game device. In addition, the given arrangement position repeating pattern is a pattern of arrangement positions in a certain unit area in which the arrangement position of the third cloud element is determined. For example, this pattern is defined as vertical 2 × horizontal 2 × height 2 By arranging (developing) in (3), it is possible to determine the arranging position of the third cloud element in an area having a size eight times (= 2 × 2 × 2) the unit area.

【0055】換言すれば、第3のオブジェクト空間の、
任意の領域における第3の雲素の配置位置が、このパタ
ーンの展開によって決定しうる。即ち、この第22の発
によれば、第3のオブジェクト空間における、第3の
雲素の配置位置を容易に決定することができる。例え
ば、配置位置繰り返しパターンの大きさ(上記の単位領
域の大きさ)を第3の仮想カメラの視界と略同一とし、
第3の仮想カメラを右方向へパンさせた場合、視野の左
側から見えなくなった第3の雲素が、視野の右側から表
出することとなる。即ち、配置位置繰り返しパターンの
みで、第3の雲素の、第3のオブジェクト空間全ての配
置位置を決定することができる。また、第3の雲素は板
状体の雲素であるため、第3のオブジェクト空間の画像
生成に係る処理負荷を軽減することができる。
In other words, in the third object space,
The arrangement position of the third cloud element in an arbitrary region can be determined by developing this pattern. That is, this 22nd departure
According to Ming , the arrangement position of the third cloud element in the third object space can be easily determined. For example, the size of the arrangement position repeating pattern (the size of the unit area) is set to be substantially the same as the field of view of the third virtual camera,
When the third virtual camera is panned to the right, the third cloud, which cannot be seen from the left side of the visual field, appears from the right side of the visual field. That is, it is possible to determine the arrangement positions of all the third object spaces of the third cloud element only by the arrangement position repeating pattern. Further, since the third cloud element is a plate-like cloud element, it is possible to reduce the processing load related to the image generation of the third object space.

【0056】第23の発明は、第22の発明のゲーム情
報であって、前記第3の装置に対して、前記第3のオブ
ジェクト空間内の所与の高度に、雲素配置層を設定する
手段(例えば、図31に示す中雲配置部614)、を機
能させるための情報(例えば、図31に示す雲層データ
926)と、前記第3の配置手段に対して、前記雲素配
置層内に前記第3の雲素を配置する、ように機能させる
ための情報(例えば、実施の形態における式(11))
と、を含むことを特徴とする。
A twenty-third invention is the game information of the twenty-second invention, in which a cloud arrangement layer is set to the third device at a given altitude in the third object space. Information (for example, cloud layer data 926 shown in FIG. 31) for operating the means (for example, the middle cloud placement unit 614 shown in FIG. 31) and the cloud placement layer within the cloud placement layer with respect to the third placement means. Information for arranging the third cloud element in the position of the third cloud element (for example, formula (11) in the embodiment)
And are included.

【0057】この第23の発明によれば、第3の雲素を
配置する雲素配置層を第3のオブジェクト空間内に設定
することができ、この雲素配置層以外に第3の雲素が配
置されることがない。したがって、第3のオブジェクト
空間において、第3の雲素を配置する高度を制御するこ
とができる。なお、さらに雲素配置層の厚さを設定可能
なよう構成してもよい。その場合には、例えば、層を薄
くすることによっていわし雲を表現したり、層を厚くす
ることによって積乱雲を表現したりすることができる。
[0057] According to this configuration 23, the Kumomoto arrangement layer to place a third Kumomoto can be set to the third object space, a third Kumomoto besides this Kumomoto arrangement layer Will never be placed. Therefore, it is possible to control the altitude at which the third cloud element is arranged in the third object space. The thickness of the cloud disposition layer may be set. In that case, for example, the sardine cloud can be expressed by making the layer thin, and the cumulonimbus cloud can be expressed by making the layer thick.

【0058】第24の発明は、第22または第23の発
明のゲーム情報であって、前記第3の装置に対して、前
記第3の仮想カメラからの距離(例えば、実施の形態に
おける距離d)に基づいて、第3の雲素配置領域(例え
ば、図20に示す雲設定領域R)を設定する第3の雲素
領域設定手段(例えば、図31に示す雲設定領域決定部
620)、を機能させるための情報と、前記第3の配置
手段に対して、前記第3の雲素配置領域内に前記第3の
雲素を配置する、ように機能させるための情報と、を含
むことを特徴とする。
The 24th invention is the 22nd or 23rd invention.
Bright game information, and for the third device, based on the distance from the third virtual camera (for example, the distance d in the embodiment), a third cloud arrangement region (for example, Information for operating the third cloud element region setting unit (for example, the cloud setting region determination unit 620 shown in FIG. 31) for setting the cloud setting region R shown in FIG. 20 and the third arrangement unit. On the other hand, the information for causing the third cloud element to be arranged in the third cloud element arrangement region is included.

【0059】この第24の発明によれば、例えば、仮想
カメラの視野内にのみ第3の雲素配置領域を設定するこ
とにより、視野外の第3の雲素に対する処理を削減する
ことが可能である。
According to the twenty-fourth aspect of the invention , for example, by setting the third cloud arrangement region only within the visual field of the virtual camera, it is possible to reduce the processing for the third cloud outside the visual field. Is.

【0060】第25の発明は、第22から第24の発明
のいずれかのゲーム情報であって、前記第3の装置に対
して、前記第3のオブジェクト空間における前記第3の
雲素の配置位置に応じて、前記各第3の雲素の透明度を
設定する第3の雲素透明度設定手段(例えば、図31に
示す不透明度設定部622)、を機能させるための情報
を含むことを特徴とする。
The 25th invention is the 22nd to 24th inventions.
Which is one of the game information, and the transparency of each of the third cloud elements is set in the third device according to the arrangement position of the third cloud element in the third object space. The third cloud transparency setting unit (for example, the opacity setting unit 622 shown in FIG. 31) for performing the function is included.

【0061】この第25の発明によれば、例えば、雲の
濃淡を、その雲の配置位置に応じて変更することができ
る。本発明をより具体化する手法としては例えば第26
の発明や第27の発明がある。
According to the twenty-fifth aspect , for example, the shade of the cloud can be changed according to the position where the cloud is arranged. As a method for further embodying the present invention, for example, the 26th
And 27th invention .

【0062】例えば、第26の発明のように、第25の
発明のゲーム情報であって、前記第3の雲素透明度設定
手段に対して、前記第3のオブジェクト空間における雲
の存在可否を表す雲分布図(例えば、図30に示す雲分
布マップ924)に基づいて、前記各第3の雲素の透明
度を設定する、ように機能させるための情報を含むこと
としてもよい。
For example, as in the 26th invention , the 25th invention
In the game information of the invention , a cloud distribution map (for example, a cloud distribution map 924 shown in FIG. 30) showing presence / absence of clouds in the third object space is displayed to the third cloud transparency setting unit. Based on the above, information for causing the function of setting the transparency of each of the third cloud elements may be included.

【0063】この第26の発明によれば、雲分布図に従
って、第3の雲素の透明度が設定されるため、第3のオ
ブジェクト空間全体に渡る雲の表示/非表示を管理する
ことができる。即ち、第3の雲素の配置位置は、第22
の発明によって決定されるが、実際に表現されるか否か
(より正確には、第3の雲素の色が描画されるか否か)
は雲分布図に従って決定される。
[0063] According to this configuration 26, in accordance with clouds distribution diagram, since the transparency of the third Kumomoto is set, you are possible to manage the display / non-display of clouds throughout the third object space . That is, the arrangement position of the third cloud element is the 22nd
Whether it is actually expressed (more accurately, whether or not the third cloud color is drawn), which is determined by the invention of
Is determined according to the cloud distribution map.

【0064】また、第27の発明のように、第25また
は第26の発明のゲーム情報であって、前記第3の雲素
透明度設定手段に対して、前記第3の仮想カメラから前
記各第3の雲素までの距離に基づいて、前記各第3の雲
素の透明度を設定する、ように機能させるための情報
(例えば、実施の形態における式(12))を含むこと
としてもよい。
[0064] In addition, as in the 27th aspect of the present invention, the first 25 also
Is game information according to the twenty-sixth aspect of the present invention , wherein the third cloud element transparency setting means is configured to determine the third cloud element based on the distance from the third virtual camera to the third cloud elements. It is also possible to include information (for example, Expression (12) in the embodiment) for causing the cloud element to set the transparency of the cloud element.

【0065】この第27の発明によれば、例えば、第3
の仮想カメラに近接配置される第3の雲素の透明度を上
げるよう設定することにより、第3の仮想カメラからの
視認性が向上し、ゲームにおける操作性を向上させるこ
とができる。
According to the twenty-seventh invention , for example, the third
By setting so that the transparency of the third cloud element disposed close to the virtual camera is increased, the visibility from the third virtual camera is improved and the operability in the game can be improved.

【0066】第28の発明は、第24の発明のゲーム情
報であって、前記第3の装置に対して、前記第3の仮想
カメラからの距離が前記第3の雲素配置領域より遠方
に、第4の雲素配置領域(例えば、実施の形態における
遠景雲設定領域Rf)を設定する第4の雲素領域設定手
段(例えば、図31に示す雲設定領域決定部620)
と、前記第4の雲素配置領域に、板状体の第4の雲素を
略水平状に複数配置する第4の配置手段(例えば、図3
1に示す中雲配置部614)と、を機能させるための情
報を含むことを特徴とする。
A twenty-eighth invention is the game information of the twenty-fourth invention , wherein the distance from the third virtual camera to the third device is farther than the third cloud arrangement region. , Fourth cloud element region setting means (for example, cloud setting area determination unit 620 shown in FIG. 31) for setting a fourth cloud element arrangement area (for example, distant view cloud setting area Rf in the embodiment).
And fourth arranging means for arranging a plurality of plate-like fourth cloud elements in a substantially horizontal shape in the fourth cloud element arranging region (for example, FIG. 3).
And the information for operating the middle cloud arrangement unit 614) shown in FIG.

【0067】第24の発明により第3の雲素配置領域が
設定されるが、第3の仮想カメラの視野内に、第3の雲
素配置領域の周縁が含まれる場合には、矛盾が生じ得
る。即ち、第3の仮想カメラの視野内において、第3の
雲素配置領域内には第3の雲素が配置されているが、そ
の範囲を超えた所には雲素が配置されていないため、第
3の雲素配置領域の周縁がユーザーに分かってしまい、
ゲームに対する没入感が損なわれ得る。そのため、第2
8の発明のように、第3の雲素配置領域の遠方に第4の
雲素配置領域を設定することにより、上記問題を解決で
きる。ここで、第3の仮想カメラにおいて、第4の雲素
配置領域は第3の雲素配置領域よりも遠方であるため、
雲素を簡略化した表現としてもユーザーには認知され難
い。そのため、第4の雲素配置領域においては、板状体
の第4の雲素を、略水平状に配置するのみで、処理を簡
略化させることが可能である。
According to the 24th aspect of the invention , the third cloud-arranged region is set. However, if the third virtual-camera arranged region has a peripheral edge in the visual field of the third virtual camera, a contradiction occurs. obtain. That is, in the field of view of the third virtual camera, the third cloud element is arranged in the third cloud element arrangement region, but since the cloud element is not arranged in the area beyond the range. , The user knows the edge of the third cloud arrangement area,
Immersion in the game may be impaired. Therefore, the second
As in the eighth aspect of the invention , the above problem can be solved by setting the fourth cloud element arranging region far from the third cloud element arranging region. Here, in the third virtual camera, the fourth cloud element arrangement region is farther than the third cloud element arrangement region,
It is difficult for users to recognize even a simplified expression of cloud. Therefore, in the fourth cloud element arranging region, it is possible to simplify the process only by arranging the fourth cloud element of the plate-like body substantially horizontally.

【0068】またこの場合、第29の発明のように、第
28の発明のゲーム情報であって、前記第3の装置に対
して、前記配置位置決定手段が用いる前記所与の配置位
置繰り返しパターンを展開することにより、前記第4の
雲素の配置位置を決定する手段、を機能させるための情
報と、前記第4の配置手段に対して、前記決定された第
4の雲素の配置位置に、前記第4の雲素を略水平状に配
置する、ように機能させるための情報と、を含むことと
してもよい。
In this case, as in the 29th invention,
28. The game information according to the invention of 28 , wherein the arrangement position of the fourth cloud element is determined by developing the given arrangement position repeating pattern used by the arrangement position determining means for the third device. Information for operating the determining means, and arranging the fourth cloud element in a substantially horizontal position at the determined arrangement position of the fourth cloud element with respect to the fourth arranging means, It is also possible to include the information for making it function as described above.

【0069】この第29の発明によれば、第3の雲素を
配置する際に基準とした、配置位置繰り返しパターン
を、第4の雲素の配置位置へも適用することができる。
したがって、第22の発明の効果を、第4の雲素に対し
ても得ることができる。
[0069] According to this configuration 29, as a reference in placing the third Kumomoto, the position repeating pattern, can be applied to the arrangement position of the fourth Kumomoto.
Therefore, the effect of the twenty-second invention can be obtained also for the fourth cloud element.

【0070】さらに第30の発明のように、第28また
は第29の発明のゲーム情報であって、前記第3の装置
に対して、前記第4の雲素の配置位置に応じて、前記各
第4の雲素の透明度を設定する第4の雲素透明度設定手
段、を機能させるための情報を含むこととしてもよい。
Further, as in the 30th invention , the 28th or
Is game information according to a twenty-ninth aspect of the present invention, wherein a fourth cloud for setting transparency of each of the fourth cloud elements in the third device according to an arrangement position of the fourth cloud element. Information for operating the transparency setting unit may be included.

【0071】この第30の発明によれば、例えば、雲の
濃淡を、配置位置に応じて変更することができる。本発
明をより具体化する手法としては例えば第31の発明や
第32の発明がある。
According to the thirtieth invention , for example, the shade of the cloud can be changed according to the arrangement position. As a method for further embodying the present invention, for example, the 31st invention or
There is a thirty-second invention .

【0072】例えば、第31の発明のように、第30の
発明のゲーム情報であって、前記第4の雲素透明度設定
手段に対して、前記第3のオブジェクト空間における雲
の存在可否を表す雲分布図に基づいて、前記各第4の雲
素の透明度を設定する、ように機能させるための情報を
含むこととしてもよい。
For example, as in the 31st invention , the 30th invention
The game information of the invention , wherein the transparency of each of the fourth cloud elements is set to the fourth cloud element transparency setting unit based on a cloud distribution diagram indicating presence / absence of clouds in the third object space. It is also possible to include information for causing the function to set.

【0073】この第31の発明によれば、雲分布図に従
って、第4の雲素の透明度が設定されるため、第3のオ
ブジェクト空間全体に渡る雲の表示/非表示を管理する
ことができる。即ち、第4の雲素の配置位置は、第30
の発明によって決定されるが、実際に表現されるか否か
(より正確には、第4の雲素の色が描画されるか否か)
は雲分布図に従って決定される。なお、この雲分布図
を、第3の雲素と共有してもよいことは勿論である。
[0073] According to the thirty-first aspect, according cloud distribution chart, since the transparency of the fourth Kumomoto is set, you are possible to manage the display / non-display of clouds throughout the third object space . That is, the arrangement position of the fourth cloud element is the 30th
It is determined by the invention, whether actually expressed (more precisely, whether the color of the fourth Kumomoto is drawn)
Is determined according to the cloud distribution map. Of course, this cloud distribution map may be shared with the third cloud element.

【0074】また、第32の発明のように、第30また
は第31の発明のゲーム情報であって、前記第4の雲素
透明度設定手段に対して、前記第3の仮想カメラから前
記各第4の雲素までの距離に基づいて、前記各第4の雲
素の透明度を設定する、ように機能させるための情報を
含むこととしてもよい。
[0074] Also, as in the thirty-second aspect, also the 30
Is game information according to the thirty-first aspect of the invention , wherein the fourth cloud element transparency setting means is configured to determine the fourth cloud element based on the distance from the third virtual camera to the fourth cloud elements. It is also possible to include information for setting the transparency of the cloud element, and causing it to function.

【0075】この第32の発明によれば、例えば、第3
の仮想カメラからより遠方に配置される第4の雲素の透
明度を、徐々に上げるよう設定することにより、第3の
仮想カメラからの遠方における視認性を向上させ、ま
た、第4の雲素が遙か遠くまで続いているかのように表
現することができる。
According to the thirty-second invention , for example, the third
By setting the transparency of the fourth cloud element arranged farther away from the third virtual camera to be gradually increased, the visibility in the distance from the third virtual camera is improved, and the fourth cloud element is also improved. Can be described as if it continues far or far.

【0076】第33の発明は、第13から第20の発明
のいずれかのゲーム情報と、第22から第32の発明の
いずれかのゲーム情報とを含むゲーム情報であって、前
記第2の装置と前記第3の装置は同一の装置であり、当
該装置に対して、前記第2の仮想カメラを前記第3の仮
想カメラとする手段と、前記第2のオブジェクト空間を
前記第3のオブジェクト空間とする手段と、前記第2の
生成手段により生成されたテクスチャ情報を前記第2の
雲状オブジェクトに反映させる手段と、前記第2の雲状
オブジェクトを前記第3の雲素とする手段と、を機能さ
せるための情報を含むことを特徴とする。
The 33rd invention is the 13th to 20th inventions.
Of any one of the 22nd to 32nd inventions
Game information including any one of the game information, wherein the second device and the third device are the same device, and the second virtual camera is set to the third virtual device for the device. Means for making a camera, means for making the second object space the third object space, means for reflecting the texture information generated by the second generating means on the second cloud-shaped object, Means for causing the second cloud-shaped object to be the third cloud element, and information for causing the third cloud element to function.

【0077】この第33の発明によれば、第13から第
20の発明のいずれかの発明の効果と、第22から第3
2の発明のいずれかの発明の効果とを備えるゲーム情報
を実現することができる。具体的には、例えば、第2の
雲素によって、板状体ではあるが様々な態様を有する第
2の雲状オブジェクト(第3の雲素)を表現することが
でき、かつ、第2の雲状オブジェクト(第3の雲素)の
第3のオブジェクト空間における配置位置計算を簡略化
することができる。
According to the 33rd aspect of the invention,
The effect of any one of the twenty inventions and the twenty-second to third inventions
It is possible to realize game information having the effect of any one of the second aspect of the invention . Specifically, for example, the second cloud element can represent a second cloud-shaped object (third cloud element) that is a plate-like object but has various aspects, and The arrangement position calculation of the cloud-like object (third cloud) in the third object space can be simplified.

【0078】第34の発明は、第33の発明のゲーム情
報であって、前記第2の生成手段に対して、複数種類の
テクスチャ情報を生成する、ように機能させるための情
報と、前記装置に対して、前記第2の生成手段により生
成される複数種類のテクスチャ情報を反映させることに
より、テクスチャ情報の異なる複数種類の第2の雲状オ
ブジェクトを生成する手段、を機能させるための情報
と、前記第3の配置手段に対して、前記複数種類の第2
の雲状オブジェクトを配置する、ように機能させるため
情報と、を含むことを特徴としている。
A thirty-fourth invention is the game information of the thirty-third invention , wherein the second generating means is caused to function so as to generate a plurality of types of texture information, and the device. In contrast, information for operating a means for generating a plurality of types of second cloud-shaped objects having different texture information by reflecting the plurality of types of texture information generated by the second generation means, and , The plurality of types of second with respect to the third placement means
It is characterized by including information for arranging the cloud-shaped object of, and causing it to function.

【0079】この第34の発明によれば、複数種類の第
2の雲状オブジェクトを生成する、即ち、複数種類の第
3の雲素とすることができるため、第3のオブジェクト
空間において表現する雲状物の表現を多様化することが
できる。
According to the thirty-fourth invention , a plurality of types of second cloud-shaped objects can be generated, that is, a plurality of types of third cloud elements can be created, so that they are represented in the third object space. The expression of cloud objects can be diversified.

【0080】第35の発明のゲーム情報は、プロセッサ
による演算・制御により、仮想カメラ(例えば、図20
に示す仮想カメラ100)から見たオブジェクト空間の
画像を生成して、所与のゲームを実行することとなる装
置に対して、前記仮想カメラの位置または視線方向が変
化する場合に、視界から外れた領域に存在していた雲状
オブジェクト(例えば、実施の形態における中雲ビルボ
ード)を新たに視界となる領域に表現することにより、
雲状オブジェクトが存する空間が続いていることを擬似
的に表現する手段(例えば、図31に示す雲海生成部6
18及び雲海描画部640)、を機能させるための、前
記プロセッサによる演算可能なゲーム情報である。
The game information of the thirty-fifth invention is the virtual camera (eg, FIG.
When the position or line-of-sight direction of the virtual camera changes with respect to a device that is to execute a given game by generating an image of the object space viewed from the virtual camera 100) shown in FIG. By expressing the cloud-shaped object that has been present in the area (for example, the Nakanobi billboard in the embodiment) in the area that becomes the new field of view,
A means for artificially expressing that the space in which the cloud-shaped object exists continues (for example, the cloud sea generation unit 6 shown in FIG. 31).
18 and cloud sea drawing unit 640) are game information that can be calculated by the processor.

【0081】この第35の発明によれば、仮想カメラの
位置の変化などによって、視界から外れた雲状オブジェ
クトを新たに視界となる領域に表現することによって、
オブジェクト空間において、雲状オブジェクトが連続的
に配置されているかのような表現をすることができ、雲
状オブジェクトの画像生成に係る処理を軽減させること
ができる。
According to the thirty-fifth aspect of the present invention , the cloud-shaped object that is out of the field of view is newly expressed in the field of view due to the change of the position of the virtual camera,
In the object space, it is possible to express as if the cloud-like objects are continuously arranged, and it is possible to reduce the processing related to the image generation of the cloud-like objects.

【0082】第36の発明のゲーム情報は、プロセッサ
による演算・制御により、仮想カメラ(例えば、図20
に示す仮想カメラ100)から見たオブジェクト空間の
画像を生成して、所与のゲームを実行することとなる装
置に対して、前記仮想カメラの位置の変化に応じて、前
記仮想カメラの視界の略中央付近から仮想カメラに接近
する雲状オブジェクト(例えば、実施の形態における中
雲ビルボード)に対する透明度を上げて、視界の遠方か
ら視界の略中央付近に移動する雲状オブジェクトに対す
る透明度を下げる手段(例えば、図31に示す不透明度
設定部622)、を機能させるための、前記プロセッサ
による演算可能なゲーム情報である。
The game information according to the thirty-sixth aspect of the invention is the virtual camera (eg, FIG.
The image of the object space viewed from the virtual camera 100) shown in FIG. 1 is generated, and the visual field of the virtual camera is changed in accordance with the change of the position of the virtual camera with respect to the device which executes the given game. A means for increasing the transparency of a cloud-like object approaching the virtual camera from near the center (for example, the middle cloud billboard in the embodiment) and decreasing the transparency for a cloud-like object moving from a distant field of view to near the center of the field of view. (For example, the opacity setting unit 622 shown in FIG. 31) is game information that can be calculated by the processor in order to function.

【0083】この第36の発明によれば、仮想カメラの
視界の略中央付近における雲状オブジェクトの透明度が
高く、仮想カメラの近方および遠方に位置する透明度が
低いため、視認性が高く、操作性のよいオブジェクト空
間の画像(ゲーム画像)とすることができる。
According to the thirty-sixth aspect, the transparency of the cloud-like object is high in the vicinity of the center of the field of view of the virtual camera, and the transparency is low near and far from the virtual camera. It can be an image of the object space (game image) with good properties.

【0084】また、第37の発明のように、第1から第
36の発明のいずれかのゲーム情報を記憶する情報記憶
媒体を実現することとしてもよい。
[0084] Also, as in the 37th aspect, the first from the first
An information storage medium for storing game information according to any one of the thirty-six inventions may be realized.

【0085】第38の発明は、仮想カメラ(例えば、図
2に示す仮想カメラ100)から見たオブジェクト空間
の画像を生成して、所与のゲームを実行するゲーム装置
であって、前記仮想カメラの所与の角度パラメータの値
(例えば、図2に示すピッチ角X)に応じて予め用意さ
れた複数種類の雲素(例えば、図3に示す雲パーツA
(122)、雲パーツB(124))を、前記所与の角
度パラメータの現在値に応じた所与の割合で合成処理す
ることにより、前記オブジェクト空間に前記仮想カメラ
に向けて配置される板状体の雲状オブジェクト(例え
ば、実施の形態における小雲ビルボード)に反映させる
テクスチャ情報(例えば、図4に示す小雲テクスチャ1
02)を生成する生成手段(例えば、図31に示す小雲
描画部632)、を備えるゲーム装置である。
A thirty-eighth invention is a game device for executing a given game by generating an image of an object space viewed from a virtual camera (for example, the virtual camera 100 shown in FIG. 2). Of a plurality of types of cloud elements (for example, the cloud part A shown in FIG. 3) prepared in advance according to the value of the given angle parameter (for example, the pitch angle X shown in FIG. 2).
(122), the cloud part B (124)) are combined at a given ratio according to the current value of the given angle parameter, and thus a plate placed in the object space toward the virtual camera. Texture information (for example, cloud texture 1 shown in FIG. 4) to be reflected on a cloud-shaped object (for example, cloud cloud billboard in the embodiment).
02) generating means (for example, the small cloud drawing unit 632 shown in FIG. 31).

【0086】この第38の発明によれば、例えば、雲状
オブジェクトの一側面(例えば、正面)と他側面(例え
ば、裏面)を表す2つの雲素を用意し、仮想カメラの視
線方向に応じて、その雲素を切り換えること等が可能で
ある。即ち、雲状オブジェクトは仮想カメラに向けて配
置されるため、例えば、雲状オブジェクトの正面と裏面
を矛盾なく、かつ容易に表現することが可能である。
According to the thirty-eighth aspect of the invention , for example, two cloud elements representing one side surface (for example, the front surface) and the other side surface (for example, the back surface) of the cloud-like object are prepared, and the two cloud elements are provided according to the line-of-sight direction of the virtual camera. Then, the cloud can be switched. That is, since the cloud-shaped object is arranged toward the virtual camera, it is possible to easily express the front and back surfaces of the cloud-shaped object without contradiction.

【0087】また更に、仮想カメラの「角度パラメータ
の現在値に応じ」て、雲状オブジェクトに反映されるテ
クスチャ情報が生成されるため、オブジェクト空間に雲
状オブジェクトを配置する際、雲状オブジェクトの上下
左右方向を考慮する必要がない。即ち、例えば、仮想カ
メラのロール角が変化する場合には、雲状オブジェクト
を、当該ロール角に応じて回転させる必要が生じるが、
そのロール角に応じてテクスチャ情報が生成されるた
め、雲状オブジェクトは、単に、オブジェクト空間に配
置するだけ(より正確には、オブジェクト空間には、雲
状オブジェクトを配置する位置を決定するだけ)で済
む。
Furthermore, since the texture information reflected in the cloud-shaped object is generated according to the current value of the angle parameter of the virtual camera, when the cloud-shaped object is arranged in the object space, There is no need to consider the vertical and horizontal directions. That is, for example, when the roll angle of the virtual camera changes, it is necessary to rotate the cloud-shaped object according to the roll angle,
Since the texture information is generated according to the roll angle, the cloud-shaped object is simply arranged in the object space (more accurately, the position where the cloud-shaped object is arranged is determined in the object space). It's done.

【0088】第39の発明は、仮想カメラ(例えば、図
14に示す仮想カメラ100)から見たオブジェクト空
間の画像を生成して、所与のゲームを実行するゲーム装
置であって、雲モデル空間(例えば、図14に示す中雲
座標系)に雲素(例えば、図14に示す小雲ビルボード
24−1〜32)を複数配置する配置手段(例えば、図
31に示す中雲生成部612)と、前記雲モデル空間を
透視変換することにより、前記オブジェクト空間に前記
仮想カメラに向けて配置される板状体の雲状オブジェク
ト(例えば、実施の形態における中雲ビルボード)に反
映させるテクスチャ情報(例えば、実施の形態における
中雲テクスチャ)を生成する生成手段(例えば、図31
に示す中雲描画部634)と、を備えるゲーム装置であ
る。
A thirty-ninth aspect of the present invention is a game device for executing a given game by generating an image of an object space viewed from a virtual camera (for example, the virtual camera 100 shown in FIG. 14), which is a cloud model space. Arrangement means (for example, the middle cloud generation unit 612 shown in FIG. 31) for arranging a plurality of cloud elements (for example, the small cloud billboards 24-1 to 32 shown in FIG. 14) in (for example, the middle cloud coordinate system shown in FIG. 14). ) And a texture that is reflected on the cloud object of a plate-like object (for example, the middle cloud billboard in the embodiment) arranged toward the virtual camera in the object space by perspective transformation of the cloud model space. A generation unit (for example, FIG. 31) that generates information (for example, a medium cloud texture in the embodiment).
And a middle cloud drawing unit 634 shown in FIG.

【0089】この第39の発明によれば、オブジェクト
空間に配置される雲状オブジェクトは板状体ではある
が、様々な態様の雲状オブジェクトを表現することがで
きる。なぜならば、雲状オブジェクトに反映される、生
成手段によって生成されるテクスチャ情報は、雲素が複
数配置された雲モデル空間を透視変換したものであるた
め、透視変換の仕方によって、種々のテクスチャ情報を
生成することが可能だからである。また本発明により、
オブジェクト空間に係る処理と、テクスチャ情報を生成
する処理とを区別して処理することが可能となり、オブ
ジェクト空間に係る処理負荷を軽減させることができ
る。なお、第2の雲素を板状体により構成してもよい。
According to the thirty-ninth aspect, although the cloud-like object arranged in the object space is a plate-like object, it is possible to express cloud-like objects in various forms. Because the texture information generated in the cloud-like object and generated by the generation means is perspective transformation of the cloud model space in which a plurality of cloud elements are arranged, various texture information is generated depending on the perspective transformation method. This is because it is possible to generate Also according to the invention,
The processing related to the object space and the processing for generating the texture information can be processed separately, and the processing load related to the object space can be reduced. The second cloud may be formed of a plate-shaped body.

【0090】第40の発明は、仮想カメラ(例えば、図
14に示す仮想カメラ100)から見たオブジェクト空
間の画像を生成して、所与のゲームを実行するゲーム装
置であって、前記仮想カメラの所与の角度パラメータの
値(例えば、図2に示すピッチ角X)に応じて予め用意
された複数種類の雲素(例えば、図3に示す雲パーツA
(122)、雲パーツB(124))を、前記所与の角
度パラメータの現在値に応じた所与の割合で合成処理す
ることによりテクスチャ情報(例えば、図4に示す小雲
テクスチャ102)を生成する第1の生成手段(例え
ば、図31に示す小雲描画部632)と、前記第1の生
成手段により生成されたテクスチャ情報を、板状体の第
1の雲状オブジェクト(例えば、実施の形態における小
雲ビルボード)に反映させる手段(例えば、中雲描画部
634)と、雲モデル空間(例えば、実施の形態におけ
る中雲座標系)に前記第1の雲状オブジェクトを複数配
置する配置手段(例えば、図31に示す中雲生成部61
2)と、前記雲モデル空間を透視変換することにより、
前記オブジェクト空間に前記仮想カメラに向けて配置さ
れる板状体の第2の雲状オブジェクト(例えば、実施の
形態における中雲ビルボード)に反映させるテクスチャ
情報(例えば、実施の形態における中雲テクスチャ)を
生成する第2の生成手段(例えば、図31に示す中雲描
画部634)と、を備えるゲーム装置である。
A fortieth aspect of the present invention is a game apparatus for executing a given game by generating an image of an object space viewed from a virtual camera (for example, the virtual camera 100 shown in FIG. 14). Of a plurality of types of cloud elements (for example, the cloud part A shown in FIG. 3) prepared in advance according to the value of the given angle parameter (for example, the pitch angle X shown in FIG. 2).
(122) and the cloud part B (124)) are combined at a given ratio according to the current value of the given angle parameter to obtain texture information (for example, the cloud texture 102 shown in FIG. 4). The first generation means (for example, the small cloud drawing unit 632 shown in FIG. 31) to be generated and the texture information generated by the first generation means are used to generate the first cloud-shaped object (for example, Of the first cloud-like object in the cloud model space (for example, the middle cloud coordinate system in the embodiment) and a means (for example, the middle cloud drawing unit 634) for reflecting it on the small cloud billboard in the above form. Arrangement means (for example, the middle cloud generation unit 61 shown in FIG. 31)
2) and the perspective transformation of the cloud model space,
Texture information (for example, the middle cloud texture in the embodiment) to be reflected on the second cloud-shaped object (for example, the middle cloud billboard in the embodiment) of the plate-shaped object arranged in the object space toward the virtual camera. ) Is generated by the second generation means (for example, the middle cloud drawing unit 634 shown in FIG. 31).

【0091】この第40の発明によれば、例えば、仮想
カメラの視線方向に対して矛盾のない、板状体の第1の
雲状オブジェクトを生成することができ、かつ、様々な
態様の第2の雲状オブジェクトを表現することができ
る。
According to the 40th aspect of the present invention , for example, it is possible to generate the first cloud-shaped object having a plate-like body, which is consistent with the line-of-sight direction of the virtual camera, and the first cloud-shaped object of various modes can be generated. Two cloud-like objects can be represented.

【0092】第41の発明は、仮想カメラ(例えば、図
20に示す仮想カメラ100)から見たオブジェクト空
間の画像を生成して、所与のゲームを実行するゲーム装
置であって、所与の配置位置繰り返しパターンを展開す
ることにより前記オブジェクト空間に複数配置する雲素
(例えば、実施の形態における中雲ビルボード)の配置
位置を決定する配置位置決定手段(例えば、図31に示
す中雲配置部614)と、前記配置位置決定手段により
決定された配置位置に、板状体の前記雲素を配置する配
置手段(例えば、図31に示す中雲配置部614)と、
前記雲素を前記仮想カメラに対する所与の方向に向ける
対向配置手段(例えば、図31に示す中雲配置部61
4)と、を備えるゲーム装置である。
The forty-first invention is a game device which generates an image of an object space viewed from a virtual camera (for example, the virtual camera 100 shown in FIG. 20) and executes a given game. Arrangement position deciding means (eg, middle cloud arrangement shown in FIG. 31) for deciding the arrangement position of a plurality of cloud elements (for example, middle cloud billboard in the embodiment) arranged in the object space by expanding the arrangement position repeating pattern. Section 614), and an arranging means (for example, a middle cloud arranging section 614 shown in FIG. 31) for arranging the cloud element of the plate-like body at the arrangement position determined by the arrangement position determining means,
A facing arrangement means for directing the cloud element in a given direction with respect to the virtual camera (for example, a middle cloud arrangement unit 61 shown in FIG. 31).
4) and a game device.

【0093】ここで、所与の配置位置繰り返しパターン
とは、雲素の配置位置が決定されたある単位領域におけ
る、配置位置のパターンのことであり、例えばこのパタ
ーンを縦2×横2×高さ2に配置(展開)することによ
って、単位領域の8倍(=2×2×2)の大きさの領域
における雲素の配置位置を決定することができる。
Here, the given arrangement position repeating pattern is a pattern of arrangement positions in a certain unit area in which the arrangement position of cloud is determined. For example, this pattern is defined as vertical 2 × horizontal 2 × high. By arranging (developing) in size 2, it is possible to determine the arrangement position of the cloud element in the area that is eight times as large as the unit area (= 2 × 2 × 2).

【0094】換言すれば、オブジェクト空間の、任意の
領域における雲素の配置位置が、このパターンの展開に
よって決定しうる。即ち、この第41の発明によれば、
オブジェクト空間における、雲素の配置位置を容易に決
定することができる。例えば、配置位置繰り返しパター
ンの大きさ(上記の単位領域の大きさ)を仮想カメラの
視界と略同一とし、仮想カメラを右方向へパンさせた場
合、視野の左側から見えなくなった雲素が、視野の右側
から表出することとなる。即ち、配置位置繰り返しパタ
ーンのみで、雲素の、オブジェクト空間全ての配置位置
を決定することができる。また、雲素は板状体の雲素で
あるため、オブジェクト空間の画像生成に係る処理負荷
を軽減することができる。
In other words, the arrangement position of cloud elements in an arbitrary area of the object space can be determined by developing this pattern. That is, according to the 41st invention ,
It is possible to easily determine the arrangement position of cloud elements in the object space. For example, if the size of the arrangement position repeating pattern (size of the above unit area) is set to be substantially the same as the field of view of the virtual camera and the virtual camera is panned to the right, the cloud elements that cannot be seen from the left side of the field of view are It will appear from the right side of the field of view. That is, it is possible to determine the arrangement positions of all the object spaces of the cloud element only by the arrangement position repeating pattern. Further, since the cloud is a plate-shaped cloud, it is possible to reduce the processing load related to the image generation in the object space.

【0095】第42の発明は、仮想カメラ(例えば、図
20に示す仮想カメラ100)から見たオブジェクト空
間の画像を生成して、所与のゲームを実行するゲーム装
置であって、雲モデル空間(例えば、実施の形態におけ
る中雲座標系)に雲素(例えば、実施の形態における小
雲ビルボード)を複数配置する雲素配置手段(例えば、
図31に示す中雲生成部612)と、前記雲モデル空間
を透視変換することにより、テクスチャ情報を生成する
生成手段(例えば、図31に示す中雲描画部634)
と、前記生成手段により生成されるテクスチャ情報を板
状体の雲状オブジェクト(例えば、実施の形態における
中雲ビルボード)に反映させる手段(例えば、図31に
示す雲海描画部640)と、所与の配置位置繰り返しパ
ターンを展開することにより前記オブジェクト空間に複
数配置する前記雲状オブジェクトの配置位置を決定する
配置位置決定手段(例えば、図31に示す中雲配置部6
14)と、前記配置位置決定手段により決定された配置
位置に、前記雲状オブジェクトを配置する雲状オブジェ
クト配置手段(例えば、図31に示す中雲配置部61
4)と、前記雲状オブジェクトを前記仮想カメラに対す
る所与の方向に向ける対向配置手段(例えば、図31に
示す中雲配置部614)と、を備えるゲーム装置であ
る。
A forty-second invention is a game device for generating an image of an object space viewed from a virtual camera (for example, the virtual camera 100 shown in FIG. 20) and executing a given game, which is a cloud model space. A cloud element arranging unit (for example, a cloud element arranging unit for arranging a plurality of cloud elements (for example, the small cloud billboard in the embodiment) in (for example, the medium cloud coordinate system in the embodiment))
31 and a generation unit that generates texture information by perspectively transforming the cloud model space (for example, the middle cloud drawing unit 634 shown in FIG. 31).
And means for reflecting the texture information generated by the generation means on a cloud-shaped object of a plate-like object (for example, the middle cloud billboard in the embodiment) (for example, the cloud sea drawing unit 640 shown in FIG. 31), Arrangement position deciding means (for example, the middle cloud arrangement unit 6 shown in FIG. 31) for deciding the arrangement position of the plurality of cloud-shaped objects arranged in the object space by expanding a given arrangement position repeating pattern.
14) and cloud-shaped object placement means for placing the cloud-shaped object at the placement position determined by the placement position determination means (for example, the middle cloud placement unit 61 shown in FIG. 31).
4), and a facing arrangement unit (for example, a middle cloud arrangement unit 614 shown in FIG. 31) that faces the virtual camera in a given direction with respect to the virtual camera.

【0096】この第42の発明によれば、例えば、雲素
によって、板状体ではあるが様々な態様を有する雲状オ
ブジェクトを表現することができ、かつ、雲状オブジェ
クトのオブジェクト空間における配置位置計算を簡略化
することができる。
According to the forty-second aspect of the present invention , for example, cloud elements can represent a cloud-shaped object having a plate-like body but having various forms, and the arrangement position of the cloud-shaped object in the object space. The calculation can be simplified.

【0097】[0097]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を参照して説明する。なお、以下、飛行機ゲ
ームを例にとって説明するが、本発明の適用は、これに
限るものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to the drawings. Note that the following description will be given by taking an airplane game as an example, but the application of the present invention is not limited to this.

【0098】図1は、本発明を家庭用ゲーム装置に適用
した場合の一例を示す図である。図1において、プレー
ヤは、ディスプレイ1200に写し出されたゲーム画像
を見ながら、ゲームコントローラ1202、1204を
操作して、飛行機を操縦し、飛行機ゲームを楽しむ。こ
の場合、ゲームプログラム等のゲームを行なうために必
要な情報は、本体装置に着脱自在な情報記憶媒体である
CD−ROM1206、ICカード1208、メモリカ
ード1212等に格納されている。
FIG. 1 is a diagram showing an example in which the present invention is applied to a home-use game machine. In FIG. 1, the player operates the game controllers 1202 and 1204 while watching the game image displayed on the display 1200 to operate the airplane and enjoy the airplane game. In this case, information necessary for playing a game such as a game program is stored in a CD-ROM 1206, an IC card 1208, a memory card 1212 and the like which are removable information storage media in the main unit.

【0099】このような飛行機ゲームにおいては、プレ
ーヤの操作に応じて、飛行機の位置、向きが様々に変化
するため、ゲーム画像を生成する際の仮想カメラの位
置、角度等が様々に変化する。本発明は、このように、
仮想カメラの位置、角度の変化に対してゲーム画像に含
まれる雲を矛盾なく表現するものである。以下、本発明
に係る、1.原理、2.機能、3.動作について詳細に
説明する。
In such an airplane game, the position and the direction of the airplane change variously according to the operation of the player, so that the position, the angle, etc. of the virtual camera when the game image is generated change variously. The present invention thus provides
It represents the clouds included in the game image consistently with respect to changes in the position and angle of the virtual camera. Hereinafter, according to the present invention, 1. Principle 2. Function, 3. The operation will be described in detail.

【0100】1.原理 まず、本発明の原理について説明する。本発明では、オ
ブジェクト空間に設定される雲(雲海を)生成する際
に、まず、一片の小さい雲である小雲を生成し、その小
雲の集合である中雲を生成し、その中雲の集合として雲
海を生成、表現する。以下、小雲、中雲、雲海の生成原
理について説明する。
1. Principle First, the principle of the present invention will be described. In the present invention, when generating a cloud (sea of clouds) set in the object space, first, a small cloud that is a small cloud is generated, and then a middle cloud that is a set of the small clouds is generated. A sea of clouds is generated and expressed as a set of. The generation principle of small clouds, medium clouds and sea of clouds will be described below.

【0101】1−(1)小雲生成原理 以下、図2〜図10を参照して小雲(小雲を表現するテ
クスチャ(以下、小雲テクスチャ102という。))の
生成に係る原理について説明する。尚、生成される小雲
テクスチャ102は、透明度(不透明度α)のみを有す
るテクスチャ(以下、αテクスチャという。)である
が、後述する処理との関連を分かり易くするため、便宜
上1枚のポリゴン(以下、仮想ペラポリゴンという。)
として生成されるかのように図示・説明する。
1- (1) Small Cloud Generation Principle Hereinafter, the principle of generation of small clouds (texture expressing small clouds (hereinafter referred to as small cloud texture 102)) will be described with reference to FIGS. To do. Note that the generated cloud texture 102 is a texture having only transparency (opacity α) (hereinafter referred to as α texture), but for the sake of easy understanding of the relation with the processing described later, one polygon is used for convenience. (Hereafter, referred to as a virtual propeller polygon.)
It is illustrated and described as if it is generated as.

【0102】図2(a)は、オブジェクト空間(ワール
ド座標系に基づく)内において、仮想カメラ100と、
この生成される小雲テクスチャ102と、を表す図であ
る。同図に示すように、小雲テクスチャ102は、常に
仮想カメラ100の視線方向に垂直に対向するように設
定される。
FIG. 2A shows a virtual camera 100 in the object space (based on the world coordinate system).
It is a figure showing this generated cloud texture 102. As shown in the figure, the small cloud texture 102 is set so as to always face perpendicularly to the line-of-sight direction of the virtual camera 100.

【0103】仮想カメラ100に関するパラメータの種
別としては、仮想カメラ位置と、仮想カメラ角度とがあ
る。仮想カメラ位置は、ワールド座標系における仮想カ
メラ100の位置(Xw,Yw,Zw)を表すパラメー
タである。仮想カメラ角度は、同図(b)に示すよう
に、仮想カメラ100のピッチ角(鉛直方向の首振り角
であり仰角および俯角)を表す角度X(以下、ピッチ角
X)、ヨー角(水平方向の首振り角)を表す角度Y(以
下、ヨー角Y)、ロール角(視線方向を中心とした回転
角(ねじれ))を表す角度Z(以下、ロール角Z)、に
より表されるパラメータである。
The types of parameters relating to the virtual camera 100 include a virtual camera position and a virtual camera angle. The virtual camera position is a parameter indicating the position (Xw, Yw, Zw) of the virtual camera 100 in the world coordinate system. The virtual camera angle is, as shown in FIG. 2B, an angle X (hereinafter, pitch angle X) representing a pitch angle (vertical swing angle, elevation angle and depression angle) of the virtual camera 100, a yaw angle (horizontal). Parameter represented by an angle Y (hereinafter, yaw angle Y) that represents the swinging angle of the direction, and an angle Z (hereinafter, roll angle Z) that represents the roll angle (rotation angle (twist) about the line-of-sight direction) Is.

【0104】ただし、ピッチ角Xの取り得る値の範囲は
−90°≦X≦90°であり、仰角を正、俯角を負とす
る。
However, the range of possible values of the pitch angle X is −90 ° ≦ X ≦ 90 °, where the elevation angle is positive and the depression angle is negative.

【0105】また、上記パラメータ以外に、必要に応じ
て、視野範囲(ズーム率)を表す画角などの各種パラメ
ータが用いられる。
In addition to the above parameters, various parameters such as the angle of view representing the field of view range (zoom ratio) are used as necessary.

【0106】小雲テクスチャ102は、図3に示す概念
図のように、気流テクスチャ104の不透明度(以
下、α値という。)を雲パーツA(122)に設定、
気流テクスチャ104のα値を雲パーツB(124)に
設定、雲パーツA(122)と雲パーツB(124)
のα値を合成、することにより生成される。これらの雲
パーツA(122)、B(124)、及び気流テクスチ
ャ104は、α値のみを持つαテクスチャであり、上述
したように小雲テクスチャ102もまたαテクスチャで
ある。尚、α値は、不透明度を表すパラメータであり
“0”以上“1”以下の数であり、“0”であれば完全
な透明を、“1.0”であれば不透明な状態を表す。
For the cloud texture 102, the opacity (hereinafter referred to as α value) of the airflow texture 104 is set to the cloud part A (122) as shown in the conceptual diagram of FIG.
The α value of the airflow texture 104 is set to the cloud part B (124), the cloud part A (122) and the cloud part B (124)
It is generated by synthesizing the α values of. The cloud parts A (122) and B (124) and the airflow texture 104 are α textures having only α values, and the small cloud texture 102 is also an α texture as described above. The α value is a parameter representing opacity, and is a number from “0” to “1”, in which “0” represents complete transparency, and “1.0” represents opaque state. .

【0107】また、雲パーツA(122)は、仮想カメ
ラ100のピッチ角Xが0°、即ち、仮想カメラ100
の視線方向が水平方向の場合を想定したαテクスチャで
あり、雲パーツB(124)は、仮想カメラ100のピ
ッチ角Xが±90°、即ち、仮想カメラ100の視線方
向が鉛直方向の場合を想定したαテクスチャである。
In the cloud part A (122), the pitch angle X of the virtual camera 100 is 0 °, that is, the virtual camera 100.
Of the cloud part B (124) in which the pitch angle X of the virtual camera 100 is ± 90 °, that is, the direction of the line of sight of the virtual camera 100 is the vertical direction. This is the assumed α texture.

【0108】気流テクスチャ104とは、アニメーショ
ンによりα値の時間的変化を表したテクスチャであっ
て、所定方向への気流を表現しているものである。但
し、気流テクスチャ104を瞬間的にとらえた場合に
は、静止したα値の分布を表したものと考えられる。
The airflow texture 104 is a texture that represents a temporal change of the α value by animation and expresses an airflow in a predetermined direction. However, when the airflow texture 104 is captured instantaneously, it is considered to represent the distribution of the static α value.

【0109】図4は小雲テクスチャ102の一例を示す
図、図5は雲パーツA(122)(同図(a))及び雲
パーツA用マスク112(同図(b))の一例を示す
図、図6は雲パーツB(124)(同図(a))及び雲
パーツB用マスク114(同図(b))の一例を示す
図、図7は気流テクスチャ104の一例を示す図であ
る。
FIG. 4 shows an example of the small cloud texture 102, and FIG. 5 shows an example of the cloud part A (122) (FIG. 7A) and the mask 112 for cloud part A (FIG. 4B). 6 and 6 are diagrams showing an example of the cloud part B (124) (FIG. 6A) and the mask 114 for the cloud part B (FIG. 6B), and FIG. 7 is a diagram showing an example of the airflow texture 104. is there.

【0110】ここで、小雲テクスチャ102、雲パーツ
A(122),雲パーツB(124)、雲パーツA用マ
スク112、雲パーツB用マスク114および気流テク
スチャ104は、それぞれ36(=6×6)テクセルで
構成されていることとし、各テクセルの座標を[n,
m]と表現する。ただし、n,m=0,1,2,3,
4,5である。また、気流テクスチャ104のテクセル
[n,m]のα値をα[n,m]、雲パーツA(12
2)のテクセル[n,m]のα値をαA[n,m]、雲
パーツB(124)のテクセル[n,m]のα値をαB
[n,m]、小雲テクスチャ102のテクセル[n,
m]のα値をCα[n,m]と表現する。
Here, the small cloud texture 102, the cloud part A (122), the cloud part B (124), the cloud part A mask 112, the cloud part B mask 114 and the air flow texture 104 are each 36 (= 6 ×). 6) It is assumed to be composed of texels, and the coordinates of each texel are [n,
m]. However, n, m = 0, 1, 2, 3,
4 and 5. Also, the α value of texel [n, m] of the airflow texture 104 is α [n, m], and the cloud part A (12
The α value of texel [n, m] of 2) is α A [n, m], and the α value of texel [n, m] of cloud part B (124) is α B.
[N, m], the texel of the cloud texture 102 [n, m]
The α value of m] is expressed as Cα [n, m].

【0111】雲パーツA用マスク112とは、雲パーツ
A(122)の形状を特定するためのビットパターンで
あり、雲パーツB用マスク114とは、雲パーツB(1
24)の形状を特定するためのビットパターンであっ
て、共に、各テクセル[n,m]に“0”または“1”
の値が予め設定されている。
The cloud part A mask 112 is a bit pattern for specifying the shape of the cloud part A (122), and the cloud part B mask 114 is a cloud part B (1).
24) is a bit pattern for specifying the shape, and both are “0” or “1” in each texel [n, m].
The value of is preset.

【0112】まず、雲パーツA(122)の各テクセル
[n,m]に雲パーツA用マスク112の値を設定し、
雲パーツB(124)の各テクセル[n,m]に雲パー
ツB用マスク114の値を設定する。即ち、 αA[n,m]=MA[n,m] αB[n,m]=MB[n,m] …(1) とする。ここで、MA[n,m]は、雲パーツA用マス
ク112の各テクセルのビット値を表し、MB[n,
m]は、雲パーツB用マスク114の各テクセルのビッ
ト値を表す。
First, the value of the mask 112 for the cloud part A is set in each texel [n, m] of the cloud part A (122),
The value of the cloud part B mask 114 is set to each texel [n, m] of the cloud part B (124). That is, α A [n, m] = M A [n, m] α B [n, m] = M B [n, m] (1) Here, M A [n, m] denotes a bit value for each texel clouds parts A mask 112, M B [n,
m] represents the bit value of each texel of the mask 114 for cloud part B.

【0113】この式(1)により、雲パーツA(12
2)と雲パーツB(124)には、値“0”または
“1”による雲の形状が設定されることとなる。
From this equation (1), the cloud part A (12
In 2) and cloud part B (124), the shape of the cloud with the value "0" or "1" is set.

【0114】次に、仮想カメラ100のピッチ角Xに応
じて、雲パーツA(122)の各テクセル[n,m]に
対応する気流テクスチャ104のテクセル[n,m]の
α値を設定するとともに、雲パーツB(124)の各テ
クセル[n,m]に対応する気流テクスチャ104のテ
クセル[n,m]のα値を設定する。即ち、 αA[n,m]←α[n,m]×cosX ×αA[n,m] αB[n,m]←α[n,m]×sin|X|×αB[n,m] …(2) とする。ここで、←は、代入を意味する演算子であり、
右辺の演算結果を左辺の変数に代入することを意味す
る。
Next, according to the pitch angle X of the virtual camera 100, the α value of the texel [n, m] of the airflow texture 104 corresponding to each texel [n, m] of the cloud part A (122) is set. At the same time, the α value of the texel [n, m] of the airflow texture 104 corresponding to each texel [n, m] of the cloud part B (124) is set. That, α A [n, m] ← α [n, m] × cosX × α A [n, m] α B [n, m] ← α [n, m] × sin | X | × α B [n , M] (2). Here, ← is an operator that means assignment,
This means assigning the result of the operation on the right side to the variable on the left side.

【0115】即ち、例えば、雲パーツA(122)に値
“1”が格納されているテクセル[n,m]には、気流
テクスチャ104のα値が反映されることとなり、逆
に、値“0”が格納されているテクセル[n,m]に
は、気流テクスチャ104のα値が反映されないことと
なる。従い、式(1)の雲パーツA用マスク112及び
雲パーツB用マスク114により、雲パーツA(12
2)及び雲パーツB(124)の形状が形作られるとと
もに、気流テクスチャ104のアニメーションによっ
て、雲パーツA(122)及び雲パーツB(124)内
の雲の粒子が時間経過に従って流れていく様を表現する
ことができる。
That is, for example, the α value of the airflow texture 104 is reflected in the texel [n, m] in which the value "1" is stored in the cloud part A (122), and conversely, the value " This means that the α value of the airflow texture 104 is not reflected in the texel [n, m] in which “0” is stored. Therefore, by using the mask 112 for cloud parts A and the mask 114 for cloud parts B of the formula (1), the cloud parts A (12
2) and the shape of the cloud part B (124) are shaped, and the animation of the airflow texture 104 causes the cloud particles in the cloud part A (122) and the cloud part B (124) to flow over time. Can be expressed.

【0116】さらに、式(2)では、仮想カメラ100
のピッチ角Xによって、雲パーツA(122),雲パー
ツB(124)に反映される気流テクスチャ104のα
値が変化することとなる。
Further, in equation (2), the virtual camera 100
Α of the airflow texture 104 reflected in the cloud part A (122) and the cloud part B (124) according to the pitch angle X of
The value will change.

【0117】例えば、仮想カメラ100の視線方向が水
平面と平行になった場合、即ち、ピッチ角X=0°とな
った場合には、 αA[n,m]←α[n,m]×αA[n,m] αB[n,m]←0 ×αB[n,m] となり、雲パーツA(122)のαA[n,m]には、
気流テクスチャ104のα[n,m]が設定されること
となる。また、雲パーツB(124)のαB[n,m]
には、気流テクスチャ104のα[n,m]が反映され
ないこととなる。
For example, when the line of sight of the virtual camera 100 is parallel to the horizontal plane, that is, when the pitch angle X = 0 °, α A [n, m] ← α [n, m] × α A [n, m] α B [n, m] ← 0 × α B [n, m], and α A [n, m] of the cloud part A (122) is
Α [n, m] of the airflow texture 104 is set. Also, α B [n, m] of cloud part B (124)
Does not reflect α [n, m] of the airflow texture 104.

【0118】同様に、ピッチ角X=45°となった場合
には、 αA[n,m]←α[n,m]×(1/√2)×α
A[n,m] αB[n,m]←α[n,m]×(1/√2)×α
B[n,m] となる。
Similarly, when the pitch angle X = 45 °, α A [n, m] ← α [n, m] × (1 / √2) × α
A [n, m] α B [n, m] ← α [n, m] × (1 / √2) × α
B [n, m].

【0119】また、仮想カメラ100の視線方向が真上
あるいは真下となった場合、即ち、ピッチ角X=90°
あるいは−90°となった場合には、 αA[n,m]←0 ×αA[n,m] αB[n,m]←α[n,m]×αB[n,m] となり、雲パーツB(124)のαB[n,m]には、
気流テクスチャ104のα[n,m]が設定されること
となるが、雲パーツA(122)のαA[n,m]に
は、気流テクスチャ104のα[n,m]が反映されな
いこととなる。
When the line-of-sight direction of the virtual camera 100 is directly above or below, that is, the pitch angle X = 90 °.
Alternatively, in the case of −90 °, α A [n, m] ← 0 × α A [n, m] α B [n, m] ← α [n, m] × α B [n, m] Then, in α B [n, m] of cloud part B (124),
Alpha [n, m] of the air current texture 104 but is to be set, α A [n, m] clouds part A (122), the fact that alpha [n, m] of the air flow texture 104 are not reflected Becomes

【0120】またここで、雲パーツA(122)と雲パ
ーツB(124)とで、反映させる気流テクスチャ10
4の気流の方向を変更することとしてもよい。例えば、
式(2)を以下のように変形する。 αA[n,m]←α[n,m]×cosX×αA[n,
m] αB[n,m]←α[(5−n),(5−m)]×si
n|X|×αB[n,m] このような式とすることにより、同一の気流テクスチャ
104を用いているが、簡単に、雲パーツA(122)
と雲パーツB(124)とで、気流の方向を変えること
が可能である。また更に式(2)を変形することによ
り、気流テクスチャ104の一部分を拡大して、雲パー
ツA(122)と雲パーツB(124)とに反映させる
こととしても良い。
Further, here, the air flow texture 10 to be reflected by the cloud part A (122) and the cloud part B (124).
The direction of the air flow of 4 may be changed. For example,
Formula (2) is modified as follows. α A [n, m] ← α [n, m] × cos X × α A [n,
m] α B [n, m] ← α [(5-n), (5-m)] × si
n | X | × α B [n, m] By using such a formula, the same airflow texture 104 is used, but the cloud part A (122) can be simply described.
With the cloud part B (124), it is possible to change the direction of the air flow. Further, by further modifying the equation (2), a part of the airflow texture 104 may be enlarged and reflected in the cloud part A (122) and the cloud part B (124).

【0121】次に、雲パーツA(122)の各テクセル
[n,m]のα値と、雲パーツB(124)の各テクセ
ル[n,m]のα値とを合算することにより、小雲テク
スチャ102の各テクセル[n,m]のα値を決定す
る。即ち、 Cα[n,m]=αA[n,m]+αB[n,m] ・・・(3) として決定される。但し、式(3)においては、α値が
“1.0”を超える場合が起こり得、この場合には、そ
のテクセルのα値は“1.0”とする。
Next, the α value of each texel [n, m] of the cloud part A (122) and the α value of each texel [n, m] of the cloud part B (124) are summed to obtain a small value. The α value of each texel [n, m] of the cloud texture 102 is determined. That, Cα [n, m] = α A [n, m] + α B [n, m] is determined as (3). However, in the formula (3), the α value may exceed “1.0”, and in this case, the α value of the texel is set to “1.0”.

【0122】図8(c)は気流テクスチャ104の一例
を示す図であり、同図(a)、(b)はこの気流テクス
チャ104の不透明度(α値)が反映された、雲パーツ
A(122)(同図(a))、雲パーツB(124)
(同図(b))の一例を示す図である。また、図9は、
上記雲パーツA(122)、雲パーツB(124)の合
成により生成された小雲テクスチャ102の一例を示す
図である。同図(a)は、ピッチ角X=90°の場合
を、同図(b)は、ピッチ角X=45°の場合を、同図
(c)は、ピッチX=0°の場合を、それぞれ表す図で
ある。尚、図8及び図9においては、α値を視覚的に把
握しやすくするために、α値が“1”の部分を“白色”
に、またα値が“0”に近づくにつれ“黒色”に近づく
ように表現されている。即ち、図8及び図9は、α値を
色の濃淡として表した図である。
FIG. 8C is a diagram showing an example of the airflow texture 104, and FIGS. 8A and 8B show the cloud part A () in which the opacity (α value) of the airflow texture 104 is reflected. 122) ((a) in the figure), Cloud Parts B (124)
It is a figure which shows an example of the same figure (b). In addition, FIG.
It is a figure which shows an example of the small cloud texture 102 produced | generated by synthesize | combining the said cloud part A (122) and the cloud part B (124). FIG. 7A shows the case of pitch angle X = 90 °, FIG. 7B shows the case of pitch angle X = 45 °, and FIG. 7C shows the case of pitch X = 0 °. It is a figure showing each. In FIGS. 8 and 9, in order to make it easy to visually recognize the α value, the portion where the α value is “1” is “white”.
And as the α value approaches “0”, it approaches “black”. That is, FIGS. 8 and 9 are diagrams in which the α value is represented as the shade of color.

【0123】以上のように、本原理においては、雲パー
ツA(122)と雲パーツB(124)とを仮想カメラ
100のピッチ角Xに応じて合成することとしたため、
単純な手法ながらも立体感のある雲を表現することがで
きる。
As described above, according to the present principle, the cloud part A (122) and the cloud part B (124) are combined according to the pitch angle X of the virtual camera 100.
Although it is a simple method, it is possible to express a cloud with a three-dimensional effect.

【0124】即ち、従来においては、雲のテクスチャを
マッピングさせた1枚のポリゴン(以下、ペラポリゴン
という。)を、常に、仮想カメラ100に対する上下左
右位置を固定し、かつ、仮想カメラ100の視線方向に
垂直に配置する方法が採られていた。しかしこの方法に
よると、仮想カメラ100の位置や視線方向等が変化し
ても雲は全く変化しないため、違和感のある表現であっ
た。またさらに、仮想カメラ100の視線方向の変化に
対して、雲のペラポリゴンが意図しない変化をする事象
が発生する。即ち、例えば視線方向の仰角あるいは俯角
が大きくなると、±90°の角度を境にして、雲が反転
して表現されてしまう。
That is, in the prior art, one polygon (hereinafter referred to as a peller polygon) onto which the texture of a cloud is mapped is always fixed in the vertical and horizontal positions with respect to the virtual camera 100, and the line-of-sight direction of the virtual camera 100 is fixed. The method of arranging vertically was adopted. However, according to this method, the cloud does not change at all even if the position of the virtual camera 100, the direction of the line of sight, or the like changes, and thus the expression is uncomfortable. Furthermore, an event occurs in which the peller polygon of the cloud changes unintentionally with respect to the change of the line-of-sight direction of the virtual camera 100. That is, for example, when the elevation angle or the depression angle in the line-of-sight direction becomes large, the cloud is inverted and expressed at the angle of ± 90 °.

【0125】これは、仮想カメラ100のピッチ角(仰
角あるいは俯角)として取り得る角度範囲が−90°〜
90°であるため、±90゜を超えたピッチ角θ2は、
図10に示すように、θ2’(<90゜)と設定される
ことに起因する。
This is because the pitch angle (elevation angle or depression angle) of the virtual camera 100 can be in the range of −90 °.
Since it is 90 °, the pitch angle θ 2 exceeding ± 90 ° is
This is due to the setting of θ 2 ′ (<90 °) as shown in FIG.

【0126】本原理はこの意図しない小雲テクスチャ1
02の反転表現をも解決するものである。即ち、2枚の
雲パーツA(122),雲パーツB(124)を用意
し、仮想カメラ100のピッチ角に応じて合成すること
により、ある角度で雲が反転するという事象は発生し得
ない。
This principle is based on this unintended cloud texture 1
It also solves the inversion expression of 02. That is, by preparing two cloud parts A (122) and cloud parts B (124) and synthesizing them according to the pitch angle of the virtual camera 100, the phenomenon that the cloud is inverted at a certain angle cannot occur. .

【0127】また、ピッチ角Xの変化に応じて、徐々に
2枚の雲パーツA(122),雲パーツB(124)の
合成比率を変化させることにより(即ち、2枚の雲パー
ツA(122),雲パーツB(124)の不透明度αを
決定することに該当する)、仮想カメラ100のピッチ
角の変化に応じて、なめらかに雲の形状を変化させて、
表現することができる。
Further, the composition ratio of the two cloud parts A (122) and B (124) is gradually changed according to the change of the pitch angle X (that is, the two cloud parts A ( 122), which corresponds to determining the opacity α of the cloud part B (124)), and smoothly changes the shape of the cloud according to the change in the pitch angle of the virtual camera 100,
Can be expressed.

【0128】更に、各雲パーツA(122),雲パーツ
B(124)それぞれに気流テクスチャ104が合成さ
れるため、2枚の雲パーツA(122),雲パーツB
(124)の雲縁を曖昧にすることができ、より自然な
雲を表現することができる。
Furthermore, since the airflow texture 104 is combined with each cloud part A (122) and cloud part B (124), two cloud parts A (122) and cloud parts B are used.
The cloud edge of (124) can be made ambiguous, and a more natural cloud can be expressed.

【0129】次に、小雲生成原理のみで雲を実現する場
合について説明する。上記説明においては、小雲テクス
チャ102をαテクスチャとして生成する方法について
説明したが、以下の処理を追加することにより、雲とし
ての表現を実現することができる。
Next, the case where a cloud is realized only by the small cloud generation principle will be described. In the above description, the method of generating the small cloud texture 102 as an α texture has been described, but the expression as a cloud can be realized by adding the following processing.

【0130】第1の方法は、生成された小雲テクスチャ
102を構成する各テクセルに、そのテクセルのα値に
応じたRGB値を決定し、雲を表現する方法である。
The first method is a method of expressing a cloud by determining RGB values corresponding to the α value of the texel in each texel forming the generated cloud cloud texture 102.

【0131】具体的には、例えば、小雲テクスチャ10
2の色をモノクロで表現する場合、“白色”のRGB値
は(255,255,255)であり、“黒色”のRG
B値は(0,0,0)である。従い、生成された小雲テ
クスチャ102において、α値が“1”であるテクセル
に対しては、“白色”となるようにRGB値(255,
255,255)を設定し、α値が“0”に近づくにつ
れて、段々と白色が薄くなっていくように、そのテクセ
ルのRGB値を設定する(例えば、RGB値=255×
α値)。
Specifically, for example, the cloud texture 10
When expressing two colors in monochrome, the RGB value of “white” is (255, 255, 255), and the RG of “black”
The B value is (0,0,0). Therefore, in the generated cloud texture 102, the RGB value (255, 255) is set so that the texel having an α value of “1” becomes “white”.
255, 255), and the RGB value of the texel is set so that the white becomes gradually lighter as the α value approaches “0” (for example, RGB value = 255 ×).
α value).

【0132】このことにより、図9に示すような、濃淡
がある雲の表現を容易に実現することができる。
As a result, it is possible to easily realize the expression of a cloud having shading as shown in FIG.

【0133】第2の方法は、雲パーツA(122),雲
パーツB(124)を構成する各テクセルに予めRGB
値を設定しておく方法である。
In the second method, RGB values are preliminarily assigned to each texel forming the cloud part A (122) and the cloud part B (124).
It is a method of setting the value.

【0134】具体的には、雲パーツA(122),雲パ
ーツB(124)の各テクセルにRGB値を予め設定し
ておき、各テクセルのα値を気流テクスチャ104によ
り決定する。そして、雲パーツA(122),雲パーツ
B(124)をαブレンディングすることにより小雲テ
クスチャ102を生成する。
Specifically, RGB values are set in advance in each texel of the cloud part A (122) and cloud part B (124), and the α value of each texel is determined by the airflow texture 104. Then, the cloud part 102 is generated by α-blending the cloud part A (122) and the cloud part B (124).

【0135】このことにより、例えば、雲パーツA(1
22)に予め設定する色を“黒色”のみ、雲パーツB
(124)に予め設定する色を“白色”のみとすると、
水平方向から小雲テクスチャ102を見た場合(ピッチ
角X=0゜の場合)には、小雲テクスチャ102の色は
“黒色”となる。そして、徐々にピッチ角Xが変化する
ことにより、次第に“灰色”(“黒色”に“白色”が混
じった色)に見え、更にピッチ角Xを大きくすると、
“白色”の混じる割合が大きくなり、ついには上方ある
いは下方から見ると(ピッチ角X=90゜の場合)
“白色”に見える雲の表現を実現することができる。
As a result, for example, the cloud part A (1
22) The only preset color is "black", and cloud part B
If the only color preset in (124) is “white”,
When the cloud texture 102 is viewed from the horizontal direction (when the pitch angle is X = 0 °), the color of the cloud texture 102 is “black”. Then, as the pitch angle X gradually changes, it gradually appears as "gray" (a color in which "white" is mixed with "black"), and when the pitch angle X is further increased,
The proportion of "white" mixed in becomes large, and finally when viewed from above or below (when the pitch angle X = 90 °)
It is possible to realize the expression of clouds that look “white”.

【0136】尚、各雲パーツA(122),雲パーツB
(124)に予め設定する雲の色(RGB値)を任意に
変更することにより、仮想カメラ100の視線のピッチ
角Xによって、様々に色が異なる雲の表現を実現するこ
とができる。
Each cloud part A (122), cloud part B
By arbitrarily changing the cloud color (RGB value) preset to (124), it is possible to realize the cloud expression having various different colors depending on the pitch angle X of the line of sight of the virtual camera 100.

【0137】また、例えば、雲パーツB(124)とし
て、仮想カメラ100のピッチ角Xが俯角の場合に用い
る雲パーツB−1と、仮想カメラ100のピッチ角Xが
仰角の場合に用いる雲パーツB−2との2種類の雲パー
ツBを設定しておき、仮想カメラのピッチ角Xに応じ
て、雲パーツB−1と雲パーツB−2とを切り換えるこ
ととしても良い。例えば、1種類の雲パーツB(12
4)を用いて小雲テクスチャ102を生成する場合に
は、小雲の上面を見た場合と下面を見た場合とで同じ小
雲テクスチャが生成されるが、雲パーツB−1と雲パー
ツB−2とを切り換えることにより、小雲の上面を見た
場合の小雲テクスチャ102と小雲の下面を見た場合の
小雲テクスチャ102とで、小雲の形状が異なるように
することができ、より矛盾のない雲の形状を実現でき
る。
For example, as the cloud part B (124), the cloud part B-1 used when the pitch angle X of the virtual camera 100 is a depression angle and the cloud part used when the pitch angle X of the virtual camera 100 is an elevation angle. It is also possible to set two types of cloud parts B, B-2, and to switch between cloud parts B-1 and B-2 according to the pitch angle X of the virtual camera. For example, one type of cloud part B (12
4) is used to generate the cloud texture 102, the same cloud texture is generated when the top surface and the bottom surface of the cloud are viewed, but the cloud part B-1 and the cloud part B are generated. By switching between -2, the shape of the cloud can be made different between the cloud texture 102 when the top surface of the cloud is viewed and the cloud texture 102 when the bottom surface of the cloud is viewed, A more consistent cloud shape can be achieved.

【0138】同様に、雲パーツA(122)として、仮
想カメラ100のヨー角Yに対応する複数種類の雲パー
ツA(122)を設定しておき、仮想カメラ100のヨ
ー角Yに応じて雲パーツAを切り換えることとしても良
い。
Similarly, as the cloud part A (122), a plurality of types of cloud parts A (122) corresponding to the yaw angle Y of the virtual camera 100 are set, and the cloud depending on the yaw angle Y of the virtual camera 100 is set. The parts A may be switched.

【0139】なお、上記小雲生成原理において生成した
各雲パーツA(122),雲パーツB(124)には、
気流テクスチャのα値が反映されており、この2種類の
雲パーツA(122),雲パーツB(124)を合成し
て小雲テクスチャ102を生成している。このため、小
雲テクスチャ102は、全体に気流がかかった雲として
表現されることとなり、雲の粒子が雲全体に渡って動い
ているように表現される。リアリスティックな雲を表現
する場合には、このような現象は必ずしも良いとはいえ
ない。
The cloud parts A (122) and the cloud parts B (124) generated by the above-mentioned small cloud generation principle are
The α value of the airflow texture is reflected, and the small cloud texture 102 is generated by synthesizing the two types of cloud part A (122) and cloud part B (124). For this reason, the small cloud texture 102 is expressed as a cloud having an airflow over the entire cloud, and the particles of the cloud are expressed as if they are moving over the entire cloud. Such a phenomenon is not necessarily good when expressing a realistic cloud.

【0140】しかしながら、後述する中雲生成原理に基
づいて、この小雲テクスチャ102を複数使用して中雲
を生成することにより、ある範囲に小雲テクスチャ10
2を集中させて中雲テクスチャを生成するため、中心の
透明度が低く、周辺に近づくにつれて透明度が高くなる
中雲テクスチャが生成される。そのため、中雲の縁にの
みに気流が表現される、リアルな雲を表現することがで
きる。
However, based on the medium cloud generation principle described later, a plurality of small cloud textures 102 are used to generate a medium cloud, so that the small cloud texture 10 is generated in a certain range.
Since 2 is concentrated to generate a middle cloud texture, a middle cloud texture with low transparency at the center and high transparency as it approaches the periphery is generated. Therefore, it is possible to express a realistic cloud in which the airflow is expressed only at the edge of the middle cloud.

【0141】1−(2)中雲生成原理 次に中雲生成原理について説明する。ここで、中雲と
は、小さな雲(小雲)を寄せ集めた集合体を意味する。
また、小雲とは、前述の方法により生成した不透明度
(α値)のみを有する小雲テクスチャ102の意であ
り、これを32個複製し、中雲モデル空間に3次元的に
分布させることにより中雲を生成する。中雲モデル空間
とは、中雲を生成するためのローカル座標系のことであ
る(以下、この中雲モデル空間を中雲座標系とい
う。)。そして、3次元的に配置された各小雲テクスチ
ャ102の不透明度を、仮想カメラ100に基づいて描
画するとともに、仮想カメラ100と光源との位置関係
に応じた色を着色することにより、中雲テクスチャを生
成する。
1- (2) Middle Cloud Generation Principle Next, the middle cloud generation principle will be described. Here, the middle cloud means a collection of small clouds (small clouds).
The small cloud means the small cloud texture 102 having only the opacity (α value) generated by the above-described method, and 32 copies of this texture are three-dimensionally distributed in the middle cloud model space. To generate a medium cloud. The middle cloud model space is a local coordinate system for generating a middle cloud (hereinafter, this middle cloud model space is referred to as a middle cloud coordinate system). Then, the opacity of each small cloud texture 102 arranged three-dimensionally is drawn based on the virtual camera 100, and a color corresponding to the positional relationship between the virtual camera 100 and the light source is colored, so that the middle cloud Generate a texture.

【0142】具体的には、1つの中雲を、32枚のペラ
ポリゴンにより構成する。ただし、各ペラポリゴンの表
面(ただし、仮想カメラ100に面する側)には、小雲
テクスチャ102のαテクスチャがマッピングされる。
また、各ペラポリゴンは、中雲座標系における代表点の
座標と大きさのみが定義されたものであり、ゲーム実行
中においては、その面が仮想カメラ100の視線方向に
対して垂直に交わるように回転するビルボードである。
Specifically, one middle cloud is composed of 32 pieces of Pella polygons. However, the α texture of the small cloud texture 102 is mapped on the surface of each peller polygon (however, the side facing the virtual camera 100).
Further, each of the peller polygons has only the coordinates and size of the representative point in the middle cloud coordinate system defined, and its surface may intersect perpendicularly to the line-of-sight direction of the virtual camera 100 during game execution. It is a rotating billboard.

【0143】以下では、この中雲を構成する個々のペラ
ポリゴンを、小雲ビルボードという。そして、中雲テク
スチャを生成する際には、まず、小雲テクスチャ102
により指定された各小雲ビルボードのα値を、仮想カメ
ラ100に基づいて所与の平面座標上に描画する。また
一方では、中雲に与える色情報を、オブジェクト空間に
おける仮想カメラ100と光源との位置関係に応じて決
定し、描画されたα値に従って着色することにより中雲
テクスチャを生成する。
In the following, the individual peller polygons forming this middle cloud will be referred to as small cloud billboards. Then, when generating the medium cloud texture, first, the small cloud texture 102 is generated.
The α value of each small cloud billboard designated by is drawn on a given plane coordinate based on the virtual camera 100. On the other hand, the color information given to the cloud is determined according to the positional relationship between the virtual camera 100 and the light source in the object space, and the cloud texture is generated by coloring according to the drawn α value.

【0144】なお、小雲テクスチャ102を生成する際
に、雲パーツA(122)、雲パーツB(124)は、
仮想カメラ100のロール角Zに応じて回転させるた
め、生成される小雲テクスチャ102は、仮想カメラ1
00のロール角Zに応じて上下左右位置が変化する。そ
のため、その小雲テクスチャ102をマッピングした小
雲ビルボード102は、上下左右位置が仮想カメラ10
0のロール角Zに応じたものとなるため、代表点に配置
するだけで良い。
When the small cloud texture 102 is generated, the cloud part A (122) and the cloud part B (124) are
Since the virtual cloud 100 is rotated according to the roll angle Z, the generated cloud texture 102 is generated by the virtual camera 1.
The vertical and horizontal positions change according to the roll angle Z of 00. Therefore, the small cloud billboard 102 onto which the small cloud texture 102 is mapped has the vertical, horizontal and horizontal positions of the virtual camera 10.
Since it depends on the roll angle Z of 0, it suffices to arrange it at the representative point.

【0145】図11は、本発明を適用することによって
生成した4種の中雲202、204、206、208の
画像例を示す図である。同図に示した各中雲は、32個
の小雲ビルボードをそれぞれ異なる分布で配置し、それ
以外の全ての条件を同一に設定して生成したものであ
る。即ち、各中雲の画像生成において、各小雲ビルボー
ドにマッピングしたαテクスチャ(即ち、小雲テクスチ
ャ102)は全て同一であり、また、各中雲と仮想カメ
ラ100との位置関係や、オブジェクト空間における仮
想カメラ100と光源との位置関係等の設定も全て等し
くした。同図によれば、各中雲は、形状や透明さ、立体
感等の見え方が異なる。このように、本発明では、32
個の小雲ビルボードの分布を変化させるだけで、複数の
異なる中雲を生成する。また、オブジェクト空間におけ
る仮想カメラ100と光源の位置関係に基づいて色情報
を決定することとしたため、各画像から類推される光源
の方向が等しいものとして認識できる。
FIG. 11 is a diagram showing an example of images of four types of middle clouds 202, 204, 206 and 208 generated by applying the present invention. Each middle cloud shown in the figure is generated by arranging 32 small cloud billboards with different distributions and setting all other conditions to the same. That is, in the image generation of each middle cloud, the α textures (that is, the small cloud textures 102) mapped to each small cloud billboard are all the same, and the positional relationship between each middle cloud and the virtual camera 100, and the object. The settings such as the positional relationship between the virtual camera 100 and the light source in the space were all the same. According to the figure, each cloud has different appearance such as shape, transparency, and stereoscopic effect. Thus, in the present invention, 32
By simply changing the distribution of each small cloud billboard, multiple different middle clouds are generated. Further, since the color information is determined based on the positional relationship between the virtual camera 100 and the light source in the object space, it is possible to recognize that the directions of the light sources inferred from the respective images are the same.

【0146】以下では、図11に示すような4つの中雲
202、204、206、208のテクスチャ(以下、
中雲テクスチャ)を生成する方法について、詳細に説明
する。なお、以下では、初期設定として、各中雲を構
成する小雲ビルボードを分布させる方法について説明し
た後、小雲ビルボードの描画として、小雲ビルボード
の集合体を描画する方法、即ち、各小雲ビルボードの不
透明度αを描画し、着色する方法について説明する。
In the following, the textures of the four middle clouds 202, 204, 206 and 208 as shown in FIG.
A method of generating a medium cloud texture) will be described in detail. In the following, as an initial setting, after explaining a method of distributing the small cloud billboards forming each medium cloud, as the drawing of the small cloud billboards, a method of drawing an aggregate of small cloud billboards, that is, A method of drawing and coloring the opacity α of each small cloud billboard will be described.

【0147】初期設定 初期設定では、小雲ビルボードの分布と、各小雲ビルボ
ードの大きさについて設定する。具体的には、中雲1つ
1つに対して、中雲座標系を定義し、32個の小雲ビル
ボードの座標を設定するとともに、各小雲ビルボードの
大きさを決定し、各中雲のデータとして記憶する。な
お、小雲ビルボードの大きさや分布の設定については、
より自然体に近い中雲を生成するために、乱数を用いて
行う。即ち、各小雲ビルボードの座標および大きさを乱
数により決定する。
Initial Settings In the initial settings, the distribution of small cloud billboards and the size of each small cloud billboard are set. Specifically, the medium cloud coordinate system is defined for each medium cloud, the coordinates of 32 small cloud billboards are set, and the size of each small cloud billboard is determined. It is stored as the data of Nakamura. Regarding the size and distribution settings of the Komomu billboard,
In order to generate a medium cloud that is closer to the natural body, we use random numbers. That is, the coordinates and size of each small cloud billboard are determined by random numbers.

【0148】小雲ビルボードの座標を決定する際には、
座標における各成分毎に乱数を発生する。ただし、乱数
を無制限に発生させた場合、不必要に大きい値が得られ
る可能性がある。このため、生成する乱数に下限と上限
を設け、所定の範囲内の値が得られるように設定する。
ただし、乱数を発生したとき、下限から上限に至る範囲
内の全ての値について出現確立が等しい。従って、得ら
れた乱数を小雲ビルボードの座標成分として直接採用し
た場合、32個の小雲ビルボードは、所与の立方体内に
満遍なく分布されることとなり、図11に示す中雲のよ
うな一部に寄り集まった雲を表現することができない。
そこで、分布に偏りを持たせるために、1つの小雲ビル
ボードの座標を決定する際に、各座標の1成分につき複
数の乱数を発生して、その平均の値を採用する。
When determining the coordinates of the small cloud billboard,
A random number is generated for each component in the coordinates. However, if random numbers are generated indefinitely, an unnecessarily large value may be obtained. For this reason, a lower limit and an upper limit are set for the generated random numbers, and settings are made so that values within a predetermined range can be obtained.
However, when a random number is generated, the probability of appearance is the same for all values within the range from the lower limit to the upper limit. Therefore, if the obtained random numbers are directly adopted as the coordinate components of the small cloud billboard, the 32 small cloud billboards will be evenly distributed in a given cube, like the middle cloud shown in FIG. It is not possible to express the clouds gathered in one part.
Therefore, in order to impart a bias to the distribution, when determining the coordinates of one small cloud billboard, a plurality of random numbers are generated for each component of each coordinate and the average value is adopted.

【0149】具体的には、各成分の値を次の式により決
定する。 xn=(R1+R2+R3+R4)/4−(Rmax−Rmin)/2 yn=(R5+R6+R7+R8)/4−(Rmax−Rmin)/2 zn=(R9+R10+R11+R12)/4−(Rmax−Rmin)/2 …(4) ここに、(xn、yn、zn)は、1つの中雲を構成する
n番目のビルボードの座標を意味し、R1〜R12は、そ
れぞれ独立に発生した乱数を示す。また、Rmaxは、発
生させる乱数の最大値(上限)を、Rminは、最小値
(下限)をそれぞれ意味する。例えば、Rmax=10
0、Rmin=0として設定すれば、乱数の発生範囲は、
中雲座標系における原点を中心とし、一辺の長さが“1
00”の立方体となる。
Specifically, the value of each component is determined by the following formula. x n = (R 1 + R 2 + R 3 + R 4) / 4- (R max -R min) / 2 y n = (R 5 + R 6 + R 7 + R 8) / 4- (R max -R min) / 2 z n = (R 9 + R 10 + R 11 + R 12) / 4- (R max -R min) / 2 ... (4) here, (x n, y n, z n) are configured one Chukumo Means the coordinates of the n-th billboard, and R 1 to R 12 represent independently generated random numbers. Further, R max means the maximum value (upper limit) of the generated random number, and R min means the minimum value (lower limit). For example, R max = 10
If 0 and R min = 0 are set, the random number generation range is
Centering on the origin in the middle cloud coordinate system, the length of one side is "1"
It becomes a cube of 00 ".

【0150】図12は、中雲座標系(x、y、z)の斜
視図であり、式(4)に基づいて小雲ビルボードの代表
点を分布させた一例を示すものである。同図における破
線は、乱数の発生範囲を示す。また、各小雲ビルボード
の代表点の座標を点により示した。このように、式
(4)を用いて、複数の乱数により小雲ビルボードの座
標を決定することによって、原点に偏った分布をする小
雲ビルボードの集合体を構成することができる。
FIG. 12 is a perspective view of the middle cloud coordinate system (x, y, z), showing an example in which representative points of the small cloud billboard are distributed based on the equation (4). The broken line in the figure shows the range of random number generation. In addition, the coordinates of the representative points of each small cloud billboard are shown by points. As described above, by using the formula (4) to determine the coordinates of the cloud cloud billboard by a plurality of random numbers, it is possible to configure an assembly of cloud cloud billboards having a distribution biased to the origin.

【0151】なお、式(4)では、1成分につき、4つ
の乱数を用いることとして説明したが、この数に限定す
る必要はない。例えば、採用する乱数の数を増やせば、
小雲ビルボードが原点の近くに配置される可能性がより
高くなり、更に偏った分布を実現できる。逆に、採用す
る乱数の数を少なく設定すれば、偏りが小さい分布を施
すことができる。このことは、式(4)において、乱数
の発生範囲を操作することによっても同様の効果が認め
られる。即ち、乱数の発生範囲を大きく設定すれば、分
布の偏りが小さくなり、発生範囲を小さく設定すれば、
分布の偏りを大きくすることができる。従って、生成す
る中雲の形状や大きさ、立体感等に応じて採用する乱数
の数や範囲を変更してもよい。
In the formula (4), four random numbers are used for one component, but the number is not limited to this. For example, if you increase the number of random numbers adopted,
The small cloud billboard is more likely to be placed near the origin, and a more skewed distribution can be achieved. Conversely, if the number of adopted random numbers is set to be small, a distribution with a small bias can be applied. This means that the same effect can be recognized by manipulating the random number generation range in Expression (4). That is, if the random number generation range is set large, the bias of the distribution is reduced, and if the generation range is set small,
The distribution bias can be increased. Therefore, the number and range of random numbers to be adopted may be changed according to the shape and size of the generated middle cloud, the stereoscopic effect, and the like.

【0152】一方、小雲ビルボードの大きさは、次のよ
うにして決定する。即ち、1つ1つの小雲ビルボードを
正方形として定義し、その一辺の長さwsを乱数により
決定する。 ws=1.0+Rw …(5) ここに、Rwは、乱数を意味し、その発生範囲を0.0
≦Rw≦1.0とする。即ち、各中雲を、一辺の長さw
sが1.0≦ws≦2.0を満たす、様々な大きさの小
雲ビルボードの集合体により構成することができる。
On the other hand, the size of the small cloud billboard is determined as follows. That is, each small cloud billboard is defined as a square, and the length ws of one side thereof is determined by a random number. ws = 1.0 + R w (5) Here, R w means a random number, and its generation range is 0.0.
≦ R w ≦ 1.0. That is, each middle cloud has a side length w
It can be constituted by an assembly of small cloud billboards of various sizes, where s satisfies 1.0 ≦ ws ≦ 2.0.

【0153】図13は、上記初期設定により決定された
各小雲ビルボードの座標と大きさを記憶する4つの小雲
分布データ210a〜dの一例を示す図である。同図に
よれば、4つの小雲分布データ210a〜dには、それ
ぞれの中雲を構成する小雲ビルボードのコード(N
O.)と、各小雲ビルボードを配置する座標の各成分、
および、一辺の長さwsが記憶される。ゲーム実行中に
おいては、小雲分布データ210a〜dに記憶されたデ
ータに基づいて、各小雲ビルボードを制御する。なお、
同図においては、4つの中雲に対応する小雲分布データ
210a〜dをそれぞれ独立して記憶することとして示
したが、4つの中雲の小雲ビルボードをまとめて記憶さ
せてもよい。即ち、128個の小雲ビルボードを1つの
小雲分布データとして記憶してもよい。また、上記初期
設定は、ゲームを実行する直前に行い、毎回異なる中雲
を生成する構成にしてもよい。
FIG. 13 is a diagram showing an example of four small cloud distribution data 210a to 210d which store the coordinates and size of each small cloud billboard determined by the initial setting. According to the figure, the four cloud distribution data 210a to 210d include the code (N
O. ), And each component of the coordinates to place each small cloud billboard,
Also, the length ws of one side is stored. During the game execution, each cloud cloud billboard is controlled based on the data stored in the cloud distribution data 210a to 210d. In addition,
In the figure, the small cloud distribution data 210a to 210d corresponding to the four medium clouds are shown as being stored independently, but the small cloud billboards of the four medium clouds may be stored together. That is, 128 cloud cloud billboards may be stored as one cloud distribution data. The initial setting may be performed immediately before the game is executed, and a different middle cloud may be generated each time.

【0154】小雲ビルボードの描画 続いて、ゲーム実行中において、小雲ビルボードを描画
する処理について説明する。
Drawing a Cloud Cloud Billboard Next, a process of drawing a cloud cloud billboard during the execution of the game will be described.

【0155】図14(a)は、中雲座標系(x、y、
z)を模式的に描いたものであり、小雲ビルボード24
−1〜32を描画するための仮想カメラ(以下、雲視点
220という)と、中雲座標系の原点と、投影スクリー
ン22との位置関係を説明するための図である。ここ
に、投影スクリーン22とは、小雲ビルボード24−1
〜32の集合体を投影するための投影面であり、その面
は、ワールド座標系における仮想カメラ100の視線ベ
クトル34に対して垂直に交わる関係にある。また、同
図に示すように、雲視点220と、中雲座標系の原点
と、投影スクリーン22の中心点22aとは、ワールド
座標系における仮想カメラ100の視線ベクトル34と
平行な1つの直線26上に配置される。従って、雲視点
220の視線ベクトルは、ワールド座標系における仮想
カメラ100の視線ベクトル34と等しくなる。なお、
中雲座標系において、原点に対する雲視点220と投影
スクリーン22の距離を、それぞれ一定とする。
FIG. 14A shows the middle cloud coordinate system (x, y,
z) is a schematic depiction of the Komo billboard 24
It is a figure for demonstrating the positional relationship of the virtual camera (henceforth cloud viewpoint 220) for drawing -1 to 32, the origin of a middle cloud coordinate system, and the projection screen 22. Here, the projection screen 22 is a small cloud billboard 24-1.
Is a projection plane for projecting the aggregate of .about.32, and the plane is perpendicular to the line-of-sight vector 34 of the virtual camera 100 in the world coordinate system. Further, as shown in the figure, the cloud viewpoint 220, the origin of the middle cloud coordinate system, and the center point 22a of the projection screen 22 are one straight line 26 parallel to the line-of-sight vector 34 of the virtual camera 100 in the world coordinate system. Placed on top. Therefore, the line-of-sight vector of the cloud viewpoint 220 becomes equal to the line-of-sight vector 34 of the virtual camera 100 in the world coordinate system. In addition,
In the middle cloud coordinate system, the distance between the cloud viewpoint 220 and the projection screen 22 with respect to the origin is fixed.

【0156】図14(b)は、オブジェクト空間を定義
するワールド座標系(Xw、Yw、Zw)と、(a)に
示す中雲座標系(x、y、z)とを示した図である。同
図によれば、オブジェクト空間を映し出すためのスクリ
ーン32と仮想カメラ100とを結ぶ直線36と、中雲
座標系の原点を経由した雲視点220と、投影スクリー
ン22の中心点22aとを結ぶ直線26とが平行であ
る。即ち、ゲーム実行中において、ワールド座標系にお
ける仮想カメラ100とスクリーン32の座標を決定す
ると、仮想カメラ100からスクリーン32に向かう視
線ベクトル34を算出する。そして、この視線ベクトル
34の傾きに基づいて、中雲座標系における雲視点22
0と投影スクリーン22の座標を決定する。なお、図1
4(b)において、位置関係を説明するために、ワール
ド座標系内に中雲座標系を配置したが、実際に配置する
ものではない。従って、小雲ビルボード24の分布は、
ワールド座標系における他のオブジェクトの配置・描画
を妨げるものではない。
FIG. 14B shows the world coordinate system (Xw, Yw, Zw) defining the object space and the middle cloud coordinate system (x, y, z) shown in FIG. 14A. . According to the figure, a straight line 36 connecting the screen 32 for displaying the object space and the virtual camera 100, a cloud viewpoint 220 passing through the origin of the middle cloud coordinate system, and a straight line connecting the center point 22a of the projection screen 22. 26 is parallel to. That is, when the coordinates of the virtual camera 100 and the screen 32 in the world coordinate system are determined during the game execution, the line-of-sight vector 34 from the virtual camera 100 toward the screen 32 is calculated. Then, based on the inclination of the line-of-sight vector 34, the cloud viewpoint 22 in the middle cloud coordinate system.
0 and the coordinates of the projection screen 22 are determined. Note that FIG.
In FIG. 4B, the middle cloud coordinate system is arranged in the world coordinate system in order to explain the positional relationship, but it is not actually arranged. Therefore, the distribution of Komo billboard 24 is
It does not prevent the placement and drawing of other objects in the world coordinate system.

【0157】このように、仮想カメラ100の視線ベク
トル34と平行になるように、雲視点220と投影スク
リーン22との位置を決定し、雲視点220に基づい
て、各小雲ビルボードを投影スクリーン22上に投影変
換する。但し、このとき、中雲座標系における32個の
小雲ビルボード24−1〜32の面がそれぞれ仮想カメ
ラ100の視線ベクトル34に対して垂直に交わるよう
に、各小雲ビルボードの頂点の座標を決定する。そし
て、各頂点について、投影スクリーン22への投影変換
を行う。即ち、1つの小雲ビルボードを投影スクリーン
22上に投影する際には、初期設定において生成した小
雲分布データ210a〜dの中から該当する小雲ビルボ
ードの代表点の座標と一辺の長さwsを読み出し、その
読み出した値に基づいて視線ベクトル34の方向を法線
方向とし、且つ、代表点の座標を中心とする面の4つの
頂点を算出する。そして、算出した4つの頂点を投影ス
クリーン22上に投影することにより、小雲ビルボード
の投影処理を行う。
As described above, the positions of the cloud viewpoint 220 and the projection screen 22 are determined so as to be parallel to the line-of-sight vector 34 of the virtual camera 100, and each small cloud billboard is projected on the projection screen based on the cloud viewpoint 220. 22 is projected and converted. However, at this time, the apices of the small cloud billboards are arranged so that the planes of the 32 small cloud billboards 24-1 to 32 in the middle cloud coordinate system intersect perpendicularly to the line-of-sight vector 34 of the virtual camera 100. Determine the coordinates. Then, projection conversion to the projection screen 22 is performed for each vertex. That is, when projecting one small cloud billboard onto the projection screen 22, the coordinates of the representative point of the corresponding small cloud billboard and the length of one side are selected from the small cloud distribution data 210a to 210d generated in the initial setting. The width ws is read out, and based on the read value, the direction of the line-of-sight vector 34 is set as the normal direction, and four vertices of the surface centered on the coordinates of the representative point are calculated. Then, by projecting the calculated four vertices on the projection screen 22, the projection process of the small cloud billboard is performed.

【0158】あるいは、小雲ビルボード24の投影処理
において、中雲座標系における小雲ビルボード24と投
影スクリーン22とが常に平行であることを利用して、
投影処理を次のように短絡化してもよい。まず、中雲座
標系における小雲ビルボードの代表点の座標を、投影ス
クリーン22上に投影する。一方で、該当する小雲ビル
ボード24の一辺の長さwsを、投影スクリーン22の
座標系における長さws´に変換する(即ち、長さws
に対して透視変換の演算を施す)。そして、投影スクリ
ーン22の座標系において、投影された小雲ビルボード
24の代表点の座標を中心とする、一辺の長さws´の
正方形の頂点を求める。このように、小雲ビルボード2
4の各頂点の座標を、投影スクリーン22の座標系にお
いて直接求めることによって、複数の小雲ビルボード2
4−1〜32の描画処理を軽減することができる。
Alternatively, in the projection processing of the small cloud billboard 24, the fact that the small cloud billboard 24 and the projection screen 22 in the medium cloud coordinate system are always parallel to each other,
The projection process may be short-circuited as follows. First, the coordinates of the representative point of the small cloud billboard in the middle cloud coordinate system are projected on the projection screen 22. On the other hand, the length ws of one side of the corresponding small cloud billboard 24 is converted into the length ws ′ in the coordinate system of the projection screen 22 (that is, the length ws
For the perspective transformation). Then, in the coordinate system of the projection screen 22, a vertex of a square having a side length ws ′ centered on the coordinates of the projected representative point of the cloud cloud billboard 24 is obtained. Like this, Komu Billboard 2
By directly obtaining the coordinates of the vertices 4 in the coordinate system of the projection screen 22, the plurality of small cloud billboards 2
It is possible to reduce the drawing processing of 4-1 to 32.

【0159】図15は、1つの中雲テクスチャの画像デ
ータを記憶するための中雲バッファ40を模式的に描い
た図である。同図によれば、中雲バッファ40は、10
0×100テクセル分のRGBの色情報と、α値を記憶
するメモリであり、それぞれRGBプレーン42とαプ
レーン44とに分けて記憶する。また、中雲バッファ4
0における各テクセルは、投影スクリーン22の座標系
(XS,YS)と対応する。即ち、中雲座標系における小
雲ビルボード24を投影スクリーン22上に投影する
と、投影スクリーン22の座標系における小雲ビルボー
ド24の各頂点の座標に対応する中雲バッファ40のテ
クセルを決定できる。そして、決定されたテクセルによ
って囲まれた範囲のテクセルのαプレーン44に対し
て、小雲テクスチャ102により指定されたα値(C
α)を与える。ただし、各テクセルのαプレーン44に
対して、α値を加算的に与えることとする。即ち、中雲
バッファ40内の1つのテクセルに対して、複数の小雲
ビルボード24が重なって投影された場合には、全ての
α値を加算して記憶させる。なお、α値を加算すること
によって、α>1となる場合には、1を超える値を切り
捨てることとする。
FIG. 15 is a diagram schematically showing a middle cloud buffer 40 for storing image data of one middle cloud texture. According to the figure, the middle cloud buffer 40 has 10
This is a memory for storing RGB color information of 0 × 100 texels and an α value, which are separately stored in an RGB plane 42 and an α plane 44, respectively. In addition, Naka cloud buffer 4
Each texel at 0 corresponds to the coordinate system (X S , Y S ) of the projection screen 22. That is, when the small cloud billboard 24 in the medium cloud coordinate system is projected on the projection screen 22, the texel of the medium cloud buffer 40 corresponding to the coordinates of each vertex of the small cloud billboard 24 in the coordinate system of the projection screen 22 can be determined. . Then, for the α plane 44 of the texel in the range surrounded by the determined texels, the α value (C
a) is given. However, the α value is additively given to the α plane 44 of each texel. That is, when a plurality of small cloud billboards 24 are projected on one texel in the middle cloud buffer 40, all α values are added and stored. If α> 1 is obtained by adding α values, values exceeding 1 will be truncated.

【0160】このように、3次元的に配置した小雲ビル
ボード24−1〜32をオブジェクト空間における仮想
カメラ100の視線方向に応じて描画することによっ
て、仮想カメラ100の位置が変化する度に見え方が変
化することとなる。従って、生成される中雲テクスチャ
は、平面であるにもかかわらず、立体的な印象を与える
ことができる。また、中雲の見え方が、3次元空間にお
ける分布に従って秩序正しく変化するため、違和感を与
えることなく雲を表現することができる。
As described above, the three-dimensionally arranged cloud cloud billboards 24-1 to 32 are drawn in accordance with the line-of-sight direction of the virtual camera 100 in the object space, so that the position of the virtual camera 100 changes every time. The appearance will change. Therefore, although the generated middle cloud texture is flat, it can give a three-dimensional impression. Further, the appearance of the middle clouds changes in an orderly manner according to the distribution in the three-dimensional space, so that the clouds can be represented without giving a feeling of strangeness.

【0161】また、図15に示す中雲バッファ40のR
GBプレーン42に与える色情報は、オブジェクト空間
における光源と、仮想カメラ100の視線方向および、
中雲座標系における投影スクリーン22(より正確に
は、投影スクリーン22に対応するオブジェクト空間上
の「中雲ビルボード」であるが、本原理は、「中雲」に
係る原理を説明しているため、以下、「投影スクリー
ン」として説明する。)との位置関係に応じて決定す
る。より具体的には、投影スクリーン22(対応するオ
ブジェクト空間上の中雲ビルボード。以下同じ。)と光
源との位置関係を判定するための特定点を、投影スクリ
ーン22上に設定する。例えば、投影スクリーン22の
頂点、投影スクリーン22の各辺の中点、および、投影
スクリーン22の中心点といった複数箇所の点を特定点
として設定する。ゲーム実行中においては、投影スクリ
ーン22上に設定した各特定点と光源との位置関係を判
定し、光源に近いと判定される特定点には明るい色を、
光源から離れた位置に該当する特定点には暗い色を決定
する。そして、投影スクリーン22上の各特定点に対し
て決定した色情報を、中雲バッファ40上の対応するテ
クセルのRGBプレーン42に記憶させる。また、中雲
バッファ40上の他のテクセルに対しては、グローシェ
ーディングの方法、即ち、各特定点に与えられた色の中
間色を算出して与える。
In addition, R of the middle cloud buffer 40 shown in FIG.
The color information given to the GB plane 42 includes the light source in the object space, the line-of-sight direction of the virtual camera 100, and
The projection screen 22 in the middle cloud coordinate system (more accurately, it is a “middle cloud billboard” in the object space corresponding to the projection screen 22. This principle explains the principle related to the “middle cloud”. Therefore, it will be described as a “projection screen” hereinafter). More specifically, a specific point for determining the positional relationship between the projection screen 22 (corresponding middle cloud billboard in the object space; the same applies below) and the light source is set on the projection screen 22. For example, a plurality of points such as the vertex of the projection screen 22, the midpoint of each side of the projection screen 22, and the center point of the projection screen 22 are set as specific points. During the game execution, the positional relationship between each specific point set on the projection screen 22 and the light source is determined, and the specific point determined to be close to the light source is given a bright color.
A dark color is determined for the specific point corresponding to the position away from the light source. Then, the color information determined for each specific point on the projection screen 22 is stored in the RGB plane 42 of the corresponding texel on the middle cloud buffer 40. For other texels on the middle cloud buffer 40, the method of glow shading, that is, the intermediate color of the colors given to each specific point is calculated and given.

【0162】投影スクリーン22上の各特定点と光源と
の位置関係を判定する処理は、ベクトル演算により行
う。即ち、投影スクリーン22上に設定した各特定点に
特定のベクトルを持たせ、ゲーム実行中の投影スクリー
ン22の回転に合わせて各特定点の特定ベクトルを回転
させる。そして、オブジェクト空間における光源の光線
ベクトル38と、投影スクリーン22の各特定ベクトル
との成す角を計算し、その角度に応じた色を該当する特
定点の色として決定する。なお、以下では、簡単の為
に、光源を無限光源とする。即ち、図14(b)に示す
ように、光のベクトル38(以下、光線ベクトル38と
いう)は、オブジェクト空間の全体を均等に照らし、且
つ、至るところで平行なベクトルとする。
The process of determining the positional relationship between each specific point on the projection screen 22 and the light source is performed by vector calculation. That is, each specific point set on the projection screen 22 is given a specific vector, and the specific vector of each specific point is rotated in accordance with the rotation of the projection screen 22 during the execution of the game. Then, the angle formed by the light vector 38 of the light source in the object space and each specific vector of the projection screen 22 is calculated, and the color corresponding to the angle is determined as the color of the specific point. In the following, for simplicity, the light source is an infinite light source. That is, as shown in FIG. 14B, the light vector 38 (hereinafter referred to as a ray vector 38) uniformly illuminates the entire object space and is a parallel vector everywhere.

【0163】図16は、投影スクリーン22に設けた9
ヶ所の特定点22−1〜9と、各特定点の特定ベクトル
を説明するための図である。(a)は、中雲座標系にお
ける投影スクリーン22の正面図を、(b)は、投影ス
クリーン22の断面図をそれぞれ示す。(a)および
(b)によれば、各特定点が、投影スクリーン22の各
頂点22−2,4,6,8、投影スクリーン22の各辺
における中点22−3,5,7,9、および、投影スク
リーン22の中心点22−1に設定され、特定ベクトル
として、各点における法線ベクトルが与えられる。な
お、(b)には、投影スクリーン22の中心点22−1
における法線ベクトル22−1a、および、仮想カメラ
100の視線ベクトル34を示した。即ち、中心点22
−1の特定ベクトルは、仮想カメラ100の視線ベクト
ル34に対して常に逆向きとなる。
FIG. 16 shows a screen provided on the projection screen 22.
It is a figure for demonstrating the specific point 22-1 to 9 of a certain place, and the specific vector of each specific point. (A) is a front view of the projection screen 22 in the middle cloud coordinate system, and (b) is a cross-sectional view of the projection screen 22. According to (a) and (b), each specific point corresponds to each vertex 22-2, 4, 6, 8 of the projection screen 22 and the midpoints 22-3, 5, 7, 9 on each side of the projection screen 22. , And the center point 22-1 of the projection screen 22, and the normal vector at each point is given as the specific vector. It should be noted that in (b), the center point 22-1 of the projection screen 22 is
The normal vector 22-1a and the line-of-sight vector 34 of the virtual camera 100 are shown. That is, the center point 22
The specific vector of −1 is always opposite to the line-of-sight vector 34 of the virtual camera 100.

【0164】また、図16(c)は、各特定ベクトル
(即ち、法線ベクトル)が指す向きの関係を示す図であ
り、投影スクリーン22を、x−z平面に対して水平
に、且つ、各辺がx軸とz軸に対して平行あるいは垂直
に交わるように配置したときの各特定ベクトルの成分を
表示したものである。(c)に示すように、各特定ベク
トルが互いに成す角の関係は、ゲーム実行中における投
影スクリーン22の回転にかかわらず等しい。従って、
仮想カメラ100の視線ベクトル34が決定すれば、視
線ベクトル34に基づく回転行列を生成して、(c)に
示す各特定ベクトルに作用させることにより、投影スク
リーン22における各点の法線ベクトルを簡単に算出す
ることができる。
FIG. 16C is a diagram showing the relationship of the directions indicated by the respective specific vectors (that is, the normal vectors), in which the projection screen 22 is horizontal to the xz plane and The components of each specific vector when the sides are arranged so as to intersect with the x axis and the z axis in parallel or perpendicularly are displayed. As shown in (c), the relationship between the angles formed by the specific vectors is the same regardless of the rotation of the projection screen 22 during the game execution. Therefore,
Once the line-of-sight vector 34 of the virtual camera 100 is determined, a rotation matrix based on the line-of-sight vector 34 is generated and applied to each specific vector shown in FIG. Can be calculated.

【0165】このように、投影スクリーン22の各点に
おける特定ベクトルの向きを決定すると、光線ベクトル
38との成す角を算出する。しかし、3次元空間におけ
る各ベクトルの成す角を算出して、座標系における3つ
の成分の角度を比較する処理は煩雑であるため、以下で
は、成す角を算出せずに、内積により色を決定すること
とする。また、内積を算出する際には、各ベクトルを単
位ベクトル化し、内積の結果ωが−1≦ω≦1の範囲を
取るように設定する。そして、該当する点に与える色
を、ωの値および符号に応じて一意的に決定する。
As described above, when the direction of the specific vector at each point on the projection screen 22 is determined, the angle formed with the ray vector 38 is calculated. However, since the process of calculating the angle formed by each vector in the three-dimensional space and comparing the angles of the three components in the coordinate system is complicated, in the following, the color is determined by the inner product without calculating the angle formed. I decided to. Further, when calculating the inner product, each vector is converted into a unit vector, and the result ω of the inner product is set so as to fall within the range of −1 ≦ ω ≦ 1. Then, the color given to the corresponding point is uniquely determined according to the value of ω and the sign.

【0166】なお、内積ωの値と中雲に与える色との関
係は、投影スクリーン22の各特定点が光源に対して近
いか遠いかといった関係と対応させる。具体的には、図
16(a)に示した投影スクリーン22において、特定
点22−2の法線ベクトルは光線ベクトル38に対して
逆向きを示し、特定点22−6の法線ベクトルは同方向
を指す。即ち、投影スクリーン22において、より光源
に近い点の法線ベクトルは、光線ベクトル38と逆向き
を示し、光源に対して影となる部分の法線ベクトルは、
光線ベクトル38と同方向を示す。こうした関係に基づ
き、光線ベクトル38と各点の法線ベクトルとの内積ω
が、負である場合には、該当する点が光源に近いものと
判断して、明るい色を与える。また、内積ωが正である
場合には、光源からやや遠い、影となる部分に対応する
点であると判断し、暗い色を与える。
The relationship between the value of the inner product ω and the color given to the middle cloud corresponds to the relationship whether each specific point on the projection screen 22 is near or far from the light source. Specifically, on the projection screen 22 shown in FIG. 16A, the normal vector of the specific point 22-2 is opposite to the ray vector 38, and the normal vector of the specific point 22-6 is the same. Point in the direction. That is, on the projection screen 22, the normal vector of the point closer to the light source shows the opposite direction to the light ray vector 38, and the normal vector of the portion shadowed by the light source is
The same direction as the ray vector 38 is shown. Based on this relationship, the inner product ω of the ray vector 38 and the normal vector of each point
However, if it is negative, it is determined that the corresponding point is close to the light source, and a bright color is given. When the inner product ω is positive, it is determined that the dot corresponds to a shadowed portion that is slightly far from the light source, and a dark color is given.

【0167】更に詳細には、内積ωが負である場合には
雲の色として白を、内積ωが正である場合には灰色を
(極端には、黒を)、といった具合に、色の濃淡を内積
ωの値に応じて決定する。例えば、RGB各色の出力I
の範囲を0≦I≦255と定義する。ここに、I=0の
とき、RGB全ての色が出力されずに黒となり、逆にI
=255のとき白となる。そして、内積ωを変数とする
関数f(ω)を乗算することにより、全色の出力の割合
を決定する。関数f(ω)は、0≦f(ω)≦1の範囲
を取り、ωの増加に伴って増加する関数であればいずれ
のものであってもかまわないが、例えば、 f(ω)=0 (−1≦ω<0) =√ω (0≦ω≦1) …(6) といった関数を定義する(ただし、0≦f(ω))。図
17は、関数f(ω)のグラフを示すものであり、横軸
がωを、縦軸が関数f(ω)の値を示す。式(6)によ
れば、関数f(ω)の値は、内積ωが負のとき“1”か
ら“0”の値を持ち、内積ωが正のとき値が“0”とな
る。従って、法線ベクトルと光線ベクトル38とが互い
に等しい方向を向くとき(ω>0)には、f(ω)=0
となり、出力される色は黒となり、雲における影の部分
を表現することができる。一方、法線ベクトルと光線ベ
クトル38とが向き合う関係にあるとき(ω<0)に
は、f(ω)>0となり、ωの値が“−1”に近づくに
つれて白に近い色となる。
More specifically, when the dot product ω is negative, white is used as the cloud color, when the dot product ω is positive, gray is used (extremely black), and so on. The shading is determined according to the value of the inner product ω. For example, the output I of each RGB color
Is defined as 0 ≦ I ≦ 255. Here, when I = 0, all RGB colors are not output and become black, and conversely I
= 255, the color is white. Then, by multiplying the function f (ω) having the inner product ω as a variable, the ratio of the output of all colors is determined. The function f (ω) may be any function as long as it takes a range of 0 ≦ f (ω) ≦ 1 and increases as ω increases. For example, f (ω) = A function such as 0 (−1 ≦ ω <0) = √ω (0 ≦ ω ≦ 1) (6) is defined (where 0 ≦ f (ω)). FIG. 17 is a graph of the function f (ω), in which the horizontal axis represents ω and the vertical axis represents the value of the function f (ω). According to the equation (6), the value of the function f (ω) has a value of “1” to “0” when the inner product ω is negative, and the value is “0” when the inner product ω is positive. Therefore, when the normal vector and the ray vector 38 are oriented in the same direction (ω> 0), f (ω) = 0
The output color becomes black, and the shadow part in the cloud can be expressed. On the other hand, when the normal vector and the ray vector 38 face each other (ω <0), f (ω)> 0, and the color becomes closer to white as the value of ω approaches “−1”.

【0168】このように、投影スクリーン22における
複数箇所の法線ベクトルを算出し、光線ベクトル38と
の内積を取ることによって、よりもっともらしく雲の陰
影を表現することができる。しかしながら、式(6)に
よれば、雲の陰影を表現することができるものの、様々
な色のグラデーションを表現することができない。例え
ば、朝日や夕日を浴びて金色に輝く部分から、夜空の色
を受けて暗く陰る部分までを持つ1つの雲を、立体感を
維持し、且つ、グラデーションを付けて表現したい場合
がある。しかし、光線ベクトル38と法線ベクトルの内
積ωという、1つの値の変化に基づいて、RGBの3つ
の色を様々に、且つ、もっともらしく変化させることは
困難である。
As described above, by calculating the normal vectors at a plurality of positions on the projection screen 22 and taking the inner product with the ray vector 38, the shadow of the cloud can be more plausibly expressed. However, according to the equation (6), although it is possible to express the shadow of the cloud, it is not possible to express gradations of various colors. For example, there is a case where it is desired to maintain a three-dimensional effect and to express a single cloud with a gradation from a portion that shines golden in the morning sun or sunset to a portion that is dark and shaded by the color of the night sky. However, it is difficult to change the three colors of RGB variously and plausibly based on the change of one value of the inner product ω of the ray vector 38 and the normal vector.

【0169】そこで、光が当って雲が明るく輝くときの
色味(明色IL=RL、GL、BL)と、雲のベースとなる
色味(ベース色IB=RB、GB、BB)と、光が当らない
影となる部分の色味(影色IS=RS、GS、BS)の、3
色の色を予め設定する。そして、内積ωの値に応じて、
各色を採用する割合を決定することとする。例えば、明
色の割合を決定するための関数FL(ω)と、ベース色
の割合を決定するための関数FB(ω)と、影色の割合
を決定するための関数FS(ω)とをそれぞれ独立して
設定する。即ち、出力する色Iを、 I=IL・FL(ω)+IB・FB(ω)+IS・FS(ω) …(7) により決定する。
Therefore, the tint when the light shines and the cloud shines brightly (light colors I L = R L , G L , B L ) and the tint that becomes the base of the cloud (base color I B = R B , G B , B B ) and the tint (shadow color I S = R S , G S , B S ) of a shadow portion where light does not strike, 3
Set the color in advance. Then, according to the value of the inner product ω,
The ratio of adopting each color will be determined. For example, a function F L (ω) for determining the ratio of light colors, a function F B (ω) for determining the ratio of base colors, and a function F S (ω) for determining the ratio of shadow colors. ) And are set independently of each other. That is, the output color I is determined by I = I L · F L (ω) + I B · F B (ω) + I S · F S (ω) (7)

【0170】また、各関数F(ω)を次のように設定す
る。 FL(ω) =cos2{(ω+1)・π/2} (−1≦ω≦0) =0 (0<ω) FB(ω) =sin2{(ω+1)・π/2} (−1≦ω≦1) FS(ω) =0 (ω<0) =cos2{(ω+1)・π/2} (0≦ω≦1) …(8) 図18(a)〜(c)は、各関数のグラフを示す図であ
る。それぞれのグラフにおいて、横軸はωの値を、縦軸
は関数F(ω)の値を示す。なお、式(8)からわかる
ように、各関数の和は、常に1となる。従って、不自然
な色味を出力することなく、合理的に各色を合成するこ
とができる。また、ω=−1,1の場合を除き、ベース
色が常に合成されることとなる。従って、例えば、ベー
ス色として白を適用した場合、白を基調とし、滑らかに
色の変化する雲を表現することができる。
Further, each function F (ω) is set as follows. F L (ω) = cos 2 {(ω + 1) · π / 2} (-1 ≦ ω ≦ 0) = 0 (0 <ω) F B (ω) = sin 2 {(ω + 1) · π / 2} ( −1 ≦ ω ≦ 1) F S (ω) = 0 (ω <0) = cos 2 {(ω + 1) · π / 2} (0 ≦ ω ≦ 1) (8) FIGS. 18A to 18C ) Is a diagram showing a graph of each function. In each graph, the horizontal axis represents the value of ω and the vertical axis represents the value of the function F (ω). As can be seen from equation (8), the sum of each function is always 1. Therefore, it is possible to rationally combine the colors without outputting an unnatural color. In addition, the base color is always combined except when ω = −1, 1. Therefore, for example, when white is applied as the base color, it is possible to express a cloud whose color changes smoothly with white as the basic tone.

【0171】以上のように、小雲テクスチャ102のα
テクスチャをマッピングした小雲ビルボード24を、中
雲座標系に3次元的に配置し、ワールド座標系における
仮想カメラ100の向きに応じて回転させることとした
ため、中雲を観察する仮想カメラ100の位置に対応し
て形状が変化する立体的な中雲を表現することができ
る。そのため、例えば、プレーヤの操縦する飛行機(視
点)の高低の変更に伴い中雲を見る角度が変化しても、
中雲の形状に矛盾が生じず、見ていて違和感のない画像
を生成することができる。
As described above, α of the cloud texture 102 is
The small cloud billboard 24 on which the texture is mapped is three-dimensionally arranged in the middle cloud coordinate system and is rotated according to the orientation of the virtual camera 100 in the world coordinate system. It is possible to represent a three-dimensional middle cloud whose shape changes depending on the position. Therefore, for example, even if the angle at which the middle clouds are viewed changes with the elevation of the airplane (viewpoint) operated by the player,
It is possible to generate an image in which there is no inconsistency in the shape of the middle cloud and which does not cause any discomfort when viewed.

【0172】また、中雲テクスチャを生成する際には、
全体に気流がかかった雲である小雲テクスチャ102を
中心付近に集中させて中雲テクスチャを生成するので、
中心が濃く(透明度が低く)、周辺に近づくにつれ薄く
(透明度が高く)なる中雲テクスチャが作成される。そ
のため、結果として、中雲テクスチャの縁のみに気流が
表現され、よりリアルな雲を表現することができる。
When generating the medium cloud texture,
Since the cloud texture 102, which is a cloud over which the air flow is applied, is concentrated near the center to generate a medium cloud texture,
Creates a medium cloud texture with a darker center (less transparency) and lighter (closer transparency) toward the periphery. Therefore, as a result, the airflow is expressed only on the edge of the middle cloud texture, and a more realistic cloud can be expressed.

【0173】また、中雲を構成する雲パーツ1つ1つに
対して色を決定せずに、中雲全体のα値について描画し
た後、色を決定することとしたため、より迅速に中雲テ
クスチャを生成することができる。更に、予め3種類の
色を設定し、各色を採用する割合を、中雲を描画するた
めのスクリーン(実際には、対応するオブジェクト上の
中雲ビルボード)と光源との位置関係に応じて決定する
こととしたため、日の光によって色を微妙に変化させる
雲を表現することが可能となった。
Since the color is decided after drawing the α value of the whole middle cloud without deciding the color for each cloud part constituting the middle cloud, the middle cloud can be drawn more quickly. Textures can be generated. Furthermore, three types of colors are set in advance, and the ratio of adoption of each color is determined according to the positional relationship between the screen for drawing the middle clouds (actually, the middle cloud billboard on the corresponding object) and the light source. Since it was decided to decide, it was possible to express a cloud whose color changes subtly depending on the light of day.

【0174】なお、上記説明では、生成する中雲の数を
4個、1つの中雲を構成する小雲ビルボードの数を32
個として説明したが、これらの数に限定する必要はな
く、1つの小雲ビルボードの規模に応じて様々に変更し
てもよいことは勿論である。また、色の濃淡や予め設定
した色の合成割合を決定する式は、式(6)や式(8)
に限定する必要はなく、雲の色として違和感の生じない
色合いを算出するものであれば、いかなる式であっても
かまわない。また、上記説明では、3色を合成すること
として説明したが、2色や4色、…、n色であってもか
まわない。この場合には、例えば、式(8)内の(ω+
1)に乗算する値を、合成する色の数に合わせて変更す
ることにより可能となる。
In the above description, the number of medium clouds to be generated is four, and the number of small cloud billboards constituting one medium cloud is 32.
Although described as individual pieces, it is needless to say that the number is not limited to these and may be variously changed according to the scale of one small cloud billboard. Further, the formulas for determining the shade of color and the preset color combination ratio are formula (6) and formula (8).
There is no need to limit to the above, and any formula may be used as long as it calculates a hue that does not cause a sense of discomfort as a cloud color. Further, in the above description, it is explained that three colors are combined, but two colors, four colors, ..., N colors may be used. In this case, for example, (ω +
This can be achieved by changing the value multiplied by 1) according to the number of colors to be combined.

【0175】あるいは、図19に示すような色決定テー
ブル290を予め生成し、このテーブルに基づいて色を
決定することとしてもよい。図19によれば、色決定テ
ーブル290には、法線ベクトルと光線ベクトル38と
の内積ωの範囲と、各内積ωの範囲と対応付けて色情報
(RGBの各値)が記憶される。ゲーム実行中において
は、投影スクリーン22の各特定点の法線ベクトルと光
線ベクトル38との内積ωを計算し、色決定テーブル2
90を読み出して該当する色情報を判定し、中雲バッフ
ァ内の該当するテクセルのRGBプレーンに与える。た
だし、このような色決定テーブル290を採用した場合
には、予め記憶すべき情報が増えるとともに、雲の微妙
な色の変化を表現することができない。従って、上記説
明のように、予め特定した色を合成する割合をその都度
計算する方法が最も好ましいものといえる。
Alternatively, a color determination table 290 as shown in FIG. 19 may be generated in advance and the color may be determined based on this table. According to FIG. 19, the color determination table 290 stores color information (each value of RGB) in association with the range of the inner product ω of the normal vector and the ray vector 38 and the range of each inner product ω. During the game execution, the inner product ω of the normal vector of each specific point on the projection screen 22 and the ray vector 38 is calculated, and the color determination table 2
90 is read and the corresponding color information is determined and given to the RGB plane of the corresponding texel in the middle cloud buffer. However, when such a color determination table 290 is adopted, the amount of information to be stored in advance increases, and it is not possible to express a subtle color change of the cloud. Therefore, as described above, the method of calculating the ratio of combining the previously specified colors each time is most preferable.

【0176】また、4つの中雲のテクスチャを生成する
こととして説明したが、これに限定する必要はなく、例
えば、オブジェクト空間に各小雲ビルボードを実際に配
置し、オブジェクト空間における仮想カメラ100に基
づいて描画することとしてもよい。あるいは、オブジェ
クト空間全体に渡る雲を、1つの中雲のテクスチャによ
って表現することとしてもよい。
Also, although it has been described that the textures of four medium clouds are generated, the present invention is not limited to this. For example, each small cloud billboard is actually arranged in the object space, and the virtual camera 100 in the object space is used. It is also possible to draw based on. Alternatively, the cloud over the entire object space may be represented by the texture of one medium cloud.

【0177】しかし、このように、仮想カメラ100や
雲視点の位置に基づいて描画すべき小雲ビルボードの数
が多ければ多いほど、各小雲ビルボードの座標や向きを
算出する処理や、描画処理等の負担が増大し、ゲーム画
像の生成処理全体を遅延化させるといった問題が生じ
る。なお、この問題は、仮想カメラ100に基づいて描
画する際の中雲や小雲ビルボードの大きさを調節するこ
とにより解決されるように思われる。例えば、オブジェ
クト空間に直接小雲ビルボードを配置する場合であって
も、小雲ビルボードの大きさを比較的大きく設定すれ
ば、描画等の処理を軽減することができる。しかし、飛
行機ゲームのような雲を間近で観察し得るタイプのゲー
ムにあっては、1種類のαテクスチャをマッピングした
だけの比較的大きな小雲ビルボードをオブジェクト空間
に直接配置した場合には、仮想カメラ位置の変化に伴う
雲の微妙な変化を表現することができない。また、中雲
を構成する各小雲ビルボードを大きくし、その数を少な
くした場合、仮想カメラ100の位置の変化に伴う中雲
の形状の変化が乏しくなり、立体感に欠けたものとな
る。
However, as described above, the greater the number of cloudlet billboards to be drawn based on the position of the virtual camera 100 and the cloud viewpoint, the process of calculating the coordinates and orientation of each cloudlet billboard, There is a problem in that the burden of drawing processing and the like increases and delays the entire game image generation processing. Note that this problem seems to be solved by adjusting the sizes of the middle cloud and the small cloud billboard when drawing based on the virtual camera 100. For example, even when the small cloud billboard is placed directly in the object space, the processing such as drawing can be reduced by setting the size of the small cloud billboard to be relatively large. However, in a game such as a plane game in which clouds can be observed up close, when a relatively large cloud cloud billboard with only one type of α texture mapped is placed directly in the object space, It is not possible to express subtle changes in the clouds that accompany changes in the virtual camera position. Further, when the small cloud billboards forming the middle clouds are made large and the number thereof is made small, the change in the shape of the middle clouds due to the change in the position of the virtual camera 100 becomes poor, resulting in a lack of stereoscopic effect. .

【0178】そのため、本実施の形態においては、以下
に述べる雲海生成原理に基づいて、オブジェクト空間に
中雲ビルボードを配置することにより、仮想カメラ10
0の位置の変化に伴う雲の変化を表現するとともに、立
体感を有する雲を表現する。
Therefore, in the present embodiment, the virtual camera 10 is arranged by arranging the middle cloud billboard in the object space based on the sea of clouds generation principle described below.
It expresses the change of the cloud associated with the change of the position of 0, and also expresses the cloud having a stereoscopic effect.

【0179】1−(3)雲海生成原理 次に、中雲生成原理により生成された中雲テクスチャを
マッピングしたビルボード(以下、中雲ビルボードとい
う。)を複数オブジェクト空間に設定することにより雲
海を生成する原理を説明する。
1- (3) Cloud Sea Generation Principle Next, by setting a billboard (hereinafter referred to as a Nakamo billboard) on which a cloud texture generated by the cloud generation principle is mapped in a plurality of object spaces, the cloud sea is set. The principle of generating is explained.

【0180】図20に示すような、仮想カメラ100
(視線方向が図中矢印で示す方向で、視野角φ)から見
た画像を生成する際には、図20に示した雲設定領域R
内のみに、中雲ビルボードを配置する。雲設定領域R外
部の雲については、仮想カメラ100の視界に入らず、
描画されないため、配置しない。
A virtual camera 100 as shown in FIG.
When generating an image viewed from (viewing direction is the direction indicated by the arrow in the figure and viewing angle φ), the cloud setting region R shown in FIG.
Place the Nakamo billboard only inside. Clouds outside the cloud setting region R do not enter the field of view of the virtual camera 100,
Not placed because it is not drawn.

【0181】また、中雲ビルボードは、上述したよう
に、常に仮想カメラ100の視線方向に垂直に対向し、
配置位置(一点)と、大きさを設定することによりオブ
ジェクト空間に配置される。即ち、仮想カメラ100が
移動したり、視線方向を変えても雲が平面であることは
露見しない。
As described above, the Nakanomo billboard always faces perpendicularly to the line of sight of the virtual camera 100,
It is placed in the object space by setting the placement position (one point) and the size. That is, even if the virtual camera 100 moves or the line-of-sight direction is changed, it is not revealed that the cloud is a plane.

【0182】図20に示した雲設定領域Rについてより
具体的に説明する。雲設定領域Rは、図21に示すよう
に、オブジェクト空間(ワールド座標系)において設定
された仮想カメラ100の位置から視線方向(図中矢印
表示)に距離dの位置に中心点FPW(FPW.x,FPW.
y,FPW.z)を有する一辺長2Lの立方体内の領域で
ある。即ち、雲設定領域Rの位置は、仮想カメラ100
の位置や視線方向に応じて変化する。但し、雲設定領域
Rの各辺の方向は、ワールド座標系のXw軸、Yw軸、
Zw軸の方向を向くように設定される。
The cloud setting area R shown in FIG. 20 will be described more specifically. As shown in FIG. 21, the cloud setting region R has a center point F PW (F) at a position of a distance d from the position of the virtual camera 100 set in the object space (world coordinate system) in the viewing direction (indicated by an arrow in the figure). PW .x, F PW .
y, F PW .z) is a region in a cube having a side length of 2 L. That is, the position of the cloud setting area R is set to the virtual camera 100.
It changes according to the position and the direction of the line of sight. However, the directions of the respective sides of the cloud setting region R are Xw axis, Yw axis of the world coordinate system,
It is set so as to face the Zw axis.

【0183】この雲設定領域Rに中雲の配置位置(中雲
ビルボードの配置位置座標)を設定する際には、雲設定
領域Rの中心点FPWを原点とするローカル座標系
(xL,yL,zL)(以下、雲海座標系という。)にお
ける雲設定領域R内の位置座標を決定する。即ち、雲設
定領域Rの中心点FPWに相対する位置として中雲ビルボ
ードの配置位置を決定する。ここで、雲海座標系におけ
る雲設定領域Rは、図22に示すように中心点を点FPL
(0,0,0)とし、一辺長2Lの立方体となる。
[0183] Local coordinate system when setting the positions of Chukumo this cloud setting region R (Chukumo building position coordinates of the board) has its origin at the center point F PW clouds set area R (x L , Y L , z L ) (hereinafter referred to as the sea of clouds coordinate system), the position coordinates in the cloud setting region R are determined. That is, the arrangement position of the middle cloud billboard is determined as the position opposite to the center point F PW of the cloud setting region R. Here, the cloud setting area R in the cloud sea coordinate system has a center point F PL as shown in FIG.
It is (0,0,0), and becomes a cube with a side length of 2L.

【0184】雲海座標系に配置される中雲ビルボードの
座標CL[i](CL[i].x,CL[i].y,CL
[i].z)は、 CL[i].x={Ct[i].x+{2L−(FPW.x mod2L)}}mod 2 L−L …(9) CL[i].z={Ct[i].z+{2L−(FPW.z mod2L)}}mod 2 L−L …(10) CL[i].y=(Alt−FPW.y)+Ct[i].y×Altw …(11 ) で設定される。ここで、i=1、2、…、nであり、n
は設定される雲(中雲ビルボード)の数である。また、
「mod」とは、剰余を示す演算子である。Altは、雲
層のy座標の中心であり、例えば、地面のy座標が
“0”である場合には、地面からの雲層の中心までの高
さを示すこととなる。Altwは、雲層の中心から雲層
の端までの最大幅である。
Coordinates CL [i] (CL [i] .x, CL [i] .y, CL of the middle cloud billboard arranged in the sea of clouds coordinate system.
[I] .z) is CL [i] .x = {Ct [i] .x + {2L- (F PW .x mod 2L)}} mod 2 LL (9) CL [i] .z = {Ct [i] .z + {2L- (F PW .z mod 2L)}} mod 2 L−L (10) CL [i] .y = (Alt−F PW .y) + Ct [i] .y × Altw (11) is set. Here, i = 1, 2, ..., N, and n
Is the number of clouds (Nakamo billboard) to be set. Also,
“Mod” is an operator that indicates a remainder. Alt is the center of the y coordinate of the cloud layer. For example, when the y coordinate of the ground is “0”, it indicates the height from the ground to the center of the cloud layer. Altw is the maximum width from the center of the cloud layer to the edge of the cloud layer.

【0185】また、初期設定として初期分布Ct[i]
(Ct[i].x,Ct[i].y,Ct[i].z)
(i=1,2,…,n)が設定されている。初期分布と
は、雲海における中雲ビルボードの配置位置の分布状態
を決めるために初めに(例えば、ゲームの開始時等
に)、一度決定されるものであり、その後ゲーム実行中
には、この初期分布は変更されない。そして、Ct
[i].x=rand(randは0〜(2L−1)の乱数)、
Ct[i].y=rand(randは−1〜1の乱数)、Ct
[i].z=rand(randは0〜(2L−1)の乱数)と
して初めに決定されるものである。
Also, as an initial setting, the initial distribution Ct [i]
(Ct [i] .x, Ct [i] .y, Ct [i] .z)
(I = 1, 2, ..., N) is set. The initial distribution is initially determined (for example, at the start of the game) once in order to determine the distribution state of the arrangement positions of the middle cloud billboards in the sea of clouds, and during the execution of the game, The initial distribution is unchanged. And Ct
[I] .x = rand (rand is a random number from 0 to (2L-1)),
Ct [i] .y = rand (rand is a random number between -1 and 1), Ct
[I] .z = rand (rand is a random number from 0 to (2L-1)).

【0186】式(9)によれば、{Ct[i].x+
{2L−(FPW.x mod2L)}}mod2Lのとり得る値
は“0”〜“2L−1”の範囲となるため、雲海座標系
における中雲の配置位置のx座標CL[i].xのとり
得る値は、“−L”〜“L−1”の範囲となる。また、
{2L−(FPW.x mod2L)}の値は、例えば、FPW.
xの値が増加する場合には、“2L”〜“1”の範囲で
減少し、“1”になった後、更にFPW.xの値が増加す
ると“2L”に戻る。
According to the equation (9), {Ct [i] .x +
{2L- (F PW .x mod2L)}} The possible values of mod2L are in the range of "0" to "2L-1", so the x coordinate CL [i] of the position of the middle cloud in the cloud sea coordinate system. Possible values of x are in the range of "-L" to "L-1". Also,
The value of {2L- (F PW .x mod 2L)} is, for example, F PW .
When the value of x increases, it decreases in the range of "2L" to "1", becomes "1", and then returns to "2L" when the value of F PW .x further increases.

【0187】そのため、例えば、雲設定領域Rの中心点
のx座標FPW.xの値が増加していく場合には、中雲の
配置位置のx座標CL[i].xの値は“L−1”から
“−L”の範囲でFPW.xの値が増加した分だけ減少
し、“−L”になった後は、また“L−1”に戻り、
“L−1”から“−L”の値が繰り返されることとな
る。即ち、雲設定領域Rの中心点のx座標FPW.xが増
加した分だけ、雲海座標系における中雲ビルボードの配
置位置のx座標CL[i].xは減少し、雲設定領域R
の外部になると、逆側に現れることになり、必ず雲設定
領域R内“−L”〜“L−1”の値となる。雲海座標系
における中雲ビルボードの配置位置のz座標CL
[i].zについても式(10)により同様である。
Therefore, for example, when the value of the x coordinate F PW .x of the center point of the cloud setting region R increases, the value of the x coordinate CL [i] .x of the position of the middle cloud is " In the range of "L-1" to "-L", the value of F PW .x decreases by the amount of increase, and after reaching "-L", it returns to "L-1" again.
Values from "L-1" to "-L" are repeated. That is, the x coordinate CL [i] .x of the arrangement position of the middle cloud billboard in the cloud sea coordinate system decreases by the amount that the x coordinate F PW .x of the center point of the cloud setting region R increases, and the cloud setting region R
When it is outside the area, it will appear on the opposite side, and the value will always be "-L" to "L-1" in the cloud setting area R. Z-coordinate CL of the position of the middle cloud billboard in the sea of clouds coordinate system
The same holds for [i] .z according to equation (10).

【0188】図23(a)は、ワールド座標系におい
て、Zw軸方向から見た雲設定領域Rを示す図である。
同図に示すように、例えば、雲設定領域Rのワールド座
標系における中心位置がFPW1(FPW1.x,FPW1.y,
PW1.z)とすると、雲海座標系における中雲ビルボー
ドの配置位置CL[i]のx座標CL[i].xは、式
(9)に従って、 CL[i].x={Ct[i].x+{2L−(FPW1.x
mod2L)}}mod 2L−L で設定される。
FIG. 23A is a diagram showing the cloud setting region R viewed from the Zw axis direction in the world coordinate system.
As shown in the figure, for example, the center position of the cloud setting region R in the world coordinate system is F PW1 (F PW1 .x, F PW1 .y,
F PW1 .z), the x coordinate CL [i] .x of the central cloud billboard arrangement position CL [i] in the cloud sea coordinate system is CL [i] .x = {Ct [ i] .x + {2L- (F PW1 .x
mod2L)}} mod 2L-L.

【0189】ここで、例えば、図23(a)に示すよう
に、Ct[1].x=110、FPW1.x=100、L=
100であったとすると、中雲ビルボードの配置位置C
L[1]の雲海座標系におけるx座標の値は、 CL[1].x={110+{200−(100 mod2
00)}}mod 200−100=−90 となる(図23(b))。図23(b)は、FPL1(=
PW1)を原点とした雲海座標系において、zL軸方向か
ら見た雲設定領域Rの一例を示す図である。
Here, for example, as shown in FIG. 23A, Ct [1] .x = 110, F PW1 .x = 100, L =
If it is 100, the position C of the Nakamo billboard is C
The value of the x coordinate of L [1] in the sea coordinate system is CL [1] .x = {110+ {200- (100 mod2
00)}} mod 200-100 = -90 (FIG. 23 (b)). FIG. 23B shows that F PL1 (=
It is a figure which shows an example of the cloud setting area | region R seen from the zL- axis direction in the sea of clouds coordinate system which made F PW1 ) the origin.

【0190】そして、仮想カメラ100の位置が図23
(a)に示すようにワールド座標系のx軸方向に(図中
点V1から点V2へ)移動し(視線方向は変化しな
い)、それに伴い、ワールド座標系における雲設定領域
Rの中心点FPWの位置も点FPW1から点FPW2(FPW2.
x,FPW2.y,FPW2.z)(FPW2.y=FPW1.y、F
PW2.z=FPW1.z)に移動した場合、例えば、図23
(a)に示すようにFPW2.x=190であるとすると、
中雲ビルボードの配置位置CL[1]の雲海座標系にお
けるx座標の値は、 CL[1].x={110+{200−(190 mod2
00)}}mod 200−100=+20 となる(図23(c))。図23(c)は、FPL2(=
PW2)を原点とした雲海座標系において、zL軸方向か
ら見た雲設定領域Rの一例を示す図である。
The position of the virtual camera 100 is shown in FIG.
As shown in (a), it moves in the x-axis direction of the world coordinate system (from the point V1 in the figure to the point V2) (the line-of-sight direction does not change), and accordingly, the center point F of the cloud setting region R in the world coordinate system. The position of PW is also from point F PW1 to point F PW2 (F PW2 .
x, F PW2 .y, F PW2 .z) (F PW2 .y = F PW1 .y, F
PW2 .z = F PW1 .z), for example, as shown in FIG.
If F PW2 .x = 190 as shown in (a),
The value of the x-coordinate in the cloud sea coordinate system of the position CL [1] of the middle cloud billboard is CL [1] .x = {110+ {200- (190 mod2
00)}} mod 200-100 = + 20 (FIG. 23 (c)). FIG. 23C shows F PL2 (=
It is a figure which shows an example of the cloud setting area | region R seen from the zL- axis direction in the sea of clouds coordinate system which made F PW2 ) the origin.

【0191】即ち、図23(a)に示すように、ワール
ド座標系において、仮想カメラ100の変更による雲設
定領域Rの移動に伴い、雲設定領域Rから外れた領域R
P1が、新たに雲設定領域Rに含まれる領域RP2とし
て現れることになる。即ち、一の分布パターンを繰り返
して使用することができる。
That is, as shown in FIG. 23A, in the world coordinate system, as the cloud setting area R moves due to the change of the virtual camera 100, an area R deviating from the cloud setting area R is displayed.
P1 will appear as a region RP2 newly included in the cloud setting region R. That is, one distribution pattern can be repeatedly used.

【0192】また、例えば、Ct[2].x=50であ
るとすると、雲設定領域Rの中心点FPWがFPW1である
場合には、中雲ビルボードの配置位置CL[2]の雲海
座標系におけるx座標CL[2].xは、 CL[2].x={50+{200−(100 mod20
0)}}mod 200−100=+50 となる。この場合、ワールド座標系におけるCL[2]
のx座標は、中心点FPW 1のx座標FPW1.x(“10
0”)から“+50”の座標“150”である。
If Ct [2] .x = 50, for example, when the center point F PW of the cloud setting region R is F PW1 , the middle cloud billboard arrangement position CL [2] is set. The x coordinate CL [2] .x in the sea of clouds coordinate system is CL [2] .x = {50+ {200− (100 mod20
0)}} mod 200-100 = + 50. In this case, CL [2] in the world coordinate system
The x-coordinate, the x coordinate F PW1 .x center point F PW 1 ( "10
The coordinate is “150” from “0”) to “+50”.

【0193】雲設定領域Rの中心点FPWが点FPW1から
点FPW2に移動すると、中雲ビルボードの配置位置CL
[2]の雲海座標系におけるx座標CL[2].xは、 CL[2].x={50+{200−(190 mod20
0)}}mod 200−100=−40 となる。この場合、ワールド座標系における中雲ビルボ
ードの配置位置CL[2]のx座標は、中心点FPW2
x座標FPW2.x(“190”)から“−40”の座標
“150”である。
When the center point F PW of the cloud setting area R moves from the point F PW1 to the point F PW2 , the central cloud billboard arrangement position CL
The x coordinate CL [2] .x in the cloud sea coordinate system of [2] is CL [2] .x = {50+ {200- (190 mod20
0)}} mod 200-100 = -40. In this case, the x coordinate of the position CL [2] of the middle cloud billboard in the world coordinate system is the coordinate “150” of “−40” from the x coordinate F PW2 .x (“190”) of the center point F PW2. is there.

【0194】即ち、移動前(中心点を点FPW1とする)
雲設定領域Rと、移動後(中心点を点FPW2とする)雲
設定領域Rとの重なる領域PR3内の中雲ビルボードの
配置位置は、ワールド座標系において同じ位置に設定さ
れることとなる。
That is, before movement (the center point is set to point F PW1 )
The position of the middle cloud billboard in the region PR3 where the cloud setting region R and the cloud setting region R after movement (where the center point is the point F PW2 ) overlap is set to the same position in the world coordinate system. Become.

【0195】雲設定領域Rの中心点FPWがZw軸方向に
移動した場合は、上述したXw軸方向の移動と同様であ
る。
When the center point F PW of the cloud setting region R moves in the Zw axis direction, it is the same as the above-mentioned movement in the Xw axis direction.

【0196】図24は、雲設定領域Rの中心点FPWがY
w軸方向に移動する場合について説明する図である。図
24(a)に示すように、雲設定領域Rの中心点FPW
点F PW1(FPW1.y=300)、Alt=240、Al
tw=20であり、初期分布においてCt[1].y=
0であるとすると、中雲ビルボードの配置位置CL
[1]の雲海座標系におけるy座標CL[1].yは、 CL[1].y=(240−300)+0×20=“−
60” となり、図24(b)に示すような位置となる。図24
(b)は、FPL1(=FP W1)を原点とした雲海座標系に
おいて、zL軸方向から見た雲設定領域Rの一例を示す
図である。
FIG. 24 shows the center point F of the cloud setting area R.PWIs Y
It is a figure explaining the case where it moves to the w-axis direction. Figure
As shown in 24 (a), the center point F of the cloud setting region RPWBut
Point F PW1(FPW1.y = 300), Alt = 240, Al
tw = 20, and Ct [1] .y = in the initial distribution
If it is 0, the position CL of the Nakamo billboard
The y coordinate CL [1] .y in the cloud sea coordinate system of [1] is CL [1] .y = (240−300) + 0 × 20 = “−
60 " Thus, the position is as shown in FIG. Figure 24
(B) is FPL1(= FP W1) In the sea of clouds coordinate system
By the way, zLAn example of the cloud setting area R viewed from the axial direction is shown.
It is a figure.

【0197】また、雲設定領域Rの中心点FPWが、例え
ば、図24(a)に示すように点F PW1(FPW1.y=3
00)から点FPW3(FPW3.y=350)に移動した場
合、中雲ビルボードの配置位置CL[1]のy座標CL
[1].yは、CL[1].y=−60から、CL
[1].y=(240−350)+0×20=−11
0、に変更される(図24(c))。図24(C)は、
PL2(=FPW2)を原点とした雲海座標系において、z
L軸方向から見た雲設定領域Rの一例を示す図である。
The center point F of the cloud setting area RPWBut, for example
For example, as shown in FIG. PW1(FPW1.y = 3
00) to point FPW3(FPW3.y = 350)
, The y-coordinate CL of the position CL [1] on the Nakamo billboard
[1] .y is CL [1] .y = -60, and CL
[1] .y = (240−350) + 0 × 20 = −11
It is changed to 0 (FIG. 24 (c)). FIG. 24C shows
FPL2(= FPW2) Is the origin of the sea of clouds coordinate system, z
LIt is a figure which shows an example of the cloud setting area R seen from the axial direction.

【0198】仮想カメラ100の変更に伴い雲設定領域
Rの位置が変わっても、ワールド座標系における雲の高
さ(雲層の高さ)が変わることはないため、Xw軸方向
に雲設定領域Rが移動した場合のように、雲設定領域R
の外部になった領域が新たに雲設定領域Rに含まれる領
域として現れるといったことはなく、図24(c)に示
すように雲設定領域R外部の座標位置に中雲ビルボード
の配置位置が設定される。勿論、配置位置が雲設定領域
R外部になった場合には、雲を配置しない。
Even if the position of the cloud setting region R changes with the change of the virtual camera 100, the height of the cloud in the world coordinate system (the height of the cloud layer) does not change, so the cloud setting region R in the Xw axis direction. , The cloud setting area R
The area outside the cloud setting area R does not appear as a new area included in the cloud setting area R. As shown in FIG. 24C, the arrangement position of the middle cloud billboard is located at the coordinate position outside the cloud setting area R. Is set. Of course, when the arrangement position is outside the cloud setting region R, the cloud is not arranged.

【0199】このように、式(9)〜(11)に従って
n個の中雲ビルボードの配置位置CL[i]を設定し、
雲設定領域R内の中心点FPLがワールド座標系における
PWになるように、雲設定領域Rをワールド座標系に配
置することにより、ワールド座標系における雲設定領域
R内の雲(中雲ビルボード)の配置位置を設定すること
ができる。そして、これらの配置位置CL[i]に大き
さW[i]=1.0+rand(randは、0.0〜1.0の
範囲の乱数)でそれぞれ中雲ビルボードを配置する。こ
こで、大きさW[i]は、例えば、中雲ビルボードの一
辺の長さを示すものであっても良いし、また、例えば、
中雲生成原理に基づいて生成される中雲テクスチャの大
きさを“1”とした場合に、その中雲テクスチャに対す
る大きさを示すものであっても良い。
As described above, the arrangement positions CL [i] of n middle cloud billboards are set according to the equations (9) to (11),
By arranging the cloud setting area R in the world coordinate system so that the center point F PL in the cloud setting area R becomes F PW in the world coordinate system, the cloud in the cloud setting area R in the world coordinate system (the middle cloud You can set the placement position of the billboard). Then, the middle cloud billboards are arranged at these arrangement positions CL [i] with the size W [i] = 1.0 + rand (rand is a random number in the range of 0.0 to 1.0). Here, the size W [i] may indicate, for example, the length of one side of the Nakamo billboard, or, for example,
When the size of the medium cloud texture generated based on the medium cloud generation principle is “1”, it may indicate the size for the medium cloud texture.

【0200】ここで、上記式(9)〜(11)に基づい
て、雲設定領域R内に設定するのは、中雲ビルボードの
「配置位置」のみである。即ち、上下左右方向について
は、考慮に入れていない。これは、上述したように中雲
を構成する小雲ビルボードが既に上下左右方向を考慮し
て生成されており、中雲テクスチャも同様に上下左右方
向を考慮して生成されている(即ち、仮想カメラ100
のロール角Zに応じた中雲テクスチャが生成され
る。)。そのため、雲海生成時には、雲設定領域R内に
「配置位置」のみを決定すれば良い。
Here, only the "arrangement position" of the middle cloud billboard is set in the cloud setting region R based on the above equations (9) to (11). That is, the vertical and horizontal directions are not taken into consideration. As described above, the small cloud billboards forming the middle clouds have already been generated in consideration of the vertical and horizontal directions, and the middle cloud texture has also been generated in consideration of the vertical and horizontal directions (that is, Virtual camera 100
A medium cloud texture corresponding to the roll angle Z of is generated. ). Therefore, only the “arrangement position” needs to be determined within the cloud setting region R when the sea of clouds is generated.

【0201】従って、オブジェクト空間全体に雲を配置
することなく、雲設定領域R内にのみ雲を設定すれば良
いため、雲の設定に係る処理を軽減することが可能とな
る。また、雲を中雲ビルボードで表現するため、従来の
ように、仮想カメラ100の方向によっては、厚みの無
さが露見するといったことがなく、例えば、雲層を水平
方向からみた場合であっても、図25に示すような立体
感のある雲の画像を生成することができる。図25は、
本原理を適用した雲を含む表示画面の一例を示す図であ
る。
Therefore, it is only necessary to set the cloud in the cloud setting region R without arranging the cloud in the entire object space, and therefore it is possible to reduce the processing for setting the cloud. Further, since the cloud is represented by the middle cloud billboard, there is no case where the lack of thickness is exposed depending on the direction of the virtual camera 100 as in the conventional case. For example, when the cloud layer is viewed in the horizontal direction. Also, a cloud image having a stereoscopic effect as shown in FIG. 25 can be generated. FIG. 25 shows
It is a figure which shows an example of the display screen containing the cloud to which this principle is applied.

【0202】しかしながら、図26に示すような位置、
視線方向の仮想カメラ100から見た場合には、雲設定
領域Rの境界が視界内に入る。このため、図26に示す
ように仮想カメラ100の移動に伴い雲設定領域Rを矢
印方向に移動させると、仮想カメラ100が少しx軸方
向(図中右方向)に移動した時点で、雲設定領域Rの左
端境界付近に設定された配置位置CL[m]が消滅して
雲設定領域Rの右端境界付近に変わることとなる。
However, the position as shown in FIG.
When viewed from the virtual camera 100 in the line-of-sight direction, the boundary of the cloud setting region R falls within the field of view. Therefore, when the cloud setting region R is moved in the direction of the arrow as the virtual camera 100 moves as shown in FIG. 26, when the virtual camera 100 slightly moves in the x-axis direction (right direction in the figure), the cloud setting is performed. The arrangement position CL [m] set near the left end boundary of the region R disappears and changes to near the right end boundary of the cloud setting region R.

【0203】従って、仮想カメラ100から見た場合に
は、視界内の配置位置CL[m]に配置された雲が視界
の端から消えるのではなく、視界の中で消滅することに
なってしまう。また、同様に仮想カメラ100の移動に
伴い、視界の中で急に雲が現れることもあり、違和感を
生じる。そのため、視界内の雲設定領域Rの境界付近の
雲をより透明にするため、 α=1.0−|(Sz[i]−d)|/L (12) に基づいて、不透明度を示すパラメータであるα値(0
≦α≦1)を設定する。
Therefore, when viewed from the virtual camera 100, the cloud arranged at the arrangement position CL [m] in the field of view does not disappear from the edge of the field of view but disappears in the field of view. . Similarly, as the virtual camera 100 moves, clouds may suddenly appear in the field of view, which causes a feeling of strangeness. Therefore, in order to make the cloud near the boundary of the cloud setting region R in the field of view more transparent, the opacity is shown based on α = 1.0− | (Sz [i] −d) | / L (12) Parameter α value (0
≦ α ≦ 1) is set.

【0204】ここで、Sz[i]は、仮想カメラ100
から中雲ビルボードの配置位置CL[i]までの距離で
ある。また、α値は“0”で完全に透明となり、α値が
“1”の場合に不透明となる。即ち、仮想カメラ100
から中雲ビルボードの配置位置までの距離Sz[i]と
仮想カメラ100から雲設定領域Rの中心点FPWまでの
距離dとの差が小さい位置に配置位置を持つ雲ほどαの
値が大きくなり(不透明となり)、仮想カメラ100か
ら中雲ビルボードの配置位置までの距離Sz[i]と、
仮想カメラ100から雲設定領域Rの中心点FPWまでの
距離dとの差が大きい位置に配置位置を持つ中雲ビルボ
ードほどα値が小さくなる(透明になる)。
Here, Sz [i] is the virtual camera 100.
To the location CL [i] of the Nakanomo billboard. Further, when the α value is “0”, it is completely transparent, and when the α value is “1”, it is opaque. That is, the virtual camera 100
From the virtual camera 100 to the center point F PW of the cloud setting region R has a small difference between the distance Sz [i] from the cloud position to the position of the middle cloud billboard and the value of α has a value It becomes larger (becomes opaque), and the distance Sz [i] from the virtual camera 100 to the position where the Nakanomo billboard is arranged,
The α value becomes smaller (becomes transparent) as the middle cloud billboard has a position where the difference from the distance d from the virtual camera 100 to the center point F PW of the cloud setting region R is larger.

【0205】式(12)によれば、雲設定領域Rの境界
付近の配置位置CL[m]と仮想カメラ100との距離
Sz[i]は、距離dとの差が大きいため、この配置位
置CL[m]に配置される中雲ビルボードは透明度の高
いものとなる。従って、急に消えてもわかりにくい。同
様に、視界の中の雲設定領域Rの境界に現れる場合に
は、透明度の高い雲が現れることとなる。
According to the equation (12), since the distance Sz [i] between the arrangement position CL [m] near the boundary of the cloud setting region R and the virtual camera 100 is large with the distance d, this arrangement position The middle cloud billboard arranged at CL [m] has high transparency. Therefore, it is difficult to understand even if it suddenly disappears. Similarly, when it appears at the boundary of the cloud setting region R in the field of view, a cloud with high transparency appears.

【0206】なお、仮想カメラ100から中雲ビルボー
ドの配置位置CL[i]までの距離Sz[i]と、仮想
カメラ100から雲設定領域Rの中心点FPWまでの距離
dとの差に応じてα値を変更するのではなく、例えば、
図27(a)に示すように、配置位置CL[i]が雲設
定領域Rの中心点FPWから離れる雲ほど透明度が高くな
る(αの値が小さくなる)こととし、中心点FPWからの
距離がLで(α=0)になることとしても良い。その場
合には、図27(a)に示した半径Lの球P1の内側に
おいては、中心点FPWから離れるほど不透明度が低くな
り(透明になり)、球P1の外の領域に配置位置を持つ
雲は完全に透明となる(見えない)。
It should be noted that the difference between the distance Sz [i] from the virtual camera 100 to the position CL [i] of the middle cloud billboard and the distance d from the virtual camera 100 to the center point F PW of the cloud setting area R. Instead of changing the α value accordingly, for example,
As shown in FIG. 27 (a), it is assumed that the cloud having the arrangement position CL [i] farther from the center point F PW of the cloud setting region R has higher transparency (the value of α becomes smaller), and the cloud from the center point F PW The distance L may be L (α = 0). In that case, inside the sphere P1 having the radius L shown in FIG. 27A, the opacity becomes lower (transparent) as the distance from the center point F PW increases, and the arranging position is outside the sphere P1. Clouds with are completely transparent (not visible).

【0207】また、例えば、図27(b)に示すよう
に、仮想カメラ100からの中雲ビルボードの配置位置
までの距離Sz[i]が所与の範囲となる領域を不透明
(α=1.0)の領域とし、その領域から離れるほど徐
々にα値を低くしていく(透明にしていく)ようにして
も良い。
Further, for example, as shown in FIG. 27 (b), a region in which the distance Sz [i] from the virtual camera 100 to the position of the middle cloud billboard is within a given range is opaque (α = 1. .0), and the α value may be gradually lowered (transparent) as the distance from the area increases.

【0208】また、例えば、図28に示すような仮想カ
メラ100の位置、視線方向、視野角の場合には、雲設
定領域Rの外部の雲も視界に入る。そのため、更に遠景
雲設定領域Rfを設定し、この遠景雲設定領域Rfに、
平面状の雲オブジェクトを水平に配置する。この遠景雲
設定領域Rfは、例えば、仮想カメラ100からdf
(df>d)の距離に中心点FfPWを有し、一辺長Lf
(Lf>L)(遠景雲設定領域Rfは仮想カメラ100
から遠くに設定されるため、より広い範囲が視界内に入
ることとなるため)の立方体の領域である。
Further, for example, in the case of the position, line-of-sight direction, and viewing angle of the virtual camera 100 as shown in FIG. 28, the cloud outside the cloud setting region R also comes into view. Therefore, a distant view cloud setting area Rf is further set, and in this distant view cloud setting area Rf,
Arrange the planar cloud objects horizontally. This distant view cloud setting area Rf is, for example, df from the virtual camera 100.
It has a center point Ff PW at a distance of (df> d) and a side length Lf
(Lf> L) (The distant view cloud setting region Rf is the virtual camera 100.
Since it is set far away from, because a wider range will be within the field of view) is the area of the cube.

【0209】この遠景雲設定領域Rfに雲オブジェクト
を配置する際には、上述した雲設定領域Rにおいて中雲
ビルボードの配置位置を決定する場合と同様の初期分布
Ct[i]に基づいて、式(9)〜(11)における
“L”を“Lf”とし、“FPW”を“FfPW”として配
置位置を決定する。また、雲設定領域Rと同様に、中心
点FfPWから離れるほど雲が透明となるようにα値が設
定される。そのため、雲設定領域Rと遠景雲設定領域R
fとの境界や重なる部分の雲はα値の低い(透明度の高
い(見え難い))ものとなる。そのため、雲設定領域R
と遠景雲設定領域Rfとの境界をわかりにくくし、自然
に連なる雲海を表現することができる。
When arranging the cloud object in the distant view cloud setting area Rf, based on the initial distribution Ct [i] similar to the case of deciding the arrangement position of the middle cloud billboard in the cloud setting area R described above, The arrangement position is determined by setting "L" in equations (9) to (11) to "Lf" and "F PW " to "Ff PW ". Further, similarly to the cloud setting region R, the α value is set such that the cloud becomes transparent as the distance from the center point Ff PW increases. Therefore, the cloud setting area R and the distant view cloud setting area R
The cloud at the boundary with or overlapping with f has a low α value (high transparency (difficult to see)). Therefore, the cloud setting area R
And the distant view cloud setting region Rf can be made difficult to understand, and a sea of clouds that is naturally continuous can be expressed.

【0210】図29は、視界内に、遠景雲設定領域Rf
と雲設定領域Rとが存在する場合の表示画像の一例を示
す図である。このように、遠景雲設定領域Rf内の雲オ
ブジェクトの場合には、仮想カメラ100から遠い位置
に配置され、また、仮想カメラ100と遠景雲設定領域
Rf内の雲オブジェクトとの間に雲設定領域R内の中雲
ビルボードが配置されたりするため、遠景雲設定領域R
f内の雲オブジェクトは、仮想カメラ100の視線方向
に垂直に向いていなくても厚みの無さが露見し難い。そ
のため、遠景雲設定領域Rf内に設定する雲オブジェク
トは、仮想カメラ100の位置、視線方向に関わらず水
平に配置するだけで良く、ビルボード処理に係る負担を
軽減することができる。
FIG. 29 shows that the distant view cloud setting area Rf is within the field of view.
It is a figure which shows an example of the display image in case a cloud setting area R exists. As described above, in the case of the cloud object in the distant view cloud setting area Rf, it is arranged at a position far from the virtual camera 100, and the cloud setting area is located between the virtual camera 100 and the cloud object in the distant view cloud setting area Rf. Since the middle cloud billboard in R is placed, the distant view cloud setting area R
Even if the cloud object in f is not oriented perpendicular to the line-of-sight direction of the virtual camera 100, it is difficult to reveal the lack of thickness. Therefore, the cloud object set in the distant view cloud setting area Rf need only be arranged horizontally regardless of the position of the virtual camera 100 and the line-of-sight direction, and the load related to billboard processing can be reduced.

【0211】また、例えば、図30に示すようなオブジ
ェクト空間全体の雲の分布を示す雲分布マップ924に
従って、雲のある部分に配置位置を持つ中雲ビルボード
のα値に“1”を掛け(設定されているα値をそのまま
反映させ)、雲のない部分に配置位置を持つ中雲ビルボ
ードのα値に“0”を掛ける(透明にする)ことによ
り、雲のない部分に配置される中雲ビルボードを見えな
くして、雲がないようにする。
Also, for example, according to the cloud distribution map 924 showing the distribution of clouds in the entire object space as shown in FIG. 30, the α value of the middle cloud billboard having the arrangement position in the part where the cloud is present is multiplied by “1”. (By reflecting the set α value as it is), by multiplying the α value of the Nakakumo billboard, which has the placement position in the cloud-free area, by “0” (making it transparent), it is placed in the cloud-free area. Hide the Nakamura Billboard to avoid clouds.

【0212】即ち、図30に示す雲分布マップ924
は、α値の分布を示すマップである。白い(雲がある)
部分はα値が“1”に、黒い(雲がない)部分はα値が
“0”に設定されている。そして、この雲分布マップ9
24の位置に応じたα値を中雲ビルボードに設定されて
いるα値に掛け合わせたα値が描画を行なう際の不透明
度に反映されることとなる。
That is, the cloud distribution map 924 shown in FIG.
Is a map showing the distribution of α values. White (with clouds)
The α value is set to “1” for the part and the α value is set to “0” for the black (no cloud) part. And this cloud distribution map 9
The α value obtained by multiplying the α value corresponding to the position of 24 by the α value set on the Nakanomo billboard is reflected in the opacity at the time of drawing.

【0213】なお、雲分布マップ924における雲があ
る部分と雲がない部分との境界付近の部分のα値を、例
えば“0.5”に設定しておくこととしても良い。その
場合には、例えば、雲の切れ目(雲海の端部など)、即
ち雲がある部分と雲がない部分との境界をはっきりさせ
ずにぼかすことができる。
The α value in the vicinity of the boundary between the cloud-containing portion and the cloud-free portion in the cloud distribution map 924 may be set to, for example, “0.5”. In that case, for example, it is possible to blur a cloud break (such as an edge of a sea of clouds), that is, a boundary between a part with cloud and a part without cloud is not clear.

【0214】2.機能 次に本実施の形態における各機能について説明する。2. function Next, each function in this embodiment will be described.

【0215】図31は、本実施の形態における機能ブロ
ックの一例を示すブロック図である。同図に示すよう
に、本実施の形態の機能ブロックは、操作部500と、
処理部600と、表示部700と、一時記憶部800
と、記憶部900とから構成される。
FIG. 31 is a block diagram showing an example of functional blocks in the present embodiment. As shown in the figure, the functional blocks of this embodiment are the operation unit 500,
Processing unit 600, display unit 700, and temporary storage unit 800
And a storage unit 900.

【0216】操作部500は、ゲームにおけるオブジェ
クトの操作等を指示入力するためのものである。プレー
ヤは、図1に示すゲームコントローラ1202、120
4等を用いて操作データを入力する。操作部10にて得
られた操作データは処理部600に出力される。
The operation section 500 is for inputting instructions for operation of objects in the game. The player is the game controller 1202, 120 shown in FIG.
Input operation data using 4 or the like. The operation data obtained by the operation unit 10 is output to the processing unit 600.

【0217】処理部600は、主に、ゲーム演算部61
0と画像生成部630とから構成される。ゲーム演算部
610は、操作部500から入力される操作データ及び
記憶部900から読み出したゲームプログラム910に
従って、所与のゲームを実行する処理、仮想カメラ10
0の位置、視線方向、画角(視野角)等を設定する処
理、オブジェクト空間にオブジェクト、光源等を設定す
る処理等の処理を行なう。
The processing section 600 is mainly composed of the game calculation section 61.
0 and an image generation unit 630. The game calculation unit 610 executes a given game according to the operation data input from the operation unit 500 and the game program 910 read from the storage unit 900, the virtual camera 10.
A process of setting a position of 0, a line-of-sight direction, an angle of view (viewing angle), and the like, a process of setting an object, a light source, and the like in the object space are performed.

【0218】また、ゲーム演算部610には、中雲生成
部612、初期設定部616、雲海生成部618が含ま
れる。
The game calculation section 610 also includes a middle cloud generation section 612, an initial setting section 616, and a sea of clouds generation section 618.

【0219】画像生成部630は、仮想カメラ100か
ら見た画像を生成する処理を行なう。画像生成部630
には、小雲描画部632、中雲描画部634、雲海描画
部640が含まれる。
The image generator 630 carries out a process of generating an image viewed from the virtual camera 100. Image generator 630
Includes a small cloud drawing unit 632, a middle cloud drawing unit 634, and a cloud sea drawing unit 640.

【0220】これら処理部600の機能は、CISC型
やRISC型のCPU、DSP、画像生成専用のIC、
メモリ、などのハードウェアにより実現される。
The functions of these processing units 600 are the CISC type and RISC type CPUs, DSPs, ICs dedicated to image generation,
It is realized by hardware such as a memory.

【0221】表示部700は、画像生成部630により
生成された画像(即ち、フレームバッファ808に設定
された画像)等を表示するものであり、例えば、CR
T、LCD、プラズマディスプレイ等によって実現さ
れ、図1のディスプレイ1200がこれに該当する。
The display section 700 displays the image generated by the image generation section 630 (that is, the image set in the frame buffer 808) and the like.
It is realized by a T, LCD, plasma display, etc., and the display 1200 of FIG. 1 corresponds to this.

【0222】一時記憶部800は、小雲バッファ80
2、中雲バッファ804、特定点色データ806、フレ
ームバッファ808、描画対象設定データ810が格納
される。この一時記憶部800の機能は、RAMにより
実現できる。
The temporary storage unit 800 stores the small cloud buffer 80.
2, middle cloud buffer 804, specific point color data 806, frame buffer 808, and drawing target setting data 810 are stored. The function of the temporary storage unit 800 can be realized by the RAM.

【0223】記憶部900は、ゲームプログラム91
0、気流テクスチャ104、初期データ950、雲分布
マップ924、雲層データ926、色データ928、関
数データ930を記憶している。この記憶部900の機
能は、CD−ROM、ゲームカセット、ICカード、M
O、FD、DVD、メモリ、ハードディスクなどのハー
ドウェアにより実現できる。
The memory 900 stores the game program 91.
0, airflow texture 104, initial data 950, cloud distribution map 924, cloud layer data 926, color data 928, and function data 930 are stored. The function of the storage unit 900 is the CD-ROM, game cassette, IC card, M
It can be realized by hardware such as O, FD, DVD, memory and hard disk.

【0224】次に図31に示した各機能部の機能につい
て各処理毎に詳細に説明する。 2−(1)小雲生成処理機能 初期設定部616は、初期データ950を設定する処理
を行なう。具体的には、ゲーム開始時に、雲パーツデー
タ952と、2−(2)中雲生成処理機能において小雲
ビルボードを分布するための初期データである小雲分布
データ210と、2−(3)雲海生成処理機能において
中雲ビルボードを分布するための初期データである中雲
分布データ956とを設定する。
Next, the function of each functional unit shown in FIG. 31 will be described in detail for each process. 2- (1) Small cloud generation processing function initial setting unit 616 performs processing for setting initial data 950. Specifically, at the start of the game, cloud part data 952, 2- (2) small cloud distribution data 210 that is initial data for distributing small cloud billboards in the medium cloud generation processing function, and 2- (3 ) Set the middle cloud distribution data 956 which is the initial data for distributing the middle cloud billboard in the cloud sea generation processing function.

【0225】雲パーツデータ952は、上述した雲パー
ツA用マスク112(図5(b))、雲パーツB用マス
ク114(図6(b))、を含む雲パーツに係るデータ
である。この雲パーツデータ952は、ゲーム開始時に
初期設定部616により、設定される。なお、予め、記
憶部500に初期データ950として記憶されているこ
ととしても良い。
The cloud part data 952 is data relating to cloud parts including the cloud part A mask 112 (FIG. 5B) and the cloud part B mask 114 (FIG. 6B) described above. The cloud part data 952 is set by the initial setting unit 616 at the start of the game. The initial data 950 may be stored in the storage unit 500 in advance.

【0226】画像生成部630の小雲描画部632は、
ゲームプログラム910に含まれる小雲生成プログラム
912に従って、上述した1−(1)小雲生成原理を実
行する処理部であり、仮想カメラ100のピッチ角X
と、初期データ950に含まれる雲パーツデータ95
2、気流テクスチャ104に基づいて雲パーツA(12
2)(図5(a))、雲パーツB(124)(図6
(a))の各テクセルのα値を設定し、αテクスチャで
ある小雲テクスチャ102を生成し、一時記憶部800
内の小雲バッファ802に格納する処理を行う機能部で
ある。
The small cloud drawing unit 632 of the image generating unit 630
This is a processing unit that executes the above-described 1- (1) small cloud generation principle according to the small cloud generation program 912 included in the game program 910, and the pitch angle X of the virtual camera 100.
And the cloud parts data 95 included in the initial data 950
2. Cloud part A (12
2) (FIG. 5 (a)), cloud part B (124) (FIG. 6)
(A)) The α value of each texel is set, the cloud texture 102 that is an α texture is generated, and the temporary storage unit 800
It is a functional unit that performs a process of storing in the small cloud buffer 802.

【0227】2−(2)中雲生成処理機能 中雲生成部612は、中雲作成プログラム914に従っ
て、中雲座標系における雲視点220と投影スクリーン
22の配置位置を決定する処理を実行する。即ち、中雲
生成部612は、ゲーム演算部610からワールド座標
系における仮想カメラ100の視線ベクトルが入力され
ると、中雲座標系における雲視点220と投影スクリー
ン22の配置位置を決定する。そして、決定した雲視点
220と投影スクリーン22の座標データを画像生成部
630の中雲描画部634に出力する。
2- (2) Middle Cloud Generation Processing Function The middle cloud generation unit 612 executes processing for determining the arrangement positions of the cloud viewpoint 220 and the projection screen 22 in the middle cloud coordinate system according to the middle cloud generation program 914. That is, when the line-of-sight vector of the virtual camera 100 in the world coordinate system is input from the game calculation unit 610, the middle cloud generation unit 612 determines the arrangement positions of the cloud viewpoint 220 and the projection screen 22 in the middle cloud coordinate system. Then, the coordinate data of the determined cloud viewpoint 220 and the projection screen 22 is output to the middle cloud drawing unit 634 of the image generating unit 630.

【0228】中雲描画部634は、雲視点220と投影
スクリーン22の座標データが中雲生成部612から入
力されると、中雲座標系における各小雲ビルボードの代
表点の座標を雲視点220の視点座標系に変換するため
の回転行列と、雲視点220に基づいて投影スクリーン
22上に投影変換するための透視変換行列とを生成す
る。そして、初期設定部616によりゲーム開始時に設
定され記憶部900に記憶された各中雲の小雲分布デー
タ210(図13)を読み出して、各小雲ビルボードの
座標データに対して生成した行列を作用させることによ
って、各小雲ビルボードを投影スクリーン22上に投影
する。
When the coordinate data of the cloud viewpoint 220 and the projection screen 22 are input from the middle cloud generation unit 612, the middle cloud drawing unit 634 determines the coordinates of the representative point of each small cloud billboard in the middle cloud coordinate system. A rotation matrix for converting into the viewpoint coordinate system 220 and a perspective conversion matrix for performing projection conversion on the projection screen 22 based on the cloud viewpoint 220 are generated. A matrix generated by reading the cloud cloud distribution data 210 (FIG. 13) of each medium cloud set by the initial setting unit 616 at the start of the game and stored in the storage unit 900, and generated for the coordinate data of each cloud cloud billboard. To project each small cloud billboard onto the projection screen 22.

【0229】また、中雲描画部634には、α値描画部
636、色決定部638が含まれる。α値描画部636
は、各中雲を構成する32個の小雲ビルボードのα値を
描画する処理を実行する。即ち、投影スクリーン22に
おける各小雲ビルボードの各頂点の座標を決定すると、
中雲バッファ804上の対応するテクセルを判定し、各
頂点によって囲まれた範囲内のテクセルのαプレーンに
対して、小雲テクスチャ102のαテクスチャを描画す
る。
The middle cloud drawing unit 634 includes an α value drawing unit 636 and a color determining unit 638. α value drawing unit 636
Executes a process of drawing α values of 32 small cloud billboards forming each middle cloud. That is, when the coordinates of each vertex of each small cloud billboard on the projection screen 22 are determined,
The corresponding texel in the middle cloud buffer 804 is determined, and the α texture of the small cloud texture 102 is drawn on the α plane of the texel within the range surrounded by each vertex.

【0230】色決定部638は、中雲に与える色を決定
する処理を実行する。即ち、色決定部638は、投影ス
クリーン22(実際には、対応するオブジェクト空間上
の中雲ビルボード)上の9つの特定点に与える色を決定
すると共に、中雲バッファ804の全てのテクセルに対
して与える色を各特定点の色に基づいて決定する処理を
行う。具体的には、色決定部638は、図32に示すよ
うな、特定点色データ806を生成する。特定点色デー
タ806とは、各特定点と対応付けて色情報を記憶する
ためのものであり、一時記憶部800内に格納される。
The color deciding unit 638 executes the process of deciding the color given to the middle clouds. That is, the color determination unit 638 determines the colors to be given to the nine specific points on the projection screen 22 (actually, the corresponding cloud cloud in the object space), and determines all the texels in the cloud buffer 804. A process of determining a color to be given to the specific point based on the color of each specific point is performed. Specifically, the color determination unit 638 generates specific point color data 806 as shown in FIG. The specific point color data 806 is for storing color information in association with each specific point, and is stored in the temporary storage unit 800.

【0231】即ち、色決定部638は、投影スクリーン
22(実際には、対応するオブジェクト空間上の中雲ビ
ルボード)における9つの特定点の法線ベクトルを算出
すると、光線ベクトルとの内積ωを計算する。そして、
算出した内積ωの値を関数データ930に格納されてい
る式(8)に代入して色データ928に格納された明
色、ベース色、影色の3色の輝度を決定し、決定した輝
度を関数データ930に格納されている式(7)に代入
することにより、該当する特定点の色を決定する。そし
て、決定した各特定点の色情報を特定点色データ806
として一時記憶部800に記憶する。また、α値描画部
636が32個の小雲ビルボードのα値を描画終了後、
生成した特定点色データ806に基づいて、中雲バッフ
ァ804内の各テクセルのRGBプレーンに与える色情
報を決定する。なお、各テクセルに与える色を決定する
処理は、各特定点間の色を線形補間することにより決定
する。
That is, when the color determining section 638 calculates the normal vectors of nine specific points on the projection screen 22 (actually, the middle cloud billboard in the corresponding object space), the inner product ω with the ray vector is calculated. calculate. And
The calculated value of the inner product ω is substituted into the equation (8) stored in the function data 930 to determine the brightness of the three colors of the bright color, the base color, and the shadow color stored in the color data 928, and the brightness determined. By substituting into the equation (7) stored in the function data 930, the color of the corresponding specific point is determined. Then, the color information of each determined specific point is set to the specific point color data 806.
Is stored in the temporary storage unit 800 as. In addition, after the α value drawing unit 636 finishes drawing the α values of 32 small cloud billboards,
Based on the generated specific point color data 806, the color information given to the RGB plane of each texel in the middle cloud buffer 804 is determined. The process of determining the color to be given to each texel is determined by linearly interpolating the color between each specific point.

【0232】2−(3)雲海生成処理機能 雲海生成部618は、雲海作成プログラム916に基づ
いて雲海をオブジェクト空間に生成する処理を行なうも
のであり、雲設定領域決定部620と、中雲配置部61
4と、不透明度設定部622と、描画対象設定部624
とを含む。雲設定領域決定部620は、ゲーム演算部2
10により設定された仮想カメラ100の位置、視線方
向に基づいて、仮想カメラ100の位置から視線方向に
距離dの位置を決定し、その位置を中心点FPWとする一
辺長2Lの立方体を雲設定領域Rとして決定する。ま
た、雲設定領域決定部620は、仮想カメラ100の位
置から視線方向に距離dfの位置を決定し、その位置を
中心点FfPWとする一辺長2Lfの立方体を遠景雲設定
領域Rfとして決定する。
2- (3) Sea of Clouds Generation Processing Function The sea of clouds generation unit 618 performs a process of generating a sea of clouds in the object space based on the sea of clouds generation program 916, and includes the cloud setting area determination unit 620 and the middle cloud arrangement. Part 61
4, an opacity setting unit 622, and a drawing target setting unit 624
Including and The cloud setting area determination unit 620 is the game calculation unit 2
Based on the position of the virtual camera 100 and the line-of-sight direction set by 10, the position of the distance d in the line-of-sight direction is determined from the position of the virtual camera 100, and a cube having a side length of 2 L and having the center point F PW as the cloud The setting area R is determined. Further, the cloud setting area determination unit 620 determines a position of a distance df from the position of the virtual camera 100 in the line-of-sight direction, and determines a cube having a side length of 2Lf with the position as the center point Ff PW as the distant view cloud setting area Rf. .

【0233】図33は、中雲分布データ956のデータ
構成の一例を示す図である。同図に示すように、雲設定
領域R内に設定する雲の数n分の“i”に対する初期分
布Ct[i].x、Ct[i].y、Ct[i].zの値
と、中雲ビルボードの大きさW[i]と、中雲生成処理
機能により生成される4種類の中雲ビルボードに付され
た中雲ビルボード種類番号b1〜b4の内のいずれかが
ビルボード種類番号として設定されている。
FIG. 33 is a diagram showing an example of the data structure of the middle cloud distribution data 956. As shown in the figure, values of initial distributions Ct [i] .x, Ct [i] .y, and Ct [i] .z for “i” corresponding to the number n of clouds set in the cloud setting region R , The size of the middle cloud billboard W [i] and one of the middle cloud billboard type numbers b1 to b4 attached to the four kinds of middle cloud billboards generated by the middle cloud generation processing function It is set as the board type number.

【0234】Ct[i].x、Ct[i].zは、それぞ
れ“0”から“2L−1”までの乱数が設定され、Ct
[i].yは、“−1”から“+1”までの乱数が設定
されている。例えば、図33においては、“i”が
“1”に対するCt[i].x(即ちCt[1].x)
は“110”、Ct[i].y(即ちCt[1].y)は
“0”、Ct[i].z(即ちCt[1].z)は“12
4”である。また、“i”が“1”に対する大きさW
[i](即ちW[1])は、“1.1”に設定されてお
り、ビルボード種類番号として“b1”が設定されてい
る。即ち、後述する中雲配置部614がi=1に対して
設定する配置位置CL[1]には中雲ビルボード種類番
号b1の中雲ビルボードが大きさ“1.1”で配置され
ることとなる。
Ct [i] .x and Ct [i] .z are each set to a random number from "0" to "2L-1", and
A random number from "-1" to "+1" is set in [i] .y. For example, in FIG. 33, “i” is Ct [i] .x for “1” (that is, Ct [1] .x).
Is “110”, Ct [i] .y (ie Ct [1] .y) is “0”, Ct [i] .z (ie Ct [1] .z) is “12”.
4 ", and" i "is the size W with respect to" 1 "
[I] (that is, W [1]) is set to "1.1", and "b1" is set as the billboard type number. That is, the middle cloud billboard with the size “1.1” is arranged at the arrangement position CL [1] set by the middle cloud arrangement unit 614 described later for i = 1. It will be.

【0235】図34は、雲層データ926のデータ構成
の一例を示す図である。同図に示すように、雲層データ
926は、オブジェクト空間に設定される雲層のそれぞ
れの層に対する高さ(ワールド座標系における雲層の中
心のy座標の値)Alt、幅Altwが設定されてい
る。本実施の形態においては、層1、層2の2つの雲層
をオブジェクト空間に設定することとしているため、図
34に示す雲層データ926においては、層1、層2に
対する高さAlt、幅Altwが設定されているが、オ
ブジェクト空間に設定される雲層の数は、1つでも良
く、また3つ以上であっても良い。その場合には、雲層
データ926には、オブジェクト空間に設定される雲層
それぞれに対する高さAlt、幅Altwが設定され
る。
FIG. 34 is a diagram showing an example of the data structure of the cloud layer data 926. As shown in the figure, the cloud layer data 926 has the height Alt (the y coordinate value of the center of the cloud layer in the world coordinate system) Alt and the width Altw for each layer of the cloud layers set in the object space. In the present embodiment, since two cloud layers of layer 1 and layer 2 are set in the object space, in the cloud layer data 926 shown in FIG. 34, the height Alt and the width Altw for layer 1 and layer 2 are Although set, the number of cloud layers set in the object space may be one, or may be three or more. In this case, the height Alt and the width Altw for each cloud layer set in the object space are set in the cloud layer data 926.

【0236】中雲配置部614は、記憶部900に記憶
された雲層データ926、初期設定部616により設定
された中雲分布データ956に基づいて、上述した、式
(9)、(10)、(11)に従って雲設定領域Rの中
心点FPWを原点とする雲海座標系における雲の配置位置
CL[i](i=1〜n)の座標を設定する。また、遠
景雲設定領域Rfの中心点FfPWを原点とする遠景雲海
座標系における雲の配置位置CL[i](i=1〜n)
の座標も同様に設定する。
The middle cloud arranging unit 614 uses the cloud layer data 926 stored in the storage unit 900 and the middle cloud distribution data 956 set by the initial setting unit 616 to calculate the above equations (9), (10), According to (11), the coordinates of the cloud arrangement position CL [i] (i = 1 to n) in the cloud sea coordinate system with the center point F PW of the cloud setting area R as the origin are set. Further, the cloud position CL [i] (i = 1 to n) in the distant view sea-coordinate system with the center point Ff PW of the distant view cloud setting region Rf as the origin.
The coordinates of are set in the same way.

【0237】また、中雲配置部614は、設定した(雲
海座標系の)配置位置CL[i]の値に基づいて、オブ
ジェクト空間(ワールド座標系)に中雲ビルボードを配
置する。即ち、雲設定領域Rの中心点をワールド座標系
の点FPWとした場合の座標位置に、配置位置CL[i]
を変換する。そして、初期分布データに設定されている
ビルボードの種類に従った中雲ビルボードを大きさW
[i]で、視点方向に正対させて配置する。また、設定
した配置位置CL[i]が雲設定領域R外であった場合
には、その配置位置には、中雲ビルボードを配置しな
い。
The middle cloud arranging unit 614 arranges the middle cloud billboard in the object space (world coordinate system) based on the value of the set arrangement position CL [i] (in the sea of clouds coordinate system). That is, at the coordinate position when the center point of the cloud setting region R is the point F PW of the world coordinate system, the arrangement position CL [i]
To convert. Then, the size W of the middle cloud billboard according to the type of billboard set in the initial distribution data
With [i], they are arranged facing each other in the direction of the viewpoint. If the set placement position CL [i] is outside the cloud setting region R, the middle cloud billboard is not placed at that placement position.

【0238】また、中雲配置部614は、遠景雲設定領
域Rfに対して設定した配置位置CL[i]の値に基づ
いて、雲オブジェクトをワールド座標系において水平に
配置する。雲オブジェクトとしては、例えば、中雲ビル
ボードのビルボード処理を省いたもの、即ち、ビルボー
ドではなく、通常の(ビルボード処理を行なわない)平
面状の1枚のポリゴンに中雲生成処理において生成され
た中雲テクスチャをマッピングしたものである。
The middle cloud arranging unit 614 arranges the cloud object horizontally in the world coordinate system based on the value of the arrangement position CL [i] set for the distant view cloud setting region Rf. The cloud object is, for example, one obtained by omitting the billboard processing of the middle cloud billboard, that is, not a billboard but a normal (non-billboard processing) plane polygon in the middle cloud generation processing. This is a mapping of the generated middle cloud texture.

【0239】このように、中雲配置部614は、中雲ビ
ルボードを配置するが、配置する中雲ビルボードの上下
左右の向きは固定的で良い。何故ならば、中雲生成部6
12及び中雲描画部634により、仮想カメラ100の
ロール角Zに応じた中雲テクスチャが生成されるため、
中雲配置部614はその生成された中雲テクスチャの配
置位置のみを設定して配置すれば良い。
As described above, the middle cloud arranging section 614 arranges the middle cloud billboards, but the vertical and horizontal directions of the arranged middle cloud billboards may be fixed. Because the middle cloud generation unit 6
Since the 12 and the middle cloud drawing unit 634 generate the middle cloud texture according to the roll angle Z of the virtual camera 100,
The middle cloud arranging unit 614 may set and arrange only the arrangement position of the generated middle cloud texture.

【0240】不透明度設定部622は、中雲配置部61
4が設定した中雲ビルボードの配置位置と仮想カメラ1
00との距離Sz[i]に基づいて、上述した式(1
2)に従って、中雲ビルボードの配置位置それぞれに対
するα値を設定し、描画対象設定データ810に格納す
る。
The opacity setting unit 622 is used by the middle cloud arrangement unit 61.
Position of the Nakamo billboard set by 4 and virtual camera 1
Based on the distance Sz [i] from 00,
According to 2), the α value is set for each layout position of the Nakamo billboard and stored in the drawing target setting data 810.

【0241】更に、不透明度設定部622は、記憶部9
00に記憶された雲分布マップ924に基づいて、中雲
ビルボードの配置位置(中雲配置部614によりワール
ド座標系に変換された配置位置)に対応する雲分布マッ
プ924(図30)に設定されているα値を描画対象設
定データ810に設定されているα値に掛け合わせ、描
画対象設定データ810のα値を更新する。
Further, the opacity setting unit 622 is provided in the storage unit 9
Based on the cloud distribution map 924 stored in 00, the cloud distribution map 924 (FIG. 30) corresponding to the arrangement position of the middle cloud billboard (the arrangement position converted to the world coordinate system by the middle cloud arrangement unit 614) is set. The α value set in the drawing target setting data 810 is multiplied by the specified α value to update the α value of the drawing target setting data 810.

【0242】図35は、描画対象設定データ810のデ
ータ構成の一例を示す図である。ここでは、説明を簡明
にするため、雲設定領域Rに配置する雲に対する描画対
象設定データ932のみを図示するが、描画対象設定デ
ータ810としては、同様に、遠景雲設定領域Rfに配
置される雲に対する描画対象設定データ810も設定さ
れる。
FIG. 35 is a diagram showing an example of the data structure of the drawing target setting data 810. Here, for simplicity of description, only the drawing target setting data 932 for the clouds arranged in the cloud setting region R is shown, but the drawing target setting data 810 is similarly arranged in the distant view cloud setting region Rf. Drawing target setting data 810 for clouds is also set.

【0243】図35に示すように、中雲配置部614に
より決定された配置位置CL[i]に対してα値及び描
画フラグが設定されている。α値は、不透明度設定部6
22が設定したα値が格納される。描画フラグは、各フ
レームに対する処理開始時に“0”にリセットされ、描
画対象となるもののみ後述する描画対象設定部624に
より“1”に設定される。また、この描画対象設定デー
タ810の配置位置CL[i]には、雲設定領域Rまた
は遠景雲設定領域Rfの内部に存在する配置位置のみが
設定されている。即ち、中雲配置部614により配置さ
れる中雲ビルボードまたは雲オブジェクトに対しての
み、α値及び描画フラグが設定されることとなる。
As shown in FIG. 35, the α value and the drawing flag are set for the arrangement position CL [i] determined by the middle cloud arrangement unit 614. The α value is the opacity setting unit 6
The α value set by 22 is stored. The drawing flag is reset to “0” at the start of processing for each frame, and only the drawing target is set to “1” by the drawing target setting unit 624 described later. Further, in the arrangement position CL [i] of the drawing target setting data 810, only the arrangement position existing inside the cloud setting region R or the distant view cloud setting region Rf is set. That is, the α value and the drawing flag are set only for the middle cloud billboard or the cloud object arranged by the middle cloud arrangement unit 614.

【0244】雲分布マップ924は、図30に示すよう
なオブジェクト空間全体の雲の分布を示すマップであ
り、記憶部900は、雲層それぞれに対する雲分布マッ
プ924を格納している。また、この雲分布マップ92
4は、雲の不透明度αの分布を示すものでもあり、雲の
ある(図中白い)部分はα値が“1”に設定されてお
り、雲のない(図中黒い)部分は、α値が“0”に設定
されている。
The cloud distribution map 924 is a map showing the distribution of clouds in the entire object space as shown in FIG. 30, and the storage unit 900 stores the cloud distribution map 924 for each cloud layer. Also, this cloud distribution map 92
4 also shows the distribution of cloud opacity α, where the α value is set to “1” in the part with clouds (white in the figure) and α in the part without clouds (black in the figure). The value is set to "0".

【0245】描画対象設定部624は、描画対象設定デ
ータ810に不透明度設定部622が設定したα値が
“0”でない中雲ビルボードを描画対象として設定す
る。即ち、透明な中雲ビルボードは描画されないことと
なる。具体的には、描画対象設定データ810におい
て、α値が“0”でない配置位置CL[i]に対する描
画フラグを“1”に設定する。即ち、画像生成部は、オ
ブジェクト空間に配置された中雲ビルボードの内、描画
フラグが“1”に設定された配置位置CL[i]に配置
された中雲ビルボードのみを描画する。
The drawing target setting unit 624 sets a middle cloud billboard whose α value set by the opacity setting unit 622 is not “0” in the drawing target setting data 810 as a drawing target. That is, the transparent middle cloud billboard is not drawn. Specifically, in the drawing target setting data 810, the drawing flag is set to “1” for the arrangement position CL [i] whose α value is not “0”. That is, the image generation unit draws only the middle cloud billboard arranged at the arrangement position CL [i] in which the drawing flag is set to "1" among the middle cloud billboards arranged in the object space.

【0246】雲海描画部640は、ワールド座標系に配
置された中雲ビルボード及び雲オブジェクトをスクリー
ン座標系に座標変換し、不透明度設定部622により設
定された描画対象設定データ810に設定された不透明
度α及び中雲バッファ804のαプレーンに設定されて
いるα値、中雲バッファ804のRGBプレーンに設定
された輝度(色)、等に基づいて、色情報等を決定して
画像を生成する、(即ちフレームバッファ808の各画
素の値を設定する)。その際に、描画対象設定データ8
10において描画フラグが“1”に設定されている配置
位置CL[i]に配置される中雲ビルボードと雲オブジ
ェクトに対してのみ処理を行なう。
The cloud sea drawing unit 640 performs coordinate conversion of the middle cloud billboard and the cloud object arranged in the world coordinate system into the screen coordinate system, and sets them in the drawing target setting data 810 set by the opacity setting unit 622. An image is generated by determining color information and the like based on the opacity α, the α value set in the α plane of the middle cloud buffer 804, the brightness (color) set in the RGB plane of the middle cloud buffer 804, and the like. Yes (that is, the value of each pixel of the frame buffer 808 is set). At that time, the drawing target setting data 8
In 10, the processing is performed only on the middle cloud billboard and the cloud object arranged at the arrangement position CL [i] where the drawing flag is set to "1".

【0247】3.動作 次に本実施の形態における雲生成処理の動作について説
明する。図36は、雲生成処理の動作の一例を示すフロ
ーチャートである。
3. Operation Next, the operation of the cloud generation processing in this embodiment will be described. FIG. 36 is a flowchart showing an example of the operation of cloud generation processing.

【0248】まず、初期設定部616がゲーム開始時に
初期データ950を設定する初期設定処理を実行する
(ステップS0)。そして、小雲描画部632がステッ
プS0において設定された初期データ950に基づいて
小雲生成処理を行ない、小雲テクスチャ102を生成す
る(ステップS1)。
First, the initial setting section 616 executes an initial setting process for setting the initial data 950 at the start of the game (step S0). Then, the small cloud drawing unit 632 performs small cloud generation processing based on the initial data 950 set in step S0, and generates the small cloud texture 102 (step S1).

【0249】中雲生成部612及び中雲描画部634は
ステップS0において設定された初期データ950及び
ステップS1において生成された小雲テクスチャ102
に基づいて中雲生成処理を行い、中雲テクスチャを生成
する(ステップS2)。そして、雲海生成部618及び
雲海描画部640は、ステップS0において設定された
初期データ950及びステップS2において生成された
中雲テクスチャに基づいて雲海生成処理を行ない、雲海
を含む1フレーム分の画像を生成する(ステップS
3)。そして、ステップS1に戻り、ステップS1〜S
3の処理を毎フレーム行ない、ゲーム画像(動画)を生
成することとなる。
The middle cloud generation unit 612 and the middle cloud drawing unit 634 generate the initial data 950 set in step S0 and the small cloud texture 102 generated in step S1.
A middle cloud generation process is performed based on the above to generate a middle cloud texture (step S2). Then, the sea of clouds generation unit 618 and the sea of clouds drawing unit 640 perform the sea of clouds generation processing based on the initial data 950 set in step S0 and the middle cloud texture generated in step S2, and an image of one frame including the sea of clouds is obtained. Generate (Step S
3). And it returns to step S1 and steps S1 to S
The process 3 is performed for each frame to generate a game image (moving image).

【0250】図37は、初期設定処理(図36;ステッ
プS0)の動作の一例を示すフローチャートである。
FIG. 37 is a flow chart showing an example of the operation of the initial setting process (FIG. 36; step S0).

【0251】まず、初期設定部616は、初期データ9
50として雲パーツデータ952を生成し、雲の形状を
決定する(ステップS0−1)。そして、初期設定部6
16は、中雲生成処理において、小雲を配置する際の分
布データである小雲分布データ210を生成する。(ス
テップS0−2)。そして、雲海生成処理において中雲
を配置する際の分布データとなる中雲分布データ956
を生成して(ステップS0−3)、処理を終了する。
First, the initial setting section 616 uses the initial data 9
Cloud part data 952 is generated as 50, and the shape of the cloud is determined (step S0-1). Then, the initial setting unit 6
In the middle cloud generation process, 16 generates small cloud distribution data 210 which is distribution data when arranging small clouds. (Step S0-2). Then, the middle cloud distribution data 956 to be the distribution data when arranging the middle clouds in the sea of clouds generation processing.
Is generated (step S0-3), and the process ends.

【0252】図38は、本実施の形態における小雲生成
処理(図36;ステップS1)の動作について説明する
フローチャートである。
FIG. 38 is a flow chart for explaining the operation of the small cloud generation process (FIG. 36; step S1) in the present embodiment.

【0253】図38において、まず、小雲描画部632
は、小雲テクスチャ102のCα[n,m]をクリアす
る(“0”に戻す)とともに、式(1)を用いて雲パー
ツA(122),B(124)に雲パーツデータ952
に設定されている雲パーツA用マスク112と雲パーツ
B用マスク114のビットパターンの値を加算して、雲
パーツA(122)、Bのα値を初期状態に戻す(ステ
ップS1−1)。
In FIG. 38, first, the small cloud drawing unit 632.
Clears Cα [n, m] of the small cloud texture 102 (returns it to “0”), and uses the cloud part data 952 in cloud parts A (122) and B (124) using equation (1).
The values of the bit patterns of the mask 112 for cloud parts A and the mask 114 for cloud parts B set to are added to return the α values of the cloud parts A (122) and B to the initial state (step S1-1). .

【0254】次に、小雲描画部632は、現時点の仮想
カメラのピッチ角Xを取得すると(ステップS1−
2)、雲パーツA(122)または雲パーツB(12
4)を特定して以下の処理を行う(以下雲パーツA(1
22)を特定したこととする。)。即ち、特定した雲パ
ーツA(122)を構成するテクセル[n,m]につい
て、α値が“0”であるか否かを判別する(ステップS
1−3)。α値が“0”でなければ(ステップS1−
3:YES)、気流テクスチャ104の対応するテクセ
ルのα[n,m]と上記取得したピッチ角Xとを式
(2)に代入することにより、αA[n,m]の値を求
める(ステップS1−4)。
Next, the small cloud drawing unit 632 acquires the pitch angle X of the virtual camera at the present time (step S1-
2), cloud part A (122) or cloud part B (12)
4) is specified and the following processing is performed (hereinafter, cloud part A (1
22) is specified. ). That is, it is determined whether or not the α value is “0” for the texel [n, m] forming the specified cloud part A (122) (step S).
1-3). If the α value is not "0" (step S1-
3: YES), the value of α A [n, m] is obtained by substituting α [n, m] of the corresponding texel of the airflow texture 104 and the obtained pitch angle X into the equation (2) ( Step S1-4).

【0255】そして、この求めたαA[n,m]の値
を、小雲テクスチャ102の対応するテクセル[n,
m]のα値に加算する(ステップS4)。この加算の結
果、小雲テクスチャ102のα値が“1”を超えた場合
には、そのテクセルのα値は“1”とする。
Then, the obtained value of α A [n, m] is set to the corresponding texel [n, m of the cloud texture 102.
m] is added to the α value (step S4). As a result of this addition, when the α value of the cloud texture 102 exceeds “1”, the α value of the texel is set to “1”.

【0256】また、上記雲パーツA(122)のテクセ
ル[n,m]のα値が“0”である場合には(ステップ
S1−3:NO)、ステップS1−4およびステップS
1−5の処理をスキップして、ステップS1−6に移行
する。
When the α value of the texel [n, m] of the cloud part A (122) is "0" (step S1-3: NO), steps S1-4 and S are performed.
The process of 1-5 is skipped, and the process proceeds to step S1-6.

【0257】このように、小雲描画部632は、雲パー
ツA(122)を構成する全てのテクセルについて、上
記ステップS1−3〜S1−5の処理を実行して、小雲
テクスチャ102の対応するテクセルの不透明度αを決
定すると(ステップS1−6:YES)、続いて、雲パ
ーツB(124)についても、同様の処理(ステップS
1−3〜S1−6)を行う。
As described above, the small cloud drawing unit 632 executes the processing of the above steps S1-3 to S1-5 for all the texels forming the cloud part A (122) to correspond to the small cloud texture 102. When the opacity α of the texel to be processed is determined (step S1-6: YES), the same process is performed for the cloud part B (124) (step S).
1-3 to S1-6) are performed.

【0258】そして、雲パーツA(122)及びB(1
24)について、上記ステップS1−3〜S1−6の処
理を実行したことを確認すると(ステップS1−7:Y
ES)、小雲描画部632は、本処理を終了する。
Then, the cloud parts A (122) and B (1
24), it is confirmed that the processes of steps S1-3 to S1-6 have been executed (step S1-7: Y
ES), the small cloud drawing unit 632 ends this processing.

【0259】以上の処理により、雲パーツA(12
2),B(124)、及び気流テクスチャ104を合成
し、小雲テクスチャ102が生成されることとなる。
With the above processing, the cloud part A (12
2), B (124), and the airflow texture 104 are combined to generate the cloud texture 102.

【0260】尚、気流テクスチャ104は、上述した通
りアニメーションであるため、時間の経過に応じて、気
流テクスチャ104を構成する各テクセルの不透明度の
値α[n,m]が変化する。このため、小雲テクスチャ
102には気流の様子が表現されることとなる。
Since the airflow texture 104 is an animation as described above, the opacity value α [n, m] of each texel forming the airflow texture 104 changes with the passage of time. Therefore, the appearance of the air flow is represented in the small cloud texture 102.

【0261】図39は、中雲生成処理(図36;ステッ
プS2)の動作の一例を示すフローチャートである。
FIG. 39 is a flow chart showing an example of the operation of the middle cloud generation process (FIG. 36; step S2).

【0262】中雲生成部612は、ワールド座標系にお
ける仮想カメラ100の視線ベクトルに基づいて、中雲
座標系における雲視点220と投影スクリーン22の配
置位置を決定する(ステップS2−1)。中雲描画部6
34は、中雲座標系に配置された投影スクリーン22
(実際には、対応するオブジェクト空間上の中雲ビルボ
ード)における9つの特定点の法線ベクトルを算出し、
各特定点の色を決定して、特定点色データ806を生成
する(ステップS2−2)。また、中雲描画部634
は、中雲座標系における雲視点220の座標に基づい
て、ローカルマトリクスを生成する(ステップS2−
3)。即ち、各小雲ビルボードを雲視点220の視点座
標系に変換するための回転行列と、雲視点220と投影
スクリーン22との距離に基づく透視変換行列を生成す
る。
The middle cloud generation unit 612 determines the arrangement positions of the cloud viewpoint 220 and the projection screen 22 in the middle cloud coordinate system based on the line-of-sight vector of the virtual camera 100 in the world coordinate system (step S2-1). Nakamura drawing section 6
34 is the projection screen 22 arranged in the middle cloud coordinate system.
(Actually, calculate the normal vector of the nine specific points in the corresponding cloud cloud in the object space),
The color of each specific point is determined and the specific point color data 806 is generated (step S2-2). In addition, the middle cloud drawing unit 634
Generates a local matrix based on the coordinates of the cloud viewpoint 220 in the middle cloud coordinate system (step S2-
3). That is, a rotation matrix for converting each small cloud billboard into the viewpoint coordinate system of the cloud viewpoint 220 and a perspective conversion matrix based on the distance between the cloud viewpoint 220 and the projection screen 22 are generated.

【0263】そして、中雲描画部634は、初期設定処
理(図37)により設定された小雲分布データ210内
に記憶された128(32×4)個の小雲ビルボードの
コードの中から1つを選択し(ステップS2−4)、ス
テップS2−3で生成した行列を作用することによっ
て、投影スクリーン22上に投影変換する。そして、α
値描画部636が当該小雲ビルボードのα値を中雲バッ
ファ804上のαプレーンに描画する(ステップS2−
5)。中雲描画部634は、当該中雲バッファ804の
描画処理が終了すると、32個の小雲ビルボードについ
て処理を実行したか否かを判別する(ステップS2−
6)。終了していない場合には、ステップS2−4に戻
り、次の小雲ビルボードのコードを選択してα値を描画
する(ステップS2−4〜S2−5)。
Then, the middle cloud drawing unit 634 selects from the 128 (32 × 4) small cloud billboard codes stored in the small cloud distribution data 210 set by the initial setting process (FIG. 37). By selecting one (step S2-4) and operating the matrix generated in step S2-3, projection conversion is performed on the projection screen 22. And α
The value drawing unit 636 draws the α value of the small cloud billboard on the α plane on the middle cloud buffer 804 (step S2-
5). When the drawing process of the middle cloud buffer 804 is completed, the middle cloud drawing unit 634 determines whether the process has been executed for 32 small cloud billboards (step S2-
6). If not finished, the process returns to step S2-4, the code of the next cloud cloud is selected, and the α value is drawn (steps S2-4 to S2-5).

【0264】一方、ステップS2−6において、32個
の小雲ビルボードの処理が終了したものと判別した場合
には、色決定部638が、ステップS2−2において生
成された特定点色データ806に基づいて、中雲バッフ
ァ804のRGBプレーンに色を描画する処理を実行す
る(ステップS2−7)。中雲バッファ804の全ての
テクセルについて色を与える処理が終了した後、中雲描
画部634は、4つの中雲について処理が終了したかを
判別し(ステップS2−8)、終了していない場合に
は、ステップS2−4に移行して、次の中雲の描画処理
を実行する。ステップS2−8において、4つの中雲に
ついて処理が終了した場合には、本処理を終了する。
On the other hand, if it is determined in step S2-6 that the processing of 32 small cloud billboards has been completed, the color determination unit 638 causes the specific point color data 806 generated in step S2-2. On the basis of the above, processing for drawing a color on the RGB plane of the middle cloud buffer 804 is executed (step S2-7). After the processing of giving colors to all the texels of the middle cloud buffer 804 is completed, the middle cloud drawing unit 634 determines whether the processing has been completed for the four middle clouds (step S2-8), and if not completed, In step S2-4, the next middle cloud drawing process is executed. In step S2-8, when the processing has been completed for the four middle clouds, this processing is ended.

【0265】次に、雲海生成処理(図36;ステップS
3)の動作について説明する。図40は、本実施の形態
における雲海生成処理の動作の一例を示すフローチャー
トである。
Next, the sea of clouds generation processing (FIG. 36; step S).
The operation of 3) will be described. FIG. 40 is a flowchart showing an example of the operation of the sea of clouds generation processing according to the present embodiment.

【0266】まず、雲設定領域決定部620が仮想カメ
ラ100の位置、視線方向に基づいて雲設定領域Rを設
定する(ステップS3−1)。次いで、雲海描画部64
0が仮想カメラ100の位置、視線方向に基づいて、ワ
ールド座標系からスクリーン座標系への座標変換のため
のマトリクスを生成しておく(ステップS3−2)。
First, the cloud setting area determining unit 620 sets the cloud setting area R based on the position of the virtual camera 100 and the line-of-sight direction (step S3-1). Next, the sea of clouds drawing unit 64
0 generates a matrix for coordinate conversion from the world coordinate system to the screen coordinate system based on the position of the virtual camera 100 and the line-of-sight direction (step S3-2).

【0267】そして、中雲配置部614がi=1につい
て式(9)〜(11)に従って、雲層データ926、中
雲分布データ956に基づいて雲設定領域Rの中心点を
原点とした雲海座標系における座標として中雲ビルボー
ドの配置位置CL[i]を設定し(ステップS3−3,
S3−4)、その配置位置CL[i]に対応する、ワー
ルド座標系における配置位置にサイズW[i]の中雲ビ
ルボードを配置する(ステップS3−5)。そして、配
置された中雲ビルボードをステップS3−2において生
成されたマトリクスに従って、雲海描画部640がスク
リーン座標に座標変換する(ステップS3−6)。
Then, the middle cloud arranging unit 614 uses the cloud layer data 926 and the middle cloud distribution data 956 in accordance with the equations (9) to (11) with respect to i = 1, and sets the center point of the cloud setting region R as the origin of the cloud sea coordinates. The central cloud billboard arrangement position CL [i] is set as the coordinate in the system (step S3-3.
S3-4), the middle cloud billboard of size W [i] is arranged at the arrangement position in the world coordinate system corresponding to the arrangement position CL [i] (step S3-5). The cloud sea drawing unit 640 then performs coordinate conversion of the arranged middle cloud billboards into screen coordinates according to the matrix generated in step S3-2 (step S3-6).

【0268】また、不透明度設定部622が式(12)
に従って、仮想カメラ100から配置位置までの距離S
z[i]に応じた中雲ビルボードのα値を設定し(ステ
ップS3−7)、雲分布マップ924に従って、更に中
雲ビルボードのα値を設定する(ステップS3−8)。
そして、描画対象設定部624が中雲ビルボードが透明
(α=0)か否かを判別し(ステップS3−9)、透明
である場合には、描画対象設定データ810の描画フラ
グを“0”のままにしてステップS3−11に移行す
る。
Further, the opacity setting section 622 uses the equation (12).
According to the distance S from the virtual camera 100 to the placement position.
The α value of the middle cloud billboard is set according to z [i] (step S3-7), and the α value of the middle cloud billboard is further set according to the cloud distribution map 924 (step S3-8).
Then, the drawing target setting unit 624 determines whether or not the middle cloud billboard is transparent (α = 0) (step S3-9). If it is transparent, the drawing flag of the drawing target setting data 810 is set to “0”. ", And the process proceeds to step S3-11.

【0269】透明でない場合には、描画対象として設定
し、即ち、ステップS3−5において設定された配置位
置CL[i]に対する描画フラグを“1”に設定し(ス
テップS3−10)、ステップS3−11に移行する。
If it is not transparent, it is set as a drawing target, that is, the drawing flag for the arrangement position CL [i] set in step S3-5 is set to "1" (step S3-10) and step S3. Move to -11.

【0270】ステップS3−11において、中雲配置部
614は、i≧nか否かを判別する。“i”がnより小
さい場合には、“i”の値を“i+1”に更新して(ス
テップS3−12)、ステップS3−4に戻り、以降ス
テップS3−11までの処理を繰り返す。“i”がn以
上になったと判別した場合には、雲層データ926に設
定されている全ての雲層に対して中雲ビルボードの配置
位置の設定を行なったか否かを判別し(ステップS3−
13)、行なっていない雲層がある場合には、ステップ
S3−3に戻り、行なっていない雲層に対して、ステッ
プS3−3〜S3−13までの処理を繰り返す。
In step S3-11, the middle cloud arranging unit 614 determines whether i ≧ n. If "i" is smaller than n, the value of "i" is updated to "i + 1" (step S3-12), the process returns to step S3-4, and the processes up to step S3-11 are repeated. When it is determined that “i” has become n or more, it is determined whether or not the arrangement positions of the middle cloud billboard have been set for all the cloud layers set in the cloud layer data 926 (step S3-
13) If there is a cloud layer that has not been performed, the process returns to step S3-3, and the processes of steps S3-3 to S3-13 are repeated for the cloud layer that has not been performed.

【0271】そして、オブジェクト空間に設定されてい
る全ての雲層に対して処理が終了した場合には、遠景雲
設定領域Rfに対してもステップS3−2〜S3−14
と同様の処理を行なう。即ち、雲設定領域Rを設定し、
配置する雲オブジェクト数分、雲オブジェクトの配置位
置を設定して配置し、配置された雲オブジェクトをスク
リーン座標系に変換し、不透明度αを設定し、透明でな
いもののみを描画対象とする処理を繰り返し、更に、オ
ブジェクト空間に設定されている全ての雲層に対して処
理を行なう(ステップS3−14)。
When the processing is completed for all the cloud layers set in the object space, steps S3-2 to S3-14 are also executed for the distant view cloud setting area Rf.
Perform the same processing as. That is, the cloud setting area R is set,
Set the cloud object placement positions for the number of cloud objects to be placed, place the cloud objects, convert the placed cloud objects to the screen coordinate system, set the opacity α, and set only the non-transparent objects to be drawn. Repeatedly, the processing is further performed for all cloud layers set in the object space (step S3-14).

【0272】そして、雲海描画部640が描画対象設定
データ810において描画フラグが“1”に設定されて
いる配置位置に配置される中雲ビルボード、雲オブジェ
クトのみを中雲バッファ804に設定されている色、不
透明度等に基づいて描画して(ステップS3−16)、
処理を終了する。
Then, the cloud sea drawing unit 640 sets only the middle cloud billboard and the cloud object set in the middle cloud buffer 804 at the position where the drawing flag is set to "1" in the drawing target setting data 810. Drawing based on the existing color, opacity, etc. (step S3-16),
The process ends.

【0273】次に、本実施の形態を実現できるハードウ
ェアの構成の一例について図41を用いて説明する。同
図に示す装置では、CPU1000、ROM1002、
RAM1004、情報記憶媒体1006、音生成IC1
008、画像生成IC1010、I/Oポート101
2、1014が、システムバス1016により相互にデ
ータ入出力可能に接続されている。そして画像生成IC
1010には表示装置1018が接続され、音生成IC
1008にはスピーカ1020が接続され、I/Oポー
ト1012にはコントロール装置1022が接続され、
I/Oポート1014には通信装置1024が接続され
ている。
Next, an example of a hardware configuration that can realize this embodiment will be described with reference to FIG. In the device shown in the figure, the CPU 1000, the ROM 1002,
RAM 1004, information storage medium 1006, sound generation IC1
008, image generation IC 1010, I / O port 101
2, 1014 are connected to each other via a system bus 1016 so that data can be input / output. And image generation IC
A display device 1018 is connected to 1010, and a sound generation IC
A speaker 1020 is connected to 1008, a control device 1022 is connected to the I / O port 1012,
A communication device 1024 is connected to the I / O port 1014.

【0274】情報記憶媒体1006は、プログラム、表
示物を表現するための画像データ、音データ、プレイデ
ータ等が主に格納されるものであり、図31における記
憶部900に相当する。例えば本実施の形態を実現する
ものがコンピュータである場合には、ゲームプログラム
等を格納する情報記憶媒体としてCD−ROM、DVD
等が、家庭用ゲーム装置である場合には、これらの他に
ゲームカセット等が用いられる。また業務用ゲーム装置
として実現する場合には、ROM等のメモリやハードデ
ィスクが用いられ、この場合には情報記憶媒体1006
はROM1002になる。
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, play data, and the like, and corresponds to the storage unit 900 in FIG. For example, when a computer implements the present embodiment, a CD-ROM, a DVD are used as information storage media for storing game programs and the like.
When the above is a home game device, a game cassette or the like is used in addition to these. Further, when it is realized as an arcade game machine, a memory such as a ROM or a hard disk is used, and in this case, the information storage medium 1006.
Becomes the ROM 1002.

【0275】コントロール装置1022はゲームコント
ローラ、操作パネル等に相当するものであり、ユーザー
がゲームの進行に応じて行なう判断の結果を装置本体に
入力するための装置である。このコントロール装置10
22は、図31における操作部500に相当する。
The control device 1022 corresponds to a game controller, an operation panel, etc., and is a device for inputting the result of the judgment made by the user according to the progress of the game into the main body of the device. This control device 10
22 corresponds to the operation unit 500 in FIG.

【0276】情報記憶媒体1006に格納されるプログ
ラム、ROM1002に格納されるシステムプログラム
(装置本体の初期化情報等)、コントロール装置102
2から入力される信号等に従って、CPU1000は装
置全体の制御や各種データ処理を行う。RAM1004
はこのCPU1000の作業領域等として用いられる記
憶手段であり、情報記憶媒体1006やROM1002
の所与の内容、あるいはCPU1000の演算結果等が
格納される。
A program stored in the information storage medium 1006, a system program stored in the ROM 1002 (initialization information of the apparatus main body, etc.), the control device 102.
The CPU 1000 controls the entire apparatus and processes various data in accordance with signals input from the device 2. RAM1004
Is a storage unit used as a work area or the like of the CPU 1000, and includes an information storage medium 1006 and a ROM 1002.
Is stored, or the calculation result of the CPU 1000 and the like are stored.

【0277】更に、この装置には音生成IC1008と
画像生成IC1010とが設けられていてゲーム音やゲ
ーム画像の好適な出力が行えるようになっている。音生
成IC1008は情報記憶媒体1006やROM100
2に記憶される情報に基づいて効果音やBGM音楽等の
ゲーム音を生成する集積回路であり、生成されたゲーム
音はスピーカ1020によって出力される。また、画像
生成IC1010は、RAM1004、ROM100
2、情報記憶媒体1006等から送られる画像情報に基
づいて表示装置1018に出力するための画素情報を生
成する集積回路である。また表示装置1018は、CR
T、LCD、TV、プラズマディスプレイ、液晶プラズ
マディスプレイ、プロジェクター等により実現される。
この表示装置1018は、図31に示す表示部700に
相当する。
Further, this apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that the game sound and the game image can be appropriately output. The sound generation IC 1008 includes an information storage medium 1006 and a ROM 100.
2 is an integrated circuit that generates a game sound such as a sound effect or a BGM music based on the information stored in 2, and the generated game sound is output by the speaker 1020. The image generation IC 1010 includes a RAM 1004 and a ROM 100.
2. An integrated circuit that generates pixel information to be output to the display device 1018 based on image information sent from the information storage medium 1006 or the like. Further, the display device 1018 is a CR
It is realized by T, LCD, TV, plasma display, liquid crystal plasma display, projector and the like.
The display device 1018 corresponds to the display unit 700 shown in FIG.

【0278】また、通信装置1024は装置内部で利用
される各種の情報を外部とやりとりするものであり、他
の装置と接続されてゲームプログラム等に応じた所与の
情報を送受したり、通信回線を介してゲームプログラム
等の情報を送受すること等に利用される。
The communication device 1024 is for exchanging various kinds of information used inside the device with the outside, and is connected to another device to send and receive given information according to a game program or the like, and to communicate. It is used to send and receive information such as game programs via a line.

【0279】そして、図1〜図35を参照して説明した
種々の処理は、図36〜図40のフローチャートに示し
た処理等を行うプログラムを格納した情報記憶媒体10
06と、該プログラムに従って動作するCPU100
0、画像生成IC1010、音生成IC1008等によ
って実現される。なお画像生成IC1010等で行われ
る処理は、CPU1000あるいは汎用のDSP等によ
りソフトウェア的に行うこととしてもよい。
The various processes described with reference to FIGS. 1 to 35 are the same as the information storage medium 10 storing a program for performing the processes shown in the flowcharts of FIGS. 36 to 40.
06, and a CPU 100 that operates according to the program
0, an image generation IC 1010, a sound generation IC 1008, and the like. The processing performed by the image generation IC 1010 and the like may be performed by software by the CPU 1000, a general-purpose DSP, or the like.

【0280】図42に、ホスト装置1300と、このホ
スト装置1300と通信回線1302を介して接続され
る端末1304−1〜1304−nとを含むゲーム装置
に本実施の形態を適用した場合の例を示す。
FIG. 42 shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302. Indicates.

【0281】この場合、ゲームプログラム510、気流
テクスチャ104、初期データ952、雲分布マップ9
24、雲層データ926、色データ928、関数データ
930は、例えば、ホスト装置1300が制御可能な磁
気ディスク装置、磁気テープ装置、メモリ等の情報記憶
媒体1306に格納されている。以下、この情報記憶媒
体1306に格納されている情報を格納情報という。端
末1304−1〜1304−nが、CPU、画像生成I
C、音生成ICを有し、スタンドアロンでゲーム画像、
ゲーム音を生成できるものである場合には、ホスト装置
1300からは、格納情報が通信回線1302を介して
端末1304−1〜1304−nに配信される。一方、
スタンドアロンで生成できない場合には、ホスト装置1
300がゲーム画像、ゲーム音を生成し、これを端末1
304−1〜1304−nに伝送し、端末において出力
することになる。
In this case, the game program 510, the airflow texture 104, the initial data 952, the cloud distribution map 9
24, cloud layer data 926, color data 928, and function data 930 are stored in the information storage medium 1306 such as a magnetic disk device, a magnetic tape device, and a memory that can be controlled by the host device 1300. Hereinafter, the information stored in this information storage medium 1306 will be referred to as stored information. The terminals 1304-1 to 1304-n have a CPU and an image generation I.
C, with sound generation IC, stand-alone game image,
When the game sound can be generated, the host device 1300 delivers the stored information to the terminals 1304-1 to 1304-n via the communication line 1302. on the other hand,
If it cannot be created standalone, the host device 1
300 generates a game image and a game sound, and these are generated by the terminal 1
It will be transmitted to 304-1 to 1304-n and output at the terminal.

【0282】以上のように、本発明によれば、小雲生成
処理により、雲パーツA(122)と雲パーツB(12
4)とを仮想カメラ100のピッチ角Xに応じて合成す
ることとしたため、単純な手法ながらも立体感のある雲
を表現することができる。
As described above, according to the present invention, the cloud part A (122) and the cloud part B (12) are processed by the small cloud generation process.
Since 4) and 4) are combined according to the pitch angle X of the virtual camera 100, it is possible to express a cloud having a stereoscopic effect even though it is a simple method.

【0283】更に中雲生成処理により、中雲を観察する
仮想カメラ100の位置に対応して形状が変化する立体
的な中雲を表現することができる。即ち、仮想カメラ1
00から中雲を見る角度が変化しても、中雲の形状に矛
盾が生じず、見ていて違和感のない画像を生成すること
ができる。
Further, the middle cloud generation processing makes it possible to represent a three-dimensional middle cloud whose shape changes corresponding to the position of the virtual camera 100 for observing the middle cloud. That is, the virtual camera 1
Even if the angle at which the middle cloud is viewed from 00 changes, the shape of the middle cloud does not become inconsistent, and it is possible to generate an image that does not look strange.

【0284】また、小雲テクスチャ102に施された気
流の表現は、結果的に、中雲テクスチャの縁のみに反映
されるように見えるため、よりリアルな雲を表現するこ
とができる。
Further, since the expression of the air flow applied to the small cloud texture 102 appears to be reflected only on the edge of the medium cloud texture, a more realistic cloud can be expressed.

【0285】また、更に雲海生成処理により、雲海を違
和感なく、立体的に表現することができる。また、仮想
カメラ100の視界内(雲設定領域R内)のみ中雲ビル
ボードを配置すれば良いため、雲海の画像生成に係る処
理の軽減を図ることができる。
[0285] Furthermore, the sea of clouds can be three-dimensionally expressed without a feeling of strangeness by the sea of clouds generation processing. Further, since it is sufficient to arrange the middle cloud billboard only within the field of view of the virtual camera 100 (within the cloud setting region R), it is possible to reduce the processing related to the image generation of the sea of clouds.

【0286】なお、本発明は、上記実施の形態で説明し
たものに限らず、種々の変形実施が可能である。例え
ば、上記実施の形態においては、中雲生成時の初期設定
において、中雲座標系における原点に偏らせて小雲ビル
ボードを分布することとして説明したが、他の位置であ
ってもかまわない。すなわち、式(5)において、各4
つの乱数の平均から(Rmax−Rmin)/2を減算するこ
ととして説明したが、各成分毎に適当な値を減算(ある
いは、加算)することによって、中雲座標系における小
雲ビルボードの集合体の分布位置を変更してもよい。
The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, in the above-described embodiment, in the initial setting at the time of generating the middle clouds, the small cloud billboards are distributed by being biased to the origin in the middle cloud coordinate system, but other positions may be used. . That is, in equation (5), each 4
Although it has been described that (R max −R min ) / 2 is subtracted from the average of the two random numbers, a small cloud billboard in the middle cloud coordinate system can be obtained by subtracting (or adding) an appropriate value for each component. The distribution position of the aggregate of may be changed.

【0287】あるいは、図43に示すように、小雲ビル
ボードの分布をいくつかに分散してもよい。すなわち、
32個の小雲ビルボードをいくつかに分割し、各集合体
毎に異なる分布の中心点の座標(すなわち、分布の偏り
の位置)を与えることとしてもよい。このように、1つ
の中雲における小雲ビルボードの分布をいくつかに分散
させることによって、図44(a)に示すような横長な
中雲や、(b)に示すような複雑な形状の中雲等を生成
することができる。
Alternatively, as shown in FIG. 43, the distribution of small cloud billboards may be dispersed into several distributions. That is,
The 32 cloud cloud billboards may be divided into several pieces, and the coordinates of the central point of the distribution (that is, the position of the distribution bias) may be given to each aggregate. In this way, by dispersing the distribution of the small cloud billboard in one middle cloud into several, it is possible to obtain a horizontal middle cloud as shown in FIG. 44 (a) and a complicated shape as shown in FIG. 44 (b). It is possible to generate middle clouds and the like.

【0288】また、例えば、上記実施の形態において
は、遠景雲設定処理においても、雲設定領域R内と同数
nの雲を設定することとしたが、遠景雲設定領域Rfに
配置される雲は仮想カメラ100から遠いため、あまり
精細なモデルである必要がないため、例えば、設定する
雲の数を少なくし、一つ一つの雲オブジェクトを大きく
して配置することにより、処理の軽減を図ることとして
も良い。
Also, for example, in the above-described embodiment, even in the distant view cloud setting processing, the same number n of clouds as in the cloud setting region R are set, but the clouds placed in the distant view cloud setting region Rf are Since it is far from the virtual camera 100 and does not need to be a very fine model, for example, the number of clouds to be set is reduced, and each cloud object is arranged to be large to reduce the processing. Also good.

【0289】また、雲オブジェクトを中雲テクスチャを
マッピングしたペラポリゴンとしたが、遠景であるた
め、より単純な雲テクスチャをマッピングして雲オブジ
ェクトを生成することとしても良い。その場合、予め、
遠景用の雲テクスチャを記憶部900に格納しておくこ
ととしても良い。
Further, the cloud object is a peller polygon in which a medium cloud texture is mapped, but since it is a distant view, a simpler cloud texture may be mapped to generate a cloud object. In that case, in advance,
The cloud texture for the distant view may be stored in the storage unit 900.

【0290】また、例えば、図30に示した雲分布マッ
プ924は、時間経過とともに、雲のある部分とない部
分との分布を変化させることとしても良い。その場合に
は、時間経過とともに雲が流れ、分布が変化する様子を
表現することができる。
Further, for example, in the cloud distribution map 924 shown in FIG. 30, the distribution between the part with cloud and the part without cloud may be changed over time. In that case, it is possible to express how the cloud flows and the distribution changes over time.

【0291】また、層の幅ALtwを雲層毎に固定値と
して設定していたが、例えば、層の幅ALtwを位置的
に変化させることとしても良い。即ち、雲層の厚い部分
と薄い部分とを設定することとしても良い。また、例え
ば、積乱雲のように時間経過とともに発達していくよう
な雲の場合には、雲層の一部の厚みが時間経過とともに
厚くなるため、更に時間的に層の幅ALtwを変化させ
ることとしても良い。
Although the layer width ALtw is set as a fixed value for each cloud layer, for example, the layer width ALtw may be changed in position. That is, the thick portion and the thin portion of the cloud layer may be set. In addition, for example, in the case of a cloud that develops with time, such as cumulonimbus, a part of the cloud layer becomes thicker with time, so that the width ALtw of the layer may be changed with time. Is also good.

【0292】また、上記実施の形態においては、飛行機
ゲームを例にとって説明したが、プレーヤが操作(操
縦)するものは、飛行機に限らず、例えば、ヘリコプタ
ーなどであっても勿論良い。
In the above embodiment, the airplane game has been described as an example, but the player operates (steers) not only an airplane but also a helicopter or the like.

【0293】また、上記実施の形態においては、家庭用
ゲーム装置を例にとって説明したが、本発明の適用は、
これに限らず、例えば、携帯型のゲーム装置や業務用ゲ
ーム装置であっても良い。また、例えば、パーソナル・
コンピュータ、PDA、携帯型電話機等のゲーム装置以
外のコンピュータ装置であっても良い。
In the above embodiment, the home game machine has been described as an example, but the application of the present invention is as follows.
The present invention is not limited to this, and may be, for example, a portable game device or an arcade game device. Also, for example, personal
It may be a computer device other than a game device such as a computer, a PDA, and a mobile phone.

【0294】[0294]

【発明の効果】本発明によれば、仮想カメラの位置、視
線方向の変化に対して矛盾がなく、且つ立体感のある雲
の表現が可能となる。
According to the present invention, it is possible to express a cloud having a stereoscopic effect, which is consistent with changes in the position of the virtual camera and the direction of the line of sight.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を家庭用のゲーム装置に適用した場合の
一例を示す図である。
FIG. 1 is a diagram showing an example in which the present invention is applied to a home-use game machine.

【図2】(a)仮想カメラと小雲テクスチャとの関係、
(b)仮想カメラ角度、を説明する図である。
FIG. 2 (a) Relationship between virtual camera and cloud texture,
(B) It is a figure explaining a virtual camera angle.

【図3】小雲テクスチャの合成の概念を示す図である。FIG. 3 is a diagram showing a concept of composition of a cloud texture.

【図4】小雲テクスチャの一例を示す図である。FIG. 4 is a diagram showing an example of a small cloud texture.

【図5】雲パーツA及び雲パーツA用マスクの一例を示
す図である。
FIG. 5 is a diagram showing an example of a cloud part A and a mask for the cloud part A.

【図6】雲パーツB及び雲パーツB用マスクの一例を示
す図である。
FIG. 6 is a diagram showing an example of a cloud part B and a mask for the cloud part B.

【図7】気流テクスチャの一例を示す図である。FIG. 7 is a diagram showing an example of an airflow texture.

【図8】(a)雲パーツA、(b)雲パーツB、(c)
気流テクスチャの画像の一例を示す図である。
FIG. 8: (a) Cloud part A, (b) Cloud part B, (c)
It is a figure which shows an example of the image of an airflow texture.

【図9】仮想カメラのピッチ角Xが(a)X=0°、
(b)X=45°、(c)X=90°の場合の小雲テク
スチャの一例を示す図である。
FIG. 9 shows that the pitch angle X of the virtual camera is (a) X = 0 °,
It is a figure which shows an example of the small cloud texture in the case of (b) X = 45 degrees and (c) X = 90 degrees.

【図10】小雲テクスチャの反転する原理を示す図であ
る。
FIG. 10 is a diagram showing a principle of inverting a cloud texture.

【図11】中雲の画像例を示す図である。FIG. 11 is a diagram showing an image example of a middle cloud.

【図12】中雲座標系の一例を示す斜視図である。FIG. 12 is a perspective view showing an example of a middle cloud coordinate system.

【図13】小雲分布データの一例を示す図である。FIG. 13 is a diagram showing an example of small cloud distribution data.

【図14】(a)中雲座標系における仮想カメラと中雲
座標系の原点と投影スクリーンとの位置関係、(b)ワ
ールド座標系と中雲座標系との関係、を示す図である。
FIG. 14 is a diagram showing (a) a positional relationship between the virtual camera in the middle cloud coordinate system, the origin of the middle cloud coordinate system and the projection screen, and (b) a relationship between the world coordinate system and the middle cloud coordinate system.

【図15】中雲バッファの一例を示す模式図である。FIG. 15 is a schematic diagram showing an example of a middle cloud buffer.

【図16】特定点と特定ベクトルとを説明する図であ
る。
FIG. 16 is a diagram illustrating a specific point and a specific vector.

【図17】関数f(ω)のグラフを示す図である。FIG. 17 is a diagram showing a graph of a function f (ω).

【図18】(a)FL(ω)、(b)FB(ω)、(c)
S(ω)、の各関数のグラフを示す図である。
18 (a) FL (ω), (b) F B (ω), (c)
It is a figure which shows the graph of each function of F S ((omega)).

【図19】色決定テーブルの一例を示す図である。FIG. 19 is a diagram showing an example of a color determination table.

【図20】仮想カメラと雲設定領域との関係を示す図で
ある。
FIG. 20 is a diagram showing a relationship between a virtual camera and a cloud setting area.

【図21】ワールド座標系における雲設定領域の一例を
示す図である。
FIG. 21 is a diagram showing an example of a cloud setting area in the world coordinate system.

【図22】雲海座標系における雲設定領域の一例を示す
図である。
FIG. 22 is a diagram showing an example of a cloud setting area in the cloud sea coordinate system.

【図23】雲設定領域の移動に伴い中雲ビルボードの配
置位置の変化を説明する図である。
FIG. 23 is a diagram for explaining changes in the arrangement position of the middle cloud billboard with the movement of the cloud setting area.

【図24】雲設定領域の移動に伴い中雲ビルボードの配
置位置の変化を説明する図である。
FIG. 24 is a diagram for explaining changes in the arrangement position of the middle cloud billboard as the cloud setting area moves.

【図25】雲を含む表示画面の一例を示す図である。FIG. 25 is a diagram showing an example of a display screen including clouds.

【図26】仮想カメラの視界と雲設定領域との関係の一
例を示す図である。
FIG. 26 is a diagram showing an example of a relationship between a field of view of a virtual camera and a cloud setting area.

【図27】雲設定領域内の不透明度の分布例を示す図で
ある。
FIG. 27 is a diagram showing an example of opacity distribution in a cloud setting area.

【図28】遠景雲設定領域の一例を示す図である。FIG. 28 is a diagram showing an example of a distant view cloud setting area.

【図29】遠景雲設定領域に設定される雲を含む画像の
一例を示す図である。
FIG. 29 is a diagram showing an example of an image including clouds set in a distant view cloud setting area.

【図30】雲分布マップの一例を示す図である。FIG. 30 is a diagram showing an example of a cloud distribution map.

【図31】本実施の形態における機能ブロックの一例を
示すブロック図である。
FIG. 31 is a block diagram showing an example of functional blocks in the present embodiment.

【図32】特定点色データ806のデータ構成の一例を
示す図である。
FIG. 32 is a diagram showing an example of a data configuration of specific point color data 806.

【図33】中雲分布データのデータ構成の一例を示す図
である。
FIG. 33 is a diagram showing an example of a data configuration of middle cloud distribution data.

【図34】雲層データのデータ構成の一例を示す図であ
る。
FIG. 34 is a diagram showing an example of a data structure of cloud layer data.

【図35】描画対象設定データのデータ構成の一例を示
す図である。
FIG. 35 is a diagram showing an example of a data structure of drawing target setting data.

【図36】本実施の形態における雲生成処理の動作の一
例を示すフローチャートである。
FIG. 36 is a flowchart showing an example of the operation of cloud generation processing in the present embodiment.

【図37】本実施の形態における初期設定処理の動作の
一例を示すフローチャートである。
FIG. 37 is a flowchart showing an example of operation of an initial setting process in the present embodiment.

【図38】本実施の形態における小雲生成処理の動作の
一例を示すフローチャートである。
FIG. 38 is a flowchart showing an example of the operation of the small cloud generation processing in the present embodiment.

【図39】本実施の形態における中雲生成処理の動作の
一例を示すフローチャートである。
FIG. 39 is a flowchart showing an example of the operation of the middle cloud generation processing in the present embodiment.

【図40】本実施の形態における雲海生成処理の動作の
一例を示すフローチャートである。
FIG. 40 is a flowchart showing an example of the operation of the sea of clouds generation processing according to the present embodiment.

【図41】本実施の形態を実現できるハードウェアの構
成の一例を示す図である。
FIG. 41 is a diagram showing an example of a hardware configuration capable of implementing the present embodiment.

【図42】ホスト装置と通信回線を介して接続されるゲ
ーム端末に本実施の形態を適用した場合の一例を示す図
である。
FIG. 42 is a diagram showing an example of a case where the present embodiment is applied to a game terminal connected to a host device via a communication line.

【図43】小雲ビルボードの分布例を示す図である。FIG. 43 is a diagram showing a distribution example of a small cloud billboard.

【図44】小雲ビルボードの分布例を示す図である。FIG. 44 is a diagram showing a distribution example of a small cloud billboard.

【符号の説明】[Explanation of symbols]

500 操作部 600 処理部 610 ゲーム演算部 612 中雲生成部 616 初期設定部 618 雲海生成部 630 画像生成部 632 小雲描画部 634 中雲描画部 640 雲海描画部 700 表示部 800 一時記憶部 802 小雲バッファ 804 中雲バッファ 806 特定点色データ 808 フレームバッファ 810 描画対象設定データ 900 記憶部 910 ゲームプログラム 950 初期データ 924 雲分布マップ 926 雲層データ 928 色データ 930 関数データ 104 気流テクスチャ 500 operation part 600 processing unit 610 Game operation unit 612 Naka cloud generation unit 616 Initial setting section 618 Sea of clouds generator 630 image generator 632 Small cloud drawing unit 634 Nakacloud drawing department 640 Cloud Sea Drawing Department 700 display 800 temporary storage 802 small cloud buffer 804 Naka cloud buffer 806 Specific point color data 808 frame buffer 810 Drawing target setting data 900 storage 910 game program 950 initial data 924 cloud distribution map 926 Cloud layer data 928 color data 930 Function data 104 airflow texture

フロントページの続き (56)参考文献 特開2000−197769(JP,A) 特開 平10−91812(JP,A) 特開 平8−190639(JP,A) 特開 平11−224349(JP,A) 特開2000−268189(JP,A) 特開 平11−175748(JP,A) 特開 平4−267284(JP,A) 特開 平1−125674(JP,A) 特開 平5−314241(JP,A) 国際公開99/060526(WO,A1) 菊池司 外2名,”積雲型のビジュア ルシミュレーション”,画像電子学会 誌,画像電子学会,1999年 4月25日, 第28巻,第2号,p.140−151 大澤 秀直,”3Dマスターへの道 Shade Professional 編(2of3)/リアルな自然の景観を 表現する”,MdN,株式会社エムディ エヌコーポレーション,1999年 5月 1日,第61巻,p.102−107 (58)調査した分野(Int.Cl.7,DB名) G06T 15/70 A63F 13/00 G06T 15/00 CSDB(日本国特許庁)Continuation of the front page (56) Reference JP 2000-197769 (JP, A) JP 10-91812 (JP, A) JP 8-190639 (JP, A) JP 11-224349 (JP, A) JP 2000-268189 (JP, A) JP 11-175748 (JP, A) JP 4-267284 (JP, A) JP 1-125674 (JP, A) JP 5- 314241 (JP, A) International publication 99/060526 (WO, A1) Tsutomu Kikuchi, 2 persons, “cumulus-type visual simulation”, Journal of the Institute of Image Electronics Engineers of Japan, April 25, 1999, Volume 28. , No. 2, p. 140-151 Hidesawa Osawa, “The Road to 3D Master, Shade Professional Edition (2of3) / Expressing Real Nature Scenes”, MdN, MDI Corporation, May 1, 1999, Volume 61, p. 102-107 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 15/70 A63F 13/00 G06T 15/00 CSDB (Japan Patent Office)

Claims (58)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】プロセッサによる演算・制御により、第1
の仮想カメラから見た第1のオブジェクト空間の画像を
生成して、所与のゲームを実行することとなる第1の装
、 前記第1の仮想カメラの所与の角度パラメータの値に応
じて予め用意された複数種類の第1の雲素を、前記所与
の角度パラメータの現在値に応じた所与の割合で合成処
理することにより、前記第1のオブジェクト空間に前記
第1の仮想カメラに向けて配置される板状体の第1の雲
状オブジェクトに反映させるテクスチャ情報を生成する
第1の生成手段、として機能させるための前記プロセッ
サによる演算可能なプログラムであって、 前記第1の生成手段が、 前記所与の角度パラメータを前記第1の仮想カメラのピ
ッチ角及び/又はヨー角の角度パラメータとする手段
と、 前記第1の仮想カメラの、ピッチ角及び/又はヨー角の
角度パラメータの値に応じて予め用意された複数種類の
第1の雲素を、対応する前記第1の仮想カメラの角度パ
ラメータの現在値に応じた所与の割合で合成処理する手
段と、 を有するように機能させるためのプログラムを記憶した
情報記憶媒体。
Claim: What is claimed is:
A first device that will generate an image of the first object space as viewed from the virtual camera of the first virtual camera and execute a given game according to the value of the given angle parameter of the first virtual camera. By synthesizing a plurality of types of first cloud elements prepared in advance at a given ratio according to the current value of the given angle parameter, the first virtual space is created in the first virtual object space. a computable program by said processor for operating a first generating means for generating texture data to be reflected in the first cloud objects of the plate which is disposed toward the camera as, the first Means for generating the angle parameter of the first virtual camera.
Means for setting the angle parameter of the touch angle and / or the yaw angle
Of the pitch angle and / or yaw angle of the first virtual camera
Depending on the value of the angle parameter
The first cloud is replaced with the corresponding angle pattern of the first virtual camera.
A method of combining processing at a given ratio according to the current value of the parameter.
And a program for causing the column to function as
Information storage medium.
【請求項2】プロセッサによる演算・制御により、第1
の仮想カメラから見た第1のオブジェクト空間の画像を
生成して、所与のゲームを実行することとなる第1の装
置を、 前記第1の仮想カメラの所与の角度パラメータの値に応
じて予め用意された複数種類の第1の雲素を、前記所与
の角度パラメータの現在値に応じた所与の割合で合成処
理することにより、前記第1のオブジェクト空間に前記
第1の仮想カメラに向けて配置される板状体の第1の雲
状オブジェクトに反映させるテクスチャ情報を生成する
第1の生成手段、として機能させるための前記プロセッ
サによる演算可能なプログラムであって、 前記第1の生成手段が、前記所与の角度パラメータとし
てピッチ角に応じて予 め用意された第1の雲素がある場
合には、その第1の雲素を前記第1の仮想カメラのロー
ル角に応じて回転させるとともに、前記所与の角度パラ
メータとしてヨー角に応じて予め用意された第1の雲素
がある場合には、その第1の雲素を前記第1の仮想カメ
ラのロール角に応じて回転させて前記合成処理を行う、
ように機能させるためのプログラムを記憶した情報記憶
媒体。
2. The first operation is controlled by a processor.
Image of the first object space seen from the virtual camera of
The first device that will generate and run a given game.
Position according to the value of the given angle parameter of the first virtual camera.
The plurality of types of first cloud elements prepared in advance are
Synthesis process at a given ratio according to the current value of the angle parameter of
To the first object space
The first cloud of the plate-shaped body arranged toward the first virtual camera
The texture information to be reflected on the striped object
The processor for functioning as a first generation unit.
A program that can be calculated by the first generation means,
If there is a first Kumomoto which is prepared Me pre depending Te on the pitch angle
In the case of the first virtual camera,
According to the angle of rotation,
First cloud prepared in advance according to the yaw angle as a meter
If there is, then the first cloud is replaced with the first virtual turtle.
Rotate according to the roll angle of the la to perform the combining process,
Information that stores a program to make it function like
Medium.
【請求項3】請求項1に記載の情報記憶媒体であって、
前記プログラムは、 前記第1の生成手段が、前記所与の角度パラメータとし
てピッチ角に応じて予め用意された第1の雲素がある場
合には、その第1の雲素を前記第1の仮想カメラのロー
ル角に応じて回転させるとともに、前記所与の角度パラ
メータとしてヨー角に応じて予め用意された第1の雲素
がある場合には、その第1の雲素を前記第1の仮想カメ
ラのロール角に応じて回転させて前記合成処理を行う、
ように機能させるためのプログラムであることを特徴と
する情報記憶媒体。
3. The information storage medium according to claim 1, wherein:
In the program, the first generation unit sets the given angle parameter as
If there is a first cloud prepared in advance according to the pitch angle
In the case of the first virtual camera,
According to the angle of rotation,
First cloud prepared in advance according to the yaw angle as a meter
If there is, then the first cloud is replaced with the first virtual turtle.
Rotate according to the roll angle of the la to perform the combining process,
It is a program to make it function like
Information storage medium.
【請求項4】プロセッサによる演算・制御により、第1
の仮想カメラから見た第1のオブジェクト空間の画像を
生成して、所与のゲームを実行することとなる第1の装
置を、 前記第1の仮想カメラの所与の角度パラメータの値に応
じて予め用意された複数種類の第1の雲素を、前記所与
の角度パラメータの現在値に応じた所与の割合で合成処
理することにより、前記第1のオブジェクト空間に前記
第1の仮想カメラに向けて配置される板状体の第1の雲
状オブジェクトに反映させるテクスチャ情報を生成する
第1の生成手段、として機能させるための前記プロセッ
サによる演算可能なプログラムであって、 前記第1の生成手段が、前記第1の仮想カメラのピッチ
角が水平方向用と垂直方向用の少なくとも2種類の予め
用意された第1の雲素を、前記第1の仮想カメラのピッ
チ角に応じた所与の割合で合成処理することにより、前
記第1の仮想カメラのピッチ角に応じて予め用意された
複数種類の第1の雲素を合成処理する、ように機能させ
るためのプログラムであることを特徴とする情報記憶媒
体。
4. The first operation is controlled by a processor.
Image of the first object space seen from the virtual camera of
The first device that will generate and run a given game.
Position according to the value of the given angle parameter of the first virtual camera.
The plurality of types of first cloud elements prepared in advance are
Synthesis process at a given ratio according to the current value of the angle parameter of
To the first object space
The first cloud of the plate-shaped body arranged toward the first virtual camera
The texture information to be reflected on the striped object
The processor for functioning as a first generation unit.
And a pitch of the first virtual camera, the first generation means
At least two types of corners for horizontal and vertical
The first cloud prepared is used for the first virtual camera
By combining processing at a given ratio according to the angle
Prepared in advance according to the pitch angle of the first virtual camera
Let it function as if it synthesizes multiple types of first cloud.
Information storage medium characterized by being a program for
body.
【請求項5】請求項1〜3の何れか一項に記載の情報記
憶媒体であって、前記プログラムは、 前記第1の生成手段が、前記第1の仮想カメラのピッチ
角が水平方向用と垂直方向用の少なくとも2種類の予め
用意された第1の雲素を、前記第1の仮想カメラのピッ
チ角に応じた所与の割合で合成処理することにより、前
記第1の仮想カメラのピッチ角に応じて予め用意された
複数種類の第1の雲素を合成処理する、ように機能させ
るためのプログラムであることを特徴とする情報記憶媒
体。
5. The information record according to any one of claims 1 to 3.
In the storage medium, the program may be arranged such that the first generation means sets the pitch of the first virtual camera.
At least two types of corners for horizontal and vertical
The first cloud prepared is used for the first virtual camera
By combining processing at a given ratio according to the angle
Prepared in advance according to the pitch angle of the first virtual camera
Let it function as if it synthesizes multiple types of first cloud.
Information storage medium characterized by being a program for
body.
【請求項6】請求項4又は5に記載の情報記憶媒体であ
って、前記プログラムは、 前記第1の生成手段が、前記第1の仮想カメラのロール
角に応じて前記水平方向用および前記垂直方向用の第1
の雲素を回転させて前記合成処理を行う、ように機能さ
せるためのプログラムであることを特徴とする情報記憶
媒体。
6. The information storage medium according to claim 4 or 5.
Then, in the program, the first generation unit rolls the first virtual camera.
First for the horizontal direction and for the vertical direction depending on the angle
The cloud is rotated, and the above-mentioned composition processing is performed.
Information storage characterized by being a program for
Medium.
【請求項7】請求項4〜6の何れか一項に記載の情報記
憶媒体であって、前記プログラムは、 前記垂直方向用の第1の雲素には、前記第1の仮想カメ
ラのピッチ角が仰角および俯角の場合に対応する、更に
2種類の第1の雲素があり、 前記第1の生成手段が、前記垂直方向用の第1の雲素に
含まれる前記2種類の第1の雲素を、前記第1の仮想カ
メラのピッチ角に応じて切り換えることにより、前記垂
直方向用の第1の雲素とする、ように機能させるための
プログラムであることを特徴とする情報記憶媒体。
7. The information record according to any one of claims 4 to 6.
The program is a storage medium, wherein the program stores the first virtual camera in the first vertical cloud.
It corresponds to the case where the pitch angle of La is elevation angle and depression angle.
There are two types of first cloud elements, and the first generation means is the first vertical direction cloud element.
The two types of first cloud elements included therein are converted into the first virtual cloud.
By switching according to the pitch angle of the camera,
To make it function as the first cloud for direct direction
An information storage medium characterized by being a program.
【請求項8】請求項4〜7の何れか一項に記載の情報記
憶媒体であって、前記プログラムは、 前記水平方向用の第1の雲素には、前記第1の仮想カメ
ラのヨー角の角度範囲を等分した各角度範囲に対応す
る、更に複数種類の第1の雲素があり、 前記第1の生成手段が、前記水平方向用の第1の雲素に
含まれる前記複数種類の第1の雲素を、前記第1の仮想
カメラのヨー角に応じて切り換えることにより、前記水
平方向用の第1の雲素とする、ように機能させるための
プログラムであ ることを特徴とする情報記憶媒体。
8. The information record according to any one of claims 4 to 7.
The program is a storage medium, wherein the program stores the first virtual camera in the first cloud for the horizontal direction.
It corresponds to each angle range that divides the yaw angle range of La.
In addition, there are a plurality of types of first cloud elements, and the first generation unit converts the horizontal direction first cloud elements.
The plurality of types of first cloud elements included in the first virtual
By switching according to the yaw angle of the camera, the water
The first cloud for the horizontal direction, to function as
Information storage medium characterized program der Rukoto.
【請求項9】プロセッサによる演算・制御により、第2
の仮想カメラから見た第2のオブジェクト空間の画像を
生成して、所与のゲームを実行することとなる第2の装
置を、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段、 前記第2の仮想カメラと、前記雲モデル空間を透視変換
するための雲モデル用仮想カメラとを連動させ、前記雲
モデル用仮想カメラに基づいて前記雲モデル空間を透視
変換することにより、前記第2のオブジェクト空間に前
記第2の仮想カメラに向けて配置される板状体の第2の
雲状オブジェクトに反映させるテクスチャ情報を生成す
る第2の生成手段、 として機能させるための前記プロセッサによる演算可能
なプログラムを記憶した情報記憶媒体。
9. A second operation is controlled by a processor.
Image of the second object space seen from the virtual camera of
A second device that will generate and run a given game.
A second placement element that places a plurality of second flake elements in the cloud model space.
Stage, perspective transformation between the second virtual camera and the cloud model space
The cloud model virtual camera for
See through the cloud model space based on the model virtual camera
By converting, the second object space
The second plate-shaped member that is arranged toward the second virtual camera
Generates texture information to be reflected on the cloud object.
A second generation unit that can be operated by the processor
Information storage medium storing various programs.
【請求項10】請求項9に記載の情報記憶媒体であっ
て、前記プログラムは、 前記第2のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づいて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定するが、その
際、前記第2の雲状オブジェクトにおける少なくとも2
つの特定点の色情報を、前記第2のオブジェクト空間に
おける光源に基づいて決定し、この特定点の色情報に基
づいて前記テクスチャ情報の色情報を決定する色情報決
定手段、として前記第2の装置を更に機能させるための
プログラムであることを特徴とする情報記憶媒体。
10. The information storage medium according to claim 9,
And the program includes a light source in the second object space and the second cloud-shaped light source.
The second generation means based on the object and
It determines the color information of the generated texture information,
At least 2 in the second cloud-like object
Color information of one specific point is stored in the second object space.
It is decided based on the light source in the
Based on the color information determination based on the color information of the texture information
For further functioning the second device as a fixing means.
An information storage medium characterized by being a program.
【請求項11】プロセッサによる演算・制御により、第
2の仮想カメラから見た第2のオブジェクト空間の画像
を生成して、所与のゲームを実行することとなる第2の
装置を、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段、 前記雲モデル空間を透視変換することにより、前記第2
のオブジェクト空間に前記第2の仮想カメラに向けて配
置される板状体の第2の雲状オブジェクトに反 映させる
テクスチャ情報を生成する第2の生成手段、 前記第2のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づいて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定するが、その
際、前記第2の雲状オブジェクトにおける少なくとも2
つの特定点の色情報を、前記第2のオブジェクト空間に
おける光源に基づいて決定し、この特定点の色情報に基
づいて前記テクスチャ情報の色情報を決定する色情報決
定手段、 として機能させるための、前記プロセッサによる演算可
能なプログラムを記憶した情報記憶媒体。
11. A processor for calculating and controlling,
Image of the second object space seen from the second virtual camera
To generate a second game that will run a given game
A second placement device for placing a plurality of second fume elements in the cloud model space
Stage, by performing perspective transformation of the cloud model space,
In the object space of the second virtual camera.
To reflect the second cloud objects of the plate to be location
Second generating means for generating texture information, the light source of the second object space, and the second cloud shape
The second generation means based on the object and
It determines the color information of the generated texture information,
At least 2 in the second cloud-like object
Color information of one specific point is stored in the second object space.
It is decided based on the light source in the
Based on the color information determination based on the color information of the texture information
Computation by the processor for functioning as a constant means
An information storage medium that stores active programs.
【請求項12】請求項10又は11に記載の情報記憶媒
体であって、前記プログラムは、 前記色情報決定手段が、前記光源の光線方向の角度に応
じて予め用意された複数の色情報を、当該特定点におけ
る前記光源の光線方向の角度に応じた所与の割合で合成
処理することにより、前記各特定点の色情報を決定す
る、ように機能させるためのプログラムであることを特
徴とする情報記憶媒体。
12. An information storage medium according to claim 10 or 11.
In the above-mentioned program, the color information determining means is responsive to an angle of a light ray direction of the light source.
The color information prepared in advance at the specific point.
A given ratio depending on the angle of the light source direction
By processing, the color information of each specific point is determined.
It is a program for
Information storage medium to collect.
【請求項13】プロセッサによる演算・制御により、仮
想カメラから見たオブジェクト空間の画像を生成して、
所与のゲームを実行することとなる装置を、 前記仮想カメラの所与の角度パラメータの値に応じて予
め用意された複数種類の第1の雲素を、前記所与の角度
パラメータの現在値に応じた所与の割合で合成処理する
ことにより、前記オブジェクト空間に前記仮想カメラに
向けて配置される板状体の第1の雲状オブジェクトに反
映させるテクスチャ情報を生成する第1の生成手段、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段、 前記雲モデル空間を透視変換することにより、前記オブ
ジェクト空間に前記仮想カメラに向けて配置される板状
体の第2の雲状オブジェクトに反映させるテクスチャ情
報を生成する第2の生成手段、 前記第1の生成手段により生成されたテクスチャ情報を
前記第1の雲状オブジェクトに反映させる手段、 前記第1の雲状オブジェクトを前記第2の雲素とする手
段、 として機能させるための、前記プロセッサによる演算可
能なプログラムを記憶した情報記憶媒体。
13. A processor temporarily executes calculation and control.
Generate an image of the object space viewed from the virtual camera,
The device that will run a given game is predicated on the value of the given angle parameter of the virtual camera.
The plurality of types of first cloud elements prepared for
Performs synthesis processing at a given ratio according to the current value of the parameter
To the virtual camera in the object space
The first cloud-like object of the plate-like object placed toward
First generating means for generating texture information to be projected, second arranging means for arranging a plurality of second cloud elements in the cloud model space
The perspective of the cloud model space,
A plate shape that is placed in the eject space toward the virtual camera
Texture information to be reflected in the second cloud-like object of the body
Second generation means for generating information, and texture information generated by the first generation means
Means for reflecting on the first cloud-shaped object, a hand using the first cloud-shaped object as the second cloud element
Operation by the processor to function as a stage
An information storage medium that stores active programs.
【請求項14】請求項1〜8の何れか一項に記載のプロ
グラムと、請求項9〜12の何れか一項に記載のプログ
ラムとを含むプログラムであって、 前記第1の装置と前記第2の装置は同一の装置であり、 当該装置を、 前記第1の仮想カメラを前記第2の仮想カメラとする手
段、 前記第1の生成手段により生成されたテクスチャ情報を
前記第1の雲状オブジェクトに反映させる手段、 前記第1の雲状オブジェクトを前記第2の雲素とする手
段、 として機能させるためのプログラムを記憶した情報記憶
媒体。
14. The professional according to any one of claims 1 to 8.
Gram and the program according to any one of claims 9 to 12.
A program including a ram, wherein the first device the second device are the same device, hand the device for the first virtual camera and the second virtual camera
The texture information generated by the first generating means.
Means for reflecting on the first cloud-shaped object, a hand using the first cloud-shaped object as the second cloud element
Information storage that stores a program for functioning as a step
Medium.
【請求項15】プロセッサによる演算・制御により、第
3の仮想カメラから見た第3のオブジェクト空間の画像
を生成して、所与のゲームを実行することとなる第3の
装置を、 所与の配置位置繰り返しパターンを展開することにより
前記第3のオブジェクト空間に複数配置する第3の雲素
の配置位置を決定する配置位置決定手段、 前記配置位置決定手段により決定された配置位置に、板
状体の前記第3の雲素を配置する第3の配置手段、 前記第3の雲素を、前記第3の仮想カメラに対する所与
の方向に向ける対向配置手段、 前記第3の仮想カメラからの距離に基づいて、第3の雲
素配置領域を設定する第3の雲素領域設定手段、 として機能させるとともに、 前記第3の配置手段が、前記第3の雲素配置領域内に前
記第3の雲素を配置する、ように機能させるための、前
記プロセッサによる演算可能なプログラムを記憶した情
報記憶媒体。
15. A processor for calculating and controlling,
Image of the third object space viewed from virtual camera 3
To generate a third game that will run a given game
By deploying the device in a repeating pattern for a given placement position
Third cloud element arranged in plural in the third object space
The arrangement position determining means for determining the arrangement position of the plate, the arrangement position determined by the arrangement position determining means,
A third arranging means for arranging the third cloud element of the shape, and the third cloud element is given to the third virtual camera.
And a third cloud based on the distance from the third virtual camera , facing each other.
Third Kumomoto region setting means for setting the element placement region, together function as the third arrangement means, before the third Kumomoto arrangement region
Note: To place the third cloud element, to make it function as
Information stored in a program that can be calculated by the processor
Information storage medium.
【請求項16】プロセッサによる演算・制御により、第
3の仮想カメラから見た第3のオブジェクト空間の画像
を生成して、所与のゲームを実行することとなる第3の
装置を、 所与の配置位置繰り返しパターンを展開することにより
前記第3のオブジェクト空間に複数配置する第3の雲素
の配置位置を決定する配置位置決定手段、 前記配置位置決定手段により決定された配置位置に、板
状体の前記第3の雲素を配置する第3の配置手段、 前記第3の雲素を、前記第3の仮想カメラに対する所与
の方向に向ける対向配置手段、 前記第3のオブジェクト空間における前記第3の雲素の
配置位置に応じて、前記各第3の雲素の透明度を設定す
る第3の雲素透明度設定手段、 として機能させるための、前記プロセッサによる演算可
能なプログラムを記憶した情報記憶媒体。
16. A processor for calculating and controlling,
Image of the third object space viewed from virtual camera 3
To generate a third game that will run a given game
By deploying the device in a repeating pattern for a given placement position
Third cloud element arranged in plural in the third object space
The arrangement position determining means for determining the arrangement position of the plate, the arrangement position determined by the arrangement position determining means,
A third arranging means for arranging the third cloud element of the shape, and the third cloud element is given to the third virtual camera.
Of the third cloud element in the third object space.
Set the transparency of each of the third cloud elements according to the arrangement position.
Computation by the processor for functioning as third cloud transparency setting means
An information storage medium that stores active programs.
【請求項17】請求項15に記載の情報記憶媒体であっ
て、前記プログラムは、 前記第3の装置を、前記第3のオブジェクト空間におけ
る前記第3の雲素の配置位置に応じて、前記各第3の雲
素の透明度を設定する第3の雲素透明度設定手段、とし
て更に機能させるためのプログラムであることを特徴と
する情報記憶媒体。
17. The information storage medium according to claim 15,
And the program stores the third device in the third object space.
The third clouds depending on the arrangement position of the third clouds.
Third cloud transparency setting means for setting transparency of the element
It is a program for further functioning
Information storage medium.
【請求項18】請求項16又は17に記載の情報記憶媒
体であって、前記プログラムは、 前記第3の雲素透明度設定手段が、前記第3のオブジェ
クト空間における雲の存在可否を表す雲分布図に基づい
て、前記各第3の雲素の透明度を設定する、ように機能
させるためのプログラムであることを特徴とする情報記
憶媒体。
18. An information storage medium according to claim 16 or 17.
In the above-mentioned program, the third cloud transparency setting means sets the third object.
Based on the cloud distribution map showing the existence of clouds in the space
And set the transparency of each of the 3rd cloud
Information description characterized by being a program for
Storage medium.
【請求項19】請求項16〜18の何れか一項に記載の
情報記憶媒体であって、前記プログラムは、 前記第3の雲素透明度設定手段が、前記第3の仮想カメ
ラから前記各第3の雲素までの距離に基づいて、前記各
第3の雲素の透明度を設定する、ように機能さ せるため
のプログラムであることを特徴とする情報記憶媒体。
19. The method according to any one of claims 16 to 18.
An information storage medium, wherein the program is configured such that the third cloud transparency setting unit causes the third virtual camera.
Based on the distance from La to each of the third cloud,
To set the transparency of the third cloud, to make it function as
An information storage medium characterized by being a program of.
【請求項20】請求項15に記載の情報記憶媒体であっ
て、前記プログラムは、 前記第3の装置を、 前記第3の仮想カメラからの距離が前記第3の雲素配置
領域より遠方に、第4の雲素配置領域を設定する第4の
雲素領域設定手段、 前記第4の雲素配置領域に、板状体の第4の雲素を略水
平状に複数配置する第4の配置手段、 として更に機能させるためのプログラムであることを特
徴とする情報記憶媒体。
20. The information storage medium according to claim 15.
And the program causes the third device to arrange the third cloud unit at a distance from the third virtual camera.
A fourth cloud element placement region is set farther than the region.
A cloud region setting means, a fourth cloud of the plate-shaped body substantially water in the fourth cloud arrangement region.
It is a program for further functioning as a fourth arrangement means for arranging a plurality of pieces in a flat shape.
Information storage medium to collect.
【請求項21】請求項20に記載の情報記憶媒体であっ
て、前記プログラムは、 前記第3の装置を、前記配置位置決定手段が用いる前記
所与の配置位置繰り返しパターンを展開することによ
り、前記第4の雲素の配置位置を決定する手段、として
更に機能させるとともに、 前記第4の配置手段が、前記決定された第4の雲素の配
置位置に、前記第4の雲素を略水平状に配置する、よう
に機能させるためのプログラムであることを特徴とする
情報記憶媒体。
21. The information storage medium according to claim 20,
And the program uses the third device by the arrangement position determining means.
By expanding a given placement position repeating pattern
As means for determining the arrangement position of the fourth cloud element
In addition to further functioning, the fourth placement means causes the determined fourth cloud element placement.
The fourth cloud element is placed in a substantially horizontal position at the placement position.
It is a program for making the
Information storage medium.
【請求項22】請求項20又は21に記載の情報記憶媒
体であって、前記プログラムは、 前記第3の装置を、前記第4の雲素の配置位置に応じ
て、前記各第4の雲素の透明度を設定する第4の雲素透
明度設定手段、として更に機能させるためのプログラム
であることを特徴とする情報記憶媒体。
22. The information storage medium according to claim 20 or 21.
And a program for controlling the third device according to an arrangement position of the fourth cloud element.
And the fourth cloud element that sets the transparency of each of the fourth cloud elements.
Program for further functioning as brightness setting means
An information storage medium characterized by:
【請求項23】請求項22に記載の情報記憶媒体であっ
て、前記プログラムは、 前記第4の雲素透明度設定手段が、前記第3のオブジェ
クト空間における雲の存在可否を表す雲分布図に基づい
て、前記各第4の雲素の透明度を設定する、ように機能
させるためのプログラムであることを特徴とする情報記
憶媒体。
23. The information storage medium according to claim 22,
In the program, the fourth cloud transparency setting means sets the third object.
Based on the cloud distribution map showing the existence of clouds in the space
And set the transparency of each of the 4th cloud
Information description characterized by being a program for
Storage medium.
【請求項24】請求項22又は23に記載の情報記憶媒
体であって、前記プログラムは、 前記第4の雲素透明度設定手段が、前記第3の仮想カメ
ラから前記各第4の雲素までの距離に基づいて、前記各
第4の雲素の透明度を設定する、ように機能させるため
のプログラムであることを特徴とする情報記憶媒体。
24. The information storage medium according to claim 22 or 23.
In the above-mentioned program, the fourth cloud transparency setting means sets the third virtual turtle
Based on the distance from La to each of the fourth cloud,
To set the transparency of the fourth cloud, to make it function as
An information storage medium characterized by being a program of.
【請求項25】プロセッサによる演算・制御により、仮
想カメラから見たオブジェクト空間の画像を生成して、
所与のゲームを実行することとなる装置を、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段、 前記雲モデル空間を透視変換することにより、前記オブ
ジェクト空間に前記仮想カメラに向けて配置される板状
体の第2の雲状オブジェクトに反映させるテクスチャ情
報を生成する第2の生成手段、 所与の配置位置繰り返しパターンを展開することにより
前記オブジェクト空間に複数配置する第3の雲素の配置
位置を決定する配置位置決定手段、 前記配置位置決定手段により決定された配置位置に、板
状体の前記第3の雲素を配置する第3の配置手段、 前記第3の雲素を、前記仮想カメラに対する所与の方向
に向ける対向配置手段、 前記第2の生成手段により生成されたテクスチャ情報を
前記第2の雲状オブジェクトに反映させる手段、 前記第2の雲状オブジェクトを前記第3の雲素とする手
段、 として機能させるための、前記プロセッサによる演算可
能なプログラムを記憶した情報記憶媒体。
25. A processor temporarily calculates and controls by a processor.
Generate an image of the object space viewed from the virtual camera,
A second placement device for placing a plurality of second cloud elements in the cloud model space is used as a device for executing a given game.
The perspective of the cloud model space,
A plate shape that is placed in the eject space toward the virtual camera
Texture information to be reflected in the second cloud-like object of the body
A second generating means for generating information, by expanding a given arrangement position repeating pattern
Arrangement of a plurality of third cloud elements arranged in the object space
Arrangement position determining means for determining the position, the plate at the arrangement position determined by the arrangement position determining means
Third arranging means for arranging the third cloud element in the shape of a body, and the third cloud element in a given direction with respect to the virtual camera.
The texture information generated by the second generation means
Means for reflecting on the second cloud-shaped object, a hand using the second cloud-shaped object as the third cloud element
Operation by the processor to function as a stage
An information storage medium that stores active programs.
【請求項26】請求項9〜12の何れか一項に記載のプ
ログラムと、請求項15〜24の何れか一項に記載のプ
ログラムとを含むプログラムであって、 前記第2の装置と前記第3の装置は同一の装置であり、 当該装置を、 前記第2の仮想カメラを前記第3の仮想カメラとする手
段、 前記第2のオブジェクト空間を前記第3のオブジェクト
空間とする手段、 前記第2の生成手段により生成されたテクスチャ情報を
前記第2の雲状オブジェクトに反映させる手段、 前記第2の雲状オブジェクトを前記第3の雲素とする手
段、 として機能させるためのプログラムを記憶した情報記憶
媒体。
26. The process according to any one of claims 9 to 12.
25 and the program according to any one of claims 15 to 24.
A program including a program, wherein the second device a third device is the same device, hand the device, to the second virtual camera and the third virtual camera
Dan, the second object space to the third object
Means for making space, texture information generated by the second generation means
Means for reflecting on the second cloud-shaped object, a hand using the second cloud-shaped object as the third cloud element
Information storage that stores a program for functioning as a step
Medium.
【請求項27】請求項25又は26に記載の情報記憶媒
体であって、当該情報記憶媒体に記憶されたプログラム
は、 前記第2の生成手段が、複数種類のテクスチャ情報を生
成する、ように機能させるとともに、 前記装置を、前記第2の生成手段により生成される複数
種類のテクスチャ情報を反映させることにより、テクス
チャ情報の異なる複数種類の第2の雲状オブジェクトを
生成する手段、として更に機能させ、 前記第3の配置手段が、前記複数種類の第2の雲状オブ
ジェクトを配置する、ように機能させるためのプログラ
ムであることを特徴とする情報記憶媒体。
27. An information storage medium according to claim 25 or 26.
A program that is a body and is stored in the information storage medium
Is generated by the second generation means.
A plurality of devices that are generated by the second generation means and that are configured to function as
By reflecting the type of texture information, the texture
Multiple types of second cloud-shaped objects with different tea information
The third arranging means further functions as a means for generating the second cloud-shaped objects.
A program for placing objects and making them function as
An information storage medium characterized by being a system.
【請求項28】プロセッサによる演算・制御により、仮
想カメラから見たオブジェクト空間の画像を生成して、
所与のゲームを実行することとなる装置を、 前記仮想カメラの位置の変化に応じて、前記仮想カメラ
の視界の略中央付近から仮想カメラに接近する雲状オブ
ジェクトに対する透明度を上げて、視界の遠方から視界
の略中央付近に移動する雲状オブジェクトに対する透明
度を下げる手段、として機能させるための、前記プロセ
ッサによる演算可能なプログラムを記憶した情報記憶媒
体。
28. The calculation / control by the processor temporarily
Generate an image of the object space viewed from the virtual camera,
A device that is to execute a given game is provided with the virtual camera according to the change of the position of the virtual camera.
A cloud-shaped object approaching the virtual camera from near the center of the field of view.
Increase the transparency to the project, and view from a distance
For a cloud-like object moving near the center of
The process for functioning as a means to reduce the
Information storage medium that stores programs that can be calculated by the
body.
【請求項29】第1の仮想カメラから見た第1のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 前記第1の仮想カメラの所与の角度パラメータの値に応
じて予め用意された複数種類の第1の雲素を、前記所与
の角度パラメータの現在値に応じた所与の割合で合成処
理することにより、前記第1のオブジェクト空間に前記
第1の仮想カメラに向けて配置される板状体の第1の雲
状オブジェクトに反映させるテクスチャ 情報を生成する
第1の生成手段を備えるとともに、 前記第1の生成手段が、 前記所与の角度パラメータを前記第1の仮想カメラのピ
ッチ角及び/又はヨー角の角度パラメータとする手段
と、 前記第1の仮想カメラの、ピッチ角及び/又はヨー角の
角度パラメータの値に応じて予め用意された複数種類の
第1の雲素を、対応する前記第1の仮想カメラの角度パ
ラメータの現在値に応じた所与の割合で合成処理する手
段と、 を有するゲーム装置。
29. A first object viewed from a first virtual camera.
Generate an image of the vector space and execute a given game
A game device for responding to a value of a given angle parameter of the first virtual camera.
The plurality of types of first cloud elements prepared in advance are
Synthesis process at a given ratio according to the current value of the angle parameter of
To the first object space
The first cloud of the plate-shaped body arranged toward the first virtual camera
The texture information to be reflected on the striped object
A first generating means is provided, and the first generating means sets the given angle parameter to the pixel of the first virtual camera.
Means for setting the angle parameter of the touch angle and / or the yaw angle
Of the pitch angle and / or yaw angle of the first virtual camera
Depending on the value of the angle parameter
The first cloud is replaced with the corresponding angle pattern of the first virtual camera.
A method of combining processing at a given ratio according to the current value of the parameter.
A game device having a step .
【請求項30】第1の仮想カメラから見た第1のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 前記第1の仮想カメラの所与の角度パラメータの値に応
じて予め用意された複数種類の第1の雲素を、前記所与
の角度パラメータの現在値に応じた所与の割合で合成処
理することにより、前記第1のオブジェクト空間に前記
第1の仮想カメラに向けて配置される板状体の第1の雲
状オブジェクトに反映させるテクスチャ情報を生成する
第1の生成手段を備えるとともに、 前記第1の生成手段が、前記所与の角度パラメータとし
てピッチ角に応じて予め用意された第1の雲素がある場
合には、その第1の雲素を前記第1の仮想カメラのロー
ル角に応じて回転させるとともに、前記所与の角度パラ
メータとしてヨー角に応じて予め用意された第1の雲素
がある場合には、その第1の雲素を前記第1の仮想カメ
ラのロール角に応じて回転させて前記合成処理を行う、
ことを特徴とするゲーム装置。
30. A first object viewed from a first virtual camera.
Generate an image of the vector space and execute a given game
A game device for responding to a value of a given angle parameter of the first virtual camera.
The plurality of types of first cloud elements prepared in advance are
Synthesis process at a given ratio according to the current value of the angle parameter of
To the first object space
The first cloud of the plate-shaped body arranged toward the first virtual camera
The texture information to be reflected on the striped object
A first generating means, wherein the first generating means sets the given angle parameter as
If there is a first cloud prepared in advance according to the pitch angle
In the case of the first virtual camera,
According to the angle of rotation,
First cloud prepared in advance according to the yaw angle as a meter
If there is, then the first cloud is replaced with the first virtual turtle.
Rotate according to the roll angle of the la to perform the combining process,
A game device characterized by the above.
【請求項31】請求項29に記載のゲーム装置であっ
て、 前記第1の生成手段が、前記所与の角度パラメータとし
てピッチ角に応じて予め用意された第1の雲素がある場
合には、その第1の雲素を前記第1の仮想カメラのロー
ル角に応じて回転させるとともに、前記所与の角度パラ
メータとしてヨー角に応じて予め用意された第1の雲素
がある場合には、その第1の雲素を前記第1の仮想カメ
ラのロール角に応じて回転させて前記合成処理を行う、
ことを特 徴とするゲーム装置。
31. The game device according to claim 29.
Te, said first generating means, and said given angular parameters
If there is a first cloud prepared in advance according to the pitch angle
In the case of the first virtual camera,
According to the angle of rotation,
First cloud prepared in advance according to the yaw angle as a meter
If there is, then the first cloud is replaced with the first virtual turtle.
Rotate according to the roll angle of the la to perform the combining process,
Game device for a feature that.
【請求項32】第1の仮想カメラから見た第1のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 前記第1の仮想カメラの所与の角度パラメータの値に応
じて予め用意された複数種類の第1の雲素を、前記所与
の角度パラメータの現在値に応じた所与の割合で合成処
理することにより、前記第1のオブジェクト空間に前記
第1の仮想カメラに向けて配置される板状体の第1の雲
状オブジェクトに反映させるテクスチャ情報を生成する
第1の生成手段を備えるとともに、 前記第1の生成手段が、前記第1の仮想カメラのピッチ
角が水平方向用と垂直方向用の少なくとも2種類の予め
用意された第1の雲素を、前記第1の仮想カメラのピッ
チ角に応じた所与の割合で合成処理することにより、前
記第1の仮想カメラのピッチ角に応じて予め用意された
複数種類の第1の雲素を合成処理する、ことを特徴とす
るゲーム装置。
32. A first object viewed from a first virtual camera.
Generate an image of the vector space and execute a given game
A game device for responding to a value of a given angle parameter of the first virtual camera.
The plurality of types of first cloud elements prepared in advance are
Synthesis process at a given ratio according to the current value of the angle parameter of
To the first object space
The first cloud of the plate-shaped body arranged toward the first virtual camera
The texture information to be reflected on the striped object
A first generating means, wherein the first generating means is the pitch of the first virtual camera.
At least two types of corners for horizontal and vertical
The first cloud prepared is used for the first virtual camera
By combining processing at a given ratio according to the angle
Prepared in advance according to the pitch angle of the first virtual camera
Characterized in that it synthesizes a plurality of types of first cloud
Game device.
【請求項33】請求項29〜31の何れか一項に記載の
ゲーム装置であって、 前記第1の生成手段が、前記第1の仮想カメラのピッチ
角が水平方向用と垂直方向用の少なくとも2種類の予め
用意された第1の雲素を、前記第1の仮想カメラのピッ
チ角に応じた所与の割合で合成処理することにより、前
記第1の仮想カメラのピッチ角に応じて予め用意された
複数種類の第1の雲素を合成処理する、ことを特徴とす
るゲーム装置。
33. The method according to any one of claims 29 to 31.
A game device, wherein the first generation means is the pitch of the first virtual camera.
At least two types of corners for horizontal and vertical
The first cloud prepared is used for the first virtual camera
By combining processing at a given ratio according to the angle
Prepared in advance according to the pitch angle of the first virtual camera
Characterized in that it synthesizes a plurality of types of first cloud
Game device.
【請求項34】請求項32又は33に記載のゲーム装置
であって、 前記第1の生成手段が、前記第1の仮想カメラのロール
角に応じて前記水平方向用および前記垂直方向用の第1
の雲素を回転させて前記合成処理を行う、ことを特徴と
するゲーム装置。
34. The game device according to claim 32 or 33.
And the first generation means is the roll of the first virtual camera.
First for the horizontal direction and for the vertical direction depending on the angle
The cloud processing is performed by rotating the cloud element of
Game device to play.
【請求項35】請求項32〜34の何れか一項に記載の
ゲーム装置であって、 前記垂直方向用の第1の雲素には、前記第1の仮想カメ
ラのピッチ角が仰角お よび俯角の場合に対応する、更に
2種類の第1の雲素があり、 前記第1の生成手段が、前記垂直方向用の第1の雲素に
含まれる前記2種類の第1の雲素を、前記第1の仮想カ
メラのピッチ角に応じて切り換えることにより、前記垂
直方向用の第1の雲素とする、ことを特徴とするゲーム
装置。
35. The method according to any one of claims 32 to 34.
In the game device, the first virtual cloud for the vertical direction is the first virtual turtle.
The pitch angle of La corresponds to the case of depression and your elevation, further
There are two types of first cloud elements, and the first generation means is the first vertical direction cloud element.
The two types of first cloud elements included therein are converted into the first virtual cloud.
By switching according to the pitch angle of the camera,
A game in which the first cloud for direct direction is used
apparatus.
【請求項36】請求項32〜35の何れか一項に記載の
ゲーム装置であって、 前記水平方向用の第1の雲素には、前記第1の仮想カメ
ラのヨー角の角度範囲を等分した各角度範囲に対応す
る、更に複数種類の第1の雲素があり、 前記第1の生成手段が、前記水平方向用の第1の雲素に
含まれる前記複数種類の第1の雲素を、前記第1の仮想
カメラのヨー角に応じて切り換えることにより、前記水
平方向用の第1の雲素とする、ことを特徴とするゲーム
装置。
36. The method according to claim 32.
In the game device, the first virtual camera for the horizontal direction is the first virtual turtle.
It corresponds to each angle range that divides the yaw angle range of La.
In addition, there are a plurality of types of first cloud elements, and the first generation unit converts the horizontal direction first cloud elements.
The plurality of types of first cloud elements included in the first virtual
By switching according to the yaw angle of the camera, the water
A game in which the first cloud for the horizontal direction is used
apparatus.
【請求項37】第2の仮想カメラから見た第2のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段と、 前記第2の仮想カメラと、前記雲モデル空間を透視変換
するための雲モデル用仮想カメラとを連動させ、前記雲
モデル用仮想カメラに基づいて前記雲モデル空間を透視
変換することにより、前記第2のオブジェクト空間に前
記第2の仮想カメラに向けて配置される板状体の第2の
雲状オブジェクトに反映させるテクスチャ情報を生成す
る第2の生成手段と、 を備えるゲーム装置。
37. A second object viewed from a second virtual camera.
Generate an image of the vector space and execute a given game
And a second placement hand for placing a plurality of second cloud elements in the cloud model space.
Stage, perspective transformation of the second virtual camera and the cloud model space
The cloud model virtual camera for
See through the cloud model space based on the model virtual camera
By converting, the second object space
The second plate-shaped member that is arranged toward the second virtual camera
Generates texture information to be reflected on the cloud object.
And a second generating unit .
【請求項38】請求項37に記載のゲーム装置であっ
て、 前記第2のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づいて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定するが、その
際、前記第2の雲状オブジェクトにおける少なくとも2
つの特定点の色情報を、前記第2のオブジェクト空間に
おける光源に基づいて決定し、この特定点の色情報に基
づいて前記テクスチャ情報の色情報を決定する色情報決
定手段を更に備えることを特徴とするゲーム装置。
38. The game device according to claim 37.
Te, a light source of the second object space, the second cloud
The second generation means based on the object and
It determines the color information of the generated texture information,
At least 2 in the second cloud-like object
Color information of one specific point is stored in the second object space.
It is decided based on the light source in the
Based on the color information determination based on the color information of the texture information
A game machine further comprising a determining means.
【請求項39】第2の仮想カメラから見た第2のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段と、 前記雲モデル空間を透視変換することにより、前記第2
のオブジェクト空間に前記第2の仮想カメラに向けて配
置される板状体の第2の雲状オブジェクトに反映させる
テクスチャ情報を生成する第2の生成手段と、 前記第2のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づいて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定するが、その
際、前記第2の雲状オブジェクトにおける少なくとも2
つの特定点の色情報を、前記第2のオブジェクト空間に
おける光源に基づいて決定し、この特定点の色情報に基
づいて前記テクスチャ情報の色情報を決定する色情報決
定手段と、 を備えるゲーム装置。
39. A second object viewed from a second virtual camera.
Generate an image of the vector space and execute a given game
And a second placement hand for placing a plurality of second cloud elements in the cloud model space.
And a second step by perspectively transforming the cloud model space.
In the object space of the second virtual camera.
Reflect it on the second cloud-shaped object of the placed plate
Second generation means for generating texture information, a light source of the second object space, and the second cloud shape
The second generation means based on the object and
It determines the color information of the generated texture information,
At least 2 in the second cloud-like object
Color information of one specific point is stored in the second object space.
It is decided based on the light source in the
Based on the color information determination based on the color information of the texture information
A game device including a setting means .
【請求項40】請求項38又は39に記載のゲーム装置
であって、 前記色情報決定手段が、前記光源の光線方向の角度に応
じて予め用意された複数の色情報を、当該特定点におけ
る前記光源の光線方向の角度に応じた所与の割合で合成
処理することにより、前記各特定点の色情報を決定す
る、ことを特徴とするゲーム装置。
40. The game device according to claim 38 or 39.
The color information determining means is adapted to adjust the angle of the light source in the direction of the ray.
The color information prepared in advance at the specific point.
A given ratio depending on the angle of the light source direction
By processing, the color information of each specific point is determined.
A game device characterized by the following.
【請求項41】仮想カメラから見たオブジェクト空間の
画像を生成して、所与のゲームを実行するためのゲーム
装置であって、 前記仮想カメラの所与の角度パラメータの値に応じて予
め用意された複数種類の第1の雲素を、前記所与の角度
パラメータの現在値に応じた所与の割合で合成処理する
ことにより、前記オブジェクト空間に前記仮想カメラに
向けて配置される板状体の第1の雲状オブジェクトに反
映させるテクスチャ情報を生成する第1の生成手段と、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段と、 前記雲モデル空間を透視変換することにより、前記オブ
ジェクト空間に前記仮想カメラに向けて配置される板状
体の第2の雲状オブジェクトに反映させるテクスチャ情
報を生成する第2の生成手段と、 前記第1の生成手段により生成されたテクスチャ情報を
前記第1の雲状オブジェクトに反映させる手段と、 前記第1の雲状オブジェクトを前記第2の雲素とする手
段と、 を備えるゲーム装置。
41. An object space viewed from a virtual camera
A game for generating images to run a given game
A device, which is capable of predicting a value of a given angle parameter of the virtual camera.
The plurality of types of first cloud elements prepared for
Performs synthesis processing at a given ratio according to the current value of the parameter
To the virtual camera in the object space
The first cloud-like object of the plate-like object placed toward
First generation means for generating texture information to be projected, and second arrangement means for arranging a plurality of second cloud elements in the cloud model space.
And a perspective transformation of the cloud model space
A plate shape that is placed in the eject space toward the virtual camera
Texture information to be reflected in the second cloud-like object of the body
The second generation means for generating the information and the texture information generated by the first generation means.
Means for reflecting the first cloud-shaped object on the first cloud-shaped object, and a hand for setting the first cloud-shaped object as the second cloud element
A game device including a step.
【請求項42】請求項29〜36の何れか一項に記載の
ゲーム装置であって、 前記第1の生成手段により生成されたテクスチャ情報を
前記第1の雲状オブジェクトに反映させる手段と、 前記第1の雲状オブジェクトを第2の雲素とする手段
と、 雲モデル空間に前記第2の雲素を複数配置する第2の配
置手段と、 前記第1の仮想カメラと、前記雲モデル空間を透視変換
するための雲モデル用仮想カメラとを連動させ、前記雲
モデル用仮想カメラに基づいて前記雲モデル空間を透視
変換することにより、前記第1のオブジェクト空間に前
記第1の仮想カメラに向けて配置される板状体の第2の
雲状オブジェクトに反映させるテクスチャ情報を生成す
る第2の生成手段と、 を備えるゲーム装置。
42. The method according to any one of claims 29 to 36.
In the game device, the texture information generated by the first generating means is
Means for reflecting on the first cloud-like object, and means for making the first cloud-like object a second cloud
And a second array that arranges a plurality of the second cloud elements in the cloud model space.
Position means, the first virtual camera, and the cloud model space in perspective transformation
The cloud model virtual camera for
See through the cloud model space based on the model virtual camera
By converting to the first object space
The second plate-shaped member that is arranged toward the first virtual camera
Generates texture information to be reflected on the cloud object.
And a second generating unit .
【請求項43】請求項29〜36の何れか一項に記載の
ゲーム装置であって、 前記第1の生成手段により生成されたテクスチャ情報を
前記第1の雲状オブジェクトに反映させる手段と、 前記第1の雲状オブジェクトを第2の雲素とする手段
と、 雲モデル空間に前記第2の雲素を複数配置する第2の配
置手段と、 前記雲モデル空間を透視変換することにより、前記第1
のオブジェクト空間に前記第1の仮想カメラに向けて配
置される板状体の第2の雲状オブジェクトに反映させる
テクスチャ情報を生成する第2の生成手段と、 前記第1のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づ いて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定するが、その
際、前記第2の雲状オブジェクトにおける少なくとも2
つの特定点の色情報を、前記第1のオブジェクト空間に
おける光源に基づいて決定し、この特定点の色情報に基
づいて前記テクスチャ情報の色情報を決定する色情報決
定手段と、 を備えるゲーム装置。
43. The method according to any one of claims 29 to 36.
In the game device, the texture information generated by the first generating means is
Means for reflecting on the first cloud-like object, and means for making the first cloud-like object a second cloud
And a second array that arranges a plurality of the second cloud elements in the cloud model space.
The first means by perspectively transforming the placement means and the cloud model space.
In the object space of the first virtual camera.
Reflect it on the second cloud-shaped object of the placed plate
Second generation means for generating texture information, a light source of the first object space, and a second cloud shape
And based on the the object, by the second generation means
It determines the color information of the generated texture information,
At least 2 in the second cloud-like object
Color information of three specific points is stored in the first object space.
It is decided based on the light source in the
Based on the color information determination based on the color information of the texture information
A game device including a setting means .
【請求項44】第3の仮想カメラから見た第3のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 所与の配置位置繰り返しパターンを展開することにより
前記第3のオブジェクト空間に複数配置する第3の雲素
の配置位置を決定する配置位置決定手段と、 前記配置位置決定手段により決定された配置位置に、板
状体の前記第3の雲素を配置する第3の配置手段と、 前記第3の雲素を、前記第3の仮想カメラに対する所与
の方向に向ける対向配置手段と、 前記第3の仮想カメラからの距離に基づいて、第3の雲
素配置領域を設定する第3の雲素領域設定手段と、 を備えるとともに、 前記第3の配置手段が、前記第3の雲素配置領域内に前
記第3の雲素を配置する、ことを特徴とするゲーム装
置。
44. A third object viewed from a third virtual camera.
Generate an image of the vector space and execute a given game
A game apparatus for, by deploying a given position repeating pattern
Third cloud element arranged in plural in the third object space
A placement position determining means for determining the placement position of the plate, and a plate at the placement position determined by the placement position determining means.
A third arranging means for arranging the third cloud element in a shape, and the third cloud element being provided to the third virtual camera.
The third cloud based on the distance from the third virtual camera and the facing arrangement means facing in the direction of
Third cloud element region setting means for setting the element arrangement area , wherein the third arrangement element is located in the third cloud element arrangement area.
A game device characterized by arranging a third cloud element
Place
【請求項45】第3の仮想カメラから見た第3のオブジ
ェクト空間の画像を生成して、所与のゲームを実行する
ためのゲーム装置であって、 所与の配置位置繰り返しパターンを展開することにより
前記第3のオブジェクト空間に複数配置する第3の雲素
の配置位置を決定する配置位置決定手段と、 前記配置位置決定手段により決定された配置位置に、板
状体の前記第3の雲素を配置する第3の配置手段と、 前記第3の雲素を、前記第3の仮想カメラに対する所与
の方向に向ける対向配置手段と、 前記第3のオブジェクト空間における前記第3の雲素の
配置位置に応じて、前記各第3の雲素の透明度を設定す
る第3の雲素透明度設定手段と、 を備えるゲーム装置。
45. A third object viewed from a third virtual camera.
Generate an image of the vector space and execute a given game
A game apparatus for, by deploying a given position repeating pattern
Third cloud element arranged in plural in the third object space
A placement position determining means for determining the placement position of the plate, and a plate at the placement position determined by the placement position determining means.
A third arranging means for arranging the third cloud element in a shape, and the third cloud element being provided to the third virtual camera.
Of the third cloud element in the third object space.
Set the transparency of each of the third cloud elements according to the arrangement position.
And a third cloud transparency setting unit .
【請求項46】請求項44に記載のゲーム装置であっ
て、 前記第3のオブジェクト空間における前記第3の雲素の
配置位置に応じて、前記各第3の雲素の透明度を設定す
る第3の雲素透明度設定手段、を更に備えることを特徴
とするゲーム装置。
46. The game device according to claim 44.
Of the third cloud element in the third object space
Set the transparency of each of the third cloud elements according to the arrangement position.
A third cloud transparency setting unit,
And the game device.
【請求項47】請求項45又は46に記載のゲーム装置
であって、 前記第3の雲素透明度設定手段が、前記第3のオブジェ
クト空間における雲の存在可否を表す雲分布図に基づい
て、前記各第3の雲素の透明度を設定する、ことを特徴
とするゲーム装置。
47. The game device according to claim 45 or 46.
In addition, the third cloud transparency setting means is the third object.
Based on the cloud distribution map showing the existence of clouds in the space
The transparency of each of the third cloud elements is set.
And the game device.
【請求項48】請求項45〜47の何れか一項に記載の
ゲーム装置であって、 前記第3の雲素透明度設定手段が、前記第3の仮想カメ
ラから前記各第3の雲素までの距離に基づいて、前記各
第3の雲素の透明度を設定する、ことを特徴とするゲー
ム装置。
48. The method according to any one of claims 45 to 47.
A game device, wherein the third cloud transparency setting means is the third virtual camera.
Based on the distance from La to each of the third cloud,
A game characterized by setting the transparency of the third cloud.
Device.
【請求項49】請求項44に記載のゲーム装置であっ
て、 前記第3の仮想カメラからの距離が前記第3の雲素配置
領域より遠方に、第4の雲素配置領域を設定する第4の
雲素領域設定手段と、 前記第4の雲素配置領域に、板状体の第4の雲素を略水
平状に複数配置する第4の配置手段と、 を更に備えることを特徴とするゲーム装置。
49. A game device according to claim 44.
And the distance from the third virtual camera is the third cloud arrangement.
A fourth cloud element placement region is set farther than the region.
The fourth cloud element of the plate-shaped body is substantially water-filled in the cloud element area setting means and the fourth cloud element arrangement area.
A game apparatus, further comprising: a fourth arranging unit arranged in a flat shape .
【請求項50】請求項49に記載のゲーム装置であっ
て、 前記配置位置決定手段が用いる前記所与の配置位置繰り
返しパターンを展開することにより、前記第4の雲素の
配置位置を決定する手段、を更に備えるととも に、 前記第4の配置手段が、前記決定された第4の雲素の配
置位置に、前記第4の雲素を略水平状に配置する、こと
を特徴とするゲーム装置。
50. The game device according to claim 49.
The given placement position used by the placement position determining means.
By expanding the return pattern, the fourth cloud
Means for determining a position, in Tomo further comprising a fourth arrangement means, distribution of the fourth Kumomoto the determined
Arranging the fourth cloud in a horizontal position in a substantially horizontal position
A game device characterized by.
【請求項51】請求項49又は50に記載のゲーム装置
であって、 前記第4の雲素の配置位置に応じて、前記各第4の雲素
の透明度を設定する第4の雲素透明度設定手段、を更に
備えることを特徴とするゲーム装置。
51. The game device according to claim 49 or 50.
And each of the fourth cloud elements according to the arrangement position of the fourth cloud elements.
A fourth cloud transparency setting means for setting the transparency of
A game device provided with.
【請求項52】請求項51に記載のゲーム装置であっ
て、 前記第4の雲素透明度設定手段が、前記第3のオブジェ
クト空間における雲の存在可否を表す雲分布図に基づい
て、前記各第4の雲素の透明度を設定する、ことを特徴
とするゲーム装置。
52. The game device according to claim 51.
Then, the fourth cloud transparency setting means sets the third object.
Based on the cloud distribution map showing the existence of clouds in the space
And setting the transparency of each of the fourth clouds.
And the game device.
【請求項53】請求項51又は52に記載のゲーム装置
であって、 前記第4の雲素透明度設定手段が、前記第3の仮想カメ
ラから前記各第4の雲素までの距離に基づいて、前記各
第4の雲素の透明度を設定する、ことを特徴とするゲー
ム装置。
53. The game device according to claim 51 or 52.
And the fourth cloud transparency setting means is the third virtual camera.
Based on the distance from La to each of the fourth cloud,
A game characterized by setting the transparency of the fourth cloud.
Device.
【請求項54】仮想カメラから見たオブジェクト空間の
画像を生成して、所与のゲームを実行するためのゲーム
装置であって、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段と、 前記雲モデル空間を透視変換することにより、前記オブ
ジェクト空間に前記仮想カメラに向けて配置される板状
体の第2の雲状オブジェクトに反映させるテクスチャ情
報を生成する第2の生成手段と、 所与の配置位置繰り返しパターンを展開することにより
前記オブジェクト空間に複数配置する第3の雲素の配置
位置を決定する配置位置決定手段と、 前記配置位置決定手段により決定された配置位置に、板
状体の前記第3の雲素を配置する第3の配置手段と、 前記第3の雲素を、前記仮想カメラに対する所与の方向
に向ける対向配置手段 と、 前記第2の生成手段により生成されたテクスチャ情報を
前記第2の雲状オブジェクトに反映させる手段と、 前記第2の雲状オブジェクトを前記第3の雲素とする手
段と、 を備えるゲーム装置。
54. Object space of the virtual camera
A game for generating images to run a given game
A second arranging device for arranging a plurality of second cloud elements in the cloud model space
And a perspective transformation of the cloud model space
A plate shape that is placed in the eject space toward the virtual camera
Texture information to be reflected in the second cloud-like object of the body
A second generating means for generating a report and by expanding a given arrangement position repeating pattern
Arrangement of a plurality of third cloud elements arranged in the object space
Arrangement position determining means for determining a position, and a plate at the arrangement position determined by the arrangement position determining means.
A third arranging means for arranging the third cloud element in a shape, and the third cloud element in a given direction with respect to the virtual camera.
And opposed means for directing, the texture information generated by the second generating means
Means for reflecting on the second cloud-shaped object, and a hand for setting the second cloud-shaped object as the third cloud element
A game device including a step.
【請求項55】請求項44〜53の何れか一項に記載の
ゲーム装置であって、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段と、 前記第3の仮想カメラと、前記雲モデル空間を透視変換
するための雲モデル用仮想カメラとを連動させ、前記雲
モデル用仮想カメラに基づいて前記雲モデル空間を透視
変換することにより、前記第3のオブジェクト空間に前
記第3の仮想カメラに向けて配置される板状体の第2の
雲状オブジェクトに反映させるテクスチャ情報を生成す
る第2の生成手段と、 前記第2の生成手段により生成されたテクスチャ情報を
前記第2の雲状オブジェクトに反映させる手段と、 前記第2の雲状オブジェクトを前記第3の雲素とする手
段と、 を備えるゲーム装置。
55. The method according to any one of claims 44 to 53.
A game device, which is a second placement device that places a plurality of second cloud elements in a cloud model space.
Stage, perspective transformation of the third virtual camera and the cloud model space
The cloud model virtual camera for
See through the cloud model space based on the model virtual camera
By converting, the third object space
The second plate-shaped member that is arranged toward the third virtual camera
Generates texture information to be reflected on the cloud object.
The second generating means and the texture information generated by the second generating means.
Means for reflecting on the second cloud-shaped object, and a hand for setting the second cloud-shaped object as the third cloud element
A game device including a step.
【請求項56】請求項44〜53の何れか一項に記載の
ゲーム装置であって、 雲モデル空間に第2の雲素を複数配置する第2の配置手
段と、 前記雲モデル空間を透視変換することにより、前記第3
のオブジェクト空間に前記第3の仮想カメラに向けて配
置される板状体の第2の雲状オブジェクトに反映させる
テクスチャ情報を生成する第2の生成手段と、 前記第3のオブジェクト空間の光源と、前記第2の雲状
オブジェクトとに基づいて、前記第2の生成手段により
生成されたテクスチャ情報の色情報を決定するが、その
際、前記第2の雲状オブジェクトにおける少なくとも2
つの特定点の色情報を、前記第3のオブジェクト空間に
おける光源に基づいて決定し、この特定点の色情報に基
づいて前記テクスチャ情報の色情報を決定する色情報決
定手段と、 前記第2の生成手段により生成されたテクスチャ情報を
前記第2の雲状オブジェクトに反映させる手段と、 前記第2の雲状オブジェクトを前記第3の雲素とする手
段と、 を備えるゲーム装置。
56. The method according to any one of claims 44 to 53.
A game device, which is a second placement device that places a plurality of second cloud elements in a cloud model space.
And the third model by perspectively transforming the cloud model space.
To the third virtual camera in the object space of
Reflect it on the second cloud-shaped object of the placed plate
Second generation means for generating texture information, a light source of the third object space, the second cloud shape
The second generation means based on the object and
It determines the color information of the generated texture information,
At least 2 in the second cloud-like object
Color information of three specific points is stored in the third object space.
It is decided based on the light source in the
Based on the color information determination based on the color information of the texture information
Determining means and the texture information generated by the second generating means.
Means for reflecting on the second cloud-shaped object, and a hand for setting the second cloud-shaped object as the third cloud element
A game device including a step.
【請求項57】請求項54〜56の何れか一項に記載の
ゲーム装置であって、 前記第2の生成手段が、複数種類のテクスチャ情報を生
成し、 前記第2の生成手段により生成される複数種類のテクス
チャ情報を反映させることにより、テクスチャ情報の異
なる複数種類の第2の雲状オブジェクトを生成する手段
を更に備え、 前記第3の配置手段が、前記複数種類の第2の雲状オブ
ジェクトを配置する、ことを特徴とするゲーム装置。
57. The method according to any one of claims 54 to 56.
In the game device, the second generation unit generates a plurality of types of texture information.
And a plurality of types of texts generated by the second generation means
By reflecting the char information, the difference in texture information
Means for generating a plurality of types of second cloud-shaped objects
Further comprising: the third arranging means,
A game device characterized by arranging a project.
【請求項58】仮想カメラから見たオブジェクト空間の
画像を生成して、所与のゲームを実行するためのゲーム
装置であって、 前記仮想カメラの位置の変化に応じて、前記仮想カメラ
の視界の略中央付近から仮想カメラに接近する雲状オブ
ジェクトに対する透明度を上げて、視界の遠方から視界
の略中央付近に移動する雲状オブジェクトに対する透明
度を下げる手段、を備えるゲーム装置。
58. The object space viewed from the virtual camera
A game for generating images to run a given game
A virtual camera according to a change in the position of the virtual camera.
A cloud-shaped object approaching the virtual camera from near the center of the field of view.
Increase the transparency to the project, and view from a distance
For a cloud-like object moving near the center of
A game device including means for reducing the degree.
JP2000376702A 2000-12-11 2000-12-11 Information storage medium and game device Expired - Fee Related JP3453119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000376702A JP3453119B2 (en) 2000-12-11 2000-12-11 Information storage medium and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000376702A JP3453119B2 (en) 2000-12-11 2000-12-11 Information storage medium and game device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003124237A Division JP4688407B2 (en) 2003-04-28 2003-04-28 Information storage medium and game device

Publications (2)

Publication Number Publication Date
JP2002183756A JP2002183756A (en) 2002-06-28
JP3453119B2 true JP3453119B2 (en) 2003-10-06

Family

ID=18845526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000376702A Expired - Fee Related JP3453119B2 (en) 2000-12-11 2000-12-11 Information storage medium and game device

Country Status (1)

Country Link
JP (1) JP3453119B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4079358B2 (en) 2002-12-06 2008-04-23 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP4651527B2 (en) * 2005-12-15 2011-03-16 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP4832152B2 (en) * 2006-04-26 2011-12-07 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
JP4785605B2 (en) * 2006-04-26 2011-10-05 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
JP4787662B2 (en) * 2006-04-26 2011-10-05 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
JP4787661B2 (en) * 2006-04-26 2011-10-05 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
JP4794628B2 (en) * 2006-08-01 2011-10-19 株式会社ディジタルメディアプロフェッショナル A system for calculating accumulated density images for gaseous objects combined with surface objects.
JP4895372B2 (en) * 2006-10-27 2012-03-14 サミー株式会社 Two-dimensional moving image generation device, game machine, and image generation program
JP5002795B2 (en) * 2007-02-28 2012-08-15 株式会社カプコン Program, image composition device, and virtual society construction device
JP4885080B2 (en) * 2007-07-09 2012-02-29 任天堂株式会社 Image processing program and image processing apparatus
JP6473215B1 (en) * 2017-11-24 2019-02-20 株式会社Live2D Program, recording medium, and drawing method
JP6473214B1 (en) * 2017-11-24 2019-02-20 株式会社Live2D Program, recording medium, and drawing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大澤 秀直,"3Dマスターへの道 Shade Professional編(2of3)/リアルな自然の景観を表現する",MdN,株式会社エムディエヌコーポレーション,1999年 5月 1日,第61巻,p.102−107
菊池司 外2名,"積雲型のビジュアルシミュレーション",画像電子学会誌,画像電子学会,1999年 4月25日,第28巻,第2号,p.140−151

Also Published As

Publication number Publication date
JP2002183756A (en) 2002-06-28

Similar Documents

Publication Publication Date Title
US6580430B1 (en) Method and apparatus for providing improved fog effects in a graphics system
US5856829A (en) Inverse Z-buffer and video display system having list-based control mechanism for time-deferred instructing of 3D rendering engine that also responds to supervisory immediate commands
JP4291892B2 (en) Image processing apparatus and method
US6707458B1 (en) Method and apparatus for texture tiling in a graphics system
US20090244064A1 (en) Program, information storage medium, and image generation system
EP1189173A2 (en) Achromatic lighting in a graphics system and method
JP3453119B2 (en) Information storage medium and game device
JPH0757117A (en) Forming method of index to texture map and computer control display system
JP2002183754A (en) Game information, information storage medium and game device
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4970583B2 (en) Information storage medium and game device
JP4688407B2 (en) Information storage medium and game device
JP2006323512A (en) Image generation system, program, and information storage medium
JP2008077405A (en) Image generation system, program, and information storage medium
JP3039357B2 (en) Image processing apparatus and method
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3470966B2 (en) Program, information storage medium, and game system
JP2011065396A (en) Program, information storage medium, and object generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
US7724255B2 (en) Program, information storage medium, and image generation system
JP2006318386A (en) Program, information storage medium, and image forming system
JP4736239B2 (en) Pattern image creating method and apparatus
JP2001314646A (en) Game apparatus and information storage medium
JP4589517B2 (en) Information storage medium and image generation apparatus

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees