JP2015100481A - Game machine, and control method and computer program used therefor - Google Patents

Game machine, and control method and computer program used therefor Download PDF

Info

Publication number
JP2015100481A
JP2015100481A JP2013242198A JP2013242198A JP2015100481A JP 2015100481 A JP2015100481 A JP 2015100481A JP 2013242198 A JP2013242198 A JP 2013242198A JP 2013242198 A JP2013242198 A JP 2013242198A JP 2015100481 A JP2015100481 A JP 2015100481A
Authority
JP
Japan
Prior art keywords
virtual
dimensional
game machine
user
dimensional objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013242198A
Other languages
Japanese (ja)
Other versions
JP6175714B2 (en
Inventor
祐一 浅見
Yuichi Asami
祐一 浅見
笑子 諸橋
Emiko Morohashi
笑子 諸橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2013242198A priority Critical patent/JP6175714B2/en
Publication of JP2015100481A publication Critical patent/JP2015100481A/en
Application granted granted Critical
Publication of JP6175714B2 publication Critical patent/JP6175714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game machine capable of appropriately controlling drawing of an instruction mark by taking account of a change in appearance of three-dimensional objects.SOLUTION: The game machine generates an image generated by observing, from a prescribed point of view, a situation where a plurality of three-dimensional objects corresponding to instruction marks for instructing a user to execute each of a plurality of postures, move along a prescribed route in a virtual three-dimensional space, while holding a time interval of a time when each posture should be executed. The game machine includes: determination means that determines, according to prescribed conditions, by which of a plurality of types of three-dimensional objects KO1 and KO2, where at least any of the shape and size thereof are mutually different, the instruction mark should be drawn; and selection control means that controls a selection of the three-dimensional objects such that each instruction mark is drawn by one type of three-dimensional object selected from the plurality of types of three-dimensional objects in compliance with the determination result of the determination means.

Description

本発明は、ユーザが行なうべき複数の所作のそれぞれに対応する複数の指示標識をゲーム画面中で所定方向に移動させることにより、ユーザに各所作を案内するゲーム機等に関する。   The present invention relates to a game machine or the like that guides each operation to the user by moving a plurality of instruction signs corresponding to each of the plurality of operations to be performed by the user in a predetermined direction on the game screen.

音楽の演奏中の所定時期に所定の所作をユーザに要求する音楽ゲームが周知である。このような音楽ゲームの一つとして、ユーザが行なうべき複数の所作のそれぞれに対応する複数の指示標識を所定の経路に沿って表示させるとともに、各指示標識が対応する時期に所定の基準標識と一致するように各指示標識を基準標識に向かって移動させることにより、ユーザに各所作を案内する音楽ゲームが知られている(例えば、特許文献1参照)。   Music games that require a user to perform a predetermined action at a predetermined time during music performance are well known. As one of such music games, a plurality of instruction signs corresponding to each of a plurality of actions to be performed by the user are displayed along a predetermined route, and a predetermined reference sign is displayed at a time corresponding to each instruction sign. There is known a music game in which each instruction sign is moved toward a reference sign so as to coincide with each other, thereby guiding a user to each work (see, for example, Patent Document 1).

特開2001−96061号公報JP 2001-96061 A

ゲーム機の分野では、いわゆる3次元コンピュータグラフィックスの技術を利用してゲーム画面を描くことがしばし行なわれている。しかしながら、上述した音楽ゲームに例示されるように、ユーザが所作を行なうべき時期を指示標識により案内するタイミングゲーム等において、複数の3次元オブジェクトが適宜の時間間隔を保ちながら移動する様子を観察した画像を3次元コンピュータグラフィックス技術に従って生成することにより指示標識を描画した場合、3次元オブジェクトをどのような方向に観察するかに応じて指示標識の見え方が変化する。そのような性質に起因して指示標識が意図しない見え方で表示される可能性がある。例えば、3次元オブジェクトの間隔が狭い場合には、ゲーム画面の周縁部、一例として上下方向の端部あるいは左右方向の端部等において3次元オブジェクト同士の重なりが大きくなり、隣接する3次元オブジェクトのうち、背後の3次元オブジェクトの大半が手前側の3次元オブジェクトで隠される。その場合、背後の3次元オブジェクトに対応する指示標識をユーザが十分に判別できない可能性がある。あるいは、背後の3次元オブジェクトを敢えて手前側の3次元オブジェクトで隠すことにより、一部の指示標識に関するユーザの判別の難易度を高めようとしても、3次元オブジェクトを観察する方向が変われば、そのような見え方にならない可能性がある。   In the field of game machines, drawing game screens using so-called three-dimensional computer graphics technology is often performed. However, as exemplified by the above-described music game, in a timing game or the like in which a user guides the time when an action should be performed with an instruction sign, a plurality of three-dimensional objects are observed to move while maintaining appropriate time intervals. When an instruction sign is drawn by generating an image according to a three-dimensional computer graphics technique, the appearance of the instruction sign changes depending on in which direction the three-dimensional object is observed. Due to such a property, the indication sign may be displayed in an unintended manner. For example, when the interval between the three-dimensional objects is narrow, the overlap between the three-dimensional objects becomes large at the peripheral edge of the game screen, for example, the vertical edge or the horizontal edge. Of these, most of the three-dimensional objects behind are hidden by the front three-dimensional object. In that case, there is a possibility that the user cannot sufficiently determine the indicator sign corresponding to the three-dimensional object behind. Alternatively, if the direction of observing the three-dimensional object changes, even if it is intended to increase the difficulty of the user's discrimination regarding some indication signs by concealing the three-dimensional object behind it with the front three-dimensional object, It may not look like this.

そこで、本発明は、3次元オブジェクトの見え方の変化を考慮して指示標識の描画を適切に制御することが可能なゲーム機等を提供することを目的とする。   Accordingly, an object of the present invention is to provide a game machine or the like that can appropriately control the drawing of the instruction sign in consideration of the change in the appearance of the three-dimensional object.

本発明の一態様に係るゲーム機は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段を備えたゲーム機において、前記案内手段は、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段と、各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段とを備えているものである。   In the game machine according to one aspect of the present invention, a plurality of three-dimensional objects corresponding to instruction signs for instructing each of a plurality of actions to be performed by the user at different times during the game are performed. Generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user, the state of moving along a predetermined path in the virtual three-dimensional space in a state arranged according to the time intervals of powers Thus, in the game machine including the guide unit that guides the user to each operation, the guide unit is drawn by any of a plurality of types of three-dimensional objects having at least one of shape and size different from each other. A discriminating unit that discriminates according to a predetermined condition, and each indicator sign follows the discrimination result of the discriminating unit from the plurality of types of three-dimensional objects. In which and a selection control means for controlling the selection of the three-dimensional object to be placed in a virtual three-dimensional space as rendered by one type of three-dimensional object selected.

また、本発明の一態様に係るゲーム機の制御方法は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する手順を備えたゲーム機の制御方法であって、前記案内する手順には、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する手順と、各指示標識が前記複数種類の3次元オブジェクトから前記判別する手順における判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する手順と、がさらに含まれているものである。   Further, in the game machine control method according to one aspect of the present invention, a plurality of three-dimensional objects corresponding to instruction signs that indicate to the user each of a plurality of actions to be performed by the user at different times during the game include: An image obtained by observing the state of moving along a predetermined path in the virtual three-dimensional space in a state arranged according to the time interval of each operation to be performed from a predetermined viewpoint in the virtual three-dimensional space is generated. A game machine control method including a procedure for guiding a user to each operation by presenting to the user, wherein the instruction sign has at least one of a shape and a size different from each other. A procedure for determining which of a plurality of types of three-dimensional objects should be drawn according to a predetermined condition; And a procedure for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space so as to be drawn by one type of three-dimensional object selected according to a determination result in another procedure. Is.

さらに、本発明の一形態に係るコンピュータプログラムは、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段としてゲーム機のコンピュータを機能させるコンピュータプログラムであって、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段、及び、各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段、として前記案内手段がさらに機能するように構成されているものである。   Furthermore, the computer program according to an aspect of the present invention includes a plurality of three-dimensional objects corresponding to instruction signs that indicate to the user each of the plurality of actions to be performed by the user at different times during the game. An image observed from a predetermined viewpoint in the virtual three-dimensional space is generated and presented to the user as it moves along a predetermined path in the virtual three-dimensional space in a state arranged according to the time interval of time to be performed. By doing so, a computer program for causing the computer of the game machine to function as a guide means for guiding each operation to the user, wherein the indication sign includes a plurality of types of three-dimensional objects having at least one of shape and size different from each other. A discriminating means for discriminating which should be drawn according to a predetermined condition; and Selection control means for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space so as to be drawn by one kind of three-dimensional object selected according to the discrimination result of the discrimination means from a kind of three-dimensional object The guide means is further configured to function.

本発明の一形態に係るゲーム機の要部の機能ブロック図。The functional block diagram of the principal part of the game machine which concerns on one form of this invention. 音楽ゲームに使用されるゲーム画面の一例を模式的に示した図。The figure which showed typically an example of the game screen used for a music game. ゲーム制御部がメモリ上に論理的に生成する仮想3次元空間の一例を示す図。The figure which shows an example of the virtual three-dimensional space which a game control part produces | generates logically on memory. 仮想レーン上の仮想オブジェクトを仮想カメラにて撮影する様子を仮想3次元空間の横方向から見た場合の模式図。The schematic diagram at the time of seeing a mode that the virtual object on a virtual lane is image | photographed with a virtual camera from the horizontal direction of a virtual three-dimensional space. 一対の第1オブジェクトの間に第2オブジェクトが挟まれた状態を仮想3次元空間の視点から観察した様子を示す図。The figure which shows a mode that the state where the 2nd object was pinched | interposed between a pair of 1st object was observed from the viewpoint of virtual three-dimensional space. 図5の第2オブジェクトの全体を示す図。The figure which shows the whole 2nd object of FIG. 第2オブジェクトの変形例を示す図。The figure which shows the modification of a 2nd object. 第2オブジェクトの他の変形例を示す図。The figure which shows the other modification of a 2nd object. 第2オブジェクトのさらに他の変形例を示す図。The figure which shows the further another modification of a 2nd object. 変形部を外周の一部に限定して設けた第2オブジェクトの変形例を示す図。The figure which shows the modification of the 2nd object which provided the deformation | transformation part limited to a part of outer periphery. 図10の第2オブジェクトが第1オブジェクトに挟まれた状態を仮想3次元空間の視点から観察した様子を示す図。The figure which shows a mode that the state where the 2nd object of FIG. 10 was pinched | interposed into the 1st object was observed from the viewpoint of virtual three-dimensional space. AR画像を表示するためのシーケンス処理部の機能ブロック図。The functional block diagram of the sequence process part for displaying AR image. 第1の形態におけるシーケンスデータの内容の一例を示す図。The figure which shows an example of the content of the sequence data in a 1st form. シーケンス処理ルーチンの手順を示すフローチャート。The flowchart which shows the procedure of a sequence processing routine. 第1の形態における仮想オブジェクト配置処理の手順を示すフローチャート。The flowchart which shows the procedure of the virtual object arrangement | positioning process in a 1st form. 操作評価処理ルーチンの手順を示すフローチャート。The flowchart which shows the procedure of an operation evaluation process routine. 第2の形態におけるシーケンスデータの内容の一例を示す図。The figure which shows an example of the content of the sequence data in a 2nd form. 第2の形態における仮想オブジェクト配置処理の手順を示すフローチャート。The flowchart which shows the procedure of the virtual object arrangement | positioning process in a 2nd form. 第3の形態におけるシーケンスデータの内容の一例を示す図。The figure which shows an example of the content of the sequence data in a 3rd form. 第3の形態における仮想オブジェクト配置処理の手順を示すフローチャート。The flowchart which shows the procedure of the virtual object arrangement | positioning process in a 3rd form.

(第1の形態)
以下、本発明に係るゲーム機の一形態について説明する。図1は、本発明の一形態に係るゲーム機1の要部の機能ブロック図である。ゲーム機1は、一例として、音楽ゲームを提供する業務用のゲーム機として構成されている。つまり、ゲーム機1は、所定の対価の消費と引き替えに所定の範囲の音楽ゲームのプレイを提供する。図1に示すように、ゲーム機1には、コンピュータとしての制御ユニット2及び外部記憶装置3が設けられている。また、制御ユニット2には、入力装置4、表示装置としてのモニタ5、音声出力装置としてのスピーカ6、及び撮影手段としてのカメラ7が接続されている。
(First form)
Hereinafter, an embodiment of the game machine according to the present invention will be described. FIG. 1 is a functional block diagram of a main part of a game machine 1 according to an embodiment of the present invention. As an example, the game machine 1 is configured as a business game machine that provides a music game. That is, the game machine 1 provides a predetermined range of music game play in exchange for consumption of a predetermined value. As shown in FIG. 1, the game machine 1 is provided with a control unit 2 and an external storage device 3 as a computer. The control unit 2 is connected to an input device 4, a monitor 5 as a display device, a speaker 6 as an audio output device, and a camera 7 as a photographing means.

カメラ7は、入力装置4及びそれを使用するユーザを撮影可能なように配置されている。ゲームのプレイヤとしてのユーザは、モニタ5を見ながら入力装置4を使用する。つまり、入力装置4は、ユーザとモニタ5との間に配置される。したがって、カメラ7は、入力装置4及びユーザの方向を向くようにモニタ5側に配置される。また、入力装置として、例えば、音楽ゲーム内で使用される楽器を模したものが使用されてよい。このような入力装置として、例えば、ドラムセットを模したドラム型コントローラが使用されてもよい。ドラム型コントローラは、一例として、4つのドラムを含んでいる。4つのドラムは、例えば、ユーザの所作、ここではユーザが叩く操作を検出する検出部として利用される。そして、叩く操作のような入力装置4に対する操作の結果は、制御ユニット2に出力される。なお、ゲーム機1には、その他にも押釦スイッチ、十字キーといった業務用のゲーム機が備える各種の入力装置及び出力装置が設けられているが、それらの図示は省略した。ここでは、ゲーム中にユーザが行なうべき所作の一例としてユーザの叩く操作を挙げて説明するが、ユーザの所作はそのような叩く操作に限らず、ゲーム機の入力装置によって検出されるべきユーザの各種の行為を含む。ユーザの所作は、ユーザがゲーム機に対して物理的に接触することにより検出されるべき行為に限らず、ユーザがゲーム機に対して非接触で検出される行為であってもよい。例えば、カメラ7により検出されるべき行為も所作の一例である。   The camera 7 is arranged so that the input device 4 and a user who uses the input device 4 can be photographed. A user as a game player uses the input device 4 while looking at the monitor 5. That is, the input device 4 is disposed between the user and the monitor 5. Therefore, the camera 7 is disposed on the monitor 5 side so as to face the input device 4 and the user. Further, as the input device, for example, a device imitating a musical instrument used in a music game may be used. As such an input device, for example, a drum type controller imitating a drum set may be used. As an example, the drum-type controller includes four drums. The four drums are used, for example, as a detection unit that detects a user's work, here, an operation of the user hitting. Then, a result of an operation on the input device 4 such as a tapping operation is output to the control unit 2. In addition, the game machine 1 is provided with various input devices and output devices included in a commercial game machine such as a push button switch and a cross key, but these are not shown. Here, a user's tapping operation will be described as an example of an action to be performed by the user during the game. However, the user's action is not limited to such tapping operation, and the user's action to be detected by the input device of the game machine Includes various acts. The user's action is not limited to an action that should be detected when the user physically touches the game machine, but may be an action that the user detects without touching the game machine. For example, an action to be detected by the camera 7 is also an example of the work.

制御ユニット2は、制御主体としてのゲーム制御部11と、そのゲーム制御部11からの出力に従って動作する表示制御部12及び音声出力制御部14と、を備えている。ゲーム制御部11は、マイクロプロセッサと、そのマイクロプロセッサの動作に必要な内部記憶装置(一例としてROM及びRAM)等の各種の周辺装置とを組み合わせたユニットとして構成されている。表示制御部12は、ゲーム制御部11から与えられる描画データに応じた画像をフレームバッファに描画し、その描画した画像に対応する映像信号をモニタ5に出力することにより、モニタ5上に所定の画像を表示させる。音声出力制御部14は、ゲーム制御部11から与えられる音声再生データに応じた音声再生信号を生成してスピーカ6に出力することにより、スピーカ6から所定の楽曲(効果音等を含む)を再生させる。   The control unit 2 includes a game control unit 11 as a control subject, and a display control unit 12 and an audio output control unit 14 that operate according to an output from the game control unit 11. The game control unit 11 is configured as a unit in which a microprocessor and various peripheral devices such as an internal storage device (for example, ROM and RAM) necessary for the operation of the microprocessor are combined. The display control unit 12 draws an image corresponding to the drawing data supplied from the game control unit 11 in the frame buffer, and outputs a video signal corresponding to the drawn image to the monitor 5, whereby a predetermined signal is displayed on the monitor 5. Display an image. The audio output control unit 14 reproduces predetermined music (including sound effects) from the speaker 6 by generating an audio reproduction signal corresponding to the audio reproduction data given from the game control unit 11 and outputting it to the speaker 6. Let

外部記憶装置3は、制御ユニット2に接続されている。外部記憶装置3には、例えば、ハードディスク等の磁気記憶媒体、DVDROM、CDROM等の光学式記憶媒体、あるいはEEPROM等の不揮発性半導体メモリ装置といった、電源の供給がなくても記憶を保持可能な記憶媒体が使用される。   The external storage device 3 is connected to the control unit 2. The external storage device 3 is a memory that can hold the memory without power supply, such as a magnetic storage medium such as a hard disk, an optical storage medium such as a DVDROM or a CDROM, or a nonvolatile semiconductor memory device such as an EEPROM. Medium is used.

外部記憶装置3には、ゲームプログラム21及びゲームデータ22が記憶されている。
ゲームプログラム21は、ゲーム機1が所定の手順に従って音楽ゲームを実行するために必要なコンピュータプログラムである。ゲームプログラム21は、シーケンス制御モジュール23及び評価モジュール24を含んでいる。ゲーム機1が起動されると、ゲーム制御部11はその内部記憶装置に記憶されたオペレーションプログラムを実行することにより、ゲーム機1として動作するために必要な各種の処理を実行する。続いて、ゲーム制御部11は、外部記憶装置3からゲームプログラム21を読み込んでこれを実行することにより、ゲームプログラム21に従って音楽ゲームを実行するための環境を設定する。
A game program 21 and game data 22 are stored in the external storage device 3.
The game program 21 is a computer program necessary for the game machine 1 to execute a music game according to a predetermined procedure. The game program 21 includes a sequence control module 23 and an evaluation module 24. When the game machine 1 is activated, the game control unit 11 executes various processes necessary to operate as the game machine 1 by executing an operation program stored in the internal storage device. Subsequently, the game control unit 11 reads the game program 21 from the external storage device 3 and executes it to set an environment for executing the music game according to the game program 21.

ゲーム制御部11がゲームプログラム21のシーケンス制御モジュール23を実行することにより、ゲーム制御部11にはシーケンス処理部15が生成される。また、ゲーム制御部11がゲームプログラム21の評価モジュール24を実行することにより、ゲーム制御部11には操作評価部16が生成される。シーケンス処理部15は、ユーザが選択した音楽(楽曲)の再生に合わせてユーザに操作時期を指示するための処理、あるいはユーザの操作に応じて効果音等の演出を発生させるための処理といった音楽ゲーム処理を実行する。操作評価部16は、ユーザの操作を評価するための処理を実行する。シーケンス処理部15及び操作評価部16は、コンピュータハードウェアとコンピュータプログラムとの組み合わせによって実現される論理的装置である。なお、ゲームプログラム21には、上述したモジュール23、24の他にも音楽ゲームを実行するために必要な各種のプログラムモジュールが含まれ、ゲーム制御部11にはそれらのモジュールに対応した論理装置が生成される。しかし、それらの図示は省略した。   When the game control unit 11 executes the sequence control module 23 of the game program 21, a sequence processing unit 15 is generated in the game control unit 11. In addition, when the game control unit 11 executes the evaluation module 24 of the game program 21, an operation evaluation unit 16 is generated in the game control unit 11. The sequence processing unit 15 is music such as processing for instructing the user of the operation time in accordance with reproduction of music (music) selected by the user, or processing for generating effects such as sound effects according to the user's operation. Execute game processing. The operation evaluation unit 16 executes a process for evaluating a user operation. The sequence processing unit 15 and the operation evaluation unit 16 are logical devices realized by a combination of computer hardware and a computer program. In addition to the modules 23 and 24 described above, the game program 21 includes various program modules necessary for executing a music game, and the game control unit 11 includes logic devices corresponding to these modules. Generated. However, those illustrations are omitted.

ゲームデータ22には、ゲームプログラム21が実行される際に参照されるべき各種のデータが含まれている。例えば、ゲームデータ22には、楽曲データ25、効果音データ26及び画像データ27が含まれている。楽曲データ25は、ゲームの対象となる楽曲をスピーカ6から再生出力させるために必要なデータである。図1では、一種類の楽曲データ25が示されているが、実際には、ユーザが複数の楽曲からプレイする楽曲を選択可能である。ゲームデータ22には、それらの複数の楽曲データ25がそれぞれの曲を識別するための情報を付して記録されている。効果音データ26は、ユーザの操作に応答してスピーカ6から出力させるべき複数種類の効果音を、効果音毎にユニークなコードと対応付けて記録したデータである。効果音は、楽器その他の様々な種類の音声を含む。効果音データは、各種類に対して、音程を変えて所定のオクターブ数だけ用意されていてもよい。画像データ27は、ゲーム画面内の背景画像、各種のオブジェクト、アイコン等をモニタ5に表示させるためのデータである。   The game data 22 includes various data to be referred to when the game program 21 is executed. For example, the game data 22 includes music data 25, sound effect data 26, and image data 27. The music data 25 is data necessary to reproduce and output music to be played from the speaker 6. Although one type of music data 25 is shown in FIG. 1, in practice, the user can select music to play from a plurality of music. In the game data 22, a plurality of pieces of music data 25 are recorded with information for identifying each music piece. The sound effect data 26 is data in which a plurality of types of sound effects to be output from the speaker 6 in response to a user operation are recorded in association with a unique code for each sound effect. Sound effects include musical instruments and various other types of sounds. The sound effect data may be prepared for a predetermined number of octaves by changing the pitch for each type. The image data 27 is data for causing the monitor 5 to display a background image, various objects, icons, and the like in the game screen.

ゲームデータ22には、さらにシーケンスデータ28が含まれている。シーケンスデータ28は、ユーザに対して指示すべき各操作の内容、それらの操作が行なわれるべきゲーム中の時期等を定義したデータである。一曲の楽曲データ25に対して、最低一個のシーケンスデータ28が用意される。シーケンスデータ28は、本発明の指示データの一例に相当するが、その詳細は後述する。   The game data 22 further includes sequence data 28. The sequence data 28 is data defining the contents of each operation to be instructed to the user, the time during the game in which those operations are to be performed, and the like. At least one sequence data 28 is prepared for one piece of music data 25. The sequence data 28 corresponds to an example of instruction data of the present invention, and details thereof will be described later.

次に、ゲーム機1が提供する音楽ゲームの概要を説明する。図2は、音楽ゲームに使用されるゲーム画面の一例を模式的に示した図である。図2に示すように、案内画面としてのゲーム画面30は、撮影画像としての現実空間画像31及びAR画像32を含んでいる。現実空間画像31には、カメラ7が撮影した画像が表示される。つまり、現実空間画像31には、カメラ7によって撮影された入力装置4及びユーザの画像が表示される。より具体的には、現実空間画像31には、4つのドラム画像DI及びユーザ画像PIが含まれる。   Next, an outline of a music game provided by the game machine 1 will be described. FIG. 2 is a diagram schematically showing an example of a game screen used for a music game. As shown in FIG. 2, the game screen 30 as a guidance screen includes a real space image 31 and an AR image 32 as photographed images. In the real space image 31, an image taken by the camera 7 is displayed. That is, the real space image 31 displays the input device 4 and the user image captured by the camera 7. More specifically, the real space image 31 includes four drum images DI and user images PI.

4つのドラム画像DIは、入力装置4に対応する画像である。具体的には、4つのドラム画像DIは、入力装置4として機能するドラム型コントローラの4つのドラムにそれぞれ対応する画像である。一方、ユーザ画像PIは、ユーザに対応する画像である。ユーザは、カメラ7側から見た場合、入力装置4よりも遠方に位置している。したがって、ユーザ画像PIは、ドラム画像DIよりも奥側に表示される。   The four drum images DI are images corresponding to the input device 4. Specifically, the four drum images DI are images respectively corresponding to the four drums of the drum-type controller that functions as the input device 4. On the other hand, the user image PI is an image corresponding to the user. The user is located farther away from the input device 4 when viewed from the camera 7 side. Accordingly, the user image PI is displayed behind the drum image DI.

一方、AR画像32は、基準標識としての4つの基準位置画像RI、及び指示標識としてのオブジェクト画像OIを含んでいる。基準位置画像RI及びオブジェクト画像OIは、ゲーム空間の奥行きを表現可能なように、幅、奥行き、及び高さ(厚さ)を有する立体的な画像として表示される。4つの基準位置画像RIは、4つのドラム画像DIにそれぞれ対応する。従って、各基準位置画像RIは、各ドラム画像DIに対応する位置に配置される。また、各基準位置画像RIは、各ドラムの上面部分、つまりユーザによって叩く操作が実行されるべき部分の形に対応する形状を有している。そして、基準位置画像RIは、現実空間及び仮想空間を融合することにより、現実空間を拡張した拡張空間のオブジェクトとして機能する。つまり、各基準位置画像RIは、拡張空間における仮想的なドラムとして機能する。   On the other hand, the AR image 32 includes four reference position images RI as reference signs and an object image OI as an instruction sign. The reference position image RI and the object image OI are displayed as a stereoscopic image having a width, a depth, and a height (thickness) so that the depth of the game space can be expressed. The four reference position images RI correspond to the four drum images DI, respectively. Accordingly, each reference position image RI is arranged at a position corresponding to each drum image DI. In addition, each reference position image RI has a shape corresponding to the shape of the upper surface portion of each drum, that is, the portion on which an operation of tapping by the user is to be executed. Then, the reference position image RI functions as an object of an extended space obtained by extending the real space by fusing the real space and the virtual space. That is, each reference position image RI functions as a virtual drum in the expansion space.

各基準位置画像RIからは、所定の経路としての仮想レーンが上方に向かって延びている。ただし、仮想レーンは、ゲーム画面30中には表示されない。仮想レーンは、仮想空間において鉛直方向に直線状に延びている。つまり、仮想レーンは、仮想空間において、上方から基準位置画像GIまで真っ直ぐに延びている。仮想レーンには、ゲーム中に再生される楽曲の適宜な時期にオブジェクト画像OIが配置される。オブジェクト画像OIは、仮想レーンの上側に出現する。そして、オブジェクト画像OIは、楽曲の進行に伴って各基準位置画像RIとの間の距離を減少させつつ仮想レーンに沿って各基準位置画像RIまで移動する。つまり、各基準位置画像RIは、オブジェクト画像OIの到達位置としても機能する。   From each reference position image RI, a virtual lane as a predetermined route extends upward. However, the virtual lane is not displayed on the game screen 30. The virtual lane extends linearly in the vertical direction in the virtual space. That is, the virtual lane extends straight from above to the reference position image GI in the virtual space. In the virtual lane, the object image OI is arranged at an appropriate time of the music played during the game. The object image OI appears on the upper side of the virtual lane. The object image OI moves to each reference position image RI along the virtual lane while decreasing the distance from each reference position image RI as the music progresses. That is, each reference position image RI also functions as the arrival position of the object image OI.

オブジェクト画像OIは、拡張空間に仮想的に配置されたオブジェクトの画像である。また、オブジェクト画像OIは、基準位置画像RIと同様の形状を有している。具体的には、オブジェクト画像OIは、ドラム画像DIの上面部に対応する形状を有している。そして、オブジェクト画像OIは、仮想レーンに沿って鉛直方向に真っ直ぐ移動する。しかしながら、仮想レーンの上部では、オブジェクトが斜め下方から観察されるため、オブジェクト画像OIは、その裏面OIoが見え、表面OIsは見えないような状態でゲーム画面30に表示される。   The object image OI is an image of an object virtually arranged in the expansion space. The object image OI has the same shape as the reference position image RI. Specifically, the object image OI has a shape corresponding to the upper surface portion of the drum image DI. The object image OI moves straight along the virtual lane in the vertical direction. However, since the object is observed obliquely from below in the upper part of the virtual lane, the object image OI is displayed on the game screen 30 in a state where the back surface OIo is visible and the front surface OIs is not visible.

オブジェクト画像OIの表示位置がゲーム画面30の上下方向の中心に近付くに従って、オブジェクト画像OIは徐々に薄く表示されるようになり、ゲーム画面30の上下方向の中心では、オブジェクト画像OIはその側面(外周面)のみが見えるような状態で表示される。このとき、オブジェクト画像OIの厚さHの方向とオブジェクト画像OIの移動方向TDとは一致する。そして、オブジェクト画像OIの厚さ方向と移動方向TDとが一致した後、オブジェクト画像OIは、その表面OIsを向けるようにしてゲーム画面30上に表示される。これは仮想空間においてオブジェクトが斜め上方から観察されるようになるためである。   As the display position of the object image OI approaches the center of the game screen 30 in the vertical direction, the object image OI gradually becomes thinner. At the center of the game screen 30 in the vertical direction, the object image OI has its side ( It is displayed in a state where only the outer peripheral surface is visible. At this time, the direction of the thickness H of the object image OI matches the moving direction TD of the object image OI. Then, after the thickness direction of the object image OI coincides with the moving direction TD, the object image OI is displayed on the game screen 30 with its front surface OIs directed. This is because the object is observed from obliquely above in the virtual space.

このように、オブジェクト画像OIは、仮想空間において仮想レーン上を上から下に真っ直ぐに移動するオブジェクトの画像に相当するため、そのオブジェクトが観察される方向が変化することに起因して、上から下への移動に伴って徐々に形態が変化するように表示される。オブジェクト画像OIがゲーム画面30の上部に位置する間は、オブジェクト画像OIの下降に伴ってオブジェクト画像OIの表示上の奥行きDは徐々に減少し、ゲーム画面30の上下方向の中心付近でその奥行きDはオブジェクト画像OIの高さ(厚さ)Hと一致する。その後、オブジェクト画像OIの下降に伴ってオブジェクト画像OIの表示上の奥行きDは徐々に増加する。そして、オブジェクト画像OIは、基準位置画像RIの形状と一致するような向きで基準位置画像RIに到達する。   Thus, the object image OI corresponds to an image of an object that moves straight from the top to the bottom on the virtual lane in the virtual space. Therefore, the object image OI is changed from the top because the direction in which the object is observed changes. It is displayed so that the form gradually changes as it moves downward. While the object image OI is positioned at the upper part of the game screen 30, the depth D on the display of the object image OI gradually decreases as the object image OI descends, and the depth near the center of the game screen 30 in the vertical direction. D coincides with the height (thickness) H of the object image OI. Thereafter, the depth D on the display of the object image OI gradually increases as the object image OI descends. Then, the object image OI reaches the reference position image RI in an orientation that matches the shape of the reference position image RI.

オブジェクト画像OIの基準位置画像RIへの到達に合わせて、つまりオブジェクト画像OIの位置及び基準位置画像RIの位置の一致に合わせて、ユーザには所定の操作が要求される。具体的には、入力装置4としてのドラムを叩く操作が要求される。つまり、オブジェクト画像OIと基準位置画像RIとが一致した時期に、そのオブジェクト画像OIが到達した基準位置画像RIに対応するドラムを叩く操作がユーザに要求される。さらに、オブジェクト画像OIが基準位置画像RIに到達した時刻とユーザが適切な操作を実行した時刻との間のずれ時間が検出される。そして、そのずれ時間が小さいほどユーザの操作が高く評価される。また、叩く操作が実行されたドラムに対応する効果音がスピーカ6から再生される。   The user is required to perform a predetermined operation in accordance with the arrival of the object image OI to the reference position image RI, that is, in accordance with the coincidence of the position of the object image OI and the position of the reference position image RI. Specifically, an operation of hitting a drum as the input device 4 is required. That is, when the object image OI and the reference position image RI coincide with each other, the user is required to perform an operation of hitting the drum corresponding to the reference position image RI reached by the object image OI. Further, a time difference between the time when the object image OI reaches the reference position image RI and the time when the user performs an appropriate operation is detected. And the user's operation is highly evaluated as the deviation time is small. Further, a sound effect corresponding to the drum on which the hit operation has been executed is reproduced from the speaker 6.

図2の例では、上面部が概略円形の4つのドラム画像DIが表示されている。左二つのドラム画像DIに対応する基準位置画像RIから延びる仮想レーン上には、複数のオブジェクト画像OIが表示されている。そして、各オブジェクト画像OIは、向きを変えつつ基準位置画像RIに向かって移動している。具体的には、上方の各オブジェクト画像OIは、裏面OIoを向けるように表示されている。それから基準位置画像RIに向かうに従って、オブジェクト画像OIの移動方向TDの大きさが小さくなるように向きが変化している。また、移動方向TDの大きさの変化に伴って、オブジェクト画像OIの向こう側に位置するユーザ画像PIの表示範囲が広がっている。移動方向TDと厚さ方向が一致した状態、つまり移動方向TDの大きさが最小の最小状態SPにおいては、オブジェクト画像OIは薄くなり、限りなく直線に近い状態となる。   In the example of FIG. 2, four drum images DI whose upper surface portion is approximately circular are displayed. A plurality of object images OI are displayed on a virtual lane extending from the reference position image RI corresponding to the left two drum images DI. Each object image OI moves toward the reference position image RI while changing its direction. Specifically, each upper object image OI is displayed so that the back surface OIo faces. Then, the direction changes so that the magnitude of the moving direction TD of the object image OI becomes smaller toward the reference position image RI. Further, as the size of the moving direction TD changes, the display range of the user image PI located on the other side of the object image OI is expanded. In the state where the movement direction TD and the thickness direction coincide with each other, that is, in the minimum state SP in which the movement direction TD is the smallest, the object image OI becomes thin and becomes as close to a straight line as possible.

また、オブジェクト画像OIは、ユーザ画像PIの上に位置するように表示されている。したがって、最小状態SPでは、オブジェクト画像OIの表示は、ユーザ画像PIの表示をほとんど遮っていない。結果として、最小状態SPを含む前後の位置では、仮想レーン上においてもユーザ画像PIが主として表示されている。このように裏面OIo、厚みH等の表示を含む立体的なオブジェクト画像OIを利用してユーザにドラムを叩くべき時期が案内される。一方で、立体的なオブジェクト画像OIの向きを変えることにより、ユーザ画像PI等の背景画像の表示も確保されている。   The object image OI is displayed so as to be positioned on the user image PI. Therefore, in the minimum state SP, the display of the object image OI hardly blocks the display of the user image PI. As a result, the user image PI is mainly displayed on the virtual lane at positions before and after the minimum state SP. In this way, the user is instructed when to strike the drum using the three-dimensional object image OI including the display of the back surface OIo, the thickness H, and the like. On the other hand, by changing the direction of the three-dimensional object image OI, display of a background image such as the user image PI is also ensured.

次に、AR画像32の描画について説明する。上述のようにAR画像32は、拡張空間を演出するためにゲーム画面30に立体的画像として表示される。このようなAR画像32は、いわゆる3次元コンピュータグラフィックス技術の処理手順に従って基準位置画像RI及びオブジェクト画像OIを描画することにより生成される。図3は、メモリ上に論理的に生成される仮想3次元空間GWの一例を示す図である。仮想3次元空間GWは、カメラ7の撮影空間を仮想的に3次元モデルとして表現したものである。   Next, drawing of the AR image 32 will be described. As described above, the AR image 32 is displayed as a stereoscopic image on the game screen 30 in order to produce an extended space. Such an AR image 32 is generated by drawing the reference position image RI and the object image OI according to a processing procedure of a so-called three-dimensional computer graphics technique. FIG. 3 is a diagram illustrating an example of a virtual three-dimensional space GW that is logically generated on a memory. The virtual three-dimensional space GW is a virtual representation of the shooting space of the camera 7 as a three-dimensional model.

仮想3次元空間GWには、AR画像32に対応する各種オブジェクトが配置される。例えば、このようなオブジェクトの一つとして、仮想3次元空間GWには、4つの基準位置画像RIにそれぞれ対応する基準オブジェクトとしての4つの仮想ドラムKDが配置される。また、各仮想ドラムKDには、各仮想ドラムKDに向かって延びる仮想レーンKLが設定される。さらに、仮想3次元空間GWには、仮想カメラKCが設定される。   Various objects corresponding to the AR image 32 are arranged in the virtual three-dimensional space GW. For example, as one of such objects, four virtual drums KD as reference objects respectively corresponding to four reference position images RI are arranged in the virtual three-dimensional space GW. Further, a virtual lane KL extending toward each virtual drum KD is set for each virtual drum KD. Furthermore, a virtual camera KC is set in the virtual three-dimensional space GW.

仮想3次元空間GWにおける仮想ドラムKD等の各種オブジェクトの位置及び仮想カメラKCの位置は、X−Y−Z軸の3軸直交座標系(ワールド座標)に従って3次元座標で定義される。また、仮想カメラKCの撮影範囲は、視角、視点の位置及び、撮影方向に基づいて設定される。さらに、仮想カメラKCには、撮影方向の仮想カメラKCから一定の距離離れた位置に撮影範囲内の空間を投影するための視野面が設定される。   The positions of various objects such as the virtual drum KD and the position of the virtual camera KC in the virtual three-dimensional space GW are defined by three-dimensional coordinates according to a three-axis orthogonal coordinate system (world coordinates) of the XYZ axes. The shooting range of the virtual camera KC is set based on the viewing angle, the viewpoint position, and the shooting direction. Furthermore, the virtual camera KC is set with a field plane for projecting a space within the shooting range at a position away from the virtual camera KC in the shooting direction by a certain distance.

図3の例では、仮想カメラKCは、現実空間のカメラ7に対応する位置に設定されている。つまり、カメラ7の撮影範囲に含まれる入力装置4のドラムの位置に仮想ドラムKDが配置されるように、仮想カメラKCの撮影範囲SRは設定される。より具体的には、仮想カメラKCは、仮想3次元空間GWを仮想ドラムKDの上面(ユーザによって叩かれるべき面)と概ね平行な方向から撮影するように配置されている。また、仮想カメラKCは、仮想3次元空間GWの中央付近に配置されている。そして、4つの仮想ドラムKD及び仮想レーンKLを含むように、仮想カメラKCの撮影範囲SRが設定されている。さらに、仮想カメラKCから一定の距離離れた位置には、視野面SHが設定されている。視野面SHには、撮影範囲SR内の仮想ドラムKD等のオブジェクトが投影される。   In the example of FIG. 3, the virtual camera KC is set at a position corresponding to the camera 7 in the real space. That is, the shooting range SR of the virtual camera KC is set so that the virtual drum KD is arranged at the drum position of the input device 4 included in the shooting range of the camera 7. More specifically, the virtual camera KC is arranged so as to photograph the virtual three-dimensional space GW from a direction substantially parallel to the upper surface (surface to be hit by the user) of the virtual drum KD. The virtual camera KC is disposed near the center of the virtual three-dimensional space GW. The shooting range SR of the virtual camera KC is set so as to include the four virtual drums KD and the virtual lane KL. Further, a visual field surface SH is set at a position away from the virtual camera KC by a certain distance. An object such as a virtual drum KD within the imaging range SR is projected onto the field plane SH.

図4を参照して、仮想レーンKLについてさらに説明する。図4は、仮想レーンKLを横から見た場合の模式図である。図4に示すように、仮想レーンKLは、仮想ドラムKDの上面と直交する方向に真っ直ぐに延びている。仮想ドラムKDがその上面を仮想3次元空間GWにおける水平方向と平行に設置されているとすれば、仮想レーンKLは仮想3次元空間GWにおける鉛直方向に沿って直線的に設けられることになる。なお、図4の例の撮影方向SDは、視野面SHの中央を通過するように延びる方向である。つまり、仮想カメラKCの視点と視野面SHの中心点とを結ぶ直線の方向を仮想カメラKCの視野の中心線として定義したとき、撮影方向はその視野の中心線の方向と一致する。言い換えれば、視野の中心線は、仮想カメラKCのレンズ軸線の方向に相当する。なお、仮想カメラKCの視点は仮想カメラKCの結像面の中心であるが、図4では便宜的に仮想カメラKCのレンズ中心点を視点として図示している。仮想カメラKCの撮影方向SDと仮想ドラムKDの向きとの関係は一例であり、その関係は適宜変更されてよい。例えば、仮想カメラKCの撮影方向SDに対して仮想ドラムKDの上面が手前側に幾らか傾くように、仮想ドラムKDが配置されてもよい。また、図4の仮想ドラムKDの方向と仮想レーンKLの方向との関係も一例であり、その関係は適宜変更されてよい。例えば、仮想ドラムKDの上面に対して仮想レーンKLが幾らか傾けられていてもよい。   With reference to FIG. 4, the virtual lane KL will be further described. FIG. 4 is a schematic diagram when the virtual lane KL is viewed from the side. As shown in FIG. 4, the virtual lane KL extends straight in a direction orthogonal to the upper surface of the virtual drum KD. If the upper surface of the virtual drum KD is installed parallel to the horizontal direction in the virtual three-dimensional space GW, the virtual lane KL is linearly provided along the vertical direction in the virtual three-dimensional space GW. Note that the shooting direction SD in the example of FIG. 4 is a direction extending so as to pass through the center of the field surface SH. That is, when the direction of a straight line connecting the viewpoint of the virtual camera KC and the center point of the field of view SH is defined as the center line of the field of view of the virtual camera KC, the shooting direction coincides with the direction of the center line of the field of view. In other words, the center line of the visual field corresponds to the direction of the lens axis of the virtual camera KC. Note that the viewpoint of the virtual camera KC is the center of the image plane of the virtual camera KC, but in FIG. 4, the lens center point of the virtual camera KC is illustrated as the viewpoint for convenience. The relationship between the shooting direction SD of the virtual camera KC and the direction of the virtual drum KD is an example, and the relationship may be changed as appropriate. For example, the virtual drum KD may be arranged such that the upper surface of the virtual drum KD is somewhat inclined toward the front side with respect to the shooting direction SD of the virtual camera KC. The relationship between the direction of the virtual drum KD and the direction of the virtual lane KL in FIG. 4 is also an example, and the relationship may be changed as appropriate. For example, the virtual lane KL may be somewhat inclined with respect to the upper surface of the virtual drum KD.

また、仮想3次元空間GWには、AR画像32に対応する各種のオブジェクトの一つとして、オブジェクト画像OIに対応する指示オブジェクトとしての仮想オブジェクトKOも配置される。仮想オブジェクトKOは、ユーザが行なうべき操作を指示する指示標識に対応して仮想3次元空間GWに配置される3次元オブジェクトである。仮想オブジェクトKOはその表面KOsと裏面KOoとが互いに平行で、厚さが薄い円盤状の構成を有している。なお、仮想オブジェクトKOとしては、形状が互いに相違する複数種類の仮想オブジェクトが存在するが、図4では円盤状の一種類の仮想オブジェクトKOのみを示している。以下では、図5に例示したように、仮想オブジェクトKOをその種類毎に枝番1、2…を付してKO1、KO2…などと表記する。ただし、複数種類の仮想オブジェクトKO1、KO2…を総称するときには仮想オブジェクトKOと表記する。仮想オブジェクトKOの種類については後に詳述し、以下では図4を参照して仮想オブジェクトKOが円盤状である場合を例として説明を続ける。   In the virtual three-dimensional space GW, a virtual object KO as an instruction object corresponding to the object image OI is also arranged as one of various objects corresponding to the AR image 32. The virtual object KO is a three-dimensional object that is arranged in the virtual three-dimensional space GW corresponding to an instruction sign that instructs an operation to be performed by the user. The virtual object KO has a disk-like configuration in which the front surface KOs and the back surface KOo are parallel to each other and the thickness is small. Note that there are a plurality of types of virtual objects having different shapes as the virtual object KO, but FIG. 4 shows only one type of virtual object KO in a disk shape. In the following, as illustrated in FIG. 5, the virtual object KO is denoted as KO1, KO2,. However, when a plurality of types of virtual objects KO1, KO2,... Are collectively referred to as a virtual object KO. The type of the virtual object KO will be described later in detail, and the description will be continued below with reference to FIG. 4 as an example of the case where the virtual object KO has a disk shape.

仮想オブジェクトKOは、オブジェクト画像OIによって指示すべき操作に対応した仮想レーンKL上に一定の向きで配置される。すなわち、各仮想オブジェクトKOは、その表面(上面))KOs及び裏面(下面)KOoの法線方向が仮想レーンKLの延びる方向、ここでは仮想ドラムKDの上面と直交する方向、と一致するように配置される。それにより、仮想オブジェクトKOは、表面KOsを進行方向の反対側(上側)に、裏面KOoを進行方向の側(下側)にそれぞれ向けつつ、その中心を仮想レーンKLが貫くように配置される。仮想オブジェクトKOは、仮想ドラムKDの上面をゲーム中の現在時刻と仮定し、仮想レーンKLの上方を将来の時刻としたときに、オブジェクト画像OIにて指示すべき操作の時期に対応した仮想レーンKL上の位置に配置される。そして、仮想オブジェクトKOは、ゲームの時間の進行に伴って仮想レーンKL上を上から下に漸次移動する。したがって、各仮想レーンKL上における仮想オブジェクトKOの間隔は、オブジェクト画像OIによって指示されるべき操作の時期の時間間隔に対応する。   The virtual object KO is arranged in a certain direction on the virtual lane KL corresponding to the operation to be instructed by the object image OI. That is, each virtual object KO has a normal direction of its front surface (upper surface)) KOs and rear surface (lower surface) KOo so as to coincide with a direction in which the virtual lane KL extends, in this case, a direction orthogonal to the upper surface of the virtual drum KD. Be placed. Thereby, the virtual object KO is arranged so that the virtual lane KL penetrates the center while the front surface KOs is directed to the opposite side (upper side) of the traveling direction and the back surface KOo is directed to the side of the traveling direction (lower side). . The virtual object KO assumes that the upper surface of the virtual drum KD is the current time during the game, and the virtual lane corresponding to the operation time to be indicated in the object image OI when the upper portion of the virtual lane KL is set as the future time. It is arranged at a position on KL. Then, the virtual object KO moves gradually from top to bottom on the virtual lane KL as the game time progresses. Therefore, the interval between the virtual objects KO on each virtual lane KL corresponds to the time interval of the operation time to be instructed by the object image OI.

仮想オブジェクトKOが配置される向きは、仮想レーンKLに対して一定である。一方、仮想カメラKCの視点から仮想オブジェクトKOが観察される方向は、仮想レーンKL上の仮想オブジェクトKOの位置の変化に伴って変化する。結果として、仮想オブジェクトKOは、仮想レーンKLに沿った移動とともに仮想カメラKCからは徐々に向きを変えるように観察される。つまり、仮想カメラKCの視野の中心線(図4の線SD)と、仮想カメラKCの視点と仮想オブジェクトKOの中心点とを結ぶ線Lxとがなす角度θを利用して仮想オブジェクトKOが観察される方向(方位と表現されてもよい。)を表現するとき、仮想カメラKCから見た仮想オブジェクトKOの向きはその観察方向θに応じて変化する。ただし、仮想オブジェクトKOの見え方の変化は、仮想レーンKLが直線状に延ばされている場合に限って生じるものではなく、仮想レーンKLの少なくとも一部に湾曲部が存在している場合でも発生する。すなわち、仮想カメラKCから見たときの仮想オブジェクトKOの向きは、仮想レーンKLが仮想カメラKCの視野を横切る方向に延びている限り、仮想オブジェクトKOの観察方向θに応じて絶えず変化し、仮想レーンKLが直線状であるか、あるいはその少なくとも一部に湾曲部を有しているかを問わない。なお、以下では、撮影方向SDを示す線に対して時計方向を観察方向θの正方向として定義するものとする。   The direction in which the virtual object KO is arranged is constant with respect to the virtual lane KL. On the other hand, the direction in which the virtual object KO is observed from the viewpoint of the virtual camera KC changes as the position of the virtual object KO on the virtual lane KL changes. As a result, the virtual object KO is observed to gradually change its direction from the virtual camera KC as it moves along the virtual lane KL. That is, the virtual object KO is observed using the angle θ formed by the center line of the visual field of the virtual camera KC (line SD in FIG. 4) and the line Lx connecting the viewpoint of the virtual camera KC and the central point of the virtual object KO. When the direction (which may be expressed as an azimuth) is expressed, the direction of the virtual object KO viewed from the virtual camera KC changes according to the observation direction θ. However, the change in the appearance of the virtual object KO does not occur only when the virtual lane KL is linearly extended, even when a curved portion exists in at least a part of the virtual lane KL. Occur. That is, the orientation of the virtual object KO when viewed from the virtual camera KC is continuously changed according to the observation direction θ of the virtual object KO as long as the virtual lane KL extends in the direction crossing the visual field of the virtual camera KC. It does not matter whether the lane KL is linear or has at least a curved portion. In the following, the clockwise direction is defined as the positive direction of the observation direction θ with respect to the line indicating the imaging direction SD.

図4に示すように、仮想カメラKCの撮影方向SDよりも上部に仮想オブジェクトKOが位置している場合、仮想カメラKCからは斜め上方に見上げるような向きで仮想オブジェクトKOが観察される。仮想オブジェクトKOが撮影方向SDと一致した時点で、仮想カメラKCからは仮想オブジェクトKOの側面(外周面)のみが見えるようになる。この時点では、仮想オブジェクトKOの奥行きDの方向と撮影方向SDとが一致する。このとき、仮想カメラKCから見て仮想オブジェクトKOは最も薄く観察され、その高さは仮想オブジェクトKOの厚さHと一致する。その後、仮想カメラKCからは斜め下方に見下ろすような向きで仮想オブジェクトKOが観察される。そして、仮想オブジェクトKOは、仮想ドラムKDの位置において、仮想オブジェクトKO裏面KOoが仮想ドラムKDの上面部と接触する。   As shown in FIG. 4, when the virtual object KO is positioned above the shooting direction SD of the virtual camera KC, the virtual object KO is observed from the virtual camera KC in a direction that looks up obliquely upward. When the virtual object KO coincides with the shooting direction SD, only the side surface (outer peripheral surface) of the virtual object KO can be seen from the virtual camera KC. At this time, the direction of the depth D of the virtual object KO matches the shooting direction SD. At this time, the virtual object KO is observed to be the thinnest when viewed from the virtual camera KC, and the height thereof matches the thickness H of the virtual object KO. Thereafter, the virtual object KO is observed from the virtual camera KC in such a direction as to look down obliquely downward. Then, in the virtual object KO, the virtual object KO back surface KOo is in contact with the upper surface portion of the virtual drum KD at the position of the virtual drum KD.

このように仮想オブジェクトKOは、仮想カメラKCから見た場合、まず裏面KOo側を仮想カメラKCに向けつつ移動し、仮想カメラKCの撮影方向SDを通過した後は表面KOs側を仮想カメラKCに向けつつ移動する。そのため、同一の仮想レーンKL上において複数の仮想オブジェクトKOが比較的狭い間隔で移動する場合、観察方向θが大きくなるほど隣接する仮想オブジェクトKO同士の重なり具合が大きくなり、仮想カメラKCの視点から見て奧側の仮想オブジェクトKOが手前側の仮想オブジェクトKOによって隠されて見えにくくなる。図4の例では、仮想レーンKLの上端領域RU及び下端領域RLで特にそのような傾向が顕著となる。そして、下端領域RLには仮想ドラムKDが位置し、そこには基準位置画像RI(図2参照)が表示されるため、ユーザにとっては仮想オブジェクトKOが仮想ドラムKDに達したか否かを判別することが困難となり、操作ミスを誘発するおそれがある。   In this way, when viewed from the virtual camera KC, the virtual object KO first moves while the rear surface KOo side is directed toward the virtual camera KC, and after passing through the shooting direction SD of the virtual camera KC, the front surface KOs side is moved to the virtual camera KC. Move while aiming. Therefore, when a plurality of virtual objects KO move at a relatively small interval on the same virtual lane KL, as the observation direction θ increases, the degree of overlap between adjacent virtual objects KO increases, and the viewpoint from the viewpoint of the virtual camera KC increases. The heel side virtual object KO is hidden by the near side virtual object KO and becomes difficult to see. In the example of FIG. 4, such a tendency is particularly remarkable in the upper end region RU and the lower end region RL of the virtual lane KL. Then, the virtual drum KD is located in the lower end region RL, and the reference position image RI (see FIG. 2) is displayed there. Therefore, for the user, it is determined whether or not the virtual object KO has reached the virtual drum KD. It is difficult to do so, and there is a risk of causing operational mistakes.

上記のような不都合を解消し、又は軽減するため、ゲーム機1では、仮想オブジェクトKOとして、互いに形状が異なる複数種類の仮想オブジェクトKOが用意され、それらの仮想オブジェクトKOが所定の条件に従って使い分けられる。図5はその一例を示している。図5の例は、ほぼ隙間がないほどに狭い間隔で配置されかつ下端領域RL(図4参照)に達した3つの仮想オブジェクトKOを仮想カメラKCの視点から観察した様子を示している。この例では、上側及び下側に円盤状の第1オブジェクトKO1が使用される一方、それらの第1オブジェクトKO1の間には第2オブジェクトKO2が使用されている。図6により詳しく示すように、第2オブジェクトKO2は、その外周の全周に亘って凹部Pr及び凸部Ppを交互に、かつ一定のピッチで形成した形状を有している。凹部Prの底を結ぶ円Cbの直径dbは第1オブジェクトKO1の直径drよりも小さく、かつ、凸部Ppの頂点を結ぶ円Caの直径daは第1オブジェクトKO1の直径drよりも大きい。凹部Prの内壁面(言い換えれば、凸部Ppの側壁面)は、第2オブジェクトKO2の内側に膨らむ弧を描くように湾曲する。したがって、図6に示す第2オブジェクトKO2においては、凹部Pr及び凸部Ppのそれぞれが第1オブジェクトKO1の周縁を内側及び外側にそれぞれ変形させた形状の変形部の一例として機能する。   In order to eliminate or reduce the above inconveniences, the game machine 1 prepares a plurality of types of virtual objects KO having different shapes as the virtual objects KO, and uses these virtual objects KO properly according to a predetermined condition. . FIG. 5 shows an example. The example of FIG. 5 shows a state in which three virtual objects KO that are arranged at such a narrow interval as to have almost no gap and reach the lower end region RL (see FIG. 4) are observed from the viewpoint of the virtual camera KC. In this example, the disk-shaped first object KO1 is used on the upper side and the lower side, while the second object KO2 is used between the first objects KO1. As shown in more detail in FIG. 6, the second object KO2 has a shape in which the concave portions Pr and the convex portions Pp are alternately formed at a constant pitch over the entire outer periphery. The diameter db of the circle Cb connecting the bottoms of the recesses Pr is smaller than the diameter dr of the first object KO1, and the diameter da of the circle Ca connecting the vertices of the protrusions Pp is larger than the diameter dr of the first object KO1. The inner wall surface of the concave portion Pr (in other words, the side wall surface of the convex portion Pp) is curved so as to draw an arc that swells inside the second object KO2. Therefore, in the second object KO2 shown in FIG. 6, each of the concave portion Pr and the convex portion Pp functions as an example of a deformed portion in which the periphery of the first object KO1 is deformed inward and outward, respectively.

図5に戻って、第2オブジェクトKO2の形状が上記のように定められているため、第2オブジェクトKO2の背後に第1オブジェクトKO1が重なっていたとしても、凹部Prを介してその第1オブジェクトKO1の外周が見通せる。一方、第2オブジェクトKO2の手前に第1オブジェクトKO1が重なっていたとしても、その第1オブジェクトKO1の外周から第2オブジェクトKO2の凸部Ppが突出する。このように、第1オブジェクトKO1と第2オブジェクトKO2とを使い分けることにより、狭い間隔で仮想オブジェクトKOが重なる場合でも、背後の仮想オブジェクトKOの視認性を改善することができる。   Returning to FIG. 5, since the shape of the second object KO2 is determined as described above, even if the first object KO1 overlaps behind the second object KO2, the first object through the recess Pr. You can see the outer periphery of KO1. On the other hand, even if the first object KO1 overlaps before the second object KO2, the convex portion Pp of the second object KO2 protrudes from the outer periphery of the first object KO1. As described above, by using the first object KO1 and the second object KO2 properly, the visibility of the virtual object KO behind can be improved even when the virtual objects KO overlap each other at a narrow interval.

なお、図5及び図6に示した第2オブジェクトKO2の形状は一例であって、その形状は適宜に変更されてよい。例えば、第2オブジェクトKO2は図7〜図10に示すように変形されてもよい。図7に示す第2オブジェクトKO2は、凹部Prの内壁面を仮想オブジェクトKOの外側に向かって湾曲させた例である。図8に示す第2オブジェクトKO2は、凹部Prの内壁面をほぼ平面状に設定し、かつ凹部Prの底部に幾らかの丸みを付与した例である。図9に示す第2オブジェクトKO2は、図6の第2オブジェクトKO2に対して、凸部Ppの半径方向外側への突出量を大小交互に変化させた例である。すなわち、図9の例では、凸部Ppの頂点を結ぶ円として、直径da1の第1円Ca1と、直径da2(<da1)の第2円Ca2とが定義される。ただし、小さい方の直径da2は第1オブジェクトKO1の直径drよりも大きい。図9のような変形は、図7及び図8の変形例においても適用可能である。   The shape of the second object KO2 shown in FIGS. 5 and 6 is an example, and the shape may be changed as appropriate. For example, the second object KO2 may be deformed as shown in FIGS. The second object KO2 shown in FIG. 7 is an example in which the inner wall surface of the recess Pr is curved toward the outside of the virtual object KO. The second object KO2 shown in FIG. 8 is an example in which the inner wall surface of the recess Pr is set to be substantially flat and some roundness is given to the bottom of the recess Pr. The second object KO2 shown in FIG. 9 is an example in which the protruding amount of the convex portion Pp to the outer side in the radial direction is changed in magnitude alternately with respect to the second object KO2 of FIG. That is, in the example of FIG. 9, a first circle Ca1 having a diameter da1 and a second circle Ca2 having a diameter da2 (<da1) are defined as circles connecting the apexes of the protrusions Pp. However, the smaller diameter da2 is larger than the diameter dr of the first object KO1. The modification shown in FIG. 9 can be applied to the modification examples shown in FIGS.

図6〜図9の第2オブジェクトKO2では、変形部としての凹部Pr及び凸部Ppが外周の全周に亘って交互に形成されているが、それらの変形部Pr、Ppは、仮想カメラKCから観察できる範囲に限定して設けられてもよい。例えば、図10に示すように、仮想カメラKCからみて手前側に位置する半周の範囲に限って凹部Pr及び凸部Ppが設けられてもよい。このように凹部Pr等の変形部を設けた場合でも、図11に示すように第1オブジェクトKO1と重なり合った場合には、図5の例と同様に凹部Prを介して背後の第1オブジェクトKO1の外周を見通すことができ、かつ、手前側の第1オブジェクトKO1の外周から第2オブジェクトKO2の凸部Ppが突出して第2オブジェクトKO2を判別することができる。凹部Pr等の変形部を仮想オブジェクトKOの一部に限定して設ける場合、その範囲は仮想オブジェクトKOの半周に限る必要はない。例えば、全周に対して1/3、1/4といった範囲に限って凹部Pr等の変形部が設けられてもよい。さらに、図6〜図10に示した例は適宜組み合わせることも可能である。例えば、凹部Prの内壁面の形状に関して、図6〜図8に示した形状が適宜に組み合わされてもよい。図10の例において、凹部Prの内壁面の形状が図7又は図8の形状に設定されてもよいし、凸部Ppの突出量が図9の例に従って適宜変更されてもよい。さらに、図9の例においては、凸部Ppの突出量に代えて、又は加えて凹部Prの半径方向内側への後退量が適宜に変更されてもよい。   In the second object KO2 of FIGS. 6 to 9, the concave portions Pr and the convex portions Pp as the deforming portions are alternately formed over the entire outer periphery, but these deforming portions Pr and Pp are formed by the virtual camera KC. May be limited to the range that can be observed. For example, as shown in FIG. 10, the concave portion Pr and the convex portion Pp may be provided only in a range of a half circumference located on the near side when viewed from the virtual camera KC. Even when the deformed portion such as the concave portion Pr is provided as described above, when the first object KO1 overlaps with the first object KO1 as shown in FIG. 11, the first object KO1 behind the concave portion Pr as in the example of FIG. And the convex portion Pp of the second object KO2 protrudes from the outer periphery of the first object KO1 on the near side, and the second object KO2 can be determined. When the deformed portion such as the concave portion Pr is limited to a part of the virtual object KO, the range does not have to be limited to the half circumference of the virtual object KO. For example, a deformed portion such as the concave portion Pr may be provided only in the range of 1/3 and 1/4 with respect to the entire circumference. Furthermore, the examples shown in FIGS. 6 to 10 can be appropriately combined. For example, regarding the shape of the inner wall surface of the recess Pr, the shapes shown in FIGS. 6 to 8 may be appropriately combined. In the example of FIG. 10, the shape of the inner wall surface of the concave portion Pr may be set to the shape of FIG. 7 or FIG. 8, and the protruding amount of the convex portion Pp may be appropriately changed according to the example of FIG. Furthermore, in the example of FIG. 9, the retreat amount of the concave portion Pr toward the inside in the radial direction may be appropriately changed instead of or in addition to the protrusion amount of the convex portion Pp.

仮想ドラムKD及び仮想オブジェクトKOは、仮想カメラKCにより、所定の視点から所定の視野角で撮影される。そして、撮影結果に応じて、撮影した仮想3次元空間GWを視野面SHに投影した2次元画像が演算される。このような演算は、例えば、ゲーム制御部11が実行する。より具体的には、ゲーム制御部11は、仮想ドラムKDに対応する2次元画像としてドラム画像DIを取得するための演算を、仮想オブジェクトKOに対応する2次元画像としてオブジェクト画像OI取得するための演算を、それぞれ実行する。さらに、ゲーム制御部11は、演算結果に基づいて得られる2次元画像を描画するための描画データを生成する。そして、ゲーム制御部11は、視野面SHに投影された2次元画像がAR画像32としてゲーム画面30の現実空間画像31上に表示されるように、生成した描画データを表示制御部12に与える。これにより、カメラ7が撮影した現実空間画像31に仮想3次元空間GWの各種オブジェクトが配置された拡張空間が実現される。なお、仮想3次元空間GWにおける各種オブジェクトの配置、撮影方向等の仮想カメラKCの制御、あるいは、仮想カメラKCによる撮影といった一連の処理は、3Dコンピュータグラフィックス技術に基づくモデリング処理、レンダリング処理といった周知の処理によって実現されてよい。AR画像32の描画は所定のフレームレートで繰り返し実行される。描画の繰り返しに伴って仮想オブジェクトKOの位置は仮想レーンKLに沿って漸次下方に変化する。それにより、モニタ5には、複数の仮想オブジェクトKOが各仮想オブジェクトKOに対応する操作が行なわれるべき時期の時間間隔に従って並べられた状態で仮想レーンKL上を移動する様子を観察した動画が表示される。   The virtual drum KD and the virtual object KO are photographed at a predetermined viewing angle from a predetermined viewpoint by the virtual camera KC. Then, a two-dimensional image obtained by projecting the photographed virtual three-dimensional space GW on the visual field surface SH is calculated according to the photographing result. Such a calculation is executed by, for example, the game control unit 11. More specifically, the game control unit 11 obtains an object image OI as a two-dimensional image corresponding to the virtual object KO and an operation for acquiring the drum image DI as a two-dimensional image corresponding to the virtual drum KD. Each operation is executed. Furthermore, the game control part 11 produces | generates the drawing data for drawing the two-dimensional image obtained based on a calculation result. And the game control part 11 gives the produced | generated drawing data to the display control part 12 so that the two-dimensional image projected on the visual field surface SH is displayed on the real space image 31 of the game screen 30 as the AR image 32. . Thereby, an expansion space is realized in which various objects of the virtual three-dimensional space GW are arranged in the real space image 31 photographed by the camera 7. A series of processing such as arrangement of various objects in the virtual three-dimensional space GW, control of the virtual camera KC such as a shooting direction, or shooting by the virtual camera KC is well-known as modeling processing and rendering processing based on 3D computer graphics technology. This process may be realized. The drawing of the AR image 32 is repeatedly executed at a predetermined frame rate. As the drawing is repeated, the position of the virtual object KO gradually changes along the virtual lane KL. Thereby, the monitor 5 displays a moving image in which a plurality of virtual objects KO are observed to move on the virtual lane KL in a state where the virtual objects KO are arranged in accordance with the time intervals at which the operations corresponding to the virtual objects KO should be performed. Is done.

次に、AR画像32を表示するためのゲーム制御部11の構成について説明する。ゲーム制御部11は、シーケンス処理部15を通じて、上述のAR画像32を表示するための処理を実行する。図12は、AR画像32を表示するためのシーケンス処理部15の機能ブロック図である。図12に示すように、シーケンス処理部15は、3次元空間構築部15a、画像演算部15b、及び描画データ生成部15cを含んでいる。   Next, the configuration of the game control unit 11 for displaying the AR image 32 will be described. The game control unit 11 performs processing for displaying the above-described AR image 32 through the sequence processing unit 15. FIG. 12 is a functional block diagram of the sequence processing unit 15 for displaying the AR image 32. As shown in FIG. 12, the sequence processing unit 15 includes a three-dimensional space construction unit 15a, an image calculation unit 15b, and a drawing data generation unit 15c.

3次元空間構築部15aは、シーケンスデータ28に基づいて仮想3次元空間GWに仮想ドラムKD及び仮想オブジェクトKOといった各種のオブジェクトも配置することにより、仮想3次元空間GWを構築する。また、3次元空間構築部15aは、構築された仮想3次元空間GWにカメラ7の撮影範囲に対応する撮影範囲SRが設定されるように、仮想カメラKCを配置する。上述した複数種類の仮想オブジェクトKOを使い分けるため、3次元空間構築部15aには、さらなる論理的装置としてオブジェクトタイプ判別部15d及びオブジェクト選択配置部15eが設けられる。オブジェクトタイプ判別部15dは、シーケンスデータ28に基づいて、仮想3次元空間GWに配置すべき仮想オブジェクトKOとして、第1オブジェクトKO1又は第2オブジェクトKO2のいずれを使用すべきかを所定の条件に従って判別する。オブジェクト選択配置部15eは、オブジェクトタイプ判別部15dの判別結果に従って、仮想レーンKL上に第1オブジェクトKO1又はKO2を選択的に配置する。なお、3次元空間構築部15aの処理の詳細は後述する。   The three-dimensional space construction unit 15 a constructs the virtual three-dimensional space GW by arranging various objects such as the virtual drum KD and the virtual object KO in the virtual three-dimensional space GW based on the sequence data 28. In addition, the three-dimensional space construction unit 15a arranges the virtual camera KC so that the photographing range SR corresponding to the photographing range of the camera 7 is set in the constructed virtual three-dimensional space GW. In order to properly use the above-described multiple types of virtual objects KO, the three-dimensional space construction unit 15a is provided with an object type determination unit 15d and an object selection arrangement unit 15e as further logical devices. The object type determination unit 15d determines, based on the sequence data 28, whether to use the first object KO1 or the second object KO2 as the virtual object KO to be placed in the virtual three-dimensional space GW according to a predetermined condition. . The object selection placement unit 15e selectively places the first object KO1 or KO2 on the virtual lane KL according to the determination result of the object type determination unit 15d. Details of the processing of the three-dimensional space construction unit 15a will be described later.

画像演算部15bは、仮想カメラKCを制御する。例えば、画像演算部15bは、仮想カメラKCを通じて3次元空間構築部15aが構築した仮想3次元空間GWを撮影する。そして、画像演算部15bは、撮影結果に応じて、撮影範囲SRの仮想3次元空間の各種オブジェクトに対応する2次元画像を実現するための座標変換の演算を実行する。描画データ生成部15cは、画像演算部15bの演算結果に基づいて、ドラム画像DI、仮想オブジェクトKOといった各種オブジェクトに対応する2次元画像を記述した描画データを生成する。そして、描画データ生成部15cは、生成した描画データを表示制御部12に与える。これにより、AR画像32がゲーム画面30上に表示される。   The image calculation unit 15b controls the virtual camera KC. For example, the image calculation unit 15b photographs the virtual three-dimensional space GW constructed by the three-dimensional space construction unit 15a through the virtual camera KC. Then, the image calculation unit 15b executes a coordinate conversion calculation for realizing a two-dimensional image corresponding to various objects in the virtual three-dimensional space of the shooting range SR according to the shooting result. The drawing data generation unit 15c generates drawing data describing two-dimensional images corresponding to various objects such as the drum image DI and the virtual object KO, based on the calculation result of the image calculation unit 15b. Then, the drawing data generation unit 15 c gives the generated drawing data to the display control unit 12. Thereby, the AR image 32 is displayed on the game screen 30.

次に、図13を参照して、シーケンスデータ28の詳細を説明する。図13は、シーケンスデータ28の内容の一例を示す図である。シーケンスデータ28は、条件定義部28aと、操作シーケンス部28bとを備えている。条件定義部28aには、音楽のテンポ、ビート、トラック等を指定する情報、楽曲毎に異なるゲームの実行条件を指定する情報といった、ゲームを実行するための各種の条件を指定する情報が記述される。   Next, the details of the sequence data 28 will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of the contents of the sequence data 28. The sequence data 28 includes a condition definition unit 28a and an operation sequence unit 28b. In the condition definition unit 28a, information for specifying various conditions for executing the game, such as information for specifying music tempo, beat, track, and the like, and information for specifying different game execution conditions for each music, is described. The

一方、操作シーケンス部28bには、適切な操作をすべき時期が楽曲中の時刻と対応付けて記述される。すなわち、図13にその一部を示したように、操作シーケンス部28bは、楽曲中において操作が行われるべき基準時期(操作時期)と、入力装置4の4つのドラムのいずれかを指定する情報と、オブジェクト画像OIを描画するために使用されるべき仮想オブジェクトKOの種類を指定する情報とを対応付けた複数のレコードの集合として構成されている。操作時期は、楽曲中の小節部分、拍数及び拍中の時刻をそれぞれ指定する値をカンマで区切って記述されている。拍中の時刻は、一拍の先頭からの経過時間であり、一拍の時間長をn個の単位時間に等分して先頭からの単位数で表現される。例えば、楽曲の一小節目の四拍目で、かつその拍の先頭から12/100だけ経過した時刻を操作時期として指定する場合には、“01,4,012”と記述される。   On the other hand, in the operation sequence part 28b, the time when an appropriate operation should be performed is described in association with the time in the music. That is, as shown in part in FIG. 13, the operation sequence unit 28 b specifies information that designates one of the four drums of the input device 4 and the reference time (operation time) when the operation should be performed in the music. And a set of a plurality of records in which the information specifying the type of the virtual object KO to be used for rendering the object image OI is associated. The operation time is described by separating values specifying the bar portion, the number of beats, and the time in the beat with a comma. The time during a beat is the elapsed time from the beginning of one beat, and is expressed by the number of units from the beginning by equally dividing the time length of one beat into n unit times. For example, when specifying the operation time as the fourth beat of the first measure of the music and 12/100 from the beginning of the beat, “01, 4, 012” is described.

入力装置4のドラムを指定する情報は、ドラムの番号を指定するように記述される。
各ドラムに対応する情報によって指定される。例えば、入力装置4の4つのドラムの番号を左から順に第1ドラム、第2ドラム…と順に定義したとき、ドラムの番号を指定する情報は“drum 1”、“drum 2”といったように記述される。図13の例では、一小節目の四拍目の開始時点(000)で“drum 1”に対応する第1ドラムが操作対象として指定されている。この場合、ユーザには、一小節目の四拍目の開始時点(000)で左端の第1ドラムを叩く操作が要求される。つまり、左端の第1ドラムに対応するドラム画像DIにオブジェクト画像Oiが到達した時刻に、その第1ドラムの上面部を叩く操作がユーザに要求される。このようにシーケンスデータ28には、操作を実行すべきドラム及び操作時期が互いに関連付けられて記述されている。
The information specifying the drum of the input device 4 is described so as to specify the drum number.
It is specified by information corresponding to each drum. For example, when the four drum numbers of the input device 4 are defined in order from the left as the first drum, the second drum,..., The information specifying the drum number is described as “drum 1”, “drum 2”, etc. Is done. In the example of FIG. 13, the first drum corresponding to “drum 1” is designated as the operation target at the start time (000) of the fourth beat of the first measure. In this case, the user is required to tap the first drum at the left end at the start time (000) of the fourth beat of the first measure. That is, at the time when the object image Oi reaches the drum image DI corresponding to the leftmost first drum, the user is requested to tap the upper surface of the first drum. As described above, the sequence data 28 describes the drum to be operated and the operation time in association with each other.

さらに、仮想オブジェクトKOの種類を指定する情報(以下、オブジェクト指定情報と呼ぶ。)は、第1オブジェクトKO1を指定する場合に“obj 1”、第2オブジェクトKO2を指定する場合に“obj 2”と記述される。いずれの仮想オブジェクトKOを指定するかは、適宜の基準に従って決定されてよいが、一例として、同一の仮想レーンKL上に配置されるべき仮想オブジェクトKOの時間間隔を考慮してオブジェクト指定情報が定められる。例えば、仮想オブジェクトKO同士の重なりが問題とならない場合には第1オブジェクトKO1が指定される。一方、図13のA部に例示されているように、同一のドラム、ここでは第1ドラム(drum 1)への操作を指定する3つのレコードが短時間(一例として、拍中の時間間隔で5/100)で連続しているような連続操作部がシーケンスデータ28に含まれている場合、その連続操作部Aの中間に位置するレコードについては第2オブジェクトKO2を指定する“obj 2”が、その前後のレコードについては第1オブジェクトKO1を指定する“obj 1”がそれぞれ記述されている。これらのオブジェクト指定情報に従って仮想オブジェクトKOの種類を使い分けることにより、図5に示したように仮想オブジェクトKOが重なり合う場合において、第2オブジェクトKO2を適切に配置して連続操作部Aに対応するオブジェクト画像OIの視認性を改善することができる。なお、図13の連続操作部Aはあくまで一例である。例えば、第2オブジェクトKO2が指定されるレコードと、その前又は後に存在するレコードとのそれぞれで指定されている操作時期の時間間隔は、仮想オブジェクトKO同士の重なり合いの程度、つまり仮想オブジェクトKO同士の時間間隔と、それらの仮想オブジェクトKOの視点からの観察方向θとに応じて適宜に設定されてよい。   Further, information specifying the type of the virtual object KO (hereinafter referred to as object specifying information) is “obj 1” when specifying the first object KO1, and “obj 2” when specifying the second object KO2. Is described. Which virtual object KO is specified may be determined according to an appropriate standard, but as an example, the object specification information is determined in consideration of the time interval of virtual objects KO to be placed on the same virtual lane KL. It is done. For example, the first object KO1 is designated when the overlap between the virtual objects KO does not matter. On the other hand, as illustrated in part A of FIG. 13, three records that specify operations on the same drum, here the first drum (drum 1), are recorded in a short time (for example, at time intervals in the beat). 5/100), if the sequence data 28 includes a continuous operation unit that is continuous, “obj 2” that designates the second object KO2 is specified for the record located in the middle of the continuous operation unit A. In the preceding and succeeding records, “obj 1” for specifying the first object KO1 is described. By appropriately using the types of virtual objects KO according to these object designation information, when the virtual objects KO overlap as shown in FIG. 5, the second object KO2 is appropriately arranged and the object image corresponding to the continuous operation unit A The visibility of OI can be improved. Note that the continuous operation unit A in FIG. 13 is merely an example. For example, the time interval between the operation times specified in the record in which the second object KO2 is specified and the record existing before or after the second object KO2 is the degree of overlap between the virtual objects KO, that is, between the virtual objects KO. The time interval and the observation direction θ from the viewpoint of the virtual object KO may be set as appropriate.

ゲーム機1において、ゲーム制御部11のシーケンス処理部15は、上述したシーケンスデータ28で指定された操作時期に仮想オブジェクトKOが仮想ドラムKDに到達するように仮想3次元空間GW内の仮想オブジェクトKOの位置を制御する。さらに、シーケンス処理部15は、その仮想3次元空間GW内の仮想オブジェクトKO及び仮想ドラムKDに応じて、オブジェクト画像OIが基準位置画像RIに到達するようにゲーム画面30をモニタ5に表示させる。一方、ゲーム制御部11の操作評価部16は、シーケンスデータ28を参照して、ユーザの操作結果を評価するための操作評価処理を実行する。なお、ゲーム制御部11は、その他にも音楽ゲームを実現するために必要な各種の周知な処理を実行するが、それらの詳細な説明は省略する。   In the game machine 1, the sequence processing unit 15 of the game control unit 11 causes the virtual object KO in the virtual three-dimensional space GW so that the virtual object KO reaches the virtual drum KD at the operation time designated by the sequence data 28 described above. Control the position of the. Furthermore, the sequence processing unit 15 displays the game screen 30 on the monitor 5 so that the object image OI reaches the reference position image RI according to the virtual object KO and the virtual drum KD in the virtual three-dimensional space GW. On the other hand, the operation evaluation unit 16 of the game control unit 11 refers to the sequence data 28 and executes an operation evaluation process for evaluating a user operation result. The game control unit 11 executes various other well-known processes necessary for realizing the music game, but detailed description thereof is omitted.

次に、ゲーム画面30を表示させるためにシーケンス処理部15が実行するシーケンス処理の手順を説明する。図14は、シーケンス処理ルーチンのフローチャートの一例を示す図である。図14のルーチンは、ゲーム画面30の描画に関して定められたフレームレートに従って繰り返し実行される。図14のシーケンス処理ルーチンが開始されると、ゲーム制御部11のシーケンス処理部15は、まずステップS1にて楽曲上の現在時刻を取得する。現在時刻は、一例として楽曲の再生開始時点を基準としてゲーム制御部11の内部クロックにて計時される。続くステップS2において、シーケンス処理部15は、シーケンスデータ28から、仮想3次元空間GWの撮影範囲SRに配置すべき時間長(表示範囲)のデータを取得する。表示範囲は、一例として現在時刻から楽曲の二小節相当の時間長に設定される。   Next, the sequence processing procedure executed by the sequence processing unit 15 to display the game screen 30 will be described. FIG. 14 is a diagram illustrating an example of a flowchart of a sequence processing routine. The routine of FIG. 14 is repeatedly executed according to a frame rate determined for drawing of the game screen 30. When the sequence processing routine of FIG. 14 is started, the sequence processing unit 15 of the game control unit 11 first acquires the current time on the music in step S1. As an example, the current time is measured by the internal clock of the game control unit 11 with the music reproduction start time as a reference. In subsequent step S <b> 2, the sequence processing unit 15 acquires, from the sequence data 28, data of a time length (display range) to be arranged in the imaging range SR of the virtual three-dimensional space GW. For example, the display range is set to a time length corresponding to two measures of the music from the current time.

次のステップS3において、シーケンス処理部15は、各仮想レーンKLに配置すべき全ての仮想オブジェクトKOの仮想3次元空間GW内における座標を演算する。その演算は、一例として、次のようにして実行される。まず、シーケンス処理部15は、シーケンスデータ28のドラムの指定に基づいて、仮想オブジェクトKOを配置すべき仮想レーンKLを判別する。具体的には、シーケンスデータ28で指定されたドラムの番号に対応する仮想レーンKLを特定することにより実現される。つまり、その特定された仮想レーンKLが仮想オブジェクトKOを配置すべき仮想レーンKLとして判別される。また、仮想オブジェクトKO毎に、各操作時期と現在時刻との時間差に応じて、仮想ドラムKDからの時間軸方向(つまり、仮想オブジェクトKOの移動方向)における仮想レーンKL上の位置を判別する。これにより、シーケンスデータ28で指定されたドラムに対応する仮想レーンKL上に仮想ドラムKDから時間軸に沿って各仮想オブジェクトKOを配置するための座標を取得することができる。   In the next step S3, the sequence processing unit 15 calculates the coordinates in the virtual three-dimensional space GW of all the virtual objects KO to be arranged in each virtual lane KL. The calculation is executed as follows as an example. First, the sequence processing unit 15 determines the virtual lane KL where the virtual object KO is to be placed based on the designation of the drum in the sequence data 28. Specifically, this is realized by specifying the virtual lane KL corresponding to the drum number designated by the sequence data 28. That is, the identified virtual lane KL is determined as the virtual lane KL where the virtual object KO is to be placed. For each virtual object KO, the position on the virtual lane KL in the time axis direction from the virtual drum KD (that is, the moving direction of the virtual object KO) is determined according to the time difference between each operation time and the current time. Thereby, it is possible to acquire the coordinates for arranging the virtual objects KO along the time axis from the virtual drum KD on the virtual lane KL corresponding to the drum specified by the sequence data 28.

続くステップS4において、シーケンス処理部15は、仮想3次元空間GWに各種のオブジェクトを配置する。この際、仮想ドラムKDが指定された位置に配置され、かつ仮想オブジェクトKOがステップS3で演算された座標に配置される。ただし、仮想オブジェクトKOの配置に際しては、シーケンスデータ28にて指定されたオブジェクト指定情報に従って各座標に配置すべき仮想オブジェクトKOの種類が判別され、その判別結果に従って第1オブジェクトKO1又は第2オブジェクトKO2が選択されて仮想レーンKLに配置される。この処理は後に詳しく説明する。   In subsequent step S4, the sequence processing unit 15 arranges various objects in the virtual three-dimensional space GW. At this time, the virtual drum KD is arranged at the designated position, and the virtual object KO is arranged at the coordinates calculated in step S3. However, when placing the virtual object KO, the type of the virtual object KO to be placed at each coordinate is determined according to the object specification information specified by the sequence data 28, and the first object KO1 or the second object KO2 is determined according to the determination result. Is selected and placed in the virtual lane KL. This process will be described in detail later.

オブジェクトの配置が完了すると、次のステップS5にて、シーケンス処理部15は、仮想3次元空間GWに配置された仮想オブジェクトKO及び仮想ドラムKDを所定の視点から所定の撮影方向SDに所定の視野角で観察した様子が視野面SHに投影されるように、各種オブジェクトの3次元座標(ワールド座標)を視野面SH上における2次元座標に変換する演算を実行する。続くステップS6にて、シーケンス処理部15は、ステップS5の演算結果に従って視野面SH上の2次元画像を記述した描画データを生成する。このようにして、シーケンス処理部15は、描画データを生成する。続くステップS6において、シーケンス処理部15は、表示制御部12に、ステップS5で生成した画像データを出力する。これにより、現実空間画像31にAR画像32が配置されたゲーム画面30がモニタ5に表示される。また、ゲーム画面30上のオブジェクト画像OIは、シーケンスデータ28で指定された操作時期に基準位置画像RIに到達するように向きを変えながら仮想レーン上を移動する。なお、図14の処理において、ステップS1〜ステップS4の処理はシーケンス処理部15の3次元空間構築部15aが担当し、ステップS5の処理は画像演算部15bが担当し、ステップS6及びS7の処理は描画データ生成部15cが担当する。   When the arrangement of the objects is completed, in the next step S5, the sequence processing unit 15 moves the virtual object KO and the virtual drum KD arranged in the virtual three-dimensional space GW from a predetermined viewpoint to a predetermined field of view in a predetermined imaging direction SD. An operation is performed to convert the three-dimensional coordinates (world coordinates) of various objects into two-dimensional coordinates on the field plane SH so that the state observed at the corners is projected onto the field plane SH. In subsequent step S6, the sequence processing unit 15 generates drawing data describing a two-dimensional image on the visual field SH in accordance with the calculation result in step S5. In this way, the sequence processing unit 15 generates drawing data. In subsequent step S6, the sequence processing unit 15 outputs the image data generated in step S5 to the display control unit 12. Thereby, the game screen 30 in which the AR image 32 is arranged in the real space image 31 is displayed on the monitor 5. The object image OI on the game screen 30 moves on the virtual lane while changing the direction so as to reach the reference position image RI at the operation time designated by the sequence data 28. In the processing of FIG. 14, the processing of steps S1 to S4 is handled by the three-dimensional space construction unit 15a of the sequence processing unit 15, the processing of step S5 is handled by the image calculation unit 15b, and the processing of steps S6 and S7. Is handled by the drawing data generation unit 15c.

図15は、図14のステップS4の実行時において、シーケンス処理部15の3次元空間構築部15aが仮想オブジェクトKOを配置するために実行する処理の手順を示している。図15の仮想オブジェクト配置処理において、3次元空間構築部15aは、まずステップS101にて、図14のステップS2で取得されたシーケンスデータ28から処理対象の一つのレコードを操作時期の早い方が優先されるようにして一つ選択する。続くステップS102において、3次元空間構築部15aは、処理対象のレコードに含まれるオブジェクト指定情報にて第1オブジェクトKO1が指定されているか否かを判別する。第1オブジェクトKO1が指定されている場合、3次元空間構築部15aはステップS103に進み、対象レコードに対応する仮想オブジェクトKOとして、第1オブジェクトKO1をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。その座標は図14のステップS3にて演算された座標である。一方、ステップS102にて第1オブジェクトKO1が指定されていない場合、3次元空間構築部15aはステップS104に進み、対象レコードに対応する仮想オブジェクトKOとして、第2オブジェクトKO2をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。ステップS103又はS104にて仮想オブジェクトKOを配置した後、3次元空間構築部15aはステップS105に進み、図14のステップS2で取得したシーケンスデータ28に含まれている全てのレコードがステップS101〜S104にて処理されたか否かを判別する。そして、3次元空間構築部15aは、未処理のレコードがあればステップS101に戻り、全てのレコードが処理されていれば図15の処理を終える。なお、図15の処理において、ステップS102の処理は3次元空間構築部15aのオブジェクトタイプ判別部15dが担当し、ステップS103及びS104の処理はオブジェクト選択配置部15eが担当する。   FIG. 15 shows a procedure of processing executed by the three-dimensional space construction unit 15a of the sequence processing unit 15 to arrange the virtual object KO when executing step S4 of FIG. In the virtual object arrangement process of FIG. 15, the three-dimensional space construction unit 15a first gives priority to one record to be processed from the sequence data 28 acquired in step S2 of FIG. Select one as described. In subsequent step S102, the three-dimensional space construction unit 15a determines whether or not the first object KO1 is designated by the object designation information included in the processing target record. When the first object KO1 is specified, the three-dimensional space construction unit 15a proceeds to step S103, and the virtual object KO corresponding to the record is arranged as the virtual object KO corresponding to the target record. Place in power coordinates. The coordinates are the coordinates calculated in step S3 in FIG. On the other hand, when the first object KO1 is not specified in step S102, the three-dimensional space construction unit 15a proceeds to step S104, and the virtual object KO corresponding to the target record is set as the virtual object KO corresponding to the target record. The object KO is arranged at the coordinates to be arranged. After arranging the virtual object KO in step S103 or S104, the three-dimensional space construction unit 15a proceeds to step S105, and all the records included in the sequence data 28 acquired in step S2 of FIG. 14 include steps S101 to S104. It is discriminated whether or not it has been processed. If there is an unprocessed record, the three-dimensional space construction unit 15a returns to step S101, and if all the records have been processed, the process of FIG. In the processing of FIG. 15, the processing of step S102 is handled by the object type determination unit 15d of the three-dimensional space construction unit 15a, and the processing of steps S103 and S104 is handled by the object selection placement unit 15e.

図16は、ゲーム制御部11の操作評価部16が、ユーザの操作結果を評価するための操作評価処理ルーチンの手順を示している。図16のルーチンは所定の周期で繰り返し実行される。図16のルーチンが開始されると、操作評価部16は、まずステップS11で入力装置4の出力信号を参照して、各ドラムに対する操作の有無を判別する。そして、この判別結果が否定的結果の場合、つまり操作が実行されていない場合、操作評価部16は、以降の処理をスキップして、今回のルーチンを終了する。   FIG. 16 shows a procedure of an operation evaluation processing routine for the operation evaluation unit 16 of the game control unit 11 to evaluate a user operation result. The routine of FIG. 16 is repeatedly executed at a predetermined cycle. When the routine of FIG. 16 is started, the operation evaluation unit 16 first determines the presence / absence of an operation on each drum with reference to the output signal of the input device 4 in step S11. When the determination result is a negative result, that is, when the operation is not executed, the operation evaluation unit 16 skips the subsequent processing and ends the current routine.

一方、ステップS11の判別結果が肯定的結果の場合、つまり操作が実行されている場合、操作評価部16は、ステップS12に進む。ステップS12において、操作評価部16は、操作が実行されたドラム及び操作が実行された時期を判別する。続くステップS13において、操作評価部16は、操作がされたドラムに関して、シーケンスデータ28に記述された直近の操作時期、つまりはシーケンスデータ28上で時間的に最も接近した操作時期を特定し、その操作時期と操作出力信号が出力された時刻との間のずれ時間を取得する。   On the other hand, if the determination result in step S11 is a positive result, that is, if an operation is being performed, the operation evaluation unit 16 proceeds to step S12. In step S12, the operation evaluation unit 16 determines the drum on which the operation has been performed and the timing at which the operation has been performed. In the following step S13, the operation evaluation unit 16 specifies the latest operation time described in the sequence data 28, that is, the operation time closest in time on the sequence data 28 for the operated drum. A time difference between the operation time and the time when the operation output signal is output is acquired.

次のステップS14において、操作評価部16は、ずれ時間が評価範囲内か否かを判別することにより、ユーザの操作が適切か否か判断する。評価範囲は、比較対象の操作時期を中心として前後に所定の時間範囲で設定される。また、一例として、所定の時間範囲は、中心に近いほど評価の高い複数のレベルに分類される。この結果が否定的結果の場合、つまりずれ時間が評価範囲外の場合、操作評価部16は、以降の処理をスキップして、今回のルーチンを終了する。   In the next step S14, the operation evaluation unit 16 determines whether or not the user's operation is appropriate by determining whether or not the deviation time is within the evaluation range. The evaluation range is set within a predetermined time range before and after the operation time to be compared. Further, as an example, the predetermined time range is classified into a plurality of levels with higher evaluation as it is closer to the center. When this result is a negative result, that is, when the shift time is out of the evaluation range, the operation evaluation unit 16 skips the subsequent processing and ends the current routine.

一方、ステップS14の判断結果が肯定的結果の場合、つまりずれ時間が評価範囲内の場合、操作評価部16は、ステップS15に進む。ステップS15において、操作評価部16は、ステップS13で取得したずれ時間が所定の時間範囲のうち複数のレベルのいずれに属するかを判別することにより、ユーザの操作結果に対する評価を決定する。その後、操作評価部16は、ステップS16に進み、ステップS16において、評価結果がモニタ5に表示されるように、表示制御部12への出力を制御する。ステップS16の処理を完了すると、操作評価部16は今回のルーチンを終了する。   On the other hand, if the determination result in step S14 is a positive result, that is, if the shift time is within the evaluation range, the operation evaluation unit 16 proceeds to step S15. In step S <b> 15, the operation evaluation unit 16 determines an evaluation on the operation result of the user by determining which of the plurality of levels in the predetermined time range the deviation time acquired in step S <b> 13 belongs to. Thereafter, the operation evaluation unit 16 proceeds to step S16, and controls the output to the display control unit 12 so that the evaluation result is displayed on the monitor 5 in step S16. When the process of step S16 is completed, the operation evaluation unit 16 ends the current routine.

以上に説明したように、この形態によれば、指示標識として描画されるべき仮想オブジェクトKOとして、形状が互いに異なる第1オブジェクトKO1及び第2オブジェクトKO2を用意し、仮想3次元空間GWの同一経路、つまり同一の仮想レーンKL上で比較的狭い時間間隔で並べられる複数の仮想オブジェクトKOの一部として第1オブジェクトKO1を使用し、他の一部として第2オブジェクトKO2を使用するため、仮想オブジェクトKOの観察方向θが比較的大きい領域RU、RLにて仮想オブジェクトKO同士の重なりの程度が大きい場合でも、それらの仮想オブジェクトKOの視認性を適度に確保することができる。特に、仮想オブジェクトKOが仮想ドラムKDに到達する操作時期の近辺でそのような効果が発揮されることにより、同一のドラムに対する短時間での連続操作がユーザに要求される局面であっても、ユーザはその指示を容易かつ的確に判別できるようになる。   As described above, according to this embodiment, the first object KO1 and the second object KO2 having different shapes are prepared as the virtual object KO to be drawn as the instruction sign, and the same path in the virtual three-dimensional space GW is prepared. That is, since the first object KO1 is used as a part of a plurality of virtual objects KO arranged at a relatively narrow time interval on the same virtual lane KL, and the second object KO2 is used as another part, the virtual object Even when the overlapping degree of the virtual objects KO is large in the regions RU and RL where the observation direction θ of KO is relatively large, the visibility of the virtual objects KO can be appropriately ensured. In particular, even when the virtual object KO is in the vicinity of the operation time when it reaches the virtual drum KD, such an effect is exhibited. The user can easily and accurately determine the instruction.

上述した第1の形態においては、シーケンス処理部15が図14の処理を実行することにより、本発明の案内手段の一例として機能する。また、シーケンス処理部15の3次元空間構築部15aに設けられたオブジェクトタイプ判別部15dが図15のステップS102の処理を実行することにより、本発明の判別手段の一例として機能し、オブジェクト選択配置部15eが図15のステップS103又はS104の処理を実行することにより、本発明の選択制御手段の一例として機能する。また、シーケンスデータ28におけるオブジェクト指定情報は、本発明における描画判別情報の一例として機能する。   In the first embodiment described above, the sequence processing unit 15 functions as an example of the guiding means of the present invention by executing the processing of FIG. Further, the object type determination unit 15d provided in the three-dimensional space construction unit 15a of the sequence processing unit 15 functions as an example of the determination unit of the present invention by executing the processing of step S102 in FIG. The unit 15e functions as an example of the selection control unit of the present invention by executing the processing of step S103 or S104 in FIG. Further, the object designation information in the sequence data 28 functions as an example of the drawing determination information in the present invention.

(第2の形態)
次に、本発明の第2の形態について説明する。なお、第2の形態は、上述した第1の形態における第1オブジェクトKO1及びKO2の使い分けに関する判別の手法を変更したものである。したがって、以下では、第1の形態との相違点を中心として説明し、共通点については第1の形態の説明をそのまま流用する。
(Second form)
Next, a second embodiment of the present invention will be described. Note that the second form is a modification of the method for determining the proper use of the first objects KO1 and KO2 in the first form described above. Therefore, in the following, the description will focus on the differences from the first embodiment, and the description of the first embodiment will be used as it is for the common points.

図17は、第2の形態で用いられるシーケンスデータ28を示している。図13との対比から明らかなように、本形態で用いられるべきシーケンスデータ28は、仮想オブジェクトKOの種類を指定する情報が省略されている。一方、シーケンス処理部15の3次元空間構築部15aは、図15の仮想オブジェクト配置処理に代えて図18の仮想オブジェクト配置処理を実行することにより、第1の形態と同様の仮想オブジェクトKOの使い分けを実現する。   FIG. 17 shows sequence data 28 used in the second embodiment. As is clear from comparison with FIG. 13, the sequence data 28 to be used in this embodiment omits information specifying the type of the virtual object KO. On the other hand, the three-dimensional space construction unit 15a of the sequence processing unit 15 executes the virtual object arrangement process of FIG. 18 instead of the virtual object arrangement process of FIG. Is realized.

図18の仮想オブジェクト配置処理において、3次元空間構築部15aは、まずステップS201にて、図14のステップS2で取得されたシーケンスデータ28から処理対象の一つのレコードを選択する。この処理は図15のステップS101と同じである。続くステップS202において、3次元空間構築部15aは、処理対象のレコードにて指定されているドラム番号と同一番号のレコードの中で、対象レコードにて指定された操作時期に対して時間的に先行しかつ操作時期が最も近いレコードを特定し、そのレコードにて指定されている操作時期と対象レコードにて指定されている操作時期との時間間隔を演算する。次のステップS203において、3次元空間構築部15aはステップS202で演算した時間間隔が所定の基準値未満か否かを判別する。この場合の基準値は、仮想オブジェクトKOの重なりの程度が許容範囲を超え、背後の仮想オブジェクトKOの視認が困難となると認められる時間間隔の目安として定められる。どの程度の重なりであれば許容範囲とするかはゲームの制作者の意図に従って適宜定めてよい。   In the virtual object arrangement process of FIG. 18, the three-dimensional space construction unit 15a first selects one record to be processed from the sequence data 28 acquired in step S2 of FIG. 14 in step S201. This process is the same as step S101 in FIG. In subsequent step S202, the three-dimensional space construction unit 15a temporally precedes the operation time specified in the target record among the records having the same number as the drum number specified in the record to be processed. And the record with the closest operation time is specified, and the time interval between the operation time specified in the record and the operation time specified in the target record is calculated. In the next step S203, the three-dimensional space construction unit 15a determines whether or not the time interval calculated in step S202 is less than a predetermined reference value. The reference value in this case is determined as a measure of a time interval at which it is recognized that the degree of overlap of the virtual objects KO exceeds the allowable range and it is difficult to visually recognize the virtual object KO behind. The degree of overlap may be determined as appropriate in accordance with the intention of the game creator.

ステップS203で、基準値以上と判断した場合、3次元空間構築部15aはステップS204に進み、対象レコードに対応して配置されるべき仮想オブジェクトKOについての観察方向θを演算する。観察方向θは、仮想3次元空間GWにおいて予め定められている仮想カメラKCの視点の座標と、図14のステップS3で演算された仮想オブジェクトKOの座標とから求めることができる。また、上述したように観察方向θは、撮影方向SDから時計方向に向かう方向を正方向として定義される。なお、観察方向θは、対象レコードに対応する仮想オブジェクトKOに代えて、ステップS202で特定した時間的に先行するレコードに対応する仮想オブジェクトKOについて求められてもよい。   If it is determined in step S203 that the reference value is equal to or greater than the reference value, the three-dimensional space construction unit 15a proceeds to step S204, and calculates the observation direction θ for the virtual object KO to be arranged corresponding to the target record. The observation direction θ can be obtained from the coordinates of the viewpoint of the virtual camera KC determined in advance in the virtual three-dimensional space GW and the coordinates of the virtual object KO calculated in step S3 in FIG. Further, as described above, the observation direction θ is defined as a positive direction that is clockwise from the photographing direction SD. Note that the observation direction θ may be obtained for the virtual object KO corresponding to the temporally preceding record specified in step S202, instead of the virtual object KO corresponding to the target record.

続くステップS205において、3次元空間構築部15aは、観察方向θが所定の基準値以上であるか否かを判別する。この場合の基準値は、図5の下端領域RLに対象レコードに基づく仮想オブジェクトKOが入っているか否かを識別する基準値として定められる。つまり、仮想オブジェクトKOが仮想ドラムKDに接近し、仮想オブジェクトKOの重なりによって背後の仮想オブジェクトKOによって示されるべき操作時期の判別が困難となり得る場合にステップS205が肯定されるよう基準値を設定すればよい。   In subsequent step S205, the three-dimensional space construction unit 15a determines whether or not the observation direction θ is equal to or greater than a predetermined reference value. The reference value in this case is determined as a reference value for identifying whether or not the virtual object KO based on the target record is contained in the lower end region RL in FIG. That is, when the virtual object KO approaches the virtual drum KD and it is difficult to determine the operation time to be indicated by the virtual object KO behind the virtual object KO, the reference value is set so that step S205 is affirmed. That's fine.

ステップS205にて観察方向θが基準値以上と判断された場合、3次元空間構築部15aはステップS206に進み、対象レコードに対応して配置されるべき仮想オブジェクトKOに対して仮想レーンKL上で一つ前に先行する仮想オブジェクトKOが第2オブジェクトKO2であるか否かを判別する。つまり、ステップS202で特定した先行レコードに対応する仮想オブジェクトKOとして既に第2オブジェクトKO2が指定されているか否かを、図18の処理履歴から判別する。ステップS206が否定判断された場合、3次元空間構築部15aはステップS207に進み、対象レコードに対応する仮想オブジェクトKOとして、第2オブジェクトKO2をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。その座標は図14のステップS3にて演算された座標である。一方、ステップS203にて時間間隔が基準値以上と判断された場合、ステップS205で観察方向θが基準値未満と判断された場合、又はステップS206で先行オブジェクトが第2オブジェクトKO2ではない、と判断された場合、3次元空間構築部15aはステップS208に進み、対象レコードに対応する仮想オブジェクトKOとして、第1オブジェクトKO1をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。   When it is determined in step S205 that the observation direction θ is greater than or equal to the reference value, the three-dimensional space construction unit 15a proceeds to step S206, and on the virtual lane KL with respect to the virtual object KO to be arranged corresponding to the target record. It is determined whether or not the preceding virtual object KO is the second object KO2. That is, it is determined from the processing history of FIG. 18 whether or not the second object KO2 has already been designated as the virtual object KO corresponding to the preceding record specified in step S202. If a negative determination is made in step S206, the three-dimensional space construction unit 15a proceeds to step S207, and the second object KO2 is a coordinate where the virtual object KO corresponding to the record is to be arranged as the virtual object KO corresponding to the target record. To place. The coordinates are the coordinates calculated in step S3 in FIG. On the other hand, if it is determined in step S203 that the time interval is greater than or equal to the reference value, if it is determined in step S205 that the observation direction θ is less than the reference value, or if it is determined in step S206 that the preceding object is not the second object KO2. If so, the three-dimensional space construction unit 15a proceeds to step S208, and arranges the first object KO1 as the virtual object KO corresponding to the target record at the coordinates where the virtual object KO corresponding to the record is to be arranged.

ステップS207又はS208にて仮想オブジェクトKOを配置した後、3次元空間構築部15aはステップS209に進み、図14のステップS2で取得したシーケンスデータ28に含まれている全てのレコードがステップS201〜S208にて処理されたか否かを判別する。そして、3次元空間構築部15aは、未処理のレコードがあればステップS201に戻り、全てのレコードが処理されていれば図18の処理を終える。なお、図18の処理において、ステップS202〜S206の処理は3次元空間構築部15aのオブジェクトタイプ判別部15dが担当し、ステップS207及びS208の処理はオブジェクト選択配置部15eが担当する。   After arranging the virtual object KO in step S207 or S208, the three-dimensional space construction unit 15a proceeds to step S209, and all the records included in the sequence data 28 acquired in step S2 of FIG. 14 include steps S201 to S208. It is discriminated whether or not it has been processed. Then, if there is an unprocessed record, the three-dimensional space construction unit 15a returns to step S201, and if all the records have been processed, ends the processing in FIG. In the processing of FIG. 18, the processing of steps S202 to S206 is handled by the object type determination unit 15d of the three-dimensional space construction unit 15a, and the processing of steps S207 and S208 is handled by the object selection placement unit 15e.

以上に説明したように、第2の形態においては、仮想3次元空間GWの同一経路、つまり同一の仮想レーンKL上で比較的狭い時間間隔で並べられる複数の仮想オブジェクトKOの群が仮想ドラムKDに近い下端領域RLに存在する場合、第1オブジェクトKO1を覆うように配置されるべき仮想オブジェクトKOとして第2オブジェクトKO2が使用される。そのため、仮想オブジェクトKOが仮想ドラムKDに到達する操作時期の近辺において、一部の仮想オブジェクトKOが他の仮想オブジェクトKOで隠されるような状況が生じても、それらの仮想オブジェクトKOの視認性を適度に確保することができる。したがって、同一のドラムに対する短時間での連続操作がユーザに要求される局面であっても、ユーザはその指示を容易かつ的確に判別できるようになる。   As described above, in the second embodiment, a group of a plurality of virtual objects KO arranged at a relatively narrow time interval on the same path of the virtual three-dimensional space GW, that is, the same virtual lane KL is a virtual drum KD. 2 is used as the virtual object KO to be arranged so as to cover the first object KO1. Therefore, even when a situation occurs in which some virtual objects KO are hidden by other virtual objects KO near the operation time when the virtual objects KO reach the virtual drum KD, the visibility of these virtual objects KO is improved. It can be secured moderately. Therefore, even in a situation where the user is required to continuously operate the same drum in a short time, the user can easily and accurately determine the instruction.

なお、第2の形態では、図18のステップS204及びS205を設けることにより、仮想オブジェクトKOが仮想ドラムKDに接近する所定範囲(下端領域RL)に限って第2オブジェクトKO2が利用されるものとしたが、それらのステップS204、S205は省略されてもよい。その場合、背後の第1オブジェクトKO1の大半を隠す可能性がある仮想オブジェクトKOに対しては、仮想レーンKLの全長において第2オブジェクトKO2が利用されるようになる。   In the second embodiment, by providing steps S204 and S205 in FIG. 18, the second object KO2 is used only within a predetermined range (lower end region RL) where the virtual object KO approaches the virtual drum KD. However, those steps S204 and S205 may be omitted. In this case, the second object KO2 is used over the entire length of the virtual lane KL for the virtual object KO that may hide most of the first object KO1 behind.

上述した第2の形態においては、シーケンス処理部15が図14の処理を実行することにより、本発明の案内手段の一例として機能する。また、シーケンス処理部15の3次元空間構築部15aに設けられたオブジェクトタイプ判別部15dが図18のステップS202〜S206の処理を実行することにより、本発明の判別手段の一例として機能し、オブジェクト選択配置部15eが図18のステップS207又はS208の処理を実行することにより、本発明の選択制御手段の一例として機能する。   In the second embodiment described above, the sequence processing unit 15 functions as an example of the guiding means of the present invention by executing the processing of FIG. Further, the object type determination unit 15d provided in the three-dimensional space construction unit 15a of the sequence processing unit 15 executes the processing of steps S202 to S206 in FIG. The selection placement unit 15e functions as an example of the selection control unit of the present invention by executing the processing of step S207 or S208 in FIG.

(第3の形態)
次に、本発明の第3の形態について説明する。なお、第3の形態は、上述した第1の形態における第1オブジェクトKO1及びKO2の使い分けに関する判別の条件を変更したものである。したがって、以下では、第1の形態との相違点を中心として説明し、共通点については第1の形態の説明をそのまま流用する。
(Third form)
Next, a third embodiment of the present invention will be described. Note that the third form is obtained by changing the determination conditions regarding the proper use of the first objects KO1 and KO2 in the first form described above. Therefore, in the following, the description will focus on the differences from the first embodiment, and the description of the first embodiment will be used as it is for the common points.

図19は、第3の形態で用いられるシーケンスデータ28を示している。図13との対比から明らかなように、本形態で用いられるべきシーケンスデータ28は、仮想オブジェクトKOの種類を指定する情報に代えて、ユーザに要求する操作の種類を指定する情報(以下、操作種類情報と呼ぶ。)が各レコードにて指定されている。すなわち、本形態では、入力装置4として設けられるドラムが、これを叩く強さを検出する機能を備えていることを前提とし、ユーザに対してどのドラムをどの時期に叩くか、の指示に加えて、どの程度の強さで叩くべきかを操作の種類としてさらに指定するものとされている。以下では、簡単のために、ドラムを叩く操作の種類として、ドラムを通常の強さで叩く通常操作と、通常操作よりも強い力でドラムを叩く強操作とが存在するものとして説明を続ける。   FIG. 19 shows sequence data 28 used in the third embodiment. As is clear from comparison with FIG. 13, the sequence data 28 to be used in the present embodiment is information specifying the type of operation requested to the user (hereinafter referred to as operation) instead of information specifying the type of virtual object KO. Called type information) is specified in each record. That is, in this embodiment, it is assumed that the drum provided as the input device 4 has a function of detecting the strength with which the drum is hit, and in addition to the instruction of which drum to hit at which time to the user. Thus, it is further specified as the type of operation how much strength to strike. In the following, for the sake of simplicity, description will be continued assuming that there are two types of operations for hitting the drum: a normal operation for hitting the drum with a normal strength and a strong operation for hitting the drum with a stronger force than the normal operation.

図19に示すシーケンスデータ28の各レコードにおいては、操作種類情報として、ユーザに要求する操作が通常操作の場合には“act_typ 1”が、強操作の場合には“act_typ 2”がそれぞれ記述される。例えば、“01,4,000,drum 1”のレコードにて指定される操作は通常操作であり、“01,4,024,drum 2”のレコードにて指定される操作は強操作である。一方、シーケンス処理部15の3次元空間構築部15aは、図15の仮想オブジェクト配置処理に代えて図20の仮想オブジェクト配置処理を実行することにより、仮想オブジェクトKOの使い分けを実現する。   In each record of the sequence data 28 shown in FIG. 19, “act_type 1” is described as the operation type information when the operation requested by the user is a normal operation, and “act_type 2” is described when the operation is a strong operation. The For example, the operation specified by the record “01, 4,000, drum 1” is a normal operation, and the operation specified by the record “01, 4, 024, drug 2” is a strong operation. On the other hand, the three-dimensional space construction unit 15a of the sequence processing unit 15 executes the virtual object arrangement process of FIG. 20 instead of the virtual object arrangement process of FIG.

図20の仮想オブジェクト配置処理において、3次元空間構築部15aは、まずステップS301にて、図14のステップS2で取得されたシーケンスデータ28から処理対象の一つのレコードを操作時期の早い方が優先されるようにして一つ選択する。この処理は図15のステップS101と同様である。続くステップS302において、3次元空間構築部15aは、処理対象のレコードに対して通常操作が指定されているか否かを操作種類情報に従って判別する。通常操作が指定されている場合、3次元空間構築部15aはステップS303に進み、対象レコードに対応する仮想オブジェクトKOとして、第1オブジェクトKO1をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。その座標は図14のステップS3にて演算された座標である。一方、ステップS302にて通常操作が指定されていない場合(つまり、強操作が指定されている場合)、3次元空間構築部15aはステップS304に進み、対象レコードに対応する仮想オブジェクトKOとして、第2オブジェクトKO2をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。ステップS303又はS304にて仮想オブジェクトKOを配置した後、3次元空間構築部15aはステップS305に進み、図14のステップS2で取得したシーケンスデータ28に含まれている全てのレコードがステップS301〜S304にて処理されたか否かを判別する。そして、3次元空間構築部15aは、未処理のレコードがあればステップS301に戻り、全てのレコードが処理されていれば図15の処理を終える。なお、図20の処理において、ステップS302の処理は3次元空間構築部15aのオブジェクトタイプ判別部15dが担当し、ステップS303及びS304の処理はオブジェクト選択配置部15eが担当する。   In the virtual object placement process of FIG. 20, the three-dimensional space construction unit 15a first gives priority to one record to be processed from the sequence data 28 acquired in step S2 of FIG. Select one as described. This process is the same as step S101 in FIG. In subsequent step S302, the three-dimensional space construction unit 15a determines whether or not a normal operation is designated for the record to be processed according to the operation type information. When the normal operation is designated, the three-dimensional space construction unit 15a proceeds to step S303, and the first object KO1 is the coordinate where the virtual object KO corresponding to the record is to be arranged as the virtual object KO corresponding to the target record. To place. The coordinates are the coordinates calculated in step S3 in FIG. On the other hand, when the normal operation is not specified in step S302 (that is, when the strong operation is specified), the three-dimensional space construction unit 15a proceeds to step S304, and the virtual object KO corresponding to the target record is the first virtual object KO. The two objects KO2 are arranged at the coordinates where the virtual object KO corresponding to the record is to be arranged. After arranging the virtual object KO in step S303 or S304, the three-dimensional space construction unit 15a proceeds to step S305, and all the records included in the sequence data 28 acquired in step S2 of FIG. 14 include steps S301 to S304. It is discriminated whether or not it has been processed. If there is an unprocessed record, the three-dimensional space construction unit 15a returns to step S301, and if all the records have been processed, the process of FIG. In the process of FIG. 20, the object type determination unit 15d of the three-dimensional space construction unit 15a is in charge of the process of step S302, and the object selection / placement unit 15e is in charge of the processes of steps S303 and S304.

なお、第3の形態においては、ドラムを叩く強さが指定されるため、ゲーム制御部11の操作評価部16は、ユーザがドラムを叩いた強さを入力装置4から取得し、シーケンスデータ28に指定された強さと比較してユーザの操作を評価する必要がある。そのためには、例えば図16に示した操作評価処理において、操作の強弱とシーケンスデータ28にて指定された操作種類との一致度を考慮してステップS15で評価を決定すればよい。強さの一致度が高い場合には評価を高く、一致度が低い場合には評価を低くし、あるいは指示された操作がなされなかったものとして評価すればよい。また、強操作が適切に行なわれた場合には、通常操作が適切に行なわれた場合と比較して、ユーザが獲得するスコアが増加する、といったように、操作の適否の判別とその判別結果に対してユーザに与えられる評価値との対応関係を操作の種類に応じて変化させてもよい。   In the third embodiment, since the strength of hitting the drum is specified, the operation evaluation unit 16 of the game control unit 11 acquires the strength of hitting the drum by the user from the input device 4, and the sequence data 28. It is necessary to evaluate the user's operation in comparison with the strength specified in. For this purpose, for example, in the operation evaluation process shown in FIG. 16, the evaluation may be determined in step S15 in consideration of the degree of coincidence between the strength of the operation and the operation type specified by the sequence data 28. The evaluation may be high when the degree of coincidence of strength is high, and low when the degree of coincidence is low, or may be evaluated as if the designated operation has not been performed. In addition, when the strong operation is appropriately performed, the determination of the appropriateness of the operation and the determination result are made such that the score obtained by the user is increased as compared with the case where the normal operation is appropriately performed. The correspondence relationship with the evaluation value given to the user may be changed according to the type of operation.

以上に説明したように、第3の形態においては、シーケンスデータ28にて指定されている操作の種類(この場合は操作の強弱)に応じて、第1オブジェクトKO1と第2オブジェクトKO2とが使い分けられる。したがって、互いに異なる操作を指示する複数の仮想オブジェクトKOが同一の仮想レーンKL上に比較的狭い時間間隔で並べられ、かつ観察方向θが比較的大きい領域RU、RLにそれらの仮想オブジェクトKOが位置する状況でも、各仮想オブジェクトKOの視認性を適度に確保することができる。これにより、ユーザは指示される操作の種類を容易かつ的確に判別できるようになる。   As described above, in the third embodiment, the first object KO1 and the second object KO2 are selectively used according to the type of operation specified in the sequence data 28 (in this case, the strength of the operation). It is done. Therefore, a plurality of virtual objects KO instructing different operations are arranged on the same virtual lane KL at a relatively narrow time interval, and the virtual objects KO are positioned in the regions RU and RL where the observation direction θ is relatively large. Even in such a situation, the visibility of each virtual object KO can be appropriately secured. As a result, the user can easily and accurately determine the type of operation instructed.

上述した第3の形態においては、シーケンス処理部15が図14の処理を実行することにより、本発明の案内手段の一例として機能する。また、シーケンス処理部15の3次元空間構築部15aに設けられたオブジェクトタイプ判別部15dが図20のステップS302の処理を実行することにより、本発明の判別手段の一例として機能し、オブジェクト選択配置部15eが図20のステップS303又はS304の処理を実行することにより、本発明の選択制御手段の一例として機能する。また、シーケンスデータ28における操作種類情報は、本発明における描画判別情報の一例として機能する。   In the 3rd form mentioned above, when the sequence process part 15 performs the process of FIG. 14, it functions as an example of the guidance means of this invention. Further, the object type determination unit 15d provided in the three-dimensional space construction unit 15a of the sequence processing unit 15 functions as an example of the determination unit of the present invention by executing the process of step S302 in FIG. The unit 15e functions as an example of the selection control unit of the present invention by executing the processing of step S303 or S304 in FIG. Further, the operation type information in the sequence data 28 functions as an example of the drawing determination information in the present invention.

本発明は上述の形態に限定されず、適宜の形態にて実施することができる。以下、上記の形態に対する各種の変形例についてさらに説明する。第1の形態及び第3の形態では、シーケンスデータ28に記述された描画判別情報としてのオブジェクト指定情報、又は操作種類情報に基づいて第1オブジェクトKO1又は第2オブジェクトKO2のいずれを使用すべきかを一律に判別し、その一方、第2の形態ではシーケンスデータ28にそのような描画判別情報を含めることなく、シーケンスデータ28に基づいて算出される仮想オブジェクトKOの時間間隔、観察方向θに従って第1オブジェクトKO1又は第2オブジェクトKO2のいずれを使用すべきかを判別したが、これらの形態は適宜組み合わされてもよい。   This invention is not limited to the above-mentioned form, It can implement with a suitable form. Hereinafter, various modifications to the above embodiment will be further described. In the first form and the third form, which of the first object KO1 and the second object KO2 should be used based on the object designation information as the drawing discrimination information described in the sequence data 28 or the operation type information. On the other hand, in the second embodiment, the first data is not included in the sequence data 28 according to the time interval and the observation direction θ of the virtual object KO calculated based on the sequence data 28 without including such drawing determination information. Although it has been determined whether the object KO1 or the second object KO2 should be used, these forms may be combined as appropriate.

例えば、第1の形態に係る図15の処理、又は第3の形態に係る図20の処理において、図18のステップS204及びS205の処理を追加することにより、第2オブジェクトKO2が指定され、あるいは強操作が指定されたレコードであっても、その操作時期に対応する仮想オブジェクトKOが仮想レーンKL上の所定の領域(一例として下端領域RL)に達した場合に限って、第2オブジェクトKO2が選択されるものとしてもよい。あるいは、第1の形態におけるオブジェクト指定情報と、第3の形態における操作種類情報とをシーケンスデータ28の各レコードに含めるものとし、特定種類の操作(一例として強操作)を指示する仮想オブジェクトKOであって、かつその前又は後に続く仮想オブジェクトKOとの時間間隔から見て、第2オブジェクトKO2にて描画されるべきと判断されるレコードのみに第2オブジェクトKO2が指定されるようにオブジェクト指定情報が記述されてもよい。また、仮想オブジェクトKOの選択に関する判別に際しては、上述した情報以外のさらなる要素が考慮されてもよい。例えば、適切な操作が連続して所定回数以上なされていると評価されたことを条件として、第2オブジェクトKO2の使用が許可されるといった処理が追加されてもよい。   For example, in the process of FIG. 15 according to the first form or the process of FIG. 20 according to the third form, the second object KO2 is designated by adding the processes of steps S204 and S205 of FIG. Even in a record in which a strong operation is designated, only when the virtual object KO corresponding to the operation time reaches a predetermined area on the virtual lane KL (for example, the lower end area RL), the second object KO2 It may be selected. Alternatively, the object designation information in the first form and the operation type information in the third form shall be included in each record of the sequence data 28, and a virtual object KO instructing a specific kind of operation (a strong operation as an example). Object designation information so that the second object KO2 is designated only in the record that is determined to be drawn by the second object KO2 when viewed from the time interval with the virtual object KO that precedes or follows the virtual object KO. May be described. Further, when determining the selection of the virtual object KO, additional elements other than the information described above may be considered. For example, a process of permitting the use of the second object KO2 may be added on the condition that it is evaluated that appropriate operations have been continuously performed a predetermined number of times or more.

上述した各形態では、仮想オブジェクトKOとして第1オブジェクトKO1及び第2オブジェクトKO2の2種類の3次元オブジェクトを例示したが、本発明はこれに限らず、形状又は大きさが互いに異なる3以上の種類の3次元オブジェクトが指示標識の描画のために適宜に使い分けられてもよい。例えば、3つ以上の仮想オブジェクトKOが狭い間隔で連続する場合に、それらの仮想オブジェクトKOとして3種類以上の3次元オブジェクトが使い分けられてもよい。さらに、複数種類の仮想オブジェクトKOは形状によって区別される例に限らず、形状に代えて、又は加えて大きさにより区別されてもよい。さらに、形状又は大きさによる区別に加えて、色、模様といった視覚による識別が可能な要素が仮想オブジェクトKOの種類の区別に利用されてもよい。   In each embodiment described above, two types of three-dimensional objects, ie, the first object KO1 and the second object KO2, are illustrated as the virtual object KO. These three-dimensional objects may be properly used for drawing the indicator signs. For example, when three or more virtual objects KO are continuous at a narrow interval, three or more types of three-dimensional objects may be selectively used as the virtual objects KO. Furthermore, the multiple types of virtual objects KO are not limited to the example distinguished by the shape, but may be distinguished by the size instead of or in addition to the shape. Furthermore, in addition to the distinction by shape or size, elements that can be visually discriminated such as colors and patterns may be used for distinguishing the types of virtual objects KO.

上記の形態では、第2オブジェクトKO2の変形部として第1オブジェクトKO1の外周よりも内側に後退する凹部Pr、及び第1オブジェクトKO1の外周よりも外側に突出する凸部Ppを交互に設けたが、本発明はそれに限らない。例えば、第2オブジェクトKO2の外径を第1オブジェクトKO1の外径と一致させ、凹部Prのみを第2オブジェクトKO2の外周に設けてもよい。反対に、第2オブジェクトKO2の最小径を第1オブジェクトKO1の外径と一致させ、凸部Ppのみを第2オブジェクトKO2の外周に設けてもよい。さらに、上記の形態では、第2オブジェクトKO2の凹部Prによって背後の第1オブジェクトKO1の一部を露出させることにより背後の仮想オブジェクトKOの視認性を高めるようにしたが、反対に、ユーザに対して意図的に見えにくく設定したい仮想オブジェクトKOを設ける場合には、視点からみてその仮想オブジェクトKOの手前に位置する仮想オブジェクトKOを拡大し、それにより背後の仮想オブジェクトKOの視認性を敢えて低下させるようにしてもよい。   In the above embodiment, as the deforming portion of the second object KO2, the concave portion Pr that retreats inward from the outer periphery of the first object KO1 and the convex portion Pp that protrudes outward from the outer periphery of the first object KO1 are provided alternately. The present invention is not limited to this. For example, the outer diameter of the second object KO2 may be matched with the outer diameter of the first object KO1, and only the concave portion Pr may be provided on the outer periphery of the second object KO2. On the contrary, the minimum diameter of the second object KO2 may be matched with the outer diameter of the first object KO1, and only the convex portion Pp may be provided on the outer periphery of the second object KO2. Furthermore, in the above embodiment, the visibility of the virtual object KO behind the first object KO1 is improved by exposing a part of the first object KO1 behind the concave portion Pr of the second object KO2. When a virtual object KO that is intended to be difficult to see is provided, the virtual object KO positioned in front of the virtual object KO is enlarged from the viewpoint, thereby degrading the visibility of the virtual object KO behind it. You may do it.

仮想3次元空間に設定されるべき所定の経路は、上述したように直線状であってもよいし、少なくとも一部に湾曲部を有する形状であってもよい。いずれの経路であっても、視点からの仮想オブジェクトKOの観察方向θが変化し、それにより仮想オブジェクトKO同士の重なり合いの程度が変化するため、本発明を適用して仮想オブジェクトKOの視認性の改善等を図ることができる。なあ、湾曲部を有する経路としては、単一の湾曲部を有する経路に限らず、例えば、複数の湾曲部を有する波状の経路、円形の経路等、各種の形状の経路が採用されてもよい。また、湾曲部は仮想カメラKCに対する奥行き方向に配置される形態にも限定されない。湾曲部は、例えば、仮想カメラKCに対して交差する方向に湾曲するように配置されてもよい。仮想オブジェクトKOの移動方向は下向きに限定されず、上向きであってもよい。さらに、経路は上下方向に延びる例に限らず、左右方向あるいは対角線方向に延ばされてもよい。   The predetermined path to be set in the virtual three-dimensional space may be linear as described above, or may have a shape having a curved portion at least partially. Regardless of the path, the observation direction θ of the virtual object KO from the viewpoint changes, thereby changing the degree of overlap between the virtual objects KO. Therefore, the visibility of the virtual object KO can be improved by applying the present invention. Improvements can be made. The path having the curved portion is not limited to the path having a single curved portion, and various shapes of paths such as a wavy path having a plurality of curved portions and a circular path may be employed. . Further, the bending portion is not limited to the form arranged in the depth direction with respect to the virtual camera KC. For example, the bending portion may be arranged to bend in a direction intersecting with the virtual camera KC. The moving direction of the virtual object KO is not limited to downward, and may be upward. Furthermore, the route is not limited to the example extending in the up-down direction, and may be extended in the left-right direction or the diagonal direction.

本発明において、指示標識の描画に用いられるべき3次元オブジェクトは、平板状の形状に限定されない。経路に沿った移動方向において相対的に薄く、かつ移動方向の前方及び後方のそれぞれに表面及び裏面が向けられた概略偏平な形状であれば、3次元オブジェクトの形状は適宜に変更されてよい。例えば、移動方向における厚さが中心部で大きく、外周に向かうほど徐々に減少する形状、移動方向における厚さが中心部で小さく、外周に向かうほど徐々に増加する形状等が適宜に採用されてよい。さらに、本発明で選択的に用いられるべき複数種類の3次元オブジェクトの群は、第1オブジェクトKO1のように外周が円形の3次元オブジェクトを含むことを必ずしも要しない。互いに異なる多角形状の複数種類の3次元オブジェクトが選択的に用いられてもよい。   In the present invention, the three-dimensional object to be used for drawing the indicator sign is not limited to a flat plate shape. The shape of the three-dimensional object may be changed as appropriate as long as it is relatively thin in the moving direction along the path and has a substantially flat shape with the front and back surfaces directed forward and backward in the moving direction, respectively. For example, a shape in which the thickness in the moving direction is large in the central part and gradually decreases toward the outer periphery, and a shape in which the thickness in the moving direction is small in the central part and gradually increases toward the outer periphery is appropriately adopted. Good. Further, the group of a plurality of types of three-dimensional objects to be selectively used in the present invention does not necessarily include a three-dimensional object having a circular outer periphery like the first object KO1. A plurality of types of three-dimensional objects having different polygonal shapes may be selectively used.

本発明は、現実空間画像31とAR画像32とを重ね合わせて表示する形態に限らない。例えば、ゲーム画面30の背景に、現実空間画像31に代えて、予め用意された背景画像が表示されてもよい。その他、ゲーム画面の構成は、指示標識としての複数の3次元オブジェクトが、各所作が行なわれる時期の時間間隔に従って並べられた状態で仮想3次元空間内の所定の経路上を移動する様子を所定の視点から観察した画像がユーザに提示される限り、ユーザに対して表示されるゲーム画面の構成は適宜変更されてよい。本発明は、指示標識を基準標識に向かって移動させることにより、操作が行なわれるべきゲーム中の時期をユーザに案内する形態に限定されない。例えば、基準標識が省略され、複数の指示標識が適宜の時間間隔を保ちながら所定の経路に沿って移動する様子がユーザに提示され、ユーザが指示標識の順序及び時間間隔に従って所定の所作を行なっているか否かを評価するように構成されたゲーム機でも本発明は適用可能である。すなわち、指示標識によって指示されるべき所作の「時期」は、楽曲の演奏開示時点といったゲーム上の所定の基準時からの経過時間として定義される例に限らず、一つ前の所作からの経過時間といった相対的な時期として定義されてもよい。   The present invention is not limited to a form in which the real space image 31 and the AR image 32 are displayed in a superimposed manner. For example, instead of the real space image 31, a background image prepared in advance may be displayed on the background of the game screen 30. In addition, the configuration of the game screen is such that a plurality of three-dimensional objects as instruction signs move along a predetermined route in the virtual three-dimensional space in a state in which the three-dimensional objects are arranged according to the time interval of each operation. As long as the image observed from the viewpoint is presented to the user, the configuration of the game screen displayed to the user may be changed as appropriate. The present invention is not limited to a form in which the user is guided to the time during the game in which the operation is to be performed by moving the instruction marker toward the reference marker. For example, the reference sign is omitted, and the user is presented with a state in which a plurality of indicator signs move along a predetermined route while maintaining an appropriate time interval, and the user performs a predetermined action according to the order of the indicator signs and the time interval. The present invention can also be applied to a game machine configured to evaluate whether or not the game is being performed. In other words, the “time” of an action to be indicated by the indication sign is not limited to an example defined as the elapsed time from a predetermined reference time on the game, such as the time when the performance of the music is disclosed. It may be defined as a relative time such as time.

本発明において、入力装置はドラム型のコントローラに限定されることなく適宜の選択が可能である。例えば、入力装置として、ギター型コントローラ等、各種楽器を模したコントローラが採用されてもよい。あるいは、単に方向指定や押しボタンによって形成される入力装置が採用されてもよい。   In the present invention, the input device is not limited to a drum-type controller and can be appropriately selected. For example, a controller imitating various musical instruments such as a guitar-type controller may be employed as the input device. Alternatively, an input device formed simply by direction designation or a push button may be employed.

本発明に係るゲーム機が提供するゲームは、上述した音楽ゲームに限定されず、適宜の変更が可能である。例えば、所定の時期に所定の位置に旗をあげる所作を要求する旗揚げゲーム等、各種のゲームがゲーム機1によって提供されてよい。さらに、本発明のゲーム機は、商業施設に設置される業務用ゲーム機、家庭用の据置型ゲーム機、携帯型のゲーム機、ネットワークを利用してゲームを提供するゲーム機といった適宜の形態で実現されてよい。サーバとクライアントといった複数のコンピュータを協働させることにより、論理的に構成されるゲーム機に対しても本発明は適用可能である。   The game provided by the game machine according to the present invention is not limited to the music game described above, and can be appropriately changed. For example, the game machine 1 may provide various games, such as a flag raising game that requires an operation of raising a flag to a predetermined position at a predetermined time. Furthermore, the game machine of the present invention is in an appropriate form such as an arcade game machine installed in a commercial facility, a home-use game machine, a portable game machine, or a game machine that provides a game using a network. May be realized. The present invention can also be applied to a game machine that is logically configured by cooperating a plurality of computers such as a server and a client.

上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面の参照符号を括弧書にて付記するが、それにより本発明が図示の形態に限定されるものではない。   Various aspects of the present invention derived from each of the above-described embodiments and modifications will be described below. In the following description, in order to facilitate understanding of each aspect of the present invention, reference numerals in the accompanying drawings are added in parentheses, but the present invention is not limited to the illustrated embodiments.

本発明の一態様に係るゲーム機(1)は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識(OI)に対応する複数の3次元オブジェクト(KO)が、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間(GW)の所定の経路(KL)に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像(32)を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段(15、S1〜S7)を備えたゲーム機(1)において、前記案内手段は、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクト(KO1、KO2)のいずれにより描画されるべきかを所定の条件に従って判別する判別手段(15d、S102;S202〜S206;S302)と、各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段(15d、S103、S104;S207、S208;S303、S304)と、を備えたものである。   A game machine (1) according to one aspect of the present invention includes a plurality of three-dimensional objects (OI) corresponding to instruction signs (OI) that indicate a plurality of actions to be performed by a user at different times during the game. KO) moves along a predetermined path (KL) in the virtual three-dimensional space (GW) in a state arranged according to the time interval of the time when each operation is to be performed. In the game machine (1) provided with the guide means (15, S1 to S7) for guiding each work to the user by generating the image (32) observed from the viewpoint and presenting it to the user, the guide means Determines which of the plurality of types of three-dimensional objects (KO1, KO2) in which at least one of the shape and the size is different from each other according to a predetermined condition. The discriminating means (15d, S102; S202 to S206; S302), and the indicator signs are drawn by one type of three-dimensional object selected according to the discrimination result of the discriminating means from the plurality of types of three-dimensional objects. Selection control means (15d, S103, S104; S207, S208; S303, S304) for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space.

また、本発明の一態様に係るゲーム機の制御方法は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識(OI)に対応する複数の3次元オブジェクト(KO)が、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間(GW)の所定の経路(KL)に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像(32)を生成してユーザに提示することにより、該ユーザに各所作を案内する手順(S1〜S7)を備えたゲーム機の制御方法であって、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクト(KO1、KO2)のいずれにより描画されるべきかを所定の条件に従って判別する手順(S102;S202〜S206;S302)と、各指示標識が前記複数種類の3次元オブジェクトから前記判別する手順における判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する手順(S103、S104;S207、S208;S303、S304)と、をさらに含んでいるものである。   In addition, the game machine control method according to one aspect of the present invention includes a plurality of three-dimensional corresponding to an instruction sign (OI) that instructs each of a plurality of actions to be performed by the user at different times during the game. A state in which the object (KO) moves along a predetermined path (KL) in the virtual three-dimensional space (GW) in a state where the objects (KO) are arranged according to the time interval of each operation should be shown in the virtual three-dimensional space. A method for controlling a game machine comprising a procedure (S1 to S7) for guiding each operation to the user by generating an image (32) observed from a predetermined viewpoint and presenting the image to the user. A procedure for discriminating according to a predetermined condition which of a plurality of types of three-dimensional objects (KO1, KO2) having at least one of shape and size different from each other (S1) 2; S202 to S206; S302) and the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected according to the determination result in the determination procedure from the plurality of types of three-dimensional objects. And a procedure (S103, S104; S207, S208; S303, S304) for controlling the selection of the three-dimensional object to be arranged in the screen.

さらに、本発明の一態様に係るコンピュータプログラム(23)は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識(OI)に対応する複数の3次元オブジェクト(KO)が、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間(GW)の所定の経路(KL)に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段(15、S1〜S7)としてゲーム機のコンピュータ(2)を機能させるコンピュータプログラムであって、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクト(KO1、KO2)のいずれにより描画されるべきかを所定の条件に従って判別する判別手段(15d、S102;S202〜S206;S302)、及び各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段(15d、S103、S104;S207、S208;S303、S304)、として前記案内手段がさらに機能するように構成されているものである。   Furthermore, the computer program (23) according to one aspect of the present invention includes a plurality of three-dimensional corresponding to an instruction mark (OI) that instructs each of a plurality of actions to be performed by the user at different times during the game. A state in which the object (KO) moves along a predetermined path (KL) in the virtual three-dimensional space (GW) in a state where the objects (KO) are arranged according to the time interval of each operation should be shown in the virtual three-dimensional space. A computer program that causes a computer (2) of a game machine to function as guide means (15, S1 to S7) that guides each user to an action by generating an image observed from a predetermined viewpoint and presenting the image to the user. And the indication sign is attached to any of a plurality of types of three-dimensional objects (KO1, KO2) having at least one of shape and size different from each other. Discriminating means (15d, S102; S202 to S206; S302) for discriminating whether or not to be drawn according to a predetermined condition, and each indicator is selected from the plurality of types of three-dimensional objects according to the discrimination result of the discriminating means Selection control means (15d, S103, S104; S207, S208; S303, S304) for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space so as to be drawn by one type of three-dimensional object; As described above, the guiding means is further configured to function.

本発明の上記態様によれば、複数種類の3次元オブジェクトを所定の条件に従って適宜使い分けつつ各指示標識を描画することができる。複数種類の3次元オブジェクトのそれぞれは、形状又は大きさが互いに異なっているため、複数の3次元オブジェクトが許容限度を超えて重なり合った状態で観察されるといったように、3次元オブジェクトを観察した場合に特有の状態が生じる場合において、視点から見て手前側の3次元オブジェクトと、背後の3次元オブジェクトとで種類を異なるものとすることにより、それらの3次元オブジェクトを同一のものとした場合と比較して背後の3次元オブジェクトの視認性を適度に確保し、あるいは、背後の3次元オブジェクトの視認性を敢えて低下させることができる。これにより、3次元オブジェクトの見え方の変化を考慮して、指示標識の描画をゲーム制作者の意図に沿うように適切に制御することができる。   According to the above aspect of the present invention, each indication sign can be drawn while properly using a plurality of types of three-dimensional objects according to predetermined conditions. Each type of 3D object is different in shape or size, so when you observe a 3D object such that multiple 3D objects are observed in an overlapping state beyond the allowable limit When a state peculiar to the situation occurs, the type of the three-dimensional object on the near side and the three-dimensional object on the near side as viewed from the viewpoint are made different so that the three-dimensional objects are the same. In comparison, the visibility of the back three-dimensional object can be appropriately secured, or the visibility of the back three-dimensional object can be deliberately reduced. Thereby, it is possible to appropriately control the drawing of the instruction sign so as to follow the intention of the game creator in consideration of the change in the appearance of the three-dimensional object.

本発明の一態様においては、前記複数種類の3次元オブジェクトのうちいずれか一種類の3次元オブジェクト(KO1)を基準としたときに、他の少なくとも一種類の3次元オブジェクト(KO2)は、前記基準となる3次元オブジェクトの周縁の少なくとも一部を内側又は外側に変形させた変形部(Pr、Pp)が前記視点から観察できる位置に設けられた形状を有しているものとしてもよい。この場合、内側に変形させた変形部を有する3次元オブジェクトを、基準となる3次元オブジェクトの手前に配置すればその変形部を介して背後の3次元オブジェクトが見通せるようになり、背後の3次元オブジェクトの視認性が改善される。一方、外側に変形させた変形部を有する3次元オブジェクトを基準となる3次元オブジェクトの背後に配置すればその変形部の突出により背後の3次元オブジェクトの視認性が改善される。一方、内側に変形させた変形部を有する3次元オブジェクトを、基準となる3次元オブジェクトの背後に配置し、あるいは、外側に変形させた変形部を有する3次元オブジェクトを基準となる3次元オブジェクトの手前に配置すれば、背後の3次元オブジェクトがより見えにくくなり、その視認性を意図的に低下させることができる。   In one aspect of the present invention, when any one type of three-dimensional object (KO1) is used as a reference among the plurality of types of three-dimensional objects, the at least one other type of three-dimensional object (KO2) The deformed portion (Pr, Pp) obtained by deforming at least a part of the periphery of the reference three-dimensional object inward or outward may have a shape provided at a position where it can be observed from the viewpoint. In this case, if a 3D object having a deformed portion deformed inside is placed in front of the reference 3D object, the back 3D object can be seen through the deformed portion, and the 3D object behind The visibility of the object is improved. On the other hand, if a three-dimensional object having a deformed portion deformed outward is placed behind the reference three-dimensional object, the visibility of the three-dimensional object behind is improved by the protrusion of the deformed portion. On the other hand, a three-dimensional object having a deformed portion deformed inward is placed behind the reference three-dimensional object, or a three-dimensional object having a deformed portion deformed outward is used as a reference three-dimensional object. If it is arranged in front, the three-dimensional object behind becomes more difficult to see, and the visibility can be intentionally reduced.

本発明の一態様において、前記複数種類の3次元オブジェクトのそれぞれは、前記経路に沿った移動方向において相対的に薄く、かつ前記移動方向の前方及び後方のそれぞれに表面(KOs)及び裏面(KOo)が向けられた概略偏平な形状を有しているものとしてもよい。概略偏平な形状の3次元オブジェクトのそれぞれを比較的狭い間隔で配置してそれらを斜め方向から観察したときには、3次元オブジェクト同士の重なりが顕著となるため、本発明の作用効果をより確実かつ効果的に発揮させることができる。   In one aspect of the present invention, each of the plurality of types of three-dimensional objects is relatively thin in the movement direction along the path, and has a front surface (KOs) and a back surface (KOo) at the front and rear in the movement direction, respectively. ) May be a substantially flat shape. When the three-dimensional objects having a substantially flat shape are arranged at a relatively narrow interval and observed from an oblique direction, the three-dimensional objects overlap each other, so that the operational effect of the present invention is more sure and effective. Can be demonstrated.

本発明の一態様において、前記案内手段は、前記複数の所作のそれぞれが行われるべき時期を記述した指示データ(28)に基づいて各指示標識を描画するように構成され、前記判別手段は、前記指示データに基づいて、各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを決定することにより、前記所定の条件に従った判別を実行するものとしてもよい。指示データには少なくとも各所作が行なわれるべき時期が記述されている。したがって、指示データに基づいて各3次元オブジェクトの時間間隔を特定すれば、その結果に従って複数種類の3次元オブジェクトを適切に使い分けることができる。   In one aspect of the present invention, the guide means is configured to draw each indication sign based on instruction data (28) describing a time when each of the plurality of actions should be performed, and the determination means includes: The determination according to the predetermined condition may be executed by determining which of the plurality of types of three-dimensional objects is to be used to draw each instruction marker based on the instruction data. The instruction data describes at least the time when each operation should be performed. Therefore, if the time interval of each three-dimensional object is specified based on the instruction data, a plurality of types of three-dimensional objects can be properly used according to the result.

上記の態様において、前記指示データには、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するための描画判別情報が前記時期を記述した情報とは区別された情報として含まれ、前記判別手段は、前記描画判別情報に基づいて、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するものとしてもよい。これによれば、指示データに含まれている描画判別情報を利用して容易かつ確実に3次元オブジェクトの種類を決定することができる。   In the above aspect, in the indication data, the drawing discrimination information for discriminating which of the plurality of types of three-dimensional objects is to be used for drawing each indication marker is distinguished from the information describing the time. The discriminating means may discriminate which of the plurality of types of three-dimensional objects should be used for drawing each indication marker based on the drawing discriminating information. According to this, the type of the three-dimensional object can be easily and reliably determined using the drawing determination information included in the instruction data.

さらに、前記描画判別情報として、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを指定するオブジェクト指定情報(一例として図13のobj 1、obj 2)が前記指示データに含まれ、前記判別手段は、前記オブジェクト指定情報に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するものとしてもよい。これによれば、各所作に対応する指示標識の描画において、どの種類の3次元オブジェクトが用いられるべきか、を予め指示データにて指定することができるので、判別手段における判別をより容易かつ確実に実現することができる。   Furthermore, as the drawing determination information, object designation information (for example, obj 1 and obj 2 in FIG. 13) that designates which of the plurality of types of three-dimensional objects should be used for drawing each indication marker is the indication data. And the determining means may determine which of the plurality of types of three-dimensional objects each indicator is to be drawn according to the object specifying information. According to this, since it is possible to specify in advance in the instruction data which kind of three-dimensional object should be used in drawing of the indicator signs corresponding to each operation, the determination by the determination means is easier and more reliable. Can be realized.

一方、前記描画判別情報として、各指示標識にて指示されるべき所作の種類を指定する所作種類情報(一例として図19のact_typ 1、act_typ2)が前記指示データに含まれ、前記判別手段は、前記所作種類情報にて指定された所作の種類に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するものとしてもよい。これによれば、所作の種類に応じて複数種類の3次元オブジェクトを使い分けることができるので、3次元オブジェクトが重なり合って観察される場合でもユーザに所作の種類を容易に判別させることができる。あるいは、特定種類の所作に対応する指示標識が意図的に見えにくくなるように指示標識の描画を制御することも可能である。   On the other hand, as the drawing determination information, operation type information (act_type 1, act_type 2 in FIG. 19 as an example) that specifies the type of operation to be instructed by each instruction indicator is included in the instruction data. According to the type of operation specified by the operation type information, it may be determined which of the plurality of types of three-dimensional objects each indicator mark is to be drawn. According to this, since a plurality of types of three-dimensional objects can be properly used according to the type of operation, the user can easily determine the type of operation even when the three-dimensional objects are observed in an overlapping manner. Alternatively, it is also possible to control the drawing of the instruction sign so that the instruction sign corresponding to a specific type of operation is intentionally difficult to see.

本発明の一態様において、前記所定の条件は、前記経路上で互いに隣接する3次元オブジェクトのそれぞれに対応した所作が行われるべき時期の時間間隔と関連付けて設定されてもよい。これによれば、複数種類の3次元オブジェクトをそれらの経路上における間隔の広狭に応じて適切に使い分けることが可能となる。   In one aspect of the present invention, the predetermined condition may be set in association with a time interval at which an operation corresponding to each of three-dimensional objects adjacent to each other on the route is to be performed. According to this, it is possible to properly use a plurality of types of three-dimensional objects in accordance with the width of the interval on the route.

上記の態様においては、前記隣接する3次元オブジェクトのそれぞれに対応する所作が行なわれるべき時期の時間間隔が所定値未満となる場合に、該隣接する3次元オブジェクトの種類が互いに相違するように前記所定の条件が設定されてもよい。これによれば、3次元オブジェクトが比較的狭い間隔で隣接する場合において、それらの種類の相違を利用して背後の3次元オブジェクトの視認性を改善し、あるいは背後の3次元オブジェクトの視認性を意図的に低下させることができる。   In the above aspect, when the time interval at which the operation corresponding to each of the adjacent three-dimensional objects should be performed is less than a predetermined value, the types of the adjacent three-dimensional objects are different from each other. A predetermined condition may be set. According to this, when the three-dimensional objects are adjacent to each other at a relatively small interval, the visibility of the back three-dimensional object is improved by utilizing the difference between the types, or the visibility of the back three-dimensional object is increased. Can be deliberately lowered.

さらに、前記所定の条件は、前記3次元オブジェクトが前記視点から見える方向(一例として図5のθで定義される方向)とさらに関連付けて設定されてもよい。これによれば、3次元オブジェクトが見える方向を参照することにより、3次元オブジェクト同士の重なりの程度を特定し、その程度が許容限度を超える場合に背後の3次元オブジェクトの視認性が変化するように3次元オブジェクトの選択を制御することができる。   Furthermore, the predetermined condition may be set in further association with a direction in which the three-dimensional object can be seen from the viewpoint (for example, a direction defined by θ in FIG. 5). According to this, by referring to the direction in which the three-dimensional object can be seen, the degree of overlap of the three-dimensional objects is specified, and when the degree exceeds the allowable limit, the visibility of the background three-dimensional object changes. The selection of the three-dimensional object can be controlled.

上記の態様においては、前記隣接する3次元オブジェクトのそれぞれを観察する際の視野の中心線の方向(一例として図5の撮影方向SD)と、前記隣接する3次元オブジェクトのいずれか一方が見える方向とがなす角度(図5のθ)が所定値以上となる場合であって、かつ前記隣接する3次元オブジェクトのそれぞれに対応した所作が行なわれるべき時期の時間間隔が前記所定値未満となる場合において、該隣接する3次元オブジェクトの種類が互いに相違するように前記所定の条件が設定されてもよい。隣接する3次元オブジェクトの間隔が比較的狭く、かつそれらの3次元オブジェクトの一方が見える方向が視野の中心線の方向に対して比較的大きくずれている場合には、3次元オブジェクト同士の重なりが顕著となる。このような場合に、3次元オブジェクトの種類の選択を変化させれば、本発明の作用効果をより確実かつ効果的に発揮させることができる。   In the above aspect, the direction of the center line of the visual field when observing each of the adjacent three-dimensional objects (for example, the shooting direction SD in FIG. 5) and the direction in which one of the adjacent three-dimensional objects can be seen. When the angle formed by (θ in FIG. 5) is equal to or greater than a predetermined value, and the time interval of the time when the operation corresponding to each of the adjacent three-dimensional objects is to be performed is less than the predetermined value. The predetermined condition may be set so that the types of the adjacent three-dimensional objects are different from each other. When the interval between adjacent three-dimensional objects is relatively narrow and the direction in which one of the three-dimensional objects is visible is relatively large with respect to the direction of the center line of the field of view, the three-dimensional objects overlap. Become prominent. In such a case, if the selection of the type of the three-dimensional object is changed, the operational effects of the present invention can be exhibited more reliably and effectively.

なお、本発明の一態様に係るコンピュータプログラムは、記憶媒体に記憶された状態で提供されてもよい。この記憶媒体を用いれば、例えばコンピュータに本発明に係るコンピュータプログラムをインストールして実行することにより、そのコンピュータを利用して本発明のゲームシステムを実現することができる。コンピュータプログラムを記憶した記憶媒体は、CDROM等の非一過性の記憶媒体であってもよい。   Note that the computer program according to one embodiment of the present invention may be provided in a state of being stored in a storage medium. By using this storage medium, for example, by installing and executing the computer program according to the present invention in a computer, the game system of the present invention can be realized using the computer. The storage medium storing the computer program may be a non-transitory storage medium such as a CDROM.

1 ゲーム機
2 制御ユニット(コンピュータ)
4 入力装置
5 モニタ(表示装置)
7 カメラ(撮影手段)
15 シーケンス処理部(案内手段)
15a 3次元空間構築部
15d オブジェクトタイプ判別部(判別手段)
15e オブジェクト選択配置部(選択制御手段)
28 シーケンスデータ(指示データ)
30 ゲーム画面(案内画面)
OI オブジェクト画像(指示標識)
RI 基準位置画像(基準標識)
GW 仮想3次元空間
KD 仮想ドラム
KO 仮想オブジェクト(3次元オブジェクト)
KO1 第1オブジェクト
KO2 第2オブジェクト
KL 仮想レーン(所定の経路)
Pp 凸部(変形部)
Pr 凹部(変形部)
SD 撮影方向
1 game machine 2 control unit (computer)
4 Input device 5 Monitor (display device)
7 Camera (photographing means)
15 Sequence processing unit (guidance means)
15a 3D space construction unit 15d Object type discrimination unit (discrimination means)
15e Object selection arrangement part (selection control means)
28 Sequence data (instruction data)
30 Game screen (guidance screen)
OI object image (indicator sign)
RI reference position image (reference sign)
GW Virtual 3D space KD Virtual drum KO Virtual object (3D object)
KO1 First object KO2 Second object KL Virtual lane (predetermined route)
Pp Convex part (deformation part)
Pr recess (deformed part)
SD shooting direction

Claims (13)

ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段を備えたゲーム機において、
前記案内手段は、
前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段と、
各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段と、
を備えているゲーム機。
In a state where a plurality of three-dimensional objects corresponding to instruction signs for instructing the user each of the plurality of actions to be performed by the user at different times in the game are arranged according to the time intervals of the times at which the actions should be performed A guide that guides the user to each action by generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user how it moves along the predetermined route in the virtual three-dimensional space. In a game machine equipped with means,
The guiding means includes
A discriminating means for discriminating, according to a predetermined condition, which of the plurality of types of three-dimensional objects having at least one of a shape and a size different from each other,
Selection of a three-dimensional object to be arranged in the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected from the plurality of types of three-dimensional objects according to the discrimination result of the discrimination means Selection control means for controlling,
Game machine equipped with.
前記複数種類の3次元オブジェクトのうちいずれか一種類の3次元オブジェクトを基準としたときに、他の少なくとも一種類の3次元オブジェクトは、前記基準となる3次元オブジェクトの周縁の少なくとも一部を内側又は外側に変形させた変形部が前記視点から観察できる位置に設けられた形状を有している請求項1に記載のゲーム機。   When any one of the plurality of types of three-dimensional objects is used as a reference, the other at least one type of three-dimensional object has at least a part of the periphery of the reference three-dimensional object inside. The game machine according to claim 1, wherein the deformed portion deformed outward has a shape provided at a position where the deformable portion can be observed from the viewpoint. 前記複数種類の3次元オブジェクトのそれぞれは、前記経路に沿った移動方向において相対的に薄く、かつ前記移動方向の前方及び後方のそれぞれに表面及び裏面が向けられた概略偏平な形状を有している請求項1又は2に記載のゲーム機。   Each of the plurality of types of three-dimensional objects is relatively thin in the moving direction along the path, and has a substantially flat shape with a front surface and a back surface directed forward and rearward in the moving direction, respectively. The game machine according to claim 1 or 2. 前記案内手段は、前記複数の所作のそれぞれが行われるべき時期を記述した指示データに基づいて各指示標識を描画するように構成され、
前記判別手段は、前記指示データに基づいて、各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを決定することにより、前記所定の条件に従った判別を実行する請求項1〜3のいずれか一項に記載のゲーム機。
The guide means is configured to draw each indication sign based on indication data describing a time when each of the plurality of actions should be performed,
The determination means performs determination according to the predetermined condition by determining which of the plurality of types of three-dimensional objects is to be used to indicate each instruction sign based on the instruction data. The game machine as described in any one of 1-3.
前記指示データには、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するための描画判別情報が前記時期を記述した情報とは区別された情報として含まれ、
前記判別手段は、前記描画判別情報に基づいて、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別する請求項4に記載のゲーム機。
The indication data includes drawing discrimination information for discriminating which of the plurality of types of three-dimensional objects should be used for drawing each indication marker as information distinguished from information describing the time. ,
The game machine according to claim 4, wherein the determination unit determines which of the plurality of types of three-dimensional objects should be used for drawing each indication mark based on the drawing determination information.
前記描画判別情報として、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを指定するオブジェクト指定情報が前記指示データに含まれ、
前記判別手段は、前記オブジェクト指定情報に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別する請求項5に記載のゲーム機。
As the drawing discriminating information, the instruction data includes object designation information for designating which of the plurality of types of three-dimensional objects is to be used for indicating each indication sign.
The game machine according to claim 5, wherein the determination unit determines which of the plurality of types of three-dimensional objects is to be used for drawing each indication sign according to the object designation information.
前記描画判別情報として、各指示標識にて指示されるべき所作の種類を指定する所作種類情報が前記指示データに含まれ、
前記判別手段は、前記所作種類情報にて指定された所作の種類に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別する請求項5に記載のゲーム機。
As the drawing discriminating information, operation type information for specifying the type of operation to be instructed by each instruction sign is included in the instruction data,
The game machine according to claim 5, wherein the determination unit determines which of the plurality of types of three-dimensional objects is to be used to draw each instruction sign according to the type of operation specified by the operation type information.
前記所定の条件は、前記経路上で互いに隣接する3次元オブジェクトのそれぞれに対応した所作が行われるべき時期の時間間隔と関連付けて設定されている請求項1〜7のいずれか一項に記載のゲーム機。   The said predetermined condition is linked | related with the time interval of the time when the operation | movement corresponding to each of the three-dimensional object which mutually adjoins on the said path | route should be performed, The setting as described in any one of Claims 1-7 game machine. 前記隣接する3次元オブジェクトのそれぞれに対応する所作が行なわれるべき時期の時間間隔が所定値未満となる場合に、該隣接する3次元オブジェクトの種類が互いに相違するように前記所定の条件が設定されている請求項8に記載のゲーム機。   The predetermined condition is set so that the types of the adjacent three-dimensional objects are different from each other when the time interval at which the operation corresponding to each of the adjacent three-dimensional objects is to be performed is less than a predetermined value. The game machine according to claim 8. 前記所定の条件は、前記3次元オブジェクトが前記視点から見える方向とさらに関連付けて設定されている請求項8又は9に記載のゲーム機。   The game machine according to claim 8 or 9, wherein the predetermined condition is set in association with a direction in which the three-dimensional object is seen from the viewpoint. 前記隣接する3次元オブジェクトのそれぞれを観察する際の視野の中心線の方向と、前記隣接する3次元オブジェクトのいずれか一方が見える方向とがなす角度が所定値以上となる場合であって、かつ前記隣接する3次元オブジェクトのそれぞれに対応した所作が行なわれるべき時期の時間間隔が前記所定値未満となる場合において、該隣接する3次元オブジェクトの種類が互いに相違するように前記所定の条件が設定されている請求項10に記載のゲーム機。   The angle between the direction of the center line of the field of view when observing each of the adjacent three-dimensional objects and the direction in which one of the adjacent three-dimensional objects can be seen is a predetermined value or more, and The predetermined condition is set so that the types of the adjacent three-dimensional objects are different from each other when the time interval at which the operation corresponding to each of the adjacent three-dimensional objects is to be performed is less than the predetermined value. The game machine according to claim 10. ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する手順を備えたゲーム機の制御方法であって、
前記案内する手順には、
前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する手順と、
各指示標識が前記複数種類の3次元オブジェクトから前記判別する手順における判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する手順と、
がさらに含まれているゲーム機の制御方法。
In a state where a plurality of three-dimensional objects corresponding to instruction signs for instructing the user each of the plurality of actions to be performed by the user at different times in the game are arranged according to the time intervals of the times at which the actions should be performed A procedure for guiding each user to each action by generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user how to move along the predetermined route in the virtual three-dimensional space. A method for controlling a game machine comprising:
The guiding procedure includes:
A procedure for determining, according to a predetermined condition, which of the plurality of types of three-dimensional objects in which at least one of the shape and the size is different from each other,
A three-dimensional object to be arranged in the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected according to the determination result in the determination procedure from the plurality of types of three-dimensional objects. A procedure to control the selection;
A game machine control method that further includes:
ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段としてゲーム機のコンピュータを機能させるコンピュータプログラムであって、
前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段、及び、
各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段、
として前記案内手段がさらに機能するように構成されているコンピュータプログラム。
In a state where a plurality of three-dimensional objects corresponding to instruction signs for instructing the user each of the plurality of actions to be performed by the user at different times in the game are arranged according to the time intervals of the times at which the actions should be performed A guide that guides the user to each action by generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user how it moves along the predetermined route in the virtual three-dimensional space. A computer program for causing a game machine computer to function as a means,
A discriminating means for discriminating according to a predetermined condition which one of a plurality of types of three-dimensional objects having at least one of shape and size different from each other,
Selection of a three-dimensional object to be arranged in the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected from the plurality of types of three-dimensional objects according to the discrimination result of the discrimination means Selection control means for controlling,
A computer program configured such that the guiding means further functions as:
JP2013242198A 2013-11-22 2013-11-22 GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME Active JP6175714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013242198A JP6175714B2 (en) 2013-11-22 2013-11-22 GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013242198A JP6175714B2 (en) 2013-11-22 2013-11-22 GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME

Publications (2)

Publication Number Publication Date
JP2015100481A true JP2015100481A (en) 2015-06-04
JP6175714B2 JP6175714B2 (en) 2017-08-09

Family

ID=53376733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013242198A Active JP6175714B2 (en) 2013-11-22 2013-11-22 GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME

Country Status (1)

Country Link
JP (1) JP6175714B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115481A1 (en) * 2015-12-28 2017-07-06 株式会社コナミデジタルエンタテインメント Game system, and computer program and server device used in same
JP2019103677A (en) * 2017-12-13 2019-06-27 株式会社セガゲームス Game machine and game program
WO2019130374A1 (en) * 2017-12-25 2019-07-04 ガンホー・オンライン・エンターテイメント株式会社 Terminal device, system, program and method
JP7507442B2 (en) 2023-03-02 2024-06-28 グリー株式会社 PROGRAM, INFORMATION PROCESSING APPARATUS, AND CONTROL METHOD

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006102080A (en) * 2004-10-05 2006-04-20 Ims:Kk Music game apparatus, program and computer readable recording medium
US20070163427A1 (en) * 2005-12-19 2007-07-19 Alex Rigopulos Systems and methods for generating video game content
JP2012075770A (en) * 2010-10-05 2012-04-19 Nintendo Co Ltd Game program, game apparatus, game system and game control method
JP2012141826A (en) * 2010-12-29 2012-07-26 Namco Bandai Games Inc Program, information storage medium, image generation system and server system
JP5433737B2 (en) * 2012-07-06 2014-03-05 株式会社コナミデジタルエンタテインメント Game machine, control method used therefor, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006102080A (en) * 2004-10-05 2006-04-20 Ims:Kk Music game apparatus, program and computer readable recording medium
US20070163427A1 (en) * 2005-12-19 2007-07-19 Alex Rigopulos Systems and methods for generating video game content
JP2012075770A (en) * 2010-10-05 2012-04-19 Nintendo Co Ltd Game program, game apparatus, game system and game control method
JP2012141826A (en) * 2010-12-29 2012-07-26 Namco Bandai Games Inc Program, information storage medium, image generation system and server system
JP5433737B2 (en) * 2012-07-06 2014-03-05 株式会社コナミデジタルエンタテインメント Game machine, control method used therefor, and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115481A1 (en) * 2015-12-28 2017-07-06 株式会社コナミデジタルエンタテインメント Game system, and computer program and server device used in same
JP2017118978A (en) * 2015-12-28 2017-07-06 株式会社コナミデジタルエンタテインメント Game system, and computer program and server device used for the same
KR20180088855A (en) * 2015-12-28 2018-08-07 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game systems, computer programs and server devices used therein
KR102032242B1 (en) * 2015-12-28 2019-10-16 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game systems, computer programs and server devices used in it
JP2019103677A (en) * 2017-12-13 2019-06-27 株式会社セガゲームス Game machine and game program
JP7043821B2 (en) 2017-12-13 2022-03-30 株式会社セガ Game consoles and game programs
WO2019130374A1 (en) * 2017-12-25 2019-07-04 ガンホー・オンライン・エンターテイメント株式会社 Terminal device, system, program and method
JPWO2019130374A1 (en) * 2017-12-25 2019-12-26 ガンホー・オンライン・エンターテイメント株式会社 Terminal device, system, program and method
US10792567B2 (en) 2017-12-25 2020-10-06 GungHo Online Entertainment, Inc. Terminal device, system, program, and method
JP7507442B2 (en) 2023-03-02 2024-06-28 グリー株式会社 PROGRAM, INFORMATION PROCESSING APPARATUS, AND CONTROL METHOD

Also Published As

Publication number Publication date
JP6175714B2 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
US8419516B2 (en) Game system and game program
JP5584665B2 (en) GAME MACHINE, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD
JP6181842B1 (en) Application control program, application control method, and application control system
JP5319750B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5270726B2 (en) GAME MACHINE, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD
JP6175714B2 (en) GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME
TW201206531A (en) Game system and control method thereof
JP5890302B2 (en) Game machine, control method and computer program used therefor
JP4341066B2 (en) Information processing apparatus and image generation program
JP5433737B2 (en) Game machine, control method used therefor, and computer program
JP5925828B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5648029B2 (en) Guide system, control method and computer program used therefor
JP2018185824A (en) Application control program, application control method, and application control system
JP6600051B2 (en) Application control program, application control method, and application control system
JP6611383B2 (en) Application control program, application control method, and application control system
JP2014205061A (en) Game machine, computer program used for the same, and control method
JP5792410B2 (en) Game machine and computer program used therefor
JP7116220B2 (en) Application control program, application control method and application control system
JP6023285B2 (en) Game machine and computer program used therefor
JP6195092B2 (en) Game machine and computer program used therefor
JP6356878B2 (en) Application control program, application control method, and application control system
JP6167408B2 (en) GAME DEVICE AND PROGRAM
JP5744962B2 (en) GAME MACHINE, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD
JP5788930B2 (en) GAME DEVICE AND PROGRAM
JP2022090964A (en) Game program, game processing method, and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170622

R150 Certificate of patent or registration of utility model

Ref document number: 6175714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250