JP2011101752A - Program, information storage medium, and image generating device - Google Patents

Program, information storage medium, and image generating device Download PDF

Info

Publication number
JP2011101752A
JP2011101752A JP2009258293A JP2009258293A JP2011101752A JP 2011101752 A JP2011101752 A JP 2011101752A JP 2009258293 A JP2009258293 A JP 2009258293A JP 2009258293 A JP2009258293 A JP 2009258293A JP 2011101752 A JP2011101752 A JP 2011101752A
Authority
JP
Japan
Prior art keywords
display
instruction
display position
display object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009258293A
Other languages
Japanese (ja)
Inventor
Yasuhiro Nishimoto
泰大 西本
Chihiro Kozasa
千紘 小笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2009258293A priority Critical patent/JP2011101752A/en
Publication of JP2011101752A publication Critical patent/JP2011101752A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium, and an image generating device, which are capable of diversifying a display position of an instruction display object, in a game evaluating the timing of input by a player. <P>SOLUTION: The instruction display object can be variously set at display positions different from a prescribed display position under a prescribed condition. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、及び、画像生成装置に関する。   The present invention relates to a program, an information storage medium, and an image generation apparatus.

従来から、楽曲に合わせてプレーヤが所定の入力を行い、プレーヤがダンスや擬似的な演奏を楽しむゲームための画像を生成する画像生成装置が知られている。このような画像生成装置では、楽曲に対応して記憶されている複数の基準タイミングを指示する指示表示物を、画面の所定表示位置に表示させ、プレーヤの入力タイミングと基準タイミングとを比較して、プレーヤの入力を評価する処理を行っている。例えば、従来の技術として、基準タイミングをプレーヤが作成することが可能なゲームシステムが存在する。(特許文献1、0086〜0096段落、図11参照)。   2. Description of the Related Art Conventionally, there has been known an image generation apparatus that generates an image for a game in which a player inputs a predetermined input in accordance with a music and the player enjoys dancing or playing a pseudo performance. In such an image generation apparatus, an instruction display object for instructing a plurality of reference timings stored in correspondence with the music is displayed at a predetermined display position on the screen, and the input timing of the player is compared with the reference timing. A process for evaluating the input of the player is performed. For example, as a conventional technique, there is a game system in which a player can create a reference timing. (See Patent Document 1, paragraphs 0086 to 0096, FIG. 11).

特開2000−116938JP2000-116938A

しかし、従来の技術は、画面上の予め決められた所定表示位置に指示表示物が表示されるものであったので、指示表示物の表示位置が画一的であり、面白味に欠ていた。   However, in the conventional technique, since the indication display object is displayed at a predetermined display position determined on the screen, the display position of the instruction display object is uniform and lacks in interest.

本発明の目的は、上記課題に鑑みたものであり、プレーヤの入力タイミングを評価する音楽ゲームのための画像生成装置において、指示表示物の表示位置を多様にすることが可能なプログラム、情報記憶媒体、及び、画像生成装置を提供することにある。   An object of the present invention is to solve the above problems, and in an image generation apparatus for a music game for evaluating the input timing of a player, a program and an information storage capable of diversifying the display positions of instruction display objects To provide a medium and an image generation apparatus.

(1)本発明は、画像を生成する処理を行うプログラムであって、楽曲データを再生する処理を行う再生部と、前記楽曲データに対応して記憶されている複数の基準タイミングを指示する指示表示物を、所定表示位置に設定する設定部と、前記指示表示物を含む画像を生成する画像生成部と、各基準タイミングについて、基準タイミングと当該基準タイミングに対する入力部からの入力タイミングとを比較して、プレーヤの入力を評価する評価部として、コンピュータを機能させ、前記設定部が、所定条件下で、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定し、前記画像生成部が、変更された前記表示位置に基づいて、前記指示表示物を含む画像を生成するプログラムに関する。   (1) The present invention is a program that performs processing for generating an image, and includes a playback unit that performs processing for playing music data, and an instruction that instructs a plurality of reference timings stored corresponding to the music data A setting unit that sets a display object at a predetermined display position, an image generation unit that generates an image including the instruction display object, and a reference timing for each reference timing and an input timing from the input unit for the reference timing are compared. Then, the computer is caused to function as an evaluation unit that evaluates the player's input, and the setting unit changes and sets the indication display object to a display position different from the predetermined display position under a predetermined condition, The present invention relates to a program for generating an image including the instruction display object on the basis of the changed display position.

また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関する。また、本発明は、上記各部を含む画像生成装置に関係する。本発明によれば、指示表示物の表示位置を多様にすることができる。   The present invention also relates to an information storage medium that is a computer-readable information storage medium and stores a program that causes a computer to function as each unit. The present invention also relates to an image generation apparatus including the above-described units. According to the present invention, the display position of the instruction display object can be varied.

(2)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、前記入力部からの表示位置制御用の入力情報に基づいて、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定するようにしてもよい。本発明によれば、プレーヤが入力部を用いて表示位置制御の入力を行うことによって、プレーヤが意図する表示位置に指示表示物を設定することが可能となる。つまり、本発明によれば、プレーヤの好みの表示位置に指示表示物を表示させることができる。   (2) In the program, the information storage medium, and the image generation device of the present invention, the setting unit displays the instruction display object on the basis of input information for display position control from the input unit. You may make it change and set to the display position different from a position. According to the present invention, an instruction display object can be set at a display position intended by the player by the player performing display position control input using the input unit. That is, according to the present invention, it is possible to display the instruction display object at the display position preferred by the player.

(3)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、前記指示表示物の表示位置が変更された場合には、変更後の前記指示表示物の表示位置に基づいて他の表示物の表示位置を決定し、決定された表示位置に他の表示物を設定し、前記画像生成部が、前記設定部によって設定された前記他の表示物の表示位置に基づいて、前記他の表示物を含む画像を生成するようにしてもよい。本発明によれば、変更後の指示表示物の表示位置に基づいて他の表示物の表示位置が決定されるので、指示表示物の表示位置を考慮して他の表示物を表示させることができる。   (3) Further, in the program, the information storage medium, and the image generation device of the present invention, the setting unit displays the changed instruction display object when the display position of the instruction display object is changed. The display position of another display object is determined based on the position, the other display object is set at the determined display position, and the display position of the other display object set by the setting unit is set by the image generation unit. Based on the above, an image including the other display object may be generated. According to the present invention, since the display position of the other display object is determined based on the display position of the instruction display object after the change, the other display object can be displayed in consideration of the display position of the instruction display object. it can.

(4)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、複数の指示表示物のうち少なくとも1つの指示表示物の表示位置が変更された場合には、各指示表示物の表示領域が重複しないように他の指示表示物の表示位置を決定し、決定された表示位置に当該他の指示表示物を設定し、前記画像生成部が、前記設定部によって設定された前記各指示表示物の表示位置に基づいて、前記各指示表示物を含む画像を生成するようにしてもよい。例えば、各指示表示物の表示領域が重複してしまうことになると、各指示表示物が見づらくなってしまうが、本発明によれば、複数の指示表示物の表示領域を互いに重複しないように表示させることができるので、この問題点を回避できる。   (4) Further, in the program, the information storage medium, and the image generation device of the present invention, when the setting unit changes the display position of at least one instruction display object among the plurality of instruction display objects, The display position of another instruction display object is determined so that the display areas of each instruction display object do not overlap, the other instruction display object is set at the determined display position, and the image generation unit is configured by the setting unit. Based on the set display position of each instruction display object, an image including each instruction display object may be generated. For example, if the display areas of each instruction display object overlap, it becomes difficult to see each instruction display object. However, according to the present invention, the display areas of a plurality of instruction display objects are displayed so as not to overlap each other. This problem can be avoided.

(5)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、複数の指示表示物のうち少なくとも1つの指示表示物の表示位置が変更された場合には、各指示表示物の重なり度合いに応じて他の指示表示物の表示位置を決定し、決定された表示位置に当該他の指示表示物を設定し、前記画像生成部が、前記設定部によって設定された前記各指示表示物の表示位置に基づいて、前記各指示表示物を含む画像を生成するようにしてもよい。例えば、各指示表示物の表示領域が重複してしまうことになると、各指示表示物が見づらくしまうが、本発明によれば、各指示表示物の重なり度合いを考慮して、各指示表示物それぞれの表示位置を決定するので、この問題を回避できる。   (5) Further, in the program, the information storage medium, and the image generation device of the present invention, when the setting unit changes the display position of at least one instruction display object among the plurality of instruction display objects, The display position of another instruction display object is determined according to the overlapping degree of each instruction display object, the other instruction display object is set at the determined display position, and the image generation unit is set by the setting unit. Further, an image including each instruction display object may be generated based on the display position of each instruction display object. For example, when the display areas of the instruction display objects are overlapped, it is difficult to see the instruction display objects. According to the present invention, each instruction display object is considered in consideration of the overlapping degree of the instruction display objects. This problem can be avoided because the display position is determined.

(6)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記画像生成部が、前記指示表示物を前記所定表示位置とは異なる表示位置に設定された場合には、前記指示表示物及び他の表示物の少なくとも一方の画像データを変更して画像を生成するようにしてもよい。本発明によれば、指示表示物と他の表示物とを識別して表示させることができる。   (6) Further, in the program, the information storage medium, and the image generation device of the present invention, when the image generation unit sets the instruction display object to a display position different from the predetermined display position, An image may be generated by changing the image data of at least one of the instruction display object and the other display object. According to the present invention, it is possible to identify and display an instruction display object and another display object.

(7)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、画面上の所定領域内において、前記指示表示物を設定可能とするようにしてもよい。本発明によれば、指示表示物を設定する画面上の領域を所定領域に制限するので、適切な表示位置に指示表示物を設定することができる。   (7) In the program, the information storage medium, and the image generation apparatus according to the present invention, the setting unit may be configured to set the instruction display object within a predetermined area on the screen. According to the present invention, since the area on the screen where the instruction display object is set is limited to a predetermined area, the instruction display object can be set at an appropriate display position.

(8)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記画像生成部が、前記複数の基準タイミングそれぞれに対応する指示マークを移動方向に移動させて、各基準タイミングを指示する指示表示物を含む画像を生成し、前記設定部が、前記移動方向に基づいて所定方向に前記指示表示物を移動させて設定するようにしてもよい。本発明によれば、指示表示物を設定態様が分かりやすいというメリットがある。   (8) Further, in the program, the information storage medium, and the image generation apparatus of the present invention, the image generation unit moves each indication mark corresponding to each of the plurality of reference timings in the movement direction, and sets each reference timing. An image including an instruction display object to be instructed may be generated, and the setting unit may move and set the instruction display object in a predetermined direction based on the movement direction. According to the present invention, there is an advantage that the setting mode of the instruction display object is easy to understand.

(9)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、所与のプログラムに基づいて、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定するようにしてもよい。本発明によれば、プログラムによって自動的に指示表示物を所定表示位置とは異なる表示位置に変更させることができる。   (9) In the program, the information storage medium, and the image generation apparatus according to the present invention, the setting unit changes the instruction display object to a display position different from the predetermined display position based on a given program. You may make it set. According to the present invention, the instruction display object can be automatically changed to a display position different from the predetermined display position by a program.

(10)また、本発明のプログラム、情報記憶媒体、及び、画像生成装置は、前記設定部が、前記指示表示物の表示位置が変更された場合に、当該表示位置をセーブするセーブ処理部として、コンピュータを更に機能させ、前記設定部が、前記表示位置がセーブされている場合には、セーブされた前記表示位置に基づいて、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定するようにしてもよい。本発明によれば、指示表示物の表示位置が変更されると、次回からはその表示位置に指示表示物を表示させることができる。   (10) Further, in the program, the information storage medium, and the image generation device according to the present invention, the setting unit saves the display position when the display position of the instruction display object is changed. The computer further functions, and when the display position is saved, the setting unit changes the indication display object to a display position different from the predetermined display position based on the saved display position. You may make it set. According to the present invention, when the display position of the instruction display object is changed, the instruction display object can be displayed at the display position from the next time.

本実施形態の画像生成装置の機能ブロック図。The functional block diagram of the image generation apparatus of this embodiment. 本実施形態の画像生成装置を用いてゲームプレイをする際の外観図。The external view at the time of playing a game using the image generation apparatus of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画像生成の説明図。Explanatory drawing of the image generation of this embodiment. 図9(A)〜(E)は仮想カメラの制御の説明図。9A to 9E are explanatory diagrams of control of the virtual camera. 仮想カメラの制御の説明図。Explanatory drawing of control of a virtual camera. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 本実施形態の画面の一例。An example of the screen of this embodiment. 図15(A)(B)は、本実施形態のフローチャート。15A and 15B are flowcharts of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment. 本実施形態の応用例における画面の一例。An example of the screen in the application example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1は、本実施形態の画像生成装置(ゲームシステム)の機能ブロック図の一例である。なお、本実施形態の画像生成装置では、図1の各部をすべて含む必要はなく、その一部を省略した構成としてもよい。
1. Configuration FIG. 1 is an example of a functional block diagram of an image generation apparatus (game system) according to the present embodiment. Note that the image generation apparatus according to the present embodiment does not have to include all the units illustrated in FIG. 1, and may have a configuration in which some of the units are omitted.

入力部160は、入力情報(入力信号)を入力するための機器であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。   The input unit 160 is a device for inputting input information (input signal), and outputs the input information of the player to the processing unit. The input unit 160 according to the present embodiment includes, for example, a lever, a button, a steering, a microphone, a touch panel type display, and the like.

特に、本実施形態の入力部160は、コントローラ161とマット型コントローラ163とを含む。コントローラ161は、Aボタン、Bボタンや十字キーなどの入力情報を検出するボタンや3軸の加速度を検出する加速度センサを備える。マット型コントローラ163の検出部164は、図2に示すように、入力領域A1〜A8を特定することが可能な入力情報を検出する。より詳しく説明すると、マット型コントローラ163は、スイッチ(圧力センサでもよい)が内部に配置され、複数のスイッチに対応する入力領域A1〜A8が押圧されると、検出部162は押圧されたスイッチの信号を検出する。   In particular, the input unit 160 of this embodiment includes a controller 161 and a mat type controller 163. The controller 161 includes a button for detecting input information such as an A button, a B button, and a cross key, and an acceleration sensor for detecting triaxial acceleration. As shown in FIG. 2, the detection unit 164 of the mat type controller 163 detects input information that can specify the input areas A1 to A8. More specifically, the mat-type controller 163 includes a switch (which may be a pressure sensor) disposed therein, and when the input areas A1 to A8 corresponding to the plurality of switches are pressed, the detection unit 162 is connected to the pressed switch. Detect the signal.

また、入力部160は、角速度を検出するジャイロセンサ、撮像部を備えた機器でもよい。例えば、入力部160は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力部160は、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力機器には、入力機器と一体化されているゲーム装置、携帯型ゲーム装置、携帯電話なども含まれる。   The input unit 160 may be a device including a gyro sensor that detects angular velocity and an imaging unit. For example, the input unit 160 may be held and moved by the player, or may be worn by the player and moved. The input unit 160 also includes a controller imitating an actual tool such as a sword-type controller or gun-type controller held by the player, or a glove-type controller worn by the player (attached to the hand of the player). It is. The input device also includes a game device, a portable game device, a mobile phone, and the like integrated with the input device.

また、入力部160は、和太鼓を模した入力部であってもよい。例えば、入力部160は、略円筒状の筒体と筒体の端部に設けられる打面、枠部とを備えるようにし、入力部160は、打面(右打面部、左打面部)、枠部(右枠部、左枠部)それぞれに、打撃されたことを検出可能な打撃センサ(感度センサ)を設け、プレーヤの打面(右打面部、左打面部)、枠部(右枠部、左枠部)それぞれの打撃を検出する検出部を備えるものでもよい。   The input unit 160 may be an input unit that imitates a Japanese drum. For example, the input unit 160 includes a substantially cylindrical tube and a hitting surface and a frame provided at the end of the tube, and the input unit 160 includes a hitting surface (right hitting surface portion, left hitting surface portion), A strike sensor (sensitivity sensor) that can detect that the strike has been made is provided in each of the frame portions (right frame portion, left frame portion), and the player's strike surface (right strike surface portion, left strike surface portion), frame portion (right frame) Part, left frame part) may be provided with a detection part for detecting each hit.

また、入力部160は、加圧センサを備える入力装置(ボード型入力装置)でもよい。例えば、加圧センサが圧力値を検出し、処理部100が圧力値に基づいて処理を行うようにしてもよい。   The input unit 160 may be an input device (board type input device) including a pressure sensor. For example, the pressure sensor may detect the pressure value, and the processing unit 100 may perform processing based on the pressure value.

なお、本実施形態の画像生成装置は、複数の入力部160を備えていてもよい。例えば、第1のプレーヤ用(1P用)のコントローラ161_1、第2のプレーヤ用(2P用)のコントローラ161_2、第1のプレーヤ用(1P用)のマット型コントローラ163_1、第2のプレーヤ用(2P用)のマット型コントローラ163_2を備えていてもよい。   Note that the image generation apparatus of this embodiment may include a plurality of input units 160. For example, a controller 161_1 for the first player (for 1P), a controller 161_2 for the second player (for 2P), a mat type controller 163_1 for the first player (for 1P), and a controller for the second player (2P) ) Mat-type controller 163_2.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

記憶部170は、処理部100のワーク領域として使用される主記憶部171と、画像バッファ172と、表示物データ記憶部173、楽曲データ記憶部174、譜面データ記憶部175、画面構成記憶部176、動作データ記憶部177、所定表示位置記憶部178とを含む。   The storage unit 170 includes a main storage unit 171 used as a work area of the processing unit 100, an image buffer 172, a display object data storage unit 173, a music data storage unit 174, a score data storage unit 175, and a screen configuration storage unit 176. , An operation data storage unit 177, and a predetermined display position storage unit 178.

表示物データ記憶部173には、表示物に関するデータが記憶されている。例えば、ポリゴン、プリミティブ、スプライト、オブジェクト、2次元オブジェクト、3次元オブジェクト等のデータが記憶されている。本実施形態では、表示物データ記憶部173に、プレーヤにマット型コントローラ162への入力を指示する表示物マットM、ダンサーDなどの表示物のデータを記憶している。   The display object data storage unit 173 stores data related to the display object. For example, data such as polygons, primitives, sprites, objects, two-dimensional objects, and three-dimensional objects are stored. In this embodiment, the display object data storage unit 173 stores display object data such as a display object mat M and a dancer D that instructs the player to input to the mat type controller 162.

楽曲データ記憶部174には、再生部112によって生成される楽曲データが記憶される。例えば、楽曲データ記憶部174は、情報記憶媒体180からロードされた楽曲データを記憶する。本実施形態では楽曲データとして、パルス符号変調(PCM)方式などで符号化されたデジタルデータが用いられている。   The music data storage unit 174 stores music data generated by the playback unit 112. For example, the music data storage unit 174 stores music data loaded from the information storage medium 180. In the present embodiment, digital data encoded by a pulse code modulation (PCM) method or the like is used as music data.

譜面データ記憶部175には、楽曲データに対応づけた複数の基準タイミングや、各基準タイミングに対応するマット型コントローラ163の各入力領域A1〜A8を指示する指示内容(指示領域)、表示態様が記憶されている。   The musical score data storage unit 175 includes a plurality of reference timings associated with music data, instruction contents (instruction areas) for indicating the input areas A1 to A8 of the mat type controller 163 corresponding to each reference timing, and display modes. It is remembered.

より具体的に説明すると、譜面データ記憶部175には、楽曲データ再生開始時点からの経過時間(例えば、描画のフレームレートにおいて、楽曲データ再生開始時間を0としたときのフレーム数)によって定義された複数の基準タイミングが記憶されている。   More specifically, the musical score data storage unit 175 is defined by the elapsed time from the music data playback start time (for example, the number of frames when the music data playback start time is 0 at the drawing frame rate). A plurality of reference timings are stored.

また、譜面データ記憶部175には、各基準タイミングの表示態様が記憶されている。つまり、譜面データ記憶部175には、各基準タイミングに対応づけて指示領域B1〜B8のいずれかを記憶すると共に、指示領域の表示態様が記憶されている。例えば、指示領域の表示態様としては、点滅させて表示させる表示態様、各基準タイミングが到来したときに、基準タイミングに対応する指示マークを移動経路(レーン)上の基準位置に達するように移動させるスクロール表示態様、各基準タイミングが到来したときに基準タイミングに対応する指示マークを変形させる表示態様、各基準タイミングが到来したときに基準タイミングに対応する指示マークの色情報を変更させて表示させる表示態様などがある。   The musical score data storage unit 175 stores the display mode of each reference timing. That is, the musical score data storage unit 175 stores one of the instruction areas B1 to B8 in association with each reference timing, and stores the display mode of the instruction area. For example, as the display mode of the indication area, the display mode of blinking display, and when each reference timing arrives, the indication mark corresponding to the reference timing is moved so as to reach the reference position on the movement route (lane). Scroll display mode, display mode for deforming the indication mark corresponding to the reference timing when each reference timing arrives, display for changing the color information of the indication mark corresponding to the reference timing when each reference timing arrives There are aspects.

画面構成記憶部176は、各表示物の表示位置、向き、大きさ(縮小率、拡大率などの倍率)、形状を記憶する。なお、本実施形態の画面構成記憶部176は、仮想カメラの制御情報(仮想カメラの位置、向き、画角)を記憶してもよい。   The screen configuration storage unit 176 stores the display position, orientation, size (magnification such as reduction ratio and enlargement ratio), and shape of each display object. The screen configuration storage unit 176 of the present embodiment may store virtual camera control information (virtual camera position, orientation, and angle of view).

動作データ記憶部177は、楽曲データに対応づけて表示物(例えばダンサーD)の動作データ(モーションデータ、アニメーションデータなど)を記憶する。つまり、動作データ記憶部177には、プレーヤのダンスの見本となるダンサーDの動作データが記憶されている。   The motion data storage unit 177 stores motion data (motion data, animation data, etc.) of a display object (eg, dancer D) in association with music data. That is, the motion data storage unit 177 stores the motion data of the dancer D that serves as a sample of the player's dance.

所定表示位置記憶部178は、複数の表示物それぞれの表示位置を記憶する。本実施形態では、指示表示物の所定表示位置を記憶する。例えば、マットMの所定表示位置、ダンサーDの所定表示位置を記憶する。   The predetermined display position storage unit 178 stores the display positions of the plurality of display objects. In the present embodiment, a predetermined display position of the instruction display object is stored. For example, the predetermined display position of the mat M and the predetermined display position of the dancer D are stored.

情報記憶媒体180は、コンピュータにより読み取り可能な媒体であって、プログラムやデータなどを格納するものである。情報記憶媒体180は、例えば、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などである。   The information storage medium 180 is a computer-readable medium and stores programs, data, and the like. The information storage medium 180 is, for example, an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, a hard disk, a magnetic tape, or a memory (ROM).

情報記憶媒体180には、処理部100において種々の処理を行うためのプログラムやデータが記憶されている。即ち、この情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。なお、情報記憶媒体180には、記憶部170が記憶するデータを記憶し、必要に応じてプログラムが情報記憶媒体180から記憶部170にデータをロードさせるようにしてもよい。   The information storage medium 180 stores programs and data for performing various processes in the processing unit 100. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). Note that data stored in the storage unit 170 may be stored in the information storage medium 180, and a program may load data from the information storage medium 180 to the storage unit 170 as necessary.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。そして、表示部190は、画像生成部120が生成した画像を表示させる処理を行う。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. Then, the display unit 190 performs processing for displaying the image generated by the image generation unit 120.

音出力部192は、再生部112によって再生される音や、音生成部130によって生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。なお、音出力部192は、楽曲データの再生音だけでなく、入力部160からの入力音(打撃音)なども出力してもよい。   The sound output unit 192 outputs the sound reproduced by the reproduction unit 112 or the sound generated by the sound generation unit 130, and the function can be realized by a speaker or headphones. Note that the sound output unit 192 may output not only the music data playback sound but also the input sound (battering sound) from the input unit 160.

通信部196は外部(例えば、他の画像生成装置、サーバ、端末)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, other image generation apparatuses, servers, terminals), and functions thereof include hardware such as various processors or communication ASICs, It can be realized by a program.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して画像生成装置を機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case of receiving the program and data and causing the image generating apparatus to function is also included in the scope of the present invention.

処理部100(プロセッサ)は、入力部160からの出力データやプログラムなどに基づいて、ゲーム処理、画像生成処理、音生成処理などの処理を行う。この処理部100は、記憶部170(主記憶部171)をワーク領域として各種処理を行い、その機能は各種プロセッサ(CPU、DSP等)、各種集積回路(IC、ASIC)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, and sound generation processing based on output data from the input unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 (main storage unit 171) as a work area, and functions thereof are hardware such as various processors (CPU, DSP, etc.), various integrated circuits (IC, ASIC), It can be realized by a program.

特に、本実施形態の処理部100は、受け付け部111、再生部112、設定部113、評価部114、ゲーム演算部115、セーブ処理部116、画像生成部120、音生成部130とを含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 100 of the present embodiment includes a receiving unit 111, a playback unit 112, a setting unit 113, an evaluation unit 114, a game calculation unit 115, a save processing unit 116, an image generation unit 120, and a sound generation unit 130. Note that some of these may be omitted.

受け付け部111は、入力部160からの入力情報を受け付ける処理を行う。例えば、受け付け部111は、コントローラ161から入力される表示位置制御用の入力情報を受け付ける。また、マット型コントローラ163の検出部164が検出した各入力領域A1〜A8の入力情報を受け付ける。   The accepting unit 111 performs processing for accepting input information from the input unit 160. For example, the reception unit 111 receives display position control input information input from the controller 161. In addition, the input information of each of the input areas A1 to A8 detected by the detection unit 164 of the mat type controller 163 is received.

再生部112は、楽曲データ記憶部174に記憶されている楽曲データの再生処理を行う。例えば、再生部112は、楽曲データの音の波形を音出力部192に出力するものであり、その機能は、楽曲データに基づいて楽曲データ音の波形を生成する集積回路(音源IC)などのハードウェアや、プログラムなどにより実現できる。   The playback unit 112 performs playback processing of music data stored in the music data storage unit 174. For example, the playback unit 112 outputs a sound waveform of music data to the sound output unit 192, and the function thereof is an integrated circuit (sound source IC) that generates a waveform of music data sound based on the music data. This can be realized by hardware or a program.

設定部113は、表示位置(スクリーン上の位置、画面上の位置)に表示物を設定(配置)する処理を行なう。例えば、設定部113は、楽曲データに対応して記憶されている複数の基準タイミングを指示する指示表示物を、所定表示位置(デフォルト表示位置)に設定する処理を行う。また、設定部113は、複数の基準タイミングを指示する指示表示物としてマットMを所定表示位置P1(X1,Y1)に設定する処理を行う。   The setting unit 113 performs processing for setting (arranging) a display object at a display position (position on the screen, position on the screen). For example, the setting unit 113 performs a process of setting an instruction display object for instructing a plurality of reference timings stored corresponding to music data to a predetermined display position (default display position). In addition, the setting unit 113 performs a process of setting the mat M to a predetermined display position P1 (X1, Y1) as an instruction display object for instructing a plurality of reference timings.

また、設定部113は、所定条件下で、指示表示物を所定表示位置とは異なる表示位置に設定する。例えば、設定部113は、コントローラ161からの表示位置制御用の入力情報に基づいて、指示表示物を所定表示位置P1(X1,Y1)とは異なる表示位置P2(X2,Y2)に設定する。   Further, the setting unit 113 sets the instruction display object at a display position different from the predetermined display position under a predetermined condition. For example, the setting unit 113 sets the instruction display object to a display position P2 (X2, Y2) different from the predetermined display position P1 (X1, Y1) based on input information for display position control from the controller 161.

また、設定部113は、指示表示物の表示位置がセーブされている場合に、セーブされた表示位置に指示表示物を設定する。例えば、画像構成記憶部176に、マットMの表示位置P2(X2,Y2)が記憶されている場合には、マットMを表示位置P2(X2,Y2)に設定する処理を行う。   Further, when the display position of the instruction display object is saved, the setting unit 113 sets the instruction display object at the saved display position. For example, when the display position P2 (X2, Y2) of the mat M is stored in the image configuration storage unit 176, processing for setting the mat M to the display position P2 (X2, Y2) is performed.

また、設定部113は、指示表示物を所定表示位置とは異なる表示位置に設定した場合には、指示表示物の表示位置に基づいて、他の表示物の表示位置を決定し、決定された表示位置に他の表示物を設定するようにしてもよい。例えば、マットMがP2(X2,Y2)に設定された場合には、ダンサーD、木、壁などの他の表示物の各表示位置を決定し、それぞれ決定された表示位置に各表示物を設定する。   In addition, when the instruction display object is set to a display position different from the predetermined display position, the setting unit 113 determines the display position of another display object based on the display position of the instruction display object. Another display object may be set at the display position. For example, when the mat M is set to P2 (X2, Y2), the display positions of other display objects such as the dancer D, the tree, and the wall are determined, and the display objects are respectively determined at the determined display positions. Set.

また、設定部113は、複数の指示表示物のうち少なくとも1つの指示表示物の表示位置が変更された場合には、各指示表示物の表示領域が重複しないように、他の指示表示物の表示位置を決定し、決定された表示位置に他の指示表示物を設定するようにしてもよい。例えば、マットMが所定表示位置P1(X1,Y1)からP2(X2,Y2)に変更された場合には、マットMの表示領域とダンサーDの表示領域とが重複しないように、ダンサーDの表示位置を決定し、決定された表示位置にダンサーDを設定してもよい。   In addition, when the display position of at least one instruction display object among the plurality of instruction display objects is changed, the setting unit 113 sets other instruction display objects so that the display areas of the instruction display objects do not overlap. The display position may be determined, and another indication display object may be set at the determined display position. For example, when the mat M is changed from a predetermined display position P1 (X1, Y1) to P2 (X2, Y2), the display area of the dancer D is not overlapped with the display area of the dancer D. The display position may be determined, and the dancer D may be set at the determined display position.

また、設定部113は、複数の指示表示物のうち少なくとも1つの指示表示物の表示位置が変更された場合には、各指示表示物の重なり度合いに応じて、他の指示表示物の表示位置を決定し、決定された表示位置に当該他の指示表示物を設定するようにしてもよい。例えば、マットMが所定表示位置P1(X1,Y1)からP2(X2,Y2)に変更された場合には、ダンサーDの表示領域に対する重複領域(ダンサーDの表示領域とマットMの表示領域との重複領域)の比率が0.5(50%)以下になるように、ダンサーDの表示位置を決定するようにしてもよい。また、ダンサーDの特定の部位(上半身)がマットMと重複しないようにダンサーDの表示位置を決定するようにしてもよい。例えば、ダンサーDの特定部位の代表点がマットの表示領域に属さないように制御してもよい。   In addition, when the display position of at least one instruction display object among the plurality of instruction display objects is changed, the setting unit 113 displays the display positions of other instruction display objects according to the overlapping degree of the instruction display objects. And the other indication display object may be set at the determined display position. For example, when the mat M is changed from the predetermined display position P1 (X1, Y1) to P2 (X2, Y2), the overlapping area (the display area of the dancer D and the display area of the mat M) with respect to the display area of the dancer D The display position of the dancer D may be determined so that the ratio of (overlapping area) is 0.5 (50%) or less. Further, the display position of the dancer D may be determined so that a specific part (upper body) of the dancer D does not overlap with the mat M. For example, the representative point of the specific part of the dancer D may be controlled so as not to belong to the display area of the mat.

また、設定部113は、画面上の所定領域内の表示位置に、指示表示物を設定するようにしてもよい。また、設定部113は、指示表示物を、所定方向に移動させて設定するようにしてもよい。   The setting unit 113 may set an instruction display object at a display position within a predetermined area on the screen. The setting unit 113 may set the instruction display object by moving it in a predetermined direction.

評価部114は、各基準タイミングについて、基準タイミングと当該基準タイミングに対する入力部160からの入力タイミングとを比較して、プレーヤの入力を評価する処理を行う。なお、入力タイミングの判定は、基準タイミングとして設定されたフレームを基準として、時間単位で行う。例えば、評価部114は、プレーヤが踏み動作によってマット型コントローラ163が検出した入力情報の入力タイミングと、楽曲データ再生開始時点を基準に設定された基準タイミングとの一致度(時間的なズレの程度)を判定し、判定結果に基づいてプレーヤの入力を評価する処理を行う。例えば、本実施形態の評価部114は、入力タイミングと基準タイミングとの一致度を、「良」、「可」、「不可」の3段階にて評価する処理を行うようにしてもよい。   For each reference timing, the evaluation unit 114 compares the reference timing with the input timing from the input unit 160 with respect to the reference timing, and performs processing for evaluating the player's input. The input timing is determined in units of time with reference to the frame set as the reference timing. For example, the evaluation unit 114 matches the degree of coincidence (degree of temporal deviation) between the input timing of the input information detected by the mat type controller 163 by the player's stepping motion and the reference timing set based on the music data reproduction start time point. ) And a process of evaluating the player's input based on the determination result. For example, the evaluation unit 114 according to the present embodiment may perform processing for evaluating the degree of coincidence between the input timing and the reference timing in three stages of “good”, “good”, and “impossible”.

例えば、評価部114は、基準タイミングそれぞれに対応する指示内容と、プレーヤの入力タイミングに入力されたマット型コントローラ163への入力情報とを比較して、プレーヤの入力を評価する処理を行う。つまり、基準タイミングと入力タイミングとの一致度と、基準タイミングで指示した指示内容と入力情報とが一致しているか否かを判定して、プレーヤの入力を評価する。   For example, the evaluation unit 114 performs a process of evaluating the input of the player by comparing the instruction content corresponding to each reference timing with the input information to the mat type controller 163 input at the input timing of the player. In other words, the player's input is evaluated by determining the degree of coincidence between the reference timing and the input timing, and whether the instruction content instructed at the reference timing matches the input information.

例えば、評価部114は、基準タイミングT1での指示内容がプレーヤに入力領域A6への入力を指示するものであって、実際に、基準タイミングT1において入力領域A6の入力情報を受け付け、基準タイミングと入力タイミングとが一致している場合には、プレーヤの入力を「良」と評価する処理を行う。また、例えば、基準タイミングと入力タイミングとの差が所定時間内であれば「可」と評価し、基準タイミングと入力タイミングとの差が所定時間外である場合には「不可」と評価する。   For example, the evaluation unit 114 instructs the player to input to the input area A6 at the reference timing T1, and actually receives the input information of the input area A6 at the reference timing T1, If the input timing matches, processing for evaluating the player's input as “good” is performed. For example, if the difference between the reference timing and the input timing is within a predetermined time, it is evaluated as “possible”, and if the difference between the reference timing and the input timing is outside the predetermined time, it is evaluated as “not possible”.

ゲーム演算部115は、ゲームを開始させる処理、終了させる処理、スコアゲージe1、点数e2、コンボ数e3(例えば、連続して「良」の評価を得た数)を求める処理、ゲームの演算結果を求める処理、入力部160からの入力情報に基づき、楽曲データの選択を受け付けるようにしてもよい。   The game calculation unit 115 is a process for starting a game, a process for ending the game, a score gauge e1, a score e2, a combo number e3 (for example, a number that has been continuously evaluated as “good”), and a game calculation result. The selection of music data may be received based on the processing for obtaining the input information and the input information from the input unit 160.

より具体的に説明すると、本実施形態のゲーム演算部115は、評価部114の評価に応じた点数(例えば「良」は2点、「可」は1点、「不可」は0点)を、点数e2に加算する処理を行う。また、ゲーム演算部115は、再生部112が楽曲データの再生を終了した後に、点数e2を0〜100%の値に変換したスコアゲージe1が、しきい値以上か否かを判定する処理を行い、判定結果(ゲーム結果)を表示部190に表示させる処理を行う。例えば、スコアゲージe1がノルマ値を超えた場合には、次の楽曲データの選択を受け付けて、次の楽曲データを再生し、プレーヤの入力を評価する処理に進む。一方、スコアゲージe1がノルマ値以下であるとゲームを終了させる処理を行っている。   More specifically, the game calculation unit 115 according to the present embodiment calculates a score (for example, “good” is 2 points, “good” is 1 point, and “impossible” is 0 point) according to the evaluation of the evaluation unit 114). Then, a process of adding to the score e2 is performed. Further, the game calculation unit 115 performs a process of determining whether or not the score gauge e1 obtained by converting the score e2 into a value of 0 to 100% after the reproduction unit 112 finishes reproducing the music data is equal to or greater than a threshold value. The determination result (game result) is displayed on the display unit 190. For example, when the score gauge e1 exceeds the normal value, the selection of the next music data is accepted, the next music data is reproduced, and the process proceeds to a process of evaluating the player input. On the other hand, when the score gauge e1 is equal to or less than the normal value, a process for ending the game is performed.

セーブ処理部116は、画面構成に関するデータを画面構成記憶部176に記憶する処理を行う。例えば、表示物の画面上の表示位置、向き、大きさ(倍率)、形状や、表示物の3次元オブジェクト空間内における位置、仮想カメラの位置、仮想カメラの向き、仮想カメラの画角を画面構成記憶部176に記憶する処理を行う。   The save processing unit 116 performs processing for storing data relating to the screen configuration in the screen configuration storage unit 176. For example, display position, orientation, size (magnification), shape of display object on screen, position of display object in 3D object space, position of virtual camera, direction of virtual camera, angle of view of virtual camera on screen Processing to be stored in the configuration storage unit 176 is performed.

例えば、セーブ処理部116は、指示表示物の表示位置が変更された場合に、その表示位置をセーブする処理を行う。具体的には、マットMを所定表示位置P1(X1,Y1)からP2(X2,Y2)に変更された場合には、その表示位置P2(X2,Y2)を画面構成記憶部176にセーブする処理を行う。また、マットMの表示位置P2に基づいて設定される他の表示物の表示位置、ダンサーDの表示位置などを、画面構成記憶部176にセーブする処理を行うようにしてもよい。また、セーブ処理部116は、入力部160から、セーブ用の入力情報を受け付けた場合に、指示表示物の表示位置を記憶するようにしてもよい。   For example, when the display position of the instruction display object is changed, the save processing unit 116 performs a process of saving the display position. Specifically, when the mat M is changed from the predetermined display position P1 (X1, Y1) to P2 (X2, Y2), the display position P2 (X2, Y2) is saved in the screen configuration storage unit 176. Process. Further, a process of saving the display position of other display objects set based on the display position P2 of the mat M, the display position of the dancer D, and the like in the screen configuration storage unit 176 may be performed. Further, the save processing unit 116 may store the display position of the instruction display object when the input information for saving is received from the input unit 160.

画像生成部120は、処理部100で行われる種々の処理の結果に基づいて画像を生成する処理を行い、生成された画像を表示部190に出力する。画像生成部120が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元空間に配置された表示物を仮想カメラから見えた画像(3次元画像)であってもよい。   The image generation unit 120 performs processing for generating an image based on the results of various processing performed by the processing unit 100, and outputs the generated image to the display unit 190. The image generated by the image generation unit 120 may be a so-called two-dimensional image, or may be an image (a three-dimensional image) in which a display object arranged in a so-called three-dimensional space is seen from a virtual camera.

2次元画像を生成する場合には、例えば、表示物(オブジェクト、スプライト)毎に優先度を設定し、設定された優先度が低い表示物から順に描画する。オブジェクト同士が重なる場合には、優先度が低いオブジェクトの上に、優先度の高いオブジェクトを描画する。   In the case of generating a two-dimensional image, for example, a priority is set for each display object (object, sprite), and rendering is performed in order from a display object with a lower priority. When objects overlap, an object with a high priority is drawn on an object with a low priority.

具体的には画像生成部120は、画像バッファ172(フレームバッファあるいは中間バッファなどのバッファ。VRAM。)に表示物(オブジェクト)を描画する。そして画像生成部120は、1フレーム(例えば1/60秒)毎に画像情報を更新する。なお、フレームは、オブジェクトの移動・動作処理や画像生成処理を行う時間の単位である。   Specifically, the image generation unit 120 draws a display object (object) in an image buffer 172 (a buffer such as a frame buffer or an intermediate buffer; VRAM). Then, the image generation unit 120 updates the image information every frame (for example, 1/60 seconds). Note that a frame is a unit of time for performing object movement / motion processing and image generation processing.

いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値
等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、画像生成部120は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、3次元の画像を生成する場合には、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。また、画像生成部120は、仮想カメラを、予め決められた回転角度で回転させてもよい。この場合には、仮想カメラの位置又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   The image generation unit 120 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, when generating a three-dimensional image, the virtual camera position (X, Y, Z) or rotation angle (for example, from the positive direction of each of the X, Y, and Z axes) in the world coordinate system is used. (Rotation angle when turning clockwise) is controlled. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed. The image generation unit 120 may rotate the virtual camera at a predetermined rotation angle. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

例えば仮想カメラによりオブジェクト(例えば、ダンサーD)を後方から撮影する場合には、オブジェクトの位置、向きの変化に仮想カメラが追従するように、仮想カメラの位置、仮想カメラの向きを制御する。この場合には、オブジェクトの位置、向き又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた向きに設定したり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は向きを特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when an object (for example, dancer D) is photographed from behind using a virtual camera, the position of the virtual camera and the direction of the virtual camera are controlled so that the virtual camera follows changes in the position and orientation of the object. In this case, the virtual camera can be controlled based on information such as the position, orientation, or speed of the object. Alternatively, the virtual camera may be set in a predetermined direction or may be controlled to move along a predetermined movement route. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or orientation of the virtual camera.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして画像生成部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The image generation unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

また、画像生成部120は、プログラム(移動アルゴリズム)に基づいて、オブジェクト(例えば、ダンサーD)をオブジェクト空間内で移動させたり、動作データ記憶部177に記憶された動作データなどに基づいて、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作データを、1フレーム(例えば、1/60秒)毎に順次求める処理を行う。そして、画像生成部120は、移動・動作させたオブジェクトの画像を生成する処理を行う。   The image generation unit 120 moves the object (for example, dancer D) in the object space based on a program (movement algorithm), or moves the object based on motion data stored in the motion data storage unit 177. Perform processing to move (motion, animation). Specifically, a process of sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion data every frame (for example, 1/60 second) is performed. Then, the image generation unit 120 performs processing for generating an image of the moved / moved object.

また、本実施形態の画像生成部120は、設定部113によって設定された指示表示物の表示位置に基づいて、指示表示物を含む画像を生成する処理を行う。例えば、画像生成部120は、マット型コントローラ163への入力を指示する2次元表示物のマットMを指示表示物とする画像を生成する処理を行う。   In addition, the image generation unit 120 according to the present embodiment performs processing for generating an image including an instruction display object based on the display position of the instruction display object set by the setting unit 113. For example, the image generation unit 120 performs a process of generating an image using the two-dimensional display object mat M instructing an input to the mat type controller 163 as an instruction display object.

例えば、本実施形態の画像生成部120は、オブジェクト空間に配置されたダンサーDを仮想カメラから見える画像を生成する。例えば、仮想カメラの位置、向き、画角を制御して仮想カメラから見えるダンサーDを含む画像を生成する処理を行う。そして、生成された画像と表示位置に設定されたマットMの画像とを合成して、出力する画像を生成する処理を行う。   For example, the image generation unit 120 according to the present embodiment generates an image in which the dancer D arranged in the object space can be seen from the virtual camera. For example, processing for generating an image including a dancer D that can be seen from the virtual camera by controlling the position, orientation, and angle of view of the virtual camera is performed. Then, the generated image and the image of the mat M set at the display position are combined to generate an output image.

また、画像生成部120は、フレーム毎に、基準タイミングに対応する指示マークを、その基準タイミングで基準位置に達する(到達する)ように、移動方向に所定の移動速度で移動させる画像を生成してもよい。   Further, the image generation unit 120 generates an image for moving the instruction mark corresponding to the reference timing for each frame at a predetermined movement speed in the movement direction so as to reach (reach) the reference position at the reference timing. May be.

音生成部130は、ゲーム演算部115の演算結果に基づいて、効果音やゲーム音を生成する処理を行う。   The sound generation unit 130 performs processing for generating sound effects and game sounds based on the calculation result of the game calculation unit 115.

2.概要
本実施形態は、楽曲データを再生し、予め定められた楽曲データの基準タイミングに合わせて、プレーヤがマット型コントローラ163を用いてダンスゲームを行うための画像を生成する画像生成装置である。
2. Outline This embodiment is an image generation apparatus that reproduces music data and generates an image for a player to perform a dance game using a mat-type controller 163 in accordance with a predetermined reference timing of music data.

図2は、プレーヤが、表示部190に表示される画像を見ながら、プレーヤがダンスゲームをプレイする様子を示した図である。例えば、プレーヤは、画像のダンサーD(指示表示物の一例)の動作や、マットM(指示表示物の一例)に表示される基準タイミングの入力指示内容を確認しながら、マット型コントローラ163の入力領域A1〜A8に対して入力操作(例えば踏む動作)を行う。例えば、図3に示すように、マットMは、マット型コントローラ163を模した表示物であり、指示領域B1〜B8は、マット型コントローラ162の各入力領域A1〜A8に対応づけられている。   FIG. 2 is a diagram illustrating a state in which the player plays a dance game while viewing the image displayed on the display unit 190. For example, the player inputs the input of the mat type controller 163 while confirming the operation of the image dancer D (an example of the instruction display object) and the input instruction content of the reference timing displayed on the mat M (an example of the instruction display object). An input operation (for example, a stepping operation) is performed on the areas A1 to A8. For example, as shown in FIG. 3, the mat M is a display object simulating the mat type controller 163, and the instruction areas B <b> 1 to B <b> 8 are associated with the input areas A <b> 1 to A <b> 8 of the mat type controller 162.

本実施形態では、楽曲データの再生に連動して、予め定義付けれた複数の基準タイミングと入力部160で検出された入力タイミングとを比較してプレーヤの入力を評価する処理を行う。本実施形態では、基準タイミングT1と入力タイミングとの一致度(ズレの程度)や、指示した指示内容と、プレーヤが入力タイミングで入力した入力情報とが一致しているか否かを評価している。そして、例えば、基準タイミングにおいて入力指示した入力領域に対する入力情報が検出されると、プレーヤの入力に対して「良」とする評価を行い、基準タイミングを基準とする所定期間内において入力指示した入力領域に対する入力情報が検出されない場合には、プレーヤの入力に対して「不可」とする評価を行う。   In the present embodiment, in conjunction with the reproduction of the music data, a process for evaluating a player's input by comparing a plurality of predefined reference timings with the input timing detected by the input unit 160 is performed. In the present embodiment, the degree of coincidence (degree of deviation) between the reference timing T1 and the input timing, or the instruction content instructed and whether or not the input information input by the player at the input timing coincides are evaluated. . For example, when input information for the input area instructed to be input at the reference timing is detected, the player's input is evaluated as “good”, and the input instructed for input within a predetermined period based on the reference timing. If the input information for the area is not detected, an evaluation of “impossible” for the player input is performed.

また、本実施形態では、マットMとダンサーDをマット型コントローラ163の入力領域A1〜A8への入力を指示する指示表示物を含む画像を生成して表示部190に表示させる処理を行っている。例えば、図3に示すように、所与の基準タイミングT1にマット型コントローラ163の入力領域A3の入力を指示する場合には、マットMの指示領域B3を他の指示領域と識別して画像を生成して表示させる。例えば、本実施形態では、基準タイミングT1において入力領域A3の入力を指示する場合には、基準タイミングT1において指示領域B3を点滅させる処理を行う。   Further, in the present embodiment, a process of generating an image including an instruction display object for instructing the mat M and the dancer D to input to the input areas A1 to A8 of the mat type controller 163 and displaying the image on the display unit 190 is performed. . For example, as shown in FIG. 3, when the input of the input area A3 of the mat type controller 163 is instructed at a given reference timing T1, the instruction area B3 of the mat M is identified from the other instruction areas and the image is displayed. Generate and display. For example, in this embodiment, when the input of the input area A3 is instructed at the reference timing T1, a process of blinking the instruction area B3 at the reference timing T1 is performed.

そして、本実施形態では、所定条件下で、指示表示物の表示位置を所定表示位置とは異なる位置に設定する処理を行う。本実施形態は、例えば、マットMやダンサーDなどの指示表示物を、プレーヤが画面上の任意の位置に移動させることができる。このようにすれば、プレーヤの好みに合わせた画像を表示させることができ、バリエーションに富んだ画像を表示させることができる。   In this embodiment, processing for setting the display position of the instruction display object to a position different from the predetermined display position is performed under a predetermined condition. In the present embodiment, for example, the player can move an instruction display object such as a mat M or a dancer D to an arbitrary position on the screen. In this way, it is possible to display an image that suits the player's preference and display an image rich in variations.

3.指示表示物の設定
(1)プレーヤが指示した表示位置に指示表示物を設定する手法
本実施形態では、図3に示すように、初期状態において指示表示物を所定表示位置(デフォルトの表示位置)P1に設定している。そして、図4に示すように、コントローラ161から表示位置制御用の入力情報を受け付けると、表示位置制御用の入力情報に基づいて、マットMの表示位置を決定し、決定された表示位置にマットMを設定する処理を行う。より具体的に説明すると、コントローラ161からの表示位置制御用の入力情報に基づいて指定される位置が点P2(X2,Y2)であるとすると、マットMを、所定表示位置P1(X1,X1)から点P2(X2,Y2)に移動させる処理を行う。言い換えると、マットMの基準点L(例えば中心点)を、点P2(X2,Y2)に一致させる処理を行う。
3. Setting of instruction display object (1) Method of setting instruction display object at display position instructed by player In the present embodiment, as shown in FIG. 3, the instruction display object is displayed at a predetermined display position (default display position) in the initial state. P1 is set. Then, as shown in FIG. 4, when input information for display position control is received from the controller 161, the display position of the mat M is determined based on the input information for display position control, and the mat is displayed at the determined display position. A process of setting M is performed. More specifically, assuming that the position designated based on the display position control input information from the controller 161 is the point P2 (X2, Y2), the mat M is set to the predetermined display position P1 (X1, X1). ) To the point P2 (X2, Y2). In other words, a process of matching the reference point L (for example, the center point) of the mat M with the point P2 (X2, Y2) is performed.

本実施形態では、画面に確実にマットMを表示させるようにするために、マットMの表示位置を調整するようにしてもよい。例えば、プレーヤが指示した表示位置にマットMを設定してしまうと、マットの一部(入力を指示する指示領域の一部など)が見えなくなってしまう場合がある。そこで、マットMの表示領域の全部又は一部が画面外に出てしまう場合には、自動的に、マットMの表示領域が画面内に収まるようにマットMの表示位置を調整(再設定)するようにしてもよい。例えば、マットMの各頂点a1〜a4が画面内に位置するように調整する。   In the present embodiment, the display position of the mat M may be adjusted in order to display the mat M reliably on the screen. For example, if the mat M is set at the display position instructed by the player, a part of the mat (such as a part of the instruction area for instructing input) may not be visible. Therefore, when all or part of the display area of the mat M goes out of the screen, the display position of the mat M is automatically adjusted (reset) so that the display area of the mat M fits within the screen. You may make it do. For example, adjustment is performed so that the vertices a1 to a4 of the mat M are positioned in the screen.

また、本実施形態では、マットMの表示比率(マットMの領域が画面に表示される割合)が所定比率以上になるように、マットMの表示位置を調整するようにしてもよい。例えば、マットMの表示比率(マットMの全体の領域に対する画面に表示されるマットMの領域)が、90%以上になるように、マットMの表示位置を調整するようにしてもよい。   In the present embodiment, the display position of the mat M may be adjusted so that the display ratio of the mat M (the ratio at which the area of the mat M is displayed on the screen) is equal to or higher than a predetermined ratio. For example, the display position of the mat M may be adjusted so that the display ratio of the mat M (the area of the mat M displayed on the screen with respect to the entire area of the mat M) is 90% or more.

(2)指示表示物の大きさを変更する手法
また、本実施形態では、マットMの大きさを変更するようにしてもよい。例えば、プレーヤが初心者の場合であったり視力が劣る場合には、マットMを拡大させた方が、マットMに表示される指示内容を容易に認識できる。そこで、本実施形態では、図5に示すように、所定条件下で、マットMを拡大させる処理を行う。例えば、コントローラ161から拡大表示用の入力情報を受け付けた場合には、マットMの基準点Lを中心にマットMを拡大させる処理を行う。
(2) Method of changing the size of the instruction display object In the present embodiment, the size of the mat M may be changed. For example, when the player is a beginner or the visual acuity is poor, the instruction contents displayed on the mat M can be easily recognized when the mat M is enlarged. Therefore, in the present embodiment, as shown in FIG. 5, processing for enlarging the mat M is performed under a predetermined condition. For example, when input information for enlarged display is received from the controller 161, a process for enlarging the mat M around the reference point L of the mat M is performed.

また、本実施形態では、図5に示すように、マットMの拡大に応じて、ダンサーDを縮小させて表示させるようにしてもよい。例えば、マットMを2倍の大きさに拡大した場合には、ダンサーDを所定の大きさよりも0.5倍の大きさに縮小する。通常、マットMを拡大させる操作を行うプレーヤは初級レベルの技量であると考えられ、ダンサーDの動作をあまり重視しない傾向にあるからである。   Further, in the present embodiment, as shown in FIG. 5, the dancer D may be reduced and displayed in accordance with the enlargement of the mat M. For example, when the mat M is enlarged to twice the size, the dancer D is reduced to 0.5 times larger than a predetermined size. This is because a player who performs an operation of enlarging the mat M is considered to have a skill level at an elementary level, and the movement of the dancer D tends to be less important.

また、本実施形態では、図6に示すように、マットMを縮小させるようにしてもよい。例えば、コントローラ161から縮小表示用の入力情報を受け付けた場合には、マットMの基準点Lを中心に、マットMを縮小させる処理を行う。このようにすれば、マットMの存在を煩わしく感じるプレーヤの不満を軽減させることができる。   In the present embodiment, the mat M may be reduced as shown in FIG. For example, when input information for reduced display is received from the controller 161, a process of reducing the mat M around the reference point L of the mat M is performed. In this way, it is possible to reduce the dissatisfaction of the player who feels the presence of the mat M troublesome.

また、本実施形態では、図6に示すように、マットMの縮小に応じて、ダンサーDを拡大させて表示させるようにしてもよい。例えば、マットMを0.5倍の大きさに縮小した場合には、ダンサーDを2倍の大きさに拡大する。通常、マットMを縮小させる操作を行う場合、プレーヤは上級レベルの技量であると考えられ、ダンサーDの動作を重視し、マットMをあまり重視しない傾向にあるからである。   In the present embodiment, as shown in FIG. 6, the dancer D may be enlarged and displayed in accordance with the reduction of the mat M. For example, when the mat M is reduced to a size of 0.5 times, the dancer D is enlarged to a size of 2 times. Usually, when performing an operation for reducing the mat M, the player is considered to have a high level skill, and the player tends to focus on the action of the dancer D and not much on the mat M.

(3)指示表示物の変更
また、本実施形態では、図7に示すように、マット型コントローラ163を背後から見た場合における指示内容を示すマットM´を表示させるようにしてもよい。例えば、コントローラ161から、マットMからマットM´へ変更する入力情報を受け付けると、画面上においてマットMに替えてマットM´を配置する処理を行う。
(3) Change of Instruction Display Object In the present embodiment, as shown in FIG. 7, a mat M ′ indicating instruction contents when the mat type controller 163 is viewed from behind may be displayed. For example, when input information for changing from the mat M to the mat M ′ is received from the controller 161, a process of arranging the mat M ′ instead of the mat M on the screen is performed.

(4)指示表示物の向きを変更する手法
本実施形態では、指示表示物の向きを変更できるようにしてもよい。例えば、マットMの基準点Lを基準に、マットMを90度回転させる処理を行うようにする。このようにすれば、例えば、好みの向きでマットMに表示される入力の指示内容を容易に認識することができる。
(4) Method of Changing Direction of Instruction Display Object In this embodiment, the direction of the instruction display object may be changed. For example, the mat M is rotated by 90 degrees with reference to the reference point L of the mat M. In this way, for example, it is possible to easily recognize the input instruction content displayed on the mat M in a preferred direction.

(5)指示表示物の形状の変更
本実施形態では、指示表示物の形状を変更できるようにしてもよい。例えば、コントローラ161から形状変更用の入力情報を受け付けた場合に、画面上においてマットMの各頂点a1〜a4の位置座標を変更できるようにしてもよい。
(5) Change of shape of instruction display object In the present embodiment, the shape of the instruction display object may be changed. For example, when input information for shape change is received from the controller 161, the position coordinates of the vertices a1 to a4 of the mat M may be changed on the screen.

(6)指示表示物の設定タイミング
本実施形態では、ゲーム開始前や進行中のゲームを一時中断した場合に、表示制御用の入力情報を受け付け、受け付けた入力情報に基づいて指示表示物の位置、大きさ、向き、形状等を制御するようにしてもよい、また、ゲーム中の任意のタイミングで指示表示物を制御させるようにしてもよい。
(6) Setting timing of instruction display object In this embodiment, when the game is started or when the game in progress is temporarily interrupted, the input information for display control is received, and the position of the instruction display object is based on the received input information. The size, orientation, shape, etc. may be controlled, and the instruction display item may be controlled at an arbitrary timing during the game.

4.画像生成処理
(1)仮想カメラの制御
ところで、本実施形態では、図8に示すように、オブジェクト空間(仮想3次元空間)において、仮想カメラから見た3次元オブジェクトのダンサーDを含む3次元の画像(第1の画像)を生成し、生成された第1の画像と、2次元のマットMの画像(第2の画像)とを合成して出力する画像を生成している。
4). Image Generation Processing (1) Control of Virtual Camera In the present embodiment, as shown in FIG. 8, in the object space (virtual three-dimensional space), a three-dimensional object including a dancer D of a three-dimensional object viewed from the virtual camera. An image (first image) is generated, and an image to be output by synthesizing the generated first image and an image of the two-dimensional mat M (second image) is generated.

したがって、本実施形態では、マットMの表示位置が所定表示位置P1(X1,Y1)から表示位置P2(X2,Y2)に変更された場合には、ダンサーDの表示位置を決定し、決定された表示位置に基づいて仮想カメラを制御してダンサーDを含む第1の画像を生成する。そして、第1の画像と、表示位置P2に設定されたマットMの画像とを合成する。このようにすれば、ダンサーDのオブジェクト空間における位置は変わることがないので、自然な画像を生成することができる。   Therefore, in the present embodiment, when the display position of the mat M is changed from the predetermined display position P1 (X1, Y1) to the display position P2 (X2, Y2), the display position of the dancer D is determined and determined. Based on the displayed position, the virtual camera is controlled to generate a first image including the dancer D. Then, the first image and the image of the mat M set at the display position P2 are synthesized. In this way, since the position of the dancer D in the object space does not change, a natural image can be generated.

例えば、本実施形態では、図4に示すように、マットMの表示位置が所定表示位置P1(X1,Y1)からP2(X2,Y2)に変更されると、マットMの表示位置P2(X2,Y2)に基づいて、ダンサーDを表示位置(例えば、点N(X3,Y3))を決定する。そして、ダンサーDの表示位置N(X3,Y3)に基づいて、仮想カメラの位置、向き、画角の少なくとも1つを制御し(変更し)、制御後の仮想カメラの位置、向き、画角に基づいて、ダンサーDを含む第1の画像を生成する。   For example, in the present embodiment, as shown in FIG. 4, when the display position of the mat M is changed from the predetermined display position P1 (X1, Y1) to P2 (X2, Y2), the display position P2 (X2 of the mat M). , Y2), the display position of the dancer D (for example, the point N (X3, Y3)) is determined. Based on the display position N (X3, Y3) of the dancer D, at least one of the position, orientation, and angle of view of the virtual camera is controlled (changed), and the position, orientation, angle of view of the virtual camera after control is controlled. Based on the above, a first image including the dancer D is generated.

なお、本実施形態では、ダンサーDの表示位置は、マットMの表示位置に対応付けて予め定義付けるようにしてもよいし、マットMの移動方向や大きさ、形状に基づいて決めてもよい。   In the present embodiment, the display position of the dancer D may be defined in advance in association with the display position of the mat M, or may be determined based on the moving direction, size, and shape of the mat M.

また、本実施形態では、ダンサーDの表示領域に対する重複領域(ダンサーDの表示領域とマットMの表示領域との重複領域)の比率が所定比率以下になるように、ダンサーDの表示位置を決定するようにしてもよい。例えば、マットMの表示位置が所定表示位置P1(X1,Y1)からP2(X2,Y2)に変更されると、マットMの表示位置P2(X2,Y2)と、ダンサーDの表示領域に対する重複領域の比率が0.5(50%)以下になるように、ダンサーDの表示位置を決定するようにしてもよい。   Further, in this embodiment, the display position of the dancer D is determined so that the ratio of the overlapping area (the overlapping area of the dancer D display area and the mat M display area) to the dancer D display area is equal to or less than a predetermined ratio. You may make it do. For example, when the display position of the mat M is changed from the predetermined display position P1 (X1, Y1) to P2 (X2, Y2), the display position P2 (X2, Y2) of the mat M overlaps the display area of the dancer D. The display position of the dancer D may be determined so that the area ratio is 0.5 (50%) or less.

また、本実施形態では、ダンサーDの部位に基づいて、ダンサーDの表示位置を決定するようにしてもよい。例えば、ダンサーDを構成する複数の部位(例えば、上半身、下半身)のうちマットMとの重複表示を禁止する部位を決定し、決定された部位とマットMとを重複して表示させないように、ダンサーDの表示位置を決めるようにしてもよい。また、本実施形態では、ゲーム状況(例えば、ゲームプレイ時間、楽曲データの再生時間、スコアゲージe1、点数e2、コンボ数e3、難易度など)に応じてダンサーDの各部位の表示優先度を決定し、各部位の表示優先度に基づいてダンサーDの表示位置を決めるようにしてもよい。例えば、表示優先度が最も高い部位を、マットMとの重複表示を禁止する部位として決定し、当該部位とマットMとを重複して表示させないようにダンサーDの表示位置を決定する。なお、ダンサーDの各部位は、上半身、下半身というように2つのカテゴリに分類してもよい、頭、胴、腕、脚というように2以上のカテゴリに分類してもよい。   In the present embodiment, the display position of the dancer D may be determined based on the part of the dancer D. For example, a part that prohibits overlapping display with the mat M among a plurality of parts (for example, the upper body and the lower body) constituting the dancer D is determined, and the determined part and the mat M are not displayed in an overlapping manner. The display position of the dancer D may be determined. In the present embodiment, the display priority of each part of the dancer D is set according to the game situation (for example, game play time, music data playback time, score gauge e1, score e2, combo number e3, difficulty level, etc.). The display position of the dancer D may be determined based on the display priority of each part. For example, the part with the highest display priority is determined as a part that prohibits overlapping display with the mat M, and the display position of the dancer D is determined so that the part and the mat M are not displayed overlappingly. Each part of the dancer D may be classified into two categories such as upper body and lower body, or may be classified into two or more categories such as head, torso, arm, and leg.

また、本実施形態では、マットMの移動方向に基づいて、仮想カメラの位置、向き、画角等を制御してもよい。例えば、図4に示すように、マットMがP1(X1,Y1)からP2(X2,Y2)のように、スクリーンの上方向(Y方向)に移動した場合には、図9(A)に示すように、オブジェクト空間における仮想カメラCの位置を、R1からR2に変更する処理を行う。つまり、図9(B)に示すように、仮想カメラCの位置を、水平方向後方K6に移動させる(仮想カメラCの位置を視点座標のマイナスZ方向へ移動させる)。このようにすれば、図4に示すように、ダンサーDが小さく上方に位置するようになり、ダンサーDとマットMとをバランスよく表示させることができる。   In the present embodiment, the position, orientation, angle of view, etc. of the virtual camera may be controlled based on the moving direction of the mat M. For example, as shown in FIG. 4, when the mat M moves upward (Y direction) from P1 (X1, Y1) to P2 (X2, Y2), the screen shown in FIG. As shown, the process of changing the position of the virtual camera C in the object space from R1 to R2 is performed. That is, as shown in FIG. 9B, the position of the virtual camera C is moved rearward in the horizontal direction K6 (the position of the virtual camera C is moved in the minus Z direction of the viewpoint coordinates). If it does in this way, as shown in FIG. 4, the dancer D comes to be located small upwards, and the dancer D and the mat M can be displayed in a balanced manner.

また、本実施形態では、マットMの大きさに基づいて、仮想カメラの位置、向き、画角等を制御してもよい。例えば、マットMの大きさ(倍率、縮小率、拡大率)に基づいて仮想カメラの画角を大きくする。具体的には、図9(E)に示すように、マットMが拡大する場合には、マットMの拡大率に基づいて、仮想カメラCの画角を広げる。例えば、マットMの拡大率に基づいて、画角をK9からK10に広げてズームアウトさせる。このようにすれば、例えば、図5に示すような画像を生成することができる。また、マットMが縮小する場合には、マットMの縮小率に基づいて、仮想カメラCの画角を狭める。例えば、マットMの縮小率に基づいて、画角をK10からK9にズームインさせる。このようにすれば、例えば、図6に示すような画像を生成することができる。   In the present embodiment, the position, orientation, angle of view, etc. of the virtual camera may be controlled based on the size of the mat M. For example, the angle of view of the virtual camera is increased based on the size of the mat M (magnification, reduction rate, enlargement rate). Specifically, as shown in FIG. 9E, when the mat M is enlarged, the angle of view of the virtual camera C is expanded based on the enlargement ratio of the mat M. For example, based on the magnification rate of the mat M, the angle of view is widened from K9 to K10 and zoomed out. In this way, for example, an image as shown in FIG. 5 can be generated. When the mat M is reduced, the angle of view of the virtual camera C is narrowed based on the reduction rate of the mat M. For example, the angle of view is zoomed in from K10 to K9 based on the reduction rate of the mat M. In this way, for example, an image as shown in FIG. 6 can be generated.

また、本実施形態では、マットMの大きさに基づいて、仮想カメラCの位置を、図9(B)に示す水平方向後方K6、水平方向前方K5に移動させるようにしてもよい。例えば、マットMが拡大する場合には、マットMの拡大率に基づいて、図9(A)に示す仮想カメラCの位置をR1からR2に移動させる。また、マットMが縮小する場合には、マットMの縮小率に基づいて、図9(A)に示す仮想カメラCの位置をR1からR3に移動させるようにしてもよい。   In the present embodiment, the position of the virtual camera C may be moved to the horizontal rear K6 and the horizontal front K5 shown in FIG. 9B based on the size of the mat M. For example, when the mat M is enlarged, the position of the virtual camera C shown in FIG. 9A is moved from R1 to R2 based on the enlargement ratio of the mat M. When the mat M is reduced, the position of the virtual camera C shown in FIG. 9A may be moved from R1 to R3 based on the reduction rate of the mat M.

また、本実施形態では、マットMからマットM´へ変更する入力情報を受け付けた場合には、受け付けた入力情報に基づいて、仮想カメラCの位置、向きを変化させるようにしてもよい。例えば、マットMの向きが180度回転した場合には、図9(A)に示すように、仮想カメラCの位置をR1からR4に変更し、注視点がダンサーDの位置Q1になるように仮想カメラCの向きを変化させる。このようにすれば、例えば、図7に示すような画像を生成することができる。   In this embodiment, when input information for changing from the mat M to the mat M ′ is received, the position and orientation of the virtual camera C may be changed based on the received input information. For example, when the orientation of the mat M is rotated by 180 degrees, as shown in FIG. 9A, the position of the virtual camera C is changed from R1 to R4 so that the gazing point becomes the position Q1 of the dancer D. The direction of the virtual camera C is changed. In this way, for example, an image as shown in FIG. 7 can be generated.

なお、本実施形態では、マットMの位置がスクリーンの左右方向に移動した場合には、仮想カメラCの位置を図9(B)に示す水平左右方向K1、K2方向に移動させる制御(トラック)し、図9(C)に示すように、仮想カメラCの向きを左右方向に回転させる制御(パン)するようにしてもよい。   In the present embodiment, when the position of the mat M moves in the left-right direction of the screen, the control (track) for moving the position of the virtual camera C in the horizontal left-right directions K1, K2 shown in FIG. 9B. Then, as shown in FIG. 9C, control (panning) may be performed to rotate the direction of the virtual camera C in the left-right direction.

また、本実施形態では、マットMの位置がスクリーンの上下方向に移動した場合には仮想カメラCの位置を図9(B)に示すように、K3、K4方向に移動させる制御(クレーンアップ、クレーンダウン)し、図9(D)に示すように、仮想カメラCの向きを垂直方向に変化させる制御(ティルト)するようにしてもよい。   Further, in the present embodiment, when the position of the mat M moves in the vertical direction of the screen, the control for moving the position of the virtual camera C in the K3 and K4 directions (crane up, Crane down), and as shown in FIG. 9D, control (tilt) may be performed to change the orientation of the virtual camera C in the vertical direction.

例えば、図10に示すように、マットMがスクリーンの上方向に移動した場合には、仮想カメラCの位置をR1からR7に移動させたり、或いは、注視点をQ1からQ4になるように仮想カメラCの向きを制御するようにしてもよい。このようにすれば、ダンサーDが画面の下方に見えるようになる。逆に、マットMがスクリーンの下方向に移動した場合には、仮想カメラCの位置をR1からR8に移動させたり、或いは、注視点をQ1からQ5になるように仮想カメラCの向きを制御するようにしてもよい。このようにすれば、ダンサーDが画面の上方に見えるようになる。   For example, as shown in FIG. 10, when the mat M moves upward on the screen, the virtual camera C is moved from R1 to R7 or the gazing point is changed from Q1 to Q4. The orientation of the camera C may be controlled. In this way, the dancer D can be seen below the screen. Conversely, when the mat M moves downward on the screen, the virtual camera C is moved from R1 to R8, or the orientation of the virtual camera C is controlled so that the gazing point is changed from Q1 to Q5. You may make it do. In this way, the dancer D can be seen above the screen.

また、マットMがスクリーンの右方向に移動した場合には、仮想カメラCの位置をR1からR6に移動させたり、或いは、注視点をQ1からQ3になるように仮想カメラCの向きを制御するようにしてもよい。このようにすれば、ダンサーDが画面の左側に見えるようになる。逆に、マットMがスクリーンの左方向に移動した場合には、仮想カメラCの位置を図10に示すR1からR5に移動させたり、或いは、注視点をQ1からQ2になるように仮想カメラCの向きを制御するようにしてもよい。このようにすれば、ダンサーDが画面の右側に見えるようになる。   Further, when the mat M moves to the right of the screen, the virtual camera C is moved from R1 to R6, or the orientation of the virtual camera C is controlled so that the gazing point is changed from Q1 to Q3. You may do it. In this way, the dancer D can be seen on the left side of the screen. Conversely, when the mat M moves to the left of the screen, the virtual camera C is moved from R1 to R5 shown in FIG. 10 or the gazing point is changed from Q1 to Q2. You may make it control direction of. In this way, the dancer D can be seen on the right side of the screen.

このように、マットMの表示位置、マットMの移動方向、マットMの大きさに基づいて、仮想カメラCの位置、向き、画角の少なくとも1つを制御することによって、ダンサーDがダンスを行う様子を自然に表現したまま、マットMを自由に設定することができる。   In this way, the dancer D performs a dance by controlling at least one of the position, orientation, and angle of view of the virtual camera C based on the display position of the mat M, the moving direction of the mat M, and the size of the mat M. The mat M can be set freely while naturally expressing how it is performed.

なお、仮想カメラCの位置、向き、画角それぞれを、ダンサーDの表示位置、マットMの表示位置の変化(移動方向)、マットMの大きさに対応づけて予め決めておいてもよい。   Note that the position, orientation, and angle of view of the virtual camera C may be determined in advance in association with the display position of the dancer D, the change in the display position of the mat M (movement direction), and the size of the mat M.

(2)半透明処理
また、本実施形態では、マットMの色とダンサーDとの色とを、α値に基づくαブレンディングを行い(例えば、線形合成して)画像を生成してもよい。例えば、仮想カメラから見たダンサーDを含む画像(第1の画像)と、マットMの画像(第2の画像)とを、α値(0≦α≦1)に基づいて合成するようにしてもよい。
(2) Translucent Processing In this embodiment, the color of the mat M and the color of the dancer D may be subjected to α blending based on the α value (for example, linearly synthesized) to generate an image. For example, an image including the dancer D viewed from the virtual camera (first image) and an image of the mat M (second image) are synthesized based on the α value (0 ≦ α ≦ 1). Also good.

ここで、半透明処理(αブレンディング)は、表示物のα値に基づいて、例えば次式に示すような処理を行う。
=(1−α)×R+α×R (1)
=(1−α)×G+α×G (2)
=(1−α)×B+α×B (3)
ここで、R、G、Bはフレームバッファ(画像バッファ172)に既に描画されている元画像(第1の画像)の色(輝度)のR、G、B成分であり、R、G、Bは、元画像に対して重ね書きする描画画像(第2の画像)の色のR、G、B成分である。
Here, the translucent processing (α blending) is performed based on the α value of the display object, for example, as shown in the following equation.
R 3 = (1−α) × R 1 + α × R 2 (1)
G 3 = (1−α) × G 1 + α × G 2 (2)
B 3 = (1−α) × B 1 + α × B 2 (3)
Here, R 1 , G 1 , and B 1 are R, G, and B components of the color (luminance) of the original image (first image) already drawn in the frame buffer (image buffer 172), and R 2 , G 2 , and B 2 are R, G, and B components of the color of the drawn image (second image) to be overwritten on the original image.

このようにすれば、仮に、マットMとダンサーDとが重複して表示される場合であっても、プレーヤは、マットMで表示される指示領域B1〜B8や、ダンサーDの動作を確認することができる。   In this way, even if the mat M and the dancer D are displayed in an overlapping manner, the player confirms the instruction areas B1 to B8 displayed on the mat M and the operation of the dancer D. be able to.

(3)色制御
また、図11に示すように、ダンサーDとマットMの色とが同系色の色になる場合には、いずれか一方の指示表示物の色の明度(輝度、彩度)を変化させるようにしてもよい。例えば、ダンサーDの色とマットMの色との明度が明るい場合(白系統の色である場合)には、マットMの色、或いは、マットMの指示領域B1〜B8の色の明度を下げる(黒系統の色にする)ようにしてもよい。例えば、図12に示すように、マットMの指示領域B1〜B8の色を予め設定された色(白色)から異なる色(黒色)に変化させるようにする。このようにすれば、プレーヤは、ダンサーDとマットMとを識別することが容易になる。
(3) Color control As shown in FIG. 11, when the color of the dancer D and the mat M is a similar color, the lightness (luminance, saturation) of the color of one of the instruction display objects May be changed. For example, when the brightness of the color of the dancer D and the color of the mat M is bright (in the case of a white color), the brightness of the color of the mat M or the color of the indication areas B1 to B8 of the mat M is lowered. (A black color may be used). For example, as shown in FIG. 12, the color of the instruction areas B1 to B8 of the mat M is changed from a preset color (white) to a different color (black). In this way, the player can easily identify the dancer D and the mat M.

5.所定領域
(1)所定領域内において指示表示物を設定する手法
本実施形態では、マットMを設定できる画面上の領域を所定領域に制限するようにしてもよい。例えば、本実施形態では、マットMの基準点Lが所定領域内に属するように制御したり、マットMの頂点a1〜a4が所定領域内に属すように制御する。具体的には、図13に示すように、所定領域E1に限って、プレーヤの入力情報に基づいてマットMを自由に設定できる範囲を所定領域E1に制限するようにする。このようにすれば、プレーヤは、評価情報となる重要な表示物であるスコアゲージe1、点数e2、コンボ数e3などの配置状態を気にすることなく、マットMを自由に配置させることができる。なお、本実施形態では、各指示表示物それぞれに所定領域を設定し、各指示表示物を、それぞれの所定領域内において設定できるように制御してもよい。
5. Predetermined area (1) Method of setting instruction display object in predetermined area In the present embodiment, the area on the screen where the mat M can be set may be limited to the predetermined area. For example, in the present embodiment, control is performed so that the reference point L of the mat M belongs to a predetermined area, or control is performed so that the vertices a1 to a4 of the mat M belong to the predetermined area. Specifically, as shown in FIG. 13, only in the predetermined area E1, the range in which the mat M can be freely set based on the input information of the player is limited to the predetermined area E1. In this way, the player can freely arrange the mat M without worrying about the arrangement state of the score gauge e1, the score e2, the combo number e3, etc., which are important display objects as evaluation information. . In the present embodiment, a predetermined area may be set for each instruction display object, and control may be performed so that each instruction display object can be set in each predetermined area.

(2)マルチプレーヤゲームの例
本実施形態では、複数のプレーヤが共通の表示部190を用いてダンスゲームをプレイすることができる。例えば、図14に示すように、画面左側に第1のプレーヤ用のダンサーD1、マットM1などの指示表示物を配置させ、画面右側に第2のプレーヤ用のダンサーD2、マットM2などの指示表示物を配置させる。かかる場合に、本実施形態では、各プレーヤが、各ダンサーD1、D2、マットM1、M2を確実に見ることができるようにするために、各プレーヤに応じた所定領域F1、F2を決めて、各プレーヤが所定領域内でマットMを設定できるようにしている。
(2) Example of Multiplayer Game In this embodiment, a plurality of players can play a dance game using the common display unit 190. For example, as shown in FIG. 14, an instruction display object such as a dancer D1 for the first player and a mat M1 is arranged on the left side of the screen, and an instruction display such as a dancer D2 for the second player and a mat M2 is displayed on the right side of the screen. Arrange things. In such a case, in this embodiment, in order to ensure that each player can see each dancer D1, D2 and mats M1, M2, predetermined areas F1, F2 corresponding to each player are determined, Each player can set the mat M within a predetermined area.

例えば、第1のプレーヤ用のコントローラ161_1からの入力情報に基づいてマットM1の基準点L1が所定領域F1内に属するように制御したり、マットM1の頂点a1〜a4が所定領域F1内に属すように制御する。また、第2のプレーヤ用のコントローラ161_2からの入力情報に基づいてマットM2の基準点L2が所定領域F2内に属するように制御したり、マットM2の頂点b1〜b4が所定領域F2内に属すように制御する。このようにすれば、マットM1とマットM2とが互いに重複しないように制御することができ、各プレーヤは、各自の指示表示物に示される指示内容を確認することができる。   For example, control is performed so that the reference point L1 of the mat M1 belongs to the predetermined area F1 based on the input information from the controller 161_1 for the first player, or the vertices a1 to a4 of the mat M1 belong to the predetermined area F1. To control. Further, control is performed so that the reference point L2 of the mat M2 belongs to the predetermined area F2 based on the input information from the controller 161_2 for the second player, and the vertices b1 to b4 of the mat M2 belong to the predetermined area F2. To control. In this way, it is possible to control the mat M1 and the mat M2 so that they do not overlap each other, and each player can confirm the contents of instructions indicated on their instruction display objects.

6.プログラムに基づいて、指示表示物を設定する手法
(1)セーブ情報に基づいて指示表示物を設定する手法
本実施形態では、プレーヤのセーブ用の入力情報に基づいて、画面構成をセーブする処理を行っている。つまり、プレーヤのセーブ用の入力情報を受け付けると、マットM、ダンサーDなどの指示表示物の表示位置を画面構成記憶部176にセーブする処理を行う。そして、次回、ゲームが再開される場合には、セーブされた表示位置を取得し、取得した表示位置にマットMを設定する処理を行う。このようにすれば、プレーヤは、毎回好みの表示態様でゲームすることができ、また、ゲームを行う度に設定し直す手間を省くことができる。なお、本実施形態では、仮想カメラの制御情報を画面構成記憶部176にセーブする処理を行うようにしてもよい。
6). Method of setting instruction display object based on program (1) Method of setting instruction display object based on save information In this embodiment, a process of saving a screen configuration based on input information for saving by a player is performed. Is going. That is, when input information for saving by the player is received, the display position of instruction display objects such as mat M and dancer D is saved in the screen configuration storage unit 176. Then, when the game is resumed next time, the saved display position is acquired, and the mat M is set to the acquired display position. In this way, the player can play the game in a favorite display mode each time, and the time and effort for resetting each time the game is played can be saved. In the present embodiment, a process of saving the control information of the virtual camera in the screen configuration storage unit 176 may be performed.

(2)難易度に基づいて、指示表示物を設定する手法
また、本実施形態では、ゲームの難易度に応じて指示表示物の設定を行うようにしてもよい。例えば、難易度が低い場合(初級者用レベルの場合)には、図5に示すようにに、拡大されたマットMを中央に配置した画像を生成する。一方、難易度が高い場合(上級者用レベルの場合)には、図6に示すように、マットMを縮小させ、ダンサーDを中央に配置された画像を生成する。また、本実施形態では、難易度が最も高いレベルの場合には、マットMを表示させない画像を生成してもよい。例えば、マルチプレーヤゲームの場合には、各プレーヤのレベルに応じて、各プレーヤのマットM1、M2の表示位置、大きさ、向きや、各プレーヤのダンサーD1、D2の表示位置、大きさ、向きを異ならせるようにしてもよい。以上のように、本実施形態では、難易度に応じた適切な画像を表示させることができ、プレーヤが満足するダンスゲームを実現することができる。
(2) Method of Setting Instruction Display Object Based on Difficulty Level In the present embodiment, the instruction display object may be set according to the game difficulty level. For example, when the difficulty level is low (in the case of beginner level), as shown in FIG. 5, an image in which the enlarged mat M is arranged in the center is generated. On the other hand, when the difficulty level is high (in the case of an advanced level), the mat M is reduced as shown in FIG. In the present embodiment, when the level of difficulty is the highest, an image that does not display the mat M may be generated. For example, in the case of a multiplayer game, depending on the level of each player, the display position, size, and orientation of each player's mats M1, M2, and the display position, size, orientation of each player's dancers D1, D2 May be different. As described above, in the present embodiment, an appropriate image corresponding to the difficulty level can be displayed, and a dance game that satisfies the player can be realized.

7.フローチャート
本実施形態の処理について、図15(A)(B)を用いて説明する。はじめに、所与のプログラムがセーブされた情報に基づいて、指示表示物の表示位置を設定して画像を生成する処理の例について、図15(A)を用いて説明する。まず、指示表示物の表示位置がセーブされているか否かを判断する(ステップS11)。次に、指示表示物の表示位置がセーブされている場合には(ステップS11のY)、セーブされた表示位置に基づいて、マットMを設定する(ステップS12)。一方、指示表示物の表示位置がセーブされていない場合には(ステップS11のN)、所定表示位置に基づいて、マットMを設定する(ステップS13)。そして、画像生成処理を行う(ステップS14)。以上で処理を終了する。
7). Flowchart The processing of this embodiment will be described with reference to FIGS. First, an example of processing for generating an image by setting the display position of an instruction display object based on information saved in a given program will be described with reference to FIG. First, it is determined whether or not the display position of the instruction display object is saved (step S11). Next, when the display position of the instruction display object is saved (Y in step S11), the mat M is set based on the saved display position (step S12). On the other hand, when the display position of the instruction display object is not saved (N in Step S11), the mat M is set based on the predetermined display position (Step S13). Then, image generation processing is performed (step S14). The process ends here.

次に、プレーヤからの入力情報を受け付けて表示位置を設定する処理の流れについて図15(B)を用いて説明する。まず、表示位置制御用の入力情報を受け付けたか否かを判断する(ステップS21)。表示位置制御用の入力情報を受け付けた場合には(ステップS21のY)、表示位置制御用の入力情報に基づいて、マットMの表示位置を決定する(ステップS22)。そして、決定されたマットMの表示位置に基づいて、ダンサーDの表示位置を決定する(ステップS23)。そして、決定されたマットM、ダンサーDの表示位置に基づいて、画像生成処理を行う(ステップS24)。そして、マットM、ダンサーDの表示位置をセーブする処理を行う(ステップS25)。例えば、画面構成記憶部176に決定された表示位置をセーブする処理を行う。以上で処理を終了する。   Next, a flow of processing for receiving input information from the player and setting the display position will be described with reference to FIG. First, it is determined whether or not input information for display position control has been received (step S21). When input information for display position control is received (Y in step S21), the display position of the mat M is determined based on the input information for display position control (step S22). Then, based on the determined display position of the mat M, the display position of the dancer D is determined (step S23). Then, image generation processing is performed based on the determined display positions of the mat M and the dancer D (step S24). And the process which saves the display position of the mat | matte M and the dancer D is performed (step S25). For example, the display position determined in the screen configuration storage unit 176 is saved. The process ends here.

8.指示表示物の設定の応用例
本実施形態では、マットMの表示位置にかかわらず、ダンサーDを画面上の任意の位置に配置できるようにしてもよい。例えば、プレーヤの表示制御用の入力情報に基づいて、ダンサーDの表示位置を決定する。そして、決定された表示位置に基づいて、仮想カメラの位置、向き、画角の少なくとも1つを制御し、制御された仮想カメラの位置、向き、画角に基づいて画像を生成する処理を行う。そして、ダンサーDの表示位置に基づいて、マットMの表示位置を決定するようにしてもよい。かかる場合には、表示比率等のダンサーDとマットMとの重なり度合いに基づいて、マットMの表示位置を決めるようにしてもよい。
8). Application example of setting of instruction display object In the present embodiment, the dancer D may be arranged at an arbitrary position on the screen regardless of the display position of the mat M. For example, the display position of the dancer D is determined based on input information for display control of the player. Then, based on the determined display position, at least one of the position, orientation, and angle of view of the virtual camera is controlled, and an image is generated based on the controlled position, orientation, and angle of view of the virtual camera. . Then, the display position of the mat M may be determined based on the display position of the dancer D. In such a case, the display position of the mat M may be determined based on the degree of overlap between the dancer D and the mat M such as the display ratio.

9.音楽ゲームの応用例1
本実施形態では、種々の音楽ゲームに応用することができる。例えば、図16に示すように、プレーヤが入力部160を用いてギターの模擬的な演奏を行うことが可能なゲームシステム(画像生成装置)に応用してもよい。例えば、このようなゲームシステムでは、楽曲データの再生に連動して、予め定義付けれた複数の基準タイミングと入力部160で検出された入力タイミングとを比較してプレーヤの入力を評価する処理を行う。そして、各基準タイミングに対応する指示マーク60が、基準タイミングにおいて基準位置Oに達するように、各指示マーク60を所定経路50上で移動させる指示表示物I(指示画像、楽譜表示物)を含む画像を生成する処理を行う。
9. Music game application example 1
This embodiment can be applied to various music games. For example, as shown in FIG. 16, the present invention may be applied to a game system (image generation apparatus) in which a player can perform a simulated performance of a guitar using the input unit 160. For example, in such a game system, a process of evaluating a player's input by comparing a plurality of predefined reference timings with input timings detected by the input unit 160 in conjunction with the reproduction of music data. . The instruction mark 60 corresponding to each reference timing includes an instruction display object I (instruction image, score display object) for moving each instruction mark 60 on the predetermined path 50 so that the reference mark O reaches the reference position O at the reference timing. Performs processing to generate an image.

本実施形態では、所定条件下で、指示表示物Iを所定表示位置とは異なる表示位置に設定するようにしてもよい。より具体的に説明すると、図17に示すように、指示表示物Iを、画面の左側に移動させて設定するようにしてもよいし、図18に示すように、指示表示物Iを画面の上側に移動させて設定するようにしてもよい。   In the present embodiment, the indication display object I may be set at a display position different from the predetermined display position under a predetermined condition. More specifically, as shown in FIG. 17, the instruction display object I may be set by moving to the left side of the screen, or as shown in FIG. You may make it set by moving to the upper side.

また、本実施形態では、所定条件下で、指示表示物Iの大きさを変更してもよい。例えば、縮小用の入力情報に基づいて、指示表示物Iの基準点(例えば、中心点)を中心に縮小したり、拡大用の入力情報に基づいて、指示表示物Iの基準点を中心に拡大させたりしてもよい。   In the present embodiment, the size of the instruction display object I may be changed under a predetermined condition. For example, based on the input information for reduction, the reference display object I is reduced around the reference point (for example, the center point), or based on the input information for enlargement, the reference point of the indication display object I is set as the center. It may be enlarged.

また、所定条件下で、指示表示物Iの向きを変更してもよい。例えば、向き変更用の入力情報に基づいて、指示表示物Iを90度回転させるようにしてもよい。また、本実施形態では、所定条件下で、指示表示物Iの形状を変更するようにしてもよい。例えば、図16では指示表示物Iが台形であるが、変形用の入力情報に基づいて、各頂点を移動させて指示表示物Iの形状を変形するようにしてもよい。   Further, the direction of the instruction display object I may be changed under a predetermined condition. For example, the instruction display object I may be rotated 90 degrees based on the input information for changing the direction. In the present embodiment, the shape of the indication display object I may be changed under a predetermined condition. For example, in FIG. 16, the indication display object I is trapezoidal, but the shape of the indication display object I may be deformed by moving each vertex based on the input information for deformation.

10.音楽ゲームの応用例2
本実施形態では、図19に示すように、プレーヤが入力部160を用いて和太鼓の模擬的な演奏を行うことが可能なゲームシステム(画像生成装置)に応用してもよい。例えば、このようなゲームシステムでは、楽曲データの再生に連動して、予め定義付けれた複数の基準タイミングと入力部160で検出された入力タイミングとを比較してプレーヤの入力を評価する処理を行う。例えば、各基準タイミングに対応する指示マーク60が、基準タイミングにおいて基準位置Oに達するように、各指示マーク60を所定経路50上で移動させる指示表示物I(指示画像、楽譜表示物)を含む画像を生成する。
10. Music game application example 2
In the present embodiment, as shown in FIG. 19, the present invention may be applied to a game system (image generation apparatus) in which a player can perform a simulated performance of Japanese drums using an input unit 160. For example, in such a game system, a process of evaluating a player's input by comparing a plurality of predefined reference timings with input timings detected by the input unit 160 in conjunction with the reproduction of music data. . For example, the instruction mark 60 corresponding to each reference timing includes an instruction display object I (instruction image, score display object) that moves each instruction mark 60 on the predetermined path 50 so that the reference mark O reaches the reference position O at the reference timing. Generate an image.

本実施形態では、図20に示すように、指示表示物Iを、画面の下方向に移動させて設定するようにしてもよい。例えば、指示マーク60、61が所定経路50上を移動方向vに移動する表示態様であるので、移動方向vに対して垂直な方向に指示表示物Iを移動させて設定するようにしてもよい。つまり、図19に示すように、指示表示物Iが左右方向へ移動すると、指示表示物Iの一部が見えなくなってしまい難易度が増してしまう。そこで、指示表示物の表示態様が指示マーク60を移動方向vにスクロール表示させるものである場合には、指示表示物Iを移動方向vに対して垂直方向に移動させることを可能している。つまり、図19の例では、上下方向に指示表示物Iを移動させて設定する。このようにすれば、スクロール制御による表示態様に変化はないので、移動後においてプレーヤは違和感を感じることなく、プレーヤは好きな位置に、指示表示物Iを配置することができる。   In the present embodiment, as shown in FIG. 20, the instruction display object I may be set by moving it downward in the screen. For example, since the indication marks 60 and 61 are in a display mode in which the indication marks 60 and 61 move on the predetermined route 50 in the movement direction v, the indication display object I may be set by moving in the direction perpendicular to the movement direction v. . That is, as shown in FIG. 19, when the instruction display object I moves in the left-right direction, a part of the instruction display object I becomes invisible and the degree of difficulty increases. Therefore, when the display form of the instruction display object is to scroll the instruction mark 60 in the movement direction v, the instruction display object I can be moved in a direction perpendicular to the movement direction v. That is, in the example of FIG. 19, the indication display object I is moved and set up and down. In this way, since the display mode by scroll control does not change, the player can place the indication display object I at a desired position without feeling uncomfortable after the movement.

また、本実施形態では、図21に示すように、所定条件下で、指示表示物Iの向きを変更してもよい。例えば、向き変更用の入力情報に基づいて、指示表示物Iを90度回転させるようにしてもよい。かかる場合には、スクロールする移動方向vも指示表示物Iと同時に向きが変更されるので、移動方向vに対して垂直な方向(例えば、左右方向)に指示表示物Iを移動させることを可能とする。   Moreover, in this embodiment, as shown in FIG. 21, you may change the direction of the instruction | indication display thing I on predetermined conditions. For example, the instruction display object I may be rotated 90 degrees based on the input information for changing the direction. In such a case, since the direction of the moving direction v of scrolling is changed simultaneously with the instruction display object I, the instruction display object I can be moved in a direction perpendicular to the movement direction v (for example, the left-right direction). And

また、本実施形態では、所定条件下で、指示表示物Iの形状を変更するようにしてもよい。また、本実施形態では、所定条件下で、指示表示物Iの大きさを変更してもよい。例えば、縮小用の入力情報に基づいて、指示表示物Iの基準点(例えば、中心点)を中心に縮小したり、拡大用の入力情報に基づいて、指示表示物Iの基準点を中心に拡大させたりしてもよい。   In the present embodiment, the shape of the indication display object I may be changed under a predetermined condition. In the present embodiment, the size of the instruction display object I may be changed under a predetermined condition. For example, based on the input information for reduction, the reference display object I is reduced around the reference point (for example, the center point), or based on the input information for enlargement, the reference point of the indication display object I is set as the center. It may be enlarged.

なお、本実施形態では、指示表示物Iの優先度が最も高くなるようにし、例えば、指示表示物Iと表示物70が重複する場合には、優先度の高い指示表示物Iが指示表示物70の上に上書きするように描画してもよい。また、複数のプレーヤがゲームを行うマルチプレイゲームの場合には、各プレーヤの指示表示物を設定し、各指示表示部が互いに重複しないように制御してもよい。   In the present embodiment, the priority of the instruction display object I is set to the highest. For example, when the instruction display object I and the display object 70 overlap, the instruction display object I having the higher priority is the instruction display object. You may draw so that it may overwrite on 70. Further, in the case of a multiplayer game in which a plurality of players play a game, an instruction display item for each player may be set and control may be performed so that the instruction display units do not overlap each other.

111 受け付け部、112 再生部、113 設定部、114 評価部、
115 ゲーム演算部、116 セーブ処理部、
120 画像生成部、130 音生成部、
160 入力部、161 コントローラ、162 検出部、
163 マット型コントローラ、164 検出部、
170 記憶部、171 主記憶部、172 画像バッファ、
173 表示物データ記憶部、174 楽曲データ記憶部、
175 譜面データ記憶部、176 画面構成記憶部、
177 動作データ記憶部、178 所定表示位置記憶部、
180 情報記憶媒体、190 表示部、
192 音出力部、196 通信部
111 reception unit, 112 playback unit, 113 setting unit, 114 evaluation unit,
115 game calculation unit, 116 save processing unit,
120 image generators, 130 sound generators,
160 input unit, 161 controller, 162 detection unit,
163 mat type controller, 164 detector,
170 storage unit, 171 main storage unit, 172 image buffer,
173 display object data storage unit, 174 music data storage unit,
175 musical score data storage unit, 176 screen configuration storage unit,
177 operation data storage unit, 178 predetermined display position storage unit,
180 information storage medium, 190 display unit,
192 sound output unit, 196 communication unit

Claims (12)

画像を生成する処理を行うプログラムであって、
楽曲データを再生する処理を行う再生部と、
前記楽曲データに対応して記憶されている複数の基準タイミングを指示する指示表示物を、所定表示位置に設定する設定部と、
前記指示表示物を含む画像を生成する画像生成部と、
各基準タイミングについて、基準タイミングと当該基準タイミングに対する入力部からの入力タイミングとを比較して、プレーヤの入力を評価する評価部として、コンピュータを機能させ、
前記設定部が、
所定条件下で、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定し、
前記画像生成部が、
変更された前記表示位置に基づいて、前記指示表示物を含む画像を生成することを特徴とするプログラム。
A program that performs processing to generate an image,
A playback unit that performs a process of playing music data;
A setting unit for setting an instruction display object for instructing a plurality of reference timings stored corresponding to the music data to a predetermined display position;
An image generation unit for generating an image including the instruction display object;
For each reference timing, compare the reference timing with the input timing from the input unit with respect to the reference timing, and let the computer function as an evaluation unit that evaluates the player's input,
The setting unit
Under a predetermined condition, the indication display object is changed and set to a display position different from the predetermined display position,
The image generator
The program which produces | generates the image containing the said instruction | indication display thing based on the said display position changed.
請求項1において、
前記設定部が、
前記入力部からの表示位置制御用の入力情報に基づいて、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定することを特徴とするプログラム。
In claim 1,
The setting unit
A program characterized in that, based on input information for display position control from the input unit, the instruction display object is set to a display position different from the predetermined display position.
請求項1又は2において、
前記設定部が、
前記指示表示物の表示位置が変更された場合には、変更後の前記指示表示物の表示位置に基づいて他の表示物の表示位置を決定し、決定された表示位置に他の表示物を設定し、
前記画像生成部が、
前記設定部によって設定された前記他の表示物の表示位置に基づいて、前記他の表示物を含む画像を生成することを特徴とするプログラム。
In claim 1 or 2,
The setting unit
When the display position of the instruction display object is changed, the display position of another display object is determined based on the display position of the instruction display object after the change, and the other display object is placed at the determined display position. Set,
The image generator
The program which produces | generates the image containing the said other display thing based on the display position of the said other display thing set by the said setting part.
請求項1〜3のいずれかにおいて、
前記設定部が、
複数の指示表示物のうち少なくとも1つの指示表示物の表示位置が変更された場合には、各指示表示物の表示領域が重複しないように他の指示表示物の表示位置を決定し、決定された表示位置に当該他の指示表示物を設定し、
前記画像生成部が、
前記設定部によって設定された前記各指示表示物の表示位置に基づいて、前記各指示表示物を含む画像を生成することを特徴とするプログラム。
In any one of Claims 1-3,
The setting unit
When the display position of at least one instruction display object among a plurality of instruction display objects is changed, the display positions of other instruction display objects are determined so that the display areas of the respective instruction display objects do not overlap. Set the other indication display object at the displayed position,
The image generator
The program which produces | generates the image containing each said instruction | indication display thing based on the display position of each said instruction | indication display thing set by the said setting part.
請求項1〜4のいずれかにおいて、
前記設定部が、
複数の指示表示物のうち少なくとも1つの指示表示物の表示位置が変更された場合には、各指示表示物の重なり度合いに応じて他の指示表示物の表示位置を決定し、決定された表示位置に当該他の指示表示物を設定し、
前記画像生成部が、
前記設定部によって設定された前記各指示表示物の表示位置に基づいて、前記各指示表示物を含む画像を生成することを特徴とするプログラム。
In any one of Claims 1-4,
The setting unit
When the display position of at least one instruction display object among the plurality of instruction display objects is changed, the display position of another instruction display object is determined according to the overlapping degree of each instruction display object, and the determined display Set the other instruction display object at the position,
The image generator
The program which produces | generates the image containing each said instruction | indication display thing based on the display position of each said instruction | indication display thing set by the said setting part.
請求項1〜5のいずれかにおいて、
前記画像生成部が、
前記指示表示物を前記所定表示位置とは異なる表示位置に設定された場合には、前記指示表示物及び他の表示物の少なくとも一方の画像データを変更して画像を生成することを特徴とするプログラム。
In any one of Claims 1-5,
The image generator
When the instruction display object is set to a display position different from the predetermined display position, an image is generated by changing image data of at least one of the instruction display object and another display object. program.
請求項1〜6のいずれかにおいて、
前記設定部が、
画面上の所定領域内において、前記指示表示物を設定可能とすることを特徴とするプログラム。
In any one of Claims 1-6,
The setting unit
A program characterized in that the instruction display object can be set within a predetermined area on the screen.
請求項1〜7のいずれかにおいて、
前記画像生成部が、
前記複数の基準タイミングそれぞれに対応する指示マークを移動方向に移動させて、各基準タイミングを指示する指示表示物を含む画像を生成し、
前記設定部が、
前記移動方向に基づいて所定方向に前記指示表示物を移動させて設定することを特徴とするプログラム。
In any one of Claims 1-7,
The image generator
Moving an instruction mark corresponding to each of the plurality of reference timings in a moving direction to generate an image including an instruction display object indicating each reference timing;
The setting unit
A program characterized in that the instruction display object is moved and set in a predetermined direction based on the moving direction.
請求項1〜8のいずれかにおいて、
前記設定部が、
所与のプログラムに基づいて、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定することを特徴とするプログラム。
In any one of Claims 1-8,
The setting unit
A program characterized in that, based on a given program, the instruction display object is changed and set to a display position different from the predetermined display position.
請求項1〜9のいずれかにおいて、
前記指示表示物の表示位置が変更された場合に、当該表示位置をセーブするセーブ処理部として、コンピュータを更に機能させ、
前記設定部が、
前記表示位置がセーブされている場合には、セーブされた前記表示位置に基づいて、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定することを特徴とするプログラム。
In any one of Claims 1-9,
When the display position of the instruction display object is changed, the computer is further functioned as a save processing unit for saving the display position,
The setting unit
When the display position is saved, the instruction display object is changed and set to a display position different from the predetermined display position based on the saved display position.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜10のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 10 is stored. 画像を生成する処理を行う画像生成装置であって、
楽曲データを再生する処理を行う再生部と、
前記楽曲データに対応して記憶されている複数の基準タイミングを指示する指示表示物を、所定表示位置に設定する設定部と、
前記指示表示物を含む画像を生成する画像生成部と、
各基準タイミングについて、基準タイミングと当該基準タイミングに対する入力部からの入力タイミングとを比較して、プレーヤの入力を評価する評価部とを含み、
前記設定部が、
所定条件下で、前記指示表示物を前記所定表示位置とは異なる表示位置に変更して設定し、
前記画像生成部が、
変更された前記表示位置に基づいて、前記指示表示物を含む画像を生成することを特徴とする画像生成装置。
An image generation device that performs processing for generating an image,
A playback unit that performs a process of playing music data;
A setting unit for setting an instruction display object for instructing a plurality of reference timings stored corresponding to the music data to a predetermined display position;
An image generation unit for generating an image including the instruction display object;
An evaluation unit that evaluates the player's input by comparing the reference timing with the input timing from the input unit with respect to the reference timing for each reference timing;
The setting unit
Under a predetermined condition, the indication display object is changed and set to a display position different from the predetermined display position,
The image generator
An image generating apparatus that generates an image including the instruction display object based on the changed display position.
JP2009258293A 2009-11-11 2009-11-11 Program, information storage medium, and image generating device Withdrawn JP2011101752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009258293A JP2011101752A (en) 2009-11-11 2009-11-11 Program, information storage medium, and image generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009258293A JP2011101752A (en) 2009-11-11 2009-11-11 Program, information storage medium, and image generating device

Publications (1)

Publication Number Publication Date
JP2011101752A true JP2011101752A (en) 2011-05-26

Family

ID=44192388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009258293A Withdrawn JP2011101752A (en) 2009-11-11 2009-11-11 Program, information storage medium, and image generating device

Country Status (1)

Country Link
JP (1) JP2011101752A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012045431A (en) * 2011-12-07 2012-03-08 Konami Digital Entertainment Co Ltd Game system, data generation system, data generation method used for the same, and computer program
JP2013022088A (en) * 2011-07-15 2013-02-04 Konami Digital Entertainment Co Ltd Game machine, computer program to be used therefor, and control method
JP2013042961A (en) * 2011-08-24 2013-03-04 Konami Digital Entertainment Co Ltd Game machine, computer program to be used therefor, and control method
JP2013154124A (en) * 2012-01-31 2013-08-15 Konami Digital Entertainment Co Ltd Game apparatus, method of controlling the game apparatus, and program
JP2013162841A (en) * 2012-02-09 2013-08-22 Kyoraku Sangyo Kk Game machine
JP2014027974A (en) * 2012-07-31 2014-02-13 Namco Bandai Games Inc Program, storage medium and game device
WO2015087958A1 (en) * 2013-12-11 2015-06-18 株式会社コナミデジタルエンタテインメント Game program, game system, and game method
EP2786303A4 (en) * 2011-12-01 2015-08-26 Lightcraft Technology Llc Automatic tracking matte system
JP2017038957A (en) * 2016-11-15 2017-02-23 株式会社タイトー Game device and program
JP2017064433A (en) * 2016-11-15 2017-04-06 株式会社タイトー Game device and program
JP2017144001A (en) * 2016-02-16 2017-08-24 株式会社コナミデジタルエンタテインメント Game machine and computer program thereof
JP2021010656A (en) * 2019-07-08 2021-02-04 株式会社コナミアミューズメント Game system, computer program used for the game system, and control method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022088A (en) * 2011-07-15 2013-02-04 Konami Digital Entertainment Co Ltd Game machine, computer program to be used therefor, and control method
JP2013042961A (en) * 2011-08-24 2013-03-04 Konami Digital Entertainment Co Ltd Game machine, computer program to be used therefor, and control method
EP2786303A4 (en) * 2011-12-01 2015-08-26 Lightcraft Technology Llc Automatic tracking matte system
JP2012045431A (en) * 2011-12-07 2012-03-08 Konami Digital Entertainment Co Ltd Game system, data generation system, data generation method used for the same, and computer program
JP2013154124A (en) * 2012-01-31 2013-08-15 Konami Digital Entertainment Co Ltd Game apparatus, method of controlling the game apparatus, and program
JP2013162841A (en) * 2012-02-09 2013-08-22 Kyoraku Sangyo Kk Game machine
JP2014027974A (en) * 2012-07-31 2014-02-13 Namco Bandai Games Inc Program, storage medium and game device
WO2015087958A1 (en) * 2013-12-11 2015-06-18 株式会社コナミデジタルエンタテインメント Game program, game system, and game method
JP2015112280A (en) * 2013-12-11 2015-06-22 株式会社コナミデジタルエンタテインメント Game program and game system
US10322345B2 (en) 2013-12-11 2019-06-18 Konami Digital Entertainment Co., Ltd. Game program, game system, and game method
JP2017144001A (en) * 2016-02-16 2017-08-24 株式会社コナミデジタルエンタテインメント Game machine and computer program thereof
JP2017038957A (en) * 2016-11-15 2017-02-23 株式会社タイトー Game device and program
JP2017064433A (en) * 2016-11-15 2017-04-06 株式会社タイトー Game device and program
JP2021010656A (en) * 2019-07-08 2021-02-04 株式会社コナミアミューズメント Game system, computer program used for the game system, and control method

Similar Documents

Publication Publication Date Title
JP2011101752A (en) Program, information storage medium, and image generating device
US9044669B2 (en) Program, information storage medium, and image generation system
JP5089079B2 (en) Program, information storage medium, and image generation system
JP5568230B2 (en) Program, information storage medium, and game system
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
JP2009237680A (en) Program, information storage medium, and image generation system
US8784201B2 (en) Information storage medium, game system, and input determination method
JP5491217B2 (en) Program, information storage medium, game system
JP2010022646A (en) Program, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2011053737A (en) Program, information storage medium and image generation device
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4806608B2 (en) Program, information storage medium, and image generation system
JP4502678B2 (en) Program, information storage medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2008067853A (en) Program, information storage medium and image generation system
JP2009129167A (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP2011215724A (en) Program, information storage medium, and image generation system
JP2006318196A (en) Program, information storage medium and image generation system
JP2006263321A (en) Program, information storage medium, and image generation system
JP2010231364A (en) Image generation system, program and information recording medium
JP4390351B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4624527B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205