JP2018201792A - Game program and game device - Google Patents

Game program and game device Download PDF

Info

Publication number
JP2018201792A
JP2018201792A JP2017109707A JP2017109707A JP2018201792A JP 2018201792 A JP2018201792 A JP 2018201792A JP 2017109707 A JP2017109707 A JP 2017109707A JP 2017109707 A JP2017109707 A JP 2017109707A JP 2018201792 A JP2018201792 A JP 2018201792A
Authority
JP
Japan
Prior art keywords
area
sound
event
sounding
sounding event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017109707A
Other languages
Japanese (ja)
Other versions
JP6530445B2 (en
Inventor
秀基 細井
Hideki Hosoi
秀基 細井
繁伸 小森
Shigenobu Komori
繁伸 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2017109707A priority Critical patent/JP6530445B2/en
Publication of JP2018201792A publication Critical patent/JP2018201792A/en
Application granted granted Critical
Publication of JP6530445B2 publication Critical patent/JP6530445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

To provide a game program and a game device capable of achieving a diversified pronunciation expression while restraining an increase in a processing load.SOLUTION: A computer is allowed to function as virtual space generation means for generating a virtual space, first pronunciation event determination means for detecting whether occurrence of a predetermined, first pronunciation event is detected in a predetermined, first area in a virtual space, and second pronunciation event execution means for executing a predetermined, second pronunciation event in a predetermined, second area and sound volume determination means for determining whether a sound volume in a predetermined listening position of a first pronunciation event occurring in the first area is equal to or more than a reference sound volume when the first pronunciation event occurs in the first area. The second pronunciation event execution means executes pronunciation of a second pronunciation event in the second area when the first pronunciation event occurs in the first area and the sound volume is equal to or more than the reference sound volume.SELECTED DRAWING: Figure 4

Description

本発明は、ゲームプログラムおよびゲーム装置に関する。   The present invention relates to a game program and a game device.

近年、仮想空間内にて、プレイヤキャラクタを操作してゲームを進行させるアクションゲームが市販されている。この種のアクションゲームでは、ゲームの面白さ、興奮度、リアル感などの向上のために、例えば爆発、敵キャラクタであるモンスターの咆哮等の効果音による演出が行われる。   In recent years, an action game in which a game is progressed by operating a player character in a virtual space is commercially available. In this type of action game, in order to improve the fun, excitement, realism, etc. of the game, effects such as explosions and sound effects such as the trap of an enemy monster are performed.

このような効果音は、所定のオブジェクトに音源が配置され、当該オブジェクトにプレイヤキャラクタの攻撃が当たる等の所定の条件を満たした場合に、当該音源から発音が実行される発音イベントとして設定されている。   Such a sound effect is set as a sounding event in which sound generation is executed from a sound source when the sound source is arranged on the predetermined object and a predetermined condition such as a player character hitting the object is satisfied. Yes.

このような音源が配置されるオブジェクトは固定オブジェクトに限られず、移動オブジェクトも含まれる(例えば、特許文献1参照)。移動オブジェクトに音源が配置される場合、音源は移動オブジェクトに固定された状態で移動オブジェクトの移動に伴って音源も移動する。   An object on which such a sound source is arranged is not limited to a fixed object, but also includes a moving object (see, for example, Patent Document 1). When a sound source is arranged on a moving object, the sound source moves with the movement of the moving object while the sound source is fixed to the moving object.

特開2008−194208号公報JP 2008-194208 A

しかし、従来の態様では、例えば第1オブジェクトの爆発によりガラス窓等の第2オブジェクトが振動するといった表現を行う場合に、爆発音に続いてガラス窓が振動する音を発生させることが難しい。従来、このような表現を実現するためには、第1オブジェクトの爆発(第1発音イベントの実行)と同時に当該第1オブジェクトから所定の飛散オブジェクトを飛散させ、当該飛散オブジェクトがガラス窓等の第2オブジェクトに接触したことをトリガとして第2オブジェクトに配置される音源から発音する第2発音イベントを実行する必要がある。   However, in the conventional mode, for example, when the expression that the second object such as the glass window vibrates due to the explosion of the first object is performed, it is difficult to generate the sound that vibrates the glass window following the explosion sound. Conventionally, in order to realize such an expression, a predetermined scattering object is scattered from the first object at the same time as the explosion of the first object (execution of the first sounding event), and the scattering object becomes a second object such as a glass window. It is necessary to execute a second sounding event that is generated from a sound source arranged in the second object, triggered by contact with the two objects.

この場合、飛散オブジェクトをゲーム画面上に表示しない場合であっても、飛散オブジェクトを飛散させる演算処理が必要となり、処理負荷が大きくなる。また、第1発音イベントを実行した場合に必ず第2発音イベントを実行したい場合、飛散オブジェクトが第2オブジェクトに必ず接触するように飛散オブジェクトの移動処理を行う必要が生じ、ゲーム制作者の作業負担が増大する。このような問題は、上記例に限られず、複数の音源からの発音を連続して起こしたい場合等、様々な発音表現において生じ得る。   In this case, even when the scattered object is not displayed on the game screen, a calculation process for scattering the scattered object is required, and the processing load increases. Also, when the first sounding event is executed, if it is necessary to execute the second sounding event, it is necessary to perform the movement process of the scattered object so that the scattered object always comes into contact with the second object. Will increase. Such a problem is not limited to the above example, but may occur in various pronunciation expressions such as when it is desired to continuously generate a sound from a plurality of sound sources.

そこで本発明は、処理負荷の増大を抑えつつ様々な発音表現を実現することができるゲームプログラムおよびゲーム装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a game program and a game apparatus that can realize various pronunciation expressions while suppressing an increase in processing load.

本発明の一態様に係るゲームプログラムは、コンピュータを、仮想空間を生成する仮想空間生成手段、前記仮想空間における所定の第1領域において所定の第1発音イベントが発生したか否かを検出する第1発音イベント判定手段、前記第1領域において前記第1発音イベントが発生した場合、所定の第2領域において所定の第2発音イベントの発音を実行する第2発音イベント実行手段、および前記第1領域において発生した前記第1発音イベントの所定の聴取位置における音量が基準音量以上か否かを判定する音量判定手段として機能させ、前記第2発音イベント実行手段は、前記第1領域において前記第1発音イベントが発生した場合、かつ、前記音量が前記基準音量以上である場合、前記第2領域において前記第2発音イベントの発音を実行する。   A game program according to an aspect of the present invention includes a virtual space generation unit that generates a virtual space, a computer program that detects whether or not a predetermined first sounding event has occurred in a predetermined first region of the virtual space. A first sounding event determining means; a second sounding event executing means for sounding a predetermined second sounding event in a predetermined second area when the first sounding event occurs in the first area; and the first area Functioning as sound volume determination means for determining whether or not the sound volume at the predetermined listening position of the first sounding event generated in step 1 is equal to or higher than a reference sound volume, and the second sounding event executing means is configured to perform the first sounding event in the first region. When an event occurs and when the volume is equal to or higher than the reference volume, the second sounding event is generated in the second area. To run.

前記ゲームプログラムは、前記コンピュータを、前記仮想空間を移動し、前記聴取位置の基準となる所定のキャラクタを制御するキャラクタ制御手段として機能させ、前記第2発音イベント実行手段は、前記第2領域において前記聴取位置に最も近い位置に前記第2発音イベントの音源を配置してもよい。   The game program causes the computer to function as character control means for controlling a predetermined character that moves in the virtual space and serves as a reference for the listening position. The sound source of the second sounding event may be arranged at a position closest to the listening position.

前記第2領域と当該第2領域以外の領域とを画する所定のオブジェクトが配置され、前記第2発音イベント実行手段は、前記所定のオブジェクトに前記第2発音イベントの音源を配置してもよい。また、前記第2発音イベント実行手段は、前記所定のオブジェクトの状態に応じて異なる第2発音イベントを実行してもよい。   A predetermined object that defines the second area and an area other than the second area may be arranged, and the second sounding event execution unit may place a sound source of the second sounding event on the predetermined object. . The second sounding event execution means may execute a second sounding event that varies depending on the state of the predetermined object.

また、本発明の他の態様に係るゲーム装置は、上記のゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えている。   A game device according to another aspect of the present invention includes a program storage unit that stores the above-described game program, and a computer that executes the program stored in the program storage unit.

本発明によれば、処理負荷の増大を抑えつつ様々な発音表現を実現することができるゲームプログラムおよびゲーム装置を提供することができる。   According to the present invention, it is possible to provide a game program and a game apparatus capable of realizing various pronunciation expressions while suppressing an increase in processing load.

本発明の一実施の形態に係るゲーム装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the game device which concerns on one embodiment of this invention. 図1に示すゲーム装置が備える制御部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part with which the game device shown in FIG. 1 is provided. 本実施の形態における仮想空間に配置されたキャラクタの例を示す平面図である。It is a top view which shows the example of the character arrange | positioned in the virtual space in this Embodiment. 図3の配置例における音源および音の聴取位置を示す平面図である。It is a top view which shows the sound source and the listening position of the sound in the arrangement example of FIG. 本実施の形態の変形例における仮想空間に配置されたキャラクタの例を示す平面図である。It is a top view which shows the example of the character arrange | positioned in the virtual space in the modification of this Embodiment. 図5の配置例における音源および音の聴取位置を示す平面図である。It is a top view which shows the sound source and the listening position of the sound in the arrangement example of FIG.

以下、本発明の実施の形態に係るゲームプログラムおよびゲーム装置について、図面を参照しつつ説明する。以下の説明では、家庭用ゲーム装置において実行されるアクションゲームを例として説明する。本実施の形態に係るアクションゲームは、仮想のゲーム空間内でプレイヤキャラクタを操作して、敵キャラクタを討伐する、アイテムを探索する、所定のイベントを攻略する等の所定のクエストを攻略することにより進行する。   Hereinafter, a game program and a game apparatus according to embodiments of the present invention will be described with reference to the drawings. In the following description, an action game executed in a home game device will be described as an example. In the action game according to the present embodiment, a player character is manipulated in a virtual game space to defeat an enemy character, search for an item, and capture a predetermined event. proceed.

[ハードウェアの構成]
図1は、本発明の一実施の形態に係るゲーム装置1の内部構成を示すブロック図である。図1に示すようにゲーム装置1は制御部30を備えている。該制御部30は、CPU11、描画データ生成プロセッサ12、RAM(Random Access Memory)13、ROM(Read Only Memory)14、描画処理プロセッサ15、および音声処理プロセッサ18を含んでいる。さらに、ゲーム装置1は、この他にもVRAM(Video-RAM)16、アンプ19、スピーカ20、イヤホン端子21、操作部22、メディアインタフェース23、無線LANモジュール24、およびバス25を備えている。そして、これらのうちCPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、音声処理プロセッサ18、操作部22、メディアインタフェース23、および無線LANモジュール24が、バス25によって相互にデータ伝送可能に接続されている。
[Hardware configuration]
FIG. 1 is a block diagram showing an internal configuration of a game apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the game apparatus 1 includes a control unit 30. The control unit 30 includes a CPU 11, a drawing data generation processor 12, a RAM (Random Access Memory) 13, a ROM (Read Only Memory) 14, a drawing processing processor 15, and a sound processing processor 18. The game apparatus 1 further includes a VRAM (Video-RAM) 16, an amplifier 19, a speaker 20, an earphone terminal 21, an operation unit 22, a media interface 23, a wireless LAN module 24, and a bus 25. Of these, the CPU 11, the drawing data generation processor 12, the RAM 13, the ROM 14, the drawing processing processor 15, the voice processing processor 18, the operation unit 22, the media interface 23, and the wireless LAN module 24 can mutually transmit data via the bus 25. It is connected to the.

操作部22は、方向キーおよびその他のボタン群(図示せず)を含んでおり、ユーザの操作を受け付けて、その操作内容に応じた操作情報(操作信号)をCPU11に入力する。また、方向キーおよびボタン群が有する各種のボタンは、プレイヤキャラクタの特定の動作を指示するための操作子である。また、操作部22には、これら操作子以外にゲーム装置1の電源の入/切を行うための電源スイッチ等が含まれる。   The operation unit 22 includes direction keys and other button groups (not shown), accepts a user operation, and inputs operation information (operation signal) according to the operation content to the CPU 11. In addition, various buttons included in the direction key and the button group are operators for instructing a specific action of the player character. The operation unit 22 includes a power switch for turning on / off the power of the game apparatus 1 in addition to these operators.

メディアインタフェース23は、図示しないメディア装着部にセットされたゲームメディア5にアクセスしてゲームプログラム5aおよびゲームデータ5bを読み出す。このうちゲームプログラム5aは、例えば、プレイヤキャラクタと敵キャラクタとが仮想空間にて対戦する内容のゲームを、ゲーム装置1に実行させる。   The media interface 23 accesses the game media 5 set in a media mounting unit (not shown) and reads the game program 5a and the game data 5b. Among these, the game program 5a causes the game apparatus 1 to execute a game having a content in which a player character and an enemy character battle in a virtual space, for example.

また、ゲームデータ5bには、上記ゲームを実行する上で必要なデータとして、キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、効果音やBGMなどの音声データ、文字や記号によるメッセージデータ等が含まれている。なお、記録媒体であるゲームメディア5は、半導体メモリのほか、光ディスクの一種であるUMD(Universal Media Disc)(登録商標)を採用することができる。   The game data 5b includes data necessary for executing the game, such as character and background image data, image data for displaying information such as status, sound data such as sound effects and BGM, characters and symbols. Message data etc. are included. The game media 5 that is a recording medium can employ UMD (Universal Media Disc) (registered trademark), which is a kind of optical disc, in addition to a semiconductor memory.

RAM13には、ゲームの進行に応じてゲームメディア5から読み込まれたゲームプログラム5aおよびゲームデータ5bを格納するロードエリア、ならびに、CPU11がゲームプログラム5aを処理する際に使用するためのワークエリアが設定されている。ROM14には、ディスクローディング機能などのゲーム装置1の基本的機能、ゲームメディア5に記憶されているゲームプログラム5aおよびゲームデータ5bの読み出し処理を制御する基本プログラムが記憶されている。   In the RAM 13, a load area for storing the game program 5a and game data 5b read from the game media 5 according to the progress of the game, and a work area for use when the CPU 11 processes the game program 5a are set. Has been. The ROM 14 stores basic functions of the game apparatus 1 such as a disk loading function, and a basic program for controlling the reading process of the game program 5a and game data 5b stored in the game media 5.

CPU11は、ゲームメディア5に記録されているゲームプログラム5aおよびゲームデータ5bの全部または一部を、メディアインタフェース23を通じてRAM13に読み込む。CPU11は、ユーザによる操作部22の操作に応じてゲームプログラム5aを実行し、ゲーム進行を制御する。より具体的には、ユーザに操作されることによって操作部22から操作信号が入力されると、CPU11は、ゲームプログラム5aに従ってその操作信号に対応する所定のゲーム進行処理を行う。   The CPU 11 reads all or part of the game program 5 a and the game data 5 b recorded on the game media 5 into the RAM 13 through the media interface 23. CPU11 runs game program 5a according to operation of operation part 22 by a user, and controls game progress. More specifically, when an operation signal is input from the operation unit 22 by being operated by the user, the CPU 11 performs a predetermined game progress process corresponding to the operation signal in accordance with the game program 5a.

CPU11は、処理結果に基づいて、ゲーム進行を示す画像(以下、「ゲーム画面」)としてディスプレイ(表示部)2に表示する。さらに、CPU11は、処理結果に基づいて、ゲーム進行を示す音声信号を音声出力部(スピーカ20またはイヤホン端子21)に出力する。   The CPU 11 displays on the display (display unit) 2 as an image indicating the progress of the game (hereinafter, “game screen”) based on the processing result. Further, the CPU 11 outputs an audio signal indicating the progress of the game to the audio output unit (the speaker 20 or the earphone terminal 21) based on the processing result.

上記ゲーム画面の描画は、CPU11の指示により、描画処理プロセッサ15が行う。すなわち、CPU11は、操作部22から入力される操作信号に基づき、ディスプレイ2に表示すべきゲーム画面の内容を決定する。描画データ生成プロセッサ12は、その内容に対して必要な描画データを生成する。そして、その描画データは、描画処理プロセッサ15に転送される。   Drawing of the game screen is performed by the drawing processor 15 in accordance with an instruction from the CPU 11. That is, the CPU 11 determines the content of the game screen to be displayed on the display 2 based on the operation signal input from the operation unit 22. The drawing data generation processor 12 generates necessary drawing data for the contents. Then, the drawing data is transferred to the drawing processor 15.

描画処理プロセッサ15は、描画データに基づいて描画処理を行う。描画処理プロセッサ15は、描画データに基づいて1/60秒毎にゲーム画面を生成し、生成したゲーム画面をVRAM16に書き込む。ディスプレイ2は、半透過型カラー液晶ディスプレイとバックライトLED(Light Emitting Diode)とを有し、VRAM16に書き込まれたゲーム画面を表示する。   The drawing processor 15 performs drawing processing based on the drawing data. The drawing processor 15 generates a game screen every 1/60 seconds based on the drawing data, and writes the generated game screen in the VRAM 16. The display 2 includes a transflective color liquid crystal display and a backlight LED (Light Emitting Diode), and displays a game screen written in the VRAM 16.

また、CPU11は、ゲームの進行に応じて、スピーカ20から出力すべき効果音やBGM等の音声を決定する。CPU11は、決定した音声を出力するための音声データをRAM13から読み出して音声処理プロセッサ18に入力する。すなわち、CPU11は、ゲームの進行に伴って発音イベントが発生すると、その発音イベントに応じた音声データ(ゲームメディア5からロードされた音声データ)をRAM13から読み出して音声処理プロセッサ18に入力する。   Further, the CPU 11 determines sound effects such as sound effects and BGM to be output from the speaker 20 according to the progress of the game. The CPU 11 reads out audio data for outputting the determined audio from the RAM 13 and inputs it to the audio processor 18. That is, when a sound generation event occurs with the progress of the game, the CPU 11 reads out sound data corresponding to the sound generation event (voice data loaded from the game media 5) from the RAM 13 and inputs it to the sound processing processor 18.

音声処理プロセッサ18は、DSP(Digital Signal Processor)で構成されている。音声処理プロセッサ18は、CPU11によって入力された音声データに対して所定の効果(例えば、リバーブ、コーラスなど)を付与したのちアナログ信号に変換して、アンプ19に出力する。アンプ19は、音声処理プロセッサ18から入力された音声信号を増幅したのち、スピーカ20およびイヤホン端子21に出力する。   The audio processor 18 is constituted by a DSP (Digital Signal Processor). The audio processor 18 gives a predetermined effect (for example, reverb, chorus) to the audio data input by the CPU 11, converts it to an analog signal, and outputs it to the amplifier 19. The amplifier 19 amplifies the audio signal input from the audio processor 18 and then outputs it to the speaker 20 and the earphone terminal 21.

無線LANモジュール24は、通信規格IEEE802.11b(使用周波数帯2.4GHz、通信速度11Mbps)に準拠した無線LANによって他のゲーム装置1とデータ通信を行い、ネットワークを構成するための通信モジュールである。   The wireless LAN module 24 is a communication module for configuring a network by performing data communication with another game device 1 through a wireless LAN compliant with the communication standard IEEE802.11b (used frequency band 2.4 GHz, communication speed 11 Mbps). .

[制御部の機能的構成]
図2は、図1に示すゲーム装置1が備える制御部30の機能的な構成を示すブロック図である。図2は、主に、上述したゲームシステムを実現するのに必要な機能を示している。前述したとおり、制御部30は、CPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、および音声処理プロセッサ18を含むコンピュータとして動作する。そして、このコンピュータとして動作する制御部30は、ゲームメディア5から読み込んだゲームプログラム5aおよびゲームデータ5bを実行することによって、以下に説明するような機能を備える。
[Functional configuration of control unit]
FIG. 2 is a block diagram showing a functional configuration of the control unit 30 provided in the game apparatus 1 shown in FIG. FIG. 2 mainly shows functions necessary for realizing the above-described game system. As described above, the control unit 30 operates as a computer including the CPU 11, the drawing data generation processor 12, the RAM 13, the ROM 14, the drawing processing processor 15, and the sound processing processor 18. And the control part 30 which operate | moves as this computer is provided with the function which is demonstrated below by executing the game program 5a and the game data 5b which were read from the game media 5. FIG.

すなわち、制御部30は、例えば、仮想空間生成手段31、発音制御手段32、音量判定手段33、およびオブジェクト制御手段34といった機能を発揮する。発音制御手段32は、第1発音イベント判定手段321および第2発音イベント実行手段322を含む。オブジェクト制御手段34は、キャラクタ制御手段341を含む。   That is, the control unit 30 exhibits functions such as a virtual space generation unit 31, a sound generation control unit 32, a sound volume determination unit 33, and an object control unit 34, for example. The sound generation control unit 32 includes a first sound generation event determination unit 321 and a second sound generation event execution unit 322. The object control means 34 includes character control means 341.

このうち、仮想空間生成手段31は、キャラクタが行動する3次元の仮想空間Vを生成する。仮想空間Vには、プレイヤキャラクタCおよび敵キャラクタが対戦する仮想空間も含まれる。仮想空間Vには仮想カメラ(図示せず)が配置され、仮想カメラの撮像範囲が二次元画像としてゲーム画面に表示される。仮想カメラは、例えばプレイヤキャラクタCの所定距離後方に配置される。   Among these, the virtual space generation unit 31 generates a three-dimensional virtual space V in which the character behaves. The virtual space V includes a virtual space where the player character C and the enemy character battle each other. A virtual camera (not shown) is arranged in the virtual space V, and the imaging range of the virtual camera is displayed on the game screen as a two-dimensional image. The virtual camera is arranged, for example, behind the player character C by a predetermined distance.

オブジェクト制御手段34は、仮想空間Vにおけるオブジェクトの動作を制御する。オブジェクトには固定オブジェクトおよび移動オブジェクトが含まれる。オブジェクト制御手段34は、移動オブジェクトの移動を制御する。また、オブジェクト制御手段34は、固定オブジェクトおよび移動オブジェクトの静止状態における動きも制御する。例えば、オブジェクト制御手段34は、固定オブジェクトである幌(後述する図3におけるJ2)がはためく動きを制御する。   The object control unit 34 controls the operation of the object in the virtual space V. Objects include fixed objects and moving objects. The object control means 34 controls the movement of the moving object. The object control means 34 also controls the stationary object and the moving object in a stationary state. For example, the object control means 34 controls the movement of a hood (J2 in FIG. 3 described later) that is a fixed object flutters.

移動オブジェクトには、プレイヤキャラクタおよびノンプレイヤキャラクタも含まれる。キャラクタ制御手段34は、仮想空間VにおけるプレイヤキャラクタCおよび敵キャラクタを含む様々なキャラクタの動作を制御する。例えば、キャラクタ制御手段34は、ユーザによる操作部22の操作に応じて、プレイヤキャラクタCの移動、攻撃、および防御を含む各種動作を制御する。   The moving objects include player characters and non-player characters. The character control means 34 controls the actions of various characters including the player character C and the enemy character in the virtual space V. For example, the character control unit 34 controls various actions including movement, attack, and defense of the player character C in accordance with the operation of the operation unit 22 by the user.

また、発音制御手段32は、所定の第1発音イベントおよび第2発音イベントの発音を制御する。音量判定手段33は、第1発音イベントの所定の聴取位置における音量が基準音量以上か否かを判定する。   The sound generation control means 32 controls the sound generation of the predetermined first sound generation event and second sound generation event. The volume determination means 33 determines whether or not the volume at the predetermined listening position of the first sounding event is equal to or higher than the reference volume.

[発音イベントの実行態様]
図3は、本実施の形態における仮想空間に配置されたキャラクタの例を示す平面図である。3次元の仮想空間Vには、地形がポリゴン、テクスチャ等で描画され、当該地形上に各種のオブジェクト(図示しない岩等の固定オブジェクト、各種キャラクタ等の移動オブジェクト等)が配置される。
[Execution mode of pronunciation event]
FIG. 3 is a plan view showing an example of characters arranged in the virtual space in the present embodiment. In the three-dimensional virtual space V, the terrain is drawn with polygons, textures, and the like, and various objects (fixed objects such as rocks not shown, moving objects such as various characters) are arranged on the terrain.

図3の例では、仮想空間Vにユーザが操作することによって行動するプレイヤキャラクタCが配置される。プレイヤキャラクタCは建物(バラック)B内に位置している。また、建物Bの外では、移動オブジェクトであるヘリコプタJ1が飛来する。建物Bの天井の一部には、屋根の代わりに布製の幌J2が取り付けられている。   In the example of FIG. 3, a player character C that acts as the user operates in the virtual space V is arranged. The player character C is located in a building (barracks) B. In addition, outside the building B, a helicopter J1, which is a moving object, flies. A cloth hood J2 is attached to a part of the ceiling of the building B instead of the roof.

このような状況において、ヘリコプタJ1の飛翔音(ヘリコプタJ1のロータ音)によって建物Bの布製の幌J2がバタバタと音を立ててはためくという演出が行われる。このために、ヘリコプタJ1の飛翔音が第1発音イベントとして設定されている。また、仮想空間Vには、ヘリコプタJ1の飛翔領域として第1領域A1が設定されている。ヘリコプタJ1が第1領域A1に位置している間、上記のような演出が行われる。また、幌J2のはためく音が第2発音イベントとして設定されている。   In such a situation, there is an effect that the cloth hood J2 of the building B flutters and flutters with the flying sound of the helicopter J1 (the rotor sound of the helicopter J1). For this reason, the flying sound of the helicopter J1 is set as the first sounding event. In the virtual space V, a first area A1 is set as a flight area of the helicopter J1. While the helicopter J1 is located in the first region A1, the above effects are performed. Further, a flapping sound of the hood J2 is set as the second sounding event.

図4は、図3の配置例における音源および音の聴取位置を示す平面図である。図4に示すように、ヘリコプタJ1を基準とする所定位置(例えばヘリコプタJ1の中心位置)に第1発音イベントに対応する第1音源S1が設定され、当該第1音源S1の位置から対応する音声データが再生されるように発音が制御される。ヘリコプタJ1の位置が移動すると第1音源S1の位置もそれに応じて移動する。なお、第1音源S1は、ヘリコプタJ1が第1領域A1に位置するか否かに拘わらず設定されてもよい(第1領域A1以外でも発音可能としてもよい)し、ヘリコプタJ1が第1領域A1に位置する場合にのみ設定されてもよい(第1領域A1内でのみ発音可能としてもよい)。   FIG. 4 is a plan view showing the sound source and the listening position of the sound in the arrangement example of FIG. As shown in FIG. 4, the first sound source S1 corresponding to the first sounding event is set at a predetermined position (for example, the center position of the helicopter J1) with the helicopter J1 as a reference, and the corresponding sound from the position of the first sound source S1. Pronunciation is controlled so that data is played back. When the position of the helicopter J1 moves, the position of the first sound source S1 also moves accordingly. The first sound source S1 may be set regardless of whether or not the helicopter J1 is located in the first area A1 (the sound may be generated outside the first area A1), and the helicopter J1 may be set in the first area A1. It may be set only when it is located at A1 (the sound may be generated only within the first area A1).

第2発音イベントに対応する第2音源S2は、後述する第2発音イベント発音処理によって第2領域A2に設定される。第2領域A2は、幌J2のオブジェクト領域に設定されている。すなわち、幌J2は、高さ方向に第2領域A2と当該第2領域A2以外の領域とを画するオブジェクトとして配置されている。幌J2のオブジェクトデータに第2発音イベントの音源データ(後述)が関連付けられている。なお、これに加えてまたはこれに代えて、第2領域A2は、幌J2のオブジェクト領域外に設定されてもよい。また、第2領域A2は、幌J2のオブジェクト領域に基づいて設定され、かつ、当該オブジェクト領域より小さい領域に設定されてもよい。   The second sound source S2 corresponding to the second sounding event is set in the second area A2 by the second sounding event sounding process described later. The second area A2 is set as the object area of the hood J2. That is, the hood J2 is arranged as an object that delineates the second area A2 and areas other than the second area A2 in the height direction. Sound source data (described later) of the second sounding event is associated with the object data of the hood J2. In addition to or instead of this, the second area A2 may be set outside the object area of the hood J2. The second area A2 may be set based on the object area of the hood J2, and may be set to an area smaller than the object area.

ゲームデータ5bには、第1発音イベントおよび第2発音イベントに関するデータとして、それぞれ、音声データ、音源データ、音響効果データ等が含まれる。音声データは、音源S1,S2から発音する音のデータである。本実施の形態において、第1音源S1の音声データは、ヘリコプタJ1の飛翔音のデータにより構成される。第2音源S2の音声データは、幌J2がはためく音のデータにより構成される。   The game data 5b includes sound data, sound source data, sound effect data, and the like as data relating to the first sounding event and the second sounding event, respectively. The sound data is sound data generated from the sound sources S1 and S2. In the present embodiment, the sound data of the first sound source S1 is composed of flight sound data of the helicopter J1. The sound data of the second sound source S2 is composed of sound data that the hood J2 flutters.

音源データは、音源S1,S2の配置態様を示すデータである。第1音源S1の配置態様には、例えば第1音源S1が配置されるオブジェクトおよび配置される第1音源S1の個数、位置等の情報が含まれる。また、第2音源S2の配置態様には、例えば第2音源S2が配置される第2領域A2および配置される第2音源S2の個数、配置条件等の情報が含まれる。音響効果データは、音源S1,S2の発音時に付加する音響効果(リバーブ等)の種類、適用要否等を示すデータである。   The sound source data is data indicating the arrangement mode of the sound sources S1 and S2. The arrangement mode of the first sound source S1 includes, for example, information on the object on which the first sound source S1 is arranged and the number and position of the first sound source S1 to be arranged. Further, the arrangement mode of the second sound source S2 includes, for example, information such as the second area A2 in which the second sound source S2 is arranged, the number of the second sound sources S2 to be arranged, arrangement conditions, and the like. The sound effect data is data indicating the kind of sound effect (such as reverb) added when the sound sources S1 and S2 are sounded, necessity of application, and the like.

さらに、ゲームデータ5bに含まれる第2発音イベントのデータは、第1発音イベントのデータに関連付けられている。例えば、ゲームデータ5bは、発音制御手段32が第1発音イベントを実行するために第1発音イベントのデータを取得した場合に、対応する第2発音イベントのデータを取得できるようなデータ構造を有している。   Furthermore, the data of the second sounding event included in the game data 5b is associated with the data of the first sounding event. For example, the game data 5b has a data structure such that when the sound generation control unit 32 acquires data of the first sounding event in order to execute the first sounding event, the data of the corresponding second sounding event can be acquired. doing.

本ゲームにおいて、音の聴取位置Lは、プレイヤキャラクタCに基づいて設定される。図4の例では、プレイヤキャラクタCの中心(頭部)位置に設定される。これに代えて、音の聴取位置Lは、プレイヤキャラクタCの所定距離前方または後方に設定されてもよい。また、例えば、プレイヤキャラクタCの後方にゲーム画面を撮像するための仮想カメラ(図示せず)が配置される場合、当該仮想カメラの位置に音の聴取位置Lが設定されてもよい。また、プレイヤキャラクタCと仮想カメラとの間に音の聴取位置Lが設定されてもよい。   In this game, the sound listening position L is set based on the player character C. In the example of FIG. 4, the center (head) position of the player character C is set. Instead, the sound listening position L may be set forward or backward a predetermined distance of the player character C. For example, when a virtual camera (not shown) for capturing a game screen is arranged behind the player character C, a sound listening position L may be set at the position of the virtual camera. Also, a sound listening position L may be set between the player character C and the virtual camera.

発音制御手段32は、所定の条件を満たした場合、第1音源S1に基づく発音イベントを発生させる。例えば、発音制御手段32は、プレイヤキャラクタCとヘリコプタJ1との距離が所定の距離未満となった場合に、ヘリコプタJ1の飛翔音を発音する第1発音イベントを発生させる。これに代えて、上述したように、発音制御手段32は、ヘリコプタJ1が第1領域A1に位置している場合に、第1発音イベントを発生させてもよい。   The sound generation control unit 32 generates a sound generation event based on the first sound source S1 when a predetermined condition is satisfied. For example, when the distance between the player character C and the helicopter J1 is less than a predetermined distance, the sound generation control unit 32 generates a first sound generation event that generates the flying sound of the helicopter J1. Instead, as described above, the sound generation control unit 32 may generate the first sound generation event when the helicopter J1 is located in the first region A1.

第1発音イベントにおいて、例えば、発音制御手段32は、第1音源S1(ヘリコプタJ1)の現在位置の座標およびプレイヤキャラクタCの位置座標を取得する。発音制御手段32は、プレイヤキャラクタCの位置と第1音源S1の位置との間の距離が近いほど第1音源S1の音量が大きく、距離が遠いほど第1音源S1の音量が小さくなるように制御する。すなわち、音の聴取位置Lにおける第1発音イベントの音量は、第1音源S1の位置と聴取位置Lとの間の距離に基づいて決定される。   In the first sounding event, for example, the sounding control means 32 acquires the coordinates of the current position of the first sound source S1 (helicopter J1) and the position coordinates of the player character C. The sound generation control means 32 increases the volume of the first sound source S1 as the distance between the position of the player character C and the position of the first sound source S1 is shorter, and decreases the volume of the first sound source S1 as the distance is longer. Control. That is, the volume of the first sounding event at the sound listening position L is determined based on the distance between the position of the first sound source S1 and the listening position L.

ここで、第1発音イベント判定手段321は、仮想空間Vにおける第1領域A1において第1発音イベントが発生したか否かを検出する。例えば、第1発音イベント判定手段321は、新規に発生した第1発音イベントまたは発音継続中の第1発音イベントの第1音源S1の位置座標を取得し、当該位置座標が第1領域A1に含まれるか否かを判定する。   Here, the first sounding event determination unit 321 detects whether or not a first sounding event has occurred in the first region A1 in the virtual space V. For example, the first sounding event determination unit 321 acquires the position coordinates of the first sound source S1 of the first sounding event that has newly occurred or the first sounding event that is continuously sounding, and the position coordinates are included in the first region A1. It is determined whether or not.

これに代えて、例えば、発音が必ず第1領域A1の範囲外で開始される第1発音イベントの場合、第1発音イベント判定手段321は、発音継続中の第1発音イベントに対応する第1音源S1の位置座標が、第1領域A1を区画する境界線(図4における破線)を越えたか否かによって第1音源S1が第1領域A1内に位置するか否かを判定してもよい。   Instead of this, for example, in the case of the first sounding event whose sounding always starts outside the range of the first area A1, the first sounding event determination means 321 includes the first sounding event corresponding to the first sounding event that is continuously sounding. It may be determined whether or not the first sound source S1 is located in the first area A1 depending on whether or not the position coordinates of the sound source S1 exceed a boundary line (a broken line in FIG. 4) that divides the first area A1. .

第1領域A1における第1発音イベントの発生が検出された場合、音量判定手段33は、第1領域A1において発生した第1発音イベントのプレイヤキャラクタCの位置(音の聴取位置L)における音量が基準音量以上か否かを判定する。   When the occurrence of the first sounding event in the first area A1 is detected, the sound volume determination means 33 determines the sound volume at the position of the player character C (sound listening position L) of the first sounding event that occurred in the first area A1. It is determined whether or not the reference volume is exceeded.

例えば、プレイヤキャラクタCが第1領域A1に近い位置に位置している場合、ヘリコプタJ1が第1領域A1に進入した直後に第1発音イベントの音量が基準音量以上となる。一方、プレイヤキャラクタCが第1領域A1に遠い位置に位置している場合、ヘリコプタJ1が第1領域A1に進入しても第1発音イベントの音量が基準音量以上とならない場合がある。   For example, when the player character C is located near the first area A1, the volume of the first sounding event becomes equal to or higher than the reference volume immediately after the helicopter J1 enters the first area A1. On the other hand, when the player character C is located far from the first area A1, the volume of the first sounding event may not exceed the reference volume even if the helicopter J1 enters the first area A1.

第2発音イベント実行手段322は、第1領域A1において第1発音イベントが発生し、かつ、当該第1発音イベントの音量が基準音量以上である場合、第2領域A2において第2発音イベントの発音を実行する。   The second sounding event executing means 322 generates a sound of the second sounding event in the second area A2 when the first sounding event occurs in the first area A1 and the volume of the first sounding event is equal to or higher than the reference sound volume. Execute.

この際、本実施の形態においては、第2発音イベントのデータは、第1発音イベントのデータに関連付けられている。したがって、第1発音イベントが発生した際に、第2発音イベント実行手段322が第2発音イベントの発音データを容易に取得することができ、処理負荷の増大を抑えることができる。   At this time, in the present embodiment, the data of the second sounding event is associated with the data of the first sounding event. Therefore, when the first sounding event occurs, the second sounding event execution means 322 can easily acquire the sounding data of the second sounding event, and the increase in processing load can be suppressed.

第2発音イベントの実行に際し、第2発音イベント実行手段322は、第2領域A2内に第2発音イベントに対応する第2音源S2を配置する。本実施の形態において、第2発音イベント実行手段322は、幌J2に第2音源S2を配置する。さらに、本実施の形態において、図4に示すように、第2発音イベント実行手段322は、第2領域A2において音の聴取位置L(プレイヤキャラクタCの位置)に最も近い位置に第2音源S2を配置する。   When executing the second sounding event, the second sounding event executing means 322 arranges the second sound source S2 corresponding to the second sounding event in the second area A2. In the present embodiment, the second sounding event execution means 322 places the second sound source S2 on the hood J2. Further, in the present embodiment, as shown in FIG. 4, the second sounding event executing means 322 is arranged such that the second sound source S2 is located at a position closest to the sound listening position L (the position of the player character C) in the second area A2. Place.

第2発音イベント322は、第2音源S2から第2発音イベントの音声データを再生することにより、第2発音イベントを実行する。この際、例えば、第2発音イベント実行手段322は、第2音源S2の座標および音の聴取位置L(プレイヤキャラクタCの位置)の座標を取得する。第2発音イベント実行手段322は、第2音源S2の位置とプレイヤキャラクタCの位置との間の距離が近いほど第2音源S2の音量が大きく、距離が遠いほど第2音源S2の音量が小さくなるように制御する。   The second sounding event 322 executes the second sounding event by reproducing the sound data of the second sounding event from the second sound source S2. At this time, for example, the second sounding event executing means 322 acquires the coordinates of the second sound source S2 and the coordinates of the sound listening position L (the position of the player character C). The second sounding event execution means 322 increases the volume of the second sound source S2 as the distance between the position of the second sound source S2 and the position of the player character C is shorter, and decreases the volume of the second sound source S2 as the distance is longer. Control to be.

オブジェクト制御手段34は、第2発音イベントの実行に合わせて対応するオブジェクトの動作を制御する。本例において、オブジェクト制御手段34は、幌J2がはためく動作を実行する。   The object control means 34 controls the operation of the corresponding object in accordance with the execution of the second sounding event. In this example, the object control means 34 performs an operation in which the hood J2 flutters.

上記態様によれば、第1発音イベントの発生位置(第1音源S1の位置)と音の聴取位置L(プレイヤキャラクタCの位置)との関係に応じて第2の発音イベントが発生する。すなわち、一の発音イベントの発生をトリガとして他の発音イベントを発生させることができる。したがって、音源が配置されているオブジェクトへの接触がなくても、音の連鎖を簡単に実現することができる。これにより、処理負荷の増大を抑えつつ様々な発音表現を実現することができる。   According to the above aspect, the second sounding event is generated according to the relationship between the position of the first sounding event (the position of the first sound source S1) and the sound listening position L (the position of the player character C). That is, another sounding event can be generated with the occurrence of one sounding event as a trigger. Therefore, even if there is no contact with the object on which the sound source is arranged, the sound chain can be easily realized. Thereby, various pronunciation expressions can be realized while suppressing an increase in processing load.

さらに、上記態様によれば、第2発音イベントの発音条件として、第1領域A1において発生した第1発音イベントの聴取位置Lでの音量が基準音量以上であることが含まれる。これにより、大きい音(第1発音イベント)が生じた事象によって第2発音イベントが引き起こされることを表現することができ、よりリアリティの高い発音表現を実現することができる。   Further, according to the above aspect, the sound generation condition of the second sound generation event includes that the sound volume at the listening position L of the first sound event generated in the first region A1 is equal to or higher than the reference sound volume. Accordingly, it is possible to express that the second sounding event is caused by the event that the loud sound (first sounding event) is generated, and it is possible to realize a sounding expression with higher reality.

また、上記態様によれば、第2発音イベントに対応する第2音源S2が聴取位置Lの近くに設定される。これにより、第2発音イベントの音量が小さくてもユーザに容易に知覚させることができる。   Further, according to the above aspect, the second sound source S2 corresponding to the second sounding event is set near the listening position L. Thereby, even if the volume of the second sounding event is small, the user can easily perceive it.

なお、第2発音イベント実行手段322は、幌J2の状態に応じて異なる第2発音イベントを実行してもよい。例えば、幌J2が破れている場合と幌J2が破れていない場合とで第2発音イベントにより生じる音が異なっていてもよい。この場合、ゲームデータ5bは、複数の異なる音声データを含み、第2発音イベント実行手段322は、幌J2の状態に応じて再生する音声データを選択してもよい。これに代えて、ゲームデータ5bは、一の音声データに付加する複数の音響効果データを含み、第2発音イベント実行手段322は、幌J2の状態に応じて対応する音声データに付加する音響効果データを選択してもよい。   The second sounding event execution means 322 may execute different second sounding events according to the state of the hood J2. For example, the sound generated by the second sounding event may be different between when the hood J2 is torn and when the hood J2 is not torn. In this case, the game data 5b may include a plurality of different audio data, and the second sounding event execution means 322 may select audio data to be reproduced according to the state of the hood J2. Instead, the game data 5b includes a plurality of sound effect data to be added to one sound data, and the second sounding event execution means 322 has a sound effect to be added to the sound data corresponding to the state of the hood J2. Data may be selected.

上記実施の形態において、第1発音イベント判定手段321は、仮想空間Vにおける第1領域A1において第1発音イベントが発生したか否かを第1領域A1の情報を用いて検出したが、これに限られない。   In the above embodiment, the first sounding event determination unit 321 detects whether or not the first sounding event has occurred in the first area A1 in the virtual space V using the information of the first area A1. Not limited.

例えば、第1発音イベントのための第1音源S1が第1領域A1に配置された固定オブジェクトまたは第1領域A1内のみを移動する移動オブジェクトに基づいて設定されている場合、第1発音イベント判定手段321は、当該オブジェクトに配置された第1音源S1から音を再生した(すなわち、第1発音イベントが発生した)ことをもって、第1領域Aにおいて第1発音イベントが発生したと判定してもよい。この場合、第1発音イベントと、第2発音イベントとが第1領域A1の情報を介さずに直接関連付けられていてもよい。   For example, when the first sound source S1 for the first sounding event is set based on a fixed object arranged in the first area A1 or a moving object that moves only in the first area A1, the first sounding event determination The means 321 determines that the first sounding event has occurred in the first area A when the sound is reproduced from the first sound source S1 arranged in the object (that is, the first sounding event has occurred). Good. In this case, the first sounding event and the second sounding event may be directly associated without using the information in the first area A1.

図5は、本実施の形態の変形例における仮想空間に配置されたキャラクタの例を示す平面図である。また、図6は、図5の配置例における音源および音の聴取位置を示す平面図である。図3および図4と同様の構成については同じ符号を付し、説明を省略する。   FIG. 5 is a plan view showing an example of characters arranged in the virtual space in the modification of the present embodiment. FIG. 6 is a plan view showing the sound source and the listening position of the sound in the arrangement example of FIG. The same components as those in FIGS. 3 and 4 are denoted by the same reference numerals, and description thereof is omitted.

図5の例では、プレイヤキャラクタCがいる建物Bの外に固定オブジェクトである複数の大砲J31,J32が配置されている。各大砲J31,J32は、自身の射線上に、移動オブジェクトである敵ヘリコプタJ4が位置すると、砲撃を行うように構成されている。建物Bの壁の一部には、ガラス窓J2Bが取り付けられている。   In the example of FIG. 5, a plurality of cannons J31 and J32, which are fixed objects, are arranged outside a building B where the player character C is located. Each cannon J31, J32 is configured to fire when its enemy helicopter J4, which is a moving object, is located on its own line of sight. A glass window J2B is attached to a part of the wall of the building B.

このような状況において、建物B近くの大砲J31が砲撃したことによって建物Bのガラス窓J2Bがガタガタと音を立てて振動するという演出が行われる。このために、建物B近くの大砲J31の砲撃音が第1発音イベントとして設定されている。第1領域A1は、当該大砲J31を含むように設定されている。また、ガラス窓J2Bの振動音が第2発音イベントとして設定されている。   In such a situation, when the cannon J31 near the building B is fired, the glass window J2B of the building B vibrates and vibrates. For this reason, the shooting sound of the cannon J31 near the building B is set as the first sounding event. The first area A1 is set to include the cannon J31. Further, the vibration sound of the glass window J2B is set as the second sounding event.

図6に示すように、各大砲J31,J32を基準とする所定位置(例えば大砲J31,J32の中心位置)に音源S31,S32が設定され、当該音源S31,S32の位置から対応する音声データが再生されるように発音が制御される。これらの音源S31,S32のうちの第1領域A1内に位置する音源S31が第1発音イベントに対応する第1音源として設定される。音源S31,S32から再生される音声データは共通でもよい。   As shown in FIG. 6, sound sources S31 and S32 are set at predetermined positions (for example, center positions of the cannons J31 and J32) with reference to the cannons J31 and J32, and corresponding sound data is obtained from the positions of the sound sources S31 and S32. Pronunciation is controlled to be played. Of these sound sources S31 and S32, the sound source S31 located in the first area A1 is set as the first sound source corresponding to the first sounding event. The audio data reproduced from the sound sources S31 and S32 may be common.

第2発音イベントに対応する第2音源S2は、第2発音イベント発音処理によって第2領域A2に設定される。第2領域A2は、ガラス窓J2Bのオブジェクト領域に設定されている。本変形例において、ガラス窓J2Bは、水平方向に第2領域A2と当該第2領域A2以外の領域とを画するオブジェクトとして配置されている。   The second sound source S2 corresponding to the second sounding event is set in the second area A2 by the second sounding event sounding process. The second area A2 is set as the object area of the glass window J2B. In this modification, the glass window J2B is arranged as an object that draws the second area A2 and an area other than the second area A2 in the horizontal direction.

本変形例においても、図3および図4の例と同様に、第1発音イベント判定手段321は、仮想空間Vにおける第1領域A1において第1発音イベントが発生したか否かを検出する。この際、本変形例において、第1発音イベント判定手段321は、第1領域A1内に配置された第1音源S31から音を再生した(すなわち、第1発音イベントが発生した)か否かを判定する。言い換えると、仮に再生される音声データが第1音源S31と同じでも音源S32から音が再生された場合には、第1発音イベント判定手段321は、第1領域A1内に配置された第1音源から音が再生されたとは判定しない。   Also in this modification, the first sounding event determination unit 321 detects whether or not the first sounding event has occurred in the first region A1 in the virtual space V, as in the examples of FIGS. At this time, in the present modification, the first sound generation event determination unit 321 determines whether or not the sound is reproduced from the first sound source S31 arranged in the first area A1 (that is, the first sound generation event has occurred). judge. In other words, if sound is reproduced from the sound source S32 even if the sound data to be reproduced is the same as the first sound source S31, the first sounding event determination means 321 is the first sound source arranged in the first area A1. It is not determined that the sound has been played.

第2発音イベント実行手段322は、第1領域A1において第1発音イベントが発生し、かつ、当該第1発音イベントの音量が基準音量以上である場合、第2領域A2において第2発音イベントの発音を実行する。これに代えて、第2発音イベント実行手段322は、第1領域A1において第1発音イベントが発生した場合には、第1発音イベントの音量が基準音量以上であるか否かによらず、第2領域A2において第2発音イベントの発音を実行してもよい。   The second sounding event executing means 322 generates a sound of the second sounding event in the second area A2 when the first sounding event occurs in the first area A1 and the volume of the first sounding event is equal to or higher than the reference sound volume. Execute. Instead, when the first sounding event occurs in the first area A1, the second sounding event executing means 322 determines whether the sound volume of the first sounding event is equal to or higher than the reference sound volume. The sounding of the second sounding event may be executed in the second area A2.

本変形例においても、第2発音イベント実行手段322は、ガラス窓J2Bの状態に応じて異なる第2発音イベントを実行してもよい。例えば、ガラス窓J2Bが開いている場合と、閉じている場合とで第2発音イベントにより生じる音が異なっていてもよい。   Also in this modified example, the second sounding event execution means 322 may execute different second sounding events according to the state of the glass window J2B. For example, the sound generated by the second sounding event may be different depending on whether the glass window J2B is open or closed.

上記変形例においては、第1領域A1が第1音源S31の位置座標の集合として設定されてもよい。すなわち、第1領域A1は、不連続な領域、例えば、一または複数の位置座標で構成されてもよい。同様に、第2領域A2が、不連続な領域、例えば、一または複数の位置座標で構成されてもよい。   In the modified example, the first area A1 may be set as a set of position coordinates of the first sound source S31. In other words, the first area A1 may be a discontinuous area, for example, one or a plurality of position coordinates. Similarly, the second area A2 may be a discontinuous area, for example, one or a plurality of position coordinates.

以上、本発明の実施の形態について説明したが、本発明は上記実施の形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various improvements, changes, and modifications can be made without departing from the spirit of the present invention.

例えば、第1音源S1,S31または第2音源S2が設定されるオブジェクトは、上記例に限られない。当該オブジェクトは、固定オブジェクト(壁、天井、岩、木、家具、建物等)および移動オブジェクト(ノンプレイヤキャラクタ、飛翔物、乗物等)の何れでもよい。第1音源S1が設定されるノンプレイヤキャラクタは、例えばプレイヤキャラクタと行動を共にするがユーザが操作しない複数のサブキャラクタ、敵キャラクタ、街の人等のその他のノンプレイヤキャラクタを含む。   For example, the object to which the first sound source S1, S31 or the second sound source S2 is set is not limited to the above example. The object may be any of a fixed object (wall, ceiling, rock, tree, furniture, building, etc.) and a moving object (non-player character, flying object, vehicle, etc.). Non-player characters to which the first sound source S1 is set include, for example, other non-player characters such as a plurality of sub-characters, enemy characters, and people in the city who act together with the player character but are not operated by the user.

また、第1発音イベントおよび第2発音イベントの組み合わせは、上記例のみに限られず、種々適用され得る。例えば第1発音イベントをオブジェクトの爆発音を発音する発音イベントとし、第2発音イベントを建物、窓、布(カーテン、幌)等の振動音を発音する発音イベントとしてもよい。また、第1発音イベントを建物の上階を歩く音を発音する発音イベントとし、第2発音イベントを建物のきしみ音を発音する発音イベントとしてもよい。また、第1発音イベントをノンプレイヤキャラクタ(敵キャラクタ等)の鳴き声を発音する発音イベントとし、第2発音イベントを他のノンプレイヤキャラクタの鳴き声を発音する発音イベントとしてもよい。   The combination of the first sounding event and the second sounding event is not limited to the above example, and various combinations can be applied. For example, the first sounding event may be a sounding event for sounding an explosion of an object, and the second sounding event may be a sounding event for sounding a vibration sound of a building, window, cloth (curtain, hood), or the like. Alternatively, the first sounding event may be a sounding event that generates a sound of walking on the upper floor of a building, and the second sounding event may be a sounding event that generates a squeak sound of the building. Also, the first sounding event may be a sounding event that sounds a non-player character (such as an enemy character), and the second sounding event may be a sounding event that sounds another non-player character.

また、上記実施の形態において、第1領域A1に位置するか否かを判定する対象となる第1発音イベントは、1種類の発音イベント(ヘリコプタJ1の飛翔音または大砲J31の砲撃音)のみであるが、これに限られない。   Further, in the above embodiment, the first sounding event to be determined whether or not it is located in the first region A1 is only one kind of sounding event (the flying sound of the helicopter J1 or the shooting sound of the cannon J31). There is, but is not limited to this.

例えば、第1発音イベントとして、発音する音の種類が異なる複数種類の発音イベントが含まれていてもよい。例えば、図5および図6に示した変形例において、第1領域A1に配置された大砲J31の砲撃音および敵ヘリコプタJ4の飛翔音が第1発音イベントとして設定されてもよい。この場合、第1領域A1に配置された大砲J31が砲撃した場合だけでなく、第1領域A1に敵ヘリコプタJ4が飛翔音を出しながら進入した場合にも、第1発音イベント判定手段321は、仮想空間Vにおける第1領域A1において第1発音イベントが発生したと判定する。   For example, the first sounding event may include a plurality of types of sounding events having different sound types. For example, in the modification shown in FIGS. 5 and 6, the shooting sound of the cannon J31 and the flying sound of the enemy helicopter J4 arranged in the first area A1 may be set as the first sounding event. In this case, not only when the cannon J31 placed in the first area A1 fires, but also when the enemy helicopter J4 enters the first area A1 while making a flying sound, the first sounding event determination means 321 It is determined that the first sounding event has occurred in the first area A1 in the virtual space V.

この場合、第2発音イベントは、複数種類の第1発音イベントのそれぞれに対応付けられた複数種類の第2発音イベントを含んでもよい。例えば、大砲J31の砲撃音を発音する発音イベントに対する第2発音イベントは、ガラス窓A2が振動する音を発音する発音イベントとし、敵ヘリコプタJ4の飛翔音を発音する発音イベントに対する第2発音イベントは、ガラス窓A2が割れる音を発音する発音イベントとしてもよい。   In this case, the second sounding event may include a plurality of types of second sounding events associated with each of the plurality of types of first sounding events. For example, the second sounding event for the sounding event that sounds the cannon sound of the cannon J31 is a sounding event that sounds the sound of the glass window A2 vibrating, and the second sounding event for the sounding event that sounds the flying sound of the enemy helicopter J4 is A sounding event that generates a sound that breaks the glass window A2 may be used.

また、第1領域A1で実行されるすべての発音イベントが第1発音イベントとして設定されてもよい。   Further, all the sounding events executed in the first area A1 may be set as the first sounding event.

また、上記実施の形態においては、音の聴取位置LがプレイヤキャラクタCに基づいて配置される場合について説明したが、これに代えて、所定のオブジェクトまたは仮想空間Vの所定の位置に基づいて音の聴取位置Lが設定されてもよい。   Further, in the above-described embodiment, the case where the sound listening position L is arranged based on the player character C has been described, but instead of this, the sound based on a predetermined object or a predetermined position in the virtual space V is used. The listening position L may be set.

また、一の第1発音イベントに対する第1音源S1の数および位置、ならびに、一の第2発音イベントに対する第2音源S2の数および位置は上記に限定されない。例えば、第1音源S1,S31または第2音源S2を2つとし、これらを各オブジェクトの基準位置から所定距離離れた2か所に配置してもよい。   Further, the number and position of the first sound source S1 for one first sounding event and the number and position of the second sound source S2 for one second sounding event are not limited to the above. For example, the first sound source S1, S31 or the second sound source S2 may be two, and these may be arranged at two locations separated from the reference position of each object by a predetermined distance.

また、上記実施の形態では、第2発音イベント実行手段322は、第2領域A2において音の聴取位置Lに最も近い位置に第2音源S2を配置することを例示したが、これに限られない。例えば、第2発音イベント実行手段322は、第2領域A2において第1音源S1の位置を基準として(例えば第1音源S1に最も近い位置に)第2音源S2を配置してもよい。また、例えば、第2発音イベント実行手段322は、第2領域A2内の予め定められた位置に第2音源S2を配置してもよい。   In the above-described embodiment, the second sound generation event execution unit 322 exemplifies arranging the second sound source S2 at a position closest to the sound listening position L in the second region A2, but is not limited thereto. . For example, the second sound generation event executing means 322 may arrange the second sound source S2 in the second region A2 with the position of the first sound source S1 as a reference (for example, at a position closest to the first sound source S1). Further, for example, the second sound generation event execution means 322 may arrange the second sound source S2 at a predetermined position in the second area A2.

また、上記実施の形態では、第2発音イベントの実行と音の聴取位置L(プレイヤキャラクタCの位置)とは関係していない。すなわち、第2発音イベントの実行時において、プレイヤキャラクタCが所定の領域(例えば第1領域A1、第2領域A2、またはそれらの近傍領域)に位置する必要はない。これに代えて、第2発音イベントを実行する条件として、音の聴取位置L(プレイヤキャラクタCの位置)を含めてもよい。例えば、第2発音イベント実行手段322は、仮想空間Vにおける第1領域A1において第1発音イベントが発生したと判定され、かつ、プレイヤキャラクタCが第2領域A2の近傍に設定された第3領域に位置している場合に、第2発音イベントを実行してもよい。   Moreover, in the said embodiment, execution of a 2nd pronunciation event and the listening position L (position of the player character C) are not related. That is, it is not necessary for the player character C to be located in a predetermined area (for example, the first area A1, the second area A2, or the vicinity thereof) when executing the second sounding event. Instead, the sound listening position L (the position of the player character C) may be included as a condition for executing the second sounding event. For example, the second sounding event executing means 322 determines that the first sounding event has occurred in the first area A1 in the virtual space V, and the third area in which the player character C is set in the vicinity of the second area A2. The second sounding event may be executed when it is located in the position.

また、第2領域A2は、上記実施の形態のように、第1領域A1とは別に設定されてもよいし、第2領域A2が第1領域A1内に設定されてもよい。また、上記実施の形態では、第2領域A2と当該第2領域A2以外の領域とを画する所定のオブジェクトとして、幌J2および窓J2Bを例示したが、これに限られない。例えば、天井、壁、ドア、床等が第2領域A2と当該第2領域A2以外の領域とを画する位置に配置されてもよい。   Further, the second area A2 may be set separately from the first area A1 as in the above embodiment, or the second area A2 may be set in the first area A1. Moreover, in the said embodiment, although the hood J2 and the window J2B were illustrated as a predetermined object which demarcates 2nd area | region A2 and area | regions other than the said 2nd area | region A2, it is not restricted to this. For example, a ceiling, a wall, a door, a floor, or the like may be arranged at a position that defines the second area A2 and an area other than the second area A2.

また、上述した説明では、一人のユーザがオフラインゲームを行う場合について例示したが、本発明は、複数のユーザが各自のプレイヤキャラクタを同一の仮想ゲーム空間内に登場させ、これらを協力させて行動させるオンラインゲームにおいても適用することができる。   In the above description, the case where one user plays an offline game has been exemplified. However, in the present invention, a plurality of users make their player characters appear in the same virtual game space and cooperate with each other to act. The present invention can also be applied to online games.

また、上記実施の形態では携帯型のゲーム装置について説明したが、据え置き型のゲーム装置、携帯電話機、およびパーソナルコンピュータなどのコンピュータについても、本発明を好適に適用することができる。   Although the portable game device has been described in the above embodiment, the present invention can be suitably applied to computers such as a stationary game device, a mobile phone, and a personal computer.

本発明は、処理負荷の増大を抑えつつ様々な発音表現を実現することができるゲームプログラムおよびゲーム装置を提供するために有用である。   The present invention is useful for providing a game program and a game apparatus capable of realizing various pronunciation expressions while suppressing an increase in processing load.

1 ゲーム装置
30 制御部(コンピュータ)
31 仮想空間生成手段
33 音量判定手段
321 第1発音イベント判定手段
322 第2発音イベント実行手段
341 キャラクタ制御手段
A1 第1領域
A2 第2領域
C プレイヤキャラクタ
L 音の聴取位置
S1,S31 第1音源
S2 第2音源
V 仮想空間
1 game device 30 control unit (computer)
31 Virtual space generation means 33 Volume determination means 321 First sound generation event determination means 322 Second sound generation event execution means 341 Character control means A1 First area A2 Second area C Player character L Sound listening position S1, S31 First sound source S2 Second sound source V Virtual space

Claims (5)

コンピュータを、
仮想空間を生成する仮想空間生成手段、
前記仮想空間における所定の第1領域において所定の第1発音イベントが発生したか否かを検出する第1発音イベント判定手段、
前記第1領域において前記第1発音イベントが発生した場合、所定の第2領域において所定の第2発音イベントの発音を実行する第2発音イベント実行手段、および
前記第1領域において発生した前記第1発音イベントの所定の聴取位置における音量が基準音量以上か否かを判定する音量判定手段、として機能させ、
前記第2発音イベント実行手段は、前記第1領域において前記第1発音イベントが発生した場合、かつ、前記音量が前記基準音量以上である場合、前記第2領域において前記第2発音イベントの発音を実行する、ゲームプログラム。
Computer
Virtual space generation means for generating a virtual space;
First sound event determining means for detecting whether or not a predetermined first sound event has occurred in a predetermined first area in the virtual space;
When the first sounding event occurs in the first area, second sounding event execution means for sounding a predetermined second sounding event in a predetermined second area, and the first sounding event generated in the first area Function as a volume determination means for determining whether the volume at a predetermined listening position of the pronunciation event is equal to or higher than a reference volume,
The second sounding event executing means plays the sound of the second sounding event in the second area when the first sounding event occurs in the first area and the volume is equal to or higher than the reference volume. A game program to be executed.
前記コンピュータを、
前記仮想空間を移動し、前記聴取位置の基準となる所定のキャラクタを制御するキャラクタ制御手段として機能させ、
前記第2発音イベント実行手段は、前記第2領域において前記聴取位置に最も近い位置に前記第2発音イベントの音源を配置する、請求項1に記載のゲームプログラム。
The computer,
Moving in the virtual space and functioning as a character control means for controlling a predetermined character as a reference of the listening position;
2. The game program according to claim 1, wherein the second sounding event execution means arranges a sound source of the second sounding event at a position closest to the listening position in the second area.
前記第2領域と当該第2領域以外の領域とを画する所定のオブジェクトが配置され、
前記第2発音イベント実行手段は、前記所定のオブジェクトに前記第2発音イベントの音源を配置する、請求項1または2に記載のゲームプログラム。
A predetermined object that delineates the second area and an area other than the second area is arranged,
3. The game program according to claim 1, wherein the second sounding event executing means places a sound source of the second sounding event on the predetermined object.
前記第2発音イベント実行手段は、前記所定のオブジェクトの状態に応じて異なる第2発音イベントを実行する、請求項3に記載のゲームプログラム。   The game program according to claim 3, wherein the second sounding event executing means executes a second sounding event that varies depending on a state of the predetermined object. 請求項1から4の何れかに記載のゲームプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えた、ゲーム装置。
A program storage unit storing the game program according to any one of claims 1 to 4,
A game apparatus comprising: a computer that executes a program stored in the program storage unit.
JP2017109707A 2017-06-02 2017-06-02 Game program and game apparatus Active JP6530445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017109707A JP6530445B2 (en) 2017-06-02 2017-06-02 Game program and game apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109707A JP6530445B2 (en) 2017-06-02 2017-06-02 Game program and game apparatus

Publications (2)

Publication Number Publication Date
JP2018201792A true JP2018201792A (en) 2018-12-27
JP6530445B2 JP6530445B2 (en) 2019-06-12

Family

ID=64955883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109707A Active JP6530445B2 (en) 2017-06-02 2017-06-02 Game program and game apparatus

Country Status (1)

Country Link
JP (1) JP6530445B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020156588A (en) * 2019-03-25 2020-10-01 株式会社バンダイナムコエンターテインメント Game system, program, and game device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10165645A (en) * 1996-10-09 1998-06-23 Namco Ltd Three dimensional game device and image recording medium
JP2000267675A (en) * 1999-03-16 2000-09-29 Sega Enterp Ltd Acoustical signal processor
JP2002354598A (en) * 2001-05-25 2002-12-06 Daikin Ind Ltd Voice space information adding equipment and its method, recording medium and program thereof
JP2008188307A (en) * 2007-02-06 2008-08-21 Copcom Co Ltd Game device, game program, and storage medium
JP2011028169A (en) * 2009-07-29 2011-02-10 Copcom Co Ltd Sound effect generating device, sound effect generating program for providing the same, and recording medium
JP2012045200A (en) * 2010-08-27 2012-03-08 Square Enix Co Ltd Video game processing apparatus and video game processing program
JP2016049222A (en) * 2014-08-29 2016-04-11 株式会社スクウェア・エニックス Video game processing device, video game processing program, and server

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10165645A (en) * 1996-10-09 1998-06-23 Namco Ltd Three dimensional game device and image recording medium
JP2000267675A (en) * 1999-03-16 2000-09-29 Sega Enterp Ltd Acoustical signal processor
JP2002354598A (en) * 2001-05-25 2002-12-06 Daikin Ind Ltd Voice space information adding equipment and its method, recording medium and program thereof
JP2008188307A (en) * 2007-02-06 2008-08-21 Copcom Co Ltd Game device, game program, and storage medium
JP2011028169A (en) * 2009-07-29 2011-02-10 Copcom Co Ltd Sound effect generating device, sound effect generating program for providing the same, and recording medium
JP2012045200A (en) * 2010-08-27 2012-03-08 Square Enix Co Ltd Video game processing apparatus and video game processing program
JP2016049222A (en) * 2014-08-29 2016-04-11 株式会社スクウェア・エニックス Video game processing device, video game processing program, and server

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020156588A (en) * 2019-03-25 2020-10-01 株式会社バンダイナムコエンターテインメント Game system, program, and game device
JP7398199B2 (en) 2019-03-25 2023-12-14 株式会社バンダイナムコエンターテインメント Game systems, programs and game devices

Also Published As

Publication number Publication date
JP6530445B2 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6329994B2 (en) Game program and game system
CN113117331B (en) Message sending method, device, terminal and medium in multi-person online battle program
JP6622754B2 (en) GAME PROGRAM AND GAME DEVICE
JP2018079059A (en) Game program and game device
JP6538112B2 (en) Game program and game apparatus
JP2019000138A (en) Game program, game device, and server device
JP5538148B2 (en) GAME PROGRAM AND GAME DEVICE
JP6374853B2 (en) GAME PROGRAM AND GAME DEVICE
JP6530445B2 (en) Game program and game apparatus
JP2015223319A (en) Game program and game system
JP6374908B2 (en) Game program and game system
JP6122587B2 (en) GAME PROGRAM AND GAME DEVICE
JP5677050B2 (en) GAME PROGRAM AND GAME DEVICE
JP5813172B2 (en) GAME PROGRAM AND GAME DEVICE
JP5641834B2 (en) GAME PROGRAM AND GAME DEVICE
JP6740297B2 (en) Game program and game device
KR20200080978A (en) Apparatus and method for providing game screen information
KR20190002956A (en) Method for providing game and apparatus thereof
JP2008188308A (en) Game device, game program, and storage medium
JP5905687B2 (en) GAME PROGRAM AND GAME DEVICE
JP6845682B2 (en) Game programs and storage media
JP6978694B2 (en) Game programs and game equipment
JP2014008072A (en) Game program and game device
JP2024041362A (en) Game program and game device
JP2024025949A (en) Program and collective sound reproduction method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190516

R150 Certificate of patent or registration of utility model

Ref document number: 6530445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250