JP6174202B1 - Information processing apparatus provided with game program, method, and touch screen - Google Patents

Information processing apparatus provided with game program, method, and touch screen Download PDF

Info

Publication number
JP6174202B1
JP6174202B1 JP2016118409A JP2016118409A JP6174202B1 JP 6174202 B1 JP6174202 B1 JP 6174202B1 JP 2016118409 A JP2016118409 A JP 2016118409A JP 2016118409 A JP2016118409 A JP 2016118409A JP 6174202 B1 JP6174202 B1 JP 6174202B1
Authority
JP
Japan
Prior art keywords
game
touch screen
user
field
game character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016118409A
Other languages
Japanese (ja)
Other versions
JP2017221353A (en
Inventor
紀孝 船水
紀孝 船水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016118409A priority Critical patent/JP6174202B1/en
Application granted granted Critical
Publication of JP6174202B1 publication Critical patent/JP6174202B1/en
Publication of JP2017221353A publication Critical patent/JP2017221353A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ゲームの進行に応じてユーザが着目すべきゲームキャラクタまたはサッカーボールなどのオブジェクトをユーザに容易に把握させることで、ゲームの操作性をいっそう向上させる。【解決手段】ゲームプログラムが実行される情報処理装置は、タッチスクリーン130に対するドラッグ操作が継続している場合に、ゲームキャラクタを移動させ、サッカーボールなどの対象物または操作対象のゲームキャラクタの少なくともいずれかがフィールド内の第1の領域を移動する場合にゲームキャラクタの大きさが一定以上となるよう仮想カメラの配置を設定する。情報処理装置は、対象物または操作対象とするゲームキャラクタの少なくともいずれかがフィールド内の第2の領域を移動する場合に、タッチスクリーン130に表示されるゲームキャラクタの大きさが第1の領域を移動する場合と比較して小さくなるよう仮想カメラの配置を設定する。【選択図】図7An object of the present invention is to further improve the operability of a game by allowing a user to easily grasp an object such as a game character or a soccer ball that a user should pay attention to as the game progresses. An information processing apparatus for executing a game program moves a game character when a drag operation on a touch screen is continued, and at least one of an object such as a soccer ball or an operation target game character. When the Kaga moves in the first area in the field, the virtual camera arrangement is set so that the size of the game character becomes a certain level or more. When at least one of the object and the operation target game character moves in the second area in the field, the information processing apparatus determines that the size of the game character displayed on the touch screen 130 is the first area. The placement of the virtual camera is set so as to be smaller than the case of moving. [Selection] Figure 7

Description

本開示は、チーム同士で対戦するスポーツゲームのゲームプログラムの技術に関し、特に、スマートフォン、タブレット等の、タッチスクリーンを備える情報処理装置によって実行され、タッチ操作による入力操作を受け付けてゲームを進行させるゲームプログラムの技術に関する。   The present disclosure relates to a game program technology for a sports game in which teams play against each other, and in particular, a game that is executed by an information processing apparatus including a touch screen, such as a smartphone or a tablet, and that accepts an input operation by a touch operation to advance the game. It relates to program technology.

仮想空間内にゲームキャラクタを表示させてゲームを進行させるゲームプログラムが、様々な事業者によって提供されている。例えば、サッカー、ホッケー、アメリカンフットボールなどのスポーツを題材としたスポーツゲームが提供されている。   Various business operators provide game programs that display game characters in a virtual space and advance the game. For example, sports games based on sports such as soccer, hockey, and American football are provided.

これらスポーツゲームの一例として、仮想空間内において、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって対戦するゲームがある。例えば、対象物としてサッカーボールをめぐってチーム同士が対戦するサッカーゲームがある。このようなゲームでは、ユーザは、チームに含まれる複数のゲームキャラクタのうちの1のゲームキャラクタを指定して、この指定にかかるゲームキャラクタに対して入力操作を行う。例えば、ユーザは、1のゲームキャラクタを指定して、ゲームキャラクタを移動させる入力操作と、ゲームキャラクタに、対象物に関連付けられた動作(例えば、対象物としてのサッカーボールを他のゲームキャラクタにパスする動作、サッカーボールを敵ゴールに向けてシュートする動作その他の動作)を行わせるための入力操作と、を行う。   As an example of these sports games, there is a game in which a team composed of a plurality of game characters competes with another team over an object in a virtual space. For example, there is a soccer game in which teams play against a soccer ball as an object. In such a game, the user designates one game character among a plurality of game characters included in the team, and performs an input operation on the designated game character. For example, the user designates one game character and moves the game character, and the game character passes an action associated with the object (for example, a soccer ball as the object passes to another game character. And an input operation for causing the soccer ball to shoot toward the enemy goal and other actions).

このようなスポーツゲームは、従来より、据え置き型のゲーム機において提供されてきている。ユーザは、コントローラを介して入力操作を行ってゲームキャラクタを動作させる。特に、サッカーゲームのように、世界的にも人気が高いスポーツを題材とする場合、スポーツそのものはテレビ放送等でも盛んに中継されており、視聴者も、これらテレビ放送等での視聴に慣れ、現実世界のプロリーグで活躍する選手たちが人気を獲得している。   Such sports games have been conventionally provided in stationary game machines. The user operates the game character by performing an input operation via the controller. In particular, when sports are popular around the world, such as soccer games, the sports themselves are actively broadcast on TV broadcasts, and viewers are used to watching these TV broadcasts. Players who are active in the real world professional leagues are gaining popularity.

そのため、このようなスポーツを題材としたスポーツゲームは、フィールド全体をゲームのユーザが視認しやすくするよう仮想カメラのカメラワークが制御されることがある。このように仮想カメラのカメラワークを制御することで、ゲームのユーザに対して、テレビ放送等による視聴体験とも適合しうる体験を提供しうる。例えば、スポーツゲームにおいて、横長の画面を前提とし、フィールドを横長方向に配置して、フィールドとカメラとの距離がほぼ一定としつつ、ボールまたはゲームキャラクタ等の移動にあわせてカメラを横長方向に平行に移動させるものがある。このように仮想カメラのカメラワークを制御すると、ディスプレイに表示されるゲームキャラクタの大きさをほぼ一定としてカメラが移動することになるため、ユーザは、フィールドの広い範囲で移動する複数のゲームキャラクタの挙動を把握することが容易となり、他のゲームキャラクタにどのようにパスを出すか等の判断を容易にすることができる。特に、据え置き型のゲーム機では、大画面のディスプレイにゲーム画面を表示することも想定されるため、画面に表示されるゲームキャラクタを大きくしすぎると、大画面のディスプレイにゲームキャラクタが大きく表示されることとなり、ユーザにとってフィールド全体を把握することを困難とするおそれがある。また、ユーザは、大画面のディスプレイにゲームキャラクタが大きく表示されると、圧迫感をも感じ得る。   Therefore, in a sports game based on such sports, the camera work of the virtual camera may be controlled so that the user of the game can easily see the entire field. By controlling the camera work of the virtual camera in this way, it is possible to provide the game user with an experience that can be adapted to the viewing experience through television broadcasting or the like. For example, in a sports game, assuming a horizontally long screen, the field is arranged in the horizontally long direction, the distance between the field and the camera is substantially constant, and the camera is parallel to the horizontally long direction as the ball or game character moves. There is something to move to. When the camera work of the virtual camera is controlled in this way, the camera moves with the size of the game character displayed on the display being substantially constant, so that the user can select a plurality of game characters that move over a wide field. It becomes easy to grasp the behavior, and it is possible to easily determine how to pass other game characters. In particular, in a stationary game machine, it is assumed that the game screen is displayed on a large-screen display. Therefore, if the game character displayed on the screen is too large, the game character is displayed large on the large-screen display. As a result, it may be difficult for the user to grasp the entire field. The user can also feel a sense of pressure when the game character is displayed large on a large screen display.

一方、近年は、据え置き型のゲーム機のみならず、携帯可能なモバイル機器においてもゲームプログラムがますます提供されている。例えば、特開2014−79643号公報(特許文献1)には、タッチパネルを有するコンピュータにおいてゲームプログラムを実行する場合に、画面に表示された数多くのキャラクタを一人のユーザで容易に操作する技術が記載されている。   On the other hand, in recent years, game programs are increasingly provided not only for stationary game machines but also for portable mobile devices. For example, Japanese Patent Laying-Open No. 2014-79643 (Patent Document 1) describes a technique for easily operating a large number of characters displayed on a screen by one user when a game program is executed on a computer having a touch panel. Has been.

特開2014−79643号公報JP 2014-79643 A

据え置き型のゲーム機でゲームをプレイする場合と比較して、スマートフォン、タブレット等の情報処理装置は、ディスプレイの表示領域に限りがあるため、ディスプレイに表示されるゲームキャラクタが小さくなるにつれて、ゲームキャラクタをユーザが視認しづらくなる。   Compared to playing a game on a stationary game machine, an information processing device such as a smartphone or a tablet has a limited display area. Therefore, as the game character displayed on the display becomes smaller, the game character Is difficult for the user to visually recognize.

特に、サッカーゲームのように、チーム間でサッカーボール等の対象物をめぐって対戦するスポーツゲームにおいては、複数のゲームキャラクタの位置関係をユーザに把握させつつ対象物をパス等により移動させる機会が多くなる。そのため、ゲームの展開に応じてユーザが着目すべきゲームキャラクタまたはサッカーボールなどのオブジェクトをユーザに容易に把握させることで、ゲームの操作性をいっそう向上させる技術が必要とされている。   In particular, in a sports game where a team competes with an object such as a soccer ball between teams, such as a soccer game, there are many opportunities to move the object by a pass or the like while allowing the user to grasp the positional relationship of a plurality of game characters. . Therefore, there is a need for a technique for further improving the operability of the game by allowing the user to easily grasp an object such as a game character or a soccer ball that the user should focus on according to the development of the game.

本開示は、タッチスクリーンを備えるコンピュータにおいて、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって対戦するスポーツゲームにかかるゲームプログラムを実行する場合に、ユーザの操作をいっそう容易にすることで、ゲームに対する興趣性をいっそう向上させる技術を提供することを目的とする。   The present disclosure further facilitates a user's operation when a team including a plurality of game characters executes a game program related to a sports game in which a team is configured to compete with other teams in a computer having a touch screen. Therefore, an object is to provide a technique for further improving the interest of the game.

本開示に示す一実施形態によれば、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるゲームプログラムが提供される。ゲームプログラムは、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるものである。フィールドの両端には、ゴールが配置されている。ゲームプログラムは、プロセッサに、タッチスクリーンに対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタを移動させるステップと、対象物または操作対象とするゲームキャラクタの少なくともいずれかが、フィールド内の中央付近の領域である第1の領域を移動する場合と、フィールド内のゴール付近の領域である第2の領域を移動する場合とを比較して、タッチスクリーンに表示されるゲームキャラクタの大きさが、第1の領域を移動する場合の方が大きくなるよう仮想カメラの配置を設定するステップと、仮想空間内の仮想カメラの設定に応じた画面をタッチスクリーンに表示させるステップとを実行させる。 According to an embodiment shown in the present disclosure, a game program that is executed on a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory is provided. The game program is applied to a sports game in which a team composed of a plurality of game characters competes with other teams in a field in a virtual space over an object. Goals are placed at both ends of the field. The game program includes a step of causing the processor to move a game character to be operated by the user in response to an input operation on the touch screen, and at least one of the object and the game character to be operated is near the center in the field. The size of the game character displayed on the touch screen is compared with the case of moving the first area, which is the area, and the case of moving the second area, which is the area near the goal in the field , The step of setting the placement of the virtual camera so that the case of moving in the first area is larger and the step of displaying a screen according to the setting of the virtual camera in the virtual space on the touch screen are executed.

別の実施形態によると、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータが、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるゲームプログラムを実行する方法が提供される。フィールドの両端には、ゴールが配置されている。方法は、コンピュータが、タッチスクリーンに対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタを移動させるステップと、対象物または操作対象とするゲームキャラクタの少なくともいずれかが、フィールド内の中央付近の領域である第1の領域を移動する場合と、フィールド内のゴール付近の領域である第2の領域を移動する場合とを比較して、タッチスクリーンに表示されるゲームキャラクタの大きさが、第1の領域を移動する場合の方が大きくなるよう仮想カメラの配置を設定するステップと、仮想空間内の仮想カメラの設定に応じた画面をタッチスクリーンに表示させるステップとを実行することを含む。 According to another embodiment, a computer comprising a touch screen that accepts an input operation by a touch operation, a processor, and a memory is a field in a virtual space where a team composed of a plurality of game characters goes around another team and an object There is provided a method for executing a game program relating to a sports game to be played. Goals are placed at both ends of the field. In the method, the computer moves the game character to be operated by the user in response to an input operation on the touch screen, and at least one of the object and the game character to be operated is located near the center in the field. and when moving a first area which is an area, by comparing the case of moving the second area which is an area near the goal in the field, the size of the game character displayed on the touch screen, the Executing the step of setting the placement of the virtual camera so that the case of moving one region is larger and the step of displaying a screen according to the setting of the virtual camera in the virtual space on the touch screen.

別の実施形態によると、タッチ操作による入力操作を受け付けるタッチスクリーンを備える情報処理装置が提供される。情報処理装置は、記憶部と、制御部とを備える。記憶部は、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるゲームプログラムを記憶するように構成されている。フィールドの両端には、ゴールが配置されている。制御部は、タッチスクリーンに対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタを移動させる移動制御部と、対象物または操作対象とするゲームキャラクタの少なくともいずれかが、フィールド内の中央付近の領域である第1の領域を移動する場合と、フィールド内のゴール付近の領域である第2の領域を移動する場合とを比較して、タッチスクリーンに表示されるゲームキャラクタの大きさが、第1の領域を移動する場合の方が大きくなるよう仮想カメラの配置を設定する配置制御部と、仮想空間内の仮想カメラの設定に応じた画面をタッチスクリーンに表示させる表示制御部とを含む。 According to another embodiment, an information processing apparatus including a touch screen that receives an input operation by a touch operation is provided. The information processing apparatus includes a storage unit and a control unit. The storage unit is configured to store a game program related to a sports game in which a team composed of a plurality of game characters competes with other teams in a field in a virtual space over an object. Goals are placed at both ends of the field. The control unit is configured such that at least one of a movement control unit that moves a game character to be operated by the user and a game character to be operated is located near the center in the field in response to an input operation on the touch screen . and when moving a first area which is an area, by comparing the case of moving the second area which is an area near the goal in the field, the size of the game character displayed on the touch screen, the An arrangement control unit that sets the arrangement of the virtual camera so that the movement of one area becomes larger, and a display control unit that displays a screen according to the setting of the virtual camera in the virtual space on the touch screen.

一実施形態によると、タッチスクリーンを備えるコンピュータにおいて、フィールド内のオブジェクトの位置に応じて仮想カメラの配置を設定することにより、タッチスクリーンに表示されるゲームキャラクタの操作を、より一層容易にすることができ、ゲームの興趣性を向上させることができる。   According to an embodiment, in a computer having a touch screen, the operation of the game character displayed on the touch screen is further facilitated by setting the placement of the virtual camera according to the position of the object in the field. Can improve the interest of the game.

実施の形態のゲーム配信システム1の構成を示す図である。It is a figure which shows the structure of the game delivery system 1 of embodiment. 携帯端末10の構成を示すブロック図である。2 is a block diagram showing a configuration of a mobile terminal 10. FIG. サーバ20の機能的な構成を示すブロック図である。3 is a block diagram showing a functional configuration of a server 20. FIG. 移動操作検出部193が、ユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which the movement operation detection part 193 detects the direction which moves a game character according to a user's input operation. サッカーゲームにおいて、ゲームキャラクタが移動するフィールドFおよびフィールドFに設定される各領域を示す図である。It is a figure which shows each area | region set to the field F and the field F to which a game character moves in a soccer game. フィールドFを構成する各領域について、ユーザが操作するゲームキャラクタまたは対象物にかかるオブジェクトが位置する領域と、仮想カメラの配置とを対応付けた設定データを示す図である。It is a figure which shows the setting data which matched the area | region where the object concerning a game character or target object which a user operates about each area | region which comprises the field F, and the arrangement | positioning of a virtual camera. ユーザが操作するゲームキャラクタが、対象物(ボール)を保持している場合の画面の表示例を示す。The example of a screen display when the game character which a user operates is holding the target object (ball) is shown. ユーザが操作するゲームキャラクタが、対象物(ボール)を保持していない場合の画面の表示例を示す。The example of a screen display when the game character which a user operates does not hold | maintain the target object (ball) is shown. 仮想カメラの配置を制御するための制御部190の処理を示すフローチャートである。It is a flowchart which shows the process of the control part 190 for controlling arrangement | positioning of a virtual camera.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<実施の形態1>
本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。
<Embodiment 1>
In the present embodiment, a user operates an information processing apparatus equipped with a touch screen such as a smartphone, for example, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multi-play where the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a server 20, and these devices are connected to each other via a network 80 so as to communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、携帯端末10A、携帯端末10Bおよび携帯端末10C(以下、携帯端末10A、10B、10Cなどの携帯端末を総称して「携帯端末10」と記載することもある)など複数の携帯端末を示している。携帯端末10Aと携帯端末10Bとは、無線基地局81と通信することにより、ネットワーク80と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。携帯端末10は、タッチスクリーンを備える端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, as the information processing apparatus used by the user, the portable terminals 10A, 10B, and 10C (hereinafter, portable terminals such as the portable terminals 10A, 10B, and 10C are collectively referred to as “mobile terminal 10” A plurality of portable terminals are shown. The mobile terminal 10 </ b> A and the mobile terminal 10 </ b> B are connected to the network 80 by communicating with the radio base station 81. The mobile terminal 10C is connected to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal provided with a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。携帯端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。携帯端末10は、携帯端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。携帯端末10は、ゲームプログラムを読み込んで実行することにより、携帯端末10と、サーバ20とを通信接続して、ゲームの進行に応じてゲームに関連するデータを携帯端末10とサーバ20との間で送受信する。   The mobile terminal 10 provides a user with an environment for playing a game according to the game program by executing the game program. For example, the mobile terminal 10 installs a game program via a platform that distributes applications and the like. The mobile terminal 10 enables a user to play a game by executing a game program installed in the mobile terminal 10 or a game program preinstalled in advance. The mobile terminal 10 reads and executes the game program to establish communication connection between the mobile terminal 10 and the server 20 and transfer data related to the game between the mobile terminal 10 and the server 20 according to the progress of the game. Send and receive with.

サーバ20は、ゲームのプレイに必要なデータを、適宜、携帯端末10へ送信することで、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータを携帯端末10へ送信する。   The server 20 advances the game play on the mobile terminal 10 by appropriately transmitting data necessary for the game play to the mobile terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the mobile terminal 10 and transmits images, sounds, text data, and other data to the mobile terminal 10 in accordance with the progress of each user's game.

例えば、サーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するゲームキャラクタのうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータその他の各種データを管理する。また、サーバ20は、ゲームの運営者がユーザに対してキャンペーン、ゲームの進行における不具合の発生、不具合の解消その他のゲームの運営に関連する情報等をユーザに通知する処理を行う。   For example, the server 20 includes a progress status of each user progressing a game story, game character information that can be used by each user among game characters appearing in the game, parameters indicating the game character's ability, It manages parameters and other various data indicating the performance of the tool used. In addition, the server 20 performs a process in which the game operator notifies the user of campaigns, occurrence of problems in the progress of the game, resolution of problems, and other information related to game management.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各携帯端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the server 20 provides each user with an environment for playing a game in multi-play by specifying users participating in multi-play and communicating with each mobile terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、テニスゲームであれば、各ユーザでチームを結成してダブルスの試合を行うことを可能とする。また、ゲーム配信システム1は、サッカーゲームであれば、各ユーザが同一のサッカーチームのメンバーとなって試合を行うことを可能とする。また、ゲーム配信システム1は、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。また、ゲーム配信システム1は、マルチプレイに対応することにより、ユーザ同士が対戦することを可能とする。   The game distribution system 1 is capable of playing a doubles game by forming a team with each user in the case of a tennis game, for example, by supporting multiplayer. Moreover, if it is a soccer game, the game delivery system 1 will enable each user to become a member of the same soccer team, and to play a game. Moreover, if the game delivery system 1 is an action game, a team will be formed by each user, and a plurality of users will be able to play the game mode which battles comparatively powerful characters, such as quest mode. Moreover, the game delivery system 1 enables a user to play against each other by respond | corresponding to a multiplayer.

<構成>
サーバ20のハードウェアの構成を説明する。サーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。
<Configuration>
The hardware configuration of the server 20 will be described. The server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、携帯端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the mobile terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、携帯端末10の構成を示すブロック図である。図2を参照して、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 10. With reference to FIG. 2, the mobile terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the mobile terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、携帯端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、携帯端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the mobile terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the mobile terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材(タッチパネル131)を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材(ディスプレイ132)を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 to the user. Touch screen 130 includes a member (touch panel 131) for accepting a user's input operation. The touch screen 130 includes a menu screen and a member (display 132) for displaying the progress of the game on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by a display device such as an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or the like.

入出力IF140は、携帯端末10への情報の入力を受け付けるとともに、携帯端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for receiving information input to the mobile terminal 10 and outputting information to the outside of the mobile terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、携帯端末10が使用するプログラム、および、携帯端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the mobile terminal 10 and various data received by the mobile terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、携帯端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the mobile terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、携帯端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the mobile terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   A process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the mobile terminal 10 downloads a game program from the server 20 and stores the game program in the storage unit 150. Moreover, the portable terminal 10 transmits / receives various data, such as game information 152 and user information 153, with the server 20 by communicating with the server 20 with progress of a game.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイする携帯端末10のユーザを識別する情報、マルチプレイ時に協同してゲームをプレイする他のユーザを識別する情報その他の情報を含む。   The game program 151 is a program for causing the mobile terminal 10 to advance a game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying the user of the mobile terminal 10 playing the game, information for identifying other users who play the game in cooperation with the multiplayer, and other information.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動操作検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to thereby execute an input operation receiving unit 191, a game progress processing unit 192, a moving operation detection unit 193, a camera arrangement control unit 194, an object control unit 195, Each function of the display control unit 196 is exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。また、制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態を、「タッチオン状態」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態を、「タッチオフ状態」と判別する。制御部190は、タッチスクリーン130が逐次出力するユーザの指などの接近位置を示す座標を、「タッチナウ」の座標として受け付ける。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation accepting unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “double tap operation”, (5) “long press operation ( (Long touch operation) ”, (6)“ drag operation (swipe operation) ”, (7)“ move operation ”, (8)“ flick operation ”, and other user operations. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed. In addition, the control unit 190 determines that the state of detecting the approach of the user's finger or the like to the touch screen 130 is the “touch-on state”. The control unit 190 determines that a state in which the approach of the user's finger or the like to the touch screen 130 is not detected is a “touch-off state”. The control unit 190 accepts coordinates indicating the approach position of the user's finger or the like sequentially output by the touch screen 130 as “touch now” coordinates.

ここで、(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   Here, (1) “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and outputs a signal corresponding to the detected coordinates of the touch screen 130 to the control unit. Output to 190. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130に指などを接近させることで操作する状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping a state in which the user operates by bringing a finger or the like closer to the touch screen 130. For example, when the user performs an operation of releasing his / her finger from a state where the user touches the touch screen 130 with the finger or the like, the input operation receiving unit 191 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をする直前に(タッチオフ状態が検出される直前に)タッチスクリーン130により検出されている座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作にかかる座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from the state where the approach operation is not detected (the user's finger or the like is away from the touch panel 131 and the touch panel 131 does not detect the approach of the user's finger or the like). Based on this, when it is detected that the user's finger or the like has approached, the detected coordinates are held as the “initial touch position”. The input operation reception unit 191 determines that the coordinates of the initial touch position and the coordinates detected by the touch screen 130 immediately before the release operation (just before the touch-off state is detected) are substantially the same (the approach operation is performed). The user's operation is determined as a “tap operation” when a coordinate related to the release operation is detected in coordinates within a certain range from the detected coordinates).

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。   (4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, the input operation reception unit 191 determines that the user operation is “double tap operation” when the user operation is determined to be the tap operation and the tap operation is determined again with the coordinates related to the tap operation within a certain time after the user operation is determined to be the tap operation. Determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the user's operation and discriminates the approaching operation. When the time during which the approaching operation continues at the coordinates where the approaching operation is detected exceeds a certain time, the touch screen 130 determines the user's operation as “ “Long press operation” (the “long press operation” may be referred to as “long touch operation”).

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (6) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。   (7) “Move operation” refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。制御部190は、例えば、ユーザがムーブ操作を行う時間と比較するための複数の閾値を保持し、ユーザがタッチスクリーン130において指などを接近させている位置を一定距離移動させるまでの時間が第1の閾値よりも短い場合(比較的素早く指を弾く場合)は、フリック操作が「強フリック」であると判定し、第1の閾値よりも大きく第2の閾値(第2の閾値を、第1の閾値よりも大きく設定する)よりも小さい場合に、フリック操作が「弱フリック」であると判定することとしてもよい。   (8) “Flick operation” refers to an operation in which a user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130. For example, the control unit 190 holds a plurality of threshold values for comparison with the time for the user to perform the move operation, and the time until the user moves the finger or the like on the touch screen 130 for a certain distance is determined. If it is shorter than the threshold value 1 (if the finger is flicked relatively quickly), it is determined that the flick operation is “strong flick”, and the second threshold value (the second threshold value is set to the first threshold value greater than the first threshold value). It is also possible to determine that the flick operation is “weak flick” when the value is smaller than the threshold value of 1.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出す等によりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、サーバ20と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理その他の処理を行う。   The game progress processing unit 192 performs a process of advancing the game by calling various programs in accordance with a user operation. For example, the game progress processing unit 192 communicates with the server 20 to transmit data to the server 20 according to the progress of the game, to receive data related to the game from the server 20, and to the user according to the progress of the game. A process for giving a reward, a process for measuring the passage of time, and other processes are performed.

移動操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するキャラクタ(以下、「ゲームキャラクタ」と称することもある)を移動させる入力操作の操作内容を検出する。例えば、ゲームプログラム151がスポーツゲームである場合、移動操作検出部193は、ユーザの入力操作に基づいて、ゲームキャラクタを移動させる方向を検出する(移動操作検出部193は、ユーザがゲームキャラクタの移動方向を指定する入力操作を受け付ける)。   The movement operation detection unit 193 detects the operation content of the input operation for moving a character appearing in the game (hereinafter also referred to as “game character”) based on a user input operation on the touch screen 130. For example, when the game program 151 is a sports game, the movement operation detection unit 193 detects the direction in which the game character is moved based on the user's input operation (the movement operation detection unit 193 allows the user to move the game character). Accept input operation to specify direction).

具体的には、移動操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。移動操作検出部193の詳細な処理は、後述する。   Specifically, the movement operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state in which the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the game character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Detailed processing of the movement operation detection unit 193 will be described later.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置(カメラワーク)を制御する。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。   The camera placement control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the camera arrangement control unit 194 controls the arrangement (camera work) of the virtual camera in the virtual space generated when the control unit 190 reads and executes the game program 151. The control unit 190 provides the game play environment to the user by displaying the captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、携帯端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがゲームキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、ゲームキャラクタの移動方向を示すオブジェクトを生成し、生成したオブジェクトを変形する。   The object control unit 195 includes various objects that appear in the game that is progressed by the mobile terminal 10 executing the game program 151, and various objects that are generated based on the user operation content received by the input operation receiving unit 191. Processes such as generation, transformation, and movement (for example, a GUI (Graphical User Interface) screen) are controlled. The object control unit 195 generates an object indicating the moving direction of the game character based on, for example, an input operation on the touch screen 130 for moving the game character by the user, and deforms the generated object.

表示制御部196は、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキスト等の各種の情報をディスプレイ132に出力する。   The display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the placement of the virtual camera in the virtual space, and outputs various types of information such as images and text according to the determined display content to the display 132.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、サーバ20が携帯端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the mobile terminal 10.

記憶部250は、携帯端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the mobile terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、携帯端末10とデータを送受信する処理、携帯端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理その他の処理をサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the mobile terminal 10 and advance the game on the mobile terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, thereby processing to transmit / receive data to / from the mobile terminal 10, processing to advance the game in accordance with the operation content performed by the user of the mobile terminal 10, and user's playing the game The server 20 is caused to perform processing for updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes an object management table 252A, a passive skill management table 252B, and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。携帯端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクト等を仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the mobile terminal 10 displays an image obtained by photographing an object or the like placed in the virtual space with the virtual camera on the display 132, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する装着対象物を示すオブジェクトなど様々なものがある。制御部190は、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理を行う。   Here, for example, there are various objects such as an object indicating a game character operated by the user, an object indicating a wearing target worn by the game character, and the like. The control unit 190 associates the object with an object when the user performs a predetermined input operation on the touch screen 130, satisfies a certain condition as the game progresses, and other various events occur. Process.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、制御部190は、オブジェクトを、ユーザによって選択された状態とする。また、例えば、制御部190は、ユーザによるドラッグ操作を受け付けることで、ユーザが移動対象とするオブジェクトを、ユーザの入力操作に応じて移動させる等の処理を行う。また、例えば、制御部190は、ユーザがオブジェクトに対して行うタッチ操作を受け付けることで、ユーザに対し、ゲームを有利に進めるための報酬を付与する等の処理を行う。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the control unit 190 sets the object in a state selected by the user. In addition, for example, the control unit 190 performs processing such as moving an object to be moved by the user according to the input operation of the user by receiving a drag operation by the user. In addition, for example, the control unit 190 performs processing such as granting a reward for advantageous advancement of the game to the user by receiving a touch operation performed on the object by the user.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上する等の、ゲームを有利に進行させられる効果を発揮させる。   In the passive skill management table 252B, information for identifying an object is associated with information on passive skills associated with the object. Here, the passive skill is activated when, for example, a predetermined condition is satisfied in the game, and the user can advantageously advance the game. For example, when the passive skill is activated, the game character can be advantageously advanced, such as the moving speed of the game character is improved.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。   In the active skill management table 252C, information for identifying an object is associated with information on an active skill associated with the object. Here, the active skill is, for example, in a state where it can be activated when a predetermined condition is satisfied in the game, and by receiving an input operation for activating the skill from the user, the user has an advantage in the game. It can be made to progress.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報その他の情報を含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information held by the user in the game, game characters, information used by the game character, and the like. Contains information.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行する携帯端末10から、各種情報を受信し、携帯端末10に対し、各種情報を送信する。携帯端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20から携帯端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the mobile terminal 10 that executes the game program 151, and transmits various types of information to the mobile terminal 10. The mobile terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the mobile terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252およびユーザ情報253などのデータを更新し、携帯端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates the data such as the game information 252 and the user information 253 based on information received from the mobile terminal 10, and transmits various data to the mobile terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、携帯端末10から、携帯端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the mobile terminal 10 from the mobile terminal 10, and collates the received information with the measurement results of the measurement unit 295. The information regarding various times is synchronized between the mobile terminal 10 and the server 20.

<実施の形態1の構成のまとめ>
以上のように、実施の形態のゲーム配信システム1の構成を説明してきた。本実施形態において、ゲームプログラム151は、例えばスポーツゲームであり、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーン130に表示させることでゲームを進行させる。
<Summary of Configuration of Embodiment 1>
As described above, the configuration of the game distribution system 1 according to the embodiment has been described. In the present embodiment, the game program 151 is, for example, a sports game, and the game is advanced by causing the touch screen 130 to display a screen corresponding to the placement of the virtual camera in the virtual space.

例えば、ゲームプログラム151がスポーツゲームである場合、ゲーム進行処理部192は、ユーザの操作に応じてストーリーを進行させ、画像、テキストなどディスプレイ132に表示するデータを決定する処理、スポーツの対戦相手の選択をユーザから受け付ける処理、ユーザの操作に応じてスポーツの試合を進める処理などの基本的な処理を行う。   For example, when the game program 151 is a sports game, the game progress processing unit 192 advances the story in accordance with the user's operation, determines the data to be displayed on the display 132 such as images and text, and the sports opponent's Basic processing such as processing for accepting selection from the user and processing for advancing a sports game in accordance with the user's operation is performed.

例えば、ゲームプログラム151がスポーツゲームである場合、カメラ配置制御部194は、スポーツの試合を行うための仮想空間における仮想カメラの配置個所および撮影軸の方向を、スポーツの試合の進展に応じて、逐次、決定する。カメラ配置制御部194は、仮想カメラのカメラワークを制御する。カメラ配置制御部194の詳細な処理は、後述する。   For example, when the game program 151 is a sports game, the camera placement control unit 194 determines the placement location of the virtual camera and the direction of the shooting axis in the virtual space for playing a sports game according to the progress of the sports game. Decide sequentially. The camera arrangement control unit 194 controls camera work of the virtual camera. Detailed processing of the camera arrangement control unit 194 will be described later.

<動作>
図面を参照して、実施の形態のゲーム配信システム1を構成する各装置の動作を説明する。
<Operation>
With reference to the drawings, the operation of each device constituting the game distribution system 1 of the embodiment will be described.

図4は、移動操作検出部193が、ユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を示す図である。移動操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、ゲームキャラクタを移動させる方向を検出する。   FIG. 4 is a diagram illustrating processing in which the movement operation detection unit 193 detects a direction in which the game character is moved in accordance with a user input operation. The movement operation detecting unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation receiving unit 191 determines the game character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction to move is detected.

図4の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチパネル131に接近したことを検出し、検出した座標を初期タッチ位置としてメモリに保持する。   A state (A) in FIG. 4 shows a state in which the user brings his / her finger close to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch panel 131 and stores the detected coordinates in the memory as an initial touch position.

図4の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標155として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」)、タッチオフ状態)を、一定フレーム分、バッファメモリ153に格納する。バッファメモリ153は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図3の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ153は、例えばリングバッファとして実現することができるが、これに限られない。   In the example of FIG. 4, the coordinates of the initial touch position held by the memory are indicated as initial touch position coordinates 155. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”) and the touch-off state) are stored in the buffer memory 153 for a certain number of frames. The buffer memory 153 can store the detection result on the touch screen 130 for each frame for a certain frame (11 frames from the memory area fp [0] to the memory area fp [10] in the example of FIG. 3). it can. The buffer memory 153 can be realized as a ring buffer, for example, but is not limited thereto.

状態(A)の例では、ユーザがタッチスクリーン130を押した位置(タッチオン座標)を、押下位置30A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A), a position where the user presses the touch screen 130 (touch-on coordinates) is shown as a pressed position 30A (coordinates (x0, y0) of the touch screen 130).

図4の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置30Aから押下位置30B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ153に格納し、バッファメモリ153に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 4, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 30A to the pressing position 30B (coordinates (x9, y9) of the touch screen 130). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 153 and refers to the value held in the buffer memory 153 to determine that the user's operation on the touch screen 130 is a drag operation.

図4の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置30Bから押下位置30C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 4, the position where the user is pressing the touch screen 130 is five frames (memory area fp [10]) from the pressed position 30B to the pressed position 30C (coordinates (x14, y14) of the touch screen 130). , Fp [0], fp [1], fp [2], and fp [3]).

図4の状態(D)は、移動操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザがゲームキャラクタを移動させる方向を指定する入力操作の検出結果を示す。移動操作検出部193は、バッファメモリ153において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ153の書き込み位置)を管理している。   The state (D) of FIG. 4 shows the detection result of the input operation in which the movement operation detection unit 193 designates the direction in which the user moves the game character in each of the state (B) and the state (C). The movement operation detection unit 193 manages information (writing position of the buffer memory 153) indicating which memory area is a target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory 153. .

状態(B)において、タッチナウの座標を、座標(x9、y9)とする。移動操作検出部193は、入力操作受付部191の判別結果に基づいて、ユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、初期タッチ位置の座標31A(タッチオンの座標)を起点として、座標31A(タッチオンの座標)と座標31B(タッチナウの座標)とによって規定されるベクトル32B((x9−x0),(y9−y0))により示される方向を、ゲームキャラクタを移動させる方向として検出する。   In the state (B), the coordinates of the touch now are coordinates (x9, y9). The movement operation detection unit 193 detects that the user has performed a drag operation based on the determination result of the input operation reception unit 191. The movement operation detection unit 193 starts from the coordinates 31A (touch-on coordinates) of the initial touch position as a starting point, and a vector 32B ((x9-x0) defined by the coordinates 31A (touch-on coordinates) and the coordinates 31B (touch now coordinates). , (Y9-y0)) is detected as the direction in which the game character is moved.

状態(C)において、タッチナウの座標を、座標(x14、y14)とする。移動操作検出部193は、入力操作受付部191の判別結果に基づいて、状態(B)の状態から、ユーザがドラッグ操作を継続していることを検出する。移動操作検出部193は、初期タッチ位置の座標31A(タッチオンの座標)を起点として、座標31A(タッチオンの座標)と座標31C(タッチナウの座標)とによって規定されるベクトル31C((x14−x0),(y14−y0))により示される方向を、ゲームキャラクタを移動させる方向として検出する。   In the state (C), the coordinates of the touch now are coordinates (x14, y14). Based on the determination result of the input operation reception unit 191, the movement operation detection unit 193 detects that the user continues the drag operation from the state (B). The movement operation detection unit 193 starts with the coordinates 31A (touch-on coordinates) of the initial touch position as a starting point, and a vector 31C ((x14−x0) defined by the coordinates 31A (touch-on coordinates) and the coordinates 31C (touch now coordinates). , (Y14-y0)) is detected as the direction in which the game character is moved.

<仮想空間内でゲームキャラクタが移動するフィールド>
例えば、ゲームプログラム151は、仮想空間内において、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって対戦するスポーツゲームにかかるものであり、具体的にはサッカーゲームである。ゲームプログラム151は、入力操作を受け付けることにより、ゲームのプレイヤであるユーザが操作するゲームキャラクタと、ゲームキャラクタと対戦する相手側キャラクタとの間で、サッカーボールをめぐって、ドリブル、タックル、パス、シュートなどの動作を行わせてゲームを進行させる。
<Field where game character moves in virtual space>
For example, the game program 151 is related to a sports game in which a team composed of a plurality of game characters competes with another team over an object in a virtual space, and is specifically a soccer game. The game program 151 accepts an input operation, so that a dribbling, tackle, pass, shoot, etc. are performed over a soccer ball between a game character operated by a user who is a game player and an opponent character who battles the game character. The game is progressed by performing the operation.

カメラ配置制御部194は、ドリブルを行っているゲームキャラクタを、例えば画面の中央付近に位置するように、ドリブルによるゲームキャラクタの移動にあわせて仮想カメラを移動させる。サッカーゲームのように、チーム同士が対戦するスポーツゲームである場合、複数のゲームキャラクタがそれぞれ対象物(サッカーボールなど)をパスなどにより移動させつつゲームを進行させるので、ユーザが、他のゲームキャラクタへサッカーボールをパスするか、相手側チームのゴールにシュートを打ち込むか等の判断を臨機応変に行えるよう、対象物を保持するゲームキャラクタの周囲の状況を容易に把握できる位置に仮想カメラを配置することとしている。   The camera arrangement control unit 194 moves the virtual camera in accordance with the movement of the game character by dribbling so that the dribbling game character is positioned near the center of the screen, for example. In the case of a sports game in which teams play against each other like a soccer game, a plurality of game characters move the target (soccer ball, etc.) while moving the object (such as a soccer ball) by a pass or the like. Place a virtual camera in a position where you can easily grasp the surroundings of the game character holding the target so that you can make decisions on whether to pass the soccer ball or hit the goal of the opponent team. To do.

図5は、サッカーゲームにおいて、ゲームキャラクタが移動するフィールドFおよびフィールドFに設定される各領域を示す図である。   FIG. 5 is a diagram illustrating a field F in which a game character moves and regions set in the field F in a soccer game.

図5に示すように、フィールドFは、サッカーにおけるフィールドと同様に、ゴールエリア、ペナルティエリア、ゴールライン、サイドライン、センターサークル、センターラインを含む。図5の例では、ユーザが操作するチームが攻めあがる敵陣を上側、ユーザが操作するチームが守備する自陣を下側として示している。   As shown in FIG. 5, the field F includes a goal area, a penalty area, a goal line, a side line, a center circle, and a center line, like a field in soccer. In the example of FIG. 5, the enemy team attacked by the team operated by the user is shown on the upper side, and the own team defended by the team operated by the user is shown on the lower side.

フィールドFは、自陣ゴールエリアGA_Pと、自陣ペナルティエリアPA_Pと、自陣側のゴールラインGL_Pと、敵陣ゴールエリアGA_Oと、敵陣ペナルティエリアPA_Oと、敵陣ゴールラインGL_Oと、センターサークルCCと、センターラインCLと、サイドラインSL_Rと、サイドラインSL_Lとを含む。   Field F consists of own team goal area GA_P, own team penalty area PA_P, own team goal line GL_P, enemy team goal area GA_O, enemy team penalty area PA_O, enemy team goal line GL_O, center circle CC, and center line CL. And a side line SL_R and a side line SL_L.

また、図5に示すように、フィールドFにおいて、第1の領域(第1の領域AREA1_C)と、第2の領域(第2の領域AREA2_Oおよび第2の領域AREA2_P)とを設定している。本実施形態において、敵陣ゴールの周辺と、自陣ゴールの周辺とを第2の領域としている。ゴール周辺(特に、ペナルティエリアの周囲)は、フィールドFの中央付近(センターサークルCCの周辺)と比較すると、サッカーにおいて得点機会が発生しやすい領域であり、シュートやセンタリングなど、ゴールにつながる動作が行われやすい領域である。また、フィールドFの中央を含む領域を、第1の領域としている。主として、ドリブル、パスなど、ゲームキャラクタ間でボールが移動することが比較的多い領域である。   Further, as shown in FIG. 5, in the field F, a first area (first area AREA1_C) and a second area (second area AREA2_O and second area AREA2_P) are set. In the present embodiment, the second area includes the vicinity of the enemy goal and the vicinity of the own goal. The area around the goal (especially the area around the penalty area) is an area where scoring opportunities are likely to occur in soccer compared to the vicinity of the center of the field F (around the center circle CC). This is an easy-to-use area. A region including the center of the field F is set as a first region. This is mainly an area where the ball moves relatively between game characters, such as dribbling and passing.

図5に示すように、フィールドFを、3次元仮想空間のx軸およびy軸により構成される平面(xy平面)に平行に配置し、フィールドFの縦長方向(長辺方向)をy軸に平行に、フィールドFの短辺方向をx軸に平行に配置するとする。ゲームキャラクタは、このフィールドFが配置される平面上を、ユーザの入力操作に応じて移動する。   As shown in FIG. 5, the field F is arranged in parallel to a plane (xy plane) constituted by the x axis and the y axis of the three-dimensional virtual space, and the vertical direction (long side direction) of the field F is set to the y axis. In parallel, the short side direction of the field F is arranged parallel to the x-axis. The game character moves on the plane on which the field F is arranged in response to a user input operation.

カメラ配置制御部194は、フィールドFが配置される仮想空間における仮想カメラの配置を制御する。カメラ配置制御部194は、予め定められた設定に従って、ユーザがゲームキャラクタを操作するための入力操作に応じて、仮想カメラを一定範囲内で移動させる。例えば、カメラ配置制御部194は、x軸方向については、フィールドFのx軸方向の幅の範囲内(例えば、フィールドFのx軸方向の幅よりも小さい範囲内)で移動する。例えば、ゲームプログラム151が、タッチスクリーン130を縦長表示にして、タッチスクリーン130の手前側を自陣、タッチスクリーン130の上部側を敵陣としてサッカーゲームの試合を進行させるとする。カメラ配置制御部194は、フィールドFのyボールを保持するゲームキャラクタのオブジェクト、または、いずれのチームもボールを保持していない場合のボールオブジェクトが、フィールドFのx軸方向の中央付近を移動している場合は、当該オブジェクトがタッチスクリーン130の短辺方向の辺の中央付近に表示されるように、仮想カメラのx軸方向の座標を制御する。また、カメラ配置制御部194は、当該オブジェクトがサイドラインSL_R付近を移動している場合と、サイドラインSL_L付近を移動している場合とでは、タッチスクリーン130の縦長方向の端部に近い位置にサイドライン(サイドラインSL_R、サイドラインSL¥L)が表示されるように仮想カメラのx軸方向の移動範囲を規定する。こうすることで、ゲームプログラム151は、タッチスクリーン130に、ボールを保持するゲームキャラクタの位置にかかわらずフィールドFをなるべく大きく表示させることができ、ユーザは、パスを出す他のゲームキャラクタの位置確認などを容易にすることができる。   The camera arrangement control unit 194 controls the arrangement of the virtual cameras in the virtual space where the field F is arranged. The camera arrangement control unit 194 moves the virtual camera within a certain range in accordance with an input operation for the user to operate the game character according to a predetermined setting. For example, the camera arrangement control unit 194 moves in the x-axis direction within a range of the width of the field F in the x-axis direction (for example, within a range smaller than the width of the field F in the x-axis direction). For example, it is assumed that the game program 151 causes the touch screen 130 to be displayed vertically, and the soccer game is progressed with the front side of the touch screen 130 as the front side and the upper side of the touch screen 130 as the enemy side. The camera arrangement control unit 194 moves the object of the game character holding the y ball in the field F or the ball object when no team holds the ball near the center of the field F in the x-axis direction. If so, the coordinates of the virtual camera in the x-axis direction are controlled so that the object is displayed near the center of the short-side edge of the touch screen 130. In addition, the camera arrangement control unit 194 is positioned at a position near the end of the touch screen 130 in the longitudinal direction when the object is moving near the side line SL_R and when the object is moving near the side line SL_L. The movement range of the virtual camera in the x-axis direction is defined so that the side lines (side line SL_R, side line SL ¥ L) are displayed. In this way, the game program 151 can display the field F as large as possible on the touch screen 130 regardless of the position of the game character holding the ball, and the user can confirm the position of another game character that makes a pass. Etc. can be facilitated.

<設定データ>
図6は、フィールドFを構成する各領域について、ユーザが操作するゲームキャラクタまたは対象物にかかるオブジェクトが位置する領域と、仮想カメラの配置とを対応付けた設定データを示す図である。
<Setting data>
FIG. 6 is a diagram showing setting data in which the area where the game character operated by the user or the object related to the object is located and the placement of the virtual camera are associated with each other constituting the field F.

図6に示す設定データは、例えば、携帯端末10の記憶部150に、ゲーム情報152として記憶される。   The setting data illustrated in FIG. 6 is stored as game information 152 in the storage unit 150 of the mobile terminal 10, for example.

図6に示すように、ユーザが操作するゲームキャラクタがボールを保持している場合の当該ゲームキャラクタのオブジェクトの位置、または、ユーザが操作するチームのゲームキャラクタがボールを保持していない場合はボールのオブジェクトの位置(敵側チームのゲームキャラクタがボールを保持している場合を含む)と、仮想カメラの設定とが設定データにおいて対応付けられている。   As shown in FIG. 6, the position of the object of the game character when the game character operated by the user holds the ball, or the ball when the game character of the team operated by the user does not hold the ball The position of the object (including the case where the game character of the enemy team holds the ball) and the setting of the virtual camera are associated in the setting data.

(1)例えば、オブジェクトが、図5に示すフィールドFの第1の領域に位置している場合、カメラ配置制御部194は、以下の位置(1−1)および位置(1−2)を満たす仮想カメラの配置個所を演算する。(1−1)タッチスクリーン130の縦長方向の中央付近にオブジェクト(ユーザが操作するゲームキャラクタ、または、対象物にかかるオブジェクト)を表示し、図5に示すようにx軸方向の仮想カメラの移動可能な範囲に従うよう仮想カメラの配置を制御する。また、カメラ配置制御部194は、(1−2)ユーザがフィールドFをタッチスクリーン130に表示させるための仮想カメラのズームの度合いを設定可能である場合(ゲームキャラクタをどの程度の大きさでタッチスクリーン130に表示させるか)は、当該ズームの度合いの設定に従ってキャラクタを一定以上の大きさで表示するよう仮想カメラの配置を制御する。   (1) For example, when the object is located in the first region of the field F shown in FIG. 5, the camera arrangement control unit 194 satisfies the following position (1-1) and position (1-2). Calculate the location of the virtual camera. (1-1) An object (a game character operated by a user or an object applied to an object) is displayed near the center of the touch screen 130 in the longitudinal direction, and the virtual camera moves in the x-axis direction as shown in FIG. Control the placement of the virtual camera to follow the possible range. Further, the camera arrangement control unit 194 (1-2) allows the user to set the zoom degree of the virtual camera for displaying the field F on the touch screen 130 (how big the game character is touched). Whether to display on the screen 130) controls the arrangement of the virtual camera so that the character is displayed in a certain size or more according to the setting of the zoom level.

(2)例えば、オブジェクトが、図5に示すフィールドFの第2の領域のうち、敵陣ゴールエリア付近に位置している場合、カメラ配置制御部194は、以下の位置(2−1)、位置(2−2)および位置(2−3)を満たす仮想カメラの配置個所を演算する。カメラ配置制御部194は、(2―1)タッチスクリーン130の縦長方向の中央付近にオブジェクト(ユーザが操作するゲームキャラクタ、または、対象物にかかるオブジェクト)を表示し、図5に示すようにx軸方向の仮想カメラの移動可能な範囲に従うよう仮想カメラの配置を制御する。また、カメラ配置制御部194は、(2−2)敵陣ゴールの少なくとも一部と、ユーザが操作対象としているゲームキャラクタと、対象物(ボール)とを表示するよう仮想カメラの配置を演算する。また、カメラ配置制御部194は、(2−3)敵陣ゴールのさらに奥側に配置される、敵陣サポーターを示すオブジェクトをタッチスクリーン130に表示するように仮想カメラの配置を演算する。   (2) For example, when the object is located in the vicinity of the enemy goal area in the second area of the field F shown in FIG. 5, the camera placement control unit 194 performs the following position (2-1), position The location of the virtual camera that satisfies (2-2) and position (2-3) is calculated. The camera arrangement control unit 194 displays (2-1) an object (a game character operated by the user or an object applied to the target object) near the center of the touch screen 130 in the vertical direction, as shown in FIG. The placement of the virtual camera is controlled so as to follow the movable range of the virtual camera in the axial direction. In addition, the camera arrangement control unit 194 calculates (2-2) the arrangement of the virtual camera so as to display at least a part of the enemy team goal, the game character that the user is operating, and the object (ball). In addition, the camera placement control unit 194 calculates (2-3) the placement of the virtual camera so that an object indicating the enemy supporter, which is placed further behind the enemy goal, is displayed on the touch screen 130.

(3)例えば、オブジェクトが、図5に示すフィールドFの第2の領域のうち、自陣ゴールエリア付近に位置している場合、カメラ配置制御部194は、以下の位置(3−1)、位置(3−2)および位置(3−3)を満たす仮想カメラの配置個所を演算する。カメラ配置制御部194は、(3−1)タッチスクリーン130の縦長方向の手前側の辺から一定範囲をあけて自陣ゴールラインが表示されるよう仮想カメラの配置を制御するとともに、図5に示すようにx軸方向の仮想カメラの移動可能な範囲に従うよう仮想カメラの配置を制御する。カメラ配置制御部194は、(3−2)自陣ゴールの少なくとも一部と、ユーザが操作対象とするゲームキャラクタと、対象物(ボール)とを表示するよう仮想カメラの配置を演算する。また、カメラ配置制御部194は、(3−3)敵陣ゴールのさらに奥側に配置される、敵陣サポーターを示すオブジェクトをタッチスクリーン130に表示するように仮想カメラの配置を演算する。   (3) For example, when the object is located in the vicinity of the own team goal area in the second area of the field F shown in FIG. 5, the camera placement control unit 194 performs the following position (3-1), position The location of the virtual camera that satisfies (3-2) and position (3-3) is calculated. The camera arrangement control unit 194 controls the arrangement of the virtual camera so that the own goal line is displayed with a certain range from the front side of the touch screen 130 in the vertical direction (see FIG. 5). Thus, the placement of the virtual camera is controlled so as to follow the movable range of the virtual camera in the x-axis direction. The camera arrangement control unit 194 calculates (3-2) the arrangement of the virtual camera so as to display at least a part of the own team goal, a game character to be operated by the user, and an object (ball). In addition, the camera arrangement control unit 194 calculates (3-3) the arrangement of the virtual camera so that an object indicating the enemy supporter that is arranged further on the back side of the enemy team goal is displayed on the touch screen 130.

なお、カメラ配置制御部194は、図6に例示した条件のうち一部を満たすように仮想カメラの配置を制御することとしてもよい。   The camera placement control unit 194 may control the placement of the virtual camera so as to satisfy a part of the conditions illustrated in FIG.

図6に示すように仮想カメラの配置を制御することで、ゲームプログラム151は、対象物137または操作対象とするゲームキャラクタの少なくともずれかが、フィールドFの第1の領域(AREA1_C)を移動する場合と、第1の領域とは異なる第2の領域(AREA2_OとAREA2_P)を移動する場合とを比較して、タッチスクリーンに表示されるゲームキャラクタの大きさが、第1の領域を移動する場合の方が大きくなるよう仮想カメラの配置を設定する。こうすることで、得点機会が高まるにつれて、ゴール周辺を含むフィールドを広範囲にユーザに視認させることができ、ユーザのセンタリングのタイミングの判断を容易にすることができる。   As shown in FIG. 6, by controlling the placement of the virtual camera, the game program 151 moves in the first area (AREA1_C) of the field F so that at least the shift of the object 137 or the game character to be operated is made. The case where the size of the game character displayed on the touch screen moves in the first area is compared with the case where the second area (AREA2_O and AREA2_P) different from the first area is moved. Set the placement of the virtual camera so that is larger. By doing so, as the scoring opportunity increases, the field including the periphery of the goal can be seen by a user over a wide range, and the user can easily determine the timing of centering.

<画面の表示例>
図7及び図8を参照して、本実施形態におけるタッチスクリーン130の表示例を説明する。
<Screen display example>
A display example of the touch screen 130 in this embodiment will be described with reference to FIGS. 7 and 8.

図7は、ユーザが操作するゲームキャラクタが、対象物(ボール)を保持している場合の画面の表示例を示す。   FIG. 7 shows a display example of a screen when the game character operated by the user holds an object (ball).

図7の画面例(A)に示すように、ユーザが、対象物137を保持しているゲームキャラクタ135を操作している場合で、ゲームキャラクタ135がフィールドFの中央付近(第1の領域)を移動しているとき、カメラ配置制御部194は、タッチスクリーン130の長辺方向および短辺方向の中央付近にゲームキャラクタ135が表示されるよう仮想カメラを配置する。これにより、対象物137を保持するゲームキャラクタ135の周囲の状況(自チームのゲームキャラクタ134の位置および敵側チームのゲームキャラクタ136の位置など)をユーザが認識することが容易となる。   As shown in the screen example (A) of FIG. 7, when the user is operating the game character 135 holding the object 137, the game character 135 is near the center of the field F (first region). When moving the camera, the camera arrangement control unit 194 arranges the virtual camera so that the game character 135 is displayed near the center of the long side direction and the short side direction of the touch screen 130. This makes it easy for the user to recognize the situation around the game character 135 holding the object 137 (such as the position of the game character 134 of the own team and the position of the game character 136 of the enemy team).

図7の画面例(B)に示すように、ユーザが、対象物137を保持しているゲームキャラクタ135を操作している場合で、ゲームキャラクタ135が、フィールドFのサイドライン付近を移動しているとき、カメラ配置制御部194は、タッチスクリーンの長辺方向の中央付近にゲームキャラクタ135を配置し、図5の仮想カメラのx軸の移動範囲に従って、フィールドFの範囲外よりも、フィールドFの範囲内が画面に広く表示されるよう仮想カメラを配置する。画面例(B)では、ユーザがタッチスクリーン130に対してドラッグ操作を継続することで、ゲームキャラクタ135を、画面の上側に移動させている。制御部190は、ユーザがドラッグ操作を継続させているときの、タッチの開始位置およびタッチを継続している位置とにより定まる方向を示すオブジェクト187をタッチスクリーン130に表示する。   As shown in the screen example (B) of FIG. 7, when the user is operating the game character 135 holding the object 137, the game character 135 moves near the side line of the field F. The camera placement control unit 194 places the game character 135 near the center of the long side direction of the touch screen, and follows the range of movement of the virtual camera in FIG. The virtual camera is arranged so that the range of is displayed widely on the screen. In the screen example (B), the user continues to drag the touch screen 130 to move the game character 135 to the upper side of the screen. The control unit 190 displays on the touch screen 130 an object 187 indicating a direction determined by the start position of the touch and the position where the touch is continued when the user continues the drag operation.

図7の画面例(C)に示すように、ユーザが、対象物137を保持しているゲームキャラクタ135を操作している場合で、ゲームキャラクタ135が、フィールドFの敵陣ゴール付近(第2の領域)を移動しているとき、カメラ配置制御部194は、画面例(A)および画面例(B)と比較して、仮想カメラを引き気味に配置する。こうすることで、対象物137を保持しているゲームキャラクタ135、敵陣ゴールの少なくとも一部、敵陣側のサポーターのオブジェクトをタッチスクリーン130に表示させることができ、より広範囲にフィールドFの状況をユーザに把握させることができる。これにより、ユーザに対し、得点機会における入力操作(例えば、センタリングを行うための入力操作など)を行うことを容易にさせることができる。また、敵陣側のサポーターのオブジェクトがタッチスクリーン130に表示されるため、より試合の臨場感を高めた体験をユーザに提供することができる。   As shown in a screen example (C) in FIG. 7, when the user is operating the game character 135 holding the object 137, the game character 135 is near the enemy team goal in the field F (second When moving the (region), the camera placement control unit 194 places the virtual camera in a more relaxed manner than the screen example (A) and the screen example (B). In this way, the game character 135 holding the object 137, at least part of the enemy goal, and the supporter object on the enemy side can be displayed on the touch screen 130, and the situation of the field F can be displayed in a wider range. Can be grasped. Thereby, it is possible to easily make the user perform an input operation (for example, an input operation for performing centering) at the scoring opportunity. In addition, since the supporter object on the enemy side is displayed on the touch screen 130, it is possible to provide the user with an experience that enhances the realism of the game.

図7の画面例(B)に示すように、制御部190が、移動操作検出部193によって検出されるゲームキャラクタの移動方向に従って、ユーザが操作対象とするゲームキャラクタ135を、ボール137を保持したままドリブルさせてタッチスクリーン130に表示する。制御部190は、初期タッチ位置に基づく座標を起点とし、タッチナウの座標に基づく座標を終点として定まるオブジェクト187をタッチスクリーン130に表示する。制御部190は、初期タッチ位置に基づく座標に、弾性状のオブジェクトを表示し、起点から、タッチナウの座標へ引き伸ばされるようにオブジェクト187を表示する。このようなオブジェクト187をタッチスクリーン130に表示することで、ゲームプログラム151を実行する携帯端末10は、ユーザに対し、ゲームキャラクタ135の移動方向を提示することができる。ユーザは、ドリブル中のゲームキャラクタ135を、オブジェクト187の形状を視認することで容易に把握することができる。制御部190は、オブジェクト187のほかにも、ゲームキャラクタ135の移動方向をユーザに提示するオブジェクトとして、例えば矢印状のオブジェクトなどをタッチスクリーン130に表示することとしてもよい。   As shown in the screen example (B) of FIG. 7, the control unit 190 holds the ball 137 for the game character 135 to be operated by the user according to the moving direction of the game character detected by the moving operation detection unit 193. The dribbling is continued and displayed on the touch screen 130. The control unit 190 displays, on the touch screen 130, an object 187 that is determined with the coordinates based on the initial touch position as the starting point and the coordinates based on the touch now coordinates as the ending point. The control unit 190 displays an elastic object at the coordinates based on the initial touch position, and displays the object 187 so as to be stretched from the starting point to the coordinates of the touch now. By displaying such an object 187 on the touch screen 130, the mobile terminal 10 executing the game program 151 can present the moving direction of the game character 135 to the user. The user can easily grasp the dribbling game character 135 by visually recognizing the shape of the object 187. In addition to the object 187, the control unit 190 may display, for example, an arrow-shaped object on the touch screen 130 as an object that presents the moving direction of the game character 135 to the user.

図8は、ユーザが操作するゲームキャラクタが、対象物(ボール)を保持していない場合の画面の表示例を示す。図8の例では、敵チーム側のゲームキャラクタが、対象物(ボール)を保持している。   FIG. 8 shows a display example of the screen when the game character operated by the user does not hold the object (ball). In the example of FIG. 8, the game character on the enemy team side holds the object (ball).

図8の画面例(A)に示すように、対象物137を保持するゲームキャラクタ136がフィールドFの中央付近(第1の領域)を移動しているとき、カメラ配置制御部194は、タッチスクリーン130の長辺方向および短辺方向の中央付近にゲームキャラクタ136が表示されるよう仮想カメラを配置する。これにより、ユーザは、対象物137を敵側チームのゲームキャラクタから奪うために、ユーザが操作するチームのゲームキャラクタのうちどのゲームキャラクタを操作することがよいか、ユーザが操作するゲームキャラクタ135と対象物137との位置取りなどを容易に認識することができる。   As shown in the screen example (A) of FIG. 8, when the game character 136 holding the object 137 is moving near the center of the field F (first region), the camera arrangement control unit 194 displays the touch screen. The virtual camera is arranged so that the game character 136 is displayed near the center in the long side direction and the short side direction of 130. Thereby, in order to take the target object 137 from the game character of the enemy team, which game character should be operated among the game characters of the team operated by the user, the game character 135 operated by the user, Positioning with the object 137 can be easily recognized.

図8の画面例(B)に示すように、ゲームキャラクタ136が、フィールドFのサイドライン付近を移動しているとき、カメラ配置制御部194は、タッチスクリーンの長辺方向の中央付近にゲームキャラクタ136を配置し、図5の仮想カメラのx軸の移動範囲に従って、フィールドFの範囲外よりも、フィールドFの範囲内が画面に広く表示されるよう仮想カメラを配置する。   As shown in the screen example (B) of FIG. 8, when the game character 136 is moving near the side line of the field F, the camera arrangement control unit 194 moves the game character near the center in the long side direction of the touch screen. In accordance with the x-axis movement range of the virtual camera in FIG. 5, the virtual camera is arranged so that the inside of the field F is displayed wider on the screen than the outside of the field F.

図8の画面例(C)ののちに、ゲームキャラクタが移動した結果、画面例(D)に推移するとする。図8の画面例(C)及び画面例(D)に示すように、ゲームキャラクタ136が、フィールドFの、ユーザ側のゴール(自陣ゴール)付近(第2の領域)を、画面例(C)に示すように移動している場合、カメラ配置制御部194は、画面例(A)および画面例(B)と比較して、仮想カメラを引き気味に配置する。こうすることで、対象物137を保持している敵チームのゲームキャラクタ136、自陣ゴールの少なくとも一部、敵陣側サポーターのオブジェクトをタッチスクリーン130に表示させることができる。これにより、制御部190は、ユーザに対し、得点を敵チームにあげられないように、自陣ゴール付近の状況を確認させつつ入力操作を受け付けることができる。また、敵陣側のサポーターのオブジェクトがタッチスクリーン130に表示されるため、より試合の臨場感を高めた体験をユーザに提供することができる。また、タッチスクリーン130の手前側の辺から一定範囲を空けて自陣ゴールラインを表示するため、画面例(C)および画面例(D)に示すように、ユーザに対し、ゲームキャラクタ135の移動方向を入力するための操作領域を、自陣ゴールラインの下部に提供することができる。   It is assumed that after the screen example (C) in FIG. As shown in the screen example (C) and the screen example (D) in FIG. 8, the game character 136 shows the vicinity of the user's goal (self-goal goal) (second area) in the field F (screen example (C)). When moving as shown in FIG. 6, the camera placement control unit 194 places the virtual camera in a more relaxed manner than the screen example (A) and the screen example (B). By doing so, the game character 136 of the enemy team holding the object 137, at least a part of the own team goal, and the enemy team supporter object can be displayed on the touch screen 130. Thereby, the control unit 190 can accept the input operation while allowing the user to check the situation near the own team goal so that the score cannot be given to the enemy team. In addition, since the supporter object on the enemy side is displayed on the touch screen 130, it is possible to provide the user with an experience that enhances the realism of the game. Further, in order to display a self-goal goal line with a certain range from the near side of the touch screen 130, as shown in the screen example (C) and the screen example (D), the moving direction of the game character 135 with respect to the user Can be provided at the bottom of the own goal line.

図7および図8に示すように、オブジェクトがフィールドFのどの領域(第1の領域または第2の領域)に位置しているかに応じて、仮想カメラの配置を制御する。オブジェクトが領域をまたいで移動する場合に、各領域における仮想カメラが配置される位置へと仮想カメラを平行に移動させる。   As shown in FIGS. 7 and 8, the placement of the virtual camera is controlled according to which area (first area or second area) of the field F the object is located in. When the object moves across the area, the virtual camera is moved in parallel to the position where the virtual camera is arranged in each area.

図9は、仮想カメラの配置を制御するための制御部190の処理を示すフローチャートである。制御部190は、例えば、各フレームにおいて各オブジェクトの位置を取得して、図9に示す処理を行う。   FIG. 9 is a flowchart showing processing of the control unit 190 for controlling the placement of the virtual camera. For example, the control unit 190 acquires the position of each object in each frame and performs the processing shown in FIG.

ステップS801において、制御部190は、ユーザが操作対象とするゲームキャラクタ135が、対象物137を保持しているか否かを判定する。ゲームキャラクタ135が対象物137を保持している場合(ステップS801においてYES)(ドリブルをしている場合)、制御部190は、ステップS803の処理を行い、そうでない場合(ステップS801においてNO)、ステップS811の処理を行う。   In step S <b> 801, the control unit 190 determines whether or not the game character 135 to be operated by the user holds the object 137. When game character 135 holds object 137 (YES in step S801) (when dribbling), control unit 190 performs the process of step S803, and otherwise (NO in step S801). The process of step S811 is performed.

ステップS803において、制御部190は、対象物137を保持してユーザが操作対象とするゲームキャラクタ135が位置する座標に基づいて、フィールドFにおいて、ゲームキャラクタ135が位置する領域(第1の領域または第2の領域)を取得する。   In step S <b> 803, the control unit 190 holds the target object 137 and, based on the coordinates where the game character 135 to be operated by the user is located, in the field F, the area where the game character 135 is located (first area or 2nd area | region) is acquired.

ステップS805において、制御部190は、ゲームキャラクタ135がフィールドFにおいて位置している領域の仮想カメラの設定に応じて、仮想カメラの配置を制御し、仮想カメラの撮影範囲の画像を取得する。   In step S805, the control unit 190 controls the placement of the virtual camera according to the setting of the virtual camera in the area where the game character 135 is located in the field F, and acquires an image of the shooting range of the virtual camera.

ステップS807において、制御部190は、仮想カメラの撮影画像をタッチスクリーン130に表示する。   In step S807, the control unit 190 displays the captured image of the virtual camera on the touch screen 130.

ステップS811において、制御部190は、対象物137が位置する座標(敵チーム側のゲームキャラクタが対象物137を保持している場合は、当該ゲームキャラクタの移動(ドリブル)に伴い対象物137の位置が更新される)に基づいて、フィールドFにおいて、対象物137が位置する領域(第1の領域または第2の領域)を取得する。   In step S811, the control unit 190 determines the coordinates of the target object 137 (if the game character on the enemy team side holds the target object 137, the position of the target object 137 in accordance with the movement (dribbling) of the game character). In the field F, the area where the object 137 is located (first area or second area) is acquired.

ステップS813において、制御部190は、対象物137がフィールドFにおいて位置している領域の仮想カメラの設定に応じて、仮想カメラの配置を制御し、仮想カメラの撮影範囲の画像を取得する。   In step S813, the control unit 190 controls the placement of the virtual camera according to the setting of the virtual camera in the region where the object 137 is located in the field F, and acquires an image of the shooting range of the virtual camera.

<ゲームプログラム151のまとめ>
本実施形態のゲームプログラム151は、上述のように、タッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるものである。ゲームプログラム151は、複数のゲームキャラクタにより構成されるチームが他のチームと対象物(ボール)をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるものである。
<Summary of game program 151>
As described above, the game program 151 of this embodiment is executed on a computer including a touch screen, a processor, and a memory. The game program 151 is for a sports game in which a team composed of a plurality of game characters competes with another team in a field in a virtual space over an object (ball).

(項目1)ゲームプログラム(151)は、プロセッサ(190)に、タッチスクリーン(130)に対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタ(135)を移動させる。ゲームプログラムは、対象物(137)または操作対象とするゲームキャラクタの少なくともずれかが、フィールド(F)の第1の領域(AREA1_C)を移動する場合と、第1の領域とは異なる第2の領域(AREA2_OとAREA2_P)を移動する場合とを比較して、タッチスクリーンに表示されるゲームキャラクタの大きさが、第1の領域を移動する場合の方が大きくなるよう仮想カメラの配置を設定する。ゲームプログラムは、仮想空間内の仮想カメラの設定に応じた画面をタッチスクリーンに表示させる。   (Item 1) The game program (151) causes the processor (190) to move the game character (135) to be operated by the user in response to an input operation on the touch screen (130). In the game program, when at least a shift of the target object (137) or the game character to be operated moves in the first area (AREA1_C) of the field (F), the second different from the first area The placement of the virtual camera is set so that the size of the game character displayed on the touch screen is larger when moving in the first area than when moving in the areas (AREA2_O and AREA2_P). . The game program displays on the touch screen a screen corresponding to the setting of the virtual camera in the virtual space.

(項目2) (項目1)において、ゲームプログラムは、仮想カメラの配置を設定するために、対象物または操作対象とするゲームキャラクタの少なくともいずれかが第1の領域を移動する場合と比較して、第2の領域を移動する場合に、フィールドを撮影する撮影範囲を広げるように仮想カメラの配置を設定する。   (Item 2) In (Item 1), in order to set the placement of the virtual camera, the game program is compared with the case where at least one of the target object and the game character to be operated moves in the first area. When moving the second area, the arrangement of the virtual cameras is set so as to widen the shooting range for shooting the field.

(項目3) (項目1)または(項目2)において、第2の領域は、フィールドにおいて各チームが守備する対象となるゴールが配置される辺からフィールドの中央部に向かう一定領域を含む。   (Item 3) In (Item 1) or (Item 2), the second region includes a certain region from the side where the goal to be defended by each team is arranged in the field toward the center of the field.

(項目4) (項目3)において、ゲームプログラムは、各チームがフィールドを縦方向に攻めあがるようタッチスクリーンにフィールドを表示させるように構成されている。ゲームプログラムは、仮想カメラの配置を設定するときに、タッチスクリーンの手前側の辺に沿ってフィールドに配置されるゴールから中央部に向かう一定領域に対象物または操作対象とするゲームキャラクタの少なくともいずれかが移動する場合に、タッチスクリーンの手前側の辺から中央部へ向かう第1の距離を空けた位置に、手前側の辺に沿って配置されるゴール(例えば、自陣ゴール)が表示されるように仮想カメラの配置を設定する。ゲームプログラムは、タッチスクリーンの奥側の辺に沿ってフィールドに配置されるゴール(例えば、敵陣ゴール)から中央部に向かう一定領域に対象物または操作対象とするゲームキャラクタの少なくともいずれかが移動する場合に、タッチスクリーンの奥側の辺から中央部へ向かう第2の距離を空けた位置に奥側の辺に沿って配置されるゴール(敵陣ゴール)が表示されるように仮想カメラの配置を設定する。ゲームプログラムは、第1の距離が、前記第2の距離より大きくなるように前記仮想カメラの配置を設定する。   (Item 4) In (Item 3), the game program is configured to display the field on the touch screen so that each team attacks the field in the vertical direction. When the game program sets the placement of the virtual camera, at least one of the game character to be operated or operated in a certain area from the goal placed in the field along the front side of the touch screen toward the center. When the sword moves, a goal (for example, own team goal) arranged along the near side is displayed at a position spaced a first distance from the near side to the center of the touch screen. Set the placement of the virtual camera as follows. In the game program, at least one of an object or a game character to be operated moves from a goal (for example, an enemy team goal) arranged in the field along a back side of the touch screen to a certain area toward the center. In this case, the virtual camera is arranged so that the goal (enemy goal) arranged along the back side is displayed at a position spaced a second distance from the back side to the center of the touch screen. Set. The game program sets the placement of the virtual camera so that the first distance is greater than the second distance.

これにより、自陣ゴールが攻め込まれている場合において、タッチスクリーンの手前側から一定範囲を、ユーザのタッチ操作による入力操作を受け付けるための領域として確保することができ、ゲームの興趣性を向上させることができる。   This makes it possible to secure a certain range from the front side of the touch screen as an area for accepting an input operation by the user's touch operation when the own team goal is invaded, and improve the fun of the game Can do.

(項目5) (項目1)から(項目4)のいずれかにおいて、ゲームプログラムは、プロセッサに、さらに、ユーザの操作内容をドラッグ操作であると判別した場合に、ドラッグ操作の初期タッチ位置に基づく座標を起点として、ドラッグ操作によりタッチオンを継続している位置に基づく座標に向かう方向にゲームキャラクタを移動させる。ゲームプログラムは、この起点からゲームキャラクタを移動させる方向を示すオブジェクトを、起点に基づいてタッチスクリーンに表示させる。   (Item 5) In any one of (Item 1) to (Item 4), when the game program further determines that the operation content of the user is a drag operation, the game program is based on the initial touch position of the drag operation. Starting from the coordinates, the game character is moved in a direction toward the coordinates based on the position where the touch-on is continued by the drag operation. The game program displays an object indicating the direction in which the game character is moved from the starting point on the touch screen based on the starting point.

これによりユーザはゲームキャラクタを移動させるための入力操作を、ドラッグ操作の継続という容易な方法で行うことができ、移動方向を容易に視認することができる。   Thus, the user can perform an input operation for moving the game character by an easy method of continuing the drag operation, and can easily visually recognize the moving direction.

<変形例>
上記実施例では、ゲームキャラクタがサッカーボールを保持している場合に、ドラッグ操作によりゲームキャラクタを移動させる例を説明した。ここで、フリック操作またはタップ操作によりサッカーボールをパスまたはシュート等の移動をさせることとしてもよい。この他にも、ユーザが操作するチームのゲームキャラクタがボールを保持せず、敵側のチームのゲームキャラクタがボールを保持している場合に、ゲームキャラクタをドラッグ操作により移動させ、タップ操作またはドラッグ操作によりボールに対してタックル、スライディング等の動作をゲームキャラクタに行わせることとしてもよい。
<Modification>
In the above-described embodiment, an example has been described in which the game character is moved by a drag operation when the game character holds a soccer ball. Here, the soccer ball may be moved such as passing or shooting by flicking or tapping. In addition to this, when the game character of the team operated by the user does not hold the ball and the game character of the enemy team holds the ball, the game character is moved by a drag operation, and a tap operation or a drag is performed. It is good also as making a game character perform operations, such as tackle and sliding, with respect to a ball | bowl by operation.

また、ユーザがタッチパネルを押下する強度に応じて、ゲームキャラクタが対象物を移動させる動作(サッカーボールをけり出す動作)を制御することとしてもよい。例えば、タッチパネルが、ユーザによる押下の強度を検出する場合、押下の強度に応じて、タップ操作によるパスの際のボールの挙動を、地面を転がすようなパスとするか、ボールを大きくけり出すようなパスとするかを切り分けることとしてもよい。また、ユーザがタッチスクリーン130に対して指などを接近させる時間の長さに応じて、ゲームキャラクタが対象物を移動させる動作を制御することとしてもよい。すなわち、ユーザの操作内容が、タップ操作かロングタップかに応じて、タップ操作である場合はタップ位置に向けて地面を転がすようなパスを行わせ、ロングタップである場合はタップ位置に向けてボールを大きくけり出すようなパスを行わせることとしてもよい。   Moreover, it is good also as controlling the operation | movement (action which kicks out a soccer ball) which a game character moves a target object according to the intensity | strength in which a user presses a touch panel. For example, when the touch panel detects the strength of the pressing by the user, the behavior of the ball in the pass by the tap operation is a path that rolls on the ground or the ball is pushed out depending on the pressing strength. It is good also as carving whether it is set as a pass. Further, the movement of the game character to move the object may be controlled according to the length of time for which the user brings his / her finger or the like closer to the touch screen 130. That is, depending on whether the user's operation is a tap operation or a long tap, if it is a tap operation, a path that rolls the ground toward the tap position is performed, and if it is a long tap, it is directed toward the tap position. It is also possible to make a pass that projects the ball greatly.

以上のように各実施形態のゲーム配信システムを構成する携帯端末10およびサーバ20の動作について説明してきたが、携帯端末10で行われる各処理をサーバ20で行うこととしてもよいし、サーバ20で行われる処理を携帯端末10で行うこととしてもよい。   As described above, the operations of the mobile terminal 10 and the server 20 configuring the game distribution system of each embodiment have been described. However, each process performed by the mobile terminal 10 may be performed by the server 20 or may be performed by the server 20. It is good also as performing the process performed with the portable terminal 10. FIG.

例えば、携帯端末10は、タッチスクリーン130に対するユーザの入力操作を受け付けて、受け付けた操作内容をサーバ20へ送信する。サーバ20は、ユーザの入力操作を携帯端末10から受け付けて、ゲームを進行させるための各処理を行い、仮想カメラの配置に基づいて携帯端末10に表示させるための表示画面を生成し、生成した表示画面を、逐次、携帯端末10に表示する。このように、ゲームを進行させるための処理の大部分をサーバ20が担うこととしてもよい。また、ゲームを進行させるための処理の大部分を携帯端末10が担うこととしてもよい。   For example, the mobile terminal 10 receives a user input operation on the touch screen 130 and transmits the received operation content to the server 20. The server 20 receives a user input operation from the mobile terminal 10, performs each process for proceeding with the game, generates a display screen for display on the mobile terminal 10 based on the placement of the virtual camera, and generates the display screen The display screen is sequentially displayed on the mobile terminal 10. Thus, it is good also as the server 20 taking up most of the processes for advancing a game. Moreover, it is good also as the portable terminal 10 taking up most of the processes for advancing a game.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 携帯端末、20 サーバ、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、80 ネットワーク、81 無線基地局、82 無線ルータ、110 アンテナ、120 無線通信IF、130 タッチスクリーン、131 タッチパネル、132 ディスプレイ、134 ゲームキャラクタ、135 ゲームキャラクタ、136 ゲームキャラクタ、137 ボール、138 座標、150 記憶部、151 ゲームプログラム、153 バッファメモリ、155 初期タッチ位置座標、160 音声処理部、170 マイク、180 スピーカ、187 オブジェクト、190 制御部、191 入力操作受付部、192 ゲーム進行処理部、193 移動操作検出部、194 カメラ配置制御部、195 オブジェクト制御部、196 表示制御部、220 通信部、250 記憶部、251 ゲームプログラム、252 ゲーム情報、253 ユーザ情報、290 制御部、291 送受信部、292 サーバ処理部、293 データ管理部、294 マッチング部、295 計測部。   10 mobile terminal, 20 server, 22 communication IF, 23 input / output IF, 25 memory, 26 storage, 29 processor, 80 network, 81 wireless base station, 82 wireless router, 110 antenna, 120 wireless communication IF, 130 touch screen, 131 Touch panel, 132 display, 134 game character, 135 game character, 136 game character, 137 ball, 138 coordinates, 150 storage unit, 151 game program, 153 buffer memory, 155 initial touch position coordinates, 160 sound processing unit, 170 microphone, 180 Speaker, 187 object, 190 control unit, 191 input operation reception unit, 192 game progress processing unit, 193 movement operation detection unit, 194 camera placement control unit, 195 object Control unit, 196 display control unit, 220 communication unit, 250 storage unit, 251 game program, 252 game information, 253 user information, 290 control unit, 291 transmission / reception unit, 292 server processing unit, 293 data management unit, 294 matching unit 295 Measurement unit.

Claims (6)

ゲームプログラムであって、
前記ゲームプログラムは、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるものであり、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるものであり、
前記フィールドの両端には、ゴールが配置されており、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタを移動させるステップと、
前記対象物または前記操作対象とするゲームキャラクタの少なくともいずれかが、前記フィールド内の中央付近の領域である第1の領域を移動する場合と、前記フィールド内のゴール付近の領域である第2の領域を移動する場合とを比較して、前記タッチスクリーンに表示される前記ゲームキャラクタの大きさが、前記第1の領域を移動する場合の方が大きくなるよう前記仮想カメラの配置を設定するステップと、
前記仮想空間内の前記仮想カメラの設定に応じた画面を前記タッチスクリーンに表示させるステップとを実行させる、ゲームプログラム。
A game program,
The game program is executed on a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory, and a team composed of a plurality of game characters is virtual around other teams and objects. It is related to a sports game that competes in a field in space,
Goals are arranged at both ends of the field,
The game program is stored in the processor.
Moving a game character to be operated by a user in response to an input operation on the touch screen;
When at least one of the object or the game character to be operated moves in a first area that is an area near the center in the field, and a second area that is an area near the goal in the field A step of setting the placement of the virtual camera so that the size of the game character displayed on the touch screen is larger when moving the first region than when moving the region. When,
And a step of displaying a screen according to the setting of the virtual camera in the virtual space on the touch screen.
前記仮想カメラの配置を設定するステップは、前記対象物または前記操作対象とするゲームキャラクタの少なくともいずれかが前記第1の領域を移動する場合と比較して、前記第2の領域を移動する場合に、前記フィールドを撮影する撮影範囲を広げるように前記仮想カメラの配置を設定することを含む、請求項1に記載のゲームプログラム。   The step of setting the placement of the virtual camera is when the second region is moved as compared to the case where at least one of the object or the game character to be operated moves in the first region. The game program according to claim 1, further comprising: setting an arrangement of the virtual camera so as to widen a shooting range for shooting the field. 前記ゲームプログラムは、各チームが相手チームのゴールに向かって前記フィールドを縦方向に攻めあがるよう前記タッチスクリーンに前記フィールドを表示させるように構成されており、
前記仮想カメラの配置を設定するステップは、前記フィールドの下方側の前記第2の領域を前記対象物または前記操作対象とするゲームキャラクタの少なくともいずれかが移動する場合に、前記タッチスクリーンの手前側の辺から中央部へ向かう第1の距離を空けた位置に前記手前側の辺に沿って配置されるゴールが表示されるように前記仮想カメラの配置を設定し、
前記フィールドの上方側の前記第2の領域を前記対象物または前記操作対象とするゲームキャラクタの少なくともいずれかが移動する場合に、前記タッチスクリーンの奥側の辺から中央部へ向かう第2の距離を空けた位置に前記奥側の辺に沿って配置されるゴールが表示されるように前記仮想カメラの配置を設定し、前記第1の距離は、前記第2の距離より大きくなるように前記仮想カメラの配置を設定することを含む、請求項1又は2に記載のゲームプログラム。
The game program is configured to display the field on the touch screen so that each team attacks the field in the vertical direction toward the goal of the opponent team ,
The step of setting the placement of the virtual camera comprises: when at least one of the object and the operation target game character moves in the second area below the field, the front side of the touch screen Setting the placement of the virtual camera so that a goal placed along the front side is displayed at a position spaced a first distance from the side to the center,
A second distance from the back side of the touch screen toward the center when at least one of the object and the operation target game character moves in the second area above the field The placement of the virtual camera is set so that the goal placed along the back side is displayed at a position with a gap, and the first distance is larger than the second distance. It includes setting the arrangement of the virtual camera, a game program according to claim 1 or 2.
前記ゲームプログラムは、前記プロセッサに、さらに、
前記ユーザの操作内容をドラッグ操作であると判別した場合に、前記ドラッグ操作の初期タッチ位置に基づく座標を起点として、前記ドラッグ操作によりタッチオンを継続している位置に基づく座標に向かう方向に前記ゲームキャラクタを移動させるステップと、
前記起点から前記ゲームキャラクタを移動させる方向を示すオブジェクトを、前記起点に基づいて前記タッチスクリーンに表示させるステップとを実行させる、請求項1からのいずれか1項に記載のゲームプログラム。
The game program is further transmitted to the processor.
When it is determined that the user's operation content is a drag operation, the game is started in the direction toward the coordinate based on the position where touch-on is continued by the drag operation, starting from the coordinate based on the initial touch position of the drag operation Moving the character;
Wherein the object indicating the direction for moving the game character from the starting point, the and a step of displaying on the touch screen based on the starting point, the game program according to any one of claims 1 to 3.
タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行される方法であって、前記コンピュータは、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるゲームプログラムを実行するものであり、
前記フィールドの両端には、ゴールが配置されており、
前記方法は、
前記コンピュータが、前記タッチスクリーンに対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタを移動させるステップと、
前記コンピュータが、前記対象物または前記操作対象とするゲームキャラクタの少なくともいずれかが、前記フィールド内の中央付近の領域である第1の領域を移動する場合と、前記フィールド内のゴール付近の領域である第2の領域を移動する場合とを比較して、前記タッチスクリーンに表示される前記ゲームキャラクタの大きさが、前記第1の領域を移動する場合の方が大きくなるよう前記仮想カメラの配置を設定するステップと、
前記コンピュータが、前記仮想空間内の前記仮想カメラの設定に応じた画面を前記タッチスクリーンに表示させるステップとを実行することを含む、方法。
A method that is executed in a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory, wherein the computer is configured by a team composed of a plurality of game characters around another team and an object. A game program for a sports game that competes in a field in space is executed.
Goals are arranged at both ends of the field,
The method
The computer moving a game character to be operated by a user in response to an input operation on the touch screen;
In the case where the computer moves at least one of the object or the game character to be operated in a first area that is an area near the center in the field, and an area near the goal in the field is compared with the case of moving a certain second region, the magnitude of the game character displayed on the touch screen, the arrangement of the virtual camera such that it is larger in the case of moving the first region Steps to set
Causing the computer to display a screen on the touch screen according to the settings of the virtual camera in the virtual space.
タッチ操作による入力操作を受け付けるタッチスクリーンと、制御部と、記憶部とを備える情報処理装置であって、
前記記憶部は、複数のゲームキャラクタにより構成されるチームが他のチームと対象物をめぐって仮想空間内のフィールドで対戦するスポーツゲームにかかるゲームプログラムを記憶するように構成されており、
前記フィールドの両端には、ゴールが配置されており、
前記制御部は、
前記タッチスクリーンに対する入力操作に応じて、ユーザが操作対象とするゲームキャラクタを移動させる移動制御部と、
前記対象物または前記操作対象とするゲームキャラクタの少なくともいずれかが、前記フィールド内の中央付近の領域である第1の領域を移動する場合と、前記フィールド内のゴール付近の領域である第2の領域を移動する場合とを比較して、前記タッチスクリーンに表示される前記ゲームキャラクタの大きさが、前記第1の領域を移動する場合の方が大きくなるよう前記仮想カメラの配置を設定する配置制御部と、
前記仮想空間内の前記仮想カメラの設定に応じた画面を前記タッチスクリーンに表示させる表示制御部とを含む、情報処理装置。
An information processing apparatus including a touch screen that accepts an input operation by a touch operation, a control unit, and a storage unit,
The storage unit is configured to store a game program related to a sports game in which a team composed of a plurality of game characters competes with other teams in a field in a virtual space over an object,
Goals are arranged at both ends of the field,
The controller is
A movement control unit for moving a game character to be operated by a user in response to an input operation on the touch screen;
When at least one of the object or the game character to be operated moves in a first area that is an area near the center in the field, and a second area that is an area near the goal in the field Arrangement for setting the arrangement of the virtual camera so that the size of the game character displayed on the touch screen is larger when moving the first area than when moving the area A control unit;
An information processing apparatus comprising: a display control unit configured to display a screen according to the setting of the virtual camera in the virtual space on the touch screen.
JP2016118409A 2016-06-14 2016-06-14 Information processing apparatus provided with game program, method, and touch screen Active JP6174202B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016118409A JP6174202B1 (en) 2016-06-14 2016-06-14 Information processing apparatus provided with game program, method, and touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016118409A JP6174202B1 (en) 2016-06-14 2016-06-14 Information processing apparatus provided with game program, method, and touch screen

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017132270A Division JP2017221676A (en) 2017-07-05 2017-07-05 Game program, method, and information processor with touch screen

Publications (2)

Publication Number Publication Date
JP6174202B1 true JP6174202B1 (en) 2017-08-02
JP2017221353A JP2017221353A (en) 2017-12-21

Family

ID=59505161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016118409A Active JP6174202B1 (en) 2016-06-14 2016-06-14 Information processing apparatus provided with game program, method, and touch screen

Country Status (1)

Country Link
JP (1) JP6174202B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097699A (en) * 2017-11-29 2019-06-24 株式会社コーエーテクモゲームス Game system and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178242A (en) * 1993-12-21 1995-07-18 Sega Enterp Ltd Viewpoint change method for ball game in game machine
JP2001353358A (en) * 2000-06-14 2001-12-25 Namco Ltd Game apparatus and information storage medium
JP2006181286A (en) * 2004-12-28 2006-07-13 Sega Corp Image processor and method thereof
JP2010046363A (en) * 2008-08-22 2010-03-04 Konami Digital Entertainment Co Ltd Game device, control method for the game device, and program
JP2010057841A (en) * 2008-09-05 2010-03-18 Sega Corp Game machine and control method for game machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178242A (en) * 1993-12-21 1995-07-18 Sega Enterp Ltd Viewpoint change method for ball game in game machine
JP2001353358A (en) * 2000-06-14 2001-12-25 Namco Ltd Game apparatus and information storage medium
JP2006181286A (en) * 2004-12-28 2006-07-13 Sega Corp Image processor and method thereof
JP2010046363A (en) * 2008-08-22 2010-03-04 Konami Digital Entertainment Co Ltd Game device, control method for the game device, and program
JP2010057841A (en) * 2008-09-05 2010-03-18 Sega Corp Game machine and control method for game machine

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097699A (en) * 2017-11-29 2019-06-24 株式会社コーエーテクモゲームス Game system and program
JP7079594B2 (en) 2017-11-29 2022-06-02 株式会社コーエーテクモゲームス Game system, game provision method and program

Also Published As

Publication number Publication date
JP2017221353A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
JP6450875B1 (en) GAME PROGRAM, GAME METHOD, AND INFORMATION PROCESSING DEVICE
JP6318279B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6547032B1 (en) Game program, method, and terminal device
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6318228B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP2017192537A (en) Game program, method, and information processor with touch screen
JP2017192538A (en) Game program, method, and information processor with touch screen
JP7510290B2 (en) Game program and game method
JP6673796B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP6924564B2 (en) Game program
JP6535376B2 (en) Program, processing method, and information terminal device
JP2017221676A (en) Game program, method, and information processor with touch screen
JP2018033972A (en) Game program, method and information processing device including touch screen
JP2018020150A (en) Game program, method, and information processor with touch screen
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP6907148B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP2018192326A (en) Game program, method for providing game and information processor
JP6263293B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7216154B2 (en) Game program, method and information processing device with touch screen
JP2019051360A (en) Game program, game providing method, and information processor
JP6209243B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP7171403B2 (en) Program, Game Method, and Information Processing Device
JP2018153616A (en) Information processing method, apparatus, and program for implementing that information processing method in computer

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170705

R150 Certificate of patent or registration of utility model

Ref document number: 6174202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250