JP6721285B2 - 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 - Google Patents

情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 Download PDF

Info

Publication number
JP6721285B2
JP6721285B2 JP2013171359A JP2013171359A JP6721285B2 JP 6721285 B2 JP6721285 B2 JP 6721285B2 JP 2013171359 A JP2013171359 A JP 2013171359A JP 2013171359 A JP2013171359 A JP 2013171359A JP 6721285 B2 JP6721285 B2 JP 6721285B2
Authority
JP
Japan
Prior art keywords
information processing
screen
game
item
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013171359A
Other languages
English (en)
Other versions
JP2015039482A (ja
Inventor
大悟 清水
大悟 清水
卓宏 堂田
卓宏 堂田
大貴 岩本
大貴 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2013171359A priority Critical patent/JP6721285B2/ja
Priority to EP14158350.0A priority patent/EP2839867A1/en
Priority to US14/202,662 priority patent/US9582162B2/en
Publication of JP2015039482A publication Critical patent/JP2015039482A/ja
Application granted granted Critical
Publication of JP6721285B2 publication Critical patent/JP6721285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

この発明は情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法に関し、特にたとえば、異なる2つの画面を表示する、情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法に関する。
背景技術の一例が非特許文献1に開示される。この非特許文献1に開示のゲーム装置では、ゲームを中断し、アイテム画面を表示すると、所持しているアイテムを選択して、選択したアイテムを設定したいコントローラのボタンを押すことにより、そのボタンに選択したアイテムを設定することができる。
NINTENDO GAMECUBE「ゼルダの伝説 風のタクト」取扱説明書
しかし、非特許文献1に開示されたゲーム装置は、通常、テレビジョン受像機に接続されるため、ゲームを中断して、ゲーム画面に代えてアイテム画面を表示する必要があり、操作が面倒である。このため、テレビジョン受像機とは別の表示装置を設けてアイテム画面を表示することが考えられる。この場合、ゲームを中断したり、ゲーム画面をアイテム画面に切り替えたりする必要は無いが、アイテムをコントローラのボタンに設定する際に、プレイヤはアイテム画面に集中してしまい、ゲーム画面を確認しなかったり、確認する時間が短くなったりすることが考えられる。つまり、面倒な操作をしなくても良いが、アイテムをボタンに設定している間に、プレイヤキャラクタが敵キャラクタの攻撃を受けてしまうような不都合が起こり得る。
それゆえに、この発明の主たる目的は、新規な、情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法を提供することである。
また、この発明の他の目的は、操作性を向上させることができる、情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法を提供することである。
第1の発明は、第1表示部と、第1判断部と、第2表示部を備える、情報処理装置である。第1表示部は、選択対象の少なくとも1つの第1オブジェクトを含む選択画面を表示する。第1判断部は、第1オブジェクトが選択されたかどうかを判断する。第2表示部は、第1判断部によって第1オブジェクトが選択されたと判断されたときに、当該第1オブジェクトに対応する第2オブジェクトを、選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて表示する。第1表示部は、第1オブジェクトの移動先である第1移動先オブジェクトを選択画面にさらに表示し、第2表示部は、第1判断部によって第1オブジェクトが選択されたと判断されたときに、第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに情報処理画面に重ねて表示する。
第1の発明によれば、選択画面の選択対象の第1オブジェクトが選択されたと判断されたときに、選択された第1オブジェクトに対応する第2オブジェクトが情報処理画面に表示されるので、第1オブジェクトを選択した後では、選択画面を見ずに情報処理画面を見ながら、選択画面に含まれる第1オブジェクトについての操作を行うことができる。
また、第1の発明によれば、第2オブジェクトを第2移動先オブジェクトに移動させるように操作すれば、第1オブジェクトを第1移動先オブジェクトに移動させることができる。つまり、情報処理画面を見ながら操作することができる。
第2の発明は、第1の発明に従属し、情報処理装置は、第1受付部と移動部をさらに備える。第1受付部は、選択された第1オブジェクトの移動操作を受け付ける。移動部は、第1受付部によって移動操作を受け付けたとき、当該移動操作に従って、第1オブジェクトを移動させるとともに、第2オブジェクトを当該第1オブジェクトと同様に移動させる移動部をさらに備える。
第2の発明によれば、情報処理画面を見ながら選択した第1オブジェクトの移動操作を行うことができる。
第3の発明は、第2の発明に従属し、移動操作はスライドを含む。たとえば、タッチパネルを用いて、ドラッグやフリックにより第1オブジェクトを移動させる。
第3の発明によれば、直感的な操作で第1オブジェクトを移動させることができる。
第4の発明は、第1ないし第3の発明のいずれかに従属し、第1判断部は、第1オブジェクトの選択が解除されたかどうかをさらに判断する。第2表示部は、第1判断部によって第1オブジェクトの選択が解除されたと判断されたときに、第2オブジェクトを情報処理画面から消去する。
第4の発明によれば、第1オブジェクトの選択が解除されたことにより、この第1オブジェクトの移動を終了すると、第2オブジェクトが自動的に情報処理画面から消去されるので、操作の手間を省くことができる。
第5の発明は、第4の発明に従属し、情報処理装置は、第2判断手段をさらに備える。第2判断部は、第1判断部によって第1オブジェクトの選択が解除されたことが判断された場合に、当該第1オブジェクトが静止したかどうかを判断する。第2表示部は、第2判断部によって第1オブジェクトが静止したことが判断されたときに、第2オブジェクトを情報処理画面から消去する。スライドやフリックで第1オブジェクトを移動させた場合には、その移動を終了したときに、第2オブジェクが情報処理画面から消去される。
第5の発明においても、第4の発明と同様に、操作の手間を省くことができる。
の発明は、第1ないし第5の発明のいずれかに従属し、第2表示部は、選択画面に表示される第1オブジェクトと第1移動先オブジェクトの位置関係に応じた位置関係で、第2オブジェクトと第2移動先オブジェクトを情報処理画面に重ねて表示する。
の発明によれば、第2オブジェクトと第2移動先オブジェクトの位置関係は、第1オブジェクトと第1移動先オブジェクトの位置関係に対応するので、たとえば、第2オブジェクトは第1オブジェクトに従って移動され、したがって、情報処理画面を見ながら第1オブジェクトを容易に移動させることができる。
の発明は、第1ないしの発明のいずれかに従属し、選択された第1オブジェクトを第1移動先オブジェクトまで移動させたとき、第2表示部は、第2オブジェクトおよび第2移動先オブジェクトを情報処理画面から消去する。
の発明によれば、第2オブジェクトおよび第2移動先オブジェクトは、自動的に情報処理画面から消去されるので、操作の手間を省くことができる。
の発明は、第ないし第の発明のいずれかに従属し、第2表示部は、第2オブジェクトおよび第2移動先オブジェクトを情報処理画面に半透明で表示する。
の発明によれば、第2オブジェクトおよび第2移動先オブジェクトを情報処理画面に半透明で表示するので、これらの下に表示される内容が見えなくなるのを防止することができる。
の発明は、第1ないし第の発明のいずれかに従属し、選択画面および情報処理画面は異なる空間を描画した画面である。
の発明によれば、選択画面とは異なる空間を描画した情報処理画面に第2オブジェクトを表示するので、情報処理画面に描画された空間の内容を見ながら第1オブジェクトについての操作を行うことができる。
10の発明は、第2または第3の発明に従属し、情報処理装置は、第2受付部と実行部をさらに備える。第2受付部は、情報処理画面に対する操作入力を受け付ける。実行部は、第2受付部によって受け付けられた操作入力に従って情報処理を実行する。
10の発明によれば、情報処理画面についての操作も受け付けて情報処理を実行するので、第1オブジェクトについての操作のみならず、情報処理についての操作も可能である。つまり、情報処理を中断することなく、第1オブジェクトについての操作を行うことができる。
11の発明は、第10の発明に従属し、情報処理装置は、ポインティングデバイスとポインティングデバイスとは異なる種類の入力装置を備える。第1受付部はポインティングデバイスを用いた移動操作を受け付け、第2受付部は入力装置を用いた操作入力を受け付ける。
11の発明によれば、第10の発明と同様に、情報処理を中断することなく、第1オブジェクトについての操作を行うことができる。
12の発明は、第11の発明に従属し、ポインティングデバイスはタッチパネルであり、入力装置はボタン入力装置である。
12の発明によれば、異なる種類の入力装置を用いるので、第1オブジェクトについての操作と、情報処理についての操作を区別して実行することができる。
13の発明は、第1ないし第12の発明に従属し、選択画面は可搬型表示装置に表示され、情報処理画面は可搬型表示装置とは別の表示装置に表示される。
13の発明によれば、たとえば、選択画面をユーザの手元においた可搬型表示装置に表示し、情報処理画面をユーザから少し離れたテレビジョン受像機のような表示装置に表示しても、可搬型表示装置に表示された選択画面を見て第1オブジェクトを選択した後では、テレビジョン受像機に表示された情報処理画面を見ながら第1オブジェクトについての操作を行うことができる。
第14の発明は、選択対象の少なくとも1つの第1オブジェクトを含む選択画面を表示する第1表示部と、第1オブジェクトが選択されたかどうかを判断する第1判断部と、第1判断部によって第1オブジェクトが選択されたと判断されたときに、当該第1オブジェクトに対応する第2オブジェクトを、選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて表示する第2表示部を備え、第1表示部は、第1オブジェクトの移動先である第1移動先オブジェクトを選択画面にさらに表示し、第2表示部は、第1判断部によって第1オブジェクトが選択されたと判断されたときに、第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに情報処理画面に重ねて表示する、情報処理システムである。
第15の発明は、第1表示手段と第2表示手段を備えるコンピュータの情報処理プログラムであって、情報処理プログラムは、コンピュータを、選択対象の少なくとも1つの第1オブジェクトを含む選択画面を第1表示手段に表示する第1表示制御部と、第1オブジェクトが選択されたかどうかを判断する第1判断部と、第1判断部において第1オブジェクトが選択されたと判断したときに、当該第1オブジェクトに対応する第2オブジェクトを、選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて第2表示手段に表示する第2表示制御部として機能させ、第1表示制御部は、第1オブジェクトの移動先である第1移動先オブジェクトを選択画面にさらに表示し、第2表示制御部は、第1判断部において第1オブジェクトが選択されたと判断したときに、第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに情報処理画面に重ねて表示する、情報処理プログラムである。
16の発明は、第1表示手段と第2表示手段を備えるコンピュータの情報処理方法であって、コンピュータは、(a)選択対象の少なくとも1つの第1オブジェクトを含む選択画面を第1表示手段に表示するステップ、(b)第1オブジェクトが選択されたかどうかを判断するステップおよび(c)ステップ(b)において第1オブジェクトが選択されたと判断したときに、当該第1オブジェクトに対応する第2オブジェクトを、選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて第2表示手段に表示するステップを含み、ステップ(a)は、第1オブジェクトの移動先である第1移動先オブジェクトを選択画面にさらに表示し、ステップ(c)は、第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに情報処理画面に重ねて表示する、情報処理方法である。
14ないし第16の発明においても、第1の発明と同様に、操作性を向上させることができる。
この発明によれば、第1画面の選択対象の第1オブジェクトが選択されたことに応じて、選択された第1オブジェクトに対応する第2オブジェクトが第2画面に表示されるので、第1オブジェクトを選択した後では第1画面を見ずに第2画面を見ながら第1オブジェクトについての操作を行うことができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はゲームシステムの外観図である。 図2はゲーム装置の電気的な構成を示すブロック図である。 図3は端末装置の電気的な構成を示すブロック図である。 図4はゲーム画面とアイテム画面の第1の例を示す図である。 図5はゲーム画面とアイテム画面の第2の例を示す図である。 図6はゲーム画面とアイテム画面の第3の例を示す図である。 図7はゲーム画面とアイテム画面の第4の例を示す図である。 図8は図2に示すメインメモリのメモリマップの一例を示す図である。 図9は図3に示す内部メモリのメモリマップの一例を示す図である。 図10は図2に示すゲーム装置のCPUの全体処理を示すフロー図である。 図11は図2に示すゲーム装置のCPUのゲーム制御処理の一部を示すフロー図である。 図12は図2に示すゲーム装置のCPUのゲーム制御処理の他の一部を示すフロー図である。 図13は図2に示すゲーム装置のCPUおよびGPUのテレビ用ゲーム画像の生成処理を示すフロー図である。 図14は図2に示すゲーム装置のCPUおよびGPUの端末用ゲーム画像の生成処理を示すフロー図である。
以下、図面を参照して、本発明の一実施例に係るゲームシステム10について説明する。図1に示すゲームシステム10は、据置型のゲーム装置12および可搬型の端末装置14を含む。また、ゲームシステム10は、テレビジョン受像器等に代表される据置型のディスプレイ装置(以下、「テレビ」と記載する)16を含み、接続コードを介して、ゲーム装置12とテレビ16が接続される。このゲームシステム10は、端末装置14を用いたゲーム操作に基づいて、ゲーム装置12においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をテレビ16および/または端末装置14に表示するものである。
図示は省略するが、ゲーム装置12には、当該ゲーム装置12に対して交換可能に用いられる情報記憶媒体の一例である光ディスクが脱着可能に挿入される。光ディスクには、ゲーム装置12において実行されるための情報処理プログラム(典型的にはゲームプログラムのようなアプリケーションプログラム)が記憶されている。ゲーム装置12は、光ディスクに記憶されている情報処理プログラムを読み出して実行することによって情報処理(ゲーム処理)を実行する。
テレビ16は、ゲーム装置12において実行されるゲーム処理によって得られるゲーム画像を表示する。テレビ16はスピーカ16a(図2)を有しており、スピーカ16aは、上記ゲーム処理の結果得られるゲーム音声を出力する。
なお、他の実施例では、ゲーム装置12と据置型の表示装置とは一体となっていてもよい。また、ゲーム装置12とテレビ16との通信は無線通信であってもよい。
端末装置14は、少なくとも、ゲーム装置12との間でデータを送受信する。ユーザ(プレイヤ)は、端末装置14を手に持って動かしたり、端末装置14を自由な位置に配置したりして使用することが可能である。端末装置14は、タッチパネル56、アナログパッド58および操作ボタン60のような入力手段と、LCD62のような表示手段を備える。たとえば、Bluetooth(ブルートゥース)(登録商標)の技術を用いた無線通信によってゲーム装置12と通信可能である。ただし、端末装置14とゲーム装置12とは有線で接続されてもよい。端末装置14は、ゲーム装置12で生成された画像(たとえばゲーム画像)のデータをゲーム装置12から受信し、受信した画像をLCD62に表示する。また、端末装置14は、自機に対して行われた操作の内容を表す操作データをゲーム装置12に送信する。
なお、この実施例では表示装置としてLCDを用いているが、端末装置14は、たとえばEL(Electro Luminescence)を利用した表示装置等、他の任意の表示装置を有していてもよい。
また、図1では、ゲームシステム10に含まれる端末装置14は1つであるが、ゲーム装置12は複数の端末装置14と通信可能であり、所定台数の端末装置14を同時に使用することによって複数人でゲームをプレイすることが可能である。
図2は、ゲーム装置12の電気的な構成を示すブロック図である。ゲーム装置12は、CPU20、システムLSI22、外部メインメモリ26、ROM/RTC28、およびAV−IC36等を有する。
CPU20は、光ディスクに記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU20は、システムLSI22に接続される。このシステムLSI22には、CPU20の他、外部メインメモリ26、ROM/RTC28およびAV−IC36が接続される。システムLSI22は、それに接続される各構成要素間におけるデータ転送の制御、表示すべき画像の生成、外部情報処理装置からのデータの取得等の処理を行う。
揮発性の外部メインメモリ26は、光ディスクから読み出されたゲームプログラムや、フラッシュメモリ24から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU20のワーク領域やバッファ領域として用いられる。ROM/RTC28は、ゲーム装置12の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC)とを有する。
なお、光ディスクから読み出されたプログラムデータやテクスチャデータ等は、後述する内部メインメモリ22eまたは外部メインメモリ26に書き込まれる。
システムLSI22には、入出力プロセッサ(I/Oプロセッサ)22a、GPU22b、DSP22c、VRAM22d、および内部メインメモリ22eが設けられる。図示は省略するが、これらの構成要素22a〜22eは内部バスによって互いに接続される。
GPU22bは、描画手段の一部を形成し、CPU20からのグラフィクスコマンド(作画命令)に従って画像データを生成する。ただし、VRAM22dに、メインメモリ(22e、26)から読み出したポリゴンデータやテクスチャデータ等のデータが記憶され、GPU22bは、そのデータを用いて画像データを生成する。この実施例においては、ゲーム装置12は、テレビ16に表示するゲーム画像と、端末装置14に表示するゲーム画像との両方を生成する。以下では、テレビ16に表示されるゲーム画像を「テレビ用ゲーム画像」と呼び、端末装置14に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。
DSP22cは、オーディオプロセッサとして機能し、内部メインメモリ22eや外部メインメモリ26に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、この実施例においては、ゲーム音声についてもゲーム画像と同様、テレビ16のスピーカ16aから出力するゲーム音声と、端末装置14のスピーカ66から出力するゲーム音声との両方が生成される。以下では、テレビ16から出力されるゲーム音声を「テレビ用ゲーム音声」と呼び、端末装置14から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。
上記のように、ゲーム装置12において生成される画像および音声のうちで、テレビ16において出力される画像および音声(効果音や音楽なども含む。以下、同じ。)のデータは、AV−IC36によって読み出される。AV−IC36は、読み出した画像データを、AVコネクタ38を介してテレビ16に出力するとともに、読み出した音声データを、テレビ16に内蔵されるスピーカ16aに出力する。これによって、テレビ16に画像が表示されるとともにスピーカ16aから音声が出力される。
また、ゲーム装置12において生成される画像および音声のうちで、端末装置14において出力される画像および音声のデータは、入出力プロセッサ22a等によって端末装置14へ送信される。入出力プロセッサ22a等による端末装置14へのデータの送信については後述する。
入出力プロセッサ22aは、それに接続される構成要素との間でデータの送受信を実行したり、外部情報処理装置からのデータのダウンロードを実行したりする。また、入出力プロセッサ22aは、フラッシュメモリ24およびコーデックLSI30に接続される。また、コーデックLSI30は端末通信モジュール32に接続され、端末通信モジュール32にはアンテナ34が接続される。
CPU20はゲームプログラムを実行することにより、フラッシュメモリ24に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ24には、ゲーム装置12と外部情報処理装置との間で送受信されるデータの他、ゲーム装置12を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。また、フラッシュメモリ24にはゲームプログラムが記憶されてもよい。
なお、図示は省略するが、入出力プロセッサ22aは、ネットワーク通信モジュールを用いてインターネット等のネットワークに接続し、ネットワークに接続される外部情報処理装置(たとえば他のゲーム装置や、各種サーバ等)と通信する(データを送受信する)ことができる。
また、ゲーム装置12は、端末装置14との間で画像や音声等のデータを送受信することが可能である。入出力プロセッサ22aは、端末装置14へゲーム画像(端末用ゲーム画像)を送信する場合、GPU22bが生成したゲーム画像のデータをコーデックLSI30へ出力する。コーデックLSI30は、入出力プロセッサ22aからの画像データに対して所定の圧縮処理を行う。端末通信モジュール32は、端末装置14との間で無線通信を行う。したがって、コーデックLSI30によって圧縮された画像データは、端末通信モジュール32によってアンテナ34を介して端末装置14へ送信される。この実施例では、コーデックLSI30は、たとえばH.264規格といった高効率の圧縮技術を用いて画像データを圧縮する。
なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には圧縮せずに画像データを送信する構成であってもよい。
また、端末通信モジュール32は、たとえばWi−Fiの認証を受けた通信モジュールであり、たとえばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて、端末装置14との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。
また、ゲーム装置12は、画像データの他、音声データを端末装置14へ送信する。すなわち、入出力プロセッサ22aは、DSP22cが生成した音声データを、コーデックLSI30を介して端末通信モジュール32へ出力する。コーデックLSI30は、音声データに対しても画像データと同様に圧縮処理を行う。音声データに対する圧縮の方式は、どのような方式であってもよい。また、他の実施例においては、音声データは圧縮されずに送信されてもよい。端末通信モジュール32は、圧縮された画像データおよび音声データを、アンテナ34を介して端末装置14へ送信する。
また、ゲーム装置12は、端末装置14から各種データを受信(受付)可能である。この実施例では、端末装置14は、操作データ、画像データ、および音声データを送信する。端末装置14から送信される各データはアンテナ34を介して端末通信モジュール32によって受信される。ここで、端末装置14からの画像データおよび音声データは、ゲーム装置12から端末装置14への画像データおよび音声データと同様の圧縮処理が施されている。
したがって、これら画像データおよび音声データについては、端末通信モジュール32からコーデックLSI30に送られ、コーデックLSI30によって伸張処理が施されて入出力プロセッサ22aに出力される。
なお、端末装置14からの画像データは、図示しないカメラで撮影された撮影画像に対応する画像データなどを含み、入力端末画像7からの音声データは、マイク68(図3参照)によって検出されたプレイヤが発生する音(音声ないし拍手等)に対応する音声データなどを含む。
一方、端末装置14からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。また、必要に応じて暗号化がされていてもよいし、されていなくともよい。操作データは、端末通信モジュール32で受信された後、コーデックLSI30を介して入出力プロセッサ22aに出力される。入出力プロセッサ22aは、端末装置14から受信したデータを、内部メインメモリ22eまたは外部メインメモリ26のバッファ領域に記憶(一時記憶)する。
なお、ゲーム装置12の構成は限定される必要は無い。たとえば、拡張機器を接続可能な構成とすることもできる。
図3は、端末装置14の電気的な構成を示すブロック図である。図3に示すように、端末装置14は、図1に示した構成の他、ユーザインタフェースコントローラ(UIコントローラ)50、タッチパネルコントローラ54、コーデックLSI52、スピーカ66、サウンドIC64、マイク68、無線モジュール70、アンテナ72、およびフラッシュメモリ74を備える。これらの電子部品は、電子回路基板上に実装されてハウジング内に収納される。
UIコントローラ50は、各種の入出力部に対するデータの入出力を制御するための回路である。このUIコントローラ50は、タッチパネルコントローラ54、アナログスティック58、および操作ボタン60に接続される。また、UIコントローラ50は、コーデックLSI52に接続される。
タッチパネルコントローラ54は、タッチパネル56に接続され、タッチパネル56の制御を行う回路である。タッチパネルコントローラ54は、タッチパネル56からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ50へ出力する。タッチ位置データは、タッチパネル56の入力面において入力が行われた位置(タッチ位置)の座標を表す。
なお、タッチパネルコントローラ54は、タッチパネル56からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。また、UIコントローラ50からタッチパネルコントローラ54へは、タッチパネル56に対する各種の制御指示が出力される。
アナログスティック58は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ50へ出力する。また、操作ボタン60は、各種の操作ボタンないしキースイッチに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ50へ出力する。
UIコントローラ50は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、および操作ボタンデータを含む操作データをコーデックLSI52に出力する。
コーデックLSI52は、ゲーム装置12へ送信するデータに対する圧縮処理、および、ゲーム装置12から送信されたデータに対する伸張処理を行う回路である。コーデックLSI52には、LCD62、サウンドIC64、無線モジュール70、およびフラッシュメモリ74が接続される。また、コーデックLSI52はCPU52aと内部メモリ52bを含む。
端末装置14はゲーム処理自体を行なわない構成であるが、端末装置14の管理や通信のための最小限のプログラムを実行する必要がある。電源投入時にフラッシュメモリ74に格納されたプログラムを内部メモリ52bに読み出してCPU52aが実行することで、端末装置14が起動する。ただし、端末装置14は、ゲーム装置12からの動作データに基づいて起動または停止する。この実施例では、端末装置14の停止は、一部の回路コンポーネント(UIコントローラ50、コーデックLSI52および無線モジュール70)に電源が供給されているスリープの状態を意味する。また、内部メモリ52bの一部の領域はLCD62のためのVRAMとして使用される。
サウンドIC64は、スピーカ66およびマイク68に接続され、スピーカ66およびマイク68への音声データの入出力を制御する回路である。すなわち、コーデックLSI52から音声データを受け取った場合、サウンドIC64は当該音声データに対してD/A変換を行って得られる音声信号をスピーカ66へ出力し、スピーカ66から音を出力させる。また、マイク68は、端末装置14に伝わる音(ユーザの音声や手拍子等)を検知して、当該音を示す音声信号をサウンドIC64へ出力する。サウンドIC64は、マイク68からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI52へ出力する。
コーデックLSI52は、カメラからの画像データ、マイク68からの音声データ、および、UIコントローラ50からの操作データを、無線モジュール70を介してゲーム装置12へ送信する。この実施例では、コーデックLSI52は、画像データおよび音声データに対して、コーデックLSI30と同様の圧縮処理を行う。上記操作データ、ならびに、圧縮された画像データおよび音声データは、送信データとして無線モジュール70に出力される。
無線モジュール70にはアンテナ72が接続されており、無線モジュール70はアンテナ72を介してゲーム装置12へ上記送信データを送信する。無線モジュール70は、ゲーム装置12の端末通信モジュール32と同様の機能を有している。すなわち、無線モジュール70は、たとえばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。送信されるデータは必要に応じて暗号化されていてもよいし、されていなくともよい。
以上のように、端末装置14からゲーム装置12へ送信される送信データには、操作データ、画像データ、および音声データが含まれる。
なお、この実施例の端末装置14は、タッチパネル56、アナログスティック58、および操作ボタン60といった操作手段を備えるが、他の実施例においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。たとえば、端末装置14の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ、加速度センサ、およびジャイロセンサの少なくとも1つを備えるようにしてよい。
また、端末装置14は、カメラおよびマイク68を備える構成であるが、他の実施例においては、カメラおよびマイク68を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。
このようなゲームシステム10において実行されるゲームプログラムの例について説明する。この実施例の仮想空間におけるゲーム(仮想ゲーム)では、プレイヤキャラクタは、プレイヤの操作に従って、ゲーム世界を移動したり、敵キャラクタと闘ったり、アイテムを取得したり、アイテムを装備または使用したりする。そして、所定の敵キャラクタ(ボスキャラクタ)を倒すなどして所定の条件を満たすことにより、ゲームクリアとなる。
図4(A)には、テレビ16に表示される仮想ゲームのゲーム画面100の一例が示される。基本的には、ゲーム画面100は、プレイヤキャラクタを中心として、仮想ゲームのゲーム世界および仮想ゲームの進行状況を表現する画面である。図4(A)に示すゲーム画面100には、プレイヤキャラクタ102が表示されるとともに、背景画像104が表示される。
図4(B)には、仮想ゲームのプレイ中に、プレイヤの操作に従って端末装置14のLCD62に表示されるアイテム画面200の一例が示される。アイテム画面200は、プレイヤキャラクタ102が所持するアイテムを確認したり、端末装置14の操作ボタンにアイテムを設定したり(割り当てたり)するための画面である。
図4(B)に示すように、アイテム画面200には、アイテム202a、202b、202c、202d、202e、202f、202g、202h、202iが表示される。このアイテム202a−202iは、プレイヤキャラクタ102が所持するアイテム(以下、「所持アイテム」ということがある)である。たとえば、アイテム202a−202iは、武器、防具および道具などであり、プレイヤの操作に従ってプレイヤキャラクタ102が装備ないし使用する。以下、アイテム202a−202iを個別に識別する必要が無い場合には、単に「アイテム202」ということにする。
また、アイテム画面200の上部には、アイテム202を操作ボタン60に設定する(割り当てる)ための画像(割当画像)204a、204b、204cが表示される。図4(B)からも分かるように、この実施例では、Yボタン、XボタンおよびRボタンにアイテム202を割り当てることができる。なお、Yボタン、XボタンおよびRボタンは操作ボタン60に含まれる。図4(B)のアイテム画面200では、割当画像204a−204cは、操作ボタン60を識別するための文字と割り当てられたアイテム202を識別するための当該アイテム202を縮小した画像を含み、対応する操作ボタン60にアイテム202が割り当てられていることを示している。具体的には、割当画像204aは、Yボタンにアイテム202aが割り当てられていることを示す。また、割当画像204bは、Xボタンにアイテム202bが割り当てられていることを示す。そして、割当画像204cは、Rボタンにアイテム202eが割り当てられていることを示す。
また、図4(B)に示すように、操作ボタン60に割り当てられたアイテム202(ここでは、アイテム202a、202b、202e)は、操作ボタン60に割り当てられていないアイテム202(ここでは、アイテム202c、202d、202f、202g、202h、202i)と識別可能とするために円形の点線枠で囲んである。ただし、これは一例であり、点線枠に代えて、点線枠と同程度の大きさの円を背景色と異なる色で塗りつぶし、その前面にアイテム202を表示してもよい。また、操作ボタン60に割り当てられているアイテム202を色反転させて表示したり、グレーアウトで表示したりしてもよい。
図示は省略するが、割当画像(204a、204b、204c)に対応する操作ボタン60にアイテム202が割り当てられていない場合には、アイテム202を縮小した画像は表示されない。たとえば、仮想ゲームを開始した当初では、プレイヤキャラクタ102はアイテム202を所持していないため、割当画像(204a、204b、204c)に対応する操作ボタン60には何もアイテム202が割り当てられていない。そして、プレイヤキャラクタ102がアイテム202を取得すると、取得されたアイテム202は所持アイテムとして追加される。その後、アイテム画面200を表示することにより、所望のアイテム202を操作ボタン60に割り当てることができる。
アイテム202を操作ボタン60に割り当てる場合には、選択対象である所持アイテムから所望のアイテム202を選択し、選択したアイテム202を移動先のオブジェクトとして表示される割当画像204a、204b、204cに移動させる。
具体的には、プレイヤは、指やスタイラスペンで所望のアイテム202をタッチ(タッチオン)する。すると、所持アイテムから所望のアイテム202が選択される。たとえば、図5(B)に示されるアイテム画面200では、アイテム202cが選択される。
このとき、図5(A)に示すように、ゲーム画面100において、アイテム112と割当画像114a、114b、114cがプレイヤキャラクタ102および背景画像104の上に重ねて表示される。アイテム112はアイテム202cに対応する画像(オブジェクト)であり、割当画像114a−114cは割当画像204a−204cに対応する画像(オブジェクト)である。たとえば、アイテム112および割当画像114a−114cは半透明で表示される。ただし、半透明で表示されなくてもよい。
また、図5(A)および図5(B)からも分かるように、アイテム画面200におけるアイテム202と割当画像204a−204cの位置関係に対応する位置関係で、ゲーム画面100にアイテム112と割当画像114a−114cが表示される。
このように、アイテム画面200においてアイテム202が選択されたことに応じて、ゲーム画面100にアイテム112および割当画像114a−114cを表示するのは、ゲーム画面100を見ながらアイテム202を操作ボタン60に割り当てることができるようにするためである。
したがって、図6(A)および図6(B)に示すように、アイテム画面200上で、プレイヤがアイテム202cをドラッグすると、アイテム202cの移動に従って、ゲーム画面100に表示されたアイテム112が移動される。
なお、ドラッグとは、画面上のアイコンなどの画像を選択した状態で、それをずらすようにスライドすることを意味する。
また、図6(B)では、太い破線および矢印によって、アイテム202cがドラッグされていることを示してある。
上述したように、この実施例では、ゲーム画面100がテレビ16に表示され、これとは別にアイテム画面200がプレイヤの手元にある端末装置14のLCD62に表示される。このため、何ら手当しない場合には、プレイヤは、アイテム画面200を見ながら、所望の割当画像204a、204b、204cに移動させるようにアイテム202をドラッグすると考えられる。この場合、プレイヤは、ゲーム画面100を見なかったり、ゲーム画面100を見る時間が短くなったりする。したがって、仮想ゲームを中断することなくアイテム画面200を表示することができるが、アイテム202を操作ボタン60に割り当てている間に、プレイヤキャラクタ102が敵キャラクタ(図示せず)に攻撃されてしまうような不都合が生じてしまうことが起こり得る。
このような不都合を回避するため、上述したように、この実施例では、選択ないしドラッグされているアイテム202と割当画像204a−204cに対応するアイテム112および割当画像114a−114cをゲーム画面100に重ねて表示するとともに、このアイテム202と割当画像204a−204cの位置関係に対応する位置関係で、アイテム112および割当画像114a−114cを表示する。これによって、プレイヤは、ゲーム画面100を見ながら操作することができる。このため、操作性が向上され、たとえば、プレイヤはアイテム202をタッチオン(選択)するときだけアイテム画面200を見れば良いため、ゲーム画面100を見ていない時間を可及的に少なくすることができる。
さらに、アイテム202cが割当画像204aに重なる位置までドラッグされ、タッチオフされると、アイテム202cは割当画像204aに対応する操作ボタン60(ここでは、Yボタン)に割り当てられる。したがって、図7(B)に示すように、割当画像204aにはアイテム202cを縮小した画像が表示され、アイテム202cは元の位置に戻され、そして、アイテム202aに代えてアイテム202cが円形の点線枠で囲まれる。つまり、Yボタンに割り当てられるアイテム200が、アイテム202aからアイテム202cに変更される。また、タッチオフされたときに、図7(A)に示すように、ゲーム画面100からアイテム112および割当画像114a−114cが消去される。
このようにして、アイテム202が割当画像204a、204b、204cに対応する操作ボタン60に割り当てられる。
ただし、既に操作ボタン60に割り当てられているアイテム202を別の操作ボタン60に割り当てる操作を行った場合には、別の操作ボタン60に割り当てられていたアイテム202との間で、割り当てる操作ボタン60が入れ替えられる。たとえば、図7(B)のアイテム画面200において、アイテム202eがタッチされるとともにドラッグされて、割当画像204b上でタッチオフされると、アイテム202bがRボタンに割り当てられ、アイテム202eがXボタンに割り当てられる。
また、タッチオフしたときに、移動されたアイテム202が割当画像(204a、204b、204c)に重なっていない場合には、当該アイテム202は操作ボタン60に割り当てられない。ただし、移動されたアイテム202が既に操作ボタン60に割り当てられている場合には、当該操作ボタン60への割り当てが解除されるのではなく、割り当てる操作ボタン60が変更されない。
なお、図示は省略するが、割当画像204a−204cに表示されたアイテム202を縮小した画像をタッチして、他の割当画像204a−204c上に移動させると、当該他の割当画像204a−204cに対応する操作ボタン60に割り当てることができる。つまり、割り当てる操作ボタン60を変更することができる。このとき、移動後の割当画像204a−204cに対応する操作ボタン60に割り当てられていたアイテム202は、移動前の割当画像204a−204cに対応する操作ボタン60に割り当てられる。このようにしても、アイテム202を割り当てる操作ボタン60を入れ替えることができる。たとえば、図7(B)のアイテム画面200において、割当画像204bに表示された画像がタッチオンされるとともにドラッグされて、割当画像204a上でタッチオフされると、アイテム202bがYボタンに割り当てられ、アイテム202cがXボタンに割り当てられる。
図8は、図2に示したゲーム装置12のメインメモリ(22e,26)のメモリマップ300の一例を示す。図8に示すように、メインメモリ(22e,26)は、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、ゲームプログラムなどの情報処理プログラムが記憶される。たとえば、ゲームプログラムは、ゲーム装置12に電源が投入された後の適宜のタイミングで光ディスクからその一部または全部が読み込まれてメインメモリ(22e,26)に記憶される。
なお、ゲームプログラムは、光ディスクに代えて、フラッシュメモリ24やゲーム装置12の外部情報処理装置から(たとえばインターネットを介して)取得されてもよい。また、ゲームプログラムに含まれる一部のプログラムについては、ゲーム装置12内に予め記憶されていてもよい。
この実施例では、ゲームプログラムは、メイン処理プログラム310、画像生成プログラム312、画像表示プログラム314、音生成プログラム316、音出力プログラム318および操作検出プログラム320などによって構成される。
メイン処理プログラム310は、仮想ゲームのメインルーチンの処理(図10の全体処理)を実行するためのプログラムである。画像生成プログラム312は、ポリゴンデータやテクスチャデータなどのデータを用いて、テレビ用ゲーム画像を生成(図13参照)したり、端末用ゲーム画像を生成(図14参照)したりするためのプログラムである。
画像表示プログラム314は、画像生成プログラム312に従って生成したテレビ用ゲーム画像の画像データをAV−IC36に出力し、テレビ用ゲーム画像をテレビ16に表示するためのプログラムである。また、画像表示プログラム314は、画像生成プログラム312に従って生成した端末用ゲーム画像の画像データを端末装置14に送信するためのプログラムでもある。
音生成プログラム316は、CPU20の指示の下、DSP22cによって、テレビ用ゲーム音声を生成したり、端末用ゲーム音声を生成したりするためのプログラムである。音出力プログラム318は、音生成プログラム316に従って生成されたテレビ用ゲーム音声の音声データをAV−IC36に出力し、テレビ用ゲーム音声をテレビ16のスピーカ16aから出力するためのプログラムである。また、音出力プログラム318は、音生成プログラム316に従って生成された端末用ゲーム音声の音声データを端末装置14に送信するためのプログラムでもある。
操作検出プログラム320は、端末装置14から入力(送信)される送信データに含まれる操作データを検出する(受け付ける)ためのプログラムである。
なお、プログラム記憶領域302には、通信プログラムおよびバックアッププログラムなども記憶される。
データ記憶領域304には、受信データ330、送信データ332、アイテムデータ334および割当データ336などが記憶される。
受信データ330は、端末装置14から受信される各種のデータである。受信データ330は、操作データ330aを含む。端末装置14がゲーム装置12に複数接続される場合には、各端末装置14に対応して、操作データ330aも複数記憶される。
操作データ330aは、端末装置14に対するプレイヤの操作を表すデータであり、上述したように、操作ボタンデータ、スティックデータ、およびタッチ位置データを含む。ただし、操作データ330aは、端末装置14を操作するプレイヤの操作を表すものであればよく、上記各データのいずれか1つのみを含むものであってもよい。操作データ330aは、端末装置14から送信されてゲーム装置12において取得され、メインメモリ(22e,26)に記憶される。
なお、メインメモリ(22e,26)には、最新の(最後に取得された)ものから順に所定個数の操作データが記憶されてもよい。
送信データ332は、画像データ332aおよび音声データ332bなどを含む。画像データ332aは、ゲーム処理(後述する全体処理)によって生成され、端末装置14で出力される端末用ゲーム画像(アイテム画面200などの画像)の画像データなどである。音声データ332bは、ゲーム処理によって生成され、端末装置14で出力される端末用ゲーム音声の音声データである。
アイテムデータ334は、プレイヤキャラクタ102の所持アイテムについてのデータである。たとえば、アイテムデータ334は、プレイヤキャラクタ102が所持しているアイテム202の種類を識別するための識別情報および所持している各アイテム202の個数を示す個数情報を含む。割当データ336は、操作ボタン60に割り当てられたアイテム202についてのデータである。たとえば、割当データ336は、操作ボタン60の識別情報に対応して割り当てられたアイテム202の識別情報が記述されたデータである。
また、データ記憶領域304には、アイテム表示フラグ338および移動中フラグ340が設けられる。
アイテム表示フラグ338は、端末装置14においてアイテム画面200を表示しているかどうかを判別するためのフラグであり、1ビットのレジスタで構成される。端末装置14においてアイテム画面200が表示されている場合には、アイテム表示フラグ338はオンされ、レジスタにデータ値「1」が設定される。一方、端末装置14においてアイテム画面200が表示されていない場合には、アイテム表示フラグ338はオフされ、レジスタにデータ値「0」が設定される。
移動中フラグ340は、アイテム画面200においてアイテム202を移動させているかどうかを判別するためのフラグであり、1ビットのレジスタで構成される。アイテム202を移動させている場合には、移動中フラグ340はオンされ、レジスタにデータ値「1」が設定される。一方、アイテム202を移動させていない場合には、移動中フラグ340はオフされ、レジスタにデータ値「0」が設定される。ただし、この実施例では、アイテム202を移動させている場合とは、アイテム画面200において、アイテム202をタッチオン(選択)してからタッチオフする(選択解除または移動停止)までを意味する。
図示は省略するが、データ記憶領域304には、サウンドデータや音波形データなどの他のデータが記憶されたり、他のフラグやカウンタ(タイマ)が設けられたりする。ただし、全体処理において用いられるデータには、仮想ゲームに登場する各種キャラクタないしオブジェクトに設定される各種パラメータを表すデータ等、ゲーム処理において用いられる各種データを含む。
図9は、図4に示した端末装置14の内部メモリ52bのメモリマップ400の一例を示す。図9に示すように、内部メモリ52bは、データ記憶領域402を含む。
データ記憶領域402には、送信データ410および受信データ412が記憶される。
送信データ410は、操作データ410aを含む。これは、上述した受信データ330に含まれる操作データ330aと同じ内容であるため、重複した説明は省略する。
受信データ412は、画像データ412aおよび音声データ412bなどを含む。これらは、上述した送信データ332に含まれる画像データ332aおよび音声データ332bと同じ内容であるため、重複した説明は省略する。
図示は省略するが、データ記憶領域402には、端末装置14の動作に必要な他のデータが記憶されたり、フラグやカウンタ(タイマ)が設けられたりする。
図10は、図2に示したゲーム装置12に設けられるCPU20の全体処理についてのフロー図である。なお、図10(後述する図11−図14についても同様。)に示すフロー図の各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよい。また、この実施例では、基本的には、図10−図14に示すフロー図の各ステップの処理をCPU20が実行するものとして説明するが、CPU20以外のプロセッサや専用回路が一部のステップを実行するようにしてもよい。
ゲーム装置12の電源が投入されると、全体処理の実行に先だって、CPU20は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ(22e,26)等の各ユニットが初期化される。そして、光ディスクに記憶されたゲームプログラムがメインメモリ(22e、26)に読み込まれ、CPU20によって当該ゲームプログラムの実行が開始される。
CPU20は、全体処理を開始すると、ステップS1で、初期処理を実行する。初期処理では、たとえば、CPU10は、ゲーム画面100を生成および表示するための仮想のゲーム空間を構築し、このゲーム空間に登場するプレイヤキャラクタ102等の各キャラクタないし各オブジェクトを初期位置に配置する。また、CPU10は、アイテム画面200を生成および表示するための他の仮想のゲーム空間を構築し、このゲーム空間に登場するアイテム202等の各キャラクタないし各オブジェクトを所定の位置に配置する。さらに、マップ画面を生成および表示するためのその他の仮想のゲーム空間を構築し、このゲーム空間に登場する地形オブジェクト等の各キャラクタないし各オブジェクトを所定の位置に配置する。さらに、CPU10は、ゲーム処理で用いる各種パラメータの初期値を設定したりする処理である。
続いて、CPU20は、ステップS3で、端末装置14から送信されてくる各種のデータを取得し、ステップS5で、後述するゲーム制御処理(図11および図12参照)を実行する。
次のステップS7では、CPU20およびGPU22bは、テレビ16に表示するためのテレビ用ゲーム画像の生成処理(図13参照)を実行する。簡単に説明すると、CPU20およびGPU22bは、ステップS5のゲーム制御処理の結果を表すデータをメインメモリ(22e,26)から読み出し、また、ゲーム画像を生成するために必要なデータをVRAM22dから読み出し、テレビ用ゲーム画像を生成する。
次のステップS9において、CPU20およびGPU22bは、端末装置14に表示するための端末用ゲーム画像の生成処理(図14参照)を実行する。簡単に説明すると、端末用ゲーム画像もまた、上記テレビ用ゲーム画像と同様に、ステップS5のゲーム制御処理の結果を表すデータをメインメモリ(22e,26)から読み出し、また、ゲーム画像を生成するために必要なデータをVRAM22dから読み出して生成される。
続いて、ステップS11では、CPU20は、テレビ16のスピーカ16aに出力するためのテレビ用ゲーム音声を生成する。すなわち、CPU20は、ステップS5のゲーム制御処理の結果に応じたゲーム音声をDSP22cに生成させる。
次に、ステップS13では、CPU20は、端末装置14のスピーカ66に出力するための端末用ゲーム音声を生成する。すなわち、CPU20は、ステップS5のゲーム制御処理の結果に応じたゲーム音声をDSP22cに生成させる。
ただし、テレビ用ゲーム音声と端末用ゲーム音声とが同一である場合には、ステップS11またはステップS13の処理は実行されなくてよい。
続いて、ステップS15では、CPU20は、テレビ16へデータを出力する。具体的には、CPU20は、VRAM22dに記憶されたテレビ用ゲーム画像の画像データと、ステップS11でDSP22cによって生成されたテレビ用ゲーム音声の音声データとをAV−IC36へ送る。
次に、ステップS17で、CPU20は、端末装置14へデータを送信する。具体的には、VRAM22dに記憶された端末用ゲーム画像の画像データ、および、ステップS13でDSP22cによって生成された音声データは、CPU20によってコーデックLSI52に送られ、コーデックLSI52によって所定の圧縮処理が行われる。さらに、圧縮処理が施された画像および音声のデータは、端末通信モジュール32によってアンテナ34を介して端末装置14へ送信される。端末装置14は、ゲーム装置12から送信されてくる画像および音声のデータを無線モジュール70によって受信し、コーデックLSI52によって所定の伸張処理を行う。伸張処理が行われた画像データはLCD62に出力され、伸張処理が行われた音声データはサウンドIC64に出力される。
そして、ステップS19では、CPU20は、ゲームを終了するかどうかを判断する。ステップS19の判断は、たとえば、ゲームオーバーになったか否か、あるいは、プレイヤがゲームを中止する指示を行ったか否か等によって行われる。ゲームオーバーになったか否かは、たとえばプレイヤキャラクタ102の体力値が0になったか否か等によって判定される。
ステップS19で“NO”であれば、つまりゲームを終了しない場合には、ステップS3に戻る。一方、ステップS19で“YES”であれば、つまりゲームを終了する場合には、全体処理を終了する。
図11および図12は、図10に示したステップS5のゲーム制御処理を示すフロー図である。図11に示すように、CPU20は、ゲーム制御処理を開始すると、ステップS31で、プレイヤキャラクタ102についての操作かどうかを判断する。ここでは、CPU20は、受信データ330に含まれる操作データ330aを参照して、プレイヤキャラクタ102を移動させたり、プレイヤキャラクタ102に攻撃させたり、プレイヤキャラクタ102にアイテム202を使用させたりするために、アナログスティック58や操作ボタン60が操作されたかどうかを判断する。
ステップS31で“YES”であれば、つまりプレイヤキャラクタ102についての操作であれば、ステップS33で、操作に応じてプレイヤキャラクタ102の移動等を制御して、ステップS45に進む。一方、ステップS31で“NO”であれば、つまりプレイヤキャラクタ102についての操作でなければ、ステップS35で、アイテム画面200の表示終了かどうかを判断する。ここでは、CPU20は、端末装置14において、マップ画面を表示することが指示されたかどうかを判断する。この実施例では、仮想ゲームのプレイ中においては、つまり全体処理の実行中においては、端末装置14のLCD62に、アイテム画面200とマップ画面を切り替えて表示することができ、したがって、ステップS35では、マップ画面を表示することが指示されたかどうかを判断しているのである。
ステップS35で“YES”であれば、つまりアイテム画面200の表示終了であれば、ステップS37で、アイテム表示フラグ338をオフして、ステップS45に進む。一方、ステップS35で“NO”であれば、つまりアイテム画面200の表示終了でなければ、ステップS39で、アイテム画面200の表示中かどうかを判断する。ここでは、CPU20は、アイテム表示フラグ338がオンであるかどうかを判断する。
ステップS39で“NO”であれば、つまりアイテム画面200の表示中でなければ、ステップS41で、アイテム画面200の表示指示かどうかを判断する。ステップS41で“YES”であれば、つまりアイテム画面200の表示指示であれば、ステップS43で、アイテム表示フラグ338をオンして、ステップS45に進む。一方、ステップS41で“NO”であれば、つまりアイテム画面200の表示指示でなければ、そのままステップS45に進んで、その他の処理を実行して、図10に示した全体処理にリターンする。たとえば、その他の処理は、村人キャラクタや敵キャラクタの移動や動作を制御したり、ゲームクリアやゲームオーバーを判定したり、アイテムを出現させたりするなどの処理である。
また、ステップS39で“YES”であれば、つまりアイテム画面200の表示中であれば、ステップS47で、アイテム202の移動終了かどうかを判断する。ここでは、CPU20は、移動中フラグ340がオンからオフに変化したかどうかを判断する。図示は省略するが、全体処理に並行して、取得(受信)したタッチ位置データに基づいてアイテム202がタッチされているかどうかを判断する処理が実行される。この処理によって、移動中フラグ340がオン/オフされる。
ステップS47で“NO”であれば、つまりアイテム202の移動終了でなければ、ステップS49で、アイテム202の移動であるかどうかを判断する。ここでは、CPU20は、タッチ位置データ示すタッチ位置が変化したかどうかを判断する。
ステップS49で“NO”であれば、つまりアイテム202の移動でなければ、ステップS45に進む。一方、ステップS49で“YES”であれば、つまりアイテム202の移動であれば、ステップS51で、アイテム202を移動させる。ここでは、CPU20は、タッチ位置に従ってアイテム202の位置を更新する。
また、ステップS47で“YES”であれば、つまりアイテム202の移動終了であれば、図12に示すステップS53で、移動したアイテム202が割当画像(204a、204b、204c)上であるかどうかを判断する。
ステップS53で“NO”であれば、つまり移動したアイテム202が割当画像(204a、204b、204c)上でなければ、そのままステップS57に進む。一方、ステップS53で“YES”であれば、つまり移動したアイテム202が割当画像(204a、204b、204c)上であれば、ステップS55で、割当データ336を更新してステップS57に進む。操作ボタン60にアイテム202を割り当てる方法は上述したとおりであり、ステップS55では、割り当てられた結果に応じて、割当データ336が書き換えられる。ステップS57では、移動したアイテム202を元の位置に戻して、図11に示したステップS45に進む。
図13は、図10に示したステップS7のテレビ用ゲーム画像の生成処理のフロー図である。図13に示すように、生成処理を開始すると、ステップS101で、CPU20およびGPU22bは、ゲーム空間における現在位置にプレイヤキャラクタ102を描画し、ステップS103で、村人キャラクタや敵キャラクタのようなノンプレイヤキャラクタを描画する。さらに、ステップS105で、プレイヤキャラクタ102の現在位置に応じた背景を描画する。そして、ステップS107で、移動中フラグ340がオンであるかどうかを判断する。ステップS107で“NO”であれば、つまり移動中フラグ340がオフであれば、そのまま全体処理にリターンする。一方、ステップS107で“YES”であれば、つまり移動中フラグ340がオンであれば、ステップS109で、選択ないしドラッグされているアイテム202および割当画像204a−204cに対応する画像、すなわちアイテム112および割当画像114a−114cを描画して、全体処理にリターンする。ステップS109では、プレイヤキャラクタ102、ノンプレイヤキャラクタおよび背景画像104の上に重ねて、選択ないしドラッグされるアイテム202と割当画像204a−204cの位置関係に対応する位置関係で、半透明のアイテム112および割当画像114a−114cが描画される。ただし、割当画像114a−114cは所定位置に表示されるように描画され、アイテム112は、タッチ位置データが示すタッチ位置に対応する位置に表示されるように描画される。
図14は、図10に示したステップS9の端末用ゲーム画像の生成処理のフロー図である。図14に示すように、生成処理を開始すると、CPU20は、ステップS121で、アイテム画面200の表示かどうかを判断する。ここでは、CPU20は、アイテム表示フラグ338がオンであるかどうかを判断する。ステップS121で“YES”であれば、つまりアイテム画面200を表示する場合には、ステップS123で、所持アイテム(アイテム202a−202i)を描画し、ステップS125で、割当画像204a−204cを描画する。所持アイテムは、割当画像204a−204cと所定の位置関係で表示されるように描画される。ただし、ドラッグされるアイテム202は、タッチ位置データが示すタッチ位置に対応する位置に表示されるように描画される。そして、ステップS127で、操作ボタン60に割り当てられているアイテム202に対応して円形の点線枠を描画して、全体処理にリターンする。一方、ステップS121で“NO”であれば、つまりマップ画面の表示であれば、ステップS129で、マップを描画して、全体処理にリターンする。
この実施例によれば、ゲーム画面をテレビに表示し、アイテム画面を端末装置に表示して、アイテム画面でアイテムを操作ボタンに割り当てる場合に、アイテムがタッチされると、タッチされたアイテムおよび割当画像に対応する画像をゲーム画面に重ねて表示するので、アイテムを割り当てる操作を行う場合にも、ゲーム画面を見ながら行うことができる。つまり、仮想ゲームを中断することなく、ゲーム画面を確認しながら、アイテムを操作ボタンに割り当てることができる。このため、操作性を向上させることができる。
また、この実施例では、端末装置に表示されるアイテムと割当画像の位置関係に対応する位置関係で、それらのオブジェクトに対応するアイテムおよび割当画像をゲーム画面に表示するので、ゲーム画面を見ている場合であっても、アイテム画面を見ながら操作しているように、操作することができる。
なお、この実施例では、端末装置に、アイテムを操作ボタンに割り当てる以外のゲーム操作を行うためのアナログスティックおよび操作ボタンと、アイテムを操作ボタンに割り当てるためのタッチ操作を行うタッチパネルを設けるようにしたが、これに限定される必要はない。たとえば、操作ボタンを備えるコントローラを、タッチパネルを備える端末装置とは別に設けるようにしてもよい。
また、この実施例では、ドラッグによりアイテムを移動させるようにしたが、これに限定される必要はなく、フリックによりアイテムを移動させることもできる。フリックとは、指等で画面上を軽くはらう操作を意味し、指等をスライドさせる距離がドラッグの場合よりも短い。
かかる場合には、アイテムをタッチオンし、当該アイテムを割り当てたい操作ボタンに対応する割当画像に向けてフリックする。すると、たとえば、フリックの速さに応じた初速度でフリックした方向にアイテムは移動し、移動方向と逆向きの所定の加速度で減速される。アイテムが割当画像まで到達すれば、このアイテムは到達した割当画像に対応する操作ボタンに割り当てられる。フリックにより移動されたアイテムが割当画像に到達しなければ、当該アイテムは操作ボタンに割り当てられずに、そのまま元の位置に戻る。これは、ドラッグしたアイテムをタッチオフしたときに、当該アイテムが割当画像に重なっていない場合と同様である。
なお、この実施例で示したゲームシステムは一例であり、ゲーム画面とアイテム画面とが別の表示装置に表示される構成であれば、他の構成を採用することが可能である。たとえば、2つの表示装置を備える携帯型ゲーム装置に適用することもできる。また、モニタが接続されたPCやノート型PCと、これと通信可能なタブレットPCまたはスマートフォンを備えるシステムにも適用することができる。
また、この実施例では、端末用ゲーム画像や端末用ゲーム音声をゲーム装置で生成するようにしたが、端末装置で生成するようにしてもよい。
10 …ゲームシステム
12 …ゲーム装置
14 …端末装置
16 …テレビ
20,52a …CPU
22 …システムLSI
22a …入出力プロセッサ
22e …内部メインメモリ
26 …外部メインメモリ
56 …タッチパネル
58 …アナログスティック
60 …操作ボタン
62 …LCD

Claims (16)

  1. 選択対象の少なくとも1つの第1オブジェクトを含む選択画面を表示する第1表示部と、
    前記第1オブジェクトが選択されたかどうかを判断する第1判断部と、
    前記第1判断部によって前記第1オブジェクトが選択されたと判断されたときに、当該第1オブジェクトに対応する第2オブジェクトを、前記選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて表示する第2表示部を備え、
    前記第1表示部は、前記第1オブジェクトの移動先である第1移動先オブジェクトを前記選択画面にさらに表示し、
    前記第2表示部は、前記第1判断部によって前記第1オブジェクトが選択されたと判断されたときに、前記第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに前記情報処理画面に重ねて表示する、情報処理装置。
  2. 選択された前記第1オブジェクトの移動操作を受け付ける第1受付部と、
    前記第1受付部によって前記移動操作を受け付けたとき、当該移動操作に従って、前記第1オブジェクトを移動させるとともに、前記第2オブジェクトを当該第1オブジェクトと同様に移動させる移動部をさらに備える、請求項1記載の情報処理装置。
  3. 前記移動操作はスライドを含む、請求項2記載の情報処理装置。
  4. 前記第1判断部は、前記第1オブジェクトの選択が解除されたかどうかをさらに判断し、
    前記第2表示部は、前記第1判断部によって前記第1オブジェクトの選択が解除されたと判断されたときに、前記第2オブジェクトを前記情報処理画面から消去する、請求項1ないし3のいずれかに記載の情報処理装置。
  5. 前記第1判断部によって前記第1オブジェクトの選択が解除されたことが判断された場合に、当該第1オブジェクトが静止したかどうかを判断する第2判断部をさらに備え、
    前記第2表示部は、前記第2判断部によって前記第1オブジェクトが静止したことが判断されたときに、前記第2オブジェクトを前記情報処理画面から消去する、請求項4記載の情報処理装置。
  6. 前記第2表示部は、前記選択画面に表示される前記第1オブジェクトと前記第1移動先オブジェクトの位置関係に応じた位置関係で、前記第2オブジェクトと前記第2移動先オブジェクトを前記情報処理画面に重ねて表示する、請求項1ないし5のいずれかに記載の情報処理装置。
  7. 選択された前記第1オブジェクトを前記第1移動先オブジェクトまで移動させたとき、前記第2表示部は、前記第2オブジェクトおよび前記第2移動先オブジェクトを前記情報処理画面から消去する、請求項1ないし6のいずれかに記載の情報処理装置。
  8. 前記第2表示部は、前記第2オブジェクトおよび前記第2移動先オブジェクトを半透明で前記情報処理画面に表示する、請求項1ないし7のいずれかに記載の情報処理装置。
  9. 前記選択画面および前記情報処理画面は異なる空間を描画した画面である、請求項1ないし8のいずれかに記載の情報処理装置。
  10. 前記情報処理画面に対する操作入力を受け付ける第2受付部と、
    前記第2受付部によって受け付けられた操作入力に従って情報処理を実行する実行部をさらに備える、請求項2または3記載の情報処理装置。
  11. ポインティングデバイスとポインティングデバイスとは異なる種類の入力装置を備え、
    前記第1受付部は前記ポインティングデバイスを用いた移動操作を受け付け、前記第2受付部は前記入力装置を用いた操作入力を受け付ける、請求項10記載の情報処理装置。
  12. 前記ポインティングデバイスはタッチパネルであり、
    前記入力装置はボタン入力装置である、請求項11記載の情報処理装置。
  13. 前記選択画面は可搬型表示装置に表示され、
    前記情報処理画面は前記可搬型表示装置とは別の表示装置に表示される、請求項1ないし12のいずれかに記載の情報処理装置。
  14. 選択対象の少なくとも1つの第1オブジェクトを含む選択画面を表示する第1表示部と、
    前記第1オブジェクトが選択されたかどうかを判断する第1判断部と、
    前記第1判断部によって前記第1オブジェクトが選択されたと判断されたときに、当該第1オブジェクトに対応する第2オブジェクトを、前記選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて表示する第2表示部を備え、
    前記第1表示部は、前記第1オブジェクトの移動先である第1移動先オブジェクトを前記選択画面にさらに表示し、
    前記第2表示部は、前記第1判断部によって前記第1オブジェクトが選択されたと判断されたときに、前記第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに前記情報処理画面に重ねて表示する、情報処理システム。
  15. 第1表示手段と第2表示手段を備えるコンピュータの情報処理プログラムであって、
    前記情報処理プログラムは、前記コンピュータを、
    選択対象の少なくとも1つの第1オブジェクトを含む選択画面を前記第1表示手段に表示する第1表示制御部と、
    前記第1オブジェクトが選択されたかどうかを判断する第1判断部と、
    前記第1判断部において前記第1オブジェクトが選択されたと判断したときに、当該第1オブジェクトに対応する第2オブジェクトを、前記選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて前記第2表示手段に表示する第2表示制御部として機能させ、
    前記第1表示制御部は、前記第1オブジェクトの移動先である第1移動先オブジェクトを前記選択画面にさらに表示し、
    前記第2表示制御部は、前記第1判断部において前記第1オブジェクトが選択されたと判断したときに、前記第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに前記情報処理画面に重ねて表示する、情報処理プログラム。
  16. 第1表示手段と第2表示手段を備えるコンピュータの情報処理方法であって、
    前記コンピュータは、
    (a)選択対象の少なくとも1つの第1オブジェクトを含む選択画面を前記第1表示手段に表示するステップ、
    (b)前記第1オブジェクトが選択されたかどうかを判断するステップ、および
    (c)前記ステップ(b)において前記第1オブジェクトが選択されたと判断したときに、当該第1オブジェクトに対応する第2オブジェクトを、前記選択画面とは異なり、少なくとも当該第1オブジェクトを使用する様子を表現可能な情報処理画面に重ねて前記第2表示手段に表示するステップを含み
    前記ステップ(a)は、前記第1オブジェクトの移動先である第1移動先オブジェクトを前記選択画面にさらに表示し、
    前記ステップ(c)は、前記第1移動先オブジェクトに対応する第2移動先オブジェクトをさらに前記情報処理画面に重ねて表示する、情報処理方法。
JP2013171359A 2013-08-21 2013-08-21 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 Active JP6721285B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013171359A JP6721285B2 (ja) 2013-08-21 2013-08-21 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
EP14158350.0A EP2839867A1 (en) 2013-08-21 2014-03-07 Information processing apparatus, information processing system, information processing program and information processing method
US14/202,662 US9582162B2 (en) 2013-08-21 2014-03-10 Information processing apparatus, information processing system, storage medium and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171359A JP6721285B2 (ja) 2013-08-21 2013-08-21 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2015039482A JP2015039482A (ja) 2015-03-02
JP6721285B2 true JP6721285B2 (ja) 2020-07-15

Family

ID=50276926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171359A Active JP6721285B2 (ja) 2013-08-21 2013-08-21 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法

Country Status (3)

Country Link
US (1) US9582162B2 (ja)
EP (1) EP2839867A1 (ja)
JP (1) JP6721285B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6234280B2 (ja) * 2014-03-10 2017-11-22 株式会社Nttドコモ 表示装置、表示方法及びプログラム
JP6731015B2 (ja) * 2018-05-11 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント プログラム、及び情報処理装置

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06285259A (ja) * 1993-03-31 1994-10-11 Sega Enterp Ltd 液晶コントローラ
US6001017A (en) * 1993-08-25 1999-12-14 Sega Enterprises, Ltd. Game device for displaying game input operations on the display
JPH1195650A (ja) * 1997-09-22 1999-04-09 Casio Comput Co Ltd 生物画像表示制御装置、生物画像表示制御方法、及び生物画像表示処理プログラムを記録した記録媒体
JP4672108B2 (ja) * 2000-06-01 2011-04-20 シャープ株式会社 情報処理装置およびその制御方法
JP3690672B2 (ja) * 2002-05-17 2005-08-31 任天堂株式会社 ゲームシステムおよびゲームプログラム
JP2004242706A (ja) * 2003-02-10 2004-09-02 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
US11033821B2 (en) * 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
JP3890445B2 (ja) * 2004-05-07 2007-03-07 株式会社コナミデジタルエンタテインメント ゲームプログラム及びゲーム装置
JP2006129942A (ja) * 2004-11-02 2006-05-25 Namco Ltd プログラム、情報記憶媒体及びゲーム装置
JP3919790B2 (ja) * 2005-03-14 2007-05-30 株式会社コナミデジタルエンタテインメント メッセージ画像表示装置、メッセージ画像表示装置の制御方法及びプログラム
US8823733B2 (en) * 2006-05-04 2014-09-02 Nintendo Co., Ltd. Enhanced virtual suction tool
US8123527B2 (en) * 2006-10-31 2012-02-28 Hoelljes H Christian Active learning device and method
US7840668B1 (en) * 2007-05-24 2010-11-23 Avaya Inc. Method and apparatus for managing communication between participants in a virtual environment
US8239487B1 (en) * 2007-05-30 2012-08-07 Rocketon, Inc. Method and apparatus for promoting desired on-line activities using on-line games
JP5376778B2 (ja) 2007-07-12 2013-12-25 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US8628422B2 (en) * 2008-10-14 2014-01-14 Wms Gaming Inc. Gaming system having virtual assets and achievements
US9064023B2 (en) * 2008-12-29 2015-06-23 Avaya Inc. Providing web content in the context of a virtual environment
JP4734435B2 (ja) * 2009-03-23 2011-07-27 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型ゲーム装置
US8956229B2 (en) * 2009-03-30 2015-02-17 Nintendo Co., Ltd. Computer readable storage medium having game program stored thereon and game apparatus
US20100275122A1 (en) * 2009-04-27 2010-10-28 Microsoft Corporation Click-through controller for mobile interaction
JP5804618B2 (ja) * 2009-05-28 2015-11-04 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP5687826B2 (ja) * 2009-05-29 2015-03-25 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP5269745B2 (ja) * 2009-10-30 2013-08-21 任天堂株式会社 オブジェクト制御プログラム、オブジェクト制御装置、オブジェクト制御システム及びオブジェクト制御方法
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2011255119A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US9168454B2 (en) * 2010-11-12 2015-10-27 Wms Gaming, Inc. Integrating three-dimensional elements into gaming environments
US9539511B2 (en) * 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
EP2521097B1 (en) * 2011-04-15 2020-01-22 Sony Interactive Entertainment Europe Limited System and Method of Input Processing for Augmented Reality
WO2012162090A2 (en) * 2011-05-20 2012-11-29 William Mark Corporation App gadgets and methods therefor
JP5876229B2 (ja) 2011-05-24 2016-03-02 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP5607579B2 (ja) * 2011-06-03 2014-10-15 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、およびコンテンツ再生制御方法
JP5869236B2 (ja) * 2011-06-03 2016-02-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5790380B2 (ja) * 2011-09-28 2015-10-07 株式会社Jvcケンウッド 電子機器、電子機器の制御方法、及び、プログラム
JP5932354B2 (ja) * 2012-01-20 2016-06-08 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
US8971928B2 (en) * 2012-04-10 2015-03-03 Here Global B.V. Method and system for changing geographic information displayed on a mobile device
US9299215B2 (en) * 2012-04-19 2016-03-29 Bally Gaming, Inc. Using non-wagering-game state for wagering games
JP6013051B2 (ja) * 2012-07-02 2016-10-25 東芝メディカルシステムズ株式会社 超音波診断装置及びその操作支援方法
US20140128148A1 (en) * 2012-11-07 2014-05-08 Yessenia Soffin Conflict monetization method and system
US9462332B2 (en) * 2012-12-05 2016-10-04 At&T Intellectual Property I, L.P. Method and apparatus for controlling a media device
US20140179423A1 (en) * 2012-12-25 2014-06-26 Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. Video Game Display System and Related Method of Using a Portable Computing Device to Control Game Play in Video Games Displayed on a Wireless Display

Also Published As

Publication number Publication date
US9582162B2 (en) 2017-02-28
JP2015039482A (ja) 2015-03-02
EP2839867A1 (en) 2015-02-25
US20150058759A1 (en) 2015-02-26

Similar Documents

Publication Publication Date Title
JP6018480B2 (ja) 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
US9126114B2 (en) Storage medium, input terminal device, control system, and control method
US9354839B2 (en) Storage medium storing object movement controlling program and information processing apparatus
US8545325B2 (en) Communication game system
JP5635850B2 (ja) 情報処理装置、情報処理プログラム、情報処理システムおよび情報処理方法
JP5876229B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP5916037B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP5143503B2 (ja) プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP6026199B2 (ja) タッチ入力システム、タッチ入力装置、タッチ入力制御プログラムおよびタッチ入力制御方法
JP2013233224A (ja) ゲームシステム、ゲーム装置、ゲームプログラムおよびゲーム制御方法
KR20130019530A (ko) 화면터치식 버튼의 키매핑방법
US20120295707A1 (en) Computer and recording medium
JP6721285B2 (ja) 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
JP5758152B2 (ja) ゲームプログラム、ゲーム装置およびゲーム制御方法
JP2018057463A (ja) ゲームプログラム、ゲームを提供する方法、および情報処理装置
JP6482771B2 (ja) 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
JP2021145888A (ja) プログラム、端末、及びゲームシステム
JP6270783B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP2019051360A (ja) ゲームプログラム、ゲームを提供する方法、および情報処理装置
JP2020110352A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP7367111B1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
TWM449618U (zh) 用於互動遊戲的可設定手持式電子系統
JP2012106112A (ja) ゲームプログラムおよびゲーム装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181024

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181031

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20181214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R150 Certificate of patent or registration of utility model

Ref document number: 6721285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250