JP6188766B2 - Operating device and operating system - Google Patents

Operating device and operating system Download PDF

Info

Publication number
JP6188766B2
JP6188766B2 JP2015217290A JP2015217290A JP6188766B2 JP 6188766 B2 JP6188766 B2 JP 6188766B2 JP 2015217290 A JP2015217290 A JP 2015217290A JP 2015217290 A JP2015217290 A JP 2015217290A JP 6188766 B2 JP6188766 B2 JP 6188766B2
Authority
JP
Japan
Prior art keywords
game
terminal device
data
controller
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015217290A
Other languages
Japanese (ja)
Other versions
JP2016039960A (en
Inventor
健一郎 芦田
健一郎 芦田
純治 高本
純治 高本
真人 伊吹
真人 伊吹
伸樹 山本
伸樹 山本
人詩 土屋
人詩 土屋
史佳 末武
史佳 末武
明子 須賀
明子 須賀
直弥 山本
直弥 山本
大助 熊崎
大助 熊崎
義智 後藤
義智 後藤
考師 岡村
考師 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2015217290A priority Critical patent/JP6188766B2/en
Publication of JP2016039960A publication Critical patent/JP2016039960A/en
Application granted granted Critical
Publication of JP6188766B2 publication Critical patent/JP6188766B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、プレイヤが把持して操作することが可能な操作装置に関する。   The present invention relates to an operating device that can be held and operated by a player.

従来、プレイヤが手に持って使用する操作装置がある(例えば、特許文献1参照)。例
えば特許文献1に記載の携帯型のゲーム装置は、折りたたみ式であり、下側のハウジング
に操作ボタンが設けられている。このゲーム装置によれば、ユーザは、画面を見ながら画
面の両側に設けられる操作ボタンを用いてゲーム操作を行うことができ、ゲーム装置を把
持したまま容易にゲーム操作を行うことができる。
2. Description of the Related Art Conventionally, there is an operation device that a player uses in his / her hand (see, for example, Patent Document 1). For example, a portable game device described in Patent Document 1 is a foldable type, and an operation button is provided on a lower housing. According to this game apparatus, the user can perform a game operation using the operation buttons provided on both sides of the screen while looking at the screen, and can easily perform the game operation while holding the game apparatus.

特許第3703473号明細書Japanese Patent No. 3703473

近年、携帯型の端末装置(操作装置)に関しては、画面等がより大きくなり、装置自体
も大型化したものが増えている。ここで、ユーザが手に持って使用する装置自体が大きく
なると、ユーザが把持して使用する場合に不安定になったり、長時間把持して使用し続け
ると腕が疲れてしまったりする等の問題が生じる。例えば、特許文献1に記載のゲーム装
置を大型化すると、ユーザはゲーム装置を安定して把持することが難しく、また、長時間
使用すると手が疲れてしまうおそれがある。
In recent years, with regard to portable terminal devices (operation devices), screens and the like have become larger and devices themselves have become larger. Here, when the device itself that the user uses to hold up becomes large, the user becomes unstable when gripping and using it, or the arm becomes tired when holding and using for a long time, etc. Problems arise. For example, when the size of the game device described in Patent Document 1 is increased, it is difficult for the user to stably hold the game device, and there is a possibility that the hand becomes tired when used for a long time.

それ故、本発明の目的は、ユーザが容易に把持することが可能な操作装置を提供するこ
とである。
Therefore, an object of the present invention is to provide an operating device that can be easily gripped by a user.

本発明は、上記の課題を解決するために、以下の(1)〜(21)の構成を採用した。   The present invention employs the following configurations (1) to (21) in order to solve the above problems.

(1)
本発明の一例は、表示部と、突起部と、第1操作部および第2操作部と、第3操作部および第4操作部と、第5操作部および第6操作部とを備える、操作装置である。表示部は、ハウジングの表側に設けられる。突起部は、ハウジングの裏側において、左右両側の位置に設けられ、下面がハウジングの中央よりも上側に設けられる。第1操作部および第2操作部は、ハウジングの中央よりも上側において表示部の左右にそれぞれ設けられる。第3操作部および第4操作部は、突起部の上側にそれぞれ設けられる。第5操作部および第6操作部は、ハウジングの上側の面における左右の両側にそれぞれ設けられる。
なお、操作装置は、コネクタをさらに備えていてもよい。コネクタは、ハウジングの下側の面に設けられ、操作装置に他の装置を接続するためのコネクタである。
(1)
An example of the present invention includes a display unit, a protrusion, a first operation unit and a second operation unit, a third operation unit and a fourth operation unit, and a fifth operation unit and a sixth operation unit. Device. The display unit is provided on the front side of the housing. The protrusions are provided on the right and left sides of the rear side of the housing, and the lower surface is provided above the center of the housing. The first operation unit and the second operation unit are respectively provided on the left and right sides of the display unit above the center of the housing. The third operation unit and the fourth operation unit are respectively provided on the upper side of the protrusion . The fifth operation unit and the sixth operation unit are respectively provided on both the left and right sides of the upper surface of the housing.
Note that the operating device may further include a connector. The connector is provided on the lower surface of the housing, and is a connector for connecting another device to the operating device.

上記「操作部」は、ユーザが操作可能な操作デバイスであればどのようなものであって
もよく、例えば、後述する実施形態におけるスティック(アナログスティック)、キー(
ボタン)、タッチパネル、タッチパッド等である。
上記「反対側の位置」とは、厳密に2つの操作部の位置が一致する状態に限定される意
味ではなく、ハウジングの表側において操作部が設けられる領域を裏側に投影した場合に
、ハウジングの裏側において操作部が設けられる領域と、投影された領域とが一部におい
て重なる状態をも含む意味である。
The “operation unit” may be any operation device that can be operated by the user. For example, a stick (analog stick), a key (
Button), touch panel, touch pad, and the like.
The “opposite side position” is not limited to a state where the positions of the two operation units are exactly the same. When the area where the operation unit is provided on the front side of the housing is projected on the back side, This means that the area where the operation unit is provided on the back side and the projected area partially overlap.

上記(1)の構成によれば、第1および第2操作部と第3および第4操作部とがハウジ
ングの表側と裏側との互いに対向する位置に配置されるので、ユーザは、これらの操作部
を操作する際にハウジングを表側と裏側から挟むように把持することができる。また、こ
れらの操作部を操作する際にユーザは、ハウジングにおける上下方向の中心よりも上側を
把持するので、操作装置を上側で把持できるとともに、手のひらで操作装置を支えること
ができる。したがって、ユーザは、少なくとも4つの操作部を操作することができる状態
で、操作装置を安定的に把持することができる。つまり、上記(1)の構成によれば、ユ
ーザが容易に把持することが可能で、かつ、操作性の良い操作装置を提供することができ
る。
According to the configuration of (1) above, since the first and second operation parts and the third and fourth operation parts are arranged at positions facing each other on the front side and the back side of the housing, the user can perform these operations. When operating the part, the housing can be gripped so as to be sandwiched from the front side and the back side. Further, when operating these operation units, the user grips the upper side of the housing in the vertical direction, so that the operation device can be gripped by the upper side and the operation device can be supported by the palm. Therefore, the user can stably hold the operating device in a state in which at least four operating units can be operated. That is, according to the configuration of (1) above, it is possible to provide an operating device that can be easily gripped by the user and has good operability.

(2)
操作装置は、突起部をさらに備えていてもよい。突起部は、ハウジングの裏側において
、少なくとも左右両側の位置に突起して設けられる。このとき、第3操作部および第4操
作部は、突起部の上面に配置される。
(2)
The operating device may further include a protrusion. The protrusions are provided to protrude at least on the left and right sides on the back side of the housing. At this time, the third operation unit and the fourth operation unit are disposed on the upper surface of the protrusion.

上記(2)の構成によれば、ハウジングの裏側に突起部が設けられるので、上記の各操
作部を操作する場合、ユーザは、中指や薬指等で突起部を支えるようにして(突起部が指
に掛かるようにして)操作装置を把持することができる。これによって、ユーザは、疲れ
ることなく安定した状態で操作装置を把持することができる。
According to the configuration of (2) above, since the protrusion is provided on the back side of the housing, when operating each of the operation parts, the user supports the protrusion with the middle finger, the ring finger, or the like (the protrusion is The operating device can be gripped (as if it is on a finger). As a result, the user can grip the operating device in a stable state without getting tired.

(3)
突起部は、左右に延びる庇状の形状を有していてもよい。
(3)
The protrusion may have a bowl-like shape extending in the left-right direction.

上記(3)の構成によれば、ユーザは、突起部を支える指を突起部の下面に沿わせて操
作装置を把持することができるので、操作装置がより持ちやすくなる。また、突起部は左
右に延びて形成されるので、突起部が縦向きとなるようにユーザが操作装置を把持する場
合には、操作装置の一辺におけるどこの位置で把持しても、親指以外の指を突起部に当て
ることができる。したがって、突起部が縦向きとなるように操作装置を把持する場合であ
っても、ユーザは操作装置をしっかりと把持することができる。
According to the configuration of (3) above, the user can hold the operating device with his / her finger supporting the protruding portion along the lower surface of the protruding portion, so that the operating device is easier to hold. In addition, since the protruding portion is formed to extend from side to side, when the user holds the operating device so that the protruding portion is in the vertical direction, the user can hold it anywhere on one side of the operating device except for the thumb. Can be placed on the protrusion. Therefore, even when the operating device is gripped so that the protrusions are vertically oriented, the user can firmly grip the operating device.

(4)
突起部の下面には、操作装置とは別の付加装置が係止可能な第1係止穴が設けられても
よい。
(4)
A first locking hole in which an additional device different from the operation device can be locked may be provided on the lower surface of the protrusion.

上記(4)の構成によれば、第1係止穴を用いて操作装置と付加装置とを強固に接続す
ることができる。また、上記(3)の構成と(4)の構成とを組み合わせる場合には、操
作装置の左右方向に関する中央付近に第1係止穴を設けることができので、左右のバラン
スを均等に保って付加装置を安定的に接続することができる。
According to the configuration of (4) above, the operating device and the additional device can be firmly connected using the first locking hole. Further, when combining the configuration of (3) and the configuration of (4), the first locking hole can be provided near the center in the left-right direction of the operating device, so that the left-right balance is kept even. The additional device can be stably connected.

(5)
ハウジングの下側の面には、付加装置が係止可能な第2係止穴が設けられてもよい。
(5)
A second locking hole in which the additional device can be locked may be provided on the lower surface of the housing.

上記(5)の構成によれば、異なる位置に設けられる第1係止穴と第2係止穴とを用い
て操作装置と付加装置とを接続するので、接続をより強固にすることができる。
According to the configuration of (5) above, since the operating device and the additional device are connected using the first locking hole and the second locking hole provided at different positions, the connection can be further strengthened. .

(6)
操作装置は、突起部の下方であってハウジングの裏面における左右両側に、断面が凸型
である凸部をさらに備えていてもよい。
(6)
The operating device may further include a convex portion having a convex cross section on the left and right sides of the rear surface of the housing below the protrusion.

上記(6)の構成によれば、ユーザは、凸部に指(例えば薬指や小指)を掛けてハウジ
ングを把持することができるので、操作装置をよりしっかりと把持することができる。
According to the configuration of (6) above, the user can grip the housing by placing a finger (for example, a ring finger or a little finger) on the convex portion, and thus can more firmly grip the operating device.

(7)
突起部と凸部とは間隔を空けて設けられてもよい。
(7)
The protrusion and the protrusion may be provided with an interval.

上記(7)の構成によれば、ユーザは、凸部が邪魔になることなく中指や薬指等で突起
部を支えることができるとともに、他の指を凸部に掛けて操作装置を把持することができ
る。これによって、操作装置がより持ちやすくなる。
According to the configuration of (7) above, the user can support the protrusion with the middle finger, the ring finger, or the like without causing the protrusion to become an obstacle, and can hold the operating device by placing another finger on the protrusion. Can do. This makes it easier to hold the operating device.

(8)
操作装置は、ハウジングの裏面における左右両側に設けられるグリップ部をさらに備え
ていてもよい。
(8)
The operating device may further include grip portions provided on both the left and right sides of the rear surface of the housing.

上記(8)の構成によれば、ユーザは、グリップ部に指(例えば薬指や小指)を掛けて
ハウジングを把持することができるので、操作装置をよりしっかりと把持することができ
る。
According to the configuration of (8) above, the user can grip the housing by placing a finger (for example, a ring finger or a little finger) on the grip portion, so that the operating device can be gripped more firmly.

(9)
第1操作部は、スライドまたは傾倒可能な可動部材を有する方向入力部であってもよい。
(9)
The first operation unit may be a direction input unit having a movable member that can slide or tilt.

上記(9)の構成によれば、ユーザは、操作装置の左右両側を把持した状態で、親指に
よって方向入力部を操作することで方向入力を容易に行うことができる。これによって、
操作性の良い操作装置を提供することができる。
According to the configuration of (9) above, the user can easily perform direction input by operating the direction input unit with the thumb while holding the left and right sides of the operating device. by this,
An operating device with good operability can be provided.

(10)
第3操作部は、押下可能なキーであってもよい。
(10)
The third operation unit may be a key that can be pressed.

上記(10)の構成によれば、ユーザは、操作装置の左右両側を把持した状態で、人差
し指または中指によってキーを容易に押下することができる。これによって、操作性の良
い操作装置を提供することができる。
According to the configuration of (10) above, the user can easily press the key with the index finger or middle finger while holding the left and right sides of the operating device. Thereby, an operating device with good operability can be provided.

(11)
操作装置は、第操作部と、第操作部とをさらに備えていてもよい。第操作部は、ハウジングの表側の面において第1操作部の下方に配置される。第操作部は、ハウジングの表側の面において第2操作部の下方に配置される。
(11)
The operating device may further include a seventh operating unit and an eighth operating unit. The seventh operation portion is disposed below the first operation portion on the front surface of the housing. The eighth operation portion is disposed below the second operation portion on the front side surface of the housing.

上記(11)の構成によれば、操作装置を用いてより多様な操作が可能となる。また、第操作部および第操作部を操作する場合でも、ユーザは操作装置をしっかりと把持することができるので、操作性の良い操作装置を提供することができる。 With configuration (11) above, it is possible to perform more various operations using the operating device. Further, even when the seventh operation unit and the eighth operation unit are operated, the user can firmly hold the operation device, so that an operation device with good operability can be provided.

(12)
操作部は、少なくとも上下左右の4方向の入力が可能なキーであってもよく、第操作部は、押下可能な複数のキーを含んでいてもよい。
(12)
The seventh operation unit may be a key that allows input in at least four directions of up, down, left, and right, and the eighth operation unit may include a plurality of keys that can be pressed.

上記(12)の構成によれば、ユーザは、操作装置の左右両側を把持した状態で、親指
によってキーを容易に押下することができる。これによって、操作性の良い操作装置を提
供することができる。
According to the configuration of (12) above, the user can easily press the key with the thumb while holding the left and right sides of the operating device. Thereby, an operating device with good operability can be provided.

上記(13)の構成によれば、操作装置を用いてより多様な操作が可能となる。また、
ハウジングの上面に操作部が配置されるので、ユーザは、ハウジングの表側、上側、およ
び裏側からハウジングを包み込むようにして操作装置をしっかりと把持することができる
According to the configuration of (13) above, more various operations can be performed using the operation device. Also,
Since the operation unit is arranged on the upper surface of the housing, the user can firmly hold the operation device so as to wrap the housing from the front side, the upper side, and the back side of the housing.

(14)
操作部および第操作部はそれぞれ、押下可能なキーであってもよい。
(14)
Each of the fifth operation unit and the sixth operation unit may be a key that can be pressed.

上記(14)の構成によれば、ユーザは、操作装置を包み込むようにして把持した状態
で、人差し指によってキーを容易に押下することができる。これによって、操作性の良い
操作装置を提供することができる。
According to the configuration of (14) above, the user can easily press the key with the index finger while holding the operation device so as to wrap it. Thereby, an operating device with good operability can be provided.

(15)
操作装置は、表示部の画面に設けられるタッチパネルをさらに備えていてもよい。
(15)
The operating device may further include a touch panel provided on the screen of the display unit.

上記(15)の構成によれば、ユーザはタッチパネルを用いて表示部に表示される画像
に対して直感的かつ容易に操作を行うことができる。また、上記(2)の構成と上記(1
5)との構成を組み合わせる場合には、操作装置は、表示部を上に向けて載置される場合
には突起部によってやや傾いた状態で載置される。したがって、操作装置を載置した状態
においてタッチパネルに対する操作が行いやすくなる。
With configuration (15) above, the user can intuitively and easily operate the image displayed on the display unit using the touch panel. In addition, the configuration of (2) and (1)
In the case of combining the configuration with 5), the operating device is placed in a slightly tilted state by the protrusion when it is placed with the display unit facing upward. Therefore, it becomes easy to operate the touch panel in a state where the operation device is placed.

(16)
操作装置は、ハウジングの内部に慣性センサをさらに備えていてもよい。
(16)
The operating device may further include an inertial sensor inside the housing.

上記(16)の構成によれば、操作装置自体を振ったり動かしたりする操作が可能とな
り、ユーザは、操作装置を用いて直感的かつ容易な操作を行うことができる。また、これ
によれば、操作装置を動かして使用することが想定されるので、操作装置に付加装置が接
続される場合には、操作装置と付加装置とを強固に接続することが重要になる。したがっ
て、上記(16)の構成においては、上記(4)または(5)の構成を採用することによ
って、操作装置と付加装置とを強固に接続することが特に有効である。
According to the configuration of (16) above, it is possible to perform an operation of shaking or moving the operating device itself, and the user can perform an intuitive and easy operation using the operating device. Also, according to this, since it is assumed that the operating device is moved and used, when the additional device is connected to the operating device, it is important to firmly connect the operating device and the additional device. . Therefore, in the configuration (16), it is particularly effective to firmly connect the operating device and the additional device by adopting the configuration (4) or (5).

(17)
操作装置は、自機に対して行われた操作を表す操作データをゲーム装置へ無線で送信す
る通信部をさらに備えていてもよい。
(17)
The operation device may further include a communication unit that wirelessly transmits operation data representing an operation performed on the own device to the game device.

上記(17)の構成によれば、ユーザは、容易に把持することが可能で、かつ、操作性
の良い操作装置を用いてゲーム操作を行うことができる。
With configuration (17) above, the user can easily hold the game and can perform a game operation using an operating device with good operability.

(18)
通信部は、ゲーム装置から送信されてくる画像データを受信してもよい。このとき、操
作装置は、受信された画像データを表示部に表示させる表示制御部をさらに備える。
(18)
The communication unit may receive image data transmitted from the game device. At this time, the controller device further includes a display control unit that displays the received image data on the display unit.

上記(18)の構成によれば、ゲーム装置から送信されてくる画像が表示部に表示され
るので、ユーザは、操作装置の表示部に表示される画像を見ながらゲーム操作を行うこと
ができる。
According to the configuration of (18) above, since the image transmitted from the game device is displayed on the display unit, the user can perform the game operation while viewing the image displayed on the display unit of the operation device. .

(19)
操作装置は、ゲーム処理部と、表示制御部とをさらに備えていてもよい。ゲーム処理部
は、自機に対する操作に基づいてゲーム処理を実行する。表示制御部は、ゲーム処理の結
果に基づいてゲーム画像を生成して表示部に表示させる。
(19)
The operating device may further include a game processing unit and a display control unit. The game processing unit executes game processing based on an operation on the own device. A display control part produces | generates a game image based on the result of a game process, and displays it on a display part.

上記(19)の構成によれば、携帯型のゲーム装置を、容易に把持することが可能で、
かつ、操作性の良いものにすることができる。
According to the configuration of (19) above, the portable game device can be easily gripped,
In addition, the operability can be improved.

(20)
表示部は5インチ以上の画面を有していてもよい。
(20)
The display unit may have a screen of 5 inches or more.

上記(20)の構成によれば、大きな画面を用いて見やすく迫力のある画像を表示する
ことができる。なお、上記(20)の構成のように大きな画面の表示部が用いられる場合
には、必然的に操作装置自体の大きさも大きくなるので、ユーザが容易に把持することが
可能となる上記(1)〜(19)の構成が特に有効である。
With configuration (20) above, it is possible to display a powerful and easy-to-view image using a large screen. When a large screen display unit is used as in the above configuration (20), the size of the operation device inevitably increases, so that the user can easily hold it (1). ) To (19) are particularly effective.

(21)
また、本発明の他の一例は、上記(5)に記載の操作装置と、付加装置とを含む操作シ
ステムであってもよい。付加装置は、第1および第2係止穴にそれぞれ係止可能な各爪部
を備え、当該各爪部が当該第1および第2係止穴に掛止することによって操作装置に接続
される。
(21)
Further, another example of the present invention may be an operation system including the operation device described in (5) above and an additional device. The additional device includes claw portions that can be respectively locked in the first and second locking holes, and the claw portions are hooked into the first and second locking holes to be connected to the operation device. .

上記(21)の構成によれば、強固に接続された操作装置と付加装置とを含む操作シス
テムを提供することができる。
With configuration (21) above, it is possible to provide an operation system including an operation device and an additional device that are firmly connected.

(22)
また、本発明の他の一例は、上記(5)に記載の操作装置と、支持装置とを含む操作シ
ステムであってもよい。支持装置は、ガイド部材、および、支持部材を備える。ガイド部
材は、第2係止穴に挿入可能である。また、支持部材は、当該ガイド部材が第2係止穴に
挿入された場合にハウジングの裏面を所定の角度に支持する。
(22)
Further, another example of the present invention may be an operation system including the operation device described in (5) above and a support device. The support device includes a guide member and a support member. The guide member can be inserted into the second locking hole. The support member supports the back surface of the housing at a predetermined angle when the guide member is inserted into the second locking hole.

上記(22)の構成によれば、操作装置を所定の角度で載置しておくことができる操作
システムを提供することができる。また、操作装置と支持装置とを接続する際の位置決め
に第2係止穴が用いられるので、操作装置のハウジングに設ける穴の数を少なくすること
ができ、ハウジングの形状を簡易にすることができる。
According to the configuration of (22) above, it is possible to provide an operating system that can place the operating device at a predetermined angle. Further, since the second locking holes are used for positioning when connecting the operating device and the support device, the number of holes provided in the housing of the operating device can be reduced, and the shape of the housing can be simplified. it can.

また、本発明の他の一例は、ユーザが操作を行うための操作装置であって、略板状のハ
ウジングと、前記ハウジングの表側に設けられる表示部と、突起部とを備える操作装置で
あってもよい。突起部は、前記ハウジングの裏側において、前記ハウジングの中央よりも
上側であって少なくとも左右両側の位置に突起して設けられる。
Another example of the present invention is an operation device for a user to perform an operation, and includes an approximately plate-shaped housing, a display unit provided on the front side of the housing, and a protrusion. May be. The protrusions are provided on the back side of the housing so as to protrude above the center of the housing and at least on the left and right sides.

また、本発明の他の一例は、略板状のハウジングと、前記ハウジングの表側に設けられ
る表示部と、第1操作部および第2操作部と、突起部とを備える、操作装置であってもよ
い。第1操作部および第2操作部は、前記表示部の左右にそれぞれ設けられる。突起部は
、ユーザが前記第1操作部および第2操作部を両手の親指でそれぞれ操作可能なように前
記ハウジングを把持した場合に親指以外のいずれかの指に掛止可能な位置に設けられる。
Another example of the present invention is an operating device including a substantially plate-shaped housing, a display unit provided on the front side of the housing, a first operating unit, a second operating unit, and a protrusion. Also good. The first operation unit and the second operation unit are provided on the left and right sides of the display unit, respectively. The protrusion is provided at a position that can be hooked on any finger other than the thumb when the user grips the housing so that the user can operate the first operation unit and the second operation unit with the thumbs of both hands. .

また、本発明の他の一例は、ユーザが操作を行うための操作装置であって、略板状のハ
ウジングと、前記ハウジングの表側に設けられる表示部と、凸部とを備える操作装置であ
ってもよい。凸部は、前記ハウジングの裏側における前記ハウジングの左右の両辺に設け
られる。また、凸部は、上下方向に延び、断面が凸型である。
Another example of the present invention is an operating device for a user to perform an operation, and includes an approximately plate-shaped housing, a display portion provided on the front side of the housing, and a convex portion. May be. The convex portions are provided on both the left and right sides of the housing on the back side of the housing. The convex portion extends in the vertical direction and has a convex cross section.

また、本発明の他の一例は、略板状のハウジングと、前記ハウジングの表側に設けられ
る表示部と、突起部と、操作部とを備える操作装置であってもよい。突起部は、前記ハウ
ジングの裏側において少なくとも左右両側の位置に突起して設けられる。操作部は、前記
突起部の上側の面に設けられる。
Further, another example of the present invention may be an operating device including a substantially plate-shaped housing, a display unit provided on the front side of the housing, a protrusion, and an operating unit. The protrusions are provided to protrude at least on the left and right sides on the back side of the housing. The operation part is provided on the upper surface of the protrusion.

本発明によれば、ハウジングの表側において中央よりも上側の左右に第1および第2操
作部をそれぞれ設け、ハウジングの裏側において、第1操作部および第2操作部の反対側
に第3および第4操作部を設ける。これによって、ユーザが操作装置を容易に把持するこ
とが可能となる。
According to the present invention, the first and second operation parts are provided on the left and right above the center on the front side of the housing, respectively, and the third and the third operation parts are provided on the back side of the housing on the opposite side of the first operation part and the second operation part. 4 operation units are provided. As a result, the user can easily hold the operating device.

ゲームシステム1の外観図External view of game system 1 ゲーム装置3の内部構成を示すブロック図Block diagram showing the internal configuration of the game apparatus 3 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の構成を示すブロック図Block diagram showing the configuration of the controller 5 端末装置7の外観構成を示す図The figure which shows the external appearance structure of the terminal device 7 端末装置7の外観構成を示す図The figure which shows the external appearance structure of the terminal device 7 ユーザが端末装置7を横向きで把持した様子を示す図The figure which shows a mode that the user hold | gripped the terminal device 7 sideways ユーザが端末装置7を横向きで把持した様子を示す図The figure which shows a mode that the user hold | gripped the terminal device 7 sideways ユーザが端末装置7を縦向きで把持した様子を示す図The figure which shows a mode that the user hold | griped the terminal device 7 in portrait orientation ユーザが端末装置7を縦向きで把持した様子を示す図The figure which shows a mode that the user hold | griped the terminal device 7 in portrait orientation 端末装置7の内部構成を示すブロック図The block diagram which shows the internal structure of the terminal device 7 端末装置7に付加装置(入力装置200)を装着した一例を示す図The figure which shows an example which attached the additional apparatus (input device 200) to the terminal device 7 端末装置7に付加装置(入力装置200)を装着した一例を示す図The figure which shows an example which attached the additional apparatus (input device 200) to the terminal device 7 端末装置7に付加装置(スタンド210)を接続した他の一例を示す図The figure which shows another example which connected the additional apparatus (stand 210) to the terminal device 7. ゲーム処理において用いられる各種データを示す図Diagram showing various data used in game processing ゲーム装置3において実行されるゲーム処理の流れを示すメインフローチャートMain flowchart showing a flow of game processing executed in the game apparatus 3 ゲーム制御処理の詳細な流れを示すフローチャートA flowchart showing a detailed flow of the game control process 第1のゲーム例におけるテレビ2の画面と端末装置7とを示す図The figure which shows the screen of the television 2 and the terminal device 7 in a 1st game example. 第2のゲーム例におけるテレビ2の画面と端末装置7とを示す図The figure which shows the screen of the television 2 and the terminal device 7 in a 2nd game example. 第3のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を示す図The figure which shows an example of the game image for television displayed on the television 2 in the 3rd game example 第3のゲーム例において端末装置7に表示される端末用ゲーム画像の一例を示す図The figure which shows an example of the game image for terminals displayed on the terminal device 7 in the 3rd game example 第4のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を示す図The figure which shows an example of the game image for television displayed on the television 2 in the 4th game example 第4のゲーム例において端末装置7に表示される端末用ゲーム画像の一例を示す図The figure which shows an example of the game image for terminals displayed on the terminal device 7 in the 4th game example 第5のゲーム例におけるゲームシステム1の使用の様子を示す図The figure which shows the mode of use of the game system 1 in the 5th game example. ネットワークを介して外部装置と接続される場合におけるゲームシステム1に含まれる各装置の接続関係を示す図The figure which shows the connection relation of each apparatus contained in the game system 1 in the case of connecting with an external apparatus via a network. 本実施形態の変形例に係る端末装置の外観構成を示す図The figure which shows the external appearance structure of the terminal device which concerns on the modification of this embodiment. 図29に示す端末装置をユーザが把持した様子を示す図The figure which shows a mode that the user hold | gripped the terminal device shown in FIG. 本実施形態の他の変形例に係る端末装置の外観構成を示す図The figure which shows the external appearance structure of the terminal device which concerns on the other modification of this embodiment. 本実施形態の他の変形例に係る端末装置の外観構成を示す図The figure which shows the external appearance structure of the terminal device which concerns on the other modification of this embodiment.

[1.ゲームシステムの全体構成]
以下、図面を参照して、本発明の一実施形態に係るゲームシステム1について説明する
。図1は、ゲームシステム1の外観図である。図1において、ゲームシステム1は、テレ
ビジョン受像器等に代表される据置型のディスプレイ装置(以下、「テレビ」と記載する
)2、据置型のゲーム装置3、光ディスク4、コントローラ5、マーカ装置6、および、
端末装置7を含む。ゲームシステム1は、コントローラ5を用いたゲーム操作に基づいて
ゲーム装置3においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をテ
レビ2および/または端末装置7に表示するものである。
[1. Overall configuration of game system]
Hereinafter, a game system 1 according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of the game system 1. In FIG. 1, a game system 1 includes a stationary display device (hereinafter referred to as “TV”) 2 typified by a television receiver, a stationary game device 3, an optical disc 4, a controller 5, and a marker device. 6 and
A terminal device 7 is included. The game system 1 executes a game process in the game apparatus 3 based on a game operation using the controller 5 and displays a game image obtained by the game process on the television 2 and / or the terminal device 7.

ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一
例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置3におい
て実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されてい
る。ゲーム装置3の前面には光ディスク4の挿入口が設けられている。ゲーム装置3は、
挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行
することによってゲーム処理を実行する。
An optical disk 4 that is an example of an information storage medium that can be used interchangeably with the game apparatus 3 is detachably inserted into the game apparatus 3. The optical disc 4 stores an information processing program (typically a game program) to be executed in the game apparatus 3. An insertion slot for the optical disk 4 is provided on the front surface of the game apparatus 3. The game device 3
The game process is executed by reading and executing the information processing program stored in the optical disc 4 inserted into the insertion slot.

ゲーム装置3には、テレビ2が接続コードを介して接続される。テレビ2は、ゲーム装
置3において実行されるゲーム処理によって得られるゲーム画像を表示する。テレビ2は
スピーカ2a(図2)を有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲ
ーム音声を出力する。なお、他の実施形態においては、ゲーム装置3と据置型の表示装置
とは一体となっていてもよい。また、ゲーム装置3とテレビ2との通信は無線通信であっ
てもよい。
The game apparatus 3 is connected to the television 2 via a connection cord. The television 2 displays a game image obtained by a game process executed in the game device 3. The television 2 has a speaker 2a (FIG. 2), and the speaker 2a outputs game sound obtained as a result of the game processing. In other embodiments, the game apparatus 3 and the stationary display apparatus may be integrated. The communication between the game apparatus 3 and the television 2 may be wireless communication.

テレビ2の画面の周辺(図1では画面の上側)には、マーカ装置6が設置される。詳細
は後述するが、ユーザ(プレイヤ)はコントローラ5を動かすゲーム操作を行うことがで
き、マーカ装置6は、コントローラ5の動きや位置や姿勢等をゲーム装置3が算出するた
めに用いられる。マーカ装置6は、その両端に2つのマーカ6Rおよび6Lを備えている
。マーカ6R(マーカ6Lも同様)は、具体的には1以上の赤外LED(Light E
mitting Diode)であり、テレビ2の前方に向かって赤外光を出力する。マ
ーカ装置6はゲーム装置3に接続されており、ゲーム装置3はマーカ装置6が備える各赤
外LEDの点灯を制御することが可能である。なお、マーカ装置6は可搬型であり、ユー
ザはマーカ装置6を自由な位置に設置することができる。図1ではマーカ装置6がテレビ
2の上に設置された態様を表しているが、マーカ装置6を設置する位置および向きは任意
である。
A marker device 6 is installed around the screen of the television 2 (upper side of the screen in FIG. 1). Although details will be described later, the user (player) can perform a game operation to move the controller 5, and the marker device 6 is used for the game device 3 to calculate the movement, position, posture, and the like of the controller 5. The marker device 6 includes two markers 6R and 6L at both ends thereof. Specifically, the marker 6R (same for the marker 6L) is one or more infrared LEDs (Light E
miting Diode), which outputs infrared light toward the front of the television 2. The marker device 6 is connected to the game device 3, and the game device 3 can control lighting of each infrared LED included in the marker device 6. The marker device 6 is portable, and the user can install the marker device 6 at a free position. Although FIG. 1 shows a mode in which the marker device 6 is installed on the television 2, the position and orientation in which the marker device 6 is installed are arbitrary.

コントローラ5は、自機に対して行われた操作の内容を表す操作データをゲーム装置3
に与えるものである。コントローラ5とゲーム装置3とは無線通信によって通信可能であ
る。本実施形態では、コントローラ5とゲーム装置3との間の無線通信には例えばBlu
etooth(ブルートゥース)(登録商標)の技術が用いられる。なお、他の実施形態
においてはコントローラ5とゲーム装置3とは有線で接続されてもよい。また、本実施形
態では、ゲームシステム1に含まれるコントローラ5は1つとするが、ゲーム装置3は複
数のコントローラと通信可能であり、所定台数のコントローラを同時に使用することによ
って複数人でゲームをプレイすることが可能である。コントローラ5の詳細な構成につい
ては後述する。
The controller 5 stores operation data representing the content of the operation performed on the game machine 3
It is something to give to. The controller 5 and the game apparatus 3 can communicate with each other by wireless communication. In this embodiment, the wireless communication between the controller 5 and the game apparatus 3 is, for example, Blu.
The technology of Bluetooth (registered trademark) is used. In other embodiments, the controller 5 and the game apparatus 3 may be connected by wire. In the present embodiment, the game system 1 includes one controller 5, but the game apparatus 3 can communicate with a plurality of controllers, and a game can be played by a plurality of people by using a predetermined number of controllers simultaneously. Is possible. A detailed configuration of the controller 5 will be described later.

端末装置7は、ユーザが把持可能な程度の大きさであり、ユーザは端末装置7を手に持
って動かしたり、あるいは、端末装置7を自由な位置に配置したりして使用することが可
能である。詳細な構成は後述するが、端末装置7は、表示手段であるLCD(Liqui
d Crystal Display:液晶表示装置)51、および、入力手段(後述す
るタッチパネル52やジャイロセンサ74等)を備える。端末装置7とゲーム装置3とは
無線(有線であってもよい)によって通信可能である。端末装置7は、ゲーム装置3で生
成された画像(例えばゲーム画像)のデータをゲーム装置3から受信し、画像をLCD5
1に表示する。なお、本実施形態では表示装置としてLCDを用いているが、端末装置7
は、例えばEL(Electro Luminescence:電界発光)を利用した表
示装置等、他の任意の表示装置を有していてもよい。また、端末装置7は、自機に対して
行われた操作の内容を表す操作データをゲーム装置3に送信する。
The terminal device 7 is large enough to be gripped by the user, and can be used by the user holding the terminal device 7 in his / her hand or placing the terminal device 7 in a free position. It is. Although the detailed configuration will be described later, the terminal device 7 is an LCD (Liquid) that is a display means.
d Crystal Display (liquid crystal display device) 51 and input means (a touch panel 52, a gyro sensor 74, etc. described later). The terminal device 7 and the game device 3 can communicate wirelessly (may be wired). The terminal device 7 receives data of an image (for example, a game image) generated by the game device 3 from the game device 3, and displays the image on the LCD 5
1 is displayed. In this embodiment, an LCD is used as the display device, but the terminal device 7
May have other arbitrary display devices such as a display device using EL (Electro Luminescence). In addition, the terminal device 7 transmits operation data representing the content of the operation performed on the own device to the game device 3.

[2.ゲーム装置3の内部構成]
次に、図2を参照して、ゲーム装置3の内部構成について説明する。図2は、ゲーム装
置3の内部構成を示すブロック図である。ゲーム装置3は、CPU(Central P
rocessing Unit)10、システムLSI11、外部メインメモリ12、R
OM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。
[2. Internal configuration of game device 3]
Next, the internal configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a block diagram showing an internal configuration of the game apparatus 3. The game apparatus 3 is a CPU (Central P
processing unit) 10, system LSI 11, external main memory 12, R
An OM / RTC 13, a disk drive 14, and an AV-IC 15 are included.

CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲ
ーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、シス
テムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメ
モリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続され
る。システムLSI11は、それに接続される各構成要素間におけるデータ転送の制御、
表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。なお、システムL
SI11の内部構成については後述する。揮発性の外部メインメモリ12は、光ディスク
4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲーム
プログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CP
U10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装
置3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカ
ウントするクロック回路(RTC:Real Time Clock)とを有する。ディ
スクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出
し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを
書き込む。
The CPU 10 executes a game process by executing a game program stored on the optical disc 4, and functions as a game processor. The CPU 10 is connected to the system LSI 11. In addition to the CPU 10, an external main memory 12, a ROM / RTC 13, a disk drive 14, and an AV-IC 15 are connected to the system LSI 11. The system LSI 11 controls data transfer between components connected to the system LSI 11.
Processing such as generation of an image to be displayed and acquisition of data from an external device is performed. System L
The internal configuration of SI11 will be described later. The volatile external main memory 12 stores a program such as a game program read from the optical disk 4 or a game program read from the flash memory 17, or stores various data.
Used as U10 work area and buffer area. The ROM / RTC 13 includes a ROM (so-called boot ROM) in which a program for starting the game apparatus 3 is incorporated, and a clock circuit (RTC: Real Time Clock) that counts time. The disk drive 14 reads program data, texture data, and the like from the optical disk 4 and writes the read data to an internal main memory 11e or an external main memory 12 described later.

システムLSI11には、入出力プロセッサ(I/Oプロセッサ)11a、GPU(G
raphics Processor Unit)11b、DSP(Digital S
ignal Processor)11c、VRAM(Video RAM)11d、お
よび内部メインメモリ11eが設けられる。図示は省略するが、これらの構成要素11a
〜11eは内部バスによって互いに接続される。
The system LSI 11 includes an input / output processor (I / O processor) 11a, a GPU (G
graphics Processor Unit) 11b, DSP (Digital S)
An signal processor (11c), a VRAM (Video RAM) 11d, and an internal main memory 11e are provided. Although not shown, these components 11a
˜11e are connected to each other by an internal bus.

GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(
作画命令)に従って画像を生成する。VRAM11dは、GPU11bがグラフィクスコ
マンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)
を記憶する。画像が生成される際には、GPU11bは、VRAM11dに記憶されたデ
ータを用いて画像データを作成する。なお、本実施形態においては、ゲーム装置3は、テ
レビ2に表示するゲーム画像と、端末装置7に表示するゲーム画像との両方を生成する。
以下では、テレビ2に表示されるゲーム画像を「テレビ用ゲーム画像」と呼び、端末装置
7に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。
The GPU 11b forms part of the drawing means, and the graphics command (
The image is generated according to the drawing command. The VRAM 11d is data necessary for the GPU 11b to execute the graphics command (data such as polygon data and texture data).
Remember. When an image is generated, the GPU 11b creates image data using data stored in the VRAM 11d. In the present embodiment, the game apparatus 3 generates both a game image to be displayed on the television 2 and a game image to be displayed on the terminal device 7.
Hereinafter, a game image displayed on the television 2 may be referred to as a “television game image”, and a game image displayed on the terminal device 7 may be referred to as a “terminal game image”.

DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部
メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声デ
ータを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様
、テレビ2のスピーカから出力するゲーム音声と、端末装置7のスピーカから出力するゲ
ーム音声との両方が生成される。以下では、テレビ2から出力されるゲーム音声を「テレ
ビ用ゲーム音声」と呼び、端末装置7から出力されるゲーム音声を「端末用ゲーム音声」
と呼ぶことがある。
The DSP 11c functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the internal main memory 11e and the external main memory 12. In the present embodiment, both the game sound output from the speaker of the television 2 and the game sound output from the speaker of the terminal device 7 are generated for the game sound as well as the game image. Hereinafter, the game sound output from the television 2 is referred to as “television game sound”, and the game sound output from the terminal device 7 is referred to as “terminal game sound”.
Sometimes called.

上記のようにゲーム装置3において生成される画像および音声のうちで、テレビ2にお
いて出力される画像および音声のデータは、AV−IC15によって読み出される。AV
−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2に出力すると
ともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aに出力する。これ
によって、テレビ2に画像が表示されるとともにスピーカ2aから音が出力される。
Of the images and sounds generated by the game apparatus 3 as described above, image and sound data output by the television 2 is read by the AV-IC 15. AV
The IC 15 outputs the read image data to the television 2 via the AV connector 16 and outputs the read audio data to the speaker 2 a built in the television 2. Thus, an image is displayed on the television 2 and a sound is output from the speaker 2a.

また、ゲーム装置3において生成される画像および音声のうちで、端末装置7において
出力される画像および音声のデータは、入出力プロセッサ11a等によって端末装置7へ
送信される。入出力プロセッサ11a等による端末装置7へのデータの送信については後
述する。
Of the images and sounds generated by the game apparatus 3, the image and sound data output from the terminal apparatus 7 is transmitted to the terminal apparatus 7 by the input / output processor 11a and the like. Data transmission to the terminal device 7 by the input / output processor 11a and the like will be described later.

入出力プロセッサ11aは、それに接続される構成要素との間でデータの送受信を実行
したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ11
aは、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジ
ュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に
接続される。また、ネットワーク通信モジュール18にはアンテナ22が接続される。コ
ントローラ通信モジュール19にはアンテナ23が接続される。コーデックLSI27は
端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続さ
れる。
The input / output processor 11a performs transmission / reception of data to / from components connected to the input / output processor 11a and downloads data from an external device. Input / output processor 11
a is connected to the flash memory 17, network communication module 18, controller communication module 19, expansion connector 20, memory card connector 21, and codec LSI 27. An antenna 22 is connected to the network communication module 18. An antenna 23 is connected to the controller communication module 19. The codec LSI 27 is connected to a terminal communication module 28, and an antenna 29 is connected to the terminal communication module 28.

ゲーム装置3は、インターネット等のネットワークに接続して外部情報処理装置(例え
ば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。すなわち、入出力
プロセッサ11aは、ネットワーク通信モジュール18およびアンテナ22を介してイン
ターネット等のネットワークに接続し、ネットワークに接続される外部情報処理装置と通
信することができる。入出力プロセッサ11aは、定期的にフラッシュメモリ17にアク
セスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場
合には、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに送
信する。また、入出力プロセッサ11aは、外部情報処理装置から送信されてくるデータ
やダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22およ
びネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ
17に記憶する。CPU10はゲームプログラムを実行することにより、フラッシュメモ
リ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ
17には、ゲーム装置3と外部情報処理装置との間で送受信されるデータの他、ゲーム装
置3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ
)が記憶されてもよい。また、フラッシュメモリ17にはゲームプログラムが記憶されて
もよい。
The game device 3 can connect to a network such as the Internet and communicate with an external information processing device (for example, another game device or various servers). That is, the input / output processor 11a is connected to a network such as the Internet via the network communication module 18 and the antenna 22, and can communicate with an external information processing apparatus connected to the network. The input / output processor 11a periodically accesses the flash memory 17 to detect the presence / absence of data that needs to be transmitted to the network. If there is such data, the input / output processor 11a communicates with the network via the network communication module 18 and the antenna 22. Send. Further, the input / output processor 11a receives data transmitted from the external information processing apparatus or data downloaded from the download server via the network, the antenna 22 and the network communication module 18, and receives the received data in the flash memory 17. Remember. By executing the game program, the CPU 10 reads out the data stored in the flash memory 17 and uses it in the game program. In addition to data transmitted and received between the game apparatus 3 and the external information processing apparatus, the flash memory 17 stores game save data (game result data or intermediate data) played using the game apparatus 3. May be. The flash memory 17 may store a game program.

また、ゲーム装置3は、コントローラ5からの操作データを受信することが可能である
。すなわち、入出力プロセッサ11aは、コントローラ5から送信される操作データをア
ンテナ23およびコントローラ通信モジュール19を介して受信し、内部メインメモリ1
1eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。
The game apparatus 3 can receive operation data from the controller 5. That is, the input / output processor 11a receives the operation data transmitted from the controller 5 via the antenna 23 and the controller communication module 19, and the internal main memory 1
1e or stored in the buffer area of the external main memory 12 (temporary storage).

また、ゲーム装置3は、端末装置7との間で画像や音声等のデータを送受信することが
可能である。入出力プロセッサ11aは、端末装置7へゲーム画像(端末用ゲーム画像)
を送信する場合、GPU11bが生成したゲーム画像のデータをコーデックLSI27へ
出力する。コーデックLSI27は、入出力プロセッサ11aからの画像データに対して
所定の圧縮処理を行う。端末通信モジュール28は、端末装置7との間で無線通信を行う
。したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュ
ール28によってアンテナ29を介して端末装置7へ送信される。なお、本実施形態では
、ゲーム装置3から端末装置7へ送信される画像データはゲームに用いるものであり、ゲ
ームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。そのた
め、ゲーム装置3から端末装置7への画像データの送信に関しては、できるだけ遅延が生
じないようにすることが好ましい。したがって、本実施形態では、コーデックLSI27
は、例えばH.264規格といった高効率の圧縮技術を用いて画像データを圧縮する。な
お、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像
データを送信する構成であってもよい。また、端末通信モジュール28は、例えばWi−
Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用さ
れるMIMO(Multiple Input Multiple Output)の技
術を用いて端末装置7との間の無線通信を高速に行うようにしてもよいし、他の通信方式
を用いてもよい。
Further, the game apparatus 3 can transmit and receive data such as images and sounds to and from the terminal device 7. The input / output processor 11a sends a game image (terminal game image) to the terminal device 7.
, The game image data generated by the GPU 11 b is output to the codec LSI 27. The codec LSI 27 performs predetermined compression processing on the image data from the input / output processor 11a. The terminal communication module 28 performs wireless communication with the terminal device 7. Therefore, the image data compressed by the codec LSI 27 is transmitted to the terminal device 7 via the antenna 29 by the terminal communication module 28. In the present embodiment, the image data transmitted from the game apparatus 3 to the terminal apparatus 7 is used for the game, and if the displayed image is delayed in the game, the operability of the game is adversely affected. For this reason, it is preferable that the transmission of image data from the game apparatus 3 to the terminal device 7 is as little as possible. Therefore, in this embodiment, the codec LSI 27
Is, for example, H. The image data is compressed using a highly efficient compression technique such as H.264 standard. Other compression techniques may be used, and when the communication speed is sufficient, the image data may be transmitted without compression. The terminal communication module 28 is, for example, Wi-
It is a communication module that has been authenticated by Fi, and may perform wireless communication with the terminal device 7 at high speed using, for example, MIMO (Multiple Input Multiple Output) technology adopted in the IEEE 802.11n standard. However, other communication methods may be used.

また、ゲーム装置3は、画像データの他、音声データを端末装置7へ送信する。すなわ
ち、入出力プロセッサ11aは、DSP11cが生成した音声データを、コーデックLS
I27を介して端末通信モジュール28へ出力する。コーデックLSI27は、音声デー
タに対しても画像データと同様に圧縮処理を行う。音声データに対する圧縮の方式は、ど
のような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。ま
た、他の実施形態においては、音声データは圧縮されずに送信されてもよい。端末通信モ
ジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末
装置7へ送信する。
In addition to the image data, the game apparatus 3 transmits audio data to the terminal device 7. That is, the input / output processor 11a converts the audio data generated by the DSP 11c into the codec LS.
The data is output to the terminal communication module 28 via I27. The codec LSI 27 performs compression processing on the audio data in the same manner as the image data. The compression method for the audio data may be any method, but a method with a high compression rate and less deterioration of the sound is preferable. In other embodiments, audio data may be transmitted without being compressed. The terminal communication module 28 transmits the compressed image data and audio data to the terminal device 7 via the antenna 29.

さらに、ゲーム装置3は、上記画像データおよび音声データの他に、必要に応じて各種
の制御データを端末装置7へ送信する。制御データは、端末装置7が備える構成要素に対
する制御指示を表すデータであり、例えばマーカ部(図10に示すマーカ部55)の点灯
を制御する指示や、カメラ(図10に示すカメラ56)の撮像を制御する指示等を表す。
入出力プロセッサ11aは、CPU10の指示に応じて制御データを端末装置7へ送信す
る。なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧
縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。なお、
ゲーム装置3から端末装置7へ送信される上述のデータは、必要に応じて暗号化がされて
いてもよいし、されていなくともよい。
Further, the game apparatus 3 transmits various control data to the terminal apparatus 7 as necessary in addition to the image data and the sound data. The control data is data representing a control instruction for a component included in the terminal device 7, and for example, an instruction for controlling lighting of the marker unit (marker unit 55 shown in FIG. 10) or a camera (camera 56 shown in FIG. 10). Indicates an instruction to control imaging.
The input / output processor 11 a transmits control data to the terminal device 7 in accordance with an instruction from the CPU 10. With respect to this control data, the codec LSI 27 does not perform data compression processing in the present embodiment, but may perform compression processing in other embodiments. In addition,
The above-mentioned data transmitted from the game apparatus 3 to the terminal device 7 may or may not be encrypted as necessary.

また、ゲーム装置3は、端末装置7から各種データを受信可能である。詳細は後述する
が、本実施形態では、端末装置7は、操作データ、画像データ、および音声データを送信
する。端末装置7から送信される各データはアンテナ29を介して端末通信モジュール2
8によって受信される。ここで、端末装置7からの画像データおよび音声データは、ゲー
ム装置3から端末装置7への画像データおよび音声データと同様の圧縮処理が施されてい
る。したがって、これら画像データおよび音声データについては、端末通信モジュール2
8からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施され
て入出力プロセッサ11aに出力される。一方、端末装置7からの操作データに関しては
、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。また
、必要に応じて暗号化がされていてもよいし、されていなくともよい。したがって、操作
データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出
力プロセッサ11aに出力される。入出力プロセッサ11aは、端末装置7から受信した
データを、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(
一時記憶)する。
The game apparatus 3 can receive various data from the terminal device 7. Although details will be described later, in the present embodiment, the terminal device 7 transmits operation data, image data, and audio data. Each data transmitted from the terminal device 7 is transmitted to the terminal communication module 2 via the antenna 29.
8 is received. Here, the image data and audio data from the terminal device 7 are subjected to the same compression processing as the image data and audio data from the game device 3 to the terminal device 7. Therefore, for these image data and audio data, the terminal communication module 2
8 is sent to the codec LSI 27, decompressed by the codec LSI 27, and output to the input / output processor 11a. On the other hand, the operation data from the terminal device 7 has a smaller amount of data than images and sounds, and therefore may not be subjected to compression processing. Further, encryption may or may not be performed as necessary. Accordingly, the operation data is received by the terminal communication module 28 and then output to the input / output processor 11 a via the codec LSI 27. The input / output processor 11a stores the data received from the terminal device 7 in the buffer area of the internal main memory 11e or the external main memory 12 (
Temporarily store).

また、ゲーム装置3は、他の機器や外部記憶媒体に接続することが可能である。すなわ
ち、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21
が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのため
のコネクタである。拡張コネクタ20に対しては、外部記憶媒体のようなメディアを接続
したり、他のコントローラ等の周辺機器を接続したり、有線の通信用コネクタを接続する
ことによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったり
することができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体
を接続するためのコネクタである。例えば、入出力プロセッサ11aは、拡張コネクタ2
0やメモリカード用コネクタ21を介して外部記憶媒体にアクセスし、外部記憶媒体にデ
ータを保存したり、外部記憶媒体からデータを読み出したりすることができる。
Further, the game apparatus 3 can be connected to another device or an external storage medium. That is, the input / output processor 11a includes an expansion connector 20 and a memory card connector 21.
Is connected. The expansion connector 20 is a connector for an interface such as USB or SCSI. A network such as an external storage medium is connected to the expansion connector 20, a peripheral device such as another controller is connected, or a wired communication connector is connected to replace the network communication module 18 with a network. You can communicate with. The memory card connector 21 is a connector for connecting an external storage medium such as a memory card. For example, the input / output processor 11a is connected to the expansion connector 2
0 or the memory card connector 21 can be used to access an external storage medium to store data in the external storage medium or read data from the external storage medium.

ゲーム装置3には、電源ボタン24、リセットボタン25、およびイジェクトボタン2
6が設けられる。電源ボタン24およびリセットボタン25は、システムLSI11に接
続される。電源ボタン24がオンされると、図示しないACアダプタによって外部の電源
からゲーム装置3の各構成要素に対して電力が供給される。リセットボタン25が押され
ると、システムLSI11は、ゲーム装置3の起動プログラムを再起動する。イジェクト
ボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると
、ディスクドライブ14から光ディスク4が排出される。
The game apparatus 3 includes a power button 24, a reset button 25, and an eject button 2.
6 is provided. The power button 24 and the reset button 25 are connected to the system LSI 11. When the power button 24 is turned on, power is supplied to each component of the game apparatus 3 from an external power source by an AC adapter (not shown). When the reset button 25 is pressed, the system LSI 11 restarts the boot program for the game apparatus 3. The eject button 26 is connected to the disk drive 14. When the eject button 26 is pressed, the optical disk 4 is ejected from the disk drive 14.

なお、他の実施形態においては、ゲーム装置3が備える各構成要素のうちでいくつかの
構成要素は、ゲーム装置3とは別体の拡張機器として構成されてもよい。このとき、拡張
機器は、例えば上記拡張コネクタ20を介してゲーム装置3と接続されるようにしてもよ
い。具体的には、拡張機器は、例えば上記コーデックLSI27、端末通信モジュール2
8およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能で
あってもよい。これによれば、上記各構成要素を備えていないゲーム装置に対して上記拡
張機器を接続することによって、当該ゲーム装置を端末装置7と通信可能な構成とするこ
とができる。
In other embodiments, some of the components included in the game apparatus 3 may be configured as expansion devices that are separate from the game apparatus 3. At this time, the expansion device may be connected to the game apparatus 3 via the expansion connector 20, for example. Specifically, the extension device is, for example, the codec LSI 27, the terminal communication module 2 or the like.
8 and the antenna 29 may be provided and detachable from the expansion connector 20. According to this, the said game device can be set as the structure which can communicate with the terminal device 7 by connecting the said expansion apparatus with respect to the game device which is not provided with said each component.

[3.コントローラ5の構成]
次に、図3〜図7を参照して、コントローラ5について説明する。図3は、コントロー
ラ5の外観構成を示す斜視図である。図4は、コントローラ5の外観構成を示す斜視図で
ある。図3は、コントローラ5の上側後方から見た斜視図であり、図4は、コントローラ
5を下側前方から見た斜視図である。
[3. Configuration of controller 5]
Next, the controller 5 will be described with reference to FIGS. FIG. 3 is a perspective view showing an external configuration of the controller 5. FIG. 4 is a perspective view showing an external configuration of the controller 5. 3 is a perspective view of the controller 5 as seen from the upper rear side, and FIG. 4 is a perspective view of the controller 5 as seen from the lower front side.

図3および図4において、コントローラ5は、例えばプラスチック成型によって形成さ
れたハウジング31を有している。ハウジング31は、その前後方向(図3に示すZ軸方
向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可
能な大きさである。ユーザは、コントローラ5に設けられたボタンを押下すること、およ
び、コントローラ5自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム
操作を行うことができる。
3 and 4, the controller 5 includes a housing 31 formed by plastic molding, for example. The housing 31 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction (the Z-axis direction shown in FIG. 3), and is a size that can be gripped with one hand of an adult or a child as a whole. The user can perform a game operation by pressing a button provided on the controller 5 and moving the controller 5 itself to change its position and posture (tilt).

ハウジング31には、複数の操作ボタンが設けられる。図3に示すように、ハウジング
31の上面には、十字ボタン32a、1番ボタン32b、2番ボタン32c、Aボタン3
2d、マイナスボタン32e、ホームボタン32f、プラスボタン32g、および電源ボ
タン32hが設けられる。本明細書では、これらのボタン32a〜32hが設けられるハ
ウジング31の上面を「ボタン面」と呼ぶことがある。一方、図4に示すように、ハウジ
ング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32i
が設けられる。これらの各操作ボタン32a〜32iには、ゲーム装置3が実行する情報
処理プログラムに応じた機能が適宜割り当てられる。また、電源ボタン32hは遠隔から
ゲーム装置3本体の電源をオン/オフするためのものである。ホームボタン32fおよび
電源ボタン32hは、その上面がハウジング31の上面に埋没している。これによって、
ユーザがホームボタン32fまたは電源ボタン32hを誤って押下することを防止するこ
とができる。
The housing 31 is provided with a plurality of operation buttons. As shown in FIG. 3, on the upper surface of the housing 31, a cross button 32a, a first button 32b, a second button 32c, an A button 3
2d, a minus button 32e, a home button 32f, a plus button 32g, and a power button 32h are provided. In the present specification, the upper surface of the housing 31 on which these buttons 32a to 32h are provided may be referred to as a “button surface”. On the other hand, as shown in FIG. 4, a recess is formed on the lower surface of the housing 31, and a B button 32i is formed on the rear inclined surface of the recess.
Is provided. A function corresponding to the information processing program executed by the game apparatus 3 is appropriately assigned to each of the operation buttons 32a to 32i. The power button 32h is for remotely turning on / off the main body of the game apparatus 3. The home button 32 f and the power button 32 h are embedded in the upper surface of the housing 31. by this,
It is possible to prevent the user from pressing the home button 32f or the power button 32h by mistake.

ハウジング31の後面にはコネクタ33が設けられている。コネクタ33は、コントロ
ーラ5に他の機器(例えば、他のセンサユニットやコントローラ)を接続するために利用
される。また、ハウジング31の後面におけるコネクタ33の両側には、上記他の機器が
容易に離脱することを防止するために係止穴33aが設けられている。
A connector 33 is provided on the rear surface of the housing 31. The connector 33 is used to connect another device (for example, another sensor unit or controller) to the controller 5. Further, locking holes 33a are provided on both sides of the connector 33 on the rear surface of the housing 31 in order to prevent the other devices from being easily detached.

ハウジング31上面の後方には複数(図3では4つ)のLED34a〜34dが設けら
れる。ここで、コントローラ5には、他のコントローラと区別するためにコントローラ種
別(番号)が付与される。各LED34a〜34dは、コントローラ5に現在設定されて
いる上記コントローラ種別をユーザに通知したり、コントローラ5の電池残量をユーザに
通知したりする等の目的で用いられる。具体的には、コントローラ5を用いてゲーム操作
が行われる際、上記コントローラ種別に応じて複数のLED34a〜34dのいずれか1
つが点灯する。
A plurality (four in FIG. 3) of LEDs 34 a to 34 d are provided behind the upper surface of the housing 31. Here, the controller type (number) is assigned to the controller 5 to distinguish it from other controllers. The LEDs 34a to 34d are used for the purpose of notifying the user of the controller type currently set in the controller 5 and notifying the user of the remaining battery level of the controller 5. Specifically, when a game operation is performed using the controller 5, any one of the plurality of LEDs 34a to 34d is selected according to the controller type.
Lights up.

また、コントローラ5は撮像情報演算部35(図6)を有しており、図4に示すように
、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。光入射面
35aは、マーカ6Rおよび6Lからの赤外光を少なくとも透過する材質で構成される。
Further, the controller 5 has an imaging information calculation unit 35 (FIG. 6), and a light incident surface 35a of the imaging information calculation unit 35 is provided on the front surface of the housing 31 as shown in FIG. The light incident surface 35a is made of a material that transmits at least infrared light from the markers 6R and 6L.

ハウジング31上面における1番ボタン32bとホームボタン32fとの間には、コン
トローラ5に内蔵されるスピーカ47(図5)からの音を外部に放出するための音抜き孔
31aが形成されている。
A sound release hole 31a is formed between the first button 32b and the home button 32f on the upper surface of the housing 31 for emitting sound from the speaker 47 (FIG. 5) built in the controller 5 to the outside.

次に、図5および図6を参照して、コントローラ5の内部構造について説明する。図5
および図6は、コントローラ5の内部構造を示す図である。なお、図5は、コントローラ
5の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6は、コント
ローラ5の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6に示
す斜視図は、図5に示す基板30を裏面から見た斜視図となっている。
Next, the internal structure of the controller 5 will be described with reference to FIGS. FIG.
FIG. 6 is a diagram illustrating the internal structure of the controller 5. FIG. 5 is a perspective view showing a state in which the upper housing (a part of the housing 31) of the controller 5 is removed. FIG. 6 is a perspective view showing a state in which the lower casing (a part of the housing 31) of the controller 5 is removed. The perspective view shown in FIG. 6 is a perspective view of the substrate 30 shown in FIG.

図5において、ハウジング31の内部には基板30が固設されており、当該基板30の
上主面上に各操作ボタン32a〜32h、各LED34a〜34d、加速度センサ37、
アンテナ45、およびスピーカ47等が設けられる。これらは、基板30等に形成された
配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイ
コン)42(図6参照)に接続される。本実施形態では、加速度センサ37は、X軸方向
に関してコントローラ5の中心からずれた位置に配置されている。これによって、コント
ローラ5をZ軸回りに回転させたときのコントローラ5の動きが算出しやすくなる。また
、加速度センサ37は、長手方向(Z軸方向)に関してコントローラ5の中心よりも前方
に配置されている。また、無線モジュール44(図6)およびアンテナ45によって、コ
ントローラ5がワイヤレスコントローラとして機能する。
In FIG. 5, a substrate 30 is fixed inside the housing 31, and each operation button 32 a to 32 h, each LED 34 a to 34 d, an acceleration sensor 37,
An antenna 45, a speaker 47, and the like are provided. These are connected to a microcomputer (microcomputer) 42 (see FIG. 6) by wiring (not shown) formed on the substrate 30 and the like. In the present embodiment, the acceleration sensor 37 is disposed at a position shifted from the center of the controller 5 with respect to the X-axis direction. This makes it easier to calculate the movement of the controller 5 when the controller 5 is rotated about the Z axis. The acceleration sensor 37 is disposed in front of the center of the controller 5 in the longitudinal direction (Z-axis direction). Further, the controller 5 functions as a wireless controller by the wireless module 44 (FIG. 6) and the antenna 45.

一方、図6において、基板30の下主面上の前端縁に撮像情報演算部35が設けられる
。撮像情報演算部35は、コントローラ5の前方から順に赤外線フィルタ38、レンズ3
9、撮像素子40、および画像処理回路41を備えている。これらの部材38〜41はそ
れぞれ基板30の下主面に取り付けられる。
On the other hand, in FIG. 6, an imaging information calculation unit 35 is provided at the front edge on the lower main surface of the substrate 30. The imaging information calculation unit 35 includes an infrared filter 38 and a lens 3 in order from the front of the controller 5.
9, an image sensor 40 and an image processing circuit 41 are provided. These members 38 to 41 are respectively attached to the lower main surface of the substrate 30.

さらに、基板30の下主面上には、上記マイコン42およびバイブレータ46が設けら
れている。バイブレータ46は、例えば振動モータやソレノイドであり、基板30等に形
成された配線によってマイコン42と接続される。マイコン42の指示によりバイブレー
タ46が作動することによってコントローラ5に振動が発生する。これによって、コント
ローラ5を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを
実現することができる。本実施形態では、バイブレータ46は、ハウジング31のやや前
方寄りに配置される。つまり、バイブレータ46がコントローラ5の中心よりも端側に配
置することによって、バイブレータ46の振動によりコントローラ5全体を大きく振動さ
せることができる。また、コネクタ33は、基板30の下主面上の後端縁に取り付けられ
る。なお、図5および図6に示す他、コントローラ5は、マイコン42の基本クロックを
生成する水晶振動子、スピーカ47に音声信号を出力するアンプ等を備えている。
Further, the microcomputer 42 and the vibrator 46 are provided on the lower main surface of the substrate 30. The vibrator 46 is, for example, a vibration motor or a solenoid, and is connected to the microcomputer 42 by wiring formed on the substrate 30 or the like. When the vibrator 46 is actuated by an instruction from the microcomputer 42, vibration is generated in the controller 5. As a result, a so-called vibration-compatible game in which the vibration is transmitted to the user's hand holding the controller 5 can be realized. In the present embodiment, the vibrator 46 is disposed slightly forward of the housing 31. That is, by arranging the vibrator 46 on the end side of the center of the controller 5, the entire controller 5 can be vibrated greatly by the vibration of the vibrator 46. The connector 33 is attached to the rear edge on the lower main surface of the substrate 30. 5 and 6, the controller 5 includes a crystal resonator that generates a basic clock of the microcomputer 42, an amplifier that outputs an audio signal to the speaker 47, and the like.

なお、図3〜図6に示したコントローラ5の形状や、各操作ボタンの形状、加速度セン
サやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設
置位置であってもよい。また、本実施形態では、撮像手段による撮像方向はZ軸正方向で
あるが、撮像方向はいずれの方向であってもよい。すなわち、コントローラ5における撮
像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の
前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に
設けられてもかまわない。
The shape of the controller 5, the shape of each operation button, the number of acceleration sensors and vibrators, and the installation positions shown in FIGS. 3 to 6 are merely examples, and other shapes, numbers, and installation positions may be used. May be. In the present embodiment, the imaging direction by the imaging unit is the positive Z-axis direction, but the imaging direction may be any direction. That is, the position of the imaging information calculation unit 35 in the controller 5 (the light incident surface 35a of the imaging information calculation unit 35) does not have to be the front surface of the housing 31, and other surfaces can be used as long as light can be taken from the outside of the housing 31. May be provided.

図7は、コントローラ5の構成を示すブロック図である。コントローラ5は、操作部3
2(各操作ボタン32a〜32i)、撮像情報演算部35、通信部36、加速度センサ3
7、およびジャイロセンサ48を備えている。コントローラ5は、自機に対して行われた
操作内容を表すデータを操作データとしてゲーム装置3へ送信するものである。なお、以
下では、コントローラ5が送信する操作データを「コントローラ操作データ」と呼び、端
末装置7が送信する操作データを「端末操作データ」と呼ぶことがある。
FIG. 7 is a block diagram showing the configuration of the controller 5. The controller 5 includes an operation unit 3
2 (each operation button 32a-32i), the imaging information calculating part 35, the communication part 36, and the acceleration sensor 3
7 and a gyro sensor 48. The controller 5 transmits data representing the content of the operation performed on the own device to the game apparatus 3 as operation data. Hereinafter, the operation data transmitted from the controller 5 may be referred to as “controller operation data”, and the operation data transmitted from the terminal device 7 may be referred to as “terminal operation data”.

操作部32は、上述した各操作ボタン32a〜32iを含み、各操作ボタン32a〜3
2iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を表す操作ボ
タンデータを通信部36のマイコン42へ出力する。
The operation unit 32 includes the operation buttons 32 a to 32 i described above, and the operation buttons 32 a to 3.
Operation button data representing an input state for 2i (whether or not each of the operation buttons 32a to 32i has been pressed) is output to the microcomputer 42 of the communication unit 36.

撮像情報演算部35は、撮像手段が撮像した画像データを解析してその中で輝度が高い
領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。撮像
情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので
、比較的高速なコントローラ5の動きでも追跡して解析することができる。
The imaging information calculation unit 35 is a system for analyzing the image data captured by the imaging unit, discriminating a region having a high luminance in the image data, and calculating a center of gravity position, a size, and the like of the region. Since the imaging information calculation unit 35 has a sampling period of, for example, about 200 frames / second at the maximum, it can track and analyze even a relatively fast movement of the controller 5.

撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像
処理回路41を含んでいる。赤外線フィルタ38は、コントローラ5の前方から入射する
光から赤外線のみを通過させる。レンズ39は、赤外線フィルタ38を透過した赤外線を
集光して撮像素子40へ入射させる。撮像素子40は、例えばCMOSセンサやあるいは
CCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像
信号を出力する。ここで、撮像対象となる端末装置7のマーカ部55およびマーカ装置6
は、赤外光を出力するマーカで構成される。したがって、赤外線フィルタ38を設けるこ
とによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像
データを生成するので、撮像対象(マーカ部55および/またはマーカ装置6)の画像を
より正確に撮像することができる。以下では、撮像素子40によって撮像された画像を撮
像画像と呼ぶ。撮像素子40によって生成された画像データは、画像処理回路41で処理
される。画像処理回路41は、撮像画像内における撮像対象の位置を算出する。画像処理
回路41は、算出された位置を示す座標を通信部36のマイコン42へ出力する。この座
標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。以下
では、上記座標を「マーカ座標」と呼ぶ。マーカ座標はコントローラ5自体の向き(傾斜
角度)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントロ
ーラ5の向きや位置を算出することができる。
The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41. The infrared filter 38 passes only infrared rays from the light incident from the front of the controller 5. The lens 39 collects the infrared light transmitted through the infrared filter 38 and makes it incident on the image sensor 40. The image sensor 40 is a solid-state image sensor such as a CMOS sensor or a CCD sensor, for example, and receives the infrared light collected by the lens 39 and outputs an image signal. Here, the marker unit 55 and the marker device 6 of the terminal device 7 to be imaged.
Consists of markers that output infrared light. Therefore, by providing the infrared filter 38, the image sensor 40 receives only the infrared light that has passed through the infrared filter 38 and generates image data. Therefore, the image of the imaging target (the marker unit 55 and / or the marker device 6) is captured. More accurate imaging can be performed. Hereinafter, an image captured by the image sensor 40 is referred to as a captured image. Image data generated by the image sensor 40 is processed by the image processing circuit 41. The image processing circuit 41 calculates the position of the imaging target in the captured image. The image processing circuit 41 outputs coordinates indicating the calculated position to the microcomputer 42 of the communication unit 36. The coordinate data is transmitted to the game apparatus 3 as operation data by the microcomputer 42. Hereinafter, the coordinates are referred to as “marker coordinates”. Since the marker coordinates change corresponding to the direction (tilt angle) and position of the controller 5 itself, the game apparatus 3 can calculate the direction and position of the controller 5 using the marker coordinates.

なお、他の実施形態においては、コントローラ5は画像処理回路41を備えていない構
成であってもよく、撮像画像自体がコントローラ5からゲーム装置3へ送信されてもよい
。このとき、ゲーム装置3は、画像処理回路41と同様の機能を有する回路あるいはプロ
グラムを有しており、上記マーカ座標を算出するようにしてもよい。
In other embodiments, the controller 5 may not include the image processing circuit 41, and the captured image itself may be transmitted from the controller 5 to the game apparatus 3. At this time, the game apparatus 3 may have a circuit or a program having the same function as the image processing circuit 41, and may calculate the marker coordinates.

加速度センサ37は、コントローラ5の加速度(重力加速度を含む)を検出する、すな
わち、コントローラ5に加わる力(重力を含む)を検出する。加速度センサ37は、当該
加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線
方向の加速度(直線加速度)の値を検出する。例えば、2軸以上の多軸加速度センサの場
合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度
をそれぞれ検出する。なお、加速度センサ37は、例えば静電容量式のMEMS(Mic
ro Electro Mechanical System)型加速度センサであると
するが、他の方式の加速度センサを用いるようにしてもよい。
The acceleration sensor 37 detects the acceleration (including gravity acceleration) of the controller 5, that is, detects the force (including gravity) applied to the controller 5. The acceleration sensor 37 detects the value of the acceleration (linear acceleration) in the linear direction along the sensing axis direction among the accelerations applied to the detection unit of the acceleration sensor 37. For example, in the case of a multi-axis acceleration sensor having two or more axes, the component acceleration along each axis is detected as the acceleration applied to the detection unit of the acceleration sensor. The acceleration sensor 37 is, for example, a capacitive MEMS (Mic
(Ro Electro Mechanical System) type acceleration sensor, but other types of acceleration sensors may be used.

本実施形態では、加速度センサ37は、コントローラ5を基準とした上下方向(図3に
示すY軸方向)、左右方向(図3に示すX軸方向)および前後方向(図3に示すZ軸方向
)の3軸方向に関してそれぞれ直線加速度を検出する。加速度センサ37は、各軸に沿っ
た直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3
軸それぞれの直線加速度の値を表すものとなる。すなわち、検出された加速度は、コント
ローラ5を基準に設定されるXYZ座標系(コントローラ座標系)における3次元のベク
トルとして表される。
In the present embodiment, the acceleration sensor 37 has a vertical direction (Y-axis direction shown in FIG. 3), a horizontal direction (X-axis direction shown in FIG. 3), and a front-back direction (Z-axis direction shown in FIG. 3) with reference to the controller 5. ) Linear acceleration is detected in each of the three axis directions. Since the acceleration sensor 37 detects acceleration in a linear direction along each axis, the output from the acceleration sensor 37 is 3
It represents the linear acceleration value of each axis. That is, the detected acceleration is represented as a three-dimensional vector in an XYZ coordinate system (controller coordinate system) set with the controller 5 as a reference.

加速度センサ37が検出した加速度を表すデータ(加速度データ)は、通信部36へ出
力される。なお、加速度センサ37が検出した加速度は、コントローラ5自体の向き(傾
斜角度)や動きに対応して変化するので、ゲーム装置3は取得された加速度データを用い
てコントローラ5の向きや動きを算出することができる。本実施形態では、ゲーム装置3
は、取得された加速度データに基づいてコントローラ5の姿勢や傾斜角度等を算出する。
Data representing the acceleration detected by the acceleration sensor 37 (acceleration data) is output to the communication unit 36. The acceleration detected by the acceleration sensor 37 changes in accordance with the direction (tilt angle) and movement of the controller 5 itself, so the game apparatus 3 calculates the direction and movement of the controller 5 using the acquired acceleration data. can do. In the present embodiment, the game apparatus 3
Calculates the posture, inclination angle, and the like of the controller 5 based on the acquired acceleration data.

なお、加速度センサ37(後述する加速度センサ73についても同様)から出力される
加速度の信号に基づいて、ゲーム装置3のプロセッサ(例えばCPU10)またはコント
ローラ5のプロセッサ(例えばマイコン42)等のコンピュータが処理を行うことによっ
て、コントローラ5に関するさらなる情報を推測または算出(判定)することができるこ
とは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、加速度セ
ンサ37を搭載するコントローラ5が静止状態であることを前提としてコンピュータ側の
処理が実行される場合(すなわち、加速度センサによって検出される加速度が重力加速度
のみであるとして処理が実行される場合)、コントローラ5が現実に静止状態であれば、
検出された加速度に基づいてコントローラ5の姿勢が重力方向に対して傾いているか否か
またはどの程度傾いているかを知ることができる。具体的には、加速度センサ37の検出
軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっている
か否かによって、コントローラ5が基準に対して傾いているか否かを知ることができるし
、その大きさによって基準に対してどの程度傾いているかも知ることができる。また、多
軸の加速度センサ37の場合には、さらに各軸の加速度の信号に対して処理を施すことに
よって、重力方向に対してコントローラ5がどの程度傾いているかをより詳細に知ること
ができる。この場合において、プロセッサは、加速度センサ37からの出力に基づいてコ
ントローラ5の傾斜角度を算出してもよいし、当該傾斜角度を算出せずに、コントローラ
5の傾斜方向を算出するようにしてもよい。このように、加速度センサ37をプロセッサ
と組み合わせて用いることによって、コントローラ5の傾斜角度または姿勢を判定するこ
とができる。
A computer such as a processor of the game apparatus 3 (for example, the CPU 10) or a processor of the controller 5 (for example, the microcomputer 42) is processed based on an acceleration signal output from the acceleration sensor 37 (the same applies to an acceleration sensor 73 described later). It can be easily understood by those skilled in the art from the description of the present specification that by performing the above, it is possible to estimate or calculate (determine) further information regarding the controller 5. For example, when processing on the computer side is executed on the assumption that the controller 5 on which the acceleration sensor 37 is mounted is stationary (that is, the processing is executed assuming that the acceleration detected by the acceleration sensor is only gravitational acceleration). Case), if the controller 5 is actually stationary,
Based on the detected acceleration, whether or not the attitude of the controller 5 is inclined with respect to the direction of gravity can be known. Specifically, whether or not the controller 5 is inclined with respect to the reference depending on whether or not 1G (gravity acceleration) is applied, based on the state in which the detection axis of the acceleration sensor 37 is directed vertically downward. It is possible to know how much it is inclined with respect to the reference according to its size. Further, in the case of the multi-axis acceleration sensor 37, it is possible to know in detail how much the controller 5 is inclined with respect to the direction of gravity by further processing the acceleration signal of each axis. . In this case, the processor may calculate the tilt angle of the controller 5 based on the output from the acceleration sensor 37, or may calculate the tilt direction of the controller 5 without calculating the tilt angle. Good. Thus, by using the acceleration sensor 37 in combination with the processor, the tilt angle or posture of the controller 5 can be determined.

一方、コントローラ5が動的な状態(コントローラ5が動かされている状態)であるこ
とを前提とする場合には、加速度センサ37は重力加速度に加えてコントローラ5の動き
に応じた加速度を検出するので、検出された加速度から重力加速度の成分を所定の処理に
より除去することによってコントローラ5の動き方向を知ることができる。また、コント
ローラ5が動的な状態であることを前提とする場合であっても、検出された加速度から、
加速度センサの動きに応じた加速度の成分を所定の処理により除去することによって、重
力方向に対するコントローラ5の傾きを知ることが可能である。なお、他の実施例では、
加速度センサ37は、内蔵の加速度検出手段で検出された加速度信号をマイコン42に出
力する前に当該加速度信号に対して所定の処理を行うための、組込み式の処理装置または
他の種類の専用の処理装置を備えていてもよい。組込み式または専用の処理装置は、例え
ば、加速度センサ37が静的な加速度(例えば、重力加速度)を検出するために用いられ
る場合、加速度信号を傾斜角(あるいは、他の好ましいパラメータ)に変換するものであ
ってもよい。
On the other hand, when it is assumed that the controller 5 is in a dynamic state (a state in which the controller 5 is moved), the acceleration sensor 37 detects an acceleration corresponding to the movement of the controller 5 in addition to the gravitational acceleration. Therefore, the movement direction of the controller 5 can be known by removing the gravitational acceleration component from the detected acceleration by a predetermined process. Even if it is assumed that the controller 5 is in a dynamic state, from the detected acceleration,
By removing the acceleration component according to the motion of the acceleration sensor by a predetermined process, it is possible to know the inclination of the controller 5 with respect to the direction of gravity. In other embodiments,
The acceleration sensor 37 is a built-in processing device or another type of dedicated device for performing predetermined processing on the acceleration signal before outputting the acceleration signal detected by the built-in acceleration detection means to the microcomputer 42. A processing device may be provided. A built-in or dedicated processing device converts the acceleration signal into a tilt angle (or other preferred parameter) if, for example, the acceleration sensor 37 is used to detect static acceleration (eg, gravitational acceleration). It may be a thing.

ジャイロセンサ48は、3軸(本実施形態では、XYZ軸)回りの角速度を検出する。
本明細書では、コントローラ5の撮像方向(Z軸正方向)を基準として、X軸回りの回転
方向をピッチ方向、Y軸回りの回転方向をヨー方向、Z軸回りの回転方向をロール方向と
呼ぶ。ジャイロセンサ48は、3軸回りの角速度を検出することができればよく、用いる
ジャイロセンサの数および組み合わせはどのようなものであってもよい。例えば、ジャイ
ロセンサ48は、3軸ジャイロセンサであってもよいし、2軸ジャイロセンサと1軸ジャ
イロセンサとを組み合わせて3軸周りの角速度を検出するものであってもよい。ジャイロ
センサ48で検出された角速度を表すデータは、通信部36へ出力される。また、ジャイ
ロセンサ48は1軸または2軸回りの角速度を検出するものであってもよい。
The gyro sensor 48 detects angular velocities about three axes (XYZ axes in the present embodiment).
In this specification, with the imaging direction (Z-axis positive direction) of the controller 5 as a reference, the rotation direction around the X axis is the pitch direction, the rotation direction around the Y axis is the yaw direction, and the rotation direction around the Z axis is the roll direction. Call. The gyro sensor 48 only needs to be able to detect angular velocities about three axes, and any number and combination of gyro sensors may be used. For example, the gyro sensor 48 may be a three-axis gyro sensor or a combination of a two-axis gyro sensor and a one-axis gyro sensor to detect an angular velocity around three axes. Data representing the angular velocity detected by the gyro sensor 48 is output to the communication unit 36. Further, the gyro sensor 48 may detect an angular velocity around one axis or two axes.

通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45
を含んでいる。マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら
、マイコン42が取得したデータをゲーム装置3へ無線送信する無線モジュール44を制
御する。
The communication unit 36 includes a microcomputer 42, a memory 43, a wireless module 44, and an antenna 45.
Is included. The microcomputer 42 controls the wireless module 44 that wirelessly transmits data acquired by the microcomputer 42 to the game apparatus 3 while using the memory 43 as a storage area when performing processing.

操作部32、撮像情報演算部35、加速度センサ37、およびジャイロセンサ48から
マイコン42へ出力されたデータは、一時的にメモリ43に格納される。これらのデータ
は、操作データ(コントローラ操作データ)としてゲーム装置3へ送信される。すなわち
、マイコン42は、ゲーム装置3のコントローラ通信モジュール19への送信タイミング
が到来すると、メモリ43に格納されている操作データを無線モジュール44へ出力する
。無線モジュール44は、例えばBluetooth(ブルートゥース)(登録商標)の
技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ
45から放射する。つまり、操作データは、無線モジュール44で微弱電波信号に変調さ
れてコントローラ5から送信される。微弱電波信号はゲーム装置3側のコントローラ通信
モジュール19で受信される。受信された微弱電波信号について復調や復号を行うことに
よって、ゲーム装置3は操作データを取得することができる。そして、ゲーム装置3のC
PU10は、コントローラ5から取得した操作データを用いてゲーム処理を行う。なお、
通信部36からコントローラ通信モジュール19への無線送信は所定の周期毎に逐次行わ
れるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われること
が一般的であるので、この時間以下の周期で送信を行うことが好ましい。コントローラ5
の通信部36は、例えば1/200秒に1回の割合で操作データをゲーム装置3のコント
ローラ通信モジュール19へ出力する。
Data output from the operation unit 32, the imaging information calculation unit 35, the acceleration sensor 37, and the gyro sensor 48 to the microcomputer 42 is temporarily stored in the memory 43. These data are transmitted to the game apparatus 3 as operation data (controller operation data). That is, the microcomputer 42 outputs the operation data stored in the memory 43 to the wireless module 44 when the transmission timing to the controller communication module 19 of the game apparatus 3 arrives. The wireless module 44 modulates a carrier wave of a predetermined frequency with operation data using, for example, Bluetooth (registered trademark) technology, and radiates a weak radio signal from the antenna 45. That is, the operation data is modulated by the wireless module 44 into a weak radio signal and transmitted from the controller 5. The weak radio signal is received by the controller communication module 19 on the game apparatus 3 side. By demodulating and decoding the received weak radio signal, the game apparatus 3 can acquire operation data. And C of the game apparatus 3
The PU 10 performs a game process using the operation data acquired from the controller 5. In addition,
Although wireless transmission from the communication unit 36 to the controller communication module 19 is sequentially performed every predetermined cycle, the game processing is generally performed in units of 1/60 seconds (one frame time). It is preferable to perform transmission with a period less than this time. Controller 5
The communication unit 36 outputs the operation data to the controller communication module 19 of the game apparatus 3 at a rate of once every 1/200 seconds, for example.

以上のように、コントローラ5は、自機に対する操作を表す操作データとして、マーカ
座標データ、加速度データ、角速度データ、および操作ボタンデータを送信可能である。
また、ゲーム装置3は、上記操作データをゲーム入力として用いてゲーム処理を実行する
。したがって、上記コントローラ5を用いることによって、ユーザは、各操作ボタンを押
下する従来の一般的なゲーム操作に加えて、コントローラ5自体を動かすゲーム操作を行
うことができる。例えば、コントローラ5を任意の姿勢に傾ける操作、コントローラ5に
よって画面上の任意の位置を指示する操作、および、コントローラ5自体を動かす操作等
を行うことが可能となる。
As described above, the controller 5 can transmit the marker coordinate data, the acceleration data, the angular velocity data, and the operation button data as the operation data representing the operation on the own device.
Further, the game apparatus 3 executes a game process using the operation data as a game input. Therefore, by using the controller 5, the user can perform a game operation for moving the controller 5 itself in addition to the conventional general game operation for pressing each operation button. For example, an operation of tilting the controller 5 to an arbitrary posture, an operation of instructing an arbitrary position on the screen by the controller 5, an operation of moving the controller 5 itself, and the like can be performed.

また、本実施形態において、コントローラ5は、ゲーム画像を表示する表示手段を有し
ないが、例えば電池残量を表す画像等を表示するための表示手段を有していてもよい。
In the present embodiment, the controller 5 does not have a display unit that displays a game image, but may include a display unit that displays, for example, an image representing the remaining battery level.

[4.端末装置7の構成]
次に、図8〜図13を参照して、端末装置7の構成について説明する。図8は、端末装
置7の外観構成を示す平面図である。図8における(a)図は端末装置7の正面図であり
、(b)図は上面図であり、(c)図は右側面図であり、(d)図は下面図である。図9
は端末装置7の背面図である。また、図10および図11は、ユーザが端末装置7を横向
きで把持した様子を示す図である。図12および図13は、ユーザが端末装置7を縦向き
で把持した様子を示す図である。
[4. Configuration of Terminal Device 7]
Next, the configuration of the terminal device 7 will be described with reference to FIGS. FIG. 8 is a plan view showing an external configuration of the terminal device 7. 8A is a front view of the terminal device 7, FIG. 8B is a top view, FIG. 8C is a right side view, and FIG. 8D is a bottom view. FIG.
FIG. 4 is a rear view of the terminal device 7. FIG. 10 and FIG. 11 are diagrams showing a state where the user holds the terminal device 7 sideways. 12 and 13 are diagrams illustrating a state where the user holds the terminal device 7 in the vertical direction.

図8に示されるように、端末装置7は、大略的には横長の長方形の板状形状であるハウ
ジング50を備える。ハウジング50は、ユーザが把持することができる程度の大きさで
ある。したがって、ユーザは、端末装置7を持って動かしたり、端末装置7の配置位置を
変更したりすることができる。端末装置7の縦(z軸方向)の長さは、100〜150[
mm]が好ましく、本実施形態では、133.5[mm]である。端末装置7の横(x軸
方向)の長さは、200〜250[mm]が好ましく、本実施形態では、228.26[
mm]である。端末装置7の厚さ(y軸方向の長さ)は、板状の部分で15〜30[mm
]程度、最厚部まで含めて30〜50[mm]程度が好ましく、本実施形態では、23.
6(最厚部は40.26)[mm]である。また、端末装置7の重量は、400〜600
[g]程度であって、本実施形態においては、530[g]である。詳細は後述するが、
端末装置7は、上記のような比較的大型の端末装置(操作装置)であっても、ユーザが持
ちやすく操作しやすい構成となっている。
As shown in FIG. 8, the terminal device 7 includes a housing 50 that is generally a horizontally-long rectangular plate shape. The housing 50 is large enough to be gripped by the user. Therefore, the user can move the terminal apparatus 7 or change the arrangement position of the terminal apparatus 7. The vertical length (z-axis direction) of the terminal device 7 is 100 to 150 [
mm] is preferable, and in the present embodiment, it is 133.5 [mm]. The lateral (x-axis direction) length of the terminal device 7 is preferably 200 to 250 [mm]. In this embodiment, 228.26 [
mm]. The terminal device 7 has a thickness (length in the y-axis direction) of 15 to 30 [mm at the plate-like portion.
] And about 30-50 [mm] including the thickest part is preferable. In this embodiment, 23.
6 (the thickest part is 40.26) [mm]. Moreover, the weight of the terminal device 7 is 400-600.
[G] is about 530 [g] in the present embodiment. Details will be described later.
Even if the terminal device 7 is a relatively large terminal device (operation device) as described above, the user device 7 is easy to hold and operate.

端末装置7は、ハウジング50の表面(表側)にLCD51を有する。なお、LCD5
1の画面の大きさは5インチ以上であることが好ましく、ここでは6.2インチである。
本実施形態の操作装置7は、持ちやすく操作しやすい構成によって、大きなLCDを設け
ることができる。なお、別の実施形態においては、より小さいLCD51を設け、操作装
置7の大きさを比較的小さいものとするようにしてもよい。LCD51は、ハウジング5
0の表面の中央付近に設けられる。したがって、ユーザは、図10および図11に示すよ
うにLCD51の両側部分のハウジング50を持つことによって、LCD51の画面を見
ながら端末装置7を持って動かすことができる。なお、図10および図11ではユーザが
LCD51の左右両側の部分のハウジング50を持つことで端末装置7を横持ちで(横に
長い向きにして)持つ例を示しているが、図12および図13に示すように、端末装置7
を縦持ちで(縦に長い向きにして)持つことも可能である。
The terminal device 7 has an LCD 51 on the surface (front side) of the housing 50. LCD5
The size of one screen is preferably 5 inches or more, and is 6.2 inches here.
The operating device 7 of the present embodiment can be provided with a large LCD with a configuration that is easy to hold and operate. In another embodiment, a smaller LCD 51 may be provided so that the size of the operation device 7 is relatively small. LCD 51 is housing 5
Near the center of the 0 surface. Therefore, the user can move the terminal device 7 while looking at the screen of the LCD 51 by holding the housings 50 on both sides of the LCD 51 as shown in FIGS. FIGS. 10 and 11 show an example in which the user holds the terminal device 7 sideways (in a long horizontal direction) by holding the housings 50 on the left and right sides of the LCD 51. However, FIGS. As shown in FIG.
Can be held vertically (with a long vertical orientation).

図8の(a)図に示すように、端末装置7は、操作手段として、LCD51の画面上に
タッチパネル52を有する。本実施形態では、タッチパネル52は抵抗膜方式のタッチパ
ネルである。ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方式等、任意
の方式のタッチパネルを用いることができる。また、タッチパネル52はシングルタッチ
方式でもよいし、マルチタッチ方式であってもよい。本実施形態では、タッチパネル52
として、LCD51の解像度と同解像度(検出精度)のものを利用する。ただし、必ずし
もタッチパネル52の解像度とLCD51の解像度が一致している必要はない。タッチパ
ネル52に対する入力は通常タッチペン60を用いて行われるが、タッチペン60に限ら
ずユーザの指でタッチパネル52に対する入力をすることも可能である。なお、ハウジン
グ50には、タッチパネル52に対する操作を行うために用いられるタッチペン60を収
納する収納穴60aが設けられている(図8(b)参照)。なお、ここでは、タッチペン
60が落ちないように、収納穴60aはハウジング50の上面に設けられるが、側面や下
面に設けられてもよい。このように、端末装置7はタッチパネル52を備えるので、ユー
ザは、端末装置7を動かしながらタッチパネル52を操作することができる。つまりユー
ザは、LCD51の画面を動かしつつ、その画面に対して直接(タッチパネル52によっ
て)入力を行うことができる。
As illustrated in FIG. 8A, the terminal device 7 includes a touch panel 52 on the screen of the LCD 51 as an operation unit. In the present embodiment, the touch panel 52 is a resistive film type touch panel. However, the touch panel is not limited to the resistive film type, and any type of touch panel such as a capacitance type can be used. The touch panel 52 may be a single touch method or a multi-touch method. In this embodiment, the touch panel 52
The same resolution (detection accuracy) as that of the LCD 51 is used. However, the resolution of the touch panel 52 and the resolution of the LCD 51 are not necessarily matched. The input to the touch panel 52 is normally performed using the touch pen 60, but the input to the touch panel 52 is not limited to the touch pen 60 and can be performed by a user's finger. The housing 50 is provided with a storage hole 60a for storing the touch pen 60 used for operating the touch panel 52 (see FIG. 8B). Here, the storage hole 60a is provided on the upper surface of the housing 50 so that the touch pen 60 does not fall, but may be provided on the side surface or the lower surface. Thus, since the terminal device 7 includes the touch panel 52, the user can operate the touch panel 52 while moving the terminal device 7. That is, the user can directly input (by the touch panel 52) to the screen while moving the screen of the LCD 51.

図8に示すように、端末装置7は、操作手段(操作部)として、2つのアナログスティ
ック53Aおよび53Bと、複数のボタン(キー)54A〜54Mとを備えている。各ア
ナログスティック53Aおよび53Bは、方向を指示することが可能なデバイスである。
各アナログスティック53Aおよび53Bは、ユーザの指で操作される可動部材(スティ
ック部)がハウジング50の表面に対して任意の方向(上下左右および斜め方向の任意の
角度)にスライドすることができるように構成されている。なお、各アナログスティック
53Aおよび53Bの可動部材は、ハウジング50の表面に対して任意の方向に傾倒する
種類のものでもよい。本実施形態では、可動部材がスライドする種類のアナログスティッ
クを用いるので、ユーザは親指を大きく動かさなくても各アナログスティック53Aおよ
び53Bを操作することができ、ハウジング50をよりしっかりと把持した状態で操作を
行うことができる。なお、各アナログスティック53Aおよび53Bとして、可動部材が
傾倒する種類のものを用いる場合には、入力の程度(傾きの程度)がユーザにとってわか
りやすく、詳細な操作をより容易に行うことができる。
As shown in FIG. 8, the terminal device 7 includes two analog sticks 53A and 53B and a plurality of buttons (keys) 54A to 54M as operation means (operation unit). Each analog stick 53A and 53B is a device capable of indicating a direction.
In each of the analog sticks 53A and 53B, a movable member (stick part) operated by a user's finger can slide in any direction (any angle in the up / down / left / right and diagonal directions) with respect to the surface of the housing 50. It is configured. The movable members of the analog sticks 53A and 53B may be of a type that tilts in an arbitrary direction with respect to the surface of the housing 50. In the present embodiment, an analog stick of a type in which the movable member slides is used. Therefore, the user can operate each of the analog sticks 53A and 53B without moving the thumb greatly, and the housing 50 is held firmly. The operation can be performed. When the analog sticks 53A and 53B are of a type in which the movable member tilts, the degree of input (degree of tilt) is easy for the user to understand, and detailed operations can be performed more easily.

また、左アナログスティック53AはLCD51の画面の左側に、右アナログスティッ
ク53BはLCD51の画面の右側にそれぞれ設けられる。したがって、ユーザは、左右
いずれの手でもアナログスティックを用いて方向を指示する入力を行うことができる。ま
た、図10および図11に示すように、各アナログスティック53Aおよび53Bは、ユ
ーザが端末装置7の左右部分(LCD51の左右両側の部分)を把持した状態で操作可能
な位置に設けられるので、ユーザは、端末装置7を持って動かす場合においても各アナロ
グスティック53Aおよび53Bを容易に操作することができる。
The left analog stick 53A is provided on the left side of the screen of the LCD 51, and the right analog stick 53B is provided on the right side of the screen of the LCD 51. Therefore, the user can make an input for instructing the direction with the left and right hands using the analog stick. Also, as shown in FIGS. 10 and 11, each analog stick 53A and 53B is provided at a position where the user can operate with the left and right portions of the terminal device 7 (the left and right side portions of the LCD 51) being gripped. The user can easily operate each of the analog sticks 53A and 53B even when holding and moving the terminal device 7.

各ボタン54A〜54Lは、所定の入力を行うための操作手段(操作部)であり、押下
可能なキーである。以下に示すように、各ボタン54A〜54Lは、ユーザが端末装置7
の左右部分を把持した状態で操作可能な位置に設けられる(図10および図11参照)。
したがって、ユーザは、端末装置7を持って動かす場合においてもこれらの操作手段を容
易に操作することができる。
Each button 54A to 54L is an operation means (operation unit) for performing a predetermined input, and is a key that can be pressed. As shown below, the buttons 54A to 54L are displayed on the terminal device 7 by the user.
It is provided at a position where it can be operated in a state where the left and right portions are gripped (see FIGS. 10 and 11).
Therefore, the user can easily operate these operation means even when the user moves the terminal device 7.

図8の(a)図に示すように、ハウジング50の表面には、各操作ボタン54A〜54
Lのうち、十字ボタン(方向入力ボタン)54Aと、ボタン54B〜54Hおよび54M
とが設けられる。つまり、これらのボタン54A〜54Hおよび54Mは、ユーザの親指
で操作可能な位置に配置されている(図10および図11参照)。
As shown in FIG. 8A, the operation buttons 54 </ b> A to 54 </ b> A are provided on the surface of the housing 50.
Of L, a cross button (direction input button) 54A and buttons 54B to 54H and 54M
And are provided. That is, these buttons 54 </ b> A to 54 </ b> H and 54 </ b> M are arranged at positions that can be operated with the user's thumb (see FIGS. 10 and 11).

十字ボタン54Aは、LCD51の左側であって、左アナログスティック53Aの下側
に設けられる。つまり、十字ボタン54Aはユーザの左手で操作可能な位置に配置されて
いる。十字ボタン54Aは、十字の形状を有しており、少なくとも上下左右の方向を指示
することが可能なボタンである。
The cross button 54A is provided on the left side of the LCD 51 and below the left analog stick 53A. That is, the cross button 54A is arranged at a position where it can be operated with the left hand of the user. The cross button 54A has a cross shape, and is a button capable of instructing at least the vertical and horizontal directions.

また、ボタン54B〜54Dは、LCD51の下側に設けられる。これら3つのボタン
54B〜54Dは、左右両方の手で操作可能な位置に配置されている。また、端末装置7
は、端末装置7の電源をオン/オフするための電源ボタン54Mを有している。電源ボタ
ン54Mは、ボタン54B〜54Dと同様、LCD51の下側に設けられる。電源ボタン
54Mは、ボタン54B〜54Dの右側に設けられる。したがって、電源ボタン54Mは
、右手で操作可能な(操作しやすい)位置に配置されている。また、4つのボタン54E
〜54Hは、LCD51の右側であって、右アナログスティック53Bの下側に設けられ
る。つまり、4つのボタン54E〜54Hはユーザの右手で操作可能な位置に配置されて
いる。さらに、4つのボタン54E〜54Hは、(4つのボタン54E〜54Hの中心位
置に対して)上下左右の位置関係となるように配置されている。したがって、端末装置7
は、ユーザに上下左右の方向を指示させるためのボタンとして4つのボタン54E〜54
Hを機能させることも可能である。
The buttons 54B to 54D are provided below the LCD 51. These three buttons 54B to 54D are arranged at positions that can be operated by both the left and right hands. The terminal device 7
Has a power button 54M for turning on / off the power of the terminal device 7. The power button 54M is provided on the lower side of the LCD 51 like the buttons 54B to 54D. The power button 54M is provided on the right side of the buttons 54B to 54D. Therefore, the power button 54M is disposed at a position where it can be operated (easy to operate) with the right hand. Four buttons 54E
˜54H are provided on the right side of the LCD 51 and below the right analog stick 53B. That is, the four buttons 54E to 54H are arranged at positions that can be operated with the right hand of the user. Further, the four buttons 54E to 54H are arranged so as to have a vertical / left / right positional relationship (relative to the center position of the four buttons 54E to 54H). Therefore, the terminal device 7
Are four buttons 54E to 54 as buttons for instructing the user in the up / down / left / right directions.
It is also possible to make H function.

なお、本実施形態においては、各アナログスティック53Aおよび53Bは、十字ボタ
ン54Aおよび各ボタン54E〜54Hよりも上側に配置される。ここで、各アナログス
ティック53Aおよび53Bは、十字ボタン54Aおよび各ボタン54E〜54Hよりも
厚さ方向(y軸方向)に関して突出している。そのため、仮にアナログスティック53A
と十字ボタン54Aとの配置を逆にした場合には、ユーザが十字ボタン54Aを親指で操
作する際にアナログスティック53Aに親指が当たってしまい、操作を誤ってしまうおそ
れがある。なお、アナログスティック53Bと各ボタン54E〜54Hとの配置を逆にす
る場合も同様の問題が生じる。これに対して、本実施形態では、各アナログスティック5
3Aおよび53Bを十字ボタン54Aおよび各ボタン54E〜54Hよりも上側に配置す
るので、ユーザがアナログスティック53Aおよび53Bを操作する際に十字ボタン54
Aおよび各ボタン54E〜54Hに指が当たってしまう可能性は上記の場合に比べて低く
なる。このように、本実施形態においては、誤操作の可能性を低減することができ、端末
装置7の操作性を向上することができる。
In the present embodiment, the analog sticks 53A and 53B are arranged above the cross button 54A and the buttons 54E to 54H. Here, each of the analog sticks 53A and 53B protrudes in the thickness direction (y-axis direction) from the cross button 54A and the buttons 54E to 54H. Therefore, tentatively analog stick 53A
If the arrangement of the cross button 54A is reversed, when the user operates the cross button 54A with the thumb, the thumb may hit the analog stick 53A, and the operation may be erroneous. The same problem occurs when the arrangement of the analog stick 53B and the buttons 54E to 54H is reversed. On the other hand, in this embodiment, each analog stick 5
Since 3A and 53B are arranged above the cross button 54A and the buttons 54E to 54H, the cross button 54 is used when the user operates the analog sticks 53A and 53B.
A possibility that a finger will hit A and each button 54E-54H will become low compared with said case. Thus, in this embodiment, the possibility of erroneous operation can be reduced, and the operability of the terminal device 7 can be improved.

ここで、本実施形態では、いくつかの操作部(各アナログスティック53Aおよび53
B、十字ボタン54A、ならびに、3つのボタン54E〜54G)は、表示部(LCD5
1)の左右両側において、ハウジング50における上下方向(y軸方向)の中心よりも上
側に設けられる。これらの操作部を操作する場合、ユーザは、端末装置7における上下方
向の中心よりも上側を主に把持する。ここで、ユーザがハウジング50の下側を把持する
場合には、(端末装置7が本実施形態のように比較的大きなサイズである場合には特に)
把持される端末装置7が不安定になり、ユーザは端末装置7を持ちにくくなる。これに対
して、本実施形態では、上記操作部を操作する場合、ユーザは、端末装置7における上下
方向の中心よりも上側を主に把持することになり、また、手のひらでハウジング50を支
えることができる。したがって、ユーザは、安定した状態でハウジング50を把持するこ
とができ、端末装置7が持ちやすくなるので、上記操作部も操作しやすくなる。なお、他
の実施形態においては、ハウジング50の中央よりも上側において表示部の左右にそれぞ
れ少なくとも1つずつ操作部が設けられてもよい。例えば、各アナログスティック53A
および53Bのみがハウジング50の中央よりも上側に設けられてもよい。また例えば、
十字ボタン54Aが左アナログスティック53Aよりも上側に設けられ、4つのボタン5
4E〜54Hが右アナログスティック53Bよりも上側に設けられる場合には、十字ボタ
ン54Aおよび4つのボタン54E〜54Hがハウジング50の中央よりも上側に設けら
れても良い。
Here, in this embodiment, several operation units (respective analog sticks 53A and 53A
B, the cross button 54A, and the three buttons 54E to 54G) are displayed on the display unit (LCD 5).
1) on both the left and right sides above the center of the housing 50 in the vertical direction (y-axis direction). When operating these operation units, the user mainly holds the upper side of the terminal device 7 from the vertical center. Here, when the user grips the lower side of the housing 50 (particularly when the terminal device 7 has a relatively large size as in the present embodiment).
The terminal device 7 to be gripped becomes unstable, and the user is difficult to hold the terminal device 7. On the other hand, in this embodiment, when operating the operation unit, the user mainly holds the upper side of the terminal device 7 from the center in the vertical direction, and supports the housing 50 with the palm. Can do. Therefore, the user can hold the housing 50 in a stable state, and the terminal device 7 can be easily held, so that the operation unit can be easily operated. In other embodiments, at least one operation unit may be provided on each of the left and right sides of the display unit above the center of the housing 50. For example, each analog stick 53A
Only 53 and 53B may be provided above the center of the housing 50. For example,
A cross button 54A is provided above the left analog stick 53A, and four buttons 5
When 4E to 54H are provided above the right analog stick 53B, the cross button 54A and the four buttons 54E to 54H may be provided above the center of the housing 50.

また、本実施形態では、ハウジング50の裏側(LCD51が設けられる表面の反対側
)には、突起部(庇部59)が設けられる(図8(c)および図9参照)。図8(c)に
示すように、庇部59は、略板状のハウジング50の裏面から突起して設けられる。突起
部は、ハウジング50の裏面を把持するユーザの指に掛止可能な高さ(厚さ)を有する。
突起部の高さは、10〜25[mm]であることが好ましく、本実施形態では16.66
[mm]である。また、突起部の下面は、突起部がユーザの指に掛かりやすいように、ハ
ウジング50の裏面に対して45°以上(より好ましくは60°以上)の傾斜を有するこ
とが好ましい。図8(c)に示すように、突起部の下面は、上面よりも傾斜角度が大きく
なるように形成されてもよい。図10および図11に示すように、ユーザは、指を庇部5
9に掛けて(指の上に庇部59を乗せて)把持することによって、端末装置7が比較的大
きなサイズであっても、疲れることなく安定した状態で端末装置7を把持することができ
る。
In the present embodiment, a protrusion (a flange 59) is provided on the back side of the housing 50 (on the opposite side of the surface on which the LCD 51 is provided) (see FIG. 8C and FIG. 9). As shown in FIG. 8C, the flange portion 59 is provided so as to protrude from the back surface of the substantially plate-shaped housing 50. The protrusion has a height (thickness) that can be hooked on a user's finger that holds the back surface of the housing 50.
The height of the protrusion is preferably 10 to 25 [mm], and in this embodiment 16.66.
[Mm]. Moreover, it is preferable that the lower surface of the protruding portion has an inclination of 45 ° or more (more preferably 60 ° or more) with respect to the back surface of the housing 50 so that the protruding portion can be easily caught on the user's finger. As shown in FIG. 8C, the lower surface of the protrusion may be formed to have a larger inclination angle than the upper surface. As shown in FIGS. 10 and 11, the user holds the finger on the buttocks 5.
By gripping the terminal device 7 by placing it on the finger 9 (with the buttocks 59 on the finger), the terminal device 7 can be gripped in a stable state without getting tired even if the terminal device 7 is relatively large in size. .

また、庇部59は、ハウジング50の上下方向に関しては中央よりも上側に設けられる
。庇部59は、ハウジング50の表面に設けられる操作部(各アナログスティック53A
および53B)の概ね反対側の位置に設けられる。つまり、突起部は、表示部の左右にそ
れぞれ設けられる操作部の反対側の位置を含む領域に設けられる。したがって、上記操作
部を操作する場合、ユーザは、中指あるいは薬指で庇部59を支えるようにして端末装置
7を把持することができる(図10および図11参照)。これによって、端末装置7がよ
り持ちやすくなり、上記操作部もより操作しやすくなる。また、本実施形態では、突起部
は、(突起した部分が)左右に延びる庇状の形状を有するので、ユーザは、中指あるいは
薬指を突起部の下面に沿わせて端末装置7を把持することができ、端末装置7がより持ち
やすくなる。なお、庇部59は、(突起した部分が)左右方向に延びるように形成されれ
ばよく、図9に示すような水平方向に延びる形状に限られない。他の実施形態においては
、庇部59は水平方向から若干傾いた方向に延びていてもよい。例えば、庇部59は、左
右両端から中央に向かうにつれて上に(または下に)傾斜するように設けられてもよい。
Further, the flange portion 59 is provided above the center in the vertical direction of the housing 50. The flange portion 59 is provided with an operation portion (each analog stick 53A provided on the surface of the housing 50).
And 53B). That is, the protrusion is provided in a region including a position on the opposite side of the operation unit provided on each of the left and right sides of the display unit. Therefore, when operating the said operation part, the user can hold | grip the terminal device 7 so that the collar part 59 may be supported with a middle finger or a ring finger (refer FIG. 10 and FIG. 11). As a result, the terminal device 7 becomes easier to hold, and the operation unit becomes easier to operate. Further, in the present embodiment, the protrusion has a hook-like shape extending from side to side (the protruding portion), so that the user holds the terminal device 7 with the middle finger or the ring finger along the lower surface of the protrusion. And the terminal device 7 becomes easier to hold. In addition, the collar part 59 should just be formed so that the (protruded part) may be extended in the left-right direction, and is not restricted to the shape extended in a horizontal direction as shown in FIG. In other embodiments, the flange portion 59 may extend in a direction slightly inclined from the horizontal direction. For example, the collar portion 59 may be provided so as to be inclined upward (or downward) from the left and right ends toward the center.

なお、本実施形態においては、後述する係止穴を庇部59に設けることが理由で、ハウ
ジングの裏面に形成される突起部として、庇状の形状をした庇部59を採用するが、突起
部はどのような形状であってもよい。例えば、他の実施形態においては、ハウジング50
の裏側において、2つの突起部が左右両側に設けられる(左右方向の中央には突起部が設
けられない)構成であってもよい(図29参照)。また、他の実施形態においては、突起
部の断面形状(x軸方向に垂直な断面における形状)は、ユーザの指で端末装置7をより
しっかりと支えることができるように(突起部が指によりしっかりと掛かるように)、鈎
型(下面が凹んだ形状)であってもよい。
In the present embodiment, the hook 59 having a hook-like shape is adopted as the protrusion formed on the back surface of the housing because a locking hole described later is provided in the hook 59. The part may have any shape. For example, in other embodiments, the housing 50
On the back side, two protrusions may be provided on both the left and right sides (no protrusion is provided at the center in the left-right direction) (see FIG. 29). In another embodiment, the cross-sectional shape of the protrusion (the shape in the cross section perpendicular to the x-axis direction) is such that the terminal device 7 can be more firmly supported by the user's finger (the protrusion is It may be saddle-shaped (a shape in which the lower surface is recessed).

また、図8の(a)図、(b)図、および(c)図に示すように、第1Lボタン54I
および第1Rボタン54Jは、ハウジング50の上側の面における左右の両側にそれぞれ
設けられる。本実施形態では、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジ
ング50の斜め上部分(左上部分および右上部分)に設けられる。具体的には、第1Lボ
タン54Iは、板状のハウジング50における上側の側面の左端に設けられ、左上側の側
面から露出している(換言すれば上側および左側の両方の側面から露出している)。また
、第1Rボタン54Jは、ハウジング50における上側の側面の右端に設けられ、右上側
の側面から露出している(換言すれば上側および右側の両方の側面から露出している)。
このように、第1Lボタン54Iは、ユーザの左手人差し指で操作可能な位置に配置され
、第1Rボタン54Jは、ユーザの右手人差し指で操作可能な位置に配置される(図10
参照)。なお、他の実施形態においては、ハウジング50の上側の面における左右にそれ
ぞれ設けられる操作部は、左右の端部に設けられる必要はなく、端部以外の位置に設けら
れてもよい。また、ハウジング50の左右の側面に操作部がそれぞれ設けられてもよい。
Further, as shown in FIGS. 8A, 8B, and 8C, the first L button 54I is used.
The first R button 54J is provided on each of the left and right sides of the upper surface of the housing 50. In the present embodiment, the first L button 54 </ b> I and the first R button 54 </ b> J are provided in an obliquely upper portion (upper left portion and upper right portion) of the housing 50. Specifically, the first L button 54I is provided at the left end of the upper side surface of the plate-shaped housing 50 and is exposed from the upper left side surface (in other words, exposed from both the upper and left side surfaces). ) The first R button 54J is provided at the right end of the upper side surface of the housing 50, and is exposed from the upper right side surface (in other words, exposed from both the upper and right side surfaces).
As described above, the first L button 54I is disposed at a position operable with the user's left index finger, and the first R button 54J is disposed at a position operable with the user's right hand index finger (FIG. 10).
reference). In other embodiments, the operation units provided on the left and right sides of the upper surface of the housing 50 do not need to be provided at the left and right ends, and may be provided at positions other than the ends. In addition, operation portions may be provided on the left and right side surfaces of the housing 50, respectively.

また、図8の(c)図および図9に示すように、第2Lボタン54Kおよび第2Rボタ
ン54Lは、上記突起部(庇部59)に配置される。第2Lボタン54Kは、庇部59の
左端付近に設けられる。第2Rボタン54Lは、庇部59の右端付近に設けられる。つま
り、第2Lボタン54Kは、ハウジング50の裏面の左側(表面側から見たときの左側)
のやや上方に設けられ、第2Rボタン54Lは、ハウジング50の裏面の右側(表面側か
ら見たときの右側)のやや上方に設けられる。換言すれば、第2Lボタン54Kは、表面
に設けられる左アナログスティック53Aの(概ね)反対側の位置に設けられ、第2Rボ
タン54Lは、表面に設けられる右アナログスティック53Bの(概ね)反対側の位置に
設けられる。このように、第2Lボタン54Kは、ユーザの左手中指または人差し指で操
作可能な位置に配置され、第2Rボタン54Lは、ユーザの右手中指または人差し指で操
作可能な位置に配置される(図10および図11参照)。また、第2Lボタン54Kおよ
び第2Rボタン54Lは、図8の(c)図に示すように、上記庇部59の上面に設けられ
る。そのため、第2Lボタン54Kおよび第2Rボタン54Lは、上方(斜め上方)を向
くボタン面を有する。ユーザが端末装置7を把持した場合には中指または人差し指は上下
方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン5
4Kおよび第2Rボタン54Lを押下しやすくなる。
Further, as shown in FIG. 8 (c) and FIG. 9, the second L button 54K and the second R button 54L are disposed on the protruding portion (the collar portion 59). The second L button 54K is provided in the vicinity of the left end of the collar 59. The second R button 54L is provided in the vicinity of the right end of the collar portion 59. That is, the second L button 54K is the left side of the back surface of the housing 50 (the left side when viewed from the front side).
The second R button 54L is provided slightly above the right side of the rear surface of the housing 50 (right side when viewed from the front surface side). In other words, the second L button 54K is provided at a position (substantially) opposite to the left analog stick 53A provided on the surface, and the second R button 54L is provided (substantially) opposite to the right analog stick 53B provided on the surface. It is provided in the position. As described above, the second L button 54K is disposed at a position operable with the user's left middle finger or index finger, and the second R button 54L is disposed at a position operable with the user's right middle finger or index finger (see FIGS. 10 and 10). FIG. 11). Moreover, the 2nd L button 54K and the 2nd R button 54L are provided in the upper surface of the said collar part 59, as shown to the (c) figure of FIG. Therefore, the second L button 54K and the second R button 54L have button surfaces that face upward (obliquely upward). When the user grips the terminal device 7, the middle finger or index finger is considered to move up and down, so that the user faces the second L button 5 by pointing the button surface upward.
It becomes easier to press the 4K and second R button 54L.

上記のように、本実施形態においては、ハウジング50の中央よりも上側において表示
部(LCD51)の左右に操作部(アナログスティック53Aおよび53B)がそれぞれ
設けられ、さらに、ハウジング50の裏側において当該操作部の反対側の位置に別の操作
部(第2Lボタン54Kおよび第2Rボタン54L)がそれぞれ設けられる。これによれ
ば、上記操作部と別の操作部とがハウジング50の表側と裏側との互いに対向する位置に
配置されるので、ユーザは、これらの操作部を操作する際にハウジング50を表側と裏側
から挟むように把持することができる。また、これらの操作部を操作する際にユーザは、
ハウジング50における上下方向の中心よりも上側を把持するので、端末装置7を上側で
把持できるとともに、手のひらで端末装置7を支えることができる(図10および図11
参照)。以上によって、ユーザは、少なくとも4つの操作部を操作することができる状態
で、ハウジング50を安定的に把持することができ、ユーザが容易に把持することが可能
で、かつ操作性の良い操作装置(端末装置7)を提供することができる。
As described above, in the present embodiment, the operation units (analog sticks 53A and 53B) are provided on the left and right sides of the display unit (LCD 51) above the center of the housing 50, and the operation is performed on the back side of the housing 50. Separate operation units (second L button 54K and second R button 54L) are provided at positions opposite to the unit. According to this, since the said operation part and another operation part are arrange | positioned in the position where the front side and back side of the housing 50 mutually oppose, when operating these operation parts, the user sets the housing 50 to the front side. It can be gripped so as to be pinched from the back side. In addition, when operating these operation units, the user
Since the upper side of the vertical center of the housing 50 is gripped, the terminal device 7 can be gripped on the upper side and the terminal device 7 can be supported by the palm (FIGS. 10 and 11).
reference). As described above, the user can stably hold the housing 50 in a state in which the user can operate at least four operation units, can be easily held by the user, and has high operability. (Terminal device 7) can be provided.

以上のように、本実施形態においては、突起部(庇部59)の下面に指を当てた状態で
端末装置7を把持することによって、ユーザは楽に端末装置7を把持することができる。
また、突起部の上面に第2Lボタン54Kおよび第2Rボタン54Lが設けられるので、
ユーザは上記の状態でこれらのボタンを容易に操作することができる。ユーザは、例えば
次のような持ち方で端末装置7を容易に把持することができる。
As described above, in the present embodiment, the user can easily hold the terminal device 7 by holding the terminal device 7 with the finger placed on the lower surface of the protrusion (the collar portion 59).
In addition, since the second L button 54K and the second R button 54L are provided on the upper surface of the protrusion,
The user can easily operate these buttons in the above state. For example, the user can easily hold the terminal device 7 in the following manner.

すなわち、ユーザは、図10に示すように、薬指を庇部59の下面(図10に示す一点
鎖線)に当てて(薬指で庇部59を支えるように)端末装置7を把持することも可能であ
る。このとき、ユーザは、4つのボタン(第1Lボタン54I、第1Rボタン54J、第
2Lボタン54K、および第2Rボタン54L)を人差し指および中指で操作することが
できる。例えば、要求されるゲーム操作が、使用するボタンが多く、比較的複雑である場
合には、図10に示すように把持することで、多くのボタンを容易に操作することができ
る。なお、各アナログスティック53Aおよび53Bは十字ボタン54Aおよびボタン5
4E〜54Hの上側に設けられるので、比較的複雑な操作が要求される場合にユーザは親
指でアナログスティック53Aおよび53Bを操作することができ、好都合である。また
、図10においては、ユーザは、ハウジング50の表面に親指を、ハウジング50の上面
に人差し指を、ハウジング50の裏面における庇部59の上面に中指を、庇部59の下面
に薬指を、ハウジング50の裏面に小指を当てて端末装置7を把持する。このように、ユ
ーザは、ハウジング50を四方から包み込むようにして端末装置7をしっかりと把持する
ことができる。
That is, as shown in FIG. 10, the user can hold the terminal device 7 by placing the ring finger on the lower surface of the heel part 59 (the dashed line shown in FIG. 10) (supporting the heel part 59 with the ring finger). It is. At this time, the user can operate the four buttons (first L button 54I, first R button 54J, second L button 54K, and second R button 54L) with the index finger and the middle finger. For example, when a required game operation has many buttons to be used and is relatively complicated, many buttons can be easily operated by gripping as shown in FIG. Each analog stick 53A and 53B has a cross button 54A and a button 5 respectively.
Since it is provided on the upper side of 4E to 54H, the user can operate the analog sticks 53A and 53B with the thumb when a relatively complicated operation is required, which is convenient. In FIG. 10, the user places a thumb on the surface of the housing 50, an index finger on the upper surface of the housing 50, a middle finger on the upper surface of the collar portion 59 on the rear surface of the housing 50, and a ring finger on the lower surface of the collar portion 59. The terminal device 7 is held by placing a little finger on the back surface of 50. Thus, the user can firmly hold the terminal device 7 so as to wrap the housing 50 from all sides.

また、ユーザは、図11に示すように、中指を庇部59の下面(図11に示す一点鎖線
)に当てて端末装置7を把持することも可能である。このとき、ユーザは、2つのボタン
(第2Lボタン54Kおよび第2Rボタン54L)を人差し指で容易に操作することがで
きる。例えば、要求されるゲーム操作が、使用するボタンが少なく、比較的単純である場
合には、図11に示すように把持してもよい。図11においては、ユーザは、2本の指(
薬指および小指)でハウジング50の下側を把持することができるので、しっかりと端末
装置7を把持することができる。
In addition, as shown in FIG. 11, the user can hold the terminal device 7 by placing the middle finger on the lower surface of the heel portion 59 (the chain line shown in FIG. 11). At this time, the user can easily operate the two buttons (the second L button 54K and the second R button 54L) with the index finger. For example, if the requested game operation is relatively simple with few buttons to be used, the game operation may be held as shown in FIG. In FIG. 11, the user has two fingers (
Since the lower side of the housing 50 can be grasped by the ring finger and the little finger), the terminal device 7 can be firmly grasped.

なお、本実施形態においては、庇部59の下面が、各アナログスティック53Aおよび
53Bと、十字ボタン54Aおよび4つのボタン54E〜54Hとの間に位置するように
(各アナログスティック53Aおよび53Bよりも下方で、かつ、十字ボタン54Aおよ
び4つのボタン54E〜54Hよりも上方に位置するように)設けられる。したがって、
薬指を庇部59に当てて端末装置7を把持する場合(図10)には、各アナログスティッ
ク53Aおよび53Bを親指で操作しやすくなり、中指を庇部59に当てて端末装置7を
把持する場合(図11)には、十字ボタン54Aおよび4つのボタン54E〜54Hを親
指で操作しやすくなっている。つまり、上記2種類の場合のいずれにおいても、ユーザは
、端末装置7をしっかりと把持した状態で方向入力操作を行うことができる。
In the present embodiment, the lower surface of the collar portion 59 is positioned between the analog sticks 53A and 53B and the cross button 54A and the four buttons 54E to 54H (more than the analog sticks 53A and 53B). And provided above the cross button 54A and the four buttons 54E to 54H). Therefore,
When the terminal device 7 is gripped by placing the ring finger against the buttocks 59 (FIG. 10), the analog sticks 53A and 53B can be easily operated with the thumb, and the terminal device 7 is gripped by placing the middle finger against the buttocks 59. In this case (FIG. 11), it is easy to operate the cross button 54A and the four buttons 54E to 54H with the thumb. That is, in any of the above two cases, the user can perform a direction input operation while firmly holding the terminal device 7.

また、上述のように、ユーザは端末装置7を縦持ちで把持することも可能である。すな
わち、図12に示すように、ユーザは端末装置7の上辺を左手で把持することで端末装置
7を縦向きで把持することが可能である。また、図13に示すように、ユーザは端末装置
7の下辺を左手で把持することで端末装置7を縦向きで把持することが可能である。なお
、図12および図13では端末装置7を左手で把持する場合を示しているが、右手で把持
することも可能である。このように、ユーザは端末装置7を片手で把持することが可能で
あるので、例えば、一方の手で端末装置7を把持しながら他方の手でタッチパネル52に
対する入力を行うといった操作を行うことも可能である。
Further, as described above, the user can also hold the terminal device 7 while holding it vertically. That is, as shown in FIG. 12, the user can hold the terminal device 7 in the vertical direction by holding the upper side of the terminal device 7 with the left hand. Further, as shown in FIG. 13, the user can hold the terminal device 7 in the vertical direction by holding the lower side of the terminal device 7 with the left hand. 12 and 13 show the case where the terminal device 7 is held with the left hand, it is also possible to hold it with the right hand. As described above, since the user can hold the terminal device 7 with one hand, for example, the user can perform an operation of holding the terminal device 7 with one hand and performing an input to the touch panel 52 with the other hand. Is possible.

また、図12に示す持ち方で端末装置7を把持する場合、ユーザは親指以外の指(図1
2にでは中指、薬指および小指)を庇部59の下面(図12に示す一点鎖線)に当てるこ
とで、端末装置7をしっかりと把持することができる。特に、本実施形態においては、庇
部59が左右に(図12では上下に)延びて形成されているので、ユーザは端末装置7の
上辺におけるどこの位置で把持しても、親指以外の指を庇部59に当てることができ、端
末装置7をしっかりと把持することができる。一方、図13に示す持ち方で端末装置7を
把持する場合、ユーザは、左手でボタン54B〜54Dを操作することができる。したが
って、例えば片手でタッチパネル52に対する入力を行いつつ、端末装置7を把持する手
でボタン54B〜54Dに対する操作を行うことができ、より多くの操作を行うことがで
きる。
When the user holds the terminal device 7 in the manner shown in FIG. 12, the user can use a finger other than the thumb (FIG. 1).
In 2, the terminal device 7 can be firmly grasped by placing the middle finger, the ring finger, and the little finger) against the lower surface of the collar portion 59 (the chain line shown in FIG. 12). In particular, in the present embodiment, since the collar portion 59 is formed to extend from side to side (up and down in FIG. 12), the user can hold a finger other than the thumb regardless of the position on the upper side of the terminal device 7. Can be applied to the flange 59, and the terminal device 7 can be firmly held. On the other hand, when the user holds the terminal device 7 in the manner shown in FIG. 13, the user can operate the buttons 54B to 54D with the left hand. Therefore, for example, it is possible to perform operations on the buttons 54B to 54D with a hand holding the terminal device 7 while performing an input on the touch panel 52 with one hand, and more operations can be performed.

なお、本実施形態における端末装置7に関しては、突起部(庇部59)が裏面に設けら
れるので、LCD51の画面(ハウジング50の表面)が上を向いた状態で端末装置7を
載置させる場合、画面がやや傾いた状態となる。これによって、端末装置7を載置した状
態において画面がより見やすくなる。また、端末装置7を載置した状態においてタッチパ
ネル52に対する入力操作が行いやすくなる。また、他の実施形態においては、上記庇部
59と同程度の高さを有する追加の突起部がハウジング50の裏面に形成されてもよい。
これによれば、LCD51の画面が上を向いた状態では、各突起部が床面に接することで
、画面が水平になるように端末装置7を載置することができる。また、追加の突起部を着
脱可能な(または折り畳み可能な)ものにしてもよい。これによれば、画面がやや傾いた
状態と、画面が水平になる状態との両方で端末装置を載置することができる。
In addition, regarding the terminal device 7 in the present embodiment, since the protrusion (the flange portion 59) is provided on the back surface, the terminal device 7 is placed with the screen of the LCD 51 (the surface of the housing 50) facing upward. The screen is slightly tilted. This makes it easier to see the screen when the terminal device 7 is placed. Further, it becomes easy to perform an input operation on the touch panel 52 in a state where the terminal device 7 is placed. In another embodiment, an additional protrusion having the same height as the flange 59 may be formed on the back surface of the housing 50.
According to this, in a state where the screen of the LCD 51 is facing upward, the terminal device 7 can be placed so that the screen is horizontal as each projection comes into contact with the floor surface. Further, the additional protrusions may be removable (or foldable). According to this, the terminal device can be placed both in a state where the screen is slightly inclined and in a state where the screen is horizontal.

各ボタン54A〜54Lには、ゲームプログラムに応じた機能が適宜割り当てられる。
例えば、十字ボタン54Aおよびボタン54E〜54Hは方向指示操作や選択操作等に用
いられてもよいし、各ボタン54B〜54Eは決定操作やキャンセル操作等に用いられて
もよい。また、端末装置7は、LCD51の画面表示をオン/オフするためのボタンや、
ゲーム装置3との接続設定(ペアリング)を行うためのボタンを有していてもよい。
Functions corresponding to the game program are appropriately assigned to the buttons 54A to 54L.
For example, the cross button 54A and the buttons 54E to 54H may be used for a direction instruction operation or a selection operation, and the buttons 54B to 54E may be used for a determination operation or a cancel operation. The terminal device 7 also has buttons for turning on / off the screen display of the LCD 51,
You may have a button for performing connection setting (pairing) with the game device 3.

図8の(a)図に示すように、端末装置7は、マーカ55Aおよびマーカ55Bからな
るマーカ部55をハウジング50の表面に備えている。マーカ部55は、LCD51の上
側に設けられる。各マーカ55Aおよびマーカ55Bは、マーカ装置6の各マーカ6Rお
よび6Lと同様、1以上の赤外LEDで構成される。マーカ55Aおよび55Bを構成す
る赤外LEDは、赤外光を透過する窓部の内側に配置される。マーカ部55は、上述のマ
ーカ装置6と同様、コントローラ5の動き等をゲーム装置3が算出するために用いられる
。また、ゲーム装置3はマーカ部55が備える各赤外LEDの点灯を制御することが可能
である。
As illustrated in FIG. 8A, the terminal device 7 includes a marker portion 55 including a marker 55 </ b> A and a marker 55 </ b> B on the surface of the housing 50. The marker unit 55 is provided on the upper side of the LCD 51. Each of the markers 55A and 55B is composed of one or more infrared LEDs, like the markers 6R and 6L of the marker device 6. Infrared LEDs constituting the markers 55A and 55B are disposed inside a window portion that transmits infrared light. The marker unit 55 is used for the game device 3 to calculate the movement of the controller 5 and the like, similar to the marker device 6 described above. Further, the game apparatus 3 can control lighting of each infrared LED included in the marker unit 55.

端末装置7は、撮像手段であるカメラ56を備えている。カメラ56は、所定の解像度
を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レ
ンズとを含む。図8に示すように、本実施形態では、カメラ56はハウジング50の表面
に設けられる。したがって、カメラ56は、端末装置7を持っているユーザの顔を撮像す
ることができ、例えばLCD51を見ながらゲームを行っている時のユーザを撮像するこ
とができる。本実施形態においては、カメラ56は、2つのマーカ55Aおよび55Bの
間に配置される。
The terminal device 7 includes a camera 56 that is an imaging unit. The camera 56 includes an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution, and a lens. As shown in FIG. 8, in this embodiment, the camera 56 is provided on the surface of the housing 50. Therefore, the camera 56 can take an image of the face of the user who has the terminal device 7, and can take an image of the user who is playing the game while watching the LCD 51, for example. In the present embodiment, the camera 56 is disposed between the two markers 55A and 55B.

なお、端末装置7は、音声入力手段であるマイク69を備えている。ハウジング50の
表面には、マイクロフォン用孔50cが設けられる。マイク69はこのマイクロフォン用
孔50cの奥のハウジング50内部に設けられる。マイク69は、ユーザの音声等、端末
装置7の周囲の音を検出する。
The terminal device 7 includes a microphone 69 that is a voice input unit. A microphone hole 50 c is provided on the surface of the housing 50. The microphone 69 is provided inside the housing 50 behind the microphone hole 50c. The microphone 69 detects sounds around the terminal device 7 such as a user's voice.

端末装置7は、音声出力手段であるスピーカ77を備えている。図8の(d)図に示す
ように、ハウジング50の表面の下側にはスピーカ孔57が設けられる。スピーカ77の
出力音はこのスピーカ孔57から出力される。本実施形態では、端末装置7は2つのスピ
ーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔57が設
けられる。なお、端末装置7は、スピーカ77の音量を調節するためのつまみ64を備え
る。また、端末装置7は、イヤホン等の音声出力部を接続するための音声出力端子62を
備える。ここでは、ハウジングの下側の側面に付加装置が接続されることを考慮して、上
記音声出力端子62およびつまみ64はハウジング50の上画の側面に設けられるが、左
右の側面や下側の側面に設けられてもよい。
The terminal device 7 includes a speaker 77 which is an audio output unit. As shown in FIG. 8D, a speaker hole 57 is provided below the surface of the housing 50. The output sound of the speaker 77 is output from the speaker hole 57. In the present embodiment, the terminal device 7 includes two speakers, and speaker holes 57 are provided at positions of the left speaker and the right speaker. The terminal device 7 includes a knob 64 for adjusting the volume of the speaker 77. The terminal device 7 includes an audio output terminal 62 for connecting an audio output unit such as an earphone. Here, considering that an additional device is connected to the lower side surface of the housing, the audio output terminal 62 and the knob 64 are provided on the upper side surface of the housing 50. It may be provided on the side surface.

また、ハウジング50には、赤外線通信モジュール82からの赤外線信号を端末装置7
の外部に出射するための窓63が設けられる。ここでは、LCD51の両側を把持した場
合にユーザの前方へ赤外線信号が発射されるように、窓63はハウジング50の上側の側
面に設けられる。ただし、他の実施形態においては、窓63は、例えばハウジング50の
裏面等、どの位置に設けられてもよい。
Further, the housing 50 receives the infrared signal from the infrared communication module 82 for the terminal device 7.
A window 63 for emitting light to the outside is provided. Here, the window 63 is provided on the upper side surface of the housing 50 so that an infrared signal is emitted forward of the user when both sides of the LCD 51 are gripped. However, in other embodiments, the window 63 may be provided at any position such as the back surface of the housing 50.

また、端末装置7は、他の装置を端末装置7に接続するための拡張コネクタ58を備え
ている。拡張コネクタ58は、端末装置7に接続される他の装置との間でデータ(情報)
を送受信するための通信端子である。本実施形態においては、図8の(d)図に示すよう
に、拡張コネクタ58は、ハウジング50の下側側面に設けられる。なお、拡張コネクタ
58に接続される他の付加装置はどのようなものであってもよく、例えば、特定のゲーム
に用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよ
い。付加装置を接続する必要がなければ、拡張コネクタ58は設けられていなくともよい
Further, the terminal device 7 includes an expansion connector 58 for connecting other devices to the terminal device 7. The expansion connector 58 receives data (information) from other devices connected to the terminal device 7.
Is a communication terminal for transmitting and receiving. In the present embodiment, the extension connector 58 is provided on the lower side surface of the housing 50 as shown in FIG. Note that any other additional device connected to the expansion connector 58 may be used. For example, a controller (gun-type controller or the like) used for a specific game or an input device such as a keyboard may be used. . If it is not necessary to connect an additional device, the expansion connector 58 may not be provided.

また、端末装置7は、付加装置から電力を取得するための充電端子66を有する。後述
するスタンド210に充電端子66が接続された場合、スタンド210から端末装置7へ
電力が供給される。本実施形態では、充電端子66はハウジング50の下側側面に設けら
れる。したがって、端末装置7と入力装置200とが接続される際には、拡張コネクタ5
8を介して情報を送受信することに加えて、一方から他方への電力供給を行うことも可能
である。このように、拡張コネクタ58の周囲(左右両側)に充電端子66を設けること
によって、端末装置7と付加装置とが接続される際に、情報の送受信とともに、電力供給
を行うことも可能である。また、端末装置7は充電コネクタを有し、ハウジング50は充
電コネクタを保護するためのカバー部61を有する。充電コネクタは、後述する充電器8
6に接続可能であり、充電器に充電コネクタが接続された場合、充電器86から端末装置
7へ電力が供給される。本実施形態では、ハウジングの下側の側面に付加装置が接続され
ることを考慮して、充電コネクタ(カバー部61)はハウジング50の上画の側面に設け
られるが、左右の側面や下側の側面に設けられてもよい。
The terminal device 7 also has a charging terminal 66 for acquiring power from the additional device. When a charging terminal 66 is connected to a stand 210 described later, power is supplied from the stand 210 to the terminal device 7. In the present embodiment, the charging terminal 66 is provided on the lower side surface of the housing 50. Therefore, when the terminal device 7 and the input device 200 are connected, the expansion connector 5
In addition to transmitting and receiving information via 8, it is also possible to supply power from one to the other. Thus, by providing the charging terminal 66 around the expansion connector 58 (on the left and right sides), when the terminal device 7 and the additional device are connected, it is possible to supply power as well as transmit and receive information. . Further, the terminal device 7 has a charging connector, and the housing 50 has a cover portion 61 for protecting the charging connector. The charging connector is a charger 8 to be described later.
6, and when a charging connector is connected to the charger, power is supplied from the charger 86 to the terminal device 7. In this embodiment, considering that the additional device is connected to the lower side surface of the housing, the charging connector (cover portion 61) is provided on the upper side surface of the housing 50. It may be provided on the side surface.

また、端末装置7は、ハウジング50に対して着脱可能な電池蓋67を有している。電
池蓋67の内側には電池(図14に示す電池85)が配置される。本実施形態においては
、電池蓋67はハウジング50の裏側に設けられ、突起部(庇部59)の下側に設けられ
る。
Further, the terminal device 7 has a battery lid 67 that can be attached to and detached from the housing 50. A battery (battery 85 shown in FIG. 14) is disposed inside the battery lid 67. In the present embodiment, the battery lid 67 is provided on the back side of the housing 50 and is provided on the lower side of the protrusion (the flange 59).

また、端末装置7のハウジング50には、ストラップの紐を結びつけるための孔65a
および65bが設けられる。図8(d)に示すように、本実施形態においては、孔65a
および65bはハウジング50の下面に設けられる。また、本実施形態においては、2つ
の孔65aおよび65bがハウジング50の左右両側にそれぞれ1つずつ設けられる。す
なわち、孔65aがハウジング50の下面の中央より左側に設けられ、孔65bがハウジ
ング50の下面の中央より右側に設けられる。ユーザは、孔65aおよび65bのいずれ
かにストラップを結びつけ、ストラップを自身の手首に結びつけてもよい。これによって
、万一ユーザが端末装置7を落としたり、端末装置7が手から離れたりした場合でも、端
末装置7が落下したり他の物に衝突したりすることを防止することができる。なお、本実
施形態においては、左右両側にそれぞれ孔が設けられるので、ユーザは、どちらの手にも
ストラップを結びつけることができ、便利である。
Further, the housing 50 of the terminal device 7 has a hole 65a for binding a strap string.
And 65b are provided. As shown in FIG. 8D, in this embodiment, the hole 65a
And 65 b are provided on the lower surface of the housing 50. In the present embodiment, two holes 65 a and 65 b are provided on each of the left and right sides of the housing 50. That is, the hole 65 a is provided on the left side from the center of the lower surface of the housing 50, and the hole 65 b is provided on the right side of the center of the lower surface of the housing 50. The user may tie a strap to either of the holes 65a and 65b and tie the strap to his / her wrist. Thereby, even if the user drops the terminal device 7 or the terminal device 7 is removed from the hand, the terminal device 7 can be prevented from dropping or colliding with another object. In the present embodiment, since the holes are provided on both the left and right sides, the user can tie the strap to either hand, which is convenient.

なお、図8〜図13に示した端末装置7に関して、各操作ボタンやハウジング50の形
状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設
置位置であってもよい。
In addition, regarding the terminal device 7 illustrated in FIGS. 8 to 13, the shapes of the operation buttons and the housing 50, the number of components, the installation positions, and the like are merely examples, and other shapes, numbers, and installation positions are provided. It may be.

次に、図14を参照して、端末装置7の内部構成について説明する。図14は、端末装
置7の内部構成を示すブロック図である。図14に示すように、端末装置7は、図8に示
した構成の他、タッチパネルコントローラ71、磁気センサ72、加速度センサ73、ジ
ャイロセンサ74、ユーザインタフェースコントローラ(UIコントローラ)75、コー
デックLSI76、スピーカ77、サウンドIC78、マイク79、無線モジュール80
、アンテナ81、赤外線通信モジュール82、フラッシュメモリ83、電源IC84、お
よび電池85を備える。これらの電子部品は、電子回路基板上に実装されてハウジング5
0内に収納される。
Next, the internal configuration of the terminal device 7 will be described with reference to FIG. FIG. 14 is a block diagram showing an internal configuration of the terminal device 7. As shown in FIG. 14, the terminal device 7 includes a touch panel controller 71, a magnetic sensor 72, an acceleration sensor 73, a gyro sensor 74, a user interface controller (UI controller) 75, a codec LSI 76, a speaker in addition to the configuration shown in FIG. 77, sound IC 78, microphone 79, wireless module 80
, An antenna 81, an infrared communication module 82, a flash memory 83, a power supply IC 84, and a battery 85. These electronic components are mounted on an electronic circuit board to form a housing 5.
It is stored in 0.

UIコントローラ75は、各種の入出力部に対するデータの入出力を制御するための回
路である。UIコントローラ75は、タッチパネルコントローラ71、アナログスティッ
ク53(アナログスティック53Aおよび53B)、操作ボタン54(各操作ボタン54
A〜54L)、マーカ部55、磁気センサ72、加速度センサ73、およびジャイロセン
サ74に接続される。また、UIコントローラ75は、コーデックLSI76と拡張コネ
クタ58に接続される。また、UIコントローラ75には電源IC84が接続され、UI
コントローラ75を介して各部に電力が供給される。電源IC84には内蔵の電池85が
接続され、電力が供給される。また、電源IC84には、外部電源から電力を取得可能な
充電器86またはケーブルを充電コネクタを介して接続することが可能であり、端末装置
7は、当該充電器86またはケーブルを用いて外部電源からの電力供給と充電を行うこと
ができる。なお、端末装置7は、図示しない充電機能を有するクレイドルに端末装置7を
装着することで充電を行うことも可能である。すなわち、図示しないが、電源IC84に
は、外部電源から電力を取得可能なクレイドル(図17に示すスタンド210)を充電端
子66を介して接続することが可能であり、端末装置7は、クレイドルを用いて外部電源
からの電力供給と充電を行うことができる。
The UI controller 75 is a circuit for controlling input / output of data to / from various input / output units. The UI controller 75 includes a touch panel controller 71, an analog stick 53 (analog sticks 53A and 53B), and operation buttons 54 (each operation button 54).
A to 54L), the marker unit 55, the magnetic sensor 72, the acceleration sensor 73, and the gyro sensor 74. The UI controller 75 is connected to the codec LSI 76 and the extension connector 58. A power supply IC 84 is connected to the UI controller 75, and the UI
Power is supplied to each unit via the controller 75. A built-in battery 85 is connected to the power supply IC 84 to supply power. In addition, a charger 86 or a cable that can acquire power from an external power source can be connected to the power supply IC 84 via a charging connector. The terminal device 7 can be connected to the external power source using the charger 86 or the cable. Power supply and charging from can be performed. The terminal device 7 can also be charged by mounting the terminal device 7 on a cradle having a charging function (not shown). That is, although not shown, a cradle (stand 210 shown in FIG. 17) capable of acquiring power from an external power source can be connected to the power supply IC 84 via the charging terminal 66, and the terminal device 7 can be connected to the cradle. It can be used to supply power and charge from an external power source.

タッチパネルコントローラ71は、タッチパネル52に接続され、タッチパネル52の
制御を行う回路である。タッチパネルコントローラ71は、タッチパネル52からの信号
に基づいて所定の形式のタッチ位置データを生成してUIコントローラ75へ出力する。
タッチ位置データは、タッチパネル52の入力面において入力が行われた位置の座標を表
す。なお、タッチパネルコントローラ71は、タッチパネル52からの信号の読み込み、
および、タッチ位置データの生成を所定時間に1回の割合で行う。また、UIコントロー
ラ75からタッチパネルコントローラ71へは、タッチパネル52に対する各種の制御指
示が出力される。
The touch panel controller 71 is a circuit that is connected to the touch panel 52 and controls the touch panel 52. The touch panel controller 71 generates touch position data in a predetermined format based on a signal from the touch panel 52 and outputs it to the UI controller 75.
The touch position data represents the coordinates of the position where the input has been performed on the input surface of the touch panel 52. The touch panel controller 71 reads a signal from the touch panel 52,
In addition, the touch position data is generated once every predetermined time. Various control instructions for the touch panel 52 are output from the UI controller 75 to the touch panel controller 71.

アナログスティック53は、ユーザの指で操作されるスティック部がスライドした(ま
たは傾倒した)方向および量を表すスティックデータをUIコントローラ75へ出力する
。また、操作ボタン54は、各操作ボタン54A〜54Lに対する入力状況(押下された
か否か)を表す操作ボタンデータをUIコントローラ75へ出力する。
The analog stick 53 outputs to the UI controller 75 stick data representing the direction and amount in which the stick unit operated by the user's finger has slid (or tilted). In addition, the operation button 54 outputs operation button data representing the input status (whether or not it has been pressed) to each of the operation buttons 54 </ b> A to 54 </ b> L to the UI controller 75.

磁気センサ72は、磁界の大きさおよび方向を検知することで方位を検出する。検出さ
れた方位を示す方位データは、UIコントローラ75へ出力される。また、UIコントロ
ーラ75から磁気センサ72へは、磁気センサ72に対する制御指示が出力される。磁気
センサ72に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホ
ール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはA
MR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができれば
どのようなものが用いられてもよい。なお、厳密には、地磁気以外に磁界が発生している
場所においては、得られた方位データは方位を示さないことになるが、そのような場合で
あっても、端末装置7が動いた場合には方位データが変化するため、端末装置7の姿勢の
変化を算出することができる。
The magnetic sensor 72 detects the direction by detecting the magnitude and direction of the magnetic field. The azimuth data indicating the detected azimuth is output to the UI controller 75. In addition, a control instruction for the magnetic sensor 72 is output from the UI controller 75 to the magnetic sensor 72. With respect to the magnetic sensor 72, an MI (magnetic impedance) element, a fluxgate sensor, a Hall element, a GMR (giant magnetoresistive) element, a TMR (tunnel magnetoresistive) element, or A
There is a sensor using an MR (anisotropic magnetoresistive) element or the like, but any sensor may be used as long as it can detect the orientation. Strictly speaking, in a place where a magnetic field is generated in addition to the geomagnetism, the obtained azimuth data does not indicate the azimuth, but even in such a case, the terminal device 7 moves. Since the orientation data changes, the change in the attitude of the terminal device 7 can be calculated.

加速度センサ73は、ハウジング50の内部に設けられ、3軸(図8の(a)図に示す
xyz軸)方向に沿った直線加速度の大きさを検出する。具体的には、加速度センサ73
は、ハウジング50の長辺方向をx軸、ハウジング50の表面に対して垂直な方向をy軸
、ハウジング50の短辺方向をz軸として、各軸の直線加速度の大きさを検出する。検出
された加速度を表す加速度データはUIコントローラ75へ出力される。また、UIコン
トローラ75から加速度センサ73へは、加速度センサ73に対する制御指示が出力され
る。加速度センサ73は、本実施形態では例えば静電容量式のMEMS型加速度センサで
あるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよ
い。また、加速度センサ73は1軸または2軸方向を検出する加速度センサであってもよ
い。
The acceleration sensor 73 is provided inside the housing 50 and detects the magnitude of linear acceleration along the direction of three axes (xyz axes shown in FIG. 8A). Specifically, the acceleration sensor 73
Detects the magnitude of the linear acceleration of each axis, where the long side direction of the housing 50 is the x axis, the direction perpendicular to the surface of the housing 50 is the y axis, and the short side direction of the housing 50 is the z axis. Acceleration data representing the detected acceleration is output to the UI controller 75. A control instruction for the acceleration sensor 73 is output from the UI controller 75 to the acceleration sensor 73. The acceleration sensor 73 is, for example, a capacitive MEMS acceleration sensor in the present embodiment, but other types of acceleration sensors may be used in other embodiments. Further, the acceleration sensor 73 may be an acceleration sensor that detects a uniaxial or biaxial direction.

ジャイロセンサ74は、ハウジング50の内部に設けられ、上記x軸、y軸およびz軸
の3軸周りの角速度を検出する。検出された角速度を表す角速度データは、UIコントロ
ーラ75へ出力される。また、UIコントローラ75からジャイロセンサ74へは、ジャ
イロセンサ74に対する制御指示が出力される。なお、3軸の角速度を検出するために用
いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイ
ロセンサ74はジャイロセンサ48と同様、2軸ジャイロセンサと1軸ジャイロセンサと
で構成されてもよい。また、ジャイロセンサ74は1軸または2軸方向を検出するジャイ
ロセンサであってもよい。
The gyro sensor 74 is provided inside the housing 50 and detects angular velocities around the three axes of the x axis, the y axis, and the z axis. Angular velocity data representing the detected angular velocity is output to the UI controller 75. Further, a control instruction for the gyro sensor 74 is output from the UI controller 75 to the gyro sensor 74. Any number and combination of gyro sensors may be used to detect the three-axis angular velocity, and the gyro sensor 74 is similar to the gyro sensor 48 in that a two-axis gyro sensor, a one-axis gyro sensor, It may be constituted by. Further, the gyro sensor 74 may be a gyro sensor that detects a uniaxial or biaxial direction.

UIコントローラ75は、上記の各構成要素から受け取ったタッチ位置データ、スティ
ックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む
操作データをコーデックLSI76に出力する。なお、拡張コネクタ58を介して端末装
置7に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操
作データにさらに含まれていてもよい。
The UI controller 75 outputs operation data including touch position data, stick data, operation button data, azimuth data, acceleration data, and angular velocity data received from the above components to the codec LSI 76. When another device is connected to the terminal device 7 via the extension connector 58, the operation data may further include data representing an operation on the other device.

コーデックLSI76は、ゲーム装置3へ送信するデータに対する圧縮処理、および、
ゲーム装置3から送信されたデータに対する伸張処理を行う回路である。コーデックLS
I76には、LCD51、カメラ56、サウンドIC78、無線モジュール80、フラッ
シュメモリ83、および赤外線通信モジュール82が接続される。また、コーデックLS
I76はCPU87と内部メモリ88を含む。端末装置7はゲーム処理自体を行なわない
構成であるが、端末装置7の管理や通信のための最小限のプログラムを実行する必要があ
る。電源投入時にフラッシュメモリ83に格納されたプログラムを内部メモリ88に読み
出してCPU87が実行することで、端末装置7が起動する。また、内部メモリ88の一
部の領域はLCD51のためのVRAMとして使用される。
The codec LSI 76 compresses data to be transmitted to the game apparatus 3, and
This is a circuit for performing expansion processing on data transmitted from the game apparatus 3. Codec LS
The LCD 51, the camera 56, the sound IC 78, the wireless module 80, the flash memory 83, and the infrared communication module 82 are connected to the I76. Codec LS
The I 76 includes a CPU 87 and an internal memory 88. Although the terminal device 7 is configured not to perform the game process itself, it is necessary to execute a minimum program for management and communication of the terminal device 7. When the power is turned on, the program stored in the flash memory 83 is read into the internal memory 88 and executed by the CPU 87, whereby the terminal device 7 is activated. A part of the internal memory 88 is used as a VRAM for the LCD 51.

カメラ56は、ゲーム装置3からの指示に従って画像を撮像し、撮像した画像データを
コーデックLSI76へ出力する。また、コーデックLSI76からカメラ56へは、画
像の撮像指示等、カメラ56に対する制御指示が出力される。なお、カメラ56は動画の
撮影も可能である。すなわち、カメラ56は、繰り返し撮像を行って画像データをコーデ
ックLSI76へ繰り返し出力することも可能である。
The camera 56 captures an image in accordance with an instruction from the game apparatus 3 and outputs the captured image data to the codec LSI 76. Control instructions for the camera 56 such as an image capturing instruction are output from the codec LSI 76 to the camera 56. Note that the camera 56 can also capture moving images. That is, the camera 56 can repeatedly capture images and repeatedly output image data to the codec LSI 76.

サウンドIC78は、スピーカ77およびマイク79に接続され、スピーカ77および
マイク79への音声データの入出力を制御する回路である。すなわち、コーデックLSI
76から音声データを受け取った場合、サウンドIC78は当該音声データに対してD/
A変換を行って得られる音声信号をスピーカ77へ出力し、スピーカ77から音を出力さ
せる。また、マイク79は、端末装置7に伝わる音(ユーザの音声等)を検知して、当該
音を示す音声信号をサウンドIC78へ出力する。サウンドIC78は、マイク79から
の音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI76
へ出力する。
The sound IC 78 is a circuit that is connected to the speaker 77 and the microphone 79 and controls input / output of audio data to and from the speaker 77 and the microphone 79. Codec LSI
When the audio data is received from 76, the sound IC 78 performs D / D on the audio data.
An audio signal obtained by performing the A conversion is output to the speaker 77, and the sound is output from the speaker 77. The microphone 79 detects a sound (such as a user's voice) transmitted to the terminal device 7 and outputs a sound signal indicating the sound to the sound IC 78. The sound IC 78 performs A / D conversion on the audio signal from the microphone 79 and converts the audio data in a predetermined format into the codec LSI 76.
Output to.

コーデックLSI76は、カメラ56からの画像データ、マイク79からの音声データ
、および、UIコントローラ75からの操作データを、端末操作データとして無線モジュ
ール80を介してゲーム装置3へ送信する。本実施形態では、コーデックLSI76は、
画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。
上記端末操作データ、ならびに、圧縮された画像データおよび音声データは、送信データ
として無線モジュール80に出力される。無線モジュール80にはアンテナ81が接続さ
れており、無線モジュール80はアンテナ81を介してゲーム装置3へ上記送信データを
送信する。無線モジュール80は、ゲーム装置3の端末通信モジュール28と同様の機能
を有している。すなわち、無線モジュール80は、例えばIEEE802.11nの規格
に準拠した方式により、無線LANに接続する機能を有する。送信されるデータは必要に
応じて暗号化されていてもよいし、されていなくともよい。
The codec LSI 76 transmits the image data from the camera 56, the audio data from the microphone 79, and the operation data from the UI controller 75 to the game apparatus 3 via the wireless module 80 as terminal operation data. In the present embodiment, the codec LSI 76 is
The same compression processing as that of the codec LSI 27 is performed on the image data and the audio data.
The terminal operation data and the compressed image data and audio data are output to the wireless module 80 as transmission data. An antenna 81 is connected to the wireless module 80, and the wireless module 80 transmits the transmission data to the game apparatus 3 via the antenna 81. The wireless module 80 has the same function as the terminal communication module 28 of the game apparatus 3. That is, the wireless module 80 has a function of connecting to a wireless LAN by a method compliant with, for example, the IEEE 802.11n standard. The data to be transmitted may or may not be encrypted as necessary.

以上のように、端末装置7からゲーム装置3へ送信される送信データには、操作データ
(端末操作データ)、画像データ、および音声データが含まれる。なお、拡張コネクタ5
8を介して端末装置7に他の装置が接続される場合には、当該他の装置から受け取ったデ
ータが上記送信データにさらに含まれていてもよい。また、赤外線通信モジュール82は
、他の装置との間で例えばIRDAの規格に従った赤外線通信を行う。コーデックLSI
76は、赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲ
ーム装置3へ送信してもよい。
As described above, the transmission data transmitted from the terminal device 7 to the game apparatus 3 includes operation data (terminal operation data), image data, and audio data. The expansion connector 5
When another device is connected to the terminal device 7 via 8, data received from the other device may be further included in the transmission data. The infrared communication module 82 performs infrared communication with other devices in accordance with, for example, the IRDA standard. Codec LSI
76 may include the data received by infrared communication in the transmission data as necessary, and transmit the data to the game apparatus 3.

また、上述のように、ゲーム装置3から端末装置7へは、圧縮された画像データおよび
音声データが送信される。これらのデータはアンテナ81および無線モジュール80を介
してコーデックLSI76に受信される。コーデックLSI76は、受信した画像データ
および音声データを伸張する。伸張された画像データはLCD51へ出力され、画像がL
CD51に表示される。つまり、コーデックLSI76(CPU87)は、受信された画
像データを表示部に表示させる。また、伸張された音声データはサウンドIC78へ出力
され、サウンドIC78はスピーカ77から音を出力させる。
Further, as described above, compressed image data and audio data are transmitted from the game apparatus 3 to the terminal apparatus 7. These data are received by the codec LSI 76 via the antenna 81 and the wireless module 80. The codec LSI 76 decompresses the received image data and audio data. The expanded image data is output to the LCD 51, and the image is L
It is displayed on CD51. That is, the codec LSI 76 (CPU 87) displays the received image data on the display unit. The expanded audio data is output to the sound IC 78, and the sound IC 78 outputs sound from the speaker 77.

また、ゲーム装置3から受信されるデータに制御データが含まれる場合、コーデックL
SI76およびUIコントローラ75は、制御データに従った制御指示を各部に行う。上
述のように、制御データは、端末装置7が備える各構成要素(本実施形態では、カメラ5
6、タッチパネルコントローラ71、マーカ部55、各センサ62〜64、および赤外線
通信モジュール82)に対する制御指示を表すデータである。本実施形態では、制御デー
タが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させた
りする指示が考えられる。すなわち、ゲームで使用しない構成要素については電力消費を
抑えるために休止させてもよく、その場合、端末装置7からゲーム装置3へ送信される送
信データには、休止した構成要素からのデータが含まれないようにする。なお、マーカ部
55は赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。
When the control data is included in the data received from the game apparatus 3, the codec L
The SI 76 and the UI controller 75 issue a control instruction to each unit according to the control data. As described above, the control data includes each component included in the terminal device 7 (in this embodiment, the camera 5
6, touch panel controller 71, marker unit 55, sensors 62 to 64, and infrared communication module 82). In the present embodiment, as the control instruction represented by the control data, an instruction to operate each of the above components or to stop (stop) the operation can be considered. That is, components that are not used in the game may be paused in order to reduce power consumption. In that case, the transmission data transmitted from the terminal device 7 to the game device 3 includes data from the paused components. Do not let it. In addition, since the marker part 55 is infrared LED, control may just be ON / OFF of supply of electric power.

以上のように、端末装置7は、タッチパネル52、アナログスティック53、および操
作ボタン54といった操作手段を備えるが、他の実施形態においては、これらの操作手段
に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよ
い。
As described above, the terminal device 7 includes operation means such as the touch panel 52, the analog stick 53, and the operation button 54. However, in other embodiments, instead of these operation means or together with these operation means. The configuration may include other operation means.

また、端末装置7は、端末装置7の動き(位置や姿勢、あるいは、位置や姿勢の変化を
含む)を算出するためのセンサとして、磁気センサ72、加速度センサ73、およびジャ
イロセンサ74を備えるが、他の実施形態においては、これらのセンサのうち1つまたは
2つのみを備える構成であってもよい。また、他の実施形態においては、これらのセンサ
に代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。
In addition, the terminal device 7 includes a magnetic sensor 72, an acceleration sensor 73, and a gyro sensor 74 as sensors for calculating the movement of the terminal device 7 (including changes in position and posture, or position and posture). In other embodiments, the configuration may include only one or two of these sensors. Moreover, in other embodiment, it may replace with these sensors or the structure provided with another sensor with these sensors may be sufficient.

また、端末装置7は、カメラ56およびマイク79を備える構成であるが、他の実施形
態においては、カメラ56およびマイク79を備えていなくてもよく、また、いずれか一
方のみを備えていてもよい。
The terminal device 7 includes the camera 56 and the microphone 79. However, in other embodiments, the terminal device 7 may not include the camera 56 and the microphone 79, or may include only one of them. Good.

また、端末装置7は、端末装置7とコントローラ5との位置関係(コントローラ5から
見た端末装置7の位置および/または姿勢等)を算出するための構成としてマーカ部55
を備える構成であるが、他の実施形態ではマーカ部55を備えていない構成としてもよい
。また、他の実施形態では、端末装置7は、上記位置関係を算出するための構成として他
の手段を備えていてもよい。例えば、他の実施形態においては、コントローラ5がマーカ
部を備え、端末装置7が撮像素子を備える構成としてもよい。さらにこの場合、マーカ装
置6は赤外LEDに代えて、撮像素子を備える構成としてもよい。
In addition, the terminal device 7 has a marker unit 55 as a configuration for calculating the positional relationship between the terminal device 7 and the controller 5 (the position and / or posture of the terminal device 7 as viewed from the controller 5).
However, it is good also as a structure which is not provided with the marker part 55 in other embodiment. In another embodiment, the terminal device 7 may include other means as a configuration for calculating the positional relationship. For example, in another embodiment, the controller 5 may include a marker unit, and the terminal device 7 may include an image sensor. Furthermore, in this case, the marker device 6 may be configured to include an imaging element instead of the infrared LED.

(付加装置の構成)
次に、図15〜図17を参照して、端末装置7に装着(接続)可能な付加装置の例につ
いて説明する。付加装置は、どのような機能を有するものであってもよく、例えば、所定
の操作を行うために端末装置7に装着される追加の操作装置であってもよいし、端末装置
7に対して給電を行う充電器であってもよいし、端末装置7を所定の姿勢にして立てるた
めのスタンドであってもよい。
(Configuration of additional equipment)
Next, an example of an additional device that can be attached (connected) to the terminal device 7 will be described with reference to FIGS. 15 to 17. The additional device may have any function. For example, the additional device may be an additional operation device attached to the terminal device 7 in order to perform a predetermined operation. It may be a charger that supplies power, or a stand for standing the terminal device 7 in a predetermined posture.

図8(d)および図9に示すように、突起部(庇部59)の下面には、付加装置が有す
る爪部が係止可能な係止穴59aおよび59bが設けられる。係止穴59aおよび59b
は、端末装置7に他の付加装置を接続する際に用いられる。すなわち、付加装置は係止穴
59aおよび59bに係止可能な爪部を有し、端末装置7に付加装置を接続する場合には
、爪部が係止穴59aおよび59bに係止することによって端末装置7と付加装置とが固
定される。なお、ここでは、端末装置7の裏面に設けられる突起部は、庇状の形状を有す
る庇部59である。すなわち、庇部59は左右方向に延びて設けられる。図9に示すよう
に、係止穴59aおよび59bは、庇部59の下面の(左右方向に関して)中央付近に設
けられる。なお、庇部59の下面に設けられる係止穴59aおよび59bの個数はいくつ
であってもよいが、1つである場合には庇部59の中央に設けられることが好ましく、複
数である場合には左右対称に配置されることが好ましい。これによれば、左右のバランス
を均等に保って付加装置を安定的に接続することができる。また、係止穴が中央付近に設
けられる場合には、左右の両端に設けられる場合に比べて、付加装置のサイズを小さくす
ることができる。
As shown in FIGS. 8D and 9, locking holes 59 a and 59 b that can lock the claw portions of the additional device are provided on the lower surface of the protruding portion (the flange portion 59). Locking holes 59a and 59b
Is used when another additional device is connected to the terminal device 7. That is, the additional device has a claw portion that can be locked in the locking holes 59a and 59b. When the additional device is connected to the terminal device 7, the claw portion is locked in the locking holes 59a and 59b. The terminal device 7 and the additional device are fixed. Here, the protrusion provided on the back surface of the terminal device 7 is a flange 59 having a hook shape. That is, the collar part 59 is provided extending in the left-right direction. As shown in FIG. 9, the locking holes 59 a and 59 b are provided near the center (with respect to the left-right direction) of the lower surface of the flange portion 59. Note that the number of the locking holes 59a and 59b provided on the lower surface of the flange portion 59 may be any number, but when it is one, it is preferably provided in the center of the flange portion 59, and there are a plurality Are preferably arranged symmetrically. According to this, it is possible to stably connect the additional device while keeping the left and right balance equal. Further, when the locking hole is provided near the center, the size of the additional device can be reduced as compared with the case where the locking hole is provided at both the left and right ends.

また、本実施形態においては、図8(d)に示すように、ハウジング50の下面に係止
穴50aおよび50bが設けられる。したがって、端末装置7に付加装置を接続する場合
には、4つの爪部が4つの各係止穴にそれぞれ係止することによって端末装置7と付加装
置とが固定される。これによって、付加装置を端末装置7により強固に接続することがで
きる。なお、他の実施形態においては、ハウジングに設けられる係止穴は、どのような配
置であってもよい。
In the present embodiment, as shown in FIG. 8D, locking holes 50 a and 50 b are provided on the lower surface of the housing 50. Therefore, when connecting the additional device to the terminal device 7, the terminal device 7 and the additional device are fixed by the four claw portions being respectively locked in the four locking holes. As a result, the additional device can be firmly connected to the terminal device 7. In other embodiments, the locking holes provided in the housing may be arranged in any manner.

図15および図16は、端末装置7に付加装置を装着した一例を示す図である。図15
は、端末装置7の表面側から端末装置7および入力装置200を見た図であり、図16は
、端末装置7の裏面側から端末装置7および入力装置200を見た図である。図15およ
び図16においては、付加装置の一例である入力装置200が端末装置7に装着されてい
る。
15 and 16 are diagrams illustrating an example in which the additional device is mounted on the terminal device 7. FIG.
These are the figures which looked at the terminal device 7 and the input device 200 from the surface side of the terminal device 7, and FIG. 16 is the figure which looked at the terminal device 7 and the input device 200 from the back surface side of the terminal device 7. In FIG. 15 and FIG. 16, an input device 200 which is an example of an additional device is attached to the terminal device 7.

入力装置200は、第1グリップ部200aと第2グリップ部200bとを備えている
。各グリップ部200aおよび200bは、それぞれ、棒状(柱状)の形状であり、ユー
ザが片手で把持可能である。ユーザは、各グリップ部200aおよび200bのいずれか
一方のみを把持して入力装置200(および端末装置7)を使用することも、両方を把持
して入力装置200を使用することも可能である。なお、入力装置200は、グリップ部
を1つのみ備える構成であってもよい。また、入力装置200は、支持部205を備えて
いる。本実施形態においては、支持部205は、端末装置7の背面(裏面)を支持する。
具体的には、支持部205は4つの爪部を有し、4つの爪部は、それぞれ係止穴50a、
50b、59aおよび59bにそれぞれ係止可能である。
The input device 200 includes a first grip part 200a and a second grip part 200b. Each of the grip portions 200a and 200b has a rod-like (columnar) shape and can be gripped by a user with one hand. The user can use either the input device 200 (and the terminal device 7) by holding only one of the grip portions 200a and 200b, or can use the input device 200 by holding both. Note that the input device 200 may be configured to include only one grip portion. The input device 200 includes a support unit 205. In the present embodiment, the support unit 205 supports the back surface (back surface) of the terminal device 7.
Specifically, the support part 205 has four claw parts, and the four claw parts are each provided with a locking hole 50a,
50b, 59a and 59b can be locked respectively.

図15に示すように、端末装置7に入力装置200を接続する場合には、4つの爪部が
上記4つの係止穴50a、50b、59aおよび59bにそれぞれ係止することによって
端末装置7と付加装置とが固定される。これによって、入力装置200を端末装置7に強
固に固定することができる。なお、他の実施形態においては、爪部と係止穴との係止に加
えて(または係止に代えて)、入力装置200と端末装置7とをネジ止めする等によって
、端末装置7に入力装置200がより強固に固定されてもよい。なお、ネジ止めの位置は
、どこであってもよいが、例えば、ハウジング50の背面に当接する入力装置200の支
持部205と、庇部59とがネジ止めされてもよい。
As shown in FIG. 15, when the input device 200 is connected to the terminal device 7, the four claw portions engage with the four locking holes 50 a, 50 b, 59 a and 59 b, respectively. The additional device is fixed. Thereby, the input device 200 can be firmly fixed to the terminal device 7. In other embodiments, in addition to (or in place of) the locking of the claw portion and the locking hole, the input device 200 and the terminal device 7 may be screwed to the terminal device 7. The input device 200 may be more firmly fixed. Note that the position of screwing may be anywhere, but, for example, the support part 205 of the input device 200 that contacts the back surface of the housing 50 and the flange part 59 may be screwed.

このように、本実施形態においては、係止穴59aおよび59bによって付加装置を端
末装置7にしっかりと固定することができる。なお、端末装置7は、端末装置7の動きや
傾きを検出するためのセンサ(磁気センサ72、加速度センサ73、およびジャイロセン
サ74)を有しているので、端末装置7自体を動かして使用することも可能である。例え
ば、図15および図16に示した入力装置200を端末装置7に接続する場合には、ユー
ザが入力装置200のグリップ部200aおよび/または200bを持って、入力装置2
00を銃のように動かして操作する態様も可能である。本実施形態のように、端末装置7
自体を動かして使用することが想定される場合には、係止穴59aおよび59bによって
付加装置をしっかりと固定することが特に有効である。
Thus, in this embodiment, the additional device can be firmly fixed to the terminal device 7 by the locking holes 59a and 59b. Since the terminal device 7 has sensors (magnetic sensor 72, acceleration sensor 73, and gyro sensor 74) for detecting the movement and tilt of the terminal device 7, it is used by moving the terminal device 7 itself. It is also possible. For example, when connecting the input device 200 shown in FIG. 15 and FIG. 16 to the terminal device 7, the user holds the grip portion 200 a and / or 200 b of the input device 200 and inputs the input device 2.
A mode in which 00 is operated like a gun is also possible. As in this embodiment, the terminal device 7
When it is assumed that it is used by moving itself, it is particularly effective to firmly fix the additional device by the locking holes 59a and 59b.

また、本実施形態においては、支持部205は、第1グリップ部200a(または第2
グリップ部200b)が鉛直方向を向く場合にLCD51の画面が略鉛直向きとなるよう
に端末装置7を着脱可能に支持する。各グリップ部200aおよび200bは、入力装置
200に接続された端末装置7の表示部(ハウジング50の表面)と略平行となるように
形成される。換言すれば、各グリップ部200aおよび200bは、入力装置200に接
続された端末装置7の表示部の上下方向を向くように形成される。このように、入力装置
200は、(ユーザが入力装置200を把持した場合に)端末装置7の表示部がユーザの
方を向く姿勢で端末装置7と接続される。ユーザは、各グリップ部200aおよび200
b(の少なくともいずれか)を略鉛直にして把持することで、表示部の画面を自分の方を
向けることができるので、表示部の画面を見ながら入力装置200を用いて操作を行うこ
とができる。なお、本実施形態においては、第2グリップ部200bは、第1グリップ部
200aと略平行な方向を向くが、他の実施形態においては、少なくとも1つのグリップ
部がLCD51の画面と略平行な向きに形成されてもよい。これによって、ユーザは、当
該グリップ部を掴むことで、LCD51が自分の方を向くようにして入力装置200(お
よび端末装置7)を容易に把持することができる。
Further, in the present embodiment, the support part 205 is the first grip part 200a (or the second part).
The terminal device 7 is detachably supported so that the screen of the LCD 51 is substantially vertical when the grip portion 200b is oriented vertically. Each grip part 200a and 200b is formed so as to be substantially parallel to the display part (surface of the housing 50) of the terminal device 7 connected to the input device 200. In other words, each grip part 200a and 200b is formed so as to face the up-down direction of the display part of the terminal device 7 connected to the input device 200. In this manner, the input device 200 is connected to the terminal device 7 in a posture in which the display unit of the terminal device 7 faces the user (when the user holds the input device 200). The user can use the grips 200a and 200.
By gripping b (at least one of them) in a substantially vertical direction, the screen of the display unit can be directed toward the user so that the user can operate using the input device 200 while viewing the screen of the display unit. it can. In the present embodiment, the second grip portion 200b faces in a direction substantially parallel to the first grip portion 200a. However, in other embodiments, at least one grip portion has a direction substantially parallel to the screen of the LCD 51. May be formed. Thus, the user can easily hold the input device 200 (and the terminal device 7) by holding the grip portion so that the LCD 51 faces the user.

また、上記実施形態では、支持部205は、第1グリップ部200aと第2グリップ部
200bとを接続する接続部材206に設けられる。つまり、支持部205は2つのグリ
ップ部200aおよび200bの間に設けられるので、入力装置200に接続された端末
装置7は、2つのグリップ部200aおよび200bの間に配置される。このとき、端末
装置7と入力装置200とからなる操作装置(操作システム)の重心は2つのグリップ部
200aおよび200bの間となるので、ユーザは2つのグリップ部200aおよび20
0bを掴んで把持することによって操作装置を楽に把持することができる。なお、上記実
施形態では、一方のグリップ部(第1グリップ部200a)は、入力装置200に装着さ
れた端末装置7の画面の前側となる位置に設けられ、他方のグリップ部(第2グリップ部
200b)は、当該画面の後側となる位置に設けられる。そのため、ユーザは、一方の手
を画面の前方にし、他方の手を画面の後方にして、銃を持つような持ち方で2つのグリッ
プを把持することで、容易に操作装置を把持することができる。したがって、例えば上記
操作装置を銃に見立ててゲーム操作を行う射撃ゲーム等において上記操作装置が特に好適
である。
Moreover, in the said embodiment, the support part 205 is provided in the connection member 206 which connects the 1st grip part 200a and the 2nd grip part 200b. That is, since the support part 205 is provided between the two grip parts 200a and 200b, the terminal device 7 connected to the input device 200 is disposed between the two grip parts 200a and 200b. At this time, since the center of gravity of the operation device (operation system) composed of the terminal device 7 and the input device 200 is between the two grip portions 200a and 200b, the user can use the two grip portions 200a and 20b.
By grasping and grasping 0b, the operating device can be easily grasped. In the above embodiment, one grip portion (first grip portion 200a) is provided at a position on the front side of the screen of the terminal device 7 attached to the input device 200, and the other grip portion (second grip portion). 200b) is provided at a position on the rear side of the screen. Therefore, the user can easily hold the operating device by holding the two grips in the manner of holding a gun with one hand at the front of the screen and the other hand at the back of the screen. it can. Therefore, for example, the operation device is particularly suitable in a shooting game in which the operation device is regarded as a gun and a game operation is performed.

また、入力装置200は、操作部として、第1ボタン201、第2ボタン202、第3
ボタン203、およびスティック204を備えている。各ボタン201〜203は、それ
ぞれユーザによって押下可能なボタンである。スティック204は、方向を指示すること
が可能なデバイスである。上記操作部は、ユーザがグリップ部を把持した場合に把持した
手の指で操作可能な位置に設けられることが好ましい。本実施形態においては、第1ボタ
ン201と第2ボタン202とスティック204は、第1グリップ部200aを把持した
手の親指で操作可能な位置に設けられる。また、第3ボタン203は、第2グリップ部2
00bを把持した手の親指で操作可能な位置に設けられる。
The input device 200 includes a first button 201, a second button 202, and a third button as operation units.
A button 203 and a stick 204 are provided. The buttons 201 to 203 are buttons that can be pressed by the user. The stick 204 is a device that can indicate a direction. The operation unit is preferably provided at a position where the user can operate with a finger of a gripped hand when the user grips the grip unit. In this embodiment, the 1st button 201, the 2nd button 202, and the stick 204 are provided in the position which can be operated with the thumb of the hand holding the 1st grip part 200a. Further, the third button 203 is connected to the second grip portion 2.
It is provided at a position where it can be operated with the thumb of the hand holding 00b.

なお、入力装置200は、撮像装置(撮像部)を備えていてもよい。例えば、入力装置
200は、上記コントローラ5が備える撮像情報演算部35と同様の構成を備えていても
よい。このとき、撮像情報演算部の撮像素子は、入力装置200の前方(端末装置7の画
面の後方)を撮像する向きに設けられてもよい。例えば、赤外線フィルタが第3ボタン2
03に代えて第3ボタン203の位置に配置され、その内側に撮像素子が配置されてもよ
い。これによれば、ユーザが入力装置200の前方をテレビ2(マーカ装置6)に向けて
使用することで、ゲーム装置3は入力装置200の向きや位置を算出することができる。
したがって、ユーザは、入力装置200を所望の方向へ向ける操作を行うことができ、入
力装置200を用いて直感的かつ容易な操作を行うことができる。また、入力装置200
は、撮像情報演算部に代えて、カメラ56と同様のカメラを備える構成であってもよい。
このとき、カメラは、上記撮像素子と同様、入力装置200の前方を撮像する向きに設け
られてもよい。これによれば、ユーザが入力装置200の前方をテレビ2(マーカ装置6
)に向けて使用することで、端末装置7のカメラ56とは反対向きの撮像方向で画像を撮
像することができる。
Note that the input device 200 may include an imaging device (imaging unit). For example, the input device 200 may have a configuration similar to that of the imaging information calculation unit 35 provided in the controller 5. At this time, the imaging element of the imaging information calculation unit may be provided in a direction for imaging the front of the input device 200 (the rear of the screen of the terminal device 7). For example, the infrared filter is the third button 2
Instead of 03, it may be arranged at the position of the third button 203, and an image sensor may be arranged inside it. According to this, when the user uses the front of the input device 200 toward the television 2 (marker device 6), the game device 3 can calculate the orientation and position of the input device 200.
Therefore, the user can perform an operation of directing the input device 200 in a desired direction, and can perform an intuitive and easy operation using the input device 200. Also, the input device 200
May be configured to include a camera similar to the camera 56 instead of the imaging information calculation unit.
At this time, the camera may be provided in a direction in which the front of the input device 200 is imaged, similarly to the image sensor. According to this, the user looks in front of the input device 200 on the television 2 (marker device 6
), It is possible to capture an image in the imaging direction opposite to the camera 56 of the terminal device 7.

また、入力装置200は、図示しないコネクタを備えており、コネクタは、端末装置7
が入力装置200に装着された場合に端末装置7の拡張コネクタ58と接続される。これ
によって、入力装置200と端末装置7との間でデータの送受信が可能となる。例えば、
入力装置200に対する操作を表すデータや、上記撮像装置による撮像結果を表すデータ
が端末装置7へ送信されてもよい。このとき、端末装置7は、端末装置7に対して行われ
た操作を表す操作データと、入力装置から送信されてきたデータとをゲーム装置3へ無線
で送信してもよい。また、入力装置200は、端末装置7が入力装置200に装着された
場合に端末装置7の充電端子66と接続される充電端子を備えていてもよい。これによれ
ば、端末装置7が入力装置200に装着された場合に、一方の装置から他方の装置へ電力
を供給することができる。例えば、入力装置200が充電器に接続され、端末装置7は入
力装置200を介して充電器から電力を取得することによって充電が行われてもよい。
The input device 200 includes a connector (not shown), and the connector is the terminal device 7.
Is connected to the expansion connector 58 of the terminal device 7. As a result, data can be transmitted and received between the input device 200 and the terminal device 7. For example,
Data representing an operation on the input device 200 and data representing the imaging result of the imaging device may be transmitted to the terminal device 7. At this time, the terminal device 7 may wirelessly transmit operation data representing an operation performed on the terminal device 7 and data transmitted from the input device to the game device 3. The input device 200 may include a charging terminal that is connected to the charging terminal 66 of the terminal device 7 when the terminal device 7 is attached to the input device 200. According to this, when the terminal device 7 is attached to the input device 200, power can be supplied from one device to the other device. For example, the input device 200 may be connected to a charger, and the terminal device 7 may be charged by acquiring power from the charger via the input device 200.

また、他の実施形態においては、端末装置7と入力装置200とが一体となった操作装
置が提供されてもよい。この場合、端末装置7における各係止穴50a、50b、59a
および59bや、入力装置200における爪部等、端末装置7と入力装置200とを着脱
可能に接続するための機構は不要である。
In another embodiment, an operation device in which the terminal device 7 and the input device 200 are integrated may be provided. In this case, each locking hole 50a, 50b, 59a in the terminal device 7 is provided.
And a mechanism for detachably connecting the terminal device 7 and the input device 200 such as a claw portion in the input device 200 is not necessary.

図17は、端末装置7に付加装置を接続した他の一例を示す図である。図17において
は、付加装置の一例であるスタンド210に端末装置7が接続(装着)されている。スタ
ンド210は、端末装置7を所定の角度に立てて載置するための支持装置である。スタン
ド210は、支持部材211と、充電端子212と、ガイド部材213aおよび213b
とを備えている。
FIG. 17 is a diagram illustrating another example in which an additional device is connected to the terminal device 7. In FIG. 17, the terminal device 7 is connected (attached) to a stand 210 which is an example of an additional device. The stand 210 is a support device for placing the terminal device 7 at a predetermined angle. The stand 210 includes a support member 211, a charging terminal 212, and guide members 213a and 213b.
And.

支持部材211は、端末装置7の裏面を所定の角度で支持するためのものである。また
、ガイド部材213aおよび213bは、端末装置7の第2係止穴50aおよび50bに
挿入可能であり、スタンド210に対して端末装置7が接続される位置を決めるためのも
のである。各ガイド部材213aおよび213bは、端末装置7の係止穴50aおよび5
0bに対応する位置に設けられる。端末装置7がスタンド210に接続された場合には、
ガイド部材213aおよび213bの一部がそれぞれ係止穴50aおよび50bに挿入さ
れた状態となる。また、端末装置7がスタンド210に接続された場合には、端末装置7
の裏面が支持部材211に当接することによって、端末装置7が所定の角度でスタンド2
10上に載置される。なお、他の実施形態においては、端末装置7の下面に設けられる係
止穴の数に応じた数のガイド部材が設けられてもよく、スタンド210はガイド部材を1
つのみ備えていてもよいし、3つ以上備えていてもよい。
The support member 211 is for supporting the back surface of the terminal device 7 at a predetermined angle. The guide members 213 a and 213 b can be inserted into the second locking holes 50 a and 50 b of the terminal device 7 and are for determining the position where the terminal device 7 is connected to the stand 210. The guide members 213a and 213b are respectively connected to the locking holes 50a and 5 of the terminal device 7.
It is provided at a position corresponding to 0b. When the terminal device 7 is connected to the stand 210,
A part of the guide members 213a and 213b is inserted into the locking holes 50a and 50b, respectively. When the terminal device 7 is connected to the stand 210, the terminal device 7
When the back surface of the terminal device 7 comes into contact with the support member 211, the terminal device 7 can stand at a predetermined angle.
10 is mounted. In other embodiments, the number of guide members corresponding to the number of locking holes provided on the lower surface of the terminal device 7 may be provided, and the stand 210 has one guide member.
Only one or three or more may be provided.

また、本実施形態においては、スタンド210は、充電器としての機能も有しており、
充電端子212を有する。端末装置7がスタンド210に接続された場合には、スタンド
210の充電端子212と端末装置7の充電端子66とが接触し、スタンド210から端
末装置7に電力が供給され、充電を行うことができる。
In the present embodiment, the stand 210 also has a function as a charger.
A charging terminal 212 is provided. When the terminal device 7 is connected to the stand 210, the charging terminal 212 of the stand 210 and the charging terminal 66 of the terminal device 7 are in contact with each other, and power is supplied from the stand 210 to the terminal device 7 to perform charging. it can.

また、本実施形態においては、ガイド部材213aおよび213bは、回転可能な車輪
部材(ローラー部)である。各ガイド部材213aおよび213bは、端末装置7がスタ
ンド210に接続された場合に、端末装置7の左右方向に回転可能である。端末装置7が
スタンド210に接続される際、係止穴50aおよび50bがガイド部材213aおよび
213bからずれている場合には、ガイド部材213aおよび213bが回転することに
よって端末装置7の位置が修正されて接続される。つまり、ガイド部材213aおよび2
13bの各一部が係止穴50aおよび50bに挿入された状態で端末装置7がスタンド2
10上に載置されるので、スタンド210の充電端子212と端末装置7の充電端子66
とが接触し、確実に充電が行われる。したがって、ユーザは、端末装置7をスタンド21
0に容易に接続することができる。また、本実施形態においては、係止穴50aおよび5
0bは、付加装置の爪部を係止するための穴として用いられるとともに、ガイド部材を挿
入する対象としても用いられる。したがって、端末装置7のハウジング50に設ける穴の
数を少なくすることができ、ハウジング50の形状を簡易にすることができる。
In the present embodiment, the guide members 213a and 213b are rotatable wheel members (roller portions). Each guide member 213 a and 213 b can rotate in the left-right direction of the terminal device 7 when the terminal device 7 is connected to the stand 210. When the terminal device 7 is connected to the stand 210, if the locking holes 50a and 50b are displaced from the guide members 213a and 213b, the position of the terminal device 7 is corrected by the rotation of the guide members 213a and 213b. Connected. That is, the guide members 213a and 2
The terminal device 7 is placed on the stand 2 in a state where each part of 13b is inserted into the locking holes 50a and 50b.
10, the charging terminal 212 of the stand 210 and the charging terminal 66 of the terminal device 7 are mounted.
Makes contact with each other and charging is performed reliably. Therefore, the user holds the terminal device 7 on the stand 21.
0 can be easily connected. Further, in this embodiment, the locking holes 50a and 5
0b is used as a hole for locking the claw portion of the additional device, and is also used as an object into which the guide member is inserted. Therefore, the number of holes provided in the housing 50 of the terminal device 7 can be reduced, and the shape of the housing 50 can be simplified.

[5.ゲーム処理]
次に、本ゲームシステムにおいて実行されるゲーム処理の詳細を説明する。まず、ゲー
ム処理において用いられる各種データについて説明する。図18は、ゲーム処理において
用いられる各種データを示す図である。図18において、ゲーム装置3のメインメモリ(
外部メインメモリ12または内部メインメモリ11e)に記憶される主なデータを示す図
である。図18に示すように、ゲーム装置3のメインメモリには、ゲームプログラム90
、受信データ91、および処理用データ106が記憶される。なお、メインメモリには、
図18に示すデータの他、ゲームに登場する各種オブジェクトの画像データやゲームに使
用される音声データ等、ゲームに必要なデータが記憶される。
[5. Game processing]
Next, details of the game process executed in this game system will be described. First, various data used in the game process will be described. FIG. 18 is a diagram showing various data used in the game process. In FIG. 18, the main memory (
It is a figure which shows the main data memorize | stored in the external main memory 12 or the internal main memory 11e). As shown in FIG. 18, a game program 90 is stored in the main memory of the game apparatus 3.
, Received data 91 and processing data 106 are stored. In the main memory,
In addition to the data shown in FIG. 18, data necessary for the game such as image data of various objects appearing in the game and sound data used in the game are stored.

ゲームプログラム90は、ゲーム装置3に電源が投入された後の適宜のタイミングで光
ディスク4からその一部または全部が読み込まれてメインメモリに記憶される。なお、ゲ
ームプログラム90は、光ディスク4に代えて、フラッシュメモリ17やゲーム装置3の
外部装置から(例えばインターネットを介して)取得されてもよい。また、ゲームプログ
ラム90に含まれる一部(例えば、コントローラ5および/または端末装置7の姿勢を算
出するためのプログラム)については、ゲーム装置3内に予め記憶されていてもよい。
A part or all of the game program 90 is read from the optical disk 4 and stored in the main memory at an appropriate timing after the game apparatus 3 is turned on. The game program 90 may be obtained from the flash memory 17 or an external device of the game device 3 (for example, via the Internet) instead of the optical disc 4. Further, a part of the game program 90 (for example, a program for calculating the attitude of the controller 5 and / or the terminal device 7) may be stored in advance in the game apparatus 3.

受信データ91は、コントローラ5および端末装置7から受信される各種のデータであ
る。受信データ91は、コントローラ操作データ92、端末操作データ97、カメラ画像
データ104、および、マイク音データ105を含む。コントローラ5が複数接続される
場合には、コントローラ操作データ92も複数になる。端末装置7が複数接続される場合
には、端末操作データ97、カメラ画像データ104、および、マイク音データ105も
複数になる。
The reception data 91 is various data received from the controller 5 and the terminal device 7. The reception data 91 includes controller operation data 92, terminal operation data 97, camera image data 104, and microphone sound data 105. When a plurality of controllers 5 are connected, the controller operation data 92 is also a plurality. When a plurality of terminal devices 7 are connected, the terminal operation data 97, the camera image data 104, and the microphone sound data 105 are also a plurality.

コントローラ操作データ92は、コントローラ5に対するユーザ(プレイヤ)の操作を
表すデータである。コントローラ操作データ92は、コントローラ5から送信されてゲー
ム装置3において取得され、メインメモリに記憶される。コントローラ操作データ92は
、第1操作ボタンデータ93、第1加速度データ94、第1角速度データ95、およびマ
ーカ座標データ96を含む。なお、メインメモリには、最新の(最後に取得された)もの
から順に所定個数のコントローラ操作データが記憶されてもよい。
The controller operation data 92 is data representing a user (player) operation on the controller 5. The controller operation data 92 is transmitted from the controller 5, acquired by the game apparatus 3, and stored in the main memory. The controller operation data 92 includes first operation button data 93, first acceleration data 94, first angular velocity data 95, and marker coordinate data 96. The main memory may store a predetermined number of controller operation data in order from the latest (last acquired).

第1操作ボタンデータ93は、コントローラ5に設けられる各操作ボタン32a〜32
iに対する入力状態を表すデータである。具体的には、第1操作ボタンデータ93は、各
操作ボタン32a〜32iが押下されているか否かを表す。
The first operation button data 93 is stored in the operation buttons 32 a to 32 provided on the controller 5.
This is data representing an input state for i. Specifically, the first operation button data 93 indicates whether or not each of the operation buttons 32a to 32i is pressed.

第1加速度データ94は、コントローラ5の加速度センサ37によって検出された加速
度(加速度ベクトル)を表すデータである。ここでは、第1加速度データ94は、図3に
示すXYZの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものである
が、他の実施形態においては、任意の1以上の方向に関する加速度を表すものであればよ
い。
The first acceleration data 94 is data representing the acceleration (acceleration vector) detected by the acceleration sensor 37 of the controller 5. Here, the first acceleration data 94 represents three-dimensional acceleration having each component of acceleration in the directions of the three axes of XYZ shown in FIG. 3, but in other embodiments, any one or more arbitrary acceleration data 94 It only has to represent acceleration in the direction.

第1角速度データ95は、コントローラ5におけるジャイロセンサ48によって検出さ
れた角速度を表すデータである。ここでは、第1角速度データ95は、図3に示すXYZ
の3軸回りのそれぞれの角速度を表すものであるが、他の実施形態においては、任意の1
軸以上の軸回り角速度を表すものであればよい。
The first angular velocity data 95 is data representing the angular velocity detected by the gyro sensor 48 in the controller 5. Here, the first angular velocity data 95 is XYZ shown in FIG.
Represents the respective angular velocities around the three axes, but in other embodiments, arbitrary 1
Anything can be used as long as it represents an angular velocity around the axis.

マーカ座標データ96、撮像情報演算部35の画像処理回路41によって算出される座
標、すなわち上記マーカ座標を表すデータである。マーカ座標は、撮像画像に対応する平
面上の位置を表すための2次元座標系で表現され、マーカ座標データ96は、当該2次元
座標系における座標値を表す。
Marker coordinate data 96, coordinates calculated by the image processing circuit 41 of the imaging information calculation unit 35, that is, data representing the marker coordinates. The marker coordinates are expressed in a two-dimensional coordinate system for representing a position on a plane corresponding to the captured image, and the marker coordinate data 96 represents coordinate values in the two-dimensional coordinate system.

なお、コントローラ操作データ92は、コントローラ5を操作するユーザの操作を表す
ものであればよく、上記各データ93〜96の一部のみを含むものであってもよい。また
、コントローラ5が他の入力手段(例えば、タッチパネルやアナログスティック等)を有
する場合には、コントローラ操作データ92は、当該他の入力手段に対する操作を表すデ
ータを含んでいてもよい。なお、本実施形態のようにコントローラ5自体の動きをゲーム
操作として用いる場合には、コントローラ操作データ92は、第1加速度データ94、第
1角速度データ95、またはマーカ座標データ96のように、コントローラ5自体の動き
に応じて値が変化するデータを含むようにする。
The controller operation data 92 only needs to represent the operation of the user who operates the controller 5, and may include only a part of the data 93 to 96. Further, when the controller 5 has other input means (for example, a touch panel, an analog stick, etc.), the controller operation data 92 may include data representing an operation on the other input means. In the case where the movement of the controller 5 itself is used as a game operation as in the present embodiment, the controller operation data 92 is a controller like the first acceleration data 94, the first angular velocity data 95, or the marker coordinate data 96. 5 includes data whose value changes in accordance with the movement of itself.

端末操作データ97は、端末装置7に対するユーザの操作を表すデータである。端末操
作データ97は、端末装置7から送信されてゲーム装置3において取得され、メインメモ
リに記憶される。端末操作データ97は、第2操作ボタンデータ98、スティックデータ
99、タッチ位置データ100、第2加速度データ101、第2角速度データ102、お
よび方位データを含む。なお、メインメモリには、最新の(最後に取得された)ものから
順に所定個数の端末操作データが記憶されてもよい。
The terminal operation data 97 is data representing a user operation on the terminal device 7. The terminal operation data 97 is transmitted from the terminal device 7, acquired by the game device 3, and stored in the main memory. The terminal operation data 97 includes second operation button data 98, stick data 99, touch position data 100, second acceleration data 101, second angular velocity data 102, and direction data. The main memory may store a predetermined number of terminal operation data in order from the latest (last acquired).

第2操作ボタンデータ98は、端末装置7に設けられる各操作ボタン54A〜54Lに
対する入力状態を表すデータである。具体的には、第2操作ボタンデータ98は、各操作
ボタン54A〜54Lが押下されているか否かを表す。
The second operation button data 98 is data representing an input state for each of the operation buttons 54 </ b> A to 54 </ b> L provided on the terminal device 7. Specifically, the second operation button data 98 indicates whether or not each of the operation buttons 54A to 54L is pressed.

スティックデータ99は、アナログスティック53(アナログスティック53Aおよび
53B)のスティック部がスライドした(または傾倒した)方向および量を表すデータで
ある。上記方向および量は、例えば2次元座標や2次元ベクトルとして表されてもよい。
The stick data 99 is data representing the direction and amount in which the stick portion of the analog stick 53 (analog sticks 53A and 53B) has been slid (or tilted). The direction and amount may be expressed as, for example, a two-dimensional coordinate or a two-dimensional vector.

タッチ位置データ100は、タッチパネル52の入力面において入力が行われた位置(
タッチ位置)を表すデータである。本実施形態では、タッチ位置データ100は、上記入
力面上の位置を示すための2次元座標系の座標値を表す。なお、タッチパネル52がマル
チタッチ方式である場合には、タッチ位置データ100は複数のタッチ位置を表すことも
ある。
The touch position data 100 is a position where input is performed on the input surface of the touch panel 52 (
Data representing a touch position). In the present embodiment, the touch position data 100 represents coordinate values of a two-dimensional coordinate system for indicating the position on the input surface. When the touch panel 52 is a multi-touch method, the touch position data 100 may represent a plurality of touch positions.

第2加速度データ101は、加速度センサ73によって検出された加速度(加速度ベク
トル)を表すデータである。本実施形態では、第2加速度データ101は、図8に示すx
yzの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他
の実施形態においては、任意の1以上の方向に関する加速度を表すものであればよい。
The second acceleration data 101 is data representing the acceleration (acceleration vector) detected by the acceleration sensor 73. In the present embodiment, the second acceleration data 101 is x shown in FIG.
This represents a three-dimensional acceleration having accelerations in the three-axis directions of yz as components, but in other embodiments, it may represent accelerations in any one or more directions.

第2角速度データ102は、ジャイロセンサ74によって検出された角速度を表すデー
タである。本実施形態では、第2角速度データ102は、図8に示すxyzの3軸回りの
それぞれの角速度を表すものであるが、他の実施形態においては、任意の1軸以上の軸回
り角速度を表すものであればよい。
The second angular velocity data 102 is data representing the angular velocity detected by the gyro sensor 74. In the present embodiment, the second angular velocity data 102 represents the angular velocities around the three axes xyz shown in FIG. 8, but in other embodiments, represents the angular velocities around any one or more axes. Anything is acceptable.

方位データ103は、磁気センサ72によって検出された方位を表すデータである。本
実施形態では、方位データ103は、端末装置7を基準として所定の方位(例えば北)の
向きを表す。ただし、地磁気以外の磁界が発生している場所においては、方位データ10
3は厳密には絶対的な方位(北等)を示さないことになるが、その場所における磁界の方
向に対する端末装置7の相対的な方向が示されるので、そのような場合であっても端末装
置7の姿勢変化を算出することが可能である。
The azimuth data 103 is data representing the azimuth detected by the magnetic sensor 72. In the present embodiment, the azimuth data 103 represents the direction of a predetermined azimuth (for example, north) with reference to the terminal device 7. However, in a place where a magnetic field other than geomagnetism is generated, the orientation data 10
3 strictly does not indicate an absolute direction (north, etc.), but the relative direction of the terminal device 7 with respect to the direction of the magnetic field at the location is indicated. It is possible to calculate the posture change of the device 7.

なお、端末操作データ97は、端末装置7を操作するユーザの操作を表すものであれば
よく、上記各データ98〜103のいずれか1つのみを含むものであってもよい。また、
端末装置7が他の入力手段(例えば、タッチパッドや、コントローラ5の撮像手段等)を
有する場合には、端末操作データ97は、当該他の入力手段に対する操作を表すデータを
含んでいてもよい。なお、本実施形態のように端末装置7自体の動きをゲーム操作として
用いる場合には、端末操作データ97は、第2加速度データ101、第2角速度データ1
02、または方位データ103のように、端末装置7自体の動きに応じて値が変化するデ
ータを含むようにする。
Note that the terminal operation data 97 only needs to represent the operation of the user who operates the terminal device 7, and may include only one of the data 98 to 103. Also,
When the terminal device 7 has other input means (for example, a touch pad or an imaging means of the controller 5), the terminal operation data 97 may include data representing an operation on the other input means. . When the movement of the terminal device 7 itself is used as a game operation as in this embodiment, the terminal operation data 97 includes the second acceleration data 101, the second angular velocity data 1
02 or azimuth data 103 is included so that data whose value changes in accordance with the movement of the terminal device 7 itself is included.

カメラ画像データ104は、端末装置7のカメラ56によって撮像された画像(カメラ
画像)を表すデータである。カメラ画像データ104は、端末装置7からの圧縮された画
像データがコーデックLSI27によって伸張された画像データであり、入出力プロセッ
サ11aによってメインメモリに記憶される。なお、メインメモリには、最新の(最後に
取得された)ものから順に所定個数のカメラ画像データが記憶されてもよい。
The camera image data 104 is data representing an image (camera image) captured by the camera 56 of the terminal device 7. The camera image data 104 is image data obtained by decompressing the compressed image data from the terminal device 7 by the codec LSI 27, and is stored in the main memory by the input / output processor 11a. The main memory may store a predetermined number of pieces of camera image data in order from the latest (last acquired).

マイク音データ105は、端末装置7のマイク79によって検出された音声(マイク音
)を表すデータである。マイク音データ105は、端末装置7から送信されてくる圧縮さ
れた音声データがコーデックLSI27によって伸張された音声データであり、入出力プ
ロセッサ11aによってメインメモリに記憶される。
The microphone sound data 105 is data representing sound (microphone sound) detected by the microphone 79 of the terminal device 7. The microphone sound data 105 is sound data obtained by decompressing the compressed sound data transmitted from the terminal device 7 by the codec LSI 27, and is stored in the main memory by the input / output processor 11a.

処理用データ106は、後述するゲーム処理(図19)において用いられるデータであ
る。処理用データ106は、制御データ107、コントローラ姿勢データ108、端末姿
勢データ109、画像認識データ110、および音声認識データ111を含む。なお、図
18に示すデータの他、処理用データ106は、ゲームに登場する各種オブジェクトに設
定される各種パラメータを表すデータ等、ゲーム処理において用いられる各種データを含
む。
The processing data 106 is data used in a game process (FIG. 19) described later. The processing data 106 includes control data 107, controller attitude data 108, terminal attitude data 109, image recognition data 110, and voice recognition data 111. In addition to the data shown in FIG. 18, the processing data 106 includes various data used in the game process, such as data representing various parameters set for various objects appearing in the game.

制御データ107は、端末装置7が備える構成要素に対する制御指示を表すデータであ
る。制御データ107は、例えば、マーカ部55の点灯を制御する指示や、カメラ56の
撮像を制御する指示等を表す。制御データ107は、適宜のタイミングで端末装置7へ送
信される。
The control data 107 is data representing a control instruction for the components included in the terminal device 7. The control data 107 represents, for example, an instruction for controlling lighting of the marker unit 55, an instruction for controlling imaging of the camera 56, and the like. The control data 107 is transmitted to the terminal device 7 at an appropriate timing.

コントローラ姿勢データ108は、コントローラ5の姿勢を表すデータである。本実施
形態では、コントローラ姿勢データ108は、上記コントローラ操作データ92に含まれ
る第1加速度データ94、第1角速度データ95、およびマーカ座標データ96に基づい
て算出される。コントローラ姿勢データ108の算出方法についてはステップS23で後
述する。
The controller attitude data 108 is data representing the attitude of the controller 5. In the present embodiment, the controller attitude data 108 is calculated based on the first acceleration data 94, the first angular velocity data 95, and the marker coordinate data 96 included in the controller operation data 92. A method for calculating the controller attitude data 108 will be described later in step S23.

端末姿勢データ109は、端末装置7の姿勢を表すデータである。本実施形態では、端
末姿勢データ109は、上記端末操作データ97に含まれる第2加速度データ101、第
2角速度データ102、および方位データ103に基づいて算出される。端末姿勢データ
109の算出方法についてはステップS24で後述する。
The terminal attitude data 109 is data representing the attitude of the terminal device 7. In the present embodiment, the terminal posture data 109 is calculated based on the second acceleration data 101, the second angular velocity data 102, and the azimuth data 103 included in the terminal operation data 97. A method of calculating the terminal attitude data 109 will be described later in step S24.

画像認識データ110は、上記カメラ画像に対する所定の画像認識処理の結果を表すデ
ータである。この画像認識処理は、カメラ画像から何らかの特徴を検知してその結果を出
力するものであればどのような処理であってもよく、例えば、カメラ画像から所定の対象
(例えば、ユーザの顔やマーカ等)を抽出し、抽出した対象に関する情報を算出する処理
であってもよい。
The image recognition data 110 is data representing the result of a predetermined image recognition process for the camera image. This image recognition process may be any process as long as it detects some feature from the camera image and outputs the result. And the like, and the information about the extracted target may be calculated.

音声認識データ111は、上記マイク音声に対する所定の音声認識処理の結果を表すデ
ータである。この音声認識処理は、マイク音声から何らかの特徴を検知してその結果を出
力するものであればどのような処理であってもよく、例えば、ユーザの言葉を検知する処
理であってもよいし、単に音量を出力する処理であってもよい。
The voice recognition data 111 is data representing a result of a predetermined voice recognition process for the microphone voice. This voice recognition process may be any process that detects some feature from the microphone voice and outputs the result, for example, a process that detects the user's words, It may be a process of simply outputting the volume.

次に、図19を参照して、ゲーム装置3において行われるゲーム処理の詳細を説明する
。図19は、ゲーム装置3において実行されるゲーム処理の流れを示すメインフローチャ
ートである。ゲーム装置3の電源が投入されると、ゲーム装置3のCPU10は、図示し
ないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ
等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムが
メインメモリに読み込まれ、CPU10によって当該ゲームプログラムの実行が開始され
る。なお、ゲーム装置3においては、電源投入後に光ディスク4に記憶されたゲームプロ
グラムがすぐに実行される構成であってもよいし、電源投入後にまず所定のメニュー画面
を表示する内蔵プログラムが実行され、その後ユーザによってゲームの開始が指示された
ときに光ディスク4に記憶されたゲームプログラムが実行される構成であってもよい。図
19に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャ
ートである。
Next, with reference to FIG. 19, the details of the game process performed in the game apparatus 3 will be described. FIG. 19 is a main flowchart showing the flow of game processing executed in the game apparatus 3. When the power of the game apparatus 3 is turned on, the CPU 10 of the game apparatus 3 executes a startup program stored in a boot ROM (not shown), whereby each unit such as the main memory is initialized. Then, the game program stored in the optical disc 4 is read into the main memory, and the CPU 10 starts executing the game program. The game apparatus 3 may be configured such that the game program stored on the optical disc 4 is immediately executed after the power is turned on, or a built-in program that displays a predetermined menu screen is first executed after the power is turned on. Thereafter, the game program stored on the optical disc 4 may be executed when the user instructs the start of the game. The flowchart shown in FIG. 19 is a flowchart showing a process performed after the above process is completed.

なお、図19に示すフローチャートの各ステップの処理は、単なる一例に過ぎず、同様
の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよい。また、変数の
値や、判断ステップで利用される閾値も、単なる一例に過ぎず、必要に応じて他の値を採
用してもよい。また、本実施形態では、上記フローチャートの各ステップの処理をCPU
10が実行するものとして説明するが、CPU10以外のプロセッサや専用回路が上記各
ステップの一部のステップの処理を実行するようにしてもよい。
Note that the processing of each step in the flowchart shown in FIG. 19 is merely an example, and the processing order of each step may be changed as long as a similar result is obtained. Moreover, the value of the variable and the threshold value used in the determination step are merely examples, and other values may be adopted as necessary. In the present embodiment, the processing of each step in the flowchart is performed by the CPU.
Although described as being executed by the CPU 10, a processor or a dedicated circuit other than the CPU 10 may execute processing of some steps of the above steps.

まずステップS1において、CPU10は初期処理を実行する。初期処理は、例えば、
仮想のゲーム空間を構築し、ゲーム空間に登場する各オブジェクトを初期位置に配置した
り、ゲーム処理で用いる各種パラメータの初期値を設定したりする処理である。
First, in step S1, the CPU 10 executes an initial process. The initial process is, for example,
This is a process of constructing a virtual game space, placing each object appearing in the game space at an initial position, and setting initial values of various parameters used in the game process.

また、本実施形態においては、初期処理において、CPU10は、ゲームプログラムの
種類に基づいてマーカ装置6およびマーカ部55の点灯を制御する。ここで、ゲームシス
テム1は、コントローラ5の撮像手段(撮像情報演算部35)の撮像対象として、マーカ
装置6と端末装置7のマーカ部55との2つを有している。ゲームの内容(ゲームプログ
ラムの種類)によっては、マーカ装置6とマーカ部55のうちいずれかが使用されたり、
あるいは、両方が使用されたりする。なお、ゲームプログラム90には、マーカ装置6お
よびマーカ部55のそれぞれについて点灯させるか否かを表すデータ含まれている。CP
U10は、当該データを読み出して点灯させるか否かを判断する。そして、マーカ装置6
および/またはマーカ部55を点灯させる場合には以下の処理を実行する。
In the present embodiment, in the initial process, the CPU 10 controls the lighting of the marker device 6 and the marker unit 55 based on the type of game program. Here, the game system 1 has two of the marker device 6 and the marker unit 55 of the terminal device 7 as imaging targets of the imaging means (imaging information calculation unit 35) of the controller 5. Depending on the content of the game (type of game program), either the marker device 6 or the marker unit 55 is used,
Or both are used. The game program 90 includes data indicating whether or not each of the marker device 6 and the marker unit 55 is lit. CP
U10 determines whether to read the data and turn it on. And marker device 6
When the marker unit 55 is turned on, the following processing is executed.

すなわち、マーカ装置6を点灯する場合、CPU10は、マーカ装置6が備える各赤外
LEDを点灯させる旨の制御信号をマーカ装置6へ送信する。この制御信号の送信は単に
電力を供給するというだけのことであってもよい。これに応じてマーカ装置6の各赤外L
EDが点灯される。一方、マーカ部55を点灯する場合、CPU10は、マーカ部55を
点灯する指示を表す制御データを生成してメインメモリに記憶する。生成された制御デー
タは、後述するステップS10において端末装置7へ送信される。端末装置7の無線モジ
ュール80において受信された制御データは、コーデックLSI76を介してUIコント
ローラ75へ送られ、UIコントローラ75はマーカ部55に点灯する指示を行う。これ
によってマーカ部55の赤外LEDが点灯する。なお、上記においてはマーカ装置6およ
びマーカ部55を点灯させる場合を説明したが、マーカ装置6およびマーカ部55の消灯
は、点灯する場合と同様の処理によって行うことができる。
That is, when lighting the marker device 6, the CPU 10 transmits a control signal to the marker device 6 to light each infrared LED included in the marker device 6. The transmission of the control signal may simply be to supply power. In response to this, each infrared L of the marker device 6
ED is lit. On the other hand, when the marker unit 55 is turned on, the CPU 10 generates control data representing an instruction to turn on the marker unit 55 and stores it in the main memory. The generated control data is transmitted to the terminal device 7 in step S10 described later. Control data received by the wireless module 80 of the terminal device 7 is sent to the UI controller 75 via the codec LSI 76, and the UI controller 75 instructs the marker unit 55 to turn on. As a result, the infrared LED of the marker unit 55 is turned on. In the above description, the case where the marker device 6 and the marker unit 55 are turned on has been described.

以上のステップS1の次にステップS2の処理が実行される。以降、ステップS2〜S
11の一連の処理からなる処理ループが所定時間(1フレーム時間)に1回の割合で繰り
返し実行される。
Following step S1, the process of step S2 is executed. Thereafter, steps S2 to S
A processing loop consisting of 11 series of processes is repeatedly executed at a rate of once per predetermined time (one frame time).

ステップS2において、CPU10は、コントローラ5から送信されてくるコントロー
ラ操作データを取得する。コントローラ5はコントローラ操作データをゲーム装置3へ繰
り返し送信するので、ゲーム装置3においては、コントローラ通信モジュール19が当該
コントローラ操作データを逐次受信し、受信されたコントローラ操作データが入出力プロ
セッサ11aによってメインメモリに逐次記憶される。送受信の間隔はゲームの処理時間
よりも短い方が好ましく、例えば200分の1秒である。ステップS2においては、CP
U10は、最新のコントローラ操作データ92をメインメモリから読み出す。ステップS
2の次にステップS3の処理が実行される。
In step S <b> 2, the CPU 10 acquires controller operation data transmitted from the controller 5. Since the controller 5 repeatedly transmits the controller operation data to the game apparatus 3, in the game apparatus 3, the controller communication module 19 sequentially receives the controller operation data, and the received controller operation data is stored in the main memory by the input / output processor 11a. Are sequentially stored. The transmission / reception interval is preferably shorter than the game processing time, for example, 1/200 second. In step S2, CP
U10 reads the latest controller operation data 92 from the main memory. Step S
2 is followed by step S3.

ステップS3において、CPU10は、端末装置7から送信されてくる各種のデータを
取得する。端末装置7は、端末操作データとカメラ画像データとマイク音データとをゲー
ム装置3へ繰り返し送信するので、ゲーム装置3はこれらのデータを逐次受信する。ゲー
ム装置3においては、端末通信モジュール28がこれらのデータを逐次受信し、カメラ画
像データおよびマイク音データについてはコーデックLSI27によって伸張処理が逐次
施される。そして、入出力プロセッサ11aが端末操作データとカメラ画像データとマイ
ク音データとをメインメモリに逐次記憶する。ステップS3においては、CPU10は、
最新の端末操作データ97をメインメモリから読み出す。ステップS3の次にステップS
4の処理が実行される。
In step S <b> 3, the CPU 10 acquires various data transmitted from the terminal device 7. Since the terminal device 7 repeatedly transmits terminal operation data, camera image data, and microphone sound data to the game device 3, the game device 3 sequentially receives these data. In the game apparatus 3, the terminal communication module 28 sequentially receives these data, and the camera image data and the microphone sound data are sequentially decompressed by the codec LSI 27. Then, the input / output processor 11a sequentially stores terminal operation data, camera image data, and microphone sound data in the main memory. In step S3, the CPU 10
The latest terminal operation data 97 is read from the main memory. Step S3 is followed by Step S3
Process 4 is executed.

ステップS4において、CPU10はゲーム制御処理を実行する。ゲーム制御処理は、
ユーザによるゲーム操作に従ってゲーム空間内のオブジェクトを動作させる処理等を実行
し、ゲームを進行させる処理である。本実施形態においては、ユーザは、コントローラ5
および/または端末装置7を用いて種々のゲームを行うことが可能である。以下、図20
を参照して、ゲーム制御処理について説明する。
In step S4, the CPU 10 executes a game control process. The game control process
This is a process for executing a process of moving an object in the game space in accordance with a game operation by the user and advancing the game. In the present embodiment, the user uses the controller 5
Various games can be played using the terminal device 7. Hereinafter, FIG.
The game control process will be described with reference to FIG.

図20は、ゲーム制御処理の詳細な流れを示すフローチャートである。なお、図20に
示す一連の処理は、コントローラ5および端末装置7を操作装置として用いる場合におい
て実行され得る種々の処理であるが、各処理の必ずしも全てが実行される必要はなく、ゲ
ームの種類や内容によっては一部の処理のみが実行されてもよい。
FIG. 20 is a flowchart showing a detailed flow of the game control process. Note that the series of processes shown in FIG. 20 are various processes that can be executed when the controller 5 and the terminal device 7 are used as operating devices, but not all of the processes need to be executed. Depending on the content, only a part of the processing may be executed.

ゲーム制御処理においては、まずステップS21において、CPU10は、使用するマ
ーカを変更するか否かを判定する。上述のように、本実施形態においては、ゲーム処理の
開始時(ステップS1)において、マーカ装置6およびマーカ部55の点灯を制御する処
理が実行される。ここで、ゲームによっては、ゲームの途中でマーカ装置6およびマーカ
部55のうちで使用する(点灯する)対象を変更する場合も考えられる。また、ゲームに
よってはマーカ装置6およびマーカ部55の両方を使用することも考えられるが、両方を
点灯させると、一方のマーカを他方のマーカと誤検出してしまうおそれがある。そのため
、ゲーム中において、いずれか一方のみを点灯させるように点灯を切り替えて使用するこ
とが好ましい場合もある。ステップS21の処理は、かかる場合を考慮し、点灯する対象
をゲーム途中で変更するか否かを判定する処理である。
In the game control process, first, in step S21, the CPU 10 determines whether or not to change the marker to be used. As described above, in the present embodiment, processing for controlling lighting of the marker device 6 and the marker unit 55 is executed at the start of the game processing (step S1). Here, depending on the game, there may be a case where the target to be used (lighted) in the marker device 6 and the marker unit 55 is changed during the game. Moreover, although it is possible to use both the marker apparatus 6 and the marker part 55 depending on a game, when both are lighted, there exists a possibility that one marker may be misdetected with the other marker. Therefore, it may be preferable to switch the lighting so that only one of them is lit during the game. The processing in step S21 is processing for determining whether or not to change the lighting target in the middle of the game in consideration of such a case.

上記ステップS21の判定は、例えば以下の方法で行うことができる。すなわち、CP
U10は、ゲーム状況(ゲームのステージや操作対象等)が変化したか否かによって上記
判定を行うことができる。ゲーム状況が変化する場合、マーカ装置6の方を向けてコント
ローラ5を操作する操作方法と、マーカ部55の方を向けてコントローラ5を操作する操
作方法との間で、操作方法が変更されることが考えられるからである。また、CPU10
は、コントローラ5の姿勢に基づいて上記判定を行うことができる。すなわち、コントロ
ーラ5がマーカ装置6の方を向いているか、マーカ部55の方を向いているかによって上
記判定を行うことができる。なお、コントローラ5の姿勢は、例えば加速度センサ37や
ジャイロセンサ48の検出結果に基づいて算出することができる(後述するステップS2
3参照)。また、CPU10は、ユーザによる変更指示があったか否かによって上記判定
を行うこともできる。
The determination in step S21 can be performed, for example, by the following method. That is, CP
U10 can make the above determination based on whether or not the game situation (game stage, operation target, etc.) has changed. When the game situation changes, the operation method is changed between an operation method in which the controller 5 is operated with the marker device 6 directed and an operation method in which the controller 5 is operated with the marker unit 55 directed. Because it is possible. CPU 10
Can make the above determination based on the attitude of the controller 5. That is, the above determination can be made depending on whether the controller 5 is facing the marker device 6 or the marker unit 55. Note that the attitude of the controller 5 can be calculated based on the detection results of the acceleration sensor 37 and the gyro sensor 48, for example (step S2 described later).
3). The CPU 10 can also make the above determination based on whether or not there is a change instruction from the user.

上記ステップS21の判定結果が肯定である場合、ステップS22の処理が実行される
。一方、上記ステップS21の判定結果が否定である場合、ステップS22の処理がスキ
ップされてステップS23の処理が実行される。
If the determination result of step S21 is affirmative, the process of step S22 is executed. On the other hand, if the determination result of step S21 is negative, the process of step S22 is skipped and the process of step S23 is executed.

ステップS22において、CPU10は、マーカ装置6およびマーカ部55の点灯を制
御する。すなわち、マーカ装置6および/またはマーカ部55の点灯状態を変更する。な
お、マーカ装置6および/またはマーカ部55を点灯または消灯する具体的な処理は、上
記ステップS1の場合と同様に行うことができる。ステップS22の次にステップS23
の処理が実行される。
In step S <b> 22, the CPU 10 controls lighting of the marker device 6 and the marker unit 55. That is, the lighting state of the marker device 6 and / or the marker unit 55 is changed. In addition, the specific process which lights or extinguishes the marker apparatus 6 and / or the marker part 55 can be performed similarly to the case of said step S1. Step S22 is followed by Step S23
The process is executed.

以上のように本実施形態によれば、上記ステップS1の処理によって、ゲームプログラ
ムの種類に応じてマーカ装置6およびマーカ部55の発光(点灯)を制御することができ
るとともに、上記ステップS21およびS22の処理によって、ゲーム状況に応じてマー
カ装置6およびマーカ部55の発光(点灯)を制御することができる。
As described above, according to the present embodiment, the light emission (lighting) of the marker device 6 and the marker unit 55 can be controlled according to the type of the game program by the process of step S1, and the steps S21 and S22 described above. With this process, the light emission (lighting) of the marker device 6 and the marker unit 55 can be controlled in accordance with the game situation.

ステップS23において、CPU10はコントローラ5の姿勢を算出する。本実施形態
では、コントローラ5の姿勢は、第1加速度データ94、第1角速度データ95、および
マーカ座標データ96に基づいて算出される。以下、コントローラ5の姿勢の算出方法に
ついて説明する。
In step S <b> 23, the CPU 10 calculates the attitude of the controller 5. In the present embodiment, the attitude of the controller 5 is calculated based on the first acceleration data 94, the first angular velocity data 95, and the marker coordinate data 96. Hereinafter, a method for calculating the attitude of the controller 5 will be described.

まず、CPU10は、メインメモリに記憶されている第1角速度データ95に基づいて
コントローラ5の姿勢を算出する。コントローラ5の姿勢を角速度から算出する方法はど
のような方法であってもよいが、当該姿勢は、前回の姿勢(前回に算出された姿勢)と、
今回の角速度(今回の処理ループにおけるステップS2で取得された角速度)とを用いて
算出される。具体的には、CPU10は、前回の姿勢を今回の角速度で単位時間分だけ回
転させることによって姿勢を算出する。なお、前回の姿勢は、メインメモリに記憶されて
いるコントローラ姿勢データ108により表され、今回の角速度は、メインメモリに記憶
されている第1角速度データ95により表される。したがって、CPU10は、メインメ
モリからコントローラ姿勢データ108および第1角速度データ95を読み出して、コン
トローラ5の姿勢を算出する。以上のようにして算出された「角速度に基づく姿勢」を表
すデータはメインメモリに記憶される。
First, the CPU 10 calculates the attitude of the controller 5 based on the first angular velocity data 95 stored in the main memory. The method for calculating the attitude of the controller 5 from the angular velocity may be any method, but the attitude is the previous attitude (the attitude calculated last time),
It is calculated using the current angular velocity (the angular velocity acquired in step S2 in the current processing loop). Specifically, the CPU 10 calculates the posture by rotating the previous posture by a unit time at the current angular velocity. The previous posture is represented by the controller posture data 108 stored in the main memory, and the current angular velocity is represented by the first angular velocity data 95 stored in the main memory. Therefore, the CPU 10 reads the controller attitude data 108 and the first angular velocity data 95 from the main memory, and calculates the attitude of the controller 5. Data representing the “posture based on the angular velocity” calculated as described above is stored in the main memory.

なお、角速度から姿勢を算出する場合、初期姿勢を定めておくのがよい。つまり、コン
トローラ5の姿勢を角速度から算出する場合には、CPU10は、最初にコントローラ5
の初期姿勢を算出しておく。コントローラ5の初期姿勢は、加速度データに基づいて算出
されてもよいし、コントローラ5を特定の姿勢にした状態でプレイヤに所定の操作を行わ
せることで、所定の操作が行われた時点における特定の姿勢を初期姿勢として用いるよう
にしてもよい。なお、空間における所定方向を基準とした絶対的な姿勢としてコントロー
ラ5の姿勢を算出する場合には上記初期姿勢を算出することが良いが、例えばゲーム開始
時点におけるコントローラ5の姿勢を基準とした相対的な姿勢としてコントローラ5の姿
勢を算出する場合には、上記初期姿勢は算出されなくても良い。
When calculating the attitude from the angular velocity, it is preferable to determine the initial attitude. That is, when calculating the attitude of the controller 5 from the angular velocity, the CPU 10 first sets the controller 5
The initial posture is calculated. The initial posture of the controller 5 may be calculated based on the acceleration data, or specified when the predetermined operation is performed by causing the player to perform a predetermined operation with the controller 5 in a specific posture. May be used as the initial posture. In addition, when calculating the attitude of the controller 5 as an absolute attitude based on a predetermined direction in space, it is preferable to calculate the initial attitude. When calculating the attitude of the controller 5 as a general attitude, the initial attitude may not be calculated.

次に、CPU10は、角速度に基づいて算出したコントローラ5の姿勢を、第1加速度
データ94を用いて補正する。具体的には、CPU10はまず、メインメモリから第1加
速度データ94を読み出して、第1加速度データ94に基づいてコントローラ5の姿勢を
算出する。ここで、コントローラ5がほぼ静止している状態では、コントローラ5に対し
て加えられる加速度は重力加速度を意味する。したがって、この状態においては、加速度
センサ37が出力する第1加速度データ94を用いて重力加速度の方向(重力方向)を算
出することができるので、重力方向に対するコントローラ5の向き(姿勢)を当該第1加
速度データ94に基づいて算出することができる。以上のようにして算出された「加速度
に基づく姿勢」を表すデータはメインメモリに記憶される。
Next, the CPU 10 corrects the attitude of the controller 5 calculated based on the angular velocity using the first acceleration data 94. Specifically, the CPU 10 first reads the first acceleration data 94 from the main memory, and calculates the attitude of the controller 5 based on the first acceleration data 94. Here, when the controller 5 is almost stationary, the acceleration applied to the controller 5 means gravitational acceleration. Therefore, in this state, since the direction of gravity acceleration (gravity direction) can be calculated using the first acceleration data 94 output from the acceleration sensor 37, the direction (posture) of the controller 5 with respect to the direction of gravity is the first value. It can be calculated based on one acceleration data 94. Data representing the “posture based on acceleration” calculated as described above is stored in the main memory.

加速度に基づく姿勢を算出すると、CPU10は次に、加速度に基づく姿勢を用いて、
角速度に基づく姿勢を補正する。具体的には、CPU10は、角速度に基づく姿勢を表す
データと加速度に基づく姿勢を表すデータとをメインメモリから読み出し、角速度データ
に基づく姿勢を、加速度データに基づく姿勢へ所定の割合で近づける補正を行う。この所
定の割合は、予め定められた固定値であってもよいし、第1加速度データ94が示す加速
度等に応じて設定されてもよい。また、加速度に基づく姿勢に関しては、重力方向を軸と
する回転方向については姿勢を算出することができないので、CPU10は、当該回転方
向に関しては補正を行わないようにしてもよい。本実施形態においては、以上のようにし
て得られた補正後の姿勢を表すデータはメインメモリに記憶される。
After calculating the posture based on the acceleration, the CPU 10 next uses the posture based on the acceleration,
Correct posture based on angular velocity. Specifically, the CPU 10 reads out the data representing the posture based on the angular velocity and the data representing the posture based on the acceleration from the main memory, and corrects the posture based on the angular velocity data closer to the posture based on the acceleration data at a predetermined ratio. Do. This predetermined ratio may be a predetermined fixed value, or may be set according to the acceleration or the like indicated by the first acceleration data 94. In addition, regarding the posture based on acceleration, since the posture cannot be calculated for the rotation direction with the gravity direction as an axis, the CPU 10 may not correct the rotation direction. In the present embodiment, data representing the corrected posture obtained as described above is stored in the main memory.

上記のようにして角速度に基づく姿勢を補正した後、CPU10は、補正後の姿勢をマ
ーカ座標データ96を用いてさらに補正する。まず、CPU10は、マーカ座標データ9
6に基づいてコントローラ5の姿勢(マーカ座標に基づく姿勢)を算出する。マーカ座標
データ96は、撮像画像内におけるマーカ6Rおよび6Lの位置を示すので、これらの位
置から、ロール方向(Z軸回りの回転方向)に関するコントローラ5の姿勢を算出するこ
とができる。つまり、撮像画像内においてマーカ6Rの位置とマーカ6Lの位置とを結ぶ
直線の傾きから、ロール方向に関するコントローラ5の姿勢を算出することができる。ま
た、マーカ装置6に対するコントローラ5の位置が特定できる場合(例えば、マーカ装置
6の正面にコントローラ5が位置すると想定できる場合)には、撮像画像内におけるマー
カ装置6の位置から、ピッチ方向およびヨー方向に関するコントローラ5の姿勢を算出す
ることができる。例えば、撮像画像内においてマーカ6Rおよび6Lの位置が左に移動し
た場合、コントローラ5は右に向き(姿勢)を変えたと判断することができる。このよう
に、マーカ6Rおよびマーカ6Lの位置から、ピッチ方向およびヨー方向に関するコント
ローラ5の姿勢を算出することができる。以上のようにして、マーカ座標データ96に基
づいてコントローラ5の姿勢を算出することができる。
After correcting the posture based on the angular velocity as described above, the CPU 10 further corrects the corrected posture using the marker coordinate data 96. First, the CPU 10 uses the marker coordinate data 9
6 is used to calculate the attitude of the controller 5 (an attitude based on the marker coordinates). Since the marker coordinate data 96 indicates the positions of the markers 6R and 6L in the captured image, the attitude of the controller 5 with respect to the roll direction (the rotation direction around the Z axis) can be calculated from these positions. That is, the posture of the controller 5 with respect to the roll direction can be calculated from the inclination of a straight line connecting the position of the marker 6R and the position of the marker 6L in the captured image. When the position of the controller 5 with respect to the marker device 6 can be specified (for example, when it can be assumed that the controller 5 is located in front of the marker device 6), the pitch direction and yaw are determined from the position of the marker device 6 in the captured image. The attitude of the controller 5 with respect to the direction can be calculated. For example, when the positions of the markers 6R and 6L move to the left in the captured image, the controller 5 can determine that the orientation (posture) has changed to the right. Thus, the attitude of the controller 5 with respect to the pitch direction and the yaw direction can be calculated from the positions of the marker 6R and the marker 6L. As described above, the attitude of the controller 5 can be calculated based on the marker coordinate data 96.

マーカ座標に基づく姿勢を算出すると、CPU10は次に、上記補正後の姿勢(加速度
に基づく姿勢によって補正された姿勢)を、マーカ座標に基づく姿勢で補正する。すなわ
ち、CPU10は、補正後の姿勢を、マーカ座標に基づく姿勢へ所定の割合で近づける補
正を行う。この所定の割合は、予め定められた固定値であってもよい。また、マーカ座標
に基づく姿勢による補正は、ロール方向、ピッチ方向、およびヨー方向のいずれか1つま
たは2つの方向のみについて行われてもよい。例えば、マーカ座標データ96を用いる場
合、ロール方向については精度良く姿勢を算出することができるので、CPU10は、ロ
ール方向についてのみ、マーカ座標データ96に基づく姿勢を用いて補正を行ってもよい
。また、コントローラ5の撮像素子40によってマーカ装置6またはマーカ部55が撮像
されていない場合は、マーカ座標データ96に基づく姿勢を算出することができないので
、この場合にはマーカ座標データ96を用いる補正処理は実行されなくてもよい。
After calculating the posture based on the marker coordinates, the CPU 10 next corrects the corrected posture (the posture corrected by the posture based on acceleration) with the posture based on the marker coordinates. That is, the CPU 10 performs correction to bring the corrected posture closer to the posture based on the marker coordinates at a predetermined rate. This predetermined ratio may be a predetermined fixed value. Further, the correction based on the posture based on the marker coordinates may be performed only in any one or two of the roll direction, the pitch direction, and the yaw direction. For example, when the marker coordinate data 96 is used, the posture can be accurately calculated with respect to the roll direction. Therefore, the CPU 10 may perform correction using the posture based on the marker coordinate data 96 only for the roll direction. Further, when the marker device 6 or the marker unit 55 is not imaged by the imaging device 40 of the controller 5, the posture based on the marker coordinate data 96 cannot be calculated. In this case, correction using the marker coordinate data 96 is performed. The process may not be executed.

上記によれば、CPU10は、第1角速度データ95に基づいて算出されたコントロー
ラ5の第1姿勢を、第1加速度データ94およびマーカ座標データ96を用いて補正した
。ここで、コントローラ5の姿勢を算出する方法のうち、角速度を用いる方法では、コン
トローラ5がどのように動いているときであっても姿勢を算出することができる。一方、
角速度を用いる方法では、逐次検出される角速度を累積加算していくことによって姿勢を
算出するので、誤差が累積すること等によって精度が悪くなったり、いわゆる温度ドリフ
トの問題でジャイロセンサの精度が悪くなったりするおそれがある。また、加速度を用い
る方法は、誤差が蓄積しない一方、コントローラ5が激しく動かされている状態では、(
重力方向を正確に検出することができないので)姿勢を精度良く算出することができない
。また、マーカ座標を用いる方法は、(特にロール方向に関して)姿勢を精度良く算出す
ることができる一方、マーカ部55を撮像できない状態では姿勢を算出することができな
い。これに対して、本実施形態によれば、上記のように特長の異なる3種類の方法を用い
るので、コントローラ5の姿勢をより正確に算出することができる。なお、他の実施形態
においては、上記3つの方法のうちいずれか1つまたは2つを用いて姿勢を算出するよう
にしてもよい。また、上記ステップS1またはS22の処理においてマーカの点灯制御を
行う場合には、CPU10は、少なくともマーカ座標を用いてコントローラ5の姿勢を算
出することが好ましい。
Based on the above, the CPU 10 corrected the first attitude of the controller 5 calculated based on the first angular velocity data 95 using the first acceleration data 94 and the marker coordinate data 96. Here, among the methods for calculating the attitude of the controller 5, the method using the angular velocity can calculate the attitude even when the controller 5 is moving. on the other hand,
In the method using angular velocities, the posture is calculated by accumulating the angular velocities detected sequentially, so that the accuracy is degraded due to accumulated errors, etc., or the accuracy of the gyro sensor is degraded due to the so-called temperature drift problem. There is a risk of becoming. Further, the method using acceleration does not accumulate errors, but in the state where the controller 5 is moved violently (
The posture cannot be calculated accurately (because the direction of gravity cannot be detected accurately). Further, the method using the marker coordinates can calculate the attitude with high accuracy (particularly regarding the roll direction), but cannot calculate the attitude when the marker unit 55 cannot be imaged. On the other hand, according to this embodiment, since the three types of methods having different features are used as described above, the attitude of the controller 5 can be calculated more accurately. In other embodiments, the posture may be calculated using any one or two of the above three methods. When performing marker lighting control in the processing of step S1 or S22, the CPU 10 preferably calculates the attitude of the controller 5 using at least marker coordinates.

上記ステップS23の次に、ステップS24の処理が実行される。ステップS24にお
いては、CPU10は、端末装置7の姿勢を算出する。すなわち、端末装置7から取得さ
れる端末操作データ97には、第2加速度データ101、第2角速度データ102、およ
び方位データ103が含まれるので、CPU10は、これらのデータに基づいて端末装置
7の姿勢を算出する。ここで、CPU10は、第2角速度データ102によって端末装置
7の単位時間当たりにおける回転量(姿勢の変化量)を知ることができる。また、端末装
置7がほぼ静止している状態では、端末装置7に対して加えられる加速度は重力加速度を
意味するので、第2加速度データ101によって端末装置7に加えられる重力方向(すな
わち、重力方向を基準とした端末装置7の姿勢)を知ることができる。また、方位データ
103によって、端末装置7を基準とした所定の方位(すなわち、所定の方位を基準とし
た端末装置7の姿勢)を知ることができる。なお、地磁気以外の磁界が発生している場合
であっても、端末装置7の回転量を知ることができる。したがって、CPU10は、これ
ら第2加速度データ101、第2角速度データ102、および方位データ103に基づい
て端末装置7の姿勢を算出することができる。なお、本実施形態においては、上記3つの
データに基づいて端末装置7の姿勢を算出するが、他の実施形態においては、上記3つの
データのうち1つまたは2つに基づいて姿勢を算出するようにしてもよい。
Following step S23, the process of step S24 is executed. In step S <b> 24, the CPU 10 calculates the attitude of the terminal device 7. That is, since the terminal operation data 97 acquired from the terminal device 7 includes the second acceleration data 101, the second angular velocity data 102, and the azimuth data 103, the CPU 10 uses the data of the terminal device 7 based on these data. Calculate the posture. Here, the CPU 10 can know the amount of rotation (the amount of change in posture) per unit time of the terminal device 7 from the second angular velocity data 102. In addition, when the terminal device 7 is almost stationary, the acceleration applied to the terminal device 7 means gravitational acceleration. Therefore, the gravity direction applied to the terminal device 7 by the second acceleration data 101 (that is, the gravity direction). Can be known). Further, it is possible to know a predetermined direction with reference to the terminal device 7 (that is, the attitude of the terminal device 7 with reference to the predetermined direction) from the direction data 103. Even when a magnetic field other than geomagnetism is generated, the amount of rotation of the terminal device 7 can be known. Therefore, the CPU 10 can calculate the attitude of the terminal device 7 based on the second acceleration data 101, the second angular velocity data 102, and the azimuth data 103. In the present embodiment, the attitude of the terminal device 7 is calculated based on the three data. In other embodiments, the attitude is calculated based on one or two of the three data. You may do it.

なお、端末装置7の姿勢の具体的な算出方法はどのような方法であってもよいが、例え
ば、第2角速度データ102が表す角速度に基づいて算出される姿勢を、第2加速度デー
タ101および方位データ103を用いて補正する方法が考えられる。具体的には、CP
U10は、まず、第2角速度データ102に基づいて端末装置7の姿勢を算出する。なお
、角速度に基づいて姿勢を算出する方法は、上記ステップS23における方法と同様であ
ってもよい。次に、CPU10は、適宜のタイミング(例えば、端末装置7が静止状態に
近い場合に)で、角速度に基づいて算出される姿勢を、第2加速度データ101に基づい
て算出される姿勢、および/または、方位データ103に基づいて算出される姿勢によっ
て補正する。なお、角速度に基づく姿勢を加速度に基づく姿勢で補正する方法は、上述し
たコントローラ5の姿勢を算出する場合と同様の方法であってもよい。また、角速度に基
づく姿勢を方位データに基づく姿勢で補正する場合には、CPU10は、角速度に基づく
姿勢を、方位データに基づく姿勢へと所定の割合で近づけるようにしてもよい。以上によ
れば、CPU10は、端末装置7の姿勢を正確に算出することができる。
Note that any specific method for calculating the attitude of the terminal device 7 may be used. For example, the attitude calculated based on the angular velocity represented by the second angular velocity data 102 may be the second acceleration data 101 and A method of correcting using the azimuth data 103 is conceivable. Specifically, CP
First, U 10 calculates the attitude of the terminal device 7 based on the second angular velocity data 102. The method for calculating the attitude based on the angular velocity may be the same as the method in step S23. Next, the CPU 10 changes the posture calculated based on the angular velocity to the posture calculated based on the second acceleration data 101 at an appropriate timing (for example, when the terminal device 7 is close to a stationary state), and / or Or it correct | amends with the attitude | position calculated based on the azimuth | direction data 103. FIG. Note that the method for correcting the posture based on the angular velocity with the posture based on the acceleration may be the same method as that for calculating the posture of the controller 5 described above. When correcting the posture based on the angular velocity with the posture based on the azimuth data, the CPU 10 may cause the posture based on the angular velocity to approach the posture based on the azimuth data at a predetermined rate. Based on the above, the CPU 10 can accurately calculate the attitude of the terminal device 7.

なお、コントローラ5は、赤外線検知手段である撮像情報演算部35を備えているので
、ゲーム装置3はマーカ座標データ96を取得することができる。そのため、コントロー
ラ5に関しては、ゲーム装置3は、実空間における絶対的な姿勢(実空間に設定された座
標系においてコントローラ5がどのような姿勢であるか)をマーカ座標データ96から知
ることができる。一方、端末装置7は撮像情報演算部35のような赤外線検知手段を備え
ていない。そのため、ゲーム装置3は、第2加速度データ101および第2角速度データ
102からのみでは、重力方向を軸とした回転方向に関して実空間における絶対的な姿勢
を知ることができない。そこで、本実施形態では端末装置7が磁気センサ72を備える構
成とし、ゲーム装置3は方位データ103を取得するようにしている。これによれば、ゲ
ーム装置3は、重力方向を軸とした回転方向に関して実空間における絶対的な姿勢を方位
データ103から算出することができ、端末装置7の姿勢をより正確に算出することがで
きる。
Since the controller 5 includes the imaging information calculation unit 35 that is an infrared detection means, the game apparatus 3 can acquire the marker coordinate data 96. Therefore, with respect to the controller 5, the game apparatus 3 can know from the marker coordinate data 96 the absolute posture in the real space (what posture the controller 5 is in the coordinate system set in the real space). . On the other hand, the terminal device 7 does not include an infrared detection unit such as the imaging information calculation unit 35. Therefore, the game apparatus 3 cannot know the absolute posture in the real space with respect to the rotation direction about the gravity direction only from the second acceleration data 101 and the second angular velocity data 102. Therefore, in the present embodiment, the terminal device 7 is configured to include the magnetic sensor 72, and the game apparatus 3 acquires the orientation data 103. According to this, the game apparatus 3 can calculate the absolute attitude in the real space with respect to the rotation direction with the gravity direction as the axis from the orientation data 103, and can calculate the attitude of the terminal device 7 more accurately. it can.

上記ステップS24の具体的な処理としては、CPU10は、第2加速度データ101
、第2角速度データ102、および方位データ103をメインメモリから読み出し、これ
らのデータに基づいて端末装置7の姿勢を算出する。そして、算出された端末装置7の姿
勢を表すデータを端末姿勢データ109としてメインメモリに記憶する。ステップS24
の次にステップS25の処理が実行される。
As a specific process of step S24, the CPU 10 performs the second acceleration data 101.
The second angular velocity data 102 and the azimuth data 103 are read from the main memory, and the attitude of the terminal device 7 is calculated based on these data. Then, data representing the calculated attitude of the terminal device 7 is stored in the main memory as terminal attitude data 109. Step S24
Next, the process of step S25 is executed.

ステップS25において、CPU10は、カメラ画像の認識処理を実行する。すなわち
、CPU10は、カメラ画像データ104に対して所定の認識処理を行う。この認識処理
は、カメラ画像から何らかの特徴を検知してその結果を出力するものであればどのような
ものであってもよい。例えば、カメラ画像にプレイヤの顔が含まれている場合には、顔を
認識する処理であってもよい。具体的には、顔の一部(目や鼻や口等)を検出する処理で
あってもよいし、顔の表情を検出する処理であってもよい。また、認識処理の結果を表す
データは、画像認識データ110としてメインメモリに記憶される。ステップS25の次
にステップS26の処理が実行される。
In step S25, the CPU 10 executes camera image recognition processing. That is, the CPU 10 performs a predetermined recognition process on the camera image data 104. This recognition process may be anything as long as it detects some feature from the camera image and outputs the result. For example, when a camera image includes a player's face, a process for recognizing the face may be used. Specifically, it may be a process of detecting a part of the face (eyes, nose, mouth, etc.) or a process of detecting facial expressions. Data representing the result of recognition processing is stored in the main memory as image recognition data 110. Following step S25, the process of step S26 is executed.

ステップS26において、CPU10は、マイク音声の認識処理を実行する。すなわち
、CPU10は、マイク音データ105に対して所定の認識処理を行う。この認識処理は
、マイク音声から何らかの特徴を検知してその結果を出力するものであればどのようなも
のであってもよい。例えば、マイク音声からプレイヤの指示を検出する処理であってもよ
いし、単にマイク音声の音量を検出する処理であってもよい。また、認識処理の結果を表
すデータは、音声認識データ111としてメインメモリに記憶される。ステップS26の
次にステップS27の処理が実行される。
In step S26, the CPU 10 executes microphone sound recognition processing. That is, the CPU 10 performs a predetermined recognition process on the microphone sound data 105. This recognition process may be anything as long as it detects some feature from the microphone sound and outputs the result. For example, it may be a process of detecting a player instruction from a microphone sound, or a process of simply detecting the volume of the microphone sound. Data representing the result of recognition processing is stored in the main memory as voice recognition data 111. Following step S26, the process of step S27 is executed.

ステップS27において、CPU10は、ゲーム入力に応じたゲーム処理を実行する。
ここで、ゲーム入力とは、コントローラ5または端末装置7から送信されてくるデータ、
あるいは、当該データから得られるデータであればどのようなものであってもよい。具体
的には、ゲーム入力は、コントローラ操作データ92および端末操作データ97に含まれ
る各データの他、当該各データから得られるデータ(コントローラ姿勢データ108、端
末姿勢データ109、画像認識データ110、および音声認識データ111)であっても
よい。また、ステップS27におけるゲーム処理の内容はどのようなものであってもよく
、例えば、ゲームに登場するオブジェクト(キャラクタ)を動作させる処理、仮想カメラ
を制御する処理、または、画面に表示されるカーソルを移動する処理であってもよい。ま
た、カメラ画像(またはその一部)をゲーム画像として用いる処理、または、マイク音声
をゲーム音声として用いる処理等であってもよい。なお上記ゲーム処理の例については後
述する。ステップS27においては、例えば、ゲームに登場するキャラクタ(オブジェク
ト)に設定される各種パラメータのデータや、ゲーム空間に配置される仮想カメラに関す
るパラメータのデータや、得点のデータ等、ゲーム制御処理の結果を表すデータがメイン
メモリに記憶される。ステップS27の後、CPU10はステップS4のゲーム制御処理
を終了する。
In step S27, the CPU 10 executes a game process according to the game input.
Here, the game input is data transmitted from the controller 5 or the terminal device 7,
Alternatively, any data obtained from the data may be used. Specifically, the game input is not only the data included in the controller operation data 92 and the terminal operation data 97, but also data obtained from the data (controller attitude data 108, terminal attitude data 109, image recognition data 110, and Voice recognition data 111) may be used. Further, the content of the game process in step S27 may be anything, for example, a process for operating an object (character) appearing in the game, a process for controlling a virtual camera, or a cursor displayed on the screen. It may be a process of moving. Moreover, the process which uses a camera image (or its part) as a game image, the process which uses a microphone sound as a game sound, etc. may be sufficient. An example of the game process will be described later. In step S27, the results of the game control process, such as data of various parameters set for a character (object) appearing in the game, data of parameters related to a virtual camera arranged in the game space, score data, etc. Representing data is stored in the main memory. After step S27, the CPU 10 ends the game control process of step S4.

図19の説明に戻り、ステップS5において、テレビ2に表示するためのテレビ用ゲー
ム画像がCPU10およびGPU11bによって生成される。すなわち、CPU10およ
びGPU11bは、ステップS4のゲーム制御処理の結果を表すデータをメインメモリか
ら読み出し、また、ゲーム画像を生成するために必要なデータをVRAM11dから読み
出し、ゲーム画像を生成する。ゲーム画像は、ステップS4のゲーム制御処理の結果を表
すものであればよく、どのような方法で生成されてもよい。例えば、ゲーム画像の生成方
法は、仮想のゲーム空間内に仮想カメラを配置して、仮想カメラから見たゲーム空間を計
算することによって3次元のCG画像を生成する方法であってもよいし、(仮想カメラを
用いずに)2次元の画像を生成する方法であってもよい。生成されたテレビ用ゲーム画像
はVRAM11dに記憶される。上記ステップS5の次にステップS6の処理が実行され
る。
Returning to the description of FIG. 19, in step S5, a television game image to be displayed on the television 2 is generated by the CPU 10 and the GPU 11b. That is, the CPU 10 and the GPU 11b read data representing the result of the game control process in step S4 from the main memory, and read data necessary for generating a game image from the VRAM 11d to generate a game image. The game image only needs to represent the result of the game control process in step S4, and may be generated by any method. For example, the game image generation method may be a method of generating a three-dimensional CG image by arranging a virtual camera in a virtual game space and calculating a game space viewed from the virtual camera. A method of generating a two-dimensional image (without using a virtual camera) may be used. The generated television game image is stored in the VRAM 11d. Following step S5, the process of step S6 is executed.

ステップS6において、端末装置7に表示するための端末用ゲーム画像がCPU10お
よびGPU11bによって生成される。端末用ゲーム画像も上記テレビ用ゲーム画像と同
様、ステップS4のゲーム制御処理の結果を表すものであればよく、どのような方法で生
成されてもよい。また、端末用ゲーム画像は、上記テレビ用ゲーム画像と同様の方法で生
成されてもよいし、異なる方法で生成されてもよい。生成された端末用ゲーム画像はVR
AM11dに記憶される。なお、ゲームの内容によってはテレビ用ゲーム画像と端末用ゲ
ーム画像とは同一であってもよく、この場合、ステップS6においてゲーム画像の生成処
理は実行されなくてもよい。上記ステップS6の次にステップS7の処理が実行される。
In step S6, a terminal game image to be displayed on the terminal device 7 is generated by the CPU 10 and the GPU 11b. The terminal game image may be generated by any method as long as it represents the result of the game control process in step S4, similarly to the television game image. Further, the terminal game image may be generated by the same method as the television game image or may be generated by a different method. The generated terminal game image is VR
Stored in the AM 11d. Depending on the content of the game, the television game image and the terminal game image may be the same, and in this case, the game image generation process may not be executed in step S6. Following step S6, the process of step S7 is executed.

ステップS7においては、テレビ2のスピーカ2aに出力するためのテレビ用ゲーム音
声が生成される。すなわち、CPU10は、ステップS4のゲーム制御処理の結果に応じ
たゲーム音声をDSP11cに生成させる。なお、生成されるゲーム音声は、例えばゲー
ムの効果音や、ゲームに登場するキャラクタの声や、BGM等であってもよい。上記ステ
ップS7の次にステップS8の処理が実行される。
In step S7, a television game sound to be output to the speaker 2a of the television 2 is generated. That is, the CPU 10 causes the DSP 11c to generate game sound corresponding to the result of the game control process in step S4. The generated game sound may be, for example, a game sound effect, a voice of a character appearing in the game, BGM, or the like. Following step S7, the process of step S8 is executed.

ステップS8においては、端末装置7のスピーカ77に出力するための端末用ゲーム音
声が生成される。すなわち、CPU10は、ステップS4のゲーム制御処理の結果に応じ
たゲーム音声をDSP11cに生成させる。なお、端末用ゲーム音声は、上記テレビ用ゲ
ーム音声と同じであってもよいし、異なっていてもよい。また、例えば効果音は異なるが
、BGMは同じである、というように、一部のみが異なっていてもよい。なお、テレビ用
ゲーム音声と端末用ゲーム音声とが同一である場合、ステップS8においてゲーム音声の
生成処理は実行されなくてもよい。上記ステップS8の次にステップS9の処理が実行さ
れる。
In step S8, a terminal game sound to be output to the speaker 77 of the terminal device 7 is generated. That is, the CPU 10 causes the DSP 11c to generate game sound corresponding to the result of the game control process in step S4. The terminal game sound may be the same as or different from the television game sound. Further, for example, the sound effects are different, but the BGM is the same, and only a part may be different. Note that when the television game sound and the terminal game sound are the same, the game sound generation process does not have to be executed in step S8. Following step S8, the process of step S9 is executed.

ステップS9において、CPU10は、テレビ2へゲーム画像およびゲーム音声を出力
する。具体的には、CPU10は、VRAM11dに記憶されたテレビ用ゲーム画像のデ
ータと、ステップS7でDSP11cによって生成されたテレビ用ゲーム音声のデータと
をAV−IC15へ送る。これに応じて、AV−IC15は画像および音声のデータをA
Vコネクタ16を介してテレビ2へ出力する。これによって、テレビ用ゲーム画像がテレ
ビ2に表示されるとともに、テレビ用ゲーム音声がスピーカ2aから出力される。ステッ
プS9の次にステップS10の処理が実行される。
In step S <b> 9, the CPU 10 outputs a game image and game sound to the television 2. Specifically, the CPU 10 sends the TV game image data stored in the VRAM 11d and the TV game sound data generated by the DSP 11c in step S7 to the AV-IC 15. In response, the AV-IC 15 converts the image and audio data to A
Output to the television 2 via the V connector 16. Thus, the television game image is displayed on the television 2 and the television game sound is output from the speaker 2a. Following step S9, the process of step S10 is executed.

ステップS10において、CPU10は、端末装置7へゲーム画像およびゲーム音声を
送信する。具体的には、VRAM11dに記憶された端末用ゲーム画像の画像データ、お
よび、ステップS8でDSP11cによって生成された音声データは、CPU10によっ
てコーデックLSI27に送られ、コーデックLSI27によって所定の圧縮処理が行わ
れる。さらに、圧縮処理が施された画像および音声のデータは、端末通信モジュール28
によってアンテナ29を介して端末装置7へ送信される。端末装置7は、ゲーム装置3か
ら送信されてくる画像および音声のデータを無線モジュール80によって受信し、コーデ
ックLSI76によって所定の伸張処理が行われる。伸張処理が行われた画像データはL
CD51に出力され、伸張処理が行われた音声データはサウンドIC78に出力される。
これによって、端末用ゲーム画像がLCD51に表示されるとともに、端末用ゲーム音声
がスピーカ77から出力される。ステップS10の次にステップS11の処理が実行され
る。
In step S <b> 10, the CPU 10 transmits a game image and game sound to the terminal device 7. Specifically, the image data of the terminal game image stored in the VRAM 11d and the audio data generated by the DSP 11c in step S8 are sent to the codec LSI 27 by the CPU 10, and predetermined compression processing is performed by the codec LSI 27. . Further, the compressed image and audio data are stored in the terminal communication module 28.
Is transmitted to the terminal device 7 via the antenna 29. The terminal device 7 receives the image and sound data transmitted from the game device 3 by the wireless module 80, and a predetermined decompression process is performed by the codec LSI 76. The decompressed image data is L
The audio data output to the CD 51 and subjected to the decompression process is output to the sound IC 78.
As a result, the terminal game image is displayed on the LCD 51 and the terminal game sound is output from the speaker 77. Following step S10, the process of step S11 is executed.

ステップS11において、CPU10は、ゲームを終了するか否かを判定する。ステッ
プS11の判定は、例えば、ゲームオーバーになったか否か、あるいは、ユーザがゲーム
を中止する指示を行ったか否か等によって行われる。ステップS11の判定結果が否定の
場合、ステップS2の処理が再度実行される。一方、ステップS11の判定結果が肯定の
場合、CPU10は図19に示すゲーム処理を終了する。以降、ステップS2〜S11の
一連の処理は、ステップS11でゲームを終了すると判定されるまで繰り返し実行される
In step S11, the CPU 10 determines whether or not to end the game. The determination in step S11 is made based on, for example, whether or not the game is over or whether or not the user has given an instruction to stop the game. If the determination result of step S11 is negative, the process of step S2 is executed again. On the other hand, if the determination result of step S11 is affirmative, the CPU 10 ends the game process shown in FIG. Thereafter, a series of processes in steps S2 to S11 are repeatedly executed until it is determined in step S11 that the game is to be ended.

以上のように、本実施形態では、端末装置7は、タッチパネル52と、加速度センサ7
3またはジャイロセンサ74といった慣性センサとを備えており、タッチパネル52およ
び慣性センサの出力が操作データとしてゲーム装置3へ送信されてゲームの入力として用
いられる(ステップS3,S4)。さらに、端末装置7は表示装置(LCD51)を備え
ており、ゲーム処理によって得られるゲーム画像がLCD51に表示される(ステップS
6,S10)。したがって、ユーザは、タッチパネル52を用いてゲーム画像に対して直
接タッチする操作を行うことができ、また、(端末装置7の動きが慣性センサによって検
出されるため)ゲーム画像が表示されるLCD51自体を動かす操作を行うことができる
。ユーザは、これらの操作によってゲーム画像に対して直接操作を行うような操作感覚で
ゲームを行うことができるので、例えば後述する第1および第2のゲーム例のような新規
な操作感覚のゲームを提供することができる。
As described above, in the present embodiment, the terminal device 7 includes the touch panel 52 and the acceleration sensor 7.
3 or an inertial sensor such as a gyro sensor 74, and outputs from the touch panel 52 and the inertial sensor are transmitted as operation data to the game apparatus 3 and used as game inputs (steps S3 and S4). Further, the terminal device 7 includes a display device (LCD 51), and a game image obtained by the game process is displayed on the LCD 51 (step S).
6, S10). Therefore, the user can directly touch the game image using the touch panel 52, and the LCD 51 itself on which the game image is displayed (because the movement of the terminal device 7 is detected by the inertial sensor). Can be operated. Since the user can play the game with an operation feeling that directly operates the game image by these operations, for example, a game with a new operation feeling such as first and second game examples described later is performed. Can be provided.

さらに、本実施形態では、端末装置7は、端末装置7を把持した状態で操作可能なアナ
ログスティック53および操作ボタン54を備えており、ゲーム装置3は、アナログステ
ィック53および操作ボタン54に対する操作をゲームの入力として用いることができる
(ステップS3,S4)。したがって、上記のようにゲーム画像に対して直接操作を行う
場合においても、ユーザはボタン操作やスティック操作によってより詳細なゲーム操作を
行うことができる。
Furthermore, in the present embodiment, the terminal device 7 includes an analog stick 53 and an operation button 54 that can be operated while holding the terminal device 7, and the game apparatus 3 performs an operation on the analog stick 53 and the operation button 54. It can be used as a game input (steps S3 and S4). Accordingly, even when the game image is directly operated as described above, the user can perform a more detailed game operation by a button operation or a stick operation.

さらに、本実施形態では、端末装置7はカメラ56およびマイク79を備えており、カ
メラ56が撮像するカメラ画像のデータ、および、マイク79が検出するマイク音のデー
タはゲーム装置3へ送信される(ステップS3)。したがって、ゲーム装置3は、上記カ
メラ画像および/またはマイク音をゲーム入力として用いることが可能であるので、ユー
ザは、カメラ56で画像を撮像する操作や、マイク79に音声を入力する操作によってゲ
ーム操作を行うことも可能である。なお、これらの操作は端末装置7を把持した状態で行
うことが可能であるので、上記のようにゲーム画像に対して直接操作を行う場合において
これらの操作を行うことによって、ユーザはより多彩なゲーム操作を行うことができる。
Furthermore, in the present embodiment, the terminal device 7 includes a camera 56 and a microphone 79, and camera image data captured by the camera 56 and microphone sound data detected by the microphone 79 are transmitted to the game apparatus 3. (Step S3). Therefore, since the game apparatus 3 can use the camera image and / or the microphone sound as a game input, the user can perform a game by an operation of capturing an image with the camera 56 or an operation of inputting a sound into the microphone 79. It is also possible to perform operations. Since these operations can be performed with the terminal device 7 being held, the user can perform more various operations by directly performing the operations on the game image as described above. Game operations can be performed.

また、本実施形態では、可搬型である端末装置7のLCD51にゲーム画像が表示され
る(ステップS6,S10)ので、ユーザは、端末装置7を自由に配置することができる
。したがって、コントローラ5をマーカの方へ向けて操作を行う場合において、ユーザは
、端末装置7を自由な位置に配置することによってコントローラ5を自由な方向に向けて
ゲームを行うことができ、コントローラ5に対する操作の自由度を向上することができる
。また、端末装置7を任意の位置に配置することができるので、例えば後述する第5のゲ
ーム例のように、ゲーム内容に適した位置に端末装置7を配置することによって、より現
実感のあるゲームを提供することができる。
In the present embodiment, since the game image is displayed on the LCD 51 of the portable terminal device 7 (steps S6 and S10), the user can freely arrange the terminal device 7. Accordingly, when the controller 5 is operated toward the marker, the user can play the game by directing the controller 5 in any direction by arranging the terminal device 7 at any position. The degree of freedom of operation with respect to can be improved. Further, since the terminal device 7 can be arranged at an arbitrary position, it is more realistic by arranging the terminal device 7 at a position suitable for the game content, for example, as in a fifth game example described later. A game can be offered.

また、本実施形態によれば、ゲーム装置3は、コントローラ5および端末装置7から操
作データ等を取得する(ステップS2,S3)ので、ユーザは、コントローラ5および端
末装置7という2つの装置を操作手段として用いることができる。したがって、ゲームシ
ステム1においては、各装置を複数人のユーザが使用することによって複数人でゲームを
行うこともでき、また、1人のユーザが2つの装置を使用してゲームを行うこともできる
In addition, according to the present embodiment, the game apparatus 3 acquires operation data and the like from the controller 5 and the terminal apparatus 7 (steps S2 and S3), so that the user operates the two apparatuses, the controller 5 and the terminal apparatus 7. It can be used as a means. Therefore, in the game system 1, a plurality of users can use each device to play a game with a plurality of users, and one user can also play a game using two devices. .

また、本実施形態によれば、ゲーム装置3は2種類のゲーム画像を生成し(ステップS
5,S6)、テレビ2と端末装置7とにゲーム画像を表示させる(ステップS9,S10
)ことができる。このように、2種類のゲーム画像を異なる装置に表示させることによっ
て、ユーザにとってより見やすいゲーム画像を提供することができ、ゲームの操作性を向
上することができる。例えば、2人でゲームを行う場合には、後述する第3または第4の
ゲーム例のように、一方のユーザにとって見やすい視点のゲーム画像をテレビ2に表示し
、他方のユーザにとって見やすい視点のゲーム画像を端末装置7に表示することによって
、それぞれのプレイヤが見やすい視点でゲームを行うことができる。また、例えば1人で
ゲームを行う場合においても、後述する第1、第2および第5のゲーム例のように、異な
る2箇所の視点で2種類のゲーム画像を表示することによって、プレイヤはゲーム空間の
様子をより容易に把握することができ、ゲームの操作性を向上することができる。
Further, according to the present embodiment, the game apparatus 3 generates two types of game images (step S
5, S6), the game image is displayed on the television 2 and the terminal device 7 (steps S9, S10).
)be able to. Thus, by displaying two types of game images on different devices, it is possible to provide a game image that is easier for the user to see and improve the operability of the game. For example, when two people play a game, a game image with a viewpoint that is easy to see for one user is displayed on the television 2 and a game with a viewpoint that is easy for the other user to see, as in a third or fourth game example described later. By displaying the image on the terminal device 7, it is possible to play the game from the viewpoint that each player can easily see. For example, even when one person plays a game, the player can display a game by displaying two types of game images from two different viewpoints as in first, second, and fifth game examples described later. The state of the space can be grasped more easily, and the operability of the game can be improved.

[6.ゲーム例]
次に、ゲームシステム1において行われるゲームの具体例について説明する。なお、以
下に説明するゲーム例においては、ゲームシステム1における各装置の構成のうち一部を
利用しない場合もあり、また、図19および図20に示す一連の処理のうち一部の処理を
実行しない場合もある。つまり、ゲームシステム1は、上述した全ての構成を備えていな
くてもよく、また、ゲーム装置3は図19および図20に示す一連の処理の一部を実行し
なくてもよい。
[6. Game example]
Next, a specific example of a game performed in the game system 1 will be described. In the game example described below, some of the configurations of the devices in the game system 1 may not be used, and some of the series of processes shown in FIGS. 19 and 20 are executed. Sometimes not. That is, the game system 1 may not have all the above-described configurations, and the game apparatus 3 may not execute a part of a series of processes illustrated in FIGS. 19 and 20.

(第1のゲーム例)
第1のゲーム例は、端末装置7を操作することによってゲーム空間内においてオブジェ
クト(手裏剣)を飛ばすゲームである。プレイヤは、端末装置7の姿勢を変化させる操作
と、タッチパネル52上に線を描く操作とによって、手裏剣を発射する方向を指示するこ
とができる。
(First game example)
The first game example is a game in which an object (shuriken) is skipped in the game space by operating the terminal device 7. The player can instruct the direction of firing the shuriken by an operation for changing the attitude of the terminal device 7 and an operation for drawing a line on the touch panel 52.

図21は、第1のゲーム例におけるテレビ2の画面と端末装置7とを示す図である。図
21においては、テレビ2および端末装置7のLCD51には、ゲーム空間を表すゲーム
画像が表示されている。テレビ2には、手裏剣121、制御面122、および標的123
が表示されている。LCD51には、制御面122(および手裏剣121)が表示されて
いる。第1のゲーム例においては、プレイヤは、端末装置7を用いた操作によって手裏剣
121を飛ばして標的123に当てて遊ぶ。
FIG. 21 is a diagram showing the screen of the television 2 and the terminal device 7 in the first game example. In FIG. 21, a game image representing a game space is displayed on the television 2 and the LCD 51 of the terminal device 7. The television 2 includes a shuriken 121, a control surface 122, and a target 123.
Is displayed. The LCD 51 displays a control surface 122 (and a shuriken 121). In the first game example, the player plays by hitting the shuriken 121 and hitting the target 123 by an operation using the terminal device 7.

手裏剣121を飛ばす場合、プレイヤは、まず、端末装置7の姿勢を操作することによ
って、仮想のゲーム空間内に配置される制御面122の姿勢を変化させて所望の姿勢にす
る。すなわち、CPU10は、慣性センサ(加速度センサ73およびジャイロセンサ74
)ならびに磁気センサ72の出力に基づいて端末装置7の姿勢を算出し(ステップS24
)、算出された姿勢に基づいて制御面122の姿勢を変化させる(ステップS27)。第
1のゲーム例では、制御面122の姿勢は、現実空間における端末装置7の姿勢に応じた
姿勢となるように制御される。つまり、プレイヤは、端末装置7(端末装置7に表示され
ている制御面122)の姿勢を変化させることで、ゲーム空間内において制御面122の
姿勢を変化させることができる。なお、第1のゲーム例においては、制御面122の位置
は、ゲーム空間における所定位置に固定される。
When throwing the shuriken 121, the player first operates the attitude of the terminal device 7 to change the attitude of the control surface 122 arranged in the virtual game space to a desired attitude. In other words, the CPU 10 detects inertial sensors (acceleration sensor 73 and gyro sensor 74).
) And the attitude of the terminal device 7 based on the output of the magnetic sensor 72 (step S24).
), The attitude of the control surface 122 is changed based on the calculated attitude (step S27). In the first game example, the posture of the control surface 122 is controlled to be a posture corresponding to the posture of the terminal device 7 in the real space. That is, the player can change the posture of the control surface 122 in the game space by changing the posture of the terminal device 7 (the control surface 122 displayed on the terminal device 7). In the first game example, the position of the control surface 122 is fixed at a predetermined position in the game space.

次に、プレイヤは、タッチペン124等を用いてタッチパネル52上に線を描く操作を
行う(図21に示す矢印参照)。ここで、第1のゲーム例においては、端末装置7のLC
D51には、タッチパネル52の入力面と制御面122とが対応するように制御面122
が表示される。したがって、タッチパネル52上に描かれた線によって、制御面122上
での方向(当該線が表す方向)を算出することができる。手裏剣121は、このようにし
て決定された方向へ発射される。以上より、CPU10は、タッチパネル52のタッチ位
置データ100から制御面122上での方向を算出し、算出された方向へ手裏剣121を
移動させる処理を行う(ステップS27)。なお、CPU10は、例えば線の長さや線を
描く速度に応じて手裏剣121の速度を制御するようにしてもよい。
Next, the player performs an operation of drawing a line on the touch panel 52 using the touch pen 124 or the like (see the arrow shown in FIG. 21). Here, in the first game example, the LC of the terminal device 7
The control surface 122 is such that the input surface of the touch panel 52 and the control surface 122 correspond to D51.
Is displayed. Therefore, the direction on the control surface 122 (the direction represented by the line) can be calculated from the line drawn on the touch panel 52. The shuriken 121 is fired in the direction determined in this way. As described above, the CPU 10 calculates a direction on the control surface 122 from the touch position data 100 of the touch panel 52, and performs a process of moving the shuriken 121 in the calculated direction (step S27). Note that the CPU 10 may control the speed of the shuriken 121 according to, for example, the length of the line or the speed of drawing the line.

以上のように、第1のゲーム例によれば、ゲーム装置3は、慣性センサの出力をゲーム
入力として用いることによって、端末装置7の動き(姿勢)に応じて制御面122を動か
すとともに、タッチパネル52の出力をゲーム入力として用いることによって、制御面1
22上における方向を特定することができる。これによれば、プレイヤは、端末装置7に
表示されたゲーム画像(制御面122の画像)を動かしたり、当該ゲーム画像に対してタ
ッチ操作を行ったりすることができるので、ゲーム画像に対して直接操作を行っているよ
うな新規な操作感覚でゲームを行うことができる。
As described above, according to the first game example, the game apparatus 3 moves the control surface 122 according to the movement (posture) of the terminal device 7 by using the output of the inertial sensor as a game input, and the touch panel. By using 52 outputs as game inputs, control surface 1
The direction on 22 can be specified. According to this, the player can move the game image (image of the control surface 122) displayed on the terminal device 7 or perform a touch operation on the game image. It is possible to play a game with a new operation feeling as if direct operation is being performed.

また、第1のゲーム例においては、慣性センサおよびタッチパネル52のセンサ出力を
ゲーム入力として用いることで、3次元空間における方向を容易に指示することができる
。すなわち、プレイヤは、一方の手で端末装置7の姿勢を実際に調整し、もう一方の手で
タッチパネル52に線で方向を入力することによって、空間内で実際に方向を入力してい
るような直感的な操作で容易に方向を指示することができる。さらに、プレイヤは、端末
装置7の姿勢の操作とタッチパネル52に対する入力操作とを同時に並行して行うことが
できるので、3次元空間における方向を指示する操作を迅速に行うことができる。
Further, in the first game example, the direction in the three-dimensional space can be easily indicated by using the inertial sensor and the sensor output of the touch panel 52 as the game input. That is, the player actually adjusts the posture of the terminal device 7 with one hand, and inputs the direction with a line to the touch panel 52 with the other hand, so that the player actually inputs the direction in the space. The direction can be easily specified by an intuitive operation. Furthermore, since the player can simultaneously perform the posture operation of the terminal device 7 and the input operation on the touch panel 52 in parallel, the player can quickly perform the operation of instructing the direction in the three-dimensional space.

また、第1のゲーム例によれば、制御面122に対するタッチ入力の操作を行いやすく
するために、端末装置7には画面全体に制御面122が表示される。一方、テレビ2には
、制御面122の姿勢を把握しやすいように、また、標的123を狙いやすいように、制
御面122の全体および標的123を含むゲーム空間の画像が表示される(図21参照)
。すなわち、上記ステップS27においては、テレビ用ゲーム画像を生成するための第1
仮想カメラは、制御面122の全体および標的123が視野範囲に含まれるように設定さ
れるとともに、端末用ゲーム画像を生成するための第2仮想カメラは、LCD51の画面
(タッチパネル52の入力面)と制御面122とが画面上において一致するように設定さ
れる。したがって、第1のゲーム例においては、テレビ2と端末装置7とに異なる視点か
ら見たゲーム空間の画像を表示することによって、ゲーム操作をより行いやすくしている
Further, according to the first game example, the control surface 122 is displayed on the entire screen of the terminal device 7 in order to facilitate the touch input operation on the control surface 122. On the other hand, the television 2 displays an image of the entire control surface 122 and the game space including the target 123 so that the posture of the control surface 122 can be easily grasped and the target 123 can be easily aimed (FIG. 21). reference)
. That is, in step S27, the first for generating a television game image.
The virtual camera is set so that the entire control surface 122 and the target 123 are included in the visual field range, and the second virtual camera for generating the terminal game image is the screen of the LCD 51 (input surface of the touch panel 52). And the control surface 122 are set to coincide on the screen. Therefore, in the first game example, the game operation is made easier by displaying images of the game space viewed from different viewpoints on the television 2 and the terminal device 7.

(第2のゲーム例)
なお、慣性センサおよびタッチパネル52のセンサ出力をゲーム入力として用いるゲー
ムは、上記第1のゲーム例に限らず、種々のゲーム例が考えられる。第2のゲーム例は、
第1のゲーム例と同様、端末装置7を操作することによってゲーム空間内においてオブジ
ェクト(大砲の弾)を飛ばすゲームである。プレイヤは、端末装置7の姿勢を変化させる
操作と、タッチパネル52上の位置を指定する操作とによって、弾を発射する方向を指示
することができる。
(Second game example)
Note that the game using the sensor output of the inertial sensor and the touch panel 52 as a game input is not limited to the first game example, and various game examples are conceivable. The second game example is
Similar to the first game example, the game is a game in which an object (cannon bullet) is blown in the game space by operating the terminal device 7. The player can instruct the direction in which the bullet is to be fired by an operation for changing the attitude of the terminal device 7 and an operation for designating a position on the touch panel 52.

図22は、第2のゲーム例におけるテレビ2の画面と端末装置7とを示す図である。図
22においては、テレビ2には、大砲131、弾132、および標的133が表示されて
いる。端末装置7には、弾132および標的133が表示されている。端末装置7に表示
される端末用ゲーム画像は、大砲131の位置からゲーム空間を見た画像である。
FIG. 22 is a diagram illustrating the screen of the television 2 and the terminal device 7 in the second game example. In FIG. 22, a cannon 131, a bullet 132, and a target 133 are displayed on the television 2. On the terminal device 7, bullets 132 and targets 133 are displayed. The terminal game image displayed on the terminal device 7 is an image of the game space viewed from the position of the cannon 131.

第2のゲーム例においては、プレイヤは、端末装置7の姿勢を操作することによって、
端末用ゲーム画像として端末装置7に表示される表示範囲を変化させることができる。す
なわち、CPU10は、慣性センサ(加速度センサ73およびジャイロセンサ74)なら
びに磁気センサ72の出力に基づいて端末装置7の姿勢を算出し(ステップS24)、算
出された姿勢に基づいて、端末用ゲーム画像を生成するための第2仮想カメラの位置およ
び姿勢を制御する(ステップS27)。具体的には、第2仮想カメラは、大砲131の位
置に設置され、端末装置7の姿勢に応じて向き(姿勢)が制御される。このように、プレ
イヤは、端末装置7の姿勢を変化させることによって、端末装置7に表示されるゲーム空
間の範囲を変化させることができる。
In the second game example, the player operates the posture of the terminal device 7 to
The display range displayed on the terminal device 7 as the terminal game image can be changed. That is, the CPU 10 calculates the attitude of the terminal device 7 based on the outputs of the inertial sensor (the acceleration sensor 73 and the gyro sensor 74) and the magnetic sensor 72 (step S24), and based on the calculated attitude, the terminal game image To control the position and orientation of the second virtual camera for generating (step S27). Specifically, the second virtual camera is installed at the position of the cannon 131 and the direction (attitude) is controlled according to the attitude of the terminal device 7. Thus, the player can change the range of the game space displayed on the terminal device 7 by changing the attitude of the terminal device 7.

また、第2のゲーム例においては、プレイヤは、タッチパネル52上において点を入力
する操作(タッチする操作)によって弾132の発射方向を指定する。具体的には、上記
ステップS27の処理として、CPU10は、タッチ位置に対応するゲーム空間内の位置
(制御位置)を算出し、ゲーム空間内における所定位置(例えば大砲131の位置)から
制御位置への方向を発射方向として算出する。そして、発射方向へ弾132を移動させる
処理を行う。このように、上記第1のゲーム例ではプレイヤはタッチパネル52上に線を
描く操作を行ったが、第2のゲーム例では、タッチパネル52上の点を指定する操作を行
う。なお、上記制御位置は、上記第1のゲーム例と同様の制御面を設定する(ただし、第
2のゲーム例では制御面は表示されない)ことで算出することができる。すなわち、端末
装置7における表示範囲に対応するように、第2仮想カメラの姿勢に応じて制御面を配置
する(具体的には、制御面は、大砲131の位置を中心として、端末装置7の姿勢の変化
に応じて回転移動する)ことで、タッチ位置に対応する制御面上の位置を制御位置として
算出することができる。
In the second game example, the player designates the firing direction of the bullet 132 by an operation of inputting a point (touching operation) on the touch panel 52. Specifically, as the process of step S27, the CPU 10 calculates a position (control position) in the game space corresponding to the touch position, and changes from a predetermined position (for example, the position of the cannon 131) in the game space to the control position. Is calculated as the launch direction. Then, a process of moving the bullet 132 in the firing direction is performed. As described above, in the first game example, the player performs an operation of drawing a line on the touch panel 52, but in the second game example, an operation of designating a point on the touch panel 52 is performed. The control position can be calculated by setting a control surface similar to that in the first game example (however, the control surface is not displayed in the second game example). That is, the control surface is arranged according to the attitude of the second virtual camera so as to correspond to the display range in the terminal device 7 (specifically, the control surface is centered on the position of the cannon 131 and The position on the control surface corresponding to the touch position can be calculated as the control position.

上記第2のゲーム例によれば、ゲーム装置3は、慣性センサの出力をゲーム入力として
用いることによって、端末装置7の動き(姿勢)に応じて端末用ゲーム画像の表示範囲を
変化させるとともに、当該表示範囲内の位置を指定するタッチ入力をゲーム入力として用
いることによって、ゲーム空間内における方向(弾132の発射方向)を特定することが
できる。したがって、第2のゲーム例においても第1のゲーム例と同様、プレイヤは、端
末装置7に表示されたゲーム画像を動かしたり、当該ゲーム画像に対してタッチ操作を行
ったりすることができるので、ゲーム画像に対して直接操作を行っているような新規な操
作感覚でゲームを行うことができる。
According to the second game example, the game apparatus 3 changes the display range of the terminal game image according to the movement (posture) of the terminal device 7 by using the output of the inertial sensor as a game input. By using a touch input for designating a position within the display range as a game input, the direction in the game space (the firing direction of the bullet 132) can be specified. Accordingly, in the second game example, as in the first game example, the player can move the game image displayed on the terminal device 7 or perform a touch operation on the game image. It is possible to play a game with a novel operation feeling as if the game image was directly operated.

また、第2の実施例においても第1の実施例と同様、プレイヤは、一方の手で端末装置
7の姿勢を実際に調整し、もう一方の手でタッチパネル52に対してタッチ入力を行うこ
とによって、空間内で実際に方向を入力しているような直感的な操作で容易に方向を指示
することができる。さらに、プレイヤは、端末装置7の姿勢の操作とタッチパネル52に
対する入力操作とを同時に並行して行うことができるので、3次元空間における方向を指
示する操作を迅速に行うことができる。
Also in the second embodiment, as in the first embodiment, the player actually adjusts the attitude of the terminal device 7 with one hand and performs touch input on the touch panel 52 with the other hand. Thus, the direction can be easily instructed by an intuitive operation such as actually inputting the direction in the space. Furthermore, since the player can simultaneously perform the posture operation of the terminal device 7 and the input operation on the touch panel 52 in parallel, the player can quickly perform the operation of instructing the direction in the three-dimensional space.

なお、第2のゲーム例において、テレビ2に表示される画像は端末装置7と同じ視点か
らの画像であってもよいが、図22では、ゲーム装置3は別視点からの画像を表示させる
ようにしている。すなわち、端末用ゲーム画像を生成するための第2仮想カメラは大砲1
31の位置に設定されるのに対して、テレビ用ゲーム画像を生成するための第1仮想カメ
ラは大砲131の後方の位置に設定される。ここで、例えば、端末装置7の画面には見え
ない範囲をテレビ2に表示させるようにすることによって、端末装置7の画面では見えな
い標的133をプレイヤがテレビ2の画面を見て狙うような遊び方を実現することができ
る。このように、テレビ2と端末装置7との表示範囲を異なるようにすることで、ゲーム
空間内の様子をより把握しやすくするだけでなく、ゲームの興趣性をより向上することも
可能である。
In the second game example, the image displayed on the television 2 may be an image from the same viewpoint as the terminal device 7, but in FIG. 22, the game apparatus 3 displays an image from another viewpoint. I have to. That is, the second virtual camera for generating the terminal game image is the cannon 1
The first virtual camera for generating the television game image is set at a position behind the cannon 131, whereas the position is set at the position 31. Here, for example, by causing the television 2 to display a range that cannot be seen on the screen of the terminal device 7, the player may aim at the target 133 that cannot be seen on the screen of the terminal device 7 by looking at the screen of the television 2. How to play can be realized. Thus, by making the display range of the television 2 and the terminal device 7 different, it is possible not only to make it easier to grasp the state in the game space but also to improve the fun of the game. .

以上のように、本実施形態によれば、タッチパネル52と慣性センサを備える端末装置
7を操作装置として用いることができるので、上記第1および第2のゲーム例のような、
ゲーム画像に対して直接操作を行うような操作感覚のゲームを実現することができる。
As described above, according to the present embodiment, since the terminal device 7 including the touch panel 52 and the inertial sensor can be used as the operation device, as in the first and second game examples,
It is possible to realize a game with an operation feeling that directly operates a game image.

(第3のゲーム例)
以下、図23および図24を参照して、第3のゲーム例について説明する。第3のゲー
ム例は、2人のプレイヤが対戦する形式の野球ゲームである。すなわち、第1プレイヤは
、コントローラ5を用いて打者を操作し、第2プレイヤは端末装置7を用いて投手を操作
する。また、テレビ2および端末装置7には各プレイヤにとってゲーム操作が行いやすい
ゲーム画像が表示される。
(Third game example)
Hereinafter, the third game example will be described with reference to FIG. 23 and FIG. The third game example is a baseball game of a form in which two players battle each other. That is, the first player operates the batter using the controller 5, and the second player operates the pitcher using the terminal device 7. The television 2 and the terminal device 7 display a game image that allows each player to easily perform a game operation.

図23は、第3のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を
示す図である。図23に示すテレビ用ゲーム画像は、主に第1プレイヤのための画像であ
る。すなわち、テレビ用ゲーム画像は、第1プレイヤの操作対象である打者(打者オブジ
ェクト)141の側から、第2プレイヤの操作対象である投手(投手オブジェクト)14
2の方を見たゲーム空間を表す。テレビ用ゲーム画像を生成するための第1仮想カメラは
、打者141の後方の位置に、打者141から投手142の方へ向くように配置される。
FIG. 23 is a diagram illustrating an example of a television game image displayed on the television 2 in the third game example. The television game image shown in FIG. 23 is an image mainly for the first player. That is, the TV game image is viewed from the batter (batter object) 141 that is the operation target of the first player, and from the side of the batter (batter object) 14 that is the operation target of the second player.
Represents the game space as seen by 2. The first virtual camera for generating the television game image is disposed at a position behind the batter 141 so as to face the pitcher 142 from the batter 141.

一方、図24は、第3のゲーム例において端末装置7に表示される端末用ゲーム画像の
一例を示す図である。図24に示す端末用ゲーム画像は、主に第2プレイヤのための画像
である。すなわち、端末用ゲーム画像は、第2プレイヤの操作対象である投手142の側
から、第1プレイヤの操作対象である打者141の方を見たゲーム空間を表す。具体的に
は、上記ステップS27において、CPU10は、端末用ゲーム画像を生成するために用
いる第2仮想カメラを端末装置7の姿勢に基づいて制御する。第2仮想カメラの姿勢は、
上述した第2のゲーム例と同様、端末装置7の姿勢と対応するように算出される。また、
第2仮想カメラの位置は、予め定められた所定位置に固定される。なお、端末用ゲーム画
像には、投手142がボールを投げる方向を示すためのカーソル143が含まれる。
On the other hand, FIG. 24 is a diagram illustrating an example of a terminal game image displayed on the terminal device 7 in the third game example. The terminal game image shown in FIG. 24 is an image mainly for the second player. That is, the terminal game image represents a game space in which the batter 141 that is the operation target of the first player is viewed from the pitcher 142 that is the operation target of the second player. Specifically, in step S <b> 27, the CPU 10 controls the second virtual camera used for generating the terminal game image based on the attitude of the terminal device 7. The attitude of the second virtual camera is
Similar to the above-described second game example, the calculation is performed so as to correspond to the attitude of the terminal device 7. Also,
The position of the second virtual camera is fixed at a predetermined position. The terminal game image includes a cursor 143 for indicating the direction in which the pitcher 142 throws the ball.

なお、第1プレイヤによる打者141の操作方法、および、第2プレイヤによる投手1
42の操作方法は、どのような方法であってもよい。例えば、CPU10は、コントロー
ラ5の慣性センサの出力データに基づいてコントローラ5に対する振り操作を検出し、振
り操作に応じて打者141にバットを振る動作を行わせるようにしてもよい。また例えば
、CPU10は、アナログスティック53に対する操作に従ってカーソル143を移動さ
せ、操作ボタン54のうちの所定のボタンが押下された場合、カーソル143が指し示す
位置に向かってボールを投げる動作を投手142に行わせてもよい。また、カーソル14
3は、アナログスティック53に対する操作に代えて、端末装置7の姿勢に応じて移動さ
れてもよい。
The operation method of the batter 141 by the first player and the pitcher 1 by the second player
The operation method 42 may be any method. For example, the CPU 10 may detect a swing operation on the controller 5 based on output data of an inertial sensor of the controller 5 and cause the batter 141 to swing the bat in accordance with the swing operation. Further, for example, the CPU 10 moves the cursor 143 in accordance with the operation on the analog stick 53, and when the predetermined button of the operation buttons 54 is pressed, the CPU 10 performs an operation of throwing the ball toward the position indicated by the cursor 143 to the pitcher 142. You may let them. The cursor 14
3 may be moved according to the attitude of the terminal device 7 instead of the operation on the analog stick 53.

以上のように、第3のゲーム例においては、テレビ2および端末装置7に互いに異なる
視点でゲーム画像を生成することによって、各プレイヤにとって見やすく操作しやすいゲ
ーム画像が提供される。
As described above, in the third game example, by generating game images from different viewpoints on the television 2 and the terminal device 7, game images that are easy to see and operate for each player are provided.

また、第3のゲーム例においては、単一のゲーム空間に2つの仮想カメラが設定され、
ゲーム空間を各仮想カメラから見た2種類のゲーム画像がそれぞれ表示される(図23お
よび図24)。したがって、第3のゲーム例において生成される2種類のゲーム画像に関
しては、ゲーム空間に対するゲーム処理(ゲーム空間内のオブジェクトの制御等)はほと
んどが共通であって、共通のゲーム空間に関して描画処理を2回行なうだけでそれぞれの
ゲーム画像が生成できるので、当該ゲーム処理をそれぞれ行う場合に比べると処理効率が
高いという利点がある。
In the third game example, two virtual cameras are set in a single game space.
Two types of game images when the game space is viewed from each virtual camera are displayed (FIGS. 23 and 24). Therefore, for the two types of game images generated in the third game example, most of the game processing (control of objects in the game space, etc.) for the game space is common, and drawing processing is performed for the common game space. Since each game image can be generated only by performing it twice, there is an advantage that the processing efficiency is higher than in the case where the game processing is performed.

また、第3のゲーム例においては、投球方向を表すカーソル143は端末装置7側にの
み表示されるので、第1プレイヤはカーソル143が指し示す位置を見ることができない
。そのため、第1プレイヤに投球方向が知られて第2プレイヤが不利になるといったゲー
ム上の不都合が生じない。このように、本実施形態においては、一方のプレイヤがそのゲ
ーム画像を見てしまうと他方のプレイヤにとってゲーム上の不都合が生じる場合には、当
該ゲーム画像を端末装置7に表示すればよい。これによって、ゲームの戦略性が低下する
等の不都合を防止することができる。なお、他の実施形態において、ゲームの内容によっ
ては(例えば、端末用ゲーム画像が第1プレイヤに見られても上記のような不都合が生じ
ない場合には)、ゲーム装置3は、端末用ゲーム画像をテレビ用ゲーム画像とともにテレ
ビ2に表示するようにしてもよい。
In the third game example, since the cursor 143 representing the pitching direction is displayed only on the terminal device 7 side, the first player cannot see the position indicated by the cursor 143. Therefore, there is no inconvenience on the game that the first player knows the pitching direction and the second player is disadvantaged. As described above, in this embodiment, if one player sees the game image and the other player has a problem on the game, the game image may be displayed on the terminal device 7. This can prevent inconveniences such as a decrease in the strategy of the game. In other embodiments, depending on the content of the game (for example, when the above-described inconvenience does not occur even when the terminal game image is viewed by the first player), the game apparatus 3 may be the terminal game. The image may be displayed on the television 2 together with the television game image.

(第4のゲーム例)
以下、図25および図26を参照して、第4のゲーム例について説明する。第4のゲー
ム例は、2人のプレイヤが協力する形式のシューティングゲームである。すなわち、第1
プレイヤは、コントローラ5を用いて飛行機を移動させる操作を行い、第2プレイヤは、
端末装置7を用いて飛行機の大砲の発射方向を制御する操作を行う。第4のゲーム例にお
いても第3のゲーム例と同様、テレビ2および端末装置7には各プレイヤにとってゲーム
操作が行いやすいゲーム画像が表示される。
(Fourth game example)
The fourth game example will be described below with reference to FIGS. 25 and 26. The fourth game example is a shooting game in which two players cooperate. That is, the first
The player performs an operation of moving the airplane using the controller 5, and the second player
An operation for controlling the firing direction of the cannon of the airplane is performed using the terminal device 7. Also in the fourth game example, similar to the third game example, the television 2 and the terminal device 7 display a game image that allows each player to easily perform the game operation.

図25は、第4のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を
示す図である。また、図26は、第4のゲーム例において端末装置7に表示される端末用
ゲーム画像の一例を示す図である。図25に示すように、第4のゲーム例では、仮想のゲ
ーム空間に飛行機(飛行機オブジェクト)151と標的(風船オブジェクト)153とが
登場する。また、飛行機151は大砲(大砲オブジェクト)152を有している。
FIG. 25 is a diagram illustrating an example of a television game image displayed on the television 2 in the fourth game example. FIG. 26 is a diagram illustrating an example of a terminal game image displayed on the terminal device 7 in the fourth game example. As shown in FIG. 25, in the fourth game example, an airplane (plane object) 151 and a target (balloon object) 153 appear in a virtual game space. The airplane 151 has a cannon (cannon object) 152.

図25に示すように、テレビ用ゲーム画像としては、飛行機151を含むゲーム空間の
画像が表示される。テレビ用ゲーム画像を生成するための第1仮想カメラは、飛行機15
1を後方から見たゲーム空間の画像を生成するように設定される。すなわち、第1仮想カ
メラは、飛行機151の後方の位置に、飛行機151が撮影範囲(視野範囲)に含まれる
姿勢で配置される。また、第1仮想カメラは、飛行機151の移動に伴って移動するよう
に制御される。つまり、CPU10は、上記ステップS27の処理において、コントロー
ラ操作データに基づいて飛行機151の移動を制御するとともに、第1仮想カメラの位置
および姿勢を制御する。このように、第1仮想カメラの位置および姿勢は、第1プレイヤ
の操作に応じて制御される。
As shown in FIG. 25, an image of the game space including the airplane 151 is displayed as the television game image. The first virtual camera for generating the TV game image is the airplane 15
It is set to generate an image of the game space when 1 is viewed from behind. That is, the first virtual camera is arranged at a position behind the airplane 151 in a posture in which the airplane 151 is included in the shooting range (viewing range). Further, the first virtual camera is controlled to move as the airplane 151 moves. That is, in the process of step S27, the CPU 10 controls the movement of the airplane 151 based on the controller operation data, and controls the position and orientation of the first virtual camera. Thus, the position and posture of the first virtual camera are controlled in accordance with the operation of the first player.

一方、図26に示すように、端末用ゲーム画像としては、飛行機151(より具体的に
は大砲152)から見たゲーム空間の画像が表示される。したがって、端末用ゲーム画像
を生成するための第2仮想カメラは、飛行機151の位置(より具体的には大砲152の
位置)に配置される。CPU10は、上記ステップS27の処理において、コントローラ
操作データに基づいて飛行機151の移動を制御するとともに、第2仮想カメラの位置を
制御する。なお、第2仮想カメラは、飛行機151あるいは大砲152の周辺の位置(例
えば、大砲152のやや後方の位置)に配置されてもよい。以上のように、第2仮想カメ
ラの位置は、(飛行機151の移動を操作する)第1プレイヤの操作によって制御される
ことになる。したがって、第4のゲーム例においては、第1仮想カメラと第2仮想カメラ
は連動して移動する。
On the other hand, as shown in FIG. 26, as the terminal game image, an image of the game space viewed from the airplane 151 (more specifically, the cannon 152) is displayed. Therefore, the second virtual camera for generating the terminal game image is arranged at the position of the airplane 151 (more specifically, the position of the cannon 152). In the process of step S27, the CPU 10 controls the movement of the airplane 151 and the position of the second virtual camera based on the controller operation data. The second virtual camera may be arranged at a position around the airplane 151 or the cannon 152 (for example, a position slightly behind the cannon 152). As described above, the position of the second virtual camera is controlled by the operation of the first player (operating the movement of the airplane 151). Therefore, in the fourth game example, the first virtual camera and the second virtual camera move in conjunction with each other.

また、端末用ゲーム画像としては、大砲152の発射方向の向きに見たゲーム空間の画
像が表示される。ここで、大砲152の発射方向は、端末装置7の姿勢に対応するように
制御される。つまり、本実施形態においては、第2仮想カメラの姿勢は、第2仮想カメラ
の視線方向が大砲152の発射方向と一致するように制御される。CPU10は、上記ス
テップS27の処理において、上記ステップS24で算出される端末装置7の姿勢に応じ
て、大砲152の向きおよび第2仮想カメラの姿勢を制御する。このように、第2仮想カ
メラの姿勢は、第2プレイヤの操作によって制御される。また、第2プレイヤは、端末装
置7の姿勢を変化させることによって、大砲152の発射方向を変化させることができる
Further, as the terminal game image, an image of the game space viewed in the direction of the firing direction of the cannon 152 is displayed. Here, the firing direction of the cannon 152 is controlled so as to correspond to the attitude of the terminal device 7. That is, in the present embodiment, the attitude of the second virtual camera is controlled so that the line-of-sight direction of the second virtual camera matches the firing direction of the cannon 152. In the process of step S27, the CPU 10 controls the orientation of the cannon 152 and the attitude of the second virtual camera according to the attitude of the terminal device 7 calculated in step S24. Thus, the attitude of the second virtual camera is controlled by the operation of the second player. Further, the second player can change the firing direction of the cannon 152 by changing the attitude of the terminal device 7.

なお、大砲152から弾を発射する場合、第2プレイヤは、端末装置7の所定のボタン
を押下する。所定のボタンが押下されると、大砲152の向きに弾が発射される。端末用
ゲーム画像においては、LCD51の画面中央に照準154が表示され、照準154が指
し示す方向へ弾が発射される。
When a bullet is fired from the cannon 152, the second player presses a predetermined button on the terminal device 7. When a predetermined button is pressed, a bullet is fired in the direction of the cannon 152. In the terminal game image, an aim 154 is displayed at the center of the LCD 51 and a bullet is fired in the direction indicated by the aim 154.

以上のように、第4のゲーム例においては、第1プレイヤは、飛行機151の進行方向
の方を見たゲーム空間を表すテレビ用ゲーム画像(図25)を主に見ながら、(例えば所
望の標的153の方向へ移動するように)飛行機151を操作する。一方、第2プレイヤ
は、大砲152の発射方向の方を見たゲーム空間を表す端末用ゲーム画像(図26)を主
に見ながら、大砲152を操作する。このように、第4のゲーム例においては、2人のプ
レイが協力する形式のゲームにおいて、それぞれのプレイヤにとって見やすく操作しやす
いゲーム画像を、テレビ2と端末装置7とにそれぞれ表示することができる。
As described above, in the fourth game example, the first player mainly looks at the television game image (FIG. 25) representing the game space viewed in the traveling direction of the airplane 151 (for example, a desired game). The airplane 151 is operated (moving in the direction of the target 153). On the other hand, the second player operates the cannon 152 while mainly viewing the terminal game image (FIG. 26) representing the game space as seen in the firing direction of the cannon 152. As described above, in the fourth game example, in a game in which two players cooperate, game images that are easy to see and operate for each player can be displayed on the television 2 and the terminal device 7, respectively. .

また、第4のゲーム例においては、第1プレイヤの操作によって第1仮想カメラおよび
第2仮想カメラの位置が制御され、第2プレイヤの操作によって第2仮想カメラの姿勢が
制御される。つまり、本実施形態においては、各プレイヤのそれぞれのゲーム操作に応じ
て仮想カメラの位置または姿勢が変化する結果、各表示装置に表示されるゲーム空間の表
示範囲が変化する。表示装置に表示されるゲーム空間の表示範囲が各プレイヤの操作に応
じて変化するので、各プレイヤは、自己のゲーム操作がゲーム進行に十分に反映されてい
ることを実感することができ、ゲームを十分に楽しむことができる。
In the fourth game example, the positions of the first virtual camera and the second virtual camera are controlled by the operation of the first player, and the attitude of the second virtual camera is controlled by the operation of the second player. In other words, in the present embodiment, the display range of the game space displayed on each display device changes as a result of the position or posture of the virtual camera changing according to the respective game operations of each player. Since the display range of the game space displayed on the display device changes according to the operation of each player, each player can realize that his game operation is sufficiently reflected in the game progress. Can fully enjoy.

なお、第4のゲーム例においては、飛行機151の後方から見たゲーム画像がテレビ2
に表示され、飛行機151の大砲の位置から見たゲーム画像が端末装置7に表示された。
ここで、他のゲーム例においては、ゲーム装置3は、飛行機151の後方から見たゲーム
画像を端末装置7に表示させ、飛行機151の大砲152の位置から見たゲーム画像がテ
レビ2に表示させるようにしてもよい。このとき、各プレイヤの役割は上記第4のゲーム
例と入れ替わり、第1プレイヤがコントローラ5を用いて大砲152の操作を行い、第2
プレイヤが端末装置7を用いて飛行機151の操作を行うようにするとよい。
In the fourth game example, the game image viewed from the rear of the airplane 151 is the TV 2.
The game image viewed from the position of the cannon of the airplane 151 is displayed on the terminal device 7.
Here, in another game example, the game apparatus 3 displays a game image viewed from behind the airplane 151 on the terminal device 7 and displays a game image viewed from the position of the cannon 152 of the airplane 151 on the television 2. You may do it. At this time, the role of each player is switched to the fourth game example, and the first player uses the controller 5 to operate the cannon 152,
It is preferable that the player operates the airplane 151 using the terminal device 7.

(第5のゲーム例)
以下、図27を参照して、第5のゲーム例について説明する。第5のゲーム例は、プレ
イヤがコントローラ5を用いて操作を行うゲームであり、端末装置7は操作装置ではなく
表示装置として用いられる。具体的には、第5のゲーム例はゴルフゲームであり、プレイ
ヤがコントローラ5をゴルフクラブのように振る操作(スイング操作)に応じて、ゲーム
装置3は仮想のゲーム空間におけるプレイヤキャラクタにゴルフのスイング動作を行わせ
る。
(Fifth game example)
Hereinafter, a fifth game example will be described with reference to FIG. The fifth game example is a game in which a player performs an operation using the controller 5, and the terminal device 7 is used as a display device instead of an operation device. Specifically, the fifth game example is a golf game, and in response to an operation (swing operation) in which the player swings the controller 5 like a golf club, the game apparatus 3 plays golf on the player character in the virtual game space. Make the swing action.

図27は、第5のゲーム例におけるゲームシステム1の使用の様子を示す図である。図
27において、テレビ2の画面には、プレイヤキャラクタ(のオブジェクト)161およ
びゴルフクラブ(のオブジェクト)162を含むゲーム空間の画像が表示される。なお、
図27では、ゴルフクラブ162に隠れているので表示されていないが、ゲーム空間に配
置されたボール(のオブジェクト)163もテレビ2に表示される。一方、図27に示す
ように、端末装置7は、LCD51の画面が鉛直上向きとなるように、テレビ2の前方正
面の床面に配置される。端末装置7には、ボール163を表す画像と、ゴルフクラブ16
2の一部(具体的には、ゴルフクラブのヘッド162a)を表す画像と、ゲーム空間の地
面を表す画像とが表示される。端末用ゲーム画像は、ボールの周囲を上から見た画像であ
る。
FIG. 27 is a diagram illustrating how the game system 1 is used in the fifth game example. In FIG. 27, an image of a game space including a player character (its object) 161 and a golf club (its object) 162 is displayed on the screen of the television 2. In addition,
In FIG. 27, the ball (object) 163 arranged in the game space is also displayed on the television 2 although it is not displayed because it is hidden by the golf club 162. On the other hand, as shown in FIG. 27, the terminal device 7 is arranged on the floor surface in front of the television 2 so that the screen of the LCD 51 is vertically upward. The terminal device 7 includes an image representing the ball 163 and the golf club 16.
An image representing a part of 2 (specifically, a golf club head 162a) and an image representing the ground of the game space are displayed. The terminal game image is an image of the periphery of the ball viewed from above.

ゲームを行う際、プレイヤ160は、端末装置7の近傍に立ち、コントローラ5をゴル
フクラブのように振るスイング操作を行う。このとき、CPU10は、上記ステップS2
7において、上記ステップS23の処理で算出されるコントローラ5の姿勢に応じてゲー
ム空間におけるゴルフクラブ162の位置および姿勢を制御する。具体的には、ゴルフク
ラブ162は、コントローラ5の先端方向(図3に示すZ軸正方向)がLCD51に表示
されるボール163の画像を向く場合に、ゲーム空間内のゴルフクラブ162がボール1
63に当たるように、制御される。
When playing the game, the player 160 stands in the vicinity of the terminal device 7 and performs a swing operation of swinging the controller 5 like a golf club. At this time, the CPU 10 performs the above step S2.
7, the position and posture of the golf club 162 in the game space are controlled in accordance with the posture of the controller 5 calculated in the process of step S <b> 23. Specifically, when the front end direction of the controller 5 (the Z-axis positive direction shown in FIG. 3) faces the image of the ball 163 displayed on the LCD 51, the golf club 162 in the game space has the ball 1 as the golf club 162.
It is controlled to hit 63.

また、コントローラ5の先端方向がLCD51の方へ向く場合には、ゴルフクラブ16
2の一部を表す画像(ヘッド画像)164がLCD51に表示される(図27参照)。な
お、端末用ゲーム画像に関しては、現実感を増すために、ボール163の画像が実物大で
表示されてもよいし、コントローラ5のZ軸回りの回転に応じてヘッド画像164の向き
が回転するように表示されてもよい。また、端末用ゲーム画像は、ゲーム空間に設置され
る仮想カメラを用いて生成されてもよいし、予め用意された画像データを用いて生成され
てもよい。予め用意された画像データを用いて生成する場合には、ゴルフコースの地形モ
デルを詳細に構築することなく、詳細でリアルな画像を小さい処理負荷で生成することが
できる。
When the tip direction of the controller 5 is directed toward the LCD 51, the golf club 16
2 is displayed on the LCD 51 (see FIG. 27). As for the game image for the terminal, the image of the ball 163 may be displayed in actual size in order to increase the sense of reality, and the direction of the head image 164 rotates according to the rotation of the controller 5 around the Z axis. May be displayed. The terminal game image may be generated using a virtual camera installed in the game space, or may be generated using image data prepared in advance. In the case of generating using image data prepared in advance, a detailed and realistic image can be generated with a small processing load without constructing a detailed golf course terrain model.

プレイヤ160が上記スイング操作を行うことによってゴルフクラブ162が振られた
結果、ゴルフクラブ162がボール163に当たると、ボール163が移動する(飛んで
いく)。すなわち、CPU10は、上記ステップS27においてゴルフクラブ162とボ
ール163とが接触したか否かを判定し、接触した場合にはボール163を移動させる。
ここで、テレビ用ゲーム画像は、移動後のボール163が含まれるように生成される。す
なわち、CPU10は、テレビ用ゲーム画像を生成するための第1仮想カメラは、移動す
るボールがその撮影範囲に含まれるように位置および姿勢が制御される。一方、端末装置
7においては、ゴルフクラブ162がボール163に当たると、ボール163の画像が移
動されてすぐに画面外に消える。したがって、第5のゲーム例においては、ボールが移動
する様子は主にテレビ2に表示され、プレイヤ160は、スイング操作によって飛んでい
ったボールの行方をテレビ用ゲーム画像で確認することができる。
As a result of the golf club 162 being swung by the player 160 performing the swing operation, when the golf club 162 hits the ball 163, the ball 163 moves (flys). That is, the CPU 10 determines whether or not the golf club 162 and the ball 163 are in contact in step S27, and moves the ball 163 if they are in contact.
Here, the television game image is generated so as to include the ball 163 after movement. That is, the CPU 10 controls the position and posture of the first virtual camera for generating the television game image so that the moving ball is included in the shooting range. On the other hand, in the terminal device 7, when the golf club 162 hits the ball 163, the image of the ball 163 is moved and immediately disappears from the screen. Therefore, in the fifth game example, the movement of the ball is mainly displayed on the television 2, and the player 160 can confirm the whereabouts of the ball that flew by the swing operation on the television game image.

以上のように、第5のゲーム例においては、プレイヤ160は、コントローラ5を振る
ことでゴルフクラブ162を振る(プレイヤキャラクタ161にゴルフクラブ162を振
らせる)ことができる。ここで、第5のゲーム例においては、コントローラ5の先端方向
がLCD51に表示されるボール163の画像を向く場合に、ゲーム空間内のゴルフクラ
ブ162がボール163に当たるように制御される。したがって、プレイヤは、スイング
操作によって実際のゴルフクラブを打っているかのような感覚を得ることができ、スイン
グ操作をより現実感のあるものにすることができる。
As described above, in the fifth game example, the player 160 can swing the golf club 162 by swinging the controller 5 (the player character 161 can swing the golf club 162). Here, in the fifth game example, when the tip direction of the controller 5 faces the image of the ball 163 displayed on the LCD 51, the golf club 162 in the game space is controlled so as to hit the ball 163. Therefore, the player can obtain a feeling as if he / she is hitting an actual golf club by the swing operation, and the swing operation can be made more realistic.

第5のゲーム例においてはさらに、コントローラ5の先端方向が端末装置7の方を向く
場合にはヘッド画像164がLCD51に表示される。したがって、プレイヤは、コント
ローラ5の先端方向を端末装置7の方へ向けることによって、仮想空間におけるゴルフク
ラブ162の姿勢が現実空間におけるコントローラ5の姿勢と対応している感覚を得るこ
とができ、スイング操作をより現実感のあるものにすることができる。
In the fifth game example, a head image 164 is further displayed on the LCD 51 when the tip direction of the controller 5 faces the terminal device 7. Therefore, the player can obtain a sense that the posture of the golf club 162 in the virtual space corresponds to the posture of the controller 5 in the real space by turning the tip direction of the controller 5 toward the terminal device 7. The operation can be made more realistic.

以上のように、第5のゲーム例は、端末装置7を表示装置として利用する場合には、端
末装置7を適切な位置に配置することによって、コントローラ5を用いた操作をより現実
感のあるものにすることができる。
As described above, in the fifth game example, when the terminal device 7 is used as a display device, the operation using the controller 5 is more realistic by placing the terminal device 7 in an appropriate position. Can be a thing.

また、上記第5のゲーム例においては、端末装置7は床面に配置され、端末装置7には
ボール163の周辺のみのゲーム空間を表す画像が表示される。そのため、ゲーム空間に
おけるゴルフクラブ162全体の位置・姿勢を端末装置7では表示することはできず、ま
た、スイング操作後においてボール163が移動する様子を端末装置7では表示すること
はできない。そこで、第5のゲーム例では、ボール163の移動前においてはゴルフクラ
ブ162の全体がテレビ2に表示され、ボール163の移動後においてはボール163が
移動する様子がテレビ2に表示される。このように、第5のゲーム例によれば、現実感の
ある操作をプレイヤに提供することができるとともに、テレビ2および端末装置7の2つ
の画面を用いることで見やすいゲーム画像をプレイヤに対して提示することができる。
Further, in the fifth game example, the terminal device 7 is arranged on the floor surface, and an image representing the game space only around the ball 163 is displayed on the terminal device 7. Therefore, the terminal device 7 cannot display the position / posture of the entire golf club 162 in the game space, and the terminal device 7 cannot display the movement of the ball 163 after the swing operation. Therefore, in the fifth game example, the entire golf club 162 is displayed on the television 2 before the movement of the ball 163, and the manner in which the ball 163 moves is displayed on the television 2 after the movement of the ball 163. Thus, according to the fifth game example, a realistic operation can be provided to the player, and an easy-to-view game image can be displayed to the player by using the two screens of the television 2 and the terminal device 7. Can be presented.

また、上記第5のゲーム例においては、コントローラ5の姿勢を算出するために、端末
装置7のマーカ部55が用いられる。すなわち、CPU10は、上記ステップS1の初期
処理においてマーカ部55を点灯させ(マーカ装置6は点灯させない)、CPU10は、
上記ステップS23においてマーカ座標データ96に基づいてコントローラ5の姿勢を算
出する。これによれば、コントローラ5の先端方向がマーカ部55の方を向く姿勢か否か
を正確に判定することができる。なお、上記第5のゲーム例では、上記ステップS21お
よびS22は実行されなくてもよいが、他のゲーム例においては、上記ステップS21お
よびS22の処理を実行することによって、点灯すべきマーカをゲームの途中で変更する
ようにしてもよい。例えば、CPU10は、ステップS21において、第1加速度データ
94に基づいてコントローラ5の先端方向が重力方向を向くか否かを判定し、ステップS
22において、重力方向を向く場合にはマーカ部55を点灯させ、重力方向を向かない場
合にはマーカ装置6を点灯させるように制御してもよい。これによれば、コントローラ5
の先端方向が重力方向を向く場合には、マーカ部55のマーカ座標データを取得すること
で、コントローラ5の姿勢を精度良く算出することができるとともに、コントローラ5の
先端方向がテレビ2の方を向く場合には、マーカ装置6のマーカ座標データを取得するこ
とで、コントローラ5の姿勢を精度良く算出することができる。
In the fifth game example, the marker unit 55 of the terminal device 7 is used to calculate the attitude of the controller 5. That is, the CPU 10 lights the marker unit 55 in the initial process of step S1 (the marker device 6 is not turned on), and the CPU 10
In step S23, the attitude of the controller 5 is calculated based on the marker coordinate data 96. According to this, it is possible to accurately determine whether or not the tip direction of the controller 5 is in the posture facing the marker portion 55. In the fifth game example, steps S21 and S22 do not have to be executed, but in other game examples, the process of steps S21 and S22 is executed to indicate the marker to be lit. You may make it change in the middle of. For example, in step S21, the CPU 10 determines whether or not the front end direction of the controller 5 is in the direction of gravity based on the first acceleration data 94, and step S21.
22, the marker unit 55 may be turned on when facing the gravitational direction, and the marker device 6 may be turned on when not facing the gravitational direction. According to this, the controller 5
When the front end direction of the controller 5 is directed in the direction of gravity, by acquiring the marker coordinate data of the marker unit 55, the orientation of the controller 5 can be calculated with high accuracy, and the front end direction of the controller 5 is When facing, the attitude of the controller 5 can be calculated with high accuracy by acquiring the marker coordinate data of the marker device 6.

上記第5のゲーム例で説明したように、ゲームシステム1は、端末装置7を自由な位置
に設置して表示装置として利用することができる。これによれば、マーカ座標データをゲ
ーム入力として用いる場合において、コントローラ5をテレビ2の方へ向けて使用する他
、端末装置7を所望の位置に設定することによってコントローラ5を自由な方向に向けて
使用することができる。すなわち、本実施形態によれば、コントローラ5を使用できる向
きが制限されることないので、コントローラ5の操作の自由度を向上することができる。
As described in the fifth game example, the game system 1 can be used as a display device by installing the terminal device 7 at a free position. According to this, when the marker coordinate data is used as a game input, the controller 5 is directed toward the television 2 and the controller 5 is directed in a free direction by setting the terminal device 7 to a desired position. Can be used. That is, according to this embodiment, since the direction in which the controller 5 can be used is not limited, the degree of freedom of operation of the controller 5 can be improved.

[7.ゲームシステムの他の動作例]
上記ゲームシステム1は、上記で説明したように種々のゲームを行うための動作を行う
ことが可能である。端末装置7は、可搬形のディスプレイや第2のディスプレイとしても
使用することができる一方で、タッチ入力や動きによる入力を行うコントローラとしても
使用することができ、上記ゲームシステム1によれば、幅広いゲームを実施することが可
能となる。また、ゲーム以外の用途も含め、以下のような動作を行うことも可能である。
[7. Other operation examples of game system]
The game system 1 can perform operations for playing various games as described above. While the terminal device 7 can be used as a portable display or a second display, the terminal device 7 can also be used as a controller that performs touch input or input by movement. The game can be executed. Also, the following operations can be performed including applications other than games.

(プレイヤが端末装置7のみを用いてゲームをプレイする動作例)
本実施形態において、端末装置7は、表示装置として機能するとともに、操作装置とし
ても機能するものである。そのため、テレビ2およびコントローラ5を使用せずに端末装
置7を表示手段および操作手段として使用することによって、端末装置7を携帯型のゲー
ム装置のように使用することも可能である。
(Operation example in which a player plays a game using only the terminal device 7)
In the present embodiment, the terminal device 7 functions as a display device and also functions as an operation device. Therefore, by using the terminal device 7 as a display unit and an operation unit without using the television 2 and the controller 5, the terminal device 7 can be used like a portable game device.

図19に示したゲーム処理に即して具体的に説明すると、CPU10は、ステップS3
において端末装置7から端末操作データ97を取得し、ステップS4において端末操作デ
ータ97のみをゲーム入力として用いて(コントローラ操作データを用いずに)ゲーム処
理を実行する。そして、ステップS6においてゲーム画像を生成し、ステップS10にお
いてゲーム画像を端末装置7へ送信する。なお、このとき、ステップS2、S5、および
S9は実行されなくてもよい。以上によれば、端末装置7に対する操作に応じてゲーム処
理が行われ、ゲーム処理結果を表すゲーム画像が端末装置7に表示されることとなる。こ
のようにすれば、(実際にはゲーム処理はゲーム装置で実行されるが、)端末装置7を携
帯型のゲーム装置として利用することも可能である。したがって、本実施形態によれば、
テレビ2が使用中である(例えば、他の人がテレビ放送を視聴中である)等の理由でテレ
ビ2にゲーム画像を表示できない場合でも、ユーザは端末装置7を用いてゲームを行うこ
とができる。
Specifically, in accordance with the game process shown in FIG. 19, the CPU 10 performs step S3.
Terminal operation data 97 is acquired from the terminal device 7, and the game process is executed using only the terminal operation data 97 as a game input (without using the controller operation data) in step S 4. And a game image is produced | generated in step S6, and a game image is transmitted to the terminal device 7 in step S10. At this time, steps S2, S5, and S9 may not be executed. According to the above, a game process is performed in response to an operation on the terminal device 7, and a game image representing the game process result is displayed on the terminal device 7. In this way, the terminal device 7 can be used as a portable game device (although game processing is actually executed by the game device). Therefore, according to this embodiment,
Even when the game image cannot be displayed on the television 2 because the television 2 is in use (for example, another person is watching a television broadcast), the user can play a game using the terminal device 7. it can.

なお、CPU10は、ゲーム画像に限らず、電源投入後に表示される上述のメニュー画
面についても画像を端末装置7へ送信して表示させるようにしてもよい。これによれば、
プレイヤは最初からテレビ2を使用せずにゲームを行うことができるので、便利である。
Note that the CPU 10 may transmit not only the game image but also the above-described menu screen displayed after power-on to the terminal device 7 for display. According to this,
This is convenient because the player can play the game without using the television 2 from the beginning.

さらに、上記において、ゲーム画像を表示する表示装置を端末装置7からテレビ2へと
ゲーム中に変更することも可能である。具体的には、CPU10は、上記ステップS9を
さらに実行し、ゲーム画像をテレビ2へ出力するようにすればよい。なお、ステップS9
でテレビ2へ出力される画像は、ステップS10で端末装置7へ送信されるゲーム画像と
同じである。これによれば、ゲーム装置3からの入力を表示させるようにテレビ2の入力
を切り替えることで、端末装置7と同一のゲーム画像がテレビ2に表示されることとなる
ので、ゲーム画像を表示する表示装置をテレビ2に変更することができる。なお、テレビ
2にゲーム画像が表示された後は、端末装置7の画面表示がオフにされてもよい。
Furthermore, in the above, the display device for displaying the game image can be changed from the terminal device 7 to the television 2 during the game. Specifically, the CPU 10 may further execute the above step S <b> 9 and output the game image to the television 2. Step S9
The image output to the television 2 is the same as the game image transmitted to the terminal device 7 in step S10. According to this, since the same game image as the terminal device 7 is displayed on the television 2 by switching the input of the television 2 so as to display the input from the game device 3, the game image is displayed. The display device can be changed to the television 2. Note that after the game image is displayed on the television 2, the screen display of the terminal device 7 may be turned off.

なお、ゲームシステム1においては、テレビ2に対する赤外線リモコン信号を赤外線出
力手段(マーカ装置6、マーカ部55、あるいは赤外線通信モジュール82)から出力可
能であるようにしてもよい。これによれば、ゲーム装置3は、端末装置7に対する操作に
応じて上記赤外線リモコン信号を赤外線出力手段から出力させることによって、テレビ2
に対する操作を行うことができる。この場合、ユーザはテレビ2のリモコンを操作するこ
となく、端末装置7を用いてテレビ2を操作することができるので、上記のようにテレビ
2の入力を切り替える場合等において便利である。
In the game system 1, an infrared remote control signal for the television 2 may be output from the infrared output means (the marker device 6, the marker unit 55, or the infrared communication module 82). According to this, the game apparatus 3 outputs the infrared remote control signal from the infrared output means in response to an operation on the terminal device 7, whereby the television 2
Can be performed. In this case, since the user can operate the television 2 using the terminal device 7 without operating the remote controller of the television 2, it is convenient when switching the input of the television 2 as described above.

(ネットワークを介して他の装置と通信を行う動作例)
上述のように、ゲーム装置3はネットワークに接続する機能を有しているので、ゲーム
システム1は、ネットワークを介して外部装置と通信を行う場合にも利用することができ
る。図28は、ネットワークを介して外部装置と接続される場合におけるゲームシステム
1に含まれる各装置の接続関係を示す図である。図28に示すように、ゲーム装置3は、
外部装置191とネットワーク190を介して通信可能である。
(Operation example for communicating with other devices via network)
As described above, since the game apparatus 3 has a function of connecting to a network, the game system 1 can also be used when communicating with an external apparatus via the network. FIG. 28 is a diagram showing a connection relationship between devices included in the game system 1 when connected to an external device via a network. As shown in FIG. 28, the game apparatus 3
Communication with the external device 191 is possible via the network 190.

上記のように外部装置191とゲーム装置3とが通信可能である場合、ゲームシステム
1においては端末装置7をインターフェースとして外部装置191との間で通信を行うこ
とができる。例えば、外部装置191と端末装置7との間で画像および音声を送受信する
ことによって、ゲームシステム1をテレビ電話として使用することができる。具体的には
、ゲーム装置3は、外部装置191からの画像および音声(電話相手の画像および音声)
をネットワーク190を介して受信し、受信した画像および音声を端末装置7に送信する
。これによって、端末装置7は、外部装置191からの画像をLCD51に表示するとと
もに、外部装置191からの音声をスピーカ77から出力する。また、ゲーム装置3は、
カメラ56で撮像されたカメラ画像と、マイク79で検知されたマイク音声とを端末装置
7から受信し、カメラ画像およびマイク音声をネットワーク190を介して外部装置19
1へ送信する。ゲーム装置3は、上記の画像および音声の送受信を外部装置191との間
で繰り返すことによって、ゲームシステム1をテレビ電話として使用することができる。
When the external device 191 and the game device 3 can communicate with each other as described above, the game system 1 can communicate with the external device 191 using the terminal device 7 as an interface. For example, the game system 1 can be used as a videophone by transmitting and receiving images and sound between the external device 191 and the terminal device 7. Specifically, the game apparatus 3 is configured such that the image and sound from the external device 191 (image and sound of the telephone partner)
Is transmitted via the network 190 and the received image and sound are transmitted to the terminal device 7. Accordingly, the terminal device 7 displays the image from the external device 191 on the LCD 51 and outputs the sound from the external device 191 from the speaker 77. In addition, the game apparatus 3
The camera image captured by the camera 56 and the microphone sound detected by the microphone 79 are received from the terminal device 7, and the camera image and the microphone sound are received via the network 190 from the external device 19.
Send to 1. The game apparatus 3 can use the game system 1 as a videophone by repeating the above-described transmission and reception of images and sounds with the external apparatus 191.

なお、本実施形態においては端末装置7は可搬型であるので、ユーザは、端末装置7を
自由な位置で使用したり、カメラ56を自由な方向に向けたりすることができる。また、
本実施形態においては端末装置7はタッチパネル52を備えているので、ゲーム装置3は
、タッチパネル52に対する入力情報(タッチ位置データ100)を外部装置191へ送
信することも可能である。例えば、外部装置191からの画像および音声を端末装置7で
出力するとともに、ユーザがタッチパネル52上に書いた文字等を外部装置191へ送信
する場合には、いわゆるeラーニングシステムとしてゲームシステム1を使用することも
可能である。
In this embodiment, since the terminal device 7 is portable, the user can use the terminal device 7 at a free position or point the camera 56 in a free direction. Also,
In the present embodiment, since the terminal device 7 includes the touch panel 52, the game apparatus 3 can also transmit input information (touch position data 100) to the touch panel 52 to the external device 191. For example, when an image and sound from the external device 191 are output by the terminal device 7 and a character written on the touch panel 52 by the user is transmitted to the external device 191, the game system 1 is used as a so-called e-learning system. It is also possible to do.

(テレビ放送と連動した動作例)
また、ゲームシステム1は、テレビ2でテレビ放送が視聴されている場合に、テレビ放
送と連動して動作することも可能である。すなわち、ゲームシステム1は、テレビ2でテ
レビ番組が視聴されている場合に、そのテレビ番組に関する情報等を端末装置7に出力さ
せる。以下、ゲームシステム1がテレビ放送と連動して動作する場合の動作例を説明する
(Example of operation linked with TV broadcasting)
The game system 1 can also operate in conjunction with the television broadcast when the television broadcast is being viewed on the television 2. That is, the game system 1 causes the terminal device 7 to output information on the television program when the television program is viewed on the television 2. Hereinafter, an operation example when the game system 1 operates in conjunction with television broadcasting will be described.

上記動作例においては、ゲーム装置3は、ネットワークを介してサーバと通信可能であ
る(換言すれば、図28に示す外部装置191がサーバである。)。サーバは、テレビ放
送に関連する種々の情報(テレビ情報)をテレビ放送のチャンネル毎に記憶している。こ
のテレビ情報は、字幕や出演者情報等の番組に関する情報でもよいし、EPG(電子番組
表)の情報や、データ放送として放送される情報でもよい。また、テレビ情報は、画像や
、音声や、文字や、これらの組み合わせの情報であってもよい。また、サーバは1つであ
る必要はなく、テレビ放送のチャンネル毎、あるいは番組毎にサーバが設置され、ゲーム
装置3は各サーバと通信可能であってもよい。
In the above operation example, the game apparatus 3 can communicate with a server via a network (in other words, the external apparatus 191 shown in FIG. 28 is a server). The server stores various information (television information) related to television broadcasting for each channel of television broadcasting. This television information may be information relating to a program such as subtitles or performer information, EPG (electronic program guide) information, or information broadcast as a data broadcast. The television information may be information on images, sounds, characters, or a combination thereof. Further, the number of servers does not have to be one, and a server may be installed for each television broadcast channel or each program, and the game apparatus 3 may be able to communicate with each server.

テレビ2においてテレビ放送の映像・音声が出力されている場合において、ゲーム装置
3は、視聴中のテレビ放送のチャンネルを端末装置7を用いてユーザに入力させる。そし
て、入力されたチャンネルに対応するテレビ情報を送信するように、ネットワークを介し
てサーバに要求する。これに応じて、サーバは上記チャンネルに対応するテレビ情報のデ
ータを送信する。サーバから送信されてくるデータ受信すると、ゲーム装置3は、受信し
たデータを端末装置7へ出力する。端末装置7は、上記データのうち画像および文字のデ
ータをLCD51に表示し、音声のデータをスピーカから出力する。以上によって、ユー
ザは、現在視聴中のテレビ番組に関する情報等を端末装置7を用いて享受することができ
る。
When television broadcast video / audio is output on the television 2, the game apparatus 3 causes the user to input the television broadcast channel being viewed using the terminal device 7. And it requests | requires of a server via a network to transmit the television information corresponding to the input channel. In response to this, the server transmits television information data corresponding to the channel. When the data transmitted from the server is received, the game apparatus 3 outputs the received data to the terminal device 7. The terminal device 7 displays image and character data among the above data on the LCD 51, and outputs audio data from the speaker. As described above, the user can enjoy information on the TV program currently being viewed using the terminal device 7.

上記のように、ゲームシステム1は、ネットワークを介して外部装置(サーバ)と通信
を行うことによって、テレビ放送と連動した情報を端末装置7によってユーザに提供する
ことも可能である。特に、本実施形態では端末装置7は可搬型であるので、ユーザは自由
な位置で端末装置7を使用することができ、利便性が高い。
As described above, the game system 1 can provide the user with information linked to the television broadcast by the terminal device 7 by communicating with the external device (server) via the network. In particular, in this embodiment, since the terminal device 7 is portable, the user can use the terminal device 7 at a free position, which is highly convenient.

以上のように、本実施形態においては、ユーザは、ゲームに使用する他にも、種々の用
途・形態で端末装置7を使用することができる。
As described above, in the present embodiment, the user can use the terminal device 7 for various purposes and forms in addition to being used for the game.

[8.変形例]
上記実施形態は本発明を実施する一例であり、他の実施形態においては例えば以下に説
明する構成で本発明を実施することも可能である。
[8. Modified example]
The above-described embodiment is an example for carrying out the present invention. In other embodiments, the present invention can be implemented with, for example, the configuration described below.

(複数の端末装置を有する変形例)
上記実施形態においては、ゲームシステム1は端末装置を1つのみ有する構成であった
が、ゲームシステム1は複数の端末装置を有する構成であってもよい。すなわち、ゲーム
装置3は、複数の端末装置とそれぞれ無線通信可能であり、ゲーム画像のデータとゲーム
音声のデータと制御データとを各端末装置へ送信し、操作データとカメラ画像データとマ
イク音データとを各端末装置から受信するものであってもよい。なお、ゲーム装置3は、
複数の端末装置のそれぞれと無線通信を行うが、このとき、ゲーム装置3は、各端末装置
との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。
(Modification example having a plurality of terminal devices)
In the above embodiment, the game system 1 has only one terminal device, but the game system 1 may have a plurality of terminal devices. That is, the game apparatus 3 can wirelessly communicate with a plurality of terminal apparatuses, transmits game image data, game sound data, and control data to each terminal apparatus, and operates data, camera image data, and microphone sound data. May be received from each terminal device. The game apparatus 3 is
Wireless communication is performed with each of the plurality of terminal devices. At this time, the game apparatus 3 may perform wireless communication with each terminal device in a time division manner or may divide a frequency band.

上記のように複数の端末装置を有する場合には、ゲームシステムを用いてより多くの種
類のゲームを行うことができる。例えば、ゲームシステム1が2つの端末装置を有する場
合には、ゲームシステム1は3つの表示装置を有することになるので、3人のプレイヤの
それぞれのためのゲーム画像を生成し、各表示装置に表示させることができる。また、ゲ
ームシステム1が2つの端末装置を有する場合には、コントローラと端末装置とを1組と
して用いるゲーム(例えば上記第5のゲーム例)において、2人のプレイヤが同時にゲー
ムを行うことができる。さらに、2つのコントローラから出力されるマーカ座標データに
基づいて上記ステップS27のゲーム処理が行われる場合には、コントローラをマーカ(
マーカ装置6またはマーカ部55)に向けて行うゲーム操作を2人のプレイヤがそれぞれ
行うことができる。すなわち、一方のプレイヤは、マーカ装置6の方へコントローラを向
けてゲーム操作を行い、他方のプレイヤは、マーカ部55の方へコントローラを向けてゲ
ーム操作を行うことができる。
When having a plurality of terminal devices as described above, more types of games can be played using the game system. For example, when the game system 1 has two terminal devices, the game system 1 has three display devices. Therefore, a game image for each of three players is generated, and each display device has Can be displayed. Further, when the game system 1 has two terminal devices, two players can play a game simultaneously in a game using the controller and the terminal device as a set (for example, the fifth game example). . Furthermore, when the game process of step S27 is performed based on the marker coordinate data output from the two controllers, the controller (marker (
Two players can each perform a game operation performed toward the marker device 6 or the marker unit 55). That is, one player can perform a game operation with the controller directed toward the marker device 6, and the other player can perform a game operation with the controller directed toward the marker unit 55.

(端末装置の機能に関する変形例)
上記実施形態においては、端末装置7は、ゲーム処理を実行しない、いわゆるシンクラ
イアント端末として機能するものであった。ここで、他の実施形態においては、上記実施
形態においてゲーム装置3によって実行される一連のゲーム処理のうち、一部の処理は端
末装置7等の他の装置によって実行されてもよい。例えば、一部の処理(例えば、端末用
ゲーム画像の生成処理)を端末装置7が実行するようにしてもよい。つまり、端末装置は
、操作部に対する操作に基づいてゲーム処理を行い、ゲーム処理に基づいてゲーム画像を
生成して表示部に表示させる、携帯型のゲーム装置として機能するものであってもよい。
また例えば、互いに通信可能な複数の情報処理装置(ゲーム装置)を有するゲームシステ
ムにおいて、当該複数の情報処理装置がゲーム処理を分担して実行するようにしてもよい
(Modifications related to terminal device functions)
In the above embodiment, the terminal device 7 functions as a so-called thin client terminal that does not execute game processing. Here, in other embodiments, some of the series of game processes executed by the game apparatus 3 in the above embodiment may be executed by another apparatus such as the terminal apparatus 7. For example, the terminal device 7 may execute a part of processing (for example, processing for generating a game image for a terminal). That is, the terminal device may function as a portable game device that performs a game process based on an operation on the operation unit, generates a game image based on the game process, and displays the game image on the display unit.
Further, for example, in a game system having a plurality of information processing devices (game devices) that can communicate with each other, the plurality of information processing devices may share and execute game processing.

(端末装置の構成に関する変形例)
上記実施形態における端末装置は一例であり、端末装置の各操作ボタンやハウジング5
0の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、お
よび設置位置であってもよい。例えば、端末装置は、以下に示す構成であってもよい。以
下、図29〜図32を参照して、端末装置の変形例について説明する。
(Modifications related to terminal device configuration)
The terminal device in the above embodiment is an example, and each operation button or housing 5 of the terminal device is used.
The shape of 0, the number of each component, the installation position, and the like are merely examples, and other shapes, numbers, and installation positions may be used. For example, the terminal device may have the following configuration. Hereinafter, a modification of the terminal device will be described with reference to FIGS. 29 to 32.

図29は、上記実施形態の変形例に係る端末装置の外観構成を示す図である。図29に
おける(a)図は端末装置の正面図であり、(b)図は上面図であり、(c)図は右側面
図であり、(d)図は下面図である。また、図30は、図29に示す端末装置をユーザが
把持した様子を示す図である。なお、図29および図30において、上記実施形態におけ
る端末装置7の構成要素に対応する構成要素については図8と同じ参照符号を付している
が、同一の物で構成される必要はない。
FIG. 29 is a diagram illustrating an external configuration of a terminal device according to a modification of the embodiment. 29 (a) is a front view of the terminal device, FIG. 29 (b) is a top view, FIG. 29 (c) is a right side view, and FIG. 29 (d) is a bottom view. FIG. 30 is a diagram illustrating a state where the user holds the terminal device illustrated in FIG. 29. In FIG. 29 and FIG. 30, constituent elements corresponding to the constituent elements of the terminal device 7 in the above embodiment are given the same reference numerals as those in FIG. 8, but need not be configured in the same manner.

図29に示されるように、端末装置8は、大略的には横長の長方形の板状形状であるハ
ウジング50を備える。ハウジング50は、ユーザが把持することができる程度の大きさ
である。したがって、ユーザは、端末装置8を持って動かしたり、端末装置8の配置位置
を変更したりすることができる。
As shown in FIG. 29, the terminal device 8 includes a housing 50 that is generally a horizontally-long rectangular plate shape. The housing 50 is large enough to be gripped by the user. Therefore, the user can move the terminal device 8 and change the arrangement position of the terminal device 8.

端末装置8は、ハウジング50の表面にLCD51を有する。LCD51は、ハウジン
グ50の表面の中央付近に設けられる。したがって、ユーザは、図9に示すようにLCD
51の両側部分のハウジング50を持つことによって、LCD51の画面を見ながら端末
装置を持って動かすことができる。なお、図9ではユーザがLCD51の左右両側の部分
のハウジング50を持つことで端末装置8を横持ちで(横に長い向きにして)持つ例を示
しているが、端末装置8を縦持ちで(縦に長い向きにして)持つことも可能である。
The terminal device 8 has an LCD 51 on the surface of the housing 50. The LCD 51 is provided near the center of the surface of the housing 50. Thus, the user can display the LCD as shown in FIG.
By having the housings 50 on both sides of 51, the terminal device can be moved while viewing the screen of the LCD 51. Although FIG. 9 shows an example in which the user has the terminal device 8 horizontally (with a long horizontal orientation) by holding the housings 50 on the left and right sides of the LCD 51, the terminal device 8 is held vertically. It can also be held (with a long vertical orientation).

図29の(a)図に示すように、端末装置8は、操作手段(操作部)として、LCD5
1の画面上にタッチパネル52を有する。本変形例では、タッチパネル52は抵抗膜方式
のタッチパネルである。ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方
式等、任意の方式のタッチパネルを用いることができる。また、タッチパネル52はシン
グルタッチ方式でもよいし、マルチタッチ方式であってもよい。本変形例では、タッチパ
ネル52として、LCD51の解像度と同解像度(検出精度)のものを利用する。ただし
、必ずしもタッチパネル52の解像度とLCD51の解像度が一致している必要はない。
タッチパネル52に対する入力は通常タッチペンを用いて行われるが、タッチペンに限ら
ずユーザの指でタッチパネル52に対する入力をすることも可能である。なお、ハウジン
グ50には、タッチパネル52に対する操作を行うために用いられるタッチペンを収納す
るための収納穴が設けられていてもよい。このように、端末装置8はタッチパネル52を
備えるので、ユーザは、端末装置8を動かしながらタッチパネル52を操作することがで
きる。つまりユーザは、LCD51の画面を動かしつつ、その画面に対して直接(タッチ
パネル52によって)入力を行うことができる。
As shown in FIG. 29A, the terminal device 8 has an LCD 5 as an operation means (operation unit).
A touch panel 52 is provided on one screen. In this modification, the touch panel 52 is a resistive film type touch panel. However, the touch panel is not limited to the resistive film type, and any type of touch panel such as a capacitance type can be used. The touch panel 52 may be a single touch method or a multi-touch method. In the present modification, a touch panel 52 having the same resolution (detection accuracy) as the resolution of the LCD 51 is used. However, the resolution of the touch panel 52 and the resolution of the LCD 51 are not necessarily matched.
Input to the touch panel 52 is normally performed using a touch pen, but it is also possible to input to the touch panel 52 with a user's finger without being limited to the touch pen. The housing 50 may be provided with a storage hole for storing a touch pen used to perform an operation on the touch panel 52. Thus, since the terminal device 8 includes the touch panel 52, the user can operate the touch panel 52 while moving the terminal device 8. That is, the user can directly input (by the touch panel 52) to the screen while moving the screen of the LCD 51.

図29に示すように、端末装置8は、操作手段(操作部)として、2つのアナログステ
ィック53Aおよび53Bと、複数のボタン54A〜54Lとを備えている。各アナログ
スティック53Aおよび53Bは、方向を指示するデバイスである。各アナログスティッ
ク53Aおよび53Bは、ユーザの指で操作されるスティック部がハウジング50の表面
に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドまたは傾倒する
ことができるように構成されている。また、左アナログスティック53AはLCD51の
画面の左側に、右アナログスティック53BはLCD51の画面の右側にそれぞれ設けら
れる。したがって、ユーザは、左右いずれの手でもアナログスティックを用いて方向を指
示する入力を行うことができる。また、図30に示すように、各アナログスティック53
Aおよび53Bは、ユーザが端末装置8の左右部分を把持した状態で操作可能な位置に設
けられるので、ユーザは、端末装置8を持って動かす場合においても各アナログスティッ
ク53Aおよび53Bを容易に操作することができる。
As shown in FIG. 29, the terminal device 8 includes two analog sticks 53A and 53B and a plurality of buttons 54A to 54L as operation means (operation unit). Each analog stick 53A and 53B is a device that indicates a direction. Each of the analog sticks 53A and 53B is configured such that the stick portion operated by the user's finger can slide or tilt in any direction (any angle in the up / down / left / right and diagonal directions) with respect to the surface of the housing 50. Has been. The left analog stick 53A is provided on the left side of the screen of the LCD 51, and the right analog stick 53B is provided on the right side of the screen of the LCD 51. Therefore, the user can make an input for instructing the direction with the left and right hands using the analog stick. In addition, as shown in FIG.
Since A and 53B are provided at positions where the user can operate with the left and right portions of the terminal device 8 being gripped, the user can easily operate the analog sticks 53A and 53B even when the user moves the terminal device 8 with the terminal device 8. can do.

各ボタン54A〜54Lは、所定の入力を行うための操作手段である。以下に示すよう
に、各ボタン54A〜54Lは、ユーザが端末装置8の左右部分を把持した状態で操作可
能な位置に設けられる(図30参照)。したがって、ユーザは、端末装置8を持って動か
す場合においてもこれらの操作手段を容易に操作することができる。
Each button 54A-54L is an operation means for performing a predetermined input. As shown below, each button 54A-54L is provided in the position which a user can operate in the state which hold | gripped the left-right part of the terminal device 8 (refer FIG. 30). Therefore, the user can easily operate these operation means even when the user moves the terminal device 8.

図29の(a)図に示すように、ハウジング50の表面には、各操作ボタン54A〜5
4Lのうち、十字ボタン(方向入力ボタン)54Aと、ボタン54B〜54Hとが設けら
れる。つまり、これらのボタン54A〜54Gは、ユーザの親指で操作可能な位置に配置
されている(図30参照)。
As shown in FIG. 29A, the operation buttons 54A to 54A are provided on the surface of the housing 50.
Of 4L, a cross button (direction input button) 54A and buttons 54B to 54H are provided. That is, these buttons 54 </ b> A to 54 </ b> G are arranged at positions that can be operated with the user's thumb (see FIG. 30).

十字ボタン54Aは、LCD51の左側であって、左アナログスティック53Aの下側
に設けられる。つまり、十字ボタン54Aはユーザの左手で操作可能な位置に配置されて
いる。十字ボタン54Aは、十字の形状を有しており、上下左右の方向を指示することが
可能なボタンである。また、ボタン54B〜54Dは、LCD51の下側に設けられる。
これら3つのボタン54B〜54Dは、左右両方の手で操作可能な位置に配置されている
。また、4つのボタン54E〜54Hは、LCD51の右側であって、右アナログスティ
ック53Bの下側に設けられる。つまり、4つのボタン54E〜54Hはユーザの右手で
操作可能な位置に配置されている。さらに、4つのボタン54E〜54Hは、(4つのボ
タン54E〜54Hの中心位置に対して)上下左右の位置関係となるように配置されてい
る。したがって、端末装置8は、ユーザに上下左右の方向を指示させるためのボタンとし
て4つのボタン54E〜54Hを機能させることも可能である。
The cross button 54A is provided on the left side of the LCD 51 and below the left analog stick 53A. That is, the cross button 54A is arranged at a position where it can be operated with the left hand of the user. The cross button 54 </ b> A has a cross shape and is a button capable of instructing the vertical and horizontal directions. The buttons 54B to 54D are provided below the LCD 51.
These three buttons 54B to 54D are arranged at positions that can be operated by both the left and right hands. The four buttons 54E to 54H are provided on the right side of the LCD 51 and below the right analog stick 53B. That is, the four buttons 54E to 54H are arranged at positions that can be operated with the right hand of the user. Further, the four buttons 54E to 54H are arranged so as to have a vertical / left / right positional relationship (relative to the center position of the four buttons 54E to 54H). Therefore, the terminal device 8 can also function the four buttons 54 </ b> E to 54 </ b> H as buttons for instructing the user in the up / down / left / right directions.

また、図29の(a)図、(b)図、および(c)図に示すように、第1Lボタン54
Iおよび第1Rボタン54Jは、ハウジング50の斜め上部分(左上部分および右上部分
)に設けられる。具体的には、第1Lボタン54Iは、板状のハウジング50における上
側の側面の左端に設けられ、上側および左側の側面から露出している。また、第1Rボタ
ン54Jは、ハウジング50における上側の側面の右端に設けられ、上側および右側の側
面から露出している。このように、第1Lボタン54Iは、ユーザの左手人差し指で操作
可能な位置に配置され、第1Rボタン54Jは、ユーザの右手人差し指で操作可能な位置
に配置される(図9参照)。
Further, as shown in FIGS. 29 (a), (b), and (c), the first L button 54 is provided.
The I and first R buttons 54J are provided in an obliquely upper portion (upper left portion and upper right portion) of the housing 50. Specifically, the first L button 54I is provided at the left end of the upper side surface of the plate-like housing 50, and is exposed from the upper and left side surfaces. The first R button 54J is provided at the right end of the upper side surface of the housing 50, and is exposed from the upper and right side surfaces. In this way, the first L button 54I is disposed at a position operable with the user's left index finger, and the first R button 54J is disposed at a position operable with the user's right hand index finger (see FIG. 9).

また、図29の(b)図および(c)図に示すように、第2Lボタン54Kおよび第2
Rボタン54Lは、板状のハウジング50の裏面(すなわちLCD51が設けられる表面
の反対側の面)に突起して設けられる足部59Aおよび59Bに配置される。上記実施形
態の庇部59と同様、各足部59Aおよび59Bは、表示部の左右にそれぞれ設けられる
操作部(各アナログスティック53Aおよび53B)の反対側の位置を含む領域に設けら
れる。また、第2Lボタン54Kは、ハウジング50の裏面の左側(表面側から見たとき
の左側)のやや上方に設けられ、第2Rボタン54Lは、ハウジング50の裏面の右側(
表面側から見たときの右側)のやや上方に設けられる。換言すれば、第2Lボタン54K
は、表面に設けられる左アナログスティック53Aの概ね反対側の位置に設けられ、第2
Rボタン54Lは、表面に設けられる右アナログスティック53Bの概ね反対側の位置に
設けられる。このように、第2Lボタン54Kは、ユーザの左手中指で操作可能な位置に
配置され、第2Rボタン54Lは、ユーザの右手中指で操作可能な位置に配置される(図
9参照)。また、第2Lボタン54Kおよび第2Rボタン54Lは、図29の(c)図に
示すように、上記足部59Aおよび59Bの斜め上方を向く面に設けられ、斜め上方を向
くボタン面を有する。ユーザが端末装置8を把持した場合には中指は上下方向に動くと考
えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン54Kおよび第2
Rボタン54Lを押下しやすくなる。また、ハウジング50の裏面に足部が設けられるこ
とにより、ユーザはハウジング50を把持しやすくなり、かつ、足部にボタンが設けられ
ることで、ハウジング50を把持したまま操作しやすくなる。
Further, as shown in FIGS. 29 (b) and (c), the second L button 54K and the second L button 54K
The R button 54L is disposed on the foot portions 59A and 59B provided to project from the back surface of the plate-like housing 50 (that is, the surface opposite to the surface on which the LCD 51 is provided). Similar to the heel portion 59 of the above-described embodiment, the foot portions 59A and 59B are provided in a region including positions opposite to the operation portions (respective analog sticks 53A and 53B) provided on the left and right sides of the display portion. The second L button 54K is provided slightly above the left side (left side when viewed from the front side) of the housing 50, and the second R button 54L is provided on the right side (
It is provided slightly above the right side when viewed from the front side. In other words, the second L button 54K
Is provided at a position approximately opposite to the left analog stick 53A provided on the surface, and the second
The R button 54L is provided at a position approximately opposite to the right analog stick 53B provided on the surface. As described above, the second L button 54K is disposed at a position operable by the user's left middle finger, and the second R button 54L is disposed at a position operable by the user's right middle finger (see FIG. 9). Further, as shown in FIG. 29 (c), the second L button 54K and the second R button 54L are provided on the surfaces of the feet 59A and 59B facing diagonally upward, and have button surfaces facing diagonally upward. When the user holds the terminal device 8, the middle finger is considered to move up and down, so that the user faces the second L button 54 </ b> K and the second L button 54 </ b> K by pointing the button surface upward.
It becomes easier to press the R button 54L. In addition, the foot is provided on the back surface of the housing 50, so that the user can easily hold the housing 50, and the buttons are provided on the foot, so that the user can easily operate while holding the housing 50.

なお、図29に示す端末装置8に関しては、第2Lボタン54Kおよび第2Rボタン5
4Lが裏面に設けられるので、LCD51の画面(ハウジング50の表面)が上を向いた
状態で端末装置8を載置させる場合、画面が完全に水平にはならない場合がある。そのた
め、他の実施形態においては、ハウジング50の裏面に3つ以上の足部が形成されてもよ
い。これによれば、LCD51の画面が上を向いた状態では足部が床面に接することで床
面に載置できるので、画面が水平になるように端末装置8を載置することができる。また
、着脱可能な足部を追加することで端末装置8を水平に載置するようにしてもよい。
Note that the second L button 54K and the second R button 5 are associated with the terminal device 8 shown in FIG.
Since 4L is provided on the back surface, when the terminal device 8 is placed with the screen of the LCD 51 (the surface of the housing 50) facing upward, the screen may not be completely horizontal. Therefore, in other embodiments, three or more legs may be formed on the back surface of the housing 50. According to this, in a state where the screen of the LCD 51 is facing upward, the foot can be placed on the floor by touching the floor, so that the terminal device 8 can be placed so that the screen is horizontal. Further, the terminal device 8 may be placed horizontally by adding a detachable foot.

各ボタン54A〜54Lには、ゲームプログラムに応じた機能が適宜割り当てられる。
例えば、十字ボタン54Aおよびボタン54E〜54Hは方向指示操作や選択操作等に用
いられてもよいし、各ボタン54B〜54Eは決定操作やキャンセル操作等に用いられて
もよい。
Functions corresponding to the game program are appropriately assigned to the buttons 54A to 54L.
For example, the cross button 54A and the buttons 54E to 54H may be used for a direction instruction operation or a selection operation, and the buttons 54B to 54E may be used for a determination operation or a cancel operation.

なお、図示しないが、端末装置8は、端末装置8の電源をオン/オフするための電源ボ
タンを有している。また、端末装置8は、LCD51の画面表示をオン/オフするための
ボタンや、ゲーム装置3との接続設定(ペアリング)を行うためのボタンや、スピーカ(
図10に示すスピーカ77)の音量を調節するためのボタンを有していてもよい。
Although not shown, the terminal device 8 has a power button for turning on / off the terminal device 8. The terminal device 8 also has a button for turning on / off the screen display of the LCD 51, a button for setting connection (pairing) with the game device 3, and a speaker (
You may have the button for adjusting the volume of the speaker 77) shown in FIG.

図29の(a)図に示すように、端末装置8は、マーカ55Aおよびマーカ55Bから
なるマーカ部(図10に示すマーカ部55)をハウジング50の表面に備えている。マー
カ部55は、LCD51の上側に設けられる。各マーカ55Aおよびマーカ55Bは、マ
ーカ装置6の各マーカ6Rおよび6Lと同様、1以上の赤外LEDで構成される。マーカ
部55は、上述のマーカ装置6と同様、コントローラ5の動き等をゲーム装置3が算出す
るために用いられる。また、ゲーム装置3はマーカ部55が備える各赤外LEDの点灯を
制御することが可能である。
As illustrated in FIG. 29A, the terminal device 8 includes a marker portion (a marker portion 55 illustrated in FIG. 10) including a marker 55 </ b> A and a marker 55 </ b> B on the surface of the housing 50. The marker unit 55 is provided on the upper side of the LCD 51. Each of the markers 55A and 55B is composed of one or more infrared LEDs, like the markers 6R and 6L of the marker device 6. The marker unit 55 is used for the game device 3 to calculate the movement of the controller 5 and the like, similar to the marker device 6 described above. Further, the game apparatus 3 can control lighting of each infrared LED included in the marker unit 55.

端末装置8は、撮像手段であるカメラ56を備えている。カメラ56は、所定の解像度
を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レ
ンズとを含む。図29に示すように、本変形例では、カメラ56はハウジング50の表面
に設けられる。したがって、カメラ56は、端末装置8を持っているユーザの顔を撮像す
ることができ、例えばLCD51を見ながらゲームを行っている時のユーザを撮像するこ
とができる。
The terminal device 8 includes a camera 56 that is an imaging unit. The camera 56 includes an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution, and a lens. As shown in FIG. 29, in this modification, the camera 56 is provided on the surface of the housing 50. Therefore, the camera 56 can take an image of the face of the user who has the terminal device 8, and can take an image of the user who is playing the game while looking at the LCD 51, for example.

なお、端末装置8は、音声入力手段であるマイク(図10に示すマイク79)を備えて
いる。ハウジング50の表面には、マイクロフォン用孔50cが設けられる。マイク79
はこのマイクロフォン用孔50cの奥のハウジング50内部に設けられる。マイクは、ユ
ーザの音声等、端末装置8の周囲の音を検出する。
The terminal device 8 includes a microphone (a microphone 79 shown in FIG. 10) that is a voice input unit. A microphone hole 50 c is provided on the surface of the housing 50. Mike 79
Is provided inside the housing 50 behind the microphone hole 50c. The microphone detects sounds around the terminal device 8 such as a user's voice.

端末装置8は、音声出力手段であるスピーカ(図10に示すスピーカ77)を備えてい
る。図29の(d)図に示すように、ハウジング50の下側側面にはスピーカ孔57が設
けられる。スピーカ77の出力音はこのスピーカ孔57から出力される。本変形例では、
端末装置8は2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位
置にスピーカ孔57が設けられる。
The terminal device 8 includes a speaker (speaker 77 shown in FIG. 10) that is an audio output means. As shown in FIG. 29D, a speaker hole 57 is provided on the lower side surface of the housing 50. The output sound of the speaker 77 is output from the speaker hole 57. In this variation,
The terminal device 8 includes two speakers, and speaker holes 57 are provided at positions of the left speaker and the right speaker.

また、端末装置8は、他の装置を端末装置8に接続するための拡張コネクタ58を備え
ている。本変形例においては、図29の(d)図に示すように、拡張コネクタ58は、ハ
ウジング50の下側側面に設けられる。なお、拡張コネクタ58に接続される他の装置は
どのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコ
ントローラ等)やキーボード等の入力装置であってもよい。他の装置を接続する必要がな
ければ、拡張コネクタ58は設けられていなくともよい。
Further, the terminal device 8 includes an expansion connector 58 for connecting other devices to the terminal device 8. In the present modification, the extension connector 58 is provided on the lower side surface of the housing 50 as shown in FIG. Note that any other device connected to the expansion connector 58 may be used. For example, a controller (such as a gun-type controller) used for a specific game or an input device such as a keyboard may be used. If it is not necessary to connect another device, the expansion connector 58 may not be provided.

なお、図29に示した端末装置8に関して、各操作ボタンやハウジング50の形状や、
各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置
であってもよい。
In addition, regarding the terminal device 8 shown in FIG. 29, the shape of each operation button and the housing 50,
The number of components and the installation positions are merely examples, and other shapes, numbers, and installation positions may be used.

以上のように、上記変形例においては、ハウジング50の裏面において左右両側の位置
に設けられる2つの足部59Aおよび59Bが突起部として設けられる。この場合も上記
実施形態と同様、突起部の下面を薬指または中指に掛けた状態で端末装置8を把持するこ
とによって、ユーザは楽に端末装置8を把持することができる(図30参照)。また、上
記実施形態と同様、突起部の上面に第2Lボタン54Kおよび第2Rボタン54Lが設け
られるので、ユーザは上記の状態でこれらのボタンを容易に操作することができる。
As described above, in the modified example, the two foot portions 59A and 59B provided at the left and right positions on the back surface of the housing 50 are provided as the protrusions. Also in this case, the user can easily hold the terminal device 8 by gripping the terminal device 8 with the bottom surface of the projection portion hung on the ring finger or the middle finger as in the above embodiment (see FIG. 30). Further, as in the above embodiment, since the second L button 54K and the second R button 54L are provided on the upper surface of the protrusion, the user can easily operate these buttons in the above state.

上記実施形態および変形例のように、突起部は、ハウジングの裏側において、ハウジン
グの中央よりも上側であって少なくとも左右両側の位置に突起して設けられることが好ま
しい。これによれば、ユーザがハウジングの左右両側を把持した場合に、突起部が指に掛
かるようにすることで楽に端末装置を把持することができる。また、突起部が上側に設け
られることによって、ユーザは手のひらでもハウジングを支えることができるので(図1
0等参照)、端末装置をしっかりと把持することができる。
As in the above-described embodiment and modification, it is preferable that the protrusion is provided on the back side of the housing so as to protrude above the center of the housing and at least on the left and right sides. According to this, when the user grips both the left and right sides of the housing, the terminal device can be easily gripped by causing the protrusion to be hooked on the finger. Further, since the protrusion is provided on the upper side, the user can support the housing with the palm of the hand (FIG. 1).
The terminal device can be firmly held.

なお、突起部は、ハウジングの中央よりも上側に設けられなくてもよい。例えば、表示
部の左右に操作部がそれぞれ設けられる場合には、突起部は、ユーザが各操作部を両手の
親指でそれぞれ操作可能なようにハウジングを把持した状態で、親指以外のいずれかの指
に掛止可能な位置に設けられてもよい。これによっても、ユーザは、突起部が指に掛かる
ようにすることで楽に端末装置を把持することができる。
Note that the protrusion may not be provided above the center of the housing. For example, when the operation units are provided on the left and right sides of the display unit, the protrusions are in any state other than the thumb while holding the housing so that the user can operate each operation unit with the thumbs of both hands. You may provide in the position which can be hooked on a finger | toe. Also by this, the user can easily hold the terminal device by causing the protrusion to be caught on the finger.

図31および図32は、上記実施形態の他の変形例に係る端末装置の外観構成を示す図
である。図31は端末装置の右側面図であり、図32は下面図である。図31および図3
2に示す端末装置9は、凸部230aおよび230bを備える点を除いて、上記実施形態
における端末装置7と同様である。以下、上記実施形態との相違点を中心に、本変形例に
おける端末装置9の構成を説明する。
FIG. 31 and FIG. 32 are diagrams showing an external configuration of a terminal device according to another modification of the embodiment. FIG. 31 is a right side view of the terminal device, and FIG. 32 is a bottom view. 31 and 3
The terminal device 9 shown in FIG. 2 is the same as the terminal device 7 in the above-described embodiment except that the terminal device 9 includes convex portions 230a and 230b. Hereinafter, the configuration of the terminal device 9 in the present modification will be described focusing on differences from the above embodiment.

凸部230aおよび230bは、断面が凸型であり、ハウジング50の裏側において左
右の両側にそれぞれ設けられる。ここでは、ハウジング50の左側(表面側から見たとき
の左側)に凸部230aが設けられ、ハウジング50の右側(表面側から見たときの右側
)に凸部230bが設けられる。図32に示すように、各凸部230aおよび230bは
、ハウジング50の左右の両辺に設けられている。また、各凸部230aおよび230b
は、突起部(庇部59)よりも下方に設けられる。各凸部230aおよび230bは、突
起部との間に間隔を空けて設けられる。つまり、ハウジング50において、各凸部230
aおよび230bと突起部との間の部分は、これらの各部よりも薄く構成される。各凸部
230aおよび230bは、突起する部分が上下方向に延び、上下方向に垂直な断面が凸
型の形状である。
The convex portions 230 a and 230 b have a convex cross section, and are provided on both the left and right sides on the back side of the housing 50. Here, a convex portion 230a is provided on the left side (left side when viewed from the front surface side) of the housing 50, and a convex portion 230b is provided on the right side (right side when viewed from the front surface side) of the housing 50. As shown in FIG. 32, the convex portions 230 a and 230 b are provided on both the left and right sides of the housing 50. Moreover, each convex part 230a and 230b
Is provided below the protrusion (the flange 59). Each convex part 230a and 230b is provided at intervals between the protrusions. That is, in the housing 50, each convex portion 230.
The part between a and 230b and a projection part is comprised thinner than these each part. Each of the protrusions 230a and 230b has a protruding portion extending in the vertical direction and a cross section perpendicular to the vertical direction having a convex shape.

本変形例においては、ユーザは、小指(および薬指)で各凸部230aおよび230b
を包むように把持することで、端末装置9をよりしっかりと把持することができる。すな
わち、凸部230aおよび230bは、グリップ部の機能を有する。なお、凸部(グリッ
プ部)は、どのような形状であってもよいが、上下方向に延びるように形成されると端末
装置9が持ちやすくなり、好ましい。また、各凸部230aおよび230bの高さは、ど
のくらいでもよいが、突起部よりも低く形成されてもよい。これによれば、LCD51の
画面が上向きになるように端末装置9を載置した状態において画面の下側が上側よりも低
くなるので、見やすい状態で端末装置9を載置することができる。また、各凸部230a
および230bは突起部との間に間隔を空けて設けられるので、ユーザは突起部の下面に
指を当てて端末装置9を把持することができ、凸部が当該指の邪魔になることがない。以
上のように、上記変形例によれば、突起部の下方に凸部が設けられることによって、ユー
ザは、端末装置をよりしっかりと把持することができる。なお、他の実施形態においては
、ハウジング50の裏面に上記突起部が設けられない構成としてもよく、その場合でも、
凸部(グリップ部)によってユーザはハウジング50をしっかりと把持することができる
In this modification, the user uses the little finger (and ring finger) to form the convex portions 230a and 230b.
The terminal device 9 can be gripped more firmly by gripping it so as to wrap it. That is, the convex portions 230a and 230b have a grip portion function. In addition, although a convex part (grip part) may be what kind of shape, when it is formed so that it may extend in the up-down direction, the terminal device 9 becomes easy to have, and it is preferable. Moreover, although the height of each convex part 230a and 230b may be what, it may be formed lower than a projection part. According to this, since the lower side of the screen is lower than the upper side when the terminal device 9 is placed so that the screen of the LCD 51 faces upward, the terminal device 9 can be placed in an easily viewable state. Moreover, each convex part 230a
Since 230b and 230b are provided with a space between the protrusion, the user can hold the terminal device 9 by placing a finger on the lower surface of the protrusion, and the protrusion does not interfere with the finger. . As described above, according to the above-described modification, the protrusion can be provided below the protrusion, so that the user can hold the terminal device more securely. In other embodiments, the protrusion may not be provided on the rear surface of the housing 50.
The user can firmly hold the housing 50 by the convex portion (grip portion).

(本構成を適用する装置に関する変形例)
上記実施形態においては、据置型のゲーム装置と共に用いられる端末装置を例として説
明したが、本明細書に記載の操作装置の構成は、ユーザが把持して使用する任意の装置に
適用することが可能である。例えば、操作装置は、携帯ゲーム機、携帯電話、スマートフ
ォン、および電子書籍端末等の情報端末として実現されてもよい。
(Modifications related to devices to which this configuration is applied)
In the above embodiment, the terminal device used together with the stationary game device has been described as an example. However, the configuration of the operation device described in this specification can be applied to any device that is held and used by the user. Is possible. For example, the operation device may be realized as an information terminal such as a portable game machine, a mobile phone, a smartphone, and an electronic book terminal.

以上のように、本発明は、ユーザが容易に把持することを可能とすること等を目的とし
て、例えばゲームシステムにおける操作装置(端末装置)等として利用することが可能で
ある。
As described above, the present invention can be used as an operation device (terminal device) in a game system, for example, for the purpose of enabling a user to easily hold the device.

1 ゲームシステム
2 テレビ
3 ゲーム装置
4 光ディスク
5 コントローラ
6 マーカ装置
7〜9 端末装置
10 CPU
11e 内部メインメモリ
12 外部メインメモリ
51 LCD
52 タッチパネル
53 アナログスティック
54 操作ボタン
55 マーカ部
56 カメラ
59 庇部
62 磁気センサ
63 加速度センサ
64 ジャイロセンサ
200 入力装置
210 スタンド
230 凸部
DESCRIPTION OF SYMBOLS 1 Game system 2 Television 3 Game apparatus 4 Optical disk 5 Controller 6 Marker apparatus 7-9 Terminal apparatus 10 CPU
11e Internal main memory 12 External main memory 51 LCD
52 Touch Panel 53 Analog Stick 54 Operation Button 55 Marker Unit 56 Camera 59 Hook 62 Magnetic Sensor 63 Acceleration Sensor 64 Gyro Sensor 200 Input Device 210 Stand 230 Protrusion

Claims (13)

略板状のハウジングと、
前記ハウジングの表側に設けられる表示部と、
前記ハウジングの裏側において、左右両側の位置に設けられ、下面が前記ハウジングの中央よりも上側に設けられる突起部と、
前記ハウジングの中央よりも上側において前記表示部の左右にそれぞれ設けられる第1操作部および第2操作部と、
前記突起部の上側にそれぞれ設けられる第3操作部および第4操作部と
前記ハウジングの上側の面における左右の両側にそれぞれ設けられる第5操作部および第6操作部とを備える、操作装置。
A substantially plate-shaped housing;
A display portion provided on the front side of the housing;
On the back side of the housing, provided at positions on both the left and right sides, and a projecting portion whose lower surface is provided above the center of the housing;
A first operation part and a second operation part respectively provided on the left and right of the display part above the center of the housing;
A third operating part and a fourth operating part respectively provided on the upper side of the protruding part ;
An operating device comprising a fifth operating portion and a sixth operating portion provided on both the left and right sides of the upper surface of the housing .
前記突起部の下方であって前記ハウジングの裏面における左右両側に、断面が凸型である凸部をさらに備える、請求項に記載の操作装置。 Wherein a lower protrusion in the left and right sides of the back surface of the housing, further comprising a protrusion section is convex, operating device according to claim 1. 前記突起部と前記凸部とは間隔を空けて設けられる、請求項に記載の操作装置。 The operating device according to claim 2 , wherein the protrusion and the protrusion are provided with a space therebetween. 前記ハウジングの裏面における左右両側に設けられるグリップ部をさらに備える、請求項1から請求項のいずれか1項に記載の操作装置。 The operating device according to any one of claims 1 to 3 , further comprising grip portions provided on both left and right sides of the rear surface of the housing. 前記第1操作部は、スライドまたは傾倒可能な可動部材を有する方向入力部である、請求項1から請求項のいずれか1項に記載の操作装置。 The operating device according to any one of claims 1 to 4 , wherein the first operating unit is a direction input unit having a movable member that can slide or tilt. 前記第3操作部は、押下可能なキーである、請求項1から請求項のいずれか1項に記載の操作装置。 The third operating unit is capable of pressing keys, operating device according to any one of claims 1 to 5. 前記ハウジングの表側の面において前記第1操作部の下方に配置される第操作部と、
前記ハウジングの表側の面において前記第2操作部の下方に配置される第操作部とをさらに備える、請求項1から請求項のいずれか1項に記載の操作装置。
A seventh operating portion disposed below the first operating portion on the front surface of the housing;
The operating device according to any one of claims 1 to 6 , further comprising: an eighth operating unit disposed below the second operating unit on a front side surface of the housing.
前記第操作部および第操作部はそれぞれ、押下可能なキーである、請求項1から請求項7のいずれか1項に記載の操作装置。 The operating device according to claim 1 , wherein each of the fifth operation unit and the sixth operation unit is a key that can be pressed. 前記表示部の画面に設けられるタッチパネルをさらに備える、請求項1から請求項のいずれか1項に記載の操作装置。 Further comprising a touch panel provided on the screen of the display unit, the operation device according to any one of claims 1 to 8. 前記ハウジングの内部に慣性センサをさらに備える、請求項1から請求項のいずれか1項に記載の操作装置。 The operating device according to any one of claims 1 to 9 , further comprising an inertial sensor in the housing. ーム処理を実行するゲーム処理部と、
前記ゲーム処理に基づいてゲーム画像を生成して前記表示部に表示させる表示制御部とをさらに備える、請求項1から請求項10のいずれか1項に記載の操作装置。
And the game processing unit that executes the Gate untreated,
The generated game image based on the game process further comprising a display control unit for displaying on the display unit, an operation device according to any one of claims 1 to 10.
前記表示部は5インチ以上の画面を有する、請求項1から請求項11のいずれか1項に記載の操作装置。 Wherein the display unit has a more than 5 inches screen, operating device according to any one of claims 11 claim 1. 前記ハウジングの下側の面に設けられ、前記操作装置に他の装置を接続するためのコネクタをさらに備える、請求項1から請求項12のいずれか1項に記載の操作装置。  The operating device according to any one of claims 1 to 12, further comprising a connector provided on a lower surface of the housing for connecting another device to the operating device.
JP2015217290A 2010-11-01 2015-11-05 Operating device and operating system Active JP6188766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015217290A JP6188766B2 (en) 2010-11-01 2015-11-05 Operating device and operating system

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010245298 2010-11-01
JP2010245298 2010-11-01
JP2011092506 2011-04-18
JP2011092506 2011-04-18
JP2015217290A JP6188766B2 (en) 2010-11-01 2015-11-05 Operating device and operating system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011102834A Division JP5837325B2 (en) 2010-11-01 2011-05-02 Operating device and operating system

Publications (2)

Publication Number Publication Date
JP2016039960A JP2016039960A (en) 2016-03-24
JP6188766B2 true JP6188766B2 (en) 2017-08-30

Family

ID=47432963

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2011102834A Active JP5837325B2 (en) 2010-11-01 2011-05-02 Operating device and operating system
JP2011103704A Active JP6005907B2 (en) 2010-11-01 2011-05-06 Operating device and operating system
JP2011103706A Active JP6005908B2 (en) 2010-11-01 2011-05-06 Equipment support system and support device
JP2015217290A Active JP6188766B2 (en) 2010-11-01 2015-11-05 Operating device and operating system

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2011102834A Active JP5837325B2 (en) 2010-11-01 2011-05-02 Operating device and operating system
JP2011103704A Active JP6005907B2 (en) 2010-11-01 2011-05-06 Operating device and operating system
JP2011103706A Active JP6005908B2 (en) 2010-11-01 2011-05-06 Equipment support system and support device

Country Status (1)

Country Link
JP (4) JP5837325B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6057738B2 (en) * 2013-01-22 2017-01-11 任天堂株式会社 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP6626613B2 (en) * 2014-10-15 2019-12-25 株式会社コロプラ Game program
JP6083884B2 (en) * 2015-06-12 2017-02-22 任天堂株式会社 Support device, charging device, and operation system
US9751008B2 (en) 2015-06-12 2017-09-05 Nintendo Co., Ltd. Game controller
JPWO2017064926A1 (en) * 2015-10-15 2018-08-02 ソニー株式会社 Information processing apparatus and information processing method
JP2017016706A (en) * 2016-10-11 2017-01-19 任天堂株式会社 Information processing terminal and game device
US11195335B2 (en) 2016-11-30 2021-12-07 Gree, Inc. Application control program, application control method, and application control system
JP6356878B2 (en) * 2017-07-19 2018-07-11 グリー株式会社 Application control program, application control method, and application control system
JP6181842B1 (en) * 2016-11-30 2017-08-16 グリー株式会社 Application control program, application control method, and application control system
JP6684232B2 (en) 2017-01-06 2020-04-22 任天堂株式会社 Device holding structure
JP6600051B2 (en) * 2018-06-13 2019-10-30 グリー株式会社 Application control program, application control method, and application control system
JP6905022B2 (en) * 2018-06-13 2021-07-21 グリー株式会社 Application control program, application control method and application control system
WO2022113721A1 (en) * 2020-11-26 2022-06-02 田中誠 Game controller

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0768052A (en) * 1993-08-31 1995-03-14 Namco Ltd Housing of game apparatus and game apparatus using the same
JPH0788251A (en) * 1993-09-22 1995-04-04 Muumin:Kk Control pad for game machine
JP4036246B2 (en) * 1994-08-02 2008-01-23 任天堂株式会社 Game console operating device
JPH0895669A (en) * 1994-09-29 1996-04-12 Toshiba Corp Electronic equipment system
ES2231754T3 (en) * 1996-03-05 2005-05-16 Sega Enterprises, Ltd. CONTROLLER AND EXPANSION UNIT FOR THE CONTRALOR.
JPH09294260A (en) * 1996-04-26 1997-11-11 Sega Enterp Ltd Communication processing unit, terminal equipment, communication system, game system participated by many persons using the communication system and communication method
JP3238636B2 (en) * 1996-10-25 2001-12-17 株式会社セガ Information input device
JP2001212373A (en) * 1996-12-27 2001-08-07 Bandai Co Ltd Hand-held liquid crystal game machine
JP3388719B2 (en) * 1999-09-10 2003-03-24 ホシデン株式会社 Trigger type input device
JP3850634B2 (en) * 2000-06-05 2006-11-29 松下電器産業株式会社 Controller
JP3481579B2 (en) * 2000-10-17 2003-12-22 Necアクセステクニカ株式会社 Fixing structure of mobile terminal to charger
JP2002149325A (en) * 2000-11-10 2002-05-24 Canon Inc Extension device
JP2002217771A (en) * 2001-01-17 2002-08-02 Nec Saitama Ltd Holder structure for mobile wireless unit
JP3762295B2 (en) * 2001-12-21 2006-04-05 京セラ株式会社 Charger for portable terminal and portable terminal
JP3870315B2 (en) * 2001-08-08 2007-01-17 株式会社日立製作所 Mobile system
JP3793916B2 (en) * 2001-09-17 2006-07-05 株式会社ベネッセコーポレーション Portable learning device
JP2002177644A (en) * 2001-11-02 2002-06-25 Bandai Co Ltd Liquid crystal game device
US6773349B2 (en) * 2002-07-31 2004-08-10 Intec, Inc. Video game controller with integrated video display
JP2004310158A (en) * 2003-04-02 2004-11-04 World Picom Kk Terminal placing table
JP3098456U (en) * 2003-06-10 2004-03-04 カシオ計算機株式会社 Mounting device for portable equipment
JP2007260409A (en) * 2003-09-26 2007-10-11 Sony Computer Entertainment Inc Portable electronic device
JP3703473B2 (en) * 2004-02-09 2005-10-05 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
US20050181756A1 (en) * 2004-02-17 2005-08-18 Chung-Hung Lin Wireless digital music player
JP3108313U (en) * 2004-10-20 2005-04-14 ストームエレクトロニクス株式会社 Game console controller
JP4627072B2 (en) * 2005-08-22 2011-02-09 任天堂株式会社 Game operating device and game system
JP2007274836A (en) * 2006-03-31 2007-10-18 Hosiden Corp Charger for electronic equipment
JP4386900B2 (en) * 2006-05-02 2009-12-16 アルプス電気株式会社 Operation device and game controller
JP5060990B2 (en) * 2008-02-21 2012-10-31 株式会社ソニー・コンピュータエンタテインメント Stand and electronic equipment
JP5224595B2 (en) * 2008-02-28 2013-07-03 パナソニック株式会社 Electronic equipment
US20090322671A1 (en) * 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US20100311501A1 (en) * 2009-06-04 2010-12-09 Hsu Kent T J Game controller

Also Published As

Publication number Publication date
JP6005908B2 (en) 2016-10-12
JP6005907B2 (en) 2016-10-12
JP2016039960A (en) 2016-03-24
JP5837325B2 (en) 2015-12-24
JP2012232025A (en) 2012-11-29
JP2012231977A (en) 2012-11-29
JP2012232024A (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP6188766B2 (en) Operating device and operating system
US9889384B2 (en) Controller device and controller system
TWI442963B (en) Controller device and information processing device
KR101287696B1 (en) Game system, controller device, and game process method
JP5829020B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP4798809B1 (en) Display device, game system, and game processing method
JP6103677B2 (en) GAME SYSTEM, OPERATION DEVICE, AND GAME PROCESSING METHOD
JP5936315B2 (en) Information processing system and information processing apparatus
JP2012096005A (en) Display device, game system and game processing method
KR20130020715A (en) Operating apparatus and operating system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170801

R150 Certificate of patent or registration of utility model

Ref document number: 6188766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250