JP5807089B2 - Information processing system, information processing apparatus, information processing program, and content reproduction control method - Google Patents

Information processing system, information processing apparatus, information processing program, and content reproduction control method Download PDF

Info

Publication number
JP5807089B2
JP5807089B2 JP2014106054A JP2014106054A JP5807089B2 JP 5807089 B2 JP5807089 B2 JP 5807089B2 JP 2014106054 A JP2014106054 A JP 2014106054A JP 2014106054 A JP2014106054 A JP 2014106054A JP 5807089 B2 JP5807089 B2 JP 5807089B2
Authority
JP
Japan
Prior art keywords
content
image
display device
unit
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014106054A
Other languages
Japanese (ja)
Other versions
JP2014207680A (en
Inventor
津田 宗孝
宗孝 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2014106054A priority Critical patent/JP5807089B2/en
Publication of JP2014207680A publication Critical patent/JP2014207680A/en
Application granted granted Critical
Publication of JP5807089B2 publication Critical patent/JP5807089B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理システム、情報処理装置、情報処理プログラム、およびコンテンツ再生制御方法に関する。   The present invention relates to an information processing system, an information processing apparatus, an information processing program, and a content reproduction control method.

従来、インターネットから取得したウェブページ等をテレビを用いて閲覧する技術がある。例えば、非特許文献1に記載の技術では、ゲーム装置によってインターネットにアクセスし、インターネット上のウェブページをテレビに表示することが可能である。これによって、ユーザは、一般的なパーソナルコンピュータに用いられるモニタに比べて画面が大きなテレビでウェブページを閲覧することができる。例えば、動画や静止画といったコンテンツを含むウェブページをテレビに表示することによって、複数人でもコンテンツを見やすくなり、また、迫力のある画像を提供することができる。   2. Description of the Related Art Conventionally, there is a technique for browsing a web page acquired from the Internet using a television. For example, in the technique described in Non-Patent Document 1, it is possible to access the Internet by a game device and display a web page on the Internet on a television. As a result, the user can view the web page on a television having a larger screen than a monitor used in a general personal computer. For example, by displaying a web page including content such as a moving image or a still image on a television, it becomes easy for a plurality of people to view the content, and a powerful image can be provided.

“Wiiチャンネル インターネットチャンネル”、[online]、任天堂、[2011年2月23日検索]、インターネット<URL:http://www.nintendo.co.jp/wii/features/internet/>“Wii Channel Internet Channel”, [online], Nintendo, [searched February 23, 2011], Internet <URL: http: // www. nintendo. co. jp / wii / features / internet />

上記非特許文献1に記載の技術は、ウェブページをテレビに単に表示するものであるので、見やすく操作性の良いコンテンツ再生を提供することができない場合があった。   Since the technique described in Non-Patent Document 1 merely displays a web page on a television, it may not be possible to provide content reproduction that is easy to view and has good operability.

それ故、本発明の目的は、見やすく操作性の良いコンテンツの再生制御をおこなうことができる情報処理システム、情報処理装置、情報処理プログラム、およびコンテンツ再生制御方法を提供することである。   Therefore, an object of the present invention is to provide an information processing system, an information processing apparatus, an information processing program, and a content reproduction control method capable of performing reproduction control of content that is easy to see and has good operability.

本発明は、上記の課題を解決するために、以下の構成を採用した。   The present invention employs the following configuration in order to solve the above problems.

(1)本発明の一例は、以下の情報処理システムである。
据置型表示装置と、ユーザにより所定の入力が可能な可搬型表示装置とを含む情報処理システムであって、
コンテンツを再生して、再生画像を生成し、少なくとも前記据置型表示装置に表示するコンテンツ再生部と、
再生するコンテンツを指定するためのユーザインターフェース用画像を生成するUI画像生成部と、
前記コンテンツ再生部によるコンテンツの再生中に、前記可搬型表示装置に、当該再生中の前記再生画像と、前記ユーザインターフェース用画像とを選択的に表示する切替表示制御部と、
前記ユーザインターフェース用画像を用いて、前記可搬型表示装置におけるユーザによる所定の入力により、次に再生すべきコンテンツを指定するコンテンツ指定部と、
前記コンテンツ再生部は、前記コンテンツ指定部によって指定されたコンテンツを次に再生する、情報処理システム。
(1) An example of the present invention is the following information processing system.
An information processing system including a stationary display device and a portable display device capable of a predetermined input by a user,
A content playback unit that plays back content, generates a playback image, and displays the playback image on at least the stationary display device;
A UI image generation unit for generating a user interface image for designating content to be reproduced;
A switching display control unit for selectively displaying the reproduction image being reproduced and the user interface image on the portable display device during reproduction of the content by the content reproduction unit;
A content designating unit for designating a content to be reproduced next by a predetermined input by a user in the portable display device using the user interface image;
The information processing system, wherein the content reproduction unit reproduces the content designated by the content designation unit next.

上記「情報処理システム」は、据置型表示装置と可搬型表示装置と1つの情報処理装置とによって構成されてもよいし、据置型表示装置と可搬型表示装置と複数の情報処理装置によって構成されてもよい。また、可搬型表示装置が情報処理装置の機能を有して各処理(またはその一部)を実行してもよい。情報処理装置の機能を有する可搬型装置と据置型の情報処理装置が処理を分担して実行してもよい。また、据置型表示装置が情報処理装置の機能を有して各処理を実行してもよい。「情報処理装置」は、後述する実施形態におけるゲーム装置の他、一般的なパーソナルコンピュータのような多用途の情報処理装置であってもよい。   The “information processing system” may be configured by a stationary display device, a portable display device, and one information processing device, or by a stationary display device, a portable display device, and a plurality of information processing devices. May be. Further, the portable display device may have the function of the information processing device and execute each process (or a part thereof). The portable device having the function of the information processing device and the stationary information processing device may share the processing. Further, the stationary display device may have the function of the information processing device and execute each process. The “information processing apparatus” may be a versatile information processing apparatus such as a general personal computer in addition to a game apparatus in an embodiment described later.

上記「再生すべきコンテンツを選択するためのユーザインターフェース用画像」は、再生可能なコンテンツの一覧(典型的にはサムネイルの一覧や名称の一覧)を含む画像や、再生可能なコンテンツを検索するための画像であってもよい。これらの画像を用いて再生すべきコンテンツが選択される。
上記「可搬型表示装置」は、ユーザが手に持って動かしたり、任意の位置に配置を変更したりすることができる程度の大きさの表示装置である。
上記「据置型表示装置」は、後述する実施形態のようなテレビの他、任意の据置型の表示装置を含む概念である。
The “user interface image for selecting content to be played back” is used to search for images including a list of reproducible content (typically a list of thumbnails and a list of names) and reproducible content. It may be an image. Content to be reproduced is selected using these images.
The “portable display device” is a display device that is large enough to be moved by a user and can be moved to an arbitrary position.
The “stationary display device” is a concept including an arbitrary stationary display device in addition to the television as in the embodiments described later.

上記(1)の構成によれば、据置型表示装置でコンテンツを見やすく表示できるとともに、可搬型表示装置を用いて、現在見ているコンテンツの視聴を妨げることなく、次に再生するコンテンツの指定操作をおこなうことができる。また、可搬型表示装置の操作者は、次に再生すべきコンテンツを指定する裏方的な操作ができるとともに、可搬型表示装置に再生画像を表示して現在再生中のコンテンツを楽しむことができる。   According to the configuration of (1) above, the content can be displayed on the stationary display device in an easy-to-view manner, and the portable content display device can be used to specify the content to be played next without disturbing the viewing of the currently viewed content. Can be done. In addition, the operator of the portable display device can perform a reverse operation to specify the content to be reproduced next, and can display the reproduced image on the portable display device and enjoy the currently reproduced content.

(2)以下のように構成してもよい。
前記コンテンツ再生部によって再生中の動画のうちどの程度再生が終了しているか示す表示である再生状態画像を前記可搬型表示装置に表示する再生状態表示制御部をさらに備え、
前記再生状態表示制御部は、前記切替表示制御部によって前記再生中の再生画像に切り替えられているときには、当該再生画像とともに前記再生状態画像を前記可搬型表示装置に表示し、前記ユーザインターフェース用画像に切り替えられているときは、当該ユーザインターフェース用画像とともに前記再生状態画像を前記可搬型表示装置に表示する。
(2) You may comprise as follows.
A playback state display control unit for displaying on the portable display device a playback state image that is a display indicating how much of the video being played by the content playback unit has been played;
The playback state display control unit displays the playback state image together with the playback image on the portable display device when the switching display control unit switches to the playback image being played back, and the user interface image When switched to, the reproduction state image is displayed on the portable display device together with the user interface image.

(2)の構成によれば、可搬型表示装置において現在再生中のコンテンツの再生状態が確認できる。可搬型表示装置において、次に再生すべきコンテンツを選択しているときであっても現在再生中のコンテンツの再生状態が表示されるので、可搬型表示装置において現在再生中のコンテンツの再生状態を確認しつつ、次に再生すべきコンテンツを選択することができる。   With the configuration (2), it is possible to check the playback state of the content currently being played back on the portable display device. In the portable display device, even when the next content to be played back is selected, the playback status of the content currently being played back is displayed. Therefore, the playback status of the content currently being played back on the portable display device is displayed. While confirming, the content to be reproduced next can be selected.

(3)以下のように構成してもよい。
前記再生状態表示制御部は、前記切替表示制御部により前記再生中の再生画像に切り替えられているときには、当該再生画像の下方に前記再生状態画像を表示し、前記ユーザインターフェース用画像に切り替えられているときには、当該ユーザインターフェース用画像示の上方に前記再生状態画像を表示する。
(3) You may comprise as follows.
The playback state display control unit displays the playback state image below the playback image and switches to the user interface image when the switching display control unit switches to the playback image being played back. When the image is displayed, the reproduction state image is displayed above the user interface image.

(3)の構成によれば、可搬型表示装置の操作者は、据置型表示装置の前で可搬型表示装置を手元に把持しつつ操作するのが通常の使用状態である。このとき、据置型表示装置の画面が可搬型表示装置の画面の上方に位置することが多い。可搬型表示装置において再生画像に切り替えられているときには、可搬型表示装置上の再生画像の下方に再生状態画像が配置され、ユーザインターフェース用画像に切り替えられているときには、据置型表示装置上の再生画像の実質的な下方に再生状態画像が位置する。いずれの状況においても、配置関係が実質的に変わらないので、直感的で使いやすいユーザインターフェースを提供することができる。   According to the configuration of (3), it is a normal use state that the operator of the portable display device operates while holding the portable display device in front of the stationary display device. At this time, the screen of the stationary display device is often positioned above the screen of the portable display device. When the portable display device is switched to the reproduced image, the reproduction state image is arranged below the reproduced image on the portable display device, and when the portable image is switched to the user interface image, the reproduction on the stationary display device is performed. The playback state image is located substantially below the image. In any situation, since the arrangement relationship does not substantially change, an intuitive and easy-to-use user interface can be provided.

(4)以下のように構成してもよい。
前記可搬型表示装置は座標入力部を備え、
前記コンテンツ再生部によって再生中のコンテンツの再生を制御するための表示である再生制御画像を前記可搬型表示装置に表示する再生制御表示制御部をさらに備え、
前記再生制御表示制御部は、前記切替表示制御部により前記再生中の再生画像に切り替えられているときには、当該再生画像とともに前記再生制御画像を前記可搬型表示装置に表示し、前記ユーザインターフェース用画像に切り替えられているときは、当該ユーザインターフェース用画像とともに前記再生制御画像を前記可搬型表示装置に表示し、
前記再生制御表示制御部は、前記座標入力部によって前記再生制御画像に対する座標入力がされたときに、現在再生中のコンテンツに対して再生制御をおこなう。
(4) You may comprise as follows.
The portable display device includes a coordinate input unit,
A playback control display control unit for displaying a playback control image, which is a display for controlling playback of the content being played back by the content playback unit, on the portable display device;
The playback control display control unit displays the playback control image together with the playback image on the portable display device when the switching display control unit switches to the playback image being played back, and the user interface image Is displayed on the portable display device along with the user interface image,
The reproduction control display control unit performs reproduction control on the currently reproduced content when the coordinate input unit inputs a coordinate to the reproduction control image.

(4)の構成によれば、可搬型表示装置において再生中のコンテンツの再生制御ができる。可搬型表示装置において、次に再生すべきコンテンツを選択しているときであっても現在再生中のコンテンツの再生制御ができるので、可搬型表示装置において現在再生中のコンテンツの再生を制御しつつ、次に再生すべきコンテンツを選択することができる。   According to the configuration of (4), it is possible to control playback of content being played back on the portable display device. In the portable display device, even when the next content to be played back is selected, it is possible to control the playback of the content currently being played back, while controlling the playback of the content currently being played back in the portable display device. The content to be reproduced next can be selected.

(5)以下のように構成してもよい。
前記再生制御表示制御部は、前記切替表示制御部により前記再生中の再生画像に切り替えられているときには、当該再生画像の下方に前記再生制御画像を表示し、前記ユーザインターフェース用画像に切り替えられているときには、当該ユーザインタフェース画像の上方に前記再生制御画像を表示する。
(5) You may comprise as follows.
The playback control display control unit displays the playback control image below the playback image and switches to the user interface image when the switching display control unit switches to the playback image being played back. The playback control image is displayed above the user interface image.

(5)の構成によれば、可搬型表示装置に再生画像が表示されているときには、可搬型表示装置上の再生画像の下方に再生制御画像が配置され、ユーザインターフェース用画像が表示されているときにおいても、据置型表示装置上の再生画像の実質的な下方に再生制御画像が位置するので、直感的で使いやすいユーザインターフェースを提供することができる。   According to the configuration (5), when a reproduction image is displayed on the portable display device, the reproduction control image is arranged below the reproduction image on the portable display device, and the user interface image is displayed. Even when the playback control image is positioned substantially below the playback image on the stationary display device, an intuitive and easy-to-use user interface can be provided.

(6)以下のように構成してもよい。
前記可搬型表示装置は、座標入力部を備え、
前記切替表示制御部は、前記座標入力部において上方向を示す座標入力があったときに、前記可搬型表示装置の表示内容を、前記再生画像から前記ユーザインターフェース用画像に切り替える。
(6) You may comprise as follows.
The portable display device includes a coordinate input unit,
The switching display control unit switches the display content of the portable display device from the reproduced image to the user interface image when there is a coordinate input indicating an upward direction in the coordinate input unit.

(6)の構成によれば、可搬型表示装置において上方向(すなわち、据置型表示装置上の再生画像が位置する方向)を示す座標入力があったときに、可搬型表示装置の表示を再生画像からユーザインターフェース用画像に切り替えるので、可搬型表示装置上で再生されているコンテンツが据置型表示装置上で再生されているコンテンツに統合して消失したかのような印象となり、直感的で使いやすいユーザインターフェースを提供することができる。   According to the configuration of (6), the display of the portable display device is reproduced when there is a coordinate input indicating the upward direction (that is, the direction in which the reproduced image is located on the stationary display device) in the portable display device. Since the image is switched from the image to the image for the user interface, the content reproduced on the portable display device is integrated with the content reproduced on the stationary display device, and the impression is lost. An easy user interface can be provided.

(7)以下のように構成してもよい。
前記切替表示制御部は、前記ユーザインターフェース用画像から前記再生画像に切り替えるときに、前記コンテンツ再生部により現在再生中のコンテンツの再生画像を前記可搬型表示装置において上方向から徐々にスライドインするように表示する。
(7) You may comprise as follows.
The switching display control unit, when switching from the user interface image to the reproduction image, gradually slides in the reproduction image of the content currently reproduced by the content reproduction unit from above in the portable display device. To display.

(7)の構成によれば、据置型表示装置上で再生されているコンテンツが可搬型表示装置に降りてきたかのような印象となり直感的で使いやすいユーザインターフェースを提供することができる。   According to the configuration of (7), it is possible to provide an intuitive and easy-to-use user interface with the impression that the content reproduced on the stationary display device has fallen on the portable display device.

(8)以下のように構成してもよい。
前記切替表示制御部は、前記ユーザインターフェース用画像から前記再生画像に切り替えるときに、前記コンテンツ再生部により現在再生中のコンテンツの再生画像を前記可搬型表示装置において上方向へ徐々にスライドアウトするように表示する。
(8) You may comprise as follows.
When the switching display control unit switches from the user interface image to the reproduction image, the content reproduction unit gradually slides out the reproduction image of the content currently reproduced by the content reproduction unit in the portable display device. To display.

(9)以下のように構成してもよい。
前記コンテンツ再生部は、前記コンテンツ指定部によって次に再生すべきことが指定されたコンテンツを再生するときに、前記再生画像を前記据置型表示装置に表示するとともに、前記切替表示制御部により前記可搬型表示装置の表示を前記再生画像に切り替えて、当該再生画像を前記可搬型表示装置に表示する。
(9) You may comprise as follows.
The content playback unit displays the playback image on the stationary display device when the content specified to be played next by the content specification unit is displayed, and also allows the switching display control unit to The display on the portable display device is switched to the reproduced image, and the reproduced image is displayed on the portable display device.

(10)以下のように構成してもよい。
前記切替表示制御部は、前記コンテンツ再生部によるコンテンツの再生が終了したときに、前記ユーザインターフェース用画像を前記可搬型表示装置と前記据置型表示装置の両方に表示する。
(10) You may comprise as follows.
The switching display control unit displays the user interface image on both the portable display device and the stationary display device when the content reproduction by the content reproduction unit ends.

(11)以下のように構成してもよい。
ネットワークに接続可能であり、当該ネットワークを介して、コンテンツを記憶した所定の外部装置と通信を行う通信部をさらに備え、
前記UI画像生成部は、前記通信部によって前記外部装置に記憶されたコンテンツの一覧を取得してそのなかから再生すべきコンテンツを指定するためのインターフェース画像を生成し、
前記コンテンツ再生部は、前記コンテンツ指定部によって指定されたコンテンツを前記通信部によって前記外部装置から取得して再生する。
(11) You may comprise as follows.
A communication unit that is connectable to a network and communicates with a predetermined external device that stores the content via the network;
The UI image generation unit acquires a list of contents stored in the external device by the communication unit and generates an interface image for designating content to be reproduced from the list.
The content reproduction unit acquires and reproduces the content designated by the content designation unit from the external device by the communication unit.

(12)以下のように構成してもよい。
前記情報処理システムは、表示データを生成して前記据置型表示装置および前記可搬型表示装置に出力することが可能な情報処理部を含み、
前記情報処理部は、前記UI画像生成部、前記コンテンツ再生部として機能し、
前記UI画像生成部により生成されたユーザインターフェース用画像と前記コンテンツ再生部による再生画像を、選択的にまたは同時に前記可搬型表示装置に出力し、
前記コンテンツ再生部による再生画像を前記据置型表示装置に出力し、
前記据置型表示装置および前記可搬型表示装置は、情報処理装置から表示データを受信して表示する。
(12) You may comprise as follows.
The information processing system includes an information processing unit capable of generating display data and outputting the display data to the stationary display device and the portable display device,
The information processing unit functions as the UI image generation unit and the content reproduction unit,
The user interface image generated by the UI image generation unit and the reproduction image by the content reproduction unit are selectively or simultaneously output to the portable display device,
Output the playback image by the content playback unit to the stationary display device,
The stationary display device and the portable display device receive display data from the information processing device and display it.

なお、本発明の別の一例は、上記(1)〜(12)の各部と同等の手段を有する情報処理装置の形態であってもよい。また、本発明の別の一例は、情報処理システムまたは情報処理装置のコンピュータを上記(1)〜(12)における各部と同等の手段として機能させる情報処理プログラムの形態であってもよい。さらに、本発明の別の一例は、上記(1)〜(12)の情報処理システムまたは情報処理装置において行われるコンテンツ再生制御方法の形態であってもよい。 Note that another example of the present invention may be in the form of an information processing apparatus having means equivalent to the parts (1) to (12). Another example of the present invention may be in the form of an information processing program that causes a computer of an information processing system or an information processing apparatus to function as means equivalent to each unit in the above (1) to (12). Furthermore, another example of the present invention may be a form of a content reproduction control method performed in the information processing system or information processing apparatus according to the above (1) to (12).

以上のように、本発明によれば、コンテンツの見やすさと再生するコンテンツの指定が両立させることができる。   As described above, according to the present invention, it is possible to achieve both the visibility of content and the specification of content to be played back.

ゲームシステム1の外観図External view of game system 1 ゲーム装置3の内部構成を示すブロック図Block diagram showing the internal configuration of the game apparatus 3 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の構成を示すブロック図Block diagram showing the configuration of the controller 5 端末装置7の外観構成を示す図The figure which shows the external appearance structure of the terminal device 7 ユーザが端末装置7を把持した様子を示す図The figure which shows a mode that the user hold | gripped the terminal device 7. 端末装置7の内部構成を示すブロック図The block diagram which shows the internal structure of the terminal device 7 ゲームシステム1と外部装置との接続関係と示すブロック図Block diagram showing connection relation between game system 1 and external device テレビ2および端末装置7の画面51の画面例(コンテンツ非再生時)Screen example of screen 51 of television 2 and terminal device 7 (when content is not reproduced) テレビ2および端末装置7の画面51の画面例(コンテンツ再生開始時)Example of screen 51 of television 2 and terminal device 7 (when content playback starts) テレビ2および端末装置7の画面51の画面例(コンテンツ再生時)Example of screen 51 of television 2 and terminal device 7 (during content playback) テレビ2および端末装置7の画面51の画面例(コンテンツ再生時の再生モードと検索モードの切替)Screen example of screen 51 of television 2 and terminal device 7 (switching between playback mode and search mode during content playback) テレビ2および端末装置7の画面51の画面例(コンテンツ再生中における次の再生コンテンツの決定操作)Screen example of screen 51 of television 2 and terminal device 7 (determination operation for next playback content during content playback) 処理の流れを示すメインフローチャートMain flowchart showing the flow of processing 処理の流れを示すメインフローチャートMain flowchart showing the flow of processing 処理の流れを示すメインフローチャートMain flowchart showing the flow of processing

[1.ゲームシステムの全体構成]
以下、図面を参照して、本発明の一実施形態に係るゲームシステム1について説明する。図1は、ゲームシステム1の外観図である。図1において、ゲームシステム1は、テレビジョン受像器等に代表される据置型のディスプレイ装置(以下、「テレビ」と記載する)2、据置型のゲーム装置3、光ディスク4、コントローラ5、マーカ装置6、および、端末装置7を含む。ゲームシステム1は、コントローラ5および/または端末装置7を用いたゲーム操作に基づいてゲーム装置3においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をテレビ2および/または端末装置7に表示するものである。
[1. Overall configuration of game system]
Hereinafter, a game system 1 according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of the game system 1. In FIG. 1, a game system 1 includes a stationary display device (hereinafter referred to as “TV”) 2 typified by a television receiver, a stationary game device 3, an optical disc 4, a controller 5, and a marker device. 6 and the terminal device 7. The game system 1 executes a game process in the game apparatus 3 based on a game operation using the controller 5 and / or the terminal apparatus 7, and displays a game image obtained by the game process on the television 2 and / or the terminal apparatus 7. Is.

ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置3において実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されている。ゲーム装置3の前面には光ディスク4の挿入口が設けられている。ゲーム装置3は、挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行することによってゲーム処理を実行する。   An optical disk 4 that is an example of an information storage medium that can be used interchangeably with the game apparatus 3 is detachably inserted into the game apparatus 3. The optical disc 4 stores an information processing program (typically a game program) to be executed in the game apparatus 3. An insertion slot for the optical disk 4 is provided on the front surface of the game apparatus 3. The game apparatus 3 executes the game process by reading and executing the information processing program stored in the optical disc 4 inserted into the insertion slot.

ゲーム装置3には、テレビ2が接続コードを介して接続される。テレビ2は、ゲーム装置3において実行されるゲーム処理によって得られるゲーム画像を表示する。テレビ2はスピーカ2a(図2)を有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲーム音声を出力する。なお、他の実施形態においては、ゲーム装置3と据置型の表示装置とは一体となっていてもよい。また、ゲーム装置3とテレビ2との通信は無線通信であってもよい。   The game apparatus 3 is connected to the television 2 via a connection cord. The television 2 displays a game image obtained by a game process executed in the game device 3. The television 2 has a speaker 2a (FIG. 2), and the speaker 2a outputs game sound obtained as a result of the game processing. In other embodiments, the game apparatus 3 and the stationary display apparatus may be integrated. The communication between the game apparatus 3 and the television 2 may be wireless communication.

テレビ2の画面の周辺(図1では画面の上側)には、マーカ装置6が設置される。詳細は後述するが、ユーザ(プレイヤ)はコントローラ5を動かすゲーム操作を行うことができ、マーカ装置6は、コントローラ5の動きや位置や姿勢等をゲーム装置3が算出するために用いられる。マーカ装置6は、その両端に2つのマーカ6Rおよび6Lを備えている。マーカ6R(マーカ6Lも同様)は、具体的には1以上の赤外LED(Light Emitting Diode)であり、テレビ2の前方に向かって赤外光を出力する。マーカ装置6はゲーム装置3に接続されており、ゲーム装置3はマーカ装置6が備える各赤外LEDの点灯を制御することが可能である。なお、マーカ装置6は可搬型であり、ユーザはマーカ装置6を自由な位置に設置することができる。図1ではマーカ装置6がテレビ2の上に設置された態様を表しているが、マーカ装置6を設置する位置および向きは任意である。   A marker device 6 is installed around the screen of the television 2 (upper side of the screen in FIG. 1). Although details will be described later, the user (player) can perform a game operation to move the controller 5, and the marker device 6 is used for the game device 3 to calculate the movement, position, posture, and the like of the controller 5. The marker device 6 includes two markers 6R and 6L at both ends thereof. The marker 6 </ b> R (same for the marker 6 </ b> L) is specifically one or more infrared LEDs (Light Emitting Diodes), and outputs infrared light toward the front of the television 2. The marker device 6 is connected to the game device 3, and the game device 3 can control lighting of each infrared LED included in the marker device 6. The marker device 6 is portable, and the user can install the marker device 6 at a free position. Although FIG. 1 shows a mode in which the marker device 6 is installed on the television 2, the position and orientation in which the marker device 6 is installed are arbitrary.

コントローラ5は、自機に対して行われた操作の内容を表す操作データをゲーム装置3に与えるものである。コントローラ5とゲーム装置3とは無線通信によって通信可能である。本実施形態では、コントローラ5とゲーム装置3との間の無線通信には例えばBluetooth(ブルートゥース)(登録商標)の技術が用いられる。なお、他の実施形態においてはコントローラ5とゲーム装置3とは有線で接続されてもよい。また、本実施形態では、ゲームシステム1に含まれるコントローラ5は1つとするが、ゲーム装置3は複数のコントローラと通信可能であり、所定台数のコントローラを同時に使用することによって複数人でゲームをプレイすることが可能である。コントローラ5の詳細な構成については後述する。   The controller 5 gives operation data representing the content of the operation performed on the own device to the game apparatus 3. The controller 5 and the game apparatus 3 can communicate with each other by wireless communication. In the present embodiment, for example, Bluetooth (registered trademark) technology is used for wireless communication between the controller 5 and the game apparatus 3. In other embodiments, the controller 5 and the game apparatus 3 may be connected by wire. In the present embodiment, the game system 1 includes one controller 5, but the game apparatus 3 can communicate with a plurality of controllers, and a game can be played by a plurality of people by using a predetermined number of controllers simultaneously. Is possible. A detailed configuration of the controller 5 will be described later.

端末装置7は、ユーザが把持可能な程度の大きさであり、ユーザは端末装置7を手に持って動かしたり、あるいは、端末装置7を自由な位置に配置したりして使用することが可能である。詳細な構成は後述するが、端末装置7は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)51、および、入力手段(後述するタッチパネル52やジャイロセンサ64等)を備える。端末装置7とゲーム装置3とは無線(有線であってもよい)によって通信可能である。端末装置7は、ゲーム装置3で生成された画像(例えばゲーム画像)のデータをゲーム装置3から受信し、画像をLCD51に表示する。なお、本実施形態では表示装置としてLCDを用いているが、端末装置7は、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を有していてもよい。また、端末装置7は、自機に対して行われた操作の内容を表す操作データをゲーム装置3に送信する。   The terminal device 7 is large enough to be gripped by the user, and can be used by the user holding the terminal device 7 in his / her hand or placing the terminal device 7 in a free position. It is. Although the detailed configuration will be described later, the terminal device 7 includes an LCD (Liquid Crystal Display) 51 that is a display means, and input means (a touch panel 52, a gyro sensor 64, and the like described later). The terminal device 7 and the game device 3 can communicate wirelessly (may be wired). The terminal device 7 receives data of an image (for example, a game image) generated by the game device 3 from the game device 3 and displays the image on the LCD 51. In the present embodiment, an LCD is used as the display device. However, the terminal device 7 may have any other display device such as a display device using EL (Electro Luminescence). . In addition, the terminal device 7 transmits operation data representing the content of the operation performed on the own device to the game device 3.

[2.ゲーム装置3の内部構成]
次に、図2を参照して、ゲーム装置3の内部構成について説明する。図2は、ゲーム装置3の内部構成を示すブロック図である。ゲーム装置3は、CPU(Central Processing Unit)10、システムLSI11、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。
[2. Internal configuration of game device 3]
Next, the internal configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a block diagram showing an internal configuration of the game apparatus 3. The game apparatus 3 includes a CPU (Central Processing Unit) 10, a system LSI 11, an external main memory 12, a ROM / RTC 13, a disk drive 14, an AV-IC 15, and the like.

CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間におけるデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。なお、システムLSI11の内部構成については後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC:Real Time Clock)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを書き込む。   The CPU 10 executes a game process by executing a game program stored on the optical disc 4, and functions as a game processor. The CPU 10 is connected to the system LSI 11. In addition to the CPU 10, an external main memory 12, a ROM / RTC 13, a disk drive 14, and an AV-IC 15 are connected to the system LSI 11. The system LSI 11 performs processing such as control of data transfer between components connected thereto, generation of an image to be displayed, and acquisition of data from an external device. The internal configuration of the system LSI 11 will be described later. The volatile external main memory 12 stores a program such as a game program read from the optical disc 4 or a game program read from the flash memory 17, or stores various data. Used as a work area and buffer area. The ROM / RTC 13 includes a ROM (so-called boot ROM) in which a program for starting the game apparatus 3 is incorporated, and a clock circuit (RTC: Real Time Clock) that counts time. The disk drive 14 reads program data, texture data, and the like from the optical disk 4 and writes the read data to an internal main memory 11e or an external main memory 12 described later.

システムLSI11には、入出力プロセッサ(I/Oプロセッサ)11a、GPU(Graphics Processor Unit)11b、DSP(Digital Signal Processor)11c、VRAM(Video RAM)11d、および内部メインメモリ11eが設けられる。図示は省略するが、これらの構成要素11a〜11eは内部バスによって互いに接続される。   The system LSI 11 is provided with an input / output processor (I / O processor) 11a, a GPU (Graphics Processor Unit) 11b, a DSP (Digital Signal Processor) 11c, a VRAM (Video RAM) 11d, and an internal main memory 11e. Although not shown, these components 11a to 11e are connected to each other by an internal bus.

GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM11dは、GPU11bがグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU11bは、VRAM11dに記憶されたデータを用いて画像データを作成する。なお、ゲーム装置3は、テレビ2に表示する画像と、端末装置7に表示する画像との両方を生成する。以下では、テレビ2に表示される画像を「テレビ用画像」と呼び、端末装置7に表示される画像を「端末用画像」と呼ぶことがある。   The GPU 11b forms part of a drawing unit and generates an image according to a graphics command (drawing command) from the CPU 10. The VRAM 11d stores data (data such as polygon data and texture data) necessary for the GPU 11b to execute the graphics command. When an image is generated, the GPU 11b creates image data using data stored in the VRAM 11d. The game apparatus 3 generates both an image to be displayed on the television 2 and an image to be displayed on the terminal device 7. Hereinafter, an image displayed on the television 2 may be referred to as a “television image”, and an image displayed on the terminal device 7 may be referred to as a “terminal image”.

DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、テレビ2のスピーカから出力するゲーム音声と、端末装置7のスピーカから出力するゲーム音声との両方が生成される。以下では、テレビ2から出力される音声を「テレビ用音声」と呼び、端末装置7から出力される音声を「端末用音声」と呼ぶことがある。   The DSP 11c functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the internal main memory 11e and the external main memory 12. In the present embodiment, both the game sound output from the speaker of the television 2 and the game sound output from the speaker of the terminal device 7 are generated for the game sound as well as the game image. Hereinafter, the audio output from the television 2 may be referred to as “television audio”, and the audio output from the terminal device 7 may be referred to as “terminal audio”.

上記のようにゲーム装置3において生成される画像および音声のうちで、テレビ2において出力される画像および音声のデータは、AV−IC15によって読み出される。AV−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2に出力するとともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aに出力する。これによって、テレビ2に画像が表示されるとともにスピーカ2aから音が出力される。なお、ゲーム装置3とテレビ2との接続は、どのような方式で行われてもよいが、ゲーム装置3は、テレビ2を制御する制御指令を有線または無線でテレビ2へ送信するようにしてもよい。例えばHDMI(High−Definition Multimedia Interface)(登録商標)規格に則ったHDMIケーブルが用いられてもよい。HDMI規格では、CEC(Consumer Electronics Control)と呼ばれる機能によって、接続相手の機器を制御することが可能である。したがって、HDMIケーブルが用いられる場合のように、ゲーム装置3がテレビ2に対する制御が可能である場合には、ゲーム装置3は、適宜のタイミングでテレビ2の電源をオンにしたり、テレビ2の入力を切り替えたりすることができる。   Of the images and sounds generated by the game apparatus 3 as described above, image and sound data output by the television 2 is read by the AV-IC 15. The AV-IC 15 outputs the read image data to the television 2 via the AV connector 16, and outputs the read audio data to the speaker 2 a built in the television 2. Thus, an image is displayed on the television 2 and a sound is output from the speaker 2a. The game apparatus 3 and the television 2 may be connected by any method, but the game apparatus 3 transmits a control command for controlling the television 2 to the television 2 by wire or wirelessly. Also good. For example, an HDMI cable conforming to the HDMI (High-Definition Multimedia Interface) (registered trademark) standard may be used. In the HDMI standard, it is possible to control a connected device by a function called CEC (Consumer Electronics Control). Accordingly, when the game apparatus 3 can control the television 2 as in the case where an HDMI cable is used, the game apparatus 3 turns on the television 2 at an appropriate timing or inputs the television 2. Can be switched.

また、ゲーム装置3において生成される画像および音声のうちで、端末装置7において出力される画像および音声のデータは、入出力プロセッサ11a等によって端末装置7へ送信される。入出力プロセッサ11a等による端末装置7へのデータの送信については後述する。   Of the images and sounds generated by the game apparatus 3, the image and sound data output from the terminal apparatus 7 is transmitted to the terminal apparatus 7 by the input / output processor 11a and the like. Data transmission to the terminal device 7 by the input / output processor 11a and the like will be described later.

入出力プロセッサ11aは、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ11aは、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に接続される。また、ネットワーク通信モジュール18にはアンテナ22が接続される。コントローラ通信モジュール19にはアンテナ23が接続される。コーデックLSI27は端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続される。   The input / output processor 11a performs transmission / reception of data to / from components connected to the input / output processor 11a and downloads data from an external device. The input / output processor 11a is connected to the flash memory 17, the network communication module 18, the controller communication module 19, the expansion connector 20, the memory card connector 21, and the codec LSI 27. An antenna 22 is connected to the network communication module 18. An antenna 23 is connected to the controller communication module 19. The codec LSI 27 is connected to a terminal communication module 28, and an antenna 29 is connected to the terminal communication module 28.

ゲーム装置3は、インターネット等のネットワークに接続して外部の情報処理装置(例えば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。すなわち、入出力プロセッサ11aは、ネットワーク通信モジュール18およびアンテナ22を介してインターネット等のネットワークに接続可能であり、ネットワークに接続される他の装置と通信を行うことができる。入出力プロセッサ11aは、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに送信する。また、入出力プロセッサ11aは、外部情報処理装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22およびネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10はゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ17には、ゲーム装置3と外部情報処理装置との間で送受信されるデータの他、ゲーム装置3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。また、フラッシュメモリ17にはゲームプログラムが記憶されてもよい。   The game device 3 can connect to a network such as the Internet and communicate with an external information processing device (for example, another game device or various servers). In other words, the input / output processor 11a can be connected to a network such as the Internet via the network communication module 18 and the antenna 22, and can communicate with other devices connected to the network. The input / output processor 11a periodically accesses the flash memory 17 to detect the presence / absence of data that needs to be transmitted to the network. If there is such data, the input / output processor 11a communicates with the network via the network communication module 18 and the antenna 22. Send. Further, the input / output processor 11a receives data transmitted from the external information processing apparatus or data downloaded from the download server via the network, the antenna 22 and the network communication module 18, and receives the received data in the flash memory 17. Remember. By executing the game program, the CPU 10 reads out the data stored in the flash memory 17 and uses it in the game program. In addition to data transmitted and received between the game apparatus 3 and the external information processing apparatus, the flash memory 17 stores game save data (game result data or intermediate data) played using the game apparatus 3. May be. The flash memory 17 may store a game program.

また、ゲーム装置3は、コントローラ5からの操作データを受信することが可能である。すなわち、入出力プロセッサ11aは、コントローラ5から送信される操作データをアンテナ23およびコントローラ通信モジュール19を介して受信し、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   The game apparatus 3 can receive operation data from the controller 5. That is, the input / output processor 11a receives the operation data transmitted from the controller 5 via the antenna 23 and the controller communication module 19, and stores (temporarily stores) it in the buffer area of the internal main memory 11e or the external main memory 12.

また、ゲーム装置3は、端末装置7との間で画像や音声等のデータを送受信することが可能である。入出力プロセッサ11aは、端末装置7へゲーム画像(端末用ゲーム画像)を送信する場合、GPU11bが生成したゲーム画像のデータをコーデックLSI27へ出力する。コーデックLSI27は、入出力プロセッサ11aからの画像データに対して所定の圧縮処理を行う。端末通信モジュール28は、端末装置7との間で無線通信を行う。したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュール28によってアンテナ29を介して端末装置7へ送信される。なお、本実施形態では、ゲーム装置3から端末装置7へ送信される画像データはゲームに用いるものであり、ゲームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。そのため、ゲーム装置3から端末装置7への画像データの送信に関しては、できるだけ遅延が生じないようにすることが好ましい。したがって、本実施形態では、コーデックLSI27は、例えばH.264規格といった高効率の圧縮技術を用いて画像データを圧縮する。なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像データを送信する構成であってもよい。また、端末通信モジュール28は、例えばWi−Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて端末装置7との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。   Further, the game apparatus 3 can transmit and receive data such as images and sounds to and from the terminal device 7. When transmitting a game image (terminal game image) to the terminal device 7, the input / output processor 11 a outputs the game image data generated by the GPU 11 b to the codec LSI 27. The codec LSI 27 performs predetermined compression processing on the image data from the input / output processor 11a. The terminal communication module 28 performs wireless communication with the terminal device 7. Therefore, the image data compressed by the codec LSI 27 is transmitted to the terminal device 7 via the antenna 29 by the terminal communication module 28. In the present embodiment, the image data transmitted from the game apparatus 3 to the terminal apparatus 7 is used for the game, and if the displayed image is delayed in the game, the operability of the game is adversely affected. For this reason, it is preferable that the transmission of image data from the game apparatus 3 to the terminal device 7 is as little as possible. Therefore, in this embodiment, the codec LSI 27 is, for example, H.264. The image data is compressed using a highly efficient compression technique such as H.264 standard. Other compression techniques may be used, and when the communication speed is sufficient, the image data may be transmitted without compression. The terminal communication module 28 is a communication module that has received, for example, Wi-Fi authentication. For example, the terminal communication module 28 uses a MIMO (Multiple Input Multiple Output) technique adopted in the IEEE802.11n standard. Wireless communication may be performed at high speed, or another communication method may be used.

また、ゲーム装置3は、画像データの他、音声データを端末装置7へ送信する。すなわち、入出力プロセッサ11aは、DSP11cが生成した音声データを、コーデックLSI27を介して端末通信モジュール28へ出力する。コーデックLSI27は、音声データに対しても画像データと同様に圧縮処理を行う。音声データに対する圧縮の方式は、どのような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。また、他の実施形態においては、音声データは圧縮されずに送信されてもよい。端末通信モジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末装置7へ送信する。   In addition to the image data, the game apparatus 3 transmits audio data to the terminal device 7. That is, the input / output processor 11 a outputs the audio data generated by the DSP 11 c to the terminal communication module 28 via the codec LSI 27. The codec LSI 27 performs compression processing on the audio data in the same manner as the image data. The compression method for the audio data may be any method, but a method with a high compression rate and less deterioration of the sound is preferable. In other embodiments, audio data may be transmitted without being compressed. The terminal communication module 28 transmits the compressed image data and audio data to the terminal device 7 via the antenna 29.

さらに、ゲーム装置3は、上記画像データおよび音声データの他に、必要に応じて各種の制御データを端末装置7へ送信する。制御データは、端末装置7が備える構成要素に対する制御指示を表すデータであり、例えばマーカ部(図10に示すマーカ部55)の点灯を制御する指示や、カメラ(図10に示すカメラ56)の撮像を制御する指示等を表す。入出力プロセッサ11aは、CPU10の指示に応じて制御データを端末装置7へ送信する。なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。なお、ゲーム装置3から端末装置7へ送信される上述のデータは、必要に応じて暗号化がされていてもよいし、されていなくともよい。   Further, the game apparatus 3 transmits various control data to the terminal apparatus 7 as necessary in addition to the image data and the sound data. The control data is data representing a control instruction for a component included in the terminal device 7, and for example, an instruction for controlling lighting of the marker unit (marker unit 55 shown in FIG. 10) or a camera (camera 56 shown in FIG. 10). Indicates an instruction to control imaging. The input / output processor 11 a transmits control data to the terminal device 7 in accordance with an instruction from the CPU 10. With respect to this control data, the codec LSI 27 does not perform data compression processing in the present embodiment, but may perform compression processing in other embodiments. Note that the above-described data transmitted from the game device 3 to the terminal device 7 may or may not be encrypted as necessary.

また、ゲーム装置3は、端末装置7から各種データを受信可能である。詳細は後述するが、本実施形態では、端末装置7は、操作データ、画像データ、および音声データを送信する。端末装置7から送信される各データはアンテナ29を介して端末通信モジュール28によって受信される。ここで、端末装置7からの画像データおよび音声データは、ゲーム装置3から端末装置7への画像データおよび音声データと同様の圧縮処理が施されている。したがって、これら画像データおよび音声データについては、端末通信モジュール28からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施されて入出力プロセッサ11aに出力される。一方、端末装置7からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。また、必要に応じて暗号化がされていてもよいし、されていなくともよい。したがって、操作データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出力プロセッサ11aに出力される。入出力プロセッサ11aは、端末装置7から受信したデータを、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   The game apparatus 3 can receive various data from the terminal device 7. Although details will be described later, in the present embodiment, the terminal device 7 transmits operation data, image data, and audio data. Each data transmitted from the terminal device 7 is received by the terminal communication module 28 via the antenna 29. Here, the image data and audio data from the terminal device 7 are subjected to the same compression processing as the image data and audio data from the game device 3 to the terminal device 7. Therefore, these image data and audio data are sent from the terminal communication module 28 to the codec LSI 27, subjected to expansion processing by the codec LSI 27, and output to the input / output processor 11a. On the other hand, the operation data from the terminal device 7 has a smaller amount of data than images and sounds, and therefore may not be subjected to compression processing. Further, encryption may or may not be performed as necessary. Accordingly, the operation data is received by the terminal communication module 28 and then output to the input / output processor 11 a via the codec LSI 27. The input / output processor 11a stores (temporarily stores) the data received from the terminal device 7 in the buffer area of the internal main memory 11e or the external main memory 12.

また、ゲーム装置3は、他の機器や外部記憶媒体に接続することが可能である。すなわち、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタである。拡張コネクタ20に対しては、外部記憶媒体のようなメディアを接続したり、他のコントローラ等の周辺機器を接続したり、有線の通信用コネクタを接続することによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ11aは、拡張コネクタ20やメモリカード用コネクタ21を介して外部記憶媒体にアクセスし、外部記憶媒体にデータを保存したり、外部記憶媒体からデータを読み出したりすることができる。   Further, the game apparatus 3 can be connected to another device or an external storage medium. That is, the expansion connector 20 and the memory card connector 21 are connected to the input / output processor 11a. The expansion connector 20 is a connector for an interface such as USB or SCSI. A network such as an external storage medium is connected to the expansion connector 20, a peripheral device such as another controller is connected, or a wired communication connector is connected to replace the network communication module 18 with a network. You can communicate with. The memory card connector 21 is a connector for connecting an external storage medium such as a memory card. For example, the input / output processor 11a can access an external storage medium via the expansion connector 20 or the memory card connector 21 to store data in the external storage medium or read data from the external storage medium.

ゲーム装置3には、電源ボタン24、リセットボタン25、およびイジェクトボタン26が設けられる。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、図示しないACアダプタによって外部の電源からゲーム装置3の各構成要素に対して電力が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置3の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。   The game apparatus 3 is provided with a power button 24, a reset button 25, and an eject button 26. The power button 24 and the reset button 25 are connected to the system LSI 11. When the power button 24 is turned on, power is supplied to each component of the game apparatus 3 from an external power source by an AC adapter (not shown). When the reset button 25 is pressed, the system LSI 11 restarts the boot program for the game apparatus 3. The eject button 26 is connected to the disk drive 14. When the eject button 26 is pressed, the optical disk 4 is ejected from the disk drive 14.

なお、他の実施形態においては、ゲーム装置3が備える各構成要素のうちでいくつかの構成要素は、ゲーム装置3とは別体の拡張機器として構成されてもよい。このとき、拡張機器は、例えば上記拡張コネクタ20を介してゲーム装置3と接続されるようにしてもよい。具体的には、拡張機器は、例えば上記コーデックLSI27、端末通信モジュール28およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能であってもよい。これによれば、上記各構成要素を備えていないゲーム装置に対して上記拡張機器を接続することによって、当該ゲーム装置を端末装置7と通信可能な構成とすることができる。   In other embodiments, some of the components included in the game apparatus 3 may be configured as expansion devices that are separate from the game apparatus 3. At this time, the expansion device may be connected to the game apparatus 3 via the expansion connector 20, for example. Specifically, the extension device includes, for example, each component of the codec LSI 27, the terminal communication module 28, and the antenna 29, and may be detachable from the extension connector 20. According to this, the said game device can be set as the structure which can communicate with the terminal device 7 by connecting the said expansion apparatus with respect to the game device which is not provided with said each component.

[3.コントローラ5の構成]
次に、図3〜図7を参照して、コントローラ5について説明する。図3は、コントローラ5の外観構成を示す斜視図である。図4は、コントローラ5の外観構成を示す斜視図である。図3は、コントローラ5の上側後方から見た斜視図であり、図4は、コントローラ5を下側前方から見た斜視図である。
[3. Configuration of controller 5]
Next, the controller 5 will be described with reference to FIGS. FIG. 3 is a perspective view showing an external configuration of the controller 5. FIG. 4 is a perspective view showing an external configuration of the controller 5. 3 is a perspective view of the controller 5 as seen from the upper rear side, and FIG. 4 is a perspective view of the controller 5 as seen from the lower front side.

図3および図4において、コントローラ5は、例えばプラスチック成型によって形成されたハウジング31を有している。ハウジング31は、その前後方向(図3に示すZ軸方向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。ユーザは、コントローラ5に設けられたボタンを押下すること、および、コントローラ5自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム操作を行うことができる。   3 and 4, the controller 5 includes a housing 31 formed by plastic molding, for example. The housing 31 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction (the Z-axis direction shown in FIG. 3), and is a size that can be gripped with one hand of an adult or a child as a whole. The user can perform a game operation by pressing a button provided on the controller 5 and moving the controller 5 itself to change its position and posture (tilt).

ハウジング31には、複数の操作ボタンが設けられる。図3に示すように、ハウジング31の上面には、十字ボタン32a、1番ボタン32b、2番ボタン32c、Aボタン32d、マイナスボタン32e、ホームボタン32f、プラスボタン32g、および電源ボタン32hが設けられる。本明細書では、これらのボタン32a〜32hが設けられるハウジング31の上面を「ボタン面」と呼ぶことがある。一方、図4に示すように、ハウジング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32iが設けられる。これらの各操作ボタン32a〜32iには、ゲーム装置3が実行する情報処理プログラムに応じた機能が適宜割り当てられる。また、電源ボタン32hは遠隔からゲーム装置3本体の電源をオン/オフするためのものである。ホームボタン32fおよび電源ボタン32hは、その上面がハウジング31の上面に埋没している。これによって、ユーザがホームボタン32fまたは電源ボタン32hを誤って押下することを防止することができる。   The housing 31 is provided with a plurality of operation buttons. As shown in FIG. 3, a cross button 32a, a first button 32b, a second button 32c, an A button 32d, a minus button 32e, a home button 32f, a plus button 32g, and a power button 32h are provided on the upper surface of the housing 31. It is done. In the present specification, the upper surface of the housing 31 on which these buttons 32a to 32h are provided may be referred to as a “button surface”. On the other hand, as shown in FIG. 4, a recess is formed on the lower surface of the housing 31, and a B button 32i is provided on the rear inclined surface of the recess. A function corresponding to the information processing program executed by the game apparatus 3 is appropriately assigned to each of the operation buttons 32a to 32i. The power button 32h is for remotely turning on / off the main body of the game apparatus 3. The home button 32 f and the power button 32 h are embedded in the upper surface of the housing 31. Thereby, it is possible to prevent the user from pressing the home button 32f or the power button 32h by mistake.

ハウジング31の後面にはコネクタ33が設けられている。コネクタ33は、コントローラ5に他の機器(例えば、他のセンサユニットやコントローラ)を接続するために利用される。また、ハウジング31の後面におけるコネクタ33の両側には、上記他の機器が容易に離脱することを防止するために係止穴33aが設けられている。   A connector 33 is provided on the rear surface of the housing 31. The connector 33 is used to connect another device (for example, another sensor unit or controller) to the controller 5. Further, locking holes 33a are provided on both sides of the connector 33 on the rear surface of the housing 31 in order to prevent the other devices from being easily detached.

ハウジング31上面の後方には複数(図3では4つ)のLED34a〜34dが設けられる。ここで、コントローラ5には、他のコントローラと区別するためにコントローラ種別(番号)が付与される。各LED34a〜34dは、コントローラ5に現在設定されている上記コントローラ種別をユーザに通知したり、コントローラ5の電池残量をユーザに通知したりする等の目的で用いられる。具体的には、コントローラ5を用いてゲーム操作が行われる際、上記コントローラ種別に応じて複数のLED34a〜34dのいずれか1つが点灯する。   A plurality (four in FIG. 3) of LEDs 34 a to 34 d are provided behind the upper surface of the housing 31. Here, the controller type (number) is assigned to the controller 5 to distinguish it from other controllers. The LEDs 34a to 34d are used for the purpose of notifying the user of the controller type currently set in the controller 5 and notifying the user of the remaining battery level of the controller 5. Specifically, when a game operation is performed using the controller 5, any one of the plurality of LEDs 34a to 34d is turned on according to the controller type.

また、コントローラ5は撮像情報演算部35(図6)を有しており、図4に示すように、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。光入射面35aは、マーカ6Rおよび6Lからの赤外光を少なくとも透過する材質で構成される。   Further, the controller 5 has an imaging information calculation unit 35 (FIG. 6), and a light incident surface 35a of the imaging information calculation unit 35 is provided on the front surface of the housing 31, as shown in FIG. The light incident surface 35a is made of a material that transmits at least infrared light from the markers 6R and 6L.

ハウジング31上面における1番ボタン32bとホームボタン32fとの間には、コントローラ5に内蔵されるスピーカ47(図5)からの音を外部に放出するための音抜き孔31aが形成されている。   A sound release hole 31a is formed between the first button 32b and the home button 32f on the upper surface of the housing 31 for emitting sound from the speaker 47 (FIG. 5) built in the controller 5 to the outside.

次に、図5および図6を参照して、コントローラ5の内部構造について説明する。図5および図6は、コントローラ5の内部構造を示す図である。なお、図5は、コントローラ5の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6は、コントローラ5の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6に示す斜視図は、図5に示す基板30を裏面から見た斜視図となっている。   Next, the internal structure of the controller 5 will be described with reference to FIGS. 5 and 6 are diagrams showing the internal structure of the controller 5. FIG. FIG. 5 is a perspective view showing a state in which the upper housing (a part of the housing 31) of the controller 5 is removed. FIG. 6 is a perspective view showing a state in which the lower casing (a part of the housing 31) of the controller 5 is removed. The perspective view shown in FIG. 6 is a perspective view of the substrate 30 shown in FIG.

図5において、ハウジング31の内部には基板30が固設されており、当該基板30の上主面上に各操作ボタン32a〜32h、各LED34a〜34d、加速度センサ37、アンテナ45、およびスピーカ47等が設けられる。これらは、基板30等に形成された配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイコン)42(図6参照)に接続される。本実施形態では、加速度センサ37は、X軸方向に関してコントローラ5の中心からずれた位置に配置されている。これによって、コントローラ5をZ軸回りに回転させたときのコントローラ5の動きが算出しやすくなる。また、加速度センサ37は、長手方向(Z軸方向)に関してコントローラ5の中心よりも前方に配置されている。また、無線モジュール44(図6)およびアンテナ45によって、コントローラ5がワイヤレスコントローラとして機能する。   In FIG. 5, a substrate 30 is fixed inside the housing 31, and operation buttons 32 a to 32 h, LEDs 34 a to 34 d, an acceleration sensor 37, an antenna 45, and a speaker 47 are provided on the upper main surface of the substrate 30. Etc. are provided. These are connected to a microcomputer (microcomputer) 42 (see FIG. 6) by wiring (not shown) formed on the substrate 30 and the like. In the present embodiment, the acceleration sensor 37 is disposed at a position shifted from the center of the controller 5 with respect to the X-axis direction. This makes it easier to calculate the movement of the controller 5 when the controller 5 is rotated about the Z axis. The acceleration sensor 37 is disposed in front of the center of the controller 5 in the longitudinal direction (Z-axis direction). Further, the controller 5 functions as a wireless controller by the wireless module 44 (FIG. 6) and the antenna 45.

一方、図6において、基板30の下主面上の前端縁に撮像情報演算部35が設けられる。撮像情報演算部35は、コントローラ5の前方から順に赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を備えている。これらの部材38〜41はそれぞれ基板30の下主面に取り付けられる。   On the other hand, in FIG. 6, an imaging information calculation unit 35 is provided at the front edge on the lower main surface of the substrate 30. The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41 in order from the front of the controller 5. These members 38 to 41 are respectively attached to the lower main surface of the substrate 30.

さらに、基板30の下主面上には、上記マイコン42およびバイブレータ46が設けられている。バイブレータ46は、例えば振動モータやソレノイドであり、基板30等に形成された配線によってマイコン42と接続される。マイコン42の指示によりバイブレータ46が作動することによってコントローラ5に振動が発生する。これによって、コントローラ5を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。本実施形態では、バイブレータ46は、ハウジング31のやや前方寄りに配置される。つまり、バイブレータ46がコントローラ5の中心よりも端側に配置することによって、バイブレータ46の振動によりコントローラ5全体を大きく振動させることができる。また、コネクタ33は、基板30の下主面上の後端縁に取り付けられる。なお、図5および図6に示す他、コントローラ5は、マイコン42の基本クロックを生成する水晶振動子、スピーカ47に音声信号を出力するアンプ等を備えている。   Further, the microcomputer 42 and the vibrator 46 are provided on the lower main surface of the substrate 30. The vibrator 46 is, for example, a vibration motor or a solenoid, and is connected to the microcomputer 42 by wiring formed on the substrate 30 or the like. When the vibrator 46 is actuated by an instruction from the microcomputer 42, vibration is generated in the controller 5. As a result, a so-called vibration-compatible game in which the vibration is transmitted to the user's hand holding the controller 5 can be realized. In the present embodiment, the vibrator 46 is disposed slightly forward of the housing 31. That is, by arranging the vibrator 46 on the end side of the center of the controller 5, the entire controller 5 can be vibrated greatly by the vibration of the vibrator 46. The connector 33 is attached to the rear edge on the lower main surface of the substrate 30. 5 and 6, the controller 5 includes a crystal resonator that generates a basic clock of the microcomputer 42, an amplifier that outputs an audio signal to the speaker 47, and the like.

なお、図3〜図6に示したコントローラ5の形状や、各操作ボタンの形状、加速度センサやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。また、本実施形態では、撮像手段による撮像方向はZ軸正方向であるが、撮像方向はいずれの方向であってもよい。すなわち、コントローラ5における撮像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に設けられてもかまわない。   The shape of the controller 5, the shape of each operation button, the number of acceleration sensors and vibrators, and the installation positions shown in FIGS. 3 to 6 are merely examples, and other shapes, numbers, and installation positions may be used. May be. In the present embodiment, the imaging direction by the imaging unit is the positive Z-axis direction, but the imaging direction may be any direction. That is, the position of the imaging information calculation unit 35 in the controller 5 (the light incident surface 35a of the imaging information calculation unit 35) does not have to be the front surface of the housing 31, and other surfaces can be used as long as light can be taken in from the outside of the housing 31. May be provided.

図7は、コントローラ5の構成を示すブロック図である。コントローラ5は、操作部32(各操作ボタン32a〜32i)、撮像情報演算部35、通信部36、加速度センサ37、およびジャイロセンサ48を備えている。コントローラ5は、自機に対して行われた操作内容を表すデータを操作データとしてゲーム装置3へ送信するものである。なお、以下では、コントローラ5が送信する操作データを「コントローラ操作データ」と呼び、端末装置7が送信する操作データを「端末操作データ」と呼ぶことがある。   FIG. 7 is a block diagram showing the configuration of the controller 5. The controller 5 includes an operation unit 32 (operation buttons 32a to 32i), an imaging information calculation unit 35, a communication unit 36, an acceleration sensor 37, and a gyro sensor 48. The controller 5 transmits data representing the content of the operation performed on the own device to the game apparatus 3 as operation data. Hereinafter, the operation data transmitted from the controller 5 may be referred to as “controller operation data”, and the operation data transmitted from the terminal device 7 may be referred to as “terminal operation data”.

操作部32は、上述した各操作ボタン32a〜32iを含み、各操作ボタン32a〜32iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を表す操作ボタンデータを通信部36のマイコン42へ出力する。   The operation unit 32 includes the operation buttons 32a to 32i described above, and the operation button data indicating the input state (whether or not each operation button 32a to 32i is pressed) to each operation button 32a to 32i is transmitted to the microcomputer of the communication unit 36. Output to 42.

撮像情報演算部35は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。撮像情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので、比較的高速なコントローラ5の動きでも追跡して解析することができる。   The imaging information calculation unit 35 is a system for analyzing the image data captured by the imaging unit, discriminating a region having a high luminance in the image data, and calculating a center of gravity position, a size, and the like of the region. Since the imaging information calculation unit 35 has a sampling period of, for example, about 200 frames / second at the maximum, it can track and analyze even a relatively fast movement of the controller 5.

撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を含んでいる。赤外線フィルタ38は、コントローラ5の前方から入射する光から赤外線のみを通過させる。レンズ39は、赤外線フィルタ38を透過した赤外線を集光して撮像素子40へ入射させる。撮像素子40は、例えばCMOSセンサやあるいはCCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像信号を出力する。ここで、撮像対象となる端末装置7のマーカ部55およびマーカ装置6は、赤外光を出力するマーカで構成される。したがって、赤外線フィルタ38を設けることによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像データを生成するので、撮像対象(マーカ部55および/またはマーカ装置6)の画像をより正確に撮像することができる。以下では、撮像素子40によって撮像された画像を撮像画像と呼ぶ。撮像素子40によって生成された画像データは、画像処理回路41で処理される。画像処理回路41は、撮像画像内における撮像対象の位置を算出する。画像処理回路41は、算出された位置を示す座標を通信部36のマイコン42へ出力する。この座標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。以下では、上記座標を「マーカ座標」と呼ぶ。マーカ座標はコントローラ5自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントローラ5の向きや位置を算出することができる。   The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41. The infrared filter 38 passes only infrared rays from the light incident from the front of the controller 5. The lens 39 collects the infrared light transmitted through the infrared filter 38 and makes it incident on the image sensor 40. The image sensor 40 is a solid-state image sensor such as a CMOS sensor or a CCD sensor, for example, and receives the infrared light collected by the lens 39 and outputs an image signal. Here, the marker unit 55 and the marker device 6 of the terminal device 7 to be imaged are configured by a marker that outputs infrared light. Therefore, by providing the infrared filter 38, the image sensor 40 receives only the infrared light that has passed through the infrared filter 38 and generates image data. Therefore, the image of the imaging target (the marker unit 55 and / or the marker device 6) is captured. More accurate imaging can be performed. Hereinafter, an image captured by the image sensor 40 is referred to as a captured image. Image data generated by the image sensor 40 is processed by the image processing circuit 41. The image processing circuit 41 calculates the position of the imaging target in the captured image. The image processing circuit 41 outputs coordinates indicating the calculated position to the microcomputer 42 of the communication unit 36. The coordinate data is transmitted to the game apparatus 3 as operation data by the microcomputer 42. Hereinafter, the coordinates are referred to as “marker coordinates”. Since the marker coordinates change corresponding to the direction (tilt angle) and position of the controller 5 itself, the game apparatus 3 can calculate the direction and position of the controller 5 using the marker coordinates.

なお、他の実施形態においては、コントローラ5は画像処理回路41を備えていない構成であってもよく、撮像画像自体がコントローラ5からゲーム装置3へ送信されてもよい。このとき、ゲーム装置3は、画像処理回路41と同様の機能を有する回路あるいはプログラムを有しており、上記マーカ座標を算出するようにしてもよい。   In other embodiments, the controller 5 may not include the image processing circuit 41, and the captured image itself may be transmitted from the controller 5 to the game apparatus 3. At this time, the game apparatus 3 may have a circuit or a program having the same function as the image processing circuit 41, and may calculate the marker coordinates.

加速度センサ37は、コントローラ5の加速度(重力加速度を含む)を検出する、すなわち、コントローラ5に加わる力(重力を含む)を検出する。加速度センサ37は、当該加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線方向の加速度(直線加速度)の値を検出する。例えば、2軸以上の多軸加速度センサの場合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度をそれぞれ検出する。なお、加速度センサ37は、例えば静電容量式のMEMS(Micro Electro Mechanical System)型加速度センサであるとするが、他の方式の加速度センサを用いるようにしてもよい。   The acceleration sensor 37 detects the acceleration (including gravity acceleration) of the controller 5, that is, detects the force (including gravity) applied to the controller 5. The acceleration sensor 37 detects the value of the acceleration (linear acceleration) in the linear direction along the sensing axis direction among the accelerations applied to the detection unit of the acceleration sensor 37. For example, in the case of a multi-axis acceleration sensor having two or more axes, the component acceleration along each axis is detected as the acceleration applied to the detection unit of the acceleration sensor. The acceleration sensor 37 is, for example, a capacitive MEMS (Micro Electro Mechanical System) type acceleration sensor, but other types of acceleration sensors may be used.

本実施形態では、加速度センサ37は、コントローラ5を基準とした上下方向(図3に示すY軸方向)、左右方向(図3に示すX軸方向)および前後方向(図3に示すZ軸方向)の3軸方向に関してそれぞれ直線加速度を検出する。加速度センサ37は、各軸に沿った直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3軸それぞれの直線加速度の値を表すものとなる。すなわち、検出された加速度は、コントローラ5を基準に設定されるXYZ座標系(コントローラ座標系)における3次元のベクトルとして表される。   In the present embodiment, the acceleration sensor 37 has a vertical direction (Y-axis direction shown in FIG. 3), a horizontal direction (X-axis direction shown in FIG. 3), and a front-back direction (Z-axis direction shown in FIG. 3) with reference to the controller 5. ) Linear acceleration is detected in each of the three axis directions. Since the acceleration sensor 37 detects acceleration in the linear direction along each axis, the output from the acceleration sensor 37 represents the linear acceleration value of each of the three axes. That is, the detected acceleration is represented as a three-dimensional vector in an XYZ coordinate system (controller coordinate system) set with the controller 5 as a reference.

加速度センサ37が検出した加速度を表すデータ(加速度データ)は、通信部36へ出力される。なお、加速度センサ37が検出した加速度は、コントローラ5自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置3は取得された加速度データを用いてコントローラ5の向きや動きを算出することができる。本実施形態では、ゲーム装置3は、取得された加速度データに基づいてコントローラ5の姿勢や傾斜角度等を算出する。   Data representing the acceleration detected by the acceleration sensor 37 (acceleration data) is output to the communication unit 36. The acceleration detected by the acceleration sensor 37 changes in accordance with the direction (tilt angle) and movement of the controller 5 itself, so the game apparatus 3 calculates the direction and movement of the controller 5 using the acquired acceleration data. can do. In the present embodiment, the game apparatus 3 calculates the attitude, tilt angle, and the like of the controller 5 based on the acquired acceleration data.

なお、加速度センサ37(後述する加速度センサ63についても同様)から出力される加速度の信号に基づいて、ゲーム装置3のプロセッサ(例えばCPU10)またはコントローラ5のプロセッサ(例えばマイコン42)等のコンピュータが処理を行うことによって、コントローラ5に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、加速度センサ37を搭載するコントローラ5が静止状態であることを前提としてコンピュータ側の処理が実行される場合(すなわち、加速度センサによって検出される加速度が重力加速度のみであるとして処理が実行される場合)、コントローラ5が現実に静止状態であれば、検出された加速度に基づいてコントローラ5の姿勢が重力方向に対して傾いているか否かまたはどの程度傾いているかを知ることができる。具体的には、加速度センサ37の検出軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっているか否かによって、コントローラ5が基準に対して傾いているか否かを知ることができるし、その大きさによって基準に対してどの程度傾いているかも知ることができる。また、多軸の加速度センサ37の場合には、さらに各軸の加速度の信号に対して処理を施すことによって、重力方向に対してコントローラ5がどの程度傾いているかをより詳細に知ることができる。この場合において、プロセッサは、加速度センサ37からの出力に基づいてコントローラ5の傾斜角度を算出してもよいし、当該傾斜角度を算出せずに、コントローラ5の傾斜方向を算出するようにしてもよい。このように、加速度センサ37をプロセッサと組み合わせて用いることによって、コントローラ5の傾斜角度または姿勢を判定することができる。   A computer such as a processor (for example, CPU 10) of the game apparatus 3 or a processor (for example, the microcomputer 42) of the controller 5 performs processing based on an acceleration signal output from the acceleration sensor 37 (the same applies to an acceleration sensor 63 described later). It can be easily understood by those skilled in the art from the description of the present specification that by performing the above, it is possible to estimate or calculate (determine) further information regarding the controller 5. For example, when processing on the computer side is executed on the assumption that the controller 5 on which the acceleration sensor 37 is mounted is stationary (that is, the processing is executed assuming that the acceleration detected by the acceleration sensor is only gravitational acceleration). When the controller 5 is actually stationary, it can be determined whether or not the attitude of the controller 5 is inclined with respect to the direction of gravity based on the detected acceleration. Specifically, whether or not the controller 5 is inclined with respect to the reference depending on whether or not 1G (gravity acceleration) is applied, based on the state in which the detection axis of the acceleration sensor 37 is directed vertically downward. It is possible to know how much it is inclined with respect to the reference according to its size. Further, in the case of the multi-axis acceleration sensor 37, it is possible to know in detail how much the controller 5 is inclined with respect to the direction of gravity by further processing the acceleration signal of each axis. . In this case, the processor may calculate the tilt angle of the controller 5 based on the output from the acceleration sensor 37, or may calculate the tilt direction of the controller 5 without calculating the tilt angle. Good. Thus, by using the acceleration sensor 37 in combination with the processor, the tilt angle or posture of the controller 5 can be determined.

一方、コントローラ5が動的な状態(コントローラ5が動かされている状態)であることを前提とする場合には、加速度センサ37は重力加速度に加えてコントローラ5の動きに応じた加速度を検出するので、検出された加速度から重力加速度の成分を所定の処理により除去することによってコントローラ5の動き方向を知ることができる。また、コントローラ5が動的な状態であることを前提とする場合であっても、検出された加速度から、加速度センサの動きに応じた加速度の成分を所定の処理により除去することによって、重力方向に対するコントローラ5の傾きを知ることが可能である。なお、他の実施例では、加速度センサ37は、内蔵の加速度検出手段で検出された加速度信号をマイコン42に出力する前に当該加速度信号に対して所定の処理を行うための、組込み式の処理装置または他の種類の専用の処理装置を備えていてもよい。組込み式または専用の処理装置は、例えば、加速度センサ37が静的な加速度(例えば、重力加速度)を検出するために用いられる場合、加速度信号を傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。   On the other hand, when it is assumed that the controller 5 is in a dynamic state (a state in which the controller 5 is moved), the acceleration sensor 37 detects an acceleration corresponding to the movement of the controller 5 in addition to the gravitational acceleration. Therefore, the movement direction of the controller 5 can be known by removing the gravitational acceleration component from the detected acceleration by a predetermined process. Even if it is assumed that the controller 5 is in a dynamic state, the direction of gravity is obtained by removing the acceleration component corresponding to the movement of the acceleration sensor from the detected acceleration by a predetermined process. It is possible to know the inclination of the controller 5 with respect to. In another embodiment, the acceleration sensor 37 is a built-in process for performing a predetermined process on the acceleration signal before outputting the acceleration signal detected by the built-in acceleration detection means to the microcomputer 42. An apparatus or other type of dedicated processing apparatus may be provided. A built-in or dedicated processing device converts the acceleration signal into a tilt angle (or other preferred parameter) if, for example, the acceleration sensor 37 is used to detect static acceleration (eg, gravitational acceleration). It may be a thing.

ジャイロセンサ48は、3軸(本実施形態では、XYZ軸)回りの角速度を検出する。本明細書では、コントローラ5の撮像方向(Z軸正方向)を基準として、X軸回りの回転方向をピッチ方向、Y軸回りの回転方向をヨー方向、Z軸回りの回転方向をロール方向と呼ぶ。ジャイロセンサ48は、3軸回りの角速度を検出することができればよく、用いるジャイロセンサの数および組み合わせはどのようなものであってもよい。例えば、ジャイロセンサ48は、3軸ジャイロセンサであってもよいし、2軸ジャイロセンサと1軸ジャイロセンサとを組み合わせて3軸周りの角速度を検出するものであってもよい。ジャイロセンサ48で検出された角速度を表すデータは、通信部36へ出力される。また、ジャイロセンサ48は1軸または2軸回りの角速度を検出するものであってもよい。   The gyro sensor 48 detects angular velocities about three axes (XYZ axes in the present embodiment). In this specification, with the imaging direction (Z-axis positive direction) of the controller 5 as a reference, the rotation direction around the X axis is the pitch direction, the rotation direction around the Y axis is the yaw direction, and the rotation direction around the Z axis is the roll direction. Call. The gyro sensor 48 only needs to be able to detect angular velocities about three axes, and any number and combination of gyro sensors may be used. For example, the gyro sensor 48 may be a three-axis gyro sensor or a combination of a two-axis gyro sensor and a one-axis gyro sensor to detect an angular velocity around three axes. Data representing the angular velocity detected by the gyro sensor 48 is output to the communication unit 36. Further, the gyro sensor 48 may detect an angular velocity around one axis or two axes.

通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45を含んでいる。マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら、マイコン42が取得したデータをゲーム装置3へ無線送信する無線モジュール44を制御する。   The communication unit 36 includes a microcomputer 42, a memory 43, a wireless module 44, and an antenna 45. The microcomputer 42 controls the wireless module 44 that wirelessly transmits data acquired by the microcomputer 42 to the game apparatus 3 while using the memory 43 as a storage area when performing processing.

操作部32、撮像情報演算部35、加速度センサ37、およびジャイロセンサ48からマイコン42へ出力されたデータは、一時的にメモリ43に格納される。これらのデータは、操作データ(コントローラ操作データ)としてゲーム装置3へ送信される。すなわち、マイコン42は、ゲーム装置3のコントローラ通信モジュール19への送信タイミングが到来すると、メモリ43に格納されている操作データを無線モジュール44へ出力する。無線モジュール44は、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ45から放射する。つまり、操作データは、無線モジュール44で微弱電波信号に変調されてコントローラ5から送信される。微弱電波信号はゲーム装置3側のコントローラ通信モジュール19で受信される。受信された微弱電波信号について復調や復号を行うことによって、ゲーム装置3は操作データを取得することができる。そして、ゲーム装置3のCPU10は、コントローラ5から取得した操作データを用いてゲーム処理を行う。なお、通信部36からコントローラ通信モジュール19への無線送信は所定の周期毎に逐次行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。コントローラ5の通信部36は、例えば1/200秒に1回の割合で操作データをゲーム装置3のコントローラ通信モジュール19へ出力する。   Data output from the operation unit 32, the imaging information calculation unit 35, the acceleration sensor 37, and the gyro sensor 48 to the microcomputer 42 is temporarily stored in the memory 43. These data are transmitted to the game apparatus 3 as operation data (controller operation data). That is, the microcomputer 42 outputs the operation data stored in the memory 43 to the wireless module 44 when the transmission timing to the controller communication module 19 of the game apparatus 3 arrives. The wireless module 44 modulates a carrier wave of a predetermined frequency with operation data using, for example, Bluetooth (registered trademark) technology, and radiates a weak radio signal from the antenna 45. That is, the operation data is modulated by the wireless module 44 into a weak radio signal and transmitted from the controller 5. The weak radio signal is received by the controller communication module 19 on the game apparatus 3 side. By demodulating and decoding the received weak radio signal, the game apparatus 3 can acquire operation data. Then, the CPU 10 of the game apparatus 3 performs a game process using the operation data acquired from the controller 5. Note that wireless transmission from the communication unit 36 to the controller communication module 19 is sequentially performed at predetermined intervals, but game processing is generally performed in units of 1/60 seconds (one frame time). Therefore, it is preferable to perform transmission at a period equal to or shorter than this time. The communication unit 36 of the controller 5 outputs the operation data to the controller communication module 19 of the game apparatus 3 at a rate of once every 1/200 seconds, for example.

以上のように、コントローラ5は、自機に対する操作を表す操作データとして、マーカ座標データ、加速度データ、角速度データ、および操作ボタンデータを送信可能である。また、ゲーム装置3は、上記操作データをゲーム入力として用いてゲーム処理を実行する。したがって、上記コントローラ5を用いることによって、ユーザは、各操作ボタンを押下する従来の一般的なゲーム操作に加えて、コントローラ5自体を動かすゲーム操作を行うことができる。例えば、コントローラ5を任意の姿勢に傾ける操作、コントローラ5によって画面上の任意の位置を指示する操作、および、コントローラ5自体を動かす操作等を行うことが可能となる。   As described above, the controller 5 can transmit the marker coordinate data, the acceleration data, the angular velocity data, and the operation button data as the operation data representing the operation on the own device. Further, the game apparatus 3 executes a game process using the operation data as a game input. Therefore, by using the controller 5, the user can perform a game operation for moving the controller 5 itself in addition to the conventional general game operation for pressing each operation button. For example, an operation of tilting the controller 5 to an arbitrary posture, an operation of instructing an arbitrary position on the screen by the controller 5, an operation of moving the controller 5 itself, and the like can be performed.

また、本実施形態において、コントローラ5は、ゲーム画像を表示する表示手段を有しないが、例えば電池残量を表す画像等を表示するための表示手段を有していてもよい。   In the present embodiment, the controller 5 does not have a display unit that displays a game image, but may include a display unit that displays, for example, an image representing the remaining battery level.

[4.端末装置7の構成]
次に、図8〜図10を参照して、端末装置7の構成について説明する。図8は、端末装置7の外観構成を示す図である。図8における(a)図は端末装置7の正面図であり、(b)図は上面図であり、(c)図は右側面図であり、(d)図は下面図である。また、図9は、ユーザが端末装置7を把持した様子を示す図である。
[4. Configuration of Terminal Device 7]
Next, the configuration of the terminal device 7 will be described with reference to FIGS. FIG. 8 is a diagram illustrating an external configuration of the terminal device 7. 8A is a front view of the terminal device 7, FIG. 8B is a top view, FIG. 8C is a right side view, and FIG. 8D is a bottom view. FIG. 9 is a diagram illustrating a state where the user holds the terminal device 7.

図8に示されるように、端末装置7は、大略的には横長の長方形の板状形状であるハウジング50を備える。ハウジング50は、ユーザが把持することができる程度の大きさである。したがって、ユーザは、端末装置7を持って動かしたり、端末装置7の配置位置を変更したりすることができる。   As shown in FIG. 8, the terminal device 7 includes a housing 50 that is generally a horizontally-long rectangular plate shape. The housing 50 is large enough to be gripped by the user. Therefore, the user can move the terminal apparatus 7 or change the arrangement position of the terminal apparatus 7.

端末装置7は、ハウジング50の表面にLCD51を有する。LCD51は、ハウジング50の表面の中央付近に設けられる。したがって、ユーザは、図9に示すようにLCD51の両側部分のハウジング50を持つことによって、LCD51の画面を見ながら端末装置を持って動かすことができる。なお、図9ではユーザがLCD51の左右両側の部分のハウジング50を持つことで端末装置7を横持ちで(横に長い向きにして)持つ例を示しているが、端末装置7を縦持ちで(縦に長い向きにして)持つことも可能である。   The terminal device 7 has an LCD 51 on the surface of the housing 50. The LCD 51 is provided near the center of the surface of the housing 50. Therefore, as shown in FIG. 9, the user can move the terminal device while holding the housing 50 on both sides of the LCD 51 while viewing the screen of the LCD 51. Although FIG. 9 shows an example in which the user holds the terminal device 7 horizontally by holding the housings 50 on both the left and right sides of the LCD 51 (with the side facing long), the terminal device 7 is held vertically. It can also be held (with a long vertical orientation).

図8の(a)図に示すように、端末装置7は、操作手段として、LCD51の画面上にタッチパネル52を有する。本実施形態では、タッチパネル52は抵抗膜方式のタッチパネルである。ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。また、タッチパネル52はシングルタッチ方式でもよいし、マルチタッチ方式であってもよい。本実施形態では、タッチパネル52として、LCD51の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル52の解像度とLCD51の解像度が一致している必要はない。タッチパネル52に対する入力は通常タッチペンを用いて行われるが、タッチペンに限らずユーザの指でタッチパネル52に対する入力をすることも可能である。なお、ハウジング50には、タッチパネル52に対する操作を行うために用いられるタッチペンを収納するための収納穴が設けられていてもよい。このように、端末装置7はタッチパネル52を備えるので、ユーザは、端末装置7を動かしながらタッチパネル52を操作することができる。つまりユーザは、LCD51の画面を動かしつつ、その画面に対して直接(タッチパネル52によって)入力を行うことができる。   As illustrated in FIG. 8A, the terminal device 7 includes a touch panel 52 on the screen of the LCD 51 as an operation unit. In the present embodiment, the touch panel 52 is a resistive film type touch panel. However, the touch panel is not limited to the resistive film type, and any type of touch panel such as a capacitance type can be used. The touch panel 52 may be a single touch method or a multi-touch method. In the present embodiment, the touch panel 52 having the same resolution (detection accuracy) as the resolution of the LCD 51 is used. However, the resolution of the touch panel 52 and the resolution of the LCD 51 are not necessarily matched. Input to the touch panel 52 is normally performed using a touch pen, but it is also possible to input to the touch panel 52 with a user's finger without being limited to the touch pen. The housing 50 may be provided with a storage hole for storing a touch pen used to perform an operation on the touch panel 52. Thus, since the terminal device 7 includes the touch panel 52, the user can operate the touch panel 52 while moving the terminal device 7. That is, the user can directly input (by the touch panel 52) to the screen while moving the screen of the LCD 51.

図8に示すように、端末装置7は、操作手段として、2つのアナログスティック53Aおよび53Bと、複数のボタン54A〜54Lとを備えている。各アナログスティック53Aおよび53Bは、方向を指示するデバイスである。各アナログスティック53Aおよび53Bは、ユーザの指で操作されるスティック部がハウジング50の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライド(または傾倒)することができるように構成されている。また、左アナログスティック53AはLCD51の画面の左側に、右アナログスティック53BはLCD51の画面の右側にそれぞれ設けられる。したがって、ユーザは、左右いずれの手でもアナログスティックを用いて方向を指示する入力を行うことができる。また、図9に示すように、各アナログスティック53Aおよび53Bは、ユーザが端末装置7の左右部分を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置7を持って動かす場合においても各アナログスティック53Aおよび53Bを容易に操作することができる。   As shown in FIG. 8, the terminal device 7 includes two analog sticks 53A and 53B and a plurality of buttons 54A to 54L as operation means. Each analog stick 53A and 53B is a device that indicates a direction. Each of the analog sticks 53A and 53B can slide (or tilt) the stick portion operated by the user's finger in any direction (any angle in the up / down / left / right and diagonal directions) with respect to the surface of the housing 50. It is configured. The left analog stick 53A is provided on the left side of the screen of the LCD 51, and the right analog stick 53B is provided on the right side of the screen of the LCD 51. Therefore, the user can make an input for instructing the direction with the left and right hands using the analog stick. Further, as shown in FIG. 9, the analog sticks 53 </ b> A and 53 </ b> B are provided at positions where the user can operate while holding the left and right portions of the terminal device 7. Also, the analog sticks 53A and 53B can be easily operated.

各ボタン54A〜54Lは、所定の入力を行うための操作手段である。以下に示すように、各ボタン54A〜54Lは、ユーザが端末装置7の左右部分を把持した状態で操作可能な位置に設けられる(図9参照)。したがって、ユーザは、端末装置7を持って動かす場合においてもこれらの操作手段を容易に操作することができる。   Each button 54A-54L is an operation means for performing a predetermined input. As shown below, each button 54A-54L is provided in the position which a user can operate in the state which hold | gripped the left-right part of the terminal device 7 (refer FIG. 9). Therefore, the user can easily operate these operation means even when the user moves the terminal device 7.

図8の(a)図に示すように、ハウジング50の表面には、各操作ボタン54A〜54Lのうち、十字ボタン(方向入力ボタン)54Aと、ボタン54B〜54Hとが設けられる。つまり、これらのボタン54A〜54Gは、ユーザの親指で操作可能な位置に配置されている(図9参照)。   As shown in FIG. 8A, on the surface of the housing 50, among the operation buttons 54A to 54L, a cross button (direction input button) 54A and buttons 54B to 54H are provided. That is, these buttons 54 </ b> A to 54 </ b> G are arranged at positions that can be operated with the user's thumb (see FIG. 9).

十字ボタン54Aは、LCD51の左側であって、左アナログスティック53Aの下側に設けられる。つまり、十字ボタン54Aはユーザの左手で操作可能な位置に配置されている。十字ボタン54Aは、十字の形状を有しており、上下左右の方向を指示することが可能なボタンである。また、ボタン54B〜54Dは、LCD51の下側に設けられる。これら3つのボタン54B〜54Dは、左右両方の手で操作可能な位置に配置されている。また、4つのボタン54E〜54Hは、LCD51の右側であって、右アナログスティック53Bの下側に設けられる。つまり、4つのボタン54E〜54Hはユーザの右手で操作可能な位置に配置されている。さらに、4つのボタン54E〜54Hは、(4つのボタン54E〜54Hの中心位置に対して)上下左右の位置関係となるように配置されている。したがって、端末装置7は、ユーザに上下左右の方向を指示させるためのボタンとして4つのボタン54E〜54Hを機能させることも可能である。   The cross button 54A is provided on the left side of the LCD 51 and below the left analog stick 53A. That is, the cross button 54A is arranged at a position where it can be operated with the left hand of the user. The cross button 54 </ b> A has a cross shape and is a button capable of instructing the vertical and horizontal directions. The buttons 54B to 54D are provided below the LCD 51. These three buttons 54B to 54D are arranged at positions that can be operated by both the left and right hands. The four buttons 54E to 54H are provided on the right side of the LCD 51 and below the right analog stick 53B. That is, the four buttons 54E to 54H are arranged at positions that can be operated with the right hand of the user. Further, the four buttons 54E to 54H are arranged so as to have a vertical / left / right positional relationship (relative to the center position of the four buttons 54E to 54H). Therefore, the terminal device 7 can also function the four buttons 54 </ b> E to 54 </ b> H as buttons for instructing the user in the up / down / left / right directions.

また、図8の(a)図、(b)図、および(c)図に示すように、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジング50の斜め上部分(左上部分および右上部分)に設けられる。具体的には、第1Lボタン54Iは、板状のハウジング50における上側の側面の左端に設けられ、上側および左側の側面から露出している。また、第1Rボタン54Jは、ハウジング50における上側の側面の右端に設けられ、上側および右側の側面から露出している。このように、第1Lボタン54Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン54Jは、ユーザの右手人差し指で操作可能な位置に配置される(図9参照)。   Further, as shown in FIGS. 8A, 8B, and 8C, the first L button 54I and the first R button 54J are provided on an oblique upper portion (upper left portion and upper right portion) of the housing 50. Provided. Specifically, the first L button 54I is provided at the left end of the upper side surface of the plate-like housing 50, and is exposed from the upper and left side surfaces. The first R button 54J is provided at the right end of the upper side surface of the housing 50, and is exposed from the upper and right side surfaces. In this way, the first L button 54I is disposed at a position operable with the user's left index finger, and the first R button 54J is disposed at a position operable with the user's right hand index finger (see FIG. 9).

また、図8の(b)図および(c)図に示すように、第2Lボタン54Kおよび第2Rボタン54Lは、板状のハウジング50の裏面(すなわちLCD51が設けられる表面の反対側の面)に突起して設けられる足部59Aおよび59Bに配置される。具体的には、第2Lボタン54Kは、ハウジング50の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン54Lは、ハウジング50の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。換言すれば、第2Lボタン54Kは、表面に設けられる左アナログスティック53Aの概ね反対側の位置に設けられ、第2Rボタン54Lは、表面に設けられる右アナログスティック53Bの概ね反対側の位置に設けられる。このように、第2Lボタン54Kは、ユーザの左手中指で操作可能な位置に配置され、第2Rボタン54Lは、ユーザの右手中指で操作可能な位置に配置される(図9参照)。また、第2Lボタン54Kおよび第2Rボタン54Lは、図8の(c)図に示すように、上記足部59Aおよび59Bの斜め上方を向く面に設けられ、斜め上方を向くボタン面を有する。ユーザが端末装置7を把持した場合には中指は上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン54Kおよび第2Rボタン54Lを押下しやすくなる。また、ハウジング50の裏面に足部が設けられることにより、ユーザはハウジング50を把持しやすくなり、かつ、足部にボタンが設けられることで、ハウジング50を把持したまま操作しやすくなる。   As shown in FIGS. 8B and 8C, the second L button 54K and the second R button 54L are provided on the back surface of the plate-like housing 50 (that is, the surface opposite to the surface on which the LCD 51 is provided). It is arrange | positioned at the leg parts 59A and 59B which protrude and are provided. Specifically, the second L button 54K is provided slightly above the left side (left side when viewed from the front side) of the housing 50, and the second R button 54L is provided on the right side (from the front side of the housing 50). It is provided slightly above the right side when viewed. In other words, the second L button 54K is provided at a position approximately opposite to the left analog stick 53A provided on the surface, and the second R button 54L is provided at a position approximately opposite to the right analog stick 53B provided on the surface. It is done. As described above, the second L button 54K is disposed at a position operable by the user's left middle finger, and the second R button 54L is disposed at a position operable by the user's right middle finger (see FIG. 9). Further, as shown in FIG. 8C, the second L button 54K and the second R button 54L are provided on the diagonally upward surfaces of the feet 59A and 59B, and have button surfaces that are diagonally upward. When the user grips the terminal device 7, it is considered that the middle finger moves in the vertical direction. Therefore, the user can easily press the second L button 54K and the second R button 54L by turning the button surface upward. In addition, the foot is provided on the back surface of the housing 50, so that the user can easily hold the housing 50, and the buttons are provided on the foot, so that the user can easily operate while holding the housing 50.

なお、図8に示す端末装置7に関しては、第2Lボタン54Kおよび第2Rボタン54Lが裏面に設けられるので、LCD51の画面(ハウジング50の表面)が上を向いた状態で端末装置7を載置させる場合、画面が完全に水平にはならない場合がある。そのため、他の実施形態においては、ハウジング50の裏面に3つ以上の足部が形成されてもよい。これによれば、LCD51の画面が上を向いた状態では足部が床面に接することで床面に載置できるので、画面が水平になるように端末装置7を載置することができる。また、着脱可能な足部を追加することで端末装置7を水平に載置するようにしてもよい。   For the terminal device 7 shown in FIG. 8, since the second L button 54K and the second R button 54L are provided on the back surface, the terminal device 7 is placed with the screen of the LCD 51 (the surface of the housing 50) facing upward. The screen may not be completely horizontal. Therefore, in other embodiments, three or more legs may be formed on the back surface of the housing 50. According to this, in the state where the screen of the LCD 51 is facing upward, the foot can be placed on the floor by touching the floor, so that the terminal device 7 can be placed so that the screen is horizontal. Further, the terminal device 7 may be placed horizontally by adding a detachable foot.

各ボタン54A〜54Lには、ゲームプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン54Aおよびボタン54E〜54Hは方向指示操作や選択操作等に用いられてもよいし、各ボタン54B〜54Eは決定操作やキャンセル操作等に用いられてもよい。   Functions corresponding to the game program are appropriately assigned to the buttons 54A to 54L. For example, the cross button 54A and the buttons 54E to 54H may be used for a direction instruction operation or a selection operation, and the buttons 54B to 54E may be used for a determination operation or a cancel operation.

なお、図示しないが、端末装置7は、端末装置7の電源をオン/オフするための電源ボタンを有している。また、端末装置7は、LCD51の画面表示をオン/オフするためのボタンや、ゲーム装置3との接続設定(ペアリング)を行うためのボタンや、スピーカ(図10に示すスピーカ67)の音量を調節するためのボタンを有していてもよい。   Although not shown, the terminal device 7 has a power button for turning on / off the terminal device 7. The terminal device 7 also has a button for turning on / off the screen display of the LCD 51, a button for setting connection (pairing) with the game device 3, and a volume of a speaker (speaker 67 shown in FIG. 10). You may have a button for adjusting.

図8の(a)図に示すように、端末装置7は、マーカ55Aおよびマーカ55Bからなるマーカ部(図10に示すマーカ部55)をハウジング50の表面に備えている。マーカ部55は、LCD51の上側に設けられる。各マーカ55Aおよびマーカ55Bは、マーカ装置6の各マーカ6Rおよび6Lと同様、1以上の赤外LEDで構成される。マーカ部55は、上述のマーカ装置6と同様、コントローラ5の動き等をゲーム装置3が算出するために用いられる。また、ゲーム装置3はマーカ部55が備える各赤外LEDの点灯を制御することが可能である。   As illustrated in FIG. 8A, the terminal device 7 includes a marker portion (a marker portion 55 illustrated in FIG. 10) including a marker 55 </ b> A and a marker 55 </ b> B on the surface of the housing 50. The marker unit 55 is provided on the upper side of the LCD 51. Each of the markers 55A and 55B is composed of one or more infrared LEDs, like the markers 6R and 6L of the marker device 6. The marker unit 55 is used for the game device 3 to calculate the movement of the controller 5 and the like, similar to the marker device 6 described above. Further, the game apparatus 3 can control lighting of each infrared LED included in the marker unit 55.

端末装置7は、撮像手段であるカメラ56を備えている。カメラ56は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。図8に示すように、本実施形態では、カメラ56はハウジング50の表面に設けられる。したがって、カメラ56は、端末装置7を持っているユーザの顔を撮像することができ、例えばLCD51を見ながらゲームを行っている時のユーザを撮像することができる。   The terminal device 7 includes a camera 56 that is an imaging unit. The camera 56 includes an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution, and a lens. As shown in FIG. 8, in this embodiment, the camera 56 is provided on the surface of the housing 50. Therefore, the camera 56 can take an image of the face of the user who has the terminal device 7, and can, for example, take an image of the user who is playing the game while looking at the LCD 51.

なお、端末装置7は、音声入力手段であるマイク(図10に示すマイク69)を備えている。ハウジング50の表面には、マイクロフォン用孔60が設けられる。マイク69はこのマイクロフォン用孔60の奥のハウジング50内部に設けられる。マイクは、ユーザの音声等、端末装置7の周囲の音を検出する。   The terminal device 7 includes a microphone (a microphone 69 shown in FIG. 10) that is a voice input unit. A microphone hole 60 is provided on the surface of the housing 50. The microphone 69 is provided inside the housing 50 behind the microphone hole 60. The microphone detects sounds around the terminal device 7 such as user's voice.

端末装置7は、音声出力手段であるスピーカ(図10に示すスピーカ67)を備えている。図8の(d)図に示すように、ハウジング50の下側側面にはスピーカ孔57が設けられる。スピーカ67の出力音はこのスピーカ孔57から出力される。本実施形態では、端末装置7は2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔57が設けられる。   The terminal device 7 includes a speaker (speaker 67 shown in FIG. 10) that is an audio output means. As shown in FIG. 8D, a speaker hole 57 is provided on the lower side surface of the housing 50. The output sound of the speaker 67 is output from the speaker hole 57. In the present embodiment, the terminal device 7 includes two speakers, and speaker holes 57 are provided at positions of the left speaker and the right speaker.

また、端末装置7は、他の装置を端末装置7に接続するための拡張コネクタ58を備えている。本実施形態においては、図8の(d)図に示すように、拡張コネクタ58は、ハウジング50の下側側面に設けられる。なお、拡張コネクタ58に接続される他の装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。他の装置を接続する必要がなければ、拡張コネクタ58は設けられていなくともよい。   Further, the terminal device 7 includes an expansion connector 58 for connecting other devices to the terminal device 7. In the present embodiment, the extension connector 58 is provided on the lower side surface of the housing 50 as shown in FIG. Note that any other device connected to the expansion connector 58 may be used. For example, a controller (such as a gun-type controller) used for a specific game or an input device such as a keyboard may be used. If it is not necessary to connect another device, the expansion connector 58 may not be provided.

なお、図8に示した端末装置7に関して、各操作ボタンやハウジング50の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。   In addition, regarding the terminal device 7 shown in FIG. 8, the shape of each operation button and the housing 50, the number of components, the installation position, and the like are merely examples, and other shapes, numbers, and installation positions are included. Also good.

次に、図10を参照して、端末装置7の内部構成について説明する。図10は、端末装置7の内部構成を示すブロック図である。図10に示すように、端末装置7は、図8に示した構成の他、タッチパネルコントローラ61、磁気センサ62、加速度センサ63、ジャイロセンサ64、ユーザインタフェースコントローラ(UIコントローラ)65、コーデックLSI66、スピーカ67、サウンドIC68、マイク69、無線モジュール70、アンテナ71、赤外線通信モジュール72、フラッシュメモリ73、電源IC74、電池75、および、バイブレータ79を備える。これらの電子部品は、電子回路基板上に実装されてハウジング50内に収納される。   Next, the internal configuration of the terminal device 7 will be described with reference to FIG. FIG. 10 is a block diagram showing the internal configuration of the terminal device 7. As shown in FIG. 10, in addition to the configuration shown in FIG. 8, the terminal device 7 includes a touch panel controller 61, a magnetic sensor 62, an acceleration sensor 63, a gyro sensor 64, a user interface controller (UI controller) 65, a codec LSI 66, a speaker. 67, a sound IC 68, a microphone 69, a wireless module 70, an antenna 71, an infrared communication module 72, a flash memory 73, a power supply IC 74, a battery 75, and a vibrator 79. These electronic components are mounted on an electronic circuit board and stored in the housing 50.

UIコントローラ65は、各種の入出力部に対するデータの入出力を制御するための回路である。UIコントローラ65は、タッチパネルコントローラ61、アナログスティック53(アナログスティック53Aおよび53B)、操作ボタン54(各操作ボタン54A〜54L)、マーカ部55、磁気センサ62、加速度センサ63、ジャイロセンサ64、およびバイブレータ79に接続される。また、UIコントローラ65は、コーデックLSI66と拡張コネクタ58に接続される。また、UIコントローラ65には電源IC74が接続され、UIコントローラ65を介して各部に電力が供給される。電源IC74には内蔵の電池75が接続され、電力が供給される。また、電源IC74には、コネクタ等を介して外部電源から電力を取得可能な充電器76またはケーブルを接続することが可能であり、端末装置7は、当該充電器76またはケーブルを用いて外部電源からの電力供給と充電を行うことができる。なお、端末装置7は、図示しない充電機能を有するクレイドルに端末装置7を装着することで充電を行うようにしてもよい。   The UI controller 65 is a circuit for controlling input / output of data to / from various input / output units. The UI controller 65 includes a touch panel controller 61, an analog stick 53 (analog sticks 53A and 53B), operation buttons 54 (operation buttons 54A to 54L), a marker unit 55, a magnetic sensor 62, an acceleration sensor 63, a gyro sensor 64, and a vibrator. 79. The UI controller 65 is connected to the codec LSI 66 and the expansion connector 58. A power supply IC 74 is connected to the UI controller 65, and power is supplied to each unit via the UI controller 65. A built-in battery 75 is connected to the power supply IC 74 to supply power. The power supply IC 74 can be connected to a charger 76 or a cable that can acquire power from an external power supply via a connector or the like, and the terminal device 7 uses the charger 76 or the cable to Power supply and charging from can be performed. The terminal device 7 may be charged by attaching the terminal device 7 to a cradle having a charging function (not shown).

タッチパネルコントローラ61は、タッチパネル52に接続され、タッチパネル52の制御を行う回路である。タッチパネルコントローラ61は、タッチパネル52からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ65へ出力する。タッチ位置データは、タッチパネル52の入力面において入力が行われた位置の座標を表す。なお、タッチパネルコントローラ61は、タッチパネル52からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。また、UIコントローラ65からタッチパネルコントローラ61へは、タッチパネル52に対する各種の制御指示が出力される。   The touch panel controller 61 is a circuit that is connected to the touch panel 52 and controls the touch panel 52. The touch panel controller 61 generates touch position data in a predetermined format based on a signal from the touch panel 52 and outputs it to the UI controller 65. The touch position data represents the coordinates of the position where the input has been performed on the input surface of the touch panel 52. The touch panel controller 61 reads signals from the touch panel 52 and generates touch position data at a rate of once per predetermined time. Various control instructions for the touch panel 52 are output from the UI controller 65 to the touch panel controller 61.

アナログスティック53は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ65へ出力する。また、操作ボタン54は、各操作ボタン54A〜54Lに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ65へ出力する。   The analog stick 53 outputs to the UI controller 65 stick data representing the direction and amount in which the stick unit operated by the user's finger has slid (or tilted). In addition, the operation button 54 outputs operation button data representing an input status (whether or not the button is pressed) to each of the operation buttons 54 </ b> A to 54 </ b> L to the UI controller 65.

磁気センサ62は、磁界の大きさおよび方向を検知することで方位を検出する。検出された方位を示す方位データは、UIコントローラ65へ出力される。また、UIコントローラ65から磁気センサ62へは、磁気センサ62に対する制御指示が出力される。磁気センサ62に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはAMR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができればどのようなものが用いられてもよい。なお、厳密には、地磁気以外に磁界が発生している場所においては、得られた方位データは方位を示さないことになるが、そのような場合であっても、端末装置7が動いた場合には方位データが変化するため、端末装置7の姿勢の変化を算出することができる。   The magnetic sensor 62 detects the azimuth by detecting the magnitude and direction of the magnetic field. The azimuth data indicating the detected azimuth is output to the UI controller 65. Further, a control instruction for the magnetic sensor 62 is output from the UI controller 65 to the magnetic sensor 62. For the magnetic sensor 62, an MI (magnetic impedance) element, a fluxgate sensor, a Hall element, a GMR (giant magnetoresistance) element, a TMR (tunnel magnetoresistance) element, an AMR (anisotropic magnetoresistance) element, or the like was used. Although there is a sensor, any sensor may be used as long as it can detect the direction. Strictly speaking, in a place where a magnetic field is generated in addition to the geomagnetism, the obtained azimuth data does not indicate the azimuth, but even in such a case, the terminal device 7 moves. Since the orientation data changes, the change in the attitude of the terminal device 7 can be calculated.

加速度センサ63は、ハウジング50の内部に設けられ、3軸(図8の(a)図に示すxyz軸)方向に沿った直線加速度の大きさを検出する。具体的には、加速度センサ63は、ハウジング50の長辺方向をx軸、ハウジング50の短辺方向をy軸、ハウジング50の表面に対して垂直な方向をz軸として、各軸の直線加速度の大きさを検出する。検出された加速度を表す加速度データはUIコントローラ65へ出力される。また、UIコントローラ65から加速度センサ63へは、加速度センサ63に対する制御指示が出力される。加速度センサ63は、本実施形態では例えば静電容量式のMEMS型加速度センサであるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよい。また、加速度センサ63は1軸または2軸方向を検出する加速度センサであってもよい。   The acceleration sensor 63 is provided inside the housing 50 and detects the magnitude of linear acceleration along the direction of three axes (xyz axes shown in FIG. 8A). Specifically, the acceleration sensor 63 is configured such that the long side direction of the housing 50 is the x axis, the short side direction of the housing 50 is the y axis, and the direction perpendicular to the surface of the housing 50 is the z axis. Detect the size of. Acceleration data representing the detected acceleration is output to the UI controller 65. Further, a control instruction for the acceleration sensor 63 is output from the UI controller 65 to the acceleration sensor 63. The acceleration sensor 63 is, for example, a capacitive MEMS acceleration sensor in the present embodiment, but other types of acceleration sensors may be used in other embodiments. Further, the acceleration sensor 63 may be an acceleration sensor that detects a uniaxial or biaxial direction.

ジャイロセンサ64は、ハウジング50の内部に設けられ、上記x軸、y軸およびz軸の3軸周りの角速度を検出する。検出された角速度を表す角速度データは、UIコントローラ65へ出力される。また、UIコントローラ65からジャイロセンサ64へは、ジャイロセンサ64に対する制御指示が出力される。なお、3軸の角速度を検出するために用いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイロセンサ64はジャイロセンサ48と同様、2軸ジャイロセンサと1軸ジャイロセンサとで構成されてもよい。また、ジャイロセンサ64は1軸または2軸方向を検出するジャイロセンサであってもよい。   The gyro sensor 64 is provided inside the housing 50 and detects angular velocities around the three axes of the x axis, the y axis, and the z axis. Angular velocity data representing the detected angular velocity is output to the UI controller 65. Further, a control instruction for the gyro sensor 64 is output from the UI controller 65 to the gyro sensor 64. Any number and combination of gyro sensors may be used for detecting the three-axis angular velocity, and the gyro sensor 64 is similar to the gyro sensor 48 in that a two-axis gyro sensor, a one-axis gyro sensor, It may be constituted by. Further, the gyro sensor 64 may be a gyro sensor that detects a uniaxial or biaxial direction.

バイブレータ79は、例えば振動モータやソレノイドであり、UIコントローラ65に接続される。UIコントローラ65の指示によりバイブレータ79が作動することによって端末装置7に振動が発生する。これによって、端末装置7を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。   The vibrator 79 is a vibration motor or a solenoid, for example, and is connected to the UI controller 65. The terminal 79 is vibrated by the operation of the vibrator 79 according to the instruction from the UI controller 65. Thereby, it is possible to realize a so-called vibration-compatible game in which the vibration is transmitted to the user's hand holding the terminal device 7.

UIコントローラ65は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む操作データをコーデックLSI66に出力する。なお、拡張コネクタ58を介して端末装置7に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操作データにさらに含まれていてもよい。   The UI controller 65 outputs operation data including touch position data, stick data, operation button data, azimuth data, acceleration data, and angular velocity data received from each component described above to the codec LSI 66. When another device is connected to the terminal device 7 via the extension connector 58, the operation data may further include data representing an operation on the other device.

コーデックLSI66は、ゲーム装置3へ送信するデータに対する圧縮処理、および、ゲーム装置3から送信されたデータに対する伸張処理を行う回路である。コーデックLSI66には、LCD51、カメラ56、サウンドIC68、無線モジュール70、フラッシュメモリ73、および赤外線通信モジュール72が接続される。また、コーデックLSI66はCPU77と内部メモリ78を含む。端末装置7はゲーム処理自体を行なわない構成であるが、端末装置7の管理や通信のための最小限のプログラムを実行する必要がある。電源投入時にフラッシュメモリ73に格納されたプログラムを内部メモリ78に読み出してCPU77が実行することで、端末装置7が起動する。また、内部メモリ78の一部の領域はLCD51のためのVRAMとして使用される。   The codec LSI 66 is a circuit that performs compression processing on data transmitted to the game apparatus 3 and expansion processing on data transmitted from the game apparatus 3. Connected to the codec LSI 66 are an LCD 51, a camera 56, a sound IC 68, a wireless module 70, a flash memory 73, and an infrared communication module 72. The codec LSI 66 includes a CPU 77 and an internal memory 78. Although the terminal device 7 is configured not to perform the game process itself, it is necessary to execute a minimum program for management and communication of the terminal device 7. When the power is turned on, the program stored in the flash memory 73 is read into the internal memory 78 and executed by the CPU 77, whereby the terminal device 7 is activated. A part of the internal memory 78 is used as a VRAM for the LCD 51.

カメラ56は、ゲーム装置3からの指示に従って画像を撮像し、撮像した画像データをコーデックLSI66へ出力する。また、コーデックLSI66からカメラ56へは、画像の撮像指示等、カメラ56に対する制御指示が出力される。なお、カメラ56は動画の撮影も可能である。すなわち、カメラ56は、繰り返し撮像を行って画像データをコーデックLSI66へ繰り返し出力することも可能である。   The camera 56 captures an image in accordance with an instruction from the game apparatus 3 and outputs the captured image data to the codec LSI 66. Control instructions for the camera 56 such as an image capturing instruction are output from the codec LSI 66 to the camera 56. Note that the camera 56 can also capture moving images. That is, the camera 56 can repeatedly capture images and repeatedly output image data to the codec LSI 66.

サウンドIC68は、スピーカ67およびマイク69に接続され、スピーカ67およびマイク69への音声データの入出力を制御する回路である。すなわち、コーデックLSI66から音声データを受け取った場合、サウンドIC68は当該音声データに対してD/A変換を行って得られる音声信号をスピーカ67へ出力し、スピーカ67から音を出力させる。また、マイク69は、端末装置7に伝わる音(ユーザの音声等)を検知して、当該音を示す音声信号をサウンドIC68へ出力する。サウンドIC68は、マイク69からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI66へ出力する。   The sound IC 68 is a circuit that is connected to the speaker 67 and the microphone 69 and controls input / output of audio data to and from the speaker 67 and the microphone 69. That is, when audio data is received from the codec LSI 66, the sound IC 68 outputs an audio signal obtained by performing D / A conversion on the audio data to the speaker 67 and causes the speaker 67 to output sound. The microphone 69 detects a sound (such as a user's voice) transmitted to the terminal device 7 and outputs a sound signal indicating the sound to the sound IC 68. The sound IC 68 performs A / D conversion on the audio signal from the microphone 69 and outputs audio data in a predetermined format to the codec LSI 66.

赤外線通信モジュール72は、赤外線信号を発光し、他の装置との間で赤外線通信を行う。ここでは、赤外線通信モジュール72は、例えばIrDAの規格に従った赤外線通信を行う機能と、テレビ2を制御するための赤外線信号を出力する機能とを備える。   The infrared communication module 72 emits an infrared signal and performs infrared communication with other devices. Here, the infrared communication module 72 has a function of performing infrared communication in accordance with, for example, the IrDA standard and a function of outputting an infrared signal for controlling the television 2.

コーデックLSI66は、カメラ56からの画像データと、マイク69からの音声データと、UIコントローラ65からの端末操作データとを無線モジュール70を介してゲーム装置3へ送信する。本実施形態では、コーデックLSI66は、画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。上記端末操作データ、ならびに、圧縮された画像データおよび音声データは、送信データとして無線モジュール70に出力される。無線モジュール70にはアンテナ71が接続されており、無線モジュール70はアンテナ71を介してゲーム装置3へ上記送信データを送信する。無線モジュール70は、ゲーム装置3の端末通信モジュール28と同様の機能を有している。すなわち、無線モジュール70は、例えばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。送信されるデータは必要に応じて暗号化されていてもよいし、されていなくともよい。   The codec LSI 66 transmits the image data from the camera 56, the audio data from the microphone 69, and the terminal operation data from the UI controller 65 to the game apparatus 3 via the wireless module 70. In the present embodiment, the codec LSI 66 performs the same compression processing as the codec LSI 27 on the image data and the audio data. The terminal operation data and the compressed image data and audio data are output to the wireless module 70 as transmission data. An antenna 71 is connected to the wireless module 70, and the wireless module 70 transmits the transmission data to the game apparatus 3 via the antenna 71. The wireless module 70 has the same function as the terminal communication module 28 of the game apparatus 3. That is, the wireless module 70 has a function of connecting to a wireless LAN by a method compliant with, for example, the IEEE 802.11n standard. The data to be transmitted may or may not be encrypted as necessary.

以上のように、端末装置7からゲーム装置3へ送信される送信データには、操作データ(端末操作データ)、画像データ、および音声データが含まれる。なお、拡張コネクタ58を介して端末装置7に他の装置が接続される場合には、当該他の装置から受け取ったデータが上記送信データにさらに含まれていてもよい。コーデックLSI66は、赤外線通信モジュール72による赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲーム装置3へ送信してもよい。   As described above, the transmission data transmitted from the terminal device 7 to the game apparatus 3 includes operation data (terminal operation data), image data, and audio data. When another device is connected to the terminal device 7 via the extension connector 58, the data received from the other device may be further included in the transmission data. The codec LSI 66 may transmit the data received by the infrared communication by the infrared communication module 72 to the game apparatus 3 by including the data in the transmission data as necessary.

また、上述のように、ゲーム装置3から端末装置7へは、圧縮された画像データおよび音声データが送信される。これらのデータはアンテナ71および無線モジュール70を介してコーデックLSI66に受信される。コーデックLSI66は、受信した画像データおよび音声データを伸張する。伸張された画像データはLCD51へ出力され、画像がLCD51に表示される。また、伸張された音声データはサウンドIC68へ出力され、サウンドIC68はスピーカ67から音を出力させる。   Further, as described above, compressed image data and audio data are transmitted from the game apparatus 3 to the terminal apparatus 7. These data are received by the codec LSI 66 via the antenna 71 and the wireless module 70. The codec LSI 66 decompresses the received image data and audio data. The expanded image data is output to the LCD 51, and the image is displayed on the LCD 51. The expanded audio data is output to the sound IC 68, and the sound IC 68 outputs sound from the speaker 67.

また、ゲーム装置3から受信されるデータに制御データが含まれる場合、コーデックLSI66およびUIコントローラ65は、制御データに従った制御指示を各部に行う。上述のように、制御データは、端末装置7が備える各構成要素(本実施形態では、カメラ56、タッチパネルコントローラ61、マーカ部55、各センサ62〜64、赤外線通信モジュール72、およびバイブレータ79)に対する制御指示を表すデータである。本実施形態では、制御データが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させたりする指示が考えられる。すなわち、ゲームで使用しない構成要素については電力消費を抑えるために休止させてもよく、その場合、端末装置7からゲーム装置3へ送信される送信データには、休止した構成要素からのデータが含まれないようにする。なお、マーカ部55は赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。   When the control data is included in the data received from the game apparatus 3, the codec LSI 66 and the UI controller 65 issue a control instruction to each unit according to the control data. As described above, the control data is for each component included in the terminal device 7 (in this embodiment, the camera 56, the touch panel controller 61, the marker unit 55, the sensors 62 to 64, the infrared communication module 72, and the vibrator 79). Data representing a control instruction. In the present embodiment, as the control instruction represented by the control data, an instruction to operate each of the above components or to stop (stop) the operation can be considered. That is, components that are not used in the game may be paused in order to reduce power consumption. In that case, the transmission data transmitted from the terminal device 7 to the game device 3 includes data from the paused components. Do not let it. In addition, since the marker part 55 is infrared LED, control may just be ON / OFF of supply of electric power.

また、ゲーム装置3は、上記赤外線通信モジュール72の出力を制御することによって、テレビ2の動作を制御することが可能である。すなわち、ゲーム装置3は、テレビ2を制御するための制御指令に対応する赤外線信号を赤外線通信モジュール72に出力させるための指示(上記制御データ)を端末装置7に出力する。この指示に応じて、コーデックLSI66は、上記制御指令に対応する赤外線信号を赤外線通信モジュール72に出力させる。ここで、テレビ2は赤外線信号を受光可能な赤外線受光部を備えている。赤外線通信モジュール72から出力された赤外線信号が赤外線受光部によって受光されることで、テレビ2は当該赤外線信号に応じた動作を行う。なお、ゲーム装置3からの上記指示は、赤外線信号のパターンを示すものであってもよいし、端末装置7が赤外線信号のパターンを記憶している場合には、当該パターンを示す指示であってもよい。   In addition, the game apparatus 3 can control the operation of the television 2 by controlling the output of the infrared communication module 72. That is, the game apparatus 3 outputs an instruction (the control data) for causing the infrared communication module 72 to output an infrared signal corresponding to a control command for controlling the television 2 to the terminal apparatus 7. In response to this instruction, the codec LSI 66 causes the infrared communication module 72 to output an infrared signal corresponding to the control command. Here, the television 2 includes an infrared light receiving unit capable of receiving an infrared signal. When the infrared signal output from the infrared communication module 72 is received by the infrared light receiving unit, the television 2 performs an operation according to the infrared signal. The instruction from the game apparatus 3 may indicate an infrared signal pattern, or when the terminal device 7 stores an infrared signal pattern, the instruction indicates the pattern. Also good.

以上のように、端末装置7は、タッチパネル52、アナログスティック53、および操作ボタン54といった操作手段を備えるが、他の実施形態においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。   As described above, the terminal device 7 includes operation means such as the touch panel 52, the analog stick 53, and the operation button 54. However, in other embodiments, instead of these operation means or together with these operation means. The configuration may include other operation means.

また、端末装置7は、端末装置7の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ62、加速度センサ63、およびジャイロセンサ64を備えるが、他の実施形態においては、これらのセンサのうち1つまたは2つのみを備える構成であってもよい。また、他の実施形態においては、これらのセンサに代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。   The terminal device 7 includes a magnetic sensor 62, an acceleration sensor 63, and a gyro sensor 64 as sensors for calculating the movement of the terminal device 7 (including changes in position and orientation, or position and orientation). In other embodiments, the configuration may include only one or two of these sensors. Moreover, in other embodiment, it may replace with these sensors or the structure provided with another sensor with these sensors may be sufficient.

また、端末装置7は、カメラ56およびマイク69を備える構成であるが、他の実施形態においては、カメラ56およびマイク69を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。   Moreover, although the terminal device 7 is a structure provided with the camera 56 and the microphone 69, in other embodiment, it does not need to be provided with the camera 56 and the microphone 69, and may be provided only with either one. Good.

また、端末装置7は、端末装置7とコントローラ5との位置関係(コントローラ5から見た端末装置7の位置および/または姿勢等)を算出するための構成としてマーカ部55を備える構成であるが、他の実施形態ではマーカ部55を備えていない構成としてもよい。また、他の実施形態では、端末装置7は、上記位置関係を算出するための構成として他の手段を備えていてもよい。例えば、他の実施形態においては、コントローラ5がマーカ部を備え、端末装置7が撮像素子を備える構成としてもよい。さらにこの場合、マーカ装置6は赤外LEDに代えて、撮像素子を備える構成としてもよい。   Further, the terminal device 7 is configured to include the marker unit 55 as a configuration for calculating the positional relationship between the terminal device 7 and the controller 5 (the position and / or orientation of the terminal device 7 viewed from the controller 5). In other embodiments, the marker unit 55 may not be provided. In another embodiment, the terminal device 7 may include other means as a configuration for calculating the positional relationship. For example, in another embodiment, the controller 5 may include a marker unit, and the terminal device 7 may include an image sensor. Furthermore, in this case, the marker device 6 may be configured to include an imaging element instead of the infrared LED.

[5.コンテンツの再生]
次に、ゲームシステム1において実行されるコンテンツ再生の動作について説明する。ゲームシステム1は、テレビ2と端末装置7という2つの表示装置を用いることによって、インターネット等のネットワークから取得されるコンテンツ等を、見やすく、操作しやすいようにユーザに提供するものである。
[5. Content playback]
Next, the content reproduction operation executed in the game system 1 will be described. The game system 1 provides the user with content and the like acquired from a network such as the Internet by using two display devices such as a television 2 and a terminal device 7 so that the content is easy to see and operate.

図11は、ゲームシステム1と外部装置との接続関係と示すブロック図である。図11に示すように、ゲームシステム1におけるゲーム装置3は、ネットワーク90を介して外部装置91と通信可能である。ネットワーク90は、インターネット等の任意の通信ネットワークである。外部装置91は、典型的には、コンテンツ(動画や静止画等)の提供サイトまたはコンテンツ検索サイト(例えば、動画が蓄積されたサイト、または、動画を検索するためのサイト)である。ゲーム装置3は、ネットワーク90を介して外部装置91から取得した情報に基づいて、再生するコンテンツを指定するためのユーザインターフェースを構築する。より具体的には、当該情報に基づいて、ユーザインターフェース用画像(以下、UI用画像と呼ぶ)を生成する。より具体的には、ゲーム装置3は、外部装置9からWebページ情報を取得して、このUI用画像を生成する。UI用画像は、具体的には、以下を例として挙げることができる。
・再生候補となるコンテンツの一覧の画像
・コンテンツを検索する条件(キーワードなど)の入力のための画像
検索結果の一覧の画像の画像
UI用画像は端末装置7に表示される。なお、後述のように、UI画像はテレビ2に表示されることもある。
また、ゲーム装置3は、外部装置9から取得したWebページ情報に基づいて、UI用画像を生成するだけでなく、タッチパネルやそのほかの入力部からの入力を受け付けてそれに応じた処理を実行するなどして再生するコンテンツを指定するための入出力制御をおこなう。
FIG. 11 is a block diagram showing a connection relationship between the game system 1 and an external device. As shown in FIG. 11, the game device 3 in the game system 1 can communicate with an external device 91 via a network 90. The network 90 is an arbitrary communication network such as the Internet. The external device 91 is typically a content providing site (such as a moving image or a still image) or a content search site (for example, a site where moving images are stored or a site for searching for moving images). The game apparatus 3 constructs a user interface for designating content to be reproduced based on information acquired from the external apparatus 91 via the network 90. More specifically, a user interface image (hereinafter referred to as a UI image) is generated based on the information. More specifically, the game apparatus 3 acquires Web page information from the external apparatus 9 and generates this UI image. Specifically, the UI image can be exemplified as follows.
-Images of a list of contents as candidates for reproduction-Images of images of a list of image search results for inputting conditions (keywords, etc.) for searching for contents Images for UI are displayed on the terminal device 7. As will be described later, the UI image may be displayed on the television 2.
Further, the game apparatus 3 not only generates a UI image based on the Web page information acquired from the external apparatus 9, but also receives an input from a touch panel or other input unit and executes a process corresponding thereto. And input / output control for designating the content to be played.

端末装置7においてUI用画像を表示しつつユーザが再生すべきコンテンツを指定すると、ゲーム装置3は、外部装置91または他のサーバから、指定されたコンテンツを取得する。そして、取得したコンテンツが再生処理され、再生画像がテレビ2に表示される。   When the user designates content to be reproduced while displaying the UI image on the terminal device 7, the game device 3 acquires the designated content from the external device 91 or another server. Then, the acquired content is subjected to playback processing, and the playback image is displayed on the television 2.

このように、端末装置7は、再生するコンテンツを指定するための端末として使うことができるが、コンテンツを視聴するための端末として使うこともできる。前者を検索モードと呼び、後者を再生モードと呼ぶ。なお、本明細書において検索とは、キーワードなどを入力して検索結果を得ることだけでなく、単にコンテンツの一覧から希望のものを探すことを含む。   As described above, the terminal device 7 can be used as a terminal for designating the content to be reproduced, but can also be used as a terminal for viewing the content. The former is called a search mode, and the latter is called a playback mode. In this specification, the search includes not only obtaining a search result by inputting a keyword or the like but also simply searching for a desired item from a list of contents.

上記再生モードは、端末装置7の画面上にテレビ2と同じコンテンツを表示するモードである。一方、上記検索モードは端末装置7の画面上に上述のようなWebページを表示して、次に再生するコンテンツを指定するモードである。後述の実施例では、再生モード時にはWebページを表示せずにコンテンツの再生画像を表示し、検索モード時にはWebページを表示してコンテンツの再生画像を表示しないようにしたが、変形例としては、再生モード時にWebページを小さく表示してもよい。より具体的には、再生モード時には、Webページはコンテンツの再生画像よりも小さく表示する、または、再生モード時のWebページを検索モード時のWebページの表示サイズよりも小さく表示するようにしてもよい。また、検索モード時にコンテンツ再生画像を小さく表示してもよい。より具体的には、検索モード時にコンテンツ再生画像をWebページ画像よりも小さく表示する、または、検索モード時のコンテンツ再生画像を再生モード時の再生画像の表示サイズよりも小さく表示するようにしてもよい。すなわち、再生モード時には、現在再生中のコンテンツを見るのに適した表示とし、検索モード時には、次に再生すべきコンテンツを指定するのに適した表示としてもよい。 The playback mode is a mode for displaying the same content as the television 2 on the screen of the terminal device 7. On the other hand, the search mode is a mode in which the Web page as described above is displayed on the screen of the terminal device 7 and the content to be reproduced next is designated. In the embodiment described later, the playback image of the content is displayed without displaying the web page in the playback mode, and the playback image of the content is not displayed by displaying the web page in the search mode. The Web page may be displayed in a small size in the playback mode. More specifically, in the playback mode, the Web page is displayed smaller than the playback image of the content, or the Web page in the playback mode is displayed smaller than the display size of the Web page in the search mode. Good. Further, the content reproduction image may be displayed in a small size in the search mode. More specifically, the content playback image is displayed smaller than the Web page image in the search mode, or the content playback image in the search mode is displayed smaller than the display size of the playback image in the playback mode. Good. That is, in the playback mode, the display may be suitable for viewing the currently played content, and in the search mode, the display may be suitable for designating the content to be played next.

端末装置7は、コンテンツの再生中において、再生モードと検索モードとを任意のタイミングで何度も切り替えることができる。それゆえ、コンテンツの再生中において端末装置7を検索モードにすることにより、他の人がテレビ2でコンテンツを楽しんでいる最中に、端末装置7を用いて次に再生するコンテンツを指定することができる。また、そのようにして検索モードにおいて次に再生するコンテンツを指定した後、コンテンツの再生が継続していれば、再度、再生モードに変更して、端末装置7にコンテンツの再生画像を表示して他の人がテレビ2で楽しんでいるコンテンツを一緒に楽しむことができる。なお、端末装置7が検索モードに移行した後も、テレビ2ではコンテンツの再生が継続される。また、端末装置7が一旦検索モードに移行した後再度再生モードに復帰したときには、端末装置7に表示される再生画像はテレビ2の再生画像と同期した内容が表示される(すなわち、同じ場面、同じフレームが表示される)。すなわち、端末装置7を再生モードで用いる場合、テレビ2および端末装置7の動画再生は同期する。すなわち、テレビ2上の動画と端末装置7上の動画は同じ場面、同じフレームが表示される。   The terminal device 7 can switch the reproduction mode and the search mode many times at an arbitrary timing during the reproduction of the content. Therefore, by setting the terminal device 7 in the search mode during the reproduction of the content, the content to be reproduced next is specified using the terminal device 7 while another person is enjoying the content on the television 2. Can do. In addition, after the content to be reproduced next in the search mode is designated in this way, if the reproduction of the content is continued, the reproduction mode of the content is displayed again on the terminal device 7 by changing to the reproduction mode again. You can enjoy the content that other people are enjoying on the TV 2 together. Even after the terminal device 7 shifts to the search mode, the reproduction of content is continued on the television 2. Further, when the terminal device 7 once shifts to the search mode and then returns to the playback mode, the playback image displayed on the terminal device 7 displays the contents synchronized with the playback image of the television 2 (that is, the same scene, The same frame is displayed). That is, when the terminal device 7 is used in the playback mode, the video playback of the television 2 and the terminal device 7 is synchronized. That is, the same scene and the same frame are displayed on the moving image on the television 2 and the moving image on the terminal device 7.

上述のような構成により、端末装置7の操作者は、他の人がテレビ2で視聴するコンテンツを決める裏方的な役割と、他の人と一緒にコンテンツを楽しむ立場とを任意のタイミングで自由に切り替えることができる。 With the configuration as described above, the operator of the terminal device 7 can freely play the role of the other side who decides the content that other people view on the TV 2 and the position of enjoying the content together with other people at any timing. You can switch to

より具体的には、本実施例において、テレビ2および端末装置7には、図12から図18に示すような画像が表示される。   More specifically, in the present embodiment, images as shown in FIGS. 12 to 18 are displayed on the television 2 and the terminal device 7.

図12は、コンテンツが再生されていない状態において、テレビ2および端末装置7(の画面51)に表示される画像である。コンテンツが再生されていない状態のとき、端末装置7は検索モードに設定される。ゲーム装置3は動画サイトからWebページデータを取得し、Webページ画像100を生成して、テレビ2と端末装置7に表示する。このとき、本実施例では、Webページ画像が全画面表示される。このWebページ画像101には、再生するコンテンツを指定するためのUI用画像が含まれる。具体的には、本実施例においては、Webページ画像100には動画サイトから取得可能なコンテンツのサムネイル101の一覧が含まれる。なお、ゲーム装置3は、動画サイトから取得したWebページデータに基づいて、入力制御もおこなう。   FIG. 12 is an image displayed on the television 2 and the terminal device 7 (the screen 51 thereof) in a state where the content is not reproduced. When the content is not reproduced, the terminal device 7 is set to the search mode. The game apparatus 3 acquires Web page data from the moving image site, generates a Web page image 100, and displays it on the television 2 and the terminal device 7. At this time, in this embodiment, the Web page image is displayed on the full screen. The web page image 101 includes a UI image for designating content to be reproduced. Specifically, in the present embodiment, the Web page image 100 includes a list of thumbnails 101 of content that can be acquired from the moving image site. Note that the game apparatus 3 also performs input control based on the Web page data acquired from the video site.

端末装置7には動画サイトから取得されるWebページ画像100の他に、インターネットブラウザとしての各種機能を実行するための種々のボタン群102が表示される。ボタン群102に含まれる各ボタンは、タッチ入力されたときに、たとえば以下のような機能を有する。

戻るボタン:閲覧履歴の一つ前にサイトを表示
進むボタン:閲覧履歴の一つ先のサイトを表示
拡大/縮小ボタン :表示中サイトの拡大/縮小表示する
お気に入りボタン:お気に入り一覧の表示/編集/追加
リロードボタン :表示中サイトの再読み込み
タブボタン :開いているタブ一覧画面を表示
テレビ表示ストップボタン:Webページ画像のテレビ2への表示を一時的に非表示にする
メニューボタン :各種メニュー一覧を表示

なお、ボタン群102はテレビ2には表示されない。
The terminal device 7 displays various button groups 102 for executing various functions as an Internet browser, in addition to the Web page image 100 acquired from the moving image site. Each button included in the button group 102 has the following functions, for example, when touch input is performed.

Back button: Displays the site before the browsing history Forward button: Displays the next site in the browsing history Zoom in / zoom out button: Expands / reduces the displayed site Favorites button: Displays / edits the favorites list Additional reload button: Reloading the displayed site tab button: Displaying the opened tab list screen TV display stop button: Menu button for temporarily hiding the display of the Web page image on the TV 2: List of various menus display

The button group 102 is not displayed on the television 2.

上述の通り、テレビ2と端末装置7には同じWebページが表示されるが、上述のテレビ表示ストップボタンは、端末装置7を用いてパスワードを入力するときなどテレビ2を見ている人に見られたくないシーンや、コンテンツを指定している過程を見られたくない時に使う機能である。このボタンを選択することにより(より具体的にはタッチ操作することにより)、テレビ2上のWebページ画像100は非表示となり、代わりに、所定のメッセージや演出画像が表示される。テレビ表示ストップボタンを操作する毎に、テレビ2にWebページ画像100を表示するモード(テレビ表示モード)と、テレビ2にWebページ画像100を表示しないモード(テレビ非表示モード)との間で切替を繰り返す。なお、テレビ表示モードに設定されているときであっても、コンテンツの再生中は、テレビ2には、コンテンツの再生画像が表示され、Webページ画像100は表示されない。 As described above, the same web page is displayed on the television 2 and the terminal device 7, but the above-described television display stop button is viewed by a person watching the television 2 such as when a password is input using the terminal device 7. This function is used when you do not want to see scenes that you do not want to see or the process of specifying content. By selecting this button (more specifically, by performing a touch operation), the Web page image 100 on the television 2 is hidden, and a predetermined message or effect image is displayed instead. Each time the TV display stop button is operated, the mode is switched between a mode in which the Web page image 100 is displayed on the TV 2 (TV display mode) and a mode in which the Web page image 100 is not displayed on the TV 2 (TV non-display mode). repeat. Even when the television display mode is set, while the content is being reproduced, the reproduction image of the content is displayed on the television 2 and the web page image 100 is not displayed.

また、端末装置7の画面上でスライドタッチをするとWebページ画像100をスクロールさせることが可能である。このときテレビ側のWebページ画像100も同様にスクロールする。 Further, when the slide touch is performed on the screen of the terminal device 7, the web page image 100 can be scrolled. At this time, the Web page image 100 on the television side is similarly scrolled.

また、端末装置7は、上記ボタン群102による機能に加えて、タッチパネル、十字キー、スライドスティック、ジャイロ機能を用いて、Webページ内のテキストや画像などのデータを選択したり、Webページ画像100を縦横スクロール、拡大縮小することができる。また、テレビ2の表示内容も変更できる。さらに、URLなどのテキスト入力を行うことができる。 Further, in addition to the function of the button group 102, the terminal device 7 uses a touch panel, a cross key, a slide stick, and a gyro function to select data such as text and images in the Web page, and the Web page image 100. Can be scrolled vertically and horizontally. Further, the display content of the television 2 can be changed. Furthermore, text input such as a URL can be performed.

なお、ボタン群102やスライドタッチによるWebページ画像のスクロール機能などは、(動画サイトから取得されるWebページ情報ではなく)ゲーム装置内に記憶されるブラウザプログラムにより実現される。   Note that the scroll function of the web page image by the button group 102 and the slide touch is realized by a browser program stored in the game device (not the web page information acquired from the moving image site).

端末装置7に表示されたWebページ画像100上でコンテンツのサムネイルをタッチすることにより再生するコンテンツが指定される。例えば、図12においては、コンテンツAのサムネイルがタッチされた状態を示す。コンテンツのサムネイルがタッチされると、図13に示すように、指定されたコンテンツの静止画108(例えば、サムネイルの拡大画像や動画の先頭フレームの画像)が端末装置7に表示される。この状態において、端末装置7の画面上で(または当該静止画上で)上方向にスライドタッチをすると(またはスライドタッチした後タッチオフすると)、コンテンツの再生が開始され、図14に示すように、テレビ2および端末装置7の両方でコンテンツの再生画像107が表示される。このとき、端末装置7は自動的に再生モードに移行する。なお、このとき、本実施例では、テレビ2では、再生画像107が全画面表示される。また、本実施例では、テレビ2には、後述の再生制御UI103は表示されない。   The content to be reproduced is specified by touching the thumbnail of the content on the Web page image 100 displayed on the terminal device 7. For example, FIG. 12 shows a state where a thumbnail of content A is touched. When the thumbnail of the content is touched, as shown in FIG. 13, the still image 108 of the specified content (for example, an enlarged image of the thumbnail or an image of the first frame of the moving image) is displayed on the terminal device 7. In this state, when a slide touch is performed on the screen of the terminal device 7 (or on the still image) (or when the touch-off is performed after the slide touch), content reproduction is started, as shown in FIG. A reproduced image 107 of the content is displayed on both the television 2 and the terminal device 7. At this time, the terminal device 7 automatically shifts to the reproduction mode. At this time, in the present embodiment, the reproduced image 107 is displayed on the full screen on the television 2. In the present embodiment, a reproduction control UI 103 described later is not displayed on the television 2.

このように端末装置7上にコンテンツを静止状態で表示しておき、上方向へのスライドタッチをきっかけにして、テレビ2上で再生開始することにより、端末装置7に存在するコンテンツがテレビ2に飛んで行って再生されるかのようなユーザ体験を提供できる。なお、単に、コンテンツのサムネイルをタッチすることによりコンテンツの再生を開始してもよい。 In this way, the content is displayed in a stationary state on the terminal device 7, and the content existing in the terminal device 7 is displayed on the television 2 by starting the reproduction on the television 2 triggered by the upward sliding touch. It can provide a user experience as if it were flying and played. Note that the playback of the content may be started simply by touching the thumbnail of the content.

図13に示すように、再生モードにおいて、端末装置7の画面の下端(コンテンツの再生画像107の下方)には再生制御UI103(早送り/巻き戻し/スキップ/一時停止)が表示される。再生制御UI103は、本実施例においては、バー状のUIであり、バーの色の変化により、コンテンツ全体のうちの再生済の部分と未再生の部分との割合が示される。また、バーの任意の箇所や再生済と未再生の境界のマーカーをタッチ操作することにより早送りなどの制御が可能である。再生制御UI103は再生中の動画のうちどの程度再生が終了しているかを示す機能も有する。さらに、再生モードにおいて、端末装置7には、コンテンツの再生を終了するためのボタン104、および、端末装置7を再生モードから検索モードにするためのボタン105が表示され、これらのUIやボタンをタッチすることにより対応する処理が実行される。 As shown in FIG. 13, in the playback mode, a playback control UI 103 (fast forward / rewind / skip / pause) is displayed at the lower end of the screen of the terminal device 7 (below the playback image 107 of the content). In the present embodiment, the playback control UI 103 is a bar-like UI, and the ratio of the reproduced part and the unreproduced part of the entire content is indicated by the change in the color of the bar. In addition, it is possible to perform control such as fast-forwarding by touching an arbitrary portion of the bar or a marker between the reproduced and unreproduced boundaries. The playback control UI 103 also has a function indicating how much playback has been completed among the moving images being played back. Further, in the playback mode, the terminal device 7 displays a button 104 for ending the playback of the content and a button 105 for switching the terminal device 7 from the playback mode to the search mode. Corresponding processing is executed by touching.

再生制御UI103や、ボタン104、105の機能は、(動画サイトから取得されるWebページ情報ではなく)ゲーム装置内に記憶されるブラウザプログラムにより実現される。   The functions of the playback control UI 103 and the buttons 104 and 105 are realized by a browser program stored in the game device (not Web page information acquired from the moving image site).

図15は、コンテンツの再生中における、再生モードから検索モードへの移行、または、検索モードから再生モードへの移行を示す図である。再生モードから検索モードへの移行は、上述したように、ボタン105へのタッチによっても実行されるが、それに加えて、端末装置7の画面上で(またはコンテンツの再生画像上で)上方向にスライドタッチする(またはスライドタッチした後タッチオフする)ことによっても、端末装置7は再生モードから検索モードに移行する。また、コンテンツ再生中の検索モード時には、図15に示すようにボタン106が表示され、検索モードから再生モードへの移行は、ボタン106をタッチすることによって実行される。   FIG. 15 is a diagram illustrating a transition from the playback mode to the search mode or a transition from the search mode to the playback mode during content playback. As described above, the transition from the playback mode to the search mode is also performed by touching the button 105, but in addition to that, on the screen of the terminal device 7 (or on the playback image of the content) The terminal device 7 also shifts from the playback mode to the search mode by sliding touching (or touching off after sliding touching). In the search mode during content playback, a button 106 is displayed as shown in FIG. 15, and the transition from the search mode to the playback mode is performed by touching the button 106.

図15に示すように、再生モードから検索モードへの移行が指示されたとき、端末装置7の画面では、コンテンツの再生画像107が徐々に上方向にスライドアウトして消失し、Webページ画像100が徐々に出現する。また、検索モードから再生モードへの移行が指示されたときには、コンテンツの再生画像107が徐々に上方向からスライドインして出現する。   As shown in FIG. 15, when a transition from the playback mode to the search mode is instructed, the playback image 107 of the content gradually slides upward in the screen of the terminal device 7 and disappears, and the Web page image 100 Gradually appears. Further, when an instruction to shift from the search mode to the reproduction mode is given, the reproduction image 107 of the content gradually slides in from the upper direction and appears.

コンテンツ再生中において、検索モードに移行すると、図16に示すように、端末装置7にはWebページ画像100に加えて、再生制御UI103が表示される。再生制御UI103は、再生モード時には、図14で示したように、画面の下端、または、コンテンツ再生画像の下方に表示されるが、検索モード時には、図16で示すように、画面の上端、または、Webページの上方に表示される。   When the search mode is shifted during content reproduction, a reproduction control UI 103 is displayed on the terminal device 7 in addition to the Web page image 100 as shown in FIG. In the playback mode, the playback control UI 103 is displayed at the bottom of the screen or below the content playback image as shown in FIG. 14, but in the search mode, the playback control UI 103 is displayed at the top of the screen, as shown in FIG. Displayed above the Web page.

コンテンツ再生中の検索モードにおいても、コンテンツ非再生時の検索モード(図12)と同様、Webページ中のサムネイルなどを指定することによって再生するコンテンツを指定することができる。図16では、映像コンテンツKのサムネイルをタッチした状態を示している。コンテンツのサムネイルをタッチすると(または、図13を用いて前述したような上方向へのスライドタッチをすると)、図14で示したものと同様、テレビ2および端末装置7の両方において、タッチしたコンテンツ(映像コンテンツK)の再生が開始される。このとき、端末装置7は自動的に再生モードに移行する。   Also in the search mode during content playback, the content to be played back can be specified by specifying a thumbnail or the like in the Web page as in the search mode when content is not played back (FIG. 12). FIG. 16 shows a state in which the thumbnail of the video content K is touched. When the thumbnail of the content is touched (or when an upward sliding touch as described above with reference to FIG. 13 is performed), the touched content is displayed on both the television 2 and the terminal device 7 as shown in FIG. Playback of (video content K) is started. At this time, the terminal device 7 automatically shifts to the reproduction mode.

図17ないし19は、ゲーム装置3の処理動作を示すフローチャートである。このフローチャートで示される各ステップの処理は、ゲーム装置3内の不揮発メモリ、または、光ディスク4に記憶されるプログラム(ブラウザプログラム)をCPU10が実行することにより実現される。 17 to 19 are flowcharts showing the processing operation of the game apparatus 3. The processing of each step shown in this flowchart is realized by the CPU 10 executing a program (browser program) stored in the nonvolatile memory in the game apparatus 3 or the optical disc 4.

まず、図17を参照して、ステップS11において、ゲーム装置3は、デフォルトのサイトに接続し、ステップS12において、Webページ情報を取得して、Webページ画像100を生成する。   First, referring to FIG. 17, in step S <b> 11, game device 3 connects to a default site, acquires web page information in step S <b> 12, and generates web page image 100.

そして、前述の図12で示されるように、ステップS13において、Webページ画像100をテレビ2に表示し、ステップS14において、Webページ画像100とボタン画像102を端末装置7に表示する(ゲーム装置3が生成したWebページ画像データを前述の無線機能により端末装置7に送信し、端末装置7は当該データを受信して画面に表示する。なお、本フローチャートにおいて端末装置7の画面は同様の方法により表示される)。さらに、ステップS12で取得したWebページ情報に基づいて、入力制御を構築する。これにより、Webページに対する入力制御が行われる(後述のステップS18)。 Then, as shown in FIG. 12, the web page image 100 is displayed on the television 2 in step S13, and the web page image 100 and the button image 102 are displayed on the terminal device 7 in step S14 (game device 3). The web page image data generated by is transmitted to the terminal device 7 by the wireless function described above, and the terminal device 7 receives the data and displays it on the screen. Is displayed). Furthermore, input control is constructed based on the Web page information acquired in step S12. Thereby, input control for the Web page is performed (step S18 described later).

ステップS15の後、ステップS16において、サイト指定入力を受け付ける。より具体的には、動画サイトのアドレス入力を受け付ける。お気に入りなどの機能によりサイトを選択するようにしてもよい。ステップS16でサイト指定入力があると、ステップS17において、指定されたサイトからWebページ情報を取得し、Webページ画像100を生成する。 After step S15, a site designation input is accepted in step S16. More specifically, an address input of a video site is accepted. You may make it select a site by functions, such as a favorite. If there is a site designation input in step S16, web page information is acquired from the designated site in step S17, and a web page image 100 is generated.

ステップS17の後、ステップS21において、ステップS17で生成したWebページ画像100を端末装置7に表示する。そして、ステップS22において、コンテンツ再生中か否かを判断し、かつ、ステップS23においてテレビ非表示モードか否かを判断し、コンテンツ再生中でなくて、テレビ非表示モードでもないときには、ステップS24において、ステップS17で生成したWebページ画像100をテレビ2に表示する。 After step S17, the web page image 100 generated in step S17 is displayed on the terminal device 7 in step S21. In step S22, it is determined whether or not the content is being reproduced. In step S23, it is determined whether or not the content is not in the television non-display mode. The Web page image 100 generated in step S17 is displayed on the television 2.

ステップS16において、サイト指定入力がなかったときには、ステップS18において、Webページに対する入力があったか否かが判断される。これは、前述のステップS15において構築された入力制御設定により判断される。例えば、Webページ内のリンク先、ボタン、サムネイル画像などをタッチなどで指定したか否かが判断される。 If there is no site designation input in step S16, it is determined in step S18 whether or not there is an input to the web page. This is determined by the input control setting constructed in step S15 described above. For example, it is determined whether or not a link destination, button, thumbnail image, or the like in the Web page is designated by touch.

ステップS18において、Webページに対する入力があったと判断されたときには、ステップS19において、コンテンツ指定入力があったか否かが判断される。より具体的には、たとえば、コンテンツ一覧中のサムネイル画像がタッチなどで指定されたか否かが判断される。コンテンツが指定されたときには、ステップS39に移行するが、これは後述する。 If it is determined in step S18 that there is an input to the Web page, it is determined in step S19 whether or not there is a content designation input. More specifically, for example, it is determined whether or not a thumbnail image in the content list is designated by touch or the like. When content is designated, the process proceeds to step S39, which will be described later.

ステップS19において、Webページに対する入力がコンテンツ指定入力でなかったときには、ステップS20において、サイト内の各種Webページ情報を取得したり、コンテンツの一覧を取得したり、検索結果を取得するなどして、Webページ画像100を生成する。ステップS20において、Webページ画像100が生成された後、ステップS21からステップS24を参照して前述したとおり、端末装置7に、生成されたWebページ画像100を表示し、かつ、コンテンツ再生中でなくかつテレビ非表示モードでもないときには、テレビ2にも表示する。 In step S19, when the input to the web page is not a content designation input, in step S20, various web page information in the site, a list of contents, a search result, etc. are acquired. A web page image 100 is generated. In step S20, after the web page image 100 is generated, the generated web page image 100 is displayed on the terminal device 7 as described above with reference to steps S21 to S24, and the content is not being reproduced. When not in the television non-display mode, the information is also displayed on the television 2.

次に、図18を参照して、ステップS25において、ボタン群102に対する入力があったか否かが判断される。前述したようにボタン群102には、各種ボタンが含まれており、ステップS26において、テレビ表示ストップボタンがタッチなどで指定されたか否かが判断され、テレビ表示ストップボタンが指定されたときには、ステップS27において、現在、テレビ非表示モードであるか否かが判断される。テレビ非表示モードでないときには、テレビ非表示モードに設定して、コンテンツ再生中でないときには、ステップS30において、テレビ2に表示されているWebページ画像100を非表示にし、メッセージや演出画像などの代わりの画像をテレビ2に表示する。また、現在、テレビ非表示モードであるときには、テレビ非表示モードを解除して、コンテンツ再生中でないときには、ステップS33において、テレビ2にWebページ画像100を表示する。ステップS26においてその他のボタンであることが判断されたときには、ステップS34においてそれぞれ対応する処理を実行する。 Next, referring to FIG. 18, in step S <b> 25, it is determined whether or not there is an input to the button group 102. As described above, the button group 102 includes various buttons. In step S26, it is determined whether or not the television display stop button is designated by touch or the like. In S27, it is determined whether or not the television non-display mode is currently set. When not in the TV non-display mode, the TV non-display mode is set, and when the content is not being reproduced, the Web page image 100 displayed on the TV 2 is hidden in step S30, and a message or effect image is substituted. The image is displayed on the television 2. If the TV non-display mode is currently set, the TV non-display mode is canceled, and if the content is not being reproduced, the Web page image 100 is displayed on the TV 2 in step S33. If it is determined in step S26 that it is another button, the corresponding processing is executed in step S34.

次に、ステップS35において、コンテンツ再生中であるか否かが判断され、コンテンツ再生中でないときには、ステップS16に戻って同様の処理を繰り返す。 Next, in step S35, it is determined whether or not the content is being reproduced. If the content is not being reproduced, the process returns to step S16 and the same processing is repeated.

前述したステップS19において、コンテンツ指定入力があったことが判断されたときには、図19を参照して、ステップS39に移行する。ステップS39において、端末装置7にコンテンツの静止画108を表示する。そして、ステップS40において、当該静止画上で上方向へのスライド操作があったことが判断されると、ステップS41において、動画サイトからコンテンツデータを取得し、ステップS42において、コンテンツの再生を開始して、再生画像の生成を開始する。なお、コンテンツが再生中の場合には、現在再生中のコンテンツの再生を中止して、新たに指定されたコンテンツを再生開始してもよいし、現在再生中のコンテンツの再生が終了した後に、新たに指定されたコンテンツの再生を開始してもよい。 If it is determined in step S19 described above that content designation input has been made, the process proceeds to step S39 with reference to FIG. In step S <b> 39, the content still image 108 is displayed on the terminal device 7. If it is determined in step S40 that an upward slide operation has been performed on the still image, content data is acquired from the video site in step S41, and content playback is started in step S42. Then, the generation of the playback image is started. When the content is being played back, the playback of the currently played content may be stopped and the newly specified content may be played back. Alternatively, after the playback of the currently played content ends, The reproduction of the newly designated content may be started.

なお、ステップS42の後も、コンテンツを再生して再生画像を生成する処理は、再生終了まで継続的に実行される。 Even after step S42, the process of reproducing the content and generating the reproduction image is continuously executed until the end of the reproduction.

ステップS42の後、ステップS43において、テレビ2に再生画像107の表示が開始される。なお、ステップS43の後も、コンテンツの再生画像107をテレビ2に表示する処理は、再生終了まで継続的に実行される。 After step S42, display of the reproduced image 107 on the television 2 is started in step S43. Even after step S43, the process of displaying the reproduced image 107 of the content on the television 2 is continuously executed until the end of the reproduction.

ステップS43の後、ステップS44において、端末装置7上に表示について、Webページ画像100を消去して、再生画像107の表示を開始する。また、端末装置7には、再生制御UI103および再生終了ボタン104が合成表示される(図14参照)。なお、再生制御UI103は端末装置7の画面の下端、または、再生画像107の下方に位置するように表示される。 After step S43, in step S44, the Web page image 100 is erased for display on the terminal device 7, and display of the reproduced image 107 is started. Further, the playback control UI 103 and the playback end button 104 are synthesized and displayed on the terminal device 7 (see FIG. 14). Note that the playback control UI 103 is displayed so as to be positioned at the lower end of the screen of the terminal device 7 or below the playback image 107.

ステップS44の後、ステップS45において、再生制御操作があったか否かが判断される。具体的には、再生制御UI103や再生終了ボタン104に対するタッチ操作があったか否かが判断される。そのような操作があったときには、ステップS48において、対応する再生制御が実行される。 After step S44, it is determined in step S45 whether or not a reproduction control operation has been performed. Specifically, it is determined whether or not a touch operation has been performed on the playback control UI 103 or the playback end button 104. When such an operation is performed, the corresponding regeneration control is executed in step S48.

ステップS45の後、ステップS47において、再生モードから検索モードへの切替操作があったか否かが判断される。より具体的には、本実施例においては、前述したように、ボタン105へのタッチがあったか、または、端末装置7の画面上で(またはコンテンツの再生画像上で)上方向にスライド操作があったか、が判断される。 After step S45, in step S47, it is determined whether or not a switching operation from the reproduction mode to the search mode has been performed. More specifically, in this embodiment, as described above, has there been a touch on the button 105, or has there been an upward slide operation on the screen of the terminal device 7 (or on the playback image of the content)? Is determined.

ステップS47において、再生モードから検索モードへの切替操作があったことが判断されると、ステップS48において、端末装置7の画面上で、再生画像107を上方向にスライドアウトし、代わりに、Webページ画像100(直近に生成され保存されていたWebページ画像)、ボタン群102、および、再生制御UIを表示する。なお、再生制御UIは、画面上端、または、コンテンツの再生画像の上方に位置するように表示される。これにより、端末装置7の操作者は、コンテンツ一覧から新たに再生したいコンテンツを指定したり、新たなコンテンツ一覧を取得したりすることができる。ステップS48の後、ステップS16に戻って処理を繰り返す。 If it is determined in step S47 that there has been a switching operation from the playback mode to the search mode, the playback image 107 is slid out upward on the screen of the terminal device 7 in step S48, and instead the Web The page image 100 (the web page image that was most recently generated and stored), the button group 102, and the playback control UI are displayed. Note that the playback control UI is displayed so as to be positioned at the upper end of the screen or above the playback image of the content. Thereby, the operator of the terminal device 7 can designate a content to be newly reproduced from the content list or can acquire a new content list. After step S48, the process returns to step S16 to repeat the process.

コンテンツの再生中に検索モードに切り替えた後、コンテンツの再生が継続している間は、再度再生モードに切り替えることができる。具体的には、ステップS35において、コンテンツ再生中であることが判断され、ステップS36において、検索モードから再生モードへの切替操作があったことが、そして、ステップS37およびS38において、端末装置7に直近に生成された再生画像107(テレビ2に表示中の再生画像)が表示される。なお、切替操作があった時、再生画像107は端末装置7の画面の上方向から徐々にスライドインするように表示される。そして、端末装置7のWebページ画像100が非表示となり、端末装置7には、再生画像107と、再生制御UI103と、+再生終了ボタン104とが表示される。なお、再生制御UI103は、画面下端、または、再生画像107の下方に位置するように表示される。 After switching to the search mode during the playback of the content, the playback mode can be switched again while the playback of the content continues. Specifically, in step S35, it is determined that the content is being played back, the switching operation from the search mode to the playback mode has been performed in step S36, and in step S37 and S38, the terminal device 7 is informed. The most recently generated reproduction image 107 (the reproduction image being displayed on the television 2) is displayed. When the switching operation is performed, the reproduced image 107 is displayed so as to gradually slide in from the upper direction of the screen of the terminal device 7. Then, the Web page image 100 of the terminal device 7 is not displayed, and the playback image 107, the playback control UI 103, and the + playback end button 104 are displayed on the terminal device 7. Note that the playback control UI 103 is displayed so as to be positioned at the lower end of the screen or below the playback image 107.

ステップS47の後、ステップS49において、コンテンツの再生が終了したか(最後のフレームまで再生がされたか)が判断される。終了した場合には、ステップS16に戻って処理を繰り返す。なお、このとき、端末装置7が再生モードであったときには、直近に生成され保存されていたWebページ画像を表示してもよい。また、テレビ2には、コンテンツの最後のシーンを表示したままとしてもよいし、端末装置7と同様のWebページ画像を表示してもよい。 After step S47, in step S49, it is determined whether or not the content has been played back (whether playback has been performed up to the last frame). If completed, the process returns to step S16 to repeat the process. At this time, when the terminal device 7 is in the reproduction mode, the most recently generated and saved web page image may be displayed. In addition, the last scene of the content may be displayed on the television 2 or a Web page image similar to the terminal device 7 may be displayed.

[6.変形例]
上記実施形態は本発明を実施する一例であり、他の実施形態においては例えば以下に説明する構成で本発明を実施することも可能である。
[6. Modified example]
The above-described embodiment is an example for carrying out the present invention. In other embodiments, the present invention can be implemented with, for example, the configuration described below.

上記実施形態においては、コンテンツデータをネットワークを介して取得するようにしたが、ゲーム装置内に多数のコンテンツデータを記憶しておいて、それらから再生するコンテンツを指定して再生するようにしてもかまわない。   In the above embodiment, the content data is acquired via the network. However, a large number of content data is stored in the game device, and the content to be played back is designated and played back. It doesn't matter.

上記実施形態においては、端末装置7が操作装置として用いられ、コントローラ5は用いられない。したがって、ゲームシステム1はコントローラ5を含まない構成であってもよい。ただし、他の実施形態においては、端末装置7とともにコントローラ5が操作装置として用いられてもよい。すなわち、CPU10は、コントローラ5に対する操作を表す操作データ(コントローラ操作データ)を取得し、当該操作データに基づいて、テレビ2に表示される動画に関する情報処理を実行してもよい。例えば、テレビ2に動画が表示される場合において、コントローラ5を用いて動画の再生や一時停止の操作を行うことができるようにしてもよい。これによれば、端末装置7を把持するユーザだけでなく、他のユーザもコントローラ5を用いて、テレビ2に表示される動画に関する操作を行うことができ、操作性を向上することができる。   In the said embodiment, the terminal device 7 is used as an operating device, and the controller 5 is not used. Therefore, the game system 1 may not include the controller 5. However, in other embodiments, the controller 5 may be used as the operating device together with the terminal device 7. That is, the CPU 10 may acquire operation data (controller operation data) representing an operation on the controller 5 and execute information processing related to a moving image displayed on the television 2 based on the operation data. For example, when a moving image is displayed on the television 2, the controller 5 may be used to perform a moving image playback or pause operation. According to this, not only the user holding the terminal device 7 but also other users can use the controller 5 to perform operations related to the moving image displayed on the television 2, and the operability can be improved.

上記実施形態においては、ゲームシステム1は端末装置7を1つのみ有する構成であったが、ゲームシステム1は複数の端末装置を有する構成であってもよい。すなわち、ゲーム装置3は、複数の端末装置とそれぞれ無線通信可能であり、画像のデータを各端末装置へ送信し、操作データとカメラ画像データとマイク音データとを各端末装置から受信するものであってもよい。また、各端末装置に表示される操作画像はそれぞれ異なっていてもよく、テレビ2に画像を表示させる操作も各端末装置で個別に行われてもよい。なお、ゲーム装置3は、複数の端末装置のそれぞれと無線通信を行うが、このとき、ゲーム装置3は、各端末装置との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。   In the above embodiment, the game system 1 is configured to have only one terminal device 7, but the game system 1 may be configured to include a plurality of terminal devices. That is, the game apparatus 3 is capable of wireless communication with a plurality of terminal devices, transmits image data to each terminal device, and receives operation data, camera image data, and microphone sound data from each terminal device. There may be. Further, the operation images displayed on each terminal device may be different from each other, and the operation for displaying the image on the television 2 may be performed individually on each terminal device. The game device 3 performs wireless communication with each of the plurality of terminal devices. At this time, the game device 3 may perform wireless communication with each terminal device in a time-sharing manner, or divide the frequency band. You may go.

また、端末装置は、操作データをゲーム装置へ出力し、ゲーム装置からの画像を受信して表示する機能を有していればよい。つまり、他の実施形態においては、端末装置は、例えば携帯ゲーム機のように、所定のプログラム(ゲームプログラム)によって所定の情報処理(ゲーム処理)を実行する機能を有する装置であってもよい。   Moreover, the terminal device should just have the function to output operation data to a game device, and to receive and display the image from a game device. That is, in another embodiment, the terminal device may be a device having a function of executing predetermined information processing (game processing) by a predetermined program (game program), such as a portable game machine.

上記実施形態においては、テレビ2に画像(動画および/または静止画)を出力する実施例を説明したが、ゲームシステム1は、画像に代えて、テレビ2(テレビ2のスピーカ2a)に音声を出力するために用いることも可能である。すなわち、ゲーム装置3は、外部装置91からネットワーク90を介して音声(音楽等)のデータを受信し、当該音声をスピーカ2aに出力してもよい。このとき、端末装置7には、上記音声に関する操作を行うための操作画像が表示される。また、CPU10は、上記音声に関する情報処理を端末操作データに基づいて実行する。なお、一般的には、可搬型である端末装置7よりも大きいテレビ2の方がより高音質の音声を出力することができるので、上記によれば、ユーザは、外部装置91から取得した音声を、テレビ2によってより良い音質で聴くことができる。   In the above-described embodiment, an example in which an image (moving image and / or still image) is output to the television 2 has been described. However, the game system 1 outputs audio to the television 2 (the speaker 2a of the television 2) instead of the image. It can also be used to output. That is, the game apparatus 3 may receive voice (music) data from the external apparatus 91 via the network 90 and output the voice to the speaker 2a. At this time, an operation image for performing the operation related to the sound is displayed on the terminal device 7. Moreover, CPU10 performs the information processing regarding the said audio | voice based on terminal operation data. In general, since the television 2 that is larger than the portable terminal device 7 can output higher-quality sound, the user can obtain the sound acquired from the external device 91 according to the above. Can be heard on the TV 2 with better sound quality.

上記実施形態においては、ゲームシステム1において実行される一連の情報処理をゲーム装置3が実行したが、当該情報処理の一部は他の装置によって実行されてもよい。例えば、他の実施形態においては、情報処理の一部(例えば、端末用画像の生成処理)を端末装置7が実行するようにしてもよい。また、他の実施形態では、互いに通信可能な複数の情報処理装置を有するゲームシステムにおいて、当該複数の情報処理装置が情報処理を分担して実行するようにしてもよい。なお、複数の情報処理装置において情報処理が実行される場合には、各情報処理装置で実行される処理を同期させる必要があり、処理が複雑になってしまう。これに対して、上記実施形態のように、情報処理が1つのゲーム装置3によって実行され、端末装置7が画像を受信して表示する場合(つまり、端末装置7がシンクライアント端末である場合)には、複数の情報処理装置間で処理の同期をとる必要がなく、処理を簡易化することができる。   In the above embodiment, the game apparatus 3 executes a series of information processing executed in the game system 1, but part of the information processing may be executed by another apparatus. For example, in another embodiment, the terminal device 7 may execute part of information processing (for example, terminal image generation processing). In another embodiment, in a game system having a plurality of information processing devices that can communicate with each other, the plurality of information processing devices may share and execute information processing. In addition, when information processing is executed in a plurality of information processing devices, it is necessary to synchronize the processing executed in each information processing device, and the processing becomes complicated. On the other hand, when information processing is executed by one game device 3 and the terminal device 7 receives and displays an image as in the above embodiment (that is, when the terminal device 7 is a thin client terminal). Therefore, it is not necessary to synchronize processing among a plurality of information processing apparatuses, and the processing can be simplified.

また、上記実施形態においては、ゲーム処理を実行することが可能なゲーム装置3を含むゲームシステム1を例として説明したが、上記実施形態で記載した各処理動作は、ゲームシステムおよびゲーム装置に限らず、任意の情報処理システムおよび情報処理装置によって実行可能である。情報処理システムは、情報処理装置と、ユーザによる操作入力が可能な可搬型の表示装置(例えば端末装置7)とを含むものであればよく、情報処理装置は、可搬型の表示装置と、当該可搬型の表示装置とは異なる表示装置(例えばテレビ2)とにそれぞれ画像を出力して表示させることができるものであればよい。   Moreover, in the said embodiment, although the game system 1 containing the game device 3 which can perform a game process was demonstrated as an example, each processing operation described in the said embodiment is restricted to a game system and a game device. However, it can be executed by any information processing system and information processing apparatus. The information processing system only needs to include an information processing device and a portable display device (for example, the terminal device 7) that can be operated by a user. The information processing device includes a portable display device, What is necessary is just to be able to output and display an image on a display device (for example, the television 2) different from the portable display device.

上記のように、本明細書で説明した種々のシステム、方法、および技術は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、またはこれら要素の組み合わせによって提供されてもよい。上記の技術を実現するための装置は、プログラム可能なプロセッサによる実行のためのコンピュータ読み取り可能な非一時的な記憶装置において実体的に具体化されるコンピュータプログラムプロダクト、入出力装置、およびコンピュータプロセッサを含んでもよい。上記技術を実現するための処理は、入力データを処理して所望の出力を生成することによって、要求される機能を実行するためのプログラムを実行する、プログラム可能なプロセッサによって実行されてもよい。上記の技術は、入力装置、出力装置、および情報記憶装置といったハードウェア資源との間でデータや指示のやり取りを行うプログラム可能なプロセッサを含むコンピュータシステム上で実行可能な1以上のコンピュータプログラムによって実現されてもよい。また、各コンピュータプログラムは、手続型やオブジェクト指向型の高水準プログラミング言語、アセンブリ言語、または、機械語によって実現されてもよく、必要に応じてコンパイルまたはインタプリタされて実行されてもよい。また、上記のプロセッサは、汎用または専用のマイクロプロセッサであってもよい。プロセッサは、一般的に、ROMまたはRAMからデータおよび指示を受け取る。また、上記の記憶装置は、(a)EPROM、EEPROM、フラッシュメモリのような半導体メモリ装置を含む不揮発性のメモリ、(b)内部ハードディスクあるいは着脱可能な外部ディスクのような磁気ディスク、(c)光磁気ディスク、(d)CDROM、に限定されず、あらゆる種類のコンピュータメモリを含む。上記のプロセッサや記憶装置は、ASIC(Application Specific Integrated Circuit)によって補充される、あるいは、ASICに組み込まれる形で実現されてもよい。   As noted above, the various systems, methods, and techniques described herein may be provided by digital electronic circuitry, computer hardware, firmware, software, or a combination of these elements. An apparatus for implementing the above technique includes a computer program product, an input / output device, and a computer processor that are embodied in a computer-readable non-transitory storage device for execution by a programmable processor. May be included. The process for realizing the above technique may be executed by a programmable processor that executes a program for executing a required function by processing input data and generating a desired output. The above technique is realized by one or more computer programs that can be executed on a computer system including a programmable processor that exchanges data and instructions with hardware resources such as an input device, an output device, and an information storage device. May be. Each computer program may be realized by a procedural or object-oriented high-level programming language, assembly language, or machine language, and may be compiled or interpreted as necessary. The above processor may be a general-purpose or dedicated microprocessor. The processor typically receives data and instructions from ROM or RAM. The storage device includes (a) a nonvolatile memory including a semiconductor memory device such as an EPROM, an EEPROM, or a flash memory, (b) a magnetic disk such as an internal hard disk or a removable external disk, and (c). It is not limited to a magneto-optical disk (d) CDROM, but includes all kinds of computer memory. The processor and the storage device described above may be supplemented by an ASIC (Application Specific Integrated Circuit) or may be implemented in a form incorporated in the ASIC.

また、本明細書に記載の処理システム(回路)は、本明細書において記載された内容に応じたゲーム処理のような制御処理のためにプログラムされる。上記の内容に応じた指示を実行する少なくとも1つのCPUを含む処理システムが、上記の内容によって定義される処理動作を実行するための「プログラムされた論理回路」として作用するものであってもよい。   Further, the processing system (circuit) described in this specification is programmed for control processing such as game processing according to the contents described in this specification. A processing system including at least one CPU that executes an instruction according to the above contents may act as a “programmed logic circuit” for executing a processing operation defined by the above contents. .

以上のように、本発明は、画像をより見やすく提供するとともに、画像に関する操作をユーザが容易に行うこと等を目的として、例えば、ゲームシステムおよびゲーム装置等に利用することができる。   As described above, the present invention can be used in, for example, a game system and a game apparatus for the purpose of providing an image more easily to view and allowing a user to easily perform an operation related to the image.

1 ゲームシステム
2 テレビ
3 ゲーム装置
4 光ディスク
7 端末装置
10 CPU
51 端末装置の画面
90 ネットワーク
91 外部装置
100 Webページ画像
101 サムネイルアイコン
102 ボタン画像群
103 画像制御UI画像
104 再生終了ボタン
105 再生モードから検索モードへの切替ボタン
106 検索モードから再生モードへの切替ボタン
107 コンテンツの再生画像
DESCRIPTION OF SYMBOLS 1 Game system 2 Television 3 Game device 4 Optical disk 7 Terminal device 10 CPU
51 Screen of Terminal Device 90 Network 91 External Device 100 Web Page Image 101 Thumbnail Icon 102 Button Image Group 103 Image Control UI Image 104 Playback End Button 105 Button for Switching from Playback Mode to Search Mode 106 Button for Switching from Search Mode to Playback Mode 107 Content playback images

Claims (13)

据置型表示装置と、ユーザにより所定の入力が可能な可搬型表示装置とを含む情報処理システムであって、
コンテンツを再生して、再生画像を生成し、少なくとも前記据置型表示装置に表示するコンテンツ再生部と、
再生するコンテンツを指定するためのユーザインターフェース用画像を生成するUI画像生成部と、
前記コンテンツ再生部によるコンテンツの再生中に、前記可搬型表示装置に、当該再生中の前記再生画像と、前記ユーザインターフェース用画像とを選択的に表示する切替表示制御部と、
前記ユーザインターフェース用画像を用いて、前記可搬型表示装置におけるユーザによる所定の入力により、次に再生すべきコンテンツを指定するコンテンツ指定部と、
前記コンテンツ再生部は、前記コンテンツ指定部によって指定されたコンテンツを次に再生する、情報処理システム。
An information processing system including a stationary display device and a portable display device capable of a predetermined input by a user,
A content playback unit that plays back content, generates a playback image, and displays the playback image on at least the stationary display device;
A UI image generation unit for generating a user interface image for designating content to be reproduced;
A switching display control unit for selectively displaying the reproduction image being reproduced and the user interface image on the portable display device during reproduction of the content by the content reproduction unit;
A content designating unit for designating a content to be reproduced next by a predetermined input by a user in the portable display device using the user interface image;
The information processing system, wherein the content reproduction unit reproduces the content designated by the content designation unit next.
前記可搬型表示装置は座標入力部を備え、
前記コンテンツ再生部によって再生中のコンテンツの再生に関する制御を行うことが可能な再生制御画像を前記可搬型表示装置に表示する再生制御表示制御部をさらに備え、
前記再生制御表示制御部は、前記切替表示制御部により前記再生中の再生画像に切り替えられているときには、当該再生画像とともに前記再生制御画像を前記可搬型表示装置に表示し、前記ユーザインターフェース用画像に切り替えられているときは、当該ユーザインターフェース用画像とともに前記再生制御画像を前記可搬型表示装置に表示し、
前記再生制御表示制御部は、前記座標入力部によって前記再生制御画像に対する座標入力がされたときに、現在再生中のコンテンツに対して再生制御をおこなう、請求項1に記載の情報処理システム。
The portable display device includes a coordinate input unit,
A playback control display control unit configured to display a playback control image capable of performing control related to playback of the content being played back by the content playback unit on the portable display device;
The playback control display control unit displays the playback control image together with the playback image on the portable display device when the switching display control unit switches to the playback image being played back, and the user interface image Is displayed on the portable display device along with the user interface image,
The information processing system according to claim 1, wherein the reproduction control display control unit performs reproduction control on the currently reproduced content when a coordinate is input to the reproduction control image by the coordinate input unit.
前記再生制御表示制御部は、前記切替表示制御部により前記再生中の再生画像に切り替えられているときには、当該再生画像の下方に前記再生制御画像を表示し、前記ユーザインターフェース用画像に切り替えられているときには、当該ユーザインタフェース用画像の上方に前記再生制御画像を表示する、請求項に記載の情報処理システム。 The playback control display control unit displays the playback control image below the playback image and switches to the user interface image when the switching display control unit switches to the playback image being played back. The information processing system according to claim 2 , wherein the reproduction control image is displayed above the user interface image. 前記可搬型表示装置は、座標入力部を備え、
前記切替表示制御部は、前記座標入力部において上方向を示す座標入力があったときに、前記可搬型表示装置の表示内容を、前記再生画像から前記ユーザインターフェース用画像に切り替える、請求項1に記載の情報処理システム。
The portable display device includes a coordinate input unit,
The switching display control unit switches the display content of the portable display device from the reproduced image to the user interface image when there is a coordinate input indicating an upward direction in the coordinate input unit. The information processing system described.
前記切替表示制御部は、前記ユーザインターフェース用画像から前記再生画像に切り替えるときに、前記コンテンツ再生部により現在再生中のコンテンツの再生画像を前記可搬型表示装置において上方向から徐々にスライドインするように表示する、請求項1またはに記載の情報処理システム。 The switching display control unit, when switching from the user interface image to the reproduction image, gradually slides in the reproduction image of the content currently reproduced by the content reproduction unit from above in the portable display device. The information processing system according to claim 1 or 4 , which is displayed on 前記切替表示制御部は、前記再生画像から前記ユーザインターフェース用画像に切り替えるときに、前記コンテンツ再生部により現在再生中のコンテンツの再生画像を前記可搬型表示装置において上方向へ徐々にスライドアウトするように表示する、請求項1、またはのいずれかに記載の情報処理システム。 When the switching display control unit switches from the reproduction image to the user interface image, the content reproduction unit gradually slides the reproduction image of the content currently reproduced by the content reproduction unit upward in the portable display device. displayed on the information processing system according to claim 1, 4 or 5. 前記コンテンツ再生部は、前記コンテンツ指定部によって次に再生すべきことが指定されたコンテンツを再生するときに、前記再生画像を前記据置型表示装置に表示するとともに、前記切替表示制御部により前記可搬型表示装置の表示を前記再生画像に切り替えて、当該再生画像を前記可搬型表示装置に表示する、請求項1ないしのいずれかに記載の情報処理システム。 The content playback unit displays the playback image on the stationary display device when the content specified to be played next by the content specification unit is displayed, and also allows the switching display control unit to The information processing system according to any one of claims 1 to 6 , wherein a display of a portable display device is switched to the reproduced image, and the reproduced image is displayed on the portable display device. 前記切替表示制御部は、前記コンテンツ再生部によるコンテンツの再生が終了したときに、前記ユーザインターフェース用画像を前記可搬型表示装置と前記据置型表示装置の両方に表示する、請求項1ないしのいずれかに記載の情報処理システム。 The switch display control portion, when the reproduction of content by the content playback unit is completed, and displays an image for the user interface for both the portable display device and the stationary display device, of claims 1 to 7 An information processing system according to any one of the above. ネットワークに接続可能であり、当該ネットワークを介して、コンテンツを記憶した所定の外部装置と通信を行う通信部をさらに備え、
前記UI画像生成部は、前記通信部によって前記外部装置に記憶されたコンテンツの一覧を取得してそのなかから再生すべきコンテンツを指定するためのインターフェース用画像を生成し、
前記コンテンツ再生部は、前記コンテンツ指定部によって指定されたコンテンツを前記通信部によって前記外部装置から取得して再生する、請求項1ないしのいずれかに記載の情報処理システム。
A communication unit that is connectable to a network and communicates with a predetermined external device that stores the content via the network;
The UI image generation unit generates a list of contents stored in the external device by the communication unit and generates an interface image for designating content to be reproduced from the list.
The content reproduction unit, the information processing system according to any one of the play is obtained from an external device, claims 1 8 the designated content by the communication unit by the content specifying unit.
前記情報処理システムは、表示データを生成して前記据置型表示装置および前記可搬型表示装置に出力することが可能な情報処理部を含み、
前記情報処理部は、前記UI画像生成部、前記コンテンツ再生部として機能し、
前記UI画像生成部により生成されたユーザインターフェース用画像と前記コンテンツ再生部による再生画像を、選択的にまたは同時に前記可搬型表示装置に出力し、
前記コンテンツ再生部による再生画像を前記据置型表示装置に出力し、
前記据置型表示装置および前記可搬型表示装置は、情報処理装置から表示データを受信して表示する、請求項1ないしのいずれかに記載の情報処理システム。
The information processing system includes an information processing unit capable of generating display data and outputting the display data to the stationary display device and the portable display device,
The information processing unit functions as the UI image generation unit and the content reproduction unit,
The user interface image generated by the UI image generation unit and the reproduction image by the content reproduction unit are selectively or simultaneously output to the portable display device,
Output the playback image by the content playback unit to the stationary display device,
The stationary display device and the portable display device receives and displays the display data from the information processing apparatus, an information processing system according to any one of claims 1 to 9.
据置型表示装置およびユーザにより所定の入力が可能な可搬型表示装置に表示データを出力可能な情報処理装置であって、
コンテンツを再生して、再生画像を生成し、少なくとも前記据置型表示装置に表示するコンテンツ再生部と、
再生するコンテンツを指定するためのユーザインターフェース用画像を生成するUI画像生成部と、
前記コンテンツ再生部によるコンテンツの再生中に、前記可搬型表示装置に、当該再生中の前記再生画像と、前記ユーザインターフェース用画像とを選択的に表示する切替表示制御部と、
前記ユーザインターフェース用画像を用いて、前記可搬型表示装置におけるユーザによる所定の入力により、次に再生すべきコンテンツを指定するコンテンツ指定部とを備え、
前記コンテンツ再生部は、前記コンテンツ指定部によって指定されたコンテンツを次に再生する、情報処理装置。
An information processing apparatus capable of outputting display data to a stationary display apparatus and a portable display apparatus that allows a predetermined input by a user,
A content playback unit that plays back content, generates a playback image, and displays the playback image on at least the stationary display device;
A UI image generation unit for generating a user interface image for designating content to be reproduced;
A switching display control unit for selectively displaying the reproduction image being reproduced and the user interface image on the portable display device during reproduction of the content by the content reproduction unit;
A content designating unit for designating a content to be reproduced next by a predetermined input by a user in the portable display device using the user interface image;
The information processing apparatus, wherein the content reproduction unit reproduces the content designated by the content designation unit next.
据置型表示装置およびユーザにより所定の入力が可能な可搬型表示装置に表示データを出力可能な情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
コンテンツを再生して、再生画像を生成し、少なくとも前記据置型表示装置に表示するコンテンツ再生手段と、
再生するコンテンツを指定するためのユーザインターフェース用画像を生成するUI画像生成手段と、
前記コンテンツ再生手段によるコンテンツの再生中に、前記可搬型表示装置に、当該再生中の前記再生画像と、前記ユーザインターフェース用画像とを選択的に表示する切替表示制御手段と、
前記ユーザインターフェース用画像を用いて、前記可搬型表示装置におけるユーザによる所定の入力により、次に再生すべきコンテンツを指定するコンテンツ指定手段として前記コンピュータを機能させ、
前記コンテンツ再生手段は、前記コンテンツ指定手段によって指定されたコンテンツを次に再生する、情報処理プログラム。
An information processing program executed in a computer of an information processing device capable of outputting display data to a stationary display device and a portable display device capable of predetermined input by a user,
Content playback means for playing back content, generating a playback image, and displaying the content on at least the stationary display device;
UI image generation means for generating a user interface image for designating content to be reproduced;
Switching display control means for selectively displaying the reproduction image being reproduced and the user interface image on the portable display device during reproduction of the content by the content reproduction means;
Using the user interface image, the computer is caused to function as content specifying means for specifying content to be reproduced next by a predetermined input by a user in the portable display device,
An information processing program in which the content reproduction means reproduces the content designated by the content designation means next.
据置型表示装置と、ユーザにより所定の入力が可能な可搬型表示装置とを含む情報処理システムにおいて実行されるコンテンツ再生制御方法であって、
コンテンツを再生して、再生画像を生成し、少なくとも前記据置型表示装置に表示し、
再生するコンテンツを指定するためのユーザインターフェース用画像を生成し、
前記据置型表示装置におけるコンテンツの再生中に、前記可搬型表示装置に、当該再生中の前記再生画像と、前記ユーザインターフェース用画像とを選択的に表示し、
前記ユーザインターフェース用画像を用いて、前記可搬型表示装置におけるユーザによる所定の入力により、次に再生すべきコンテンツを指定し、当該指定されたコンテンツを次に再生する、コンテンツ再生制御方法。
A content reproduction control method executed in an information processing system including a stationary display device and a portable display device capable of a predetermined input by a user,
Playing content, generating a playback image, displaying at least on the stationary display device,
Generate a user interface image to specify the content to be played,
During the reproduction of content on the stationary display device, the reproduced image being reproduced and the user interface image are selectively displayed on the portable display device,
A content reproduction control method, wherein a content to be reproduced next is designated by a predetermined input by a user in the portable display device using the user interface image, and the designated content is reproduced next.
JP2014106054A 2014-05-22 2014-05-22 Information processing system, information processing apparatus, information processing program, and content reproduction control method Active JP5807089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014106054A JP5807089B2 (en) 2014-05-22 2014-05-22 Information processing system, information processing apparatus, information processing program, and content reproduction control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014106054A JP5807089B2 (en) 2014-05-22 2014-05-22 Information processing system, information processing apparatus, information processing program, and content reproduction control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011125865A Division JP5607579B2 (en) 2011-06-03 2011-06-03 Information processing system, information processing apparatus, information processing program, and content reproduction control method

Publications (2)

Publication Number Publication Date
JP2014207680A JP2014207680A (en) 2014-10-30
JP5807089B2 true JP5807089B2 (en) 2015-11-10

Family

ID=52120873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014106054A Active JP5807089B2 (en) 2014-05-22 2014-05-22 Information processing system, information processing apparatus, information processing program, and content reproduction control method

Country Status (1)

Country Link
JP (1) JP5807089B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6106772B1 (en) * 2016-01-20 2017-04-05 ヤフー株式会社 Information display program, information display device, information display method, and distribution device
JP1568793S (en) * 2016-04-27 2017-02-06

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3609663B2 (en) * 1999-09-30 2005-01-12 三洋電機株式会社 Digital broadcast receiving system
JP3925297B2 (en) * 2002-05-13 2007-06-06 ソニー株式会社 Video display system and video display control device
JP4090312B2 (en) * 2002-09-03 2008-05-28 株式会社日立製作所 Information display system
JP4684626B2 (en) * 2004-05-27 2011-05-18 シャープ株式会社 Information display device, information display method, information display program, and recording medium
CN100508554C (en) * 2004-12-22 2009-07-01 索尼株式会社 Remote control system, remote commander, and remote control server
JP2006318533A (en) * 2005-05-10 2006-11-24 Canon Inc Remote controller
JP2007184745A (en) * 2006-01-06 2007-07-19 Sony Corp Remote control system, equipment to be remotely controlled, and computer system
JP5394781B2 (en) * 2009-03-13 2014-01-22 日立コンシューマエレクトロニクス株式会社 Map information display method and apparatus

Also Published As

Publication number Publication date
JP2014207680A (en) 2014-10-30

Similar Documents

Publication Publication Date Title
JP6034551B2 (en) Information processing system, information processing apparatus, information processing program, and image display method
JP5607579B2 (en) Information processing system, information processing apparatus, information processing program, and content reproduction control method
JP5591281B2 (en) Information processing system, information processing apparatus, information processing program, and moving image reproduction control method
JP5918618B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5692904B2 (en) Input system, information processing apparatus, information processing program, and pointing position calculation method
US9403094B2 (en) Information processing system, game system, information processing device, terminal device, information processing method, and storage medium having information processing program stored therein
JP5689014B2 (en) Input system, information processing apparatus, information processing program, and three-dimensional position calculation method
JP5800526B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5869236B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US9161076B2 (en) Information processing system, server system, terminal system, information processing program, and information presentation method
JP5774314B2 (en) Delay measurement system and delay measurement method
EP2587438A1 (en) Video display system; server, information processing device and information processing program which are usable in the video display system; and video display method
JP5988549B2 (en) POSITION CALCULATION SYSTEM, POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, AND POSITION CALCULATION METHOD
JP2012161348A (en) Game system, game apparatus, game program stored therein, and game process method
JP5757741B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5937792B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5807089B2 (en) Information processing system, information processing apparatus, information processing program, and content reproduction control method
JP6045777B2 (en) Direction control system, direction control device, direction control program, and direction control method
JP5827610B2 (en) Video display system, and server, information processing apparatus, information processing program, and video display method used therefor
JP5804781B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM
JP6100453B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, INFORMATION PROCESSING PROGRAM, AND OPERATION DEVICE

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150907

R150 Certificate of patent or registration of utility model

Ref document number: 5807089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250