JP6788327B2 - 表示制御プログラム、表示制御装置、及び表示制御方法 - Google Patents

表示制御プログラム、表示制御装置、及び表示制御方法 Download PDF

Info

Publication number
JP6788327B2
JP6788327B2 JP2015039075A JP2015039075A JP6788327B2 JP 6788327 B2 JP6788327 B2 JP 6788327B2 JP 2015039075 A JP2015039075 A JP 2015039075A JP 2015039075 A JP2015039075 A JP 2015039075A JP 6788327 B2 JP6788327 B2 JP 6788327B2
Authority
JP
Japan
Prior art keywords
image
input device
head
game
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015039075A
Other languages
English (en)
Other versions
JP2016158794A (ja
Inventor
ニコラ ドゥセ
ニコラ ドゥセ
裕 横川
裕 横川
雅文 野田
雅文 野田
匠 吉田
匠 吉田
啓一郎 石原
啓一郎 石原
玄人 森田
玄人 森田
雄生 宮前
雄生 宮前
トゥイェン ティボ ンゴ
トゥイェン ティボ ンゴ
一知 佐々木
一知 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2015039075A priority Critical patent/JP6788327B2/ja
Priority to US15/019,339 priority patent/US10025105B2/en
Publication of JP2016158794A publication Critical patent/JP2016158794A/ja
Priority to US16/001,276 priority patent/US10712575B2/en
Priority to US16/872,916 priority patent/US11474361B2/en
Application granted granted Critical
Publication of JP6788327B2 publication Critical patent/JP6788327B2/ja
Priority to US17/945,343 priority patent/US20230009819A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、表示制御技術に関し、とくに、ヘッドマウントディスプレイへの表示を制御する表示制御プログラム、表示制御装置、及び表示制御方法に関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ゲーム機に接続された通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にもユーザの視野範囲が広がっているため、ディスプレイの画面に集中できなかったり、ゲームへの没入感に欠けたりすることがある。その点、ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。
本発明者は、より多くのユーザ層がヘッドマウントディスプレイを用いたゲームを楽しむことができるようにするためには、より利便性の高い表示制御技術が必要であると認識した。
上記課題を解決するために、本発明のある態様の表示制御プログラムは、コンピュータを、ユーザの頭部に装着されるヘッドマウントディスプレイの位置を示す情報を取得するヘッドマウントディスプレイ情報取得部、ユーザにより使用される入力装置の位置を示す情報を取得する入力装置情報取得部、入力装置に入力された指示を示す情報を取得する指示入力取得部、指示入力取得部により取得された指示に基づいてヘッドマウントディスプレイに表示すべき画像を生成する画像生成部、として機能させ、画像生成部は、入力装置のヘッドマウントディスプレイに対する相対位置に基づいて決定された画像内の位置に入力装置の画像を表示する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイのユーザの利便性を向上させることができる。
実施の形態に係るゲームシステムの使用環境を示す図である。 実施の形態に係るヘッドマウントディスプレイの外観図である。 ヘッドマウントディスプレイの機能構成図である。 入力装置の外観図である。 ゲーム装置の構成を示す図である。 ゲーム装置の機能構成図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す図である。 表示装置に表示される第2ゲーム画像の例を示す図である。 実施の形態に係る表示制御方法の手順を示すフローチャートである。 実施の形態に係る表示制御方法の手順を示すフローチャートである。 実施の形態に係る表示制御方法の手順を示すフローチャートである。
ヘッドマウントディスプレイ(HMD)を用いた表示技術について説明する。ヘッドマウントディスプレイは、ユーザの両眼を覆うようにユーザの頭部に装着して、ユーザの眼前に設けられた表示画面に表示される静止画や動画などを鑑賞するための表示装置である。ヘッドマウントディスプレイに表示される対象は、映画やテレビ番組などのコンテンツであってもよいが、本実施の形態では、ゲームの画像を表示するための表示装置としてヘッドマウントディスプレイが用いられる例について説明する。
図1は、実施の形態に係るゲームシステム1の使用環境を示す。ゲームシステム1は、ゲームプログラムを実行するゲーム装置10と、ユーザの指示をゲーム装置10に入力するための入力装置6と、ユーザの周囲の実空間を撮像する撮像装置14と、ゲーム装置10により生成される第1ゲーム画像を表示するヘッドマウントディスプレイ100と、ゲーム装置10により生成される第2ゲーム画像を表示する表示装置12とを備える。
ゲーム装置10は、入力装置6又はヘッドマウントディスプレイ100により入力される指示入力や、入力装置6又はヘッドマウントディスプレイ100の位置又は姿勢などに基づいてゲームプログラムを実行し、第1ゲーム画像を生成してヘッドマウントディスプレイ100に伝送し、第2ゲーム画像を生成して表示装置12に伝送する。
ヘッドマウントディスプレイ100は、ゲーム装置10において生成された第1ゲーム画像を表示する。また、ヘッドマウントディスプレイ100に設けられた入力装置に対するユーザの入力に関する情報をゲーム装置10へ伝送する。ヘッドマウントディスプレイ100は、ゲーム装置10に有線ケーブルで接続されてもよく、また無線LANなどにより無線接続されてもよい。
表示装置12は、ゲーム装置10において生成された第2ゲーム画像を表示する。表示装置12は、ディスプレイおよびスピーカを有するテレビであってもよいし、コンピュータディスプレイなどであってもよい。
入力装置6は、ユーザによる指示入力をゲーム装置10に伝送する機能をもち、本実施の形態ではゲーム装置10との間で無線通信可能な無線コントローラとして構成される。入力装置6とゲーム装置10は、Bluetooth(登録商標)プロトコルを用いて無線接続を確立してもよい。なお入力装置6は、無線コントローラに限らず、ゲーム装置10とケーブルを介して接続される有線コントローラであってもよい。
入力装置6はバッテリにより駆動され、ゲームを進行させる指示入力を行うための複数のボタンを有して構成される。ユーザが入力装置6のボタンを操作すると、その操作による指示入力が無線通信によりゲーム装置10に送信される。
撮像装置14は、CCD撮像素子またはCMOS撮像素子などから構成されるビデオカメラであり、実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。撮像装置14は、USB(Universal Serial Bus)あるいはその他のインタフェースを介してゲーム装置10と接続する。撮像装置14により撮像された画像は、ゲーム装置10において、入力装置6及びヘッドマウントディスプレイ100の位置及び姿勢を導出するために用いられる。撮像装置14は、距離を取得可能な測距カメラ又はステレオカメラであってもよい。この場合、撮像装置14により、撮像装置14と入力装置6又はヘッドマウントディスプレイ100などとの間の距離を取得することができる。
本実施例のゲームシステム1において、入力装置6及びヘッドマウントディスプレイ100は、複数色で発光可能に構成された発光部を有する。ゲーム中、発光部はゲーム装置10から指示された色で発光し、撮像装置14により撮像される。撮像装置14は入力装置6を撮像し、フレーム画像を生成してゲーム装置10に供給する。ゲーム装置10はフレーム画像を取得して、フレーム画像における発光部の画像の位置及び大きさから、実空間における発光部の位置情報を導出する。ゲーム装置10は、位置情報をゲームの操作指示として取り扱い、プレイヤーズキャラクタの動作を制御するなど、ゲームの処理に反映させる。
また、入力装置6及びヘッドマウントディスプレイ100は、加速度センサ及びジャイロセンサを有する。センサの検出値は、所定周期でゲーム装置10に送信され、ゲーム装置10は、センサの検出値を取得して、実空間における入力装置6及びヘッドマウントディスプレイ100の姿勢情報を取得する。ゲーム装置10は、姿勢情報をゲームの操作指示として取り扱い、ゲームの処理に反映させる。
図2は、実施の形態に係るヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、頭部接触部112、及び発光部114を備える。
本体部110には、ディスプレイ、位置情報を取得するためのGPSユニット、姿勢センサ、通信装置などが備えられる。頭部接触部112には、ユーザの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが備えられてもよい。発光部114は、上述したように、ゲーム装置10から指示された色で発光し、撮像装置14により撮像される画像においてヘッドマウントディスプレイ100の位置を算出するための基準として機能する。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの視線、瞳孔の動き、瞬きなどを検出することができる。
本実施の形態においては、ヘッドマウントディスプレイ100について説明するが、本実施の形態の表示制御技術は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図3は、ヘッドマウントディスプレイ100の機能構成図である。ヘッドマウントディスプレイ100は、入力インタフェース122、出力インタフェース130、バックライト132、通信制御部140、ネットワークアダプタ142、アンテナ144、記憶部150、GPSユニット161、無線ユニット162、姿勢センサ164、外部入出力端子インタフェース170、外部メモリ172、時計部180、表示装置90、及び制御部160を備える。これらの機能ブロックも、ハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できる。
制御部160は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース122は、入力ボタンなどから操作信号や設定信号を受け付け、制御部160に供給する。出力インタフェース130は、制御部160から画像信号を受け取り、表示装置90に表示させる。バックライト132は、表示装置90を構成する液晶ディスプレイにバックライトを供給する。
通信制御部140は、ネットワークアダプタ142またはアンテナ144を介して、有線または無線通信により、制御部160から入力されるデータを外部に送信する。通信制御部140は、また、ネットワークアダプタ142またはアンテナ144を介して、有線または無線通信により、外部からデータを受信し、制御部160に出力する。
記憶部150は、制御部160が処理するデータやパラメータ、操作信号などを一時的に記憶する。
GPSユニット161は、制御部160からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部160に供給する。無線ユニット162は、制御部160からの操作信号にしたがって、無線基地局から位置情報を受信して制御部160に供給する。
姿勢センサ164は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ164は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。
外部入出力端子インタフェース170は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ172は、フラッシュメモリなどの外部メモリである。
時計部180は、制御部160からの設定信号によって時間情報を設定し、時間データを制御部160に供給する。
図4は、入力装置の外観図である。図4(a)は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。4種のボタン72〜75には、それぞれを区別するために、異なる色で異なる図形が記されている。すなわち、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。筐体上面上において、方向キー71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置6の電源をオンし、同時に入力装置6とゲーム装置10とを接続する通信機能をアクティブにするために使用される。入力装置6がゲーム装置10と接続した後は、機能ボタン80は、ゲーム装置10にメニュー画面を表示させるためにも使用される。
SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、ゲーム装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。またOPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、ゲーム装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
図4(b)は、入力装置奥側側面の外観構成を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、ゲーム装置10から送信される発光色情報にしたがって点灯する。
筐体奥側側面において、上側ボタン83a、下側ボタン84aと、上側ボタン83b、下側ボタン84bとが長手方向の左右対称な位置に設けられる。上側ボタン83a、下側ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、上側ボタン83b、下側ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。図示されるように発光部85が、右側の上側ボタン83a、下側ボタン84aの並びと、左側の上側ボタン83b、下側ボタン84bの並びの間に設けられることで、各ボタンを操作する人差し指または中指によって隠れることはなく、撮像装置14は、点灯した発光部85を好適に撮像することができる。上側ボタン83はプッシュ式ボタンとして構成され、下側ボタン84は回動支持されたトリガー式のボタンとして構成されてよい。
図5は、ゲーム装置10の構成を示す。ゲーム装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2に記録されたゲームプログラムを実行する機能をもつ。
サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、ゲーム装置10の筐体の前面に設けられ、ゲーム装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。
デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。
USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置および撮像装置14とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。なお無線通信モジュール38は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT−2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応してもよく、さらには別の世代のデジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介して外部ネットワークに接続する。
図6は、ゲーム装置10の機能構成図である。ゲーム装置10のメインシステム60は、制御部310及びデータ保持部360を備える。制御部310は、ゲーム制御部311、指示入力取得部312、撮像画像解析部313、HMD情報取得部314、入力装置情報取得部315、第1画像生成部316、及び第2画像生成部317を備える。
データ保持部360は、ゲーム装置10において実行されるゲームのプログラムデータや、ゲームプログラムが使用する各種のデータなどを保持する。
指示入力取得部312は、入力装置6又はヘッドマウントディスプレイ100が受け付けたユーザによる指示入力に関する情報を入力装置6又はヘッドマウントディスプレイ100から取得する。
撮像画像解析部313は、撮像装置14が撮像した画像を取得し、取得した画像を解析して、入力装置6及びヘッドマウントディスプレイ100の位置及び姿勢を算出する。撮像画像解析部313は、撮像装置14から所定の撮像速度(例えば30フレーム/秒)でフレーム画像を取得し、フレーム画像から入力装置6及びヘッドマウントディスプレイ100の発光部の画像を抽出して、フレーム画像中の発光部の画像の位置及び大きさを特定する。例えば、撮像画像解析部313は、フレーム画像における発光体の画像の重心座標と半径を特定する。ユーザがゲームシステム1を使用する環境内で使われそうにない色にて発光部を点灯させることにより、フレーム画像から高精度で発光部の画像を抽出することができる。
撮像画像解析部313は、特定された発光体の画像の位置および大きさから、撮像装置14から見た入力装置6及びヘッドマウントディスプレイ100の位置情報を導出する。撮像画像解析部313は、発光体の画像の重心座標から、カメラ座標における位置座標を導出し、また発光体の画像の半径から、撮像装置14からの距離情報を導出する。この位置座標及び距離情報は、入力装置6及びヘッドマウントディスプレイ100の位置情報を構成する。
HMD情報取得部314は、ヘッドマウントディスプレイ100から、ヘッドマウントディスプレイの姿勢に関する情報を取得する。また、HMD情報取得部314は、撮像画像解析部313から、ヘッドマウントディスプレイ100の位置に関する情報を取得する。これらの情報は、ゲーム制御部311へ伝達される。ヘッドマウントディスプレイ100の姿勢に関する情報は、撮像画像解析部313がヘッドマウントディスプレイ100の撮像画像を解析することにより取得されてもよい。
入力装置情報取得部315は、入力装置6から、入力装置6の姿勢に関する情報を取得する。また、入力装置情報取得部315は、撮像画像解析部313から、入力装置6の位置に関する情報を取得する。これらの情報は、ゲーム制御部311へ伝達される。入力装置6の姿勢に関する情報は、撮像画像解析部313が入力装置6の撮像画像を解析することにより取得されてもよい。
入力装置6が撮像装置14の撮像範囲から外れたり、ユーザの体や障害物などに隠されたりして、撮像装置14により撮像されなかった場合、入力装置情報取得部315は、前回取得された入力装置6の位置と、その時点以降に取得された入力装置6の姿勢に関する情報に基づいて、入力装置6の位置を算出する。例えば、入力装置6の加速度センサから取得される並進加速度のデータに基づいて、前回取得された入力装置6の位置からのずれを算出することにより、現在の入力装置6の位置を算出してもよい。入力装置6が撮像装置14により撮像されない間は、同様にして入力装置6の位置を逐次算出する。入力装置6が撮像装置14により再度撮像された場合、加速度データにより逐次算出された入力装置6の位置は、ドリフト誤差の累積により正確な位置を示していない可能性があるので、撮像画像解析部313により新たに算出された入力装置6の位置を現在の入力装置6の位置としてもよい。ヘッドマウントディスプレイ100についても同様である。
ゲーム制御部311は、ゲームプログラムを実行し、指示入力取得部312が取得したユーザによる指示入力や、入力装置6又はヘッドマウントディスプレイ100の位置又は姿勢に関する情報に基づいてゲームを進行させる。ゲーム制御部311は、仮想的な三次元空間により構成されるゲームフィールドにおいて、入力装置6の方向キー71やアナログスティック77a、77bなどによる入力や、入力装置6又はヘッドマウントディスプレイ100の位置の変化などに基づいて、操作対象であるプレイヤーズキャラクタなどの位置を変更する。
第1画像生成部316は、ヘッドマウントディスプレイ100に表示すべき画像を生成する。第1画像生成部316は、ゲーム制御部311により制御される操作対象の位置に基づいて視点位置を設定し、ヘッドマウントディスプレイ100の姿勢に基づいて視線方向を設定して、仮想三次元空間をレンダリングすることにより、ゲームフィールドの画像を生成する。第1画像生成部316は、所定のタイミングでヘッドマウントディスプレイ100の姿勢とゲームフィールドにおける視線方向とを対応づけ、以降、ヘッドマウントディスプレイ100の姿勢の変化に伴って、視線方向を変化させる。これにより、ユーザは、実際に頭を動かすことにより、ゲームフィールド内を見渡すことができるので、ゲームフィールド内に現実に存在しているかのような体験をすることができる。第1画像生成部316は、生成したゲームフィールドの画像に、ゲームに関する情報やヘッドマウントディスプレイ100に表示すべき画像などを追加して、第1画像を生成する。第1画像生成部316により生成された第1画像は、無線通信モジュール38又は有線通信モジュール40を介してヘッドマウントディスプレイ100に送信される。
第2画像生成部317は、表示装置12に表示すべき画像を生成する。ヘッドマウントディスプレイ100に表示される画像と同じ画像を表示装置12に表示する場合は、第1画像生成部316により生成された第1画像が表示装置12にも送信される。ヘッドマウントディスプレイ100に表示される画像とは異なる画像を表示装置12に表示する場合、例えば、ヘッドマウントディスプレイ100を装着したユーザと、表示装置12を視聴しているユーザとが、対戦ゲームを実行する場合などは、第2画像生成部317は、第1画像生成部316とは異なる視点位置及び視線方向を設定して仮想三次元空間をレンダリングすることによりゲームフィールドの画像を生成する。第2画像生成部317は、生成したゲームフィールドの画像に、ゲームに関する情報や表示装置12に表示すべき画像などを追加して、第2画像を生成する。第2画像生成部317により生成された第2画像は、無線通信モジュール38又は有線通信モジュール40を介して表示装置12に送信される。
第1画像生成部316は、入力装置6とヘッドマウントディスプレイ100の相対位置に基づいて、入力装置6の画像を第1画像に表示することが可能である。ヘッドマウントディスプレイ100を装着しているユーザは、現実世界における周囲の状況を見ることができないが、ユーザがヘッドマウントディスプレイ100を装着していなければ入力装置6が見えるであろう第1画像内の位置に入力装置6の画像を表示することにより、現実世界を見ているような感覚をユーザに与えることができ、第1画像のリアリティをより高めることができるとともに、より深い没入感をユーザに与えることができる。
ゲーム制御部311がゲームフィールド内で操作対象の位置を変更する際に、第1画像生成部316は、ゲームフィールドの位置に応じて、視点位置の設定方式を異ならせることが可能である。例えば、ゲームフィールドのある領域では、操作対象の後方の所定位置に視点位置を設定して、操作対象の移動に伴って視点位置を追随させ、別の領域では、操作対象の位置の変化にかかわらず、所定位置に視点位置を固定してもよい。これにより、ゲームフィールドの位置に応じて、適切に視点位置を設定してゲームフィールドの画像を生成することができるので、操作性のよいユーザインタフェースを提供し、ユーザの利便性を向上させることができる。
第1画像生成部がヘッドマウントディスプレイ100を視聴する第1ユーザのための第1ゲーム画像を生成し、第2画像生成部が表示装置12を視聴する第2ユーザのための第2ゲーム画像を生成することが可能である。第1ユーザは表示装置12に表示される第2ゲーム画像を見ることができず、第2ユーザはヘッドマウントディスプレイ100に表示される第1ゲーム画像を見ることができないので、このゲームシステムを用いて、対戦相手に自身の情報を秘匿しつつ対戦ゲームを実行することも可能である。
以下、上記のような特徴について、各種のゲームを例にとって説明する。
(射撃ゲーム)
図7は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。本図は、第1ゲーム画像に表示されている入力装置から手裏剣を発射して的を打ち落とすゲームの画像を示す。ゲーム制御部311は、複数の的502が配置されたゲームフィールド内において、配置された的502を所定の態様で移動させる。第1画像生成部316は、ゲームフィールドの所定位置に視点位置を設定し、ヘッドマウントディスプレイの姿勢に基づいて視線方向を設定して、ゲームフィールドをレンダリングすることにより第1ゲーム画像を生成する。このとき、第1画像生成部316は、入力装置6とヘッドマウントディスプレイ100との間の相対位置に基づいて、ゲームフィールド内に入力装置6を配置し、第1画像内に入力装置6の画像500を表示する。入力装置6の画像500は、現実の入力装置6に基づいて生成されるものであり、ユーザが本物の入力装置6であると認識可能である程度の精度で表示される。第1画像生成部316は、入力装置6の位置及び姿勢が変更されると、第1ゲーム画像内の入力装置6の画像500の位置及び姿勢も合わせて変更する。これにより、第1ゲーム画像に表示される入力装置6の画像のリアリティをより高めることができる。
図8は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。ユーザが頭を左右又は上下に振ってヘッドマウントディスプレイ100の姿勢を変えると、第1画像生成部316は、ヘッドマウントディスプレイ100の姿勢に応じて視線方向を変更する。ゲーム制御部311は、第1ゲーム画像の中央の所定の範囲504内に的502が入ったときに、その的502をターゲットとしてロックオンし、ロックオンされた的502にロックオンされていることを示す図形506を表示する。すなわち、ユーザが第1ゲーム画像内に表示されている的502の方に頭を向けて的502を見ると、その方向から所定の範囲の方向にある的502がロックオンされる。このように、ユーザが見ている方向にあるキャラクタやオブジェクトなどを操作対象とすることにより、入力装置6などを用いることなく簡易に操作対象を決定及び変更することができるので、ユーザの利便性を高めることができる。
図9は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。ユーザが入力装置6のタッチパッド79においてフリック操作を行うと、第1画像生成部316は、フリック操作の移動距離に応じて、第1ゲーム画像に表示されている入力装置6の画像500におけるタッチパッド79の位置から手裏剣508が出てくる様子を表示する。このとき、ユーザの手が第1画像に表示されてもよいが、手裏剣が見えやすいように、ユーザの手は表示されなくてもよい。このように、入力装置6に入力された指示入力に応じて、第1ゲーム画像に表示されている入力装置6の画像500を変更することにより、ユーザが入力した指示を第1ゲーム画像上でフィードバックし、指示が反映されていることを分かりやすく示すことができる。また、現実に自身が把持している入力装置6から手裏剣が出てくるような感覚をユーザに与えることができるので、現実世界と仮想世界が融合した独特の体験をユーザに与えることができる。
図10は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。ユーザが入力装置6のタッチパッド79において行ったフリック操作の移動距離が所定値を超えると、ゲーム制御部311は、ゲームフィールドにおいて、入力装置6の仮想位置から、入力装置6の姿勢に基づいて決定される方向に、フリック操作の速度に応じた速度で手裏剣508を発射させる。第1画像生成部316は、手裏剣508が発射された様子を示す第1ゲーム画像を生成する。ゲーム制御部311は、物理計算により手裏剣508の軌跡509を算出し、算出された軌跡509にしたがって手裏剣508を移動させる。手裏剣508がいずれかの的502に当たった場合は、的502を落下させる。ゲーム制御部311は、前述したように、ある的がロックオンされている場合は、算出された軌跡の通りに手裏剣を移動させず、手裏剣が的に向かって飛行するように軌跡を再計算し、再計算された軌跡にしたがって手裏剣を移動させる。この場合は、手裏剣はロックオンされた的に当たるので、その的を落下させる。
(レースゲーム)
図11は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。本図は、二輪車を運転して所定のコースを走行し、ゴールまでの所要時間を競うレースゲームの画像を示す。ゲーム制御部311は、所定のコースが設けられたゲームフィールドにおいて、入力装置6のボタンなどの入力に応じて二輪車を走行させ、入力装置6の姿勢に応じて二輪車の走行方向を制御する。また、ヘッドマウントディスプレイ100の位置が低くなると、二輪車を運転しているユーザの体が受ける空気抵抗が低くなるものとして、二輪車の速度を速くし、逆にヘッドマウントディスプレイ100の位置が高くなると、空気抵抗が高くなるものとして、二輪車の速度を遅くする。このゲームにおいても、第1ゲーム画像に入力装置6の画像500が表示され、入力装置6の画像500がハンドル510の中央にくるように、二輪車の前方の画像が表示される。第1画像生成部316は、入力装置6の位置及び姿勢の変化に伴って、第1ゲーム画像内の入力装置6の画像500の位置及び姿勢を変更し、更に二輪車の前方の画像の位置及び姿勢を変更する。
このレースゲームにおいては、入力装置6が二輪車のハンドルに見立てられているが、入力装置6の位置が当初の位置から大きくずれると、ハンドルの位置が不自然な位置にずれてしまい、入力装置6をハンドルとして操作しているという前提が成り立たなくなる。したがって、ゲーム制御部311は、レースを開始する前、又は、レース中の所定のタイミングにおける入力装置6の位置を基準として、所定の範囲から入力装置6の位置が外れると、その旨を第1ゲーム画像への表示、音声の出力、入力装置6の振動などによりユーザに報知し、入力装置6の位置を戻すようユーザに促す。このとき、ゲーム制御部311は、二輪車の走行に関する指示入力の受付を停止してもよいし、二輪車を停止させてもよい。第1画像生成部316は、二輪車の前方の画像を第1ゲーム画像から消去し、又は、二輪車のハンドルの中央部分から入力装置6が外れている様子を表示することにより、入力装置6がもはや二輪車のハンドルとして機能していないことをユーザに報知してもよい。入力装置6の位置が基準位置から第1の範囲以上外れると、その旨をユーザに報知し、第1の範囲よりも大きい第2の範囲以上外れると、入力装置6からの指示入力を受け付けず、入力装置6が二輪車から外れている様子を表示してもよい。これにより、入力装置6を適切な範囲内で操作させることができるので、撮像装置14の撮像範囲から外れたり、入力装置6の画像を第1ゲーム画像に表示できなくなったりすることを回避することができる。
図12は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。第1画像生成部316は、第1ゲーム画像に表示されている入力装置6の画像500のタッチパッド79の位置に、現在の二輪車の速度512を表示する。これにより、現実の入力装置6のタッチパッド79には表示装置が設けられていないのに、あたかも表示装置が設けられているように見せることができる。また、ゲームにおいてユーザに提示すべき情報を、斬新な形で表示させることができる。
(アクションゲーム)
図13は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。本図は、プレイヤーズキャラクタを操作してゲームフィールド内を移動させ、所定のゴールへ導くゲームの画像を示す。ゲーム制御部311は、障害物や起伏などが設けられたゲームフィールドにおいて、入力装置6の方向キーやアナログスティックなどの入力に応じてプレイヤーズキャラクタ516を移動させ、ボタンなどの入力に応じてプレイヤーズキャラクタ516をジャンプさせる。
このアクションゲームにおいては、ゲームフィールドの位置に応じて、第1画像生成部316が第1ゲーム画像を生成する際に用いるカメラの視点位置を設定する方式が異なる。本図の例では、視点位置がプレイヤーズキャラクタ516の後方かつ上方の所定位置に設定され、プレイヤーズキャラクタ516の移動に伴って視点位置も移動される。視線方向は、ヘッドマウントディスプレイ100の姿勢に応じて変更される。つまり、ユーザが、プレイヤーズキャラクタ516を後方から追随する乗り物に乗ってゲームフィールドを見ているような画像が生成される。
図14は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。本図の例では、視点位置がゲームフィールドの所定位置に固定され、ヘッドマウントディスプレイ100の姿勢に応じて視線方向のみが変更される。つまり、ユーザが乗り物から降りて、自身は移動することなくゲームフィールドを見渡しているような画像が生成される。
ゲームフィールドのデータとして、地形などの形状データや配置されたキャラクタ及びアイテムなどのデータのほか、視点位置を決定するための規則を指定するためのデータが設定される。このデータは、ゲームフィールドを複数の領域に分割し、領域ごとに設定されてもよい。ゲーム制御部311は、ユーザからの指示入力にしたがってプレイヤーズキャラクタの位置を更新すると、更新後の位置において指定されている視点位置を決定するための規則を第1画像生成部316に伝達する。第1画像生成部316は、ゲーム制御部311から伝達された規則にしたがって視点位置を決定し、ゲームフィールドをレンダリングする。例えば、図14の例では、プレイヤーズキャラクタが所定の領域内にいる間は視点位置は固定されたまま変更されないが、プレイヤーズキャラクタの位置が所定の領域から外れて別の領域に入ると、新たな領域で指定されている規則にしたがって視点位置が決定され、例えば、プレイヤーズキャラクタの後方の所定位置に視点位置が設定される。
これにより、ゲームの制作者がゲームフィールドを設計する際に、ゲームフィールドの地形、配置されたアイテム、ギミック、キャラクタなどの種類、プレイヤーズキャラクタが実行すべきアクションなどに応じて、視点位置をどのように設定してゲーム画像を生成するのがよいかを柔軟に設定することができる。また、ゲームフィールドの状況に合わせて適切なゲーム画像を生成することができるので、ユーザの利便性を向上させることができる。
視点位置を決定するための規則は、ゲームフィールドの状況に応じて動的に設定されてもよい。例えば、ゲームフィールドの地形が変化する場合などに、ゲームフィールドの地形から規則を決定するためのアルゴリズムが予め指定され、まず、ゲームフィールドの地形から規則を決定し、決定された規則にしたがって視点位置が決定されてもよい。これにより、ゲームフィールドの状況に即して適切な視点位置を設定することができるので、ユーザの利便性を向上させることができる。
(対戦ゲーム)
図15は、ヘッドマウントディスプレイに表示される第1ゲーム画像の例を示す。本図は、ヘッドマウントディスプレイ100を装着した第1ユーザと、表示装置12を視聴している第2ユーザとが対戦するゲームの画像を示す。この対戦ゲームにおいて、第1ユーザは、入力装置6に対する入力により、第2ユーザの第2キャラクタ520に向けて爆弾522を投げつつ、ヘッドマウントディスプレイ100を移動させることにより、第1キャラクタを移動させて第2キャラクタ520が投げてくる爆弾524を避ける。第2ユーザは、入力装置6に対する入力により、第1キャラクタに向けて爆弾524を投げつつ、入力装置6に対する入力により、第2キャラクタ520を移動させて第1キャラクタが投げてくる爆弾522を避ける。複数の第2ユーザが対戦ゲームに参加してもよく、この場合、複数の第2キャラクタが第1キャラクタを攻撃してもよい。
第1画像生成部316は、ゲームフィールドにおいて第1キャラクタの位置に視点位置を設定し、ヘッドマウントディスプレイ100が向いている方向に視線方向を設定して、第1画像を生成する。したがって、本図の例では、一人称視点のゲーム画像がヘッドマウントディスプレイ100に表示される。第2キャラクタ520が投げてくる爆弾524は、ユーザ自身に向かって飛んでくるように見えるので、リアリティの高いゲームを提供することができる。
ゲーム制御部311は、ヘッドマウントディスプレイ100の姿勢の変化に伴って、第1キャラクタの位置を変更する。また、ゲーム制御部311は、入力装置6に対する指示入力にしたがって、第1キャラクタから指示された方向に爆弾522を飛ばし、物理計算などにより軌跡を算出して爆弾522を移動させる。第1キャラクタが投げた爆弾522が第2キャラクタ520に当たると、第2キャラクタ520の体力値を所定数減じる。第2キャラクタ520が投げた爆弾524が第1キャラクタに当たると、第1キャラクタの体力値を所定数減じる。いずれかのキャラクタの体力値がゼロになると、ゲームを終了する。
図16は、表示装置12に表示される第2ゲーム画像の例を示す。第2画像生成部317は、ゲームフィールド全体を見渡すことができ、第1キャラクタ526と第2キャラクタ520がゲーム画像内に表示されるように、視点位置と視線方向を固定し、第2画像を生成する。第2ユーザ及び第2キャラクタ520が単数である場合、第2キャラクタ520の位置又は第2キャラクタ520の後方の所定位置に視点位置を設定し、第2キャラクタ520の移動方向に視線方向を設定して第2画像を生成してもよいが、第2ユーザ及び第2キャラクタ520が複数である場合は、全ての第2ユーザがゲーム画像を見やすいように、全体を見渡せるように固定された第2画像を生成するのが望ましい。
ゲーム制御部311は、入力装置6に対する指示入力にしたがって、第2キャラクタ520の位置を変更する。また、ゲーム制御部311は、入力装置6に対する指示入力にしたがって、第2キャラクタ520から指示された方向に爆弾524を飛ばし、物理計算などにより軌跡を算出して爆弾を移動させる。
このように、第1ユーザと第2ユーザが同一の仮想三次元空間を共有し、両ユーザが仮想三次元空間において相互作用することを可能とするゲームにおいて、同一の仮想三次元空間を別々の視点から見たゲーム画像をそれぞれのユーザに提供することができる。
図17は、実施の形態に係る表示制御方法の手順を示すフローチャートである。HMD情報取得部314は、ヘッドマウントディスプレイ100の撮像画像から取得されたヘッドマウントディスプレイ100の位置情報を取得し(S100)、入力装置情報取得部315は、入力装置6の撮像画像から取得された入力装置6の位置情報を取得する(S102)。指示入力取得部312は、入力装置6から入力された指示に関する情報を取得する(S104)。ゲーム制御部311は、ヘッドマウントディスプレイ100の位置、入力装置6の位置、入力装置6に入力された指示などに基づいてゲームを制御する(S106)。第1画像生成部316は、ヘッドマウントディスプレイ100に表示すべき、ゲーム制御部311により制御されるゲームの画像を生成する(S108)。このとき、第1画像生成部316は、ヘッドマウントディスプレイ100と入力装置6との間の相対位置に基づいて、入力装置6の画像を生成した画像に表示させる(S110)。生成された画像は、ヘッドマウントディスプレイ100へ送信される(S112)。
図18は、実施の形態に係る表示制御方法の手順を示すフローチャートである。指示入力取得部312は、入力装置6から入力された指示に関する情報を取得する(S120)。ゲーム制御部311は、入力された指示に基づいて操作対象の位置を更新し(S122)、更新後の位置に指定されている視点位置を決定するための規則を取得する(S124)。第1画像生成部316は、視点位置を決定するための規則にしたがって視点位置を決定する(S126)。HMD情報取得部314は、ヘッドマウントディスプレイ100から、ヘッドマウントディスプレイ100の姿勢に関する情報を取得する(S128)。第1画像生成部316は、決定された視点位置と、ヘッドマウントディスプレイ100の姿勢に基づいて決定された視線方向を用いて、ヘッドマウントディスプレイ100に表示すべき画像を生成する(S130)。生成された画像は、ヘッドマウントディスプレイ100へ送信される(S132)。
図19は、実施の形態に係る表示制御方法の手順を示すフローチャートである。指示入力取得部312は、第1ユーザの入力装置6から入力された指示に関する情報を取得するとともに(S140)、第2ユーザの入力装置6から入力された指示に関する情報を取得する(S142)。HMD情報取得部314は、ヘッドマウントディスプレイ100の位置及び姿勢に関する情報を取得し(S144)、入力装置情報取得部315は、入力装置6の位置及び姿勢に関する情報を取得する(S146)。ゲーム制御部311は、入力された指示、ヘッドマウントディスプレイ100の位置及び姿勢、入力装置6の位置及び姿勢などに基づいてゲームを制御する(S148)。第1画像生成部316は、第1ユーザの視点位置及び視線方向を用いて、ヘッドマウントディスプレイ100に表示すべき第1画像を生成し(S150)、生成された画像は、ヘッドマウントディスプレイ100へ送信される(S152)。第2画像生成部317は、第2ユーザの視点位置及び視線方向を用いて、表示装置12に表示すべき第2画像を生成し(S154)、生成された画像は、表示装置12へ送信される(S156)。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、その各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記の例では、ヘッドマウントディスプレイ100の表示装置90に単眼視用の画像が表示されたが、別の例では、両眼立体視用の画像が表示されてもよい。
上記の例では、ゲームシステムにおいてヘッドマウントディスプレイ100が利用されたが、実施の形態で説明した技術は、ゲーム以外のコンテンツなどを表示する場合にも利用可能である。
10 ゲーム装置、90 表示装置、100 ヘッドマウントディスプレイ、311 ゲーム制御部、312 指示入力取得部、313 撮像画像解析部、314 HMD情報取得部、315 入力装置情報取得部、316 第1画像生成部、317 第2画像生成部。

Claims (7)

  1. コンピュータを、
    ユーザの頭部に装着されるヘッドマウントディスプレイの位置及び姿勢を示す情報を取得するヘッドマウントディスプレイ情報取得部、
    前記ユーザにより使用される入力装置の位置を示す情報を取得する入力装置情報取得部、
    前記入力装置に入力された指示を示す情報を取得する指示入力取得部、
    前記指示入力取得部により取得された指示に基づいて、前記ヘッドマウントディスプレイに表示すべき仮想三次元空間の画像を生成する画像生成部、
    として機能させ、
    前記画像生成部は、前記指示入力取得部により取得された指示により制御される操作対象の位置に基づいて視点位置を設定し、前記ヘッドマウントディスプレイの姿勢に基づいて視線方向を設定して、前記視点位置及び前記視線方向を用いて仮想三次元空間をレンダリングすることにより、前記仮想三次元空間の画像を生成し、
    前記画像生成部は、前記仮想三次元空間の画像において、前記入力装置の前記ヘッドマウントディスプレイに対する相対位置に基づいて決定された位置に前記入力装置に基づいて生成され記憶装置に記憶された、前記ユーザが前記入力装置であると認識可能な画像と、前記記憶装置に記憶された、前記入力装置であると認識可能な画像に付加されたオブジェクトの画像と、前記記憶装置から読み出して表示し、前記指示入力取得部により取得された前記入力装置に入力された指示を示す情報に基づいて、前記仮想三次元空間の画像内に表示された前記オブジェクトの画像を変更する
    ことを特徴とする表示制御プログラム。
  2. 前記画像生成部は、前記入力装置の位置の変化に伴って前記仮想三次元空間の画像内に表示される前記入力装置であると認識可能な画像の位置を変更し、
    前記仮想三次元空間の画像内における前記入力装置であると認識可能な画像の位置が所定の範囲から外れると、その旨をユーザに報知する
    ことを特徴とする請求項1に記載の表示制御プログラム。
  3. 前記入力装置情報取得部は、前記入力装置の姿勢に関する情報を更に取得し、
    前記画像生成部は、前記入力装置の姿勢に基づいて、前記仮想三次元空間の画像内に表示される前記入力装置であると認識可能な画像の姿勢を変更する
    ことを特徴とする請求項1又は2に記載の表示制御プログラム。
  4. 前記入力装置情報取得部は、撮像装置により撮像された前記入力装置の画像に基づいて取得された前記入力装置の位置に関する情報を取得し、
    前記入力装置が前記撮像装置により撮像されず、前記入力装置の位置に関する情報が取得されない場合は、前記入力装置情報取得部は、前記入力装置の姿勢に関する情報に基づいて前記入力装置の位置を取得する
    ことを特徴とする請求項1からのいずれかに記載の表示制御プログラム。
  5. ユーザの頭部に装着されるヘッドマウントディスプレイの位置及び姿勢を示す情報を取得するヘッドマウントディスプレイ情報取得部と、
    前記ユーザにより使用される入力装置の位置を示す情報を取得する入力装置情報取得部と、
    前記入力装置に入力された指示を示す情報を取得する指示入力取得部と、
    前記指示入力取得部により取得された指示に基づいて前記ヘッドマウントディスプレイに表示すべき仮想三次元空間の画像を生成する画像生成部と、
    を備え、
    前記画像生成部は、前記指示入力取得部により取得された指示により制御される操作対象の位置に基づいて視点位置を設定し、前記ヘッドマウントディスプレイの姿勢に基づいて視線方向を設定して、前記視点位置及び前記視線方向を用いて仮想三次元空間をレンダリングすることにより、前記仮想三次元空間の画像を生成し、
    前記画像生成部は、前記仮想三次元空間の画像において、前記入力装置の前記ヘッドマウントディスプレイに対する相対位置に基づいて決定された位置に前記入力装置に基づいて生成され記憶装置に記憶された、前記ユーザが前記入力装置であると認識可能な画像と、前記記憶装置に記憶された、前記入力装置であると認識可能な画像に付加されたオブジェクトの画像と、前記記憶装置から読み出して表示し、前記指示入力取得部により取得された前記入力装置に入力された指示を示す情報に基づいて、前記仮想三次元空間の画像内に表示された前記オブジェクトの画像を変更する
    ことを特徴とする表示制御装置。
  6. コンピュータに備えられたヘッドマウントディスプレイ情報取得部が、ユーザの頭部に装着されるヘッドマウントディスプレイの位置及び姿勢を示す情報を取得するステップと、
    コンピュータに備えられた入力装置情報取得部が、前記ユーザにより使用される入力装置の位置を示す情報を取得するステップと、
    コンピュータに備えられた指示入力取得部が、前記入力装置に入力された指示を示す情報を取得するステップと、
    コンピュータに備えられた画像生成部が、取得された指示に基づいて前記ヘッドマウントディスプレイに表示すべき仮想三次元空間の画像を生成するステップと、
    を備え、
    前記画像生成部は、前記指示入力取得部により取得された指示により制御される操作対象の位置に基づいて視点位置を設定し、前記ヘッドマウントディスプレイの姿勢に基づいて視線方向を設定して、前記視点位置及び前記視線方向を用いて仮想三次元空間をレンダリングすることにより、前記仮想三次元空間の画像を生成し、
    前記画像生成部は、前記仮想三次元空間の画像において、前記入力装置の前記ヘッドマウントディスプレイに対する相対位置に基づいて決定された位置に前記入力装置に基づいて生成され記憶装置に記憶された、前記ユーザが前記入力装置であると認識可能な画像と、前記記憶装置に記憶された、前記入力装置であると認識可能な画像に付加されたオブジェクトの画像と、前記記憶装置から読み出して表示し、前記指示入力取得部により取得された前記入力装置に入力された指示を示す情報に基づいて、前記仮想三次元空間の画像内に表示された前記オブジェクトの画像を変更す
    とを特徴とする表示制御方法。
  7. 請求項1からのいずれかに記載の表示制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2015039075A 2015-02-27 2015-02-27 表示制御プログラム、表示制御装置、及び表示制御方法 Active JP6788327B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015039075A JP6788327B2 (ja) 2015-02-27 2015-02-27 表示制御プログラム、表示制御装置、及び表示制御方法
US15/019,339 US10025105B2 (en) 2015-02-27 2016-02-09 Display control apparatus, display control method, and recording medium for a head mounted display
US16/001,276 US10712575B2 (en) 2015-02-27 2018-06-06 Display control apparatus, display control method, and recording medium for setting viewpoint and sightline in a virtual three- dimensional space
US16/872,916 US11474361B2 (en) 2015-02-27 2020-05-12 Display control apparatus, display control method, and recording medium for setting viewpoint and sightline in a virtual three-dimensional space
US17/945,343 US20230009819A1 (en) 2015-02-27 2022-09-15 Display control apparatus, display control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015039075A JP6788327B2 (ja) 2015-02-27 2015-02-27 表示制御プログラム、表示制御装置、及び表示制御方法

Publications (2)

Publication Number Publication Date
JP2016158794A JP2016158794A (ja) 2016-09-05
JP6788327B2 true JP6788327B2 (ja) 2020-11-25

Family

ID=56798195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015039075A Active JP6788327B2 (ja) 2015-02-27 2015-02-27 表示制御プログラム、表示制御装置、及び表示制御方法

Country Status (2)

Country Link
US (4) US10025105B2 (ja)
JP (1) JP6788327B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302434B (zh) * 2015-06-16 2019-03-26 深圳市腾讯计算机***有限公司 游戏场景中锁定目标的方法和装置
JP6177965B1 (ja) * 2016-06-10 2017-08-09 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
CN109069927A (zh) 2016-06-10 2018-12-21 Colopl株式会社 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的***
JP2018000308A (ja) * 2016-06-28 2018-01-11 フォーブ インコーポレーテッド 映像表示装置システム、心拍特定方法、心拍特定プログラム
JP6117414B1 (ja) * 2016-07-28 2017-04-19 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
KR101851361B1 (ko) * 2016-11-21 2018-04-23 동서대학교산학협력단 Hmd 연동 헤드폰 기반 플레이어 적응형 입체사운드 실시간 제공시스템
WO2018100906A1 (ja) 2016-11-30 2018-06-07 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
US10816814B2 (en) 2016-12-08 2020-10-27 Sony Corporation Imaging device
US10365784B2 (en) 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method
US11244510B2 (en) * 2017-03-15 2022-02-08 Sony Corporation Information processing apparatus and method capable of flexibility setting virtual objects in a virtual space
JP7070547B2 (ja) * 2017-03-22 2022-05-18 ソニーグループ株式会社 画像処理装置および方法、並びにプログラム
JP6220473B1 (ja) * 2017-04-04 2017-10-25 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、当該プログラムを記録した記録媒体、および仮想空間を提供するためのシステム
WO2020008559A1 (ja) 2018-07-04 2020-01-09 マクセル株式会社 ヘッドマウントディスプレイおよび設定方法
US11450172B2 (en) * 2019-03-19 2022-09-20 Keen Dog, Llc Amusement system for skill-based games and methods directed to the same
JP7116220B2 (ja) 2019-10-02 2022-08-09 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
CN111124133A (zh) * 2019-12-30 2020-05-08 腾讯科技(深圳)有限公司 虚拟场景中的危险提示信息方法、装置、设备及存储介质
CN111273450B (zh) * 2020-04-14 2020-12-08 湖南翰坤实业有限公司 一种vr体验头盔及其平衡调节方法
CN111589145B (zh) * 2020-04-22 2023-03-24 腾讯科技(深圳)有限公司 虚拟物品的显示方法、装置、终端和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3413128B2 (ja) * 1999-06-11 2003-06-03 キヤノン株式会社 複合現実感提示方法
JP3700857B2 (ja) * 2004-03-03 2005-09-28 コナミ株式会社 ゲームプログラム及びゲーム装置
JP4123187B2 (ja) * 2004-05-13 2008-07-23 ソニー株式会社 アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
JP5089060B2 (ja) * 2006-03-14 2012-12-05 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステムおよびゲームコントローラ
US7976386B2 (en) * 2006-06-12 2011-07-12 Tran Bao Q Mesh network game controller with voice transmission, search capability, motion detection, and/or position detection
JP5127242B2 (ja) * 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
JP2009122776A (ja) * 2007-11-12 2009-06-04 Internatl Business Mach Corp <Ibm> 仮想世界における情報制御方法および装置
WO2011038285A2 (en) * 2009-09-24 2011-03-31 etape Partners, LLC Three dimensional digitally rendered environments
JP5704833B2 (ja) * 2010-05-10 2015-04-22 オリンパス株式会社 操作入力装置およびマニピュレータシステム
JP5709440B2 (ja) * 2010-08-31 2015-04-30 キヤノン株式会社 情報処理装置、情報処理方法
US8912979B1 (en) * 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
JP2013258614A (ja) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US10173129B2 (en) * 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
WO2016187477A1 (en) * 2015-05-20 2016-11-24 Daqri, Llc Virtual personification for augmented reality system

Also Published As

Publication number Publication date
US10712575B2 (en) 2020-07-14
US20230009819A1 (en) 2023-01-12
US20160252729A1 (en) 2016-09-01
JP2016158794A (ja) 2016-09-05
US10025105B2 (en) 2018-07-17
US11474361B2 (en) 2022-10-18
US20180284458A1 (en) 2018-10-04
US20200271940A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
JP6788327B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6929918B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP2016158795A (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
US10599286B2 (en) Information processing method and apparatus for executing the information processing method
JP6248219B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018147465A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6263292B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6330072B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US11660536B2 (en) Display control program, display control apparatus and display control method
JP6445499B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6891319B2 (ja) 表示制御装置及び表示制御方法
JP7462591B2 (ja) 表示制御装置及び表示制御方法
JP2020086674A (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6711891B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6683862B2 (ja) 表示制御装置及び表示制御方法
JP2018147469A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018143752A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191127

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191204

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191210

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200131

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200204

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200303

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C30 Protocol of an oral hearing

Free format text: JAPANESE INTERMEDIATE CODE: C30

Effective date: 20200804

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20200819

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200929

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201027

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201030

R150 Certificate of patent or registration of utility model

Ref document number: 6788327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150