JP6355978B2 - プログラムおよび画像生成装置 - Google Patents

プログラムおよび画像生成装置 Download PDF

Info

Publication number
JP6355978B2
JP6355978B2 JP2014119124A JP2014119124A JP6355978B2 JP 6355978 B2 JP6355978 B2 JP 6355978B2 JP 2014119124 A JP2014119124 A JP 2014119124A JP 2014119124 A JP2014119124 A JP 2014119124A JP 6355978 B2 JP6355978 B2 JP 6355978B2
Authority
JP
Japan
Prior art keywords
hmd
controller
virtual
image
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014119124A
Other languages
English (en)
Other versions
JP2015232783A (ja
Inventor
一正 小関
一正 小関
恩田 明生
明生 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2014119124A priority Critical patent/JP6355978B2/ja
Priority to US14/663,984 priority patent/US9884248B2/en
Publication of JP2015232783A publication Critical patent/JP2015232783A/ja
Application granted granted Critical
Publication of JP6355978B2 publication Critical patent/JP6355978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、コンピュータに表示制御させるためのプログラム等に関する。
頭部装着型ディスプレイであるヘッドマウントディスプレイ(Head Mounted Display:以下「HMD」)は、臨場感と迫力の有る映像体験を提供するためのキーデバイスとして知られている。例えば、遊園地等のアトラクションやビデオゲームなどに採用する技術が知られている(例えば、特許文献1〜特許文献3を参照)。
特開平5−305181号公報 特開2000−210468号公報 特開2003−125313号公報
HMDを表示デバイスとして用いてゲームをプレイする場合には、ゲーム開始前の準備としてプレーヤは先ずHMDを頭部に装着するが、装着のためには両手を使わねばならない。ゲームコントローラを持ったままでは作業ができないため、ゲームコントローラは別途用意して置いておく必要がある。HMDの装着が完了したところで、ゲームコントローラを手に取ることになるが、HMDを装着してしまうと、ゲームコントローラの置き場所を視覚的に判別しにくくなる。没入性の高い非透過型のHMDであれば、そもそもプレーヤは外界の様子を見る事ができないため、手探りでゲームコントローラを探すことになる。
また、HMDを装着した頭を左右に傾けたりして装着具合を確認しているうちに、ふとゲームコントローラをどこに置いたか、距離感や方向感覚を見失い易い。特に年少者であればその傾向は高くなる。こうした不便さは、ゲーム開始前の準備に限らず、ゲーム途中でゲームコントローラを脇に置く等の一時的に手離すシチュエーションでも同様である。
本発明は、上述したような、HMDを装着し、コントローラを把持して操作する場合のユーザビリティを向上することを目的として考案されたものである。
上述した課題を解決するための第1の発明は、ユーザの頭部に装着されるHMD(Head Mounted Display)と、前記ユーザが把持して操作するコントローラ(例えば、図1のゲームコントローラ1200)と、前記HMD及び前記コントローラを含む実空間を撮影するように設置される撮像手段(例えば、図1の測距センサユニット1100、カラーイメージセンサ1104)とに接続されたコンピュータ(例えば、図1のゲーム装置本体1002)を、
前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における前記コントローラの仮想位置を算出するコントローラ位置算出手段(例えば、図9の測距部104、処理部200、ゲーム演算部202、コントローラ位置姿勢算出部212、図10のコントローラ位置座標523、図12のステップS4)、
前記仮想位置を用いて、前記実空間中の前記コントローラの位置に対応する前記仮想空間中の位置を示す第1の案内表示を前記HMDに表示させる第1の案内表示制御手段(例えば、図9の処理部200、ゲーム演算部202、プレーヤ補助制御部220、コントローラオブジェクト制御部222、図13のステップS62)、
として機能させるためのプログラムである。
第1の発明によれば、HMDの表示画面に、実空間中のコントローラの位置を示す第1の案内表示を表示させることができる。よって、HMDを装着したとしても、コントローラを手に取るための手がかりとなる案内が表示されるので、手探りのみでコントローラを探すような不便を解消することができる。
第2の発明は、前記撮像手段の撮影画像を用いて、前記仮想空間における前記HMDの仮想位置を算出するHMD位置算出手段(例えば、図9の処理部200、ゲーム演算部202、HMD位置姿勢算出部210、図10のHMD姿勢データ522、図12のステップS4)として前記コンピュータを更に機能させ、前記第1の案内表示制御手段は、前記HMDの仮想位置から見た前記コントローラの仮想位置を示すように前記第1の案内表示を表示させる、第1の発明のプログラムである。
第2の発明によれば、HMDを装着したユーザの視点から見たコントローラの位置を示すように第1の案内表示を表示できる。ユーザは、コントローラの位置を視覚的に明確に把握できるのでコントローラを手に取ることがより容易となる。
第3の発明は、前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段(例えば、図3の6軸センサ1308、図9の処理部200、ゲーム演算部202、HMD位置姿勢算出部210、図10のHMD姿勢データ522、図12のステップS4)、
前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像(例えば、図6の立体視画像W2)を生成する仮想空間画像生成手段(例えば、図9の立体視画像生成制御部232、図12のステップS15)、として前記コンピュータを更に機能させ、
前記第1の案内表示制御手段は、前記コントローラの仮想位置が前記視界内か否かに応じて前記第1の案内表示の形態を変更する、第2の発明のプログラムである。
第3の発明によれば、HMDには、ユーザの視点位置や視線方向が変化することにより視界が変化する画像を表示でき、その表示画像内に第1の案内表示を表示できるので、ユーザにしてみればコントローラを手に取ることがより容易となる。
更に、コントローラが視界内にあるか否かに応じてその表示形態を変えることができる。そのため、ユーザは、その表示形態から表示範囲内(視界内)にコントローラがあるのか、表示範囲外(視界外)にあるのかを直ぐに把握することができる。例えば、ユーザが首を適当に振る結果、コントローラが視界内に入るか否かで表示形態が変化するので、コントローラのある方向をユーザに容易に把握させ、コントローラを手に取るための効果的な手助けをすることができる。
HMDの姿勢判定に関しては、第4の発明として、前記HMDには、マーカ(例えば、図3の発光マーカ1312)が設けられており、前記HMD位置姿勢判定手段は、前記撮像手段の撮影画像中の前記マーカの撮像情報を用いて前記HMDの位置及び/又は姿勢を判定する、第3の発明のプログラムを構成することができる。
また、第5の発明として、前記HMDには、加速度センサ、ジャイロ、及び、前記実空間中の所定位置に設置される固定マーカを撮影するためのカメラのうちの少なくも1つを含む姿勢検知用センサ(例えば、図3の6軸センサ1308、図15のイメージセンサ1320)が搭載されており、前記HMD位置姿勢判定手段は、前記姿勢検知用センサの検知結果を用いて前記HMDの位置及び/又は姿勢を判定する、第3の発明のプログラムを構成することができる。
第6の発明は、前記仮想空間における前記第1の案内表示の位置が、前記HMDの仮想位置からみて隠れた位置となる場合に、当該第1の案内表示を表出させるように画像処理する画像処理手段(例えば、図9の表出処理部230、図14のステップS118)として前記コンピュータを更に機能させるための第3〜第5の何れかの発明のプログラムである。
第6の発明によれば、第1の案内表示の視認性を向上させ、容易にコントローラを手に取ることができるようになる。
第7の発明は、前記第1の案内表示制御手段が、前記コントローラの仮想位置が前記視界内の場合に、前記コントローラを表すオブジェクト(例えば、図5,図8のコントローラオブジェクト12)を前記第1の案内表示として表示させる、第3〜第6の何れかの発明のプログラムである。
第7の発明によれば、プレーヤの視界にはコントローラであると分かるオブジェクトが表示されるので、更に第1の案内表示の視認性を向上させることができる。
第8の発明は、前記第1の案内表示制御手段が、前記コントローラの仮想位置が前記視界外の場合に、前記HMDの仮想位置から前記コントローラの仮想位置に向かう方向を示すオブジェクト(例えば、図5及び図6の方向案内オブジェクト13)を前記第1の案内表示として表示させる、第3〜第7の何れかの発明のプログラムである。
第8の発明によれば、視界範囲にコントローラが無いことを明示できるとともに、コントローラのある方向を示すことができるので、コントローラを探しやすくなる。
第9の発明は、前記撮像手段の撮影画像を用いて、前記実空間に対応する前記仮想空間における前記ユーザの手の仮想位置を算出する手位置算出手段(例えば、図5の左手位置Pl´、右手位置Pr´,図9の手位置算出部214,図12のステップS4)、
前記手の仮想位置を用いて、前記実空間中の前記手の位置に対応する前記仮想空間中の位置を示す第2の案内表示を前記HMDに表示させる第2の案内表示制御手段(例えば、図5及び図6の左手オブジェクト14、右手オブジェクト16、図9のプレーヤ補助制御部220、手オブジェクト制御部226、図13のステップS52)、
として前記コンピュータを更に機能させるための第1〜第8の何れかの発明のプログラムである。
第9の発明によれば、HMDに表示される画像内に、ユーザの手の位置を示す第2の案内表示が表示される。コントローラの位置を示す第1の案内表示と、ユーザの手の位置を示す第2の案内表示との位置関係から、どの方向にどの程度手を伸ばせばコントローラに手が届くかが分かり易くなり、年少者でも容易にコントローラを手に取れるようになる。
第10の発明は、前記第1の案内表示制御手段が、前記コントローラの仮想位置と前記手の仮想位置との相対位置関係を用いて前記第1の案内表示を変更制御する(例えば、図13のステップS64)、第1〜第9の何れかの発明のプログラムである。
第10の発明によれば、第1の案内表示からコントローラと手の位置関係も把握できるようになる。例えば、距離に応じて表示色を変えたり、明滅させたり、向きを変えるなどでもよい。よって、より一層どの方向にどの程度手を伸ばせばコントローラに手が届くかが分かり易くなる。
第11の発明は、前記コントローラが把持されていることを検知する把持検知手段(例えば、図9のコントローラ把持判定部216、図12のステップS6)として前記コンピュータを更に機能させ、前記第1の案内表示制御手段は、前記コントローラが把持されていないときに、前記第1の案内表示を行う、第1〜第10の何れかの発明のプログラムである。
第11の発明によれば、ユーザがコントローラを探す必要がある状況を自動的に検知して、第1の案内表示を実行することができるので、ユーザビリティが向上する。
第12の発明は、前記コンピュータが、前記ユーザに装着されるヘッドホンと更に接続されており、前記コントローラの仮想位置を示す案内音を前記ヘッドホンから出力させる案内音制御手段(例えば、図9の擬似サラウンド制御部236、音信号生成部290)として前記コンピュータを更に機能させるための第1〜第11の何れかの発明のプログラムである。
第12の発明によれば、音によるコントローラの位置案内も可能になる。視覚、聴覚の両方を用いて案内されるため、ユーザは、コントローラをより容易に見つけられるようになる。
第13の発明は、前記実空間に対応するように前記仮想空間の座標系を初期設定する座標系初期設定手段(例えば、図16の座標系初期設定手段204)、として前記コンピュータを更に機能させるための第1〜第12の何れかの発明のプログラムである。
第13の発明によれば、実空間に対応するように仮想空間の座標系を初期設定できる。
第14の発明は、前記HMDにはカメラ(例えば、図15のイメージセンサ1320)が設けられており、前記カメラによる撮影画像中に前記コントローラが写っていることを検出するコントローラ捕捉検出手段(例えば、図16のコントローラ位置姿勢算出部212)、前記コントローラ捕捉検出手段の検出結果に応じて所定の報知制御を行う捕捉時報知制御手段(例えば、図16のプレーヤ補助制御部220、コントローラオブジェクト制御部222)、として前記コンピュータを更に機能させるための第1〜第13の何れかの発明のプログラムである。
第14の発明によれば、コントローラをより容易に見つけることができるようになる。
第15の発明は、ユーザの頭部に装着されるHMDと、前記ユーザが把持して操作するコントローラと、前記HMD及び前記コントローラを含む実空間を撮影するように設置される撮像手段とに接続され、前記HMDに表示させる画像を生成するための画像生成装置であって、
前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における前記コントローラの仮想位置を算出するコントローラ位置算出手段(例えば、図1の制御基板1050、図9の測距部104、処理部200、ゲーム演算部202、コントローラ位置姿勢算出部212、図10のコントローラ位置座標523、図12のステップS4)と、
前記仮想位置を用いて、前記実空間中の前記コントローラの位置に対応する前記仮想空間中の位置を示す第1の案内表示を前記HMDに表示させる第1の案内表示制御手段(例えば、図1の制御基板1050、図9の処理部200、ゲーム演算部202、プレーヤ補助制御部220、コントローラオブジェクト制御部222、図13のステップS62)と、
を備えた画像生成装置(例えば、図1のゲームシステム1000、ゲーム装置本体1002)である。
第15の発明によれば、第1の発明と同様の効果を得ることができる。
ゲームシステムの構成例を示す図。 ゲームコントローラの構成例を示す図。 ヘッドセットの構成の一例を示す図。 測距空間の座標系と測距・認識される要素について説明する図。 HMDに表示させるプ立体視画像(ゲーム画像)を生成するための仮想空間と、仮想空間に配置されるオブジェクトとの一例を示す図。 (1)HMDに表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ及びその周囲の状態と、を示す図。 (1)HMDに表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ及びその周囲の状態と、を示す図。 (1)HMDに表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ及びその周囲の状態と、を示す図。 ゲームシステムの機能構成例を示す機能ブロック図。 記憶部が記憶するプログラムやデータの例を示す図。 仮想空間制御データのデータ構成例を示す図。 ゲームシステムにおける処理の流れを説明するためのフローチャート。 プレーヤ補助処理の流れを説明するためのフローチャート。 図13より続くフローチャート。 ゲームシステムの構成の変形例を示す図。 機能構成の変形例を示す図。 HMDに表示させる立体視画像(ゲーム画像)を生成するための仮想空間と、仮想空間に配置されるオブジェクトとの変形例を示す図。
図1は、本実施形態におけるゲームシステムの構成の一例を示す図である。
本実施形態のゲームシステム1000は、ゲーム装置本体1002と、タッチパネル1004と、測距センサユニット1100と、ゲームコントローラ1200と、HMD1310を搭載したヘッドセット1300と、を含む。HMD1310は、非透過型(没入型とも称される)のHMDとして説明するが、半透過型や透過型のHMDであってもよい。
ゲーム装置本体1002は、コンピュータの一種であって制御基板1050を内蔵する。
制御基板1050は、例えば、
1)CPU(Central Processing Unit)1051やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、
2)VRAMやRAM,ROM等の各種ICメモリ1052、
3)タッチパネル1004や測距センサユニット1100、ゲームコントローラ1200、ヘッドセット1300などの周辺機器と無線或いは有線により通信接続するための通信モジュール1053、
4)タッチパネル1004などのドライバ回路1054、などを搭載する。
なお、制御基板1050の一部又は全部をASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)で構成するとしてもよい。
そして、ゲーム装置本体1002は、制御基板1050でICメモリ1052に記憶されているプログラムおよびデータを読み出して演算処理することにより、ゲームシステム1000を統合的に制御して、ビデオゲームを実行させることができる。
タッチパネル1004は、タッチパネルを装備したビデオモニタであって、プレーヤ2の概ね正面に配置される。
測距センサユニット1100は、例えばタッチパネル1004の上部に、当該モニタの表示面正面方向へ向けて、ヘッドセット1300及びゲームコントローラ1200を撮影範囲に含めるように固定設置される。そして、タッチパネル1004の前方に存在するプレーヤ2やその周辺の物体の画像を撮影し、画像データをゲーム装置本体1002へ出力することできる。更に、当該画像を画像解析することでプレーヤ2やその周辺の物体までの距離を算出し、距離情報をゲーム装置本体1002へ出力することができる。なお、図中の引き出し図は、測距センサユニット1100の正面図である。
具体的には、測距センサユニット1100は、例えば、赤外線(IR)を前方へ照射する赤外線照射器1102と、前方の物体からの赤外線反射画像を撮影することができるカラーイメージセンサ1104と、赤外線反射画像を解析して物体までの相対距離等を算出したり画像認識処理を行う単数又は複数のLSI1106とを搭載する。カラーイメージセンサ1104は、撮像手段の一種である。
測距センサユニット1100は、カラーイメージセンサ1104で撮影した画像から、ゲームコントローラ1200やヘッドセット1300、プレーヤ2の身体の各部を画像認識して撮影された画像内の代表点位置を判定する。そして、代表点位置までを測距することができる。こうした測距は、公知のIR式測距センサ技術により実現することができる。
なお、測距センサユニット1100で採用する測距技術はIR式に限らず適宜採用することができる。例えば、左右のカラーイメージセンサ1104を用いてステレオ撮影し、視差から距離を算出するとしてもよい。
また、測距センサユニット1100には、公知の6軸センサ1108が搭載されている。
6軸センサ1108は、測距センサユニット1100の前後(カラーイメージセンサ1104の光軸方向)・左右・上下の3軸方向の移動や各軸周りの回転を検出するモーショントレースのための公知のセンサであって、例えば、3軸方向の加速度と3軸周りの角速度とを検出する。或いは3軸方向の加速度と東西南北の地磁気方向を検出するとしてもよい。6軸センサ1108による検出結果から、測距空間の座標系の深度方向軸(Z軸)の向きが分かるようになる。
また、測距センサユニット1100は、ゲーム装置本体1002と通信接続するための通信モジュールや、バッテリーなどを適宜搭載するものとする。
図2は、ゲームコントローラ1200の構成例を示す図である。
本実施形態のゲームコントローラ1200は、両手で把持して用いることを前提としてデザインされている。勿論、銃型コントローラのように片手での把持を前提としてデザインするとしてもよい。
ゲームコントローラ1200は、その外面に発光マーカ1202が設けられている。また、スピーカ1204と、バイブレータ1206と、6軸センサ1208と、コントローラ基板1250と、図示されないバッテリー等を内蔵する。
発光マーカ1202は、例えばLED等により実現され、コントローラ基板1250により発光制御される。通常は、常時点灯である。
6軸センサ1208は、ゲームコントローラ1200の前後(X2軸)・左右(Y2軸)・上下(Z2軸)の3軸方向の移動や各軸周りの回転(Φc、θc、Ψc)を検出するモーショントレースのための公知のセンサであって、例えば、3軸方向の加速度と3軸周りの角速度とを検出する。或いは3軸方向の加速度と東西南北の地磁気方向を検出するとしてもよい。
コントローラ基板1250は、CPU1251や、ICメモリ1252、通信モジュール1253、インターフェース回路1254などを搭載し、ゲームコントローラ1200の動作制御や外部との通信を制御する。インターフェース回路1254は、スピーカ1204やバイブレータ1206への制御信号の出力や、操作ボタンスイッチ1260や方向入力キー1262、ジョイスティック1264などからの信号の入力を制御する。
図3は、本実施形態におけるヘッドセット1300の構成例を示す図であって、(1)正面図、(2)側面図に相当する。
ヘッドセット1300は、プレーヤ2が頭部に装着する装備であって、画像と音声の情報をプレーヤ2に視聴可能に提供するとともに、ヘッドトラッキングを実現するための頭部の位置や姿勢を検出する機能を有する。例えば、ヘッドセット1300は、ヘッドホン1302と、HMD1310(頭部装着ディスプレイ:Head Mounted Display)と、ヘッドセット基板1350と、を有する。
ヘッドホン1302は、いわゆる密閉型のステレオヘッドホンとすると好適である。
HMD1310は、提供する視野角が人の視野角に相当する非透過型・没入型のヘッドマウントディスプレイおよびそのドライバ回路により実現できる。
例えば、ヘッドセット基板1350から画像信号を受信する通信ICと、受信した画像信号に基づく画像を装着者の両眼に肉眼の視野角相当で見せる画像表示デバイス及び光学素子と、6軸センサ1308と、6軸センサ1308で検出した頭部の加速度や姿勢の情報を算出処理するICチップ1309と、ゲーム装置本体1002と通信接続するための通信モジュール1352と、を含む。これらの一部は、ヘッドセット基板1350に含まれるとしてもよい。
6軸センサ1308は、HMD1310すなわちプレーヤ2の頭部の前後(X3軸)・左右(Y3軸)・上下(Z3軸)の3軸の移動や各軸周りの回転(Φh、θh、Ψh)を検出するモーショントレースのための公知のセンサであって、例えば、3軸方向の加速度と3軸周りの角速度とを検出する。或いは3軸方向の加速度と東西南北の地磁気方向を検出するとしてもよい。
ヘッドセット基板1350は、ヘッドセット1300の各部と接続され当該ヘッドセットにおける各種演算処理と、外部とのデータ通信制御に係る処理を行う制御基板である。例えば、CPUやICメモリ、画像処理LSI、通信IC、インターフェース回路などにより実現できる。
また、HMD1310の正面3箇所に発光マーカ1312が設けられている。発光マーカ1312は、例えばLED等により実現され、ヘッドセット基板1350により発光制御される。通常は、常時点灯である。発光マーカ1312は、測距センサユニット1100のカラーイメージセンサ1104で撮影した画像からHMD1310の存在と位置を認識するためのマーカとして利用される。
図4は、測距空間の座標系と測距・認識される要素について説明する図である。
測距空間の座標系は、測距センサユニット1100を座標原点とし、カラーイメージセンサ1104の光軸方向を深度軸(Z軸)とする。そして、スケールは実空間と同様に設定されている。測距空間は実空間でもあるが、測距センサユニット1100の設置姿勢に応じて座標系の各軸方向が定義される。測距センサユニット1100の設置姿勢は、6軸センサ1108の検知結果から判断される。勿論、6軸センサ1109の検知結果から実空間の水平方向及び鉛直方向を求めることができるため、測距空間の座標軸の方向も、水平方向及び鉛直方向に沿って設定することが可能である。
本実施形態のゲームシステム1000では、測距センサユニット1100による測距によって測距空間における、HMD1310の位置Phと、ゲームコントローラ1200の位置Pcと、プレーヤ2の右手位置Pr及び左手位置Plとを随時(例えば100ms間隔などの所定周期で)得ることができる。
具体的には、測距センサユニット1100のカラーイメージセンサ1104で撮影された画像から、HMD1310の発光マーカ1312を認識することで、HMD1310の存在を認識し、画像座標系における発光マーカ1312が写っている位置と、当該位置の測距結果とからHMD1310の位置Phを決定する。測距センサユニット1100を基準とする発光マーカ1312の相対位置関係、相対距離、大きさから位置Phを割り出すとしても良い。ゲームコントローラ1200についても同様に、画像座標系における発光マーカ1202が写っている位置と、当該位置の測距結果とからゲームコントローラ1200の位置Pcを決定することができる。
また、カラーイメージセンサ1104で撮影された画像中の複数の発光マーカ1312それぞれの大きさ・傾き・変形や、各発光マーカ1312を結んでできる図形の大きさ・傾き・変形から、HMD1310の姿勢(Φh、θh、Ψh)、換言すれば、HMD1310を装着したプレーヤの視線方向(顔の正面方向)を検出することができる。そして、HMD1310の6軸センサ1308により位置Phにおける姿勢や姿勢の変化を知ることができる。ゲームコントローラ1200についても同様で、カラーイメージセンサ1104で撮影された画像中の発光マーカ1202それぞれの大きさ・傾き・変形や、各発光マーカ1202を結んでできる図形の大きさ・傾き・変形からゲームコントローラ1200の姿勢(Φc、θc、Ψc)を検出することができる。また、ゲームコントローラ1200の6軸センサ1208により位置Pcにおける姿勢や姿勢の変化を知ることができる。
なお、6軸センサ1308や6軸センサ1208が地磁気センサなどを含んで構成され、地磁気方向を基準とした姿勢を検出できるならば、発光マーカ1312や発光マーカ1202を用いた姿勢算出の補正情報として利用したり、発光マーカ1312や発光マーカ1202を利用せずに姿勢算出を実現することができる。
ジェスチャー入力の際の操作指示物となる左手位置Pl及び右手位置Prは、カラーイメージセンサ1104で撮影された画像から左手、右手が写っている部分を画像認識し、当該画像部分の位置座標と、当該位置座標に係る測距結果とから決定される。なお、手の画像認識は形状認識などの公知技術を適宜用いて実現できる。
そして、本実施形態のゲームシステム1000は、これらのパラメータ値に基づいて、家庭用据置型ゲーム装置でHMDを使用する際の不便を改善し、ユーザビリティを向上させる。具体的には、ヘッドセット1300を装着した状態で、且つゲームコントローラ1200が把持されない場合に、ヘッドセット1300を装着して外界の様子を確認できない状態であっても、比較的容易にゲームコントローラ1200を見つけて手に持てるように案内をしてプレーヤを補助する。
〔原理の説明〕
容易にゲームコントローラ1200を見つけて手に持てるようにする案内の1つが、HMD1310による案内表示の実施である。
図5は、HMD1310にて表示させるプレーヤ補助表示用の立体視画像を生成するためのプレーヤ補助表示用仮想3次元空間と当該空間に配置されるオブジェクトとの例を示す図である。
本実施形態では、プレーヤ補助表示用仮想3次元空間は、実空間の水平方向及び鉛直方向に沿って座標軸方向を定めた座標系で定義され、スケールも実空間と同様に設定される。また、座標原点は、測距空間の原点と同じ位置とする。プレーヤ補助表示用仮想3次元空間は仮想空間の一例であり、以下適宜「仮想空間」と略称する。HMD1310に表示するゲーム画像を生成するために、HMD1310用の仮想視点(仮想ステレオカメラ10)を基準とする視点座標系の仮想空間を別途設けるとしてもよい。また、プレーヤ補助表示用仮想3次元空間は、例えば、プレーヤが昆虫等のミクロの世界に入り込んだようなゲームを楽しむ場合には、実空間と異なるスケールとしてもよいことは勿論である。
プレーヤ補助表示用仮想3次元空間には、空間の方向感覚を補うために適宜床や壁、天井などの背景オブジェクト4と、仮想ステレオカメラ10と、コントローラオブジェクト12と、方向案内オブジェクト13と、左手オブジェクト14と、右手オブジェクト16とが配置される。また、操作入力を促すなどのプレーヤ2に向けた何らかの操作案内表示を行う場合には、案内キャラクタ20や、案内表示パネル22、被選択体24の各オブジェクトが配置される。
仮想ステレオカメラ10は、HMD1310にて立体視画像を生成するための左右一組の仮想カメラ群である。当該セットの右側カメラで撮影したプレーヤ補助表示用仮想3次元空間のレンダリング画像がHMD1310の右眼用の画像となり、左側カメラで撮影したレンダリング画像が左眼用の画像となる。
仮想ステレオカメラ10は、測距座標系から仮想空間の座標系に適宜座標変換されたHMD1310の位置Ph’に配置される。そして、仮想ステレオカメラ10の撮影画角は人の肉眼と同程度に設定され、光軸の方向はHMD1310の6軸センサ1308にて検出された前後軸(X3軸:図3)の方向とし、光軸周りの回転は6軸センサ1308にて検出された前後軸周りの回転と同一となるように制御される。つまり、仮想ステレオカメラ10はプレーヤ2の頭部の動きをトレースするように制御される。こうした機能は、公知のHMDに係るヘッドトラッキング技術を利用することができる。
コントローラオブジェクト12は、ゲームコントローラ1200の存在位置を示すオブジェクト(第1の案内表示の第1形態)であって、例えばゲームコントローラ1200を簡略化したデザインを有する。そして、測距座標系から仮想空間の座標系に適宜座標変換されたゲームコントローラ1200の位置Pc’に配置される。コントローラオブジェクト12の大きさは、実物のゲームコントローラ1200と同じまたは同程度とする。
方向案内オブジェクト13は、仮想空間においてコントローラオブジェクト12の位置を指し示すように制御されるオブジェクト(第1の案内表示の第2形態)である。HMD1310の視界内(撮影画角内)に、コントローラオブジェクト12が入らない場合に、HMD1310の視界内の所定位置に表示されるように配置位置が自動調節される。具体的には、HMD1310の表示画面の周部であって、ゲームコントローラ1200の位置PC’に最近接する位置に方向案内オブジェクト13が配置表示される(図6参照)。
左手オブジェクト14及び右手オブジェクト16は、本実施形態におけるジェスチャー入力の操作指示物である手の実空間(測距空間)中の位置に対応する仮想空間中の位置を示す指示オブジェクトであり、容易にゲームコントローラ1200を手に取れるようにするための第2の案内表示である。具体的には、左手オブジェクト14及び右手オブジェクト16は、それぞれ測距座標系から仮想空間の座標系に適宜座標変換されたプレーヤ2の左手位置Pl’及び右手位置Pr’に配置制御される。つまり、左手オブジェクト14及び右手オブジェクト16は、それぞれプレーヤ2の左手及び右手の動きをトレースする。
案内キャラクタ20や、案内表示パネル22、被選択体24は、仮想ステレオカメラ10から見て奥側、言うなればプレーヤ2の正面方向に配置される。
仮想ステレオカメラ10の位置や視線方向が変化したとしても(すなわち、ヘッドセット1300が装着された頭部を動かしたとしても)、案内キャラクタ20及び案内表示パネル22の仮想空間における配置位置は変化しない。特に、案内キャラクタ20は仮想空間中を移動し得るが、案内表示パネル22は仮想空間中の固定位置に配置されるものとする。
案内表示パネル22は、操作入力の目的や操作入力を促すテキストや図を表示する、例えば板状オブジェクトある。
被選択体24は、例えば選択操作アイコンに相当し、対応付けられている選択肢を示すテキストや図を表示する。被選択体24の配置位置は、仮想ステレオカメラ10の撮影画角内(すまわちHMD1310で見える視界内)において固定または略固定となるように自動制御される(詳細は後述)。被選択体24のデザインは、適宜設定可能であるが、本実施形態では案内キャラクタ20の台詞を表示する“吹き出し”に相当するデザインとする。
図6〜図8は、(1)HMD1310で表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ2とその周囲の状態と、を示す図である。
図6〜図8に示す画像は、ゲーム開始前の準備段階にあって、プレーヤ2が両手でヘッドセット1300を装着し、タッチパネル1004すなわち正面を向いた状態で見ることができる。
仮想空間の座標原点付近に案内キャラクタ20や、案内表示パネル22、被選択体24が初期配置されるため(図5参照)、図6に示すように仮想ステレオカメラ10の立体視画像(ゲーム画面)W2の中央正面に、これらが表示される。このうち、被選択体24は、必ずゲーム画面の所定位置に表示されるように、仮想ステレオカメラ10の視線方向に追従して、仮想空間中の位置が調整される(図8参照)。
この段階ではまだプレーヤ2はゲームコントローラ1200を把持していないので、プレーヤ2の手の位置によっては図6(1)に示すように左手オブジェクト14及び右手オブジェクト16が表示され得る。そして、この状態の仮想ステレオカメラ10からは、コントローラオブジェクト12が撮影画角内に入らないので(図6(2)参照)、第1の案内表示として方向案内オブジェクト13が画面内に表示される(図6(1)参照)。
プレーヤ2はゲームコントローラ1200を未だ手にしていないが、自身の手の位置により操作入力をすることができる。
図6(1)の例では、プレーヤ2にゲーム開始の意志確認を要求している。ゲームコントローラ1200を手にとってゲームを始める意志があれば左の被選択体24を手で触れるつもりで左側奥方へ腕を伸ばせばよい。左腕を延ばすに従い左手オブジェクト14が移動表示され、図7(1)に示す立体視画像(ゲーム画像)W4のように、左の被選択体24に到達または所定距離まで近接すると、左手オブジェクト14の表示形態が別の表示形態に切り換えられる。図7(1)の例では、表示色が変更されている。そして、その状態が所定時間維持或いは所定動作(例えば、その場で手を振る動作をする)と、左手オブジェクト14が左の被選択体24を選択入力したと判定され、左の被選択体24に対応づけられている選択肢の入力が確定する。つまり、ゲームプレイする意志がジェスチャー入力される。なお、図7(1)において、方向案内オブジェクト13は、別の形態の例を示している。
図7(1)の状態から、プレーヤ2が方向案内オブジェクト13を参考にして首を左方向に回転させれば、仮想空間における仮想ステレオカメラ10の向きも左方向に回転することとなる。HMD1310には、図8(1)の立体視画像(ゲーム画面)W6が表示されることになる。
図6(1)や図7(1)で表示されていた方向案内オブジェクト13は、図8(1)の状態でコントローラオブジェクト12が仮想ステレオカメラ10の撮影範囲に入ったことで仮想空間から消去され、立体視画像(ゲーム画面)W6からは消えることになる。つまり、第1の案内表示が、方向案内オブジェクト13からコントローラオブジェクト12に切り替えられることになる。
被選択体24は、立体視画像(ゲーム画面)の所定位置に固定的に表示されるので見失うことはない。また、被選択体24には、プレーヤ2のゲームプレイポジションにおける正面方向(タッチパネル1004の方向)を示す正面方向ガイド部25(図8(1)の例では、吹き出しの指示部分(引き出し部分))が用意されており、プレーヤ2が首を振ったとしても正面方向を見失うことはない。
プレーヤ2の頭の向き(すなわち、仮想ステレオカメラ10の視線方向)によっては、コントローラオブジェクト12の一部又は全部が被選択体24などの他オブジェクトの背後に隠れるケースも起こり得る。他オブジェクトは特に限定されない。例えば、案内キャラクタ20や案内表示パネル22、背景を構成するオブジェクトなども含まれる。そしてその場合、コントローラオブジェクト12の表出処理を行う。具体的には、コントローラオブジェクト12を隠しているオブジェクトを、図8(1)のように半透明表示するか、コントローラオブジェクト12が見えるように当該隠しオブジェクトのモデルを一時的に変更する。例えば、のぞき穴を作る、角を削ると言った具合である。図8(1)の例では、被選択体24が隠しオブジェクトとなる。
本実施形態では、仮想空間の水平方向及び鉛直方向はプレーヤ2が居る現実世界(実空間)と同じとし、スケールも現実世界(実空間)と同じとしている。そして、仮想ステレオカメラ10の撮影画角は肉眼に合わせてある。よって、プレーヤ2(ユーザ)にとって、HMD1310で見える立体視画像は、距離感が現実と同じ仮想現実の画像として認識される。よって、プレーヤ2は、コントローラオブジェクト12が見えている位置へ向けて腕を伸ばせば、容易にゲームコントローラ1200に手が届く。手が届くまでの過程においても、腕を延ばすのに伴って左手オブジェクト14(または右手オブジェクト16)が立体視画像内で移動表示されて最新の手の位置を示すので、普通に物を取る感覚で容易にゲームコントローラ1200を手に取ることができる。
また、本実施形態では、ゲームコントローラ1200への案内は、こうした立体視によるものの他にゲームコントローラ1200のバイブレーションと、ヘッドホン1302による信号音(案内音)とにより複合的に提供される。
具体的には、図6(2)に示すように、ゲームコントローラ1200が把持されていないと判断されると、バイブレータ1206(図2参照)を作動させてゲームコントローラ1200を振動させる。把持されていないことを検出する条件は、例えば、1)6軸センサ1208で検出される信号が所定時間以上変化しない、2)所定時間以上操作ボタンスイッチ1260などからの操作入力が検出されない、3)ゲームコントローラ1200の位置Pcから左手位置Plや右手位置Prまでの相対距離が基準値以上離れた、と言った条件の単独又は組合せとすることができる。
ゲームコントローラ1200が振動することにより発する音で、プレーヤ2はゲームコントローラ1200がどちらの方向にあるか知る手がかりとなる。また、手が触れると振動でゲームコントローラ1200であると直ぐに分かるので都合が良い。
また、ヘッドホン1302からは、HMD1310の位置Phから見たゲームコントローラ1200の位置Pcの方向から音が聞こえるように信号音をサラウンドで放音する。
サラウンド機能そのものは、公知技術により実現される。プレーヤ2は、信号音の聞こえてくる方向からゲームコントローラ1200がどちらにあるかを聴覚的に知り、ゲームコントローラ1200を見つけ出して手に取ることが可能となる。このとき、手の位置(右手位置Pr,左手位置Pl)と、ゲームコントローラ1200の位置Pcとの相対距離に応じて、音量や音高を変化させたり、パルス音であればその周期を変化させるなどの音制御を行うと一層好適である。
〔機能構成の説明〕
次に、本実施形態を実現するための機能構成例について説明する。
図9は、本実施形態におけるゲームシステム1000の機能構成例を示す機能ブロック図である。本実施形態におけるゲームシステム1000は、操作入力部100と、処理部200と、音出力部390と、画像表示部392と、通信部394と、コントローラ発振部396と、記憶部500とを備える。図9において、ゲーム装置本体1002の主要な機能ブロックは、操作入力部100、音出力部390、画像表示部392及びコントローラ発振部396を除いた構成となる。
操作入力部100は、各種操作を入力するための手段である。ジョイスティック、プッシュスイッチ、レバー、ボリューム、ペダルスイッチ、キーボード、マウス、トラックパッド、トラックボール、ジェスチャー入力装置など、公知の操作入力デバイスにより実現できる。本実施形態では、タッチパネル1004、ゲームコントローラ1200がこれに該当する(図1参照)。
そして、本実施形態の操作入力部100には、頭部姿勢変化検出部102と、測距部104と、が含まれる。
頭部姿勢変化検出部102は、プレーヤ2の頭部の姿勢及び姿勢の変化を検出し、検出信号を処理部200へ出力する。例えば、ジャイロや加速度センサを用いたり、イメージセンサで撮影画像から人の頭部を認識するなどの公知のヘッドトラッキング技術などにより実現できる。本実施形態では、ヘッドセット1300に内蔵されたHMD1310(図3参照)、より具体的には6軸センサ1308とICチップ1309がこれに該当する。HMD1310の姿勢を測距センサユニット1100で撮影した画像処理から求める構成であれば、測距センサユニット1100もこれに該当すると言える。
測距部104は、所定周期でプレーヤ2およびその周辺の様子を撮影し、存在する物体までの距離を測定し、撮影した画像データや測距結果を逐次処理部200へ出力する。本実施形態では、測距センサユニット1100が該当する(図1参照)。
処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC(特定用途向け集積回路)、FPGA、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100などからの入力信号に基づいて各種の演算処理を実行して、ゲームシステム1000の動作を統合的に制御する。本実施形態では制御基板1050がこれに該当する(図1参照)。
そして、処理部200は、ゲーム演算部202と、音信号生成部290と、画像信号生成部292と、通信制御部294とを含む。
ゲーム演算部202は、ゲームプレイに係る各種処理を実行する。
例えば、
1)仮想空間に背景オブジェクトとプレーヤキャラクタオブジェクトと仮想ステレオカメラ10とを配置する処理、
2)操作入力部100からの操作入力信号に基づいてプレーヤキャラクタオブジェクトの動作を制御する処理、
3)頭部姿勢変化検出部102からの検出情報に基づいて仮想ステレオカメラ10の姿勢をプレーヤ2の頭部の姿勢変化に連動させて、仮想ステレオカメラ10で撮影したゲーム空間の画像をレンダリングしHMD1310にて立体視画像として表示させる処理、
4)ゲーム終了の判定処理、
5)ゲーム成績の算出処理、
6)計時処理、などを行うことができる。勿論、ゲーム内容に応じてこれら以外の処理を適宜実行することができる。
そして、本実施形態のゲーム演算部202は、HMDを用いる上でのユーザビリティ向上を目的として、HMD位置姿勢算出部210と、コントローラ位置姿勢算出部212と、手位置算出部214と、コントローラ把持判定部216と、プレーヤ補助制御部220と、を有する。
HMD位置姿勢算出部210は、実空間におけるHMD1310の位置と姿勢を所定周期(例えば、10ms毎)で随時算出する。本実施形態では、測距部104で得られた画像や測距結果からHMD1310(或いはプレーヤ2の頭部)の位置Phを算出し、頭部姿勢変化検出部102からの検出情報に基づいて姿勢(Φh、θh、Ψh)を得る。
位置Phを求める方法は、適宜公知技術を用いることができる。例えば、測距部104で得られた画像に写っているHMD1310の3つの発光マーカ1312を抽出し、それらの中間位置の画像内の座標からX軸座標値及びY軸座標値を得て、その座標値に対応する測距結果からZ軸座標値を決定するとしてもよい。また、姿勢については、カラーイメージセンサ1104で撮影した画像から、発光マーカ1312や、HMD1310の正面や側面にプリントされている所定の幾何パターンをそれぞれ画像認識して算出する公知技術を用いるとしてもよい。
コントローラ位置姿勢算出部212は、ゲームコントローラ1200の位置Pcを所定周期(例えば、10ms毎)で随時算出する。本実施形態では、測距部104で得られた画像や測距結果からゲームコントローラ1200の位置Pcを算出する。
位置Pcを求める方法は、適宜公知技術を用いることができる。例えば、測距部104で得られた画像に写っているゲームコントローラ1200の2つの発光マーカ1202を抽出し、抽出された位置の中間位置の画像内の座標からX軸座標値及びY軸座標値を得て、その座標値に対応する測距結果からZ軸座標値を決定するとしてもよい。或いは、カラーイメージセンサ1104で撮影した画像からゲームコントローラ1200を画像認識して決定するとしてもよい。
手位置算出部214は、HMD1310の表示画像空間となる仮想空間(プレーヤ補助表示用仮想3次元空間)における、現実空間中のジェスチャー入力用の操作指示物の位置に対応する仮想位置を算出する。本実施形態では、プレーヤ2の左手位置Plと右手位置Prとを所定周期(例えば、10ms毎)で随時算出する。つまり、プレーヤ2の手の位置をトラッキングする。
手位置(左手、右手の仮想位置)を算出する方法は、適宜公知技術を用いることができる。例えば、カラーイメージセンサ1104で撮影した画像から人の手を画像認識し、認識した画像の座標からX軸座標値及びY軸座標値を得て、その座標値に対応する手までの測距結果からZ軸座標値を決定するとしてもよい。
コントローラ把持判定部216は、プレーヤ2がゲームコントローラ1200を手に持っているかを判定する。把持されていることを検知するとも換言できる。判定方法・検知方法は適宜選択可能である。例えば、所定時間(例えば5秒間)操作入力が無い場合や、ゲームコントローラ1200の姿勢変化が所定時間(例えば5秒間)無い場合に把持されていないと判定するとしてもよい。もしゲームコントローラ1200の把持部に静電容量を検出するセンサを搭載できるならば、人の手の接触に伴う静電容量の変化から把持されているか否かを検知するとしてもよい。
プレーヤ補助制御部220は、HMDを使用する際の不便を改善し、ユーザビリティを向上するための主たる制御を行う。
本実施形態では、仮想ステレオカメラ制御部221と、コントローラオブジェクト制御部222と、方向案内オブジェクト制御部224と、手オブジェクト制御部226と、被選択体制御部228と、表出処理部230と、立体視画像生成制御部232と、コントローラ振動制御部234と、擬似サラウンド制御部236と、ジェスチャー入力判定部238と、対キャラクタジェスチャー入力無効化制御部240と、を含む。
仮想ステレオカメラ制御部221は、仮想空間における仮想ステレオカメラ10の位置と姿勢を、実空間におけるHMD1310の位置と姿勢に対応するように制御する。すなわち、実空間におけるHMD1310を被ったプレーヤ2の頭の位置と視線方向(つまり顔正面方向)に連動・追従するように仮想ステレオカメラ10の位置と姿勢を制御する。
コントローラオブジェクト制御部222は、仮想空間にコントローラオブジェクト12を配置し、その表示形態を制御する。表示形態は、ゲームコントローラ1200とプレーヤ2の手との相対距離が所定の近接条件を満たすまでは標準の形態に設定し、近接条件を満たすと表示形態を特別な形態に変更する。
方向案内オブジェクト制御部224は、仮想空間に方向案内オブジェクト13を配置して、その移動と姿勢を制御する。具体的には、常にHMD1310の視界(ゲーム画面)の所定位置に留まるように方向案内オブジェクト13の位置を制御し、HMD1310から見たゲームコントローラ1200の方向を指すようにその姿勢を制御する。
手オブジェクト制御部226は、仮想空間に左手オブジェクト14と右手オブジェクト16を配置して、その移動を制御する。具体的には、実空間におけるHMD1310に対する左手位置、右手位置それぞれの相対位置に対応する仮想空間の位置に、左手オブジェクト14と右手オブジェクト16とが位置するように制御する。
被選択体制御部228は、ジェスチャー入力を要求する際にユーザがジェスチャーの目安とすることのできる表示体を表示制御する。結果的には、この表示体とプレーヤの手などの操作指示物との位置関係でジェスチャー入力が判定されるので、“入力判定体”を表示制御すると言い換えることできる。本実施形態では、操作入力内容が対応付けられた被選択体24を入力判定体の一種として用いて、案内キャラクタ20の“吹き出し”として仮想空間に配置し、プレーヤの手の到達目標位置とする。そして、常にHMD1310の視界(ゲーム画面)の所定位置に留まるように被選択体24の位置を制御する一方で、被選択体24の正面を仮想ステレオカメラ10へ向けるように制御する。また、正面方向ガイド部25が仮想空間の所定位置(例えば座標原点位置)の方向を指し示すように制御する。本実施形態では、正面方向ガイド部25の先端を案内キャラクタ20の所定位置に固定して、被選択体24と一続きとなるようにオブジェクトを変形制御することで、あたかも“吹き出し”が伸び縮み自在でありながら常に案内キャラクタ20を指し示しているように見える。
なお、被選択体24の表示形態はゲーム内容等に応じて適宜設定可能である。例えば、手の動作開始ポイントから終了ポイント、更にはそれら両ポイント間を結ぶ動作軌跡のガイド、などとすることができる。勿論、それがゲーム中に登場するキャラクタや背景物などを兼ねても良い。
表出処理部230は、仮想ステレオカメラ10とコントローラオブジェクト12の間に他のオブジェクトがあって、コントローラオブジェクト12の一部又は全部が当該他オブジェクトの背後になって見えなくなる場合に、コントローラオブジェクト12が見えるように表出させる画像処理をして可視化する。例えば、コントローラオブジェクト12を隠している他オブジェクトを半透明化したり、他オブジェクトにのぞき穴を開けるなどのオブジェクトモデルの変更などを行う。
また、同様に仮想ステレオカメラ10と被選択体24との間に他のオブジェクトがあって、被選択体24の一部又は全部が当該他オブジェクトの背後になって見えなくなる場合に、被選択体24が見えるように画像処理をして可視化する。
また、同様に仮想ステレオカメラ10と左手オブジェクト14や右手オブジェクト16と言った指示オブジェクトの間に他のオブジェクトがあって、指示オブジェクトの一部又は全部が当該他オブジェクトの背後になって見えなくなる場合も指示オブジェクトが見えるように画像処理をして可視化する。
立体視画像生成制御部232は、HMD1310の位置や姿勢に応じて視界が変化する仮想空間の画像を生成するための制御を行う。具体的には、仮想ステレオカメラ10の左右のカメラで撮影した仮想空間の画像をレンダリングしてHMD1310の左眼用及び右眼用の画像とする。つまりゲーム画像(ゲーム画面)となる立体視画像を生成させる。立体視画像生成制御部232は、仮想空間画像生成手段の一例である。
コントローラ振動制御部234は、プレーヤ2がゲームコントローラ1200を把持していないときに、ゲームコントローラ1200を振動させる制御を行う。
擬似サラウンド制御部236は、プレーヤ2がゲームコントローラ1200を把持していないときに、HMD1310から見たゲームコントローラ1200の方向から信号音が聞こえてくるようにステレオ音声を疑似的にサラウンド化する。本実施形態では、ヘッドホン1302にてプレーヤ2に音声を提供するので、公知の擬似サラウンド技術、バーチャルサラウンド技術を適宜利用することができる。
ジェスチャー入力判定部238は、操作指示物である左手または右手の仮想位置(左手位置Pl、右手位置Pr)と、仮想空間内のオブジェクトの配置位置とに基づいて、当該オブジェクトへの操作入力を判定する。
本実施形態では、仮想空間中の操作指示物の位置と、被選択体24の配置位置とに基づき、被選択体24の選択入力を判定することができる。具体的には、仮想空間における左手位置Pl’又は右手位置Pr’と、被選択体24の配置位置との関係が到達判定条件を満たす場合に、当該被選択体24に対応づけられる選択入力を確定判定する。同様に、ジェスチャー入力判定部238は、案内キャラクタ20に対するジェスチャー入力を判定することができる。
対キャラクタジェスチャー入力無効化制御部240は、被選択体24が配置・表示されているときには仮想空間内に配置されているキャラクタ(例えば、図5の案内キャラクタ20)を対象とするジェスチャー入力(例えば、案内キャラクタ20をなでて機嫌をとるなどの操作入力)の判定を無効とし、被選択体24が配置・表示されていないときに有効とする。換言すると、被選択体24の他に仮想空間内に配置されたジェスチャー入力の対象を一時的に操作対象外として、優先されるべき被選択体24へのジェスチャー入力のみを許可し、それ以外のオブジェクトへの意図しない・望まれないジェスチャー入力を防止する。
音信号生成部290は、例えばデジタルシグナルプロセッサ(DSP)などのマイクロプロセッサやその制御プログラムなどの公知技術によって実現され、ゲーム演算部202による処理結果に基づいて効果音やBGM、各種操作音などを含むゲーム音の音信号を生成し音出力部390に出力する。
音出力部390は、音信号生成部290から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。本実施形態では、ヘッドセット1300に搭載されているヘッドホン1302がこれに該当する(図3参照)。
画像信号生成部292は、立体視画像生成制御部232で生成された画像データや、ゲームシステム1000の設定画面に係る画像データ等の画像信号を画像表示部392へ出力することができる。
画像信号生成部392は、画像信号生成部292から入力される画像信号に基づいて各種画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクターといった画像表示装置によって実現できる。本実施形態ではタッチパネル1004(図1参照)や、HMD1310(図3参照)が該当する。
通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。
通信部394は、例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、通信網を介して外部のサーバシステム等と接続して通信を実現する。また、ゲームコントローラ1200等の無線接続機器との間の無線通信を実現する。
コントローラ発振部396は、ゲーム演算部202から出力される振動制御信号に従って、ゲームコントローラ1200を振動させる。本実施形態では、バイブレータ1206及びコントローラ基板1250がこれに該当する(図2参照)。
記憶部500は、処理部200にゲームシステム1000を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、処理部200の作業領域として用いられ、操作入力部100から入力されたデータを一時的に記憶したり、処理部200が実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。本実施形態ではICメモリ1052がこれに該当する(図1参照)。
図10は、本実施形態の記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、システムプログラム501と、ゲーム演算プログラム502と、ゲーム初期設定データ510と、プレイデータ520とを記憶する。勿論、これら以外の情報も適宜記憶することができる。
システムプログラム501は、処理部200が読み出して実行することで、ゲームシステム1000にコンピュータとして必要な基本的な入出力機能を実現させる。
ゲーム演算プログラム502は、処理部200にゲーム演算部202としての機能を実現させるためのプログラムである。
ゲーム初期設定データ510は、ゲーム空間や、ゲームルール、ゲームに登場する各種オブジェクトを定義する各種初期設定データが格納されている。
プレイデータ520は、プレーヤ補助制御のためのデータや、ゲーム進行状況を記述する各種データを格納する。本実施形態では、実空間である測距空間における、HMD位置座標521(HMD1310の位置Ph)と、HMD姿勢データ522と、コントローラ位置座標523(ゲームコントローラ1200の位置Pc)と、左手位置座標525(左手位置Pl)と、右手位置座標526(右手位置Pr)とを含む。また、仮想空間制御データ630を含む。勿論、これら以外の情報も適宜含めることができる。
仮想空間制御データ630は、ゲーム空間を構成する仮想3次元空間(仮想空間)のデータであり、プレーヤ補助表示用のオブジェクトを配置管理するデータを含む。例えば、図11に示すように、仮想ステレオカメラ制御データ602と、コントローラオブジェクト制御データ604と、方向案内オブジェクト制御データ606と、左手オブジェクト制御データ608と、右手オブジェクト制御データ610と、案内キャラクタ制御データ612と、案内表示パネル制御データ614と、被選択体制御データ616と、を含む。勿論、これら以外の情報も適宜含めることができる。
[動作の説明]
図12は、ゲームシステム1000における処理の流れを説明するためのフローチャートであって、ゲーム演算プログラム502を実行することにより実現される。
先ず、ゲームシステム1000のゲーム装置本体1002は、タッチパネル1004、測距センサユニット1100、ゲームコントローラ1200、ヘッドセット1300の各機器の機器認証を行う(ステップS2)。
機器認証が済む事で、測距センサユニット1100からはカラーイメージセンサ1104により随時所定周期で撮影された画像データと当該画像に基づく測距結果とがゲーム装置本体1002へ逐次入力される。また、ゲームコントローラ1200からは6軸センサ1208による検出結果が、ヘッドセット1300からはHMD1310の6軸センサ1308よる検出結果が、それぞれゲーム装置本体1002へ所定周期で入力される。
次に、ゲーム装置本体1002は、測距センサユニット1100から入力された画像や測距結果に基づいて、HMD1310の位置Phと、ゲームコントローラ1200の位置Pcと、プレーヤ2の左手位置Pl及び右手位置Prとを所定周期で随時算出する処理を開始する(ステップS4)。つまり、これらの各要素の実空間内におけるトラッキングが開始される。
また、ゲームコントローラ1200がプレーヤ2の手に把持されているかを所定周期で随時判定する処理を開始し(ステップS6)、ジェスチャー入力の判定を開始する(ステップS8)。
次いで、ゲーム装置本体1002は、タッチパネル1004に起動画面を表示させ、ゲーム開始の操作入力を待機する。ゲームコントローラ1200から所定のゲーム開始操作が入力されると(ステップS10)、ゲーム装置本体1002は、プレーヤ2へ向けてヘッドセット1300を装着するように促す案内をタッチパネル1004にて表示させる(ステップS12)。そして、ゲームプレイの意志確認の受付を開始するとともに(ステップS14)、仮想ステレオカメラ10を仮想空間の初期位置に配置して仮想ステレオカメラ10で撮影した仮想空間の様子を元にした立体視画像をHMD1310にて表示させる制御を開始し(ステップS15)、プレーヤ補助処理を実行する(ステップS16)。
図13〜図14は、プレーヤ補助処理の流れを説明するためのフローチャートである。
図13に示すように、プレーヤ補助処理では、ゲーム装置本体1002はプ仮想空間制御データ630(図11参照)を生成し、HMD1310の実空間での位置・姿勢に連動するように仮想空間における仮想ステレオカメラ10の移動と姿勢の制御を開始する(ステップS50)。
また、仮想空間内に左手オブジェクト14及び右手オブジェクト16(図5参照)を配置し、プレーヤ2の左手・右手それぞれの実空間での位置・姿勢に連動するように仮想空間でのそれらのオブジェクトの移動・姿勢制御を開始する(ステップS52)。
次に、ゲームコントローラ1200がプレーヤ2に把持されていない場合(ステップS60のNO)、ゲーム装置本体1002は、仮想空間内にコントローラオブジェクト12(図5参照)を配置し、ゲームコントローラ1200の実空間での位置・姿勢に連動するように当該オブジェクトの仮想空間での移動・姿勢制御を開始する(ステップS62)。
そして、コントローラオブジェクト12の表示形態調整を開始する(ステップS64)。
具体的には、コントローラオブジェクト12と左手オブジェクト14との相対距離、及びコントローラオブジェクト12と右手オブジェクト16との相対距離をそれぞれ算出し、小さい方の相対距離に応じてコントローラオブジェクト12の表示形態(例えば、表示カラーの変更、明滅パターン、表示サイズの変更など)を設定・変更する。
次に、ゲームシステム1000のゲーム装置本体1002は、方向案内オブジェクト13の表示要否判定と、その判定結果に応じて当該オブジェクトの配置/配置解除を開始する(ステップS66)。
具体的には、コントローラオブジェクト12が仮想ステレオカメラ10の撮影範囲内に入っているかを判定する。そして、もし撮影範囲に入っていなければ、方向案内オブジェクト13を表示要と見なし、即座に当該撮影範囲内の所定領域にコントローラオブジェクト12を指し示す方向案内オブジェクト13を配置する。換言すれば、HMD1310の向き又は視界に応じて、方向案内オブジェクト13の配置位置と姿勢とを制御する。反対に撮影範囲に入っていなければ、方向案内オブジェクト13を表示不要と見なし、方向案内オブジェクト13は配置せず、配置済みであれば即座に配置を解除する。
また、これに伴って表示形態を、仮想ステレオカメラ10に最寄りの左手オブジェクト14又は右手オブジェクト16との距離に応じて逐次変更制御するものとする。例えば、表示色を変更したり、寸法比率(例えば、矢印の長さ)を変更するなどとしてもよい。矢印のみのデザインであれば、距離が遠いほど矢印の数を増やして、コントローラオブジェクト12の方向へ向けて直列に配置するとしてもよい。
次に、ゲーム装置本体1002は、ヘッドホン1302での信号音の擬似サラウンド出力を開始する(ステップS68)。
具体的には、HMD1310からゲームコントローラ1200への相対方向と相対距離を算出し、ヘッドホン1302にて相対方向から相対距離に応じてパターン変更される信号音が聞こえてくるように擬似サラウンド制御する。
次いで、ゲーム装置本体1002は、ゲームコントローラ1200での振動制御を開始する(ステップS70)。振動パターンや振動強度は、コントローラオブジェクト12と左手オブジェクト14または右手オブジェクト16との相対距離に応じて設定・変更するとしてもよい。
次に、案内表示が必要であるかを判定する。ステップS14にてゲームプレイの意志確認の操作入力の受付を開始しているので、ここでは案内表示が必要と判断される。
そして、案内表示が必要であれば(ステップS90のYES)、ゲーム装置本体1002は、仮想ステレオカメラ10の正面、具体的には仮想ステレオカメラ10からみた奥行方向において仮想ステレオカメラ10と仮想空間の座標原点との間に案内キャラクタ20及び案内表示パネル22を配置する(ステップS92:図5参照)。ちなみに、ステップS14にてゲームプレイの意志確認の操作入力の受付を開始しているので、案内表示パネル22には意志確認のための操作入力を促すテキストが表示される(図6参照)。
更に、ゲーム装置本体1002は、案内キャラクタ20へのジェスチャー入力の判定を無効化する(ステップS94)。これにより、被選択体24へのジェスチャー入力のつもりが、意図しない案内キャラクタ20に対する操作入力と誤認されることがなくなる。
図14のフローチャートに移って、次に、ゲーム装置本体1002は選択操作の入力が必要であるかを判定する。ステップS14にてゲームプレイの意志確認の操作入力の受付を開始しているので、ここでは肯定判断される。
そして、肯定の場合(ステップS110のYES)、ゲーム装置本体1002は仮想空間内に、選択肢に対応付けられた被選択体24を配置する(ステップS112)。具体的には、本実施形態の被選択体24は“吹き出し”型をしているので、吹き出しの引き出し部の先端を案内キャラクタ20近傍に設定し、吹き出しの本体部分を、案内キャラクタ20の脇に位置するように設定する(図6参照)。
次いで、ゲーム装置本体1002は、仮想ステレオカメラ10の位置や姿勢の変化に応じた被選択体24の移動制御と、正面方向ガイド部25の変形制御とを行う(ステップS114)。すなわち、被選択体24が立体視画像(ゲーム画面)の所定位置に固定的に表示されるように移動制御し、被選択体24の正面が常に仮想ステレオカメラ10に向くように制御する。また、正面方向ガイド部25が、案内キャラクタ20の脇から伸びて被選択体24に連結しているように変形制御する。
なお、ステップS114は、仮想ステレオカメラ10の位置や姿勢の変化が所与の条件を満たす場合にはスキップするとしてもよい。例えば、仮想ステレオカメラ10の正面(HMD1310の正面方向)が、現実空間の前後方向(測距センサユニット1100の正面方向)から左右90°以上になった場合にスキップする、或いは制御を直前の状態で保持するとしてもよい。
そして、その被選択体24毎に、最寄りの左手オブジェクト14または右手オブジェクト16との相対距離に応じた表示形態の自動調整を開始する(ステップS116)。
具体的には、被選択体24と、左手オブジェクト14または右手オブジェクト16との相対距離が、当該被選択体24を選択した(到達した)とみなす所定の近接条件を満たさなければ、標準の表示形態とし、近接条件を満たした場合に選択されたことを通知するための特別な表示形態とする。
次に、ゲーム装置本体1002は、コントローラオブジェクト12の一部又は全体を仮想ステレオカメラ10から見て隠している他オブジェクトを検出し、該当する他オブジェクトが有る場合に背後に隠されるコントローラオブジェクト12を表出させて可視化する画像処理(表出処理)を開始する(ステップS118)。
具体的には、他オブジェクトの一部又は全体を半透明化表示したり、或いは、他オブジェクトのモデルの一部を非表示にしたり変形させて背後に隠れているコントローラオブジェクト12を表出させる。
また、ゲーム装置本体1002は、被選択体24の一部又は全体を仮想ステレオカメラ10から見て隠している他オブジェクトを検出し、該当する他オブジェクトが有る場合に背後に隠される被選択体24を表出させて可視化する画像処理(表出処理)を開始する(ステップS120)。
更に同様にして、左手オブジェクト14及び右手オブジェクト16についても、これらの一部又は全体を仮想ステレオカメラ10から見て隠している他オブジェクトを検出し、該当する他オブジェクトが有る場合に背後に隠される左手オブジェクト14及び右手オブジェクト16を表出させて可視化する画像処理(表出処理)を開始する(ステップS122)。
ここで、プレーヤ2の視界には図6(1)〜図8(1)で示したようなゲーム画像が見えることになる。
次いで、ジェスチャー入力による選択入力を判定する(ステップS170)。本実施形態では左手オブジェクト14又は右手オブジェクト16が、何れかの被選択体24に到達するとジェスチャーにより選択入力されたと判定する。もし、選択入力がYES/NOのように2択であれば、HMD1310の視界の左右方向にそれぞれYES,NO(或いは選択肢)を割り当てておいて、左手オブジェクト14又は右手オブジェクト16によって、視界の左右何れの領域で所定のモーション(例えば、手を前に突き出す、手を振るなど)がなされたか、或いは、じゃんけんのチョキのように手を所定の形態にしたか、などを判定するとしてもよい。
そして、もし選択入力されたと判定されたならば(ステップS170のYES)、ゲーム装置本体1002は該当する被選択体24に対応する選択肢の入力を確定する(ステップS172)。また、この際、該当する被選択体24の表示形態を所定形態に変更してプレーヤ2に選択肢の入力確定を通知する。
そして、被選択体24の表示を解除して、案内キャラクタ20へのジェスチャー入力の判定を有効化する(ステップS174)。なお、被選択体24が複数有る場合には、ステップS170で到達判定された被選択体24を最後に画面から消すようにすると、プレーヤがどの被選択体24を選択したかを明示する効果が生まれて好適である。また、被選択体24が1つの場合(例えば確認ボタンとしての被選択体24)でも同様にステップS172〜S174を実行することができる。
次に、プレーヤ補助処理を開始してからゲームコントローラ1200がプレーヤ2により把持されていることが検知されたならば(ステップS180のYES)、ゲーム装置本体1002はゲームコントローラ1200での振動発生と、ヘッドホン1302での擬似サラウンド出力とを終了し(ステップS182)、プレーヤ補助処理を終了する。
図12に戻って、ステップS16を終了した状態で、プレーヤ2はヘッドセット1300を頭部に装着し、手にはゲームコントローラ1200を把持した状態になっている。つまり、ゲームプレイのための準備が整っている。
よって、ゲーム装置本体1002は、次にゲームプレイの制御を開始して、HMD1310にてゲーム画面を表示させる制御と、ヘッドホン1302にてゲーム音を放音させる制御とを開始させる(ステップS200)。
ゲーム装置本体1002は、ゲームプレイ中も周期的にプレーヤ補助発動条件が満たされているか判定する。プレーヤ補助発動条件は、ゲーム内容に応じて適宜設定可能であるが、本実施形態ではゲームコントローラ1200が把持されていない場合、キーボードなどのゲームコントローラ1200以外の機器による操作入力が行われた場合、プレーヤ2の手によるジェスチャー入力が必要とされる場合、などの単独又は組合せにより設定される。
そして、プレーヤ補助発動条件が満たされているならば(ステップS202のYES)、プレーヤ補助処理を再度実行する(ステップS204)。
プレーヤ補助発動条件を満たさず、或いは、プレーヤ補助処理の後、ゲーム進行状況が所定のゲーム終了条件を満たすまで、プレーヤ補助発動条件を満たせばプレーヤ補助処理を実行し、ゲーム終了条件を満たすと(ステップS210のYES)、ゲーム装置本体1002は一連の処理を終了する。
以上、本実施形態によれば、第1にゲーム装置等でHMDを使用する際の不便を改善し、ユーザビリティを向上することができる。
すなわち、プレーヤ2がゲームコントローラ1200を把持していない状態が検知されると、HMD1310にはヘッドトラッキングされたプレーヤの視点位置から見た仮想空間の立体視画像がゲーム画像として写し出される。そして、その立体視画像では、ユーザ視点から見たゲームコントローラ1200の位置にコントローラオブジェクト12が表示されるとともに、モーショントレースされるプレーヤの左手オブジェクト14及び右手オブジェクト16が表示される。よって、プレーヤはHMDを被って外界の様子が見えない状態であっても、立体視画像の仮想空間がいわば仮想現実空間となるため、ゲームコントローラ1200の有る場所に手をのばし容易に手に取ることができる。手探りでコントローラを探すような不便さが解消される。
また、ゲームコントローラ1200がHMD1310の視界外にある場合には、方向案内オブジェクト13がどちらに首を回せばゲームコントローラ1200が見えるようになるか示すので、これを頼りにすればゲームコントローラ1200が何処にあっても容易に手に取ることができる。しかも、コントローラオブジェクト12が他オブジェクトの背後に隠れるような場合でも、自動的に他オブジェクトを半透明化したり切抜きするなど表出処理が行われコントローラオブジェクト12がプレーヤから見えるようになるので、すぐに見つけることができる。
また、本実施形態によれば、第2にHMDを使用してジェスチャー入力を実現する際のユーザビリティを向上させることができる。
すなわち、ヘッドトラッキングされたHMD1310に表示される立体視画像には、ジェスチャー入力する内容が割り当てられた被選択体24が、プレーヤが頭の向きを変えても同じ又は略同じ位置に残存表示される。ジェスチャー入力に慣れないと、どのようにジェスチャーすればその場で望まれている入力ができるか分かり難いものであるが、ユーザは被選択体をジェスチャー操作の案内として利用できるので、スムーズにその時要求されるジェスチャー入力ができるようになる。
また、左手オブジェクト14や右手オブジェクト16が被選択体24に到達するとジェスチャー入力が確定される。よって、左手オブジェクト14や右手オブジェクト16と、被選択体24との位置関係から、誰でも容易にその時要求されるジェスチャー入力ができるようになる。
しかも、被選択体24が他オブジェクトの背後に隠れるような場合でも、自動的に他オブジェクトを半透明化したり切り抜きするなどの表出処理が行われて、被選択体24がプレーヤから見えるようになるので、すぐに見つけることができる。
また、仮想空間内に被選択体以外にもジェスチャー入力の対象が存在する場合に、被選択体以外へのジェスチャー入力を無効化することで、被選択体への入力を優先させるとともに意図しない入力を防止することができる。
〔変形例〕
なお、本発明の実施形態は上記に限らず、適宜構成要素の追加・省略・変更が可能である。
[その1]
例えば、上記実施形態では、HMDを装着すると中からは外を見る事ができない非透過型HMDとして説明したが、ゲームの内容によって必ずしも非透過型HMDである必要は無い。例えば、半透過型のHMDに対しても本発明は適用可能であり上記実施形態と同様の効果を得ることができる。
[その2]
また、ヘッドセット1300それ自体が、例えば、姿勢検出可能なセンサを搭載したメガネ型やゴーグル型のウェアラブルコンピュータであって、ゲーム装置本体1002を兼ねる構成としてもよい。更に言えば、上記実施形態のゲームシステム1000は、HMDを備えるコンピュータであれば家庭用据置型を想定したゲーム装置に限らず、遊園地や博物館などの施設に設置されるHMDを用いたアトラクション装置、HMDを装着して行う航空機やヘリコプターなどの操縦シミュレーション装置、HMDを装着してスタジオ内で実物のゴルフクラブでスイングするなどしてスポーツを仮想体験するスポーツシミュレーション装置など、その他の形態の装置でもよい。
[その3]
また、上記実施形態ではスタンドアローンのゲームシステム1000を例示したが、図15に示すように、クライアント・サーバ型のゲームシステム1000で実現するとしてもよい。この場合、上記実施形態におけるゲーム演算部202(図9参照)は、通信回線9を介して接続されるサーバシステム1900にて実現され、当該構成におけるゲーム装置本体1002は、所定のクライアントプログラムを実行することで、操作入力部100からの入力信号をサーバシステム1900へ逐次送信する機能と、サーバシステム1900から受信したデータに基づいて画像をHMD1310にて表示させる機能及びヘッドホン1302にて音出力させる機能とを実現する。つまり、ユーザ端末としての制御機能を担うようになる。
[その4]
また、上記実施形態では、HMD1310の姿勢を検知する方法は、測距センサユニット1100で撮影した画像と、HMD1310の6軸センサ1308の検出結果を用いる構成としたがこれに限らない。
例えば、図15に示すように、HMD1310に前方の外界を撮影するために赤外線撮影可能なイメージセンサ1320を姿勢検知用センサとして追加し、測距センサユニット1100では赤外線照射器1102を所定の配置関係で複数配置する。そして、コントローラ位置姿勢算出部212を、コントローラ捕捉検出手段とする。具体的には、赤外線照射器1102を実空間中の所定位置に設置される固定マーカと見なして、測距センサユニット1100による撮影画像中にこの赤外線照射器1102が写っていればゲームコントローラ1200が写っていると判定し、当該撮影画像から赤外線照射器1102の撮像位置(距離を含む)を求め、各赤外線照射器1102の位置関係の回転や変形、各赤外線照射器1102間の距離、写っている赤外線照射器1102の大きさなどから、イメージセンサ1320の位置を基準としたHMD1310の位置Phおよび姿勢を幾何的に逆算して求める。そして、プレーヤ補助制御部220のコントローラオブジェクト制御部222が、コントローラ捕捉検出部208の検出結果に応じてコントローラオブジェクト12を仮想空間に配置して所定の報知制御を行うようにすればよい。つまり、コントローラオブジェクト制御部222を捕捉時報知制御部として機能させればよい。報知の方法は、表示・音出力・振動など、適宜の方法で実現できる。
[その5]
また、上記実施形態では、ゲームコントローラ1200の位置Pcは、測距空間の座標系(図4参照)における位置座標で記述したが、これに限らない。
例えば、ゲームコントローラ1200の位置Pcを認識空間におけるHMD1310の位置PhとHMD1310の姿勢(換言すれば、HMD1310を被ったプレーヤ2の視点と視線方向と)に基づく相対位置で記述する構成とすることも可能であり、上記実施形態の記述を適宜そのように読み替えることができる。
[その6]
また、上記実施形態では、被選択体24をHMD1310の視界内所定領域にて仮想ステレオカメラ10に対向するように配置し、HMD1310の位置や姿勢に応じて移動制御や姿勢制御を行うこととしたが、当該移動制御や姿勢制御を省略して、案内表示パネル22と同様に、HMD1310の位置や姿勢が変化しても、仮想空間の所定位置に所定姿勢で配置することとしてもよい。上記実施形態では、FPS(ファーストパーソンシューティング)のように、ヘッドトラッキングが激しく、ともすれば被選択体24を見失いそうになるゲーム内容に好適であるが、逆に、例えばアドベンチャーゲームで秘密の部屋の鍵を解錠するための番号や操作を入力するといった内容を含むゲームでは、被選択体24が仮想空間の所定位置に動かずに固定配置され、HMD1310が当該所定位置の方向を向いたときにのみその視界内に現れるほうが好適である。
勿論、何れかの方式を選択しなければならいものではなく、両方の方式を採用してもよい。その場合、記憶部500(図9参照)に選択入力イベントを定義するデータを記憶させ、当該データにて被選択体24毎に選択入力内容とともに配置位置を固定するか否かを示す情報を対応づけておき、被選択体制御部228(図9参照)がこれに従って被選択体24の配置や姿勢(向き)を制御すれば良い。
[その7]
また、上記実施形態では、ジェスチャー入力に係る操作指示物としてプレーヤ2の手を用いる構成としたが、ゲーム内容によっては何らかのポインティングデバイスを用いるとしてもよい。ポインティングデバイスは、公知の銃型コントローラ(いわゆる「ガンコン」)や、公知のスティック型モーションコントローラなどを用いるとしてもよい。この場合、銃型コントローラやスティック型モーションコントローラの先端には、発光マーカ1312(図3参照)に相当するマーカを設け、これを測距センサユニット1100で撮影することで、先端位置を検出し、搭載される6軸センサで姿勢変化を検出する構成とすると好適である。勿論、その場合、ポインティングデバイスはゲームコントローラ1200を兼ねても良い。
[その8]
また、上記実施形態では、HMD1310に表示する画像を立体視画像として説明したが、平面視画像としてもよい。その場合、仮想ステレオカメラ10の左右の仮想カメラの中間位置に1台の仮想カメラを配置して、仮想ステレオカメラ10の代わりに利用してもよいし、左右の仮想カメラの何れか一方を利用してもよい。
[その9]
また、上記実施形態では、仮想空間の座標系(図5参照)の座標原点を測距空間(実空間)の座標系(図4参照)の座標原点としたがこれに限らない。
例えば、図16に示すように、ゲーム演算部202に、現実空間に対応するように仮想空間の座標系を初期設定する座標系初期設定部204を設けるとしてもよい。そして、座標系初期設定部204は、トラッキング開始時点の測距センサユニット1100による測距結果に基づくHMD1310の位置Phを仮想空間の座標原点とし、トラッキング開始時点のHMD1310の姿勢に座標軸を合わせ、実空間の座標系と仮想空間の座標系とを同タイミングでマッチングしてイニシャライズする。
或いは、図17に示すように、トラッキング開始時点の測距センサユニット1100による測距結果に基づく左手位置Pl及び右手位置Prの中間点を仮想空間の座標原点VOとし、トラッキング開始時点のHMD1310の姿勢に座標軸を合わせるとしてもよい。
座標系の定義において、実空間と仮想空間とで前後および左右が反転する場合には、測距結果を仮想空間中のオブジェクトに反映させるときに(例えば、左手位置Plに基づいて、左手オブジェクト14をモーショントレースさせる場合など)には適宜座標変換するものとする。
[その10]
また、上記実施形態では、トラッキングやモーショントレースのスケールを、実空間中のHMD1310の位置Phと、操作指示物(左手位置Plや右手位置Pr)との相対位置関係に基づいて補正する機能を追加してもよい。
具体的には、図16に示すように、仮想位置補正部206を設ける。この仮想位置補正部206は、HMD1310の向きを基準にした相対位置関係が所定の補正条件を満たした場合に、当該補正条件に対応付けられた補正演算に従って仮想位置を補正する。
より具体的には、補正条件としては、測距センサユニット1100の正面方向(実空間の前後方向)に対して、HMD1310の正面が左90°以上、または右90°以上の場合に、左90°以上ならば左手位置Plのモーショントレースのスケールを所定倍率だけ上げる、右90°以上ならば右手位置Prのモーショントレースのスケールを所定倍率だけ上げるとしてもよい。
2…プレーヤ
10…仮想ステレオカメラ
12…コントローラオブジェクト
13…方向案内オブジェクト
14…左手オブジェクト
16…右手オブジェクト
20…案内キャラクタ
22…案内表示パネル
24…被選択体
25…正面方向ガイド部
100…操作入力部
102…頭部姿勢変化検出部
104…測距部
200…処理部
202…ゲーム演算部
210…HMD位置姿勢算出部
212…コントローラ位置姿勢算出部
214…手位置算出部
216…コントローラ把持判定部
220…プレーヤ補助制御部
221…仮想ステレオカメラ制御部
222…コントローラオブジェクト制御部
224…方向案内オブジェクト制御部
226…手オブジェクト制御部
228…被選択体制御部
230…表出処理部
232…立体視画像生成制御部
234…コントローラ振動制御部
236…擬似サラウンド制御部
238…ジェスチャー入力判定部
240…対キャラクタジェスチャー入力無効化制御部
396…コントローラ発振部
500…記憶部
502…ゲーム演算プログラム
510…ゲーム初期設定データ
520…プレイデータ
521…HMD位置座標
522…HMD姿勢データ
523…コントローラ位置座標
525…左手位置座標
526…右手位置座標
602…仮想ステレオカメラ制御データ
604…コントローラオブジェクト制御データ
606…方向案内オブジェクト制御データ
608…左手オブジェクト制御データ
610…右手オブジェクト制御データ
612…案内キャラクタ制御データ
614…案内表示パネル制御データ
616…被選択体制御データ
630…仮想空間制御データ
1000…ゲームシステム
1002…ゲーム装置本体
1050…制御基板
1100…測距センサユニット
1104…カラーイメージセンサ
1200…ゲームコントローラ
1206…バイブレータ
1208…6軸センサ
1250…コントローラ基板
1300…ヘッドセット
1302…ヘッドホン
1308…6軸センサ
1310…HMD
1312…発光マーカ
1320…イメージセンサ
Ph…HMDの位置
Pc…ゲームコントローラの位置
Pl…左手位置
Pr…右手位置

Claims (17)

  1. ユーザの頭部に装着されるHMD(Head Mounted Display)と、コンピュータを操作するための前記ユーザが把持するコントローラと、前記HMD及び前記コントローラを含む実空間を撮影するように設置される撮像手段とに接続された前記コンピュータを、
    前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における前記コントローラの仮想位置を算出するコントローラ位置算出手段、
    前記撮像手段の撮影画像を用いて、前記仮想空間における前記HMDの仮想位置を算出するHMD位置算出手段、
    前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段、
    前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段、
    前記コントローラの仮想位置が前記視界外の場合に、前記HMDの仮想位置から前記コントローラの仮想位置に向かう方向を示すオブジェクトを第1の案内表示として前記HMDに表示させる第1の案内表示制御手段、
    として機能させるためのプログラム。
  2. 前記撮像手段の撮影画像を用いて、前記実空間に対応する前記仮想空間における前記ユーザの手の仮想位置を算出する手位置算出手段、
    前記手の仮想位置を用いて、前記実空間中の前記手の位置に対応する前記仮想空間中の位置を示す第2の案内表示を前記HMDに表示させる第2の案内表示制御手段、
    として前記コンピュータを更に機能させるための請求項に記載のプログラム。
  3. 前記撮像手段の撮影画像を用いて、前記実空間に対応する前記仮想空間における前記ユーザの手の仮想位置を算出する手位置算出手段、
    として前記コンピュータを更に機能させ、
    前記第1の案内表示制御手段は、前記コントローラの仮想位置と前記手の仮想位置との相対位置関係を用いて前記第1の案内表示を変更制御する、
    請求項に記載のプログラム。
  4. ユーザの頭部に装着されるHMD(Head Mounted Display)と、コンピュータを操作するための前記ユーザが把持するコントローラと、前記HMD及び前記コントローラを含む実空間を撮影するように設置される撮像手段とに接続された前記コンピュータを、
    前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における前記コントローラの仮想位置を算出するコントローラ位置算出手段、
    前記撮像手段の撮影画像を用いて、前記実空間に対応する前記仮想空間における前記ユーザの手の仮想位置を算出する手位置算出手段、
    前記コントローラの仮想位置と前記手の仮想位置との相対位置関係を用いて、前記実空間中の前記コントローラの位置に対応する前記仮想空間中の位置を示す第1の案内表示を前記HMDに表示させる第1の案内表示制御手段、
    として機能させるためのプログラム。
  5. 前記撮像手段の撮影画像を用いて、前記仮想空間における前記HMDの仮想位置を算出するHMD位置算出手段として前記コンピュータを更に機能させ、
    前記第1の案内表示制御手段は、前記HMDの仮想位置から見た前記コントローラの仮想位置を示すように前記第1の案内表示を表示させる、
    請求項に記載のプログラム。
  6. 前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段、
    前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段、
    として前記コンピュータを更に機能させ、
    前記第1の案内表示制御手段は、前記コントローラの仮想位置が前記視界内か否かに応じて前記第1の案内表示の形態を変更する、
    請求項に記載のプログラム。
  7. 前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段、
    前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段、
    として前記コンピュータを更に機能させ、
    前記第1の案内表示制御手段は、前記コントローラの仮想位置が前記視界外の場合に、前記HMDの仮想位置から前記コントローラの仮想位置に向かう方向を示すオブジェクトを前記第1の案内表示として表示させる、
    請求項に記載のプログラム。
  8. 前記HMDには、マーカが設けられており、
    前記HMD位置姿勢判定手段は、前記撮像手段の撮影画像中の前記マーカの撮像情報を用いて前記HMDの位置及び/又は姿勢を判定する、
    請求項1,6又は7に記載のプログラム。
  9. 前記HMDには、加速度センサ、ジャイロ、及び、前記実空間中の所定位置に設置される固定マーカを撮影するためのカメラのうちの少なくも1つを含む姿勢検知用センサが搭載されており、
    前記HMD位置姿勢判定手段は、前記姿勢検知用センサの検知結果を用いて前記HMDの位置及び/又は姿勢を判定する、
    請求項1,6又は7に記載のプログラム。
  10. 前記仮想空間における前記第1の案内表示の位置が、前記HMDの仮想位置からみて前記仮想空間中の他オブジェクトの背後に隠れた位置となる場合に、当該第1の案内表示を表出させるように画像処理する画像処理手段として前記コンピュータを更に機能させるための請求項の何れか一項に記載のプログラム。
  11. 前記第1の案内表示制御手段は、前記コントローラの仮想位置が前記視界内の場合に、前記コントローラを表すオブジェクトを前記第1の案内表示として表示させる、
    請求項10の何れか一項に記載のプログラム。
  12. 前記コントローラが把持されていることを検知する把持検知手段として前記コンピュータを更に機能させ、
    前記第1の案内表示制御手段は、前記コントローラが把持されていないときに、前記第1の案内表示を行う、
    請求項1〜11の何れか一項に記載のプログラム。
  13. 前記コンピュータは、前記ユーザに装着されるヘッドホンと更に接続されており、
    前記コントローラの仮想位置を示す案内音を前記ヘッドホンから出力させる案内音制御手段として前記コンピュータを更に機能させるための請求項1〜12の何れか一項に記載のプログラム。
  14. 前記実空間に対応するように前記仮想空間の座標系を初期設定する座標系初期設定手段、
    として前記コンピュータを更に機能させるための請求項1〜13の何れか一項に記載のプログラム。
  15. 前記HMDにはカメラが設けられており、
    前記カメラによる撮影画像中に前記コントローラが写っていることを検出するコントローラ捕捉検出手段、
    前記コントローラ捕捉検出手段の検出結果に応じて前記第1の案内表示を前記HMDに表示させることで所定の報知制御を行う捕捉時報知制御手段、
    として前記コンピュータを更に機能させるための請求項1〜14の何れか一項に記載のプログラム。
  16. ユーザの頭部に装着されるHMDと、画像生成装置を操作するための前記ユーザが把持するコントローラと、前記HMD及び前記コントローラを含む実空間を撮影するように設置される撮像手段とに接続され、前記HMDに表示させる画像を生成するための前記画像生成装置であって、
    前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における前記コントローラの仮想位置を算出するコントローラ位置算出手段と、
    前記撮像手段の撮影画像を用いて、前記仮想空間における前記HMDの仮想位置を算出するHMD位置算出手段と、
    前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段と、
    前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段と、
    前記コントローラの仮想位置が前記視界外の場合に、前記HMDの仮想位置から前記コントローラの仮想位置に向かう方向を示すオブジェクトを第1の案内表示として前記HMDに表示させる第1の案内表示制御手段と、
    を備えた画像生成装置。
  17. ユーザの頭部に装着されるHMDと、画像生成装置を操作するための前記ユーザが把持するコントローラと、前記HMD及び前記コントローラを含む実空間を撮影するように設置される撮像手段とに接続され、前記HMDに表示させる画像を生成するための前記画像生成装置であって、
    前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における前記コントローラの仮想位置を算出するコントローラ位置算出手段と、
    前記撮像手段の撮影画像を用いて、前記実空間に対応する前記仮想空間における前記ユーザの手の仮想位置を算出する手位置算出手段と、
    前記コントローラの仮想位置と前記手の仮想位置との相対位置関係を用いて、前記実空間中の前記コントローラの位置に対応する前記仮想空間中の位置を示す第1の案内表示を前記HMDに表示させる第1の案内表示制御手段と、
    を備えた画像生成装置。
JP2014119124A 2014-06-09 2014-06-09 プログラムおよび画像生成装置 Active JP6355978B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014119124A JP6355978B2 (ja) 2014-06-09 2014-06-09 プログラムおよび画像生成装置
US14/663,984 US9884248B2 (en) 2014-06-09 2015-03-20 Display control method for head-mounted display (HMD) and image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014119124A JP6355978B2 (ja) 2014-06-09 2014-06-09 プログラムおよび画像生成装置

Publications (2)

Publication Number Publication Date
JP2015232783A JP2015232783A (ja) 2015-12-24
JP6355978B2 true JP6355978B2 (ja) 2018-07-11

Family

ID=54768777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014119124A Active JP6355978B2 (ja) 2014-06-09 2014-06-09 プログラムおよび画像生成装置

Country Status (2)

Country Link
US (1) US9884248B2 (ja)
JP (1) JP6355978B2 (ja)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10209771B2 (en) * 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
US10173129B2 (en) * 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
EP3066592A4 (en) * 2013-11-08 2017-07-19 Performance Lab Technologies Limited Automated prescription of activity based on physical activity data
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
EP2996017B1 (en) * 2014-09-11 2022-05-11 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
JP2016082462A (ja) * 2014-10-20 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US10725297B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US9852546B2 (en) * 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US10726625B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP6788327B2 (ja) 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP6467039B2 (ja) * 2015-05-21 2019-02-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US10191561B2 (en) * 2015-06-15 2019-01-29 Facebook Technologies, Llc Tracking controllers of a virtual reality system
US10685211B2 (en) * 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
JP5944600B1 (ja) * 2015-08-28 2016-07-05 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置
JP5981006B1 (ja) * 2015-09-14 2016-08-31 株式会社コロプラ 視線誘導のためのコンピュータ・プログラム
WO2017064972A1 (ja) * 2015-10-14 2017-04-20 アルプス電気株式会社 ウェアラブル装置とその姿勢測定方法及びプログラム
JP6097377B1 (ja) * 2015-11-27 2017-03-15 株式会社コロプラ 画像表示方法及びプログラム
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP6017664B1 (ja) * 2015-12-28 2016-11-02 株式会社コロプラ 情報処理方法及び情報処理プログラム
JP6832061B2 (ja) * 2015-12-29 2021-02-24 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6134019B1 (ja) * 2016-01-29 2017-05-24 株式会社コロプラ 仮想現実空間提供方法および仮想現実空間提供プログラム
JP6087453B1 (ja) * 2016-02-04 2017-03-01 株式会社コロプラ 仮想空間の提供方法、およびプログラム
US20170274268A1 (en) * 2016-03-22 2017-09-28 University Of Central Florida Research Foundation, Inc. Interactive exercise devices and systems
US10565854B2 (en) * 2016-03-23 2020-02-18 Nec Corporation Eyeglasses-type wearable terminal, control method thereof, and control program
WO2017173153A1 (en) 2016-03-30 2017-10-05 Ebay, Inc. Digital model optimization responsive to orientation sensor data
JP6275185B2 (ja) * 2016-04-06 2018-02-07 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
US10521008B2 (en) * 2016-04-14 2019-12-31 Htc Corporation Virtual reality device, method for virtual reality, and non-transitory computer readable storage medium
JP6968800B2 (ja) * 2016-04-27 2021-11-17 ロヴィ ガイズ, インコーポレイテッド 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム
US20170329440A1 (en) * 2016-05-12 2017-11-16 Cirque Corporation Controller premonition using capacitive sensing
JP6689678B2 (ja) * 2016-06-01 2020-04-28 京セラ株式会社 検出方法、被検出物、及びシステム
JP6689679B2 (ja) * 2016-06-01 2020-04-28 京セラ株式会社 表示装置、情報表示システム、及びプログラム
US10788888B2 (en) * 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
CN109314800B (zh) 2016-06-13 2022-02-01 索尼互动娱乐有限责任公司 用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和***
KR102519578B1 (ko) 2016-07-05 2023-04-07 삼성전자주식회사 전자 장치의 화면 표시 방법 및 그 장치
WO2018008096A1 (ja) * 2016-07-05 2018-01-11 マクセル株式会社 情報表示装置およびプログラム
US10198855B2 (en) 2016-07-20 2019-02-05 Colopl, Inc. Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods
JP6189496B1 (ja) * 2016-07-20 2017-08-30 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP6189497B1 (ja) * 2016-07-20 2017-08-30 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP6189495B1 (ja) * 2016-07-20 2017-08-30 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
KR102531168B1 (ko) 2016-07-26 2023-05-12 삼성디스플레이 주식회사 표시 장치
JP6122194B1 (ja) * 2016-08-08 2017-04-26 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6449922B2 (ja) * 2017-01-18 2019-01-09 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018020735A1 (ja) * 2016-07-28 2018-02-01 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6118444B1 (ja) * 2016-07-28 2017-04-19 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6157703B1 (ja) * 2016-08-24 2017-07-05 株式会社コロプラ 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6220937B1 (ja) * 2016-08-26 2017-10-25 株式会社コロプラ 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
US10255658B2 (en) * 2016-08-09 2019-04-09 Colopl, Inc. Information processing method and program for executing the information processing method on computer
JP6228640B1 (ja) * 2016-08-17 2017-11-08 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6093473B1 (ja) * 2016-08-19 2017-03-08 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
DE202017104928U1 (de) * 2016-08-23 2017-11-24 Google Inc. Manipulation virtueller Objekte anhand von Controllern mit sechs Freiheitsgraden in erweiterten bzw. virtuellen Realitätsumgebungen
JP6444345B2 (ja) * 2016-08-23 2018-12-26 株式会社コロプラ 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム
JP6934374B2 (ja) * 2016-08-26 2021-09-15 株式会社コロプラ プロセッサを備えるコンピュータにより実行される方法
JP6779715B2 (ja) * 2016-09-02 2020-11-04 株式会社Living Anywhere Garage 情報処理システム
KR20180028211A (ko) * 2016-09-08 2018-03-16 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
KR102614333B1 (ko) 2016-09-08 2023-12-19 삼성디스플레이 주식회사 표시장치
JP6122537B1 (ja) * 2016-09-08 2017-04-26 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6445499B2 (ja) * 2016-09-08 2018-12-26 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2018042753A (ja) * 2016-09-14 2018-03-22 株式会社スクウェア・エニックス ゲームシステム、ゲーム進行方法、及び、コンピュータ装置
WO2018051436A1 (ja) * 2016-09-14 2018-03-22 株式会社朝日ネット 処理実行システム、情報処理装置、及びプログラム
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
CN106980362A (zh) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US11185763B2 (en) 2016-10-11 2021-11-30 Valve Corporation Holding and releasing virtual objects
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US10549183B2 (en) 2016-10-11 2020-02-04 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
US10691233B2 (en) 2016-10-11 2020-06-23 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10888773B2 (en) 2016-10-11 2021-01-12 Valve Corporation Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
US10649583B1 (en) 2016-10-11 2020-05-12 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
JP6457989B2 (ja) * 2016-10-12 2019-01-23 株式会社カプコン ゲームプログラム及びゲーム装置
JP6646565B2 (ja) * 2016-12-12 2020-02-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
KR102649729B1 (ko) 2016-11-02 2024-03-22 삼성디스플레이 주식회사 표시장치
GB2555838A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
KR102650572B1 (ko) * 2016-11-16 2024-03-26 삼성전자주식회사 전자 장치 및 그의 제어 방법
WO2018092947A1 (ko) * 2016-11-18 2018-05-24 주식회사 트라이캐치미디어 스마트 로봇 게임 시스템
KR102654621B1 (ko) 2016-12-08 2024-04-04 삼성전자주식회사 객체를 디스플레이하기 위한 방법 및 그 전자 장치
JP6193466B1 (ja) * 2016-12-09 2017-09-06 株式会社ドワンゴ 画像表示装置、画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
GB2557593A (en) * 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
JP6332652B1 (ja) * 2016-12-15 2018-05-30 株式会社コナミデジタルエンタテインメント 表示制御装置、及びプログラム
JP6246310B1 (ja) * 2016-12-22 2017-12-13 株式会社コロプラ 仮想空間を提供するための方法、プログラム、および、装置
JP2018106392A (ja) * 2016-12-26 2018-07-05 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
JP2018106520A (ja) 2016-12-27 2018-07-05 株式会社コロプラ 仮想空間にコンテンツを提示するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、コンテンツ提示装置
JP6382928B2 (ja) * 2016-12-27 2018-08-29 株式会社コロプラ 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018112809A (ja) * 2017-01-10 2018-07-19 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
EP3529686A4 (en) * 2017-01-13 2019-09-25 Samsung Electronics Co., Ltd. APPARATUS AND METHOD FOR PROVIDING GUIDANCE IN A VIRTUAL ENVIRONMENT
JP6446072B2 (ja) * 2017-01-23 2018-12-26 株式会社カプコン ゲームプログラム及びゲームシステム
JP2018117970A (ja) * 2017-01-27 2018-08-02 株式会社スクウェア・エニックス ゲームシステム、ゲーム実行方法、及び、コンピュータ装置
JP6776155B2 (ja) * 2017-02-28 2020-10-28 株式会社コロプラ 仮想現実を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6263292B1 (ja) * 2017-03-08 2018-01-17 株式会社コロプラ 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10365784B2 (en) 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method
CN106975218B (zh) * 2017-03-10 2021-03-23 北京顺源开华科技有限公司 基于多个可穿戴设备控制体感游戏的方法及装置
IL269533B2 (en) * 2017-03-28 2023-11-01 Magic Leap Inc An augmented reality system with spatial audio linked to a user-operated virtual object
GB2562245B (en) * 2017-05-09 2019-09-25 Sony Interactive Entertainment Europe Ltd System and method of locating a controller
JP6290493B2 (ja) * 2017-05-17 2018-03-07 株式会社コロプラ 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6941130B2 (ja) * 2017-05-19 2021-09-29 株式会社コロプラ 情報処理方法、情報処理プログラム及び情報処理装置
JP6342038B1 (ja) * 2017-05-26 2018-06-13 株式会社コロプラ 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法
EP3652619A4 (en) 2017-06-16 2021-02-24 Valve Corporation ELECTRONIC CONTROL WITH FINGER MOVEMENT DETECTION
JP6779840B2 (ja) * 2017-07-07 2020-11-04 株式会社コロプラ 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム
JP6416338B1 (ja) * 2017-07-13 2018-10-31 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
JP6389305B1 (ja) * 2017-07-21 2018-09-12 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP6728111B2 (ja) * 2017-08-01 2020-07-22 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP6392953B1 (ja) * 2017-08-15 2018-09-19 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10509534B2 (en) * 2017-09-05 2019-12-17 At&T Intellectual Property I, L.P. System and method of providing automated customer service with augmented reality and social media integration
WO2019054086A1 (ja) * 2017-09-15 2019-03-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6522092B1 (ja) * 2017-12-06 2019-05-29 株式会社スクウェア・エニックス 表示システム及び表示方法
US11188144B2 (en) 2018-01-05 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus to navigate a virtual content displayed by a virtual reality (VR) device
JP6603734B2 (ja) * 2018-01-23 2019-11-06 株式会社カプコン ゲームプログラムおよびゲーム装置
CN111712780A (zh) * 2018-02-06 2020-09-25 奇跃公司 用于增强现实的***和方法
CN110115842B (zh) * 2018-02-06 2023-01-13 日本聚逸株式会社 应用处理***、应用处理方法以及应用处理程序
JP2021060627A (ja) 2018-02-07 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018110871A (ja) * 2018-02-07 2018-07-19 株式会社コロプラ 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
JP2019149066A (ja) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 情報処理装置及びプログラム
EP4212222A1 (en) 2018-03-07 2023-07-19 Magic Leap, Inc. Visual tracking of peripheral devices
US10695667B2 (en) 2018-03-14 2020-06-30 Sony Interactive Entertainment LLC Pro gaming AR visor and method for parsing context specific HUD content from a video stream
CN110475159A (zh) * 2018-05-10 2019-11-19 中兴通讯股份有限公司 多媒体信息的传输方法及装置、终端
KR20210011369A (ko) * 2018-05-22 2021-02-01 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
JP7135444B2 (ja) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
EP3807746B1 (en) * 2018-06-20 2023-07-26 Valve Corporation Holding and releasing virtual objects
WO2020012997A1 (ja) * 2018-07-13 2020-01-16 ソニー株式会社 情報処理装置、プログラム及び情報処理方法
JP2019023869A (ja) * 2018-08-03 2019-02-14 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
US10824244B2 (en) * 2018-11-19 2020-11-03 Facebook Technologies, Llc Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces
JP7199204B2 (ja) * 2018-11-19 2023-01-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
KR20200105136A (ko) * 2019-02-28 2020-09-07 (주)유인케어 가상현실환경을 이용한 이야기 속 역할 수행을 통한 인지재활훈련 및 평가 방법
FR3093578A1 (fr) * 2019-03-05 2020-09-11 Orange Procédé et dispositif de traitement de données d'un environnement de réalité virtuelle.
JP7296220B2 (ja) * 2019-03-08 2023-06-22 株式会社竹中工務店 支援システム、及び支援プログラム
US10918945B2 (en) * 2019-03-15 2021-02-16 Sony Interactive Entertainment Inc. Methods and systems for spectating characters in follow-mode for virtual reality views
GB2582315B (en) * 2019-03-19 2023-05-17 Sony Interactive Entertainment Inc Method and system for generating an image
JP7301567B2 (ja) * 2019-03-20 2023-07-03 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法
JP2019155113A (ja) * 2019-04-02 2019-09-19 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP7283958B2 (ja) * 2019-04-11 2023-05-30 株式会社ソニー・インタラクティブエンタテインメント 複数のマーカを備えたデバイス
JP2020177283A (ja) 2019-04-15 2020-10-29 株式会社ソニー・インタラクティブエンタテインメント 複数のマーカを備えたデバイス
JP6670965B2 (ja) * 2019-04-23 2020-03-25 株式会社スクウェア・エニックス 表示システム及び表示方法
JP7288792B2 (ja) 2019-04-24 2023-06-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびデバイス情報導出方法
US10853991B1 (en) * 2019-05-20 2020-12-01 Facebook Technologies, Llc Multi-layered artificial reality controller pose tracking architecture having prioritized motion models
US11178384B2 (en) * 2019-07-10 2021-11-16 Nintendo Co., Ltd. Information processing system, storage medium, information processing apparatus and information processing method
US20220351452A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production method
US11373374B2 (en) * 2019-11-07 2022-06-28 Volvo Car Corporation Aligning the augmented reality or virtual reality world with the real world using natural position understanding
JP2021157277A (ja) * 2020-03-25 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US20210308576A1 (en) * 2020-04-07 2021-10-07 CEO Vision, Inc (dba Croquet Studios) Systems and methods for an object movement engine in a gaming environment
CN112822480B (zh) 2020-12-31 2022-05-17 青岛小鸟看看科技有限公司 Vr***及其定位追踪方法
US11507203B1 (en) * 2021-06-21 2022-11-22 Meta Platforms Technologies, Llc Body pose estimation using self-tracked controllers
WO2023157241A1 (ja) * 2022-02-18 2023-08-24 任天堂株式会社 システム、ポータブル電子機器、処理方法、およびプログラム
WO2023176424A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 表示制御装置
JP2023178798A (ja) * 2022-06-06 2023-12-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、コントローラ表示方法およびコンピュータプログラム
WO2024017465A1 (en) * 2022-07-20 2024-01-25 Huawei Technologies Co., Ltd. Handheld video game controller

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2949176B2 (ja) 1992-04-30 1999-09-13 株式会社セガ・エンタープライゼス シューティングライドゲーム機
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
JP2000210468A (ja) 1999-01-20 2000-08-02 Namco Ltd ゲ―ム装置
JP2003125313A (ja) 2001-10-18 2003-04-25 Canon Inc 振動機付きヘッドマウントディスプレイ
JP2005165776A (ja) * 2003-12-03 2005-06-23 Canon Inc 画像処理方法、画像処理装置
US20070132785A1 (en) * 2005-03-29 2007-06-14 Ebersole John F Jr Platform for immersive gaming
JP5064313B2 (ja) * 2008-06-20 2012-10-31 オリンパス株式会社 携帯情報端末
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US9454849B2 (en) * 2011-11-03 2016-09-27 Microsoft Technology Licensing, Llc Augmented reality playspaces with adaptive game rules
US9093012B2 (en) * 2012-02-29 2015-07-28 Lenovo (Beijing) Co., Ltd. Operation mode switching method and electronic device
JP2013190941A (ja) * 2012-03-13 2013-09-26 Nikon Corp 情報入出力装置、及び頭部装着表示装置
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
JP2013258614A (ja) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US9329678B2 (en) * 2012-08-14 2016-05-03 Microsoft Technology Licensing, Llc Augmented reality overlay for control devices
JP6116934B2 (ja) * 2012-09-06 2017-04-19 東芝アルパイン・オートモティブテクノロジー株式会社 アイコン操作装置

Also Published As

Publication number Publication date
JP2015232783A (ja) 2015-12-24
US20150352437A1 (en) 2015-12-10
US9884248B2 (en) 2018-02-06

Similar Documents

Publication Publication Date Title
JP6355978B2 (ja) プログラムおよび画像生成装置
JP6629499B2 (ja) プログラムおよび画像生成装置
JP6684559B2 (ja) プログラムおよび画像生成装置
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP6396027B2 (ja) プログラムおよびゲーム装置
JP5586545B2 (ja) ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
US20170024934A1 (en) Information processing apparatus, information processing system, and information processing method
US11865448B2 (en) Information processing apparatus and user guide presentation method
US8684837B2 (en) Information processing program, information processing system, information processing apparatus, and information processing method
US8952956B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2012115414A (ja) ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム
JP2024050696A (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
JP2010142404A (ja) ゲームプログラムおよびゲーム装置
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
JP6203346B1 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
WO2022124135A1 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP2018028900A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2022090964A (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP2022090965A (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180613

R150 Certificate of patent or registration of utility model

Ref document number: 6355978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250