JP2019048045A - 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム - Google Patents
情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP2019048045A JP2019048045A JP2018156742A JP2018156742A JP2019048045A JP 2019048045 A JP2019048045 A JP 2019048045A JP 2018156742 A JP2018156742 A JP 2018156742A JP 2018156742 A JP2018156742 A JP 2018156742A JP 2019048045 A JP2019048045 A JP 2019048045A
- Authority
- JP
- Japan
- Prior art keywords
- user
- avatar
- virtual space
- virtual
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】キャラクタとアバターとを混在させた仮想空間における仮想体験のエンタテイメント性を向上させる。【解決手段】ヘッドマウントデバイス110Aを介して第1ユーザ190Aに仮想体験を提供する情報処理方法は、第1ユーザに関連付けられた第1アバターA1と、第1ユーザによる操作入力に基づいて仮想空間2内で動作する第1キャラクタオブジェクトC1と、第2アバターA2と、第2アバターに関連付けられた第2キャラクタオブジェクトC2とを含む仮想空間を規定する仮想空間データを生成するステップと、第1アバター、第1キャラクタオブジェクト、第2アバター及び第2キャラクタオブジェクトのうちの少なくとも2つの位置関係に基づいて、第1ユーザのゲーム進行を有利または不利にさせるように調整するステップと、第1アバターに関連付けられた仮想視点の位置に基づいて生成した視野画像を表示部に表示させるステップと、を含む。【選択図】図11
Description
本発明は、情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。
仮想空間におけるゲーム体験(VRゲーム)をユーザに提供するハードウェアとして、プレイステーション(登録商標)VRが知られている。プレイステーションVRでは、ユーザは、コントローラを用いて仮想空間におけるプレイヤキャラクタ等を操作することにより、VRゲームをプレイすることができる。コントローラを用いてVRゲームをプレイするための技術については、特許文献1,2にも開示されている。
また、仮想空間におけるキャラクタを操作するゲームにおいて、ユーザの分身としての位置づけを有するオブジェクトであるアバターをキャラクタと共に仮想空間に混在させることによりエンタテイメント性を向上させることが行われている。
そこで、本開示は、キャラクタとアバターとを混在させた仮想空間における仮想体験のエンタテイメント性を向上させ得る情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
本開示が示す一態様によれば、表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて前記仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクトと、を含む仮想空間を規定する仮想空間データを生成するステップと、前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちの少なくとも2つの間の位置関係に基づいて、前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのいずれかに対して、前記第1ユーザのゲーム進行を有利または不利にさせるように調整するステップと、前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、を含む。
本開示によれば、キャラクタとアバターとを混在させた仮想空間における仮想体験のエンタテイメント性を向上させ得る情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラムを提供することが可能となる。
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[HMDシステムの構成]
[HMDシステムの構成]
図1を参照して、HMD(Head Mount Device)システム100の構成について説明する。図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
HMDシステム100は、HMD装置110(ヘッドマウントデバイス)と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD装置110は、モニタ112(表示部)と、マイク118と、注視センサ140とを含む。
ある局面において、コンピュータ200は、インターネットその他のネットワーク19に接続可能であり、ネットワーク19に接続されているサーバ150その他のコンピュータと通信可能である。別の局面において、HMD装置110は、HMDセンサ120の代わりに、センサ114を含み得る。
HMD装置110は、ユーザの頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD装置110は、右目用の画像および左目用の画像をモニタ112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。
モニタ112は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ112は、ユーザの両目の前方に位置するようにHMD装置110の本体に配置されている。したがって、ユーザは、モニタ112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施の形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、およびユーザが選択可能なメニューの画像等を含む。ある実施の形態において、モニタ112は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。モニタ112は、HMD装置110の本体と一体に構成されてもよいし、別体として構成されてもよい。
ある局面において、モニタ112は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
マイク118は、ユーザが発した音声を取得する。マイク118によって取得された音声は、音声解析処理によってユーザの感情を検知するために使用され得る。検知結果は、後述するアバターの表情等に反映されてもよい。当該音声は、仮想空間2に対して、音声による指示を与えるためにも使用され得る。また、当該音声は、ネットワーク19およびサーバ150等を介して、他のユーザが使用するHMDシステムに送られ、当該HMDシステムに接続されたスピーカ等から出力されてもよい。これにより、仮想空間を共有するユーザ間での会話(チャット)が実現される。
HMDセンサ120は、複数の光源(図示しない)を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD装置110およびコントローラ160の動きを検出するためのポジショントラッキング機能を有する。HMDセンサ120は、この機能を用いて、現実空間内におけるHMD装置110の位置および傾き、ならびにコントローラ160の位置および傾きを検出する。
なお、別の局面において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD装置110およびコントローラ160の画像情報を用いて、画像解析処理を実行することにより、HMD装置110の位置および傾き、ならびにコントローラ160の位置および傾きを検出することができる。
別の局面において、HMD装置110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD装置110は、センサ114を用いて、HMD装置110自身の位置および傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、あるいはジャイロセンサ等である場合、HMD装置110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD装置110の3軸周りの角速度を経時的に検出する。HMD装置110は、各角速度に基づいて、HMD装置110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD装置110の傾きを算出する。また、HMD装置110は、透過型表示装置を備えていてもよい。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視界画像は仮想空間を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。例えば、HMD装置110に搭載されたカメラで撮影した画像を視界画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視界画像の一部から現実空間を視認可能にしてもよい。
注視センサ140は、ユーザ190の右目および左目の視線が向けられる方向(視線方向)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線方向を検知することができる。
サーバ150は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ150は、他のユーザによって使用されるHMD装置に仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行う場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。なお、サーバ150は、一または複数のコンピュータ装置により構成され、後述するコンピュータ200のハードウェア構成と同様に、一般的なコンピュータが備えるハードウェア構成(プロセッサ、メモリ、ストレージ等)を備える。
コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ160は、ユーザ190によって把持可能に構成される。本実施形態では、コントローラ160は、ユーザ190によって両手で把持されるタイプの入力装置である。別の局面において、コントローラ160は、コンピュータ200から送られる信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の局面において、コントローラ160は、仮想現実を提供する空間に配置されるオブジェクトの位置および動き等を制御するためにユーザ190によって与えられる操作を受け付ける。上述したように、現実空間におけるコントローラ160の位置および傾きは、HMDセンサ120(あるいはカメラ等)によって検出され得る。別の局面において、コントローラ160は、位置検出器として、上述したセンサ114と同様のセンサ(図示しない)を備えてもよい。この場合、当該センサにより、コントローラ160の位置および傾きが検出され得る。また、HMDセンサ120とコントローラ160が備えるセンサとが併用されてもよい。この場合、例えば、コントローラ160の位置はHMDセンサ120によって検出され、コントローラ160の傾きはコントローラ160が備えるセンサによって検出される。
[ハードウェア構成]
[ハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
プロセッサ10は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ11またはストレージ12に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。
メモリ11は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ12からロードされる。メモリ11に保存されるデータは、コンピュータ200に入力されたデータと、プロセッサ10によって生成されたデータとを含む。ある局面において、メモリ11は、RAM(Random Access Memory)その他の揮発性メモリとして実現される。
ストレージ12は、プログラムおよびデータを永続的に保持する。ストレージ12は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発性記憶装置として実現される。ストレージ12に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、および他のコンピュータ200との通信を実現するためのプログラム等を含む。ストレージ12に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。
なお、別の局面において、ストレージ12は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ12の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムおよびデータ等の更新を一括して行うことが可能になる。
ある実施の形態において、入出力インターフェース13は、HMD装置110およびHMDセンサ120との間で信号を通信する。ある局面において、入出力インターフェース13は、USB(Universal Serial Bus)インターフェース、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。なお、入出力インターフェース13は上述のものに限られない。例えば、入出力インターフェース13は、Bluetooth(登録商標)等の無線通信インターフェースを含んでもよい。
ある実施の形態において、入出力インターフェース13は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェース13は、コントローラ160から出力された信号の入力を受ける。別の局面において、入出力インターフェース13は、プロセッサ10から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。
通信インターフェース14は、ネットワーク19に接続されて、ネットワーク19に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある局面において、通信インターフェース14は、例えば、LAN(Local Area Network)その他の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェースとして実現される。なお、通信インターフェース14は上述のものに限られない。
ある局面において、プロセッサ10は、ストレージ12にアクセスし、ストレージ12に格納されている1つ以上のプログラムをメモリ11にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、コントローラ160を用いて仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ10は、入出力インターフェース13を介して、仮想空間を提供するための信号をHMD装置110に送る。HMD装置110は、その信号に基づいてモニタ112に映像を表示する。
サーバ150は、ネットワーク19を介して複数のHMDシステム100の各々の制御装置と接続される。図2に示される例では、サーバ150は、HMD装置110Aを有するHMDシステム100Aと、HMD装置110Bを有するHMDシステム100Bとを含む複数のHMDシステム100を互いに通信可能に接続する。これにより、共通の仮想空間を用いた仮想体験が各HMDシステムを使用するユーザに提供される。なお、HMDシステム100A、HMDシステム100B、およびその他のHMDシステム100は、いずれも同様の構成を備える。ただし、各HMDシステム100は、互いに異なる機種であってもよいし、互いに異なる性能(処理性能および検知性能等)を有するものであってもよい。
なお、図2に示される例では、コンピュータ200がHMD装置110の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD装置110に内蔵されてもよい。一例として、モニタ112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
また、コンピュータ200は、複数のHMD装置110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。なお、このような場合、本実施形態における複数のHMDシステム100は、入出力インターフェース13により、コンピュータ200に直接接続されてもよい。また、本実施形態におけるサーバ150の各機能(例えば後述する同期処理等)は、コンピュータ200に実装されてもよい。
ある実施の形態において、HMDシステム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施の形態では、グローバル座標系は視点座標系の一つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
ある局面において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD装置110の各光源から発せられた赤外線をそれぞれ検出すると、HMD装置110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD装置110を装着したユーザ190の動きに応じた、現実空間内におけるHMD装置110の位置および傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD装置110の位置および傾きの時間的変化を検出できる。
グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD装置110の各傾きは、グローバル座標系におけるHMD装置110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD装置110の傾きに基づき、uvw視野座標系をHMD装置110に設定する。HMD装置110に設定されるuvw視野座標系は、HMD装置110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。
[uvw視野座標系]
[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD装置110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD装置110の起動時に、グローバル座標系におけるHMD装置110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD装置110に設定する。
図3に示されるように、HMD装置110は、HMD装置110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD装置110は、グローバル座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD装置110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD装置110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
ある局面において、HMD装置110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ10は、グローバル座標系に平行なuvw視野座標系をHMD装置110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD装置110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。
uvw視野座標系がHMD装置110に設定された後、HMDセンサ120は、HMD装置110の動きに基づいて、設定されたuvw視野座標系におけるHMD装置110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD装置110の傾きとして、uvw視野座標系におけるHMD装置110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD装置110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD装置110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD装置110の傾き角度を表す。
HMDセンサ120は、検出されたHMD装置110の傾き角度に基づいて、HMD装置110が動いた後のHMD装置110におけるuvw視野座標系を、HMD装置110に設定する。HMD装置110と、HMD装置110のuvw視野座標系との関係は、HMD装置110の位置および傾きに関わらず、常に一定である。HMD装置110の位置および傾きが変わると、当該位置および傾きの変化に連動して、グローバル座標系におけるHMD装置110のuvw視野座標系の位置および傾きが変化する。
ある局面において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD装置110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ10は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD装置110のuvw視野座標系の原点を決定してもよい。
[仮想空間]
[仮想空間]
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
ある局面において、仮想空間2では、中心21を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、グローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。
HMD装置110の起動時、すなわちHMD装置110の初期状態において、仮想カメラ1は、例えば仮想空間2の中心21に配置される。仮想カメラ1は、現実空間におけるHMD装置110の動きに連動して、仮想空間2を同様に移動する。これにより、現実空間におけるHMD装置110の位置および向きの変化が、仮想空間2において同様に再現される。
仮想カメラ1には、HMD装置110の場合と同様に、uvw視野座標系が規定される。仮想空間2における仮想カメラ1のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD装置110のuvw視野座標系に連動するように規定されている。したがって、HMD装置110の傾きが変化すると、それに応じて、仮想カメラ1の傾きも変化する。また、仮想カメラ1は、HMD装置110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動することもできる。
仮想カメラ1の向きは、仮想カメラ1の位置および傾きに応じて決まるので、ユーザが仮想空間画像22を視認する際に基準となる視線(基準視線5)は、仮想カメラ1の向きに応じて決まる。コンピュータ200のプロセッサ10は、基準視線5に基づいて、仮想空間2における視界領域23を規定する。視界領域23は、仮想空間2のうち、HMD装置110を装着したユーザの視界に対応する。
注視センサ140によって検出されるユーザ190の視線方向は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD装置110のuvw視野座標系は、ユーザ190がモニタ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD装置110のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたユーザ190の視線方向を、仮想カメラ1のuvw視野座標系におけるユーザの視線方向とみなすことができる。
[ユーザの視線]
[ユーザの視線]
図5を参照して、ユーザの視線方向の決定について説明する。図5は、ある実施の形態に従うHMD装置110を装着するユーザ190の頭部を上から表した図である。
ある局面において、注視センサ140は、ユーザ190の右目および左目の各視線を検出する。ある局面において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール方向wに対して視線R2およびL2がなす角度は、ロール方向wに対して視線R1およびL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線方向N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線方向N0として検出する。視線方向N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線方向N0は、視界領域23に対してユーザ190が実際に視線を向けている方向に相当する。
また、別の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間2においてテレビ番組を表示することができる。
さらに別の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
[視界領域]
[視界領域]
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
図6に示されるように、YZ断面における視界領域23は、領域24を含む。領域24は、仮想カメラ1の基準視線5と仮想空間2のYZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心として極角αを含む範囲を、領域24として規定する。
図7に示されるように、XZ断面における視界領域23は、領域25を含む。領域25は、基準視線5と仮想空間2のXZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、領域25として規定する。
ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像をモニタ112に表示させることにより、ユーザ190に仮想空間を提供する。視界画像は、仮想空間画像22のうち視界領域23に重畳する部分に相当する。ユーザ190が、頭に装着したHMD装置110を動かすと、その動きに連動して仮想カメラ1も動く。その結果、仮想空間2における視界領域23の位置が変化する。これにより、モニタ112に表示される視界画像は、仮想空間画像22のうち、仮想空間2においてユーザが向いた方向の視界領域23に重畳する画像に更新される。ユーザは、仮想空間2における所望の方向を視認することができる。
ユーザ190は、HMD装置110を装着している間、現実世界を視認することなく、仮想空間2に展開される仮想空間画像22のみを視認できる。そのため、HMDシステム100は、仮想空間2への高い没入感覚をユーザに与えることができる。
ある局面において、プロセッサ10は、HMD装置110を装着したユーザ190の現実空間における移動に連動して、仮想空間2において仮想カメラ1を移動し得る。この場合、プロセッサ10は、仮想空間2における仮想カメラ1の位置および向きに基づいて、HMD装置110のモニタ112に投影される画像領域(すなわち、仮想空間2における視界領域23)を特定する。すなわち、仮想カメラ1によって、仮想空間2におけるユーザ190の視野が定義される。
ある実施の形態に従うと、仮想カメラ1は、二つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含むことが望ましい。また、ユーザ190が3次元の仮想空間2を認識できるように、適切な視差が、二つの仮想カメラに設定されていることが好ましい。本実施の形態においては、仮想カメラ1が二つの仮想カメラを含み、二つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD装置110のロール方向(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。
[コントローラ]
[コントローラ]
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。図8の状態(A)は、コントローラ160の上面の外観構成を示しており、図8の状態(B)は、コントローラ160の奥側側面の外観構成を示している。ここで、コントローラ160の上面とは、ユーザ190がコントローラ160を両手で保持した場合に、ユーザ190の方を向く面である。
図8の状態(A)に示されるように、コントローラ160の上面には、入力部としての、方向キー161、アナログスティック162L,162R、4種の操作ボタン163、タッチパッド164、および機能ボタン165等が設けられている。また、コントローラ160は、ユーザ190がコントローラ160を把持するための把持部166を有する。把持部166は、ユーザ190の左手によって把持される左把持部166Lとユーザ190の右手によって把持される右把持部166Rとを有する。また、図8の状態(B)に示されるように、コントローラ160の奥側側面には、入力部としての上部ボタン167L,167Rと、コントローラ160から送信される指示情報等に基づいて発光する発光部168とが設けられている。
タッチパッド164は、方向キー161と操作ボタン163との間に設けられている。機能ボタン165は、左右のアナログスティック162L,162Rの間に設けられている。機能ボタン165は、例えばコントローラ160を起動したり、コントローラ160とコンピュータ200との間の通信接続をアクティブにしたりするために使用され得る。その他の入力部(方向キー161、アナログスティック162、操作ボタン163、および上部ボタン167)は、後述するアバターおよびプレイヤキャラクタの操作等に使用され得る。例えば、アナログスティック162は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間2に配置されるオブジェクトを移動させるための操作を含む。
方向キー161およびアナログスティック162Lは、ユーザ190の左手の親指による操作を受け付けることを想定して配置されている。操作ボタン163およびアナログスティック162Rは、ユーザ190の右手の親指による操作を受け付けることを想定して配置されている。上部ボタン167Lは、ユーザ190の左手の人差し指による操作を受け付けることを想定して配置されており、上部ボタン167Rは、ユーザ190の右手の人差し指による操作を受け付けることを想定して配置されている。ただし、コントローラ160の形状、各部の配置構成、および各部の機能は、上記例に限られない。例えば、操作ボタン163の個数は4つ以外(例えば2つ)であってもよいし、アナログスティック162L,162Rが省略されてもよい。
ある局面において、コントローラ160は、発光部168その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型等を含むが、これらに限定されない。別の局面において、コントローラ160は、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、コントローラ160は、電池を必要としない。
[HMD装置の制御装置]
[HMD装置の制御装置]
図9を参照して、HMD装置110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
図9に示されるように、コンピュータ200は、表示制御モジュール220と、仮想空間制御モジュール230と、メモリモジュール240と、通信制御モジュール250とを備える。表示制御モジュール220は、サブモジュールとして、仮想カメラ制御モジュール221と、視界領域決定モジュール222と、視界画像生成モジュール223と、基準視線特定モジュール224とを含む。仮想空間制御モジュール230は、サブモジュールとして、仮想空間定義モジュール231と、仮想オブジェクト制御モジュール232と、コントローラ情報取得モジュール233と、データ共有モジュール234と、位置関係判定モジュール235とを含む。
ある実施の形態において、表示制御モジュール220と仮想空間制御モジュール230とは、プロセッサ10によって実現される。別の実施の形態において、複数のプロセッサ10が表示制御モジュール220と仮想空間制御モジュール230として作動してもよい。メモリモジュール240は、メモリ11またはストレージ12によって実現される。通信制御モジュール250は、通信インターフェース14によって実現される。
ある局面において、表示制御モジュール220は、HMD装置110のモニタ112における画像表示を制御する。仮想カメラ制御モジュール221は、仮想空間2に仮想カメラ1を配置し、仮想カメラ1の挙動、向き等を制御する。視界領域決定モジュール222は、HMD装置110を装着したユーザの頭の向きに応じて、視界領域23を規定する。視界画像生成モジュール223は、決定された視界領域23に基づいて、モニタ112に表示される視界画像を生成する。基準視線特定モジュール224は、注視センサ140からの信号に基づいて、ユーザ190の視線を特定する。
仮想空間制御モジュール230は、ユーザ190に提供される仮想空間2を制御する。仮想空間定義モジュール231は、仮想空間2を表す仮想空間データを生成することにより、HMDシステム100における仮想空間2を規定する。
仮想オブジェクト制御モジュール232は、後述するオブジェクト情報242に基づいて、仮想空間2に配置されるオブジェクトを生成する。また、仮想オブジェクト制御モジュール232は、仮想空間2におけるオブジェクトの動作(移動および状態変化等)を制御する。また、仮想オブジェクト制御モジュール232は、後述するコントローラ情報取得モジュール233により取得されたコントローラ情報等に基づいて、アバターおよびプレイヤキャラクタの動作(動き、移動および状態変化等)を制御する。オブジェクトは、例えば、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、動物等を含み得る。アバターは、HMD装置110を装着したユーザに関連付けられたオブジェクトである。アバターは、仮想空間2におけるユーザの分身としての位置付けを有するオブジェクトである。一方、プレイヤキャラクタは、仮想空間2で展開されるゲームにおいて、ユーザによって操作されるキャラクタオブジェクトである。本実施形態では、仮想空間2で展開されるゲームは、複数のユーザが仮想空間2に用意されたゲームフィールド(例えば闘技場)上で各自のプレイヤキャラクタ同士を闘わせる対戦ゲーム(あるいは、複数のユーザ同士が協力して進めるアクションゲーム等)である。また、アバターは人型のオブジェクトであり、プレイヤキャラクタは動物を模したオブジェクトである。ただし、プレイヤキャラクタは、仮想空間2で展開されるゲームの内容に応じて適宜の形態を採り得る。例えば、プレイヤキャラクタは、人型のオブジェクトであってもよいし、ロボット等の生物以外を模したオブジェクトであってもよい。より具体的には、仮想空間2で展開されるゲームがラジコンカーを用いたレースゲームである場合、プレイヤキャラクタは、ラジコンカーを表すオブジェクトであってもよい。
コントローラ情報取得モジュール233は、コントローラ160の状態を特定するための状態情報と、コントローラ160に対するユーザ190による入力操作の内容を示す操作情報とを含むコントローラ情報を取得する。状態情報は、例えば、上述したHMDセンサ120等により検出されたコントローラ160の位置および傾きを特定するための情報である。コントローラ情報は、コントローラ160の状態およびコントローラ160に対する入力操作の内容を仮想空間2におけるアバターまたはプレイヤキャラクタに反映させるために、仮想オブジェクト制御モジュール232に受け渡される。また、コントローラ情報取得モジュール233は、サーバ150を介して取得された他のユーザのコントローラ情報についても、適宜仮想オブジェクト制御モジュール232に受け渡す。これにより、他のユーザに関連付けられたアバターまたはプレイヤキャラクタを、他のユーザのコントローラ情報に基づいて動作させることができる。
データ共有モジュール234は、ユーザ間で共有すべきデータを、サーバ150を介して他のユーザのHMDシステム100との間で送受信する。共有すべきデータとしては、アバターの身体の一部の動作を制御するための動き情報、およびプレイヤキャラクタの動作を制御するためのコントローラ情報等がある。動き情報は、例えば、HMDセンサ120等により検出されたHMD装置110の位置および傾きを特定するための情報(以下「向きデータ」)、および注視センサ140等により検出されたアイトラッキングデータ等である。本実施形態では、データ共有モジュール234は、動き情報とコントローラ情報とを含む情報(以下「プレイヤ情報」という。)を、ユーザ間で共有すべき情報として、サーバ150を介して他のユーザのHMDシステム100との間で送受信する。プレイヤ情報の送受信は、後述する通信制御モジュール250の機能を利用することにより実現される。
位置関係判定モジュール235は、仮想空間2におけるアバター及びプレイヤキャラクタ等の仮想オブジェクトの相互の位置関係を判定する。位置関係の判定は、オブジェクト間の距離に関する判定を含む。
位置関係判定モジュール235は、仮想空間2に配置されるオブジェクトのそれぞれが、他のオブジェクトと衝突した場合に、当該衝突を検出する。位置関係判定モジュール235は、例えば、あるオブジェクトと、別のオブジェクトとが触れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行う。仮想空間制御モジュール230は、オブジェクトとオブジェクトとが触れている状態から離れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行う。位置関係判定モジュール235は、例えばオブジェクト毎に設定されたコリジョンエリアに基づく公知の当たり判定を実行することにより、オブジェクトとオブジェクトとが触れている状態であることを検出することができる。
メモリモジュール240は、コンピュータ200が仮想空間2をユーザ190に提供するために使用されるデータを保持している。ある局面において、メモリモジュール240は、空間情報241と、オブジェクト情報242と、ユーザ情報243とを保持している。空間情報241には、例えば、仮想空間2を提供するために規定された1つ以上のテンプレートが含まれている。オブジェクト情報242には、例えば、仮想空間2において再生されるコンテンツ、当該コンテンツで使用されるオブジェクトを配置するための情報等が含まれている。当該コンテンツは、例えば、ゲーム、現実社会と同様の風景を表したコンテンツ等を含み得る。オブジェクト情報242には、各オブジェクト(例えば、プレイヤキャラクタおよびアバター等)を描画するための描画情報も含まれている。また、オブジェクト情報242は、各オブジェクトに関連付けられた属性を示す属性情報も含み得る。オブジェクトの属性情報としては、例えば当該オブジェクトが可動物であるか固定物であるかを示す情報等が挙げられる。また、オブジェクトの属性情報としては、ゲームの進行において用いられプレイヤキャラクタに関連付けられた種々のパラメータを含み得る。プレイヤキャラクタのパラメータとしては、プレイヤキャラクタの体力値であるヒットポイント(HP)、攻撃力、防御力等が例示される。また、プレイヤキャラクタのパラメータは、公知の当たり判定のためのコリジョンエリアを規定する情報を含んでもよい。ユーザ情報243には、例えば、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム、オブジェクト情報242に保持される各コンテンツを使用するアプリケーションプログラム等が含まれている。
メモリモジュール240に格納されているデータおよびプログラムは、HMD装置110のユーザによって入力される。あるいは、プロセッサ10が、当該コンテンツを提供する事業者が運営するコンピュータ(例えば、サーバ150)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール240に格納する。
通信制御モジュール250は、ネットワーク19を介して、サーバ150その他の情報通信装置と通信し得る。
ある局面において、表示制御モジュール220および仮想空間制御モジュール230は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、表示制御モジュール220および仮想空間制御モジュール230は、各処理を実現する回路素子の組み合わせとしても実現され得る。
コンピュータ200における処理は、ハードウェアと、プロセッサ10により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール240に予め格納されている場合がある。また、ソフトウェアは、CD−ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール250を介してサーバ150その他のコンピュータからダウンロードされた後、メモリモジュール240に一旦格納される。そのソフトウェアは、プロセッサ10によってメモリモジュール240から読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ10は、そのプログラムを実行する。
図9に示されるコンピュータ200を構成するハードウェアは、一般的なものである。したがって、本実施の形態に係る最も本質的な部分は、コンピュータ200に格納されたプログラムであるともいえる。なお、コンピュータ200のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。
ここでいうプログラムとは、プロセッサ10により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。
[制御構造]
[制御構造]
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。図10は、ユーザ190Aによって使用されるHMDシステム100Aがユーザ190Aに仮想空間2を提供するために実行する処理を表すフローチャートである。
ステップS1において、コンピュータ200のプロセッサ10は、仮想空間定義モジュール231として、仮想空間画像データを特定し、仮想空間2を定義する仮想空間データを取得する。ここで、プロセッサ10は、仮想空間2を共有する他のユーザのアバターおよびプレイヤキャラクタの初期配置等に関する情報をサーバ150等から受信することにより、当該他のユーザのアバターおよびプレイヤキャラクタを含む仮想空間2を定義する仮想空間データを生成することができる。あるいは、各HMDシステム100と通信可能に接続されたサーバ150によって、複数のユーザに共通の仮想空間2を定義する仮想空間データが生成されてもよい。この場合、プロセッサ10は、サーバ150から仮想空間データをダウンロードすることにより、仮想空間データを取得することができる。
ステップS2において、プロセッサ10は、仮想カメラ制御モジュール221として、仮想カメラ1を初期化する。例えば、プロセッサ10は、メモリのワーク領域において、仮想カメラ1を仮想空間2において予め規定された中心点(あるいはその他の予め規定されたデフォルト位置)に配置し、仮想カメラ1の視線をユーザ190が向いている方向に向ける。
ステップS3において、プロセッサ10は、視界画像生成モジュール223として、初期の視界画像を表示するための視界画像データを生成する。生成された視界画像データは、視界画像生成モジュール223を介して通信制御モジュール250によってHMD装置110に送られる。
ステップS4において、HMD装置110のモニタ112は、コンピュータ200から受信した信号に基づいて、視界画像を表示する。HMD装置110を装着したユーザ190Aは、視界画像を視認すると仮想空間2を認識し得る。
ステップS5において、HMDセンサ120は、HMD装置110から発信される複数の赤外線光に基づいて、HMD装置110の位置と傾きを検知する。検知結果は、動き検知データ(動き情報の一部)として、コンピュータ200に送られる。
ステップS6において、プロセッサ10は、視界領域決定モジュール222として、HMD装置110の位置と傾きとに基づいて、HMD装置110を装着したユーザ190Aの視界方向を特定する。プロセッサ10は、アプリケーションプログラムを実行し、アプリケーションプログラムに含まれる命令に基づいて、仮想空間2にオブジェクトを配置する。
ステップS7において、コントローラ160は、現実空間におけるユーザ190Aの操作を検出する。例えば、ある局面において、コントローラ160は、ユーザ190Aによってボタンが押下されたことを検出する。また、上述したようにHMDセンサ120またはコントローラ160自身が備えるセンサは、コントローラ160の位置および傾きを検出する。検出結果を示す信号は、HMDセンサ120またはコントローラ160からコンピュータ200に送られる。このようにして、コントローラ160に対するユーザ190Aによる入力操作の内容を示す操作情報とコントローラ160の状態(位置および傾き等)を特定するための状態情報とを含むコントローラ情報が、コンピュータ200に送られる。そして、プロセッサ10は、コントローラ情報取得モジュール233として、当該コントローラ情報を取得する。
ステップS8において、プロセッサ10は、コントローラ情報取得モジュール233およびデータ共有モジュール234として、サーバ150から、仮想空間2を共有する他のユーザのプレイヤ情報(音声データ、動き情報、およびコントローラ情報等)を取得する。
ステップS9において、プロセッサ10は、仮想オブジェクト制御モジュール232として、ユーザ190Aを含む各ユーザ190のプレイヤ情報に基づいて、各ユーザのアバターおよびプレイヤキャラクタの動作を制御する。
ステップS10において、プロセッサ10は、視界画像生成モジュール223として、ステップS9の処理結果に基づく視界画像を表示するための視界画像データを生成し、生成した視界画像データをHMD装置110に出力する。
ステップS11において、HMD装置110のモニタ112は、受信した視界画像データに基づいて視界画像を更新し、更新後の視界画像を表示する。
図11は、仮想空間2の一例を模式的に表す図である。図11に示されるように、仮想空間2は、ユーザ190A(第1ユーザ)に関連付けられたアバターA1(第1アバター)と、ユーザ190Aにより使用されるコントローラ160Aに対する操作入力(第1操作入力)に基づいて動作するプレイヤキャラクタC1(第1キャラクタオブジェクト)と、ユーザ190Aによる操作入力とは異なる操作データによって制御されるアバターであってユーザ190Aとは異なるユーザ190Bに関連付けられたアバターA2(第2アバター)と、アバターA2に関連付けられるプレイヤキャラクタであってユーザ190Bにより使用されるコントローラ160Bに対する操作入力に基づいて動作するプレイヤキャラクタC2(第2キャラクタオブジェクト)と、ユーザ190Aに装着され、モニタ112(表示部)を備えるHMD装置110A(ヘッドマウントデバイス)に提供される視界画像M1を定義する仮想カメラ1Aと、ユーザ190Bに装着され、モニタ112を備えるHMD装置110Bに提供される視界画像M2を定義する仮想カメラ1Bとを含む。また、図11に示される例では、仮想空間2は、さらに、コントローラ160A,160Bに対応する仮想的なコントローラを表すコントローラオブジェクトVC1,VC2を含む。なお、本実施形態では、アバターA2は、ユーザ190Bに関連付けられているが、ユーザに関連付けられることに代えて、コンピュータ200により自動制御されることとしてもよい。また、プレイヤキャラクタC2は、ユーザ190Bによる操作入力に基づいて動作することに代えて、コンピュータ200により自動制御されることとしてもよい。
図11に示される例では、仮想空間2において、複数のユーザ190A,190Bが各自のプレイヤキャラクタC1,C2を操作して、ゲームフィールドF上で互いに闘わせる対戦ゲーム(ここでは、爆弾B1を投げ合うゲーム)が展開されている。仮想空間2では、ゲームに関連するプレイヤキャラクタC1,C2だけでなく、コントローラオブジェクトVC1,VC2を保持するアバターA1,A2が所定の位置に配置されている。これにより、仮想空間2において、各ユーザ190A,190BのアバターA1,A2が各プレイヤキャラクタC1,C2を操作しているシチュエーションが表現されている。また、仮想カメラ1A,1Bは、アバターA1,A2の視点に関連付けられている。これにより、ユーザ190A,190Bに対して、アバターA1,A2の1人称視点における視界画像M1,M2(視野画像)が提供される。
また、ユーザ190Aは、コントローラ160Aに対する入力操作をすることにより、アバターA1を動作させることができる。具体的には、ユーザ190Aは、例えば、仮想空間2内のゲームフィールドFの周囲に沿ってアバターA1を移動させることができる。これにより、ユーザ190Aは、自らに関連付けられたアバターA1を、自らのプレイヤキャラクタC1に近付けたり、対戦している相手方であるアバターA2及びプレイヤキャラクタC2に近付けたりすることができる。
図12は、HMD装置110Aを介してユーザ190Aに提供される視界画像M1の一例を表す図である。図12に示されるように、視界画像M1には、ユーザ190A,190Bにより操作されるプレイヤキャラクタC1、C2及びユーザ190Bに関連付けられたアバターA2が含まれる。ユーザ190Aは、視界画像M1を認識することによって、あたかも自分がアバターA1として仮想空間2に存在しているかのような仮想体験をすることができる。同様に、ユーザ190Bは、視界画像M2を認識することによって、あたかも自分がアバターA2として仮想空間2に存在しているかのような仮想体験をすることができる。
このような仮想空間2によれば、各ユーザ190A,190Bに対して、アバターA1,A2を介したマルチプレイゲームを提供することができる。また、この仮想空間2には、各ユーザ190A,190BのアバターA1,A2およびプレイヤキャラクタC1,C2が存在する。このため、各ユーザ190A,190Bは、アバターA1,A2を介して互いの存在を認識しつつ、仮想空間2において共通のゲームを楽しむことができる。これにより、各ユーザ190A,190Bの仮想体験のエンタテイメント性を向上させることができる。
図13は、ユーザ190Aのゲーム進行を制御する処理を表すフローチャートである。前述のとおり、図10におけるステップS9に示される処理の結果として、アバターA1,A2及びプレイヤキャラクタC1、C2がそれぞれの位置に配置される。図13に示されるフローチャートは、ステップS9の処理に基づくゲーム進行の制御処理を示す。
ステップS21において、プロセッサ10は、位置関係判定モジュール235として、アバターA1、プレイヤキャラクタC1、アバターA2及びプレイヤキャラクタC2の少なくとも2つの間の位置関係を取得する。これらの位置関係は、例えば、距離に関する情報として取得される。
ステップS22において、プロセッサ10は、仮想オブジェクト制御モジュール232として、ステップS21において取得された位置関係に基づいて、ユーザ190Aのゲーム進行を有利または不利にさせるように調整する。具体的には、プロセッサ10は、例えば、プレイヤキャラクタC1またはプレイヤキャラクタC2に関連付けられたパラメータをユーザ190Aにとって有利または不利に変動させることにより、ユーザ190Aのゲーム進行を有利または不利にさせるように調整する。
より具体的には、プロセッサ10は、ステップS21において取得された位置関係に基づいて、プレイヤキャラクタC1のHP、攻撃力、防御力等のパラメータを増加させたり、プレイヤキャラクタC2のそれらのパラメータを減少させたりすることにより、ユーザ190Aのゲーム進行を有利にさせるように調整してもよい。また、プロセッサ10は、ステップS21において取得された位置関係に基づいて、プレイヤキャラクタC1のHP、攻撃力、防御力等のパラメータを減少させたり、プレイヤキャラクタC2のそれらのパラメータを増加させたりすることにより、ユーザ190Aのゲーム進行を不利にさせるように調整してもよい。
ゲーム進行を有利または不利にさせるように調整するために変動させるパラメータは、HP、攻撃力、防御力等の他、プレイヤキャラクタが行う攻撃の到達距離、公知の当たり判定を行うためのコリジョンエリアの範囲等あってもよく、ゲーム進行に影響を与え得るパラメータの如何なるものも適用し得る。
図14は、仮想空間2における、プレイヤキャラクタC1の操作性をユーザ190Aにとって不利になるように変動させる処理の例を示す図である。図14に示す例では、プレイヤキャラクタC1が、ゲームフィールドF上においてアバターA1から離れて位置することにより、アバターA1とプレイヤキャラクタC1との間の距離が大きくなっている。プロセッサ10が位置関係判定モジュール235として、アバターA1とプレイヤキャラクタC1との間の距離が所定値以上となったことを判定した場合に、プロセッサ10は、仮想オブジェクト制御モジュール232として、コントローラオブジェクトVC1からの電波WがプレイヤキャラクタC1まで到達しないことを模して、ユーザ190Aのコントローラ160Aに対する操作入力に基づくプレイヤキャラクタC1の操作が不能または操作入力に対するプレイヤキャラクタC1の反応が鈍くなるように制御してもよい。このように制御されることにより、ユーザ190Aのゲーム進行を不利にさせるように調整することができる。
また、アバターA2とプレイヤキャラクタC2との間の距離が所定値以上となったことが位置関係判定モジュール235により判定された場合に、プロセッサ10は、仮想オブジェクト制御モジュール232として、コントローラオブジェクトVC2からの電波がプレイヤキャラクタC2まで到達しないことを模して、ユーザ190Bのコントローラ160Bに対する操作入力に基づくプレイヤキャラクタC2の操作が不能または操作入力に対するプレイヤキャラクタC2の反応が鈍くなるように制御してもよい。これにより、ユーザ190Aのゲーム進行を有利にさせるように調整することができる。
また、プロセッサ10は、仮想オブジェクト制御モジュール232として、位置関係判定モジュール235により判定されたアバターA1とプレイヤキャラクタC1との位置関係に応じて、プレイヤキャラクタC1に、コントローラ160Aに対する操作入力に応じた動作を異ならせるように制御してもよい。具体的には、例えば、プロセッサ10は、コントローラ160Aに対する操作入力に基づく操作データを破棄して、プレイヤキャラクタC1を動作させないように制御してもよい。また、プロセッサ10は、コントローラ160Aに対する操作入力に基づく操作データを改変して、改変された操作データに基づいてプレイヤキャラクタC1を動作させるように制御してもよい。これにより、ユーザ190Aのゲーム進行を不利にさせるように調整することができる。
また、プロセッサ10は、仮想オブジェクト制御モジュール232として、位置関係判定モジュール235により判定されたアバターA1,A2及びプレイヤキャラクタC1,C2の少なくともいずれか2つの間の位置関係に応じて、ユーザ190Aが、コントローラ160Aに操作入力を入力するための操作に関する操作性を、ユーザ190Aにとって有利または不利になるように変動させてもよい。
図15は、操作入力を入力するための操作に関する操作性を変動させる処理として、仮想空間2の視認性を変化させた視界画像M1の一例を示す図である。プロセッサ10は、視界画像M1における仮想空間2の視認性を変化させる処理を、操作入力を入力するための操作に関する操作性を変動させる処理として実行してもよい。図15に示される例では、プロセッサ10は、視界画像生成モジュール223として、視野領域MR以外の領域が視認不可能となるような視界画像M1を生成する。このような視界画像M1が生成されることにより、ユーザ190Aのゲーム進行を不利にさせるように調整することができる。
また、プロセッサ10は、一部の領域が暈かされた視界画像M1を生成することにより、ユーザ190Aのゲーム進行を不利にさせるように調整してもよい。また、視界画像M1における仮想空間2の視認性を変化させる処理として、プロセッサ10は、仮想オブジェクト制御モジュール232として、アバターA1の視界を妨げるような位置に所定のオブジェクトを配置してもよい。
また、プロセッサ10は、コントローラ160Aに対するユーザ190Aの操作入力を受け付けないように制御することにより、操作に関する操作性をユーザ190Aにとって不利になるように変動させてもよい。
また、プロセッサ10は、仮想オブジェクト制御モジュール232として、アバターA1の操作性を変動させることにより、ユーザ190Aのゲーム進行を不利にさせるように調整してもよい。例えば、アバターA1及びアバターA2のそれぞれのレベルがパラメータとして関連付けられており、アバターA1のレベルよりアバターA2のレベルが高い場合に、プロセッサ10は、アバターA1とアバターA2との間の位置関係に応じて、アバターA1の動作を制限したり、アバターA1を動作不能にしたり、アバターA1がアバターA2に所定の距離未満に近付けないようにしたりするような制御をしてもよい。
本実施形態では、上述のとおり、アバターA1,A2及びプレイヤキャラクタC1,C2の少なくともいずれか2つの間の位置関係に応じて、ユーザ190Aのゲーム進行を有利または不利にさせるような調整が行われる。本実施形態では、これらの位置関係がユーザに報知されることとしてもよい。即ち、プロセッサ10は、アバターA1,A2及びプレイヤキャラクタC1,C2のうちのいずれか2つの間の距離を示す距離情報をユーザ190Aに報知することとしてもよい。
図16は、距離情報をユーザ190Aに報知する処理を表すフローチャートである。ステップS31において、プロセッサ10は、位置関係判定モジュール235として、アバターA1、プレイヤキャラクタC1、アバターA2及びプレイヤキャラクタC2の少なくとも2つの間の距離情報を取得する。
ステップS32において、プロセッサ10は、ステップS31において取得された距離情報をユーザ190Aに報知する。距離情報は、例えば、視覚を介してユーザ190Aに報知される。
図17は、距離情報が視覚を介してユーザ190Aに報知される例を示す図であって、距離情報が表された視界画像M1を示す図である。図17に示される例では、ユーザ190Aが首を前傾させることにより生じたHMD装置110の傾きに基づいて、仮想空間2においてアバターA1が保持するコントローラオブジェクトVC1が視界画像M1に含まれている。プロセッサ10は、仮想オブジェクト制御モジュール232として、距離情報が反映された距離表示オブジェクトDを生成して、コントローラオブジェクトVC1(仮想コントローラ)に関連付けて配置することにより、距離情報をコントローラオブジェクトVC1に表示させる。プロセッサ10は、距離情報に示される距離に応じて距離表示オブジェクトDの外観を変化させる。これにより、コントローラオブジェクトVC1に表示される距離情報を、視覚を介してユーザ190Aに認識させることができるので、ゲームにおけるエンタテイメント性が向上し得る。さらに、ゲームの進行に影響のある距離情報を、ユーザ190Aに認識させることができるので、ユーザ190AがアバターA1を積極的に動作させることの動機付けを得られる。
また、プロセッサ10は、聴覚を介してユーザ190Aに距離情報を報知することとしてもよい。具体的には、プロセッサ10は、アバターA2及びプレイヤキャラクタC2の動作音を、コントローラ160A等を介して出力することにより、距離情報をユーザ190Aに報知する。
図18は、アバターA1とプレイヤキャラクタC1との間の位置関係に基づく、ユーザ190Aのゲーム進行を制御する処理を表すフローチャートである。ステップS41において、プロセッサ10は、位置関係判定モジュール235として、アバターA1とプレイヤキャラクタC1との間の位置関係を取得する。
ステップS42において、プロセッサ10は、仮想オブジェクト制御モジュール232として、ステップS41において取得された位置関係に基づいて、ユーザ190Aのゲーム進行を有利または不利にさせるための処理を実行する。具体的には、プロセッサ10は、例えば、アバターA1とプレイヤキャラクタC1との距離が近いほど、プレイヤキャラクタC1のHP、攻撃力、防御力等のパラメータを増加させることにより、ユーザ190Aのゲーム進行を有利にさせるように調整してもよい。
このようにユーザ190Aのゲーム進行が調整されることにより、アバターA1とプレイヤキャラクタC1との位置関係に応じて、ユーザ190Aにとってゲームが有利または不利になるので、ユーザ190AにおいてアバターA1またはプレイヤキャラクタC1を積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
図19は、アバターA1とアバターA2との間の位置関係に基づく、ユーザ190Aのゲーム進行を制御する処理を表すフローチャートである。ステップS51において、プロセッサ10は、位置関係判定モジュール235として、アバターA1とアバターA2との間の位置関係を取得する。
ステップS52において、プロセッサ10は、仮想オブジェクト制御モジュール232として、ステップS51において取得された位置関係に基づいて、ユーザ190Aのゲーム進行を有利または不利にさせるための処理を実行する。具体的には、プロセッサ10は、例えば、アバターA1とアバターA2との距離が近いほど、プレイヤキャラクタC2のHP、攻撃力、防御力等のパラメータを減少させることにより、ユーザ190Aのゲーム進行を有利にさせるように調整してもよい。
また、プロセッサ10は、アバターA1とアバターA2との距離が所定の距離未満である場合に、アバターA2の視界の一部が妨げられるようなオブジェクトを仮想空間2内に生成するように制御してもよい。また、アバターA1及びアバターA2のそれぞれのレベルがパラメータとして関連付けられており、アバターA1のレベルよりアバターA2のレベルが高い場合に、プロセッサ10は、アバターA1とアバターA2との距離が近いほど、アバターA1の動作を制限したり、プレイヤキャラクタC1のHP、攻撃力、防御力等のパラメータを減少させたりすることにより、ユーザ190Aのゲーム進行を不利にさせるように調整してもよい。
このようにユーザ190Aのゲーム進行が調整されることにより、アバターA1とアバターA2との位置関係に応じて、ユーザ190Aにとってゲームが有利または不利になるので、ユーザ190AにおいてアバターA1を積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
図20は、プレイヤキャラクタC1とプレイヤキャラクタC2との間の位置関係に基づく、ユーザ190Aのゲーム進行を制御する処理を表すフローチャートである。ステップS61において、プロセッサ10は、位置関係判定モジュール235として、プレイヤキャラクタC1とプレイヤキャラクタC2との間の位置関係を取得する。
ステップS62において、プロセッサ10は、仮想オブジェクト制御モジュール232として、ステップS61において取得された位置関係に基づいて、ユーザ190Aのゲーム進行を有利または不利にさせるための処理を実行する。具体的には、プロセッサ10は、例えば、プレイヤキャラクタC1とプレイヤキャラクタC2との距離が近いほど、プレイヤキャラクタC2のHP、攻撃力、防御力等のパラメータを減少させることにより、ユーザ190Aのゲーム進行を有利にさせるように調整してもよい。
また、プレイヤキャラクタC1及びプレイヤキャラクタC2のそれぞれのレベルがパラメータとして関連付けられており、プレイヤキャラクタC1のレベルよりプレイヤキャラクタC2のレベルが高い場合に、プロセッサ10は、プレイヤキャラクタC1とプレイヤキャラクタC2との距離が所定の距離未満である場合に、アバターA1の動作が制限されるように制御してもよい。
このようにユーザ190Aのゲーム進行が調整されることにより、プレイヤキャラクタC1とプレイヤキャラクタC2との位置関係に応じて、ユーザ190Aにとってゲームが有利または不利になるので、ユーザ190AにおいてプレイヤキャラクタC1を積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
本明細書に開示された主題は、例えば、以下のような項目として示される。
(項目1)
表示部(モニタ112)を備えるヘッドマウントデバイス(HMD装置110)を介して第1ユーザ(ユーザ190A)に仮想体験を提供するためにコンピュータ(コンピュータ200またはサーバ150)によって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバター(アバターA1)と、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクト(プレイヤキャラクタC1)と、前記第1操作入力とは異なる操作データによって制御される第2アバター(アバターA2)と、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクト(プレイヤキャラクタC2)と、を含む仮想空間を規定する仮想空間データを生成するステップ(図10のステップS1)と、
前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちの少なくとも2つの間の位置関係に基づいて、前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのいずれかに対して、前記第1ユーザのゲーム進行を有利または不利にさせるように調整するステップ(図13のステップS21,S22)と、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップ(図10のステップS10,S11)と、
を含む情報処理方法。
本項目の情報処理方法によれば、アバター及びキャラクタオブジェクトの位置関係に応じて、第1ユーザにとってゲームが有利に進行したり不利に進行したりすることにより、第1ユーザにおいて第1アバターを動作させることの動機となるので、ゲームのエンタテイメント性が向上され得る。
(項目2)
前記調整するステップは、前記第1キャラクタオブジェクトまたは前記第2キャラクタオブジェクトに関連付けられたパラメータを、前記第1ユーザにとって有利または不利に変動させる処理を含む、
項目1に記載の情報処理方法。
本項目の情報処理方法によれば、キャラクタオブジェクトに関するパラメータの設定により、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目3)
前記調整するステップは、前記第1キャラクタオブジェクトの前記第1操作入力に基づく操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
項目1または2に記載の情報処理方法。
本項目の情報処理方法によれば、第1キャラクタオブジェクトの操作性の良否の調整により、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目4)
前記第2アバターは第1ユーザと異なる第2ユーザに関連付けられ、
前記操作データは、前記第2ユーザによって入力される第2操作入力であり、
前記調整するステップは、前記第2キャラクタオブジェクトの前記第2操作入力に基づく操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
項目1〜3のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、第2キャラクタオブジェクトの操作性の良否の調整により、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目5)
前記調整するステップは、前記第1アバターと前記第1キャラクタオブジェクトとの位置関係に応じて、前記第1キャラクタオブジェクトに前記第1操作入力に応じた動作を異ならせるように制御する処理を含む、
項目1〜4のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、第1キャラクタオブジェクトに第1操作入力に応じた動作を異ならせる制御を行うことにより、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目6)
前記調整するステップは、前記第1ユーザが前記第1操作入力を入力するための操作に関する操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
項目1〜5のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、第1ユーザが第1操作入力を入力するための操作に関する操作性を調整することで、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目7)
前記調整するステップは、前記視野画像における前記仮想空間の視認性を変化させる処理を含む、
項目6に記載の情報処理方法。
本項目の情報処理方法によれば、視野画像における視認性を変化させることにより、第1キャラクタオブジェクトの操作性に影響が及ぶので、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目8)
前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちのいずれか2つの間の距離を示す距離情報を前記第1ユーザに報知するステップをさらに含む、
項目1〜7のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、ゲームの進行に影響のある距離情報を、第1ユーザに認識させることができるので、第1ユーザが第1アバターを積極的に動作させることの動機付けを得られる。
(項目9)
前記仮想空間データは、前記第1操作入力を生成するコントローラの動きに基づき、前記第1アバターに関連付けられて動きが操作される仮想コントローラを含み、
前記距離情報は、前記仮想コントローラに表示される、
項目8に記載の情報処理方法。
本項目の情報処理方法によれば、仮想コントローラに表示される距離情報を、視覚を介してユーザに認識させることができるので、ゲームにおけるエンタテイメント性が向上し得る。
(項目10)
表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、
を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバターと前記第1キャラクタオブジェクトとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。
本項目の情報処理方法によれば、第1アバターと第1キャラクタオブジェクトとの位置関係に応じて、第1ユーザにとってゲームが有利または不利になるので、第1ユーザにおいて第1アバターまたは第1キャラクタオブジェクトを積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
(項目11)
表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバターと前記第2アバターとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。
本項目の情報処理方法によれば、第1アバターと第2アバターとの位置関係に応じて、第1ユーザにとってゲームが有利または不利になるので、第1ユーザにおいて第1アバターを積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
(項目12)
表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクトと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1キャラクタオブジェクトと前記第2キャラクタオブジェクトとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。
本項目の情報処理方法によれば、第1キャラクタオブジェクトと第2キャラクタオブジェクトとの位置関係に応じて、第1ユーザにとってゲームが有利または不利になるので、第1ユーザにおいて第1キャラクタオブジェクトを積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
(項目13)
項目1〜12のいずれか一項に記載の情報処理方法をコンピュータに実行させるプログラム。
(項目14)
少なくともメモリと、前記メモリに結合されたプロセッサとを備え、前記プロセッサの制御により項目1〜12のいずれか一項に記載の情報処理方法を実行する、装置。
(項目1)
表示部(モニタ112)を備えるヘッドマウントデバイス(HMD装置110)を介して第1ユーザ(ユーザ190A)に仮想体験を提供するためにコンピュータ(コンピュータ200またはサーバ150)によって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバター(アバターA1)と、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクト(プレイヤキャラクタC1)と、前記第1操作入力とは異なる操作データによって制御される第2アバター(アバターA2)と、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクト(プレイヤキャラクタC2)と、を含む仮想空間を規定する仮想空間データを生成するステップ(図10のステップS1)と、
前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちの少なくとも2つの間の位置関係に基づいて、前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのいずれかに対して、前記第1ユーザのゲーム進行を有利または不利にさせるように調整するステップ(図13のステップS21,S22)と、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップ(図10のステップS10,S11)と、
を含む情報処理方法。
本項目の情報処理方法によれば、アバター及びキャラクタオブジェクトの位置関係に応じて、第1ユーザにとってゲームが有利に進行したり不利に進行したりすることにより、第1ユーザにおいて第1アバターを動作させることの動機となるので、ゲームのエンタテイメント性が向上され得る。
(項目2)
前記調整するステップは、前記第1キャラクタオブジェクトまたは前記第2キャラクタオブジェクトに関連付けられたパラメータを、前記第1ユーザにとって有利または不利に変動させる処理を含む、
項目1に記載の情報処理方法。
本項目の情報処理方法によれば、キャラクタオブジェクトに関するパラメータの設定により、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目3)
前記調整するステップは、前記第1キャラクタオブジェクトの前記第1操作入力に基づく操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
項目1または2に記載の情報処理方法。
本項目の情報処理方法によれば、第1キャラクタオブジェクトの操作性の良否の調整により、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目4)
前記第2アバターは第1ユーザと異なる第2ユーザに関連付けられ、
前記操作データは、前記第2ユーザによって入力される第2操作入力であり、
前記調整するステップは、前記第2キャラクタオブジェクトの前記第2操作入力に基づく操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
項目1〜3のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、第2キャラクタオブジェクトの操作性の良否の調整により、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目5)
前記調整するステップは、前記第1アバターと前記第1キャラクタオブジェクトとの位置関係に応じて、前記第1キャラクタオブジェクトに前記第1操作入力に応じた動作を異ならせるように制御する処理を含む、
項目1〜4のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、第1キャラクタオブジェクトに第1操作入力に応じた動作を異ならせる制御を行うことにより、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目6)
前記調整するステップは、前記第1ユーザが前記第1操作入力を入力するための操作に関する操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
項目1〜5のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、第1ユーザが第1操作入力を入力するための操作に関する操作性を調整することで、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目7)
前記調整するステップは、前記視野画像における前記仮想空間の視認性を変化させる処理を含む、
項目6に記載の情報処理方法。
本項目の情報処理方法によれば、視野画像における視認性を変化させることにより、第1キャラクタオブジェクトの操作性に影響が及ぶので、ゲームの進行を第1ユーザにとって有利または不利にさせることができる。
(項目8)
前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちのいずれか2つの間の距離を示す距離情報を前記第1ユーザに報知するステップをさらに含む、
項目1〜7のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、ゲームの進行に影響のある距離情報を、第1ユーザに認識させることができるので、第1ユーザが第1アバターを積極的に動作させることの動機付けを得られる。
(項目9)
前記仮想空間データは、前記第1操作入力を生成するコントローラの動きに基づき、前記第1アバターに関連付けられて動きが操作される仮想コントローラを含み、
前記距離情報は、前記仮想コントローラに表示される、
項目8に記載の情報処理方法。
本項目の情報処理方法によれば、仮想コントローラに表示される距離情報を、視覚を介してユーザに認識させることができるので、ゲームにおけるエンタテイメント性が向上し得る。
(項目10)
表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、
を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバターと前記第1キャラクタオブジェクトとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。
本項目の情報処理方法によれば、第1アバターと第1キャラクタオブジェクトとの位置関係に応じて、第1ユーザにとってゲームが有利または不利になるので、第1ユーザにおいて第1アバターまたは第1キャラクタオブジェクトを積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
(項目11)
表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバターと前記第2アバターとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。
本項目の情報処理方法によれば、第1アバターと第2アバターとの位置関係に応じて、第1ユーザにとってゲームが有利または不利になるので、第1ユーザにおいて第1アバターを積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
(項目12)
表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクトと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1キャラクタオブジェクトと前記第2キャラクタオブジェクトとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。
本項目の情報処理方法によれば、第1キャラクタオブジェクトと第2キャラクタオブジェクトとの位置関係に応じて、第1ユーザにとってゲームが有利または不利になるので、第1ユーザにおいて第1キャラクタオブジェクトを積極的に動作させることの動機付けとなる。これにより、ゲームのエンタテイメント性が向上され得る。
(項目13)
項目1〜12のいずれか一項に記載の情報処理方法をコンピュータに実行させるプログラム。
(項目14)
少なくともメモリと、前記メモリに結合されたプロセッサとを備え、前記プロセッサの制御により項目1〜12のいずれか一項に記載の情報処理方法を実行する、装置。
1,1A,1B…仮想カメラ、2…仮想空間、5…基準視線、10…プロセッサ、11…メモリ、12…ストレージ、13…入出力インターフェース、14…通信インターフェース、15…バス、19…ネットワーク、21…中心、22…仮想空間画像、23…視界領域、24…領域、25…領域、100,100A,100B…HMDシステム、110,110A,110B…HMD装置、112…モニタ、114…センサ、118…マイク、120…センサ、140…注視センサ、150…サーバ、160,160A,160B…コントローラ、190,190A,190B…ユーザ、200…コンピュータ、220…表示制御モジュール、221…仮想カメラ制御モジュール、222…視界領域決定モジュール、223…視界画像生成モジュール、224…基準視線特定モジュール、230…仮想空間制御モジュール、231…仮想空間定義モジュール、232…仮想オブジェクト制御モジュール、232…適宜仮想オブジェクト制御モジュール、232…仮想オブジェクト制御モジュール、233…コントローラ情報取得モジュール、234…データ共有モジュール、235…位置関係判定モジュール、240…メモリモジュール、241…空間情報、242…オブジェクト情報、243…ユーザ情報、250…通信制御モジュール、A1,A2…アバター、C1,C2…プレイヤキャラクタ、D…距離表示オブジェクト、F…ゲームフィールド、M1,M2…視界画像、VC1,VC2…コントローラオブジェクト。
Claims (14)
- 表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクトと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちの少なくとも2つの間の位置関係に基づいて、前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのいずれかに対して、前記第1ユーザのゲーム進行を有利または不利にさせるように調整するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。 - 前記調整するステップは、前記第1キャラクタオブジェクトまたは前記第2キャラクタオブジェクトに関連付けられたパラメータを、前記第1ユーザにとって有利または不利に変動させる処理を含む、
請求項1に記載の情報処理方法。 - 前記調整するステップは、前記第1キャラクタオブジェクトの前記第1操作入力に基づく操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
請求項1または2に記載の情報処理方法。 - 前記第2アバターは第1ユーザと異なる第2ユーザに関連付けられ、
前記操作データは、前記第2ユーザによって入力される第2操作入力であり、
前記調整するステップは、前記第2キャラクタオブジェクトの前記第2操作入力に基づく操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
請求項1〜3のいずれか一項に記載の情報処理方法。 - 前記調整するステップは、前記第1アバターと前記第1キャラクタオブジェクトとの位置関係に応じて、前記第1キャラクタオブジェクトに前記第1操作入力に応じた動作を異ならせるように制御する処理を含む、
請求項1〜4のいずれか一項に記載の情報処理方法。 - 前記調整するステップは、前記第1ユーザが前記第1操作入力を入力するための操作に関する操作性を、前記第1ユーザにとって有利または不利になるように変動させる処理を含む、
請求項1〜5のいずれか一項に記載の情報処理方法。 - 前記調整するステップは、前記視野画像における前記仮想空間の視認性を変化させる処理を含む、
請求項6に記載の情報処理方法。 - 前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちのいずれか2つの間の距離を示す距離情報を前記第1ユーザに報知するステップをさらに含む、
請求項1〜7のいずれか一項に記載の情報処理方法。 - 前記仮想空間データは、前記第1操作入力を生成するコントローラの動きに基づき、前記第1アバターに関連付けられて動きが操作される仮想コントローラを含み、
前記距離情報は、前記仮想コントローラに表示される、
請求項8に記載の情報処理方法。 - 表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバターと前記第1キャラクタオブジェクトとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。 - 表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1アバターと前記第2アバターとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。 - 表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバターと、前記第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタオブジェクトと、前記第1操作入力とは異なる操作データによって制御される第2アバターと、前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタオブジェクトと、を含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1キャラクタオブジェクトと前記第2キャラクタオブジェクトとの位置関係に基づいて、前記第1アバターまたは前記第1キャラクタオブジェクトの操作を、前記第1ユーザにとって有利または不利にさせるための処理を実行するステップと、
前記仮想空間データと、前記仮想空間における前記第1アバターに関連付けられた仮想視点の位置と、前記ヘッドマウントデバイスの姿勢とに基づいて視野画像を生成し、前記視野画像を前記表示部に表示させるステップと、
を含む情報処理方法。 - 請求項1〜12のいずれか一項に記載の情報処理方法をコンピュータに実行させるプログラム。
- 少なくともメモリと、前記メモリに結合されたプロセッサとを備え、前記プロセッサの制御により請求項1〜12のいずれか一項に記載の情報処理方法を実行する、装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156742A JP2019048045A (ja) | 2018-08-23 | 2018-08-23 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156742A JP2019048045A (ja) | 2018-08-23 | 2018-08-23 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017156854A Division JP6392953B1 (ja) | 2017-08-15 | 2017-08-15 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019048045A true JP2019048045A (ja) | 2019-03-28 |
Family
ID=65905221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156742A Withdrawn JP2019048045A (ja) | 2018-08-23 | 2018-08-23 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019048045A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020163042A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社コロプラ | 配信プログラム、配信方法、および情報端末装置 |
-
2018
- 2018-08-23 JP JP2018156742A patent/JP2019048045A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020163042A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社コロプラ | 配信プログラム、配信方法、および情報端末装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6201028B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6248219B1 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018147465A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6513241B1 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6479933B1 (ja) | プログラム、情報処理装置、および方法 | |
JP7030669B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6771006B2 (ja) | プログラム、方法および情報処理装置 | |
JP6419268B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP7005406B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6263292B1 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP7192151B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP2019087262A (ja) | プログラム、情報処理装置、および方法 | |
JP6392953B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2022020686A (ja) | 情報処理方法、プログラム、およびコンピュータ | |
JP2019020832A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019048045A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6703578B2 (ja) | プログラム、方法及び情報処理装置 | |
JP6441517B1 (ja) | プログラム、情報処理装置、および方法 | |
JP6856572B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6330072B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019155115A (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP7386948B2 (ja) | プログラム、方法および情報処理装置 | |
JP6946084B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6545761B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6392832B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200722 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20210330 |