JP6448478B2 - ヘッドマウントディスプレイを制御するプログラム。 - Google Patents

ヘッドマウントディスプレイを制御するプログラム。 Download PDF

Info

Publication number
JP6448478B2
JP6448478B2 JP2015124463A JP2015124463A JP6448478B2 JP 6448478 B2 JP6448478 B2 JP 6448478B2 JP 2015124463 A JP2015124463 A JP 2015124463A JP 2015124463 A JP2015124463 A JP 2015124463A JP 6448478 B2 JP6448478 B2 JP 6448478B2
Authority
JP
Japan
Prior art keywords
virtual camera
program
control unit
unit
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015124463A
Other languages
English (en)
Other versions
JP2017006355A (ja
Inventor
傑 小林
傑 小林
秀行 栗原
秀行 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015124463A priority Critical patent/JP6448478B2/ja
Publication of JP2017006355A publication Critical patent/JP2017006355A/ja
Application granted granted Critical
Publication of JP6448478B2 publication Critical patent/JP6448478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウントディスプレイを制御するプログラムに関する。
特許文献1には、遊技者が操作するキャラクタが敵キャラクタを倒していくアクションゲーム等のゲームを実行するゲームプログラムが開示されている。このプログラムは、キャラクタから指向対象物までの距離に応じて指向速度を変更するものである。
特開2009−261920号公報
特許文献1に開示の発明は、指向速度を変更することのみが開示されているに過ぎず、より自然な表現を実現するためには、改善の余地がある。
本発明は、アクションゲーム等のゲームにおいて、より自然な表現を提供することを目的とする。
本発明によれば、
操作部と、変位を検出するセンサを備えるヘッドマウントディスプレイとに接続されるコンピュータを、前記ヘッドマウントディスプレイに仮想空間を提供するように機能させるプログラムであって、
少なくとも前記操作部又は前記センサを介した操作情報に応じて、前記仮想空間内に配置された仮想カメラを制御する仮想カメラ制御部、
前記仮想カメラに設定された視線軸及び当該視線軸の周囲を含むカメラ領域の情報を前記ヘッドマウントディスプレイに表示する表示制御部、
前記仮想空間内に配置されたオブジェクトを制御するオブジェクト制御部、
前記仮想カメラと前記オブジェクトとの位置関係が所定条件を満たすか否かを判定する判定部、
として機能させるプログラムにおいて、
前記オブジェクト制御部は、前記所定条件を満たすと判定された場合に、前記オブジェクトの所定の部位が前記仮想カメラの前記視線軸と直交するように前記オブジェクトの動作を制御する、
プログラムが得られる。
また、本発明によれば、
操作部と、変位を検出するセンサを備えるヘッドマウントディスプレイとに接続されるコンピュータを、前記ヘッドマウントディスプレイに仮想空間を提供するように機能させるプログラムであって、
少なくとも前記操作部又は前記センサを介した操作情報に応じて、前記仮想空間内に配置された仮想カメラを制御する仮想カメラ制御部、
前記仮想カメラに設定されたカメラ領域の情報を前記ヘッドマウントディスプレイに表示する表示制御部、
前記仮想空間内に配置された人形オブジェクトを制御するオブジェクト制御部、
前記仮想カメラと前記人形オブジェクトとの位置関係が所定距離以下であるか否かを判定する判定部、
として機能させるプログラムにおいて、
前記オブジェクト制御部は、前記位置関係が所定距離以下であると判定された場合に、前記人形オブジェクトの顔部分が前記仮想カメラの方向に向き続けるように前記オブジェクトの姿態を制御する、
プログラムが得られる。
本発明によれば、アクションゲーム等のゲームにおいて、より自然な表現を提供することができる。
本発明の実施形態によるHMDシステムを示す図である。 HMDを装着しているユーザの頭部を中心に規定される3次元空間上の直交座標系を示す。 仮想空間と実空間の配置位置の対応関係の一例を示すXYZ空間図である。 仮想空間と実空間の配置位置の対応関係の一例を示すXZ平面図である。 HMDシステムの機能を実現するための、制御回路部の機能を示すブロック図である。 視界領域を示す3次元の模式図である。 視界領域をX方向から見たYZ面図である。 視界領域をY方向から見たXZ面図である。 図4に示すオブジェクト制御部の機能を説明するブロック図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 HMDに表示される視界画像の一例を示す図である。 ユーザの入力操作と仮想カメラの移動との関係を示す図である。 HMDに表示される視界画像を模式的に表した図である。 HMDに表示される視界画像を模式的に表した他の図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態によるヘッドマウントディスプレイを制御するプログラム、システム、及び方法は、以下のような構成を備える。
(項目1)
操作部と、変位を検出するセンサを備えるヘッドマウントディスプレイとに接続されるコンピュータを、前記ヘッドマウントディスプレイに仮想空間を提供するように機能させるプログラムであって、
少なくとも前記操作部又は前記センサを介した操作情報に応じて、前記仮想空間内に配置された仮想カメラを制御する仮想カメラ制御部、
前記仮想カメラに設定された視線軸及び当該視線軸の周囲を含むカメラ領域の情報を前記ヘッドマウントディスプレイに表示する表示制御部、
前記仮想空間内に配置されたオブジェクトを制御するオブジェクト制御部、
前記仮想カメラと前記オブジェクトとの位置関係が所定条件を満たすか否かを判定する判定部、
として機能させるプログラムにおいて、
前記オブジェクト制御部は、前記所定条件を満たすと判定された場合に、前記オブジェクトの所定の部位が前記仮想カメラの前記視線軸と直交するように前記オブジェクトの動作を制御する、
プログラム。
本発明によれば、ユーザが近寄った時にオブジェクトが振り向くような動作が可能となり、より自然な表現を提供できる。
(項目2)
項目1に記載のプログラムであって、
前記オブジェクト制御部は、更に、前記オブジェクトを所定方向に向けて移動するように制御する、
プログラム。
本発明によれば、ユーザが近寄った時にオブジェクトが振り向くような動作が可能となり、より自然な表現を提供できる。
(項目3)
項目2に記載のプログラムであって、
前記オブジェクト制御部は、前記オブジェクトの前記移動が行われている間であって且つ前記所定条件を満たすと判定された場合に、前記オブジェクトの所定の部位が、前記仮想カメラの前記視線軸と直交し続けるように前記オブジェクトの動作を制御する、
プログラム。
本発明によれば、オブジェクトが移動するようなときであっても、ユーザを注視し続ける動作が可能になるため、より自然な表現を提供できる。
(項目4)
請求項2又は請求項3に記載のプログラムであって、
前記オブジェクト制御部は、前記オブジェクトの前記移動が行われている間であって且つ前記所定条件を満たすと判定され更に前記仮想カメラが移動された場合に、前記オブジェクトの所定の部位が、移動された前記仮想カメラの前記視線軸と直交し続けるように前記オブジェクトの動作を制御する、
プログラム。
本発明によれば、オブジェクトが移動するようなときであっても、ユーザを注視し続ける動作が可能になるため、より自然な表現を提供できる。
(項目5)
項目1乃至項目4のいずれかに記載のプログラムであって、
前記位置関係は、前記仮想カメラと前記オブジェクトとの直線距離である、
プログラム。
本発明によれば、簡単な検知方法で、自然な表現を提供できる。
(項目6)
操作部と、変位を検出するセンサを備えるヘッドマウントディスプレイとに接続されるコンピュータを、前記ヘッドマウントディスプレイに仮想空間を提供するように機能させるプログラムであって、
少なくとも前記操作部又は前記センサを介した操作情報に応じて、前記仮想空間内に配置された仮想カメラを制御する仮想カメラ制御部、
前記仮想カメラに設定されたカメラ領域の情報を前記ヘッドマウントディスプレイに表示する表示制御部、
前記仮想空間内に配置された人形オブジェクトを制御するオブジェクト制御部、
前記仮想カメラと前記人形オブジェクトとの位置関係が所定距離以下であるか否かを判定する判定部、
として機能させるプログラムにおいて、
前記オブジェクト制御部は、前記位置関係が所定距離以下であると判定された場合に、前記人形オブジェクトの顔部分が前記仮想カメラの方向に向き続けるように前記オブジェクトの姿態を制御する、
プログラム。
本発明によれば、ユーザが近寄った時にオブジェクトが振り向くような動作が可能となり、より自然な表現を提供できる。
[本発明の実施形態の詳細]
本発明の実施形態に係るヘッドマウントディスプレイを制御するプログラム、システム、及び方法の具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態にかかるヘッドマウントディスプレイ(以下、「HMD」と称する。)110を備えるHMDシステム100を示す。HMDシステム100は、ユーザの頭部に装着されるHMD110と、制御回路部120と、センサ130と、外部コントローラ140を備える。HMD110は、非透過型の表示装置であるディスプレイ112と、センサ部114を含む。制御回路部120はディスプレイ112に右目用画像と左目用画像を表示することにより、両目の視差を利用した3次元画像を仮想空間として提供する。ディスプレイ112がユーザの眼前に配置されることによって、ユーザは仮想空間に没入できる。仮想空間は、後述するように、背景やユーザが操作可能な各種オブジェクトを含む。
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていても良い。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
制御回路部120は、HMD110に接続されるコンピュータであり、ディスプレイ112に仮想空間を提供し、当該仮想空間内に表示される各種オブジェクトを操作するように機能させる。制御回路部120はそのような動作を制御するプログラムを格納する。制御回路部120はHMD110に搭載されていなくてもよく、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部120は、一部の機能のみをHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。
センサ130は、HMD110の位置や動きに関する情報を検出する。センサ130は、センサ部114と、検知部132を含む。センサ部114は、複数の光源を含んでもよい。光源は、例えば赤外線を発するLEDである。検知部132は例えば赤外線センサであり、光源からの赤外線をHMD110の検知点として検知することで、ユーザの動きに応じたHMD110の実空間内における角度に関する情報を経時的に検出する。そして、検知部132により検出された情報の経時的変化に基づいて、HMD110の角度の時間変化を決定し、HMD110の位置や動きに関する情報を検知することができる。
センサ130によって取得される角度に関する情報を、図2を参照して説明する。HMD110を装着したユーザの頭部を中心として、XYZ座標を規定する。ユーザが直立する垂直方向をY軸とし、Y軸と直交しディスプレイ112の中心とユーザを結ぶ前後方向をZ軸とし、Y軸およびZ軸と直交する横方向をX軸とする。そして各軸周りのHMD110の傾き角度θx(いわゆるピッチ角),θy(いわゆるヨー角),θz(いわゆるロール角)を検出し、それらの経時的な変化により、HMD110の位置や動きに関する情報を検知することができる。
センサ130は、ディスプレイ112の近くに固定されたセンサ部114と、検知部132の、一方のみから構成されてもよい。センサ部114が、地磁気センサ、加速度センサ、角速度(ジャイロ)センサであってもよく、これらの少なくとも1つを用いて、ユーザの頭部に装着されたHMD110(特に、ディスプレイ112)の傾きを検出する。これにより、HMD110の位置や動きに関する情報を検出することができる。例えば、角速度センサは、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検出し、各軸回りの角度(傾き)の時間変化を決定することができる。この場合には、検知部132は不要である。また、検知部132は光学カメラを含んで構成されても良い。この場合には、画像情報に基づいてHMD110の位置や動きに関する情報を検出することができ、センサ部114は不要である。
センサ130を用いてHMDの位置や動きに関する情報を検出する機能をポジション・トラッキングと称する。センサ130によるポジション・トラッキングと、仮想空間2内に配置される仮想カメラ1との関係を図,図を参照して説明する。仮想カメラ1とセンサ130の位置関係を説明するために、以下ではセンサ130の位置は、検知部132を有する場合には検知部132の位置とし、検知部132を有しない場合にはセンサ部114の位置とする。図は実空間内のセンサ130と仮想空間2の関係を示す3次元の模式図であり、図は実空間内のセンサ130と仮想空間2の関係をY方向から見た平面図である。仮想空間2の内部に仮想カメラ1が配置され、および仮想空間2の外部(実空間)にセンサ130が仮想的に配置される。
仮想空間2は、略正方形または略長方形の複数のメッシュ3を有する天球状に形成される。各メッシュは仮想空間2の空間情報が関連付けられており、この空間情報に基づいて後述する視界画像が形成される。本実施形態では、図に示すように、XZ面において、天球の中心点21が仮想カメラ1とセンサ130を結ぶ線上に常に配置されるように調整することが好ましい。例えば、HMDを装着したユーザが移動して仮想カメラ1の位置がX方向に移動した場合には、中心21が仮想カメラ1とセンサ130の線分上に位置するように、仮想空間2の領域が変更される。
外部コントローラ140は、制御回路部120に対して各種指令を送ることができるように通信可能なデバイスであり、無線通信が可能な携帯端末で構成されることが好ましい。外部コントローラ140は、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部、および入力部を備える任意の携帯型デバイスとすることができる。例えば、スマートフォン、PDA、タブレット型コンピュータ、ゲーム用コンソール、ノートPCを適用可能であり、タッチパネルを備える携帯端末であることが好ましい。ユーザは、外部コントローラ140のタッチパネルに対し、タップ、スワイプおよびホールドを含む各種タッチ動作を実施することにより、仮想空間に表示されるオブジェクトに対して影響を及ぼすことができる。
HMDシステム100はいずれかの要素にマイクを含むヘッドホンを備えていても良い。これにより、ユーザは仮想空間内の所定のオブジェクト(後述するゲームオブジェクト等)に、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいても良い。
は、HMDシステム100における仮想空間2の表示処理や、当該仮想空間2内に
表示されるオブジェクトの操作を実現するための、制御回路部120の機能を示す図であ
る。制御回路部120は、主にセンサ130および外部コントローラ140からの入力に
基づいて、ディスプレイ112への出力画像を制御する。
制御回路部120は、表示制御部200とオブジェクト制御部300と、判定部400を備える。表示制御部200は、動き検出部210と、視界決定部220と、視界画像生成部230と、空間情報格納部240を含む。オブジェクト制御部300は、オブジェクト情報格納部310と、仮想カメラ情報格納部320を含む。センサ130と、表示制御部200と、オブジェクト制御部300と、ディスプレイ112は互いに通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。外部コントローラ140は、オブジェクト制御部300と通信可能に接続されている。空間情報格納部240、オブジェクト情報格納部310、および仮想カメラ情報格納部320は、センサ130や外部コントローラ140からの入力に対応した出力情報をディスプレイ112へ提供するための各種テーブルを含む。判定部400は、センサ130や外部コントローラ140からの入力が所定の条件を満たし、各種オブジェクトが所定の条件を満たすように操作されたか否かを判定する。
センサ130は、センサ部114により経時的に検知される角度情報や、検知部132により経時的に検知されるHMD110の角度情報に基づいて、HMD110の位置や動きに関する情報を、表示制御部200およびオブジェクト制御部300に出力する。動き検知部210は、センサ130からの入力情報に基づいて、HMD110の動きを検出する。そして、仮想空間2内におけるHMD110の向きを規定する基準視線となる視野方向を検出する。そして、検出した情報を視界決定部220に出力する。
視界決定部220は、空間情報格納部240に格納された仮想空間情報と、センサ130からの入力情報(動き検知部210からの情報)に基づいて、仮想空間2における仮想カメラ1の視界領域に関する情報を決定する。視界画像生成部230は、当該視界情報に基づいて、仮想空間を構成する360度パノラマの一部を、視界画像として生成する。視界画像はディスプレイ112に出力される。視界画像は左目用と右目用の2つの2次元画像を含み、これらがディスプレイ112に重畳されることにより、3次元画像としての仮想空間2がユーザに提供される。
オブジェクト制御部300では、オブジェクト情報格納部310に格納された仮想空間内のオブジェクト情報と、センサ130および外部コントローラ140からのユーザ指令に基づいて、操作対象オブジェクトを特定する。そして、操作対象オブジェクトへの所定のユーザ操作指令に基づいて、仮想カメラ情報格納部320に格納された仮想カメラ情報を調整する。調整された仮想カメラ情報を表示制御部200に出力し、視界画像が調整される。また、所定のユーザ操作指令に対応する操作を操作対象オブジェクトへ実施し、オブジェクト制御情報をディスプレイ112および表示制御部200に出力する。オブジェクト操作の具体的な処理は後述する。
なお、制御回路部120の各機能を実現するためのハードウェア要素は、CPU、メモリ、その他の集積回路で構成することができる。そして、メモリにロードされたソフトウェア要素としての各種プログラムによって各機能が実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることが当業者に理解される。
図8を参照して、視界決定部220で決定される、仮想空間2の天球面に沿った視界領域6について説明する。図は、視界領域6を示す3次元の模式図であり、図は視界領域6をX方向から見たYZ面図であり、図は視界領域6をY方向から見たXZ面図である。図に示すように、視界領域6は仮想空間2の一部を構成する。視界領域6は視界方向5に基づいて定められ、視界方向5は仮想カメラ1の位置および方向に基づいて定められる。視界領域6は、仮想空間2と視界方向5との交点におけるX軸まわりの所定範囲である第1領域61と、仮想空間2と視界方向5との交点におけるY軸まわりの所定範囲である第2視界領域62とを有する。第1領域61は、視界方向5を中心として極角αを含む範囲として設定される。第2領域62は、視界方向5を中心として方位角βを含む範囲として設定される。つまり、視界領域6は、仮想カメラ1の位置からの視界方向5に対して、XY平面図における極角θおよびXZ平面図における方位角βを有した球面上の領域とすることができる。
、図10を参照して、仮想空間2内でのオブジェクト操作に関する制御回路部120の処理動作を説明する。図は、図4に示すオブジェクト制御部300の機能を説明するブロック図である。オブジェクト制御部300は、操作対象オブジェクトを特定するためのオブジェクト特定部330と、特定された操作対象オブジェクトを操作するためのオブジェクト操作部340を備える。
オブジェクト特定部330は、基準視線計算部331、オブジェクト判定部332、操作対象オブジェクト選択部333を備える。オブジェクト特定部330は、HMD110の傾き動作によって、仮想空間2において図図8に示した基準視線である視界方向5上に配置されるオブジェクトを特定する。そのために、基準視線計算部331が視界方向5を設定し、オブジェクト判定部340が視界方向5上にオブジェクトが配置されているかを判定する。さらに、操作対象オブジェクト選択部360は、視界方向5上にオブジェクトが配置される場合に、そのオブジェクトを操作対象オブジェクトとして選択する。
オブジェクト操作部340は、外部コントローラ動作判定部341と、傾き動作判定部342と、仮想カメラ調整部343と、オブジェクト操作特定部344と、オブジェクト操作実施部345と、オブジェクト操作テーブル346を備える。オブジェクト操作部340は、オブジェクト特定部300で特定された操作対象オブジェクトに対し、HMD110の傾き動作に従った操作を実施する。
外部コントローラ動作判定部341は、外部コントローラ140にユーザのタッチ操作が入力されたかを判定する。傾き動作判定部342は、HMD110に傾き動作(特に、傾け方向)が入力されたかを判定する。仮想カメラ調整部343は、オブジェクト操作の際に仮想カメラ1の位置や方向を調整する。オブジェクト操作特定部344は、操作対象オブジェクトに対する操作を、オブジェクト操作テーブル346に従って特定する。オブジェクト操作実施部345は、オブジェクト操作を実施し、その結果として生じる画像を視界画像として生成する。
10はオブジェクト操作テーブル346の一例を示す。オブジェクト操作テーブル346は、ユーザ動作と操作対象オブジェクトのアクションを関連付ける。即ち、ユーザによるHMD110に対する傾き変更動作や、外部コントローラ140への入力といった動作に対して、操作対象オブジェクトが所定のアクションをとるよう、一対一で対応付けられる。操作対象オブジェクトのアクションは、HMD110または外部コントローラ140単体への入力動作によって関連付けられても良いし、HMD110と外部コントローラ140の連携した操作に関連付けられていても良い。当該入力に対する各アクションの詳細は後述する。
なお、オブジェクト操作テーブル346がユーザ動作と操作対象オブジェクトの情報を有している場合には、オブジェクト操作部340がオブジェクト特定部330としての機能を有する場合がある。即ち、オブジェクト操作テーブル346が有する操作対象オブジェクト情報は、オブジェクト特定部330において特定されたものであっても良いし、予め設定されたものであっても良い。
次に、図10〜図14を参照して、本実施形態による、仮想空間2内におけるオブジェクト操作のための処理フローを説明する。当該オブジェクト操作処理は、外部コントローラ140、センサ130、HMD100および制御回路部120の相互作用によって実現され得る。
まず、センサ130によってHMD110の位置が検知される(ステップS130−1)。
センサ130の検知情報は制御回路部120に送信され、動き検出部210により、視界決定部220は基準視線である視界方向5を決定する(ステップS120−1)。視界方向5は、前述のように視界画像の所定位置に対応付けて決定される。当該所定位置は視界画像の中心点とするのがよいが、これに限定されず、視界画像の如何なる設定可能な位置としてよい。また、視界方向は何らかのマーク(例えば、円形や手の平形のアイコン)として上記視界画像に重畳表示してもよい。続いて、視界決定部220により、HMD110の位置情報および/または傾き情報に基づいて、仮想空間2内での視界情報が決定される。更に、視界画像生成部230が当該視界情報に基づいてHMD110のディスプレイ112に表示するための視界画像を生成する(ステップS120−2)。
次に、視界画像がHMD110に表示される(ステップS110−2)。視界画像には、後述するように操作対象になり得る複数のオブジェクトが表示される。そして、視界画像がHMD110に表示された状態で、HMD110を装着したユーザが頭部を傾ける動作をした場合には、仮想空間2内に配置された複数のオブジェクトのうち、少なくとも1つが視界画像の所定位置に対応するよう位置合わせを行う。
HMD110に表示される視界画像の一例を図11に示す。視界画像G1は、HMD110に表示される仮想空間内の様子である。なお、実際のHMD110においては、右目用の画像及び左目用の画像が夫々用意されるが、今回は簡単のため、左目用の画像のみ使用して説明する。
本実施の形態においては、図示される仮想空間に、「くま」を模した複数のキャラクタCkが表示れる。図示された視界においては、キャラクタCkは、画面外(G1の左下)から現れ、矢印DD1に沿って斜面Slpを駆け上がり、平面Plnに差し掛かると方向転換をして矢印DD2に沿って進み、画面外に消える。なお、『図示された視界においては』と記載したのは、HMD110の傾きや外部コントローラの操作によって、視界領域を変更することができるからである(図10のステップS130−1、S110−1、S120−1乃至S120−3、S110−2)。
次に、外部コントローラ140による操作入力(ステップS140−1)に関する情報、センサ130によるHMD110の位置検知(ステップS130−2)に関する情報、HMD110による傾きに関する情報(ステップS110−3)が、制御回路部120に受け付けられる(ステップS120−4)。制御回路部120は、これらの情報に基づいて、仮想カメラの位置、傾きを制御する(ステップS120−5)。
本実施の形態においては、図12に示されるように、ユーザの外部コントローラ(スマートフォン)140に対する操作が仮想カメラVCamの位置に反映される。即ち、図示されるように、スマートフォンのタッチパネル上において、指を前方に移動させると、仮想カメラVCamも仮想空間内を前方に移動(即ち、前進)し、それに伴って、視界領域もV1〜V2へと変化する。
次に、仮想カメラVCamと仮想空間内のキャラクタCkとの関係について説明する。図13に示されるように、仮想カメラVCamは、HMD110に表示される領域である視界領域V1と、当該視界領域V1に包含される領域である検知領域Detとを有している。検知領域Detは仮想カメラVCamから距離Lの範囲内に設定される。
仮想空間内には、キャラクタCk1、Ck2の2種類のキャラクタが表示されている。キャラクタCk1は、仮想カメラVCamの視界領域V1に含まれているものの、検知領域Detには含まれていない。キャラクタCk1は、位置P_1、P_2、P_3の順に進行方向(X方向)に沿って進行し、当該進行方向に視線を向けている(点線の矢印参照)。一方、キャラクタCk2は、仮想カメラVCamの視界領域V1に含まれ、且つ、一部の位置(P_12、P_13等)で検知領域Detにも含まれている。本実施の形態においては、検知領Det内に含まれるキャラクタはその視線を仮想カメラVCamに向けながら進行するように制御される。即ち、キャラクタCkが検知領域Det外である位置P_11にある場合にはその視線は進行方法(X方向)である。キャラクタCk2が移動し、検知領域Det内である位置P_12まで進むと、それまで進行方向を向いていた視線は仮想カメラVCamの方向となるように(仮想カメラVCamを見るように)姿態を変化させる。少し進んだP_13では、姿態を更に変化させ、その視線がVCamから外れないように視線方向を更に変化させる。そして、検知領域Det外である位置P_14になると再び視線を進行方向に戻す。このように、自分の近くに位置するキャラクタのみが自分と目線を合わせ続けながら移動する制御を行うことで、キャラクタにより自然な動きを持たせることができる。
なお、検知領域Det内にキャラクタCkがいたとしても、仮想カメラVCamと視線を合わせようとすると、首の向き等が明らかにおかしいものとなってしまう場合、自然な表現ができなくなる。したがって、キャラクタCkが仮想カメラVCamに向ける場合、進行方向と視線とのなす角度が一定以上となる場合は上述した処理を行わずそれ以上首を曲げないこととしてもよい。
14は、進行方向Xに沿って移動中のキャラクタCk3が仮想カメラVCamに視線を向けている際に、ユーザ操作によって仮想カメラVCamが移動された場合の例である。具体的には、移動前の位置CP_0に位置する仮想カメラVCamにおける検知領域Det_0の外の位置P_31においては、キャラクタCk3は進行方向に視線を向けている。キャラクタCk3がX方向に進み且つ検知領域Det_0内の位置P_32においては、キャラクタCk3はCP_0に位置する仮想カメラVCamに視線を向けている。この時、ユーザがスマートフォン140上で左から右に向けてスワイプ操作(スライド操作)を行うと、仮想カメラVCamはCP_0からCP_1へと移動し、それに伴って検知領域もDet_0からDet_1へと変化する。このとき、P_32からP_33へと移動したキャラクタCk3は、その視線を移動後の仮想カメラVCamに向かうように姿態を変化させる。
このように、検知領域内にある限り、仮想カメラが移動したとしてもキャラクタの視線
は仮想カメラVCamを追い続けることとなり、新しいゲーム体験を提供させつつ自然
な動きを表現することができる。
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。

100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、120…制御回路部、130…センサ、132…検知部、140…外部コントローラ、200…表示制御部、300…オブジェクト制御部、400…判定部、1…仮想カメラ、2…仮想空間、5…視界方向、6…視界領域

Claims (6)

  1. 操作部と、変位を検出するセンサを備えるヘッドマウントディスプレイとに接続されるコンピュータを、前記ヘッドマウントディスプレイに仮想空間を提供するように機能させるプログラムであって、
    少なくとも前記操作部又は前記センサを介した操作情報に応じて、前記仮想空間内に配置された仮想カメラを制御する仮想カメラ制御部、
    前記仮想カメラに設定された視線軸及び当該視線軸の周囲を含むカメラ領域の情報を前記ヘッドマウントディスプレイに表示する表示制御部、
    前記仮想空間内に配置されたオブジェクトを制御するオブジェクト制御部、
    前記仮想カメラと、前記仮想空間内に配置されたオブジェクトのうち、ユーザの操作によらず前記オブジェクト制御部によって動きが制御されるオブジェクトとの位置関係が所定条件を満たすか否かを判定する判定部、
    として機能させるプログラムにおいて、
    前記オブジェクト制御部は、前記所定条件を満たすと判定された場合、前記オブジェクトが前記仮想カメラへの方向とは異なる方向に移動していても、前記オブジェクトの一部を構成する所定の部位が前記仮想カメラの方向を向くように前記オブジェクトの動作を制御する、
    プログラム。
  2. 請求項1に記載のプログラムであって、
    前記オブジェクト制御部は、前記オブジェクトを所定方向に向けて移動するように制御し、前記所定条件を満たすと判定された場合、前記所定方向が前記仮想カメラへの方向とは異なる方向であっても、前記オブジェクトの前記所定の部位が前記仮想カメラの方向を向くように前記オブジェクトの動作を制御する、
    プログラム。
  3. 請求項2に記載のプログラムであって、
    前記オブジェクト制御部は、前記オブジェクトの前記移動が行われている間であって且つ前記所定条件を満たすと判定された場合に、前記オブジェクトの前記所定の部位が、前記仮想カメラの方向を向き続けるように前記オブジェクトの動作を制御する、
    プログラム。
  4. 請求項2又は請求項3に記載のプログラムであって、
    前記オブジェクト制御部は、前記オブジェクトの前記移動が行われている間であって且つ前記所定条件を満たすと判定され更に前記仮想カメラが移動された場合に、前記オブジェクトの前記所定の部位が、移動された前記仮想カメラを向き続けるように前記オブジェクトの動作を制御する、
    プログラム。
  5. 請求項1乃至請求項4のいずれかに記載のプログラムであって、
    前記位置関係は、前記仮想カメラと前記オブジェクトとの直線距離である、
    プログラム。
  6. 操作部と、変位を検出するセンサを備えるヘッドマウントディスプレイとに接続されるコンピュータを、前記ヘッドマウントディスプレイに仮想空間を提供するように機能させるプログラムであって、
    少なくとも前記操作部又は前記センサを介した操作情報に応じて、前記仮想空間内に配置された仮想カメラを制御する仮想カメラ制御部、
    前記仮想カメラに設定されたカメラ領域の情報を前記ヘッドマウントディスプレイに表示する表示制御部、
    前記仮想空間内に配置された人形オブジェクトをユーザの操作によらず制御するオブジェクト制御部、
    前記仮想カメラと前記人形オブジェクトとの位置関係が所定距離以下であるか否かを判定する判定部、
    として機能させるプログラムにおいて、
    前記オブジェクト制御部は、前記位置関係が所定距離以下であると判定された場合、前記人形オブジェクトが前記仮想カメラへの方向とは異なる方向に移動していても、前記人形オブジェクトの一部を構成する顔部分が前記仮想カメラの方向を向き続けるように前記人形オブジェクトの姿態を制御する、
    プログラム。
JP2015124463A 2015-06-22 2015-06-22 ヘッドマウントディスプレイを制御するプログラム。 Active JP6448478B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015124463A JP6448478B2 (ja) 2015-06-22 2015-06-22 ヘッドマウントディスプレイを制御するプログラム。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124463A JP6448478B2 (ja) 2015-06-22 2015-06-22 ヘッドマウントディスプレイを制御するプログラム。

Publications (2)

Publication Number Publication Date
JP2017006355A JP2017006355A (ja) 2017-01-12
JP6448478B2 true JP6448478B2 (ja) 2019-01-09

Family

ID=57760464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124463A Active JP6448478B2 (ja) 2015-06-22 2015-06-22 ヘッドマウントディスプレイを制御するプログラム。

Country Status (1)

Country Link
JP (1) JP6448478B2 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000210468A (ja) * 1999-01-20 2000-08-02 Namco Ltd ゲ―ム装置
JP2001029659A (ja) * 1999-07-23 2001-02-06 Namco Ltd ゲーム装置
JP5027355B2 (ja) * 2001-02-27 2012-09-19 株式会社スクウェア・エニックス ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2004141421A (ja) * 2002-10-24 2004-05-20 Nintendo Co Ltd ゲーム装置
JP3558288B1 (ja) * 2002-10-24 2004-08-25 任天堂株式会社 ゲーム環境内にオブジェクトをタグ付けすることによって動画制御を行うシステムおよび方法
JP5714855B2 (ja) * 2010-09-16 2015-05-07 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5542099B2 (ja) * 2011-06-28 2014-07-09 株式会社スクウェア・エニックス ゲームプログラムおよびゲーム装置
JP6353214B2 (ja) * 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6663634B2 (ja) * 2014-05-29 2020-03-13 フリュー株式会社 ビデオゲーム装置、ビデオゲームの制御方法、ビデオゲーム制御プログラム、および記録媒体

Also Published As

Publication number Publication date
JP2017006355A (ja) 2017-01-12

Similar Documents

Publication Publication Date Title
US10776991B2 (en) Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods
US10013812B2 (en) Method and system for controlling a head-mounted display system
US9928650B2 (en) Computer program for directing line of sight
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP5961736B1 (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US9852546B2 (en) Method and system for receiving gesture input via virtual control objects
US9779702B2 (en) Method of controlling head-mounted display system
US11845007B2 (en) Perspective rotation method and apparatus, device, and storage medium
US11244659B2 (en) Rendering mediated reality content
JP6931068B2 (ja) 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
US10656705B2 (en) Assisted item selection for see through glasses
JP6433862B2 (ja) ヘッドマウントディスプレイシステム制御プログラム、コンピュータ及び方法
JP6448478B2 (ja) ヘッドマウントディスプレイを制御するプログラム。
JP6598575B2 (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP2018038010A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2017049738A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP2017033465A (ja) 方法、および、プログラム
US20240086032A1 (en) Method of manipulating user interfaces in an environment
JP2017162443A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6332658B1 (ja) 表示制御装置、及びプログラム
WO2024064231A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
KR20230124363A (ko) 전자 장치 및 전자 장치의 제어 방법
JP2017041229A (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180424

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R150 Certificate of patent or registration of utility model

Ref document number: 6448478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250