JP6613099B2 - 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム - Google Patents

仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム Download PDF

Info

Publication number
JP6613099B2
JP6613099B2 JP2015205475A JP2015205475A JP6613099B2 JP 6613099 B2 JP6613099 B2 JP 6613099B2 JP 2015205475 A JP2015205475 A JP 2015205475A JP 2015205475 A JP2015205475 A JP 2015205475A JP 6613099 B2 JP6613099 B2 JP 6613099B2
Authority
JP
Japan
Prior art keywords
eye
image
reality space
virtual reality
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015205475A
Other languages
English (en)
Other versions
JP2017078890A (ja
Inventor
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015205475A priority Critical patent/JP6613099B2/ja
Publication of JP2017078890A publication Critical patent/JP2017078890A/ja
Application granted granted Critical
Publication of JP6613099B2 publication Critical patent/JP6613099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステムに関する。
従来、三次元(three−dimensional、以下「3D」と称する)画像を立体的に表示するために、視差を有する別々の画像を左右の眼に見せる画像表示装置が提案されている。

例えば、特許文献1には、両眼の視線がなす角度、すなわち輻輳角の相違による立体視機能を使用することにより、物体の奥行きを視覚的に感じさせる画像表示装置が開示されている。 しかしながら、特許文献1に記載の技術によれば、左眼及び右眼に見せるための画像を常に生成する必要がある。したがって、描画のためにコンピュータにかかる負荷が大きい。
特開2002−095018号公報
本発明は、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することを目的とする。
上記の課題を解決するために、本発明の実施形態は、オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を求めるステップと、前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、前記距離が所定の閾値以下である場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、前記距離が前記所定の閾値を超える場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップとを含むプログラムを提供する。
本発明によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
本発明のその他の特徴及び利点は、後述する実施形態の説明、添付の図面及び特許請求の範囲の記載から明らかなものとなる。
図1は、立体視を得る原理を説明する図である。 図2は、立体視を得る原理を説明する図である。 図3は、本発明の一実施形態による、仮想現実空間を立体的に表示するためのコンピュータを備えるシステムのハードウェア構成を示す。 図4は、本発明の一実施形態によるコンピュータの構成を詳細に示すブロック図である。 図5は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。 図6は、仮想現実空間内の視野の一例を示す。 図7は、仮想現実空間内の視野の一例を示す。 図8は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。 図9は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるコンピュータ・プログラムは、以下のような構成を備える。
(項目1)
オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記距離が所定の閾値以下である場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記距離が前記所定の閾値を超える場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。
本項目のプログラムによれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
(項目2)
オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの輻輳角を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記輻輳角が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記輻輳角が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。
本項目のプログラムによれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
(項目3)
オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの視差を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記視差が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記視差が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。
本項目のプログラムによれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
(項目4)
前記方法は、前記コンピュータのプロセッサの使用率に応じて前記所定の閾値を決定するステップをさらに含む項目1乃至3のいずれか1項に記載のプログラム。
本項目のプログラムによれば、プロセッサの使用率を考慮して前記所定の閾値を変化させることができる。
(項目5)
前記方法は、前記第一眼用表示部及び前記第二眼用表示部における画像表示のフレームレートに応じて前記所定の閾値を決定するステップをさらに含む項目1乃至3のいずれか1項に記載のプログラム。
本項目のプログラムによれば、画像表示のフレームレートを考慮して前記所定の閾値を変化させることができる。
(項目6)
複数のオブジェクトが前記仮想現実空間に配置され、
前記複数のオブジェクトについて生成された複数の第一眼用画像が1つの画像として前記第一眼用表示部に表示され、
前記複数のオブジェクトについて生成された複数の第二眼用画像が1つの画像として前記第二眼用表示部に表示される項目1乃至5のいずれか1項に記載のプログラム。
本項目のプログラムによれば、複数のオブジェクトが配置された仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
(項目7)
前記コンピュータはヘッドマウントディスプレイシステムを構成する項目1乃至6のいずれか1項に記載のプログラム。
本項目のプログラムによれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができるヘッドマウントディスプレイシステムを実現できる。
(項目8)
プロセッサを含み、項目1乃至7のいずれか1項に記載のプログラムが前記プロセッサに実行されることにより、前記方法が実行されるコンピュータ。
本項目のコンピュータによれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
(項目9)
項目8に記載のコンピュータを備えるヘッドマウントディスプレイシステム。
本項目によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができるヘッドマウントディスプレイシステムを実現できる。
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態について説明する。
図1は、立体視を得る原理を説明する図である。右眼102及び左眼103が、正面に配置された物体101を見ている。右眼102及び左眼103は、物体101を見るために、それぞれ角度θ及びθだけ内側に回転する。物体101までの距離が近くなるにつれて、θ及びθの和であるθは大きくなる。物体101までの距離が遠くなるにつれて、θは小さくなる。このθは輻輳角(binocular parallax)と呼ばれる。
図2もまた、立体視を得る原理を説明する図である。図1と同様に、右眼102及び左眼103が物体101を見ている。物体101と右眼102との間の位置関係と、物体101と左眼103との間の位置関係は異なる。したがって、図示されるように、右眼102が見ている物体101の画像201は、左眼103が見ている画像202とは異なる。このような右眼及び左眼が見ている画像の相違は、両眼視差(binocular disparity)と呼ばれる。物体101までの距離が近くなるにつれて、両眼視差は大きくなる。物体101までの距離が遠くなるにつれて、両眼視差は小さくなる。
現実空間において、人間は、主にこれら2つの原理によって立体視を得ているといわれている。
これに対し、立体テレビなどの3D表示装置には、右眼用のディスプレイと左眼用のディスプレイが設けられている。このような装置は、それぞれのディスプレイに表示される画像に対して輻輳角や両眼視差に相当する相違を与えることにより、立体視の効果を得る。
図3は、本発明の一実施形態による、仮想現実空間を立体的に表示するためのコンピュータを備えるヘッドマウントディスプレイ(Head Mounted Display、以下「HMD」と称する)システム300のハードウェア構成を示す。HMDシステム300は、HMD302と、画像生成装置として機能するコンピュータ304とを備える。HMD302及びコンピュータ304は、例えば、有線ケーブル306によって電気的に接続され、相互に通信可能である。有線ケーブル306に代えて無線接続が用いられてもよい。
HMD302は、ユーザ308の頭に装着されて利用される表示デバイスである。HMD302は、表示部310と、アイトラッキングデバイス(Eye Tracking Device、以下「ETD」と称する)312と、センサ314とを備える。ETD312及びセンサ314は、どちらか一方だけが択一的に設けられてもよい。図示しないが、HMD302は、スピーカ、ヘッドホン、カメラなどをさらに備えてもよい。
表示部310は、右眼及び左眼のうちの一方及び他方にそれぞれ対応する第一眼用表示部及び第二眼用表示部を含む。図3には左眼に対応する表示部のみが示されている。右眼及び左眼に対応する表示部をそれぞれ第一眼用表示部及び第二眼用表示部と呼んでもよいし、その逆であってもよい。表示部310は、HMD302を装着したユーザ308の視界に画像を提示するように構成される。例えば、表示部310は、非透過型ディスプレイとして構成することができる。この場合、HMD302の外界の光景はユーザ308の視界から遮断され、ユーザ308の目には表示部310に映し出された画像だけが届けられる。表示部310には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想現実画像である。
ETD312は、ユーザ308の眼球の動きを追跡して、ユーザ308の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD312は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD302を装着したユーザ308の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ308の目の画像を撮像する。赤外線はユーザ308の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ308の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ308の目の画像において瞳が識別される。更に、識別された瞳の位置に基づいて、ユーザ308の視線の方向が検出される。
センサ314は、HMD302を装着したユーザ308の頭がどちらの方向を向いているかを検知するように構成される。センサ314の例は、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせを含んでもよい。センサ314が磁気センサ、角速度センサ又は加速度センサである場合、センサ314はHMD302に内蔵されて、HMD302の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ314からの出力値を適宜の方法で加工することで、HMD302を装着したユーザ308の頭の向きが算出される。ユーザ308の頭の向きは、ユーザ308が頭を動かした際にその動きに追従するように表示部310の表示画像を変化させるのに利用することができる。例えば、ユーザ308が頭を右(又は左、上、下)に向けると、表示部310には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出される。
なお、センサ314は、HMD302の外部に設けられたセンサであってもよい。例えば、センサ314は、HMD302とは別個の赤外線センサであってもよい。この赤外線センサを用いてHMD302の表面に設けられた赤外線反射マーカーを検知することにより、HMD302を装着したユーザ308の頭の向きを特定することができる。
コンピュータ304は、HMD302に表示される画像を生成するための画像生成装置として機能し得る。コンピュータ304は、少なくとも、処理部316と、記憶部318と、ユーザ入力インターフェイス320とを備える。コンピュータ304はまた、その他のコンポーネントとして、例えば、ネットワークを介して他のコンピュータと通信するためのネットワークインターフェイス(図示せず)を備えてもよい。コンピュータ304の例は、パーソナルコンピュータ、ゲームコンソール、スマートフォン、タブレット端末などを含むが、これらに限定されない。
記憶部318は、少なくとも、仮想現実空間データ及び本発明の実施例によるプログラムを格納する。当該プログラムの動作については後述する。記憶部318はまた、コンピュータ304の動作によって生成されるデータを一時的又は永続的に格納することができる。記憶部318の例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスクなどを含むが、これらに限定されない。
処理部316は、記憶部318に格納されているプログラムを読み出して、それに従った処理を実行するように構成されるプロセッサである。処理部316が当該プログラムを実行することによって、後述する画像生成処理が実現される。処理部316は、中央演算処理装置(Central Processing Unit、以下「CPU」と称する)及びグラフィックス処理ユニット(Graphics Processing Unit、以下「GPU」と称する)を含んでもよい。
ユーザ入力インターフェイス320は、HMDシステム300のユーザ308から入力を受け取るように構成される。ユーザ入力インターフェイス320の例は、ゲームコントローラ、タッチパッド、マウス、キーボードなどを含むが、これらに限定されない。
図4は、本発明の一実施形態によるコンピュータ304の構成を詳細に示すブロック図である。図3に関して説明したように、コンピュータ304は記憶部318及び処理部316を備える。記憶部318は、仮想現実空間データ322及びフレームバッファ324を有する。仮想現実空間データ322は、仮想現実空間中のオブジェクトの位置や形状などの様々な情報を含む。本明細書及び特許請求の範囲において、「オブジェクト」とは、仮想現実空間内に現れるキャラクタ、建物、壁、家具、風景、地面に落ちているアイテム、ユーザが操作しているアバターの体の一部、アバターが持っている物体(銃や剣)などを含む。フレームバッファ324は、表示部310に表示されるべき画像に関する描画単位の情報を格納する。処理部316は、表示対象オブジェクト決定部326、閾値決定部328、距離決定部330、輻輳角決定部332、視差決定部334、判定部336、第一眼用画像生成部338、第二眼用画像生成部340及び画像出力部342を含む。これらのコンポーネントによって実行される具体的な処理については後述する。
コンピュータ304は、仮想現実空間を立体的に表示するための画像を生成し、当該画像を表示部310の第一眼用表示部310A及び第二眼用表示部310Bに提供する。
図5は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。本発明の実施形態に係るプログラムは、図5に示す各ステップをコンピュータ304(又は、処理部316)に実行させることができる。また、本発明は、コンピュータ304(又は、処理部316)として実施することができる。
処理はステップ502において開始する。処理部316は、ETD312により検出されたユーザ308の視線の方向、センサ314により検出されたユーザ308の頭の向き、ユーザ入力インターフェイス320が受け取ったユーザ入力などに基づいて、仮想現実空間データ322から仮想現実空間内での視野を決定することができる。例えば、処理部316は、これらの情報に基づいて、右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラの仮想現実空間における位置及び向きを決定することができる。処理部316は、第1の仮想カメラ及び第2の仮想カメラから見た仮想現実空間内の視野を決定することができる。
ステップ504において、表示対象オブジェクト決定部326は、視野内に含まれるオブジェクトを、表示部310に表示するべきオブジェクトとして決定する。図6は、上述のようにして決定された仮想現実空間内の視野600の一例を示す。図6には、右眼及び左眼にそれぞれ対応する第1の仮想カメラ604A及び第2の仮想カメラ606Bが示されている。図6にはまた、視野600内に含まれるオブジェクト602a乃至602iが示されている。表現を簡略化しているため、視野600は平面的であるように見える。しかしながら、通常、仮想現実空間内での視野は立体的である。
ステップ506において、閾値決定部328は、仮想現実空間における第1の仮想カメラ604A及び第2の仮想カメラ604Bとオブジェクトとの間の距離の閾値を決定する。当該距離は、例えば、第1の仮想カメラ604Aと第2の仮想カメラ604Bとの間の中間点からオブジェクトまでの距離であってもよいし、他の方法で定義されてもよい。ここでは、距離の閾値として値dが決定されるものとする。閾値決定部328は、予め定義されて記憶部318に格納されている値を閾値dとして使用してもよい。閾値決定部328はまた、コンピュータ304のプロセッサの使用率に応じて閾値を決定してもよい。例えば、CPUの使用率と閾値との間の関係式が予め定められていてもよい。この場合、閾値決定部328は、現在のCPU使用率と当該関係式とに基づいて、閾値を決定してもよい。閾値決定部328はまた、閾値を適用して視野600を立体的に表示してもコンピュータ304のプロセッサの使用率が所定の値以下に留まるよう、閾値を決定してもよい。また、閾値決定部328は、表示部310(第一眼用表示部310A及び第二眼用表示部310B)における画像表示のフレームレートに応じて閾値を決定してもよい。例えば、閾値決定部328は、フレームレートが高くなるほど閾値を小さくし、フレームレートが低くなるほど閾値を大きくしてもよい。
以降のステップ508乃至516はオブジェクト602a乃至602iの各々について実行される。ステップ508において、距離決定部330は、第1の仮想カメラ604A及び第2の仮想カメラ604Bとオブジェクト(例えば、オブジェクト602a)との間の距離を求める。
ステップ510において、第一眼用画像生成部338は、第1の仮想カメラ604Aから見たオブジェクト602aの画像(第一眼用画像)を生成する。
ステップ512において、判定部336は、ステップ508において求められた距離が所定の閾値d以下であるか否かを判定する。図7は、図6の視野600に関して、オブジェクト602e、602g、602h及び602iが第1の仮想カメラ604A及び第2の仮想カメラ604Bから距離の閾値d内にある状態を模式的に示す。理解を容易にするため、距離d内に位置するオブジェクト602e、602g、602h及び602iだけが黒塗りされ、他のオブジェクトと区別されている。
距離が閾値d以下である場合(ステップ512の「はい」)、処理はステップ514に進む。ステップ514において、第二眼用画像生成部340は、第2の仮想カメラ604Bから見たオブジェクト602aの画像(第二眼用画像)を生成する。距離が閾値dを超える場合(ステップ512の「いいえ」)、処理はステップ516に進む。ステップ516において、第二眼用画像生成部340は、ステップ510において生成された第一眼用画像を第二眼用画像として用いる。例えば、第二眼用画像生成部340は、第一眼用画像をコピーして第二眼用画像を生成してもよい。
ステップ518において、オブジェクト602a乃至602iのすべてについて画像が生成されたか否かが判定される。画像が生成されていないオブジェクトが残っている場合(ステップ518の「いいえ」)、処理はステップ508に戻り、残りのオブジェクトについて上述の処理が繰り返される。すべてのオブジェクトについて画像が生成された場合(ステップ518の「はい」)、処理はステップ520に進む。
ステップ520において、画像出力部342は、第一眼用画像を第一眼用表示部310Aに出力し、第二眼用画像を第二眼用表示部310Bに出力する。例えば、画像出力部342は、オブジェクト602a乃至602iについて生成された複数の第一眼用画像を1つの画像へと合成して、合成された第一眼用画像を第一眼用表示部310Aに出力してもよい。あるいは、画像出力部342は、各オブジェクトについて第一眼用画像が生成されるたびに、当該第一眼用画像をフレームバッファ324に格納してもよい。この場合、複数のオブジェクトについて生成された複数の第一眼用画像は、フレームバッファ324において1つの画像として格納される。すべてのオブジェクトについて第一眼用画像が生成された後、当該1つの画像は第一眼用表示部310Aに出力される。第二眼用画像についても同様の処理が行われる。ステップ522において処理は終了する。
図5において、ステップ506の処理は各オブジェクトについて行われてもよい。この場合、各オブジェクトの画像を生成する際に、プロセッサの使用率やフレームレートを考慮して、コンピュータにかかる負荷が大きくなり過ぎないように閾値が調整されることになる。
図5乃至図7で説明した実施形態によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
図5乃至図7で説明した実施形態においては、第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を閾値と比較することによって、第二眼用画像を新たに生成するべきか否かが判断された。しかし、オブジェクトが同じ距離に位置していても、オブジェクトが第1の仮想カメラ及び第2の仮想カメラの正面から左右にずれた位置にあると、第一眼用画像と第二眼用画像との間の差異は小さくなることがある。
したがって、別の実施形態において、第二眼用画像を新たに生成するべきか否かの判断を、第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの輻輳角を所定の閾値と比較することによって行ってもよい。例示的な処理の流れを以下に説明する。
図8は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。
処理はステップ802において開始する。ステップ804の処理は図5のステップ504と同様である。
ステップ806において、閾値決定部328は、仮想現実空間における第1の仮想カメラ604A及び第2の仮想カメラ604Bから見たオブジェクトの輻輳角の閾値を決定する。ここでは、輻輳角の閾値として値θが決定されるものとする。閾値決定部328は、予め定義されて記憶部318に格納されている値を当該閾値として使用してもよい。閾値決定部328は、コンピュータ304のプロセッサの使用率に応じて当該閾値を決定してもよい。例えば、CPUの使用率と閾値との間の関係式が予め定められていてもよい。この場合、閾値決定部328は、現在のCPU使用率と当該関係式とに基づいて、閾値を決定してもよい。閾値決定部328は、閾値を適用して視野600を立体的に表示してもコンピュータ304のプロセッサの使用率が所定の値以下に留まるよう、閾値を決定してもよい。また、閾値決定部328は、表示部310(第一眼用表示部310A及び第二眼用表示部310B)における画像表示のフレームレートに応じて閾値を決定してもよい。例えば、閾値決定部328は、フレームレートが高くなるほど閾値を大きくし、フレームレートが低くなるほど閾値を小さくしてもよい。ステップ806の処理は各オブジェクトについて行われてもよい。
以降のステップ808乃至816はオブジェクト602a乃至602iの各々について実行される。ステップ808において、輻輳角決定部332は、第1の仮想カメラ604A及び第2の仮想カメラ604Bから見たオブジェクト(例えば、オブジェクト602a)の輻輳角を求める。
ステップ810の処理は図5のステップ510と同様である。
ステップ812において、判定部336は、ステップ808において求められた輻輳角が所定の閾値θを超えるか否かを判定する。輻輳角が閾値θを超える場合(ステップ812の「はい」)、処理はステップ814に進む。ステップ814の処理はステップ514と同様である。輻輳角が閾値θ以下である場合(ステップ812の「いいえ」)、処理はステップ816に進む。ステップ816の処理はステップ516と同様である。
ステップ818及び820の処理は、それぞれステップ518及び520の処理と同様である。ステップ522において処理は終了する。
図8で説明した実施形態によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
別の実施形態において、第二眼用画像を新たに生成するべきか否かの判断を、第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの視差を所定の閾値と比較することによって行ってもよい。例示的な処理の流れを以下に説明する。
図9は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。
処理はステップ902において開始する。ステップ904の処理は図5のステップ504と同様である。
ステップ906において、閾値決定部328は、仮想現実空間における第1の仮想カメラ604A及び第2の仮想カメラ604Bから見たオブジェクトの視差の閾値を決定する。視差は、第1の仮想カメラ604Aから見たオブジェクトの画像と第2の仮想カメラ604Bから見たオブジェクトの画像との間の相関値(面積相関値など)を用いて定義されてもよい。ここでは、視差の閾値として値pが決定されるものとする。閾値決定部328は、予め定義されて記憶部318に格納されている値を当該閾値として使用してもよい。閾値決定部328は、コンピュータ304のプロセッサの使用率に応じて当該閾値を決定してもよい。例えば、CPUの使用率と閾値との間の関係式が予め定められていてもよい。この場合、閾値決定部328は、現在のCPU使用率と当該関係式とに基づいて、閾値を決定してもよい。閾値決定部328は、閾値を適用して視野600を立体的に表示してもコンピュータ304のプロセッサの使用率が所定の値以下に留まるよう、閾値を決定してもよい。また、閾値決定部328は、表示部310(第一眼用表示部310A及び第二眼用表示部310B)における画像表示のフレームレートに応じて閾値を決定してもよい。例えば、閾値決定部328は、フレームレートが高くなるほど閾値を大きくし、フレームレートが低くなるほど閾値を小さくしてもよい。ステップ906の処理は各オブジェクトについて行われてもよい。
以降のステップ908乃至916はオブジェクト602a乃至602iの各々について実行される。ステップ908において、視差決定部334は、第1の仮想カメラ604A及び第2の仮想カメラ604Bから見たオブジェクト(例えば、オブジェクト602a)の視差を求める。
ステップ910の処理は図5のステップ510と同様である。
ステップ912において、判定部336は、ステップ908において求められた視差が所定の閾値pを超えるか否かを判定する。視差が閾値pを超える場合(ステップ912の「はい」)、処理はステップ914に進む。ステップ914の処理はステップ514と同様である。視差が閾値p以下である場合(ステップ912の「いいえ」)、処理はステップ916に進む。ステップ916の処理はステップ516と同様である。
ステップ918及び920の処理は、それぞれステップ918及び920の処理と同様である。ステップ922において処理は終了する。
図9で説明した実施形態によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
以上、本発明の実施形態によるプログラム及びコンピュータについて具体的に説明したが、上述の実施形態は例示に過ぎず、本発明の範囲を限定するものではない。本発明の技術的思想は、プログラム及びコンピュータのほか、説明した実施形態のステップを含むコンピュータにより実施される方法を含む様々な態様で実施することが可能であることが理解されよう。また、本発明の趣旨及び範囲から逸脱することなく、実施形態の変更、追加、改良などを適宜行うことができることが理解されるべきである。本発明の範囲は、特許請求の範囲の記載に基づいて解釈されるべきであり、さらにその均等物を含むものと理解されるべきである。
101 物体
102 右眼
103 左眼
201 右眼画像
202 左眼画像
300 ヘッドマウントディスプレイシステム
302 ヘッドマウントディスプレイ
304 コンピュータ
306 有線ケーブル
308 ユーザ
310 表示部
310A 第一眼用表示部
310B 第二眼用表示部
312 アイトラッキングデバイス
314 センサ
316 処理部
318 記憶部
320 ユーザ入力インターフェイス
322 仮想現実空間データ
324 フレームバッファ
326 表示対象オブジェクト決定部
328 閾値決定部
330 距離決定部
332 輻輳角決定部
334 視差決定部
336 判定部
338 第一眼用画像生成部
340 第二眼用画像生成部
342 画像出力部
600 視野
602a〜602i オブジェクト
604A、604B 仮想カメラ

Claims (9)

  1. オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
    仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を求めるステップと、
    前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
    前記距離が所定の閾値以下である場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
    前記距離が前記所定の閾値を超える場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
    前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
    を含むプログラム。
  2. オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
    仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの輻輳角を求めるステップと、
    前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
    前記輻輳角が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
    前記輻輳角が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
    前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
    を含むプログラム。
  3. オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
    仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの視差を求めるステップと、
    前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
    前記視差が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
    前記視差が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
    前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
    を含むプログラム。
  4. 前記方法は、前記コンピュータのプロセッサの使用率に応じて前記所定の閾値を決定するステップをさらに含む請求項1乃至3のいずれか1項に記載のプログラム。
  5. 前記方法は、前記第一眼用表示部及び前記第二眼用表示部における画像表示のフレームレートに応じて前記所定の閾値を決定するステップをさらに含む請求項1乃至3のいずれか1項に記載のプログラム。
  6. 複数のオブジェクトが前記仮想現実空間に配置され、
    前記複数のオブジェクトについて生成された複数の第一眼用画像が1つの画像として前記第一眼用表示部に表示され、
    前記複数のオブジェクトについて生成された複数の第二眼用画像が1つの画像として前記第二眼用表示部に表示される請求項1乃至5のいずれか1項に記載のプログラム。
  7. 前記コンピュータはヘッドマウントディスプレイシステムを構成する請求項1乃至6のいずれか1項に記載のプログラム。
  8. プロセッサを含み、請求項1乃至7のいずれか1項に記載のプログラムが前記プロセッサに実行されることにより、前記方法が実行されるコンピュータ。
  9. 請求項8に記載のコンピュータを備えるヘッドマウントディスプレイシステム。
JP2015205475A 2015-10-19 2015-10-19 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム Active JP6613099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015205475A JP6613099B2 (ja) 2015-10-19 2015-10-19 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015205475A JP6613099B2 (ja) 2015-10-19 2015-10-19 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム

Publications (2)

Publication Number Publication Date
JP2017078890A JP2017078890A (ja) 2017-04-27
JP6613099B2 true JP6613099B2 (ja) 2019-11-27

Family

ID=58666896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015205475A Active JP6613099B2 (ja) 2015-10-19 2015-10-19 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム

Country Status (1)

Country Link
JP (1) JP6613099B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239297A1 (ja) * 2021-05-11 2022-11-17 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
JP2017078890A (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US9829989B2 (en) Three-dimensional user input
US9934614B2 (en) Fixed size augmented reality objects
US10373392B2 (en) Transitioning views of a virtual model
US10884576B2 (en) Mediated reality
CN106489171B (zh) 立体图像显示器
GB2481366A (en) 3D interactive display and pointer control
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
JP6134019B1 (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
JP6332652B1 (ja) 表示制御装置、及びプログラム
JP7459051B2 (ja) 角検出のための方法および装置
US20200242335A1 (en) Information processing apparatus, information processing method, and recording medium
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
CN102799378B (zh) 一种立体碰撞检测物体拾取方法及装置
US10796485B2 (en) Rendering objects in virtual views
JP2016192029A (ja) 画像生成システム及びプログラム
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
WO2017191703A1 (ja) 画像処理装置
JP6467039B2 (ja) 情報処理装置
KR20180122248A (ko) 인터랙티브 콘텐츠 제공 장치 및 그 방법
WO2020036114A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6332658B1 (ja) 表示制御装置、及びプログラム
WO2022086486A1 (en) Rendering format selection based on virtual distance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191101

R150 Certificate of patent or registration of utility model

Ref document number: 6613099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250