JP6613099B2 - 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム - Google Patents
仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム Download PDFInfo
- Publication number
- JP6613099B2 JP6613099B2 JP2015205475A JP2015205475A JP6613099B2 JP 6613099 B2 JP6613099 B2 JP 6613099B2 JP 2015205475 A JP2015205475 A JP 2015205475A JP 2015205475 A JP2015205475 A JP 2015205475A JP 6613099 B2 JP6613099 B2 JP 6613099B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- reality space
- virtual reality
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Description
例えば、特許文献1には、両眼の視線がなす角度、すなわち輻輳角の相違による立体視機能を使用することにより、物体の奥行きを視覚的に感じさせる画像表示装置が開示されている。 しかしながら、特許文献1に記載の技術によれば、左眼及び右眼に見せるための画像を常に生成する必要がある。したがって、描画のためにコンピュータにかかる負荷が大きい。
本発明のその他の特徴及び利点は、後述する実施形態の説明、添付の図面及び特許請求の範囲の記載から明らかなものとなる。
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるコンピュータ・プログラムは、以下のような構成を備える。
オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記距離が所定の閾値以下である場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記距離が前記所定の閾値を超える場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。
(項目2)
オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの輻輳角を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記輻輳角が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記輻輳角が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。
(項目3)
オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの視差を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記視差が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記視差が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。
(項目4)
前記方法は、前記コンピュータのプロセッサの使用率に応じて前記所定の閾値を決定するステップをさらに含む項目1乃至3のいずれか1項に記載のプログラム。
(項目5)
前記方法は、前記第一眼用表示部及び前記第二眼用表示部における画像表示のフレームレートに応じて前記所定の閾値を決定するステップをさらに含む項目1乃至3のいずれか1項に記載のプログラム。
(項目6)
複数のオブジェクトが前記仮想現実空間に配置され、
前記複数のオブジェクトについて生成された複数の第一眼用画像が1つの画像として前記第一眼用表示部に表示され、
前記複数のオブジェクトについて生成された複数の第二眼用画像が1つの画像として前記第二眼用表示部に表示される項目1乃至5のいずれか1項に記載のプログラム。
(項目7)
前記コンピュータはヘッドマウントディスプレイシステムを構成する項目1乃至6のいずれか1項に記載のプログラム。
(項目8)
プロセッサを含み、項目1乃至7のいずれか1項に記載のプログラムが前記プロセッサに実行されることにより、前記方法が実行されるコンピュータ。
(項目9)
項目8に記載のコンピュータを備えるヘッドマウントディスプレイシステム。
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態について説明する。
これに対し、立体テレビなどの3D表示装置には、右眼用のディスプレイと左眼用のディスプレイが設けられている。このような装置は、それぞれのディスプレイに表示される画像に対して輻輳角や両眼視差に相当する相違を与えることにより、立体視の効果を得る。
図5は、本発明の実施形態のプログラムにより実現される、仮想現実空間を立体的に表示する処理のフロー図である。本発明の実施形態に係るプログラムは、図5に示す各ステップをコンピュータ304(又は、処理部316)に実行させることができる。また、本発明は、コンピュータ304(又は、処理部316)として実施することができる。
ステップ512において、判定部336は、ステップ508において求められた距離が所定の閾値dT以下であるか否かを判定する。図7は、図6の視野600に関して、オブジェクト602e、602g、602h及び602iが第1の仮想カメラ604A及び第2の仮想カメラ604Bから距離の閾値dT内にある状態を模式的に示す。理解を容易にするため、距離dT内に位置するオブジェクト602e、602g、602h及び602iだけが黒塗りされ、他のオブジェクトと区別されている。
図5乃至図7で説明した実施形態においては、第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を閾値と比較することによって、第二眼用画像を新たに生成するべきか否かが判断された。しかし、オブジェクトが同じ距離に位置していても、オブジェクトが第1の仮想カメラ及び第2の仮想カメラの正面から左右にずれた位置にあると、第一眼用画像と第二眼用画像との間の差異は小さくなることがある。
処理はステップ802において開始する。ステップ804の処理は図5のステップ504と同様である。
ステップ812において、判定部336は、ステップ808において求められた輻輳角が所定の閾値θTを超えるか否かを判定する。輻輳角が閾値θTを超える場合(ステップ812の「はい」)、処理はステップ814に進む。ステップ814の処理はステップ514と同様である。輻輳角が閾値θT以下である場合(ステップ812の「いいえ」)、処理はステップ816に進む。ステップ816の処理はステップ516と同様である。
図8で説明した実施形態によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
処理はステップ902において開始する。ステップ904の処理は図5のステップ504と同様である。
ステップ912において、判定部336は、ステップ908において求められた視差が所定の閾値pTを超えるか否かを判定する。視差が閾値pTを超える場合(ステップ912の「はい」)、処理はステップ914に進む。ステップ914の処理はステップ514と同様である。視差が閾値pT以下である場合(ステップ912の「いいえ」)、処理はステップ916に進む。ステップ916の処理はステップ516と同様である。
図9で説明した実施形態によれば、仮想現実空間を立体的に表示する際にコンピュータにかかる負荷を低減することができる。
102 右眼
103 左眼
201 右眼画像
202 左眼画像
300 ヘッドマウントディスプレイシステム
302 ヘッドマウントディスプレイ
304 コンピュータ
306 有線ケーブル
308 ユーザ
310 表示部
310A 第一眼用表示部
310B 第二眼用表示部
312 アイトラッキングデバイス
314 センサ
316 処理部
318 記憶部
320 ユーザ入力インターフェイス
322 仮想現実空間データ
324 フレームバッファ
326 表示対象オブジェクト決定部
328 閾値決定部
330 距離決定部
332 輻輳角決定部
334 視差決定部
336 判定部
338 第一眼用画像生成部
340 第二眼用画像生成部
342 画像出力部
600 視野
602a〜602i オブジェクト
604A、604B 仮想カメラ
Claims (9)
- オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラとオブジェクトとの間の距離を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記距離が所定の閾値以下である場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記距離が前記所定の閾値を超える場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。 - オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの輻輳角を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記輻輳角が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記輻輳角が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。 - オブジェクトが配置された仮想現実空間を立体的に表示するための方法をコンピュータに実行させるプログラムであって、前記方法は、
仮想現実空間における右眼及び左眼のうちの一方及び他方にそれぞれ対応する第1の仮想カメラ及び第2の仮想カメラから見たオブジェクトの視差を求めるステップと、
前記仮想現実空間における前記第1の仮想カメラから見た前記オブジェクトの第一眼用画像を生成するステップと、
前記視差が所定の閾値を超える場合、前記第2の仮想カメラから見た前記オブジェクトの第二眼用画像を生成するステップと、
前記視差が前記所定の閾値以下である場合、前記第一眼用画像をコピーして第二眼用画像を生成するステップと、
前記第一眼用画像を第一眼用表示部に出力し、前記第二眼用画像を第二眼用表示部に出力するステップと
を含むプログラム。 - 前記方法は、前記コンピュータのプロセッサの使用率に応じて前記所定の閾値を決定するステップをさらに含む請求項1乃至3のいずれか1項に記載のプログラム。
- 前記方法は、前記第一眼用表示部及び前記第二眼用表示部における画像表示のフレームレートに応じて前記所定の閾値を決定するステップをさらに含む請求項1乃至3のいずれか1項に記載のプログラム。
- 複数のオブジェクトが前記仮想現実空間に配置され、
前記複数のオブジェクトについて生成された複数の第一眼用画像が1つの画像として前記第一眼用表示部に表示され、
前記複数のオブジェクトについて生成された複数の第二眼用画像が1つの画像として前記第二眼用表示部に表示される請求項1乃至5のいずれか1項に記載のプログラム。 - 前記コンピュータはヘッドマウントディスプレイシステムを構成する請求項1乃至6のいずれか1項に記載のプログラム。
- プロセッサを含み、請求項1乃至7のいずれか1項に記載のプログラムが前記プロセッサに実行されることにより、前記方法が実行されるコンピュータ。
- 請求項8に記載のコンピュータを備えるヘッドマウントディスプレイシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015205475A JP6613099B2 (ja) | 2015-10-19 | 2015-10-19 | 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015205475A JP6613099B2 (ja) | 2015-10-19 | 2015-10-19 | 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017078890A JP2017078890A (ja) | 2017-04-27 |
JP6613099B2 true JP6613099B2 (ja) | 2019-11-27 |
Family
ID=58666896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015205475A Active JP6613099B2 (ja) | 2015-10-19 | 2015-10-19 | 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6613099B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022239297A1 (ja) * | 2021-05-11 | 2022-11-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
-
2015
- 2015-10-19 JP JP2015205475A patent/JP6613099B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017078890A (ja) | 2017-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
US9829989B2 (en) | Three-dimensional user input | |
US9934614B2 (en) | Fixed size augmented reality objects | |
US10373392B2 (en) | Transitioning views of a virtual model | |
US10884576B2 (en) | Mediated reality | |
CN106489171B (zh) | 立体图像显示器 | |
GB2481366A (en) | 3D interactive display and pointer control | |
US20120306860A1 (en) | Image generation system, image generation method, and information storage medium | |
JP6134019B1 (ja) | 仮想現実空間提供方法および仮想現実空間提供プログラム | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
JP6332652B1 (ja) | 表示制御装置、及びプログラム | |
JP7459051B2 (ja) | 角検出のための方法および装置 | |
US20200242335A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6963399B2 (ja) | プログラム、記録媒体、画像生成装置、画像生成方法 | |
CN102799378B (zh) | 一种立体碰撞检测物体拾取方法及装置 | |
US10796485B2 (en) | Rendering objects in virtual views | |
JP2016192029A (ja) | 画像生成システム及びプログラム | |
JP6613099B2 (ja) | 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム | |
WO2017191703A1 (ja) | 画像処理装置 | |
JP6467039B2 (ja) | 情報処理装置 | |
KR20180122248A (ko) | 인터랙티브 콘텐츠 제공 장치 및 그 방법 | |
WO2020036114A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2017142769A (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6332658B1 (ja) | 表示制御装置、及びプログラム | |
WO2022086486A1 (en) | Rendering format selection based on virtual distance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6613099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |