JP4708590B2 - 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム - Google Patents
複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム Download PDFInfo
- Publication number
- JP4708590B2 JP4708590B2 JP2001071117A JP2001071117A JP4708590B2 JP 4708590 B2 JP4708590 B2 JP 4708590B2 JP 2001071117 A JP2001071117 A JP 2001071117A JP 2001071117 A JP2001071117 A JP 2001071117A JP 4708590 B2 JP4708590 B2 JP 4708590B2
- Authority
- JP
- Japan
- Prior art keywords
- transmitter
- receiver
- mixed reality
- head
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
【発明の属する技術分野】
本発明は、ビデオカメラ等から取り込まれた現実空間映像とCG(Computer Graphics)等による仮想空間映像を合成して複合現実空間映像を生成・表示する複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラムに関する。
【0002】
【従来の技術】
複合現実感システムでは、現実空間と仮想空間を融合するために何らかの手段によって現実空間物体の三次元座標と方向を取得する必要がある。これら情報を取得する方法としては、米国Polhemus社製FASTRAK(製品名)に代表されるような位置方向測定装置を使う方法、カメラパラメータが既知である現実空間映像を画像処理することで得られる情報とジャイロとを組み合わせる方法、特別な多眼カメラを使うことによって現実空間物体の位置方向を測定する方法などが実現されている。
【0003】
【発明が解決しようとする課題】
しかし、これらの方法で使用される装置は高価であるばかりでなく、ある程度の測定誤差を伴っている。そして、その測定誤差を低減するためには対費用効果以上の高価な測定装置が必要となり、複合現実感システムのコスト低減化を妨げる1つの要因になっている。
【0004】
図22は、米国Polhemus社製FASTRAKに代表されるような位置方向測定装置の従来の利用例を示す図である。
【0005】
図22において、300a,300bは観察者、301は観察者が複合現実空間を観察するためのHMD(Head Mount Display)、302はHMD301に取付けられた位置方向測定用の受信機、304は壁で隠されるように配置された位置方向測定用の発信機である。観察者300a,300b同士は、セット310内で向かい合って立ち、各々、移動可能領域311内で自由に視点位置及び視線方向を決定することが可能である。
【0006】
312は複合現実空間映像観察可能領域であり、観察者がこの複合現実空間映像観察可能領域312を見ているときは、仮想空間映像であるCGと現実空間映像が融合された複合現実空間映像をHMD301により観察することができるが、観察者が複合現実空間映像観察可能領域312を見ていないときは、HMD301には現実空間の映像しか表示されない。従って、観察者が複合現実空間映像観察可能領域312を見ているときに、視点位置及び視線方向の測定誤差を少なくすることが重要である。
【0007】
しかし、図22に示したように、観察者の視点位置及び視線方向を測定するための受信機302がHMD301の左側に固定されていると、受信機302と発信機304の距離が長くなり、測定誤差が増大する場合がある。
【0008】
本発明は、このような従来技術の問題に鑑みてなされたもので、その課題は、現実空間映像と仮想空間映像との間の位置ずれを安価な構成で低減できるようにすることにある。
【0009】
【課題を解決するための手段】
上記課題を解決するため、本発明の複合現実感システムは、ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定するための着脱可能な受信機を、少なくとも前記観察者の視線方向の左右両側に取り付け可能な複数の取り付け部を備える当該ヘッドマウントディスプレイ装置と、前記ヘッドマウントディスプレイ装置に備わるカメラで現実空間を撮像した現実空間画像を入力する画像入力手段と、前記ヘッドマウントディスプレイ装置に取り付けられた受信機と、現実空間に配置され当該受信機との通信を行う発信機とを用いて、前記ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定した結果を取得する測定結果取得手段と、前記測定した結果に基づいて、前記現実空間に対応する仮想空間に存在する仮想物体の仮想空間画像を生成する画像生成手段と、前記現実空間画像と前記仮想空間画像とを合成した複合現実空間画像を生成する画像合成手段と、前記ヘッドマウントディスプレイ装置に備わるディスプレイへ前記複合現実空間画像を出力する画像出力手段とを有し、当該発信機と通信する受信機が前記取り付け部の何れか1箇所に取り付けられることを特徴とする。
上記課題を解決するため、本発明の複合現実感実現方法は、ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定するための着脱可能な受信機を、少なくとも前記観察者の視線方向の左右両側に取り付け可能な複数の取り付け部を備えるヘッドマウントディスプレイ装置を有する複合現実感システムが行う複合現実感実現方法であって、前記複合現実感システムが有する画像入力手段が、前記ヘッドマウントディスプレイ装置に備わるカメラで現実空間を撮像した現実空間画像を入力する画像入力工程と、前記複合現実感システムが有する測定結果取得手段が、前記ヘッドマウントディスプレイ装置に取り付けられた受信機と、現実空間に配置され当該受信機との通信を行う発信機とを用いて、前記ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定した結果を取得する測定結果取得工程と、前記複合現実感システムが有する画像生成手段が、前記測定した結果に基づいて、前記現実空間に対応する仮想空間に存在する仮想物体の仮想空間画像を生成する画像生成工程と、前記複合現実感システムが有する画像合成手段が、前記現実空間画像と前記仮想空間画像とを合成した複合現実空間画像を生成する画像合成工程と、前記複合現実感システムが有する画像出力手段が、前記ヘッドマウントディスプレイ装置に備わるディスプレイへ前記複合現実空間画像を出力する画像出力工程とを有し、前記発信機の配置位置に基づいて、当該発信機と通信する受信機が前記取り付け部のうち何れか1箇所に取り付けられることを特徴とする。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
【0017】
[第1の実施形態]
図1は、本発明の第1の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【0018】
観察者100は、HMD(Head Mount Display)110を頭部に、グローブ120を手に装着している。
【0019】
HMD110は、図2に示したように、ビデオカメラ111、LCD112、位置方向測定装置受信機(目用位置センサ)113、光学プリズム114,115で構成されている。ビデオカメラ111は、光学プリズム115によって導かれた観察者の視点位置および視線方向の現実空間映像を撮影する。目用位置センサ113は、観察者の視点位置および視線方向を測定するために利用される。LCD113は、複合現実空間映像を表示し、その映像は光学プリズム114によって観察者の瞳に導かれる。
【0020】
グローブ120には、手用位置センサ121、スピーカ122(図示省略)が内蔵されている。手用位置センサ121は、観察者の手の位置および方向を測定するためのセンサとして利用される。スピーカ122からは手の位置において発生したイベントに応じた音が発生される。この音としては、例えば、手で仮想空間物体に触ったり叩いたりした時の音や、手の位置に同期して表示される仮想空間物体の状態が変わったときに発生する音などが考えられる。
【0021】
130は位置方向測定装置発信機(位置センサ発信機)、131は位置方向測定装置本体(位置センサ本体)である。目用位置センサ113、手用位置センサ121、及び位置センサ発信機130は、位置センサ本体131に接続されている。位置センサ発信機130からは磁気が発信されており、この磁気は、目用位置センサ113、手用位置センサ121で受信される。位置センサ本体131は、目用位置センサ113、手用位置センサ121からの受信強度信号に基づいて、夫々目、手の位置および方向を算出する。ここで、位置方向測定装置としては、米国Polhemus社製FASTRAKなどが利用可能である。
【0022】
140は観察者1人分の複合現実空間映像を生成して、HMD110に表示する処理装置である。この処理装置140は、例えば、パーソナルコンピュータとビデオキャプチャーカード、CG描画機能を有するビデオカード、サウンドカード等で構成される。処理装置140には、HMD110、スピーカ122、位置センサ本体131が接続されている。
【0023】
次に、処理装置140において複合現実空間映像を生成する手順を、図3のフローチャートに基づいて説明する。
【0024】
処理装置140は、まず、位置センサ本体131から送信されてきた視点位置および視線方向、手の位置および方向を取り込む(ステップS301)。なお、ステップS301では、位置センサ本体131から送信されてきた視点位置および視線方向、手の位置および方向を定期的に取り込むスレッドS311を利用する。
【0025】
次に、仮想空間の時間を更新し、仮想空間の状態(仮想空間物体の種類、位置、状態)を更新する(ステップS302)。このとき、現実空間物体の位置方向に同期して位置方向が変化する仮想空間物体がある場合は、それらも合わせて状態を更新する。例えば、手の上に常に仮想空間物体のグローブが装着されているように見せる場合は、このステップS302でグローブの位置方向が更新される。
【0026】
次に、現実空間物体の位置方向(手の位置、視点位置)と仮想空間物体の位置方向の関係を調べ、予め定義されているイベントが発生したと判断される場合には、そのイベントに応じて仮想空間の状態を更新する(ステップS303)。例えば、手で仮想空間物体に触れた場合に仮想空間物体を爆発させること等が考えられる。
【0027】
次に、ビデオカメラ111から得られた観察者の視点位置および視線方向での現実空間映像を取り込む(ステップS304)。このステップS304では、ビデオカメラ111から得られた現実空間映像をビデオキャプチャーカードから定期的に取得するスレッドS314を利用する。
【0028】
そして、ステップS301で取得した観察者の視点位置および視線方向からの仮想空間映像を、ステップS302,S303で更新された仮想空間の状態に応じて生成する(ステップS305)。
【0029】
最後に、ステップS305で生成された仮想空間映像と、ステップS304で取り込まれた現実空間映像を合成し、HMD110のLCD112に出力する(ステップS306)。
以上の処理を、何らかの終了操作が行われるまで(ステップS307)、繰り返し実行する。
【0030】
次に、各観察者が観察する複合現実空間映像中の仮想空間物体と現実空間物体との位置および方向のずれを低減させる、本実施形態に特有な方法について説明する。
【0031】
位置方向測定装置が位置および方向を正しく測定可能であれば、仮想空間物体と現実空間物体との位置および方向のずれは発生しない。すなわち、図4(a)に示した現実空間映像、及び図4(b)に示した仮想空間映像があった場合、理想的には、図5のような複合現実感映像が生成される。しかし、実際には、位置方向測定装置は磁気や超音波を利用しているため、外乱に極端に弱く、さらに測定可能範囲も狭い。現実の位置方向測定装置では、位置センサ発信機から80cm程度の範囲でしか有効な精度で測定できない。さらに、強磁性体が存在しない空間で測定を行ったとしても、位置センサ発信機と位置センサ(受信機)の距離に対して単調増加的に位置および方向の測定誤差が拡大することが知られている。これを改善するためには、可能な限り位置センサ発信機と受信機の距離を短くすることが重要となる。
【0032】
位置方向測定装置の測定誤差は、特に視点位置および視線方向に関してはより深刻な問題となる。すなわち、手の位置方向について測定誤差が大きくなった場合は、図7に示したように、手と同期して動く仮想空間物体と手との位置ずれが発生するだけであるが、視点位置および視線方向について測定誤差が大きくなった場合は、図6に示したように、手の位置ずれだけでなく全ての仮想空間物体について位置ずれが発生してしまうからである。
【0033】
そこで、第1の実施形態では、目用位置センサ113の測定精度を向上させることに主眼をおき、現実空間物体と仮想空間物体との間の位置ずれを低減するため、図8に示したように、各位置センサを高頻度で利用する位置および方向において、目用位置センサ113と位置センサ発信機130との距離を、同じ位置センサ本体131に接続されている他の位置センサより短くするように位置センサ発信機130を配置し、視点位置および視線方向の測定精度を他の位置センサに係る位置及び方向の測定精度より向上させて、仮想空間物体全体の位置ずれを目立たなくさせている。
【0034】
位置センサ発信機130の具体的な位置は、複合現実感システムがどのような複合現実映像を、観察者から見てどの位置および方向に表示させるかによって柔軟に変更されるべきものであり、特定することはできない。
【0035】
しかし、複数の観察者が存在し観察者同士がお互いを観察可能な状況を設定すると複合現実感をいっそう高める効果があるので、観察者が高頻度で観察する方向は、水平方向となるのが通常である。このような状況においては、図8に示したように、観察者の頭上に位置センサ発信機130を設置することで、本実施形態による利点を享受しつつ、さらに本来複合現実空間内に現実空間物体として複合させるべきでない発信機の映像が複合されてしまうことを回避でき、また、観察者が自由に前後左右に移動することも可能であるばかりでなく、移動した場合の測定誤差が全ての方向に対して等価になるため、管理も容易となる。以上、総合的に高品質で余計な現実物体の無い複合現実空間映像を、移動の自由を確保しつつ観察可能することが可能となる。
【0036】
[第2の実施形態]
第2の実施形態は、図9に示したように、高頻度で手を観察する視点位置および視線方向、手の位置および方向において、手用位置センサ121についても、目用位置センサ113と同様に位置センサ発信機130との距離を短くするように考慮して、位置センサ発信機130を配置した例である。
【0037】
第2の実施形態では、観察者が高頻度で手を観察するような状況において、目用位置センサ113と位置センサ発信機130の距離と、手用位置センサ121と位置センサ発信機130の距離が同程度に短くなるように、位置センサ発信機130を配置しているので、目用位置センサ113、手用位置センサ121の測定誤差を双方とも低減することができ、第1の実施形態と比較して、手と同期して動く仮想空間物体を手の上に少ない誤差で定位して観察できるようになる。
【0038】
もちろん、手をどのような姿勢で高頻度に観察するかは、複合現実感システムがどのような内容の複合現実空間映像を観察者に提示するかに依存しているため、提示する複合現実空間映像の内容に合わせて、手を高頻度で観察する時の手用位置センサ121と目用位置センサ113の位置と位置センサ発信機130の距離が同程度になるように調整する必要がある。
【0039】
なお、本実施形態では、仮想空間物体の位置を手と同期して変更する場合を示したが、これに限るものでなく、足や他の身体部位と同期して仮想空間物体の位置を変更する場合にも適用可能である。
【0040】
[第3の実施形態]
図11は、第3の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。本システムは、2人の観察者が同時に同じ複合現実空間を観察する場合を想定したシステムであり、図1に示したシステムが2組設けられている。ただし、位置センサ発信機130と位置センサ本体131は、2人の観察者で共用することで、複合現実空間システムとしての全体のコスト低減化を図っている。また、位置センサ本体131は、一方の処理装置140にのみ接続され、他方の処理装置140には接続されていないので、各観察者用の処理装置140をネットワーク150で接続し、位置センサ本体131が接続されていない処理装置140でも複合現実空間映像を生成できるようにしている。
【0041】
そして、第3の実施形態では、図10に示したように、各観察者が高頻度で手を観察する位置において、各観察者の目用位置センサ113と位置センサ発信機130の距離(a又はa’)と、手用位置センサ121と位置センサ発信機130の距離(b又はb’)がほぼ等しくなるように位置センサ発信機130を配置している。また、上記の各距離(a、a’、b、b’)が極力短くなるように、位置センサ発信機130が配置されている。
【0042】
このような構成により、各観察者は、手と同期して動く仮想空間物体を手の上に少ない誤差で定位して観察することが可能となる。
【0043】
なお、或る観察者の目用位置センサ113と位置センサ発信機130の距離(a)と、
他の観察者の目用位置センサ113と位置センサ発信機130の距離(a’)とがほぼ等しくなり、かつ、或る観察者の手用位置センサ121と位置センサ発信機130の距離(b)と、他の観察者の手用位置センサ121と位置センサ発信機130の距離(b’)がほぼ等しくなるように位置センサ発信機130を配置することにより、全ての観察者において位置ずれが等価になるようにすることも可能である。
【0044】
各処理装置140の処理手順は第1の実施形態とほぼ同様であるが、位置センサ本体131が接続されている処理装置140は、図3のスレッドS311では、位置方向取得スレッドにより位置センサ本体131を制御し、測定値を取得する。そして、ネットワーク150にアクセスを行い、他の処理装置に各位置センサの測定値を配信する。
【0045】
位置センサ本体131が接続されていない処理装置140は、図3のスレッドS311では、位置方向取得スレッドはネットワークアクセスを行い、位置センサ本体131が接続されている処理装置140から送られてくる各位置センサの測定値を取得する。
【0046】
[第4の実施形態]
第4の実施形態は、第1の実施形態を拡張して、位置センサ1つに対し位置センサ発信機と位置センサ本体を1つずつ設置している。この場合、位置センサ発信機と位置センサ本体は、各々2つになり、その分コスト高となるが、高精度で視点位置および視線方向、手の位置および方向を測定することが可能となる。
【0047】
図12は、第4の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。本システムは、図1に示した第1の実施形態の構成に対して、手用の位置センサ発信機160と位置センサ本体161が追加されている。そして、手用の位置センサ本体161は処理装置140に接続され、手用の位置センサ発信機160は、手用位置センサ本体161に接続され、手用位置センサ121は、手用の位置センサ発信機160からの磁気を受信するように構成されている。また、本実施形態では、位置センサ発信機130と位置センサ本体131とは、目用の専用機として機能する。
【0048】
そして、観察者が高頻度で手を観察する場合の手の位置および方向において、手用位置センサ発信機160は、手用位置センサ121と手用位置センサ発信機160の距離が短くするように配置され、目用位置センサ発信機130は、目用位置センサ113と目用位置センサ発信機130との距離が短くなるように配置されている。
【0049】
処理装置140の処理手順は、第1の実施形態とほぼ同様であるが、図3のスレッドS311では、位置方向取得スレッドが複数の位置センサ本体131,161を制御し、それぞれから測定値を取得する。
【0050】
このように、各位置センサ毎に専用の位置センサ発信機、位置センサ本体を設置することで、第2の実施形態と比べて、高頻度で手を観察する視点位置および視線方向、手の位置および方向において、一層、現実空間映像と仮想空間映像との間の位置ずれを低減させることが可能となり、観察者がより高品質な複合現実空間映像を観察することが可能となる。
【0051】
第4の実施形態は、海水などの半透明の仮想空間物体または手(現実空間物体)とほぼ同じ大きさの仮想空間物体を、常時観察者の手に定位しているような表現を行いたい場合において、観察者に位置ずれを感じさせないようにするために、特に効果的である。
【0052】
すなわち、仮想空間物体が半透明でない場合は、仮想空間物体の大きさを手の大きさより大きくしておけば、仮想空間物体で手が完全に隠れてしまうため、多少の位置ずれが発生してもその複合現実空間映像は観察者にとって不自然に見えないが、手と同じ大きさの半透明の仮想空間物体の場合は、位置ずれが僅かでも発生すると、仮想空間物体で手を覆い隠すことが出来なくなり、手と仮想空間物体の位置ずれが観察者に見えてしまい、また、半透明の仮想空間物体の場合は、その仮想空間物体の大きさの如何に拘らず、常に、現実空間物体との位置ずれが見得てしまうからである。
【0053】
本実施形態では、これらの状況においても、仮想空間物体と現実空間物体との位置ずれを観察者に認識させないようにすることが可能となる。
【0054】
なお、図13に示したように、目用位置センサ本体130の配置については、第1の実施形態と同様に、頭上に配置することによって、複合現実映像の品質を高めることが可能である。また、可能であれば、観察者が高頻度で利用する手の位置および方向において、手の位置よりも下方に手用位置センサ発信機160を設置することで、観察者の水平方向の視界を手用位置センサ発信機160が遮ることがなくなり、より高品質の複合現実映像を提示することが可能となる。
【0055】
[第5の実施形態]
図14は、第5の実施形態を適用した複合現実感システムのシステム構成図である。本システムは、第4の実施形態と同様に、目用の位置センサ113、手用の位置センサ121毎に、各々、位置センサ発信機130,160、及び位置センサ本体131,161を設けて、高精度で視点位置および視線方向、手の位置および方向を測定できるようにすると共に、位置センサ発信機130,160、及び位置センサ本体131,161を2人の観察者で共用できるようにして、コスト低減を図ったものである。
【0056】
2つの位置センサ本体131,161は、一方の処理装置140にのみ接続され、他方の処理装置140には接続されていないので、各観察者用の処理装置140をネットワーク150で接続し、位置センサ本体131,161が接続されていない処理装置140でも複合現実空間映像を生成できるようにしている。
【0057】
本実施形態では、図15に示したように、各観察者が高頻度で観察を行う位置において、各観察者の目用位置センサ113と目用位置センサ発信機130との距離、及び手用位置センサ121と手用位置センサ発信機160との距離が可能な限り短くなり、かつ、各観察者の目用位置センサ113と目用位置センサ発信機130との距離がほぼ等しくなり、さらに、各観察者の手用位置センサ121と手用位置センサ発信機160との距離もほぼ等しくなるように、目用位置センサ130、手用位置センサ160を配置している。
【0058】
このような構成により、全ての観察者が仮想物体と現実物体との間の位置ずれをより一層低減させた高品質な複合現実映像を観察でき、また、全ての観察者において位置ずれが等価になる。
【0059】
処理装置140の処理手順は、第1の実施形態と同様であるが、位置センサ本体131,161が接続されている処理装置140では、図3のスレッドS311では、位置方向取得スレッドにより位置センサ本体131,161を制御し、測定値を取得する。そして、ネットワーク150にアクセスを行い、他の処理装置に各位置センサの測定値を配信する。
【0060】
位置センサ本体131,161が接続されていない処理装置140は、図3のスレッドS311では、位置方向取得スレッドはネットワークアクセスを行い、位置センサ本体131,161が接続されている処理装置140から送られてくる各位置センサの測定値を取得する。
【0061】
なお、第4の実施形態と同様に、目用位置センサ発信機130を頭上に設置し、手用位置センサ発信機160を高頻度で手を観察する手の位置より下に設置すれば、観察者の水平方向の視界が各位置センサ発信機130,160で遮られることがなくなり、高頻度で複合現実空間を観察する向きにおいて、高品質な複合現実空間映像を観察することが可能となる。
【0062】
[第6の実施形態]
図16は、第6の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。図16において、300a,300bは、本システムで生成される複合現実空間映像を観察する観察者である。各観察者300a,300bは、受信機302が取付けられたHMD301を頭部に装着しており、このHMD301により、位置方向測定値に対応する複合現実空間の映像を観察することができる。
【0063】
306は位置方向測定装置本体である。この位置方向測定装置本体306には、発信機304と受信機302が接続されている。発信機304から発せられる磁気を受信機302で受信し、位置方向測定装置本体306は、その強度から観察者の視点位置及び視線方向を測定する。
【0064】
処理装置307には、位置方向測定装置本体306が接続され、観察者の視点位置及び視線方向が位置方向測定装置本体306から処理装置307に常時通知されている。処理装置307は、この情報に基づいて、各観察者の視点位置および視線方向に応じた複合現実空間映像を生成し、HMD301に表示する。
【0065】
各観察者用の処理装置307は、ネットワーク330を介して接続されている。各処理装置307は、ネットワーク330を利用して、各観察者の視点位置および視線方向、仮想空間物体の位置及び方向を共有している。これにより、自分以外の観察者の位置に仮想空間物対を表示すること等も可能となる。
【0066】
図17,18は、第6の実施形態を適用したHMD301の外観図であり、図17は撮影部の方向から見た外観図、図18は表示部の方向から見た外観図である。
【0067】
201はHMD表示部である。このHMD表示部201としては、右目用表示201Rと左目用表示部201Lの2つが有り、共にカラー液晶とプリズムを有し、観察者の視点位置および視線方向に対応する複合現実空間映像が表示される。
【0068】
204〜208は、頭部装着用の構成部材である。HMD301を頭部に装着するには、まず、アジャスタ205で長さ調整部206を緩めた状態で頭にかぶる。そして、額装着部208を額に密着させてから側頭装着部204と後頭装着部207を各々側頭部、後頭部に密着させるように、アジャスタ205で長さ調整部206を絞めればよい。
【0069】
203は観察者の視点位置および視線方向の現実空間映像を撮影するためのHMD撮影部であり、このHMD撮影部203としては、右目用撮影部203Rと左目撮影用203Lの2つがあり、共にNTSC方式の小型ビデオカメラにより構成されている。撮影された現実空間映像は、仮想空間映像と重畳されて複合現実空間映像となる。
【0070】
受信機302は、観察者の視点位置および視線方向を測定するための情報として発信機304から発せられた磁気を受信するために利用される。この受信機302のHMD301への取付部としては、受信機接合部200R,200L,200Cの3つが形成されており、これら受信機接合部200R,200L,200Cの任意の接合部に受信機302を着脱自在に取付けることが可能となっている。すなわち、図17,18では、受信機302は、観察者の視線の進行方向の右側の受信機接合部200Rに取付けられているが、観察者の視線の進行方向の左側の受信機接合部200L、或いは観察者の正中線上の受信機接合部200Cに取付けることも可能である。
【0071】
受信機接合部200R,200L,200Cは、本実施形態では、受信機302を嵌めこんで固定するための差込口を有する構成となつているが、他の着脱自在な接合(取付)方式を採用してもよい。
【0072】
210は受信機信号線であり、受信機接合部200Cの近傍からHMD301の外部に露出している。この受信機信号線210は、受信機接合部200R,200L,200Cの何れにも受信機302を取付けられるように、十分な長さが確保されている。
【0073】
209はHMD表示部201、HMD撮影部203等への信号線や電源供給線、上記受信機信号線210等の各種の線を纏めた結束線材であり、後頭装着部207に取り付けられている。そして、結束線材209中の左右のHMD表示部201R,201L、HMD撮影部203R,203L等への信号線や電源供給線は、各々、左右の側頭装着部204を通っている。
【0074】
図19は、図16のシステムにおける観察者1人分のハードウェア構成を示すブロック図である。処理装置(コンピュータ)307には、右目用ビデオキャプチャーボード350、左目用ビデオキャプチャーボード351、右目用グラフィックボード352、左目用グラフィックボード353、I/Oインターフェース354、ネットワークインターフェース359が搭載されており、これら構成要素は、CPU356、HDD355、メモリ357と接続されている。
【0075】
左右の目用のビデオキャプチャーボード351,350は、夫々、左右の目用のビデオカメラ203L,203Rに接続され、これらビデオカメラ203L,203Rにて撮影された実写映像を本処理装置307で仮想空間映像と構成可能な形式に変換する。また、左右の目用のグラフィックボード353,352は、夫々、左右の目用の表示部(装置)201L,201Rに接続され、これら左右の目用の表示部201L,201Rに対する表示制御を行う。
【0076】
また、I/Oインターフェース354は、位置方向測定装置本体306と接続され、ネットワークインターフェース359は、ネットワーク330と接続されている。なお、第1〜第5の実施形態に係る処理装置140も、本実施形態に係る処理装置307と同様の構成要素により構成されている。
【0077】
次に、本実施形態に係る複合現実感システムの処理概要を説明する。
本システムでは、
(1)観察者の現在の視点位置及び視点方向の現実空間映像を取得する、
(2)観察者の視点位置及び視線方向を取得する、
(3)取得した視点位置及び視線方向での仮想空間映像を生成する。この際、予め記憶されている現実空間に存在する物体の位置,形状等を考慮して、視点位置から見た仮想空間上の物体と現実空間上の物体との前後関係を決定する、
(4)現実空間映像と仮想空間映像を重畳して、複合現実空間映像を生成する、
(5)観察者に複合現実空間映像を提示する、
という、一連の処理を繰り返し行うことで、観察者に複合現実空間映像を体験させる。
【0078】
このような一連の処理において、観察者の現在の視点位置、及び視線方向の現実空間映像の取得処理は、ビデオキャプチャーボード350,351により行われる。すなわち、ビデオキャプチャーボード350,351は、ビデオカメラ203R,203Lからの映像信号をデジタル変換し、メモリ357に連続的に取り込み続ける。観察者の視点位置、及び視線方向は、位置方向測定装置本体306からI/Oインターフェース354を介して、連続的に処理装置307に送信され続ける。
【0079】
処理装置307は、メモリ357に格納されているプログラムに基づいて、仮想空間の時間を更新し、仮想空間物体の位置、方向を再度計算する。そして、I/Oインターフェース354を介して取得した観察者の視点位置及び方向に対応する仮想空間映像を生成する。
【0080】
この際、現実空間に存在する物体を仮想空間上に存在するように予め定義しておくことにより、現実空間物体と仮想空間物体との前後関係を意識した仮想空間映像作成することもできる。例えば、現実の壁の後ろに仮想空間物体が廻りこむように見せること等が可能となる。
【0081】
最後に、メモリ357上に生成した現実空間映像と仮想空間映像を重畳して、複合現実空間映像を生成する。生成された複合現実空間映像は、グラフィックボード352,353の制御の下にHMD表示部201R,201Lに表示される。
【0082】
次に、本実施形態の特徴点である受信機302の取付け方法について説明する。図20は、従来技術の問題点として示した図22と同じ状況において、観察者300aのHMD301では、受信機302を右側の受信機接合部210Rに取付け、観察者300bのHMD301では、受信機302を左側の受信機接合部210Lに取付けた状態を示している。
【0083】
すなわち、観察者300a,300bの視点位置及び視線方向を測定するための発信機304が図20に示した位置に配置されている場合は、上記のように受信機302を取付ける受信機接合部を選択することによって、観察者300a,300bが共に移動可能領域311に視点位置を設定し、複合現実空間映像観察可能領域312の方向に視線方向を設定した場合に、発信機304と観察者300a,300bが利用する受信機302の距離が共に短くなる。換言すれば、観察者300a,300bが高頻度で観察する状況において、位置方向測定誤差を低減することが可能となる。
【0084】
また、図20のように受信機302の取付位置を選択することにより、複合現実空間映像観察可能領域312の中央を通る線分313に対して、両方の観察者300a,300b、発信機302、受信機304は、対称の位置に存在するので、両方の観察者300a,300bに係る位置方向の測定誤差を均衡させることも可能となる。
【0085】
[第7の実施形態]
第7の実施形態は、図21に示したように、発信機304を観察者300a,300bの正面に設置した場合に適用される。
【0086】
このように、発信機304を観察者300a,300bの正面に設置した場合は、各観察者300a,300bが装着しているHMD301上の受信機302と発信機304との距離を最短にするために、受信機302はHMD301の中央の受信機接合部200Cに取付けて使用する。
【0087】
この場合も第6の実施形態と同様に、観察者300a,300bが高頻度で観察する状況において、位置方向測定誤差を低減することが可能となり、さらに、両方の観察者300a,300bに係る位置方向の測定誤差を均衡させることも可能となる。
【0088】
以上説明したように、第1〜第7の実施形態では、位置方向測定用の発信機の配置位置、或いはHMDへの受信機の取付位置を工夫するというコストのかからない方法で、現実空間映像と仮想空間映像との間の位置ずれを低減するようにしている。
【0089】
なお、本発明は、上記各実施形態に限定されることなく、例えば、発信機及び受信機(位置方向測定装置)としては、例えば、磁気方式に係るものでなく、超音波方式に係るものを採用することも可能である。また、上記各実施形態を適宜組み合わせることも可能である。
【0090】
【発明の効果】
以上説明したように、本発明によれば、現実空間映像と仮想空間映像との間の位置ずれを安価な構成で低減することが可能となる。
【図面の簡単な説明】
【図1】本発明の第3の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【図2】HMDの構成を示す構成図である。
【図3】複合現実空間映像の生成処理を示すフローチャートである。
【図4】現実空間映像例、および仮想空間映像例を示す図である。
【図5】図4の現実空間映像例、および仮想空間映像例に対応する理想的な(位置センサ測定値に誤差がない)複合現実空間映像を示す図である。
【図6】図4の現実空間映像例、および仮想空間映像例に対応する目用の位置センサ測定値のみに誤差がある場合の複合現実空間映像を示す図である。
【図7】図4の現実空間映像例、および仮想空間映像例に対応する手用の位置センサ測定値のみに誤差がある場合の複合現実空間映像を示す図である。
【図8】本発明の第1の実施形態における位置センサ発信機と位置センサとの距離関係を説明するための説明図である。
【図9】本発明の第2の実施形態における位置センサ発信機と位置センサとの距離関係を説明するための説明図である。
【図10】本発明の第3の実施形態における位置センサ発信機と位置センサとの距離関係を説明するための説明図である。
【図11】本発明の第3の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【図12】本発明の第4の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【図13】本発明の第4の実施形態における位置センサ発信機と位置センサとの距離関係を説明するための説明図である。
【図14】本発明の第5の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【図15】本発明の第5の実施形態における位置センサ発信機と位置センサとの距離関係を説明するための説明図である。
【図16】本発明の第6の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【図17】本発明の第6,7の実施形態におけるHMDを撮影部の方向から見た場合の外観図である。
【図18】本発明の第6,7の実施形態におけるHMDを表示部の方向から見た場合の外観図である。
【図19】図16のシステムにおける観察者1人分のハードウェア構成を示すブロック図である。
【図20】本発明の第6の実施形態における位置センサ(受信機)の取付位置を説明するための説明図である。
【図21】本発明の第7の実施形態における位置センサ(受信機)の取付位置を説明するための説明図である。
【図22】従来技術の問題点の1例を説明するための説明図である。
【符号の説明】
100,300a,300b:観察者
110,301:HMD
111:ビデオカメラ
112:LCD
113:目用位置センサ(受信機)
114:光学プリズム
120:グローブ
121:手用位置センサ(受信機)
130:位置センサ発信機
131,306:位置センサ(位置方向測定装置)本体
140,307:処理装置(コンピュータ)
150,330:ネットワーク
160:位置センサ発信機(手用)
161:位置センサ本体(手用)
Claims (15)
- ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定するための着脱可能な受信機を、少なくとも前記観察者の視線方向の左右両側に取り付け可能な複数の取り付け部を備える当該ヘッドマウントディスプレイ装置と、
前記ヘッドマウントディスプレイ装置に備わるカメラで現実空間を撮像した現実空間画像を入力する画像入力手段と、
前記ヘッドマウントディスプレイ装置に取り付けられた受信機と、現実空間に配置され当該受信機との通信を行う発信機とを用いて、前記ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定した結果を取得する測定結果取得手段と、
前記測定した結果に基づいて、前記現実空間に対応する仮想空間に存在する仮想物体の仮想空間画像を生成する画像生成手段と、
前記現実空間画像と前記仮想空間画像とを合成した複合現実空間画像を生成する画像合成手段と、
前記ヘッドマウントディスプレイ装置に備わるディスプレイへ前記複合現実空間画像を出力する画像出力手段とを有し、
当該発信機と通信する受信機が前記取り付け部の何れか1箇所に取り付けられることを特徴とする複合現実感システム。 - 前記取り付け部のうち、前記受信機と前記発信機との距離が最も近くなる取り付け部に、前記受信機が取り付けられていることを特徴とする請求項1に記載の複合現実感システム。
- 前記ヘッドマウントディスプレイ装置を2つ用いる複合現実感システムであって、
前記ヘッドマウントディスプレイ装置の一方に取り付けられる第1の受信機と、前記ヘッドマウントディスプレイ装置の他方に取り付けられる第2の受信機は、
該第1の受信機と第1受信機と通信する発信機との距離と、該第2の受信機と第2受信機と通信する発信機との距離とが、同等となる位置に取り付けられていることを特徴とする請求項1に記載の複合現実感システム。 - 前記ヘッドマウントディスプレイ装置を2つ用いる複合現実感システムであって、
前記ヘッドマウントディスプレイ装置の一方に取り付けられる第1の受信機は、前記視線方向の左側の取り付け部に取り付けられ、
前記ヘッドマウントディスプレイ装置の他方に取り付けられる第2の受信機は、前記視線方向の右側の取り付け部に取り付けられ、
前記第1の受信機と通信する発信機は、当該第1の受信機が取り付けられたヘッドマウントディスプレイ装置の視線方向の左側の現実空間に配置され、
前記第2の受信機と通信する発信機は、当該第2の受信機が取り付けられたヘッドマウントディスプレイ装置の視線方向の右側の現実空間に配置されていることを特徴とする請求項1に記載の複合現実感システム。 - 前記観察者が装着するヘッドマウントディスプレイ装置が備える受信機とは別に、前記観察者の身体部位に装着された身体部位用受信機と、前記発信機とを用いて、前記身体部位の位置を測定した身体部位測定結果取得手段を更に備え、
前記発信機は、前記受信機と該発信機との距離が、前記身体部位用受信機と該発信機との距離よりも短くなる位置に配置されていることを特徴とする請求項1又は2に記載の複合現実感システム。 - 前記観察者が装着するヘッドマウントディスプレイ装置が備える受信機とは別に、前記観察者の身体部位に装着された身体部位用受信機と、前記発信機とを用いて、前記身体部位の位置を測定した身体部位測定結果取得手段を更に備え、
前記発信機は、前記受信機と該発信機との距離が、前記身体部位用受信機と該発信機との距離とが同等となる位置に配置されていることを特徴とする請求項3に記載の複合現実感システム。 - 前記ヘッドマウントディスプレイ装置を2つ用いる複合現実感システムであって、
前記発信機は、前記ヘッドマウントディスプレイ装置の一方に取り付けられる受信機と該発信機との距離と、前記ヘッドマウントディスプレイ装置の他方に取り付けられる受信機と該発信機との距離とが、同等となる位置に配置されていることを特徴とする請求項1に記載の複合現実感システム。 - 前記発信機は、前記ヘッドマウントディスプレイ装置の一方に取り付けられる受信機と該発信機との距離と、前記ヘッドマウントディスプレイ装置の他方に取り付けられる受信機と該発信機との距離とが、同等となる位置のうち、最短となる位置に配置されていることを特徴とする請求項7に記載の複合現実感システム。
- 前記ヘッドマウントディスプレイ装置を2つ用いる複合現実感システムであって、
前記発信機は、前記ヘッドマウントディスプレイ装置の一方を装着する観察者の身体部位に装着された身体部位用受信機と該発信機との距離と、前記ヘッドマウントディスプレイ装置の他方を装着する観察者の身体部位に装着された身体部位用受信機と該発信機との距離とが、同等となる位置に配置されていることを特徴とする請求項1に記載の複合現実感システム。 - 前記ヘッドマウントディスプレイ装置を2つ用いる複合現実感システムであって、
前記発信機は、前記ヘッドマウントディスプレイ装置の一方を装着する観察者の身体部位に装着された身体部位用受信機と該発信機との距離と、前記ヘッドマウントディスプレイ装置の他方を装着する観察者の身体部位に装着された身体部位用受信機と該発信機との距離とが、同等となる位置のうち、最短となる位置に配置されていることを特徴とする請求項9に記載の複合現実感システム。 - 前記取り付け部は、少なくとも前記観察者の正中線上と視線方向の左右両側に何れかに前記受信機が取り付け可能であることを特徴とする請求項1乃至10の何れか1項に記載の複合現実感システム。
- 前記受信機は、磁気、又は超音波を受信することを特徴とする請求項1乃至11の何れか1項に記載の複合現実感システム。
- 請求項1乃至12の何れか1項に記載の複合現実感システムで用いるためのヘッドマウントディスプレイ装置。
- ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定するための着脱可能な受信機を、少なくとも前記観察者の視線方向の左右両側に取り付け可能な複数の取り付け部を備えるヘッドマウントディスプレイ装置を有する複合現実感システムが行う複合現実感実現方法であって、
前記複合現実感システムが有する画像入力手段が、前記ヘッドマウントディスプレイ装置に備わるカメラで現実空間を撮像した現実空間画像を入力する画像入力工程と、
前記複合現実感システムが有する測定結果取得手段が、前記ヘッドマウントディスプレイ装置に取り付けられた受信機と、現実空間に配置され当該受信機との通信を行う発信機とを用いて、前記ヘッドマウントディスプレイ装置を装着した観察者の視点位置および方向を測定した結果を取得する測定結果取得工程と、
前記複合現実感システムが有する画像生成手段が、前記測定した結果に基づいて、前記現実空間に対応する仮想空間に存在する仮想物体の仮想空間画像を生成する画像生成工程と、
前記複合現実感システムが有する画像合成手段が、前記現実空間画像と前記仮想空間画像とを合成した複合現実空間画像を生成する画像合成工程と、
前記複合現実感システムが有する画像出力手段が、前記ヘッドマウントディスプレイ装置に備わるディスプレイへ前記複合現実空間画像を出力する画像出力工程とを有し、
前記発信機の配置位置に基づいて、当該発信機と通信する受信機が前記取り付け部のうち何れか1箇所に取り付けられることを特徴とする複合現実感実現方法。 - 請求項14に記載の複合現実感実現方法の各工程をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001071117A JP4708590B2 (ja) | 2001-03-13 | 2001-03-13 | 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム |
PCT/JP2002/002297 WO2002073287A2 (en) | 2001-03-13 | 2002-03-12 | Mixed reality system which reduces measurement errors of viewpoint position and direction of an observer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001071117A JP4708590B2 (ja) | 2001-03-13 | 2001-03-13 | 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002271817A JP2002271817A (ja) | 2002-09-20 |
JP4708590B2 true JP4708590B2 (ja) | 2011-06-22 |
Family
ID=18928886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001071117A Expired - Fee Related JP4708590B2 (ja) | 2001-03-13 | 2001-03-13 | 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4708590B2 (ja) |
WO (1) | WO2002073287A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190121597A (ko) * | 2018-04-18 | 2019-10-28 | 삼성전자주식회사 | 가상현실, 증강현실 및 혼합현실을 위한 장치 및 방법 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11033821B2 (en) * | 2003-09-02 | 2021-06-15 | Jeffrey D. Mullen | Systems and methods for location based games and employment of the same on location enabled devices |
US8585476B2 (en) | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
US7843470B2 (en) | 2005-01-31 | 2010-11-30 | Canon Kabushiki Kaisha | System, image processing apparatus, and information processing method |
JP4769942B2 (ja) * | 2006-03-14 | 2011-09-07 | 国立大学法人電気通信大学 | 3dデザイン支援システム及び3dデザイン支援方法 |
US9958934B1 (en) | 2006-05-01 | 2018-05-01 | Jeffrey D. Mullen | Home and portable augmented reality and virtual reality video game consoles |
CN102200881B (zh) * | 2010-03-24 | 2016-01-13 | 索尼公司 | 图像处理装置以及图像处理方法 |
GB201310364D0 (en) | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
US9677840B2 (en) | 2014-03-14 | 2017-06-13 | Lineweight Llc | Augmented reality simulator |
US9906885B2 (en) * | 2016-07-15 | 2018-02-27 | Qualcomm Incorporated | Methods and systems for inserting virtual sounds into an environment |
KR101838603B1 (ko) * | 2016-10-11 | 2018-03-14 | (주)세이프인 | 훈련용 증강현실 소화기 |
US10139934B2 (en) | 2016-12-22 | 2018-11-27 | Microsoft Technology Licensing, Llc | Magnetic tracker dual mode |
US10713485B2 (en) | 2017-06-30 | 2020-07-14 | International Business Machines Corporation | Object storage and retrieval based upon context |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09284675A (ja) * | 1996-04-12 | 1997-10-31 | Olympus Optical Co Ltd | 頭部装着型映像表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061064A (en) * | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
JPH08160879A (ja) * | 1994-12-09 | 1996-06-21 | Shimadzu Corp | 頭部装着表示装置 |
JP2001504605A (ja) * | 1996-08-14 | 2001-04-03 | ラティポフ,ヌラフメド,ヌリスラモビチ | 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム |
JPH10334275A (ja) * | 1997-05-29 | 1998-12-18 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
EP1060772B1 (en) * | 1999-06-11 | 2012-02-01 | Canon Kabushiki Kaisha | Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof |
-
2001
- 2001-03-13 JP JP2001071117A patent/JP4708590B2/ja not_active Expired - Fee Related
-
2002
- 2002-03-12 WO PCT/JP2002/002297 patent/WO2002073287A2/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09284675A (ja) * | 1996-04-12 | 1997-10-31 | Olympus Optical Co Ltd | 頭部装着型映像表示装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190121597A (ko) * | 2018-04-18 | 2019-10-28 | 삼성전자주식회사 | 가상현실, 증강현실 및 혼합현실을 위한 장치 및 방법 |
KR102637117B1 (ko) | 2018-04-18 | 2024-02-15 | 삼성전자주식회사 | 가상현실, 증강현실 및 혼합현실을 위한 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2002073287A3 (en) | 2003-10-30 |
JP2002271817A (ja) | 2002-09-20 |
WO2002073287A2 (en) | 2002-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5113426B2 (ja) | 頭部装着型表示装置、及びその制御方法 | |
JP4054585B2 (ja) | 情報処理装置および方法 | |
US11854171B2 (en) | Compensation for deformation in head mounted display systems | |
JP4708590B2 (ja) | 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム | |
JPH10327433A (ja) | 合成画像の表示装置 | |
KR20080024545A (ko) | 화상 표시 시스템, 화상 표시 방법 및 기록 매체 | |
JP2011010126A (ja) | 画像処理装置、画像処理方法 | |
WO2020185405A1 (en) | Registration of local content between first and second augmented reality viewers | |
EP3136724B1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
JP2004126869A (ja) | 位置姿勢設定器具及び変換パラメータ設定方法並びに複合現実感システム | |
JP2012244466A (ja) | 立体画像処理装置 | |
JP2006340017A (ja) | 立体映像表示装置及び立体映像表示方法 | |
JP2024013947A (ja) | 撮像装置、撮像装置の撮像方法およびプログラム | |
JP2001218231A (ja) | 立体画像を表示する装置および方法 | |
JPH11341517A (ja) | 水平配置立体画像表示システム | |
JP5096770B2 (ja) | 映像表示装置 | |
JPH02291787A (ja) | 広視野表示装置 | |
JP2005128877A (ja) | 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム | |
JP2595942B2 (ja) | 立体画像表示装置 | |
JP4125085B2 (ja) | 画像処理装置、画像処理方法 | |
JP2000249973A (ja) | 映像表示装置 | |
JP2003244726A (ja) | 画像合成処理装置 | |
JP4976108B2 (ja) | 画像表示装置、及び立体画像提示方法 | |
JP6103743B2 (ja) | ディスプレイ装置 | |
CN111183634B (zh) | 一种利用透镜还原光场的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060414 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20070626 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110317 |
|
LAPS | Cancellation because of no payment of annual fees |