JP4724476B2 - 情報処理方法及び装置 - Google Patents

情報処理方法及び装置 Download PDF

Info

Publication number
JP4724476B2
JP4724476B2 JP2005177964A JP2005177964A JP4724476B2 JP 4724476 B2 JP4724476 B2 JP 4724476B2 JP 2005177964 A JP2005177964 A JP 2005177964A JP 2005177964 A JP2005177964 A JP 2005177964A JP 4724476 B2 JP4724476 B2 JP 4724476B2
Authority
JP
Japan
Prior art keywords
user
image
virtual world
information processing
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005177964A
Other languages
English (en)
Other versions
JP2006107437A (ja
Inventor
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005177964A priority Critical patent/JP4724476B2/ja
Publication of JP2006107437A publication Critical patent/JP2006107437A/ja
Application granted granted Critical
Publication of JP4724476B2 publication Critical patent/JP4724476B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理方法及び装置に関し、特に、現実世界に仮想画像を合成した画像をユーザに提示する情報処理装置及び方法に関する。
バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元CG(コンピュータグラフィックス)をユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また、近年現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augmented Reality,拡張現実感)システムや特許文献1に記載されているようなMR(Mixed Reality,複合現実感)システムと呼ばれている。
MRシステムでは、現実の物体に三次元CGを重ねて見ることが可能であり、現実物体に仮想物体を重畳することで、ユーザが自由に仮想物体を操ることができるシステムが提案されている(例えば、特許文献1を参照)。
特開平11−136706号公報
通常、MRシステムにおいては現実画像よりもCGを画面の前面に表示するために、ユーザの視点からは自らの手元や足元がCGによって隠されてしまうことがあった。例えば、バーチャル建造物の屋内を体験するMRシステムでは、ユーザがバーチャル建造物の屋内に移動した場合は、ユーザの周りが全てバーチャルの床や壁で覆われてしまう。従って、このようなシステムにおいては、ユーザの手元がCGで隠れてしまい、何かを操作するときに不便を感じる。
また、ユーザの足元が隠されてしまうと、ユーザは、不安感を感じてしまう。
本発明は、この点に鑑みてなされたものであり、ユーザの足元がCGによって隠されてしまうことにより体験者であるユーザが不安感を感じることを抑制することを目的とする。
また、MRの特徴を生かし、ユーザの足元の現実空間を見ることが出来るようにすることを目的とする。
上記目的を達成するために、本発明の情報処理方法は、仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置が行う情報処理方法であって、前記情報処理装置が有する取得手段が、ユーザの位置姿勢を取得する取得工程と、前記情報処理装置が有する生成手段が、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成工程とを有し、前記生成工程は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成し、前記仮想世界のCGデータには、ユーザの足元に描画するための透明オブジェクトが含まれ、前記情報処理装置は、前記情報処理装置が有する設定手段が、前記透明オブジェクトの位置を、前記位置姿勢に応じて設定する設定工程を更に有し、前記設定工程により設定された前記透明オブジェクトが前記仮想世界の画像を透明にすることで現実空間画像が表示されることを特徴とする。
また、本発明の情報処理装置は、仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置であって、ユーザの位置姿勢を取得する取得手段と、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成手段とを有し、前記生成手段は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成し、前記仮想世界のCGデータには、ユーザの足元に描画するための透明オブジェクトが含まれ、前記情報処理装置は、前記透明オブジェクトの位置を、前記位置姿勢に応じて設定する設定手段を更に有し、前記設定手段により設定された前記透明オブジェクトが前記仮想世界の画像を透明にすることで現実空間画像が表示されることを特徴とする。
本発明によれば、ユーザの足元の現実世界の画像が表示されることにより、ユーザの足元の現実世界の画像が見えないというユーザの不安感をなくすことができる。
以下、本発明の一実施の形態を、図面を用いて詳細に説明する。
(実施の形態1)
本実施の形態では、バーチャル建造物の屋内を体験可能であるMRシステムについて説明する。
まず、システムの構成全体を説明する。
図1は、本実施の形態のシステム構成を表した図である。図1において、システム制御部101は、本システム全体をコントロールするユニットであり、画像入力部102、画像合成部103、画像出力部104、カメラ位置姿勢計測部105、仮想世界生成部106を備えている。
ビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)132は、カメラ133、画像出力部134、画像入力部135、画像表示部136を備えている。カメラ133は、ユーザの右眼と左眼のそれぞれに対応するように2台設置されている。また、画像表示部126は、ユーザの右眼用と左眼用の表示部を備えている。
次に、上述の構成の本システムのデータの流れについて説明する。
ユーザの頭部に装着されたHMD132のカメラ133は、ユーザの右眼及び左眼から見えるそれぞれの現実空間を画像として撮像する。画像出力部134は、カメラ133により撮像された現実空間の画像をシステム制御部101の画像入力部102に送信する。
カメラ位置姿勢計測部105は、例えば、不図示の磁気式位置姿勢センサーの利用やカメラ133からの入力画像によるカメラ位置姿勢の推定等によりカメラ133の位置(即ち、ユーザの位置)と、カメラの姿勢(即ち、ユーザの姿勢(視線方向))を計測する。仮想世界生成部106は、カメラ位置姿勢計測部105により計測された位置姿勢情報および予め保持されているシーングラフに基づき、カメラ133の位置姿勢から見た三次元CG画像を生成する。
ここで、シーングラフとは仮想空間の構造を示すものであり、例えば、CGオブジェクト間の位置関係、幾何情報などを定義するものである。本実施の形態では、ユーザが体験する仮想世界を定義するオブジェクトに加えて、足元に現実空間画像を表示するために透明床オブジェクトが記述されている。
画像合成部103は、画像入力部102により受信した現実空間の画像と、仮想世界生成部106により生成された仮想空間画像(三次元CG画像)を合成することにより複合現実空間画像を生成し、画像出力部104に送信する。画像出力部104は、画像合成部103により合成された複合現実空間画像をHMD132の画像入力部135に送信する。画像入力部135は、画像出力部104より送信された複合現実空間画像を受信する。画像表示部136は、画像入力部105により受信した複合現実空間画像を、右眼用と左眼用の表示部にそれぞれ表示する。その複合現実空間画像を、ユーザが観察することができる。
このようなシステムによれば、HMDを装着したユーザの位置姿勢に応じた複合現実空間画像を表示することができる。したがって、ユーザは、MR空間を自由に体験することができる。
図2に、本実施の形態で用いるシーングラフのツリー構造を示す。
本実施の形態は、バーチャル建造物を体験可能なMRシステムであるので、バーチャル建造物に関するオブジェクトを示す仮想世界のシーン202、およびCGの床を透過させ現実空間画像を表示するためのオブジェクトである透過床201を有する。
仮想世界のシーン202は、床、壁、屋根などのバーチャル建造物の屋内に関するオブジェクト203〜205と外観等に関するオブジェクトを示すその他オブジェクト206が含まれる。よって、ユーザがバーチャル建造物の屋内に入った場合は、壁や屋根だけでなく、ユーザの足元にも床のCGが存在することになる。
透明床201のオブジェクトは、その属性が透明のオブジェクトであり、仮想世界のシーン202より先に検索されるパス上に存在する。オブジェクトの平面の大きさは、ユーザの足元において、仮想世界の画像を透過させ現実世界を表示させたいサイズが設定されている。そして、オブジェクトの平面の高さは、シーンの床と同一の厚さかもしくは多少厚い程度の厚さが設定されている。
例えば、床203のオブジェクトの厚さが10mmのときに、半径1mの円の領域について現実画像を表示させたい場合は、透明床201のオブジェクトとして高さ12mmで半径1mの円柱を設定する。
このようなシーングラフを有することにより、床203よりも透明床が優先的に描画される。よって、画像合成部103において、現実画像と透明画像を合成することになり、結果的に、透明床201の領域に現実画像が表示されるようになる。
また、透明オブジェクトは、カメラ133の水平移動(即ち、ユーザの移動)に追従する。カメラ位置姿勢計測部105から出力された位置情報に基づき、透明オブジェクトの水平位置を設定し、高さ(垂直位置)は仮想世界の床面と同一平面上の高さを設定する。このように、仮想世界の床面と同一平面上にして、水平位置だけカメラ133の水平移動に追従させることができ、常に透明オブジェクトがユーザの鉛直下方部に配置されることになり、ユーザの足元において現実空間を透過させることができる。仮想世界の床面の高さが変化するときは、透明オブジェクトの高さも連動して変化する。これによって、床面の高さを変化させるようなアプリケーションにおいても、常に仮想の床面が透過される。
透明オブジェクトは仮想床面に位置する床面と同程度の厚みしかないので、透明オブジェクトの鉛直上方向にある仮想物体を透過させて見えなくさせることはない。
なお、グラフィックライブラリによっては自動的に透明オブジェクトの順序を入れ替えて、透明オブジェクトの先にあるオブジェクトを表示しようとするものがある。このようなグラフィックライブラリの場合には順序を入れ替えずにそのまま合成表示するモードを選択するようにする。
ここで、本実施の形態のMRシステムを体験する空間について、説明する。図3は、本実施の形態のMRシステムを体験することができる空間を示す図である。
図3における空間は、現実世界の床、壁、及び、天井により囲われており、領域301にバーチャル建物が表示される。ユーザが領域301の外側に位置するとき(例えば、302で示す位置)は、バーチャル建造物の外観を見ることができ、領域301の内側に位置するとき(例えば、303で示す位置)は、バーチャル建造物の内部を見ることができる。
次に、本実施の形態の処理を図4に示すフローチャートに従って、説明する。
まず、ステップS100において、カメラ位置姿勢計測部105が、カメラ133の位置姿勢(即ち、ユーザの位置及び姿勢)を計測する。
次に、ステップS110において、仮想世界生成部106は、計測された位置姿勢に基づき、バーチャル建造物内である否かを判断する。建造物内であると判断した場合、仮想世界生成部106は、透明オブジェクトと建造物の内部のオブジェクトに基づき、仮想空間画像を生成する(ステップS120)。また、建造物でないと判断した場合、仮想世界生成部106は、建造物の外部のオブジェクトに基づき、仮想空間画像を生成する(ステップS130)。
次に、画像合成部103は、ステップS120又はステップS130において生成された仮想空間画像と、画像入力部102により受信した現実空間の画像とを合成する(ステップS140)。画像出力部104は、合成された画像をHMD132に出力する(ステップS150)。そして、HMD132において、画像表示部136の右眼用と左眼用のそれぞれの表示部に画像が表示される(ステップS160)。
ここで、図3、図5〜図8を用いて、本実施の形態における表示結果およびその効果を説明する。
まず、従来のMRシステムすなわち透明オブジェクトを配置しない場合を説明する。
図3の301は、現実世界におけるバーチャル建造物が表示される床の領域を表している。図5は、現実世界の床の領域301に仮想世界の床が重畳され、さらにそこにユーザが立っている様子を表している。この状態からユーザがHMDを通して鉛直下方向を見ると、従来は、図6のように床のCGしか見えなくなってしまう。これは床のCGが現実空間の画像を覆い隠してしまうためである。このように、足元がCGによって隠されてしまうと体験者は不安感を感じることになる。
次に、本実施の形態のMRシステム、すなわち透明オブジェクトを配置した場合を説明する。本実施の形態では、透明オブジェクトを仮想世界の床と同一平面上に配置している。よって、ユーザの鉛直下方部には円柱の透明オブジェクトが置かれ、現実世界の画像が透過して見える。図7は、現実世界の床に仮想世界の床および透明オブジェクト501を重畳し、さらにそこにユーザが立っている様子を表している。この状態でユーザがHMDを通して鉛直下方向を見ると、図8のように透明オブジェクトの形状だけユーザの足を含む現実空間が透過して見える。したがって、足元がCGによって隠されてしまうことにより体験者が不安感を感じることを抑制することができる。
また、この現実世界の画像領域であれば手元も確認することができるので、手元での操作を現実世界の画像を確認しながら行うことができる。よって、CGによって手元が隠れてしまう場合に比べて、手元での操作を簡単に行うことができる。
ここで、足元とは、上述の如くユーザの位置を中心とする所定範囲を指すが、次に述べるようにユーザの位置からユーザの進行方向の所定範囲又は、ユーザの位置から所定の距離だけ離れた所定の範囲を示すものである。
(他の実施の形態−透明オブジェクトの変形例)
上記実施の形態では、透明オブジェクトとして円柱を用いているが、直方体などの他の形状を用いても構わない。
また、ユーザの移動速度に応じて透明オブジェクトが変形するようにしても良い。例えば、透明オブジェクトの形状として図9に示すような楕円柱を用いる(楕円柱を、上から見た状態を示す)。その楕円柱の長径の方向とユーザの進行方向を一致させ(図に示す矢印の方向がユーザの進行方向と一致する)、ユーザの進行方向の指標となるようにする。そして長径/短径は移動速度に比例して変化させ、ユーザに現在の移動速度を伝える指標とする。
また、楕円柱の長径の方向とユーザの視線方向を一致させる(図に示す矢印の方向がユーザの視線方向と一致する)ようにしてもよい。
ここで、図中の破線の円は、ユーザの位置を示している。このように、楕円柱の中心位置から進行方向、または、視線方向へずらすようにしても良い。
更に、円柱、楕円柱の他に、図10、図11に示す形状の透明オブジェクトを用いても良い(両図とも、上から見た状態を示す)。
図10における形状は、ユーザの位置から見て進行方向(又は、視線方向)が拡がっている形状の図形である。このような形状にすることにより、確実に足元を確認することができる。
図11における形状は、ドーナッツ状の透明オブジェクトであり、ユーザの位置そのものは、仮想の床が描画されるが、その周囲のドーナツ状の範囲は、現実世界の床が描画されることになる。透明オブジェクトをドーナツ形状とすることにより、ユーザの位置の画像を確認することができると共に、ユーザの不安を解消することができる。
また、バーチャル建造物の屋内を体験可能であるMRシステムではなく、他の仮想世界を体験するMRシステムでも構わない。体験者の足元にCGが重畳されるものであれば構わない。
また、透過床の配置位置は、仮想世界の床と大略同一平面上に配置されれば構わない。つまり、カメラの位置姿勢情報および仮想世界の床の配置情報に基づき、動的に設定されれば構わない。例えば、多少、透過床の配置位置が仮想世界の床よりも視点位置に近い位置に設定されても構わない。
また、透明オブジェクトの境界においてαブレンディングを制御することにより、透明オブジェクトと床オブジェクトの境界がぼけるような処理を追加しても構わない。
また、前述した実施例の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能(例えば、画像合成部103および仮想世界生成部106の機能)を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
この場合、前記ソフトウエアのプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
かかるプログラムコードを格納する記憶媒体としては例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施例の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。
実施の形態のシステムの構成を示した図である。 実施の形態における仮想世界のシーングラフを表した図である。 実施の形態におけるMRシステムを体験することができる空間を表した図である。 実施の形態の処理動作を示すフローチャートである。 複合現実空間上にユーザが立っている様子を表した図である。 複合現実空間上のユーザが鉛直下方部を見たときの図である。 透明オブジェクトを配置した複合現実空間上にユーザが立っている様子を表した図である。 透明オブジェクトを配置した複合現実空間上のユーザが鉛直下方部を見た図である。 透明オブジェクトの他の形状を示す図である。 透明オブジェクトの他の形状を示す図である。 透明オブジェクトの他の形状を示す図である。
符号の説明
101 システム制御部
102 画像入力部
103 画像合成部
104 画像出力部
105 カメラ位置姿勢計測部
106 仮想世界生成部
132 HMD
133 カメラ
134 画像出力部
135 画像入力部
136 画像表示部

Claims (8)

  1. 仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置が行う情報処理方法であって、
    前記情報処理装置が有する取得手段が、ユーザの位置姿勢を取得する取得工程と、
    前記情報処理装置が有する生成手段が、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成工程とを有し、
    前記生成工程は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成し、
    前記仮想世界のCGデータには、ユーザの足元に描画するための透明オブジェクトが含まれ、
    前記情報処理方法は、
    前記情報処理装置が有する設定手段が、前記透明オブジェクトの位置を、前記位置姿勢に応じて設定する設定工程を更に有し、
    前記設定工程により設定された前記透明オブジェクトが前記仮想世界の画像を透明にすることで現実空間画像が表示されることを特徴とする情報処理方法。
  2. 前記仮想世界はバーチャル建造物の屋内であり、
    前記仮想世界のCGデータは床オブジェクトを含み、
    前記設定工程は、前記透明オブジェクトの位置姿勢を前記床オブジェクトと同一平面上に位置するように設定することを特徴とする請求項1に記載の情報処理方法。
  3. 前記設定工程は、床オブジェクトの鉛直方向の位置に応じて、透明オブジェクトの鉛直方向の位置を設定することを特徴とする請求項1に記載の情報処理方法。
  4. ユーザの水平方向の移動に応じて、透明オブジェクトを水平移動させることにより、常にユーザの鉛直下方向に前記透明オブジェクトを配置することを特徴とする請求項1に記載の情報処理方法。
  5. ユーザの位置の移動に応じて、前記透明オブジェクトの大きさが変化することを特徴とする請求項1に記載の情報処理方法。
  6. ユーザの位置に応じて、ユーザの位置の前方と後方とで前記透明オブジェクトの大きさが異なることを特徴とする請求項1に記載の情報処理方法。
  7. 請求項1乃至6のいずれか1項に記載の情報処理方法をコンピュータにて実現するためのプログラム。
  8. 仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置であって、
    ユーザの位置姿勢を取得する取得手段と、
    前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成手段とを有し、
    前記生成手段は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成し、
    前記仮想世界のCGデータには、ユーザの足元に描画するための透明オブジェクトが含まれ、
    前記情報処理装置は、
    前記透明オブジェクトの位置を、前記位置姿勢に応じて設定する設定手段を更に有し、
    前記設定手段により設定された前記透明オブジェクトが前記仮想世界の画像を透明にすることで現実空間画像が表示されることを特徴とする情報処理装置。
JP2005177964A 2004-09-07 2005-06-17 情報処理方法及び装置 Active JP4724476B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005177964A JP4724476B2 (ja) 2004-09-07 2005-06-17 情報処理方法及び装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004259626 2004-09-07
JP2004259626 2004-09-07
JP2005177964A JP4724476B2 (ja) 2004-09-07 2005-06-17 情報処理方法及び装置

Publications (2)

Publication Number Publication Date
JP2006107437A JP2006107437A (ja) 2006-04-20
JP4724476B2 true JP4724476B2 (ja) 2011-07-13

Family

ID=36377043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005177964A Active JP4724476B2 (ja) 2004-09-07 2005-06-17 情報処理方法及び装置

Country Status (1)

Country Link
JP (1) JP4724476B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211251A (ja) * 2008-03-03 2009-09-17 Dainippon Printing Co Ltd 拡張現実感表示装置
JP2010026905A (ja) * 2008-07-23 2010-02-04 Sammy Corp 画像生成装置、遊技機、及びプログラム
JP5888372B2 (ja) * 2013-08-29 2016-03-22 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
EP3410264B1 (en) * 2014-01-23 2020-08-26 Sony Corporation Image display device and image display method
WO2016158080A1 (ja) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法およびプログラム
JP7287257B2 (ja) 2019-12-06 2023-06-06 トヨタ自動車株式会社 画像処理装置、表示システム、プログラムおよび画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269593A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理装置及び方法、並びに記憶媒体
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2004234253A (ja) * 2003-01-29 2004-08-19 Canon Inc 複合現実感呈示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269593A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理装置及び方法、並びに記憶媒体
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2004234253A (ja) * 2003-01-29 2004-08-19 Canon Inc 複合現実感呈示方法

Also Published As

Publication number Publication date
JP2006107437A (ja) 2006-04-20

Similar Documents

Publication Publication Date Title
US20060050070A1 (en) Information processing apparatus and method for presenting image combined with virtual image
JP4933164B2 (ja) 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US7292240B2 (en) Virtual reality presentation device and information processing method
US11277603B2 (en) Head-mountable display system
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP2020035455A (ja) 媒介現実コンテンツの共有
JP4724476B2 (ja) 情報処理方法及び装置
JP2005165776A (ja) 画像処理方法、画像処理装置
JP6332652B1 (ja) 表示制御装置、及びプログラム
JP2006285609A (ja) 画像処理方法、画像処理装置
JP2024050696A (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
US10506211B2 (en) Recording medium, image generation apparatus, and image generation method
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
JP2012105200A (ja) 3dコンテンツ表示装置、および3dコンテンツ表示方法
JP2019145161A (ja) プログラム、情報処理装置、及び情報処理方法
JP6473872B2 (ja) 映像構築装置、擬似視覚体験システム、および映像構築プログラム
JP7325833B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7319686B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
US20240078767A1 (en) Information processing apparatus and information processing method
US20240073400A1 (en) Information processing apparatus and information processing method
WO2021153413A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
JP2004013309A (ja) 情報処理方法および複合現実感提示装置
JP2024015868A (ja) ヘッドマウントディスプレイおよび画像表示方法
KR20230052297A (ko) 게임 프로그램, 게임 처리 방법 및 게임 장치
JP2005165973A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080530

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4724476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150