JPH09311618A - Virtual reality producing device - Google Patents

Virtual reality producing device

Info

Publication number
JPH09311618A
JPH09311618A JP8127045A JP12704596A JPH09311618A JP H09311618 A JPH09311618 A JP H09311618A JP 8127045 A JP8127045 A JP 8127045A JP 12704596 A JP12704596 A JP 12704596A JP H09311618 A JPH09311618 A JP H09311618A
Authority
JP
Japan
Prior art keywords
user
coordinates
virtual
space
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8127045A
Other languages
Japanese (ja)
Inventor
Kengo Tanaka
健吾 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP8127045A priority Critical patent/JPH09311618A/en
Publication of JPH09311618A publication Critical patent/JPH09311618A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate any shift of virtual space position due to individual personal difference so that any body can display a favorable image by making a view point correction by real time graphic calculation on the basis of the view point coordinates data for calibration. SOLUTION: An user wears a head-mounted type display(HMD) 1 and can observe a computer graphic image signal outputted from a controlling graphic processor 2. In addition, the graphic processor 2 know the movement of the user by means of a ternary sensor 3 of HMD1 and calculates at the real time and delivers an image, to be displayed to the user, so as to be seen from certain coordinates in the virtual three-dimentional space. Furthermore, with a calibration switch 4 pressed by the user, correction process is applied to the coordinates transform process in the graphic processor 2 and the coordinates to be reference in the virtual three-dimensional space are changed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、3次元センサーを
有する頭部搭載型ディスプレー(Head Mount
ed Display:以下、HMDと称す)を用い、
使用者の頭の動きに追従した仮想空間映像を提示する仮
想現実感(バーチャルリアリティー)生成装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a head mount display having a three-dimensional sensor.
ed Display: hereinafter referred to as HMD),
The present invention relates to a virtual reality generating device that presents a virtual space image that follows the movement of the user's head.

【0002】[0002]

【従来の技術】バーチャルリアリティーシステムにおい
ては、例えば特開平3−289615号公報に記載され
ているように、グラフィックプロセッサによって生成さ
れるリアルタイムコンピュータグラフィック映像を、3
次元センサー付きの頭部搭載型ディスプレーを介して視
認することにより、仮想の三次元空間を移動しつつ見回
して、あたかもその空間内に被験者が存在するかのよう
な体験を提示することができる。
2. Description of the Related Art In a virtual reality system, as described in, for example, Japanese Patent Laid-Open No. 3-289615, real-time computer graphic images generated by a graphic processor are displayed.
By visually observing through a head-mounted display with a dimensional sensor, it is possible to look around while moving in a virtual three-dimensional space and present an experience as if the subject were present in that space.

【0003】すなわち、HMDを被った被験者の実空間
での3次元位置と視線方向(頭の向き)とをHMD附属
の3次元センサーで検出し、そのデータをグラフィック
プロセッサヘ送る。グラフィックプロセッサでは、予め
プログラムされた3次元空間での視点位置を元にコンピ
ュータグラフィック画像を算出し、HMDを介して被験
者に映像を表示するようになっており、この処理を実時
間で繰り返すことにより、被験者は頭の動きに追従した
コンピュータグラフィック映像を体験することができ
る。
That is, the three-dimensional position and the line-of-sight direction (head direction) of the subject who has suffered from the HMD are detected by the three-dimensional sensor attached to the HMD, and the data is sent to the graphic processor. The graphic processor calculates the computer graphic image based on the pre-programmed viewpoint position in the three-dimensional space and displays the image on the subject through the HMD. By repeating this process in real time, , The subject can experience a computer graphic image that follows the movement of the head.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た従来の仮想現実感生成装置においては、被験者の個人
差によってHMDの装着の仕方がまちまちであったり、
表示を見る方向が一定でない等の要因により、提示すべ
き仮想空間の位置や映像がずれてしまう可能性が高いた
め、突然仮想空間が使用者の回りに出現した際などに、
該空間の基準となる視線方向を見ていないと使用者は仮
想空間での自分の位置或いは周囲の状況を把握できなく
なってしまうという問題があった。
However, in the above-described conventional virtual reality generating device, the method of wearing the HMD varies depending on the individual difference of the subject.
It is highly possible that the position or image of the virtual space to be presented will be displaced due to factors such as the direction in which the display is viewed is not constant, so when the virtual space suddenly appears around the user,
There is a problem that the user cannot grasp his / her position in the virtual space or the surrounding situation unless he / she looks at the line-of-sight direction which is the reference of the space.

【0005】例えば、使用者のHMDの被り方が良くな
い場合や、頭部形状の個人差や被り方の癖によって、水
平に被っているつもりであっても仰角(上向き、下向
き)がついていたり、ロール(正面から見て軸が回転し
ているケース)している場合などに、映像を斜めに見て
いる等、アプリケーションが意図している映像を使用者
が獲得できていない状態を招来してしまう。
For example, when the user wears the HMD poorly, or due to the individual differences in head shape and the habit of wearing the head, even if the user intends to wear the head horizontally, the elevation angle (upward or downward) may be attached. , When the user is rolling (when the shaft is rotating when viewed from the front), the user may not be able to obtain the image intended by the application, such as looking at the image diagonally. Will end up.

【0006】また、VR(バーチャルリアリティー)ア
プリケーションは、そのアプリケーションが描く仮想空
間座標と使用者のいる実空間座標との対応をとって、実
空間内での使用者の移動量を仮想空間での動きに反映さ
せるのが一般的である。アプリケーションの種類によっ
ては使用者の立つ位置方向を規定しておかなければいけ
ない場合が発生するが、使用者の立つ位置によっては仮
想の物体が存在する方向とは全く別の方向を見ているた
めに必要な情報が得られない状態が発生する。
Further, a VR (Virtual Reality) application takes the correspondence between the virtual space coordinates drawn by the application and the real space coordinates where the user is, and calculates the movement amount of the user in the real space in the virtual space. Generally, it is reflected in the movement. Depending on the type of application, it may be necessary to specify the direction in which the user stands, but depending on the position where the user stands, it is looking in a completely different direction from the direction in which the virtual object exists. There is a situation in which the necessary information cannot be obtained.

【0007】本発明は、上述したような点に鑑みてなさ
れたものであり、キャリブレーション用視点座標データ
に基づいて、リアルタイムなグラフィック演算での視点
位置補正を行うことにより、個人差による仮想空間位置
のずれを解消し、誰にでも好適な映像を提示することを
可能とする仮想現実感生成装置を提供することを目的と
する。
The present invention has been made in view of the above-mentioned points, and the viewpoint position is corrected by a real-time graphic calculation based on the viewpoint coordinate data for calibration, so that a virtual space due to individual differences is obtained. It is an object of the present invention to provide a virtual reality generating device capable of eliminating a positional shift and presenting a suitable image to anyone.

【0008】[0008]

【課題を解決するための手段】本発明の仮想現実感生成
装置においては、HMDにキャリブレーション要求を発
生させるスイッチを設け、HMD装着後にこのスイッチ
を押すことでキャリブレーション処理(使用者個々の装
着状態による3次元センサーからのデータのばらつきを
補正する処理)のトリガとなり、グラフィックプロセッ
サがその後の処理を担う。トリガが発生すると、グラフ
ィックプロセッサではその時点の3次元センサからの座
標データ(使用者の位置と視線方向)を実3次元空間で
の基準座標として内部に保持する。
In the virtual reality generating apparatus of the present invention, the HMD is provided with a switch for generating a calibration request, and the switch is pressed after mounting the HMD to perform a calibration process (each user's mounting). The process of correcting the variation of the data from the three-dimensional sensor depending on the state) is triggered, and the graphic processor is responsible for the subsequent process. When the trigger occurs, the graphic processor internally holds the coordinate data (the position and the line-of-sight direction of the user) from the three-dimensional sensor at that time as reference coordinates in the actual three-dimensional space.

【0009】そして、その後のグラフィックス処理にお
いては、実3次元空間の基準座標をアプリケーションソ
フトの仮想3次元空間における基準座標に一致させ、新
たな3次元センサからの座標データ(使用者の動作によ
る)を実3次元空間の基準座標からの相対的座標データ
に変換し、基準座標からの変化量が仮想3次元空間での
基準座標からの変化量に対応付けられる。
Then, in the subsequent graphics processing, the reference coordinates in the actual three-dimensional space are made to match the reference coordinates in the virtual three-dimensional space of the application software, and the coordinate data from the new three-dimensional sensor (depending on the user's operation). ) Is converted into relative coordinate data from the reference coordinates in the actual three-dimensional space, and the change amount from the reference coordinates is associated with the change amount from the reference coordinates in the virtual three-dimensional space.

【0010】アプリケーションプログラムは、このよう
なキャリブレーション(視点補正)機能と3次元センサ
に応じたリアルタイムな描画機能とを備えており、時々
刻々と変化する使用者の視点に対応した仮想空間映像を
提供する。
The application program has such a calibration (viewpoint correction) function and a real-time drawing function corresponding to the three-dimensional sensor, and a virtual space image corresponding to the user's viewpoint, which changes moment by moment, is displayed. provide.

【0011】これによって、使用者はHMDの装着後、
アプリケーションが動作中であればいつでも視点補正
(キャリブレーション)機能を要求することができ、使
用者の見方に応じた視点の補正が可能となるため、表示
が突然仮想空間のシーンに切り替わった場合でも、その
空間内での自分のポジション或いは周囲の状況が把握で
きるようになる。
As a result, the user can wear the HMD and
It is possible to request the viewpoint correction (calibration) function whenever the application is running, and it is possible to correct the viewpoint according to the user's perspective, so even if the display suddenly switches to a virtual space scene. , You will be able to understand your position in the space or the surrounding situation.

【0012】また、アプリケーションによって使用者が
立つ位置や見る方向を規定していたものが、使用者の意
思により自分なりに見やすい姿勢を基準にして仮想空間
の見回しや移動ができるという点で、バーチャルリアリ
ティーシステムに好適なユーザインターフェースをもた
らすことが可能となる。
Further, although the application defines the standing position and the viewing direction of the user, the virtual space can be looked around and moved based on the user's willing posture which is easy to see. It is possible to provide a user interface suitable for the reality system.

【0013】[0013]

【発明の実施の形態】本発明の仮想現実感生成装置の一
実施形態を、図1乃至図4とともに以下説明する。ここ
で、図1は本実施形態の仮想現実感生成装置のシステム
構成を示す外観説明図、図2は本実施形態の仮想現実感
生成装置における処理動作を示す説明図、図3は本実施
形態の仮想現実感生成装置における処理動作を示すフロ
ーチャート、図4は本実施形態の仮想現実感生成装置に
おける座標変換処理を示す説明図である。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the virtual reality generating apparatus of the present invention will be described below with reference to FIGS. Here, FIG. 1 is an external view showing the system configuration of the virtual reality generating device of the present embodiment, FIG. 2 is an explanatory diagram showing the processing operation of the virtual reality generating device of the present embodiment, and FIG. 3 is the present embodiment. FIG. 4 is a flowchart showing the processing operation in the virtual reality generating device, and FIG. 4 is an explanatory diagram showing the coordinate conversion process in the virtual reality generating device of the present embodiment.

【0014】本実施形態の仮想現実感生成装置は、図1
に示すように、使用者はHMD1を装着して、制御用グ
ラフィックプロセッサ2から出力されるコンピュータグ
ラフィック映像信号を見ることができる。また、グラフ
ィックプロセッサ2は使用者の動きをHMD1の3次元
センサ3より取得することによって、使用者に提示すべ
き仮想3次元空間のある座標からみた映像を実時間で計
算して送り出す。
The virtual reality generating apparatus of this embodiment is shown in FIG.
As shown in, the user can wear the HMD 1 and see the computer graphic video signal output from the control graphic processor 2. Further, the graphic processor 2 obtains the motion of the user from the three-dimensional sensor 3 of the HMD 1 to calculate and send out in real time an image viewed from a certain coordinate of the virtual three-dimensional space to be presented to the user.

【0015】さらに、使用者がキャリブレーション用の
スイッチ4を押すことにより、グラフィックプロセッサ
2での座標変換処理に補正がかけられ、仮想3次元空間
における基準となる座標が変更される。
Further, when the user presses the calibration switch 4, the coordinate conversion process in the graphic processor 2 is corrected, and the reference coordinates in the virtual three-dimensional space are changed.

【0016】図2は、使用者の仮想空間視点座標と仮想
空間におけるワールド座標との位置関係を表しており、
ワールド座標を基準として視点座標が存在する様子を示
している。ここで、仮想空間視点座標のZ軸方向を使用
者の視線方向と仮定しているため、図2(a)に示す状
態においては、視点座標のZ軸方向に仮想物体が存在す
ることから、グラフィックプロセッサ2からの映像には
仮想物体が描かれ、使用者はこの仮想物体を認知するこ
とができる。
FIG. 2 shows the positional relationship between the viewpoint coordinates of the user in the virtual space and the world coordinates in the virtual space.
It shows that viewpoint coordinates exist with reference to world coordinates. Here, since the Z-axis direction of the virtual space viewpoint coordinates is assumed to be the user's line-of-sight direction, since the virtual object exists in the Z-axis direction of the viewpoint coordinates in the state shown in FIG. 2A, A virtual object is drawn in the image from the graphic processor 2, and the user can recognize this virtual object.

【0017】次に、使用者の見る方向及び位置が図2
(b)に示す状態である場合は、仮想物体は視点座標の
Z軸方向から外れているため、いきなりこの状態を提示
された使用者には物体が何も見えず、仮想空間内の物体
や状況が把握できないこととなる。
Next, the direction and position viewed by the user are shown in FIG.
In the case of the state shown in (b), since the virtual object is deviated from the Z-axis direction of the viewpoint coordinates, the user who is suddenly presented with this state cannot see any object, and the virtual object The situation cannot be grasped.

【0018】そこで、キャリブレーションスイッチ4を
押すと、グラフィックプロセッサ2で座標変換処理が行
なわれて、図2(c)に示す状態になり、仮想物体が使
用者の視界に入ってくる。すなわち、仮想空間のワール
ド座標系が図2(b)の状態から図2(c)の状態に変
化し、使用者のキャリブレーション要求時の座標が仮想
空間の基準となるワールド座標を規定する。
Then, when the calibration switch 4 is pressed, coordinate conversion processing is performed by the graphic processor 2 and the state shown in FIG. 2 (c) is reached, and the virtual object comes into the visual field of the user. That is, the world coordinate system of the virtual space changes from the state of FIG. 2B to the state of FIG. 2C, and the coordinates at the time of the user's calibration request define the world coordinates that are the reference of the virtual space.

【0019】また、本実施形態の仮想現実感生成装置の
処理は、図3のフローチャートに示すように、アプリケ
ーション起動時にキャリブレーション用のマトリックス
を初期化(基本的に3次元空間での同時座標系の単位行
列に初期化)しておき(S301)、次に、キャリブレ
ーションスイッチ4のON・OFFの状態を判断し(S
302)、ONの状態であれば3次元センサー3の値か
ら視点座標を導き出して(S303)、逆行列を求めキ
ャリブレーション用マトリックスバッファを更新する
(S304)。
Further, in the processing of the virtual reality generating apparatus of the present embodiment, as shown in the flowchart of FIG. 3, the matrix for calibration is initialized when the application is started (basically, the simultaneous coordinate system in the three-dimensional space is used. Of the calibration switch 4 is initialized (S301), and then the ON / OFF state of the calibration switch 4 is determined (S301).
302), if it is ON, the viewpoint coordinates are derived from the value of the three-dimensional sensor 3 (S303), the inverse matrix is obtained, and the calibration matrix buffer is updated (S304).

【0020】通常の視点座標にこのキャリブレーション
マトリックスを掛け合わせる(S306)ことにより、
補正後の視点座標が求まり、描画が行なわれる(S30
7)。一方、キャリブレーションスイッチ4がOFF状
態の場合は、バッファリングされているキャリブレーシ
ョンマトリックスに対して新たに3次元センサー3から
求められた視点座標を乗算し(S306)、描画を行う
(S307)。以降は、終了要求があるまで上記処理を
続ける(S308)。
By multiplying the normal viewpoint coordinates by this calibration matrix (S306),
The corrected viewpoint coordinates are obtained and drawing is performed (S30).
7). On the other hand, when the calibration switch 4 is in the OFF state, the buffered calibration matrix is multiplied by the viewpoint coordinates newly obtained from the three-dimensional sensor 3 (S306) and drawing is performed (S307). After that, the above processing is continued until a termination request is made (S308).

【0021】ここで、基準座標からの相対的な座標への
変換は、図4に示すように、基本的な行列計算に基づい
て行なわれる。すなわち、座標変換を行う前は、図4
(a)に示すように、初期基準座標(ワールド座標M
0)からのローカル座標M2を視点座標としており、ワ
ールド座標系ではM2M0に位置する。視点座標をキャ
リブレーション座標とみなすと、M2の逆行列M2-1
初期基準座標が位置することになる。
Here, the conversion from the reference coordinates to the relative coordinates is performed based on a basic matrix calculation, as shown in FIG. That is, before performing the coordinate conversion, as shown in FIG.
As shown in (a), the initial reference coordinates (world coordinates M
The local coordinates M2 from 0) are used as the viewpoint coordinates, and are located at M2M0 in the world coordinate system. When the viewpoint coordinates are regarded as the calibration coordinates, the initial reference coordinates are located in the inverse matrix M2 -1 of M2.

【0022】これに対して、座標変換を行った後は、図
4(b)に示すように、M3=M2-1M0が新基準座標
(ワールド座標)に設定され、ワールド座標系における
視点の座標はM2M3=M2M2-1M0=M0となり、
変換前の初期基準座標と視点座標とが一致する。従っ
て、キャリブレーションを行った後には、使用者個々の
視点座標のずれが補正され、アプリケーションが規定す
る初期基準座標からの仮想空間を使用者に提示すること
が可能となる。
On the other hand, after the coordinate conversion, as shown in FIG. 4B, M3 = M2 -1 M0 is set as the new reference coordinate (world coordinate), and the viewpoint of the world coordinate system is changed. The coordinates are M2M3 = M2M2 -1 M0 = M0,
The initial reference coordinates before conversion and the viewpoint coordinates match. Therefore, after the calibration, the deviation of the viewpoint coordinates of each user is corrected, and the virtual space from the initial reference coordinates defined by the application can be presented to the user.

【0023】[0023]

【発明の効果】本発明に係る仮想現実感生成装置は、上
述したような構成としているので、VR(仮想現実感)
システムにおいて、従来調整が面倒であった使用者のポ
ジションの設定やセンターの位置合わせの作業が不要と
なり、システムを制御するオペレータの負担をなくすこ
とができる。また、いつでも使用者の好きな時点で見や
すい状態に調整することができるため、良好なユーザイ
ンターフェースを提供することが可能である。
Since the virtual reality generating apparatus according to the present invention is configured as described above, VR (virtual reality)
In the system, the work of setting the user's position and aligning the center, which has conventionally been troublesome to adjust, becomes unnecessary, and the burden on the operator controlling the system can be eliminated. In addition, since it is possible to adjust to a state that is easy for the user to see at any time, it is possible to provide a good user interface.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の仮想現実感生成装置の一実施形態のシ
ステム構成を示す外観説明図である。
FIG. 1 is an external view illustrating a system configuration of an embodiment of a virtual reality generating device of the present invention.

【図2】本発明の仮想現実感生成装置の一実施形態にお
ける処理動作を示す説明図である。
FIG. 2 is an explanatory diagram showing a processing operation in one embodiment of the virtual reality generating apparatus of the present invention.

【図3】本発明の仮想現実感生成装置の一実施形態にお
ける処理動作を示すフローチャートである。
FIG. 3 is a flowchart showing a processing operation in one embodiment of the virtual reality generating apparatus of the present invention.

【図4】本発明の仮想現実感生成装置の一実施形態にお
ける座標変換処理を示す説明図である。
FIG. 4 is an explanatory diagram showing coordinate conversion processing in an embodiment of the virtual reality generating apparatus of the present invention.

【符号の説明】 1 HMD 2 制御用グラフィックプロセッサ 3 3次元センサ 4 キャリブレーションスイッチ[Explanation of reference numerals] 1 HMD 2 control graphic processor 3 3D sensor 4 calibration switch

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 3次元センサーを有する頭部搭載型ディ
スプレーを用い、使用者の頭の動きに追従した仮想空間
映像を提示する仮想現実感生成装置において、 キャリブレーション処理の要求を指示する指示手段と、 該指示手段によりキャリブレーション処理が要求された
とき、上記3次元センサーからの座標データを実3次元
空間における基準座標として保持する保持手段と、 該保持手段に保持された実3次元空間における基準座標
を、仮想3次元空間における基準座標に一致させること
により、使用者の視点位置補正を行う補正手段とを設け
たことを特徴とする仮想現実感生成装置。
1. A virtual reality generating device that uses a head-mounted display having a three-dimensional sensor and presents a virtual space image that follows the movement of the user's head. Indication means for instructing a request for calibration processing. And a holding means for holding the coordinate data from the three-dimensional sensor as reference coordinates in the real three-dimensional space when a calibration process is requested by the instructing means, and a real three-dimensional space held by the holding means. A virtual reality generating apparatus, comprising: a correction unit that corrects a viewpoint position of a user by matching the reference coordinates with the reference coordinates in a virtual three-dimensional space.
JP8127045A 1996-05-22 1996-05-22 Virtual reality producing device Pending JPH09311618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8127045A JPH09311618A (en) 1996-05-22 1996-05-22 Virtual reality producing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8127045A JPH09311618A (en) 1996-05-22 1996-05-22 Virtual reality producing device

Publications (1)

Publication Number Publication Date
JPH09311618A true JPH09311618A (en) 1997-12-02

Family

ID=14950257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8127045A Pending JPH09311618A (en) 1996-05-22 1996-05-22 Virtual reality producing device

Country Status (1)

Country Link
JP (1) JPH09311618A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100445846B1 (en) * 2001-09-18 2004-08-25 학교법인 한양학원 A Public Speaking Simulator for treating anthropophobia
CN109254671A (en) * 2017-07-12 2019-01-22 北京行云时空科技有限公司 Exchange method, device and the equipment of gestures of object are manipulated in AR/VR application

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100445846B1 (en) * 2001-09-18 2004-08-25 학교법인 한양학원 A Public Speaking Simulator for treating anthropophobia
CN109254671A (en) * 2017-07-12 2019-01-22 北京行云时空科技有限公司 Exchange method, device and the equipment of gestures of object are manipulated in AR/VR application
CN109254671B (en) * 2017-07-12 2022-04-15 北京行云时空科技有限公司 Interactive method, device and equipment for controlling object posture in AR/VR application

Similar Documents

Publication Publication Date Title
US11914147B2 (en) Image generation apparatus and image generation method using frequency lower than display frame rate
JP4553362B2 (en) System, image processing apparatus, and information processing method
EP1686554A2 (en) Virtual space generating system, image processing apparatus and information processing method
JP4677281B2 (en) Image processing method and image processing apparatus
JPH1051711A (en) Three-dimension virtual object display device and its method
JP2008210276A (en) Method and device for generating three-dimensional model information
US7123214B2 (en) Information processing method and apparatus
WO2010024486A1 (en) 3d hair style simulation system and method using augmented reality
EP3379494A1 (en) Image processing device, information processing device, and image processing method
US11003408B2 (en) Image generating apparatus and image generating method
JP4580678B2 (en) Gaze point display device
US20100123716A1 (en) Interactive 3D image Display method and Related 3D Display Apparatus
JP2009087161A (en) Image processor and image processing method
JPH1074269A (en) Stereoscopic cg moving image generator
WO2020189274A1 (en) Electronic device, method for controlling electronic device, program, and storage medium
JPH09311618A (en) Virtual reality producing device
JP7262973B2 (en) Information processing device, information processing method and program
CN111345037B (en) Virtual reality image providing method and program using the same
JP3201589B2 (en) Remote visual presentation device with gaze function
JP2017134775A (en) Image processing apparatus, image processing method, and program
JPWO2019093278A1 (en) Information processing device, information processing method, and program
US20230118515A1 (en) Method for changing viewpoint in virtual space
JPH09102052A (en) Steroscopic picture display device
JP2007293412A (en) Information processing method and apparatus
WO2022220208A1 (en) Data processing device, data processing method, program, and data processing system