JPH10334275A - 仮想現実方法及び装置並びに記憶媒体 - Google Patents

仮想現実方法及び装置並びに記憶媒体

Info

Publication number
JPH10334275A
JPH10334275A JP9154306A JP15430697A JPH10334275A JP H10334275 A JPH10334275 A JP H10334275A JP 9154306 A JP9154306 A JP 9154306A JP 15430697 A JP15430697 A JP 15430697A JP H10334275 A JPH10334275 A JP H10334275A
Authority
JP
Japan
Prior art keywords
screen
module
image
virtual reality
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9154306A
Other languages
English (en)
Inventor
Hirokazu Akisada
浩和 秋定
Shunichi Tamai
俊一 玉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP9154306A priority Critical patent/JPH10334275A/ja
Priority to US09/086,310 priority patent/US6400364B1/en
Publication of JPH10334275A publication Critical patent/JPH10334275A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】 アート的効果やエンターテイメント性の高い
VRシミュレーションを実現することが可能な仮想現実
方法及び装置を提供する。 【解決手段】 視線入力スカウタ111内の視線検出部
111aから取得した体験者(ユーザ)の視線位置デー
タに基づいて仮想空間に設定するスクリーンをダイナミ
ックに移動する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、視線検出手段によ
り仮想世界シュミレーションを実現する仮想現実方法及
び装置並びにこれら仮想現実方法及び装置に使用する記
憶媒体に関する。
【0002】
【従来の技術】従来より、バーチャルリアリティー(仮
想現実:電子計算機によって作り出された情報を人間の
感覚器官に提示することによって、実在しない世界や遠
隔にある空間での行動を可能にして疑似体験を行う技
術)による仮想世界のシュミレーションを実現するに
は、次のような方法がとられる場合があった。
【0003】例えば、仮想現実状態を体験する体験者の
頭部に取り付けた3次元位置方向検出装置(例えば、3
SPACE社のFASTRAKは磁気変換技術により実
空間での3次元位置とオイラー角を計測する)からのデ
ータを基に、予め入力したモデル(物体の3次元形状デ
ータ)の空間的・幾何学的位置を考慮した映像をコンピ
ュータに計算させ、この映像を体験者が被ったHMD
(ヘッドマウントディスプレイ、例えばi−glass
es「Virtual−io社」)に表示することで、
体験者は仮想世界の疑似体験(仮想世界シュミレーショ
ン)を行うことができる。
【0004】このようなバーチャルリアリティーを実現
するシステムにおいて体験者が見る映像は、一般的に、
次に説明する3次元コンピュータグラフイックス(C
G)によって形成される。
【0005】3次元物体を表現した画像を形成する3次
元CGにおいては、通常画像を得るためには、大きく分
けて「モデリング」と「レンダリング」という2つの作
業が必要となる。
【0006】◇「モデリング」モデリングは、画像の中
で表現したい対象物の形、色、表面の性質等のデータを
コンピュータの中に作成する作業である。例えば、人間
の画像を作るのであれば、その表面の形がどうなってい
るのか、顔のどの部分がどのような色をしているのか、
光の反射率はどうか、といったデータを作成し、後のレ
ンダリングで使えるような形式でコンピュータ内に格納
する。この様なデータの集まりを物体のモデルという。
【0007】例えば、図17に示すような立方体の形状
モデリングを行う場合、まず、図17のように立方体の
ある1つの頂点を原点としたモデリング座標系を考え
る。そして、この座標系における立方体の8個の頂点の
座標データ及び面ループデータを、例えば図18
(a),(b)に示すように決定する。この様にして得
られた1組の座標データと面ループデータが対象物のモ
デリングデータ(またはモデルデータ)となる。
【0008】◇「レンダリング」レンダリングは、モデ
ルが出来上がった後で、その物体をある位置から見たと
きにどの様に見えるかを考え、その見え方に従った画像
を作成する作業である。従って、レンダリングを行うに
は、モデルの他に、見る位置(視点)や照明に関する条
件を考える必要がある。レンダリング作業を細分化する
と、「投影変換」、「隠面消去」、「シェーディング」
及び「リアルさを出すための工夫」の4つの作業とな
る。
【0009】まず、「投影変換」は、モデルを表わして
いる種々の座標値に対して、視点の位置から見たとき
に、画面上のどの位置に見えるかを計算して、画面上の
座標に変換することである。図19は、投影変換のため
の4つの座標系を示した図である。まず、モデリング座
標系において定義された物体の形状データは、ワールド
座標系(物体の形を表わすときにモデル内の座標に用い
る座標系)におけるデータに変換される。そして、対象
となる物体を見ることができるように、選定したカメラ
をいろいろな方向に向けることで、ビューイング変換
(視野変換)を行う。この際、ワールド座標系で表わさ
れた物体のデータが視点座標系のデータに変換されるこ
とになる。また、この変換のためにワールド座標系の中
にスクリーン(視野窓)を指定し、このスクリーンが物
体の最終的な投影面となる。そして、このスクリーンを
定義するための座標系がUVN座標系(スクリーン座標
系)と呼ばれる。但し、視点前方の全ての物を描くと、
不必要な計算時間をとる場合があるので、作画領域を決
めることも必要である(この作画領域はビューイングボ
リューム「視野空間」と呼ばれ、また、この作業はクリ
ッピングと呼ばれる。また、ビューイングボリュームの
境界の中でカメラから最も近い面をリニアクリッピング
面、最も遠い面をファークリッピング面という)。そし
て、このスクリーンをいろいろな方向に動かすことで視
野変換を行う。そして、視野変換が決定した後、空間に
存在する物体の3次元形状の各点に対して、視点と投影
面の交点を求める操作を行うことで、図20に示すよう
にスクリーン上に投影図を得る(但し、この場合は視点
と投影面との間の距離が有限である透視投影を示してい
る)。従って、投影変換が行われると前述の視点座標系
で表わされたデータは、UVN座標系におけるデータに
変換されることになる。
【0010】次に、「隠面消去」によって、モデルの中
で現在の視点の位置から考えて、どの部分が見えて、ど
の部分が見えないかを判断する。隠面消去の代表的な手
法としては、Zバッファ法やスキャンライン法といった
アルゴリズムが挙げられる。そして、隠面消去が済ん
で、物体のどの部分が見えるかが確定したら、次に照明
を考えて各部分がどの様な色で、どの様な明るさに見え
るかを判断し、その色を画面、即ち、ピクセルに塗る
「シェーディング」の処理を行う。
【0011】そして、通常レンダリングの最後に実行さ
れるのが、「リアルさを出すための工夫」である。これ
は、「投影変換」、「隠面消去」、「シェーディング」
を行って画像を形成しても、得られる絵は実在の物体と
はほど遠い面白みのないものとなってしまうためであ
る。その理由としては、このような手法が、物体の表面
は理想的な平面或いは数式で表わせる完全に滑らかな曲
面であったり、表面の色が面ごとに一定であるといった
仮定に基づいているためである。こうした状況を避け、
得られる画像をより現実に近いものとするために行われ
る代表的手法の1つにテクスチャーマッピングがある。
このテクスチャーマッピングは、予め用意した2次元パ
ターンを3次元空間内の物体モデルの表面に貼り付ける
(数学的にいえば、写像する)手法で、単調な表面で構
成された物体を複雑な表面を持つ物体に疑似的に見せか
けることを目的としている。これにより、例えば単純な
直方体のモデルを金属や石材のように見せることが可能
となる。
【0012】上述した「投影変換」、「隠面消去」、
「シェーディング」及び「リアルさを出すための工夫」
が終了し、UVN座標系によって示された図形は、最終
的なデバイス座標系に変換されて表示装置に表示される
と、1回のレンダリング処理が完了する。図21に、図
20のスクリーンに投影された物体がデバイス座標系に
変換されて表示装置に表示された画像を示す(但し、物
体の背景は塗りつぶされている)。ここで、デバイス座
標系とは、画像の中でピクセルやドットの位置を表わす
ときに用いる座標系のことで、表示画像における座標系
と同一であるものとする(図21におけるaとbは、表
示画像の横と縦の画素数を示す)。
【0013】◇「CGアニメーションの作成方法」上述
したような方法により得られる絵(CG画像)に動きを
付けてコンピュータグラフィックス(CG)アニメーシ
ョンを作成する場合、大別して2つの方法がある。
【0014】まず、第1の手法としては、3次元空間に
置き、照明条件、視点条件(視点の位置・方向・画角)
及び物体のモデルの形状や色等を少しずつ変化させ、そ
の都度レンダリングを行うことで、一連のアニメーショ
ン用の画像群を得た後(または、1つの画像をレンダリ
ングするごとに)、それらをビデオレコーダ等の録画装
置を用いて1コマ1コマ録画(コマ録画)し、全ての録
画が終わった後で再生装置で再生する方法である。この
方法においては、画像のレンダリングの際にかかる時間
は許容される範囲で長くしてよいので(1つの画像のレ
ンダリングに要する時間と作成するアニメーションの全
体の時間に依存する)、画面上に複雑な形状の物体を多
数配置したり、レイトレーシング(光線追跡法)に代表
されるような長い計算時間を必要とするレンダリング手
法を用いて高品質な画像を作成することも可能である。
例えば、現在のテレビコマーシャルやSF映画等で用い
られているCG映像は、ほとんどこの方法によって作成
されたものである。
【0015】次に、第2の手法としては、前述の照明条
件、視点条件及び物体モデルの形状や色を変更しながら
のレンダリング及びそのレンダリング処理によって得ら
れた画像の表示という2つの処理を高速に繰り返すこと
で、CGアニメーションを実行する手法である。この手
法は、一般的にリアルタイムCGレンダリングと呼ばれ
るもので、ユーザからの指示を直接レンダリングに反映
させることで、CGアニメーションの動きをリアルタイ
ムにコントロールするインタラクティブ(対話的)処理
が可能なことが最大の特徴である。その反面、実現に関
しては実行するコンピュータのパフォーマンスにかなり
依存し、画面上に表示できる物体のデータ量に制限があ
ったり、レンダリング手法として単純で高速なものに限
定されてしまうといった制約があるため、前者と比較し
て形成される画像は一般的に低品質なものとなる。な
お、この手法は、各種バーチャルリアリテイーシステム
をはじめ、科学技術シミュレーション、航空機操縦練習
用のフライトシミュレータやゲームセンター用のレーシ
ングゲーム・ファイティングゲーム等に用いられている
ものである。
【0016】次に、視線検出装置について説明する。
【0017】先に本出願人は、パソコン(パーソナルコ
ンピュータ)/テレビのディスプレイ画面、ビデオカメ
ラ/スチルカメラのファインダー画面等を使用者が観察
する際、画面のどこを見ているかを検出する、いわゆる
視線入力装置を提案している。その原理を以下に説明す
る。
【0018】図22は、視線検出方法の原理を示す平面
図、図23は、視線検出方法の原理を示す側面図であ
る。両図において、906a,906bは観察者に対し
て不感の赤外光を放射する発光ダイオード(IRED)
等の光源で、各光源906a,906bは、結像レンズ
911の光軸に対してx方向(水平方向)に略対称に、
また、y方向(垂直方向)にはやや下側に(図23参
照)配置され、観察者の眼球908を発散照明してい
る。観察者の眼球908で反射した照明光の一部は、結
像レンズ911によってイメージセンサー912に結像
する。
【0019】図24は、イメージセンサー912に投影
される眼球像の概略図、図25は、イメージセンサー9
12の出力強度図である。
【0020】以下、図22〜図25を用いて視線の検出
方法について説明する。
【0021】まず、水平面で考えると、図22において
一方の光源906bより放射されたは、観察者の眼球9
08の角膜910(図22及び図23参照)を照明す
る。このとき角膜910の表面で反射した赤外光により
形成される角膜反射像(虚像)d(図22及び図24参
照)は、結像レンズ911によって集光され、イメージ
センサー912上の位置d′(図22参照)に結像す
る。同様に、他方の光源906aより放射されたは、観
察者の眼球908の角膜910(図22及び図23参
照)を照明する。このとき角膜910の表面で反射した
赤外光により形成される角膜反射像(虚像)e(図22
及び図24参照)は、結像レンズ911によって集光さ
れ、イメージセンサー912上の位置e′(図22参
照)に結像する。また、虹彩904の端部a,b(図2
2〜図24参照)からの光束は、結像レンズ911を介
してイメージセンサー912上の位置a′,b′(図2
2及び図24参照)に該端部a,bの像を結像する。結
像レンズ911の光軸に対する眼球908の光軸の回転
角θが小さい場合、虹彩904の端部a,bのx座標を
xa,xbとすると、xa,xbはイメージセンサー9
12上で多数点求めることができる(図24中、×
印)。そこで、まず、円の最小自乗法にて瞳孔中心xc
を算出する。一方、角膜910の曲率中心oのx座標を
xoとすると、眼球908の光軸に対する回転角θx
は、 oc×sinθx=xc−xo … (1) となる。
【0022】また、角膜反射像dとeの中点kに所定の
補正値δxを考慮して求めると、 xk=(xd+xe)/2 xo=(xd+xe)/2+δx … (2) となる。
【0023】ここで、δxは装置の設置方法/眼球距離
等から幾何学的に求められる数値であり、その算出方法
は省略する。
【0024】よって、上記(1)式を(2)式に代入し
てθxを求めると、 θx=arcsin[[xc{(xd+xe/2+δx}]/oc]…(3) となる。
【0025】更に、イメージセンサー912上に投影さ
れた各々の特徴点の座標を、′(ダッシュ)を付けて下
記(4)式に書き換えると、 θx=arcsin[[xc′{(xd′+xe′/2+δx′}]/oc/β]…(4) となる。ここで、βは結像レンズ911に対する眼球9
08の距離szeにより決まる倍率で、実際は角膜反射
像d,eの間隔|xd′−xe′|の関数として求めら
れる。
【0026】垂直面で考えると、図23に示すような構
成となる。ここで、2個の光源906a,906bによ
り生じる角膜反射像d,eは同位置に発生し、これをi
とする。眼球908の垂直方向の回転角θyの算出方法
は上述した水平面の場合とほぼ同一であるが、(2)式
のみ異なり、角膜曲率中心oのy座標をyoとすると 、 yo=yi+δy … (5) となる。ここで、δyは装置の設置方法/眼球距離等か
ら幾何学的に求められる数値であり、その算出方法は省
略する。
【0027】よって、眼球908の垂直方向の回転角θ
yは、 θy=arcsin[[yc′−(yi′+δy′)]/oc/β]…(6) となる。
【0028】更に、ファインダー等の画面上の位置座標
(xn,yn)は、ファインダー光学系で決まる定数m
を用いると、水平面上、垂直面上それぞれ、 xn=ma×arcsin[[xc′−{(xd′+xe′)/2+δx′}]/oc/β]… (7) yn=ma×arcsin[[yc′−(yi′+δy′)]/oc/β]…(8) となる。
【0029】図24及び図25で明らかなように、瞳孔
エッジの検出は、イメージセンサー912の出力波形の
立ち上がり部(xb′)、立ち下がり部(xa′)を利用す
る。また、角膜反射像d,eの座標は鋭い立ち上がり部
(xe′)、立ち下がり(xd′)を利用する。
【0030】次に、視線検出機能を持つパソコン(パー
ソナルコンピュータ)システムの一例を説明する。
【0031】図26は、視線検出機能を持つパソコンシ
ステムの一例を示す概略構成図である。同図に示すパソ
コンシステムは、パソコンの本体部であるパソコンユニ
ット1008、操作者がパソコンの画面を観察するため
のヘッドマウントディスプレイ1006、操作者または
操作者以外の人がパソコンの画面を観察するための外部
モニター1009により構成されている。ここで、ヘッ
ドマウントディスプレイ1006は、ゴーグル、メガネ
フレーム等の部材により操作者の目に近い位置に固定さ
れている。
【0032】ヘッドマウントディスプレイ1006は、
LCD(液晶表示器)等を有する表示素子1002と、
拡大観察系を実現するための特殊プリズム1003、撮
影者の目1005の視線を検出する視線検出回路106
4と、パソコン画面を表示素子1002に表示する表示
回路1007と、撮影者の目1005に赤外光を照射す
る赤外発光ダイオード1060,1061と、赤外光を
結像する結像レンズ1062a,1062bと、これら
結像レンズ1062a,1062bにより結像された赤
外光を電気信号に変換する光電変換素子(イメージセン
サー)1063と、この光電変換素子1063上の撮影
者の目1005の像を基に撮影者の表示素子1002上
の注視点を求める注視点検出回路1064とを具備して
いる。
【0033】次に、ヘッドマウントディスプレイ100
6における観察系の光学作用について説明する。表示素
子1002からの光は、第3の光学作用面cで屈折透過
し、第1の光学作用面aで全反射し、第2の光学作用面
bの反射層で反射し、再び第1の光学作用面aで屈折透
過し、観察者の視度に適合した拡がり角(収束角、平
行)の光束となり、観察者の目1005側に射出する。
ここで、観察者の目1005と表示素子1002の中心
を結ぶ線を基本光軸として示している。観察者の視度に
対する調整は、表示素子1002をプリズム1003の
光軸に沿って平行移動することにより可能となる。ここ
で、プリズム1003は、像性能と歪みを補正し、テレ
セントリックな系とするために、3つの光学作用面をそ
れぞれ回転対称軸を有しない3次元曲面で構成するのが
望ましく、ここでは、基本光軸を含み、紙面に平行な平
面にのみ対称な曲面構造をなしている。
【0034】更に、ヘッドマウントディスプレイ100
6における視線検出系の光学作用について説明する。裸
眼用赤外発光ダイオード1060(奥行き方向に2
個)、眼鏡用赤外発光ダイオード1061(奥行き方向
に2個)から発した光は、第2の光学作用面bに設けら
れた開口部1012,1013,1014,1015を
通して、視線検出系の光軸とは異なる方向から観察者の
目1005を照明する。その照明光は、観察者の角膜9
10、瞳孔で反射散乱され、角膜910で反射した光は
角膜反射像d,eを形成し、瞳孔で散乱した光は瞳孔像
を形成する。これらの光は、第2の光学作用面bに設け
られた開口部1010を通して、結像レンズ1062
a,1062bによりイメージセンサー1063上に結
像される。イメージセンサー1063から得られる観察
者の目1005の画像は、前述した視線検出原理によっ
て構成された注視点検出回路1064によって注視点デ
ータを出力することができる。
【0035】ここで、結像レンズ系は2枚の結像レンズ
1062a,1062bにより構成されている。特に、
結像レンズ1062bは楔形状をしたレンズで、これに
より結像レンズ系を少ないレンズで構成することがで
き、小型化に適している。この結像レンズ1062bの
斜めの面に曲率をつけることで、第2の光学作用面bで
発生する偏心収差を有効に補正することができる。更
に、前記結像レンズ系には少なくとも非球面を1面設け
ると、軸外の結像性能を補正する上で有効である。前記
結像レンズ系の絞りは、第2の光学作用面bに設けた開
口部に近い方が、開口部1010を小さくすることがで
き、観察系に対する中抜けを防ぐのに有効であり、でき
れば開口部と絞りが一致しているのが望ましい。開口部
は、2mmより小さく設定した方が、観察者の目100
5の瞳孔より小さくなり、更に観察系に対する中抜けを
防ぐのに有効である。観察者の目1005を照明する光
は、視感度の低い光が良いので赤外光を使用している。
このとき、前記結像レンズ系に可視光をカットする部材
のレンズを少なくとも1個設けると、視線の検出精度を
向上することができる。
【0036】図27は、プリズム1003を側面から見
た図である。ここで、第2の光学作用面bは、反射用の
ミラーコーティングが施されているが、結像レンズ10
62a,1062b及び赤外発光ダイオード1060,
1061用の開口部、即ち、ミラーコーティング未処理
部(1010は結像用、1012,1013は裸眼用赤
外発光ダイオード用、1014,1015は眼鏡用赤外
発光ダイオード用)が設けられている。なお、前述した
ように、これら開口部1010,1012〜1015は
ファインダー観察系に影響のない程度に小さなものであ
り、2mm以下ぐらいが望ましい。
【0037】このようにミラーコーティング部に開口部
1010,1012〜1015を設け、照明光源である
赤外発光ダイオード1060,1061をプリズム10
03を挟んで観察者の目1005と反対側に配置したた
め、プリズム1003の屈折力を強くし高視野化した場
合でも、観察者の目1005の高さに近い位置から適切
に照明することができる。
【0038】ここで、赤外発光ダイオード1060,1
061は、異なる配置で裸眼用と眼鏡用とを使い分けて
いる。2個の裸眼用赤外発光ダイオード1060は、光
軸からやや離れた下部から同一高さで、光軸対称に狭い
幅で左右1個ずつ、眼鏡用赤外発光ダイオード1061
は、光軸からかなり離れた下部から同一高さで、光軸対
称に広い幅で左右1個ずつ配置されている。その理由は
3つであり、1つ目の理由は、眼球距離によってより良
い照明条件を得るためで、できるだけ目の検出エリアを
均等に照明するような位置になっている。2つ目の理由
は、角膜反射像d,eが瞼でケラレないような高さにす
る必要があるため、裸眼用赤外発光ダイオード1060
は、眼鏡用赤外発光ダイオード1061に比べて高い位
置にある。3つ目の理由は、赤外光が眼鏡に反射してで
きるゴーストが、検出に影響の少ない周辺部に現れるよ
うにするため、眼鏡用赤外発光ダイオード1061は、
裸眼用赤外発光ダイオード1060より左右方向及び下
方向に離れた位置にある。なお、眼球と眼鏡の判別は、
角膜反射像d,eの間隔|xd′−xe′|から、眼球
とプリズム1003との間の距離算出することにより行
う。
【0039】視線検出回路1064は、イメージセンサ
ー1063上の撮影者の目1005の像を基に、前述し
た原理に従い撮影者の表示素子1002の画面上の注視
点を求めるものである。
【0040】次に、パソコンユニットについて説明す
る。
【0041】図26において、1008はパソコンユニ
ットである。ここで、1814はCPU(中央演算処理
装置)で、プログラムやデータの演算を行う。1813
は各デバイスを結ぶシステムバス、1818はROM
(リードオンリーメモリ)1816やRAM(ランタム
アクセスメモリ)1817の制御を行うメモリコントロ
ーラ、1812はビデオRAM1811に書き込まれた
内容がディスプレイに表示されるように制御するビデオ
グラフィックコントローラである。1815はポインテ
イングデバイス或いはキーボードを制御するアクセサリ
ーデバイスコントローラであり、本例においては、ヘッ
ドマウントディスプレイ1006の視線検出回路106
4に接続される。1819は周辺装置制御用のI/Oチ
ャネルであり、本例においては、ヘッドマウントディス
プレイ1006の表示回路1007に接続される。
【0042】以上のような構成において、ヘッドマウン
トディスプレイ1006の視線検出回路1064により
検出された操作者の視線位置情報をパコンユニット10
08のポインティングデバイスとして適用することがで
き、画面のスクロールやメニュー選択に応用することが
できる。また、同時に外部モニター1009にパソコン
画面を表示することができるため、操作者以外の人がパ
ソコン画面を見ることができる。また、片目用のヘッド
マウントディスプレイを用いれば、操作者自身も外部モ
ニター1009を見ることができる。
【0043】
【発明が解決しようとする課題】しかしながら、上述し
た従来例にあっては、仮想空間に設定するスクリーン
(投影面)は視点に対して固定の矩形平面であり、対象
となる物体のモデルデータからこのスクリーンへの1点
透視による写像を考えることによって画像の計算を行っ
ているため、形成画像に含まれる物体の見え方(空間的
・幾何学的)は現実世界を模倣したものになった。
【0044】図8(a)は従来例における仮想空間での
視点、スクリーン、物体(3個の物体が横一列に並んで
いる)の関係を示したものであるが(説明の簡素化のた
め、図では視点を真上から眺めたように示している)、
この場合にレンダリングされる画像は図8(b)に示す
ようになった。このため、体験者が観察する映像は、時
にはアート的表現が欠けたり、エンターテイメント性が
乏しくなってしまう場合があった。
【0045】また、体験者が注目している物体を強調す
るような場合には、マウス等のポインティングデバイス
で指定された物体の色を変えたり、大きさを変えたりす
る方法がとられることがあるが、この場合、体験者は意
識的にマウスを動かす必要があるため、体験者の意思を
即座に反映しているとはいえなかった。
【0046】本発明は上述した従来の技術の有するこの
ような問題点に鑑みてなされたものであり、その第1の
目的とするところは、アート的表現やエンターテイメン
ト性が高い仮想世界の疑似体験が可能な仮想現実方法及
び装置を提供しようとするものである。
【0047】また、本発明の第2の目的とするところ
は、上述したような仮想現実装置を円滑に制御すること
ができる記憶媒体を提供しようとするものである。
【0048】
【課題を解決するための手段】上記第1の目的を達成す
るために請求項1記載の仮想現実方法は、物体の3次元
形状データを構築するモデリング工程と、仮想現実状態
を体験する体験者の視線位置を検出する視線位置検出工
程と、3次元仮想空間に視点を設定する視点設定工程
と、前記視線位置検出工程により検出された視線位置デ
ータに基づいて仮想空間にスクリーンを設定するスクリ
ーン設定工程と、前記視点設定工程により設定した視点
から前記物体のモデルデータを空間的・幾何学的配置を
考慮して見たときの情景を前記スクリーン上に写像する
スクリーン写像工程と、前記スクリーン写像工程により
写像された前記スクリーン上の情景をデバイス座標系に
写像する画像生成工程と、前記画像生成工程により生成
した画像を映像信号に変換する映像変換工程と、前記映
像変換工程により変換後の映像を表示する映像表示工程
とを有することを特徴とする。
【0049】また、上記第1の目的を達成するために請
求項2記載の仮想現実方法は、請求項1記載の仮想現実
方法において、前記映像表示工程は、前記体験者の目の
直前に置かれ且つ前記体験者の頭部に対して固定の状態
で設定された表示器に映像を表示することを特徴とす
る。
【0050】また、上記第1の目的を達成するために請
求項3記載の仮想現実方法は、請求項1記載の仮想現実
方法において、前記スリーンが任意の形状であり、ま
た、体験者の指示によりこのスクリーンの形状を切り換
えられることを特徴とする。
【0051】また、上記第1の目的を達成するために請
求項4記載の仮想現実装置は、物体の3次元形状データ
を構築するモデリング手段と、仮想現実状態を体験する
体験者の頭部の視線位置を検出する視線位置検出手段
と、3次元仮想空間に視点を設定する視点設定手段と、
前記視線検出手段により検出された視線位置データに基
づいて仮想空間にスクリーンを設定するスクリーン設定
手段と、前記視点設定手段により設定された視点から前
記物体のモデルデータを空間的・幾何学的配置を考慮し
て見たときの情景を前記スクリーン上に写像するスクリ
ーン写像手段と、前記スクリーン写像手段により写像さ
れた前記スクリーン上の情景をデバイス座標系に写像す
る画像生成手段と、画像を映像信号に変換する映像変換
手段と、前記映像変換手段により変換後の映像を表示す
る映像表示手段とを有することを特徴とする。
【0052】また、上記第1の目的を達成するために請
求項5記載の仮想現実装置は、請求項4記載の仮想現実
装置において、前記映像表示手段は、前記体験者の目の
直前に置かれ且つ前記体験者の頭部に対して固定の状態
で設定されることを特徴とする。
【0053】また、上記第1の目的を達成するために請
求項6記載の仮想現実装置は、請求項4記載の仮想現実
装置において、前記スリーンが任意の形状であり、ま
た、体験者の指示によりこのスクリーンの形状を切り換
えるスクリーン形状切換手段を有することを特徴とす
る。
【0054】また、上記第1の目的を達成するために請
求項7記載の仮想現実方法は、物体の3次元形状データ
を構築するモデリング工程と、仮想現実状態を体験する
体験者の視線位置を検出する視線位置検出工程と、3次
元仮想空間に視点を設定する視点設定工程と、前記視線
位置検出工程により検出された視線位置データに基づい
て仮想空間にスクリーンを設定するスクリーン設定工程
と、前記視線位置検出工程により検出された視線位置デ
ータに基づいて前記モデルデータを変更するモデルデー
タ変更工程と、前記視点設定工程により設定した視点か
ら前記物体のモデルデータを空間的・幾何学的配置を考
慮して見たときの情景を前記スクリーン上に写像するス
クリーン写像工程と、前記スクリーン写像工程により写
像された前記スクリーン上の情景をデバイス座標系に写
像する画像生成工程と、前記画像生成工程により生成し
た画像を映像信号に変換する映像変換工程と、前記映像
変換工程により変換後の映像を表示する映像表示工程と
を有することを特徴とする。
【0055】また、上記第1の目的を達成するために請
求項8記載の仮想現実方法は、請求項7記載の仮想現実
方法において、前記映像表示工程は、前記体験者の目の
直前に置かれ且つ前記体験者の頭部に対して固定の状態
で設定された表示器に映像を表示することを特徴とす
る。
【0056】また、上記第1の目的を達成するために請
求項9記載の仮想現実方法は、請求項7記載の仮想現実
方法において、前記スリーンが任意の形状であり、ま
た、体験者の指示によりこのスクリーンの形状を切り換
えられることを特徴とする。
【0057】また、上記第1の目的を達成するために請
求項10記載の仮想現実方法は、前記モデルデータ変更
工程を実行するためのモデルデータ変更手段が複数存在
し、また、このモデルデータ変更手段は複数同時選択可
能であり、更に、体験者の指示により選択内容を変更で
きることを特徴とする。
【0058】また、上記第1の目的を達成するために請
求項11記載の仮想現実装置は、物体の3次元形状デー
タを構築するモデリング手段と、仮想現実状態を体験す
る体験者の視線位置を検出する視線位置検出手段と、3
次元仮想空間に視点を設定する視点設定手段と、前記視
線位置検出手段により検出された視線位置データに基づ
いて仮想空間にスクリーンを設定するスクリーン設定手
段と、前記視線位置検出手段により検出された視線位置
データに基づいて前記モデルデータを変更するモデルデ
ータ変更手段と、前記視点設定手段により設定した視点
から前記物体のモデルデータを空間的・幾何学的配置を
考慮して見たときの情景を前記スクリーン上に写像する
スクリーン写像手段と、前記スクリーン写像手段により
写像された前記スクリーン上の情景をデバイス座標系に
写像する画像生成手段と、前記画像生成手段により生成
した画像を映像信号に変換する映像変換手段と、前記映
像変換手段により変換後の映像を表示する映像表示手段
とを有することを特徴とする。
【0059】また、上記第1の目的を達成するために請
求項12記載の仮想現実方法は、請求項11記載の仮想
現実装置において、前記映像表示手段は、前記体験者の
目の直前に置かれ且つ前記体験者の頭部に対して固定の
状態で設定された表示器に映像を表示することを特徴と
する。
【0060】また、上記第1の目的を達成するために請
求項13記載の仮想現実装置は、請求項7記載の仮想現
実装置において、前記スリーンが任意の形状であり、ま
た、体験者の指示によりこのスクリーンの形状を切り換
えるスクリーン形状切換手段を有することを特徴とす
る。
【0061】また、上記第1の目的を達成するために請
求項14記載の仮想現実装置は、前記モデルデータ変更
手段が複数存在し、また、このモデルデータ変更手段を
複数同時選択する選択手段を有し、更に、体験者の指示
により選択内容を変更できることを特徴とする。
【0062】また、上記第2の目的を達成するために本
発明の請求項15記載の記憶媒体は、仮想現実状態を実
現する仮想現実装置を制御するプログラムを格納する記
憶媒体であって、物体の3次元形状データを構築するモ
デリングモジュールと、仮想現実状態を体験する体験者
の視線位置を検出する視線位置検出モジュールと、3次
元仮想空間に視点を設定する視点設定モジュールと、前
記視線位置検出モジュールにより検出された視線位置デ
ータに基づいて仮想空間にスクリーンを設定するスクリ
ーン設定モジュールと、前記視点設定モジュールにより
設定された視点から前記物体のモデルデータを空間的・
幾何学的配置を考慮して見たときの情景を前記スクリー
ン上に写像するスクリーン写像モジュールと、前記スク
リーン写像モジュールにより写像された前記スクリーン
上の情景をデバイス座標系に写像する画像生成モジュー
ルと、前記画像生成モジュールにより生成された画像を
映像信号に変換する映像変換モジュールと、前記映像変
換モジュールにより変換後の映像を表示する映像表示モ
ジュールとを有するプログラムを格納したことを特徴と
する。
【0063】また、上記第2の目的を達成するために本
発明の請求項16記載の記憶媒体は、請求項15記載の
記憶媒体において、前記映像表示モジュールは、前記体
験者の目の直前に置かれ且つ前記体験者の頭部に対して
固定の状態で設定された表示器に映像を表示することを
特徴とする。
【0064】また、上記第2の目的を達成するために本
発明の請求項17記載の記憶媒体は、仮想現実状態を実
現する仮想現実装置を制御するプログラムを格納する記
憶媒体であって、物体の3次元形状データを構築するモ
デリングモジュールと、仮想現実状態を体験する体験者
の視線位置を検出する視線位置検出モジュールと、3次
元仮想空間に視点を設定する視点設定モジュールと、前
記視線位置検出モジュールにより検出された視線位置デ
ータに基づいて仮想空間にスクリーンを設定するスクリ
ーン設定モジュールと、前記視点設定モジュールにより
設定された視点から前記物体のモデルデータを空間的・
幾何学的配置を考慮して見たときの情景を前記スクリー
ン上に写像するスクリーン写像モジュールと、前記スク
リーン写像モジュールにより写像された前記スクリーン
上の情景をデバイス座標系に写像する画像生成モジュー
ルと、前記画像生成モジュールにより生成された画像を
映像信号に変換する映像変換モジュールと、前記映像変
換モジュールにより変換後の映像を表示する映像表示モ
ジュールとを有するプログラムを格納したことを特徴と
する。
【0065】また、上記第2の目的を達成するために本
発明の請求項18記載の記憶媒体は、請求項17記載の
記憶媒体において、前記映像表示モジュールは、前記体
験者の目の直前に置かれ且つ前記体験者の頭部に対して
固定の状態で設定された表示器に映像を表示することを
特徴とする。
【0066】また、上記第2の目的を達成するために本
発明の請求項19記載の記憶媒体は、請求項17記載の
記憶媒体において、前記モデルデータ変更モジュールを
実行するモデルデータ変更手段は複数存在し、また、こ
れらモデルデータ変更手段は複数同時選択が可能であ
り、更に前記体験者の指示により選択内容を変更できる
ことを特徴とする。
【0067】
【発明の実施の形態】以下、本発明の各実施の形態を図
1〜図16に基づき説明する。
【0068】(第1の実施の形態)まず、本発明の第1
の実施の形態を図1〜図11に基づき説明する。図1
は、本発明の第1の実施の形態に係る仮想現実装置の概
念を示す図であり、同図において、3は視線入力スカウ
タ(ヘッドマウントディスプレイの一種)で、眼鏡のよ
うな形状をなしている。本装置による仮想現実状態の体
験者1が、この視線入力スカウタ3を眼鏡と同様に装着
することによって、該視線入力スカウタ3内のモニタ3
aを見ることで映像を観察することができ、また、付属
のイヤホーンにより音声を聞くことができる。また、こ
の装置に組み込まれた視線検出装置3bは、体験者1の
視線位置を検出し、その検出データをコンピュータ5に
送信する。
【0069】2は磁気による3Dセンサー(位置方向検
出装置)で、トランスミッタ2a(体験者1の近辺に固
定される)及びレシーバ2b(体験者1の頭部に取り付
けられている)が接続されている。この3Dセンサー2
は、トランスミッタ2aが発生した磁界中におけるレシ
ーバ2bの誘起電流の大きさを処理することで、体験者
(頭部)1の空間的位置(x,y,z)と方向(ピッ
チ:Pitch、ヨー:Yaw、ロール:Roll)とを検出し、そ
の検出データをコンピュータ5に送信する。
【0070】コンピュータ5は、まず、3Dセンサー2
から収集した体験者1の実空間における3次元位置デー
タと方向のデータを用いて、仮想空間での視点(カメ
ラ)の位置及び方向を決める。次に、視線入力スカウタ
3の視線検出装置3bから収集した体験者1の視線位置
データを用いて仮想空間におけるスクリーン(投影面)
の位置を設定し、このスクリーンに対して予め入力され
たモデル(物体)を写像することによって、3次元仮想
空間での情景を示す映像(2次元画像)6を計算する。
この映像6は、スキャンコンバータ4を介して視線入力
スカウタ3内のモニタ3aへ送信され、体験者1は目の
前のこの映像6を観察することにより、仮想空間の疑似
体験をする。
【0071】図2は、本実施の形態に係る仮想現実装置
のシステム構成を示すブロック図である。同図におい
て、101は制御装置で、本装置の構成要素全体の制御
を司るものである。102はデータ入力装置で、例えば
キーボード等からなり、物体のモデリングデータ、シミ
ュレーションデータ、視点条件等の初期値の入力を行う
ものである。103はコマンド入力装置で、例えばマウ
ス等からなり、シミュレーションの開始・終了等を指示
するものである。104はファイル装置で、不揮発性メ
モリ等からなり、モデルデータ等を格納する。105は
演算装置で、各種変数の更新及びモデルを用いた3次元
画像の生成等を行うものである。106はメモリ装置
で、本装置の起動中に物体のモデリングデータ及び視点
条件等の各種データを格納するものである。107はビ
デオメモリ装置で、レンダリング後の画像のピクセル値
を格納するものである。108はデータ表示装置で、C
RT(陰極線管)モニタ等からなり、制御装置101か
らの指示情報やビデオメモリ装置107内の画像を表示
したり、ユーザへの指示や入力したデータ等を表示する
ものであり、主にシステムのオペレータのデータ確認の
ために用いられる。109は映像変換装置で、例えばス
キャンコンバータ等からなり、ビデオメモリ装置107
内の画像データを映像信号として出力するものである。
110は位置方向検出装置で、例えば磁気センサー等か
らなり、仮想世界シミュレーションの体験者の実空間に
おける位置(x,y,z)及び方向(ピッチ:Pitch、
ヨー:Yaw、ロール:Roll)を検出・出力するものであ
る。この位置方向検出装置110には、トランスミッタ
部110a(体験者の近辺に固定)及びレシーバ部11
0b(体験者の頭部に固定)が接続される。111は視
線入力スカウタで、仮想世界シミュレーションの体験者
が装着するものであり、視線検出部111a(体験者の
視線データの検出)と映像表示部111b(映像変換装
置109からの映像信号を表示)とで構成されている。
【0072】次に、本実施の形態に係る仮想現実装置の
VR(バーチャルリアリティー)シミュレーション処理
動作について、図3に基づき説明する。図3は、本実施
の形態に係る仮想現実装置のVRシミュレーション処理
動作を示すフローチャートである。
【0073】仮想現実装置の体験者がコマンド入力装置
103であるマウスを用い、プログラム開始の指示を与
えると、VRシミュレーション処理動作が開始する。
【0074】まず、ステップS301でスクリーン(投
影面)の初期化を行う。即ち、制御装置101の命令に
よりデータ表示装置108は、図4に示すような表示を
行う。ここで、体験者はコマンド入力装置103である
マウスにより、データ表示装置108に表示されている
ものの中から希望のスクリーン形状を選択した後、図示
しないOKボタンを押すと、選択された形状のスクリー
ン形状のID(0〜3のどれか)が変数Wに代入され
る。但し、ここで0〜3のIDが示すスクリーン形状
は、それぞれ図5(a)、(b)、(c)、(d)に示
すようなものとする。
【0075】次に、ステップS302で位置方向検出装
置110の初期化を行う。即ち、仮想現実装置の体験者
は視線入力スカウタ111と位置方向検出装置110を
装着した体験者1を適当な位置で直立して真正面を見て
いる状態で静止させる。そして、この状態で体験者がコ
マンド入力装置103であるマウスにより指示を与える
と、位置方向検出装置110はこの状態の位置と方向と
を、原点(0.0,0.0,0.0)及び原回転角(0.0,0.0,0.0:
即ち、回転がない状態)として初期化する。次に、ステ
ップS303で制御装置101の命令により演算装置1
05は、3次元仮想空間に設定する視点(カメラ)を、
例えば「位置:0.0,1.0,0.0、方向:0.0,0.0,-1.0「方
向ベクトル」、視角「横・縦」:0.8,0.6)で初期化す
る。
【0076】次に、ステップS304でモデルデータの
ロードを行う。即ち、制御装置101は、予め作成され
たファイル装置104に格納されている4個のモデル
(モデル1〜モデル4)ファイルからデータをメモリ装
置106にロードする。なお、各モデルデータは、前述
した座標値と面ループデータとで記述されており(ま
た、ファイルの最後に仮想空間におけるモデルの初期位
置も追加されている)、以下のようなものであるとす
る。
【0077】▽モデル1 「座標値データ」 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,-0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.
5,-0.5)、7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) ※左端の“8”はモデル1の図形が、1( )〜8( )の8
個の3次元空間における座標によって定義されているこ
とを示しており、( )内が3次元(x,y,z)座標
値である。 「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(4267
3) (0.0 1.0 -2.0) → 初期値 ※左端の“6”はモデル1の図形が( )で示す6個の面
で構成されていることを示し、( )内の数字は上記の
3次元空間における座標の番号を示している。
【0078】例えば、(41234)は、上記の座標 4:(-0.
5,0.5,-0.5)、1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.
5,0.5,-0.5)、4:(-0.5,0.5,-0.5)を結んで形成される閉
曲面を意味している。
【0079】ここで閉曲面には表、裏があるため、例え
ば座標 4,1,2,3,4を順次左回りに結んで閉曲面を形成
したとき、手前側を表面とする。 ▽モデル2 「座標値データ」 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,0.
5)、4:(0.5,0.5,-0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.5,
-0.5)、7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) 「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(4267
3)、 (0.0 1.0 -2.0) → 初期値 ▽モデル3 「座標値データ」 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,-0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.
5,-0.5)、7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) 「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(4267
3)、 (0.0 1.0 -2.0) → 初期値 ▽モデル4 4 (-5.0,0.0,0.0)、(5.0,0.0,0.0)、(5.0,0.0,-10.0)、(-
5.0,0.0,-10.0)、 1 (42341) (0.0 0.0 -5.0) → 初期値 なお、本実施の形態では、説明の簡素化のためにモデル
の色や表面のテクスチャーは考慮にいれないものとす
る。
【0080】次に、ステップS305で制御装置101
の命令によりコマンド入力装置103であるマウスは、
体験者からVRシミュレーション処理終了の指示がある
か否かを判断し、指示がある場合はVRシミュレーショ
ンを終了し、指示がない場合はステップS306へ進
む。
【0081】このステップS306では、スクリーン
(投影面)形状の変更を行う。即ち、制御装置101の
命令によりコマンド入力装置103であるマウスは、体
験者からスクリーン(投影面)形状の切り換え指示の有
無を判断し、切り換え指示が有る場合は制御装置101
は、前記ステップS304と同様の方法を実行し、体験
者に新しいスクリーン形状を選択させる。
【0082】次に、ステップS307で制御装置101
の命令により位置方向検出装置110は、体験者1の頭
部1005の位置(x、y、z)及び回転角(ピッチ:
Pitch、ヨー:Yaw、ロール:Roll)を検出し、その検出
データをメモリ装置106へ格納する。
【0083】次に、ステップS308で制御装置101
の命令により視線入力スカウタ111内の視線検出部1
11aは、体験者1の視線位置データS(s、t)を検
出し、その検出データをメモリ装置106へ格納する。
なお、この視線位置データSは、図4に示すように視線
入力スカウタ111内の映像表示部111bにおける視
野フレーム(横と縦の長さをそれぞれa,bとする)の
左上頂点を基準とした位置を示すものとする。
【0084】次にステップS309で体験者1の頭部の
方向に対する視線方向のずれ角度を計算する。即ち、制
御装置101の命令により演算装置105は、図6に示
す視線入力スカウタ111の視野フレームと、図7に示
す仮想空間における視点のニアクリッピング面を対応さ
せることで、縦横方向のずれ角度(α、β)を下記
(9)式及び(10)式によりそれぞれ計算し、その算
出データをメモリ装置106に格納する。
【0085】 α=arctan(lx/h) … (9) β=arctan(ly/h) … (10) 但し、lx、lyは下記(11)式及び(12)式によ
りそれぞれ表わされ、また、hは視点から前記ニアクリ
ッピング面までの距離を示すものとする。
【0086】 lx=(m/a)・(s−a/s) … (11) ly=(n/b)・(t−b/t) … (12) 次にステップS310で仮想空間内の視点(カメラ)の
移動処理を行う。なお、この処理の中で視点(カメラ)
方向の補正が実行される。
【0087】即ち、制御装置101の命令により演算装
置105は、まず、メモリ装置106内に格納されてい
るデータである体験者1の頭部の回転角(ピッチ:Pitc
h、ヨー:Yaw、ロール:Roll)=(β,α,γ)を用い
て、下記(13)式により方向ベクトルv’=(p,
q,r)(ワールド座標)に変換する。
【0088】 v’=Ax・Ay・Az・v … (13) 但し、vはz軸方向の単位ベクトル(0.0,-1)、また、
Ax・Ay・Azは、それぞれx軸、y軸、z軸の周り
の回転を示す行列(3×3)で、 1 0 0 cosβ 0 sinβ cosγ -sinγ 0 0 cosα -sinα 0 1 0 sinγ cosγ 0 0 sinα cosα sinβ 0 cosβ 0 0 1 であるとする。
【0089】次に、演算装置105は、仮想空間におい
て視点(カメラ)の位置を(x、y、z)に、また、方
向を(p’、q’、r’)にそれぞれ設定する。
【0090】次にステップS311でスクリーン(投影
面)の回転処理を行う。即ち、制御装置101の命令に
より演算装置105は、まず、前記ステップS310で
の視点ベクトルを前記ステップS309でのずれ角度分
だけ回転させた新しいベクトルv“(スクリーン方向ベ
クトル)を計算する。次に、視点位置からこのスクリー
ン方向ベクトルの示す方向に変数Wで示されるスクリー
ン(現在選択されているスクリーン)を設定する。
【0091】次にステップS312でスクリーンへの写
像処理を行う。即ち、制御装置101の命令により演算
装置105は、仮想空間に設定されているモデル1〜4
のデータをスクリーンに1点透視法により投影する。
【0092】なお、図8〜図11にモデルの各スクリー
ンへの投影の様子(視点を上方から見た様子)を示す
(但し、図8〜図11ではモデル4のみ省略してあ
る)。
【0093】次にステップS313で最終的な画像の計
算を行う。即ち、制御装置101の命令により演算装置
105は、スクリーンの有効範囲に投影された情景をビ
デオメモリ装置107(デバイス座標系)に写像する。
但し、ここでの写像は、スクリーン面の有効範囲におけ
る任意の距離がデバイス座標系において保存されるよう
なものであるとする(詳細は省略する)。また、スクリ
ーンの有効範囲とは、ビューイングボリュームによって
切り取られるスクリーン内の範囲を示すものとする(ス
クリーンはビューイングボリュームを切り取るのに十分
な大きさがあるものとする)。
【0094】なお、図8(b)、図9(b)、図10
(b)、図11(b)に、それぞれ図8(a)、図9
(a)、図10(a)、図11(a)の場合のスクリー
ンから写像されたビデオメモリ装置107上の画像を示
す(但し、この図8〜図11ではモデル4のみ省略して
ある)。
【0095】次に、ステップS314で体験者1への映
像の表示を行う。即ち、制御装置101の命令によりビ
デオメモリ装置107内の画像を映像変換装置109を
介して、視線入力スカウタ111内の映像表示部111
bへ送信する。この結果、視線入力スカウタ111を装
着した体験者1は、選択されているスクリーンに応じて
図8(b)、図9(b)、図10(b)、図11(b)
に示すような情景を見ることになる。
【0096】前記ステップS314の処理を終了後は、
前記ステップS305へ戻る。
【0097】なお、本実施の形態においては、3Dセン
サー(位置方向検出装置)を用いた仮想現実装置につい
て説明したが、本発明はこれに限られるものではない。
【0098】(第2の実施の形態)次に、本発明の第2
の実施の形態を図12〜図14に基づき説明する。な
お、本実施の形態に係る仮想現実装置のシステム構成
は、上述した第1の実施の形態における図1及び図2と
同一であるから、これに両図を流用して説明する。
【0099】図12は、本発明の第2の実施の形態に係
る仮想現実装置のVRシミュレーションの流れを示すフ
ローチャートである。なお、本実施の形態においては、
説明の簡素化のため、3次元仮想空間に設定するスクリ
ーン(投影面)は矩形平面であって、視点(カメラ)に
対して固定であるとするが、本発明はこれに限られるも
のではない。
【0100】仮想現実装置の体験者がコマンド入力装置
103であるマウスを用い、プログラム開始の指示を与
えるとVRシミュレーションが開始する。
【0101】まず、ステップS1201で注目モデルの
強調方法の初期化を行う。即ち、制御装置101の命令
によりデータ表示装置108は、図13に示すような表
示を行う。体験者はコマンド入力装置103であるマウ
スによりデータ表示装置108上の文字列から強調方法
を選択した後(強調方法は複数選択可能であるが、図1
3中の「1.色づけ(色変更)」と「2.テクスチャー
貼り付け(テクスチャー変更)」だけは同時に選択でき
ないものとする)、図示しないOKボタンを押すと、選
択された強調方法がメモリ装置106に格納される。な
お、本実施の形態においては、説明の簡素化のために各
強調方法の細かな内容の指定、例えば色変更におけるカ
ラー値、テクスチャー変更におけるテクスチャー画像や
マッピング手法、スケール変更における倍率や変倍の有
無、或いは運動指定の際の運動の内容(回転、振動等)
等は実行しないものとするが、本発明はこの限りではな
い。
【0102】次に、ステップS1202で位置方向検出
装置110の初期化を行う。即ち、仮想現実装置の体験
者は、視線入力スカウタ111と位置方向検出装置11
0とを装着した体験者を適当な位置に直立して真正面を
見ている状態で静止させる。そして、この状態で体験者
がコマンド入力装置103であるマウスにより指示を与
えると、位置方向検出装置110はこの状態の位置と方
向とを、原点(0.0,0.0,0.0)及び原回転角(0.0,0.0,
0.0:即ち、回転がない状態)として初期化する。
【0103】次に、ステップS1203で制御装置10
1の命令により演算装置105は、3次元仮想空間に設
定する視点(カメラ)を、例えば「位置:0.0,1.0,0.
0、方向:0.0,0.0,-1.0「方向ベクトル」、視角「横・
縦」:0.8,0.6)で初期化する。
【0104】次に、ステップS1204で制御装置10
1は、予め作成されたファイル装置104に格納されて
いる4個のモデル(モデル1〜モデル4)ファイルから
データをメモリ装置106にロードする。なお、各モデ
ルデータは従来の技術で示した座標値と面ループデータ
とで記述されており(また、ファイルの最後に仮想空間
におけるモデルの初期位置も追加されている)、以下の
ようなものであるとする。
【0105】▽モデル1 「座標値データ」 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.5,
-0.5)、7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) 「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(4267
3)、 (0.0 1.0 -2.0) → 初期値 ▽モデル2 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,-0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.5,
-0.5)7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) 6 (41234)、(45876)、(41562)、(44378)、(41485)、(42673) (0.0 1.0 -2.0) → 初期値 ▽モデル3 「座標値データ」 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,-0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.
5,-0.5)、7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) 「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(42673) (0.0 1.0 -2.0) → 初期値 ▽モデル4 4 (-5.0,0.0,0.0)、(5.0,0.0,0.0)、(5.0,0.0,-10.0)、(-
5.0,0.0,-10.0)、 1 (42341) (0.0 0.0 -5.0) → 初期値 次に、ステップS1205で制御装置101の命令によ
りコマンド入力装置103であるマウスは、体験者から
VRシミュレーション処理終了の指示があるか否かを判
断し、指示がある場合はVRシミュレーションを終了
し、指示がない場合はステップS1206へ進む。
【0106】このステップS1206では、注目モデル
の強調方法の変更を行う。即ち、制御装置101の命令
によりコマンド入力装置103であるマウスは、体験者
から強調方法の変更の指示があるか否かを判断する。そ
して、強調方法の変更の指示がある場合は、前記ステッ
プS1201に示した方法により強調方法を再度指定す
ることで変更を行い、強調方法の変更の指示がない場合
は、何も処理せずに次のステップS1207へ進む。
【0107】このステップS1207では、制御装置1
01の命令により位置方向検出装置110は、体験者の
頭部の位置P(x、y、z)及び回転角(ピッチ:Pitc
h、ヨー:Yaw、ロール:Roll)を検出し、その検出デー
タをメモリ装置106に格納する。
【0108】次に、ステップS1208で制御装置10
1の命令により視線入力スカウタ111内の視線検出部
111aは、体験者の視線位置データS(s、t)を検
出し、その検出データをメモリ装置106に格納する。
なお、この視線位置データは、図6に示すように視線入
力スカウタ111内の映像表示部111bにおける視野
フレーム(横と縦の長さをそれそれa,bとする)の左
上頂点を基準とした位置を示すものとする。
【0109】次に、ステップS1209で仮想空間内の
視点(カメラ)の移動処理を行う。即ち、制御装置10
1の命令により演算装置105は、まず、メモリ装置1
06内に格納されているデータである体験者1の頭部の
回転角(ピッチ:Pitch、ヨー:Yaw、ロール:Roll)=
(β,α,γ)を用いて、下記(13)式により方向ベ
クトルv’=(p,q,r)(ワールド座標)に変換す
る。
【0110】 v’=Ax・Ay・Az・v … (13) 但し、vはz軸負方向の単位ベクトル(0.0,-1)、ま
た、Ax・Ay・Azは、それぞれx軸、y軸、z軸の
周りの回転を示す行列(3×3)で、 1 0 0 cosβ 0 sinβ cosγ -sinγ 0 0 cosα -sinα 0 1 0 sinγ cosγ 0 0 sinα cosα sinβ 0 cosβ 0 0 1 であるとする。
【0111】次に、演算装置105は、仮想空間におい
て視点(カメラ)の位置を(x、y、z)に、また、方
向をv‘(p、q、r)にそれぞれ設定する。
【0112】次に、ステップS1210で体験者の視線
位置に対応する3次元仮想空間における注目モデルの判
断を行う。即ち、制御装置101の命令により演算装置
105は、3次元モデルからスリーンへの写像の逆変換
を考慮することにより、前記ステップS1208におい
て取得した体験者の視線位置S(s、t)に写像される
モデルがあるか否かを判断する。そして、写像されるモ
デルがある場合は、このモデルのID(1〜4)を、写
像されるモデルがない場合は、0を変数z(注目モデル
のIDを示す変数)に代入する。なお、説明の簡素化の
ために3次元モデルからスリーンへの写像の逆変換は公
知であるから、その説明を省略する。
【0113】次に、ステップS1211でスリーンへの
写像処理を行う。即ち、制御装置101の命令により演
算装置105は、仮想空間に設定されているモデル1〜
モデル4のデータをスリーンに1点透視法により投影す
る。この際、z>0の場合は、現在選択されている強調
方法により変数zが示すモデルを強調した状態で且つそ
の他のモデルは無変化の状態でスクリーン(投影面)へ
の投影処理を実行する。また、z=0の場合は、全モデ
ルが無変化の状態でスクリーン(投影面)への投影処理
を実行する。
【0114】次に、ステップS1212で最終的な画像
の計算を行う。即ち、制御装置101の命令により演算
装置105は、スクリーンに投影された情景をビデオメ
モリ装置107(デバイス座標系)に写像する。
【0115】次に、ステップS1213で体験者への映
像の表示を行う。即ち、制御装置101の命令によりビ
デオメモリ装置107内の画像を映像変換装置109を
介して、視線入力スカウタ111内の映像表示部111
bへ送信する。この結果、視線入力スカウタ111を装
着した体験者1は、図14(b)に示すような情景を見
ることになる(図14(b)ではモデル3がスケール拡
大により強調されており、また、説明の簡素化のためモ
デル4は省略されている)。
【0116】前記ステップS1213を終了後は、前記
ステップS1205へ戻る。
【0117】(第3の実施の形態)次に、本発明の記憶
媒体について、図15及び図16に基づき説明する。
【0118】仮想現実状態を実現する仮想現実装置を制
御するプログラムを格納する記憶媒体には、少なくとも
図15に示すように、「モデリングモジュール」、「視
線位置検出モジュール」、「視点設定モジュール」、
「スクリーン設定モジュール」、「スクリーン写像モジ
ュール」、「画像生成モジュール」、「映像変換モジュ
ール」、「映像表示モジュール」の各モジュールを有す
るプログラムを格納すればよい。
【0119】ここで、「モデリングモジュール」は物体
の3次元形状(モデル)データを構築するプログラムモ
ジュールである。また、「視線位置検出モジュール」は
前記体験者の視線位置を検出するプログラムモジュール
である。また、「視点設定モジュール」は3次元仮想空
間に視点(カメラ)を設定するプログラムモジュールで
ある。また、「スクリーン設定モジュール」は前記視線
位置検出モジュールにより検出された視線位置データに
基づいて仮想空間にスクリーン(投影面)を設定するプ
ログラムモジュールである。また、「スクリーン設定モ
ジュール」は前記視点設定モジュールにより設定された
視点から前記物体のモデルデータを空間的・幾何学的配
置を考慮して見たときの情景を前記スクリーン上に写像
するプログラムモジュールである。また、「画像生成モ
ジュール」は前記スクリーン写像モジュールにより写像
された前記スクリーン上の情景をデバイス座標系に写像
するプログラムモジュールである。また、「映像変換モ
ジュール」は前記画像生成モジュールにより生成した画
像を映像信号に変換するプログラムモジュールである。
また、「映像表示モジュール」は前記映像変換モジュー
ルにより変換後の映像を表示するプログラムモジュール
である。
【0120】また、前記視点設定モジュールは、前記位
置方向検出モジュールにより検出された位置データ及び
方向データに基づいて視点を設定する。また、前記映像
表示モジュールは、前記体験者の目の直前に置かれ且つ
前記体験者の頭部に対して固定の状態で設定された表示
器に映像を表示する。
【0121】また、仮想現実状態を実現する仮想現実装
置を制御するプログラムを格納する別の記憶媒体には、
少なくとも図16に示すように、「モデリングモジュー
ル」、「視線位置検出モジュール」、「視点設定モジュ
ール」、「スクリーン設定モジュール」、「モデルデー
タ変更モジュール」、「スクリーン写像モジュール」、
「画像生成モジュール」、「映像変換モジュール」、
「映像表示モジュール」の各モジュールを有するプログ
ラムを格納すればよい。
【0122】ここで、「モデリングモジュール」は物体
の3次元形状(モデル)データを構築するプログラムモ
ジュールである。また、「視線位置検出モジュール」は
前記体験者の視線位置を検出するプログラムモジュール
である。また、「視点設定モジュール」は3次元仮想空
間に視点(カメラ)を設定するプログラムモジュールで
ある。また、「スクリーン設定モジュール」は前記視線
位置検出モジュールにより検出された視線位置データに
基づいて仮想空間にスクリーン(投影面)を設定するプ
ログラムモジュールである。また、「モデルデータ変更
モジュール」は、前記視線位置検出モジュールにより検
出された視線位置データに基づいてモデルデータを変更
するプログラムモジュールである。また、「スクリーン
設定モジュール」は前記視点設定モジュールにより設定
された視点から前記物体のモデルデータを空間的・幾何
学的配置を考慮して見たときの情景を前記スクリーン上
に写像するプログラムモジュールである。また、「画像
生成モジュール」は前記スクリーン写像モジュールによ
り写像された前記スクリーン上の情景をデバイス座標系
に写像するプログラムモジュールである。また、「映像
変換モジュール」は前記画像生成モジュールにより生成
した画像を映像信号に変換するプログラムモジュールで
ある。また、「映像表示モジュール」は前記映像変換モ
ジュールにより変換後の映像を表示するプログラムモジ
ュールである。
【0123】また、前記視点設定モジュールは、前記位
置方向検出モジュールにより検出された位置データ及び
方向データに基づいて視点を設定する。また、前記映像
表示モジュールは、前記体験者の目の直前に置かれ且つ
前記体験者の頭部に対して固定の状態で設定された表示
器に映像を表示する。
【0124】また、前記モデルデータ変更モジュールを
実行するモデルデータ変更手段は複数存在し、また、こ
れらモデルデータ変更手段は複数同時選択が可能であ
り、更に前記体験者の指示により選択内容を変更でき
る。
【0125】
【発明の効果】以上詳述したように本発明の仮想現実方
法及び装置によれば、視線検出手段から取得した体験者
(ユーザ)の視線位置データに基づいて仮想空間に設定
するスクリーンをダイナミックに移動することで、形成
画像に含まれる物体の空間的・幾何学的な見え方を現実
とは異なる面白みのあるものにできるため、アート的効
果やエンターテイメント性の高いVRシミュレーション
を実現することが可能となるという効果を奏する。
【0126】また、本発明の仮想現実方法及び装置によ
れば、体験者の視線位置に投影されているモデルの属性
(形状、大きさ、色、テクスチャー、動作等)をダイナ
ミックに変更することで、体験者の意思を即座に反映し
て体験者が注目しているモデルを強調することが可能に
なり、これにより、VRシミュレーションのアート的表
現やエンターテイメント性(デモ効果)も向上させるこ
とが可能であるという効果を奏する。
【0127】また、本発明の仮想現実方法及び装置によ
れば、視線の被検出者は、その目の直前に固定されたデ
ィスプレイを見ることにより臨場感のある映像を観賞す
ることができるという効果を奏する。
【0128】また、本発明の仮想現実方法及び装置によ
れば、体験者の指示により仮想空間に設定するスクリー
ンの形状を自由に変化させ、仮想空間に設定した物体の
空間的・幾何学的な見え方を変化させることができると
いう効果を奏する。本発明の記憶媒体によれば、上述し
たような仮想現実装置を円滑に制御することができると
いう効果を奏する。
【0129】また、本発明の仮想現実方法及び装置によ
れば、体験者が注目しているモデルに与える強調方法を
切り換えることが可能であるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る仮想現実装置
の概念を示す図である。
【図2】本発明の第1の実施の形態に係る仮想現実装置
のシステム構成を示すブロック図である。
【図3】本発明の第1の実施の形態に係る仮想現実装置
のVRシミュレーション処理動作を示すフローチャート
である。
【図4】本発明の第1の実施の形態に係る仮想現実装置
のスクリーン選択時の画面を示す図である。
【図5】本発明の第1の実施の形態に係る仮想現実装置
の4種類のスクリーンを説明するための図である。
【図6】本発明の第1の実施の形態に係る仮想現実装置
の視線入力スカウタ内の映像表示部における視野フレー
ムを示す図である。
【図7】本発明の第1の実施の形態に係る仮想現実装置
の視点とニアクリッピング面を説明する図である。
【図8】本発明の第1の実施の形態に係る仮想現実装置
のスクリーンへの投影の様子と形成画像を示す図であ
る。
【図9】本発明の第1の実施の形態に係る仮想現実装置
のスクリーンへの投影の様子と形成画像を示す図であ
る。
【図10】本発明の第1の実施の形態に係る仮想現実装
置のスクリーンへの投影の様子と形成画像を示す図であ
る。
【図11】本発明の第1の実施の形態に係る仮想現実装
置のスクリーンへの投影の様子と形成画像を示す図であ
る。
【図12】本発明の第2の実施の形態に係る仮想現実装
置のVRシミュレーション処理動作を示すフローチャー
トである。
【図13】本発明の第2の実施の形態に係る仮想現実装
置の注目モデル強調方法選択の際の画面を示す図であ
る。
【図14】本発明の第2の実施の形態に係る仮想現実装
置のスクリーンへの投影の様子と形成画像を示す図であ
る。
【図15】本発明の記憶媒体に格納されるプログラムの
各プログラムモジュールを示す図である。
【図16】本発明の別の記憶媒体に格納されるプログラ
ムの各プログラムモジュールを示す図である。
【図17】一般的なモデリング座標系における3次元物
体を示す図である。
【図18】一般的なモデルデータの一例を示す図であ
る。
【図19】一般的な投影変換のための4つの座標を示す
図である。
【図20】一般的な投影変換を示す図である。
【図21】一般的なスクリーンから投影された表示画像
の一例を示す図である。
【図22】一般的な視線検出方法の原理を示す平面図で
ある。
【図23】一般的な視線検出方法の原理を示す側面図で
ある。
【図24】一般的な仮想現実装置のイメージセンサに投
影される眼球像の概略図である。
【図25】一般的な仮想現実装置のイメージセンサの出
力強度図である。
【図26】一般的な視線検出機能を持つパソコンシステ
ムの一例を示す概略構成図である。
【図27】一般的な視線検出機能を持つパソコンシステ
ムのプリズムの構成図である。
【符号の説明】
1 体験者 2 3Dセンサ 2a トランスミッタ 2b レシーバ 3 視線入力スカウタ(HMD) 3a モニタ 3b 視線検出装置 4 スキャンコンバータ 5 コンピュータ 6 体験者が見る3次元仮想空間 101 制御装置 102 データ入力装置 103 コマンド入力装置 104 ファイル装置 105 演算装置 106 メモリ装置 107 ビデオメモリ装置 108 データ表示装置 109 映像変換装置 110 位置方向検出装置 110a トランスミッタ部 110b レシーバ部 111 視線入力スカウタ 111a 視線検出部 111b 映像表示部

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】 物体の3次元形状データを構築するモデ
    リング工程と、仮想現実状態を体験する体験者の視線位
    置を検出する視線位置検出工程と、3次元仮想空間に視
    点を設定する視点設定工程と、前記視線位置検出工程に
    より検出した視線位置データに基づいて仮想空間にスク
    リーンを設定するスクリーン設定工程と、前記視点設定
    工程により設定された視点から前記物体のモデルデータ
    を空間的・幾何学的配置を考慮して見たときの情景を前
    記スクリーン上に写像するスクリーン写像工程と、前記
    スクリーン写像工程によりスクリーン上に写像された情
    景をデバイス座標系に写像する画像生成工程と、前記画
    像生成工程により生成した画像を映像信号に変換する映
    像変換工程と、前記映像変換工程により変換後の映像を
    表示する映像表示工程とを有することを特徴とする仮想
    現実方法。
  2. 【請求項2】 前記映像表示工程は、前記体験者の目の
    直前に置かれ且つ前記体験者の頭部に対して固定の状態
    で設定された表示器に映像を表示することを特徴とする
    請求項1記載の仮想現実方法。
  3. 【請求項3】 前記スクリーンが任意の形状であり、ま
    た、前記体験者の指示により前記スクリーンの形状が切
    り換えられることを特徴とする請求項1記載の仮想現実
    方法。
  4. 【請求項4】 物体の3次元形状データを構築するモデ
    リング手段と、仮想現実状態を体験する体験者の視線位
    置を検出する視線位置検出手段と、3次元仮想空間に視
    点を設定する視点設定手段と、前記視線位置検出手段に
    より検出した視線位置データに基づいて仮想空間にスク
    リーンを設定するスクリーン設定手段と、前記視点設定
    手段により設定された視点から前記物体のモデルデータ
    を空間的・幾何学的配置を考慮して見たときの情景を前
    記スクリーン上に写像するスクリーン写像手段と、前記
    スクリーン写像手段によりスクリーン上に写像された情
    景をデバイス座標系に写像する画像生成手段と、前記画
    像生成手段により生成した画像を映像信号に変換する映
    像変換手段と、前記映像変換手段により変換後の映像を
    表示する映像表示手段とを有することを特徴とする仮想
    現実装置。
  5. 【請求項5】 前記映像表示手段は、前記体験者の目の
    直前に置かれ且つ前記体験者の頭部に対して固定の状態
    で設定された表示器に映像を表示することを特徴とする
    請求項4記載の仮想現実装置。
  6. 【請求項6】 前記スクリーンが任意の形状であり、ま
    た、前記体験者の指示により前記スクリーンの形状を切
    り換えるスクリーン形状切換手段を有することを特徴と
    する請求項4記載の仮想現実装置。
  7. 【請求項7】 物体の3次元形状データを構築するモデ
    リング工程と、仮想現実状態を体験する体験者の視線位
    置を検出する視線位置検出工程と、3次元仮想空間に視
    点を設定する視点設定工程と、前記視線位置検出工程に
    より検出した視線位置データに基づいて仮想空間にスク
    リーンを設定するスクリーン設定工程と、前記視線位置
    検出工程により検出した視線位置データに基づいてモデ
    ルデータを変更するモデルデータ変更工程と、前記視点
    設定工程により設定された視点から前記物体のモデルデ
    ータを空間的・幾何学的配置を考慮して見たときの情景
    を前記スクリーン上に写像するスクリーン写像工程と、
    前記スクリーン写像工程によりスクリーン上に写像され
    た情景をデバイス座標系に写像する画像生成工程と、前
    記画像生成工程により生成した画像を映像信号に変換す
    る映像変換工程と、前記映像変換工程により変換後の映
    像を表示する映像表示工程とを有することを特徴とする
    仮想現実方法。
  8. 【請求項8】 前記映像表示工程は、前記体験者の目の
    直前に置かれ且つ前記体験者の頭部に対して固定の状態
    で設定された表示器に映像を表示することを特徴とする
    請求項7記載の仮想現実方法。
  9. 【請求項9】 前記スクリーンが任意の形状であり、ま
    た、前記体験者の指示により前記スクリーンの形状が切
    り換えられることを特徴とする請求項7記載の仮想現実
    方法。
  10. 【請求項10】 前記モデルデータ変更工程を実行する
    モデルデータ変更手段は複数存在し、また、これらモデ
    ルデータ変更手段は複数同時選択が可能であり、更に前
    記体験者の指示により選択内容を変更できることを特徴
    とする請求項7記載の仮想現実方法。
  11. 【請求項11】 物体の3次元形状データを構築するモ
    デリング手段と、仮想現実状態を体験する体験者の視線
    位置を検出する視線位置検出手段と、3次元仮想空間に
    視点を設定する視点設定手段と、前記視線位置検出手段
    により検出した視線位置データに基づいて仮想空間にス
    クリーンを設定するスクリーン設定手段と、前記視線位
    置検出手段により検出した視線位置データに基づいてモ
    デルデータを変更するモデルデータ変更手段と、前記視
    点設定手段により設定された視点から前記物体のモデル
    データを空間的・幾何学的配置を考慮して見たときの情
    景を前記スクリーン上に写像するスクリーン写像手段
    と、前記スクリーン写像手段によりスクリーン上に写像
    された情景をデバイス座標系に写像する画像生成手段
    と、前記画像生成手段により生成した画像を映像信号に
    変換する映像変換手段と、前記映像変換手段により変換
    後の映像を表示する映像表示手段とを有することを特徴
    とする仮想現実装置。
  12. 【請求項12】 前記映像表示手段は、前記体験者の目
    の直前に置かれ且つ前記体験者の頭部に対して固定の状
    態で設定された表示器に映像を表示することを特徴とす
    る請求項11記載の仮想現実装置。
  13. 【請求項13】 前記スクリーンが任意の形状であり、
    また、前記体験者の指示により前記スクリーンの形状を
    切り換えるスクリーン形状切換手段を有することを特徴
    とする請求項11記載の仮想現実装置。
  14. 【請求項14】 前記モデルデータ変更手段は複数存在
    し、また、これらモデルデータ変更手段を複数同時選択
    する選択手段を有し、更に前記体験者の指示により選択
    内容を変更できることを特徴とする請求項11記載の仮
    想現実装置。
  15. 【請求項15】 仮想現実状態を実現する仮想現実装置
    を制御するプログラムを格納する記憶媒体であって、物
    体の3次元形状データを構築するモデリングモジュール
    と、仮想現実状態を体験する体験者の視線位置を検出す
    る視線位置検出モジュールと、3次元仮想空間に視点を
    設定する視点設定モジュールと、前記視線位置検出モジ
    ュールにより検出した視線位置データに基づいて仮想空
    間にスクリーンを設定するスクリーン設定モジュール
    と、前記視点設定モジュールにより設定された視点から
    前記物体のモデルデータを空間的・幾何学的配置を考慮
    して見たときの情景を前記スクリーン上に写像するスク
    リーン写像モジュールと、前記スクリーン写像モジュー
    ルによりスクリーン上に写像された情景をデバイス座標
    系に写像する画像生成モジュールと、前記画像生成モジ
    ュールにより生成した画像を映像信号に変換する映像変
    換モジュールと、前記映像変換モジュールにより変換後
    の映像を表示する映像表示モジュールを有するプログラ
    ムを格納したことを特徴とする記憶媒体。
  16. 【請求項16】 前記映像表示モジュールは、前記体験
    者の目の直前に置かれ且つ前記体験者の頭部に対して固
    定の状態で設定された表示器に映像を表示することを特
    徴とする請求項15記載の記憶媒体。
  17. 【請求項17】 仮想現実状態を実現する仮想現実装置
    を制御するプログラムを格納する記憶媒体であって、物
    体の3次元形状データを構築するモデリングモジュール
    と、仮想現実状態を体験する体験者の視線位置を検出す
    る視線位置検出モジュールと、3次元仮想空間に視点を
    設定する視点設定モジュールと、前記視線位置検出モジ
    ュールにより検出した視線位置データに基づいて仮想空
    間にスクリーンを設定するスクリーン設定モジュール
    と、前記視線位置検出モジュールにより検出した視線位
    置データに基づいてモデルデータを変更するモデルデー
    タ変更モジュールと、前記視点設定モジュールにより設
    定された視点から前記物体のモデルデータを空間的・幾
    何学的配置を考慮して見たときの情景を前記スクリーン
    上に写像するスクリーン写像モジュールと、前記スクリ
    ーン写像モジュールによりスクリーン上に写像された情
    景をデバイス座標系に写像する画像生成モジュールと、
    前記画像生成モジュールにより生成した画像を映像信号
    に変換する映像変換モジュールと、前記映像変換モジュ
    ールにより変換後の映像を表示する映像表示モジュール
    とを有するプログラムを格納したことを特徴とする記憶
    媒体。
  18. 【請求項18】 前記映像表示モジュールは、前記体験
    者の目の直前に置かれ且つ前記体験者の頭部に対して固
    定の状態で設定された表示器に映像を表示することを特
    徴とする請求項17記載の記憶媒体。
  19. 【請求項19】 前記モデルデータ変更モジュールを実
    行するモデルデータ変更手段は複数存在し、また、これ
    らモデルデータ変更手段は複数同時選択が可能であり、
    更に前記体験者の指示により選択内容を変更できること
    を特徴とする請求項17記載の記憶媒体。
JP9154306A 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体 Pending JPH10334275A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP9154306A JPH10334275A (ja) 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体
US09/086,310 US6400364B1 (en) 1997-05-29 1998-05-27 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9154306A JPH10334275A (ja) 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体

Publications (1)

Publication Number Publication Date
JPH10334275A true JPH10334275A (ja) 1998-12-18

Family

ID=15581244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9154306A Pending JPH10334275A (ja) 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体

Country Status (2)

Country Link
US (1) US6400364B1 (ja)
JP (1) JPH10334275A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002073287A2 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Mixed reality system which reduces measurement errors of viewpoint position and direction of an observer
JP2009163754A (ja) * 2001-09-11 2009-07-23 Puredepth Ltd 計器への改良
US8061845B2 (en) 2005-12-19 2011-11-22 Brother Kogyo Kabushiki Kaisha Image display system and image display method
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
US8928682B2 (en) 2009-07-07 2015-01-06 Pure Depth Limited Method and system of processing images for improved display
US9292150B2 (en) 2003-05-16 2016-03-22 Pure Depth Limited Display control system
US9524700B2 (en) 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
CN114494594A (zh) * 2022-01-18 2022-05-13 中国人民解放军63919部队 基于深度学习的航天员操作设备状态识别方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163320A (en) * 1998-05-29 2000-12-19 Silicon Graphics, Inc. Method and apparatus for radiometrically accurate texture-based lightpoint rendering technique
JP4078716B2 (ja) * 1998-06-29 2008-04-23 ソニー株式会社 画像処理装置および方法、並びに提供媒体
JP3851014B2 (ja) * 1999-03-01 2006-11-29 富士通株式会社 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体
US6784882B1 (en) * 1999-09-10 2004-08-31 Sony Computer Entertainment Inc. Methods and apparatus for rendering an image including portions seen through one or more objects of the image
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
JP3647376B2 (ja) * 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US7904826B2 (en) * 2002-03-29 2011-03-08 Microsoft Corporation Peek around user interface
JP4096622B2 (ja) * 2002-05-21 2008-06-04 株式会社セガ 画像処理方法及び装置、並びにプログラム及び記録媒体
US20040061663A1 (en) * 2002-09-27 2004-04-01 Cybereyes, Inc. Virtual reality display apparatus and associated display mounting system
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
JP2006026790A (ja) * 2004-07-15 2006-02-02 Fanuc Ltd 教示モデル生成装置
US7925391B2 (en) * 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
US7305127B2 (en) * 2005-11-09 2007-12-04 Aepx Animation, Inc. Detection and manipulation of shadows in an image or series of images
US7477777B2 (en) * 2005-10-28 2009-01-13 Aepx Animation, Inc. Automatic compositing of 3D objects in a still frame or series of frames
JP5141525B2 (ja) * 2008-03-06 2013-02-13 セイコーエプソン株式会社 シミュレーション装置
JP4849091B2 (ja) * 2008-04-23 2011-12-28 セイコーエプソン株式会社 映像表示装置、映像表示方法
US20120044141A1 (en) * 2008-05-23 2012-02-23 Hiromu Ueshima Input system, input method, computer program, and recording medium
US9250704B2 (en) * 2009-03-25 2016-02-02 Sony Corporation Information processing device and information processing method
JP5343781B2 (ja) * 2009-09-15 2013-11-13 株式会社リコー 情報処理装置およびプログラム
US20130202190A1 (en) * 2012-02-02 2013-08-08 Sheng-Chun Niu Image processing apparatus and image processing method
JP5824537B2 (ja) * 2014-01-16 2015-11-25 キヤノン株式会社 情報処理装置および情報処理方法
US9274340B2 (en) * 2014-02-18 2016-03-01 Merge Labs, Inc. Soft head mounted display goggles for use with mobile computing devices
JP6521707B2 (ja) * 2014-07-10 2019-05-29 キヤノン株式会社 穿刺プランニング装置及び穿刺システム
US9665989B1 (en) * 2015-02-17 2017-05-30 Google Inc. Feature agnostic geometric alignment
KR102402048B1 (ko) 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
US10089751B1 (en) * 2017-05-31 2018-10-02 Booz Allen Hamilton Inc. Video processing technique for 3D target location identification
KR101918853B1 (ko) * 2017-06-28 2018-11-15 민코넷주식회사 게임 리플레이 영상 생성 시스템
JP7472899B2 (ja) * 2019-03-19 2024-04-23 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
JP3318680B2 (ja) * 1992-04-28 2002-08-26 サン・マイクロシステムズ・インコーポレーテッド 画像生成方法及び画像生成装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002073287A2 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Mixed reality system which reduces measurement errors of viewpoint position and direction of an observer
WO2002073287A3 (en) * 2001-03-13 2003-10-30 Canon Kk Mixed reality system which reduces measurement errors of viewpoint position and direction of an observer
JP2009163754A (ja) * 2001-09-11 2009-07-23 Puredepth Ltd 計器への改良
JP2010211194A (ja) * 2001-09-11 2010-09-24 Puredepth Ltd 計器への改良
US9292150B2 (en) 2003-05-16 2016-03-22 Pure Depth Limited Display control system
US8061845B2 (en) 2005-12-19 2011-11-22 Brother Kogyo Kabushiki Kaisha Image display system and image display method
US9524700B2 (en) 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
US8928682B2 (en) 2009-07-07 2015-01-06 Pure Depth Limited Method and system of processing images for improved display
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
CN114494594A (zh) * 2022-01-18 2022-05-13 中国人民解放军63919部队 基于深度学习的航天员操作设备状态识别方法
CN114494594B (zh) * 2022-01-18 2023-11-28 中国人民解放军63919部队 基于深度学习的航天员操作设备状态识别方法

Also Published As

Publication number Publication date
US6400364B1 (en) 2002-06-04

Similar Documents

Publication Publication Date Title
JPH10334275A (ja) 仮想現実方法及び装置並びに記憶媒体
US11928784B2 (en) Systems and methods for presenting perspective views of augmented reality virtual object
CN109791442B (zh) 表面建模***和方法
US20210097875A1 (en) Individual viewing in a shared space
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US20190051051A1 (en) System and Method for Generating a Progressive Representation Associated with Surjectively Mapped Virtual and Physical Reality Image Data
JP7369212B2 (ja) 空間コンピューティングのための写実的キャラクタ構成
US11645823B2 (en) Neutral avatars
JPH11161814A (ja) 画像生成装置、シミュレーション装置及び情報記憶媒体
US11961194B2 (en) Non-uniform stereo rendering
JPH11195131A (ja) 仮想現実方法及び装置並びに記憶媒体
JP2023536064A (ja) 交互サンプリングを使用した眼追跡
JPH10334274A (ja) 仮想現実方法及び装置並びに記憶媒体
JPH06337756A (ja) 3次元位置指定方法および仮想空間立体視装置
JPH11328437A (ja) ゲ―ム機及びゲ―ム機における画像処理方法
CN111275612A (zh) 一种基于vr技术的k线显示、交互方法及装置
JP2018112885A (ja) プログラム及び画像生成システム