JP3711025B2 - Virtual reality space movement control device - Google Patents

Virtual reality space movement control device Download PDF

Info

Publication number
JP3711025B2
JP3711025B2 JP2001024619A JP2001024619A JP3711025B2 JP 3711025 B2 JP3711025 B2 JP 3711025B2 JP 2001024619 A JP2001024619 A JP 2001024619A JP 2001024619 A JP2001024619 A JP 2001024619A JP 3711025 B2 JP3711025 B2 JP 3711025B2
Authority
JP
Japan
Prior art keywords
space
virtual
search
plan
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001024619A
Other languages
Japanese (ja)
Other versions
JP2001338311A (en
Inventor
秀樹 室田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2001024619A priority Critical patent/JP3711025B2/en
Publication of JP2001338311A publication Critical patent/JP2001338311A/en
Application granted granted Critical
Publication of JP3711025B2 publication Critical patent/JP3711025B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はバーチャルリアリティ(以下VR)技術に関する。VR技術は、コンピュータゲーム、デジタルアーカイヴシステム、プレゼンテーションシステムなど様々な分野に応用が図られている。
【0002】
【従来技術】
VR技術を用いた従来のデジタルアーカイブシステム、プレゼンテーションシステムにおいては、(1)利用者がVR空間を自由に歩き回る、(2)制作側が定義したパスにしたがい移動を行う、(3)名称で定義された場所に移動するなどの方法で、空間の中を移動し鑑賞していた。
【0003】
【発明が解決しようとする課題】
上記(1)または(2)の方法の場合、利用者が求める物体が空間上のどこにあるかが直感的に分かり難くまた、場合によっては利用者にとっては不要な空間中を歩き回ると言う、煩雑な操作をしなければならなかった。また、(3)の名称で定義されたシーン(場所、時刻)に移動する場合も、その場所が仮想空間中の何処で、時刻は何時なのか、またそのシーンが本当に求めているシーンなのかを確認するには不十分な為、結局、複数のシーンを幾つも移動し、求めるシーンを探す必要があった。この為、利用者は本来興味のある物体を鑑賞したいにもかかわらず、それ以外の煩雑な操作に時間をかける必要があり、十分満足の行く物では無かった。
【0004】
本発明はこのような問題点を考慮してなされたものであり、不要で煩雑な空間移動操作をする必要がなく、利用者が仮想空間上のどこにいるか簡単に把握でき、興味のある地点・シーンに簡単に移動可能な、仮想現実空間移動制御装置を提供することを課題とする。
【0005】
【課題を解決するための手段】
そこで、本発明では、
仮想空間を表現するデータを記憶するVRデータ格納部と、
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置を記憶管理する位置情報管理部または現在のカメラ位置及び時刻を記憶管理するシーン情報管理部のいずれかと、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、記憶手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置において、
前記記憶手段には、仮想世界に存在するオブジェクトを、その識別番号と、その存在位置情報と、そのオブジェクトに関連するテキスト情報により定めた第1のテーブルと、
仮想世界に事前に定められたカメラマークを、そのカメラ位置と注視方向、そのカメラマークが描画する景観図データ、その景観図に描画されるオブジェクトの識別番号、そのカメラマークに関連するテキスト情報により記述した第2のテーブルと、を保持しておき、前記仮想空間探索案内手段は、前記カメラマークを前記仮想空間の平面図上にマークするとともに、そのカメラマークの景観図とそのカメラマークに関連するテキスト情報から案内画面を構成して平面図上の前記マークと関連付けて前記副画面枠内に表示して、仮想現実空間内のオブジェクトの存在を利用者に案内させるとともに、この平面図上のカメラマークまたは案内画面枠が選択されることを、そのカメラマークの位置への移動指示として受付け、前記シーン情報管理部または位置情報管理部へその移動指示を伝えるように構成することで課題を解決することを要旨とする。
【0006】
また、本発明の第2の観点は、
仮想空間を表現するデータを記憶するVRデータ格納部と、
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置を記憶管理する位置情報管理部と、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置であって、
検索キーから、仮想世界の該当するオブジェクトの位置情報、該オブジェクトを描画するカメラ位置情報、および該オブジェクトの名称などの該オブジェクトに関連するテキスト情報を抽出するように構成されたデータベース部をさらに備え、
前記仮想空間探索案内手段は、前記いずれかの画面上に検索キー入力部と検索開始ボタンを設け、鑑賞したいオブジェクトのキーを前記検索キー入力部に入力されて検索開始指示を受けると、前記副画面枠内に、検索結果である該当オブジェクトに関連するテキストを表示した案内テキスト枠を設けるとともに、前記平面図上に、検索結果である該オブジェクトの存在位置を表すオブジェクトマークを前記案内テキスト枠と関連付けて表示して、検索されたオブジェクトを利用者に案内するとともに、このオブジェクトマークまたは前記案内テキスト枠が選択されると、または、無条件で自動的に、前記位置情報管理部へ検索結果である該オブジェクトを描画するカメラ位置情報を伝え、前記VR描画部にそのカメラ位置からの仮想世界の画面を主画面枠に表示させるよう構成された仮想現実空間移動制御装置により課題を解決することである。
【0007】
また、本発明の第3の観点は、
仮想空間を表現するデータを記憶するVRデータ格納部と、
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置を記憶管理する位置情報管理部と、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置であって、
検索キーから、仮想世界の該当するオブジェクトの位置情報、該オブジェクトを描画するカメラ位置情報、該カメラ位置から描画される景観図画像および該オブジェクトの名称などの該オブジェクトに関連するテキスト情報を抽出するように構成されたデータベース部をさらに備え、
前記仮想空間探索案内手段は、前記いずれかの画面上に検索キー入力部と検索開始ボタンを設け、鑑賞したいオブジェクトのキーを前記検索キー入力部に入力されて検索開始指示を受けると、前記副画面枠内に、
検索結果である該当オブジェクトに関連するテキストと検索結果である該オブジェクトが描画される景観図を表示した案内画面枠を設けるとともに、前記平面図上に、検索結果である該オブジェクトを描画するカメラ位置を表すカメラマークを前記案内画面枠と関連付けて表示するとともに検索結果である該オブジェクトの存在位置を表すオブジェクトマークを表示して、検索されたオブジェクトを利用者に案内するとともに、このカメラマークまたは前記案内画面枠が選択されると、前記位置情報管理部へこのカメラマークの表すカメラ位置情報を伝え、前記VR描画部にそのカメラ位置からの仮想世界の画面を主画面枠に表示させるよう構成された仮想現実空間移動制御装置により課題を解決するものである。これは第2の観点の仮想現実空間移動制御装置において、検索の結果抽出されたオブジェクトへ誘導する案内テキスト枠の代わりにテキスト情報だけでなく景観画像を含めた案内画面枠を利用できるよう機能拡張したものといえる。
【0008】
また、本発明の第4の観点は、
仮想空間を表現するデータを記憶するVRデータ格納部と、
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置および時刻を記憶管理するシーン情報管理部と、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置であって、
検索キーから、仮想世界の該当するオブジェクトの位置情報、該オブジェクトを描画するカメラ位置および時刻の情報、該カメラ位置から描画される景観図画像および該オブジェクトの名称などの該オブジェクトに関連するテキスト情報を抽出するように構成されたデータベース部をさらに備え、
前記仮想空間探索案内手段は、前記いずれかの画面上に検索キー入力部と検索開始ボタンを設け、鑑賞したいオブジェクトのキーを前記検索キー入力部に入力されて検索開始指示を受けると、前記副画面枠内に、
検索結果である該当オブジェクトに関連するテキストと検索結果である該オブジェクトが描画される景観図を表示した案内画面枠を設けるとともに、前記平面図上に、検索結果である該オブジェクトを描画するカメラ位置を表すカメラマークを前記案内画面枠と関連付けて表示するとともに検索結果である該オブジェクトの存在位置を表すオブジェクトマークを表示して、検索されたオブジェクトを利用者に案内するとともに、このカメラマークまたは前記案内画面枠が選択されると、前記シーン情報管理部へ選択されたカメラマークのカメラ位置情報および時刻情報を伝え、前記VR描画部にそのカメラ位置およびその時刻からの仮想世界の画面を主画面枠に表示させるよう構成された仮想現実空間移動制御装置により課題を解決する。第3の観点の位置情報管理部を、現在のカメラ位置および時刻を記憶管理するシーン情報管理部に置き換えるなどして、時間情報をも管理できるよう機能拡張したものである。
【0012】
【発明の実施の形態】
以下、本発明の実施形態を、図面を用いて、3つの実施例により説明してゆく。
【0013】
《実施例1》図1に本発明の一実施例である仮想現実空間移動制御装置1の全体構成図を示す。仮想現実空間移動制御装置1は、VR描画部10、位置情報管理部20、VRデータ格納部30、平面図データ格納部40、VR空間移動指示部50、データベース部60から構成される。VR空間移動指示部50は、仮想空間探索案内手段の一形態である。
【0014】
VR描画部10は、VRデータ格納部30より、形状データ、質感データ、ライトデータ、カメラデータを読み込み、VR空間を描画する。位置情報管理部20は、VR空間上のカメラの視点のX,Y,Z座標、注視点のX,Y,Z座標(以下これらを総称してカメラ位置と呼ぶ)を格納する。VRデータ格納部30には、VR空間を定義する形状データ、質感データ、ライトデータ、カメラデータが格納されている。前述のVR描画部10がこれらのデータを読込み主画面枠に描画を行う。
【0015】
図2は前記形状データを説明する図である。形状データは、頂点の座標を定める頂点テーブルと面と頂点との関係を記述する面テーブルで構成され、VR空間上のオブジェクトの図形的な定義を与える。色データは、上記形状データにおける各面の色の属性値であり、環境色:Ra,Ga,Ba、拡散色:Rd,Gd,Bd、鏡面色:Rs,Gs,Bs、鏡面係数:Sで表される。ライトデータは、VR空間中に置かれる光源の3次元的な位置(X,Y,Z)、方向(NX,NY,NZ)、強度、色(R,G,B)を表す。カメラデータは、立上げ時のカメラ位置、画角、視野角を定義する。
【0016】
平面図データ格納部40には、上記VRデータ格納部に格納されているVRデータに対応した平面図が格納されている。
【0017】
VR空間移動指示部50は、平面図データ格納部40、位置情報管理部20及び、データベース部60の後述する空間位置情報管理データベース(以下空間位置情報管理DB)61を読込み、VR空間の移動を補助するための副画面(平面図、平面図上でのカメラ位置、その位置に対応した案内画面)を提示すると伴に、マウス等の入力装置からのVR空間の移動指示を受け付ける。また、利用者から受付けた検索キーワードをデータベース部に問合せ、検索結果の提示を行う。
【0018】
データベース部60には空間位置情報管理DB61と物体情報管理データベース(以下物体情報管理DB)62の2種類のデータベースが保持されている。
【0019】
空間位置情報管理DB61には、VR空間内のカメラ情報と、それに対応する平面図上の位置・説明用画像、説明文などの関連情報が格納される。図17にこのデータベースの内容の一部を示している。各項目の意味は以下の通りである。
・VR視点位置
VR描画部で描画しているVR空間に対応したカメラ視点情報
・VR注視点位置
VR描画部で描画しているVR空間に対応したカメラ注視点情報
・平面図視点位置
平面図上でのカメラ位置(正規化されている)
・平面図注視点位置
平面図上でのカメラ注視点位置(正規化されている)
・名称
その位置の名前
・画像ファイル名
その位置の説明図のファイル名(主に、その位置から見た景観図)
・説明情報
説明用テキストデータ
・描画物体番号
その位置から見た時に描画される物体番号。(図18の物体情報管理DB62 の物体番号と対応している。)
・初期描画フラグ
起動時に位置情報を表示するかのフラグ。○が表示で、×が非表示である。こ こで、○の物体だけが起動時に表示される。それ以外は、検索で該当した時に 描画される。
【0020】
次に物体情報管理DB62を説明する。このデータベースは、VR空間上に配置された物体の属性及び、その物体の平面図上の位置を格納しているデータベースである。図18に本データベースの一部を示す。各項目の意味は以下の通りである。
・物体番号
物体につけた番号。空間位置情報管理DB61の描画物体番号と対応している 。
・名称
物体の名称。配置される物(絵画)や建物の名前(噴水など)が格納されてい る。
・検索キー情報
検索するさいに用いる、キーワードを格納する。実際に検索する場合は名称と 検索キー情報を元に該当する物体を検索する。
・平面図上の位置
VR空間を表す平面図における当該物体の位置が格納される。ここでは、矩形 の左上、右下の座標(正規化されている)を格納しているが、平面図上で位置 がわかるものならば何でも良く例えば、多角形でも、位置を表す画像データで も構わない。多角形の場合は、頂点座標が格納される。また、画像の場合は画 像ファイル名が格納される。
【0021】
次に、仮想現実空間移動制御装置1によるVR空間の表示と操作の流れを説明する。
【0022】
本システムを起動すると、図3に示す初期画面が表示される。表示画面はVR空間表示画面(主画面)▲1▼とVR空間移動指示画面(副画面)▲2▼の領域に分けられる。
【0023】
VR空間表示画面▲1▼は、VR描画部10がVRデータ格納部30よりVRデータを読み込み表示する。利用者は▲1▼を見ながらVR空間を鑑賞をする。この画面上でマウスなどの入力デバイスを操作することにより自由にカメラ位置を移動しVR空間を再描画することができる。移動後のカメラ位置は、位置情報管理部20に格納される。また、▲2▼のVR空間移動指示画面上での指示の元、位置情報管理部20より予め用意されたカメラ情報を読込み、VR空間を移動することができる。
【0024】
VR空間移動指示画面▲2▼は、▲1▼で表示しているVR空間を移動する為の指示画面で、VR空間移動指示部50によって描画される。VR空間移動指示部50は平面図データ格納部40よりVR空間の平面図を読込みVR空間移動指示画面▲2▼の所定の位置に描画する。また、空間位置情報管理DB61より管理情報を読込み、VR空間上に配置された物体や建物の案内情報をVR空間移動指示画面▲2▼に描画する。
【0025】
図4は、VR空間の平面図の例である。また、図5は、VR空間移動指示画面▲2▼の構成例である。図5で、▲3▼は平面図であり、▲4▼−1、▲4▼−2、▲4▼−3は、空間位置情報管理DB61より呼出された物体や建物の案内画面である。各案内画面枠には、その物体や建物をその付近から眺めた景観図と説明テキストを表示する。さらに、各画案内画面に表示された景観図に対応するカメラマークを平面図上に表示する。物体や建物の案内情報は、空間位置情報管理DB61の初期描画フラグが○の物に関してのみ、案内情報として読込まれ▲4▼領域に描画される。また、位置情報管理部より現在のVR空間上のカメラ位置(視点、注視点)を読込みこれに対応する平面図上にマーク(黒いカメラ)を行う。さらに、物体を検索する為の、検索枠▲5▼を表示する。
【0026】
図5の平面図表示枠▲3▼には、▲1▼のVR空間中の現在カメラ位置、案内される物体(▲4▼−1、▲4▼−2、▲4▼−3に表示される物体)に対応したカメラマーク(それぞれの景観図に対応)及び後述する▲5▼で検索した結果に対応するカメラ位置がマーキング表示される。
【0027】
利用者は、平面図▲3▼と▲4▼の複数の案内画面により、現在位置と移動したい場所を直感的に把握する事ができる。利用者が▲4▼の案内画面のどれかを選択することで、カメラ位置を変更し、▲1▼、▲3▼を再描画する。例えば、図3(図5)の状態から▲4▼−1を選択すると、図6となる。
【0028】
図5の▲4▼−1を選択すると、対応するVR空間情報カメラ位置(図19に示すVR視点位置<22.0 1.0 20.0>、VR注視点位置< 4.0 1.0 20.0>)を読込み、位置情報管理部20に格納する。また、平面図上の視点位置<0.72 0.20>、注視点位置<0.54 0.20>(同じく図19)に基づき、▲3▼上の現在のカメラ位置を移動しカメラマークを再描画する。尚、平面図上のカメラマークは視点位置に置かれ、注視点方向に向く形で描画される。次に、VR描画部10が位置情報管理部20よりカメラ位置(視点位置<22.0 1.0 20.0>、注視点位置< 4.0 1.0 20.0>)を読込み、VR空間を再描画する。このようにして、図3が図6に変化する。
【0029】
VR空間検索枠▲5▼は、鑑賞対象の内容を入力することにより、関連する位置を検索する画面である。図7に「DNP画5」で検索した場合の、検索後のVR空間移動指示画面▲2▼を示す。検索により2地点が抽出され、▲3▼上に2つのカメラマークと、DNP画5の位置(▲3▼−1)が表示されると伴に、▲4▼に2地点の案内画面(▲4▼−4、▲4▼−5)が追加表示される。この画面から、例えば▲4▼−4を選択すると前述のようにカメラ位置を変更し、▲1▼、▲3▼を再描画する。図8に▲4▼−4を選択した場合の画面を示す。
【0030】
次に、実際に仮想現実空間移動制御装置1を用いVR空間の移動を行う全体の流れを図9を用い説明する。
【0031】
(起動:VR空間を表示)本装置を起動するとVR描画部10、VR空間移動指示部50により、図3のVR空間移動初期表示画面が表示される(S10)。
【0032】
(入力待ち)その後、マウス、キーボードなどの入力装置からの入力待ち状態となる(S20)。この後は、以後の入力指示に応じて以下3つの処理(VR空間を自由に移動する、指定した位置に移動する、VR空間上の物***置を検索する)のいずれかを実行する。
【0033】
(VR空間を自由に移動)入力待ち状態(S20)において、VR空間表示画面▲1▼上でのマウス操作信号が検出されると、その信号は以下のルールで解釈され、VR空間上でカメラを移動し、VR空間の再描画を行う(S30)。
左ボタンを押したまま移動:
前→前進、後→後退、左→左移動、右→右移動
右ボタンを押したまま移動:
前→上向、後→下向、左→左向、右→右向
次に、VR空間の自由移動を行った後のカメラ位置を、位置情報管理部20に格納する(S32)。最後に、VR空間移動指示部50が位置情報管理部10より現在のカメラ位置X,Y,Zを読込み、その内容に基づき、数1で平面図▲3▼上のカメラ位置ix,iyを算出し、現在のカメラ位置にカメラマークを表示する(S34)。
【数1】
ix = (X-XL)/(XR - XL) iy = Z / (ZB - ZA)
但し X,Y,Zは、現在のカメラ位置のVR空間座標
VR空間は、XL(左端)<=X<=XR(右端)、ZA(奥)<=Z<=ZB(手前)と 表され、XL、XR、ZA、ZBで空間のサイズが決まる。
【0034】
尚、実施例のVR空間の場合、 XL= -50.0 , XR= 50.0 , ZB = 100.0 , ZA = 0.0 としている。図10に平面図とVR空間との対応関係を示す。例えば、図3に示すように現在のカメラが入口(視点<0.0 1.0 95.0>、注視点<0.0 1.0 90.0>)にある場合、平面図上のカメラは、<0.5 0.95>に配置され、方向は<0.5 0.95>から<0.5 0.9>を向いた形となる。
【0035】
(VR空間中の物体を選択し移動)利用者が案内画面の(▲4▼−*)を選択すると、案内画面に対応する平面図上のカメラ位置(図19の平面図視点位置、平面図注視点位置)を元に、平面図上の現在のカメラマークを更新する(S40)。次に、選択項目に従ったVR空間上のカメラ位置(図19のVR視点位置<22.0 1.0 20.0>、VR注視点位置<4.0 1.0 20.0>)を空間位置情報管理DB61から読み出し位置情報管理部20に格納する(S42)。VR描画部10にて、新たに設定されたカメラ位置によりVR空間を再描画する(S44)。
【0036】
(物***置検索)作業者が、検索を行うために、検索枠▲5▼に検索したいキーワードを入力して来た場合は、VR空間位置検索を行う(S50)。例えば、「DNP画5」を検索キーとして入力した場合、VR空間移動指示部50では、物体情報管理DB62に問合せを行う。物体情報管理DB62は入力されたキーワードと合致するものが「名称」、「検索キー情報」にあるかを検索し、該当するものがあった場合その物体番号と平面図上の位置を保持する。次に、VR空間移動指示部50は、空間位置情報管理DB61に対し、先に保持した物体番号を用い、描画物体番号内に同一のものがあるか検索を行う。同一のものが有る場合は、そのレコード情報(VR視点位置〜説明情報まで7項目)を保持する。この例の場合は、図20、図21の内容を保持する。今回は、「DNP画5」で検索を行ったが例えば「女性」で検索を行っても、同一の検索結果が得られる。
【0037】
次に、上記、図20、図21の内容に則り、平面図表示画面、位置内容説明画面の更新を行う(S5)。まずは、図20の平面図上の位置を元に、平面図表示画面上に検索対象の物***置(矩形:左上0.40 0.42 ,右下 0.41,0.49)を描画する。
【0038】
次に、図21の平面図視点位置、平面図注視点位置を元に、平面図上にカメラマークを表示する。(1件目:視点<0.49 0.47>、注視点<0.40 0.47>。2件目:視点<0.48 0.61>、注視点<0.40 0.47>。)さらに、図21の名称、説明情報により、説明テキストを得て、対応する画像(1件目:Jpimg5.bmp 、2件目:Jproom2.bmp)とともに案内画面(図7の▲4▼−4、▲4▼−5)を作りに表示する。
【0039】
ここまで説明した実施例1は、時間で空間内の事象が変化しない静的なVR空間を対象にしていたものであるが、次に第2の実施例として、動的(時間で空間内の事象がある)なVR空間を扱えるように拡張した仮想現実空間移動制御装置2を説明する。以下実施例1との違いを中心に説明する。
【0040】
《実施例2》図11は仮想現実空間移動制御装置2の全体構成図である。仮想現実空間移動制御装置1の位置情報管理部20の代わりにシーン情報管理部21が置き換わった構成となっているが、他の各部分も平面図データ格納部40を除き、時間により変化する仮想世界を描くために機能が拡張されている。以下、各部の説明を行う。
【0041】
VR描画部10は、VRデータ格納部30より、形状データ、質感データ、ライトデータ、カメラデータに加え、シーングラフデータを読み込み、VR空間を描画する。実施例1と異なり、このVR空間は時間によりシーン(例えば物体が動く、朝から昼に明るさが変わる、物体の色が変わるなど)が変化する。
【0042】
シーングラフデータとは、各物体の時間軸における変動(物体の移動、物体色の変化、明るさの変化など)を表すデータである。ここでは、物体が移動する場合を例に取り具体的内容を説明する。各物体のある時間の位置はスケール(sx,sy,sz)、回転(rx,ry,rz)、移動(mx,my,mz)によって定義される。このスケール、回転、移動情報を各物体毎に、基準時間分格納する。尚、基準時間の間はVR描画部で補間処理される。例えば基準時間が1秒おきにある場合は、その間の移動情報が補間処理で算出される。
【0043】
シーン情報管理部21は、VR空間上のカメラ位置(視点のX,Y,Z座標、注視点のX,Y,Z座標:以下カメラ位置)に加え、VR空間の時刻を格納する。
【0044】
VRデータ格納部30は、VR空間を定義する形状データ、質感データ、ライトデータ、カメラデータに加えシーングラフデータが格納されている。前述のVR描画部10でこれらのデータを読込み描画を行う。
【0045】
VRシーン移動指示部51は、仮想空間探索手段の一形態であり、実施例1におけるVR空間移動指示文50に加え、シーン情報管理部21及び、空間位置情報管理DB61からVRシーンの時刻を読込み、VRシーンの移動を補助するための副画面(時刻、平面図、平面図上でのカメラ位置、幾つかの案内画面)を提示すると伴に、VRシーン(位置、時刻)の移動指示を受付ける。
【0046】
空間位置情報管理DB61は、実施例1の空間位置情報管理DBの内容に加え、VR空間の時刻情報(秒)をも保有している。図22は、実施例2の空間位置情報管理DB61の内容の例を示す図である。ここで時刻情報が ?1.0 のものは静的なものであり、時間で変化しないものとする。図22において、名称:「庭の車」は時刻10.0秒におけるものであることがわかる。また、名称:「入口の車」は時刻30.0秒におけるものである。
【0047】
物体情報管理DB62は、VR空間上の物体の属性及び、その物体が配置されている平面図上の位置、を格納しているデータベースである。何時の時刻にその位置に配置されるかは、図22の描画物体番号に対応する時刻に対応している。図23にこのデータベースの一部を示す。物体番号、名称、検索キー情報は、実施例1と同様である。平面図上の位置の欄には、VR空間を表す平面図における、その時刻における本物体の位置が格納される。
【0048】
次に実際の表示画面を用い処理の内容を説明する。本システムを起動すると、図12に示す初期画面が表示される。表示画面はVRシーン表示画面(主画面)▲6▼とVRシーン移動指示画面(副画面)▲7▼の領域に分けられる。
【0049】
VRシーン表示画面▲6▼には、VR描画部10がVRデータ格納部30よりVRデータを読み込み表示する。VRデータ格納部30には、シーングラフデータも含まれているため、VRシーン表示画面▲6▼の風景は時間的に変動させることができる。この画面上でマウスなどの入力デバイスを操作することにより自由にカメラ位置を移動しVR空間を再描画することができる。移動後のカメラ位置、時刻は、シーン情報管理部21に格納される。また、VRシーン移動指示画面▲7▼の指示の元、シーン情報管理部21よりカメラ情報、時刻を読込み、VRシーンを移動することができる。
【0050】
VRシーン移動指示画面▲7▼は、実施例1の場合と同様平面図▲3▼、検索画面▲5▼を含み、VR空間移動指示画面▲2▼と同様な見た目と働きを提供するが、VR空間の現在時刻表示▲8▼があり、案内画面▲9▼は、それぞれの時刻表示を含んでいる。
【0051】
図14は、検索画面▲5▼にキーワードを入力して検索させた結果を表示させたVRシーン移動指示画面▲7▼である。検索結果についても時刻表示が案内画面▲9▼の一つとして表示される。図14では、「自動車」を検索キーワードとして検索させた結果、2地点が検索され、その地点のシーンを▲9▼−3、▲9▼−4に時刻表示付きで表示している。
【0052】
図15は、図14から、▲9▼−4を選択した場合の画面である。▲9▼−4を選択するとVRシーン(カメラ位置、時刻)が更新され、VRシーン表示画面▲6▼、平面図▲3▼を再描画する。
【0053】
次に、実際に本システムを用いVR空間の移動を行う処理の流れを図16を用い説明する
【0054】
(起動:VR空間を表示)本装置を起動するとVR描画部10、VRシーン移動指示部51により、図12の初期表示画面が表示される(S11)。
【0055】
(入力待ち)その後、マウス、キーボードなどの入力装置からの入力待ち状態となる(S21)。この後は、以後の入力指示に応じて以下3つの処理(VR空間を自由に移動する、指定したシーン(位置および時刻)に移動する、VR空間上の物体シーン(位置および時刻)を検索する)のいずれかを実行する。
【0056】
(VR空間を自由に移動)入力待ち状態(S21)において、VR空間表示画面上でのマウス操作信号が検出されると、その信号は実施例1と同じルールで解釈され、VR空間上でカメラを移動し、VR空間の再描画を行う(S35)。次に、VR空間の自由移動を行った後のカメラ位置、時刻を、シーン情報管理部21に格納する(S37)。最後に、平面図表示画面▲3▼上の現在のカメラ位置及び時刻表示を更新する(S39)。VR空間座標から平面図座標への座標変換式はは実施例1と同様数1に従う。尚、VRシーン移動指示部51は、一定時間間隔(例えば1秒おき)で、シーン情報管理部21よりカメラ位置及び時刻を読込み、表示の更新を行う。
【0057】
(指定したシーンに移動)利用者が案内画面の(▲9▼−*)のどれかを選択すると、対応する平面図上のカメラ位置を元に、平面図上の現在のカメラマークを更新する(S45)。次に、選択項目に従ったVR空間上のカメラ位置、時刻をシーン情報管理部21に格納する(S47)。VR描画部10にてシーン情報管理部21より現在のカメラ位置、時刻を読込み、再描画する(S49)。尚、時刻が ?1.0 の場合は、時刻の変更は行わない。
【0058】
(VRシーン上の物***置を検索)VRシーンの検索を行い、結果を案内画面として表示する。実施例1に加え、検索結果として、時刻情報も保持する。「自動車」をキーワードで検索した場合は、図24、図25に示す内容が保持され、案内画面▲9▼−3、▲9▼−4が表示される。
【0059】
以上、第2の実施例である仮想現実空間移動制御装置2を説明した。次に第3の実施例である仮想現実空間移動制御装置3を実施例1との違いを中心に説明する。
【0060】
《実施例3》仮想現実空間移動制御装置3の全体構成は、仮想現実空間移動制御装置1と基本的に同じである。したがって、全体構成は、図1のように表すことができる。ただし、VR空間移動指示部(仮想空間探索案内手段)50の働きが少し異なる。仮想現実空間移動制御装置3では、案内画面を用いない。代わりにオブジェクトの説明テキストだけを表示する案内テキスト枠を設ける。したがって、空間位置情報データベース61のテーブルは、図26のように、仮想現実空間移動制御装置1で用いる空間位置情報データベース61のテーブルから、画像ファイル名の項目を除いた構成となる。
【0061】
次に実際の表示画面に基づき処理の流れを説明する。本システムを起動すると、図27に示す初期画面が表示される。実施例1と同様、表示画面はVR空間表示画面(主画面)▲1▼とVR空間移動指示画面(副画面)▲2▼の領域に分けられる。
【0062】
VR空間表示画面▲1▼には、VR描画部10がVRデータ格納部30よりVRデータを読み込み表示する。この画面上でマウスなどの入力デバイスを操作することにより自由にカメラ位置を移動しVR空間を再描画することができる。移動後のカメラ位置、は、位置情報管理部20に格納される。また、VR空間移動指示画面▲2▼の指示の元、位置情報管理部20よりカメラ情報を読込み、VR空間を移動することができる。
【0063】
図28は、VR空間移動指示画面▲2▼の詳細説明図である。VR空間移動指示画面▲2▼は、実施例1の場合と同様平面図▲3▼、検索画面▲5▼を含み、実施例1で説明したVR空間移動指示画面▲2▼と同様な見た目と働きを提供するが、仮想空間上のオブジェクトを説明する案内画面枠の代わりに、オブジェクトの説明テキストを表示した案内テキスト枠▲4▼−1、▲4▼−2、▲4▼−3が設けられる。これらの案内テキスト枠は平面図▲3▼中の対応するカメラマークと対応付けられて表示される。このカメラマークは単にカメラの位置を示しておりカメラの注視方向は示さない。また、平面図▲3▼中には、現在のカメラ位置の表示はない。
【0064】
検索画面▲5▼の働きも実施例1の仮想現実空間移動制御装置1と同様である。図29に「DNP画5」で検索した場合の、検索後のVR空間移動指示画面▲2▼(▲3▼、▲4▼、▲5▼)を示す。検索によりDNP画5の位置(▲3▼―1)が表示される。利用者が、この画面から、▲3▼上のDNP画5の位置や案内テキスト枠(▲5▼―1)を選択すると、VR空間移動指示部50は、DNP画5が閲覧可能な位置を空間管理DBより検索し、該当した位置にカメラ位置を読みこみ、▲1▼を再描画する。図30に▲5▼―1を選択した場合の画面を示す。
【0065】
次に、実際に本システムを用いVR空間の移動を行う処理の流れを図31を用い説明する
【0066】
(起動:VR空間を表示)本装置を起動するとVR描画部10、VR空間移動指示部51により、図27の初期表示画面が表示される(S10)。
【0067】
(入力待ち)その後、マウス、キーボードなどの入力装置からの入力待ち状態となる(S20)。この後は、以後の入力指示に応じて以下3つの処理(VR空間を自由に移動する、指定したシーン(位置および時刻)に移動する、VR空間上の物体シーン(位置および時刻)を検索する)のいずれかを実行する。
【0068】
(VR空間を自由に移動)入力待ち状態(S20)において、VR空間表示画面上でのマウス操作信号が検出されると、その信号は実施例1と同じルールで解釈され、VR空間上でカメラを移動し、VR空間の再描画を行う(S30)。次に、VR空間の自由移動を行った後のカメラ位置を、位置情報管理部20に格納する(S32)。VR空間座標から平面図座標への座標変換式は実施例1と同様数1に従う。尚、VR空間移動指示部50は、一定時間間隔(例えば1秒おき)で、位置情報管理部20よりカメラ位置を読込み、表示の更新を行う。
【0069】
(VR空間上の物体を選択し移動)利用者が案内画面の案内テキスト枠(▲4▼−*、または▲5▼−*)のどれか、または平面図▲3▼中のどれかのカメラマークを選択すると、選択項目に従ったVR空間上のカメラ位置を位置情報管理部20に格納する(S42)。VR描画部10にて位置情報管理部20より更新されたカメラ位置を読込み、再描画する(S44)。
【0070】
(VR空間上の物***置を検索)利用者が、検索を行うために、検索枠▲5▼にキーワードを入力してきた場合は、実施例1と同様にVR空間位置検索を行う(S50)。例えば、「DNP画5」を検索キーとして入力すると、実施例1の場合と同様に、VR空間移動指示部50では、物体情報管理DBに問合せを行い、入力されたキーワードと合致するものが「名称」、「検索キー情報」にあるかを検索し、該当するものがあった場合その物体番号と平面図上の位置を保持する。次に、空間位置情報管理DBに対し、先に保持した物体番号を用い、描画物体番号内に同一のものがあるか検索を行う。同一のものが有る場合は、そのレコード情報を保持する。この場合は、図20(実施例1の場合と同じ)、および図32の内容を保持する。
【0071】
次に、平面図表示画面の更新を行う。まずは、図32の平面図上の位置を元に、平面図表示画面上に検索対象の物***置(矩形:左上0.40 0.42 ,右下 0.41,0.49)を描画する。また、検索対象の説明テキストを表示する(S54)。
【0072】
次に、平面図上の物***置が選択されたこととして、図32中に示されるカメラ位置を位置情報管理部20に格納する(S62)。こうして、検索された物体を表示可能な位置へVR空間のカメラ位置を更新する。そしてVR空間描画部10の次のサイクルで位置情報管理部20より現在のカメラ位置を読込み、再描画する(S44)。
【0073】
以上、実施例3として仮想現実空間移動制御装置3を説明した。本発明の実施態様としては、平面図▲3▼中に現在のカメラ位置の表示がなくてもよい。仮想空間上のオブジェクトを案内するために、案内画面枠ではなく案内テキスト枠を用いてもよい。また、カメラマークは、単にカメラの位置だけを表すマークであってもよい。また、特定のオブジェクトの位置にジャンプする時は、案内テキスト枠を選択してもよいし、カメラマークそのものを選択してもよい。
【0074】
以上本発明の内容を好ましい実施態様により3つの実施例として説明したが、本発明は、これら実施例の記載に限定されるものではない。本発明の趣旨を逸脱しない範囲にて様々な実施が可能である。
【0075】
【発明の効果】
副画面を設け、そこに案内画面、検索キー受付け枠を設けることにより、仮想世界の探索が大変楽になり、利用者は無駄な動きを強いられなくなった。従って利用者の本来の目的である、仮想世界の鑑賞が十分行えるようになった。また、時間軸で変化しているVR空間においては、従来の手法でVR空間を移動したのでは目的のシーン(ある時間でのある場所)に出会うことは困難であり、また一度出会っても再度同じシーンに到達するのは至難であった。今回のシステムを用いる事により何度でも同一シーンに到達することが可能な為、見たいシーン、コンテンツを何度でも鑑賞することが可能となる。
【図面の簡単な説明】
【図1】 本発明の一実施形態に係る仮想現実空間移動制御装置1の全体構成図である。
【図2】 形状データの説明図である。
【図3】 初期表示画面である。
【図4】 平面図データである。
【図5】 仮想現実空間移動指示画面である。
【図6】 ▲4▼−1選択後の表示画面である。
【図7】 検索後の仮想現実空間移動指示画面である。
【図8】 ▲4▼−4を選択した場合の表示画面である。
【図9】 仮想現実空間移動制御装置の動作フローの説明図である。
【図10】平面図と仮想現実空間の対応関係を説明する図である。
【図11】第2の実施例である仮想現実空間移動制御装置2の全体構成図である。
【図12】仮想現実空間移動制御装置2の初期表示画面である。
【図13】仮想現実空間移動制御装置2の移動指示画面である。
【図14】検索後のVRシーン移動指示画面である。
【図15】▲9▼−4を選択した場合の表示画面である。
【図16】VR空間の移動の流れを説明する流れ図である。
【図17】空間位置情報管理データベースの説明図である。
【図18】物体情報管理データベースの説明図である。
【図19】空間位置情報管理データベース内の▲4▼−1を選択した場合に対応する内容である。
【図20】物体情報管理データベースの説明図である。
【図21】空間位置情報管理データベースの説明図である。
【図22】空間位置情報管理データベースの説明図である。
【図23】物体情報管理データベースの説明図である。
【図24】物体情報管理データベースの説明図である。
【図25】空間位置情報管理データベースの説明図である。
【図26】空間位置情報管理データベースの説明図である。
【図27】仮想現実空間移動制御装置3の初期表示画面である。
【図28】仮想現実空間移動制御装置3の移動指示画面である。
【図29】検索後の仮想現実空間移動指示画面である。
【図30】図29の▲5▼−1を選択した場合の表示画面である。
【図31】仮想現実空間移動制御装置3の動作フローの説明図である。
【図32】検索の結果VR空間移動指示部50に一時記憶される空間位置情報管理データベースから抽出された情報の説明図である。
【符号の説明】
1、2仮想現実空間移動制御装置
10 VR描画部
20 位置情報管理部
21 シーン情報管理部
30 VRデータ格納部
40 平面図データ格納部
50 VR空間移動指示部
51 VRシーン移動指示部
60 データベース部
61 空間位置情報管理データベース
62 物体情報管理データベース
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to virtual reality (hereinafter referred to as VR) technology. The VR technology is applied to various fields such as computer games, digital archive systems, and presentation systems.
[0002]
[Prior art]
In the conventional digital archiving system and presentation system using VR technology, (1) the user freely walks around the VR space, (2) moves according to the path defined by the production side, (3) is defined by the name I moved around the space and watched it.
[0003]
[Problems to be solved by the invention]
In the case of the above method (1) or (2), it is difficult to intuitively understand where the object desired by the user is in the space, and in some cases, it is complicated to walk around in the space unnecessary for the user. I had to do something. Also, when moving to a scene (location, time) defined by the name of (3), where in the virtual space is the time, what time is it, and whether the scene is really a desired scene After all, it was necessary to move several scenes and search for the desired scene. For this reason, although the user wants to appreciate the object of interest, it is necessary to spend time for other complicated operations, which is not satisfactory.
[0004]
The present invention has been made in consideration of such problems, and it is not necessary to perform an unnecessary and complicated space movement operation, so that the user can easily grasp where in the virtual space, It is an object of the present invention to provide a virtual reality space movement control device that can be easily moved to a scene.
[0005]
[Means for Solving the Problems]
Therefore, in the present invention,
A VR data storage that stores data representing the virtual space;
Reads data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame, a plan view data storage unit for storing plan view data of the virtual world, and stores the current camera position Either a position information management unit to manage or a scene information management unit to store and manage the current camera position and time, and a virtual to display a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame In a virtual reality space movement control device having a main screen and a sub-screen for freely moving in a virtual space and appreciating a virtual world according to an operation instruction by an input device such as a mouse provided with a space search guidance means and a storage means,
In the storage means, an object existing in the virtual world is identified by its identification number, its existence position information, and a first table defined by text information related to the object,
The camera mark determined in advance in the virtual world is determined by its camera position and gaze direction, landscape map data drawn by the camera mark, identification number of the object drawn in the landscape map, and text information related to the camera mark. The virtual space search and guidance means marks the camera mark on the plan view of the virtual space, and relates to the landscape view of the camera mark and the camera mark. A guide screen is constructed from the text information to be displayed and associated with the mark on the plan view and displayed in the sub-screen frame to guide the user about the existence of the object in the virtual reality space. The selection of a camera mark or a guide screen frame is accepted as an instruction to move to the position of the camera mark, and the scene information management Or the subject matter to solve the problem by configured to communicate the movement instruction to the location information management unit.
[0006]
  The second aspect of the present invention is as follows.
A VR data storage that stores data representing the virtual space;
Reads data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame, a plan view data storage unit for storing plan view data of the virtual world, and stores the current camera position Operation instruction by an input device such as a mouse provided with a position information management unit to be managed and a virtual space search guide means for displaying a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame A virtual reality space movement control device having a main screen and a sub-screen for moving freely in a virtual space to appreciate a virtual world,
A database unit configured to extract the position information of the corresponding object in the virtual world, the camera position information for drawing the object, and the text information related to the object such as the name of the object from the search key; ,
The virtual space search guide means is provided with a search key input unit and a search start button on any of the screens. When a key of an object to be viewed is input to the search key input unit and receives a search start instruction, A guidance text frame displaying text related to the object as a search result is provided in the screen frame, and an object mark indicating the location of the object as a search result is displayed on the plan view as the guidance text frame. It displays in association and guides the searched object to the user, and when this object mark or the guidance text frame is selected or automatically unconditionally, the position information management unit is displayed as a search result. Information on the camera position at which the object is drawn is transmitted to the VR drawing unit, and the virtual world image from the camera position is transmitted to the VR drawing unit. The it is to solve the problem by virtual reality space movement control device configured to display on the main screen frame.
[0007]
  The third aspect of the present invention is
A VR data storage that stores data representing the virtual space;
Reads data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame, a plan view data storage unit for storing plan view data of the virtual world, and stores the current camera position Operation instruction by an input device such as a mouse provided with a position information management unit to be managed and a virtual space search guide means for displaying a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame A virtual reality space movement control device having a main screen and a sub-screen for moving freely in a virtual space to appreciate a virtual world,
From the search key, the position information of the corresponding object in the virtual world, the camera position information for drawing the object, the landscape map image drawn from the camera position and the text information related to the object such as the name of the object are extracted. And further comprising a database part configured as follows:
The virtual space search guide means is provided with a search key input unit and a search start button on any of the screens. When a key of an object to be viewed is input to the search key input unit and receives a search start instruction, In the screen frame,
A camera screen where a guide screen frame displaying a text related to an object as a search result and a landscape map in which the object as a search result is displayed is provided, and a camera position for drawing the object as a search result on the plan view Is displayed in association with the guide screen frame, and an object mark indicating the presence position of the object as a search result is displayed to guide the searched object to the user. When the guide screen frame is selected, the camera position information indicated by the camera mark is transmitted to the position information management unit, and the VR drawing unit displays the virtual world screen from the camera position on the main screen frame. The problem is solved by the virtual reality space movement control device. In the virtual reality space movement control device according to the second aspect, the function is extended so that a guidance screen frame including not only text information but also a landscape image can be used instead of the guidance text frame guided to the object extracted as a result of the search. It can be said that.
[0008]
  The fourth aspect of the present invention is
A VR data storage that stores data representing the virtual space;
A VR drawing unit that reads out data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame; a plan view data storage unit that stores plan view data of the virtual world; and a current camera position and time A scene information management unit for storing and managing virtual space search guidance means for displaying a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame, by an input device such as a mouse A virtual reality space movement control device having a main screen and a sub screen for freely moving in a virtual space by operating instructions and viewing a virtual world,
From the search key, the position information of the corresponding object in the virtual world, the camera position and time information for drawing the object, the landscape map image drawn from the camera position and the text information related to the object such as the name of the object Further comprising a database part configured to extract
The virtual space search guide means is provided with a search key input unit and a search start button on any of the screens. When a key of an object to be viewed is input to the search key input unit and receives a search start instruction, In the screen frame,
A camera position for providing a guide screen frame displaying a text related to an object as a search result and a landscape map in which the object as a search result is drawn, and drawing the object as a search result on the plan view Is displayed in association with the guide screen frame, and an object mark indicating the presence position of the object as a search result is displayed to guide the searched object to the user. When the guide screen frame is selected, the camera position information and time information of the selected camera mark are transmitted to the scene information management unit, and the virtual position screen from the camera position and time is transmitted to the VR drawing unit as the main screen. The problem is solved by a virtual reality space movement control device configured to be displayed in a frame. The position information management unit according to the third aspect is expanded to include a scene information management unit that stores and manages the current camera position and time so that the time information can be managed.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described using three examples with reference to the drawings.
[0013]
Embodiment 1 FIG. 1 shows an overall configuration diagram of a virtual reality space movement control apparatus 1 according to an embodiment of the present invention. The virtual reality space movement control device 1 includes a VR drawing unit 10, a position information management unit 20, a VR data storage unit 30, a plan view data storage unit 40, a VR space movement instruction unit 50, and a database unit 60. The VR space movement instruction unit 50 is a form of virtual space search guidance means.
[0014]
The VR drawing unit 10 reads shape data, texture data, light data, and camera data from the VR data storage unit 30 and draws the VR space. The position information management unit 20 stores the X, Y, Z coordinates of the camera viewpoint in the VR space and the X, Y, Z coordinates of the gazing point (hereinafter collectively referred to as the camera position). The VR data storage unit 30 stores shape data, texture data, light data, and camera data that define the VR space. The VR drawing unit 10 reads these data and draws them on the main screen frame.
[0015]
FIG. 2 is a diagram for explaining the shape data. The shape data includes a vertex table that defines vertex coordinates and a surface table that describes the relationship between the surfaces and vertices, and gives a graphical definition of the object in the VR space. The color data is the attribute value of the color of each surface in the shape data, and the environmental color: Ra, Ga, Ba, diffusion color: Rd, Gd, Bd, specular color: Rs, Gs, Bs, specular coefficient: S expressed. The light data represents the three-dimensional position (X, Y, Z), direction (NX, NY, NZ), intensity, and color (R, G, B) of the light source placed in the VR space. The camera data defines the camera position, field angle, and viewing angle at startup.
[0016]
The plan view data storage unit 40 stores a plan view corresponding to the VR data stored in the VR data storage unit.
[0017]
The VR space movement instruction unit 50 reads a later-described space position information management database (hereinafter referred to as space position information management DB) 61 of the plan view data storage unit 40, the position information management unit 20, and the database unit 60, and moves the VR space. A sub-screen for assistance (plan view, camera position on the plan view, guidance screen corresponding to the position) is presented, and an instruction to move the VR space from an input device such as a mouse is accepted. Also, the search keyword received from the user is inquired of the database unit, and the search result is presented.
[0018]
The database unit 60 holds two types of databases: a spatial position information management DB 61 and an object information management database (hereinafter, object information management DB) 62.
[0019]
The spatial position information management DB 61 stores camera information in the VR space and related information such as a position / explanation image on the plan view and an explanatory text corresponding to the camera information. FIG. 17 shows a part of the contents of this database. The meaning of each item is as follows.
・ VR viewpoint position
Camera viewpoint information corresponding to the VR space drawn by the VR drawing unit
・ VR gaze position
Camera gazing point information corresponding to the VR space drawn by the VR drawing unit
・ Plan view point
Camera position on the floor plan (normalized)
・ Plan view point of interest
Camera gazing position on the floor plan (normalized)
·name
The name of the position
・ Image file name
File name of explanatory drawing of the position (mainly landscape view seen from the position)
・ Description information
Text data for explanation
・ Drawing object number
The object number drawn when viewed from that position. (This corresponds to the object number in the object information management DB 62 of FIG. 18)
-Initial drawing flag
Flag to display location information at startup. ○ is displayed and × is not displayed. Here, only the objects marked with ○ are displayed at startup. Other than that, it is drawn when it corresponds to the search.
[0020]
Next, the object information management DB 62 will be described. This database is a database that stores the attributes of objects arranged in the VR space and the positions of the objects on the plan view. FIG. 18 shows a part of this database. The meaning of each item is as follows.
・ Object number
The number assigned to the object. This corresponds to the drawing object number in the spatial position information management DB 61.
·name
The name of the object. Stores objects to be placed (paintings) and building names (fountains, etc.).
・ Search key information
Stores keywords used for searching. When actually searching, the corresponding object is searched based on the name and search key information.
・ Position on the floor plan
The position of the object in the plan view representing the VR space is stored. Here, the upper left and lower right coordinates (normalized) of the rectangle are stored, but any coordinates can be used as long as the position can be seen on the plan view, for example, a polygon or image data representing the position. I do not care. In the case of a polygon, vertex coordinates are stored. In the case of an image, the image file name is stored.
[0021]
Next, the display and operation flow of the VR space by the virtual reality space movement control device 1 will be described.
[0022]
When this system is activated, an initial screen shown in FIG. 3 is displayed. The display screen is divided into a VR space display screen (main screen) (1) and a VR space movement instruction screen (subscreen) (2).
[0023]
In the VR space display screen (1), the VR drawing unit 10 reads the VR data from the VR data storage unit 30 and displays it. The user views the VR space while watching (1). By operating an input device such as a mouse on this screen, the camera position can be freely moved and the VR space can be redrawn. The moved camera position is stored in the position information management unit 20. Also, camera information prepared in advance from the position information management unit 20 can be read based on the instruction on the VR space movement instruction screen (2) and moved in the VR space.
[0024]
The VR space movement instruction screen (2) is an instruction screen for moving the VR space displayed in (1), and is drawn by the VR space movement instruction unit 50. The VR space movement instruction unit 50 reads the VR space plan from the plan view data storage unit 40 and draws it at a predetermined position on the VR space movement instruction screen (2). Further, management information is read from the space position information management DB 61, and guidance information on objects and buildings arranged in the VR space is drawn on the VR space movement instruction screen (2).
[0025]
FIG. 4 is an example of a plan view of the VR space. FIG. 5 is a configuration example of the VR space movement instruction screen (2). In FIG. 5, (3) is a plan view, and (4) -1, (4) -2, and (4) -3 are guidance screens for objects and buildings called from the spatial position information management DB 61. In each guide screen frame, a landscape view of the object or building viewed from its vicinity and an explanatory text are displayed. Furthermore, the camera mark corresponding to the landscape map displayed on each image guidance screen is displayed on the plan view. The guidance information of the object or the building is read as guidance information only for the object whose initial drawing flag in the spatial position information management DB 61 is ○, and is drawn in the area {circle around (4)}. Also, the camera position (viewpoint, gazing point) in the current VR space is read from the position information management unit, and a mark (black camera) is placed on the corresponding plan view. Further, a search frame (5) for searching for an object is displayed.
[0026]
In the plan view display frame (3) in FIG. 5, the current camera position in the VR space of (1) and the guided object ((4) -1, (4) -2, (4) -3) are displayed. The camera mark corresponding to each landscape map and the camera position corresponding to the result retrieved in (5) to be described later are displayed as markings.
[0027]
The user can intuitively grasp the current position and the place where the user wants to move by using a plurality of guidance screens of the plan views (3) and (4). When the user selects one of the guidance screens (4), the camera position is changed, and (1) and (3) are redrawn. For example, when (4) -1 is selected from the state of FIG. 3 (FIG. 5), the result is as shown in FIG.
[0028]
When (4) -1 in FIG. 5 is selected, the corresponding VR spatial information camera position (VR viewpoint position <22.0 1.0 20.0>, VR gazing point position <4.0 1.0 20.0> shown in FIG. 19) is read, and the position information management unit 20. Further, based on the viewpoint position <0.72 0.20> and the gazing point position <0.54 0.20> (also FIG. 19) on the plan view, the current camera position on (3) is moved and the camera mark is redrawn. Note that the camera mark on the plan view is placed at the viewpoint position and is drawn in a shape facing the gazing point direction. Next, the VR drawing unit 10 reads the camera position (viewpoint position <22.0 1.0 20.0>, gazing point position <4.0 1.0 20.0>) from the position information management unit 20, and redraws the VR space. In this way, FIG. 3 changes to FIG.
[0029]
The VR space search frame {circle over (5)} is a screen for searching for a related position by inputting the contents of the appreciation object. FIG. 7 shows a VR space movement instruction screen {circle around (2)} after searching for “DNP image 5”. Two points are extracted by the search, and two camera marks and the position of the DNP image 5 (▲ 3 ▼ -1) are displayed on (3). 4) -4 and (4) -5) are additionally displayed. If, for example, (4) -4 is selected from this screen, the camera position is changed as described above, and (1) and (3) are redrawn. FIG. 8 shows a screen when (4) -4 is selected.
[0030]
Next, the overall flow of actually moving the VR space using the virtual reality space movement control device 1 will be described with reference to FIG.
[0031]
(Activation: Display VR space) When this apparatus is activated, the VR drawing unit 10 and the VR space movement instruction unit 50 display the VR space movement initial display screen of FIG. 3 (S10).
[0032]
(Waiting for input) Thereafter, the apparatus waits for input from an input device such as a mouse or a keyboard (S20). Thereafter, one of the following three processes (moving freely in the VR space, moving to a specified position, and searching for an object position in the VR space) is executed in accordance with a subsequent input instruction.
[0033]
(Move freely in the VR space) When a mouse operation signal on the VR space display screen (1) is detected in the input waiting state (S20), the signal is interpreted according to the following rules, and the camera is displayed on the VR space. And redraw the VR space (S30).
Move while holding down the left button:
Forward → Forward, Back → Reverse, Left → Left, Right → Right
Move while holding down the right button:
Front → Up, Back → Down, Left → Left, Right → Right
Next, the camera position after the free movement in the VR space is stored in the position information management unit 20 (S32). Finally, the VR space movement instruction unit 50 reads the current camera positions X, Y, and Z from the position information management unit 10 and calculates the camera positions ix and iy on the plan view {circle around (3)} using Equation 1 based on the contents. The camera mark is displayed at the current camera position (S34).
[Expression 1]
ix = (X-XL) / (XR-XL) iy = Z / (ZB-ZA)
Where X, Y and Z are the VR space coordinates of the current camera position
The VR space is expressed as XL (left end) <= X <= XR (right end), ZA (back) <= Z <= ZB (front), and the size of the space is determined by XL, XR, ZA, ZB.
[0034]
In the case of the VR space of the embodiment, XL = −50.0, XR = 50.0, ZB = 100.0, and ZA = 0.0. FIG. 10 shows the correspondence between the plan view and the VR space. For example, as shown in FIG. 3, if the current camera is at the entrance (viewpoint <0.0 1.0 95.0>, gazing point <0.0 1.0 90.0>), the camera on the plan view is placed at <0.5 0.95> and the direction is From <0.5 0.95> to <0.5 0.9>.
[0035]
(Selecting and moving an object in the VR space) When the user selects (4)-* on the guidance screen, the camera position on the plan view corresponding to the guidance screen (plan view viewpoint position, plan view in FIG. 19). Based on the gazing point position, the current camera mark on the plan view is updated (S40). Next, the camera position (VR viewpoint position <22.0 1.0 20.0>, VR gazing point position <4.0 1.0 20.0> in FIG. 19) according to the selected item is read from the spatial position information management DB 61 and the position information management unit 20 is read. (S42). The VR drawing unit 10 redraws the VR space with the newly set camera position (S44).
[0036]
(Object position search) When the operator inputs a keyword to be searched for in the search frame (5) in order to perform a search, a VR space position search is performed (S50). For example, when “DNP image 5” is input as a search key, the VR space movement instruction unit 50 makes an inquiry to the object information management DB 62. The object information management DB 62 searches the “name” and “search key information” for items that match the input keyword, and if there is a corresponding item, stores the object number and the position on the plan view. Next, the VR space movement instruction unit 50 searches the space position information management DB 61 for the same object in the drawn object numbers using the previously held object numbers. If there is an identical item, the record information (7 items from VR viewpoint position to explanation information) is held. In the case of this example, the contents of FIGS. 20 and 21 are retained. This time, the search was performed with “DNP image 5”, but the same search result can be obtained even if the search is performed with “female”, for example.
[0037]
  Next, the plan view display screen and the position content explanation screen are updated in accordance with the contents of FIGS. 20 and 21 (S5).4). First, based on the position on the plan view of FIG. 20, the object position to be searched (rectangle: upper left 0.40 0.42, lower right 0.41,0.49) is drawn on the plan view display screen.
[0038]
Next, a camera mark is displayed on the plan view based on the plan view viewpoint position and the plan view gazing point position in FIG. (First case: viewpoint <0.49 0.47>, gaze point <0.40 0.47>. Second case: viewpoint <0.48 0.61>, gaze point <0.40 0.47>.) Then, a guide screen ((4) -4, (4) -5 in FIG. 7) is displayed together with the corresponding image (first item: Jpimg5.bmp, second item: Jproom2.bmp).
[0039]
The first embodiment described so far is intended for a static VR space in which events in the space do not change over time. Next, as a second embodiment, dynamic (in the space in the space in time) The virtual reality space movement control device 2 expanded so as to handle a VR space having an event) will be described. Hereinafter, the difference from the first embodiment will be mainly described.
[0040]
Embodiment 2 FIG. 11 is an overall configuration diagram of the virtual reality space movement control device 2. The scene information management unit 21 is replaced in place of the position information management unit 20 of the virtual reality space movement control device 1, but the other parts also have a virtual that changes with time except for the plan view data storage unit 40. Functions have been expanded to draw the world. Hereinafter, each part will be described.
[0041]
The VR drawing unit 10 reads scene graph data from the VR data storage unit 30 in addition to shape data, texture data, light data, and camera data, and draws the VR space. Unlike the first embodiment, this VR space changes the scene (for example, the object moves, the brightness changes from morning to noon, the color of the object changes, etc.) with time.
[0042]
The scene graph data is data representing changes in the time axis of each object (object movement, object color change, brightness change, etc.). Here, the specific contents will be described by taking as an example a case where an object moves. The position of each object at a certain time is defined by a scale (sx, sy, sz), rotation (rx, ry, rz), and movement (mx, my, mz). The scale, rotation, and movement information is stored for each object for each reference time. Note that interpolation processing is performed by the VR drawing unit during the reference time. For example, when the reference time is every second, movement information during that time is calculated by interpolation processing.
[0043]
The scene information management unit 21 stores the time in the VR space in addition to the camera position in the VR space (X, Y, Z coordinates of the viewpoint, X, Y, Z coordinates of the gazing point: hereinafter camera position).
[0044]
The VR data storage unit 30 stores scene graph data in addition to shape data, texture data, light data, and camera data that define a VR space. The VR drawing unit 10 reads and draws these data.
[0045]
The VR scene movement instruction unit 51 is a form of virtual space search means, and reads the time of the VR scene from the scene information management unit 21 and the space position information management DB 61 in addition to the VR space movement instruction statement 50 in the first embodiment. In addition to presenting a sub-screen (time, plan view, camera position on the plan view, several guide screens) to assist the movement of the VR scene, it accepts an instruction to move the VR scene (position, time) .
[0046]
The space position information management DB 61 holds time information (seconds) of the VR space in addition to the contents of the space position information management DB of the first embodiment. FIG. 22 is a diagram illustrating an example of the contents of the spatial position information management DB 61 according to the second embodiment. Where is the time information? 1.0 is static and does not change over time. In FIG. 22, it can be seen that the name: “garden car” is at 10.0 seconds. The name: “Car at the entrance” is at 30.0 seconds.
[0047]
The object information management DB 62 is a database that stores attributes of objects in the VR space and positions on the plan view where the objects are arranged. The time at which the position is arranged corresponds to the time corresponding to the drawing object number in FIG. FIG. 23 shows a part of this database. The object number, name, and search key information are the same as in the first embodiment. The position column on the plan view stores the position of the object at that time in the plan view representing the VR space.
[0048]
Next, the contents of processing will be described using an actual display screen. When this system is activated, an initial screen shown in FIG. 12 is displayed. The display screen is divided into a VR scene display screen (main screen) (6) and a VR scene movement instruction screen (subscreen) (7).
[0049]
On the VR scene display screen {circle around (6)}, the VR drawing unit 10 reads the VR data from the VR data storage unit 30 and displays it. Since the VR data storage unit 30 also includes scene graph data, the scenery on the VR scene display screen (6) can be changed over time. By operating an input device such as a mouse on this screen, the camera position can be freely moved and the VR space can be redrawn. The camera position and time after movement are stored in the scene information management unit 21. Further, under the instruction of the VR scene movement instruction screen (7), the camera information and the time can be read from the scene information management unit 21 to move the VR scene.
[0050]
The VR scene movement instruction screen (7) includes a plan view (3) and a search screen (5) as in the first embodiment, and provides the same look and function as the VR space movement instruction screen (2). There is a VR space current time display {circle over (8)}, and the guidance screen {circle over (9)} includes each time display.
[0051]
FIG. 14 is a VR scene movement instruction screen {circle over (7)} displaying the search result by inputting a keyword to the search screen {circle over (5)}. As for the search result, the time display is displayed as one of the guidance screens (9). In FIG. 14, as a result of searching for “automobile” as a search keyword, two points are searched, and the scenes at the points are displayed with time display at (9) -3 and (9) -4.
[0052]
FIG. 15 shows a screen when (9) -4 is selected from FIG. When (9) -4 is selected, the VR scene (camera position, time) is updated, and the VR scene display screen (6) and the plan view (3) are redrawn.
[0053]
Next, the flow of processing for actually moving the VR space using this system will be described with reference to FIG.
[0054]
(Activation: Display VR space) When this apparatus is activated, the VR drawing unit 10 and the VR scene movement instruction unit 51 display the initial display screen of FIG. 12 (S11).
[0055]
(Waiting for input) Thereafter, the apparatus waits for input from an input device such as a mouse or a keyboard (S21). Thereafter, the following three processes (moving in the VR space freely, moving to the specified scene (position and time), searching for the object scene (position and time) in the VR space) are searched according to the input instruction thereafter. )
[0056]
(Move freely in the VR space) When a mouse operation signal on the VR space display screen is detected in the input waiting state (S21), the signal is interpreted according to the same rules as in the first embodiment, and the camera is moved on the VR space. And redraw the VR space (S35). Next, the camera position and time after free movement in the VR space are stored in the scene information management unit 21 (S37). Finally, the current camera position and time display on the plan view display screen (3) are updated (S39). The coordinate conversion formula from the VR space coordinates to the plan view coordinates follows Formula 1 as in the first embodiment. Note that the VR scene movement instruction unit 51 reads the camera position and time from the scene information management unit 21 and updates the display at regular time intervals (for example, every second).
[0057]
(Move to specified scene) When the user selects any of (9)-* on the guidance screen, the current camera mark on the plan view is updated based on the camera position on the corresponding plan view. (S45). Next, the camera position and time in the VR space according to the selection item are stored in the scene information management unit 21 (S47). The VR drawing unit 10 reads the current camera position and time from the scene information management unit 21 and redraws (S49). The time is? If it is 1.0, the time is not changed.
[0058]
(Search for object position on VR scene) The VR scene is searched and the result is displayed as a guidance screen. In addition to the first embodiment, time information is also held as a search result. When searching for “automobile” by keyword, the contents shown in FIGS. 24 and 25 are retained, and guidance screens {circle around (9)}-3 and {circle around (9)}-4 are displayed.
[0059]
The virtual reality space movement control apparatus 2 according to the second embodiment has been described above. Next, the virtual reality space movement control device 3 according to the third embodiment will be described focusing on the difference from the first embodiment.
[0060]
Example 3 The overall configuration of the virtual reality space movement control device 3 is basically the same as that of the virtual reality space movement control device 1. Therefore, the entire configuration can be expressed as shown in FIG. However, the operation of the VR space movement instruction unit (virtual space search guidance means) 50 is slightly different. The virtual reality space movement control device 3 does not use a guidance screen. Instead, a guidance text frame that displays only the object's explanatory text is provided. Therefore, the table of the spatial position information database 61 is configured by excluding the item of the image file name from the table of the spatial position information database 61 used in the virtual reality space movement control device 1 as shown in FIG.
[0061]
Next, the flow of processing will be described based on the actual display screen. When this system is activated, an initial screen shown in FIG. 27 is displayed. Similar to the first embodiment, the display screen is divided into a VR space display screen (main screen) (1) and a VR space movement instruction screen (sub screen) (2).
[0062]
In the VR space display screen (1), the VR drawing unit 10 reads VR data from the VR data storage unit 30 and displays it. By operating an input device such as a mouse on this screen, the camera position can be freely moved and the VR space can be redrawn. The camera position after movement is stored in the position information management unit 20. Further, under the instruction of the VR space movement instruction screen (2), it is possible to read the camera information from the position information management unit 20 and move the VR space.
[0063]
FIG. 28 is a detailed explanatory diagram of the VR space movement instruction screen (2). The VR space movement instruction screen (2) includes a plan view (3) and a search screen (5) as in the first embodiment, and has the same appearance as the VR space movement instruction screen (2) described in the first embodiment. In place of the guide screen frame for explaining the object in the virtual space, the guide text frames (4) -1, (4) -2, and (4) -3 are displayed. It is done. These guidance text frames are displayed in association with the corresponding camera marks in the plan view (3). This camera mark simply indicates the position of the camera and does not indicate the direction of gaze of the camera. Also, the current camera position is not displayed in the plan view (3).
[0064]
The function of the search screen (5) is the same as that of the virtual reality space movement control device 1 of the first embodiment. FIG. 29 shows a VR space movement instruction screen {circle around (2)} ({circle over (3)}, {circle around (4)}, {circle over (5)}) after searching for “DNP image 5”. The position of the DNP image 5 ((3) -1) is displayed by the search. When the user selects the position of the DNP image 5 on the screen (3) or the guidance text frame ((5) -1) from this screen, the VR space movement instruction unit 50 sets the position where the DNP image 5 can be viewed. Search from the space management DB, read the camera position at the corresponding position, and redraw (1). FIG. 30 shows a screen when (5) -1 is selected.
[0065]
Next, the flow of processing for actually moving the VR space using this system will be described with reference to FIG.
[0066]
(Activation: Display VR space) When this apparatus is activated, the VR drawing unit 10 and the VR space movement instruction unit 51 display the initial display screen of FIG. 27 (S10).
[0067]
(Waiting for input) Thereafter, the apparatus waits for input from an input device such as a mouse or a keyboard (S20). Thereafter, the following three processes (moving in the VR space freely, moving to the specified scene (position and time), searching for the object scene (position and time) in the VR space) are searched according to the input instruction thereafter. )
[0068]
(Move freely in the VR space) When a mouse operation signal on the VR space display screen is detected in the input waiting state (S20), the signal is interpreted according to the same rules as in the first embodiment, and the camera is moved on the VR space. And redraw the VR space (S30). Next, the camera position after the free movement in the VR space is stored in the position information management unit 20 (S32). The coordinate conversion formula from the VR space coordinates to the plan view coordinates follows Formula 1 as in the first embodiment. Note that the VR space movement instruction unit 50 reads the camera position from the position information management unit 20 and updates the display at regular time intervals (for example, every second).
[0069]
(Select and move an object in the VR space) The user can select one of the guidance text frames (4)-* or (5)-* on the guidance screen, or any camera in the plan view (3). When the mark is selected, the camera position in the VR space according to the selection item is stored in the position information management unit 20 (S42). The VR drawing unit 10 reads the camera position updated from the position information management unit 20 and redraws it (S44).
[0070]
(Search for the object position in the VR space) If the user has entered a keyword in the search frame {circle over (5)} for searching, the VR space position search is performed in the same manner as in the first embodiment (S50). For example, when “DNP image 5” is input as a search key, the VR space movement instructing unit 50 makes an inquiry to the object information management DB in the same manner as in the first embodiment, and those that match the input keyword are “ It searches for “name” and “search key information”, and if there is a match, the object number and the position on the plan view are held. Next, the object number held previously is used to search the spatial position information management DB for the same object in the drawn object number. If there is an identical item, the record information is retained. In this case, the contents of FIG. 20 (the same as the case of the first embodiment) and FIG. 32 are retained.
[0071]
Next, the plan view display screen is updated. First, based on the position on the plan view of FIG. 32, the object position (rectangle: upper left 0.40 0.42, lower right 0.41,0.49) to be searched is drawn on the plan view display screen. Also, the explanatory text to be searched is displayed (S54).
[0072]
Next, assuming that the object position on the plan view is selected, the camera position shown in FIG. 32 is stored in the position information management unit 20 (S62). Thus, the camera position in the VR space is updated to a position where the searched object can be displayed. Then, in the next cycle of the VR space drawing unit 10, the current camera position is read from the position information management unit 20 and redrawn (S44).
[0073]
The virtual reality space movement control device 3 has been described as the third embodiment. As an embodiment of the present invention, there is no need to display the current camera position in the plan view (3). In order to guide the object in the virtual space, a guide text frame may be used instead of the guide screen frame. Further, the camera mark may be a mark representing only the position of the camera. When jumping to the position of a specific object, a guidance text frame may be selected, or the camera mark itself may be selected.
[0074]
Although the contents of the present invention have been described as three examples according to preferred embodiments, the present invention is not limited to the description of these examples. Various implementations are possible without departing from the spirit of the present invention.
[0075]
【The invention's effect】
By providing a sub-screen and providing a guide screen and a search key receiving frame there, the search of the virtual world has become very easy, and users are not forced to make unnecessary moves. Therefore, the user can fully appreciate the virtual world, which is the original purpose of the user. Also, in a VR space changing on the time axis, it is difficult to meet the target scene (a place at a certain time) if the VR space is moved by the conventional method. It was difficult to reach the same scene. By using this system, it is possible to reach the same scene as many times as possible, so it is possible to appreciate the scene and content that you want to see.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of a virtual reality space movement control device 1 according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram of shape data.
FIG. 3 is an initial display screen.
FIG. 4 is plan view data.
FIG. 5 is a virtual reality space movement instruction screen.
FIG. 6 is a display screen after selecting (4) -1.
FIG. 7 is a virtual reality space movement instruction screen after search.
FIG. 8 is a display screen when (4) -4 is selected.
FIG. 9 is an explanatory diagram of an operation flow of the virtual reality space movement control device.
FIG. 10 is a diagram illustrating a correspondence relationship between a plan view and a virtual reality space.
FIG. 11 is an overall configuration diagram of a virtual reality space movement control device 2 according to a second embodiment.
12 is an initial display screen of the virtual reality space movement control device 2. FIG.
13 is a movement instruction screen of the virtual reality space movement control device 2. FIG.
FIG. 14 is a VR scene movement instruction screen after search.
FIG. 15 is a display screen when (9) -4 is selected.
FIG. 16 is a flowchart illustrating the flow of movement in the VR space.
FIG. 17 is an explanatory diagram of a spatial position information management database.
FIG. 18 is an explanatory diagram of an object information management database.
FIG. 19 shows contents corresponding to the case where (4) -1 in the spatial position information management database is selected.
FIG. 20 is an explanatory diagram of an object information management database.
FIG. 21 is an explanatory diagram of a spatial position information management database.
FIG. 22 is an explanatory diagram of a spatial position information management database.
FIG. 23 is an explanatory diagram of an object information management database.
FIG. 24 is an explanatory diagram of an object information management database.
FIG. 25 is an explanatory diagram of a spatial position information management database.
FIG. 26 is an explanatory diagram of a spatial position information management database.
27 is an initial display screen of the virtual reality space movement control device 3. FIG.
FIG. 28 is a movement instruction screen of the virtual reality space movement control device 3;
FIG. 29 is a virtual reality space movement instruction screen after search.
30 is a display screen when (5) -1 in FIG. 29 is selected. FIG.
31 is an explanatory diagram of an operation flow of the virtual reality space movement control device 3. FIG.
32 is an explanatory diagram of information extracted from the spatial position information management database temporarily stored in the VR space movement instruction unit 50 as a result of the search. FIG.
[Explanation of symbols]
1, 2 virtual reality space movement control device
10 VR drawing section
20 Location Information Management Department
21 Scene Information Management Department
30 VR data storage
40 Plan view data storage
50 VR space movement instruction section
51 VR scene movement instruction section
60 Database section
61 Spatial location information management database
62 Object information management database

Claims (4)

仮想空間を表現するデータを記憶するVRデータ格納部と、A VR data storage that stores data representing the virtual space;
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置を記憶管理する位置情報管理部または現在のカメラ位置及び時刻を記憶管理するシーン情報管理部のいずれかと、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、記憶手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置であって、Reads data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame, a plan view data storage unit for storing plan view data of the virtual world, and stores the current camera position Either a position information management unit to manage or a scene information management unit to store and manage the current camera position and time, and a virtual to display a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame A virtual reality space movement control device having a main screen and a sub-screen for freely moving in a virtual space and viewing a virtual world in response to an operation instruction from an input device such as a mouse provided with a space search guidance means and a storage means. And
前記記憶手段には、仮想世界に存在するオブジェクトを、その識別番号と、その存在位置情報と、そのオブジェクトに関連するテキスト情報により定めた第1のテーブルと、In the storage means, an object existing in the virtual world is identified by its identification number, its existence position information, and a first table defined by text information related to the object,
仮想世界に事前に定められたカメラマークを、そのカメラ位置と注視方向、そのカメラマークが描画する景観図データ、その景観図に描画されるオブジェクトの識別番号、そのカメラマークに関連するテキスト情報により記述した第2のテーブルと、を保持しておき、前記仮想空間探索案内手段は、前記カメラマークを前記仮想空間の平面図上にマークするとともに、そのカメラマークの景観図とそのカメラマークに関連するテキスト情報から案内画面を構成して平面図上の前記マークと関連付けて前記副画面枠内に表示して、仮想現実空間内のオブジェクトの存在を利用者に案内させるとともに、この平面図上のカメラマークまたは案内画面枠が選択されることを、そのカメラマークの位置への移動指示として受付け、前記シーン情報管理部または位置情報管理部へその移動指示を伝えるように構成された仮想現実空間移動制御装置。The camera mark determined in advance in the virtual world is determined by its camera position and gaze direction, landscape map data drawn by the camera mark, identification number of the object drawn in the landscape map, and text information related to the camera mark. The virtual space search and guidance means marks the camera mark on the plan view of the virtual space, and relates to the landscape view of the camera mark and the camera mark. A guide screen is constructed from the text information to be displayed and associated with the mark on the plan view and displayed in the sub-screen frame to guide the user about the existence of the object in the virtual reality space. The selection of a camera mark or guide screen frame is accepted as an instruction to move to the position of the camera mark, and the scene information management Or virtual reality space movement control device configured to communicate the movement instruction to the location information management unit.
仮想空間を表現するデータを記憶するVRデータ格納部と、  A VR data storage that stores data representing the virtual space;
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置を記憶管理する位置情報管理部と、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置であって、Reads data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame, a plan view data storage unit for storing plan view data of the virtual world, and stores the current camera position Operation instruction by an input device such as a mouse provided with a position information management unit to be managed and a virtual space search guide means for displaying a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame A virtual reality space movement control device having a main screen and a sub-screen for moving freely in a virtual space to appreciate a virtual world,
検索キーから、仮想世界の該当するオブジェクトの位置情報、該オブジェクトを描画するカメラ位置情報、および該オブジェクトの名称などの該オブジェクトに関連するテキスト情報を抽出するように構成されたデータベース部をさらに備え、A database unit configured to extract the position information of the corresponding object in the virtual world, the camera position information for drawing the object, and the text information related to the object such as the name of the object from the search key; ,
前記仮想空間探索案内手段は、前記いずれかの画面上に検索キー入力部と検索開始ボタンを設け、鑑賞したいオブジェクトのキーを前記検索キー入力部に入力されて検索開始指示を受けると、前記副画面枠内に、検索結果である該当オブジェクトに関連するテキストを表示した案内テキスト枠を設けるとともに、前記平面図上に、検索結果である該オブジェクトの存在位置を表すオブジェクトマークを前記案内テキスト枠と関連付けて表示して、検索されたオブジェクトを利用者に案内するとともに、このオブジェクトマークまたは前記案内テキスト枠が選択されると、または、無条件で自動的に、前記位置情報管理部へ検索結果である該オブジェクトを描画するカメラ位置情報を伝え、前記VR描画部にそのカメラ位置からの仮想世界の画面を主画面枠に表示させるよう構成された仮想現実空間移動制御装置。The virtual space search guide means is provided with a search key input unit and a search start button on any of the screens. When a key of an object to be viewed is input to the search key input unit and receives a search start instruction, A guidance text frame displaying text related to the object as a search result is provided in the screen frame, and an object mark indicating the location of the object as a search result is displayed on the plan view as the guidance text frame. It displays in association and guides the searched object to the user, and when this object mark or the guidance text frame is selected or automatically unconditionally, the position information management unit is displayed as a search result. Information on the camera position at which the object is drawn is transmitted to the VR drawing unit, and a virtual world image from the camera position is sent to the VR drawing unit. Virtual reality space movement control device configured to display the on the main screen frame.
仮想空間を表現するデータを記憶するVRデータ格納部と、  A VR data storage that stores data representing the virtual space;
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置を記憶管理する位置情報管理部と、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面をReads data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame, a plan view data storage unit for storing plan view data of the virtual world, and stores the current camera position Operation instruction by an input device such as a mouse provided with a position information management unit to be managed and a virtual space search guide means for displaying a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame The main screen and the sub screen to move freely in the virtual space and appreciate the virtual world 有する仮想現実空間移動制御装置であって、A virtual reality space movement control device comprising:
検索キーから、仮想世界の該当するオブジェクトの位置情報、該オブジェクトを描画するカメラ位置情報、該カメラ位置から描画される景観図画像および該オブジェクトの名称などの該オブジェクトに関連するテキスト情報を抽出するように構成されたデータベース部をさらに備え、From the search key, the position information of the corresponding object in the virtual world, the camera position information for drawing the object, the landscape map image drawn from the camera position and the text information related to the object such as the name of the object are extracted. And further comprising a database part configured as follows:
前記仮想空間探索案内手段は、前記いずれかの画面上に検索キー入力部と検索開始ボタンを設け、鑑賞したいオブジェクトのキーを前記検索キー入力部に入力されて検索開始指示を受けると、前記副画面枠内に、The virtual space search guide means is provided with a search key input unit and a search start button on any of the screens. When a key of an object to be viewed is input to the search key input unit and receives a search start instruction, In the screen frame,
検索結果である該当オブジェクトに関連するテキストと検索結果である該オブジェクトが描画される景観図を表示した案内画面枠を設けるとともに、前記平面図上に、検索結果である該オブジェクトを描画するカメラ位置を表すカメラマークを前記案内画面枠と関連付けて表示するとともに検索結果である該オブジェクトの存在位置を表すオブジェクトマークを表示して、検索されたオブジェクトを利用者に案内するとともに、このカメラマークまたは前記案内画面枠が選択されると、前記位置情報管理部へこのカメラマークの表すカメラ位置情報を伝え、前記VR描画部にそのカメラ位置からの仮想世界の画面を主画面枠に表示させるよう構成された仮想現実空間移動制御装置。A camera position for providing a guide screen frame displaying a text related to an object as a search result and a landscape map in which the object as a search result is drawn, and drawing the object as a search result on the plan view Is displayed in association with the guide screen frame, and an object mark indicating the presence position of the object as a search result is displayed to guide the searched object to the user. When the guide screen frame is selected, the camera position information indicated by the camera mark is transmitted to the position information management unit, and the VR drawing unit displays the virtual world screen from the camera position on the main screen frame. Virtual reality space movement control device.
仮想空間を表現するデータを記憶するVRデータ格納部と、  A VR data storage that stores data representing the virtual space;
前記VRデータ格納部のデータを読み出し3次元空間としての仮想世界を主画面枠に描画するVR描画部と、仮想世界の平面図データを格納する平面図データ格納部と、現在のカメラ位置および時刻を記憶管理するシーン情報管理部と、現在探索中の仮想空間の平面図を前記主画面枠とは異なる副画面枠中に表示する仮想空間探索案内手段と、を備えたマウス等の入力装置による操作指示により仮想空間内を自由に動いて仮想世界を鑑賞する主画面と副画面を有する仮想現実空間移動制御装置であって、A VR drawing unit that reads out data from the VR data storage unit and draws a virtual world as a three-dimensional space on the main screen frame; a plan view data storage unit that stores plan view data of the virtual world; and a current camera position and time A scene information management unit for storing and managing virtual space search guidance means for displaying a plan view of the currently searched virtual space in a sub-screen frame different from the main screen frame, by an input device such as a mouse A virtual reality space movement control device having a main screen and a sub screen for freely moving in a virtual space by operating instructions and viewing a virtual world,
検索キーから、仮想世界の該当するオブジェクトの位置情報、該オブジェクトを描画するカメラ位置および時刻の情報、該カメラ位置から描画される景観図画像および該オブジェクトの名称などの該オブジェクトに関連するテキスト情報を抽出するように構成されたデータベース部をさらに備え、From the search key, the position information of the corresponding object in the virtual world, the camera position and time information for drawing the object, the landscape map image drawn from the camera position and the text information related to the object such as the name of the object Further comprising a database part configured to extract
前記仮想空間探索案内手段は、前記いずれかの画面上に検索キー入力部と検索開始ボタンを設け、鑑賞したいオブジェクトのキーを前記検索キー入力部に入力されて検索開始指示を受けると、前記副画面枠内に、The virtual space search guide means is provided with a search key input unit and a search start button on any of the screens. When a key of an object to be viewed is input to the search key input unit and receives a search start instruction, In the screen frame,
検索結果である該当オブジェクトに関連するテキストと検索結果である該オブジェクトが描画される景観図を表示した案内画面枠を設けるとともに、前記平面図上に、検索結果である該オブジェクトを描画するカメラ位置を表すカメラマークを前記案内画面枠と関連付けて表示するとともに検索結果である該オブジェクトの存在位置を表すオブジェクトマークを表示して、検索されたオブジェクトを利用者に案内するとともに、このカメラマークまたは前記案内画面枠が選択されると、前記シーン情報管理部へ選択されたカメラマークのカメラ位置情報および時刻情報を伝え、前記VR描画部にそのカメラ位置およびその時刻からの仮想世界の画面を主画面枠に表示させるよう構成された仮想現実空間移動制御装置。A camera position for providing a guide screen frame displaying a text related to an object as a search result and a landscape map in which the object as a search result is drawn, and drawing the object as a search result on the plan view Is displayed in association with the guide screen frame, and an object mark indicating the presence position of the object as a search result is displayed to guide the searched object to the user. When the guide screen frame is selected, the camera position information and time information of the selected camera mark are transmitted to the scene information management unit, and the virtual position screen from the camera position and time is transmitted to the VR drawing unit as the main screen. A virtual reality space movement control device configured to be displayed on a frame.
JP2001024619A 2000-03-21 2001-01-31 Virtual reality space movement control device Expired - Fee Related JP3711025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001024619A JP3711025B2 (en) 2000-03-21 2001-01-31 Virtual reality space movement control device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-78815 2000-03-21
JP2000078815 2000-03-21
JP2001024619A JP3711025B2 (en) 2000-03-21 2001-01-31 Virtual reality space movement control device

Publications (2)

Publication Number Publication Date
JP2001338311A JP2001338311A (en) 2001-12-07
JP3711025B2 true JP3711025B2 (en) 2005-10-26

Family

ID=26587986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001024619A Expired - Fee Related JP3711025B2 (en) 2000-03-21 2001-01-31 Virtual reality space movement control device

Country Status (1)

Country Link
JP (1) JP3711025B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5090135B2 (en) * 2007-11-14 2012-12-05 オリンパスイメージング株式会社 Image viewing system, image viewing method, image viewing server, and terminal device
US20090237396A1 (en) * 2008-03-24 2009-09-24 Harris Corporation, Corporation Of The State Of Delaware System and method for correlating and synchronizing a three-dimensional site model and two-dimensional imagery
JP2014016967A (en) * 2012-07-11 2014-01-30 Sony Corp Information display program and information display device
JP5519751B2 (en) * 2012-09-11 2014-06-11 オリンパスイメージング株式会社 Image viewing system, image viewing method, image viewing server, and terminal device
JP5519750B2 (en) * 2012-09-11 2014-06-11 オリンパスイメージング株式会社 Image viewing system, image viewing method, image viewing server, and terminal device
JP6077068B1 (en) * 2015-07-30 2017-02-08 株式会社オプティム Augmented reality system and augmented reality method
JP6275764B2 (en) * 2016-03-25 2018-02-07 株式会社ファイン Interior view image creation apparatus, interior view image creation method, and computer program
CN105892680A (en) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 Interactive equipment control method and device based on virtual reality helmet
JP6306765B1 (en) 2017-02-27 2018-04-04 株式会社コロプラ Method executed by computer for moving in virtual space, program for causing computer to execute the method, and information processing apparatus
CN112308983B (en) * 2020-10-30 2024-03-29 北京虚拟动点科技有限公司 Virtual scene arrangement method and device, electronic equipment and storage medium
JP7011363B1 (en) 2021-10-07 2022-01-26 毅 曹 Storyboard production equipment, storyboard production method and storyboard production program
CN115951806B (en) * 2022-11-01 2024-06-07 金华八达集团有限公司监理分公司 AR technology-based construction scene identification method and terminal

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3215306B2 (en) * 1995-09-19 2001-10-02 株式会社ナムコ Image synthesis method and apparatus

Also Published As

Publication number Publication date
JP2001338311A (en) 2001-12-07

Similar Documents

Publication Publication Date Title
CN112219205B (en) Matching of content to a spatial 3D environment
KR102555443B1 (en) Matching content to a spatial 3d environment
Wither et al. Annotation in outdoor augmented reality
JP4130409B2 (en) How to interact with 3D graphic environment
Kooper et al. Browsing the real-world wide web: Maintaining awareness of virtual information in an AR information space
US20010028369A1 (en) Three dimensional spatial user interface
JP3148133B2 (en) Information retrieval device
JP3711025B2 (en) Virtual reality space movement control device
KR20170010444A (en) Zooming graphical user interface
JP2004507724A (en) Method for displaying target information, method for navigating in a map screen, computer program product and navigation device
JP2007535733A (en) System that enables image distribution and interactive operation
JPH08287085A (en) Data base retrieval system
CN114385052B (en) Dynamic display method of Tab column and three-dimensional display device
CN112684893A (en) Information display method and device, electronic equipment and storage medium
US11797171B2 (en) Interactive media content platform
Chung et al. Development of a head-mounted mixed reality museum navigation system
JP7381556B2 (en) Media content planning system
JP2005044102A (en) Image reproduction method and device
US11995868B2 (en) Image processing device, image providing server, image display method, and image provision method for navigating horizontally or vertically between floor images
Bettio et al. A novel approach for exploring annotated data with interactive lenses
JP2004536335A (en) Time series by image
JPH0916315A (en) Information retrieval system
JP2006155231A (en) Viewing system and program
WO2020084192A1 (en) Method, arrangement, and computer program product for three-dimensional visualization of augmented reality and virtual reality environments
JP2935315B2 (en) Figure selection input method in 3D figure processing system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees