JP4082546B2 - 3D virtual space construction system - Google Patents
3D virtual space construction system Download PDFInfo
- Publication number
- JP4082546B2 JP4082546B2 JP2000039534A JP2000039534A JP4082546B2 JP 4082546 B2 JP4082546 B2 JP 4082546B2 JP 2000039534 A JP2000039534 A JP 2000039534A JP 2000039534 A JP2000039534 A JP 2000039534A JP 4082546 B2 JP4082546 B2 JP 4082546B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- image data
- panoramic
- panoramic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、3次元仮想空間を構築する技術に関する。
【0002】
【従来の技術】
コンピュータ・グラフィックス(CG)により3次元仮想空間を構築する方法がある。この方法では、予め3次元モデルを用意し、テクスチャマッピングやレンダリングなどの技法を駆使して任意の位置から任意の方向を見たシーンを画面に描画する。しかし、自由に歩き回ることができる自然な3次元仮想空間を実現するには、3次元モデルデータの取得など困難な技術的課題が多い。
【0003】
3次元仮想空間を実現するもう1つの方法として、ある地点で撮影した複数枚の2次元実写画像から、その地点の周囲のシーンを表すパノラマ画像を合成し、このパノラマ画像から任意の観察点から見えるシーンを表す画像を切り出して画面に表示する方法がある。しかし、切り出された画像の単純な拡大処理によって観察点の前進運動時のシーンを表す画像を作成するため、前進するほどシーンの画質が悪化してしまう。また、あくまで1つの全周パノラマ画像でシーンを表現するのであるから、運動の自由度と範囲が制限されてしまう。
【0004】
もう1つの方法として、例えば特開平10−91814号公報に開示されているように、「ホットリンク」と呼ばれる手法によって、予め用意されたいくつかのパノラマ画像の間を移動できるようにする方法がある。しかしながら、パノラマ画像間の移動が可能になるとはいっても、あるパノラマ画像から別のパノラマ画像へ移動する際の環境の変化を切れ目なく見ることができるわけではなく、連続した3次元仮想空間は構築できない。
【0005】
【発明が解決しようとする課題】
以上の問題点に鑑み、本発明は、比較的簡単な画像合成処理によって、観察点又は視線の運動時に違和感のない連続した仮想環境を提供できる3次元仮想空間構築システムを実現しようとするものである。
【0006】
【課題を解決するための手段】
本発明においては、実空間において離散的に配置された地点をそれぞれ中心とした複数の全周パノラマ画像をデジタルデータとして用意し、観察点に近い中心を持つ少なくとも2つの全周パノラマ画像データを用いて、観察点から見えるシーンを表す画像を作成し表示することにより、連続した3次元仮想空間を構築する。
【0007】
具体的には、本発明においては、観察点の前進運動時に違和感のない連続した仮想環境を提供するため、観察点に近い地点を中心に持つ第1の全周パノラマ画像データと、この第1の全周パノラマ画像データの中心から視線方向にある最も近い地点を中心に持つ第2の全周パノラマ画像データとを用いて、観察点の前進運動時に観察点から見えるシーンを表す画像を合成する。また、シーンの中央部の解像度を維持するため、シーンを表す画像の中心部の画素情報を第2の全周パノラマ画像データから、周辺部の画素情報を第1の全周パノラマ画像データから、それぞれ提供する合成方法とする。
【0008】
詳しくは、第1の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを該地点から観察点までの距離に応じた倍率で拡大処理し、第2の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを観察点から該地点までの距離に応じた倍率で縮小し、該縮小処理で得られた縮小画像の周囲に、前記拡大処理で得られた拡大画像を用いて画素を補間する。
【0009】
また、観察点の後退運動時に違和感のない連続した仮想環境を提供するため、観察点に近い地点を中心に持つ第1の全周パノラマ画像データと、この第1の全周パノラマ画像データの中心から視線方向と反対方向にある最も近い地点を中心に持つ第2の全周パノラマ画像とを用いて、観察点の後退運動時に観察点から見えるシーンを表す画像を合成する。また、シーンの中央部の解像度を維持するため、シーンを表す画像の中心部の画素情報を第1の全周パノラマ画像データから、周辺部の画素情報を第2の全周パノラマ画像データから、それぞれ提供する合成方法とする。
【0010】
詳しくは、第1の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを該地点から観察点までの距離に応じた倍率で縮小し、第2の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを観察点から該地点までの距離に応じた倍率で拡大処理し、前記縮小処理で得られた縮小画像の周囲に、該拡大処理で得られた拡大画像を用いて画素を補間する。
【0011】
【発明の実施の形態】
本発明の実施の一形態である3次元仮想空間構築システムのブロック構成を図1に示す。この3次元仮想空間構築システムは、画像表示装置101、キーボード102、マウス(ポインティング装置)103、入力解析装置104、パノラマ画像選択装置105、パノラマ画像蓄積装置106、表示画像作成装置107、画像表示制御装置110から構成される。このようなシステムは、通常、汎用又は専用のコンピュータの資源を利用しソフトウェアにより実現されるが、専用のハードウェアによって実現することも可能である。
【0012】
パノラマ画像蓄積装置106には、実空間において所定の相対位置関係にある離散的な複数の地点(地点1,...地点n)を中心とした複数の全周パノラマ画像100がデジタルデータとして予め蓄積されている。これら複数の全周パノラマ画像の中心(撮影地点)は、実空間において、例えば図2に示すように、メッシュ状に並んだ正三角形の各頂点(黒丸で示されている)に配置される。図2中の各円は全周パノラマ画像を表している。
【0013】
なお、全周パノラマ画像などの画像はデジタルデータとして表現されるが、本明細書においては単に画像と呼ぶことがある。
【0014】
キーボード102とマウス103は、3次元仮想空間における観察点又は視線の運動の種類(前進、後退、並進又は回転)と、その運動量(前進距離、後退距離、並進距離、回転角度)などを指示するためにユーザにより利用されるものである。入力解析装置104は、キーボード102やマウス103から入力された情報を解析し、3次元仮想空間内の観察点の現在位置と視線方向、指定された運動の種類(前進、後退、並進又は回転)及び運動量を判定し、判定した情報をパノラマ画像選択装置105及び表示画像作成装置107に与える。パノラマ画像選択装置105は、入力解析装置104より与えられた情報に基づいて、表示画像作成装置107で必要とされる全周パノラマ画像を選択し、それをパノラマ画像蓄積装置106から表示画像作成装置107へ出力させるものである。表示画像成装置107は、パノラマ画像蓄積装置106から入力された全周パノラマ画像から、観察点から見えるシーンを表す表示画像を作成し、それを画像表示制御装置110に渡す。画像表示制御装置110は、その表示画像を画像表示装置101の画面に表示させる。
【0015】
以下、この3次元仮想空間構築システムの動作を説明する。この3次元仮想空間構築システムが起動されると、例えば、既定の地点を中心とした1つの全周パノラマ画像、あるいは事前にユーザによって選択された1つの全周パノラマ画像がパノラマ画像選択装置105によって選択され、この全周パノラマ画像がパノラマ画像蓄積装置106より表示画像作成装置107へ出力される。表示画像作成装置107は、その全周パノラマ画像より、その中心での既定の視線方向の視野角(画像表示装置101の画面の大きさに対応)の範囲を切り出し、切り出した画像を最初の表示画像として画像表示制御装置110に渡す。例えば、図3のA地点を中心とした全周パノラマ画像100Aが表示画像作成装置107に与えられた場合、既定の視線方向をA地点からB地点に向かう方向とし、A地点(観察点)での視野角φの範囲の画像Aを切り出し、これを最初の表示画像として画像表示制御装置110に渡す。
【0016】
その後、ユーザが、この最初の表示画像が表示された画像表示装置101の画面を見ながらマウス103又はキーボード102によって、例えば前進運動を指示したとする。入力解析装置104は、その入力情報を解析し、観察点の現在位置(例えばA地点)、前進運動である旨と前進距離の情報をパノラマ画像選択装置105及び表示画像作成装置107に与える。前進距離は、例えばマウス103のボタンやキーボード102の特定キーの押された時間の長さに応じて決定される。ここで、前進運動とは、観察点の視線方向への移動である。前進運動の場合、観察点が進むにつれてシーンの中心部のオブジェクトが徐々に大きく見える(近づく)ような表示画像が作成される。そのような表示画像の作成のためには、観察点の移動につれて異なった全周パノラマ画像が必要となる。必要な全周パノラマ画像がパノラマ画像選択部105によって選択され、それがパノラマ画像蓄積部106から表示画像作成部107へ出力される。
【0017】
例えば、図3のA地点からP地点まで観察点が前進する場合、パノラマ画像選択装置105は、地点Aから前進方向(視線方向)にある最も近いB地点を中心とした全周パノラマ画像100Bを選択し、それをパノラマ画像蓄積装置106から表示画像作成装置107へ出力させる。A地点を中心とした全周パノラマ画像100Aはすでに表示画像作成部107に入力され蓄積されている。表示画像作成装置107において、前進運動時に観察点から見えるシーンを表す表示画像を順次作成する。
【0018】
P地点で見えるシーンを表す表示画像の作成方法は次の通りである。表示画像作成装置107において、図3に示すように、全周パノラマ画像100Aより、A地点での視野角φの範囲の画像Aを切り出す。この画像Aを、A地点からP地点の距離つまり観察点の前進距離に応じた倍率で拡大し、この拡大画像のP地点での視野角φの範囲に対応する部分(画像a)を切り出す。換言すれば、表示画像のサイズに合うように拡大画像の周辺部分をトリミングする。なお、全周パノラマ画像100Aから画像aに対応する部分を直接切り出して拡大処理してもよい。また、全周パノラマ画像100Bより、B地点での視野角φの範囲に対応する画像Bを切り出す。この画像Bを前進距離に応じた倍率で縮小処理する。すなわち、B地点より前進距離だけ進んだ位置での視野角φの範囲に対応するサイズまで画像Bを縮小処理する。そして、画像Bの縮小画像bの周辺に、画像aを使って画素を補間することにより、地点Pで見えるシーンを表す表示画像を合成する。つまり、表示画像の周辺部の画素情報は全周パノラマ画像Aから提供し、表示画像の中心部の画素情報は全周パノラマ画像Bから提供するという合成方法である。このような合成方法によって、中心部の解像度の高い表示画像を作成することができる。
【0019】
同様の方法で、A地点からB地点までの間の各地点における表示画像が逐次作成され、画像表示装置101に表示される。観察点がさらに前進してB地点に到達すると、全周パノラマ画像100Bから切り出された画像Bが表示画像として表示される。観察点がさらに前進すると、B地点の視線方向にある最も近いC地点を中心とした全周パノラマ画像100C(不図示)と全周パノラマ画像Bとから表示画像が同様の方法で作成されて表示される。
【0020】
なお、概念的には、B地点における表示画像も、B地点を通過した地点における表示画像と同じ合成方法によって作成される。ただし、全周パノラマ画像100C(不図示)から切り出された画像はゼロサイズまで縮小されてから合成されることになるため、結果として、全周パノラマ画像100BのみでB地点の表示画像が作成される形になるのである。このことは、後述の後退運動の場合も同様に理解してよい。
【0021】
このようにして作成された表示画像が画像表示装置101の画面に逐次表示されるため、画像表示装置101の画面を見ているユーザは、あたかも切れ目のない自然な3次元空間内を前進しているかのような感覚を体験できる。また、シーンの中央部は良好な解像度が維持されるためシーンの画質の面から前進距離が制限されることはない。
【0022】
次に、マウス103又はキーボード102によって後退運動が指示されたとする。この時、入力解析装置104から、観察点の現在位置、後退運動である旨及び後退距離の情報がパノラマ画像選択装置105及び表示画像作成装置107に与えられる。後退距離は、例えばマウス103のボタンやキーボード102の特定キーの押された時間の長さに応じて決定される。ここで、後退運動とは観察点が視線方向と反対の方向へ移動することである。後退運動の場合、観察点が移動するにつれてシーンの中心部のオブジェクトが徐々に小さく見える(遠ざかる)ような表示画像が作成される。そのような表示画像の作成のためには、観察点の移動につれて異なった全周パノラマ画像が必要となる。
【0023】
例えば、図4のB地点からA地点へ向かって後退する場合、パノラマ画像選択装置105は、B地点から後退方向(視線方向と反対の方向)にある最も近いA地点を中心とした全周パノラマ画像100Aをパノラマ画像蓄積装置106から表示画像作成装置107に入力させる。B地点を中心とする全周パノラマ画像100Bはすでに表示画像作成部107に蓄積されている。
【0024】
後退途中のP地点で見えるシーンの表示画像の作成方法は図3に関連して説明した前進運動の場合と処理的には同等である。ただし、図4から理解されるように、観察点の現在位置に対応する全周パノラマ画像100Bより、表示画像の中心部の画素情報が提供され、表示画像の周辺部の画素情報は後退方向にある全周パノラマ画像100Aより提供されるという点で、概念的には前進の場合と逆の処理となる。また、B地点からP地点までの間の各地点での表示画像が逐次作成されるが、その順序は前進の場合と逆であり、B地点に近い地点の表示画像から先に作成される。かくして、ユーザは、あたかも切れ目のない自然な3次元空間内を後退しているかのような感覚を擬似的に体験できる。また、シーンの中心部は良好な解像度が維持される。
【0025】
現在の一般的なデジタルカメラは、光学ズーム機構と電子ズーム機構を備えている。電子ズーム機構では、画像の一部を切り出して拡大処理を行うことによりズームインを実現するため、光学ズーム機構によってズームインした画像に比べ画質が劣る。これに対し、以上に述べた前進運動及び後退運動の際の表示画像の合成方法によれば、画像の中心部の解像度が悪化しないため、光学ズーム機構に近いズーム機能を実現できる。
【0026】
図5は、このようなズームの様子を示している。図中、観察点の右から左への前進移動がズームインに相当し、左から右への後退移動がズームアウトに相当する。黒丸はパノラマ画像蓄積装置106に予め蓄積されている各全周パノラマ画像100の中心である地点1〜nを示し、画像1〜nは地点1〜nに観察点が位置しているときの表示画像で、その地点を中心とした1つの全周パノラマ画像より直接的に切り出されたものである。地点1〜nの間の地点での表示画像は相前後した2つの全周パノラマ画像から合成されるが、これが図5中の「合成画像」であり、その中心部の解像度は画像1〜nと同等である。
【0027】
次に、ユーザが並進運動を指示したとする。並進運動とは観察点が視線方向と直交する方向へ移動することである。例えば、図6に示すように、A地点からB地点へ向かって並進する場合を考える。画像Aは全周パノラマ画像100AからA地点での視野角φの範囲を切り出した画像であり、画像Bは全周パノラマ画像100BのB地点での視野角φの範囲を切り出した画像である。並進途中のP地点で見えるシーンを表す表示画像(合成画像)は、画像A,Bを用いて次のようにして作成される。
【0028】
図6において、P地点での視野角φの空間をA’,D,B’に分けて考える。空間Dは、視差のある画像Aの一部と画像Bの一部がオーバーラップして投影される空間である。空間A’は画像Aの一部みが投影される空間であり、空間Bは画像Bの一部だけが投影される空間である。このことに着目し、P地点のA,B地点からの距離に応じた重み(換言すればA地点からの移動距離に応じた重み)を用いて、画像A,Bの空間Dに対応した部分の重み付け加算によって表示画像のD部分の画素情報を合成し、表示画像の空間A’,B’に対応する部分の画素情報として画像A,Bの対応部分の画素情報を用いる。つまり、表示画像のオーバーラップ部分Dの画素情報は、全周パノラマ画像100Aと全周パノラマ画像100Bから与えられ、表示画像のA’部分の画素情報は全周パノラマ画像100Aから与えられ、表示画像のB’部分の画素情報は全周パノラマ画像100Bから与えられる。このような合成方法によれば、観察点の位置に応じた視差のある、より自然なシーンを表示できる。
【0029】
同様の方法によって、A地点からB地点までの各地点で見えるシーンを表す表示画像が逐次合成される。このようにして合成された表示画像が画像表示装置101に逐次表示されるため、ユーザは、あたかも切れ目のない自然な3次元空間内をA地点からB地点まで並進するかのような感覚を体験することができる。B地点を越えて並進する場合には、全周パノラマ画像100Bとその右側の全周パノラマ画像とを用い、同様の方法でシーンを表す表示画像が合成されて表示される。
【0030】
次に、ユーザが回転運動を指示したとする。回転運動とは視線を水平に振る運動、つまり視線の水平回転である。回転角度は、例えばマウス103のボタン又はキーボード102の特定キーの押下時間によって指示される。回転運動の場合、パノラマ画像選択装置105は、観察点に近い地点を中心とした3つの全周パノラマ画像を選択し、表示画像作成装置107に入力させる。表示画像作成装置107は、その3つの全周パノラマ画像を用いて回転運動時のシーンを表す表示画像を作成する。これについて図7により説明する。
【0031】
図7に示す斜線領域内のP地点で回転運動をする場合、このP地点に最も近いA,B,C地点を中心とした全周パノラマ画像100A,100B,100Cを用いて、P地点を中心とした新しい全周パノラマ画像100Pを合成する。この全周パノラマ画像100PのPA,PB,PC部分には全周パノラマ画像100A,100B,100CのA’,B’,C’部分(太線部分)が貼り付けられるが、PA,PB,PC部分の接続端部ではA’,B’,C’部分の共通した(オーバーラップした)画像データを利用して貼り付け処理が行われる。このようにして合成された全周パノラマ画像100Pから、回転中の各時点での視野角の範囲が表示画像として切り出され、画像表示装置101に表示される。かくして、ユーザは、あたかも連続した自然な3次元空間内で回転運動をするかのような感覚を擬似体験することができる。
【0032】
ただし、ある全周パノラマ画像の中心を観察点として回転運動する場合には、その全周パノラマ画像の各時点における視野角の範囲を切り出した画像を表示画像として用いる。例えば、A地点で回転運動をする場合には、全周パノラマ画像100Aから表示画像が切り出される。
【0033】
以上説明したような本発明による3次元仮想空間構築処理は、前述のように汎用又は専用のコンピュータの資源を利用しソフトウェアにより実現し得る。例えば、図8に示すようなCPU200、主メモリ201、ハードディスク203、キーボードやマウスなどの入力装置207、CRTディスプレイや液晶ディスプレイなどの表示装置204とその制御のための表示コントローラ205、表示データを記憶するためのフレームバッファメモリ206、各種記憶媒体(磁気ディスク、光ディスク、光磁気ディスク、メモリカードなど)210の読み書きのための媒体ドライブ209、外部の機器やネットワークとの通信のための通信装置(モデム、ネットワークアダプタなど)208などをバス211で接続した一般的な構成のコンピュータを利用し、ソフトウェアにより実現することもできる。
【0034】
この場合、予め用意された、実空間において離散的に配置された地点をそれぞれ中心とした複数の全周パノラマ画像データの中から、観察点に近い中心を持つ少なくとも2つの全周パノラマ画像データを選択するステップと、このステップで選択された全周パノラマ画像データを用いて観察点から見えるシーンを表す画像データを作成するステップと、このステップで作成された画像データを表示装置204に表示させるステップとを少なくとも含む3次元仮想空間構築処理をコンピュータに実行させるためのプログラムが、例えば、それが記録された記憶媒体210から媒体ドライブ209によって主メモリ201に読み込まれたり、外部装置より通信装置208によって主メモリ201に読み込まれたり、あるいはハードディスク203から主メモリ201に読み込まれ、CPU200により実行される。このプログラムを、それを固定記憶させた半導体ROMとして実装してもよい。このようなプログラムが記録された各種記憶媒体210や半導体ROMなどの記憶媒体も本発明に包含されるものである。また、全周パノラマ画像データは、例えば、通信装置208や媒体ドライブ209から入力されてハードディスク203に一旦蓄積され、必要な1枚又は複数枚の全周パノラマ画像データがハードディスク203より主メモリ201に読み込まれ処理される。なお、デジタルカメラなどによって撮影された2次元画像データをコンピュータに入力し、コンピュータ内でそれら2次元画像データから全周パノラマ画像データを作成してハードディスク203に保存するようにしてもよい。
【0035】
【発明の効果】
以上に詳細に説明した如く、本発明によれば、複数の全周パノラマ画像を用意するだけで、比較的単純な画像合成処理によって、連続した3次元仮想空間を構築し、その空間内で観察点又は視線を自由に動かすことができる。特に前進運動や後退運動の際に違和感のない連続した仮想環境を提供することができ、前進時又は後退時のシーンの画質悪化を回避できる。
【図面の簡単な説明】
【図1】 本発明による3次元仮想空間構築システムのブロック図である。
【図2】 全周パノラマ画像の中心の実空間上での配置を示す図である。
【図3】 前進運動時のシーンを表す表示画像の合成方法を説明する図である。
【図4】 後退運動時のシーンを表す表示画像の合成方法を説明する図である。
【図5】 3次元仮想空間内での前進運動又は後退運動により実現されるズーム機能の説明図である。
【図6】 並進運動時のシーンを表す表示画像の合成方法を説明する図である。
【図7】 回転運動時のシーンを表す表示画像の合成方法を説明する図である。
【図8】 本発明による3次元仮想空間構築のために利用し得るコンピュータの一例を示すブロック図である。
【符号の説明】
100 全周パノラマ画像
101 画像表示装置
102 キーボード
103 マウス
104 入力解析装置
105 パノラマ画像選択装置
106 パノラマ画像蓄積装置
107 表示画像作成装置
110 画像表示制御装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for constructing a three-dimensional virtual space.
[0002]
[Prior art]
There is a method of constructing a three-dimensional virtual space by computer graphics (CG). In this method, a three-dimensional model is prepared in advance, and a scene viewed in an arbitrary direction from an arbitrary position is drawn on a screen by using a technique such as texture mapping or rendering. However, in order to realize a natural three-dimensional virtual space where people can walk around freely, there are many difficult technical problems such as acquisition of three-dimensional model data.
[0003]
As another method for realizing a three-dimensional virtual space, a panoramic image representing a scene around the point is synthesized from a plurality of two-dimensional real images taken at a point, and an arbitrary observation point is used from the panoramic image. There is a method of cutting out an image representing a visible scene and displaying it on the screen. However, since the image representing the scene at the time of the forward movement of the observation point is created by a simple enlargement process of the clipped image, the image quality of the scene deteriorates as the image moves forward. In addition, since the scene is represented by a single all-around panoramic image, the degree of freedom and range of motion are limited.
[0004]
As another method, for example, as disclosed in Japanese Patent Application Laid-Open No. 10-91814, there is a method for moving between several panoramic images prepared in advance by a technique called “hot link”. is there. However, although it is possible to move between panoramic images, it is not always possible to see changes in the environment when moving from one panoramic image to another panoramic image, and a continuous three-dimensional virtual space is constructed. Can not.
[0005]
[Problems to be solved by the invention]
In view of the above problems, the present invention intends to realize a three-dimensional virtual space construction system that can provide a continuous virtual environment without a sense of incongruity during observation point or line-of-sight movement by relatively simple image composition processing. is there.
[0006]
[Means for Solving the Problems]
In the present invention, a plurality of panoramic images are prepared as digital data, each of which is centered on a point discretely arranged in real space, and at least two panoramic image data having centers close to the observation point are used. Then, a continuous three-dimensional virtual space is constructed by creating and displaying an image representing a scene seen from the observation point.
[0007]
Specifically, in the present invention, in order to provide a continuous virtual environment that does not give a sense of incongruity during the forward movement of the observation point, first panoramic image data centered on a point close to the observation point, and the first Using the second panoramic image data centered on the closest point in the direction of the line of sight from the center of the panoramic image data of, and synthesizes an image representing the scene seen from the observation point during the forward movement of the observation point . Further, in order to maintain the resolution of the central part of the scene, the pixel information of the center part of the image representing the scene is obtained from the second panoramic image data , and the pixel information of the peripheral part is obtained from the first panoramic image data . Each of the synthesis methods is provided.
[0008]
Specifically, the image data in the range of the viewing angle at the point is extracted from the first panoramic image data, the image data is enlarged at a magnification according to the distance from the point to the observation point, and the second The image data in the range of the viewing angle at the point is cut out from the entire panoramic image data, the image data is reduced at a magnification according to the distance from the observation point to the point, and the reduced image obtained by the reduction process Pixels are interpolated around the periphery using the enlarged image obtained by the enlargement process.
[0009]
Further, in order to provide a continuous virtual environment without discomfort during retracting movement of the observation point, and the first total circumferential panoramic image data having mainly point close to the observation point, the center of the first total circumferential panoramic image data Is used to synthesize an image representing a scene seen from the observation point during the backward movement of the observation point, using the second panoramic image centered on the closest point in the direction opposite to the viewing direction. Further, in order to maintain the resolution of the central portion of the scene, the pixel information of the central portion of the image representing the scene is obtained from the first panoramic image data , and the pixel information of the peripheral portion is obtained from the second panoramic image data . Each of the synthesis methods is provided.
[0010]
Specifically, the image data in the range of the viewing angle at the point is cut out from the first panoramic image data of the first circumference, the image data is reduced at a magnification according to the distance from the point to the observation point, and the second whole The image data in the range of the viewing angle at the point is extracted from the peripheral panorama image data, the image data is enlarged at a magnification according to the distance from the observation point to the point, and the reduced image obtained by the reduction process is obtained. Pixels are interpolated around the periphery using the enlarged image obtained by the enlargement process.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a block configuration of a three-dimensional virtual space construction system that is an embodiment of the present invention. This three-dimensional virtual space construction system includes an image display device 101, a
[0012]
In the panorama
[0013]
Note that an image such as an all-round panoramic image is expressed as digital data, but may be simply referred to as an image in this specification.
[0014]
The
[0015]
Hereinafter, the operation of this three-dimensional virtual space construction system will be described. When this three-dimensional virtual space construction system is activated, for example, one panoramic image centered on a predetermined point or one panoramic image selected in advance by the user is displayed by the panoramic image selection device 105. The entire panorama image is selected and output from the panorama
[0016]
Thereafter, it is assumed that the user instructs a forward movement, for example, with the
[0017]
For example, when the observation point advances from the point A to the point P in FIG. 3, the panoramic image selection device 105 displays the
[0018]
A method for creating a display image representing a scene seen at the point P is as follows. In the display
[0019]
In the same way, display images at each point between point A and point B are sequentially created and displayed on the image display device 101. When the observation point further advances and reaches point B, an image B cut out from the all-round
[0020]
Conceptually, the display image at the point B is also created by the same composition method as the display image at the point that has passed the point B. However, since the image cut out from the all-round panorama image 100C (not shown) is reduced to zero size and then combined, as a result, the display image of the point B is created only by the all-
[0021]
Since the display image created in this way is sequentially displayed on the screen of the image display apparatus 101, the user who is viewing the screen of the image display apparatus 101 moves forward in a natural three-dimensional space without any breaks. You can experience the feeling of being. Further, since a good resolution is maintained at the center of the scene, the advance distance is not limited in terms of the image quality of the scene.
[0022]
Next, it is assumed that the backward movement is instructed by the
[0023]
For example, when retreating from point B to point A in FIG. 4, the panoramic image selection device 105 makes a panoramic view around the nearest point A in the retreating direction (direction opposite to the line-of-sight direction) from point B. The
[0024]
The method for creating the display image of the scene that can be seen at the point P in the middle of the backward movement is the same processing as the forward movement described with reference to FIG. However, as can be understood from FIG. 4, pixel information at the center of the display image is provided from the entire
[0025]
A current general digital camera includes an optical zoom mechanism and an electronic zoom mechanism. In the electronic zoom mechanism, zoom-in is realized by cutting out a part of the image and performing an enlargement process. Therefore, the image quality is inferior to the image zoomed in by the optical zoom mechanism. On the other hand, according to the method for synthesizing the display image during the forward movement and the backward movement described above, since the resolution at the center of the image does not deteriorate, a zoom function close to the optical zoom mechanism can be realized.
[0026]
FIG. 5 shows such a zoom state. In the drawing, the forward movement from the right to the left of the observation point corresponds to zoom-in, and the backward movement from the left to the right corresponds to zoom-out. The black circles indicate the
[0027]
Next, it is assumed that the user instructs translational movement. Translational movement means that the observation point moves in a direction perpendicular to the line-of-sight direction. For example, as shown in FIG. 6, consider the case of translation from point A to point B. The image A is an image obtained by cutting out the range of the viewing angle φ at the point A from the all-around
[0028]
In FIG. 6, the space of the viewing angle φ at point P is divided into A ′, D, and B ′. The space D is a space in which a part of the image A with parallax and a part of the image B are projected in an overlapping manner. The space A ′ is a space where a part of the image A is projected, and the space B is a space where only a part of the image B is projected. Paying attention to this, the part corresponding to the space D of the images A and B using the weight according to the distance from the points A and B (in other words, the weight according to the moving distance from the point A). The pixel information of the D portion of the display image is synthesized by the weighted addition, and the pixel information of the corresponding portion of the images A and B is used as the pixel information of the portion corresponding to the spaces A ′ and B ′ of the display image. That is, the pixel information of the overlap portion D of the display image is given from the all-around
[0029]
By the same method, display images representing scenes that can be seen at each point from point A to point B are sequentially synthesized. Since the display image synthesized in this way is sequentially displayed on the image display device 101, the user can feel as if translating from point A to point B in a natural three-dimensional space without any breaks. can do. When translating beyond point B, the display image representing the scene is synthesized and displayed in the same manner using the
[0030]
Next, it is assumed that the user instructs a rotational motion. The rotational movement is a movement that shakes the line of sight horizontally, that is, a horizontal rotation of the line of sight. The rotation angle is instructed by, for example, the time of pressing a button on the
[0031]
When the rotational movement is performed at the point P in the hatched area shown in FIG. 7, the
[0032]
However, when rotating around the center of a certain panoramic image as an observation point, an image obtained by cutting out the viewing angle range at each time point of the panoramic image is used as a display image. For example, when a rotational movement is performed at the point A, the display image is cut out from the all-round
[0033]
The three-dimensional virtual space construction process according to the present invention as described above can be realized by software using the resources of a general purpose or dedicated computer as described above. For example, a
[0034]
In this case, at least two panoramic panoramic image data having a center close to the observation point are prepared from a plurality of panoramic panoramic image data that are prepared in advance and centered on discretely arranged points in the real space. A step of selecting, a step of creating image data representing a scene seen from the observation point using the all-round panoramic image data selected in this step, and a step of causing the display device 204 to display the image data created in this step For example, a program for causing a computer to execute a three-dimensional virtual space construction process including at least a
[0035]
【The invention's effect】
As described in detail above, according to the present invention , a continuous three-dimensional virtual space is constructed by a relatively simple image composition process only by preparing a plurality of all-round panoramic images and observed in the space. The point or line of sight can be moved freely. In particular, it is possible to provide a continuous virtual environment that does not give a sense of incongruity during forward movement or backward movement, and it is possible to avoid deterioration of the image quality of the scene during forward or backward movement.
[Brief description of the drawings]
FIG. 1 is a block diagram of a three-dimensional virtual space construction system according to the present invention.
FIG. 2 is a diagram illustrating an arrangement in the real space of the center of an all-around panoramic image.
FIG. 3 is a diagram illustrating a method for synthesizing a display image representing a scene during forward movement.
FIG. 4 is a diagram illustrating a method for synthesizing a display image representing a scene during a backward movement.
FIG. 5 is an explanatory diagram of a zoom function realized by a forward motion or a backward motion in a three-dimensional virtual space.
FIG. 6 is a diagram illustrating a method for synthesizing a display image representing a scene during translation.
FIG. 7 is a diagram illustrating a method for synthesizing a display image representing a scene during a rotational movement.
FIG. 8 is a block diagram showing an example of a computer that can be used for constructing a three-dimensional virtual space according to the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
実空間において所定の相対位置関係にある離散的な複数の地点をそれぞれ中心とした複数の全周パノラマ画像をデジタルデータとして蓄積するパノラマ画像蓄積手段と、Panoramic image storage means for storing, as digital data, a plurality of all-around panoramic images centered on a plurality of discrete points having a predetermined relative positional relationship in real space;
観察点及び視線の運動に関する情報を入力する入力手段と、An input means for inputting information on the observation point and the movement of the line of sight;
前記入力手段により入力された情報を解析して、3次元仮想空間内の観察点の現在位置と視線方向、運動の種類及び運動量の情報を出力する入力解析手段と、Input analysis means for analyzing the information input by the input means and outputting information on the current position and line-of-sight direction of the observation point in the three-dimensional virtual space, the type of movement, and the momentum;
前記入力解析手段から出力された情報に基づき、観察点に近い地点を中心に持つ第1の全周パノラマ画像データと、該第1の全周パノラマ画像データの中心から視線方向あるいは視線方向と反対方向にある最も近い地点を中心に持つ第2の全周パノラマ画像データとを前記パノラマ画像蓄積手段から選択して出力せしめるパノラマ画像選択手段と、Based on the information output from the input analysis means, the first all-around panoramic image data centered on a point close to the observation point, and the gaze direction or the direction opposite to the gaze direction from the center of the first all-around panoramic image data Panoramic image selection means for selecting and outputting second panoramic image data centered on the nearest point in the direction from the panoramic image storage means;
前記パノラマ画像蓄積手段から出力された前記第1および第2の全周パノラマ画像データから、前記入力解析手段から出力された情報に基づき、観察点から見えるシーンを表わす合成画像を作成する画像作成手段と、Image creating means for creating a composite image representing a scene seen from an observation point based on information outputted from the input analyzing means from the first and second panoramic image data outputted from the panoramic image storing means. When,
前記画像作成手段により作成された合成画像を表示する表示手段とを具備し、Display means for displaying the composite image created by the image creation means,
前記画像作成手段は、前記第1及び第2の全周パノラマ画像データからそれぞれ当該地点での視野角の範囲の画像データを切り出し、一方の画像データは該地点から観察点までの距離に応じて拡大処理し、他方の画像データは該地点から観察点までの距離に応じて縮小処理し、縮小画像の周囲に、拡大画像を用いて画素を補間することにより、観察点で見えるシーンを表わす合成画像を作成することを特徴とする3次元仮想空間構築システム。The image creating means cuts out image data in a range of a viewing angle at the point from the first and second panoramic image data, and one image data corresponds to a distance from the point to the observation point. Enlargement is performed, the other image data is reduced according to the distance from the point to the observation point, and pixels are interpolated around the reduced image using the enlarged image, thereby synthesizing the scene visible at the observation point A three-dimensional virtual space construction system characterized by creating an image.
前記パノラマ画像選択手段は、観察点に近い地点を中心に持つ第1の全周パノラマ画像データと、該第1の全周パノラマ画像データの中心から視線方向にある最も近い地点を中心に持つ第2の全周パノラマ画像データとを前記パノラマ画像蓄積手段から選択して出力するようにし、The panoramic image selection means has a first all-round panoramic image data centered on a point close to the observation point, and a first point centered on the closest point in the line-of-sight direction from the center of the first all-round panoramic image data. Panoramic image data of 2 is selected and output from the panoramic image storage means,
前記画像作成手段は、前記第1の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを該地点から観察点までの距離に応じた倍率で拡大処理し、前記第2の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを観察点から該地点までの距離に応じた倍率で縮小し、該縮小処理で得られた縮小画像の周囲に、前記拡大処理で得られた拡大画像を用いて画素を補間することを特徴とする3次元仮想空間構築システム。The image creating means cuts out image data in a range of a viewing angle at the point from the first panoramic image data, and enlarges the image data at a magnification according to a distance from the point to the observation point. The image data of the viewing angle range at the point is cut out from the second panoramic image data, the image data is reduced at a magnification according to the distance from the observation point to the point, and obtained by the reduction process. A three-dimensional virtual space construction system, wherein pixels are interpolated around the obtained reduced image using the enlarged image obtained by the enlargement process.
前記パノラマ画像選択手段は、観察点に近い地点を中心に持つ第1の全周パノラマ画像データと、該第1の全周パノラマ画像データの中心から視線方向と反対方向にある最も近い地点を中心に持つ第2の全周パノラマ画像データとを前記パノラマ画像蓄積手段から選択して出力するようにし、The panoramic image selection means has a first all-around panoramic image data centered on a point close to the observation point, and a closest point in the direction opposite to the line-of-sight direction from the center of the first all-around panoramic image data. The second panoramic image data of the entire panorama is selected and output from the panoramic image storage means,
前記画像作成手段は、前記第1の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを該地点から観察点までの距離に応じた倍率で縮小し、前記第2の全周パノラマ画像データから当該地点での視野角の範囲の画像データを切り出し、該画像データを観察点から該地点までの距離に応じた倍率で拡大処理し、前記縮小処理で得られた縮小画像の周囲に、該拡大処理で得られた拡大画像を用いて画素を補間することを特徴とする3次元仮想空間構築システム。The image creation means cuts out image data in a range of viewing angles at the point from the first panoramic image data, reduces the image data at a magnification according to the distance from the point to the observation point, The image data in the range of the viewing angle at the point is cut out from the second panoramic image data, the image data is enlarged at a magnification according to the distance from the observation point to the point, and obtained by the reduction process. A system for constructing a three-dimensional virtual space, wherein pixels are interpolated around an obtained reduced image using the enlarged image obtained by the enlargement process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000039534A JP4082546B2 (en) | 2000-02-17 | 2000-02-17 | 3D virtual space construction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000039534A JP4082546B2 (en) | 2000-02-17 | 2000-02-17 | 3D virtual space construction system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001229397A JP2001229397A (en) | 2001-08-24 |
JP4082546B2 true JP4082546B2 (en) | 2008-04-30 |
Family
ID=18563081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000039534A Expired - Fee Related JP4082546B2 (en) | 2000-02-17 | 2000-02-17 | 3D virtual space construction system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4082546B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7096428B2 (en) * | 2001-09-28 | 2006-08-22 | Fuji Xerox Co., Ltd. | Systems and methods for providing a spatially indexed panoramic video |
JP5464955B2 (en) * | 2009-09-29 | 2014-04-09 | 株式会社ソニー・コンピュータエンタテインメント | Panorama image display device |
JP6348318B2 (en) * | 2014-04-04 | 2018-06-27 | 大木 光晴 | Image processing apparatus, method, and program |
CN108810636B (en) * | 2017-04-28 | 2020-04-14 | 华为技术有限公司 | Video playing method, virtual reality equipment, server, system and storage medium |
-
2000
- 2000-02-17 JP JP2000039534A patent/JP4082546B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001229397A (en) | 2001-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6673381B2 (en) | Image processing device | |
US6628283B1 (en) | Dynamic montage viewer | |
JP6337888B2 (en) | Image processing apparatus, image processing method, and program | |
US6208360B1 (en) | Method and apparatus for graffiti animation | |
US8504941B2 (en) | Digital image magnification user interface | |
JP3177221B2 (en) | Method and apparatus for displaying an image of an interesting scene | |
US20020141655A1 (en) | Image-based digital representation of a scenery | |
US6570581B1 (en) | On-location video assistance system with computer generated imagery overlay | |
TW200844901A (en) | Banana codec | |
JP4285422B2 (en) | Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium | |
KR101037797B1 (en) | Multiviewer system Showing Videos on 3D Virtual Monitors in a 3D Virtual Graphic video wall realizing Virtual Video Wall supporting unlimited number inputs of either Analog or Digital, IP videos | |
JP3352475B2 (en) | Image display device | |
CN113253842A (en) | Scene editing method and related device and equipment | |
US20020060692A1 (en) | Method for increasing multimedia data accessibility | |
JP2000505219A (en) | 3D 3D browser suitable for the Internet | |
JP4082546B2 (en) | 3D virtual space construction system | |
JP6572368B2 (en) | Generating apparatus, generating method, and program | |
KR20230017745A (en) | Image processing apparatus, image processing method, and storage medium | |
JP4498450B2 (en) | Display device | |
US6633291B1 (en) | Method and apparatus for displaying an image | |
KR102196032B1 (en) | Novel view synthesis method based on multiple 360 images for 6-dof virtual reality and the system thereof | |
JP2003111100A (en) | Image composing method and apparatus | |
JP3683927B2 (en) | Computer graphic production system and control method thereof | |
Hernandez et al. | Immersive video for virtual tourism | |
CN117173304A (en) | Three-dimensional content multi-person collaboration method, device, system and equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070711 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080207 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110222 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120222 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130222 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130222 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140222 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |