JP6595591B2 - 没入ビデオを生成する目的のための画像データを収集する方法及びそれらの画像データに基づく空間可視化方法 - Google Patents

没入ビデオを生成する目的のための画像データを収集する方法及びそれらの画像データに基づく空間可視化方法 Download PDF

Info

Publication number
JP6595591B2
JP6595591B2 JP2017522200A JP2017522200A JP6595591B2 JP 6595591 B2 JP6595591 B2 JP 6595591B2 JP 2017522200 A JP2017522200 A JP 2017522200A JP 2017522200 A JP2017522200 A JP 2017522200A JP 6595591 B2 JP6595591 B2 JP 6595591B2
Authority
JP
Japan
Prior art keywords
scanner
image data
scanning
user
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017522200A
Other languages
English (en)
Other versions
JP2017539120A (ja
Inventor
サロメ,トリスタン
コニンク,ミカエル ド
マスカレロ,クリス
ヴァンダーハーゲン,ジェームス
ホノレツ,ゲール
Original Assignee
パラルラクスター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パラルラクスター filed Critical パラルラクスター
Publication of JP2017539120A publication Critical patent/JP2017539120A/ja
Application granted granted Critical
Publication of JP6595591B2 publication Critical patent/JP6595591B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、没入ビデオ(没入型のビデオ)を生成する目的のための画像データを収集する方法に関し、その方法は、第一組の少なくともn個(n>1)のスキャナからなるセットアップを備え、各々がスキャナビームを生成するように設けられ、その方法は更に、ビームを走査することによって、前記第一組のスキャナの各スキャナによって所定の空間を走査し、前記空間の画像データを生成することを備え、その画像データはメモリ内に格納される。本発明は更に、この画像データの可視化方法に関する。
このような方法は、特許文献1から既知である。このような方法は、風景を生成するビデオゲーム内でも用いられる。没入ビデオで生成した画像を可視化できるように、まず画像データを収集する必要がある。これは、所定の空間を走査する一組のスキャナによって実現され、その空間は没入ビデオが発生するシーンを構成する。その結果、収集した画像データはメモリ内に格納される。
ビデオゲームのユーザが、そのビデオゲームの三次元シーン内で自分自身を移動させたい場合、一般にビデオゲームを実行するキーボード及びコンピュータマウスを用いる。その後、ビデオゲームは、仮想的な人の新しい視点から始まる3Dシーンのレンダリングを実時間で計算し、このレンダリングがコンピュータ画面上に表示される。これによって、ユーザはビデオゲームの仮想世界内で自分自身を移動させ、その世界とインタラクションできる。
これらの簡単なインタラクションによって既に、いくつかのユーザは、数分のゲーム内ではビデオゲームの仮想的な人の肌で自分自身を感じることができる。仮想没入感覚は、仮想3Dシーン内に物理的に実際にいるという印象をユーザに与えることにある。この感覚は多かれ少なかれ、ユーザの感覚によって感じられるものと、ユーザが仮想3Dシーンの物理的等価物、つまり実世界内に実際にいた場合に感じられるものとの間の適合性の関数において強くなる。頭部の回転運動と整合する画像をユーザの眼に提示するシステムは一般に仮想現実システムと呼ばれる。
仮想現実システムを獲得するために最も一般的に用いられる技術は仮想現実ヘッドセットである。ユーザは頭部にヘッドセットを装着し、ヘッドセットはコンピュータに接続される。ユーザの眼の前に配置される画面及び一組のレンズを介して、ヘッドセットはコンピュータによって実時間で計算された合成画像をそれぞれの眼に提示する。ヘッドセットは更に、ユーザの頭部の方向を測定可能なセンサを備える。その原理は次のとおりであり、ユーザは頭部を回転させ、仮想現実ヘッドセットはこの頭部の動きを捕捉し、ユーザの新しい頭部の方向についての情報をコンピュータに送信し、コンピュータはユーザの眼の新しい方向に対応する二つの仮想カメラの方向を用いて、仮想3Dシーンの立体レンダリングを生成し、コンピュータによって実時間でレンダリングされた画像がユーザの眼の前に表示される。
異なる因子が、視覚的レベルにおける仮想没入の品質に影響を与える。第一因子は、内耳によって測定されるユーザの頭部の動きと、視覚との間の適合性である。人間は、実世界内のこれらの二つの感覚の間の完全な適合性に慣れている。眼によって見られる画像と、ユーザの内耳によって感じられる動きとの間の非コヒーレントな範囲に従って、やや不快な感覚、眼精疲労、頭痛、病的な感覚及び嘔吐さえもたらす可能性がある吐き気を感じる。これらの影響は、仮想現実酔い又は「サイバー酔い」と呼ばれ、船酔いと同様である。
既知の没入ビデオ(没入型のビデオ)は、ユーザの周りの360°の視野をカバーする平面視又は立体視の事前記録又は事前計算映画である。それらの既知の没入ビデオは、仮想現実ヘッドセットによって可視化される。仮想現実ヘッドセットはユーザの頭部の方向を測定し、コンピュータはこの方向に対応して右眼及び左眼用の画像をヘッドセットの表示装置に送信できる。
既知の没入ビデオの場合、通常のビデオについて画像は事前に記録又は事前に計算され、実時間では計算されない。従って、例えば、実時間で画像を計算するための1/60秒ではなく、1時間より多くの時間で計算されていてもよい。これによって、仮想現実のものよりずっと良い画質を有することができる。
ユーザの頭部が平行移動を行う場合、視野はシフトする。このようなシフト中、ユーザの近くのオブジェクトの画像は、より離れたオブジェクトの画像より速く移動する。この効果は、移動する電車内にいて窓から外を眺めているときに明確に観察され、近くのフェンスは非常に速く移動し、遠くの山は静止しているように見える。この効果は視差と呼ばれる。
既知の没入ビデオの問題は、ユーザの頭部の平行移動を考慮せず、従ってインタラクティブ視差を提供できないことである。この制限は、既知の没入ビデオの没入品質を著しく限定する。実際、ユーザの脳は頭部が移動するとき視差を感じることを期待するが、それを認識することはない。この欠点はユーザの視覚的快適さ及び没入感覚を低減し、「サイバー酔い」の危険性を著しく増大させる。
米国特許出願公開第2013/0083173号明細書
本発明の目的は、これらの動き、特にユーザの頭部の平行移動を考慮可能な没入ビデオを生成する目的のための画像データを収集する方法を実現することである。
この目的のために、没入ビデオを生成する目的のための画像データを収集する方法は、没入ビデオのユーザが前記空間を見て、視点領域内で頭部の移動、特に平行移動を行うことができるボリュームの範囲を定めることによって前記視点領域が決定され、前記視点領域の端部に配置される第二組のm個(m>1)のソース点がその後決定され、前記第一組の少なくともn個のスキャナのセットアップは、前記ソース点にそれぞれ、前記第一組の前記スキャナの一つを毎回配置することによって実現され、前記空間の前記走査は、前記ソース点に配置された前記スキャナを用いて、前記視点領域によって事前に決定される範囲にそれぞれ配置される一方ではアジマス角、他方では仰角の連続に従って、前記空間を段階的に走査することによって実行され、画像データの生成は、毎回反射される走査ビームのそれぞれ生成された走査ビームに対して、前記空間内に配置され、関連の走査ビームによって接触される接触点を収集し、ステップ毎に、反射される走査ビームに基づいて、接触点と、関連の走査ビームを生成したスキャナとの距離、並びに前記接触点の色パラメータを決定することによって実行され、前記データは、アジマス角及び仰角に従って構成された行列の形態でメモリ内に格納されることを特徴とする。
没入ビデオのユーザが前記空間を見て、視点領域内で頭部の移動を実行できるボリュームの範囲を定める視点領域を決定することによって、スキャナが配置されるソース点を決定し、それらのソース点から空間を走査することが可能になる。その後、この視点領域から画像データを収集し、ユーザの頭部の移動、特に平行移動を考慮し、ヘッドセット内でインタラクティブ視差効果を備えた視野を提供できる。受動型と限定される視差に対してインタラクティブ視差について述べるが、それは、没入ビデオのディレクタによって実行される視点の没入ビデオ内の変位にリンクされる。
仮想現実システムは、このインタラクティブ視差を有することを可能にするが、そのためにユーザの眼に提示される画像を実時間で計算しなければならない。この実時間での計算は画質を著しく低下させる。
本発明によるインタラクティブ視差を備えた没入ビデオの生成方法は、事前に計算した合成画像又は実撮影を用い、実時間の仮想現実に比べて良好な画質を提供する。没入ビデオにインタラクティブ視差を含めることで、ユーザは非常に良好な没入感を感じることができ、サイバー酔いのリスクを実質的に低減する。
視点領域は、走査空間を復元するために格納しなければならない情報量を限定できる。この情報の限定は、管理可能な情報及びデータ量を有することを可能にする。視点領域の構成、寸法及び形状は、空間の走査に用いられるスキャナの数及びセットアップを事前に決定する。
本発明による方法の第一の好ましい実施形態は、視点領域が基本的に長方形のボリューム(空間)、特に少なくとも高さ30cm、少なくとも奥行き30cm及び少なくとも幅30cmの長方形の平行六面体によって構成されることを特徴とする。これは、体の残りの部分が固定位置に維持されている場合の、頭部の平行移動及び/又は回転中に到達可能な位置をカバーできる。
本発明による方法の第二の好ましい実施形態は、スキャナによって接触される各点に対して、前記n個のスキャナの少なくとも一つの他のものによって出射されたビームがその点に到達したかどうかを決定することによって、格納データをフィルタ処理し、前記n個のスキャナの少なくとも別のものによって出射されたビームが考慮される接触点に到達可能な場合、所定の選択基準に基づいて、考慮される接触点を格納データから除去しなければならないかどうかを決定することを特徴とする。このフィルタ処理ステップは、有用な情報を与える点だけフィルタ処理し保存できる。これによって、インタラクティブ視差を備えた没入ビデオを生成するための格納データの量を低減できる。
本発明による方法の第三の好ましい実施形態は、考慮される接触点を生成したスキャナと、考慮される接触点に到達可能である他のn個のスキャナ内の単一の又は複数のスキャナによって、アジマス角に従う二つの連続的な走査ステップと、仰角に従う二つの連続的な走査ステップとの間で走査される表面積に、選択基準が基づくことを特徴とする。
好ましくは、本発明による方法は、用いられるスキャナが仮想スキャナ又は物理的スキャナのいずれかであることを特徴とする。従って、シーンは仮想スキャナ又は物理的スキャナによって生成され、物理的スキャナは、ディレクタが映画のシーンをカメラで記録するのと同様に用いられる。
本発明による方法の別の好ましい実施形態に従って、視点領域は、前記空間内で第一位置から、第一位置の所定の距離に配置した第二位置に向かってシフトされ、前記第一組のスキャナの各スキャナによる走査と、前記空間の画像データの生成及び格納は、第一位置に対して実現した後、視点領域の各第二位置に対して繰り返される。従って、可視化時間においてユーザの周りで、没入ビデオの各時間フラクションに対して仮想3Dシーンを生成するシステムを考慮できる。それらの一過性の3D仮想シーンはそれぞれ、ユーザが視点領域から見ることができるものに限定される。これらのシーンのアスペクトの展開は、ビデオ内のオブジェクト及び/又は人の移動、並びに映画ディレクタによって制御される視点領域の位置の変位に対応する。従って、実時間でのレンダリングの瞬間に、ユーザが移動する際、3Dシーン内でカメラを移動させる仮想現実とは逆である。本発明によると、インタラクティブ視差を備えた没入ビデオの生成において、視点領域を変位させる際、ユーザの周りで変化し移動するのは3Dシーンである。
本発明によるインタラクティブ視差を備えた没入ビデオの可視化方法は、
a)センサによってユーザの眼の位置及び方向を視点領域内で決定すること、及びユーザが見るものを決定するためにユーザの頭部の移動を予測するアルゴリズムを使用することと、
b)ユーザの眼の位置及び方向に基づいて、ユーザが見ることができる空間の一部を可視化するために必要な格納画像データ内の画像データを選択することと、
c)選択した画像データを一時的メモリにロードすることと、
d)一時的メモリ内に格納した画像データに基づいて二つの画像を生成することと、
e)二つの生成した画像をユーザの眼に提示することと、を備える。
これによって、仮想現実ヘッドセット内に表示されるものの定義とコヒーレントな画像データからロードされる所定の密度の点をユーザに表示できる。
好ましくは、本発明による可視化方法は、二つの画像をユーザに提示することが仮想現実ヘッドセットよって実行されることを特徴とする。
好ましくは、本発明による可視化は、ユーザへの移動を付与するデバイス内で用いられ、前記付与される移動の座標は可視化システムに送信され、前記可視化方法を適用し、前記移動と画像フローを同期化させることを特徴とする。これによって、ユーザに付与された移動を、本発明による可視化に結合できる。
従って、没入ビデオは、遊園地の「乗り物」に適用できる。乗り物の原理は、一般に異なる景色を通過する座席に乗り込むことである。これはジェットコースタに比較できるが、加速感より景色を訪問することが強調される。
ここで、本発明による方法の好ましい実施形態を示す図面を用いて、より詳しく本発明を説明する。
ユーザが頭部を移動できる視点領域を表すボリュームを示す図である。 視点領域に対してシーンを示す図である。 視点領域に対して走査されるシーンの視認可能な部分を示す図である。 視点領域に対する走査空間の正確な概念を示す図である。 所定の視点領域の第一組の少なくともn個のスキャナの位置を示す図である。 所定の視点領域の第一組の少なくともn個のスキャナの位置を示す図である。 スキャナによって出射される走査ビームで毎回走査される空間内の接触点を示す図である。 スキャナによって出射される走査ビームで毎回走査される空間内の接触点を示す図である。 二つの異なるスキャナによって到達可能な空間内の点の概念を示す図である。 シーンの走査及び接触点のフィルタ処理を示す図である。 見かけの面によってフィルタ処理を行う方法を示す図である。 見かけの面によってフィルタ処理を行う方法を示す図である。 スキャナに優先度を与えるフィルタ処理方法を示す図である。 スキャナに優先度を与えるフィルタ処理方法を示す図である。 スキャナに優先度を与えるフィルタ処理方法を示す図である。 スキャナに優先度を与えるフィルタ処理方法を示す図である。 スキャナの中心点に対して異なる距離に配置したオブジェクトを有する空間の他の走査ビームによるサンプリングを示す図である。 他の接触点の最大距離及び最小距離と、スキャナに対してシフトさせた視点からのユーザの認識との間の関係の概念を示す図である。 接触点の密度が表示装置の角度定義とコヒーレントであることを示す図である。 走査の生態圏的表現とそれに関連したストレージを示す図である。 視点領域の転送の概念を示す図である。 メモリ内の画像データのストレージを示す図である。 反射ビームの修正の概念を示す図である。
図面において、同一又は同様の要素には同一参照記号が割り当てられる。
コンピュータプログラムは、景色、照明及びカメラを含む完全な映画スタジオの等価物をシミュレートできる。ここでは、三次元オブジェクト、仮想照明及びカメラについて述べるが、それらの要素は実際の物理的世界には存在せず、コンピュータ内のシミュレートされた表現としてのみ存在する。この種のコンピュータプログラムの一例は、「Autodesk」社の「Maya」ソフトウェアである。例えば、オブジェクト、照明及びカメラによって構成されたそれらの仮想三次元要素の組は、仮想3Dシーン、より簡単に3Dシーン又は仮想3D空間と呼ばれる。
いったん仮想3D空間が導入されると、コンピュータは仮想3D空間内の仮想カメラが見るものに対応する画像を計算でき、これは3D空間内に存在するオブジェクトと照明及び仮想カメラの位置を考慮する。この計算は3D仮想空間レンダリングと呼ばれ、このレンダリングで得られる画像は合成画像である。
ユーザの両方の眼は、やや異なる二つの視点に従って物理的な実世界を見るが、それらは成人の場合、平均6.5cm離れている。この距離は眼間距離と呼ばれる。同じ実シーン上での視点のこの小さなシフトによって、ユーザの脳は周りに配置されるオブジェクトとの距離を定義できる。立体映画は、ユーザのそれぞれの眼に対して同じシーンの二つの異なる画像をレンダリングし、奥行き効果を生成することにある。
レンダリングソフトウェアは、空間内に存在するオブジェクトの移動とその明度を考慮できる。その後、時間的に異なる瞬間における連続的レンダリングを供給するようにソフトウェアがリクエストされると、レンダリングされる画像は異なったものとなり、合成画像を備えた映画が得られる。既存の映画のフレームワークでは、1秒の動作が24個の静止画像に分解され、従って、映画館内での提示用に合成画像の映画を生成するためには、映画内の動作に対して1秒間に24個の画像を計算する必要がある。
映画の異なる画像をまずレンダリングして格納し、その後、例えば、既存の映画用の1秒間に24個の画像の拡散媒体に対応するペースにおいて後で再生する場合の事前計算合成画像について述べる。良好な画質を得るには、各合成画像の計算に多くの時間がかかる。多くの場合、レンダリングは画像毎に1時間より多くかかる。従って、コンピュータは丸一日(1時間の24倍)かけて映画の1秒と同じもの(1秒間に24個の画像)を計算することが一般的である。
コンピュータが、画像の表示に用いられるペースと同じペースで各画像をレンダリングできる場合、レンダリングは実時間で計算されると言う。再び、1秒間に24個の画像を備える映画の例では、実時間で映画をレンダリングするためには、これは最大24分の1秒で各画像が計算されることを意味する。
仮想没入の感覚は、仮想3D空間内に実際に物理的に存在するという印象をユーザに与えることにある。この感覚は多かれ少なかれ、ユーザの感覚によって感じられるものと、ユーザが仮想3D空間の物理的等価物内に実際にいた場合に感じられるものとの間の適合性の関数内において強くなる。
ユーザの頭部の回転運動とコヒーレントな画像をユーザの眼に提示するシステムは一般に仮想現実システムと呼ばれる。
仮想現実システムを獲得するために最も一般的に用いられる技術は仮想現実ヘッドセットである。ユーザは頭部にヘッドセットを装着し、ヘッドセットはコンピュータに接続される。ヘッドセットは、ユーザの眼の前に配置される表示装置及び一組のレンズを介して、コンピュータによって実時間で計算される合成画像をそれぞれの眼に提示する。ヘッドセットは更に、ユーザの頭部の方向を測定可能なセンサを備える。ユーザの頭部の動きを予測可能なアルゴリズムも利用される。
その原理は次のとおりであり、ユーザが頭部を回転させると、仮想現実ヘッドセットはこの頭部の動きを認識し、ユーザの頭部の新しい方向についての情報をコンピュータに送信する。コンピュータは、ユーザの頭部の新しい方向に対応して、二つの仮想カメラの方向を用いて仮想3Dシーンの立体レンダリングを行う。コンピュータによって実時間でレンダリングされた画像は、ユーザの眼の前に表示される。
当然のことながら、「Oculus」社によって作製されたもの等の、最新の仮想現実ヘッドセットはユーザの頭部の方向だけでなく、その位置も考慮できる。
異なる因子が、視覚レベルにおける没入経験の品質に影響を与える。第一因子は、内耳と視覚によって測定されるユーザの頭部の動きの間の適合性である。実際には、ユーザは、これらの二つの感覚の間の完全な適合性に慣れている。眼によって見られる画像と、ユーザの内耳によって感じられる動きとの間の非コヒーレント性のレベルの関数において、やや不快な感覚、眼精疲労、頭痛、病的な感覚及び嘔吐さえもたらす可能性がある吐き気を感じる。これらの影響は、「仮想現実酔い」又は「サイバー酔い」と呼ばれ、船酔いと比較される。
空間内で発生するシーンを記録している間、従来のカメラは、その直前で及び視野の限界までの側面で発生する動作を記録する。この視野は角度で表現され、カメラによってカバーされる全視角を提供する。
球面ビデオの特別な場合、カメラの視野は水平に360°、垂直に180°であり、従って、視野はカメラが全ての方向を見ることができる全体となる。
立体球面ビデオは、球面ビデオと立体ビデオの特徴を結合させる。従って、それは右眼に提供されるものと、左眼用の他のもののビデオ結合に関係する。それらの二つのビデオはそれぞれ、完全な球面視野をカバーする。
仮想現実ヘッドセットを立体球面ビデオと結合することによって、既知の没入ビデオシステムを獲得する。仮想現実ヘッドセットは、ユーザの頭部の方向を測定し、それをコンピュータに送信する。コンピュータは、二つの立体球面ビデオのそれぞれからユーザの頭部の新しい方向の視野に対応するビデオの一部を抽出する。ビデオのこれらの二つの部分が、ユーザの眼の前に表示される。
これらの既知の没入ビデオは、例えば、内耳によって感じられる頭部の回転運動と、ユーザの眼に到達する画像との間の所定の適合性、及びユーザに提示されるシーンの奥行きの所定の認識という所定の没入特性を提示する。しかし、これらの既知の没入ビデオは固有の視点から撮影され、ユーザの頭部の平行移動を考慮できず、没入感覚を著しく低減し、とりわけ、「サイバー酔い」の可能性を実質的に増大させる。
本発明の前に、ビデオ内で没入感を獲得可能な二つの方法は、一方は仮想現実であり、動き、特にユーザの頭部の平行移動を考慮でき、従って、良好な没入感を生成できるが、実時間で画像を計算することを暗示し、画質を著しく低下させ、他方は既知の没入ビデオであり、良好な没入感は提供せず、「サイバー酔い」の高い危険性をもたらす。
本発明は、制限されたボリューム(空間)内でのユーザの頭部1のシフトを考慮でき、そのボリュームは視点領域(ZVP)と呼ばれ、図1に示される。視点領域ZVPは、シーンが発生する空間3を没入ビデオのユーザ1が見ることができるボリュームの範囲を定めることによって決定され、ユーザ1はこの視点領域内で頭部の平行移動及び屈曲する動きを行う。実際には、視点領域ZVPのサイズは、ユーザ1が静止時にその位置の周りに自然に有し、体の残りの部分を移動させない頭部の動きの緯度に好ましくは対応する。この静止位置は、直立してリラックスし、立ち上がったり座ったりする屈曲のないユーザの頭部1の位置に好ましくは対応する。動きの緯度は、立ち位置の場合は歩くことなく、座位の場合は立ち上がったり、椅子を移動させずに、ユーザの頭部が通常到達できる位置に対応する。視点領域ZVPの正確なサイズ及び幾何的形状は、ユーザ1によって予想される位置の関数において変化できる。ユーザは座っても、横たわっても、直立してもよい。
視点領域は、例えば、基本的に長方形のボリューム(空間、体積)、特に長方形の平行六面体によって形成され、少なくとも30cm、特に50cmの高さ、少なくとも30cm、特に1mの奥行き、少なくとも30cm、特に1mの幅を有する。このような視点領域の寸法は、ユーザ1の頭部、従って眼の潜在的な位置の範囲を定めるために十分である。点Rは、視点領域ZVPの領域の中心点、つまり静止位置にいるときのユーザ1の眼の間に配置される点である。別の実施形態によると、視点領域は基本的に八面体構成を有するボリューム(空間、体積)によって形成される。
例えば、スキャナによってカバーされる15cmの範囲で、奥行き105cm、高さ45cmを測定する平行六面体の形状を有する視点領域ZVPから空間を走査することによって、全部で8×8×4=256個のスキャナを用いる。
視点領域ZVPは十分なサイズを提示するが大き過ぎないことも配慮しなければならない。無限のサイズの視点領域は、標準的な仮想現実モードであることに対応する。従って、この視点領域ZVPは格納画像データの量を制限でき、ストレージ容量を制限し、仮想現実システムに比べてそれらを管理可能にするが、仮想現実システムは本発明による方法によって得られるものと等価な詳細レベルを得るには非常に大量の情報を格納する必要がある。
図2は、仮想現実のシーン10と、本発明による視差を備えた没入ビデオのシーン10Aにおいて提示する情報との間の比較を示す。ユーザが配置される仮想現実のシーン10は完全である。つまり、ユーザがシーン10内を移動しているとき、仮想シーンの所定の組のオブジェクトがシーン内にロードされる。一方、本発明によると、視点領域ZVPから潜在的に視認できる要素のみが所定の瞬間にロードされる。図2bでは、シーン10Aのより太い線は、視点領域ZVPから潜在的に視認可能なシーンの要素の一部を示す。従って、長方形の形状の左側だけが視認可能であり、シーン外周10aの右側は所定の視点領域ZVPからは視認可能ではない。これによって、スキャナビームによる接触点の数を低減でき、従って、接触点の情報を記録するメモリ容量の必要性を低減できる。
図3は、スキャナによって出射されるスキャナビームによる空間内での接触点の精度の概念を示す。シーン10の例では常に、仮想現実では、仮想シーン内の仮想オブジェクトのモデリングの精度は均一である。つまり、モデルの詳細における精度は、仮想シーンの全てのオブジェクト11と12に対して同じである。本発明の場合、視点領域ZVPに近いオブジェクト11は、遠いオブジェクト12よりずっと高い精度を提示する。従って、スキャナビームによって接触され、オブジェクト11に近い点Pは、遠いオブジェクト12の接触点P’より走査から得られる接触点をより多く提示する。図3の例によると、近いオブジェクト11の接触点Pは9個の点を提示するが、遠いオブジェクト12の接触点P’は3個の点のみを提示する。従って、精度は視点領域ZVPの位置の関数において変動し、同じオブジェクトの精度が没入ビデオのある瞬間では非常に高く、別の瞬間では非常に低くてもよい。正しく本来、視点領域ZVPに近いオブジェクトは良好な解像度を提示し、遠くのオブジェクトはより低い解像度であり、従って、全てがオブジェクトと視点領域ZVPの間の距離に依存する。
図4aに示したように、没入ビデオを生成する目的のための画像データを収集する場合、本発明による方法は、第一組の少なくともn個のスキャナs1、s2、…、sn(n>1)のセットアップ(組立体、組立構造)を備え、それぞれが走査ビームr1、…、rj-1、rj(j≧J)に対して提供される。走査ビームの最小数Jは、可視化用に予想される表示画面の解像度の関数において決定される。好ましくは、走査ステップ、つまり、二つの連続するビーム(rj−rj+1)の間の角度は、表示装置の角度解像度以下である。明確にするために、一つのスキャナに対してだけ図面では走査ビームが表現される。走査ビームによって空間3を走査し、その空間の画像データを生成するために、第一組の各スキャナsi(1≦i≦n)が用いられ、画像データはその後、メモリ内に格納される。
少なくともn個のスキャナの第一組のスキャナをセットアップ(設置、組み立て)するために、視点領域ZVPの端点に配置される第二組のm個(m>1)のソース点C1、C2、…、C7、C8が決定される。図4aに示した8個のソース点の数は、視点領域の長方形の形状にリンクされ、一例としてのみ与えられ、本発明の範囲を限定するものでは決してない。少なくともn個のスキャナのセットアップは、第一組の前記スキャナの一つを毎回各ソース点に配置することによって実現される。
十分な定義を備えた空間を走査するために、スキャナは視点領域の端点に配置される。もちろん、視点領域内に補助的ソース点を決定することもできる。図4bは、視点領域にグリッドを備えた構成を示す。このグリッドは好ましくは、各面上に適用される。このグリッドの異なる点は、その上にスキャナを配置する予定のソース点Ckを構成できる。視点領域の内側にソース点を有することもできる。視点領域の端点に用いられるソース点の数は優位である。視点領域の表面に補助的ソース点を配置することで、観察中の感覚の品質を改善できる。逆に、視点領域の内側の補助的ソース点を増やすことは、それほど関係はない。
スキャナという用語は本発明の説明では、仮想又は物理的3Dスキャナの組に対して用いられ、好ましくは360°の全ての方向で走査を実現する。
空間の走査は、視点領域によって事前に決定される範囲内でそれぞれ、一方ではアジマス角、他方では仰角の連続に従って、前記空間を段階的に走査することによって、ソース点Cに配置されたスキャナsiを介して実現される。好ましくは、走査ステップは、0.01〜1°に、特に0.025〜0.1°の間に配置される角度値を有する。画像データの生成は、生成され、毎回反射される各走査ビームn(1≦j≦J)に対して、前記空間3内に配置され、関連の走査ビームrIによって接触される接触点P(図5aと図5b参照)を収集することによって実現される。反射される走査ビームに基づいて、接触点Pと、対応する走査ビームrIを生成したスキャナsとの間の距離(d)、並びに前記接触点の色パラメータも各ステップにて決定される。従って、各接触点Pに対して、点Pと、例えば、考慮されるスキャナの中心点等の点との間で距離dが得られる。各走査ビームの方向は既知であり、点Pまでの距離dは計算されるので、走査空間内の点Pの三次元位置を再構成できる。
接触点Pの色は、例えば、走査ビームが仮想カメラの視覚ビームであるかのように、合成画像に対して通常の方法で計算される。従って、コンピュータは、接触点Pの色、接触オブジェクトの質感及び外観、空間3内の仮想照明とそれらの反射、並びに球面仮想カメラの位置の計算を考慮する。
点Pの距離dとその色を決定した後、これらの値は画像データとしてメモリ内に格納される。格納は、アジマス角と仰角に従って構成したマトリクス形態で好ましくは実行される。各マトリクスの要素は、走査ビームの角度に対応する。これは、図15に示され、マトリクスの行は仰角に従う走査ステップを毎回示し、マトリクスの列は毎回のアジマス角に従う走査ステップを毎回示す。従って、行rと列cに格納される値Vrcは、仰角に従う走査ステップの値と行数rの値の積に等しい仰角を有する走査ビームと、アジマス角に従う走査ステップの値と数cの値の積に等しいアジマス角を有する走査ビームによって得られる距離d及び色を表す。
場合によっては、接触面の法線方向のベクトルをメモリ内に格納することもできる。
このマトリクス構造は、走査を行うものと同じ方法でデータを格納し、それらのアドレッシングを容易にできる。
第二組のソース点と少なくともn個のスキャナを用いるという事実は、結果として空間内の同じ点が一つより多くのスキャナによって到達されるということを有する。
本発明による方法では、視点領域ZVPからのシーンを表すために役立つ接触点の情報だけが好ましくはメモリ内に維持される。このために、スキャナによって接触される各点に対して、その点が前記n個のスキャナの少なくとも一つの他のものによって出射されたビームによって到達されるかどうかが決定される。この概念は図6に示され、それはソース点C1とC2にそれぞれ配置された二つのスキャナs1とs2を示す。スキャナs1の走査ビームrは点Pに到達できる。点Pはここで、仮想スキャナsfを配置したソース点であると考えられ、仮想スキャナsfのビームrfが、スキャナs2を配置したソース点C2に到達できるかどうかが検証される。到達できる場合、その点Pはスキャナs2によって到達可能であると考えられる。他のn個のスキャナの少なくとも一つによって出射されたビームが、考慮される接触点に到達可能な場合、所定の選択基準に基づいて、格納データから、考慮される接触点の格納データを除去しなければならないかどうかが決定される。このフィルタ処理の目的は、冗長な画像データがメモリ内に格納されないようにすることである。
図7は、各ソース点C1とC2に配置した二つのスキャナs1とs2に対するシーンの走査を示す。第一組4の接触点は、スキャナs1を用いて空間3を走査する際に得られる。第二組5の接触点は、スキャナs2を用いて空間3を走査する際に得られる。第一組4と第二組5の接触点は異なっている。スキャナs1は、長方形の形状のシーンの水平部分にのみ到達できるが、スキャナs2はスキャナs1と同じ水平領域と図の右のシーンの垂直側にも到達できる。
第一組4と第二組5の接触点を得たら、その後、それらの異なる接触点のフィルタ処理を適用しなければならない。図6の項目6で示した接触点は、スキャナs1とスキャナs2によって接触される点4と5が混じったものを示す。従って、点6内では、水平部分の点が二倍あり、フィルタ処理が発生可能なことが分かる。その後、このフィルタ処理は、スキャナs2によって得られた水平部分の接触点を除去することになる。項目8で示した点のみがメモリ内に維持される。
フィルタ処理を続けるために、選択基準は、考慮される接触点を生成したスキャナ、及び考慮される接触点に到達できるn個の他のスキャナ内の単一又は複数のスキャナによって、アジマス角に従う二つの連続的な走査ステップと、仰角に従う二つの連続的な走査ステップの間で走査される表面積に好ましくは基づく。
走査表面積のこの概念は図8aに示される。この図では、ビームra1とビームra2、及びre1とre2はそれぞれ、アジマス角及び仰角に従う連続的な走査ビームを表す。
表面は、一方ではビームra1とra2によって接触される点によって、他方ではビームre1とre2によって接触される点によって範囲を定められ、二つの連続的な走査ステップの間で走査表面積を構成する。この走査表面積が決定されると、第一組のスキャナのn個のスキャナの一つ以上の他のものもこの走査面に到達可能であるかどうかの検証が可能になる。この又はこれらの他のスキャナが識別されると、これらの他のスキャナによって走査している間に得られたデータ内で除去すべきものを選択できる。
図8bに示した別の実施形態によると、フィルタ処理は、走査面上の法線方向Nと、接触点Pを生成した走査ビームとの間の角度(β)を決定することで実現される。走査ステップが低い値の角度を有する場合、スキャナsに対する接触点Pの距離dは、二つの連続する走査ビームの間で大きくは変化しない。従って、走査面の面積を決定するためのパラメータとしてこの距離dを使用できる。そして、この面積は、距離(d)の二乗を角度βのコサインで割ったものに比例し、こうして得られるこの面積の値が選択基準を構成できる。後者の選択基準に基づいて、走査面の最小面積を有する値にリンクして格納されたデータのみがメモリに保持される。その概念は、詳細の大部分を表す接触点、従って、最小走査表面積を表すものを保持することにある。
当然のことながら、後者の実施形態は、同じ角度定義を有する場合、異なるスキャナの間で同じ点の見かけの表面を比較するために用いられる。
選択基準は、接触点と、接触点を生成したスキャナとの間の距離、および接触点と、接触点に到達できるn個の他のスキャナ内の単一又は複数のスキャナとの間の距離に基づくこともできる。保存される格納データは、最小の距離を発生させたスキャナに対応するものである。
ソース点に配置したn個のスキャナのそれぞれに優先順位を事前に帰属させ、選択基準をこの優先順位に基づかせることもできる。このフィルタ処理方法は図9に示される。各走査点に対してアルゴリズムを利用し、走査点Pがより高い優先度を有するスキャナから視認可能であるかどうかを検証する。視認可能な場合、より高い優先度を有するスキャナがその点を記録する。そうでない場合、点を記録するのは実行中のスキャナである。
図9aでは、三つのスキャナが記号s1、s2及びs3で示されている。簡略化のために表現は2次元で行う。スキャナの優先順位はそれらの数に等しい。従って、スキャナs1はs2より高い優先度を有し、s2はスキャナs3より高い優先度を有する。図9bは、スキャナs1に対して保持される表面を示す。それは他のものより高い優先度を有するので、見える全ての表面を保持する。図9cは、スキャナs2に対して保持される表面を示す。スキャナs2は、スキャナs1に対しては見えない二つの領域を見る。図9dは、スキャナs3に対して保持される表面を示す。それらはスキャナs3に対して保持される表面だけであり、実際、スキャナs3が見ることができる表面の残りは、より高い優先度を有するスキャナs1又はs2によって既に見られている。
オブジェクト上の点の所定の見かけの色成分はカメラの位置に依存し、その位置は走査オブジェクト上への走査ビームの入射角に影響する。この成分は合成画像内ではレンダリングの正反射部と呼ばれる。簡単な方法でこれを説明するために、この部分は走査ビームの反射と等価である。
同じ光を備えた同じ仮想オブジェクト上の同じ点は、この反射成分のために、仮想カメラの二つの異なる位置に対して同じ外観を有するわけではない。
この概念は図16に示され、それは例えばミラーのような反射壁15を備える空間3を示す。スキャナs1はこの壁の前方に配置され、この壁に向かって走査ビームrjを出射する。この壁が反射している場合、走査ビームrjは、壁への入射角と同じ角度に従ってこの壁によって反射され、この反射は、その経路上にあるオブジェクト16に接触する走査ビームrj'を生成する。これは、その次にこのオブジェクトによる走査ビームrj'の反射を発生させる。その後、後者は壁15に到達し、そこからスキャナs1に向かって反射される。従って、後者は、オブジェクト16から来るのではなく、壁15上の点Pから来る後方反射ビームを考える。従って、それが、点Pのものであるとスキャナs1によって考えられるオブジェクト16の色となる。
従って、重要な正反射又は単に高反射材料を備えたこのようなオブジェクトの場合、異なる位置に配置された二つの異なるスキャナから取られる二つの点を並べて配置することによって非コヒーレント性を有する危険性がある。
好ましくは、走査ビームの方向を計算する際に「だます」点の色を計算するレンダリング技術を利用する。
用いられる方法は、面15によって反射されるビームの計算を与えるために接触点Pの色を計算することにあり、その点Pを計算するのはスキャナによって出射される走査ビームの実際の方向ではなく、ソース点Kから出射されたビームの一つに対応し、その方向が視点領域ZVPの中心に好ましくは配置されるビームである。従って、記録する3Dスキャナの位置が何であれ、同じ接触点Pに対して、全ての反射及び正反射がコヒーレントになる。
事前に計算した合成画像では、画素の色は、単一のビーム出射ではなく画素面内の複数のビームに基づいて一般に計算される。一つの画素に対する各出射ビームは、その画素の色を決定するためのサンプルに対応する。従って、マルチサンプリングは、同じ画素に対して複数のビームを出射し、各ビームに対して得られた色の加重平均を行い、その画素の最終的な色を決定することにある。一つの画素に対してサンプル数を増やすことは、その画素がオブジェクトの境界に対応する状況では特に、レンダリングの品質を実質的に向上させる。
同様の方法では、一つの方向で接触点Pの色を計算するために、同じ走査ステップ内の走査ビームを増やすことによってレンダリングの品質を向上させることができる。図10は、スキャナsから発し、同じ走査ステップ内に配置される四つの他の走査ビームによって、空間内の他の接触点P1、P2、P3及びP4を決定する方法を示す。従って、四つの他の走査ビームによって得られる四つの他の接触点の色及び距離は平均化される。しかし、距離を記録する場合、この平均化は問題を引き起こす。実際、異なる他の走査ビームが、異なる距離においてオブジェクト16と17に接触できる。
距離が平均化されれば、この場合、走査空間内に任意の面に対応しない距離を得る。問題は、いくぶん異なる視点から見ると、これらの平均点は空隙内に掛かっているように見えるという問題を引き起こす。空隙内に掛かっているこの点は、図10ではxでマークされている。図10に示した例によると、P1とP2は青色を有するオブジェクト16の二つの走査点である。P3とP4は、赤色を有するオブジェクト17の二つの走査点である。従って、他の接触点P1、P2、P3及びP4の平均を単に取ることによって決定される場合、点xの色は紫色になり、その位置は点p1、P2、P3及びP4の平均位置になる。その点xがソース点Cに配置されたカメラから見られる場合、問題は生じない。別の視点Dからは、点xは走査空間の既存の幾何形状には対応せず、その点xは空中に浮いているように見える。
もちろん、それらの他の全ての接触点の画像データだけを格納できるが、最終的にこれはスキャナの解像度の向上に対応し、従って、格納データの量の増大に対応する。
好ましくは、いったんそれらの距離に対して平均化したら、空中に浮遊する点を生成しない複数の他の接触点を正確に集めることができる方法を利用する。この好ましい変形形態は、「クラスタリング」と呼ばれる方法を用いることにあり、それは空間的にコヒーレントな異なるグループ内の他の接触点をグループ化する。その後、同じグループの他の接触点の距離上で平均化を行えば、走査空間内の既存の幾何形状とコヒーレントな空間的位置が得られる。
例えば、「k−平均法」と呼ばれる方法等、人工知能のフレームワークで一般に用いられる「クラスタリング」のいくつかの方法が可能である。
最終的に、一つ、二つ又は三つのグループの他の接触点が得られ、空中に浮遊する点の問題を有することなく、このグループ内でこれらの他の接触点の色並びにそれらの奥行きが平均化される。
他の走査ビームによって得られる他の接触点から始まり、他の接触点のそれぞれに対して、他の接触点とスキャナの間の距離である距離の組が決定される。その後、前記距離の組内の距離内で最小距離と最大距離が検索される。
これは、例えば図11に示される。ユーザが所定の可視化の瞬間に、視点領域ZVPに留まっている限り、ユーザの視点と各スキャナの中心との間の可能な最大距離の間の違いが計算され、この距離をΔZVP(デルタ視点)と呼ぶ。図11では、当然のことながら、スキャナの中心はC、スキャナの中心に対する視界内の可能な視点から最も離れた位置はV、CとVの間の距離はΔZVPであり、dmaxは最も遠い他の接触点PmaxのCに対する距離に対応し、dminは最も近い他の接触点PminのCに対する距離に対応し、αminは点Vから点Cまで延びる直線と、Vから点Pminまで延びる直線との間に形成される角度であり、αmaxは点Vから点Cまで延びる直線と、Vから点Pmaxまで延びる線との間に形成される角度であり、Δαはαmaxとαminとの角度差である。それから、αmin=arctan(dmin/ΔZVP)、αmax=arctan(dmax/ΔZVP)、及びΔα=αmax−αminが計算可能である。
他の接触点が、表示装置の角度定義の半分より小さい値Δαをもたらす点Cに対する距離範囲に配置される場合、他の接触点のグループに分割する必要はない。実際、このような場合、距離の違いは視点領域の任意の点から認識されず、それらの他の接触点の計算値の加重平均が決定され、この加重平均は、考慮される走査ステップにおいて接触点に対して格納画像データの値に置き換えられる。
その一方、グループ内でこのような分離が必要な場合、前記他の接触点の位置に基づく異なるグループ内の分離があり、所定の基準に従って、これらのグループ内の一つのグループを選択し、考慮される走査ステップにおいて接触される点は、選択したグループ内のそれらの他の接触点に対する計算値の加重平均によって決定される。
一般的な原理では、1kmの距離において奥行き5cmの間隙は視点領域内の任意の視点から区別されず、逆に、距離50cmにおける5cmの間隙は十分に認識される。
他の接触点のグループの選択基準は、グループが構成される点の数であっても、スキャナの中心に対するその平均距離であってもよい。
本発明による没入ビデオ内のカメラ移動と等価なものを生成するために、視点領域は好ましくは、第一の初期位置から、この第一位置の所定の距離に配置した少なくとも第二位置に向かって空間内を好ましくは移動させる。第一組のスキャナの各スキャナによる走査、及び空間の画像データの生成及び格納は、第一位置に対して実行した後、視点領域の各第二位置に対して繰り返される。
本発明の特徴は、接触点の密度が図12に示したように、表示装置の角度解像度とコヒーレントなことである。視点領域ZVPから離れた表面51は3個の接触点だけを提示し、より近い表面52は少なくとも5倍多くの接触点を提示する。離れた表面に対する接触点の密度は低く、異なる接触点は互いにかなりの距離にある。より近い表面の接触点の密度はずっと高く、従ってより良く定義される。これは、本発明によるインタラクティブ視差を備えた没入映画を可視化する際の表示定義とコヒーレントである。
本発明によるインタラクティブ視差を備えた没入ビデオの可視化は、
a)センサによってユーザの眼の位置及び方向を決定すること、及びユーザが見るものを決定するために、ユーザの頭部の移動についての予測アルゴリズムを使用することと、
b)ユーザの眼の位置及び方向に基づいて、ユーザが見ることができる空間の一部を可視化するために必要な格納画像データ内で画像データを選択することと、
c)選択した画像データを一時的メモリにロードすることと、
d)一時的メモリ内に格納した画像データに基づいて二つの画像を生成し、二つの生成した画像をユーザの眼に表示すること、というステップを備える。
視野が制限されたユーザは所定の瞬間、画像データによって符号化された走査空間の一部だけを見ることができる。
好ましくは、走査空間は接触点をスライス状に分離した形態の下で格納される。各スライスは、走査方向のスライスに対応する。例えば、スライスは、0〜45°のアジマス角及び90〜125°の仰角に対応する異なるスキャナによって見られる点を符号化できる。
多くの方法が研究され、接触点を表示するために使用される。例えば、Eurographics 2005,Dublin,Ireland,vol 24,N°3で公開されたGael Guennebaud,Loic Barthe,Mathias Paulin:Interpolatory Refinement for Real−Time Processing of Point−Base Geometry(ポイントベース幾何形状の実時間処理用の補間改良)を挙げることができる。
好ましくは、接触点のレンダリングは再び明示せず、その点に符号化される色は直接的にユーザに提示されるものであり、可視化の時点では再び明示しない。
好ましくは、点の走査は生態圏的であり、つまり、図13に示されるように仰角の関数に適応する。球の極における点は、赤道上のものと同じアジマス角のステップでは走査されず、これは冗長な点を避け、走査する点の数を限定するためである。最小アジマス角のステップでの走査は赤道において実現されるが、他の緯度では、走査はより大きなアジマス角のステップを有する。生態圏的方法は、ちょうどエクイレクタンギュラ符号化のように、格納マトリクスの縦軸の緯度、及び格納マトリクスの横軸の経度を符号化する原理を維持するが、アジマスと横軸の比率はもはや線形ではない。
従って、各走査線(各仰角)に対して計算を行い、円の等価な外周はその線によって表される。ちょうど格納マトリクスの行が球の水平断面を表すので、これは水平断面上の円を提供する。
従って、この外周は、sin(α)×2πの半径1を備えた球に基づく。従って、北極点から始まる仰角αを用いて、つまり北極α=0°、赤道α=90°及び南極α=180°において、赤道における外周とこの外周の比率は単にsin(α)となる。
同じ行上の全ての点は、角度増分Δβに対応して互いに同じ距離にある。しかし、この角度増分Δβは、再びsin(α)に対して行毎に異なる。式によると、Δβ=360°/(格納マトリクスの列の数とsin(α)の積)である。当然のことながら、格納マトリクスの全ての列は赤道においてのみ用いられ、全ての他の緯度はより少ない列を用いる。
生態圏的方法は、空間内の各接触点に対応する表面の良好な均一性を有することができ、全ての走査方向を完全にカバーする。
図13において、全ての経度において対応する球のスライスは、円26に対応する緯度α=45°に対して示される。円25は、赤道(α=90°)に対応する緯度に対する全ての経度に対応する球のスライスである。射影部40は、上から見て赤道の緯度に対応する円であり、その半径は定義1により、その外周は2πからなり、射影部50は緯度α=45°において上から見た円であり、その半径Rはsin(α)からなり、その外周は2π×sin(α)からなる。Wは球の中心であり、Mは対応する生態圏的格納マトリクスである。行90は、緯度α=45°に対応する接触点のストロークである。マトリクスMの全ての列は考慮されず、実際には、Mの列の総数とsin(α)の積によって定義される列の数だけが考慮されることが分かる。行100は、赤道の緯度に対応する接触点のストロークであり、マトリクスMの全ての列をとる。
視点領域ZVPは、図16に示したように、ちょうど固有の視点を備えたカメラを移動させるように、ビデオディレクタによってシフトされる。従って、ユーザが移動する際、実時間でレンダリングする瞬間に、仮想空間内でカメラを移動させる仮想現実とは逆である。本発明によると、没入映画を作製している間、視点領域ZVPをシフトさせる際、ユーザ1の周りを移動するのは空間3である。
可視化の瞬間にユーザ1の周りで、没入ビデオの毎回の一部の仮想3Dシーンを再現するシステムを考えることができる。仮想一時的シーンはそれぞれ、所定の視点領域ZVPからユーザ1が見ることができるものに限定される。これらのシーンの様子の展開は、ビデオ内のオブジェクト又は人の移動、及び映画ディレクタによって制御された視点領域の位置の移動に対応する。
従って、図14では、シーン3は第一時刻t1において視点領域ZVPの第一位置から走査され、その後、第二時刻t2において視点領域の第二位置から再び走査される。従って、t1において第一組の接触点9が得られ、その後、t2において第二組の接触点9’が得られる。ユーザ1に対して、移動されるのはシーンである。
可視化において、本発明に従って生成された画像を用いて実時間で合成画像を混合できることに意味がある。従って、例えば、物理的に存在しているか又は存在していないユーザの体で形成されたアバター、又は他のユーザの体のアバターを追加できる。ユーザが見る方向の関数で、テキスト又はスキーム等の情報要素、又は動的なターゲット等のゲーム要素を追加することもできる。静的又は動的広告を追加することもできる。
本発明による没入ビデオを見る際、加速感を再現するシステム上にユーザを配置し、ユーザに動きを与えることもできる。
可視化は、例えば、アンビソニック、HRTF(頭部伝達関数)及びバイノーラル等の従来の技術を用いた三次元内の音声を有することができる音声没入によって改善することもできる。

Claims (15)

  1. 没入ビデオを生成する目的のための画像データを収集し、それぞれが走査ビームを生成するために提供される第一組の少なくともn個(n>1)のスキャナのセットアップを備え、更に、走査ビームを用いて前記第一組のスキャナの各スキャナによって所定の空間を走査し、前記空間の画像データを生成し、前記画像データをメモリ内に格納する方法であって、
    前記没入ビデオのユーザが前記空間を見ることができ、頭部を用いて視点領域内での移動、特に平行移動を行うことができるボリュームの範囲を定めることによって視点領域が決定され、
    前記視点領域は、ユーザが静止時にその位置の周りに自然に有し、ユーザの体の残りの部分を移動させない頭部の動きの緯度に対応する大きさであり、
    前記視点領域の端部に配置される第二組のm個(m>1)のソース点がその後決定され、 前記第一組の少なくともn個のスキャナのセットアップは、前記ソース点にそれぞれ、前記第一組の前記スキャナの一つを毎回配置することによって実現され、
    前記空間の前記走査は、前記ソース点に配置された前記スキャナを用いて、前記視点領域によって決定される範囲にそれぞれ配置される一方ではアジマス角、他方では仰角の連続に従って、前記空間を段階的に走査することによって実現され、
    前記画像データの生成は、毎回反射される走査ビームのそれぞれ生成された走査ビームに対して、前記空間内に配置され、関連の走査ビームによって接触される接触点を収集し、ステップ毎に、反射される走査ビームに基づいて、接触点と、関連の走査ビームを生成したスキャナとの距離(d)、並びに前記接触点の色パラメータを決定することによって実現され、
    前記画像データは、前記アジマス角及び仰角に従って構成された行列の形態でメモリ内に格納されることを特徴とする方法。
  2. 前記視点領域は、基本的に直方体のボリューム、特に少なくとも高さ30cm、少なくとも奥行き30cm及び少なくとも幅30cmの直方体の平行六面体によって構成されることを特徴とする、請求項1に記載の方法。
  3. 前記視点領域は、基本的に八面体状のボリュームによって形成されることを特徴とする、請求項1に記載の方法。
  4. スキャナによって接触される各点に対して、前記n個のスキャナの少なくとも一つの他のスキャナによって出射されたビームが、その接触点に到達できるかどうかを決定することによって、前記画像データをフィルタ処理し、前記n個のスキャナの少なくとも一つの別のスキャナによって出射されたビームが考慮される接触点に到達できる場合、所定の選択基準に基づいて、前記考慮される接触点の画像データを、前記画像データから除去しなければならないかどうかを決定することを特徴とする、請求項1から3のいずれか一つに記載の方法。
  5. 前記考慮される接触点を生成したスキャナと、前記考慮される接触点に到達できる前記他のスキャナの内の単一又は複数のスキャナによって、前記アジマス角に従う二つの連続的走査ステップと、前記仰角に従う二つの連続的走査ステップの間で走査される面の表面積に、前記選択基準が基づくことを特徴とする、請求項4に記載の方法。
  6. 前記走査される面に直交する線と、前記接触点を生成した走査ビームとの間の角度(β)を決定し、距離(d)の二乗を角度βのコサインで割ったものに基づいて前記表面積を決定し、選択基準を構成し、最小走査面積を有する値と共に格納した前記画像データを保持することを特徴とする、請求項5に記載の方法。
  7. 前記接触点と、前記接触点を生成したスキャナとの間の距離、及び前記接触点と、前記接触点に到達できるn個の他のスキャナ内の単一又は複数のスキャナとの間の距離に、前記選択基準が基づき、保存され格納される前記画像データが、最小距離を提供したスキャナのものであることを特徴とする、請求項4に記載の方法。
  8. 優先順位は、前記ソース点上に配置したn個のスキャナのそれぞれに対して事前に確立され、前記選択基準が前記優先順位に基づくことを特徴とする、請求項4に記載の方法。
  9. 用いられるスキャナは仮想スキャナ又は物理的スキャナのいずれかであることを特徴とする、請求項1から8のいずれか一つに記載の方法。
  10. アジマス走査ステップは仰角の関数に適応することを特徴とする、請求項1から9のいずれか一つに記載の方法。
  11. 同じ走査ステップ内で複数の他の走査ビームを生成し、他の接触点を前記他の走査ビームを用いて決定し、その後、他の接触点のそれぞれに対して、前記他の接触点と前記スキャナとの間の距離を含む一組の距離を決定し、最小及び最大距離を前記一組の距離のそれらの距離内で検索し、その最小及び最大距離に依存する基準に基づいて、それらの距離に基づく異なるグループ内の前記他の接触点の分布が必要であるかどうかを決定し、
    このような分布が必要でない場合、前記他の接触点の加重平均を計算し、考慮される前記走査ステップに対して、前記接触点の前記メモリに格納された前記画像データの値とこの加重平均を置換し、
    このような分布が必要な場合、それらの位置に基づいて異なるグループに前記他の接触点を分布させ、前記異なるグループ内の所定の基準に従ってグループを選択し、考慮される前記走査ステップに対する接触点が、前記選択したグループ内の他の接触点の加重平均によって決定されることを特徴とする、請求項1から10のいずれか一つに記載の方法。
  12. 前記視点領域は、第一の初期位置から、前記第一の初期位置の所定の距離に配置した少なくとも第二位置に向かって前記空間内をシフトされ、前記第一組のスキャナの各スキャナによる走査と、前記空間の画像データの生成及び格納は、第一位置に対して実現した後、前記視点領域の各第二位置に対して繰り返されることを特徴とする、請求項1から11のいずれか一つに記載の方法。
  13. 請求項1から12のいずれか一つに係る方法に従って収集した画像データに基づく走査空間の少なくとも一部の可視化方法であって、
    a)センサによってユーザの眼の位置及び方向を視点領域内で決定すること、及び前記ユーザが見るものを決定するために、前記ユーザの頭部の移動を予測するアルゴリズムを使用することと、
    b)前記ユーザの眼の位置及び方向に基づいて、前記ユーザが見ることができる空間の一部を可視化するために必要な、前記メモリに格納された前記画像データ内で画像データを選択することと、
    c)選択した前記画像データを一時的メモリにロードすることと、
    d)前記一時的メモリ内に格納した画像データに基づいて二つの画像を生成することと、
    e)二つの生成した画像を前記ユーザの眼に表示すること、というステップを備えることを特徴とする方法。
  14. 前記ユーザに二つの画像を表示することが、仮想現実ヘッドセットを用いて実現されることを特徴とする、請求項13に記載の方法。
  15. ユーザに移動を付与するデバイス内で用いられ、前記付与される移動の座標が可視化システムに送信され、前記可視化方法を適用し、前記移動と画像フローを同期化させることを特徴とする、請求項13又は14に記載の方法。
JP2017522200A 2014-10-22 2015-10-22 没入ビデオを生成する目的のための画像データを収集する方法及びそれらの画像データに基づく空間可視化方法 Active JP6595591B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
BEBE2014/05025 2014-10-22
BE20145025A BE1022580A9 (fr) 2014-10-22 2014-10-22 Méthode d'obtention de vidéos immersives avec parallaxe interactive et méthode de visualisation de vidéos immersives avec parallaxe interactive
PCT/BE2015/000056 WO2016061640A1 (fr) 2014-10-22 2015-10-22 Méthode pour collecter des données d'images destinées à produire une vidéo immersive et méthode de visualisation d'un espace sur base de ces données d'images

Publications (2)

Publication Number Publication Date
JP2017539120A JP2017539120A (ja) 2017-12-28
JP6595591B2 true JP6595591B2 (ja) 2019-10-23

Family

ID=53016421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017522200A Active JP6595591B2 (ja) 2014-10-22 2015-10-22 没入ビデオを生成する目的のための画像データを収集する方法及びそれらの画像データに基づく空間可視化方法

Country Status (10)

Country Link
US (1) US10218966B2 (ja)
EP (1) EP3210378B1 (ja)
JP (1) JP6595591B2 (ja)
KR (1) KR102343678B1 (ja)
CN (1) CN107079145B (ja)
AU (1) AU2015336869B2 (ja)
BE (1) BE1022580A9 (ja)
CA (1) CA2965332C (ja)
NZ (1) NZ731584A (ja)
WO (1) WO2016061640A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10554931B1 (en) 2018-10-01 2020-02-04 At&T Intellectual Property I, L.P. Method and apparatus for contextual inclusion of objects in a conference
EP4032311A1 (en) * 2019-09-19 2022-07-27 InterDigital CE Patent Holdings Devices and methods for generating and rendering immersive video
CN112601065B (zh) * 2019-10-01 2022-02-11 浙江大学 一种重构高自由度视频可观看范围的方法与装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4608152B2 (ja) * 2000-09-12 2011-01-05 ソニー株式会社 三次元データ処理装置および三次元データ処理方法、並びにプログラム提供媒体
IL139995A (en) * 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
JP2002171460A (ja) * 2000-11-30 2002-06-14 Sony Corp 再生装置
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
US9451932B2 (en) * 2004-12-30 2016-09-27 Crystalview Medical Imaging Limited Clutter suppression in ultrasonic imaging systems
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
KR101141087B1 (ko) * 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
CN102959964B (zh) * 2010-05-14 2015-01-14 惠普发展公司,有限责任合伙企业 多视点视频拍摄***和方法
JP2012079291A (ja) * 2010-09-08 2012-04-19 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US9055886B1 (en) * 2011-01-05 2015-06-16 Sandia Corporation Automatic tool alignment in a backscatter x-ray scanning system
US9007430B2 (en) 2011-05-27 2015-04-14 Thomas Seidl System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
KR20130003135A (ko) * 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
CA2848216C (en) * 2011-09-09 2018-05-15 Accipiter Radar Technologies, Inc. Device and method for 3d sampling with avian radar
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
EP2791909A4 (en) 2011-12-16 2015-06-24 Thomson Licensing METHOD AND DEVICE FOR PRODUCING 3D CONTENTS WITH FREE VIEWPOINT
US9324190B2 (en) * 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US20140172377A1 (en) * 2012-09-20 2014-06-19 Brown University Method to reconstruct a surface from oriented 3-d points
US8976224B2 (en) * 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
JP6514681B2 (ja) * 2013-03-15 2019-05-15 ウーバー テクノロジーズ,インコーポレイテッド ロボット用多重知覚ステレオ視のための方法、システム、および装置
US9435889B2 (en) * 2013-12-14 2016-09-06 Process Metrix Caster mold measurements using a scanning range finder

Also Published As

Publication number Publication date
AU2015336869B2 (en) 2019-06-06
CA2965332C (fr) 2019-07-23
CN107079145B (zh) 2019-08-16
WO2016061640A1 (fr) 2016-04-28
BE1022580A1 (fr) 2016-06-09
US10218966B2 (en) 2019-02-26
KR20170074902A (ko) 2017-06-30
CN107079145A (zh) 2017-08-18
US20180115769A1 (en) 2018-04-26
NZ731584A (en) 2022-02-25
EP3210378A1 (fr) 2017-08-30
JP2017539120A (ja) 2017-12-28
EP3210378B1 (fr) 2020-11-04
CA2965332A1 (fr) 2016-04-28
BE1022580B1 (fr) 2016-06-09
AU2015336869A1 (en) 2017-05-25
KR102343678B1 (ko) 2021-12-27
BE1022580A9 (fr) 2016-10-06

Similar Documents

Publication Publication Date Title
US7528830B2 (en) System and method for rendering 3-D images on a 3-D image display screen
KR102491749B1 (ko) 파노라마 입체 이미징 시스템
US11196972B2 (en) Presence camera
KR102279143B1 (ko) 계층화된 증강 엔터테인먼트 경험
US20110316853A1 (en) Telepresence systems with viewer perspective adjustment
JP6824579B2 (ja) 画像生成装置および画像生成方法
EP3676794A1 (en) Zooming an omnidirectional image or video
JP6595591B2 (ja) 没入ビデオを生成する目的のための画像データを収集する方法及びそれらの画像データに基づく空間可視化方法
US20230206511A1 (en) Methods, systems, and media for generating an immersive light field video with a layered mesh representation
EP4091141A1 (en) Neural blending for novel view synthesis
JP6461679B2 (ja) 映像表示システム及び映像表示方法
JP7479386B2 (ja) シーンを表す画像信号
JP2009500878A (ja) 奥行錯覚デジタル撮像
Thatte et al. Real-World Virtual Reality With Head-Motion Parallax
FR3076641A1 (fr) Volume immersif multimedias, multi-utilisateurs et multi sensoriels
Ogi et al. Digital 3D ukiyoe using the effect of motion parallax
Ronfard et al. Workshop Report 08w5070 Multi-View and Geometry Processing for 3D Cinematography

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6595591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250