JP2016105279A - 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品 - Google Patents
視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品 Download PDFInfo
- Publication number
- JP2016105279A JP2016105279A JP2015227556A JP2015227556A JP2016105279A JP 2016105279 A JP2016105279 A JP 2016105279A JP 2015227556 A JP2015227556 A JP 2015227556A JP 2015227556 A JP2015227556 A JP 2015227556A JP 2016105279 A JP2016105279 A JP 2016105279A
- Authority
- JP
- Japan
- Prior art keywords
- visual data
- user
- terminal
- module
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 151
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012545 processing Methods 0.000 title claims abstract description 38
- 238000004590 computer program Methods 0.000 title claims abstract description 12
- 230000009466 transformation Effects 0.000 claims description 55
- 238000013519 translation Methods 0.000 claims description 14
- 238000011084 recovery Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 24
- 230000008447 perception Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 230000003993 interaction Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Geometry (AREA)
- Controls And Circuits For Display Device (AREA)
- Digital Computer Display Output (AREA)
- Studio Devices (AREA)
Abstract
【課題】ビジュアルデータを処理する装置および方法、および関連するコンピュータプログラム製品を提供する。【解決手段】装置は、端末に対して視覚データを表示するように使用される視覚データ処理装置であって、端末のユーザ上の基準点に対する、端末の3次元位置を取得するように構成されたモジュール11と、端末の3次元位置において、利用可能な視覚データのセットに応じて、基準点の視点から表示されることになる、視覚データのサブセットを決定するように構成されたモジュール12と、表示されることになる視覚データのサブセットを変更し、変更された視覚データを供給するように構成されたモジュール13と、変更された視覚データを、端末の表示モジュール上に表示するように構成されたモジュール14と、を備えた。【選択図】図1
Description
本開示はデータ処理の分野に関する。より具体的には本開示は、ユーザを中心とする座標系(自己中心座標系)を基準とする空間における位置に対する、視覚データの処理に関する。
情報技術の急速な進展と共に、電子的視覚ディスプレイ装置は世界で広く用いられている。観察のモードに従って、ディスプレイ装置は2つのカテゴリに分けられ得る:直視型ディスプレイおよび投射型ディスプレイである。ハンドヘルド装置、スマートフォンおよびタブレットは、視覚コンテンツがそれらの画面上で直接見られ得るので、直視型ディスプレイ装置と見なされ得る。当然ながらプロジェクタは、視覚コンテンツが外部スクリーンに投影されるので、投射型ディスプレイ装置に属する。視覚コンテンツをユーザの網膜に直接投影するビデオグラスなどの、いくつかの頭部装着ディスプレイ装置(HMD)も、投射型ディスプレイ装置と見なされ得る。
今日では、ディスプレイ装置上に視覚コンテンツを提示する基本的な方法は、装置の視点から視覚コンテンツを参照することである。言い換えれば装置によって表示される視覚コンテンツは、ユーザの位置には無関係である。
ハンドヘルド装置に対しては、ユーザは表示されたコンテンツを左にまたは右にワイプすることができるが、基準系は装置自体のままとなる。基準が装置でない場合は、写真またはビデオ収集、またはデータ位置が撮影された環境に結び付けられる、いくつかの拡張現実タグベースのアプリケーションである。適切な位置に装置を保持することは、環境に対応してデータを出現させることができる(ユーザによって見られるように、環境における方向に結び付けられた表示されるデータの方向で)。これは通常は拡張現実と名付けられる。
HMDについては、ビデオは、それが見る人の前方の所与の距離に現れるように、ユーザの網膜に投影され得る。装置の光学パラメータは、遠近調節および潜在的な収束が見る人に快適となるように像を投影するようになる。拡張現実技法は、ユーザを中心とする空間における方向に、データを結び付けることができる(例えば単眼または立体ビューイング)。
しかし、ハンドヘルド装置またはHMDのための拡張現実技法は、物理的な現実世界環境のライブビューを「拡張された」要素と共に表示できるだけである。主要な視覚コンテンツは、カメラによって直接捕捉される現実世界環境に限定される。言い換えればハンドヘルド装置またはHMDは、そのカメラによって捕捉された物理的環境のビューを受動的に表示し、この物理的環境の上にコンテンツを追加することができるだけである。
表示されるデータがユーザの知覚システムを表すものである、装置および方法を有する必要がある。
本開示は、従来技術の限界を克服する。
より具体的には本開示は、端末に対して視覚データを表示するための視覚データ処理装置に関する。本開示によれば装置は、
− 上記端末のユーザ上の基準点に対する、上記端末の3次元位置を取得するように構成されたモジュールと、
− 上記端末の上記3次元位置に関して、利用可能な視覚データのセットに応じて、上記基準点の視点から表示されることになる、視覚データのサブセットを決定するように構成されたモジュールと、
− 表示されることになる上記視覚データのサブセットを変更するように構成されたモジュールであって、変更された視覚データを供給する、上記変更するように構成されたモジュールと、
− 上記変更された視覚データを、上記端末の表示モジュール上に表示するように構成されたモジュールと、
を備える。
− 上記端末のユーザ上の基準点に対する、上記端末の3次元位置を取得するように構成されたモジュールと、
− 上記端末の上記3次元位置に関して、利用可能な視覚データのセットに応じて、上記基準点の視点から表示されることになる、視覚データのサブセットを決定するように構成されたモジュールと、
− 表示されることになる上記視覚データのサブセットを変更するように構成されたモジュールであって、変更された視覚データを供給する、上記変更するように構成されたモジュールと、
− 上記変更された視覚データを、上記端末の表示モジュール上に表示するように構成されたモジュールと、
を備える。
したがって本開示は、ユーザの位置と比べた装置の位置を考慮して、既存の基本視覚データを用いて、ユーザに対して自己中心視覚データを計算または生成することができる、視覚データ処理装置をもたらす。
したがって視覚データの表示は、上記ユーザの視野とは無関係である。このような技法は、上記ユーザの視野を追跡する必要がない。
本開示によれば、上記基準点は上記ユーザの胴体上にある。
したがって、一定である基準点によって、装置の位置を決定することが可能である。
本開示によれば、上記端末の3次元位置は、上記端末と上記基準点の間の距離、および上記基準点から上記端末への方向を含む。
本開示によれば、上記利用可能な視覚データのセットは、以下の要素の少なくとも1つを含む:
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
− ビデオコンテンツ
拡張現実とは違って、装置は、装置の位置を考慮してアプリケーションまたは同様なもののデータを表示する。示されるデータは、捕捉モジュールに関して装置によって知覚されるものを表すものではないが、一種の仮想環境の1つを表すものである。
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
− ビデオコンテンツ
拡張現実とは違って、装置は、装置の位置を考慮してアプリケーションまたは同様なもののデータを表示する。示されるデータは、捕捉モジュールに関して装置によって知覚されるものを表すものではないが、一種の仮想環境の1つを表すものである。
本開示によれば、3次元空間において表示されることになるサブセット視覚データを決定するための上記モジュールは、
− 少なくとも1つの幾何学変換を表すデータを取得するように構成されたモジュールと、
− 上記表示されることになる視覚データのサブセットに、上記少なくとも1つの幾何学変換を適用するように構成されたモジュールと、
を備える。
− 少なくとも1つの幾何学変換を表すデータを取得するように構成されたモジュールと、
− 上記表示されることになる視覚データのサブセットに、上記少なくとも1つの幾何学変換を適用するように構成されたモジュールと、
を備える。
本開示によれば、上記少なくとも1つの幾何学変換は、1つの3D空間回転、および1つの3D並進を含む。
したがって視覚データの計算は、これら2つの簡単な変換に基づくものとすることができ、上記計算は高速である。
本開示によれば、3次元位置を取得するように構成されたモジュールは、位置センサを備える。
本開示によれば、上記位置センサは上記3次元位置を、ユーザ上の上記基準点上に装着された少なくとも1つのアイテムに応じて測定する。
したがって基準点が胴体である場合は、上記アイテムは例えばネックレスとすることができる。上記ネックレスはディジタルのものとすることができ、その位置を装置に送り、または簡単な金属製のネックレスとすることができる(次いで装置は、ネックレスを検出することによってその位置を測定する)。
本開示によれば、上記端末は、ハンドヘルド装置または頭部装着装置(HMD)である。
本開示はまた、端末の回復モジュール上に復元されることになる視覚データを処理するための方法に関する。本開示によれば、上記方法は、
− 上記端末のユーザ上の基準点に対する、上記端末の3次元位置を取得するステップと、
− 上記端末の上記3次元位置に関して、利用可能な視覚データのセットに応じて、上記基準点の視点から表示されることになる3次元視覚データのサブセットを決定するステップと、
− 表示されることになる上記3次元視覚データのサブセットを変更し、変更された視覚データを供給するステップと、
− 上記変更された視覚データを、上記端末の上記表示モジュール上に表示するステップと、
を含む。
− 上記端末のユーザ上の基準点に対する、上記端末の3次元位置を取得するステップと、
− 上記端末の上記3次元位置に関して、利用可能な視覚データのセットに応じて、上記基準点の視点から表示されることになる3次元視覚データのサブセットを決定するステップと、
− 表示されることになる上記3次元視覚データのサブセットを変更し、変更された視覚データを供給するステップと、
− 上記変更された視覚データを、上記端末の上記表示モジュール上に表示するステップと、
を含む。
本開示によれば、上記基準点は上記ユーザの胴体上にある。
本開示によれば、上記利用可能な視覚データのセットは、以下の要素の少なくとも1つを含む:
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
− ビデオコンテンツ
本開示によれば、上記決定するステップは、
− 少なくとも1つの幾何学変換を表すデータを取得するステップと、
− 上記表示されることになる上記視覚データのサブセットに、上記少なくとも1つの幾何学変換を適用するステップと、
を含む。
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
− ビデオコンテンツ
本開示によれば、上記決定するステップは、
− 少なくとも1つの幾何学変換を表すデータを取得するステップと、
− 上記表示されることになる上記視覚データのサブセットに、上記少なくとも1つの幾何学変換を適用するステップと、
を含む。
本開示によれば、上記少なくとも1つの幾何学変換は、1つの3D空間回転、および1つの3D並進を含む。
さらに本開示は、ディスプレイ装置の限られた視野をユーザの潜在的な視野まで拡大し、提示されるコンテンツは、装置に結び付けられるのではなく、ユーザに結び付けられるビュー/対話の枠組みをもたらす。より正確には表示されるコンテンツは、それ自体の自己中心座標系における、ユーザの空間の知覚を表すものである。
したがって本原理はまた、コンピュータまたはデータプロセッサによって実行され得るプログラムをもたらし、プログラムは、上述のような方法のステップの実行を制御するための命令を含む。
このプログラムは、任意のプログラミング言語を用いることができ、ソースコード、オブジェクトコード、または部分的にコンパイルされた形式などのソースコードとオブジェクトコードの間の中間コードの形式、または任意の他の望ましい形式とすることができる。
本原理はまた、データプロセッサによって可読であり、上述のようなプログラムの命令を含んだ媒体をもたらす。
情報担体は、上記プログラムを記憶することができる任意のエンティティまたは装置とすることができる。例えば媒体は、ROM、例えばCD ROMもしくはマイクロエレクトロニクス回路などの記憶媒体、またはディスケット(フロッピディスク)もしくはハードドライブなどの磁気記録媒体を含むことができる。
これに対して情報担体は、無線によってまたは他の手段によって、電気または光ケーブルを通じて伝達され得る電気または光信号などの、送信可能担体とすることができる。本原理によるプログラムは、特にインターネットなどのネットワークを通してダウンロードされ得る。
あるいは情報担体は、プログラムが組み込まれた集積回路とすることができ、回路は、該当するプロセスを行うように、または実行において用いられるように適合される。
一実施形態によれば本原理は、ソフトウェアおよび/またはハードウェアを用いて実現される。この関連において「モジュール」という用語は、本文書ならびにソフトウェア構成要素において、ハードウェア構成要素、またはハードウェアおよびソフトウェア構成要素のセットに対応し得る。
ソフトウェア構成要素は、1または複数のコンピュータプログラム、プログラムの1または複数のサブプログラム、またはより一般的には、モジュールに対して以下で述べられるものによる機能もしくは機能のセットを実現することができる、プログラムもしくはソフトウェアの任意の要素である。このようなソフトウェア構成要素は、物理的エンティティ(テレビ、プロジェクタ、端末、サーバ、ゲートウェイ、ルータなど)のプロセッサによって実行され、物理エンティティ(メモリ、記憶媒体、バス通信、eカードI/O、ユーザインターフェースなど)のハードウェアリソースにアクセスする可能性が高い。
同様にハードウェア構成要素は、モジュールに対して以下で述べられるものによる機能もしくは機能のセットを実現することができるハードウェア(a hardware)(またはハードウェア(hardware))の任意の構成要素である。これは、実行プロセッサのためのプログラマブルハードウェアもしくはソフトウェアと一体化された構成要素、例えば集積回路、スマートカード、メモリカード、ファームウェアの実行のための電子カードなどとすることができる。
上述のシステムの各構成要素は、それ自体のソフトウェアモジュールをもたらす。上述の様々な実施形態は、本原理による実現のために一緒に組み合わされ得る。
提案される方法について以下に、特許請求の範囲によって定義される保護の範囲を限定せずに、添付の図に関連して例として述べられる。
装置の主要な機能モジュールを示す図である。
座標系の定義を示す図である。
配置位置センサの例を示す図である。
胴体座標系における点Cを中心とする、自己中心コンテンツ球面を示す図である。
点Cを中心とする球面座標を示す図である。
視覚データ処理方法の主要なステップを示す図である。
本開示による視覚データ処理装置の実施形態を示す図である。
5.1原理
自然の生活においてユーザは、彼等の周りに対象物またはスクリーンがあることに慣れ、彼等がそれらを所与の時点で見なかった場合は、彼等は、彼等の位置/姿勢を変更すれば、これらの対象物(例えばテレビ、または壁の時計)を見ることができることを知っている。彼等の空間の知覚は能動的であり、過去および現在の視覚および運動情報から結果として生じる。これは、彼等の環境(他者中心)空間知覚にも、および彼等の自己中心空間知覚にも当てはまる。
自然の生活においてユーザは、彼等の周りに対象物またはスクリーンがあることに慣れ、彼等がそれらを所与の時点で見なかった場合は、彼等は、彼等の位置/姿勢を変更すれば、これらの対象物(例えばテレビ、または壁の時計)を見ることができることを知っている。彼等の空間の知覚は能動的であり、過去および現在の視覚および運動情報から結果として生じる。これは、彼等の環境(他者中心)空間知覚にも、および彼等の自己中心空間知覚にも当てはまる。
本開示はハンドヘルドまたはアイウェア装置によって表示さえる視覚情報の構造を改善し、それにより、アプリケーションを構成するもしくは使用するまたはコンテンツを見るために、それらの自己中心および近接空間において情報が容易に利用可能になる。これは対話の自然さ、およびアプリケーションへのアクセスにおける効率の改善を可能にし、ディスプレイ面に結び付けられたアプリケーションアイコンおよびウィンドウの、古典的な「デスクトップ」の枠組みを置き換える。
1つの例示の実施形態は、肩越しの(例えば人の右側への)方向を活用して、アプリケーションアイコンまたは実行アプリケーションを永続的に「記憶」する。右側に(身体/自己中心座標系において)、頭部を回す(またはハンドヘルド画面を動かす)ことで、肩越しに「記憶」されたアプリケーションをユーザの視界内にもたらすようになる。これは簡単な時計、遠隔の人/場所を示すSkypeウィンドウ、電子メールアイコン、関心のある主要コンテンツに関係するサイドウィンドウ(例えばゲームにおけるマップ)とすることができる。ユーザが彼等の前方を見ているときは、この肩越しのコンテンツは見られず、自然の実際のビューイングまたは関心のある主要アプリケーションが実行している自由な視野をもたらす。しかしユーザは、彼等の肩の上のアプリケーションまたはアイコンが利用可能であり、それを見るには頭部を回す(またはハンドヘルド画面を動かす)ことで十分であることが分かっている。アプリケーションは、随伴するアプリケーションとして、彼等の傍にあることが感じられる。したがって視覚データ(すなわちユーザに示されるデータ、例えばアイコン、ウィンドウ、デスクトップなど)は、ユーザの位置に適応される。
上記の例のパラグラフは、ビデオグラスに対して当てはまり、効果を実現するためには、アイウェアと相対的なユーザの身***置を追跡することで十分となり得る。スマートフォンまたはタブレットに対しては、装置を肩の上の方向に動かしそれを見ることが、センサが活用された場合に同じ効果を生み出すことができる。両方の場合において、ユーザに対して相対的にコンテンツを更新することが、アプリケーションアイコンまたはアプリケーションコンテンツを、ユーザの自己中心環境において安定に見えるようにする方法となる。
したがって既存の基本視覚データを用いて、ユーザに対して自己中心視覚データを計算または生成するための方法および装置がもたらされる。既存の基本視覚データは、例えばオペレーティングシステムのデスクトップを表すものとすることができる。既存の基本視覚データは例えば、装置上で実行されるアプリケーションを表すものとすることができる。既存の視覚データは、拡張現実システムにおいて既存の現実の対象物の上に来るデータと同じではないことに留意することが重要である。既存の視覚データは、ユーザが現実に見ているものに対して情報を追加しない。本開示によれば、前述の必要性は、端末に対して視覚データを表示するための視覚データ処理装置によって解決され、これは、
− 11として参照される、端末のユーザ上の基準点に対する、端末の3次元位置を取得するように構成されたモジュールと、
− 12として参照される、端末の3次元位置に関して、利用可能な視覚データのセットに応じて、基準点の視点から表示されることになる、3次元視覚データのサブセットを決定するように構成されたモジュールと、
− 13として参照される、表示されることになる3次元視覚データのサブセットを変更し、変更された視覚データを供給するように構成されたモジュールと、
− 14として参照される、変更された視覚データを、端末の回復モジュール上に表示するように構成されたモジュールと、
を備える。
− 11として参照される、端末のユーザ上の基準点に対する、端末の3次元位置を取得するように構成されたモジュールと、
− 12として参照される、端末の3次元位置に関して、利用可能な視覚データのセットに応じて、基準点の視点から表示されることになる、3次元視覚データのサブセットを決定するように構成されたモジュールと、
− 13として参照される、表示されることになる3次元視覚データのサブセットを変更し、変更された視覚データを供給するように構成されたモジュールと、
− 14として参照される、変更された視覚データを、端末の回復モジュール上に表示するように構成されたモジュールと、
を備える。
3次元位置を取得するためのモジュール11は、ユーザの自己中心座標系において、ユーザの身体上の基準点に対して、端末(ディスプレイ装置)の3次元位置を、捕捉または推定することができる。自己中心座標系は、観察者(ユーザ)を中心とする座標系である。3次元位置は2つの情報を表し、一方は基準点の間の距離であり、他方は装置の基準部分からの方向である。
3次元位置を取得するためのモジュール11は、身体運動および活動認識のための専用処理機能を有するウェアラブルセンサなどの、任意の運動捕捉装置とすることができる。
表示されることになる3次元視覚データのサブセットを決定するためのモジュール12は、基準点に対する端末の3次元位置に従って、利用可能な視覚データのセットから、表示されることになる視覚データのサブセットを選択することができる。利用可能な視覚データは、記憶装置に記憶されたまたはネットワークから受信された、いくつかの既存の画像とすることができる。したがって、表示されることになる視覚データは、端末がユーザ上の基準点に対して相対的に移動したときは、変化され得る。
3次元視覚データのサブセットを変更するためのモジュール13は、視覚データ自己中心視覚データのサブセットに基づいて、2次元視覚データ(または3次元視覚データ)を計算することができる。2次元視覚データまたは3次元視覚データは、変更された視覚データと呼ばれる。変更は、例えば視覚データのサブセットの再配置、再形成、および/またはサイズ変更を含む。
実施形態によれば、基準点はユーザの胴体上にある。胴体は、頭部に比べて基準点のための良好な部分である。ユーザが、本開示の処理装置を組み込んだハンドヘルドディスプレイ装置(端末)を操作するときは、彼の頭部は、ハンドヘルド装置の動きに追従して動くことができ、頭部に対する装置の3次元位置は不変となり得る。HMDについては、頭部に対するその相対位置は固定される。表示される視覚コンテンツは、不変のままとなり得る。ハンドヘルドディスプレイ装置およびHMDの両方に対して、ユーザの胴体に対するそれらの位置は、それらの動きと共に変化する。したがってデータ処理装置は、新しい自己中心視覚データを計算することができる。
他の実施形態によれば、利用可能な視覚データは、以下の要素の少なくとも1つを含む:
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
したがってデスクトップの視野は、ユーザの潜在的な視野に拡張される。オペレーションシステムのデスクトップ、またはアプリケーションのユーザインターフェースは拡大される。さらにデスクトップまたはユーザインターフェース上のナビゲーションは、より容易に、より効率的になる。
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
したがってデスクトップの視野は、ユーザの潜在的な視野に拡張される。オペレーションシステムのデスクトップ、またはアプリケーションのユーザインターフェースは拡大される。さらにデスクトップまたはユーザインターフェース上のナビゲーションは、より容易に、より効率的になる。
他の実施形態によれば、決定するためのモジュールはさらに、
− 131として参照される、少なくとも1つの幾何学変換を表すデータを取得するように構成されたモジュールと、
− 132として参照される、表示されることになる視覚データのサブセットに、少なくとも1つの幾何学変換を適用するように構成されたモジュールと、
を備える。
− 131として参照される、少なくとも1つの幾何学変換を表すデータを取得するように構成されたモジュールと、
− 132として参照される、表示されることになる視覚データのサブセットに、少なくとも1つの幾何学変換を適用するように構成されたモジュールと、
を備える。
幾何学変換は、視覚データのサブセットに対して行われる。変換された基本視覚データは、ユーザに対する自己中心視覚データとなる。
他の実施形態によれば、少なくとも1つの幾何学変換マトリックスは、3D空間回転および3D並進パラメータを備える。したがって幾何学変換マトリックスは、3D回転および3D並進のみを組み合わせた、剛体対象物に対する線形変換によってモデル化される。他の実施形態によれば、少なくとも1つの幾何学変換を表すデータを取得するためのモジュールは、31、32、33として参照される位置センサを備える。他の実施形態によれば、位置センサ31は、ユーザ上の基準点に装着された少なくとも1つのアイテム32、33に応じて、3次元位置を測定する。位置センサが基準アイテムを検出することは、より容易である。したがってアイテムは、相対位置の測定を容易にする。
他の実施形態によれば、前述の端末は、ハンドヘルド装置または頭部装着装置(HMD)である。したがってハンドヘルド装置またはHMDは、自己中心コンテンツをユーザに表示することができる。
他の態様では本開示は、端末の回復モジュール上に復元されることになる視覚データを処理するための方法をもたらす。復元された視覚データによって表される視覚コンテンツは、ユーザの自己中心コンテンツに対応する。方法は、
− 61として参照される、端末のユーザ上の基準点に対する、端末の3次元位置を取得するステップと、
− 62として参照される、端末の3次元位置に関して、利用可能な視覚データのセットに応じて、基準点の視点から表示されることになる3次元視覚データのサブセットを決定するステップと、
− 63として参照される、表示されることになる3次元視覚データのサブセットを変更し、変更された視覚データを供給するステップと、
− 64として参照される、変更された視覚データを、端末の回復モジュール上に表示するステップと、
を含む。
− 61として参照される、端末のユーザ上の基準点に対する、端末の3次元位置を取得するステップと、
− 62として参照される、端末の3次元位置に関して、利用可能な視覚データのセットに応じて、基準点の視点から表示されることになる3次元視覚データのサブセットを決定するステップと、
− 63として参照される、表示されることになる3次元視覚データのサブセットを変更し、変更された視覚データを供給するステップと、
− 64として参照される、変更された視覚データを、端末の回復モジュール上に表示するステップと、
を含む。
端末の3次元位置を取得するステップ61は、端末に組み込まれた位置捕捉装置によって実現され得る。位置捕捉装置は、ユーザ上の基準点と相対的な端末の3次元位置を捕捉または推定することができる。基準点は、ユーザの頭部または胴体上に配置され得る。
表示されることになる3次元視覚データのサブセットを決定するステップ62は、ユーザの自己中心座標において表示されることになる視覚データを選択することができる。変更するステップは、視覚データのサブセットに対する任意のタイプの操作とすることができる。変更するステップは、決定された視覚データのサブセットを変更することによって、自己中心視覚データを計算することができる。表示するステップは、端末上に2次元の自己中心データを表示することができる。
他の実施形態によれば、利用可能な視覚データのセットは、以下の要素の少なくとも1つを含む:
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
他の実施形態によれば、決定するステップは、
− 631として参照される、少なくとも1つの幾何学変換を表すデータを取得するステップと、
− 632として参照される、表示されることになる視覚データのサブセットに、少なくとも1つの幾何学変換を適用するステップと、
を含む。
− オペレーションシステムのデスクトップ
− アプリケーションのアイコン
− アプリケーションのユーザインターフェース
他の実施形態によれば、決定するステップは、
− 631として参照される、少なくとも1つの幾何学変換を表すデータを取得するステップと、
− 632として参照される、表示されることになる視覚データのサブセットに、少なくとも1つの幾何学変換を適用するステップと、
を含む。
他の実施形態によれば、少なくとも1つの幾何学変換は、1つの3D空間回転、および1つの3D並進を含む。
他の態様によれば、本開示は、それがコンピュータ上で実行されたときに、視覚データを処理するための上記のいずれかの方法により、視覚データを処理するための方法を実行するためのプログラムコード命令を備えることを特徴とする、通信ネットワークからダウンロード可能な、および/またはコンピュータ可読担体に記憶された、および/またはマイクロプロセッサによって実行可能な、コンピュータプログラム製品をもたらす。
5.2実施形態の説明
この実施形態では、視覚データを処理するために様々なソリューションが述べられる。これらの実施形態では視覚データは、表示するための画像である。これは、本開示の範囲から逸脱せずに、他の種類の視覚データとすることもできる。またこの実施形態ではディスプレイ装置は、スマートフォンまたはタブレットなどのポータブルディスプレイ装置である。
この実施形態では、視覚データを処理するために様々なソリューションが述べられる。これらの実施形態では視覚データは、表示するための画像である。これは、本開示の範囲から逸脱せずに、他の種類の視覚データとすることもできる。またこの実施形態ではディスプレイ装置は、スマートフォンまたはタブレットなどのポータブルディスプレイ装置である。
変形形態の第1のセットは、視覚データ(表示するための画像)が、ユーザの基準点の位置を考慮して取得される方法を簡潔に記述する。次いで、第1の変形形態が詳しく述べられる。
より正確には、視覚データを処理するために第1のステップは、ユーザの胴体に対する、端末の3次元位置を取得することである。次いで視覚データは、位置に幾何学変換のセットを適用することによって処理される。これらの変換は、この実施形態ではマトリックス計算である(いくつかのマトリックスが使用され得る)。後に続くステップは、変更された位置を考慮して、視覚データを変更することである。視覚データの変更は、利用可能な視覚データのセット(例えば大きな画像)において、表示するための視覚データのサブセット(より小さな画像)を識別することにあるものとすることができる。最後のステップは、視覚データ(より小さな画像)を、端末の表示モジュールに送信することである。また状況に応じてユーザの知覚を、表示される視覚コンテンツに適応させるために、較正方法が使用され得る。またユーザ間のコンテンツ共有および対話が開示される。
5.2.1視覚データの処理の変形形態
実施形態の第1の変形形態は、表示画像座標系を、下記によってユーザの自己中心座標系に結び付けることにある:
1)ユーザの胴体と相対的なディスプレイ装置の空間における位置(3D位置)を取得する(捕捉および/または推定することによって)。
実施形態の第1の変形形態は、表示画像座標系を、下記によってユーザの自己中心座標系に結び付けることにある:
1)ユーザの胴体と相対的なディスプレイ装置の空間における位置(3D位置)を取得する(捕捉および/または推定することによって)。
(捕捉または推定の結果は、幾何学変換TD:gTDであり、Dは「ディスプレイ」を表し、Tは「胴体」を表す)。
2)ディスプレイ装置上の画像を計算することであり、その座標および2D歪みは下記に依存する:
i.ユーザの自己中心座標系において、彼と相対的な方向に表示されることが意図されるコンテンツ(「自己中心コンテンツ」)であり、これはこの実施形態では画像である。
i.ユーザの自己中心座標系において、彼と相対的な方向に表示されることが意図されるコンテンツ(「自己中心コンテンツ」)であり、これはこの実施形態では画像である。
ii.幾何学変換TD:gTD、ただしDは「ディスプレイ」を表し、Tは「胴体」を表す。
第2の変形形態は、表示画像座標系を、下記によってユーザの自己中心座標系に結び付けることにある:
1)ユーザの身体/胴体と相対的な、ユーザの頭部の空間における位置(3D位置)を取得する(捕捉および/または推定することによって)。
1)ユーザの身体/胴体と相対的な、ユーザの頭部の空間における位置(3D位置)を取得する(捕捉および/または推定することによって)。
(捕捉または推定の結果は、幾何学変換TH:gTHであり、Tは「胴体」を表し、Hは「頭部」を表す)。
2)ユーザの頭部と相対的なディスプレイ装置の空間における位置(3D位置)を取得する(捕捉および/または推定することによって)。
(捕捉または推定の結果は、幾何学変換HD:gHDであり、Dは「ディスプレイ」を表し、Hは「頭部」を表す)。
3)ディスプレイ装置上の画像を計算することであり、その座標および2D歪みは下記に依存する:
i.ユーザの自己中心座標系において、彼と相対的な方向に表示されることが意図されるコンテンツ(「自己中心コンテンツ」)であり、これはこの実施形態では画像である。
i.ユーザの自己中心座標系において、彼と相対的な方向に表示されることが意図されるコンテンツ(「自己中心コンテンツ」)であり、これはこの実施形態では画像である。
ii.幾何学変換TH gTHと、幾何学変換HD gHDとの組合せ。
第1のソリューションと比べて、第2のものは頭部位置の知識を追加し、これは首の屈曲(首を前方に曲げる)などのいくつかの構成において、相対方向の知覚を変更する。
第3のソリューションは、相対方向に影響を与える身体姿勢(例えば枕の上に頭部を置く、背の高いまたは低い人に話し掛ける)、または身体運動(例えば歩行、走行)を説明するために必要となり得る。
基準座標系は、例えば図3に示されるように胴体座標系(OTMxTMyTMzT)である。同じく頭部およびディスプレイ装置座標系も示される(ディスプレイ座標系は、(ODMxDMyDMzD)である)。図4に示されるようにユーザは、胴体または頭部の剛体部分に取り付けられた様々な形の位置センサを着用することができ、同様なセンサがハンドヘルドまたは着用されたディスプレイに埋め込まれ得る。
5.2.2第1の変形形態の詳細な説明
この例示の変形形態は、gTDが3D回転および3D並進のみの組合せによってモデル化され得るという意味で、知覚される自己中心空間の歪みがないと仮定する。より一般的には、3D空間における回転、並進、スケーリング、剪断、および透視投影を含む、剛体対象物に対する線形変換が用いられ得る。基準座標系(ここでは胴体座標系(OTMxTMyTMzT))においてディスプレイ装置は、幾何学変換gTD(この例では3D回転および3D並進)によって記述されるやり方で移動および回転し、ディスプレイ装置に結び付けられた座標系(ODMxDMyDMzD)における点の位置XD、YD、ZDは、以下の式で与えられ、ただしXT、YT、ZTはこの同じ点の、基準座標系(OTMxTMyTMzT)における座標である。
この例示の変形形態は、gTDが3D回転および3D並進のみの組合せによってモデル化され得るという意味で、知覚される自己中心空間の歪みがないと仮定する。より一般的には、3D空間における回転、並進、スケーリング、剪断、および透視投影を含む、剛体対象物に対する線形変換が用いられ得る。基準座標系(ここでは胴体座標系(OTMxTMyTMzT))においてディスプレイ装置は、幾何学変換gTD(この例では3D回転および3D並進)によって記述されるやり方で移動および回転し、ディスプレイ装置に結び付けられた座標系(ODMxDMyDMzD)における点の位置XD、YD、ZDは、以下の式で与えられ、ただしXT、YT、ZTはこの同じ点の、基準座標系(OTMxTMyTMzT)における座標である。
ただし
は3D空間回転であり、
は並進を表す。
パラメータ
(3D空間回転マトリックス)、および
(並進ベクトル)による上記のgTD変換は、自己中心座標系(胴体を基準とする)からディスプレイ座標系への、自己中心コンテンツの移転を可能にする。
ディスプレイ装置に対して、この実施形態の方法は、図5に示されるような球面S(中心C、半径R)を定義することにあり、その上に例えば画素グリッド(画像)I(θ,φ)によって自己中心コンテンツ情報を表すことができ、各画素は、それ自体が胴体座標系(OTMxTMyTMzT)における座標(xC,yC,zC)である点Cを中心とする、球面座標系における極角θおよび方位角φに対して定義される。球面Sは、この装置によるユーザの到達可能な作業空間の内側に定義される。
HMD(例えばシースルー眼鏡)に対する上述の球面は、ポインティング/対話が異なるので、異なる特性を有することになるが、説明された原理および定式化は同様なままとなる。
座標(i,j)のディスプレイ画素Pの輝度および色を計算するために、最初にこの画素の胴体座標系における位置が計算され、第1にディスプレイ座標に画素を配置し、第2に逆変換gDT=(gTD)-1を適用する。
次いで下記により、点Pの球面座標(点Cを中心とする)が下記によって計算される:
およびハンドヘルド装置の場合は、
(例えば
)である場合は、ディスプレイ画素Pには、座標(θP/C,φP/C)における自己中心コンテンツの輝度および色が与えられる。
P(i,j)=I(θP/C,φP/C)
球面Sが、ユーザの作業空間に対して相対的に明確である場合は、画素Pと球面Sの間の大き過ぎる距離(例えば
球面Sが、ユーザの作業空間に対して相対的に明確である場合は、画素Pと球面Sの間の大き過ぎる距離(例えば
)は生じない。しかしこの場合は、球面S上への画素Pの投射は、単一の眼のビューまたは立体視の場合は、それぞれ単眼、または左および右目のいずれかの方向で行われるべきである。次いで胴体座標系における頭部位置を知ること(gTH幾何学変換)が必要になることが留意されるべきである。
5.2.3第1の変形形態における知覚された空間の潜在的歪みの管理
空間における方向の知覚は、複雑な視覚および精神運動性タスクであることが留意される。知覚される方向と自己中心コンテンツとを関連付けることは、いくつかの場合においては、ユーザと相対的な空間における固定位置に配置された球面をディスプレイ面として用いることよりも複雑となり得る。例えば眼または頭部を動かすことは、裸眼の場合だけでなく、補正眼鏡を着用しているときはより確実に、方向の知覚を変更する場合があり、これはこれらが光線を偏向させ、したがって対象物空間とそれの網膜上の投影との間の関係を歪ませるからである。
空間における方向の知覚は、複雑な視覚および精神運動性タスクであることが留意される。知覚される方向と自己中心コンテンツとを関連付けることは、いくつかの場合においては、ユーザと相対的な空間における固定位置に配置された球面をディスプレイ面として用いることよりも複雑となり得る。例えば眼または頭部を動かすことは、裸眼の場合だけでなく、補正眼鏡を着用しているときはより確実に、方向の知覚を変更する場合があり、これはこれらが光線を偏向させ、したがって対象物空間とそれの網膜上の投影との間の関係を歪ませるからである。
知覚された空間の潜在的歪みに対処するためには、ソリューションは、自己中心コンテンツを表すように上記の球面を保つが、自己中心コンテンツが定義される(θ,φ)空間において特定のモーフィング(画像モーフィング)を適用することである。
上記の式は:P(i,j)=I(θP/C,φP/C)
その結果右記となる:P(i,j)=I(θ’,φ’)、ただし(θ’P/C,φ’P/C)=Morph(θP/C,φP/C)
(θ’,φ’)=Morph(θ,φ)は、方向の知覚における非線形性を考慮に入れたモーフィング関数である。これは、頭部および身体の動き、ならびに例えば補正眼鏡を着用したユーザに対する補正および非補正視野の間の限度に依存し得る。
その結果右記となる:P(i,j)=I(θ’,φ’)、ただし(θ’P/C,φ’P/C)=Morph(θP/C,φP/C)
(θ’,φ’)=Morph(θ,φ)は、方向の知覚における非線形性を考慮に入れたモーフィング関数である。これは、頭部および身体の動き、ならびに例えば補正眼鏡を着用したユーザに対する補正および非補正視野の間の限度に依存し得る。
(θ’,φ’)=Morph(θ,φ)は、様々な次数の多項式表現、スプライン、または球面調和関数を含む、様々な数式によって表され得る。(θ’,φ’)=Morph(θ,φ)は、以下に示される方法によって較正され得る。
さらに、知覚された空間の潜在的歪みを管理するためにまた、以下を考慮に入れることができる。
− 例えば胴体センサから胴体基準点までの剛体並進を考慮に入れるため、またはディスプレイ座標系から画素における画像座標系への変換のために、いくつかの補助的変換が用いられ得る。
− 幾何学変換は、ユーザの動きに追従するので時間に依存する。
− 補正眼鏡能力に応じた視野調整/スケーリングが必要となり得る。
− 幾何学変換HD:gHDは、ハンドヘルド装置が1つまたはいくつかの正面カメラを有する場合は画像分析から、および3D頭部姿勢推定関数から推定され得る。
5.2.4較正
幾何学変換は、いくつかの場合は較正を必要とし、この較正は、各ユーザが彼の相対(自己中心)方向の異なる知覚を有するようになるので、ユーザ依存となり得る。状況に応じて、いくつかの較正方法が用いられ得る。較正の目標は、ユーザに適合する幾何学変換のセットを取得することである。本明細書に示される特定の実施形態では、表示するための視覚データを処理するときに後に用いられる変換マトリックスを取得することを目指す。
幾何学変換は、いくつかの場合は較正を必要とし、この較正は、各ユーザが彼の相対(自己中心)方向の異なる知覚を有するようになるので、ユーザ依存となり得る。状況に応じて、いくつかの較正方法が用いられ得る。較正の目標は、ユーザに適合する幾何学変換のセットを取得することである。本明細書に示される特定の実施形態では、表示するための視覚データを処理するときに後に用いられる変換マトリックスを取得することを目指す。
較正方法1:
この第1の較正方法では自己中心コンテンツは、平均的または標準的ユーザに対して、または一般的なディスプレイ幾何形状(例えば球面)を仮定して生成される、デフォルト幾何学変換によってユーザに表示される。次いで較正プロセスは、専用ウィジェット(球面伸張、並進、回転)上のユーザアクションに従って、幾何学変換TDまたはTHおよびHDを更新する。ウィジェットは、ユーザの知覚されるコンテンツを予想されるコンテンツと比較し、それに従ってコンテンツ変換を更新する。
この第1の較正方法では自己中心コンテンツは、平均的または標準的ユーザに対して、または一般的なディスプレイ幾何形状(例えば球面)を仮定して生成される、デフォルト幾何学変換によってユーザに表示される。次いで較正プロセスは、専用ウィジェット(球面伸張、並進、回転)上のユーザアクションに従って、幾何学変換TDまたはTHおよびHDを更新する。ウィジェットは、ユーザの知覚されるコンテンツを予想されるコンテンツと比較し、それに従ってコンテンツ変換を更新する。
較正方法2:
この第2の較正方法では自己中心コンテンツは、平均的または標準的ユーザに対して、または一般的なディスプレイ幾何形状(例えば球面)を仮定して生成される、デフォルト幾何学変換によってユーザに表示される。次いで較正プロセスは、予想される自己中心コンテンツ幾何形状と比較したディスプレイ装置の誤差を識別する、システム分析の通常の使用におけるユーザ対話に従って、幾何学変換TDまたはTHおよびHDを更新する。
この第2の較正方法では自己中心コンテンツは、平均的または標準的ユーザに対して、または一般的なディスプレイ幾何形状(例えば球面)を仮定して生成される、デフォルト幾何学変換によってユーザに表示される。次いで較正プロセスは、予想される自己中心コンテンツ幾何形状と比較したディスプレイ装置の誤差を識別する、システム分析の通常の使用におけるユーザ対話に従って、幾何学変換TDまたはTHおよびHDを更新する。
較正方法3:
この第3の構成方法では、表示画像座標系と、ユーザの自己中心座標系との間の関係の較正は、以下のステップによって行われる:
1)表示画像上の自己中心コンテンツとして、注目点(例えば十字形またはドット)を配置し、移動する。
この第3の構成方法では、表示画像座標系と、ユーザの自己中心座標系との間の関係の較正は、以下のステップによって行われる:
1)表示画像上の自己中心コンテンツとして、注目点(例えば十字形またはドット)を配置し、移動する。
2)視覚的に(およびハンドヘルド装置に対しては手で)注目点に追従するようにユーザに求める(ユーザは、注目点に応じて彼の姿勢を変更しなければならないことになる)。
3)以下によっていくつかの時点においてユーザの姿勢を捕捉する:
a.ユーザの身体/胴体に結び付けられた座標系と相対的な、表示画像に結び付けられた座標系の位置を捕捉する
(幾何学変換TD)、または
ユーザの頭部に結び付けられた座標系と相対的な、表示画像に結び付けられた座標系の位置を捕捉する
(幾何学変換HD)
b.ユーザの身体/胴体に結び付けられた座標系と相対的な、頭部座標系の位置を捕捉する
(幾何学変換TH)
4)捕捉された画像対身体/胴***置に応じて、または捕捉された画像対頭部対身体/胴***置に応じて、ユーザと相対的な(彼/彼女の自己中心座標系における)方向を較正する:
a.較正は、サンプルされた姿勢捕捉を一般化したモデルを決定(モデル適合化)し、逆モデルを計算することにあるものとすることができる
その結果、その後の自己中心座標系における表示画像の安定性は、この較正に基づく。
a.ユーザの身体/胴体に結び付けられた座標系と相対的な、表示画像に結び付けられた座標系の位置を捕捉する
(幾何学変換TD)、または
ユーザの頭部に結び付けられた座標系と相対的な、表示画像に結び付けられた座標系の位置を捕捉する
(幾何学変換HD)
b.ユーザの身体/胴体に結び付けられた座標系と相対的な、頭部座標系の位置を捕捉する
(幾何学変換TH)
4)捕捉された画像対身体/胴***置に応じて、または捕捉された画像対頭部対身体/胴***置に応じて、ユーザと相対的な(彼/彼女の自己中心座標系における)方向を較正する:
a.較正は、サンプルされた姿勢捕捉を一般化したモデルを決定(モデル適合化)し、逆モデルを計算することにあるものとすることができる
その結果、その後の自己中心座標系における表示画像の安定性は、この較正に基づく。
5.2.5対話
自己中心コンテンツを操作することは、例えばユーザが「肩越しに」記憶されたアプリケーション(例えばSkypeアプリケーション)を彼/彼女と向かい合うように動かし、それを使うためには、極めて望ましい。ハンドヘルド装置はそれら自体でポインティング装置となることができ、タッチ機能は例えば、自己中心コンテンツ環境においてドラッグ−ドロップアクションをトリガすることができる。また例えば手の甲にしっかりと固定された、またはリンクの形でのウェアラブル追跡装置は、自己中心環境におけるコンテンツを指定するまたは指し示すことを可能にすることができる。ユーザが自己中心カメラ(例えば眼鏡に埋め込まれた)を着用している場合は、ハンド追跡画像解析も用いられ得る。
自己中心コンテンツを操作することは、例えばユーザが「肩越しに」記憶されたアプリケーション(例えばSkypeアプリケーション)を彼/彼女と向かい合うように動かし、それを使うためには、極めて望ましい。ハンドヘルド装置はそれら自体でポインティング装置となることができ、タッチ機能は例えば、自己中心コンテンツ環境においてドラッグ−ドロップアクションをトリガすることができる。また例えば手の甲にしっかりと固定された、またはリンクの形でのウェアラブル追跡装置は、自己中心環境におけるコンテンツを指定するまたは指し示すことを可能にすることができる。ユーザが自己中心カメラ(例えば眼鏡に埋め込まれた)を着用している場合は、ハンド追跡画像解析も用いられ得る。
上記と同様な変換は、それが実際にディスプレイ装置上に表示されてもされなくても、ポインティング装置または手/指の自己中心コンテンツとの関係を識別するために用いられ得る。音声解析またはタッチアクセサリは、対話をサポートすることができ、アクションの開始および終了を識別する。
対話もまた、自己中心環境でのコンテンツを選択し、それを例えば指し示すことによりまたは指名することによって、他者中心環境内(室内)の実際のディスプレイ(例えばテレビ画面またはモニタ)上に送ることにあるものとすることができる。このために、他者中心環境の特性(幾何形状、装置名およびアドレス)が、自己中心システムに知られなければならない。
5.2.6共有
自己中心コンテンツは、本質的にユーザU1に固有であり、初めはユーザU1がそれを見る唯一の人である。しかし一部の(おそらく部分的な)権利が、ユーザU1の自己中心コンテンツを見るために、別のユーザU2に与えられ得る。それによりユーザU2は、ユーザU1が何を見ている/行っているかを理解することができる。ユーザU2はまた場合によっては、このU1の自己中心コンテンツに対して共有/対話することができる。
自己中心コンテンツは、本質的にユーザU1に固有であり、初めはユーザU1がそれを見る唯一の人である。しかし一部の(おそらく部分的な)権利が、ユーザU1の自己中心コンテンツを見るために、別のユーザU2に与えられ得る。それによりユーザU2は、ユーザU1が何を見ている/行っているかを理解することができる。ユーザU2はまた場合によっては、このU1の自己中心コンテンツに対して共有/対話することができる。
この共有機能を実現するためのソリューションは、下記によってユーザU2の表示画像座標系を、ユーザU1の自己中心座標系に結び付けることである。
1)ユーザU1の身体/胴体と相対的な、ユーザU2の身体/胴体の空間における位置を取得(捕捉/推定)する(幾何学変換T1T2:gT1T2)
2)ユーザU2の身体/胴体と相対的な、ユーザU2のディスプレイ装置の空間における位置を取得(捕捉/推定)する(幾何学変換T2D2:g_T2D2)
3)ユーザU1「自己中心コンテンツ」(の承認された部分)のデータおよび幾何形状を、ユーザU2システムに移転する
4)ユーザU2のディスプレイ装置上の画像を計算し、その画像の座標および2D歪みは以下に依存する:
i.彼の自己中心座標系において、ユーザU1と相対的な方向に表示されることが意図されるコンテンツ(「自己中心コンテンツ」)
ii.幾何学変換T1T2:gT1T2、および幾何学変換T1D2:gT1D2
1人のユーザの自己中心コンテンツを、別のユーザの自己中心環境において再利用するこのソリューションによって、ユーザU2は、ユーザU1の自己中心コンテンツを見ることができ、場合によってはそれを操作することができる。
2)ユーザU2の身体/胴体と相対的な、ユーザU2のディスプレイ装置の空間における位置を取得(捕捉/推定)する(幾何学変換T2D2:g_T2D2)
3)ユーザU1「自己中心コンテンツ」(の承認された部分)のデータおよび幾何形状を、ユーザU2システムに移転する
4)ユーザU2のディスプレイ装置上の画像を計算し、その画像の座標および2D歪みは以下に依存する:
i.彼の自己中心座標系において、ユーザU1と相対的な方向に表示されることが意図されるコンテンツ(「自己中心コンテンツ」)
ii.幾何学変換T1T2:gT1T2、および幾何学変換T1D2:gT1D2
1人のユーザの自己中心コンテンツを、別のユーザの自己中心環境において再利用するこのソリューションによって、ユーザU2は、ユーザU1の自己中心コンテンツを見ることができ、場合によってはそれを操作することができる。
ユーザU1およびユーザU2がコンテンツを共有するときは、彼等は共有された、両方の自己中心環境に結び付けられたコンテンツを共有することができ、例えば彼等が隣り合って座っている場合は、共通ビデオ位置は、両方の自己中心環境(両方の胴体/頭部センサ)に応じた位置に「配置」され得る。このソリューションは、2人より多いユーザにスケーリングする。自己中心装置を用いて共通コンテンツを見るこの態様において、非常に多数のシナリオが検討され得る。
5.3関連装置
図7は、本開示による視覚データ処理装置の実施形態を示す。
図7は、本開示による視覚データ処理装置の実施形態を示す。
このような装置は、バッファメモリからなる71として参照されるメモリと、例えばマイクロプロセッサを装備し、本開示によるレンダリング方法の少なくともいくつかのステップを実現する73として参照されるコンピュータプログラムによって駆動される72として参照される処理ユニットとを有する。
初期化においてコンピュータプログラムのコード命令は、例えばRAMにロードされ、次いで処理ユニットのプロセッサによって実行される。処理ユニットは、視覚データ、取得するように構成されたモジュール11によって取得された3次元位置を入力する。処理ユニットのマイクロプロセッサ72は、コンピュータプログラム73の命令により、決定するステップ62、変更するステップ63、および表示するステップ64を実現して、表示されることになる視覚データのサブセットを決定および変更し、最後に視覚データを復元する。
したがって、視覚データのサブセットを決定するように構成されたモジュール12、視覚データのセットを変更するように構成されたモジュール13、および視覚データを表示するように構成されたモジュール14はすべて、対応するコンピュータプログラム73を用いて、1つの処理ユニット72およびメモリ71によって実現され得る。
他の実現形態では装置は、専用処理ユニット72および/またはメモリリソース71を備えた、専用装置である。このような場合は、視覚データのサブセットを決定するように構成されたモジュール(12)、視覚データのセットを変更するように構成されたモジュール(13)、および視覚データを表示するように構成されたモジュール(14)は、それぞれ専用マイクロプロセッサ72および/またはメモリ71を有する。
上記に示された装置は、多種多様なディスプレイ装置に結び付けられる、またはそれらに一体化され得る。これらのディスプレイタイプの中でも以下を挙げることができる。
− ハンドヘルド:ディスプレイはハンドヘルドディスプレイ(スマートフォンまたはタブレット)とすることができる。ユーザは、腕の長さまたはそれより近くにディスプレイを動かして、彼/彼女の自己中心環境を探索する。「自己中心コンテンツ」は、スマートフォンまたはタブレットフレームを通して見られているかのように、自己中心環境において静止して見えるように、ディスプレイの結像面上にレンダリングされる必要がある。この「自己中心コンテンツ」面から、ディスプレイの結像面への投影において、コンテンツ歪みおよび画素へのマッピングが起こることになる。
− 眼鏡:ディスプレイは、ユーザの前方に虚像を投影するビデオグラスからなり得る。ユーザは、彼の頭部を動かして彼/彼女の自己中心環境を探索する。「自己中心コンテンツ」は、自己中心環境において静止して見えるように、眼鏡の虚像面上に投影される必要がある。この「自己中心コンテンツ」面から、虚像への投影において、コンテンツ歪みおよび画素へのマッピングが起こることになる。
− 立体視:立体表示の場合、投影はそれぞれの眼に対して独立に行われる必要がある。非立体表示に対しては、両方の眼の共通の座標として単眼座標(眼の中間点)が用いられ得る。
5.4コンピュータプログラム
本開示は、通信ネットワークからダウンロード可能な、および/またはコンピュータ可読担体に記憶された、および/またはマイクロプロセッサによって実行可能なコンピュータプログラム製品をもたらす。プログラム製品は、それがコンピュータ上で実行されたときに、視覚データを処理するための上記のいずれかの方法により、視覚データを処理するための方法を実行するためのプログラムコード命令を備える。
本開示は、通信ネットワークからダウンロード可能な、および/またはコンピュータ可読担体に記憶された、および/またはマイクロプロセッサによって実行可能なコンピュータプログラム製品をもたらす。プログラム製品は、それがコンピュータ上で実行されたときに、視覚データを処理するための上記のいずれかの方法により、視覚データを処理するための方法を実行するためのプログラムコード命令を備える。
Claims (14)
- 端末に対して視覚データを表示するための視覚データ処理装置であって、
前記端末のユーザ上の基準点に対する、前記端末の3次元位置を取得するように構成されたモジュール(11)と、
前記端末の前記3次元位置に関して、利用可能な視覚データのセットに応じて、前記基準点の視点から表示されることになる、視覚データのサブセットを決定するように構成されたモジュール(12)と、
表示されることになる前記視覚データのサブセットを変更して、変更された視覚データを供給するように構成されたモジュール(13)と、
前記変更された視覚データを、前記端末の表示モジュール上に表示するように構成されたモジュール(14)と、
を備えた、前記視覚データ処理装置。 - 前記基準点は前記ユーザの胴体上にある、請求項1に記載の視覚データ処理装置。
- 前記利用可能な視覚データのセットは、以下の要素うちのの少なくとも1つを含む、請求項1に記載の視覚データ処理装置。
オペレーションシステムのデスクトップ
アプリケーションのアイコン
アプリケーションのユーザインターフェース
ビデオコンテンツ - 3次元空間において表示されることになるサブセット視覚データを決定するための前記モジュールは、
少なくとも1つの幾何学変換を表すデータを取得するように構成されたモジュール(131)と、
前記表示されることになる視覚データのサブセットに、前記少なくとも1つの幾何学変換を適用するように構成されたモジュール(132)と、
を備える、請求項1に記載の視覚データ処理装置。 - 前記少なくとも1つの幾何学変換は、1つの3D空間回転、および1つの3D並進を含む、請求項4に記載の視覚データ処理装置。
- 3次元位置を取得するように構成されたモジュールは、位置センサ(31、32、33)を備える、請求項1に記載の視覚データ処理装置。
- 前記位置センサは前記3次元位置を、ユーザ上の前記基準点上に装着された少なくとも1つのアイテム(32、33)に応じて測定する、請求項6に記載の視覚データ処理装置。
- 前記端末は、ハンドヘルド装置または頭部装着装置(HMD)である、請求項1から7のいずれかに記載の視覚データ処理装置。
- 端末の回復モジュール上に復元されることになる視覚データを処理するための方法であって、
前記端末のユーザ上の基準点に対する、前記端末の3次元位置を取得するステップ(61)と、
前記端末の前記3次元位置に関して、利用可能な視覚データのセットに応じて、前記基準点の視点から表示されることになる3次元視覚データのサブセットを決定するステップ(62)と、
表示されることになる前記3次元視覚データのサブセットを変更して、変更された視覚データを供給するステップ(63)と、
前記変更された視覚データを、前記端末の前記表示モジュール上に表示するステップ(64)と、
を含む、前記方法。 - 前記基準点は前記ユーザの胴体上にある、請求項9に記載の方法。
- 前記利用可能な視覚データのセットは、以下の要素の少なくとも1つを含む、請求項9に記載の方法。
オペレーションシステムのデスクトップ
アプリケーションのアイコン
アプリケーションのユーザインターフェース
ビデオコンテンツ - 前記決定するステップは、
少なくとも1つの幾何学変換を表すデータを取得するステップ(631)と、
前記表示されることになる視覚データのサブセットに、前記少なくとも1つの幾何学変換を適用するステップ(632)と、
を含む、請求項9に記載の方法。 - 前記少なくとも1つの幾何学変換は、1つの3D空間回転、および1つの3D並進を含む、請求項12に記載の方法。
- 通信ネットワークからダウンロード可能であり、および/または、コンピュータ可読担体に記憶され、および/または、マイクロプロセッサによって実行されるコンピュータプログラム製品であって、
コンピュータ上で実行されたときに、請求項9から13のうちの少なくとも1つに従ってビジュアルデータを処理する方法を実行するためのプログラムコード命令を含む、コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14306846.8A EP3023863A1 (en) | 2014-11-20 | 2014-11-20 | Device and method for processing visual data, and related computer program product |
EP14306846.8 | 2014-11-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016105279A true JP2016105279A (ja) | 2016-06-09 |
Family
ID=52011120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015227556A Pending JP2016105279A (ja) | 2014-11-20 | 2015-11-20 | 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160148434A1 (ja) |
EP (2) | EP3023863A1 (ja) |
JP (1) | JP2016105279A (ja) |
KR (1) | KR20160060582A (ja) |
CN (1) | CN105630152A (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10238571B2 (en) | 2016-06-22 | 2019-03-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vision-assist devices and methods of calibrating image data of a vision-assist device |
US20180012377A1 (en) * | 2016-07-08 | 2018-01-11 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vision-assist devices and methods of calibrating vision-assist devices |
US10438389B2 (en) * | 2016-11-07 | 2019-10-08 | Htc Corporation | Method, device, and non-transitory computer readable storage medium for displaying virtual reality or augmented reality environment according to a viewing angle |
CN108170280B (zh) * | 2018-01-18 | 2021-03-26 | 歌尔光学科技有限公司 | 一种vr头戴设备及其画面显示方法、***、存储介质 |
EP3572910B1 (en) * | 2018-05-21 | 2021-11-24 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method, system and computer program for remotely controlling a display device via head gestures |
US11682136B2 (en) * | 2021-01-07 | 2023-06-20 | Htc Corporation | Display method, display system and non-transitory computer readable storage medium |
US20230363637A1 (en) * | 2022-05-16 | 2023-11-16 | DigitalOptometrics LLC | Remote subjective refraction techniques |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US7928926B2 (en) * | 2006-06-27 | 2011-04-19 | Panasonic Corporation | Display apparatus and method for hands free operation that selects a function when window is within field of view |
US9451326B2 (en) * | 2007-07-26 | 2016-09-20 | The Directv Group, Inc. | Method and system for controlling the operation of a user device to receive content |
JP2009294728A (ja) * | 2008-06-02 | 2009-12-17 | Sony Ericsson Mobilecommunications Japan Inc | 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置 |
US9092053B2 (en) * | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
US8194101B1 (en) * | 2009-04-01 | 2012-06-05 | Microsoft Corporation | Dynamic perspective video window |
US20120212405A1 (en) * | 2010-10-07 | 2012-08-23 | Benjamin Zeis Newhouse | System and method for presenting virtual and augmented reality scenes to a user |
US8907983B2 (en) * | 2010-10-07 | 2014-12-09 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
US9118970B2 (en) * | 2011-03-02 | 2015-08-25 | Aria Glassworks, Inc. | System and method for embedding and viewing media files within a virtual and augmented reality scene |
US20120314899A1 (en) * | 2011-06-13 | 2012-12-13 | Microsoft Corporation | Natural user interfaces for mobile image viewing |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
EP2842015A4 (en) * | 2012-04-26 | 2015-11-25 | Qualcomm Inc | CHANGE OF ATTRIBUTES OF CONTENT PRESENTED IN A PART OF A DISPLAY AREA BASED ON KNOWN INPUTS |
WO2014008185A1 (en) * | 2012-07-02 | 2014-01-09 | Sony Computer Entertainment Inc. | Methods and systems for interaction with an expanded information space |
US20150193982A1 (en) * | 2014-01-03 | 2015-07-09 | Google Inc. | Augmented reality overlays using position and orientation to facilitate interactions between electronic devices |
US9595130B2 (en) * | 2014-06-17 | 2017-03-14 | Chief Architect Inc. | Virtual model navigation methods and apparatus |
US20170104982A1 (en) * | 2015-10-09 | 2017-04-13 | SoliDDD Corp. | Presentation of a virtual reality scene from a series of images |
-
2014
- 2014-11-20 EP EP14306846.8A patent/EP3023863A1/en not_active Withdrawn
-
2015
- 2015-11-16 EP EP15194647.2A patent/EP3035159A1/en not_active Withdrawn
- 2015-11-19 KR KR1020150162720A patent/KR20160060582A/ko unknown
- 2015-11-19 CN CN201510800100.7A patent/CN105630152A/zh active Pending
- 2015-11-19 US US14/946,736 patent/US20160148434A1/en not_active Abandoned
- 2015-11-20 JP JP2015227556A patent/JP2016105279A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20160148434A1 (en) | 2016-05-26 |
EP3023863A1 (en) | 2016-05-25 |
CN105630152A (zh) | 2016-06-01 |
KR20160060582A (ko) | 2016-05-30 |
EP3035159A1 (en) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11914147B2 (en) | Image generation apparatus and image generation method using frequency lower than display frame rate | |
US20230082705A1 (en) | Reprojecting holographic video to enhance streaming bandwidth/quality | |
CN110908503B (zh) | 跟踪设备的位置的方法 | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
KR102136241B1 (ko) | 표정 검출 성능을 갖는 머리-장착형 디스플레이 | |
JP2016105279A (ja) | 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品 | |
Fuhrmann et al. | Occlusion in collaborative augmented environments | |
US9262950B2 (en) | Augmented reality extrapolation techniques | |
US20160217616A1 (en) | Method and System for Providing Virtual Display of a Physical Environment | |
CN109671141B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
WO2015026645A1 (en) | Automatic calibration of scene camera for optical see-through head mounted display | |
CN102959616A (zh) | 自然交互的交互真实性增强 | |
CN110554770A (zh) | 静态遮挡物 | |
US20210368152A1 (en) | Information processing apparatus, information processing method, and program | |
US11682138B2 (en) | Localization and mapping using images from multiple devices | |
CN117529700A (zh) | 使用自追踪控制器的人体姿势估计 | |
US10901213B2 (en) | Image display apparatus and image display method | |
JPWO2018235744A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN112987914A (zh) | 用于内容放置的方法和设备 | |
JP2018063567A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2019040357A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP2023145551A (ja) | 画像処理装置と、その処理方法、プログラム | |
JP2019040356A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161202 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161202 |