JP2019511049A - コンピュータシステムとのユーザインターフェイスを提供して仮想環境と相互作用する方法及び装置 - Google Patents
コンピュータシステムとのユーザインターフェイスを提供して仮想環境と相互作用する方法及び装置 Download PDFInfo
- Publication number
- JP2019511049A JP2019511049A JP2018546532A JP2018546532A JP2019511049A JP 2019511049 A JP2019511049 A JP 2019511049A JP 2018546532 A JP2018546532 A JP 2018546532A JP 2018546532 A JP2018546532 A JP 2018546532A JP 2019511049 A JP2019511049 A JP 2019511049A
- Authority
- JP
- Japan
- Prior art keywords
- user
- computer system
- digital
- display
- physical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/155—Coordinated control of two or more light sources
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Computer And Data Communications (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
Abstract
本発明は、コンピュータシステムのためのユーザインターフェイスを提供する方法及び装置である。本発明は、パーソナルコンピュータ(「PC」)の機能を物理的な机の上に提供する装置である。この装置は、紙とデジタル文書とをシームレスに統合し、現在の装置の限られた画面を越える拡張オフィス空間を形成する。本発明は、机又はオフィス空間全体を相互作用的なものにして、ユーザとコンピュータとの間の相互作用の汎用性を高めることができる。本発明は、さらなる邪魔なハードウェアをオフィス空間に追加することなくこれらの利点をもたらす。【選択図】図7
Description
〔関連出願〕
本出願は、米国仮特許出願第62/301,110号の継続出願であるとともに、この仮特許出願に基づく優先権を主張するものである。
本出願は、米国仮特許出願第62/301,110号の継続出願であるとともに、この仮特許出願に基づく優先権を主張するものである。
本発明は、拡張現実の分野及びコンピュータシステムのためのユーザインターフェイスの分野に関する。拡張現実技術は、現実世界の物理的環境内にバーチャル画像を提示することができる。本発明は、ユーザがこれらのバーチャル画像と相互作用して様々な機能を実行できるようにするものである。
パーソナルコンピュータは、生産性に大きな好影響を与え、幅広い個人的及び専門的努力のニーズに適合してきた。パーソナルコンピュータの継続的な発展にも関わらず、1つの境界線が存在し続けている。物理的文書とデジタルファイルとの相互作用手段は限られている。人々は、ファイル印刷又は文書スキャンのために自身のワークフローを中断する必要があり、一方の領域の変化が媒体を越えて反映されることはない。キーボード、マウス、ジョイスティック及びタッチ画面を含む多くのタイプのユーザインターフェイス装置及び方法が利用可能であるが、コンピュータ及びデジタル情報とユーザの物理的作業空間及び文書との相互作用には限界がある。
最近では、平面上に情報を提示するために双方向タッチ画面が使用されている。例えば、タッチ画面上に画像が表示され、ユーザは、タッチ画面にタッチすることによって画像と相互作用して画像を変化させることができる。しかしながら、タッチ画面上に表示された画像と相互作用するには、ユーザが実際にタッチ画面に接触しなければならない。双方向性を与えるためにタッチ画面にタッチする必要があることにより、現在の双方向ディスプレイが多くの潜在的ユーザを魅了することはない。一度に1人のユーザしかタッチ画面と相互作用できないので、追加のユーザも排除される。さらに、タッチ画面のサイズ及び近接性によって双方向性が制限される。
仮想環境と相互作用するための他のシステム又は方法は、触覚インターフェイスではなく画像処理に依拠する。画像処理は、分析、教育、商取引及びエンターテイメントという多くの分野で使用されている。画像処理の1つの態様は、モーションキャプチャによる人間とコンピュータの相互作用、又は人間の姿及び動きを検出してモーションキャプチャ技術を通じて画像との相互作用を可能にすることを含む。このような処理の応用では、画像との効率的又は娯楽的な相互作用方法を用いてデジタル形状又はその他のデータを定義し、対象物をアニメ化し、表現形式を作成することなどができる。
モーションキャプチャ技術では、人間の実行者の動きの数学的記述がコンピュータ又はその他の処理システムに入力される。自然な体の動きをコンピュータへの入力として用いて、運動的な動きの研究、後で再生又はシミュレーションするデータの取り込み、医療目的のための分析強化などを行うことができる。
モーションキャプチャは利益及び利点をもたらすが、その技術は複雑になりがちである。技術によっては、人間の動作主が、複数箇所に目立つ特徴を有する特殊スーツを着用する必要もある。他の方法には、無線周波数タイプ又はその他のタイプのエミッタ、複数のセンサ及び検出器、ブルースクリーン、大掛かりな後処理などを使用するものもある。通常、単純な可視光画像キャプチャに依拠する技術は、明確かつ正確なモーションキャプチャを実現するほど精密ではない。
さらに最近では、対象物のサイズ、形状、配向又は動きのような物理的特性を判別するためにパターン照明が使用されている。一般に、これらのシステムは、赤外光又はその他の非可視スペクトルを投影し、投影光を感知する視覚センサによってこれらの光を捕らえる。一例として、米国特許第8,035,624号に、コンピュータビジョンベースのタッチ画面において、画面の正面近くの対象物を照明器によって照明し、照明された対象物とプロジェクタによって別個に画面上に投影された画像との相互作用をカメラによって検出し、この相互作用に応答してコンピュータシステムがプロジェクタに画像を変化させるように指示することが記載されており、この文献の開示は引用により本明細書に組み入れられる。
他の同様のシステムとしては、ディスプレイ画面に視覚画像を表示し、ディスプレイ画面の正面に位置する相互作用領域内の対象物に関する3D情報をカメラによって取り込む米国特許第7,834,846号の双方向ビデオディスプレイシステムが挙げられる。コンピュータシステムが、対象物の変化に応答して視覚画像を変化させるようにディスプレイ画面に指示する。
さらに別の方法には、コンピュータが非触知性三次元(3D)ユーザインターフェイスを実行し、コンピュータに結合された検知装置の視野内に位置する手による、空間内の選択軸に沿った第1の方向の第1の動きと、その後の選択された軸に沿った第1の方向とは逆の第2の方向の第2の動きとを含むジェスチャを複数の3D座標の組によって表す米国特許第9,035,876号の三次元ユーザインターフェイスセッション制御がある。非触知性3Dユーザインターフェイスは、ジェスチャの完了を検出すると第1の状態から第2の状態に移行する。
本発明は、パーソナルコンピュータ(「PC」)の機能を物理的机の上に提供する装置である。この装置は、紙とデジタル文書とをシームレスに統合し、現在の装置の限られた画面を越える拡張オフィス空間を形成する。本発明は、机又はオフィス空間全体を相互作用的なものにして、ユーザとコンピュータとの間の相互作用の汎用性を高めることができる。本発明は、さらなる邪魔なハードウェアをオフィス空間に追加することなくこれらの利点をもたらす。本発明は、照明器具又は他のオフィス設備に含まれることにより、最も薄いラップトップ又はタブレットを越えて煩雑さを軽減する。
以下の詳細な説明のいくつかの部分は、手順、ステップ、論理ブロック、処理、及びコンピュータメモリ上で実行できるデータビットに対する他の象徴的な動作表現の観点から提示するものである。これらの記述及び表現は、データ処理技術の当業者が自らの研究内容を他の当業者に最も効果的に伝えるために使用する手段である。本明細書では、及び一般的には、手順、コンピュータが実行するステップ、論理ブロック、処理などは、望ましい結果をもたらす首尾一貫した一連のステップであると考えられる。これらのステップは、物理量の物理的操作を必要とする。必ずしもそうではないが、通常これらの量は、コンピュータシステムにおいて記憶、転送、合成、比較、及び別様に操作できる電気又は磁気信号の形を取る。主に共通使用という理由で、時にはこれらの信号をビット、値、要素、記号、文字、用語、番号などと呼ぶことが便利であることが分かっている。
しかしながら、これらの及び同様の用語は、全て適当な物理量に関連付けられるべきものであり、これらの量に与えられた便利な表記に過ぎない点に留意されたい。以下の説明から明らかなように、特に別途述べていない限り、本発明全体を通じて、「投影する(projecting)」、「検出する(detecting)」、「変更する(changing)」、「照明する(illuminating)」、「訂正する(correcting)」又は「排除する(eliminating)」などの用語を利用した説明は、電子装置のレジスタ及びメモリ内の物理(電子)量として表されるデータを操作して、電子装置のメモリ、レジスタ、又は他のこのような情報記憶装置、送信又は表示装置内の物理量として同様に表される他のデータに変換する電子システム(例えば、双方向ビデオシステム)又は同様の電子計算装置の動作及び処理を意味するものである。
説明するいくつかの実施形態は、見えている対象物の三次元(3D)画像を生成するビデオカメラを使用することができる。time−of−flightカメラがこの特性をする。深度情報(例えば、3D画像データ)を取得するための他の装置としては、以下に限定するわけではないが、立体照明(structured light)技術と組み合わせたカメラ、立体視アルゴリズムを利用して深度マップを生成するステレオカメラ、超音波トランスデューサアレイ、レーザースキャナ及びtime−of−flightカメラが挙げられる。通常、これらの装置は、カメラの視点から見た画像に対応する値の二次元(2D)配列である深度マップを作成する。各画素値は、カメラと、その画素を占める、カメラの視点から最も近い対象物との間の距離に対応する。さらに、本発明の実施形態は、少なくとも1つのtime−of−flightカメラを含むことができるが、本発明は、被写体の三次元情報を判別するレーザースキャナ及びステレオカメラなどのあらゆるカメラ又はその組み合わせを用いて実施することもできると理解されたい。ある実施形態では、高焦点距離カメラを利用して対象物の高解像度画像を取り込むことができる。
本発明は、1又は2以上の視覚センサを用いて作業空間をモニタする。1つの実施形態では、視覚センサが、対象物に関する三次元情報を取り込むカメラである。1つの実施形態では、カメラが、光の速度に基づいて距離を求める距離画像カメラであるtime−of−flightカメラである。1つの実施形態では、対象物がユーザである。1つの実施形態では、距離情報を人の追跡に使用する。1つの実施形態では、距離情報を特徴追跡に使用する。特徴追跡は、3Dオブジェクトのデジタル表現の作成、及び/又は異なる3Dオブジェクト同士の区別に役立つ。
作業空間は、机、黒板、ホワイトボード、製図台、書棚、食料庫、レジ、精算エリア、又はユーザがコンピュータ機能を望む他の物理的空間とすることができる。装置は、作業空間をモニタする際に、例えば文書又は本などの対象物を認識し、コンピュータが対象物に対して実行する様々な機能オプションを提示する。装置は、オプションを提示するために1又は2以上のプロジェクタを利用することができる。プロジェクタは、作業空間の表面上に、単語又は他の認識可能な記号によるメニュー項目として様々なオプションを表す画像を作成することができる。オプションは、例えばスマートフォン、タブレット、コンピュータ、タッチ画面モニタ又は他の入力装置などの、ユーザがアクセス可能な本発明に関連する別の装置上に提示することもできる。
表示される画像又は項目は、物体、パターン、形状又はいずれかの視覚的パターン、効果などを含むことができる。本発明の態様は、クラブ又はイベントにおける人々のための双方向照明効果、双方向広告表示、通行人の動きに反応するキャラクタ及び仮想オブジェクト、レストラン、ショッピングモール、スポーツ会場、小売店、ロビー及び公園などの公共空間のための双方向周囲照明、ビデオゲームシステム、並びに双方向情報表示などの用途に使用することができる。他の用途も可能であり、これらも本発明の範囲に含まれる。
一般に、あらゆるタイプのディスプレイ装置を本発明と共に使用することができる。例えば、様々な実施形態及び構成ではビデオ装置について説明したが、他のタイプの視覚表現装置を使用することもできる。発光ダイオード(LED)アレイディスプレイシステム、有機LED(OLED)ディスプレイシステム、発光ポリマー(LEP)ディスプレイシステム、電磁ディスプレイシステム、陰極線ディスプレイシステム、プラズマディスプレイシステム、機械的ディスプレイシステム又はその他のディスプレイシステムを利用することができる。複数の発光機構を使用することもできる。ある実施形態では、発光要素のうちの1つ又は2つ以上が、様々な照明パターン又は照明シーケンスを発光して対象物の認識を支援することができる。この分野では、様々な立体照明モジュールが知られている。
仮想現実ディスプレイ、三次元ディスプレイ、又は他のタイプのディスプレイを利用することもできる。例えば、ユーザは、イメージングゴーグル又はフードを着用することによって、生成された環境に没頭することができる。この方法では、生成された表示がユーザによる環境の認識と協調して、拡張又は強化された現実を形成することができる。1つの実施形態では、ユーザがキャラクタ画像と相互作用することができる。キャラクタは、コンピュータが生成したもの、人間の役者が演じるものなどとすることができる。キャラクタは、ユーザの動き及び体勢に反応することができる。相互作用は、発話、物体の共同操作などを含むことができる。
デジタルネットワークを介して複数のシステムを相互接続することもできる。例えば、イーサネット、ユニバーサルシリアルバス(USB)、IEEE 1394(Firewire)などを使用することができる。802.11bなどによって規定されるものなどの無線通信リンクを使用することができる。複数のシステムを使用することにより、生成された画像を通じて異なる地理的位置のユーザが互いに協力し、競争し、又は別様に相互作用することができる。2又は3以上のシステムによって生成された画像を共に「タイル化」し、又は別様に組み合わせて集塊表示(conglomerate displays)を形成することもできる。
光ではなく、他のタイプの照明を使用することもできる。例えば、レーダー信号、マイクロ波又はその他の電磁波を使用して、検出対象物(例えば、金属物)がこのような波動を高度に反射する状況において利点をもたらすこともできる。空中又は水中で音波を使用することなどにより、システムの態様を他の形の検出に適合させることもできる。
対象物の画像信号を受け取って処理して表示信号を生成するコンピュータシステムについて説明したが、他のあらゆるタイプの処理システムを使用することができる。例えば、汎用コンピュータを使用しない処理システムを採用することもできる。本発明との使用には、カスタム又は準カスタム回路又はチップ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、マルチプロセッサ、非同期、又はあらゆるタイプのアーキテクチャ設計又は方法論に基づく設計を使用する処理システムが適することができる。
一例として、例えばユーザが自分の机の上に名刺を置いた場合には、装置がこの名刺を認識して、保存、電子メール、電話、ミーティングの計画又はリマインダの設定などの、名刺に含まれている連絡先情報に関するオプションを提示する。保存は、テキスト認識を用いて、名刺からの情報を含む新たな連絡先を適切なソフトウェア内に作成する。別の実施形態では、装置が、例えば10枚の名刺などの複数の同様の文書が存在する時にこれを認識して、一連の同様の文書に「全てを保存」などのバッチ機能を実行するオプションを提示することもできる。
1つの実施形態では、図5に示すように、装置が、認識された対象物の直近にメニュー項目を投影することによってオプションを提示する。装置は、文書をリアルタイムに認識し、従って文書を動かすと関連するメニュー項目も共に移動するようになる。装置は、複数の文書の追跡及び区別も行う。図5に示すように、投影された括弧の組A及びBは異なる文書に対応し、それぞれが独自の関連するオプションメニューを有する。
機能を実行するには、ユーザがメニュー項目にタッチする。装置は、ユーザの手がメニュー項目に関与した時を認識して、選択されたメニュー項目に関連する機能を実行する。考えられる機能は、文書又は対象物の画像をDropboxにアップロードすることを含む。ユーザが図5に示すような「Dropbox」ボタンにタッチすると、装置は、文書又は対象物の写真を撮影してこの写真をユーザのDropboxアカウントにアップロードする。Dropboxは、デジタルファイルの記憶、送信又は共有を行うために利用できる多くのサービスの一例にすぎず、これらのサービスは、例えばBox、Google Drive、Microsoft OneDrive及びAmazon Cloud Driveも含むと理解されるであろう。
1つの実施形態では、本発明がテキストを認識し、図7のAで示すように物理的文書上の単語を強調表示することができる。例えば、賃貸契約書を読んでいるユーザは、家主という用語の各事例を見直したいと望む可能性がある。装置は、ページ上に「家主」という用語が出現する度にそれを発見し、プロジェクタを用いて各事例を強調表示する。別の例示的な実施形態では、装置が、文書のデジタルバージョンにアクセスし、ユーザが参照しやすいように、例えば「家主」などの検索語の他の事例のページ番号をハードコピー文書の直近に表示する。さらに別の実施形態では、装置が、ユーザが参照できるように、ハードコピーバージョンの直近に別バージョンの文書を表示しながら、ハードコピー文書、デジタルバージョン、又はこれらの両方の変更点を強調表示することもできる。
装置は、ユーザが付けたハードコピー文書上のマークを認識し、これらのマークを解釈してデジタルバージョンの文書に変更を加えることもできる。このようなマークは、テキスト編集でよく見られる共通の記号、ユーザがプログラムした記号、又はユーザが相互作用する特定のプログラムのために作成された記号を含むことができる。例えば、グラフィックデザイナーは、デジタルレンダリングのための予め選択された設計要素に変換されるように特定の記号を使用することができる。
別の例示的な機能は、共有である。ユーザが「共有」ボタンにタッチすると、装置は、文書又は対象物の画像又はビデオを撮影し、例えば電子メール又はその他のメッセージサービスに画像を添付することによって、或いはFacebook、Twitter、ブログ又はその他のソーシャルメディアサービスに画像を投稿することによって、選択されたサービスを通じて画像又はビデオを共有する。装置は、第三者サービスを使用せずに共有機能を組み込むこともできる。
別の実施形態では、本発明が、2又は3以上のユーザ間の双方向作業空間を提供し、1人のユーザからの入力を他の作業空間上に表すことによって、これらのユーザが同じ文書を共同制作できるようにすることもできる。この機能は、相互作用的なプレゼンテーション、教育、設計又は開発を可能にすることができる。例えば、手書きの練習をしている生徒は、2つの装置間でリアルタイムに筆跡を送信しながら指導者の指導に従うことができる。或いは、2人のアーティストが共有文書上で同時にスケッチすることもできる。ある実施形態では、予め印刷されたパターン又は他の手段によって特別に用意された用紙を利用して装置による認識を促すことができる。装置は、プロセス全体を通じてユーザの相互作用のデジタル記録を保持し、ユーザが時間に伴う変更点を確認できるように、又は以前のバージョンに戻れるようにバージョン履歴を維持することができる。
別の実施形態では、装置が、文書又は作業空間のライブビデオをブロードキャストすることができる。例えば、装置は、単独のメニューオプションとして、又は同じメニュー項目の下の二次オプションとしてブロードキャスト又はストリーミングを提示する。その後、装置は、文書又は作業空間領域のライブビデオを取り込む。装置は、他者がライブストリームへの参加及び/又はライブストリームの表示を行えるようにするリンク、招待又はその他の手段を配信するオプションも提供する。
さらに例を挙げると、会計士は、顧客と共に遠隔的に税務書類を検討したいと望むことがある。会計士は、適切なメニューオプションを選択することによってライブストリームを開始する。装置は、関連文書を認識してその文書のビデオをブロードキャストする。会計士は、複数の文書を検討したいと望む場合、関連文書毎に適切な共有又はストリーミングオプションを選択することができる。装置は、様々な文書又は対象物を同時に、又はユーザが選択した通りにストリーミングするオプションを提示することができる。
別の実施形態では、会計士が、いずれの個々の文書又は対象物とも異なる、但し複数の文書及び対象物を含むことができる自身の作業空間の一部を「共有」又は「ストリーミング」することもできる。この場合、ユーザは、特定の文書に関連していないデフォルトメニューから「共有」又は「ストリーミング」を選択することができる。すると、装置は、共有又はストリーミング目的でカメラが取り込む作業空間の領域をユーザに示す境界を投影する。ユーザは、投影された境界にタッチしてドラッグすることによって取り込み領域を調整することができる。ユーザは、意図せず境界を調整してしまうのを防ぐように取り込み領域を固定することもできる。一例として、食事の準備を実演したいと望むシェフをユーザとすることができる。装置はまな板を認識し、まな板を共有又はストリーミングするオプションを提供するが、シェフは、まな板の領域外で調理技術を実演することが必要な場合もある。シェフは、作業空間メニューから共有又はストリーミングオプションを選択して、必要な全ての作業空間部分を含むように取り込み領域を調整することができる。こうして、シェフは、野菜を調理するための包丁さばきとパスタ生地をローラーで延ばす技術とを同じ取り込みフレーム内で実演することができる。
ユーザは、取り込み境界が固定されていない時には、取り込み中に取り込み境界を調整することによって、文書の共有又はストリーミングから作業空間の共有又はストリーミングに移行することもできる。
1つの実施形態では、装置が、2つの文書又は対象物が実質的に類似していることを認識し、メニュー項目として比較オプションを提供することができる。ユーザが「比較」を選択した場合、装置は、テキスト認識を用いて文書をスキャンした後に、これらの差異を強調表示する。強調表示は、プロジェクタによって表現される。或いは、装置が、物理的文書と、実質的に類似する文書のデジタルバージョンとを比較することもできる。その後、装置は、上述したような物理的文書又はデジタル文書のいずれか又はこれらの両方に差異を表示する。装置は、作業空間内の表面上に、又はスマートフォン、タブレット、ラップトップ、デスクトップ、タッチ画面モニタ、又はこの装置に関連する他の同様の装置を通じて文書の画像を投影することによってデジタル文書を表示することもできる。
1つの実施形態では、装置が文書のスペルミスをチェックし、文書の物理的バージョン又はデジタルバージョン上にこれらのスペルミスを強調表示することができる。装置は、物理的文書内の引用又はインターネットリンクを認識し、プロジェクタ又は上述した他の表示手段を通じて参考資料を提示することもできる。例えば、名刺は、ある人物のソーシャルメディアアカウント(例えばLinkedIn)へのリンクを含むことがある。装置は、例えば名刺に含まれている情報を処理する際に、オンラインソースから他の連絡先情報を取り入れ、又はソーシャルメディアアカウントを介してその人物と通じ合うオプションを提供することができる。
1つの実施形態では、装置が対象物を認識し、この対象物及びそれに関する情報を求めてデータベース又はインターネットを検索するオプションを提供することができる。例えば、装置は、書名、著者、出版年、版又は国際標準図書番号(ISBN)を含む様々な特徴によって本を識別することができる。装置は、この情報を用いてインターネットで本を検索して、ユーザが本を購入し、本のレビューを読み、本の引用記事を発見し、又は本に関連する著作物を閲覧できるようにすることができる。例えば、ユーザが料理本を見ている場合、装置は、レシピに記載されている材料に基づいてユーザの買い物リストを作成することができる。装置は、注文書を作成して小売店に送信し、これによって所望の材料をユーザに配達し、又は小売店に集荷できるようになる。
別の実施形態では、装置が、食料品のような対象物を認識することができる。多くの食料品は、バーコード、又は形状、色及びサイズなどの他の際立った特徴を有し、これらを識別に使用することができる。装置は、キッチンに配置すると、ユーザが購入した食料品を追跡して、利用できる食品リストを保持することができる。この機能は、装置を用いて食料品店のレシートをスキャンすることによって遂行することができる。この機能は、様々な食料品を買い物袋から出して貯蔵庫に入れる際に装置を用いてこれらを認識させることによって遂行することもできる。その後、装置は、これらの食料品が調理に使用される際にこれらを認識して、利用可能な食品データベースからこれらを削除することもできる。装置は、鮮度及び腐敗に関する情報にアクセスして、特定の食料品が悪くなる前にこれらを消費するようにユーザにリマインドすることもできる。装置は、利用可能な食料品及びユーザが望むその他のパラメータに基づいてレシピを表示することもできる。装置は、ユーザが調理を行っている間に、ユーザを支援する指示又はその他の情報を表示することもできる。装置は、利用可能な食料品及び過去の購買行動に基づいて、ユーザのための食料品リストを作成することもできる。装置は、ユーザの要求時に配達されるように特定の食料品を注文することもできる。
装置は、作業空間の人間工学を改善してデジタルオブジェクトとの相互作用を豊かにするために使用することもできる。例えば、装置は、図4のような従来のコンピュータインターフェイスを表示している時に、ユーザにとって最適な閲覧体験を創出するように映像を調整することができる。装置は、ユーザの作業空間上に通知を表示することもできる。これは、一部には既知の又は新規の視線追跡法を適用することによって実現することができる。映像調整は、ユーザと映像との近接性に基づいてテキストサイズを拡大又は縮小するような基本修正を含むことができる。さらに複雑な修正としては、ユーザの視角とプロジェクタ及び映写面の配向とに基づいて映像の視点を変更することを挙げることができる。映像は、例えば映像の見易さに影響する要因である周囲の明るさ、映写面の反射率又は映写面の色のような他の作業空間特性に合わせて調整することもできる。高度な画像操作は、ユーザに1又は2以上の3Dオブジェクトの印象を与えることができる。
1つの実施形態では、装置が、様々なモータ、トラック、プーリ又はその他の手段を通じて自機の位置又は配向を制御することができる。このような実施形態では、装置が、ユーザの位置又は配向に応じてモバイルユーザとの見通し線を維持し、又は最適な映像特性を保持するように自機を位置付けることができる。装置は、ユーザの周辺の作業空間を越えて対象物と相互作用するように移動し、例えば部屋の反対側にある本棚を検索することもできる。このような移動性を用いて、装置が利用できる作業空間を、1又は2以上の視覚センサの取り込み領域を越えて大幅に拡張することができる。
別の実施形態では、装置が、ユーザが望む機能に応じて1又は2以上の視覚センサの取り込み領域を調整することもできる。例えば、ユーザが装置に作業空間内で対象物を検索させたいと望む場合、装置は、さらに広い表示領域を取り込んで分析するようにレンズ又はその他の機構を調整することができる。装置は、最初の広い検索に失敗した場合、作業空間をさらに狭い領域に分割し、これらの狭い領域を高解像度で検索するようにレンズ又はその他の機構を調整することができる。同様に、ユーザは、対象物の高解像度画像を望むこともできる。装置は、画像の解像度を高め又は最大化するように1又は2以上の視覚センサの取り込み領域を調整することができる。
1つの実施形態では、装置が、様々な疾病又は病気に関連する特徴を認識することができる。例えば、装置は、ユーザの顔色が赤いことを認識して、ユーザに助けが必要であるかどうかを尋ねる。別の例として、装置は、ユーザが赤み又はその他の徴候、或いは日焼けを示していることを認識して、ユーザがそれ以上の露出から身を守るように推奨する。別の例として、装置は、以前のほくろの画像を相互参照して、ほくろの大きさ又は見た目の変化をユーザ又はユーザの医師に知らせることもできる。
1つの実施形態では、装置が、例えばハードコピー又は当業で周知のコンピュータ支援設計ソフトウェアを用いたデジタルフォーマットで建物の設計図を認識することができる。この場合、装置は、プロジェクタ又は上述した他のディスプレイ技術を用いて、2D/3Dフォーマットの設計及び/又は建物のモデルを作業空間にわたって提示することができる。
別の実施形態では、ローカルコンピュータ装置とリモートコンピュータ装置に処理を分割することができる。例えば、サーバが高解像度の高密度3Dモデルを構築している間に、通信ネットワークを介して、このモデルを操作するためのユーザインタラクションを送信することができる。サービスは、モデルの変更を計算してユーザ装置に返送する。これと同時に、ユーザ装置において少ない電力及びメモリを用いて低解像度バージョンのモデルをローカルに構築し、これを用いてモデルのリアルタイムビューをレンダリングしてユーザが見ることができる。これにより、ユーザは、ローカルプロセッサからモデル構築の視覚的フィードバックを取得してネットワークレイテンシの問題を回避できるようになる。
別の実施形態では、装置が、ユーザと1又は2以上の認識された2D又は3Dオブジェクトとの相互作用を認識することができる。例えば、プロジェクタ又は上述した他のディスプレイ技術は、1又は2以上のユーザのために3D建物画像を作成することができる。ユーザは、認識されたオブジェクトの境界と相互作用することによってデジタルオブジェクトを操作することができる。装置は、例えばユーザの手が認識されたデジタルオブジェクトの縁部と交わった時を認識し、ユーザの相互作用に従って画像を調整する。例えば、ユーザは、2つの地点でモデルと相互作用してこれらの2つの地点を互いに離れるようにドラッグすることによって建物のモデルを拡大することができる。他の相互作用は、基礎となるデジタルオブジェクトを修正し、例えばモデルの建物を高層化又は低層化することができる。
1つの実施形態では、装置が、ユーザが参照した異なる文書を同時に追跡することができる。例えば、会計士が顧客の税務書類を検討している場合、装置は、ユーザの作業空間における物理的及び時間的近接性に起因して、その書類が関連し得ると認識する。この結果、装置は、メタデータ、タグ又はカテゴリを用いてこれらの書類を関連付けることができる。装置の認識機能は、例えば同様の名前又は用語の出現などの他の関連性指標を使用することもできる。ユーザは、対象物の性質に応じて他のタイプの関連性を示すこともできる。
1つの実施形態では、装置が、自機の認識機能を用いて、後でユーザが見つけやすいように文書又は他の対象物の物理的位置を追跡する。例えば、会計士は、前年からのW−2フォームを含む顧客の税務書類が入ったバインダーを参照することができる。ユーザが作業空間内の本棚にバインダーを置くと、装置は、書類の特性及びこの書類を含むバインダーを追跡することができる。その後、会計士が再びその文書を参照したいと思った時には、投影されたメニューオプション又は上述した他の入力装置と相互作用することによって、この書類の位置を示すように装置に問い合わせることができる。この時、装置は、プロジェクタを用いて適切なバインダーを強調表示することができる。装置は、ユーザがバインダーを開く必要なく見ることができるように、バインダーに含まれている書類のデジタルバージョンを表示することもできる。装置は、1又は2以上のデジタルオブジェクトを物理的対象物に関連付けることもできる。このような実施形態では、物理的対象物が、関連するデジタルオブジェクトのためのデジタルタグ又はフォルダのような役割を果たす。例えば、装置は、ユーザの好みの新聞又はニュースチャンネルを1杯のコーヒーと関連付け、ユーザがコーヒーを持ってテーブルにつくと、装置がニュースソースを検索してユーザに表示することができる。このようなデジタル的/物理的な関連付けは時間依存型とすることもでき、従ってユーザが午後にコーヒーを飲んだ場合には装置が朝のニュースを表示することはない。装置は、頻繁に参照される文書を追跡し、参照頻度及び/又は他の特性に基づいて最適なデジタル的及び物理的な編成スキームを提案することもできる。
ある実施形態では、装置が、標準的な机からのプログラムウィンドウなどのデジタル環境からのいくつかの特徴を1枚の紙のような物理的対象物に表示して、作業用のデジタルデスクトップ空間を拡張して双方向性を強化することができる。装置は、いくつかのデジタルオブジェクト又は文書を、物理的対象物だけでなく物理的対象物の特徴に関連付けることもできる。例えば、いくつかの図面、画像、メモ又はテキストを関連要素として、ユーザがこれらのデジタルオブジェクト及び物理的対象物を素早く容易に思い出せるようにすることができる。
ある実施形態では、装置が、複数のマイクを利用してユーザと様々な対象物との間の相互作用を検出することもできる。マイクを用いて様々な対象物の位置を検出することもできる。
装置は、他の入力モードとは別に、又は他の入力モードと共に、音声コマンドによる相互作用を可能にすることもできる。装置は、開発者及びユーザによる追加機能の実装を可能にすることもできる。
装置は、作業用ランプとしても機能するという、コンピュータを凌ぐ別の明確な利点を有する。図6に示すように、このランプは、ランプの明るさを調整するための「アップ」及び「ダウン」を含むデフォルトメニュー項目を通じて制御することができる。
装置は、ここではランプとして示しているが、他の形を取ることも、或いは他の対象物に統合することもできる。例えば、装置は、車の客室、ダッシュボード、航空機の座席、天井、壁、ヘルメット、或いはネックレス又はその他の着用可能な対象物上又はその内部に存在することができる。
1つの実施形態では、装置が、1又は2以上の視覚センサと、1又は2以上のプロジェクタと、1又は2以上のオーディオセンサと、プロセッサと、データストレージ要素と、電源と、光源と、光源コントローラとを有する。図1〜図3に、1つの考えられる装置の構成を示す。
これらの双方向ディスプレイシステムは、以下に限定するわけではないが、マイク、タッチ画面、キーボード、マウス、無線周波数識別(RFID)タグ、圧力パッド、携帯電話信号、携帯情報端末(PDA)及びスピーカを含むさらなる入力部及び出力部を組み込むこともできる。
これらの双方向ディスプレイシステムを共にタイル化して単一の大画面又は双方向領域を形成することもできる。タイル化された又は物理的に別個の画面は、1つの画面上での動作が別の画面上の画像に影響できるように共にネットワーク化することもできる。
例示的な実装では、本発明が、制御ロジックの形のハードウェアとソフトウェアとの組み合わせを用いて、一体的に又はモジュール式に実装される。当業者であれば、本開示及び本明細書に示す教示に基づいて、本発明を実施するための他の手段及び/又は方法を理解するであろう。
上述した実施形態は一例として示したものであり、本発明は、とりわけ本明細書に図示し説明したものに限定されず、これらに照らした様々な修正又は変更が当業者に提案され、これらの修正又は変更も本出願の趣旨及び範囲、並びに添付の特許請求の範囲に含めるべきであると理解されるであろう。本明細書で引用した全ての出版物、特許及び特許出願は、その全体が全ての目的で引用により本明細書に組み入れられる。本発明の範囲は、上述した様々な特徴の組み合わせ及び部分的組み合わせ、並びに上記説明を読んだ時に当業者に思い浮かぶ、先行技術に開示されていない変形例及び修正例を含む。
Claims (2)
- コンピュータインターフェイス装置であって、
少なくとも1つのメモリ要素と、少なくとも1つの処理要素とを含むコンピュータシステムと、
作業空間から視覚情報を受け取る少なくとも1つの視覚センサと、
前記作業空間において光を供給できる少なくとも1つの照明装置と、
1又は2以上のデジタルオブジェクトを表示することができる少なくとも1つのディスプレイ装置と、
を備え、
前記コンピュータシステムは、前記ディスプレイ装置に第1のデジタルオブジェクトを表示させ、
前記コンピュータシステムは、ユーザと前記第1のデジタルオブジェクトとの相互作用に基づいて、前記作業空間内で供給される光のレベルを前記照明装置を介して調整し、
前記コンピュータシステムは、前記ユーザと前記第1のデジタルオブジェクトとの相互作用に基づいて、前記ディスプレイ装置に第2のデジタルオブジェクトを表示させ、
前記コンピュータシステムは、第1の物理的対象オブジェクトを前記作業空間とは異なるものとして認識し、
前記コンピュータシステムは、前記ディスプレイ装置に、前記第1の物理的対象オブジェクトの近くに第1の関連するデジタルオブジェクトを表示させ、
前記コンピュータシステムは、前記ユーザが前記第1の関連するデジタルオブジェクトと相互作用したときに、前記第1の物理的対象オブジェクトに関する情報に基づいて第2の関連するデジタルオブジェクトを作成し、
前記コンピュータシステムは、前記ユーザが前記第1の物理的対象オブジェクトと相互作用したときに、前記第1及び第2の関連するデジタルオブジェクトを調整する、
ことを特徴とするコンピュータインターフェイス装置。 - コンピュータインターフェイス装置であって、
少なくとも1つのメモリ要素と、少なくとも1つの処理要素とを含むコンピュータシステムと、
作業空間から視覚情報を受け取る少なくとも1つの視覚センサと、
1又は2以上のデジタルオブジェクトを表示することができる少なくとも1つのディスプレイ装置と、
を備え、
前記コンピュータシステムは、前記ディスプレイ装置に第1のデジタルオブジェクトを表示させ、
前記コンピュータシステムは、前記ユーザと前記第1のデジタルオブジェクトとの相互作用に基づいて、前記ディスプレイ装置に第2のデジタルオブジェクトを表示させ、
前記コンピュータシステムは、第1の物理的対象オブジェクトを前記作業空間とは異なるものとして認識し、
前記コンピュータシステムは、前記ディスプレイ装置に、前記第1の物理的対象オブジェクトの近くに第1の関連するデジタルオブジェクトを表示させ、
前記コンピュータシステムは、前記ユーザが前記第1の関連するデジタルオブジェクトと相互作用したときに、前記第1の物理的対象オブジェクトに関する情報に基づいて第2の関連するデジタルオブジェクトを作成し、
前記コンピュータシステムは、前記ユーザが前記第1の物理的対象オブジェクトと相互作用したときに、前記第1及び第2の関連するデジタルオブジェクトを調整する、
ことを特徴とするコンピュータインターフェイス装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662301110P | 2016-02-29 | 2016-02-29 | |
US62/301,110 | 2016-02-29 | ||
PCT/US2017/019615 WO2017151476A1 (en) | 2016-02-29 | 2017-02-27 | Method and apparatus for providing user interfaces with computerized systems and interacting with a virtual environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019511049A true JP2019511049A (ja) | 2019-04-18 |
Family
ID=59679505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018546532A Pending JP2019511049A (ja) | 2016-02-29 | 2017-02-27 | コンピュータシステムとのユーザインターフェイスを提供して仮想環境と相互作用する方法及び装置 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20170249061A1 (ja) |
EP (1) | EP3424037A4 (ja) |
JP (1) | JP2019511049A (ja) |
KR (1) | KR20180123217A (ja) |
CN (1) | CN109196577A (ja) |
AU (1) | AU2017225662A1 (ja) |
CA (1) | CA3045008A1 (ja) |
EA (1) | EA201891955A1 (ja) |
WO (1) | WO2017151476A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7059452B1 (ja) | 2019-04-03 | 2022-04-25 | シグニファイ ホールディング ビー ヴィ | 拡張及び/又は仮想現実環境における照明デザインの好みの決定 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9158389B1 (en) | 2012-10-15 | 2015-10-13 | Tangible Play, Inc. | Virtualization of tangible interface objects |
JP2018128979A (ja) * | 2017-02-10 | 2018-08-16 | パナソニックIpマネジメント株式会社 | 厨房支援システム |
JP6885319B2 (ja) * | 2017-12-15 | 2021-06-16 | 京セラドキュメントソリューションズ株式会社 | 画像処理装置 |
US10824856B2 (en) * | 2018-10-11 | 2020-11-03 | Bank Of America Corporation | Item validation and image evaluation system |
US10839243B2 (en) | 2018-10-11 | 2020-11-17 | Bank Of America Corporation | Image evaluation and dynamic cropping system |
US10832050B2 (en) | 2018-12-06 | 2020-11-10 | Bank Of America Corporation | Enhanced item validation and image evaluation system |
US11853533B1 (en) * | 2019-01-31 | 2023-12-26 | Splunk Inc. | Data visualization workspace in an extended reality environment |
US11644940B1 (en) | 2019-01-31 | 2023-05-09 | Splunk Inc. | Data visualization in an extended reality environment |
KR102306392B1 (ko) | 2019-08-19 | 2021-09-30 | 한국과학기술연구원 | 인터랙션 인터페이스의 제어 방법 및 이를 지원하는 장치 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0622722B1 (en) * | 1993-04-30 | 2002-07-17 | Xerox Corporation | Interactive copying system |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
EP1085432B1 (en) * | 1999-09-20 | 2008-12-03 | NCR International, Inc. | Information retrieval and display |
US7907117B2 (en) * | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
US8254692B2 (en) * | 2007-07-23 | 2012-08-28 | Hewlett-Packard Development Company, L.P. | Document comparison method and apparatus |
US20120154434A1 (en) * | 2010-12-21 | 2012-06-21 | Microsoft Corporation | Human Interactive Proofs Leveraging Virtual Techniques |
US9521276B2 (en) * | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
US10134296B2 (en) * | 2013-10-03 | 2018-11-20 | Autodesk, Inc. | Enhancing movement training with an augmented reality mirror |
US11086207B2 (en) * | 2013-10-03 | 2021-08-10 | Autodesk, Inc. | Reflection-based target selection on large displays with zero latency feedback |
-
2017
- 2017-02-27 CN CN201780026401.6A patent/CN109196577A/zh active Pending
- 2017-02-27 KR KR1020187028099A patent/KR20180123217A/ko unknown
- 2017-02-27 JP JP2018546532A patent/JP2019511049A/ja active Pending
- 2017-02-27 US US15/443,103 patent/US20170249061A1/en not_active Abandoned
- 2017-02-27 EA EA201891955A patent/EA201891955A1/ru unknown
- 2017-02-27 CA CA3045008A patent/CA3045008A1/en not_active Abandoned
- 2017-02-27 EP EP17760530.0A patent/EP3424037A4/en not_active Withdrawn
- 2017-02-27 WO PCT/US2017/019615 patent/WO2017151476A1/en active Application Filing
- 2017-02-27 AU AU2017225662A patent/AU2017225662A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7059452B1 (ja) | 2019-04-03 | 2022-04-25 | シグニファイ ホールディング ビー ヴィ | 拡張及び/又は仮想現実環境における照明デザインの好みの決定 |
JP2022524643A (ja) * | 2019-04-03 | 2022-05-09 | シグニファイ ホールディング ビー ヴィ | 拡張及び/又は仮想現実環境における照明デザインの好みの決定 |
Also Published As
Publication number | Publication date |
---|---|
WO2017151476A1 (en) | 2017-09-08 |
EP3424037A4 (en) | 2019-09-18 |
CA3045008A1 (en) | 2017-09-08 |
KR20180123217A (ko) | 2018-11-15 |
EP3424037A1 (en) | 2019-01-09 |
EA201891955A1 (ru) | 2019-03-29 |
US20170249061A1 (en) | 2017-08-31 |
CN109196577A (zh) | 2019-01-11 |
AU2017225662A1 (en) | 2018-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019511049A (ja) | コンピュータシステムとのユーザインターフェイスを提供して仮想環境と相互作用する方法及び装置 | |
US11927986B2 (en) | Integrated computational interface device with holder for wearable extended reality appliance | |
US20230139626A1 (en) | Tying a virtual speaker to a physical space | |
WO2022170221A1 (en) | Extended reality for productivity | |
US20230334792A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
US20240185546A1 (en) | Interactive reality computing experience using multi-layer projections to create an illusion of depth | |
US20230334790A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
US20230334791A1 (en) | Interactive reality computing experience using multi-layer projections to create an illusion of depth | |
WO2023215637A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
WO2024039887A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
WO2024039885A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
WO2023205145A1 (en) | Interactive reality computing experience using multi-layer projections to create an illusion of depth | |
US20200050355A1 (en) | Control device, control method, program, and projection system | |
Spassova | Interactive ubiquitous displays based on steerable projection |