JP2024018907A - Xrマルチウィンドウ制御 - Google Patents

Xrマルチウィンドウ制御 Download PDF

Info

Publication number
JP2024018907A
JP2024018907A JP2023042851A JP2023042851A JP2024018907A JP 2024018907 A JP2024018907 A JP 2024018907A JP 2023042851 A JP2023042851 A JP 2023042851A JP 2023042851 A JP2023042851 A JP 2023042851A JP 2024018907 A JP2024018907 A JP 2024018907A
Authority
JP
Japan
Prior art keywords
user
objects
display
tracking
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023042851A
Other languages
English (en)
Other versions
JP7470226B2 (ja
Inventor
永哲 劉
Young-Cheol Yu
佑弥 田中
Yuya Tanaka
陽二 大迫
Yoji Osako
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2024018907A publication Critical patent/JP2024018907A/ja
Application granted granted Critical
Publication of JP7470226B2 publication Critical patent/JP7470226B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザインターフェース(UI)においてマルチウィンドウ制御を実行するためのXRマルチウィンドウ制御を実行する方法、コンピューティングシステム及び記憶媒体を提供する。【解決手段】方法は、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含むユーザインターフェースを、エクステンドリアリティ(XR)デバイスのディスプレイにおいて表示するステップ501と、UIにおけるGUI要素の選択を検知するステップ502と、ディスプレイ上に表示されているオブジェクトのセットをディスプレイ上のウィンドウへと移動するステップ503と、ユーザの動きを追跡することによって、オブジェクトのセット内のオブジェクトのうちの1つ又は複数の選択を検知するステップ504と、1つ又は複数のオブジェクトのうちの選択されたオブジェクトをユーザの面前に表示するステップ505と、を含む。【選択図】図5

Description

[0001]本出願は、2022年7月28日に出願された「XR MULTI-WINDOW CONTROL」と題される米国特許仮出願第63/393,175号の利益を主張するものであり、その全体が参照によって組み込まれる。
[0002]人工現実、エクステンデッドリアリティ、又はエクストラリアリティ(総称して「XR」)は、ユーザへの提示の前に何らかの様式で調整されている現実の形態であり、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッドリアリティ、又はそれらの何らかの組合せ及び/若しくは派生物を含み得る。さまざまなXR環境が存在しており、ユーザたちの表象が動き回って互いと話すことを可能にしている。しかしながら、ユーザインターフェース(UI)及びユーザ体験(UX)には限界がある。たとえば、ユーザインターフェースは、ハンドトラッキングに依存している場合が多く、常に効果的に動作するとは限らず、ユーザにとって不快である場合さえある。
[0003]本開示は、実質的に、図のうちの少なくとも1つにおいて示されているように、及び/又は図のうちの少なくとも1つに関連して記述されているように、特許請求の範囲においてさらに完全に記載されているように、ユーザインターフェースにおいてマルチウィンドウ制御を実行することを対象としている。
本開示は、以降で与えられる詳細説明から、及びさまざまな実施形態の添付の図面からさらに完全に理解されるであろうが、それらの図面は、本明細書において記述及び例示されている実施形態を限定するものと取られるべきではなく、説明及び理解のためのものにすぎない。
開示される本テクノロジーのいくつかの実施態様が動作することが可能であるデバイスの概観を示すブロック図である。 いくつかの実施形態によるヘッドマウントディスプレイ(HMD)200の線図である。 複合現実HMDとコア処理コンポーネントとを含む複合現実HMDシステムの線図である。 XRデバイスにおけるユーザインターフェースを制御するためのマルチウィンドウ制御のいくつかの実施形態を示す図である。 XRデバイスにおけるユーザインターフェースを制御するためのマルチウィンドウ制御のいくつかの実施形態を示す図である。 XRデバイスにおけるユーザインターフェースを制御するためのマルチウィンドウ制御のいくつかの実施形態を示す図である。 ユーザインターフェースにおいてマルチウィンドウ制御を実行するためのプロセスのいくつかの実施形態の流れ図である。 ユーザインターフェースにおいてマルチウィンドウ制御を実行するためのプロセスのいくつかのその他の実施形態の流れ図である。 XRデバイスのシステム及び動作を含む、本明細書において論じられているシステム及び動作をサポートするために使用されることが可能であるコンピュータシステムの一実施形態を示す図である。
[0012]以降の記述においては、本開示のさらに徹底的な説明を提供するために、多くの詳細が記載されている。しかしながら、本開示は、これらの具体的な詳細を伴わずに実践されることが可能であるということは、当業者にとって明らかであろう。その他の例においては、よく知られている構造及びデバイスが、本開示をわかりにくくすることを避けるために、詳細にではなくブロック図の形態で示されている。
[0013]ユーザインターフェースにおいてマルチウィンドウ制御を実行するための方法及び装置が開示される。いくつかの実施形態においては、ユーザインターフェースは、人工現実、エクステンデッドリアリティ、又はエクストラリアリティ(総称して「XR」)のディスプレイにおいて表示され、ユーザインターフェースは、グラフィカルユーザインターフェース(GUI)要素(たとえば、収集ボタン)と、仮想環境におけるいくつかのオブジェクトとを含む。UIにおけるGUI要素の選択を検知したことに応答して、XRデバイスは、ディスプレイ上に表示されているオブジェクトのセットを、ユーザの面前に提示されたディスプレイ上のウィンドウへと移動するか、又はその他の形で収集する。この時点で、ユーザは、それらのオブジェクトを選択して操作することが可能である。
[0014]開示される本テクノロジーの実施形態は、人工現実、エクステンデッドリアリティ、又はエクストラリアリティ(総称して「XR」)を含むこと、又はその現実と組み合わせて実施されることが可能であり、その現実は、ユーザへの提示の前に何らかの様式で調整されている現実の形態であり、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッドリアリティ、又はそれらの何らかの組合せ及び/若しくは派生物を含み得る。エクステンデッドリアリティコンテンツは、完全に生成されたコンテンツ、又は、取り込まれたコンテンツ(たとえば、現実世界の写真)と組み合わされた生成されたコンテンツを含み得る。加えて、いくつかの実施形態においては、エクステンデッドリアリティは、たとえば、人工現実において行動を実行するために使用されるアプリケーション、製品、付属品、サービス、又はそれらの何らかの組合せに関連付けられることが可能である。エクステンデッドリアリティコンテンツを提供するエクステンデッドリアリティシステムは、ホストコンピュータシステムに接続されているヘッドマウントディスプレイ(HMD)、スタンドアロンのHMD、モバイルデバイス若しくはコンピューティングシステム、「ケーブ(cave)」環境若しくはその他の投影システム、又は、1人若しくは複数の視聴者に人工現実コンテンツを提供することが可能な任意のその他のハードウェアプラットフォームを含むさまざまなプラットフォーム上で実施されることが可能である。
[0015]「仮想現実」又は「VR」は、本明細書において使用される際には、ユーザの視覚入力がコンピューティングシステムによって制御される没入型体験を指す。「拡張現実」又は「AR」は、ユーザが現実世界の画像を、それらの画像がコンピューティングシステムを通過した後に見るシステムを指す。たとえば、背面にカメラを備えたタブレットが、現実世界の画像を取り込み、次いでカメラとは反対側にあるタブレットのスクリーン上にそれらの画像を表示することが可能である。タブレットは、画像がシステムを通過する際に、仮想オブジェクトを付加することによってなどで、それらの画像を処理及び調整又は「拡張」することが可能である。「複合現実」又は「MR」は、ユーザの目に入る光の一部が、コンピューティングシステムによって生成され、一部が、現実世界におけるオブジェクトから反射された光からなるシステムを指す。たとえば、MRヘッドセットが、パススルーディスプレイを備えたメガネとして成形されることが可能であり、パススルーディスプレイは、現実世界からの光が導波管を通過することを可能にし、導波管は同時に、MRヘッドセットにおけるプロジェクタからの光を放射して、ユーザが見ることができる現実のオブジェクトと混合された仮想オブジェクトをMRヘッドセットが提示することを可能にする。「人工現実」、「エクストラリアリティ」、又は「XR」は、本明細書において使用される際には、VR、AR、MR、又はそれらの任意の組合せ若しくはハイブリッドのうちのいずれかを指す。
[0016]いくつかの実施態様が、以降で図を参照してさらに詳細に論じられている。図1は、開示される本テクノロジーのいくつかの実施態様が動作することが可能であるデバイスの概観を示すブロック図である。それらのデバイスは、XR環境のための対話モードを作成、管理、及び提供することが可能であるコンピューティングシステム100のハードウェアコンポーネントを備えることが可能である。さまざまな実施態様においては、コンピューティングシステム100は、単一のコンピューティングデバイス103又は複数のコンピューティングデバイス(たとえば、コンピューティングデバイス101、コンピューティングデバイス102、及びコンピューティングデバイス103)を含むことが可能であり、それらの複数のコンピューティングデバイスは、有線又はワイヤレスチャネルを介して通信して、処理を分散し、入力データを共有する。いくつかの実施態様においては、コンピューティングシステム100は、外部の処理又はセンサを必要とせず、コンピュータで作成又は拡張された体験をユーザに提供することが可能なスタンドアロンのヘッドセットを含むことが可能である。その他の実施態様においては、コンピューティングシステム100は、ヘッドセット及びコア処理コンポーネント(コンソール、モバイルデバイス、又はサーバシステム等)などの複数のコンピューティングデバイスを含むことが可能であり、この場合、いくつかの処理動作は、ヘッドセット上で実行され、その他の処理動作は、コア処理コンポーネントへオフロードされる。例示的なヘッドセットが、以降で図2A及び図2Bに関連して記述されている。いくつかの実施態様においては、位置及び環境データが、ヘッドセットデバイスに組み込まれているセンサによってのみ収集されることが可能であり、その一方でその他の実施態様においては、ヘッドセットではないコンピューティングデバイスのうちの1つ又は複数が、センサコンポーネントを含むことが可能であり、それらのセンサコンポーネントが、環境又は位置データを追跡することが可能である。
[0017]コンピューティングシステム100は、1つ又は複数のプロセッサ110(たとえば、中央処理装置(CPU)、グラフィック処理装置(GPU)、ホログラフィック処理装置(HPU)など)を含むことが可能である。プロセッサ110は、単一の処理装置、又は1つのデバイスにおける複数の処理装置若しくは複数のデバイスにわたって分散された複数の処理装置である(たとえば、コンピューティングデバイス101~103のうちの2つ以上にわたって分散されること)が可能である。
[0018]コンピューティングシステム100は、1つ又は複数の入力デバイス120を含むことが可能であり、それらの入力デバイス120は、プロセッサ110に入力を提供して、それらのプロセッサ110にアクションを知らせる。それらのアクションは、ハードウェアコントローラによって仲介されることが可能であり、そのハードウェアコントローラは、入力デバイスから受け取られた信号を解釈し、通信プロトコルを使用してプロセッサ110へ情報を通信する。それぞれの入力デバイス120は、たとえば、マウス、キーボード、タッチスクリーン、タッチパッド、ウェアラブル入力デバイス(たとえば、触覚グローブ、ブレスレット、指輪、イヤリング、ネックレス、腕時計など)、カメラ(若しくはその他の光ベースの入力デバイス、たとえば、赤外線センサ)、マイクロフォン、又はその他のユーザ入力デバイスを含むことが可能である。
[0019]プロセッサ110は、たとえば、PCIバス、SCSIバス、又はワイヤレス接続など、内部又は外部バスを使用して、その他のハードウェアデバイスに結合されることが可能である。プロセッサ110は、ディスプレイ130用のなど、デバイス用のハードウェアコントローラと通信することが可能である。ディスプレイ130は、テキスト及びグラフィックスを表示するために使用されることが可能である。いくつかの実施態様においては、ディスプレイ130は、入力デバイスがタッチスクリーンであるか、又は目若しくは頭の方向をモニタするシステムを備えている場合などには、入力デバイスをディスプレイの一部として含む。いくつかの実施態様においては、ディスプレイは、入力デバイスから分離されている。ディスプレイデバイスの例は、LCDディスプレイスクリーン、LEDディスプレイスクリーン、投影型、ホログラフィック、又は拡張現実ディスプレイ(ヘッドアップディスプレイデバイス又はヘッドマウントデバイス等)などである。ネットワークチップ又はカード、ビデオチップ又はカード、オーディオチップ又はカード、USB、Firewire(登録商標)又はその他の外部デバイス、カメラ、プリンタ、スピーカー、CD-ROMドライブ、DVDドライブ、ディスクドライブ等など、その他の入出力デバイス140がプロセッサに結合されることも可能である。
[0020]コンピューティングシステム100は、その他のローカルコンピューティングデバイス又はネットワークノードとワイヤレスに又は有線ベースで通信することが可能な通信デバイスを含むことが可能である。通信デバイスは、たとえばTCP/IPプロトコルを使用して、ネットワークを通じて別のデバイス又はサーバと通信することが可能である。コンピューティングシステム100は、通信デバイスを利用して、複数のネットワークデバイスにわたって動作を分散することが可能である。
[0021]プロセッサ110は、メモリ150にアクセスすることが可能であり、コンピューティングシステム100のコンピューティングデバイスのうちの1つに含まれることが可能であり、又はコンピューティングシステム100の複数のコンピューティングデバイス若しくはその他の外部デバイスどうしにわたって分散されることが可能である。メモリは、揮発性又は不揮発性記憶のための1つ又は複数のハードウェアデバイスを含み、読み取り専用メモリ及び書き込み可能メモリの両方を含むことが可能である。たとえば、メモリは、ランダムアクセスメモリ(RAM)、さまざまなキャッシュ、CPUレジスタ、読み取り専用メモリ(ROM)、及び書き込み可能な不揮発性メモリ、たとえば、フラッシュメモリ、ハードドライブ、フロッピーディスク、CD、DVD、磁気記憶デバイス、テープドライブなどのうちの1つ又は複数を含むことが可能である。メモリは、基礎をなすハードウェアから離れた伝搬信号ではなく、それゆえにメモリは非一時的である。メモリ150は、オペレーティングシステム162、XR作業システム164、及びその他のアプリケーションプログラム166など、プログラム及びソフトウェアを格納するプログラムメモリ160を含むことが可能である。メモリ150は、データメモリ170を含むことも可能であり、データメモリ170は、プログラムメモリ160又はコンピューティングシステム100の任意の要素に提供されることになる情報を含むことが可能である。
[0022]いくつかの実施態様は、多くのその他のコンピューティングシステム環境又は構成とともに動作可能であり得る。本テクノロジーとともに使用するのに適していると言えるコンピューティングシステム、環境、及び/又は構成の例は、XRヘッドセット、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルド又はラップトップデバイス、セルラー電話、ウェアラブルエレクトロニクス、ゲーミングコンソール、タブレットデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステム又はデバイスのうちのいずれかを含む分散コンピューティング環境などを含むが、それらに限定されない。
[0023]図2Aは、いくつかの実施形態によるヘッドマウントディスプレイ(HMD)200の線図である。HMD200は、前部剛体205及びバンド210を含む。前部剛体205は、電子ディスプレイ245の1つ又は複数の電子ディスプレイ要素、慣性運動ユニット(IMU)215、1つ又は複数の位置センサ220、ロケータ225、及び1つ又は複数の計算ユニット230を含む。位置センサ220、IMU215、及び計算ユニット230は、HMD200の内部にあることが可能であり、ユーザには見えなくてもよい。さまざまな実施態様においては、IMU215、位置センサ220、及びロケータ225は、現実世界における、及び仮想環境におけるHMD200の動き及び場所を3自由度(3DoF)又は6自由度(6DoF)で追跡することが可能である。たとえば、ロケータ225は、赤外光ビームを放射することが可能であり、それらの赤外光ビームは、HMD200の周囲の現実のオブジェクト上に光点を生成する。別の例として、IMU215は、たとえば、1つ又は複数の加速度計、ジャイロスコープ、磁力計、その他の非カメラベースの位置、力、若しくは方位センサ、又はそれらの組合せを含むことが可能である。HMD200と統合されている1つ又は複数のカメラ(図示せず)が、光点を検知することが可能である。HMD200における計算ユニット230は、検知された光点を使用して、HMD200の位置及び動きを推定すること、並びにHMD200を取り巻く現実のオブジェクトの形状及び位置を識別することが可能である。
[0024]電子ディスプレイ245は、前部剛体205と統合されることが可能であり、計算ユニット230によって指示されたとおりにユーザに画像光を提供することが可能である。さまざまな実施形態においては、電子ディスプレイ245は、単一の電子ディスプレイ又は複数の電子ディスプレイ(たとえば、ユーザのそれぞれの目のためのディスプレイ)であることが可能である。電子ディスプレイ245の例は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、アクティブマトリックス有機発光ダイオードディスプレイ(AMOLED)、1つ若しくは複数の量子ドット発光ダイオード(QOLED)サブピクセルを含むディスプレイ、プロジェクタユニット(たとえば、マイクロLED、レーザーなど)、何らかのその他のディスプレイ、又はそれらの何らかの組合せを含む。
[0025]いくつかの実施態様においては、HMD200は、パーソナルコンピュータ(PC)(図示せず)及び/又は1つ若しくは複数の外部センサ(図示せず)などのコア処理コンポーネントに結合されることが可能である。外部センサは、HMD200を(たとえば、HMD200から放射された光を介して)モニタすることが可能であり、これをPCが、IMU215及び位置センサ220からの出力と組み合わせて使用して、HMD200の場所及び動きを決定することが可能である。
[0026]図2Bは、複合現実HMD252とコア処理コンポーネント254とを含む複合現実HMDシステム250の線図である。複合現実HMD252及びコア処理コンポーネント254は、リンク256によって示されているようにワイヤレス接続(たとえば、60GHzリンク)を介して通信することが可能である。その他の実施態様においては、複合現実システム250は、外部計算デバイスを伴わずにヘッドセットのみを含むか、又は複合現実HMD252とコア処理コンポーネント254との間にその他の有線若しくはワイヤレス接続を含む。複合現実HMD252は、パススルーディスプレイ258及びフレーム260を含む。フレーム260は、ライトプロジェクタ(たとえば、レーザー、LEDなど)、カメラ、アイトラッキングセンサ、MEMSコンポーネント、ネットワーキングコンポーネント等などのさまざまな電子コンポーネント(図示せず)を収容することが可能である。
[0027]プロジェクタは、たとえば、光学素子を介してパススルーディスプレイ258に結合されて、ユーザに対してメディアを表示することが可能である。光学素子は、プロジェクタからの光をユーザの目へ向けるために、1つ又は複数の導波管アセンブリ、反射器、レンズ、ミラー、コリメータ、回折格子などを含むことが可能である。画像データは、コア処理コンポーネント254からリンク256を介してHMD252へ伝送されることが可能である。HMD252におけるコントローラが、画像データをプロジェクタからの光パルスへと変換することが可能であり、それらの光パルスは、光学素子を介して出力光としてユーザの目へ伝送されることが可能である。出力光は、ディスプレイ258を通過する光と混ざることが可能であり、これは、あたかも現実世界に存在するかのように見える仮想オブジェクトを出力光が提示することを可能にする。
[0028]HMD200と同様に、HMDシステム250は、動き及び位置追跡ユニット、カメラ、光源などを含むことも可能であり、これらは、HMDシステム250が、たとえば、3DoF又は6DoFで自身を追跡し、ユーザの部分(たとえば、手、足、頭、又はその他の身体部分)を追跡し、仮想オブジェクトを、HMD252が移動する際に静止しているように見えるようにマッピングし、仮想オブジェクトをジェスチャ及びその他の現実世界のオブジェクトに反応させることを可能にする。
[0029]さまざまな実施態様においては、HMD200又は250は、ユーザの対話及び意図の徴候をモニタするために、アイトラッキングユニット、ヘッドトラッキングユニット、オーディオシステム、さまざまなネットワークコンポーネント等など、追加のサブシステムを含むことも可能である。たとえば、いくつかの実施態様においては、コントローラの代わりに、又はコントローラに加えて、HMD200若しくは250に含まれている、又は外部カメラからの1つ又は複数のカメラが、ユーザの手の位置及びポーズをモニタして、ジェスチャ並びにその他の手及び身体の動きを決定することが可能である。
XRマルチウィンドウ制御
[0030]現在のXRプラットフォームは、オブジェクトを収集するための容易な方法を提供していない。この状況は、特にユーザが新たなエリア(たとえば、新たな部屋、新たなビュー)へ移動して、オブジェクトを一目で見て取ることが可能ではない場合に、仮想環境と対話することを困難にする。たとえば、いくつかのオブジェクトは、部屋においてユーザの背後にあって、ユーザが部屋に入った後にユーザには見えない場合がある。ユーザの面前にオブジェクトを収集するためには、ユーザは、再びアプリケーション又は2Dウィンドウを開いて、それらのオブジェクトがユーザの面前に示されるようにする必要がある。
[0031]いくつかの実施形態においては、XRデバイスは、ユーザインターフェースを制御するためのマルチウィンドウ制御機能を含む。いくつかの実施形態においては、マルチウィンドウ制御は、XRデバイスのユーザインターフェースにおいて表示されているすべてのオブジェクト(たとえば、ユーザに対して表示されている仮想部屋内のオブジェクトなど)を一箇所に収集して、ユーザが自分の面前で使用したい可能性があるオブジェクトを示す機能である。すなわち、ユーザは、XRデバイスのユーザインターフェースにおいて表示されているすべてのオブジェクト(たとえば、2次元(2D)オブジェクト、3次元(3D)オブジェクトなど)を1つの仮想エリア(たとえば、ウィンドウ)へと収集することが可能である。いくつかの実施形態においては、オブジェクトは、1つの仮想エリアへと整然と収集され、その仮想エリアにおいて、それらのオブジェクトはユーザの面前に示される。いくつかの実施形態においては、オブジェクトは、ある配置へと整然と収集される。その配置は、行及び列、又は表示されているオブジェクトとのユーザの対話を容易にするその他のよく知られている構成であることが可能である。この収集機能は、ユーザがすべての利用可能なオブジェクトをわかっていないか、又は見ることができない場合に特に有用である。たとえば、部屋に複数のオブジェクト(たとえば、ユーザの前、後ろ、及び横にあるオブジェクト)がある場合があり、収集動作を使用すると、それらのオブジェクトのうちのすべて、又は多くがユーザの面前にすばやく表示されることが可能になる。
[0032]いくつかの実施形態においては、XRデバイスは、オブジェクト収集動作が実行されるようにするために選択されることが可能である収集ボタン又はその他のグラフィカルユーザインターフェース(GUI)要素を仮想環境において表示する。収集ボタンを選択することによって、ユーザインターフェースにおいて表示されているオブジェクトは、整然と収集され、ユーザの面前に表示される。いくつかの実施形態においては、収集ボタン(又はその他のGUI要素)の選択は、たとえば、2023年3月9日に同時に出願された「XR Virtual Trackpad」と題される米国特許出願第18/119,697号において記述されているような仮想トラックパッドを介して行われることが可能である。いくつかのその他の実施形態においては、選択は、タップレス選択を使用することによって実行されることが可能であり、これについては、以降でさらに詳細に記述されている。いくつかのその他の実施形態においては、収集ボタンの選択は、コントローラを使用して、又はハンドトラッキングを介して実行される。いくつかの実施形態においては、この収集ボタンは、ユーザがXRデバイスを使用して新たな仮想部屋又は仮想場所に入るたびに使用されることが可能である。
[0033]収集された場合には、ユーザは、オブジェクトを管理及び/又は操作することが可能である。いくつかの実施形態においては、すべてのオブジェクトがディスプレイウィンドウへと収集されると、ユーザは、仮想ウィンドウから1つ又は複数のオブジェクトを選択することが可能である。いくつかの実施形態においては、選択後に、選択されたオブジェクトは強調表示される。強調表示は、影付け(たとえば、オブジェクトの近くのピクセルを明るくすること又は暗くすることなど)であることが可能である。
[0034]いくつかの実施形態においては、選択に応答して、選択されているオブジェクトのみが、依然として仮想ウィンドウに現れ、その一方ですべてのその他のオブジェクトは、仮想環境におけるユーザインターフェースディスプレイにおける自身の元の場所へ戻る。いくつかの実施形態においては、選択されていないオブジェクトは、仮想環境のユーザインターフェースにおいて表示されているGUI要素(たとえば、戻るボタンなど)の選択に応答して、自身の元の位置へ戻される。いくつかの実施形態においては、収集ボタンはまた、オブジェクトを「収集解除する」ために使用される。言い換えれば、選択されていないオブジェクト(たとえば、オブジェクトのすべて、オブジェクトのサブセットなど)をユーザが収集解除してそれらの元の位置へ戻したい場合には、ユーザは、仮想環境において収集ボタン(又はその他のGUI)要素を再び選択して、オブジェクトが戻るようにする。いくつかの実施形態においては、XRデバイスは、オブジェクトを収集するために収集ボタンが使用された後に、収集ボタンの視覚表現(たとえば、その色、ラベルなど)を変更して、オブジェクトの収集解除のために収集ボタンが使用されることが可能であるということをユーザに示す。いくつかのその他の実施形態においては、ユーザは、収集ボタンを連続して複数回選択して、オブジェクトを収集解除する。XRデバイスは、仮想環境におけるオブジェクトの場所を示すオブジェクト場所情報を保持し、この情報を使用して、「収集解除」時にオブジェクトを元の場所へ戻すということに留意されたい。
[0035]いくつかの実施形態においては、XRデバイスは、収集ボタンを選択した結果として仮想エリア(たとえば、ウィンドウ)において表示されている収集されたオブジェクトのうちの1つ又は複数をユーザが操作することを可能にする。いくつかの実施形態においては、XRデバイスによって可能にされる操作は、仮想ウィンドウ内のオブジェクトの表示を回転、移動、拡大縮小、又はその他の方法で変更することによってオブジェクトを制御することを含む。一実施形態においては、オブジェクトのいかなる変更も、収集機能の使用が終了してオブジェクトが自身の元の位置へ戻った後も残る。言い換えれば、オブジェクトが回転、拡大縮小、又は移動された場合には、オブジェクトが仮想環境内の元の場所へ戻されたときに、オブジェクトの結果としての視覚的表現は残る。いくつかのその他の実施形態においては、ユーザが、収集されたオブジェクトを操作することを終了した後に、それらのオブジェクトは、変更されていない状態でディスプレイにおける自身の元の位置へ戻る。
[0036]いくつかの実施形態においては、XRデバイスは、スマートウォッチを使用してオブジェクトの操作を実施する。スマートウォッチを使用して仮想ウィンドウ内のオブジェクトの表示を回転、移動、拡大縮小、又はその他の方法で変更することによってオブジェクトを制御するXRデバイスが、たとえば、2023年3月9日に同時に出願された「XR Manipulation Feature with Smart Watch」と題される米国特許出願第18/119,720号において記述されている。しかしながら、XRデバイスは、その他の技術を使用して、そのようなオブジェクト操作を実行することが可能である。
[0037]図3A~図3Cは、XRデバイスにおけるユーザインターフェースを制御するためのマルチウィンドウ制御のいくつかの実施形態を示している。図3Aを参照すると、XRデバイスのユーザインターフェースが、ユーザに対して表示されている。示されているように、XRデバイスにおけるユーザインターフェースは、2Dウィンドウと、仮想部屋内に散在しているオブジェクトとを表示している。ユーザインターフェースはまた、オブジェクトを収集するためにユーザによって選択されることが可能である収集ボタンを含む。図3Bは、収集ボタンをユーザが押した後の結果として生じるユーザインターフェースの例を示している。図3Bを参照すると、収集ボタンが選択された場合には、オブジェクトは整然と収集される。ユーザは、自分の面前に表示されているオブジェクトのサブセットを選択して、収集されるオブジェクトの数を低減することが可能である。図3Cは、図3Bにおいて示されている収集されたオブジェクトからユーザによって選択されたオブジェクトを示している。選択されたオブジェクトは、ユーザの面前に示され、ユーザは、それらのオブジェクトを選択してその他のユーザインターフェースアクションを実行することによって、それらの位置を変更することが可能である。
[0038]図4は、ユーザインターフェースにおいてマルチウィンドウ制御を実行するためのプロセスのいくつかの実施形態の流れ図である。いくつかの実施形態においては、このプロセスは、少なくとも部分的に、ハードウェア(たとえば、回路網、専用ロジックなど)、ソフトウェア(たとえば、チップ上で稼働するソフトウェア、汎用コンピュータシステム若しくは専用機上で稼働されるソフトウェアなど)、ファームウェア、又はそれら3つの組合せを備える処理ロジックによって実行される。いくつかの実施形態においては、このプロセスは、XRデバイスによって実行される。
[0039]図4を参照すると、このプロセスは、処理ロジックが、オブジェクト収集動作を実行するための徴候を仮想環境においてユーザから受け取ることによって始まる(処理ブロック401)。いくつかの実施形態においては、XRデバイスは、収集ボタン(又はその他のGUI要素)を表示し、ユーザが収集ボタン(又はその他のGUI要素)に関与して(たとえば、それを押す、選択するなど)、オブジェクト収集動作が実行されるよう要求したという徴候を受け取る。いくつかの実施形態においては、処理ロジックは、ユーザの手の位置が、収集ボタン上に向けられている位置に、事前に決定された時間にわたって保持されていると決定することによって、タップレス選択を介して収集ボタンの選択を検知する。いくつかのその他の実施形態においては、処理ロジックは、ユーザの手及び親指又は指の位置を追跡することによって、収集ボタンの選択を検知する。徴候を受け取ったことに応答して、処理ロジックは、オブジェクト収集動作を呼び出して、仮想環境内のオブジェクトを1つの場所(たとえば、仮想環境内のウィンドウがユーザに対して表示される)へと収集する(処理ブロック402)。
[0040]オブジェクト収集動作を実行した後に、処理ロジックは、収集された1つ又は複数のオブジェクトの選択を受け取る(処理ブロック403)。いくつかの実施形態においては、処理ロジックは、ユーザの手の位置が、オブジェクト上に向けられている位置に、事前に決定された時間にわたって保持されていると決定することによって、タップレス選択を介することによってオブジェクトの選択を検知する。いくつかのその他の実施形態においては、処理ロジックは、ユーザの手及び親指又は指の位置を追跡することによって、ウィンドウにおける1つ又は複数のオブジェクトの選択を検知する。
[0041]オブジェクトを選択したことに応答して、処理ロジックは、そのオブジェクトを強調表示する(処理ブロック404)。いくつかの実施形態においては、XRデバイスは、オブジェクトを強調表示するために、オブジェクト上で影付けを実行する。いくつかの実施形態においては、XRデバイスは、オブジェクトを強調表示するために、オブジェクトをより肉太に見えるようにする。
[0042]収集されたオブジェクトのうちの1つ又は複数の選択を受け取った後に、処理ロジックは、選択されていないオブジェクトを仮想環境内の元の場所へ戻す(処理ブロック405)。いくつかの実施形態においては、XRデバイスは、GUI要素のユーザによる選択(たとえば、収集解除ボタン、収集ボタンの再選択など)を受け取ったことに応答して、選択されていないオブジェクトを仮想環境内の元の場所へ戻す。
[0043]処理ロジックは、選択されたオブジェクトのうちの1つ又は複数を操作するための(1つ又は複数の)ユーザ入力を受け取り、操作を実行する(処理ブロック406)。いくつかの実施形態においては、処理ロジックは、ユーザの検知された動きに応答して、オブジェクト操作を実行する。操作の例は、オブジェクトを回転すること、オブジェクトを拡大縮小すること、オブジェクトを移動することなどを含む。
[0044]任意の所望の操作が実行された後に、処理ロジックは、選択されたオブジェクトを仮想環境内の元の場所へ戻すことをユーザが望んでいるという徴候を受け取る(処理ブロック407)。いくつかの実施形態においては、XRデバイスは、収集解除GUI要素(たとえば、収集解除ボタンなど)を表示し、ユーザが収集解除GUI要素に関与して(たとえば、それを押して、選択してなどで)、収集されて選択された(1つ又は複数の)オブジェクトが仮想環境内の元の場所へ戻されるよう要求したという徴候を受け取る。いくつかの実施形態においては、処理ロジックは、ユーザの手の位置が、収集解除GUI要素上に向けられている位置に、事前に決定された時間にわたって保持されていると決定することによって、タップレス選択を介して収集解除GUI要素の選択を検知する。いくつかのその他の実施形態においては、処理ロジックは、ユーザの手及び親指又は指の位置を追跡することによって、収集解除GUI要素の選択を検知する。徴候を受け取ったことに応答して、処理ロジックは、オブジェクト収集解除動作を呼び出して、オブジェクトを仮想環境内の元の場所へ戻す(処理ブロック408)。
[0045]図5は、ユーザインターフェースにおいてマルチウィンドウ制御を実行するためのプロセスのいくつかのその他の実施形態の流れ図である。いくつかの実施形態においては、このプロセスは、少なくとも部分的に、ハードウェア(たとえば、回路網、専用ロジックなど)、ソフトウェア(たとえば、チップ上で稼働するソフトウェア、汎用コンピュータシステム若しくは専用機上で稼働されるソフトウェアなど)、ファームウェア、又はそれら3つの組合せを備える処理ロジックによって実行される。いくつかの実施形態においては、このプロセスは、XRデバイスによって実行される。
[0046]図5を参照すると、このプロセスは、処理ロジックが、ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示することによって始まる(処理ブロック501)。いくつかの実施形態においては、ユーザインターフェースは、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む。いくつかの実施形態においては、GUI要素は、収集ボタンを含む。しかしながら、その他のタイプのGUI要素が使用されることが可能である。
[0047]ユーザインターフェースを表示している間に、処理ロジックは、ユーザインターフェースにおけるGUI要素の選択を検知し(処理ブロック502)、ディスプレイ上に表示されているオブジェクトのセットをディスプレイ上のウィンドウへと移動する(処理ブロック503)。一実施形態においては、GUI要素は、収集ボタンを含む。いくつかの実施形態においては、ウィンドウは、2Dウィンドウであり、オブジェクトは、行及び列において表示される。或いは、オブジェクトは、その他の方法で配置されること、又は2Dウィンドウにおいてランダムに表示されることさえ可能である。
[0048]その後、GUIボタンを選択した結果としてオブジェクトが表示されている間に、処理ロジックは、ユーザの動きを追跡することによって、2Dウィンドウ内のオブジェクトのうちの1つ又は複数の選択を検知する(処理ブロック504)。いくつかの実施形態においては、処理ロジックは、ユーザの手の位置が、GUI要素に向けられている位置に、事前に決定された時間にわたって保持されていると決定することによって、タップレス選択を介することによってオブジェクトの選択を検知する。いくつかのその他の実施形態においては、処理ロジックは、ユーザの手及び親指又は指の位置を追跡することによって、ウィンドウにおける1つ又は複数のオブジェクトの選択を検知する。
[0049]選択に応答して、処理ロジックは、1つ又は複数のオブジェクトのうちの選択されたオブジェクトをユーザの面前に表示する(処理ブロック505)。たとえば、ユーザが収集ボタンを選択した結果として2Dウィンドウにおいて表示されている6つのオブジェクトがあって、ユーザが4つのオブジェクトを選択した場合には、2Dウィンドウは更新され、それらの4つの選択されたオブジェクトのみがウィンドウに残る。
[0050]また、処理ロジックは、2Dウィンドウ内のオブジェクトのうちの少なくとも1つの位置を変更する(処理ブロック506)。いくつかの実施形態においては、処理ロジックは、ユーザの検知された動きに応答して、オブジェクトの位置を変更する。位置の変更の例は、オブジェクトを回転すること、オブジェクトを拡大縮小すること、オブジェクトを移動することなどを含む。
[0051]上で論じられているように、いくつかの実施形態においては、XRデバイスのユーザインターフェース(UI)/ユーザ体験(UX)は、XRデバイスのUIにおいて表示されている仮想環境においてオブジェクト、グラフィカルユーザインターフェース(GUI)要素(たとえば、ボタン、メニューなど)、又はその他のアイテムを選択するためのタップレス選択機能を含む。いくつかの実施形態においては、タップレス選択を実行する際に、ユーザは、事前に決定された期間にわたって自分の手を適所に保つ以外に何もする必要はない。すなわち、ユーザが選択したいオブジェクトに向けて一定の期間にわたってその人が自分の手の位置を保つことができる限り、XRデバイスは、ユーザが選択したいオブジェクトを決定することが可能であり、選択を行う。ユーザの手及び/又は指が、事前に決定された量の時間にわたって特定の位置で一時停止されている限り、ユーザは、タップレス選択機能を使用して、XRデバイスのユーザインターフェースにおいて表示されているメニュー又はアイコンを選択することが可能である。いくつかの実施形態においては、事前に決定される時間は、可変時間で設定されることが可能である。たとえば、いくつかの実施形態においては、XRデバイスのユーザインターフェースにおいてメニュー又はアイコンを選択するためには、ユーザが自分の手及び/又は指を特定の位置に保持又は一時停止しなければならない事前に決定された期間は、1秒又は2秒である。いくつかの実施形態においては、事前に決定される時間は、用途に基づいて設定及び/又は最適化されることが可能である。いくつかの実施形態においては、ユーザインターフェースは、手及び/又は指が特定の位置において一時停止又は保持されると、インジケータを表示する。このインジケータは、タップレス選択を実行するために位置を保持させるための残り時間の量を示す。いくつかの実施形態においては、インジケータは、閉じゆく円であり、この円においては、ユーザインターフェースにおいて単一の点から円が形成され、その点は、時計回り(又は反時計回り)の方向に描かれ続け、開始点に到達する。円を描くための時間は、ユーザがユーザインターフェースにおいてアイテムを選択するために自分の手及び/又は(1つ若しくは複数の)指を適所に保持する必要がある時間である。その他のインジケータが使用されることが可能であるということに留意されたい。タップレス選択を実行するXRデバイスの例は、たとえば、参照によって本明細書に組み込まれている2022年7月28日に出願された「XR Tapless Selection」と題される米国特許仮出願第63/393,172号において記述されている。
[0052]図6は、XRデバイスのシステム及び動作を含む、本明細書において論じられているシステム及び動作をサポートするために使用されることが可能であるコンピュータシステムの一実施形態である。しかしながら、さまざまなシステムアーキテクチャのその他の代替システムが使用されることも可能であるということは、当業者にとって明らかであろう。
[0053]図6において示されているデータ処理システムは、情報を通信するためのバス(又はその他の内部通信手段)615と、バス615に結合されていて情報を処理するための1つ又は複数のプロセッサ610とを含む。このシステムは、情報と、(1つ又は複数の)プロセッサ610によって実行されることになる命令とを格納するためにバス615に結合されているランダムアクセスメモリ(RAM)又はその他の揮発性記憶デバイス650(メモリと呼ばれる)をさらに含む。メモリ650はまた、(1つ又は複数の)プロセッサ610による命令の実行中に一時変数又はその他の中間情報を格納するために使用されることが可能である。このシステムはまた、バス615に結合されていて(1つ又は複数の)プロセッサ610のための静的な情報及び命令を格納するための読み取り専用メモリ(ROM)及び/又は静的記憶デバイス620と、磁気ディスク又は光ディスク及びその対応するディスクドライブなどのデータ記憶デバイス625とを含む。データ記憶デバイス625は、情報及び命令を格納するためにバス615に結合されている。
[0054]このシステムは、コンピュータユーザに対して情報を表示するためにバス665を通じてバス615に結合されている発光ダイオード(LED)ディスプレイ又は液晶ディスプレイ(LCD)などのディスプレイデバイス670にさらに結合されることが可能である。英数字キー及びその他のキーを含む英数字入力デバイス675が、情報及びコマンド選択を(1つ又は複数の)プロセッサ610に通信するためにバス665を通じてバス615に結合されることも可能である。追加のユーザ入力デバイスが、バス665を通じてバス615に結合されていて方向情報及びコマンド選択をプロセッサ610に通信するための、並びにディスプレイデバイス670上のカーソルの動きを制御するためのタッチパッド、マウス、トラックボール、スタイラス、又はカーソル方向キーなどのカーソル制御デバイス680である。
[0055]任意選択でコンピュータシステム600に結合されることが可能である別のデバイスが、ネットワークを介して分散システムのその他のノードにアクセスするための通信デバイス690である。通信デバイス690は、イーサネット(登録商標)、トークンリング、インターネット、又はワイドエリアネットワークに結合するために使用されるものなどのいくつかの市販のネットワーキング周辺デバイスのうちのいずれかを含むことが可能である。通信デバイス690はさらに、ヌルモデム接続、又は、コンピュータシステム600と外界との間における接続性を提供する任意のその他のメカニズムであることが可能である。図6において示されているこのシステムのコンポーネント及び関連付けられているハードウェアのうちのいずれか又はすべてが、本明細書において論じられているさまざまな実施形態において使用されることが可能であるということに留意されたい。
[0056]本明細書において記述されているいくつかの例示的な実施形態がある。
[0057]例1は、ユーザインターフェース(UI)においてマルチウィンドウ制御を実行するための方法であり、この方法は、ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示するステップであり、ユーザインターフェースが、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む、ステップと、UIにおけるGUI要素の選択を検知するステップと、ディスプレイ上に表示されているオブジェクトのセットをディスプレイ上のウィンドウへと移動するステップと、ユーザの動きを追跡することによって、オブジェクトのセット内のオブジェクトのうちの1つ又は複数の選択を検知するステップと、1つ又は複数のオブジェクトのうちの選択されたオブジェクトをユーザの面前に表示するステップとを含む。
[0058]例2は、ユーザの検知された動きに応答して、選択されたオブジェクトのうちの少なくとも1つの位置を変更するステップを任意選択で含むことが可能である、例1の方法である。
[0059]例3は、GUI要素が、収集ボタンであるということを、任意選択で含むことが可能である、例1の方法である。
[0060]例4は、UIにおけるGUI要素の選択を検知するステップが、ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知することを含むということを、任意選択で含むことが可能である、例1の方法である。
[0061]例5は、ユーザの動きを追跡することが、ユーザの手の位置を追跡することを含むということを、任意選択で含むことが可能である、例1の方法である。
[0062]例6は、ユーザの動きを追跡することが、ユーザの手の1つ又は複数の指を追跡することを含むということを、任意選択で含むことが可能である、例1の方法である。
[0063]例7は、1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行されたときに、ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示することであり、ユーザインターフェースが、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む、表示すること、UIにおけるGUI要素の選択を検知すること、ディスプレイ上に表示されているオブジェクトのセットをディスプレイ上のウィンドウへと移動すること、ユーザの動きを追跡することによって、オブジェクトのセット内のオブジェクトのうちの1つ又は複数の選択を検知すること、及び、1つ又は複数のオブジェクトのうちの選択されたオブジェクトをユーザの面前に表示することを含むプロセスを、コンピューティングシステムに実行させる命令を格納する1つ又は複数のメモリと、を備えるコンピューティングシステムである。
[0064]例8は、ユーザの検知された動きに応答して、選択されたオブジェクトのうちの少なくとも1つの位置を変更することを、上記プロセスがさらに含むことが可能である、例7のコンピューティングシステムである。
[0065]例9は、GUI要素が、収集ボタンであるということを、任意選択で含むことが可能である、例7のコンピューティングシステムである。
[0066]例10は、UIにおけるGUI要素の選択を検知することが、ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知することを含むということを、任意選択で含むことが可能である、例7のコンピューティングシステムである。
[0067]例11は、ユーザの動きを追跡することが、ユーザの手の位置を追跡することを含むということを、任意選択で含むことが可能である、例7のコンピューティングシステムである。
[0068]例12は、ユーザの動きを追跡することが、ユーザの手の1つ又は複数の指を追跡することを含むということを、任意選択で含むことが可能である、例7のコンピューティングシステムである。
[0069]例13は、少なくともプロセッサ及びメモリを有するシステムによって実行されたときに、ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示することであり、ユーザインターフェースが、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む、表示することと、UIにおけるGUI要素の選択を検知することと、ディスプレイ上に表示されているオブジェクトのセットをディスプレイ上のウィンドウへと移動することと、ユーザの動きを追跡することによって、オブジェクトのセット内のオブジェクトのうちの1つ又は複数の選択を検知することと、1つ又は複数のオブジェクトのうちの選択されたオブジェクトをユーザの面前に表示することとを含む動作を、システムに実行させる命令が格納された、1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0070]例14は、上記動作が、ユーザの検知された動きに応答して、選択されたオブジェクトのうちの少なくとも1つの位置を変更することをさらに含む、ということを任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0071]例15は、GUI要素が、収集ボタンであるということを、任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0072]例16は、UIにおけるGUI要素の選択を検知することが、ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知することを含むということを、任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0073]例17は、ユーザの動きを追跡することが、ユーザの手の位置を追跡することを含むということを、任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0074]例18は、ユーザの動きを追跡することが、ユーザの手の1つ又は複数の指を追跡することを含むということを、任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0075]例19は、GUI要素が、収集ボタンであり、さらに、UIにおけるGUI要素の選択を検知することが、ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知することを含むということを、任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0076]例20は、上記動作が、別のGUI要素の選択を受け取った後に、1つ又は複数のオブジェクトを仮想環境内の元の場所へ戻すことをさらに含む、ということを任意選択で含むことが可能である、例13の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体である。
[0077]本明細書において記述されているシステム、方法、及びプロセスは、メインメモリ又は読み取り専用メモリに格納されてプロセッサによって実行されるソフトウェアとして実装されることが可能であるということは、当業者にとって明らかであろう。この制御ロジック又はソフトウェアは、非一時的コンピュータ可読媒体を備える製品に存在することも可能であり、その非一時的コンピュータ可読媒体は、コンピュータ可読プログラムコードが内部で具現化されており、大容量記憶デバイスによって読み取り可能であり、本明細書における方法及び教示に従ってプロセッサを動作させるためのものである。
[0078]本明細書において論じられている実施形態は、上述されているコンピュータハードウェアコンポーネントのサブセットを含むハンドヘルド又はポータブルデバイスで具現化されることも可能である。たとえば、ハンドヘルドデバイスは、バスと、プロセッサと、メモリとだけを含むように構成されている携帯電話、タブレットコンピュータ、専用コンピュータデバイスなどであることが可能である。ハンドヘルドデバイスは、ボタン又は入力シグナリングコンポーネントのセットを含むように構成されることも可能であり、それらを用いてユーザが、利用可能なオプションのセットから選択を行うことが可能である。ハンドヘルドデバイスは、ハンドヘルドデバイスのユーザに対して情報を表示するための液晶ディスプレイ(LCD)又は表示要素マトリックスなどの出力装置を含むように構成されることも可能である。従来の方法を使用して、そのようなハンドヘルドデバイスを実装することが可能である。そのようなデバイスに関する実施形態の実装は、本明細書において提供されている開示を与えられれば、当業者にとって明らかであろう。
[0079]本明細書において論じられている実施形態は、上述されているコンピュータハードウェアコンポーネントのサブセットを含む専用アプライアンスにおいて具現化されることも可能である。たとえば、そのアプライアンスは、プロセッサ、データ記憶デバイス、バス、及びメモリと、ユーザがデバイスと基本的な様式で通信することを可能にする小さなタッチスクリーンなど、ごく初歩的な通信メカニズムとを含むことが可能である。一般には、デバイスの専用度合いが高くなればなるほど、デバイスが機能するために存在している必要がある要素は少なくなる。
[0080]上記の詳細説明のいくつかの部分は、コンピュータメモリ内のデータビットに関する演算のアルゴリズム及びシンボル表現という点から提示されている。これらのアルゴリズム的な記述及び表現は、データ処理技術分野における当業者によって、彼らの作業の実体を、その技術分野における他の当業者へ最も効果的に伝達するために使用される手段である。アルゴリズムとは、ここでは、及び一般には、所望の結果につながるステップどうしの自己矛盾のないシーケンスであると考えられる。それらのステップは、物理的な量の物理的な操作を必要とするステップである。通常、必須ではないが、これらの量は、格納されること、転送されること、結合されること、比較されること、及びその他の方法で操作されることが可能な電気信号又は磁気信号の形態を取る。これらの信号をビット、値、要素、シンボル、文字、語、数などとして指すことが、主として共通の使用という理由から、時として好都合であることがわかっている。
[0081]しかしながら、これら及び類似の語のすべては、適切な物理的な量に関連付けられるものであり、これらの量に適用される便宜上のラベルにすぎないということを念頭に置いていただきたい。特に別段の記載がない限り、以降の論考から明らかなように、この記述の全体を通じて、「処理する」、又は「計算する」、又は「算出する」、又は「決定する」、又は「表示する」等などの語を利用している論考は、コンピュータシステムのレジスタ及びメモリ内の物理的な(電子的な)量として表されているデータを操作して、同様にコンピュータシステムのメモリ若しくはレジスタ、又はその他のそのような情報格納、伝送、若しくは表示デバイス内の物理的な量として表されるその他のデータへと変換する、コンピュータシステム又は類似の電子コンピューティングデバイスのアクション及びプロセスを指すということがわかる。
[0082]本開示はまた、本明細書における動作を実行するための装置に関連している。この装置は、求められている目的のために特別に構築されることが可能であり、又は、コンピュータに格納されているコンピュータプログラムによって選択的にアクティブ化若しくは再構成される汎用コンピュータを備えることが可能である。そのようなコンピュータプログラムは、コンピュータ読み取り可能な記憶媒体に格納されることが可能であり、そのコンピュータ読み取り可能な記憶媒体は、フロッピーディスク、光ディスク、CD-ROM、及び光磁気ディスクを含む任意のタイプのディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気若しくは光カード、又は電子命令を格納するのに適している任意のタイプの媒体などであるが、それらに限定されず、それぞれはコンピュータシステムバスに結合されている。
[0083]本明細書において提示されているアルゴリズム及び表示は、いずれかの特定のコンピュータ又はその他の装置に固有に関連しているものではない。さまざまな汎用システムが、本明細書における教示によるプログラムとともに使用されることが可能であり、又は必要とされている方法ステップを実行するためのさらに専門化された装置を構築することが好都合であると判明する場合もある。さまざまなこれらのシステムにとっての必要とされる構造は、以降の記述から明らかになるであろう。加えて、本開示は、いずれかの特定のプログラミング言語に関連して記述されているものではない。本明細書において記述されているように本開示の教示を実施するためにさまざまなプログラミング言語が使用されることが可能であるということがわかるであろう。
[0084]機械可読媒体は、機械(たとえば、コンピュータ)によって読み取り可能な形態で情報を格納又は伝送するための任意のメカニズムを含む。たとえば、機械可読媒体は、読み取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、電気伝搬信号、光伝搬信号、音響伝搬信号、又はその他の形態の伝搬信号(たとえば、搬送波、赤外線信号、デジタル信号等)などを含む。
[0085]当業者にとっては、前述の記述を読んだ後には、本開示の多くの変更及び修正が疑いなく明らかになるであろうが、例示として示され記述されているいずれの特定の実施形態も、限定的とみなされることを意図されているものでは決してないということを理解されたい。そのため、さまざまな実施形態の詳細への言及は、本開示にとって不可欠とみなされる特徴のみを本来列挙する特許請求の範囲の範疇を限定することを意図されているものではない。

Claims (20)

  1. ユーザインターフェース(UI)においてマルチウィンドウ制御を実行するための方法であって、
    前記ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示するステップであって、前記ユーザインターフェースが、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む、当該ステップと、
    前記UIにおける前記GUI要素の選択を検知するステップと、
    前記ディスプレイ上に表示されているオブジェクトのセットを前記ディスプレイ上のウィンドウへと移動するステップと、
    ユーザの動きを追跡することによって、前記オブジェクトのセット内のオブジェクトのうちの1つ又は複数のオブジェクトの選択を検知するステップと、
    前記1つ又は複数のオブジェクトのうち、選択されたオブジェクトをユーザの面前に表示するステップと、
    を含む、方法。
  2. ユーザの検知された動きに応答して、前記選択されたオブジェクトのうちの少なくとも1つの位置を変更するステップ、
    をさらに含む、請求項1に記載の方法。
  3. 前記GUI要素が、収集ボタンである、請求項1に記載の方法。
  4. 前記UIにおける前記GUI要素の選択を検知するステップが、
    ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知すること、
    を含む、請求項1に記載の方法。
  5. 前記ユーザの動きを追跡することが、前記ユーザの手の位置を追跡することを含む、請求項1に記載の方法。
  6. 前記ユーザの動きを追跡することが、前記ユーザの手の1つ又は複数の指を追跡することを含む、請求項1に記載の方法。
  7. 1つ又は複数のプロセッサと、
    前記1つ又は複数のプロセッサによって実行されたときに、
    ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示することであって、前記ユーザインターフェースが、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む、当該表示すること、
    前記UIにおける前記GUI要素の選択を検知すること、
    前記ディスプレイ上に表示されているオブジェクトのセットを前記ディスプレイ上のウィンドウへ移動すること、
    ユーザの動きを追跡することによって、前記オブジェクトのセット内のオブジェクトのうちの1つ又は複数のオブジェクトの選択を検知すること、及び、
    前記1つ又は複数のオブジェクトのうち、選択されたオブジェクトをユーザの面前に表示すること、
    を含むプロセスを、コンピューティングシステムに実行させる命令を格納した1つ又は複数のメモリと、
    を備える、コンピューティングシステム。
  8. 前記プロセスは、
    ユーザの検知された動きに応答して、前記選択されたオブジェクトのうちの少なくとも1つの位置を変更すること、
    をさらに含む、請求項7に記載のコンピューティングシステム。
  9. 前記GUI要素が、収集ボタンである、請求項7に記載のコンピューティングシステム。
  10. 前記UIにおける前記GUI要素の選択を検知することが、
    前記ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知すること、
    を含む、請求項7に記載のコンピューティングシステム。
  11. 前記ユーザの動きを追跡することが、前記ユーザの手の位置を追跡することを含む、請求項7に記載のコンピューティングシステム。
  12. 前記ユーザの動きを追跡することが、前記ユーザの手の1つ又は複数の指を追跡することを含む、請求項7に記載のコンピューティングシステム。
  13. 少なくともプロセッサ及びメモリを有するシステムによって実行されたときに、
    ユーザインターフェースをエクステンドリアリティ(XR)デバイスのディスプレイにおいて表示することであって、前記ユーザインターフェースが、グラフィカルユーザインターフェース(GUI)要素及びいくつかのオブジェクトを含む、当該表示することと、
    前記UIにおける前記GUI要素の選択を検知することと、
    前記ディスプレイ上に表示されているオブジェクトのセットを前記ディスプレイ上のウィンドウへ移動することと、
    前記ユーザの動きを追跡することによって、前記オブジェクトのセット内のオブジェクトのうちの1つ又は複数のオブジェクトの選択を検知することと、
    前記1つ又は複数のオブジェクトのうち、選択されたオブジェクトをユーザの面前に表示することと、
    を含む動作を前記システムに実行させる命令、が格納された1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  14. 前記動作は、
    ユーザの検知された動きに応答して、前記選択されたオブジェクトのうちの少なくとも1つの位置を変更すること、
    をさらに含む、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  15. 前記GUI要素が、収集ボタンである、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  16. 前記UIにおける前記GUI要素の選択を検知することが、
    前記ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知すること、
    を含む、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  17. 前記ユーザの動きを追跡することが、前記ユーザの手の位置を追跡することを含む、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  18. 前記ユーザの動きを追跡することが、前記ユーザの手の1つ又は複数の指を追跡することを含む、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  19. 前記GUI要素が、収集ボタンであり、
    前記UIにおける前記GUI要素の選択を検知することが、
    前記ユーザの手の位置が事前に決定された時間にわたって1つの場所に保持されていると決定することによって、タップレス選択を検知すること、
    を含む、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
  20. 前記動作は、
    別のGUI要素の選択を受け取った後に、1つ又は複数のオブジェクトを仮想環境内の元の場所へ戻すこと、
    をさらに含む、請求項13に記載の1つ又は複数の非一時的コンピュータ読み取り可能な記憶媒体。
JP2023042851A 2022-07-28 2023-03-17 Xrマルチウィンドウ制御 Active JP7470226B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202263393175P 2022-07-28 2022-07-28
US63/393,175 2022-07-28
US18/119,708 2023-03-09
US18/119,708 US20240037865A1 (en) 2022-07-28 2023-03-09 Xr multi-window control

Publications (2)

Publication Number Publication Date
JP2024018907A true JP2024018907A (ja) 2024-02-08
JP7470226B2 JP7470226B2 (ja) 2024-04-17

Family

ID=89664642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023042851A Active JP7470226B2 (ja) 2022-07-28 2023-03-17 Xrマルチウィンドウ制御

Country Status (2)

Country Link
US (1) US20240037865A1 (ja)
JP (1) JP7470226B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204186A (ja) 2007-02-20 2008-09-04 Fuji Xerox Co Ltd 標章表示装置及びプログラム
JP2016042253A (ja) 2014-08-15 2016-03-31 富士ゼロックス株式会社 情報処理装置及びプログラム
US10198874B2 (en) 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
CN109931923B (zh) 2017-12-15 2023-07-07 阿里巴巴集团控股有限公司 一种导航引导图的生成方法和装置

Also Published As

Publication number Publication date
JP7470226B2 (ja) 2024-04-17
US20240037865A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
JP7297216B2 (ja) 拡張現実システムのためのタッチフリーインターフェース
US20210405761A1 (en) Augmented reality experiences with object manipulation
EP3311250B1 (en) System and method for spawning drawing surfaces
US10222981B2 (en) Holographic keyboard display
CN105900041B (zh) 利用视线跟踪进行的目标定位
KR102473259B1 (ko) 시선 타겟 애플리케이션 런처
US9928662B2 (en) System and method for temporal manipulation in virtual environments
US10186086B2 (en) Augmented reality control of computing device
CN105518575B (zh) 与自然用户界面的双手交互
US9977492B2 (en) Mixed reality presentation
US20170277256A1 (en) Virtual-reality navigation
US20180143693A1 (en) Virtual object manipulation
CN105359082B (zh) 用于用户接口导航的***和方法
US20180150997A1 (en) Interaction between a touch-sensitive device and a mixed-reality device
KR20150116871A (ko) Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
US11294475B1 (en) Artificial reality multi-modal input switching model
WO2021242451A1 (en) Hand gesture-based emojis
US11675198B2 (en) Eyewear including virtual scene with 3D frames
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP7470226B2 (ja) Xrマルチウィンドウ制御
US20240036698A1 (en) Xr manipulation feature with smart watch
US12026310B2 (en) Controlling a user interface with a trackpad and a smart watch
US20240036646A1 (en) Controlling a user interface with a trackpad and a smart watch
US20230011453A1 (en) Artificial Reality Teleportation Via Hand Gestures
JP2024018908A (ja) トラックパッド及びスマートウォッチを用いてユーザインターフェースを制御すること

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240405

R150 Certificate of patent or registration of utility model

Ref document number: 7470226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150