JPWO2021163624A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021163624A5
JPWO2021163624A5 JP2022548904A JP2022548904A JPWO2021163624A5 JP WO2021163624 A5 JPWO2021163624 A5 JP WO2021163624A5 JP 2022548904 A JP2022548904 A JP 2022548904A JP 2022548904 A JP2022548904 A JP 2022548904A JP WO2021163624 A5 JPWO2021163624 A5 JP WO2021163624A5
Authority
JP
Japan
Prior art keywords
data
virtual content
host application
receiving
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022548904A
Other languages
English (en)
Other versions
JP2023514573A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/018035 external-priority patent/WO2021163624A1/en
Publication of JP2023514573A publication Critical patent/JP2023514573A/ja
Publication of JPWO2021163624A5 publication Critical patent/JPWO2021163624A5/ja
Pending legal-status Critical Current

Links

Description

本開示の実施例は、仮想コンテンツを共有および同期させるためのシステムおよび方法を説明する。本開示の実施例によると、本方法は、ホストアプリケーションから、透過型ディスプレイを備える、ウェアラブルデバイスを介して、第1のデータを備える、第1のデータパッケージを受信するステップと、第1のデータに基づいて、仮想コンテンツを識別するステップと、透過型ディスプレイを介して、仮想コンテンツのビューを提示するステップと、ウェアラブルデバイスを介して、仮想コンテンツにダイレクトされる、第1のユーザ入力を受信するステップと、第1のデータおよび第1のユーザ入力に基づいて、第2のデータを生成するステップと、ホストアプリケーションに、ウェアラブルデバイスを介して、第2のデータを備える、第2のデータパッケージを送信するステップとを含んでもよく、ホストアプリケーションは、ウェアラブルデバイスから遠隔のコンピュータシステムの1つまたはそれを上回るプロセッサを介して実行され、ウェアラブルデバイスと通信するように構成される。
本発明は、例えば、以下を提供する。
(項目1)
システムであって、
透過型ディスプレイを備えるウェアラブルデバイスと、
1つまたはそれを上回るプロセッサであって、
ホストアプリケーションから、前記透過型ディスプレイを介して、第1のデータを備える第1のデータパッケージを受信することと、
前記第1のデータに基づいて、仮想コンテンツを識別することと、
前記透過型ディスプレイを介して、前記仮想コンテンツのビューを提示することと、
前記ウェアラブルデバイスの入力デバイスを介して、前記仮想コンテンツにダイレクトされる第1のユーザ入力を受信することと、
前記第1のデータおよび前記第1のユーザ入力に基づいて、第2のデータを生成することと、
前記ホストアプリケーションに、前記ウェアラブルデバイスを介して、前記第2のデータを備える第2のデータパッケージを送信することと、
を含む方法を実施するように構成される、1つまたはそれを上回るプロセッサと
を備え、
前記ホストアプリケーションは、前記ウェアラブルデバイスから遠隔のコンピュータシステムの1つまたはそれを上回るプロセッサを介して実行され、前記ウェアラブルデバイスと通信するように構成される、システム。
(項目2)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、前記ホストアプリケーションは、コンピュータ支援描画アプリケーションを備える、項目1に記載のシステム。
(項目3)
前記方法はさらに、
第2のユーザ入力を受信することと、
前記第2のユーザ入力に基づいて、前記仮想コンテンツのビューを修正することと
を含む、項目1に記載のシステム。
(項目4)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態に対応し、
前記ホストアプリケーションは、前記第2のデータに基づいて、前記3Dグラフィカルコンテンツの第1の状態を修正するように構成される、
項目1に記載のシステム。
(項目5)
前記仮想コンテンツは、3Dモデルを備え、
前記第1のデータに基づいて、仮想コンテンツを識別することは、3Dモデルライブラリ内の前記3Dモデルを識別することを含み、
前記仮想コンテンツのビューを提示することは、前記3Dモデルライブラリ内で識別された前記3Dモデルのビューを提示することを含む、
項目1に記載のシステム。
(項目6)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態と前記3Dグラフィカルコンテンツの以前の状態との間の変更を表すデータを備える、
項目1に記載のシステム。
(項目7)
前記第1のデータパッケージを前記ホストアプリケーションから受信することは、前記コンピュータシステムの前記1つまたはそれを上回るプロセッサを介して実行するように構成される第1のヘルパアプリケーションを介して、前記第1のデータパッケージを受信することを含む、項目1に記載のシステム。
(項目8)
方法であって、
ホストアプリケーションから、透過型ディスプレイを備えるウェアラブルデバイスを介して、第1のデータを備える第1のデータパッケージを受信することと、
前記第1のデータに基づいて、仮想コンテンツを識別することと、
前記透過型ディスプレイを介して、前記仮想コンテンツのビューを提示することと、
前記ウェアラブルデバイスの入力デバイスを介して、前記仮想コンテンツにダイレクトされる第1のユーザ入力を受信することと、
前記第1のデータおよび前記第1のユーザ入力に基づいて、第2のデータを生成することと、
前記ホストアプリケーションに、前記ウェアラブルデバイスを介して、前記第2のデータを備える第2のデータパッケージを送信することと
を含み、
前記ホストアプリケーションは、前記ウェアラブルデバイスから遠隔のコンピュータシステムの1つまたはそれを上回るプロセッサを介して実行され、前記ウェアラブルデバイスと通信するように構成される、方法。
(項目9)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、前記ホストアプリケーションは、コンピュータ支援描画アプリケーションを備える、項目8に記載の方法。
(項目10)
第2のユーザ入力を受信することと、
前記第2のユーザ入力に基づいて、前記仮想コンテンツのビューを修正することと
をさらに含む、項目8に記載の方法。
(項目11)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態に対応し、
前記ホストアプリケーションは、前記第2のデータに基づいて、前記3Dグラフィカルコンテンツの第1の状態を修正するように構成される、
項目8に記載の方法。
(項目12)
前記仮想コンテンツは、3Dモデルを備え、
前記第1のデータに基づいて、仮想コンテンツを識別することは、3Dモデルライブラリ内の前記3Dモデルを識別することを含み、
前記仮想コンテンツのビューを提示することは、前記3Dモデルライブラリ内で識別された前記3Dモデルのビューを提示することを含む、
項目8に記載の方法。
(項目13)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態と前記3Dグラフィカルコンテンツの以前の状態との間の変更を表すデータを備える、
項目8に記載の方法。
(項目14)
前記第1のデータパッケージを前記ホストアプリケーションから受信することは、前記コンピュータシステムの前記1つまたはそれを上回るプロセッサを介して実行するように構成される第1のヘルパアプリケーションを介して、前記第1のデータパッケージを受信することを含む、項目8に記載の方法。
(項目15)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ホストアプリケーションから、透過型ディスプレイを備えるウェアラブルデバイスを介して、第1のデータを備える第1のデータパッケージを受信することと、
前記第1のデータに基づいて、仮想コンテンツを識別することと、
前記透過型ディスプレイを介して、前記仮想コンテンツのビューを提示することと、
前記ウェアラブルデバイスの入力デバイスを介して、前記仮想コンテンツにダイレクトされる第1のユーザ入力を受信することと、
前記第1のデータおよび前記第1のユーザ入力に基づいて、第2のデータを生成することと、
前記ホストアプリケーションに、前記ウェアラブルデバイスを介して、前記第2のデータを備える第2のデータパッケージを送信することと
を含む方法を実行させ、
前記ホストアプリケーションは、前記ウェアラブルデバイスから遠隔のコンピュータシステムの1つまたはそれを上回るプロセッサを介して実行され、前記ウェアラブルデバイスと通信するように構成される、非一過性コンピュータ可読媒体。
(項目16)
前記方法はさらに、
第2のユーザ入力を受信することと、
前記第2のユーザ入力に基づいて、前記仮想コンテンツのビューを修正すること
を含む、項目15に記載の非一過性コンピュータ可読媒体。
(項目17)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態に対応し、
前記ホストアプリケーションは、前記第2のデータに基づいて、前記3Dグラフィカルコンテンツの第1の状態を修正するように構成される、
項目15に記載の非一過性コンピュータ可読媒体。
(項目18)
前記仮想コンテンツは、3Dモデルを備え、
前記第1のデータに基づいて、仮想コンテンツを識別することは、3Dモデルライブラリ内の前記3Dモデルを識別することを含み、
前記仮想コンテンツのビューを提示することは、前記3Dモデルライブラリ内で識別された前記3Dモデルのビューを提示することを含む、
項目15に記載の非一過性コンピュータ可読媒体。
(項目19)
前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態と前記3Dグラフィカルコンテンツの以前の状態との間の変更を表すデータを備える、
項目15に記載の非一過性コンピュータ可読媒体。
(項目20)
前記第1のデータパッケージを前記ホストアプリケーションから受信することは、前記コンピュータシステムの前記1つまたはそれを上回るプロセッサを介して実行するように構成される第1のヘルパアプリケーションを介して、前記第1のデータパッケージを受信することを含む、項目15に記載の非一過性コンピュータ可読媒体。

Claims (15)

  1. システムであって、
    透過型ディスプレイを備えるウェアラブルデバイスと、
    1つまたはそれを上回るプロセッサであって、
    ホストアプリケーションから、前記ウェアラブルデバイスを介して、第1のデータを備える第1のデータパッケージを受信することと、
    前記第1のデータに基づいて、仮想コンテンツを識別することと、
    前記透過型ディスプレイを介して、前記仮想コンテンツのビューを提示することと、
    前記ウェアラブルデバイスの入力デバイスを介して、前記仮想コンテンツにダイレクトされる第1のユーザ入力を受信することと、
    前記第1のデータおよび前記第1のユーザ入力に基づいて、第2のデータを生成することと、
    前記ホストアプリケーションに、前記ウェアラブルデバイスを介して、前記第2のデータを備える第2のデータパッケージを送信することと、
    を含む方法を実施するように構成される、1つまたはそれを上回るプロセッサと
    を備え、
    前記ホストアプリケーションは、前記ウェアラブルデバイスから遠隔のコンピュータシステムの1つまたはそれを上回るプロセッサを介して実行され、前記ウェアラブルデバイスと通信するように構成され
    前記第1のデータは、第1の時間における前記仮想コンテンツの第1の状態と前記第1の時間より前の第2の時間における前記仮想コンテンツの第2の状態との間の変更を表すデータを備える、システム。
  2. 前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、前記ホストアプリケーションは、コンピュータ支援描画アプリケーションを備える、請求項1に記載のシステム。
  3. 前記方法は
    第2のユーザ入力を受信することと、
    前記第2のユーザ入力に基づいて、前記仮想コンテンツのビューを修正することと
    さらに含む、請求項1に記載のシステム。
  4. 前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
    前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態に対応し、
    前記ホストアプリケーションは、前記第2のデータに基づいて、前記3Dグラフィカルコンテンツの第1の状態を修正するように構成される、請求項1に記載のシステム。
  5. 前記仮想コンテンツは、3Dモデルを備え、
    前記第1のデータに基づいて、仮想コンテンツを識別することは、3Dモデルライブラリ内の前記3Dモデルを識別することを含み、
    前記仮想コンテンツのビューを提示することは、前記3Dモデルライブラリ内で識別された前記3Dモデルのビューを提示することを含む、請求項1に記載のシステム。
  6. 前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
    前記第1のデータは、第1の時間における前記3Dグラフィカルコンテンツの第1の状態と前記第1の時間より前の第2の時間における前記3Dグラフィカルコンテンツの第2の状態との間の変更を表すデータを備える、請求項1に記載のシステム。
  7. 前記第1のデータパッケージを前記ホストアプリケーションから受信することは、前記コンピュータシステムの前記1つまたはそれを上回るプロセッサを介して実行するように構成される第1のヘルパアプリケーションを介して、前記第1のデータパッケージを受信することを含む、請求項1に記載のシステム。
  8. 方法であって、
    ホストアプリケーションから、透過型ディスプレイを備えるウェアラブルデバイスを介して、第1のデータを備える第1のデータパッケージを受信することと、
    前記第1のデータに基づいて、仮想コンテンツを識別することと、
    前記透過型ディスプレイを介して、前記仮想コンテンツのビューを提示することと、
    前記ウェアラブルデバイスの入力デバイスを介して、前記仮想コンテンツにダイレクトされる第1のユーザ入力を受信することと、
    前記第1のデータおよび前記第1のユーザ入力に基づいて、第2のデータを生成することと、
    前記ホストアプリケーションに、前記ウェアラブルデバイスを介して、前記第2のデータを備える第2のデータパッケージを送信することと
    を含み、
    前記ホストアプリケーションは、前記ウェアラブルデバイスから遠隔のコンピュータシステムの1つまたはそれを上回るプロセッサを介して実行され、前記ウェアラブルデバイスと通信するように構成され
    前記第1のデータは、第1の時間における前記仮想コンテンツの第1の状態と前記第1の時間より前の第2の時間における前記仮想コンテンツの第2の状態との間の変更を表すデータを備える、方法。
  9. 前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、前記ホストアプリケーションは、コンピュータ支援描画アプリケーションを備える、請求項8に記載の方法。
  10. 第2のユーザ入力を受信することと、
    前記第2のユーザ入力に基づいて、前記仮想コンテンツのビューを修正することと
    をさらに含む、請求項8に記載の方法。
  11. 前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
    前記第1のデータは、前記3Dグラフィカルコンテンツの第1の状態に対応し、
    前記ホストアプリケーションは、前記第2のデータに基づいて、前記3Dグラフィカルコンテンツの第1の状態を修正するように構成される、請求項8に記載の方法。
  12. 前記仮想コンテンツは、3Dモデルを備え、
    前記第1のデータに基づいて、仮想コンテンツを識別することは、3Dモデルライブラリ内の前記3Dモデルを識別することを含み、
    前記仮想コンテンツのビューを提示することは、前記3Dモデルライブラリ内で識別された前記3Dモデルのビューを提示することを含む、請求項8に記載の方法。
  13. 前記仮想コンテンツは、3Dグラフィカルコンテンツを備え、
    前記第1のデータは、第1の時間における前記3Dグラフィカルコンテンツの第1の状態と前記第1の時間より前の第2の時間における前記3Dグラフィカルコンテンツの第2の状態との間の変更を表すデータを備える、請求項8に記載の方法。
  14. 前記第1のデータパッケージを前記ホストアプリケーションから受信することは、前記コンピュータシステムの前記1つまたはそれを上回るプロセッサを介して実行するように構成される第1のヘルパアプリケーションを介して、前記第1のデータパッケージを受信することを含む、請求項8に記載の方法。
  15. 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、請求項8~14のいずれかに記載の方法を前記1つまたはそれを上回るプロセッサ実行させる、非一過性コンピュータ可読媒体。
JP2022548904A 2020-02-14 2021-02-12 ツールブリッジ Pending JP2023514573A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062976995P 2020-02-14 2020-02-14
US62/976,995 2020-02-14
PCT/US2021/018035 WO2021163624A1 (en) 2020-02-14 2021-02-12 Tool bridge

Publications (2)

Publication Number Publication Date
JP2023514573A JP2023514573A (ja) 2023-04-06
JPWO2021163624A5 true JPWO2021163624A5 (ja) 2024-02-20

Family

ID=77273493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022548904A Pending JP2023514573A (ja) 2020-02-14 2021-02-12 ツールブリッジ

Country Status (5)

Country Link
US (3) US11494528B2 (ja)
EP (1) EP4104000A4 (ja)
JP (1) JP2023514573A (ja)
CN (1) CN115516364B (ja)
WO (1) WO2021163624A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023419A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Application sharing
JP2023513250A (ja) 2020-02-10 2023-03-30 マジック リープ, インコーポレイテッド 仮想コンテンツの動的併置
WO2021163624A1 (en) 2020-02-14 2021-08-19 Magic Leap, Inc. Tool bridge
US11475644B2 (en) 2020-02-14 2022-10-18 Magic Leap, Inc. Session manager
JP2023513747A (ja) 2020-02-14 2023-04-03 マジック リープ, インコーポレイテッド 3dオブジェクト注釈
US11875088B2 (en) * 2020-11-24 2024-01-16 Unity Technologies ApS Systems and methods for smart volumetric layouts
US11847748B2 (en) * 2021-10-04 2023-12-19 Snap Inc. Transferring objects from 2D video to 3D AR

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US9811237B2 (en) 1999-04-06 2017-11-07 Iii Holdings 2, Llc Visual navigation of virtual environments through logical processes
US6491391B1 (en) 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
CA2362895A1 (en) 2001-06-26 2002-12-26 Steve Mann Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license
DE10132872B4 (de) 2001-07-06 2018-10-11 Volkswagen Ag Kopfmontiertes optisches Durchsichtssystem
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
WO2003096669A2 (en) 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
CA2388766A1 (en) 2002-06-17 2003-12-17 Steve Mann Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7500747B2 (en) 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
US7800614B2 (en) 2004-02-17 2010-09-21 Oracle America, Inc. Efficient communication in a client-server scene graph system
EP1755441B1 (en) 2004-04-01 2015-11-04 Eyefluence, Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20130073978A1 (en) 2011-09-16 2013-03-21 Social Communications Company Capabilities based management of virtual areas
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US8860760B2 (en) 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
FR2974474B1 (fr) 2011-04-19 2017-11-17 Prologue Procedes et appareils de production et de traitement de representations de scenes multimedias
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US9274338B2 (en) 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
US9751011B2 (en) 2012-05-25 2017-09-05 Electronics Arts, Inc. Systems and methods for a unified game experience in a multiplayer game
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US10025379B2 (en) 2012-12-06 2018-07-17 Google Llc Eye tracking wearable devices and methods for use
EP2951811A4 (en) 2013-01-03 2016-08-17 Meta Co DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
CA2913218C (en) 2013-05-24 2022-09-27 Awe Company Limited Systems and methods for a shared mixed reality experience
US10572215B1 (en) 2014-03-31 2020-02-25 Amazon Technologies, Inc. Extendable architecture for augmented reality system
US9519481B2 (en) 2014-06-27 2016-12-13 International Business Machines Corporation Branch synthetic generation across multiple microarchitecture generations
US10810797B2 (en) 2015-05-22 2020-10-20 Otoy, Inc Augmenting AR/VR displays with image projections
US10665020B2 (en) 2016-02-15 2020-05-26 Meta View, Inc. Apparatuses, methods and systems for tethering 3-D virtual elements to digital content
WO2017214559A1 (en) * 2016-06-10 2017-12-14 Dirtt Environmental Solutions, Inc. Mixed-reality architectural design environment
US10699484B2 (en) * 2016-06-10 2020-06-30 Dirtt Environmental Solutions, Ltd. Mixed-reality and CAD architectural design environment
US10147243B2 (en) 2016-12-05 2018-12-04 Google Llc Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment
EP3340012A1 (en) * 2016-12-26 2018-06-27 CaptoGlove International Limited Haptic interaction method, tool and system
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
WO2018175335A1 (en) 2017-03-24 2018-09-27 Pcms Holdings, Inc. Method and system for discovering and positioning content into augmented reality space
US10871934B2 (en) 2017-05-04 2020-12-22 Microsoft Technology Licensing, Llc Virtual content displayed with shared anchor
US10685456B2 (en) 2017-10-12 2020-06-16 Microsoft Technology Licensing, Llc Peer to peer remote localization for devices
US10559133B2 (en) * 2018-02-07 2020-02-11 Dell Products L.P. Visual space management across information handling system and augmented reality
US11049322B2 (en) * 2018-06-18 2021-06-29 Ptc Inc. Transferring graphic objects between non-augmented reality and augmented reality media domains
US11087538B2 (en) 2018-06-26 2021-08-10 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality images at display locations that do not obstruct user's view
US10977868B2 (en) * 2018-06-29 2021-04-13 Factualvr, Inc. Remote collaboration methods and systems
WO2020023419A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Application sharing
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
US10854006B2 (en) 2018-11-15 2020-12-01 Palo Alto Research Center Incorporated AR-enabled labeling using aligned CAD models
JP2023513250A (ja) 2020-02-10 2023-03-30 マジック リープ, インコーポレイテッド 仮想コンテンツの動的併置
JP2023513747A (ja) 2020-02-14 2023-04-03 マジック リープ, インコーポレイテッド 3dオブジェクト注釈
US11475644B2 (en) 2020-02-14 2022-10-18 Magic Leap, Inc. Session manager
WO2021163624A1 (en) 2020-02-14 2021-08-19 Magic Leap, Inc. Tool bridge

Similar Documents

Publication Publication Date Title
EP3042278B1 (en) Managing shared state information produced by applications
JP6390021B2 (ja) グラフィック処理ユニットのためのワークロードバッチサブミットメカニズム
CN105593813B (zh) 用于可视化从受限环境容器提供的数据的呈现解释器
US8468524B2 (en) Inter-virtual machine time profiling of I/O transactions
US10049423B2 (en) Graphics processing unit failure recovery
EP2926555A1 (en) Low latency image display on multi-display device
EP2977899A2 (en) Integrating execution of computing analytics within a mapreduce processing environment
US7583269B2 (en) Window system 2D graphics redirection using direct texture rendering
CA2673556C (en) Transparent flow model simulation implementing bi-directional links
JPWO2021163624A5 (ja)
CN109828823A (zh) 一种基于容器虚拟化技术的无人机算法仿真***扩展方法
JPWO2021163373A5 (ja)
US10733689B2 (en) Data processing
JPWO2021163626A5 (ja)
US20190197663A1 (en) Graphics processor that performs warping, rendering system having the graphics processor, and method of operating the graphics processor
US8495176B2 (en) Tiered XML services in a content management system
KR102644991B1 (ko) 프로세스 데이터 공유 방법 및 디바이스
US12002168B2 (en) Low latency hand-tracking in augmented reality systems
US10621163B2 (en) Tracking and reusing function results
US20230047317A1 (en) Correcting depth estimations derived from image data using acoustic information
US20220164707A1 (en) Electronic apparatus and controlling method thereof
US20220207834A1 (en) Optimizing motion-to-photon latency in mobile augmented reality systems
US20070120865A1 (en) Applying rendering context in a multi-threaded environment
US11354026B1 (en) Method and device for assigning an operation set
US11468611B1 (en) Method and device for supplementing a virtual environment