JP2022532864A - 環境に基づく通信データの提示 - Google Patents
環境に基づく通信データの提示 Download PDFInfo
- Publication number
- JP2022532864A JP2022532864A JP2021564638A JP2021564638A JP2022532864A JP 2022532864 A JP2022532864 A JP 2022532864A JP 2021564638 A JP2021564638 A JP 2021564638A JP 2021564638 A JP2021564638 A JP 2021564638A JP 2022532864 A JP2022532864 A JP 2022532864A
- Authority
- JP
- Japan
- Prior art keywords
- person
- communication data
- implementations
- electronic device
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 159
- 238000000034 method Methods 0.000 claims abstract description 134
- 230000004044 response Effects 0.000 claims abstract description 25
- 230000007613 environmental effect Effects 0.000 claims description 49
- 230000000873 masking effect Effects 0.000 claims description 29
- 230000003287 optical effect Effects 0.000 claims description 14
- 230000031016 anaphase Effects 0.000 claims description 2
- 210000003128 head Anatomy 0.000 description 17
- 238000001514 detection method Methods 0.000 description 13
- 230000001953 sensory effect Effects 0.000 description 10
- 230000008921 facial expression Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 235000019615 sensations Nutrition 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101000882584 Homo sapiens Estrogen receptor Proteins 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000001010 compromised effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Acoustics & Sound (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本出願は、2019年5月31日出願の米国特許仮出願第62/855,155号の利益を主張し、その全体が参照により本明細書に組み込まれる。
Claims (49)
- 第1の人に関連付けられた第1のデバイスであって、ディスプレイと、非一時的メモリと、前記ディスプレイ及び前記非一時的メモリに結合された1つ以上のプロセッサと、を含む、第1のデバイスにおいて、
第2の人に対応する第2のデバイスと関連付けられた通信データを取得することと、
前記第1のデバイスと前記第2のデバイスとが共有環境内にあるかどうかを判定することと、
前記第1のデバイスと前記第2のデバイスとが共有環境内にないと判定したことに応じて、前記第2のデバイスに関連付けられた前記通信データに基づいて、前記第2の人の仮想表現を表示することと、を含む、方法。 - 前記第2のデバイスのデバイスタイプを判定することと、前記デバイスタイプに基づいて、前記第2の人の前記仮想表現を生成することと、を更に含む、請求項1に記載の方法。
- 前記デバイスタイプが第1のデバイスタイプであることに応じて、前記第2のデバイスに関連付けられた前記通信データに基づいて、前記第2の人の第1のタイプの前記仮想表現を生成することを更に含む、請求項2に記載の方法。
- 前記第2の人の前記第1のタイプの前記仮想表現を生成することが、前記第2の人を表す3次元(3D)仮想オブジェクトを生成することを含む、請求項3に記載の方法。
- 前記第1のデバイスタイプが、ヘッドマウントデバイス(HMD)を含む、請求項3又は4に記載の方法。
- 前記デバイスタイプが第2のデバイスタイプであることに応じて、前記第2のデバイスに関連付けられた前記通信データに基づいて、前記第2の人の第2のタイプの前記仮想表現を生成することを更に含む、請求項2に記載の方法。
- 前記第2の人の前記第2のタイプの前記仮想表現を生成することは、前記第2の人を表す2次元(2D)仮想オブジェクトを生成することを含む、請求項6に記載の方法。
- 前記第2のタイプの前記仮想表現は、前記第2の人のビデオを含み、前記ビデオは、前記第2のデバイスに関連付けられた前記通信データ内に符号化される、請求項6に記載の方法。
- 前記第2のデバイスタイプは、ハンドヘルドデバイスを含む、請求項6から8のいずれか一項に記載の方法。
- 前記第2のデバイスタイプは、ヘッドマウントデバイスではないデバイスを含む、請求項6から9のいずれか一項に記載の方法。
- カードの類似性閾値内であるグラフィカルユーザインタフェース(GUI)要素内に、前記第2の人の前記第2のタイプの前記仮想表現を表示することを更に含む、請求項6から10のいずれか一項に記載の方法。
- 前記第1のデバイスが1つ以上のスピーカを含み、
前記方法は、前記第2の人に対応する音声を、前記1つ以上のスピーカを介して出力することを更に含み、
前記第2の人の前記仮想表現から前記音声が発せられているかのような状況を提供するために、前記音声が空間化される、
請求項1から11のいずれか一項に記載の方法。 - 前記第2のデバイスに関連付けられた前記通信データに基づいて、前記音声を生成することを更に含む、請求項12に記載の方法。
- 前記音声が表面に反射しているかのような状況を提供するために、初期反射音を生成することを更に含む、請求項12又は13に記載の方法。
- 前記音声が反響を有するかのような状況を提供するために、後期残響音を生成することを更に含む、請求項12から14のいずれか一項に記載の方法。
- 前記第1のデバイスと前記第2のデバイスとが共有環境内にあると判定したことに応じて、前記第2の人の前記仮想表現の表示を取りやめることを更に含む、請求項1から15のいずれか一項に記載の方法。
- 前記共有環境のパススルーを提示することを更に含む、請求項16に記載の方法。
- 前記パススルーを提示することが、前記共有環境の光学パススルーを提示することを含む、請求項17に記載の方法。
- 前記パススルーを提示することが、前記共有環境のビデオパススルーを表示することを含む、請求項17に記載の方法。
- 前記パススルーを提示することが、ウィンドウを表示することと、前記パススルーを前記ウィンドウ内に表示することと、を含む、請求項17から19のいずれか一項に記載の方法。
- 前記共有環境が、物理的共有設定を含む、請求項1から20のいずれか一項に記載の方法。
- 前記共有環境が、共有の強化現実(ER)設定を含む、請求項1から20のいずれか一項に記載の方法。
- 前記第1のデバイスと前記第2のデバイスとが前記共有環境内にあるかどうかを判定することは、前記第2のデバイスに関連付けられた識別子が、短距離通信を介して検出可能かどうかを判定することを含む、請求項1から22のいずれか一項に記載の方法。
- 前記第1のデバイスと前記第2のデバイスとが前記共有環境内にあるかどうかを判定することは、前記第1のデバイスのマイクロフォンを介して受信した音声が、前記第2のデバイスに関連付けられた前記通信データ内に符号化された音声の類似性閾値内にあるかどうかを判定することを含む、請求項1から23のいずれか一項に記載の方法。
- 前記第1のデバイスと前記第2のデバイスとが前記共有環境内にあるかどうかを判定することは、前記第2の人が前記共有環境内にいるかどうかを、前記第1のデバイスの画像センサを介してキャプチャされた画像に基づいて判定することを含む、請求項1から24のいずれか一項に記載の方法。
- 1つ以上のプロセッサと、
ディスプレイと、
非一時的メモリと、
前記非一時的メモリに記憶された1つ以上のプログラムと、を備えるデバイスであって、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されたときに、前記デバイスに請求項1から25のいずれか一項に記載の方法を実行させる、デバイス。 - 1つ以上のプログラムを記憶する非一時的メモリであって、前記1つ以上のプログラムが、ディスプレイを有するデバイスの1つ以上のプロセッサによって実行されたときに、前記デバイスに請求項1から25のいずれか一項に記載の方法を実行させる、非一時的メモリ。
- デバイスであって、
1つ以上のプロセッサと、
ディスプレイと、
非一時的メモリと、
前記デバイスに請求項1から25のいずれか一項に記載の方法を実行させる手段と、を備える、デバイス。 - 出力デバイスと、非一時的メモリと、前記出力デバイス及び前記非一時的メモリと結合された1つ以上のプロセッサと、を含む第1のデバイスにおいて、
前記第1のデバイスが第2のデバイスとの通信セッションにある間に、
前記第2のデバイスと関連付けられた通信データを取得することと、
前記第1のデバイス及び前記第2のデバイスが物理的共有設定にあると判定することと、
前記出力デバイスが前記通信データの一部分を出力することを防止するために、前記通信データの前記一部分をマスクすることと、
を含む、方法。 - 前記出力デバイスが、スピーカを含み、前記通信データの前記一部分をマスクすることは、前記スピーカが前記通信データの音声部分を再生することを防止するために、前記通信データの前記音声部分をマスクすることを含む、請求項29に記載の方法。
- 前記出力デバイスが、ディスプレイを含み、前記通信データの前記一部分をマスクすることは、前記ディスプレイが前記通信データのビデオ部分を表示することを防止するために、前記通信データの前記ビデオ部分をマスクすることを含む、請求項29又は30に記載の方法。
- 前記通信データは、前記第2のデバイスに関連付けられた人の仮想表現を符号化し、前記通信データの前記一部分をマスクすることは、前記人の前記仮想表現の表示を取りやめることを含む、請求項29から31のいずれか一項に記載の方法。
- 前記物理的共有設定のパススルーを提示することを更に含む、請求項29から32のいずれか一項に記載の方法。
- 前記パススルーを提示することが、前記物理的共有設定の光学パススルーを提示することを含む、請求項33に記載の方法。
- 前記パススルーを提示することが、前記物理的共有設定のビデオパススルーを表示することを含む、請求項33に記載の方法。
- 前記第1のデバイスと前記第2のデバイスとが前記物理的共有設定にあると判定することは、前記第2のデバイスに関連付けられた識別子を、短距離通信を介して検出することを含む、請求項29から35のいずれか一項に記載の方法。
- 前記第1のデバイスと前記第2のデバイスとが前記物理的共有設定にあると判定することは、前記通信データ内に符号化された第2の音声の類似性閾値内にある第1の音声を、前記第1のデバイスのマイクロフォンを介して検出することを含む、請求項29から36のいずれか一項に記載の方法。
- 前記第1のデバイス及び前記第2のデバイスが前記物理的共有設定にあると判定することは、前記第2のデバイスに関連付けられた人を、前記第1のデバイスの画像センサを介して検出することを含む、請求項29から37のいずれか一項に記載の方法。
- 前記物理的共有設定から離れる前記第2のデバイスの動きを検出することと、
前記出力デバイスが前記通信データの前記一部分を出力することを可能とするために、前記通信データの前記一部分をマスクすることを取りやめることと、を更に含む、請求項29から38のいずれか一項に記載の方法。 - 前記物理的共有設定から離れる前記第2のデバイスの前記動きを検出することは、前記第2のデバイスに関連付けられた識別子が、短距離通信を介して検出できないと判定することを含む、請求項39に記載の方法。
- 前記物理的共有設定から離れる前記第2のデバイスの前記動きを検出することは、前記第1のデバイスのマイクロフォンを介して検出された第1の音声が、前記通信データ内に符号化された第2の音声の類似性閾値内にないと判定することを含む、請求項39又は40に記載の方法。
- 前記物理的共有設定から離れる前記第2のデバイスの前記動きを検出することは、前記第1のデバイスの環境センサによってキャプチャされた環境データが、前記第2のデバイスに関連付けられた人が前記物理的共有設定から立ち去ったことを示すと判定することを含む、請求項39から41のいずれか一項に記載の方法。
- 前記出力デバイスが、スピーカを含み、前記通信データの前記一部分をマスクすることを取りやめることは、前記通信データの音声部分を、前記スピーカを介して出力することを含む、請求項39から42のいずれか一項に記載の方法。
- 前記音声部分を出力することは、前記第2のデバイスに関連付けられた人の仮想表現から前記音声部分が発せられているかのような状況を提供するために、前記音声部分を空間化することを含む、請求項43に記載の方法。
- 前記出力デバイスが、ディスプレイを含み、前記通信データの前記一部分をマスクすることを取りやめることは、前記通信データのビデオ部分を前記ディスプレイ上に表示することを含む、請求項39から44のいずれか一項に記載の方法。
- 前記通信データは、前記第2のデバイスに関連付けられた人の仮想表現を符号化し、前記通信データの前記一部分をマスクすることを取りやめることは、前記人の前記仮想表現を表示することを含む、請求項39から45のいずれか一項に記載の方法。
- 1つ以上のプロセッサと、
ディスプレイと、
非一時的メモリと、
前記非一時的メモリに記憶された1つ以上のプログラムと、
を備える、デバイスであって、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されたときに、前記デバイスに請求項29から46のいずれか一項に記載の方法を実行させる、デバイス。 - 1つ以上のプログラムを記憶する非一時的メモリであって、前記1つ以上のプログラムが、ディスプレイを有するデバイスの1つ以上のプロセッサによって実行されたときに、前記デバイスに請求項29から46のいずれか一項に記載の方法を実行させる、非一時的メモリ。
- デバイスであって、
1つ以上のプロセッサと、
ディスプレイと、
非一時的メモリと、
前記デバイスに請求項29から46のいずれか一項に記載の方法を実行させる手段と、を備える、デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962855155P | 2019-05-31 | 2019-05-31 | |
US62/855,155 | 2019-05-31 | ||
PCT/US2020/034771 WO2020243212A1 (en) | 2019-05-31 | 2020-05-28 | Presenting communication data based on environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022532864A true JP2022532864A (ja) | 2022-07-20 |
JP7397883B2 JP7397883B2 (ja) | 2023-12-13 |
Family
ID=71078664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021564638A Active JP7397883B2 (ja) | 2019-05-31 | 2020-05-28 | 環境に基づく通信データの提示 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230334794A1 (ja) |
EP (1) | EP3977242A1 (ja) |
JP (1) | JP7397883B2 (ja) |
KR (1) | KR20220002444A (ja) |
CN (1) | CN113767358A (ja) |
WO (1) | WO2020243212A1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141456A1 (en) * | 2011-12-05 | 2013-06-06 | Rawllin International Inc. | Automatic modification of image content for display on a different device |
US20170243403A1 (en) * | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US20170326457A1 (en) * | 2016-05-16 | 2017-11-16 | Google Inc. | Co-presence handling in virtual reality |
WO2018155052A1 (ja) * | 2017-02-24 | 2018-08-30 | ソニーモバイルコミュニケーションズ株式会社 | 情報処理装置、情報処理方法および情報処理システム |
US20180341618A1 (en) * | 2015-12-08 | 2018-11-29 | Alibaba Group Holding Limited | Method and apparatus for scene perception and service provision |
US20190088016A1 (en) * | 2017-09-15 | 2019-03-21 | Trimble Inc. | Collaboration methods to improve use of 3d models in mixed reality environments |
US20190150875A1 (en) * | 2017-11-17 | 2019-05-23 | Siemens Healthcare Gmbh | Method and operating system for controlling a medical technology facility with a movable component |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9686466B1 (en) * | 2013-06-27 | 2017-06-20 | Google Inc. | Systems and methods for environment content sharing |
US9584915B2 (en) * | 2015-01-19 | 2017-02-28 | Microsoft Technology Licensing, Llc | Spatial audio with remote speakers |
WO2019067780A1 (en) * | 2017-09-28 | 2019-04-04 | Dakiana Research Llc | METHOD AND DEVICE FOR REPAIRING INTERACTIONS WITH THE PHYSICAL ENVIRONMENT DURING SIMULATED REALITY SESSIONS |
-
2020
- 2020-05-28 KR KR1020217038239A patent/KR20220002444A/ko not_active Application Discontinuation
- 2020-05-28 JP JP2021564638A patent/JP7397883B2/ja active Active
- 2020-05-28 CN CN202080029986.9A patent/CN113767358A/zh active Pending
- 2020-05-28 EP EP20732088.8A patent/EP3977242A1/en active Pending
- 2020-05-28 WO PCT/US2020/034771 patent/WO2020243212A1/en unknown
-
2023
- 2023-02-21 US US18/112,461 patent/US20230334794A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141456A1 (en) * | 2011-12-05 | 2013-06-06 | Rawllin International Inc. | Automatic modification of image content for display on a different device |
US20170243403A1 (en) * | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US20180341618A1 (en) * | 2015-12-08 | 2018-11-29 | Alibaba Group Holding Limited | Method and apparatus for scene perception and service provision |
US20170326457A1 (en) * | 2016-05-16 | 2017-11-16 | Google Inc. | Co-presence handling in virtual reality |
WO2018155052A1 (ja) * | 2017-02-24 | 2018-08-30 | ソニーモバイルコミュニケーションズ株式会社 | 情報処理装置、情報処理方法および情報処理システム |
US20190088016A1 (en) * | 2017-09-15 | 2019-03-21 | Trimble Inc. | Collaboration methods to improve use of 3d models in mixed reality environments |
US20190150875A1 (en) * | 2017-11-17 | 2019-05-23 | Siemens Healthcare Gmbh | Method and operating system for controlling a medical technology facility with a movable component |
Also Published As
Publication number | Publication date |
---|---|
EP3977242A1 (en) | 2022-04-06 |
CN113767358A (zh) | 2021-12-07 |
WO2020243212A1 (en) | 2020-12-03 |
US20230334794A1 (en) | 2023-10-19 |
KR20220002444A (ko) | 2022-01-06 |
JP7397883B2 (ja) | 2023-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11804019B2 (en) | Media compositor for computer-generated reality | |
US9479736B1 (en) | Rendered audiovisual communication | |
CN111052770B (zh) | 空间音频下混频的方法及*** | |
US20210279898A1 (en) | Object detection using multiple three dimensional scans | |
US20240007790A1 (en) | Method and device for sound processing for a synthesized reality setting | |
US20230344973A1 (en) | Variable audio for audio-visual content | |
US20230290047A1 (en) | Interactions during a video experience | |
US11947733B2 (en) | Muting mode for a virtual object representing one or more physical elements | |
JP7397883B2 (ja) | 環境に基づく通信データの提示 | |
EP3623908A1 (en) | A system for controlling audio-capable connected devices in mixed reality environments | |
US20230262406A1 (en) | Visual content presentation with viewer position-based audio | |
US11924317B1 (en) | Method and system for time-aligned media playback | |
US11989404B1 (en) | Time-based visualization of content anchored in time | |
US11308716B1 (en) | Tailoring a computer-generated reality experience based on a recognized object | |
US11955028B1 (en) | Presenting transformed environmental information | |
US20240220031A1 (en) | Muting mode for a virtual object representing one or more physical elements | |
US20240005511A1 (en) | Immediate Proximity Detection and Breakthrough with Visual Treatment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7397883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |