JP2023551665A - 仮想位置を指示する実世界ビーコン - Google Patents
仮想位置を指示する実世界ビーコン Download PDFInfo
- Publication number
- JP2023551665A JP2023551665A JP2023531042A JP2023531042A JP2023551665A JP 2023551665 A JP2023551665 A JP 2023551665A JP 2023531042 A JP2023531042 A JP 2023531042A JP 2023531042 A JP2023531042 A JP 2023531042A JP 2023551665 A JP2023551665 A JP 2023551665A
- Authority
- JP
- Japan
- Prior art keywords
- prop
- director
- beacon
- location
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000011435 rock Substances 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001112258 Moca Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4227—Providing Remote input by a user located remotely from the client device, e.g. at work
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】遠く離れた複数の役者のアクティビティを互いに連携して調整することによって統合されたオーディオビデオ(AV)製品が生成されることができるように、互いに離れているそれぞれの位置内の複数の役者を使用してAV制作の調整を容易にするための技法が説明されている。【解決手段】演出家(200)は、仮想世界内のステージプロップ(206)の所望の位置を指示することができ、その後、プロップの配置を支援するために、所望の位置に対応する実世界の位置に向けてビーコン(302)を送信することができる。【選択図】図1
Description
本出願は、一般に、コンピュータ技術に必然的に根差し、具体的な技術的改善をもたらす、技術的に独創的で非定型的な解決策に関する。特に、本出願は、複数の位置での協調遠隔アクション指導を可能にするための技法に関する。
健康及びコストに関する心遣いから、人々は遠隔位置から共同作業を行うことが増えている。本明細書で理解されるように、遠隔の役者を使用する共同作業による映画及びコンピュータシミュレーション(例えば、コンピュータゲーム)の生成は、独特の調整問題を引き起こす可能性がある。これは、演出家が、映画を制作する際に、またモーションキャプチャ(MoCap)などのコンピュータシミュレーション関連のアクティビティのために、自分自身のスタジオまたは防音スタジオにいる可能性がある複数の役者をそれぞれ演出する必要があるためである。例えば、アクションが調整される方法では、個々のステージまたはスタジオで遠隔の役者に物理的な参照を提供する際に課題が存在する。本原理は、これらの調整の課題のいくつかに対処するための技法を提供する。
このように、本原理は、仮想現実(VR)空間内でビデオプロップが位置していることが望ましい位置を識別し、実世界(RW)空間内で少なくとも1つのビーコンを、ビデオプロップが位置しているVR空間内の位置に対応するRW位置に向けて送信するための命令でプログラムされた少なくとも1つのプロセッサを含む装置を提供する。
いくつかの例示的な実装では、ビーコンはレーザビームなどの可視ビーコンを含むことができる。追加または代替として、ビーコンは可聴音及び/またはハンドセット上の画面表示を含むことができる。
さらに、必要に応じて、RW内のプロップの位置を経時的に識別するための命令を実行可能にすることもできる。
また、いくつかの例示的な実施形態では、RW内のプロップの位置に少なくとも部分的に基づいてビーコンを送信するための命令を実行可能にし得る。
別の態様では、デバイスは、一時的信号ではない少なくとも1つのコンピュータストレージを含む。コンピュータストレージは、少なくとも1つのプロセッサによって実行可能な、仮想現実(VR)空間内で仮想位置のインジケーションを受信するための命令、及び仮想位置を指示するビーコンを実世界(RW)内に送信するための命令を含む。
さらに別の態様では、コンピュータ実装方法は、オブジェクトが位置していることが望ましい仮想空間内の位置を指示することと、実世界(RW)内で仮想位置に対応するRW位置に向けてビーコンを提示することとを含む。
本願の詳細は、その構造と動作との両方について、添付の図面を参照すると最もよく理解でき、図面において、類似の参照符号は、類似の部分を指す。
ここで図1を参照すると、本開示は、概して、家電製品(CE)のデバイスを含み得るコンピュータネットワークの態様を有するコンピュータエコシステムに関する。本明細書のシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータが交換され得るようにネットワークを介して接続されたサーバコンポーネント及びクライアントコンポーネントを含み得る。クライアントコンポーネントは、ポータブルテレビ(例えば、スマートTV、インターネット対応TV)、ラップトップコンピュータ及びタブレットコンピュータなどのポータブルコンピュータ、ならびにスマートフォン及び以下で検討する追加の例を含む他のモバイルデバイスを含む、1つまたは複数のコンピューティングデバイスを含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータの一部は、例として、Microsoft(登録商標)のオペレーティングシステム、またはUnix(登録商標)オペレーティングシステム、またはApple Computer(登録商標)もしくはGoogle(登録商標)によって製造されたオペレーティングシステムを使用し得る。これらの動作環境は、Microsoft(登録商標)もしくはGoogle(登録商標)もしくはMozilla(登録商標)によって作成されたブラウザ、または以下で議論されるインターネットサーバによってホストされるウェブサイトにアクセスできる他のブラウザプログラムなど、1つ以上の閲覧プログラムを実行するために使用され得る。
サーバ及び/またはゲートウェイは、インターネットなどのネットワークを通じてデータを受信及び送信するようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得る。あるいは、クライアント及びサーバは、ローカルイントラネットまたは仮想プライベートネットワークを通じて接続することができる。サーバまたはコントローラは、Sony PlayStation(登録商標)などのゲームコンソール、パーソナルコンピュータなどによってインスタンス化され得る。
クライアントとサーバとの間でネットワークを通じて情報を交換し得る。この目的及びセキュリティのために、サーバ及び/またはクライアントは、ファイアウォール、ロードバランサ、テンポラリストレージ、及びプロキシ、ならびに信頼性及びセキュリティのための他のネットワークインフラストラクチャを含み得る。
本明細書で使用するとき、命令は、システム内の情報を処理するためのコンピュータ実施ステップを指す。命令は、ソフトウェア、ファームウェアまたはハードウェアに実装されることができ、システムのコンポーネントによって行われるあらゆるタイプのプログラムされたステップを含むことができる。
プロセッサは、アドレスライン、データライン、及び制御ラインなどの様々なライン、ならびにレジスタ及びシフトレジスタによってロジックを実行できる汎用シングルチッププロセッサまたは汎用マルチチッププロセッサであり得る。
本明細書でフローチャート及びユーザインタフェースによって記述されるソフトウェアモジュールは、様々なサブルーチン、手順等を含み得る。本開示を限定することなく、特定のモジュールによって実行されるように規定されたロジックは、他のソフトウェアモジュールに再分配すること、及び/または単一のモジュールにまとめて集約すること、及び/または共有可能ライブラリで利用できるようにすることが可能である。フローチャート形式が使用されてもよいが、ソフトウェアがステートマシンまたは他の論理方法として実装されてもよいことを理解されたい。
本明細書に記載された本原理は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせとして実装することができる。したがって、実例となるコンポーネント、ブロック、モジュール、回路、及びステップは、それらの機能性の観点から説明されている。
さらに、上で示唆されたものについて、以下で説明される論理ブロック、モジュール、及び回路は、本明細書で説明される機能を実行するよう設計された、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、もしくは特定用途向け集積回路(ASIC)、個別ゲートもしくはトランジスタ論理、個別ハードウェアコンポーネント、またはそれらのいずれかの組み合わせ等の他のプログラマブル論理デバイスにより実装または実行され得る。プロセッサは、コントローラもしくはステートマシン、またはコンピューティングデバイスの組み合わせによって実装され得る。
以下に記載されている機能及び方法は、ソフトウェアで実装される場合、限定されるものではないが、C#、またはC++等の適切な言語で記述することができ、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、コンパクトディスクリードオンリメモリ(CD-ROM)またはデジタル多用途ディスク(DVD)等の他の光ディスクストレージ、磁気ディスクストレージまたはリムーバブルサムドライブ等を含む他の磁気記憶デバイス等のコンピュータ可読記憶媒体に格納し、またはそのコンピュータ可読記憶媒体を介して伝送することができる。接続によりコンピュータ可読媒体が確立され得る。このような接続には、例として、光ファイバ及び同軸ワイヤを含むハードワイヤケーブル、並びにデジタル加入者線(DSL)及びツイストペア線が含まれ得る。
一実施形態に含まれるコンポーネントは、他の実施形態では、任意の適切な組み合わせで使用することができる。例えば、本明細書に記載される、及び/または図で示される様々なコンポーネントのいずれも、組み合わされ、交換され、または他の実施形態から除外されてもよい。
「A、B及びCのうちの少なくとも1つを有するシステム」(同様に「A、BまたはCのうちの少なくとも1つを有するシステム」及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、A単独、B単独、C単独、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、ならびに/またはA、B及びCを一緒に有するシステムなどを含む。
ここで、具体的に図1を参照すると、本原理による、上述され、以下でさらに説明される例示的なデバイスのうちの1つ以上を含み得る例示的なシステム10が示されている。本明細書の図に記載されているコンピュータ化デバイスが図1の様々なデバイスについて説明されているコンポーネントの一部またはすべてを含むことができることに留意されたい。
システム10に含まれる例示的なデバイスのうちの第一デバイスは、家電製品(CE)のデバイスであり、このCEのデバイスは、例示的な一次表示装置として構成され、示される実施形態では、限定されることなく、TVチューナ(同等に、TVを制御するセットトップボックス)を備えたインターネット対応TVなどのオーディオビデオ表示装置(AVDD)12である。AVDD12は、Android(登録商標)ベースのシステムであってもよい。あるいは、AVDD12はまた、コンピュータ制御型インターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、拡張現実(AR)ヘッドセット、仮想現実(VR)ヘッドセット、インターネット対応グラスまたはスマートグラス、例えば、コンピュータ制御型インターネット対応時計、コンピュータ制御型インターネット対応ブレスレット、他のコンピュータ制御型インターネット対応デバイス等の別の種類のウェアラブルコンピュータ制御デバイス、コンピュータ制御型インターネット対応ミュージックプレーヤ、コンピュータ制御型インターネット対応ヘッドフォン、インプラント可能な皮膚用デバイス等のコンピュータ制御型インターネット対応のインプラント可能なデバイス等であってよい。いずれにしても、AVDD12及び/または本明細書に記載の他のコンピュータは、本原理を実施する(例えば、本原理を実施するように5G無線規格を使用して他のCEデバイスと通信し、本明細書に説明されるロジックを実行し、本明細書に説明されるいずれかの他の機能及び/または動作を行う)ように構成されることを理解されたい。
したがって、このような原理を実施するために、AVDD12は、図1に示されているコンポーネントの一部または全てによって確立することができる。例えば、AVDD12は、1つ以上のディスプレイ14を備えることができ、このディスプレイは、高解像度もしくは超高解像度「4K」またはそれ以上の解像度のフラットスクリーンによって実装されてもよく、ディスプレイのタッチを介したユーザ入力信号を受信するためにタッチ対応であっても、なくてもよい。またAVDD12は、本原理に従ってオーディオを出力するための1つ以上のスピーカ16と、例えば、可聴コマンドをAVDD12に入力して、AVDD12を制御するための、例えば、オーディオ受信機/マイクロフォン等の少なくとも1つの追加の入力デバイス18とを備え得る。さらに例示的なAVDD12は、1つ以上のプロセッサ24の制御の下、インターネット、無線5Gネットワーク、他のワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、パーソナルエリアネットワーク(PAN)などの少なくとも1つのネットワーク22を通じて通信するための1つ以上のネットワークインタフェース20を含み得る。したがって、インタフェース20は、限定されることなく、Wi-Fi(登録商標)送受信機であり得て、このWi-Fi(登録商標)送受信機は、限定されることなく、メッシュネットワーク送受信機などの無線コンピュータネットワークインタフェースの実施例である。インタフェース20は、Bluetooth(登録商標)トランシーバ、Zigbee(登録商標)トランシーバ、IrDAトランシーバ、無線USBトランシーバ、有線USB、有線LAN、Powerline、またはMoCAであってもよいが、これらに限定されない。プロセッサ24は、例えば、ディスプレイ14を、画像を提示するように制御することや、そこから入力を受信すること等の本明細書に説明されるAVDD12の他の要素を含む、本原理を実施するようにAVDD12を制御することが理解されよう。さらに、ネットワークインタフェース20は、例えば、有線もしくは無線のモデムもしくはルータ、または、例えば、無線テレフォニ送受信機もしくは上述したWi-Fi(登録商標)送受信機等の他の適切なインタフェースであってよいことに留意されたい。
上記に加えて、AVDD12はまた、例えば、別のCEデバイスに(例えば、有線接続を使用して)物理的に接続するための高精細マルチメディアインタフェース(HDMI(登録商標))ポートもしくはUSBポート、及び/またはヘッドフォンを通してAVDD12からユーザにオーディオを提供するためにAVDD12にヘッドフォンを接続するためのヘッドフォンポート等の1つ以上の入力ポート26を含み得る。例えば、入力ポート26は、オーディオビデオコンテンツのケーブルまたは衛星ソース26aに有線でまたは無線で接続されてもよい。したがって、ソース26aは、例えば、分離もしくは統合されたセットトップボックス、またはサテライト受信機であり得る。あるいは、ソース26aは、ゲームコンソールまたはディスクプレーヤであってもよい。
AVDD12は、さらに、一時的信号ではない、ディスクベースストレージまたはソリッドステートストレージなどの1つ以上のコンピュータメモリ28を含んでもよく、これらのストレージは、場合によっては、スタンドアロンデバイスとしてAVDDのシャーシ内で、またはAVプログラムを再生するためにAVDDのシャーシの内部もしくは外部のいずれかでパーソナルビデオ録画デバイス(PVR)もしくはビデオディスクプレイヤとして、または取り外し可能メモリ媒体として具現化されてもよい。また、いくつかの実施形態では、AVDD12は、限定されるものではないが、例えば、少なくとも1つの衛星または携帯電話塔から地理的位置情報を受信し、その情報をプロセッサ24に提供するように構成され、及び/またはAVDD12がプロセッサ24と併せて配置される高度を判定するように構成される携帯電話受信機、GPS受信機、及び/または高度計30等の位置または場所の受信機を含み得る。しかしながら、携帯電話受信機、GPS受信機、及び/または高度計以外の別の適切な位置受信機が、本原理に従って、例えば、3つの次元全てにおいてAVDD12の位置を決定するために使用されてよいことは理解されたい。
AVDD12の説明を続けると、ある実施形態では、AVDD12は、1つまたは複数のカメラ32を備えてよく、1つまたは複数のカメラ32は、例えば、サーマルイメージングカメラ、ウェブカメラなどのデジタルカメラ、及び/またはAVDD12に統合され、本原理に従って写真/画像及び/またはビデオを収集するようプロセッサ24によって制御可能なカメラであってよい。また、AVDD12に含まれるのは、Bluetooth(登録商標)及び/または近距離無線通信(NFC)技術を各々使用して、他のデバイスと通信するためのBluetooth(登録商標)送受信機34及び他のNFC素子36であってよい。例示的なNFC素子は、無線周波数識別(RFID)素子であってもよい。
さらにまた、AVDD12は、プロセッサ24に入力をもたらす1つ以上の補助センサ38(例えば、加速度計、ジャイロスコープ、サイクロメータなどの運動センサ、または磁気センサ、リモコンから赤外線(IR)コマンドを受信するためのIRセンサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ)など)を含み得る。AVDD12は、プロセッサ24への入力をもたらすOTA(無線)TV放送を受信するための無線TV放送ポート40を含み得る。上記に加えて、AVDD12はまた、赤外線データアソシエーション(IRDA)デバイスなどの赤外線(IR)送信機及び/またはIR受信機及び/またはIR送受信機42を含み得ることに留意されたい。AVDD12に給電するためのバッテリ(図示せず)が備えられてよい。
さらに、いくつかの実施形態では、AVDD12は、グラフィックスプロセッシングユニット(GPU)44及び/またはフィールドプログラマブルゲートアレイ(FPGA)46を含み得る。GPU及び/またはFPGAは、例えば、ニューラルネットワークを訓練し、本原理によるニューラルネットワークの操作(例えば、推論)を実行するなどの人工知能処理のために、AVDD12によって利用され得る。ただし、プロセッサ24が中央処理装置(CPU)であり得る場合など、プロセッサ24が人工知能処理にも使用されることができることに留意されたい。
さらに図1を参照すると、AVDD12に加えて、システム10は、AVDD12に示されるコンポーネントの一部またはすべてを含み得る1つ以上の他のコンピュータデバイスのタイプを含み得る。一例では、第一デバイス48及び第二デバイス50が示されており、これらはAVDD12のコンポーネントの一部またはすべてと同様のコンポーネントを含み得る。示されるよりも少ないまたは多いデバイスが使用されてもよい。
またシステム10は、1つ以上のサーバ52を含み得る。サーバ52は、少なくとも1つのサーバプロセッサ54と、ディスクベースストレージまたはソリッドステートストレージなどの少なくとも1つのコンピュータメモリ56と、サーバプロセッサ54の制御下で、ネットワーク22を通じて図1の他のデバイスとの通信を可能にし、実際に、本原理に従ってサーバ、コントローラ、及びクライアントデバイスの間の通信を容易にし得る少なくとも1つのネットワークインタフェース58とを含み得る。ネットワークインタフェース58は、例えば、有線もしくは無線モデムもしくはルータ、Wi-Fi(登録商標)送受信機、または、例えば、無線テレフォニ送受信機などの他の適切なインタフェースであってよいことに留意されたい。
したがって、いくつかの実施形態では、サーバ52は、インターネットサーバであってよく、「クラウド」機能を含んでもよく、「クラウド」機能を実行してもよく、システム10のデバイスが、例示的な実施形態においてサーバ52を介して「クラウド」環境にアクセスし得るようにする。あるいは、サーバ52は、図1に示されている他のデバイスと同じ部屋にある、またはその近くにある、ゲームコンソールまたは他のコンピュータによって実装されてもよい。
下記のデバイスは、上記の要素の一部またはすべてを組み込むことができる。
ここで図2を参照すると、演出家200が、仮想現実(VR)ディスプレイ202を指差し、数人の役者が遠隔に位置している可能性がある1つの映画セット内のアクティビティ及び/または複数の映画セットにわたるアクティビティを制御することを示している。VRディスプレイ202は、壁に取り付けられたテレビ、コンピュータモニタ、または演出家200が装着しているVRヘッドセットのヘッドアップディスプレイでさえあり得る。
本原理と一貫性のある、演出家200の手及び腕204の画像は、視野内に演出家200を示す1つまたは複数のカメラによって収集されることができ、これら1つまたは複数のカメラは、VRヘッドセット自体の1つまたは複数の外向きのカメラを、演出家200が装着している場合に含む可能性がある。次に、カメラ(複数可)からの画像を使用してコンピュータビジョン及び/またはジェスチャ認識を実行し、示されているように演出家の右手の人差し指で指差すことによってジェスチャを実行している演出家200を追跡して識別することができる。
図2に示されるように、第一時間T1に、演出家200は、VRディスプレイ202上に提示されるVR空間内に表される実世界(RW)のビデオでプロップ206を人差し指で指差し、演出家200がプロップ206に向けた入力を提供していることをVRシステムに指示する。次に演出家200は、示されているように、後の時間T2まで人差し指で指差しながら自分の右腕を左から右に(または必要に応じて別の方向に)徐々に動かし得、演出家の腕を、プロップ206のVR空間内の所望の仮想位置の方を指差すときに動かすことを止める。仮想位置は、セット上のRW位置に対応し得、ここでは、同様にセット上の1人以上の役者とのインタラクションのためにプロップ206がRW内に配置され、プロップ206に対するRW役者のアクションを仮想空間キャラクタのアクションに変換する。いくつかの例では、演出家200がプロップの所望の仮想位置を指差す場合、演出家200からの口頭による合図、例えば「このプロップをここに移動させてください」なども、プロップの移動に使用され得る。
他の図の説明に移る前に、RW、有形のプロップ206がテーブル、椅子などの実世界の無生物のステージオブジェクトを含むいくつかのものである可能性があることに留意されたい。プロップ206は、偽の銃または偽の剣などの「ダミー」の武器であってもよい。またプロップ206は、人物の切り抜き、地理的特徴を表す彫刻、またはVR空間内の仮想オブジェクト(例えば、ビデオゲームオブジェクト)などの形状及び場合によってはサイズが対応する任意の要素であってもよい。
図3は、本原理と一貫性のある演出家コマンドに従って映画セットを照明するために使用されるビーコンデバイス300を示す。ビーコンデバイス300は、レーザビーム302などの可視ビーコンを伝送するまたは提示するためのハードウェアを含み得る。レーザビーム302は、例えば、レーザビーム302が向けられる表面上の点または位置304と交差することができる。
レーザビーム302は、演出家がプロップ306をVR空間内に示すことを望んでいるVR位置に対応するようにRWプロップが配置されるRW内のRW位置に向けてレーザ光を伝送するために、演出家コマンドに基づいて、そしてデバイス300内のモータまたは他の要素を使用して方向付けられることができる。また図3に示されるように、プロップ306は、GPSトランシーバなどの位置センサ308、または経時的な位置追跡のための他の適切な位置センサを含むことができる。またセンサ308は、例えば、Wi-Fi(登録商標)または他の無線信号トランシーバを含み得、これを使用して、トランシーバと通信する他のデバイスの既知の位置に基づいてすべての3次元で経時的にプロップ306の位置を三角測量して追跡することができる。
またビーパ310は、プロップ306上に含まれてもよく、またはプロップ306に取り付けられてもよく、例えば、可聴「ビープ音」、他の可聴音、または所望のプロップ配置を指示する可聴のコンピュータ化された口頭による命令さえ発するように構成されたスピーカであってもよい。別個のハンドセットを使用して、プロップ306に対するその位置を追跡し、例えば、舞台係がハンドセットを別個に運搬し、その上プロップ306を最初に配置するまたは移動させる場合、ビープ音または他の音を発することもできる。それを除いて、ビープ音が提示される頻度及び/または音量は、例えば、プロップ306が経時的に追跡される場合、RWプロップ306が配置される、演出家によって指示されたRW位置に向けて移動するにつれて、徐々に少しずつ増加し得る。反対に、ビープ音が提示される頻度及び/または音量は、プロップ306が経時的に追跡される場合、RWプロップ306が配置される、演出家によって指示されたRW位置から離れて移動するにつれて、徐々に少しずつ減少し得る。次に、プロップ306が所望のRW位置に最終的に位置している場合、ビープ音と同じピッチの一定のノイズがビーパ310によって生成されてもよく、及び/または異なるピッチのトーンが生成されて、プロップ306が所望のRW位置として置かれていることを指示してもよい。
追加または代替として、いくつかの実施形態では、ビーパ310は、3次元(3D)の矢印または他の視覚的ガイダンスの形態などの視覚的方向ガイダンスが提示され得るビデオ表示をさらに含み得る。ただし、ビーパ310で可聴または視覚によるガイダンスが提示されるかどうかにかかわらず、プロップ306がVR空間内でRW位置に相関された所望のVR位置にも提示されるため、ガイダンスが最初にプロップ306をRW位置に向けて配置するまたは移動させるように舞台係または他の人をガイドし得ることを理解されたい。
ビーパ310によって生成されるガイダンスを使用することに加えて、またはその代わりに、位置304を確立する表面と交差するものとしてレーザビーム302を舞台係が視覚的に識別することに基づいて、舞台係がプロップ306を位置304に向けて移動させることもできることにさらに留意されたい。
ここで図4を説明すると、図4は、本原理と一貫性のある、1つまたは複数のデバイスによって単独で、または組み合わせて実行され得る、例示的なフローチャート形式で例示的なロジックを示す。例えば、図4のロジックは、記録されたRW空間のアクションをVR空間のキャラクタのアクションと調整して、VR空間内にアクションを反映するサーバまたは他のデバイスによって実行され得る。図4のロジックは、本原理を行うために演出家のVRヘッドセット、ディスプレイ202、ビーコン300、及び/またはビーパ310と通信する別のデバイスによって実行されることもできる。
いずれにせよ、ロジックはブロック400で始まり、デバイスは、プロップ上のGPSトランシーバまたは他の位置トランシーバなどから、プロップの現在の位置を指示するRWプロップ位置信号を受信することができる。次にロジックはブロック402に進み得、デバイスは、例えば、RW内の1つ以上のカメラによってキャプチャされたRW空間座標をVR空間座標に相関させる、デバイスまたは他の箇所で実行しているVRシミュレーションエンジンによって促進されるように、VR空間内のプロップの位置を受信することができる。
ブロック402の後、ロジックはブロック404に進むことができる。ブロック404では、デバイスは、演出家がVR空間内のプロップの表現を仮想で移動させるような、及び/またはプロップのVR表現がVR空間内に位置している必要がある位置を、ジェスチャまたは口頭による合図で指定することによるような、VR空間内のプロップの演出家による移動を受信することができる。その後、ロジックはブロック406に進むことができる。
ブロック406では、デバイスは、静止している間、及び/またはRW空間全体を移動している間、プロップのRW位置を追跡することができる。ブロック406の後、ロジックはブロック408に進むことができる。ブロック408では、デバイスは、演出家によって指示されたVR位置に対応するRW空間内のどこにプロップが位置している必要があるかに関する聴覚信号及び視覚信号の一方または両方を発生してもよく、及び/または送信してもよい。例えば、ブロック408では、デバイスは、上述のようにレーザを発するようにデバイス300を制御してもよく、及び/または上述のように可聴支援及び視覚支援を提示するようにビーパ310を制御してもよい。
図5を参照して詳細な説明を続けると、図5は、例示的な画面表示の例示的なスクリーンショット500を示す。例えば、画面表示は、専用プロップデバイスハンドセットまたはスマートフォンなどのハンドセットのディスプレイ上に提示されてもよい。またスクリーンショット500は、ビーパ310がビデオ表示を含む実施形態では、上述のビーパ310のビデオ表示上に提示されてもよい。
いずれにせよ、図5に示されるように、プロップ画像502は、カメラからのプロップの実際の画像を使用してか、プロップのコンピュータ生成表現を使用してかいずれかで、画面表示上に提示され得る。また画面表示は、プロップ自体が移動する必要があるRWステージ位置に対応する、画面表示上に表される位置インジケーション504を含み得る。
また図5に示されるように、矢印506または他のグラフィカルインジケータも、画面表示の一部として提示され得、プロップがRW空間全体で移動する場合にリアルタイムで調整され得、プロップがプロップの現在の位置に対して移動する必要がある位置を指示することができる。したがって、矢印506は、画面表示上に3D形式で提示されて、舞台係がプロップを、画像502に相関されたプロップの現在のRW位置からインジケーション504に相関された演出家の所望のプロップ位置のRW位置に移動させるときに、舞台係を導くことができる。
図6~9は、本原理と一貫性のある、1つまたは複数のスタジオまたはステージ内で、演出家が実世界のプロップ(テーブル、椅子などの実世界の無生物のステージオブジェクト)の移動を命令することを可能にすることをさらに示す。この例では、スタジオ内のカメラを使用してプロップを撮像することによって、またはプロップの全地球測位衛星(GPS)受信器などのロケーション受信器からプロップの位置情報などを受信することによって、実世界のプロップが追跡されると仮定する。
図6は、演出家コンピュータ604上の仮想空間内の実世界のプロップの画像600を示す。演出家は、演出家コンピュータ604を操作して、コンピュータ604のディスプレイ上に提示された音声コマンド及び/またはセレクタ要素602を使用して画像600を移動させ得ることで、コマンドを図7に示される舞台係デバイス700に送信し、画像600に対応するプロップが位置している実際の位置に置かれることができる。舞台係デバイス700は、携帯電話もしくはタブレットなどのポータブルコンピュータ、または例えば有機発光ダイオード(OLED)ディスプレイを含み得る他の適切なデバイスであり得る。
コマンドは、プロップの位置情報を含み、そこからプロップの画像702を仮想空間内に配置し、舞台係デバイス700上に提示することができる。演出家コマンドは、704で指示されるように舞台係ディスプレイ上にグラフィカルに及び/またはテキストで及び/または可聴に提示され、706でプロップの所望の新しい位置を指示する。実世界のプロップは、移動すると、本明細書で説明されたように追跡され、仮想空間内のその位置が演出家コンピュータ604及び舞台係デバイス700の両方に提示されるため、プロップが所望の位置706に置かれるまで、演出家及び舞台係の両方は、プロップの仮想空間内の移動を監視することができる。
図8は、上記の議論をさらに反映する。ブロック800では、舞台係デバイス700は、演出家コンピュータ604から演出家コマンドを受信する。ブロック802に移ると、プロップの画像を舞台係ディスプレイ上に可聴及び/または可視で提示する。プロップが移動すると、ブロック804では、その実世界位置を追跡して仮想空間に変換し、ブロック806では、プロップの移動のフィードバックを演出家コンピュータ604に送信し、舞台係デバイス700上で、それぞれのディスプレイ上のプロップの画像600、702の仮想位置を更新することなどによって、更新する。
図9は、演出家が舞台係にフィードバックを与えて、実世界内にプロップを位置決めし、演出家の所望の位置に到達させることを選択することができることを示す。演出家コンピュータ604は、初期位置でのプロップの画像900、移動中の現在の位置でのプロップの画像902、及び所望の位置でのプロップの画像904を提示することができ、入力要素906が提供されると、演出家はコマンドを入力して舞台係に送信し、舞台係が、例えば要素906を確立する様々な矢印に対応する上、下、左、及び右のコマンドを使用して、指示された方向内にプロップを移動させ続けることが可能になる。
ここで図10を説明すると、図10は、本原理と一貫性のある、操作するように構成されたデバイスまたはシステムのディスプレイ上に提示され得る例示的なグラフィカルユーザインタフェース(GUI)1000の設定を示す。例えば、GUI1000は、演出家コンピュータ604、演出家のヘッドセットもしくは接続されたラップトップコンピュータ、遠隔位置にあるサーバ、または本原理と一貫性のあるビーコンの使用を制御する別のデバイスのディスプレイ上に提示され得る。以下で説明される各オプションがそれぞれのオプションに隣接するチェックボックスにタッチまたはカーソル入力を向けることによって選択されることができることに留意されたい。
図10に示されるように、GUI1000は、VRデバイスまたはシステムが本原理を行うように設定するために、またはそれを行うことを可能にするために選択可能であり得る第一オプション1002を含み得る。例えば、オプション1002を選択して、1つまたは複数のデバイス(複数可)を設定し、または構成し、図4及び/または8のロジックを実行し、本明細書で開示されるようにビーコンを提示するまたは伝送するだけでなく、上述の他の機能を行うことができる。また図10は、デバイスまたはシステムが本原理と一貫性のある可聴ビーコンを特異的に使用するように設定する、またはそのように使用することを可能にするために選択可能であり得る第二オプション1004をGUI1000が含み得ることを示す。GUI1000は、本明細書で説明されるようなレーザ及び画面表示など、本原理と一貫性のある視覚的ビーコンをデバイスまたはシステムが特異的に使用するように設定する、またはそのように使用することを可能にするために選択可能であり得る第三オプション1006をさらに含み得る。
したがって、前述の図の説明に基づいて、VR演出及び/または遠隔撮影が容易になり得るため、演出家が仮想シーン内の演出家またはゲームプレイヤの視点から仮想シーン自体を見ることができ、コンテキスト内の役者の空間的感覚を得ることができることが理解され得る。いくつかの例では、演出家がVRヘッドセットを使用してVRシーンを見て、プロップの配置/位置を指定することに加えて、またはその代わりに、演出家はリモコン付きのRWリグを使用して、対応する仮想リグを仮想空間内で「保持」し、VRシーン内の対応する視点を見て、VRリグを至る所に移動させるため、仮想空間内の至る所に演出家のVR一人称視点を移動させることもできる。いくつかの例では、演出家はVRリグを「手に取り」、それを自分の望む位置に置くことさえあり、次いでそれを手放すことで、指定された位置にある間、演出家に表されたVR視点がVRリグ上で現在静止している仮想カメラの視点として示される。
どちらでも、VRシーン内の仮想カメラの視点を見ると、演出家は、プロップ配置の命令を与えるために、ステージで実行されるRWアクションが単一VRシーンにマージされる、様々な遠隔位置にあるステージにいる舞台係及び他のアシスタントと通信することができる。いくつかの例では、入力層、出力層、及びその間の1つまたは複数の隠れ層を備えた人工ニューラルネットワーク(ANN)をエンコードして、演出家のコマンドを聞き、それに基づいて舞台係に方向支援を提示することができる。したがって、音声コマンド、RWプロップの位置、及びプロップの対応するVR位置は、本明細書で開示されるように、可聴ビープ音、レーザ、画面表示などの形態で方向支援を出力するようにANNを訓練するための訓練中に、ANNへの入力として提供され得る。
したがって、本開示は、VRシーンの作成に役立つ様々な役者のアクションを記録するだけでなく、演出家の視点を記録するまたは提示するように、演出家の能力を支援してもよく、VR空間内でRW空間内のRWプロップに対応する仮想オブジェクトとインタラクトするように、演出家の能力を高めることを支援してもよい。次いで、生成されたデータ、命令などは、遠隔位置にあるステージから記録されたRWシーンを単一VRシーンにマージするための後処理に利用可能になってもよい。
この場合、演出家の仮想カメラ(例えば、VRシーン内の演出家の視点)は、演出家のRWカメラを移動させることによって、または別のRWカメラに切り替えることによって変更されることができるため、演出家は、VRシーン内の間、仮想「セット」(例えば、VRシーン自体)を確認し、役者が自分の追跡されたRW移動に基づいてシーン内の至る所を仮想で移動する場合、VRシーン内の役者の位置を確認し、VRシステムによって追跡されたプロップの位置さえ確認することができるため、演出家は、プロップが演出家の所望の仮想位置にあるときがわかる。
これは、演出家がVRシーンに没入している間、演出家がVRシーン内でプロップを配置したい位置を、演出家のRWの腕を使用してクリックするまたは指差すことで実現されることができる。次に、RWの物理的なセットの1つにいる演出家のアシスタントは、それらのセットを、場合によってはRW空間と対応するVR空間との間のXYZ寸法オフセットを補償しながら、VRシーン内の位置に対応する、指差されているRWステージ位置に導き、アシスタントが演出家による所望のプロップ位置のVR座標にマッチングする正しいRW座標に近づくにつれて、アシスタントを支援するための聴覚ガイド及び/または視覚ガイドを有することができる。したがって、RWステージ上で演出家の所望の位置にプロップを位置決めするためのフィードバックをアシスタントに与えることができる。
したがって、プロップの新しい静止位置を確立するいくつかの例では、フィードバックは、RWプロップを演出家が望む位置に配置するためにどこに移動させる必要があるかを指示する表示画面を備えたハンドセットの形態である場合がある。またアシスタントは、オーディオイヤピースまたは別のタイプのスピーカを使用して、プロップをRW空間全体での演出家の所望の位置にナビゲートすることができる。
追加または代替として、ドローンまたは他のデバイスは、いくつかの例では、それ自体をRW内の空中で所望のプロップ位置まで自律航行することができる。次に、アシスタントは、所望のプロップ位置にあるドローン位置にプロップ自体を運び、その位置でドローンをプロップと交換することができる。
したがって、本原理と一貫性のあるビーコンは、プロップについての演出家の所望のVR位置の座標がセットの対応する実空間内のどこに位置しているかをアシスタント(または他の人)に伝えるために様々な形式を取ることができる。したがって、演出家は(例えば、VRヘッドセットを使用して)VRシーンに没入してそれを見て、「この岩がここにある必要があると思う」などと言うことができる。システムは、デジタルアシスタント、自然言語理解、及び/または音声認識技術を使用して、演出家の発言を識別し、そのうえ演出家が岩をクリックする、指差す、またはその他の方法で選択する(例えば、VRコントローラを使用して仮想空間内で選択する)間に発言されたことを識別することができる。これら2つの入力に基づいて、VRシステムは、バイブレータを使用してブザー音を鳴らし始め、演出家が岩を配置する座標を確立したことを示すように、オフセットにある可能性があるハンドセットなどの別のデバイスに命令することができる。アシスタントは、これに気づき、ハンドセットを手に取り、そこに提示される矢印またはその他のガイドを使用してRWの岩自体を拾い上げ、演出家によって確立された座標に対応するセットまたはステージ上のRW位置にナビゲートすることができる。
岩の位置が演出家の希望する位置にまだ完全にない場合、演出家は「左に移動させる」、「右に移動させる」などと言うことができ、追加の合図をハンドセットに提供し、アシスタントをさらにガイドすることができる。またはもう一度、演出家は、岩(または他のプロップ)を配置したいRW位置に対応する仮想空間位置をクリックするまたは選択することができる。
いくつかの例示的な実施形態を参照して本原理を説明したが、これらは限定することを意図しておらず、各種の代替的な構成が本明細書で特許請求される主題を実施するために使用されてよいことは理解されよう。
Claims (20)
- 仮想現実(VR)空間内で、ビデオプロップが位置していることが望ましい位置を識別することと、
実世界(RW)空間内で、前記ビデオプロップが位置している前記VR空間内の前記位置に対応するRW位置に向けて少なくとも1つのビーコンを送信することと、
のための命令によってプログラムされた少なくとも1つのプロセッサを含む、装置。 - 前記ビーコンは可視ビーコンを含む、請求項1に記載の装置。
- 前記ビーコンはレーザビームを含む、請求項2に記載の装置。
- 前記命令は、経時的に前記RW内の前記プロップの位置を識別するために実行可能である、請求項1に記載の装置。
- 前記命令は、前記RW内の前記プロップの前記位置に少なくとも部分的に基づいて前記ビーコンを送信するために実行可能である、請求項4に記載の装置。
- 前記ビーコンは可聴音を含む、請求項1に記載の装置。
- 前記ビーコンはハンドセット上の画面表示を含む、請求項1に記載の装置。
- 少なくとも1つのコンピュータストレージを含むデバイスであって、
前記少なくとも1つのコンピュータストレージは、一時的信号ではなく、少なくとも1つのプロセッサによって実行可能な、
仮想位置の仮想現実(VR)空間内でインジケーションを受信する命令、
前記仮想位置を指示するビーコンを前記実世界(RW)内に送信する命令、
を含む、前記デバイス。 - 前記仮想位置は、RWプロップの所望の位置である、請求項8に記載のデバイス。
- 前記ビーコンは可視ビーコンを含む、請求項8に記載のデバイス。
- 前記ビーコンはレーザビームを含む、請求項10に記載のデバイス。
- 前記命令は、経時的に前記RW内の前記プロップの位置を識別するために実行可能である、請求項8に記載のデバイス。
- 前記命令は、前記RW内の前記プロップの前記位置に少なくとも部分的に基づいて前記ビーコンを送信するために実行可能である、請求項12に記載のデバイス。
- 前記ビーコンは可聴音を含む、請求項8に記載のデバイス。
- 前記ビーコンはハンドセット上の画面表示を含む、請求項8に記載のデバイス。
- オブジェクトが位置していることが望ましい仮想空間内の位置を指示することと、
前記実世界(RW)内で前記仮想位置に対応するRW位置に向けてビーコンを提示することと、
を含む、コンピュータ実装方法。 - 前記ビーコンは可視ビーコンを含む、請求項16に記載の方法。
- 経時的に前記RW内の前記オブジェクトの位置を識別することを含む、請求項16に記載の方法。
- 前記RW内の前記オブジェクトの前記位置に少なくとも部分的に基づいて前記ビーコンを提示することを含む、請求項16に記載の方法。
- 前記ビーコンは可聴音を含む、請求項16に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/106,992 US11527046B2 (en) | 2020-11-30 | 2020-11-30 | Real world beacons indicating virtual locations |
US17/106,992 | 2020-11-30 | ||
PCT/US2021/061100 WO2022115743A1 (en) | 2020-11-30 | 2021-11-30 | Real world beacons indicating virtual locations |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023551665A true JP2023551665A (ja) | 2023-12-12 |
Family
ID=81751472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023531042A Pending JP2023551665A (ja) | 2020-11-30 | 2021-11-30 | 仮想位置を指示する実世界ビーコン |
Country Status (5)
Country | Link |
---|---|
US (1) | US11527046B2 (ja) |
EP (1) | EP4252195A1 (ja) |
JP (1) | JP2023551665A (ja) |
CN (1) | CN116940966A (ja) |
WO (1) | WO2022115743A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11527045B2 (en) | 2020-07-27 | 2022-12-13 | Shopify Inc. | Systems and methods for generating multi-user augmented reality content |
US11935202B2 (en) * | 2022-05-25 | 2024-03-19 | Shopify Inc. | Augmented reality enabled dynamic product presentation |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012151395A2 (en) * | 2011-05-03 | 2012-11-08 | Ivi Media Llc | Providing an adaptive media experience |
KR20200127969A (ko) * | 2017-09-29 | 2020-11-11 | 워너 브로스. 엔터테인먼트 인크. | 사용자 감정 상태에 반응하여 영화 컨텐츠의 생성 및 제어 |
US10497182B2 (en) * | 2017-10-03 | 2019-12-03 | Blueprint Reality Inc. | Mixed reality cinematography using remote activity stations |
US10630870B2 (en) * | 2018-06-20 | 2020-04-21 | Gdc Technology (Shenzhen) Limited | System and method for augmented reality movie screenings |
-
2020
- 2020-11-30 US US17/106,992 patent/US11527046B2/en active Active
-
2021
- 2021-11-30 EP EP21899206.3A patent/EP4252195A1/en active Pending
- 2021-11-30 JP JP2023531042A patent/JP2023551665A/ja active Pending
- 2021-11-30 CN CN202180078666.7A patent/CN116940966A/zh active Pending
- 2021-11-30 WO PCT/US2021/061100 patent/WO2022115743A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN116940966A (zh) | 2023-10-24 |
EP4252195A1 (en) | 2023-10-04 |
WO2022115743A1 (en) | 2022-06-02 |
US20220172437A1 (en) | 2022-06-02 |
US11527046B2 (en) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110337318B (zh) | 混合现实装置中的虚拟和真实对象记录 | |
JP2020501265A (ja) | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 | |
US11904246B2 (en) | Methods and systems for facilitating intra-game communications in a video game environment | |
JP2023551665A (ja) | 仮想位置を指示する実世界ビーコン | |
US11647354B2 (en) | Method and apparatus for providing audio content in immersive reality | |
JPWO2018216355A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7462069B2 (ja) | 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択 | |
US20220180664A1 (en) | Frame of reference for motion capture | |
US20240121569A1 (en) | Altering audio and/or providing non-audio cues according to listener's audio depth perception | |
US20220355211A1 (en) | Controller action recognition from video frames using machine learning | |
GB2569576A (en) | Audio generation system | |
US20240042312A1 (en) | Haptics support for ui navigation | |
CA3237995A1 (en) | Systems, methods, and media for controlling shared extended reality presentations | |
CN117940976A (zh) | 游戏根据装置能力的自适应渲染 | |
CN116941234A (zh) | 用于运动捕捉的参考系 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240605 |