JP7295851B2 - 仮想現実アプリケーションのためのオーディオ配信の最適化 - Google Patents
仮想現実アプリケーションのためのオーディオ配信の最適化 Download PDFInfo
- Publication number
- JP7295851B2 JP7295851B2 JP2020520204A JP2020520204A JP7295851B2 JP 7295851 B2 JP7295851 B2 JP 7295851B2 JP 2020520204 A JP2020520204 A JP 2020520204A JP 2020520204 A JP2020520204 A JP 2020520204A JP 7295851 B2 JP7295851 B2 JP 7295851B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- stream
- scene
- video
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006978 adaptation Effects 0.000 claims description 219
- 230000033001 locomotion Effects 0.000 claims description 115
- 230000003993 interaction Effects 0.000 claims description 73
- 230000000007 visual effect Effects 0.000 claims description 57
- 230000005236 sound signal Effects 0.000 claims description 42
- 230000007704 transition Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 34
- 230000003190 augmentative effect Effects 0.000 claims description 28
- 230000009471 action Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 13
- 230000001960 triggered effect Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 230000003213 activating effect Effects 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000009877 rendering Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Acoustics & Sound (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Stereophonic System (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
・例2:ユーザーがVRシーン内を移動し、ドアを開けて通り抜ける場合、1つのシーンから次のシーンへのオーディオの移行が必要であることを意味する
このシナリオを説明する目的で、様々なオーディオ/ビデオコンテンツが利用可能な空間(またはVR環境)の離散的な位置として、空間内の離散的なビューポイントの概念が導入されている。
以下の用語がこの技術分野で使用されている。
現在の解決策は次の通りである。
現在の解決策は制限されており、1つの固定された場所で独立したVRエクスペリエンスを提供することができるため、ユーザーは向きを変えることができるが、VR環境内では移動することができない。
別の態様によれば、システムは、オーディオストリームの少なくとも1つのオーディオ要素および/または1つのアダプテーションセットを、シーンにおける現在のユーザーのビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置に対して再生するかどうかを決定するように構成されてもよく、システムは、現在のユーザーの仮想位置で少なくとも1つのオーディオ要素を要求および/または受信するように構成されてもよい。
システム102は、
VR、AR、MR、または360度ビデオ環境シーンをユーザーに表現するためにビデオストリームからビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
少なくとも1つのオーディオストリーム106からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ104と、を含み、
システム102は、少なくともユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ110に基づいて、少なくとも1つのオーディオストリーム106および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー120に要求112するように構成される。
-ユーザーは、常に1つの環境にいることを目的としている。したがって、環境ごとに:
oクライアントシステム102は、単一の環境に関連付けられたビデオストリームのみをサーバーシステム120に要求する。
-少なくとも一部のオーディオデータ(ストリーム、オブジェクト、アダプテーションセットなど)は、現在(または将来)のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置および/またはユーザーの選択/インタラクションに基づいてのみクライアントシステム102に配信される、および/または
-(場合によっては)、(現在または将来の位置、ビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置および/またはユーザーの選択に関係なく)、現在のシーンに基づいて、いくつかのオーディオデータがクライアントシステム102に配信され、一方、残りのオーディオデータは、現在または将来のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置および/またはユーザーの選択に基づいて配信される。
図1.1に示すシステム102(クライアント)の一実施形態は、ビデオおよびオーディオシーン(以下、シーン150と呼ぶ)に関連付けられていると理解することができる環境(例えば、仮想環境)内の定義された位置に基づいて(オーディオ)ストリーム106を受信するように構成される。同じシーン150内の異なる位置は、一般に、システム102のオーディオデコーダ104に(例えば、メディアサーバー120から)提供される異なるストリーム106またはストリーム106に関連付けられた異なるメタデータを意味する。システム102は、メディア消費者デバイス(MCD)に接続され、そこから、同じ環境におけるユーザーの位置および/または仮想位置に関連付けられたフィードバックを受信する。以下では、環境内でのユーザーの位置は、ユーザーが楽しむ特定のビューポートに関連付けられてもよい(例えば、ビューポートは、ユーザーに表示される、球に投影された長方形の表面として仮定された表面であると意図される)。
システム102は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム1800からビデオ信号1808をデコードするように構成された少なくとも1つのメディアビデオデコーダ1804と、
少なくとも1つのオーディオストリーム106からのオーディオ信号108をデコードするように構成された少なくとも1つのオーディオデコーダ104と、を含んでもよい。
VR、AR、MR、または360度ビデオ環境シーンのユーザーへの表現のためにビデオストリームからビデオ信号をデコードするステップと、
オーディオストリームからオーディオ信号をデコードするステップと、
ユーザーの現在のビューポートおよび/または位置データおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データおよび/またはメタデータに基づいて、少なくとも1つのオーディオストリームを、サーバーに要求し、および/またはサーバーから取得するステップと、を含む。
異なるシーン/環境150は、一般に、サーバー120からの異なるストリーム106の受信を意味する。しかしながら、オーディオデコーダ104によって受信されたストリーム106はまた、同じシーン150におけるユーザーの位置によって条件付けられてもよい。
図3(事例2)は、別の例示的なシナリオの一実施形態を示し(空間XYZの垂直平面XZで表され、軸Yは用紙に入るように表される)、ユーザーが第1のVR、AR、および/またはMRシーンA(150A)で移動し、ドアを開いて、ドアを通って歩く(移行150AB)と、これは、時刻t1の第1のシーン150Aから時刻t2の一時的な位置(150AB)を介して時刻t3の次の(第2の)シーンB(150B)へのオーディオの移行を意味する。
したがって、メディアサーバー120は、位置の移行に従って(例えば、新しいアダプテーションセット113’として)専用ストリーム106を配信することができる。クライアント102は、それに応じて、例えば、メディアオーディオデコーダ104を介して、オーディオ信号108をユーザー140に配信するように構成されてもよい。
図4(事例3)は、別の例示的なシナリオ(空間XYZの垂直平面XZで表され、軸Yは用紙に入るように表される)を伴う一実施形態を示し、ユーザーがVR、ARおよび/またはMRシーン150A内を移動すると、時間t1における1つの第1の位置から時間t2における第1のシーン150A内の第2の位置へのオーディオの移行を意味する。第1の位置にいるユーザーは、時刻t1では壁から距離d1で壁から遠く離れていてもよく、時刻t2では壁からの距離d2で壁に近くてもよい。ここで、d1>d2である。距離d1では、ユーザーはシーン150Aのソース152Aのみを聞くが、壁を越えたシーン150Bのソース152Bも聞くことができる。
図5aおよび図5bは、別の例示的なシナリオを伴う一実施形態を示し(空間XYZの水平面XYで表され、軸Zは用紙から出るように表される)、ユーザーは、同一のVR、AR、および/またはMRシーン150に位置しているが、例えば2つのオーディオ要素までの異なる距離で異なる瞬間に配置される。
図6(事例5)は、例示的な3つの異なる方向(それぞれが異なるビューポート160-1、160-2、160-3に関連付けられる)に向けられ得るメディア消費者デバイス(MCD)を着用する単一のシーン150の1つの位置にあるユーザー140を示す。図6に示すこれらの方向は、極座標系および/またはデカルトXY座標系で、図6の下部の例えば180°にある第1のビューポイント801、図6の右側の例えば90°に位置する第2のビューポイント802、および図6の上部の例えば0°に位置する第3のビューポイント803を指す方向(例えば、角度方向)を有してもよい。これらの各ビューポイントは、メディア消費者デバイス(MCD)を装着しているユーザー140の向きに関連付けられており、中央に位置しているユーザーには、MCDの向きに従って対応するオーディオ信号108をレンダリングするMCDによって表示される特定のビューポートが提供される。
図7Aは、図中の一連の動作ステップの形で、システムによるオーディオストリームを受信するための方法の一実施形態を示す。任意の瞬間に、システム102のユーザーは、ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置に関連付けられる。特定の瞬間に、システムは、図7Aのステップ701で、現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置に基づいて再生されるオーディオ要素を決定することができる。したがって、次のステップ703で、各オーディオ要素の関連性および可聴性レベルを決定することができる。図6で上述したように、VR環境は、特定のシーン150内に、ユーザーの近くに、またはさらに遠くに配置された異なるオーディオ要素を有することができるが、周囲360度の中で特定の向きを有する場合もある。これらのすべての要因が、各オーディオ要素の関連性と可聴性のレベルを決定する。
解決策1:離散的位置(ビューポイント)の独立したアダプテーションセット。
・いくつかの独立した、または重複するオーディオシーンは、いくつかのオーディオストリームにエンコードされる。オーディオシーンごとに、1つのメインストリームを使用することも、使用事例に応じて1つのメインストリームと追加の補助ストリームを使用することもできる(例えば、異なる言語を含む一部のオーディオオブジェクトは、効率的な配信のために独立したストリームにエンコードすることができる)。提供されている例では、オーディオシーンAは2つのストリーム(A1およびA2)にエンコードされ、オーディオシーンBは3つのストリーム(B1、B2およびB3)にエンコードされ、オーディオシーンCは3つのストリーム(C1、C2およびC3)にエンコードされる。オーディオシーンAとオーディオシーンBは、いくつかの共通要素(この例では2つのオーディオオブジェクト)を共有していることに留意されたい。すべてのシーンは完全で独立している必要があるため(例えば、非VR再生デバイスでの独立した再生の場合)、共通の要素を各シーンで2回エンコードする必要がある。
oさらに、クライアントは、複数のオーディオシーンを完全に記述するより多くのアダプテーションセットを選択し、複数のオーディオシーンに対応するオーディオストリームを使用して、ユーザーの現在の場所で再生する必要がある新しいオーディオシーンを作成する。例えば、ユーザーがVR環境内を歩いていて、ある時点でその間に(または2つのオーディオシーンが聞こえる効果がある場所に)いる。
・新しいオーディオシーンを構成する必要なオーディオ要素152を選択/有効化する。
o1つのビューポイントの1つのサウンドシーン部分に関連付けられた利用可能な各オーディオシーンに対して1つまたは複数のオーディオストリームを作成するために使用することができる複数のメディアエンコーダ
o1つのビューポイントの1つのビデオシーンパーツに関連付けられた使用可能な各ビデオシーンの1つまたは複数のビデオストリームを作成するために使用することができる複数のメディアエンコーダ。簡略化のため、ビデオエンコーダは図に表示されていない。
・ユーザーの位置および/または向きおよび/または移動方向に関する情報(またはユーザーのアクションによってトリガーされた変化を特徴付ける情報)
・すべてのアダプテーションセットの利用可能性に関する情報、ならびに1つのアダプテーションセットと1つのオーディオシーンおよび/またはビューポイントとの関連付けを記述する情報、ならびに/あるいは各オーディオシーンおよび/またはビューポイントの「境界」を記述する情報(例えば、完全なオーディオシーンまたは個別のオブジェクトのみを含んでもよい)。例えば、そのような情報は、DASH配信環境の場合、メディアプレゼンテーション記述(MPD)XML構文の一部として提供されてもよい。
・選択部分1230から受信した指示に基づいて、メディアサーバー120から利用可能なアダプテーションセットのうちの1つまたは複数のアダプテーションセットを要求する。
次のように構成できるメタデータプロセッサ1236、
・受信されたオーディオストリームについてのダウンロードおよびスイッチング情報から、受信された各オーディオストリームに対応するオーディオメタデータを含むことができる情報を受信する。
・ビューポートプロセッサ1232によって示されるように、新しいオーディオシーンを構成する必要なオーディオ要素152を選択/有効化する。
図1.4、図1.5、および図1.6は、本発明の解決策2に基づく例を示す(これは、図1.1および/または図1.2および/または図1.3の例の実施形態であってもよい):柔軟なアダプテーションセットを有する離散的位置(ビューポイント)の独立したアダプテーションセット。
・いくつかの独立した、または重複するオーディオシーンは、いくつかのオーディオストリームにエンコードされる。オーディオストリーム106は、次のような方法で作成される。
oオーディオ要素152を共有するすべてのオーディオシーン150について、共通のオーディオ要素152は、オーディオシーンの1つにのみ関連付けられた補助オーディオストリームでのみエンコードされ、他のオーディオシーンとの関連付けを示す適切なメタデータ情報が作成される。または別の言い方をすると、追加のメタデータは、一部のオーディオストリームが複数のオーディオシーンと一緒に使用される可能性を示している。および/または
o使用事例によっては、追加の補助ストリームが作成される場合がある(例えば、異なる言語を含む一部のオーディオオブジェクトは、効率的な配信のために独立したストリームにエンコードされる場合がある)。
・オーディオシーンAは以下にエンコードされている:
・メインオーディオストリーム(A1、106A)、
・補助オーディオストリーム(A2、106B)
・オーディオシーンAの一部のオーディオ要素152BがこれらのオーディオストリームAではなく、異なるオーディオシーン(オーディオシーンB)に属する補助ストリームA2(106B)にエンコードされていることを示すことができるメタデータ情報
・オーディオシーンBは以下にエンコードされている:
・メインオーディオストリーム(B1、106C)、
・補助オーディオストリーム(B2)、
・補助オーディオストリーム(B3)、
・オーディオストリームB2からのオーディオ要素152Bが、オーディオシーンAにも属する一般的なオーディオ要素152Bであることを示すことができるメタデータ情報。
・さらに、メディアサーバー120は、アダプテーションセットに加えて、各オーディオシーンの「境界」の位置と、各アダプテーションセット(例えば、完全なオーディオシーンまたは個別のオブジェクトのみを含む)との関係に関する情報を受信することができる。このようにして、各アダプテーションセットは、利用可能なオーディオシーン150のうちの1つまたは複数に関連付けられ得る。1つのオーディオシーンの境界は、例えば、球の幾何学的座標(例えば、中心および半径)として定義されてもよい。
・新しいオーディオシーンを構成する必要なオーディオ要素152(152A-152c)を選択/有効化する。および/または
・すべてのオーディオストリームを単一のオーディオストリームにマージできるようにする。
1つのビューポイントの1つのサウンドシーン部分に関連付けられた1つまたは複数の利用可能なオーディオシーン150からオーディオ要素152を埋め込む1つまたは複数のオーディオストリーム106を作成するために使用することができる複数のメディアエンコーダ154。
・ユーザーの位置および/または向きおよび/または移動方向に関する情報(またはユーザーのアクションによってトリガーされた変化を特徴付ける情報)
・すべてのアダプテーションセットの利用可能性に関する情報、ならびに1つのアダプテーションセットと1つのオーディオシーンおよび/またはビューポイントとの関連付けを記述する情報、ならびに/あるいは各オーディオシーンおよび/またはビューポイントの「境界」を記述する情報(例えば、完全なオーディオシーンまたは個別のオブジェクトのみを含んでもよい)。例えば、そのような情報は、DASH配信環境の場合、メディアプレゼンテーション記述(MPD)XML構文の一部として提供されてもよい。
・使用可能なすべてのオーディオシーンから1つの新しいオーディオシーンを作成する必要がある(例えば、複数のオーディオシーンの一部のオーディオ要素のみが再生され、これらのオーディオシーンの他の残りのオーディオ要素は再生されない)。
oビューポートプロセッサ1232から受信した情報に基づいて、受信端によって受信された情報で通知された利用可能なアダプテーションセットから1つまたは複数のアダプテーションセットを選択するように構成された選択部分1230。選択されたアダプテーションセットは、ユーザーの現在の場所で再生されるべきオーディオシーンを完全または部分的に記述する。このオーディオシーンは、エンコード側で定義された1つまたは一部が完全なオーディオシーンであるか、使用可能なすべてのオーディオシーンから新しいオーディオシーンを作成する必要がある。
・選択部分1230から受信した指示に基づいて、メディアサーバー120から利用可能なアダプテーションセットのうちの1つまたは複数のアダプテーションセットを要求する。
次のように構成できるメタデータプロセッサ1236、
・受信されたオーディオストリームについてのダウンロードおよびスイッチング情報から、受信された各オーディオストリームに対応するオーディオメタデータを含むことができる情報を受信する。
・ビューポートプロセッサ1232によって示されるように、新しいオーディオシーンを構成する必要なオーディオ要素152を選択/有効化する。
ファイル形式の使用事例の場合、複数のメインストリームと補助ストリームを個別のトラックとして単一のISOBMFFファイルにカプセル化することができる。このようなファイルの単一のトラックは、前述のように単一のオーディオ要素を表す。正しいプレイアウトに必要な情報を含むMPDは利用できないため、例えば、特定のファイルフォーマットボックスまたはトラックおよび映画レベルの特定のファイルフォーマットボックスを提供/導入することにより、情報をファイルフォーマットレベルで提供する必要がある。使用事例に応じて、カプセル化されたオーディオシーンの正しいレンダリングを可能にするために必要な様々な情報があるが、以下の情報のセットは基本的なものであり、常に存在しなければならない。
・利用可能なすべてのオーディオ要素、特にどのオーディオ要素がどのトラックにカプセル化されているかに関する情報
・カプセル化されたオーディオ要素の場所に関する情報
・1つのオーディオシーンに属するすべてのオーディオ要素のリスト、1つのオーディオ要素が複数のオーディオシーンに属してもよい。
例(例えば、図1.1~図6のうちの少なくとも1つ)では、少なくとも1つのシーンは、少なくとも1つのオーディオ要素(オーディオソース152)に関連付けることができ、各オーディオ要素は、オーディオ要素が聞こえる視覚環境における位置および/または領域に関連付けられ、その結果、シーン内の異なるユーザーの位置および/またはビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データについて、異なるオーディオストリームがサーバーシステム120からクライアントシステム102に提供される。
ここでは、仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのオーディオおよびビデオストリームをクライアントに配信するためのサーバー(120)も参照され、ビデオおよびオーディオストリームはメディア消費デバイスで再生され、サーバー(120)は、視覚環境を記述するビデオストリームを、エンコードするためのエンコーダおよび/または格納するための記憶装置を含み、視覚環境はオーディオシーンに関連付けられ、サーバーは、クライアントに配信される複数のストリームおよび/またはオーディオ要素および/またはアダプテーションセットを、エンコードするためのエンコーダおよび/または格納するための記憶装置をさらに含み、ストリームおよび/またはオーディオ要素および/またはアダプテーションセットは、少なくとも1つのオーディオシーンに関連付けられ、サーバーは、
クライアントからの要求に基づいてビデオストリームを選択して配信し、
ビデオストリームは環境に関連付けられ、クライアントからの要求に基づいて、オーディオストリームおよび/またはオーディオ要素および/またはアダプテーションセットを選択し、要求は、少なくともユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ、ならびに環境に関連付けられたオーディオシーンに関連付けられ、
オーディオストリームをクライアントに配信するように構成される。
特定の実施態様に応じて、実施例はハードウェアで実施することができる。実施態様は、例えば、フロッピーディスク、デジタル多用途ディスク(DVD)、ブルーレイディスク、コンパクトディスク(CD)、読み取り専用メモリ(ROM)、プログラム可能な読み取り専用メモリ(PROM)、消去およびプログラム可能な読み取り専用メモリ(EPROM)、電気的に消去可能なプログラム可能な読み取り専用メモリ(EEPROM)またはフラッシュメモリなど、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)電子的に読み取り可能な制御信号が格納されているデジタル記憶媒体を使用して実行することができる。したがって、デジタル記憶媒体はコンピュータで読み取り可能であってもよい。
Claims (46)
- メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
複数のオーディオシーン(150A、150B)は、隣接および/または近接するビデオ環境としての複数のビデオ環境に対して定義され、
第1の現在のオーディオシーンに関連付けられた第1のストリームが提供され、ユーザーが第2のさらなるオーディオシーンに移行した場合には、前記第1のオーディオシーンに関連付けられた前記オーディオストリームと前記第2のオーディオシーンに関連付けられた前記第2のオーディオストリームの両方が提供される、システム(102)。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のための少なくとも1つのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、少なくとも1つのオーディオストリーム(106)をサーバー(120)に要求する(112)ように構成され、
前記システム(102)は、異なるオーディオシーンに関連する隣接および/または近接するビデオ環境の境界からの前記ユーザーの位置の距離に基づいて、前記サーバー(120)への前記少なくとも1つのオーディオストリームの前記要求を制御するように構成される、システム(102)。 - 前記少なくとも1つのオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットを前記サーバー(120)から取得するために、前記サーバー(120)に前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)を提供するように構成される、請求項2に記載のシステム。
- 少なくとも1つのオーディオシーンは、少なくとも1つのオーディオ要素(152)に関連付けられ、各オーディオ要素は、前記オーディオ要素が可聴である前記ビデオ環境内の位置および/または領域に関連付けられ、オーディオシーン内の様々なユーザーの位置および/またはビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データに、様々なオーディオストリームが提供される、請求項1または2に記載のシステム。
- オーディオストリームの少なくとも1つのオーディオ要素および/または1つのアダプテーションセットを、オーディオシーンにおける現在のユーザーのビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置に対して再生するかどうかを決定するように構成され、
前記システムは、前記現在のユーザーの仮想位置で前記少なくとも1つのオーディオ要素を要求および/または受信するように構成される、請求項1または2に記載のシステム。 - 少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、オーディオストリームの少なくとも1つのオーディオ要素(152)および/または1つのアダプテーションセットが、関連性があり、かつ/または可聴であるようになるかどうかを予測的に決定するように構成され、
前記システムは、オーディオシーンにおける予測されたユーザーの動きおよび/またはインタラクションの前に、特定のユーザーの仮想位置で前記少なくとも1つのオーディオ要素および/またはオーディオストリームおよび/またはアダプテーションセットを要求および/または受信するように構成され、
前記システムは、受信すると、前記少なくとも1つのオーディオ要素および/またはオーディオストリームを、オーディオシーンにおける前記ユーザーの動きおよび/またはインタラクション後の前記特定のユーザーの仮想位置で再生するように構成される、請求項1または2に記載のシステム。 - ユーザーのインタラクションの前の前記ユーザーの仮想位置で、より低いビットレートで前記少なくとも1つのオーディオ要素(152)を要求および/または受信するように構成され、前記インタラクションは、同じオーディオシーン(150)での位置データの変化、または現在のシーンから分離された次のシーンに入ることのいずれかによって生じ、
前記システムは、オーディオシーンにおける前記ユーザーのインタラクションの後の前記ユーザーの仮想位置で、より高いビットレートで前記少なくとも1つのオーディオ要素を要求および/または受信するように構成される、請求項4に記載のシステム。 - 少なくとも1つのオーディオシーンに関連付けられた少なくとも1つのオーディオ要素(152)は、オーディオシーンに関連付けられた前記ビデオ環境内の位置および/または領域に関連付けられ、
前記システムは、前記ユーザーからより遠いオーディオ要素よりも前記ユーザーにより近いオーディオ要素に対して、より高いビットレートでストリームを要求および/または受信するように構成される、請求項1または2に記載のシステム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
少なくとも1つのオーディオ要素(152)は、少なくとも1つのオーディオシーンに関連付けられ、前記少なくとも1つのオーディオ要素は、ビデオ環境内の位置および/または領域に関連付けられ、
前記システムは、オーディオシーンにおける各ユーザーの仮想位置での関連性に基づいて、オーディオ要素の異なるビットレートで異なるストリームを要求するように構成され、
前記システムは、ユーザーの現在の仮想位置でより関連性があり、かつ/または可聴性がより高いオーディオ要素に対して、より高いビットレートでオーディオストリームを要求するように構成される、システム。 - 少なくとも1つのオーディオ要素(152)は、オーディオシーンに関連付けられ、各オーディオ要素は、オーディオシーンに関連付けられた前記ビデオ環境内の位置および/または領域に関連付けられ、
前記システムは、前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)を前記サーバーに定期的に送信するように構成され、それにより、
第1の位置では、より高いビットレートのストリームが前記サーバーから提供され、
第2の位置では、より低いビットレートのストリームが前記サーバーから提供され、
前記第1の位置は、前記第2の位置よりも前記少なくとも1つのオーディオ要素(152)に近い、請求項1または2に記載のシステム。 - 複数のオーディオシーン(150A、150B)は、隣接および/または近接するビデオ環境としての複数のビデオ環境に対して定義され、
第1の現在のオーディオシーンに関連付けられた第1のストリームが提供され、ユーザーが第2のさらなるオーディオシーンに移行した場合には、前記第1のオーディオシーンに関連付けられた前記オーディオストリームと前記第2のオーディオシーンに関連付けられた第2のストリームの両方が提供される、請求項2に記載のシステム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
複数のオーディオシーン(150A、150B)は、第1および第2のビデオ環境に対して定義され、前記第1および第2のビデオ環境は、隣接および/または近接するビデオ環境であり、
第1のオーディオシーンに関連付けられた第1のストリームは、前記ユーザーの位置または仮想位置が前記第1のオーディオシーンに関連付けられた第1のビデオ環境にある場合の前記第1のオーディオシーンの再生のために、前記サーバーから提供され、
第2のオーディオシーンに関連付けられた第2のストリームは、前記ユーザーの位置または仮想位置が前記第2のオーディオシーンに関連付けられた第2のビデオ環境にある場合の前記第2のオーディオシーンの再生のために、前記サーバーから提供され、
前記ユーザーの位置または仮想位置が前記第1のオーディオシーンと前記第2のオーディオシーンとの間の移行位置にある場合に、前記第1のオーディオシーンに関連付けられた第1のストリームと前記第2のオーディオシーンに関連付けられた第2のストリームの両方が提供される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
複数のオーディオシーン(150A、150B)は、隣接および/または近接する環境である第1および第2のビデオ環境に対して定義され、
前記システムは、前記ユーザーの仮想位置が前記第1のビデオ環境にある場合の第1のオーディオシーン(150A)の再生のために、前記第1のビデオ環境に関連付けられた前記第1のオーディオシーンに関連付けられた第1のストリームを要求および/または受信するように構成され、
前記システムは、前記ユーザーの仮想位置が前記第2のビデオ環境にある場合の前記第2のオーディオシーン(150B)の再生のために、前記第2のビデオ環境に関連付けられた第2のオーディオシーンに関連付けられた第2のストリームを要求および/または受信するように構成され、
前記システムは、前記ユーザーの仮想位置が前記第1のビデオ環境と前記第2のビデオ環境との間の移行位置(150AB)にある場合に、前記第1のオーディオシーンに関連付けられた第1のストリームと前記第2のオーディオシーンに関連付けられた第2のストリームの両方を要求および/または受信するように構成される、システム。 - 前記第1のオーディオシーンに関連付けられた前記第1のストリームは、前記ユーザーが前記第1のオーディオシーンに関連付けられた前記第1のビデオ環境にいるときに、より高いビットレートで取得され、
一方、前記第2のビデオ環境に関連付けられた前記第2のオーディオシーンに関連付けられた前記第2のストリームは、前記ユーザーが前記第1のオーディオシーンから前記第2のオーディオシーンへの移行位置の始まりにいるときに、より低いビットレートで取得され、
前記ユーザーが前記第1のオーディオシーンから前記第2のオーディオシーンへの移行位置の終わりにいるときに、前記第1のオーディオシーンに関連付けられた前記第1のストリームは、より低いビットレートで取得され、前記第2のオーディオシーンに関連付けられた前記第2のストリームは、より高いビットレートで取得され、
前記より低いビットレートは、前記より高いビットレートよりも低い、請求項13に記載のシステム。 - 複数のオーディオシーン(150A、150B)は、隣接および/または近隣環境の複数の環境に対して定義され、
前記システムは、第1の現在の環境に関連付けられた第1の現在のオーディオシーンに関連付けられた前記オーディオストリームを取得するように構成され、
オーディオシーンの境界からの前記ユーザーの位置または仮想位置の距離が所定のしきい値より小さい場合には、前記システムは、第2のオーディオシーンに関連付けられた第2の隣接および/または近接するビデオ環境に関連付けられたオーディオストリームをさらに取得する、請求項1または2に記載のシステム。 - 複数のビデオ環境に対して複数のオーディオシーン(150A、150B)が定義され、
前記システムは、より高いビットレートで現在のオーディオシーンに関連付けられた前記オーディオストリームと、より低いビットレートで第2のオーディオシーンに関連付けられた前記オーディオストリームと、を要求および/または取得し、
前記より低いビットレートは前記より高いビットレートよりも低い、請求項1または2に記載のシステム。 - 複数のN個のオーディオ要素が定義され、これらのオーディオ要素の位置または領域までの前記ユーザーの距離が所定のしきい値よりも大きい場合に、前記N個のオーディオ要素は、前記N個のオーディオ要素の前記位置または領域に近い位置または領域に関連付けられたより小さい数M個のオーディオ要素を取得するように処理され、それによって、
前記N個のオーディオ要素の前記位置または領域までの前記ユーザーの距離が所定のしきい値よりも小さい場合に、前記N個のオーディオ要素に関連付けられた少なくとも1つのオーディオストリームを前記システムに提供する、または
前記N個のオーディオ要素の前記位置または領域までの前記ユーザーの距離が所定のしきい値よりも大きい場合に、前記M個のオーディオ要素に関連付けられた少なくとも1つのオーディオストリームを前記システムに提供する、請求項1または2に記載のシステム。 - 少なくとも1つのビデオ環境は、少なくとも1つの複数のN個のオーディオ要素に関連付けられ、各オーディオ要素は、前記ビデオ環境内の位置および/または領域に関連付けられ、
前記少なくとも1つの複数のN個のオーディオ要素は、高いビットレートで少なくとも1つの表現で提供され、
前記少なくとも1つの複数のN個のオーディオ要素は、低いビットレートで少なくとも1つの表現で提供され、前記少なくとも1つの表現は、前記N個のオーディオ要素を処理して、前記N個のオーディオ要素の前記位置または領域に近い位置または領域に関連付けられたより少ない数M個のオーディオ要素を取得することによって取得され、
前記システムは、前記オーディオ要素がオーディオシーンでの前記ユーザーの現在の仮想位置でより関連性があり、かつ/または可聴性がより高い場合に、前記オーディオ要素についてより高いビットレートで前記表現を要求するように構成され、
前記システムは、前記オーディオ要素がオーディオシーンでの前記現在のユーザーの仮想位置でより関連性が低く、かつ/または可聴性がより低い場合に、前記オーディオ要素についてより低いビットレートで前記表現を要求するように構成される、請求項1または2または17に記載のシステム。 - 前記ユーザーの距離が所定の距離しきい値よりも低い場合、または前記関連性が所定の関連性しきい値よりも低い場合、または可聴性レベルが所定の距離しきい値よりも、所定のしきい値よりも低い場合に、異なるオーディオ要素に対して異なるオーディオストリームが取得される、請求項18に記載のシステム。
- オーディオシーンにおける前記ユーザーの向きおよび/または前記ユーザーの動きの方向および/またはユーザーのインタラクションに基づいて、前記オーディオストリームを要求および/または取得するように構成される、請求項1または2に記載のシステム。
- 前記ビューポートは、前記位置および/または仮想位置および/または動きのデータおよび/または頭の向きに関連付けられる、請求項2に記載のシステム。
- 異なるオーディオ要素が異なるビューポートで提供され、前記システムは、1つの第1のオーディオ要素(S1)がビューポート(160-1)内にある場合に、前記ビューポート内にない第2のオーディオ要素(S2)よりも高いビットレートの第1のオーディオ要素を要求および/または受信するように構成される、請求項1または2または21に記載のシステム。
- 第1のオーディオストリームと第2のオーディオストリームを要求および/または受信するように構成され、前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、
前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信される、請求項2に記載のシステム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
少なくとも2つの視覚環境シーンが定義され、少なくとも1つの第1および第2のオーディオ要素(152A、152B)は、第1のビデオ環境に関連付けられた第1のオーディオシーンに関連付けられ、少なくとも1つの第3のオーディオ要素(152C)は、第2のビデオ環境に関連付けられた第2のオーディオシーンに関連付けられ、
前記システムは、前記少なくとも1つの第2のオーディオ要素(152B)が前記第2のビデオ環境にさらに関連付けられていることを記述するインタラクションメタデータを取得するように構成され、
前記システムは、前記ユーザーの仮想位置が前記第1のビデオ環境にある場合に、前記少なくとも1つの第1および第2のオーディオ要素(152A、152B)を要求および/または受信するように構成され、
前記システムは、前記ユーザーの仮想位置が前記第2のビデオ環境にある場合に、前記少なくとも1つの第2および第3のオーディオ要素(152B、152C)を要求および/または受信するように構成され、
前記システムは、前記ユーザーの仮想位置が前記第1のビデオ環境と第2のビデオ環境との間で移行している場合に、前記少なくとも1つの第1および第2および第3のオーディオ要素(152A、152B、152C)を要求および/または受信するように構成される、システム。 - 前記少なくとも1つの第1のオーディオ要素(152)は、少なくとも1つのオーディオストリーム(A1、106A)および/またはアダプテーションセットで提供され、前記少なくとも1つの第2のオーディオ要素(152B)は、少なくとも1つの第2のオーディオストリーム(A2、106B)および/またはアダプテーションセットで提供され、前記少なくとも1つの第3のオーディオ要素(152C)は、少なくとも1つの第3のオーディオストリーム(B1、10C)および/またはアダプテーションセットで提供され、前記少なくとも1つの第1のビデオ環境は、前記少なくとも1つの第1および第2のオーディオストリーム(A1、A2、106A、106B)および/またはアダプテーションセットを必要とするオーディオシーンとしてインタラクションメタデータによって記述され、前記第2のビデオ環境は、前記少なくとも1つの第3のオーディオストリーム(B1、106C)および/またはアダプテーションセット、ならびに前記少なくとも1つの第1のビデオ環境に関連付けられた前記少なくとも1つの第2のオーディオストリーム(A2、152B)および/またはアダプテーションセットを必要とするオーディオシーンとしてインタラクションメタデータによって記述され、
前記システムは、前記ユーザーの仮想位置が前記第2のビデオ環境にある場合に、前記インタラクションメタデータを操作して、前記第1のビデオ環境に属する前記第2のオーディオストリーム(A2、152B)と、前記第2のビデオ環境に関連付けられた前記第3のオーディオストリーム(B1、152C)と、を新しい単一のストリームにマージするように構成されたメタデータプロセッサ(1236)を含む、請求項24に記載のシステム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
前記システムは、前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データに基づいて、前記少なくとも1つのオーディオデコーダ(104)の前に少なくとも1つのオーディオストリーム内のメタデータを操作するように構成されたメタデータプロセッサ(1236)を含む、システム。 - 前記メタデータプロセッサ(1236)は、前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データに基づいて、前記少なくとも1つのオーディオデコーダ(104)の前に少なくとも1つのオーディオストリーム(106A-106C)内の少なくとも1つのオーディオ要素(152A-152C)を有効および/または無効にするように構成され、
前記システムが、現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データの結果として、前記オーディオ要素(152A-152C)がもう再生されないと決定した場合に、前記メタデータプロセッサ(1236)は、前記少なくとも1つのオーディオデコーダ(104)の前に少なくとも1つのオーディオストリーム(106A-106C)内の少なくとも1つのオーディオ要素(152A-152C)を無効にするように構成され、
前記システムが、ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データの結果として、前記オーディオ要素(152A-152C)が再生されると決定した場合に、前記メタデータプロセッサ(1236)は、前記少なくとも1つのオーディオデコーダの前に少なくとも1つのオーディオストリーム内の少なくとも1つのオーディオ要素(152A-152C)を有効にするように構成される、請求項26に記載のシステム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置に基づいて選択されたオーディオ要素(152A-152C)のデコードを無効にするように構成される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
現在のオーディオシーンに関連付けられた少なくとも1つの第1のオーディオストリーム(106A)を、隣接し、近接する、および/または将来のオーディオシーンに関連付けられた少なくとも1つのストリーム(106C)にマージするように構成される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データに関する統計データまたは集計データを取得および/または収集して、前記統計データまたは集計データに関連付けられた前記サーバー(120)に前記要求を送信するようにさらに構成される、システム。 - 前記少なくとも1つのオーディオストリームに関連付けられたメタデータに基づいて、かつ、前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データに基づいて、少なくとも1つのストリームのデコードおよび/または再生を非アクティブ化するように構成される、請求項2に記載のシステム。
- メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
少なくとも前記ユーザーの現在または推定のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データに基づいて、選択したオーディオストリーム(106A-106C)のグループに関連付けられたメタデータを操作して、
再生されるオーディオシーンを構成するオーディオ要素(152A-152C)を選択および/またはアクティブ化する、および/または
選択されたすべてのオーディオストリームを単一のオーディオストリームにマージするようにさらに構成される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
各オーディオ要素(152A-152C)またはオーディオオブジェクトについて、前記サーバー(120)から情報が提供され、前記情報は、オーディオシーンまたは前記オーディオ要素がアクティブである場所についての記述情報を含む、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
前記現在または将来またはビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置および/またはユーザーの選択に基づいて、1つのオーディオシーンの再生と、少なくとも2つのオーディオシーンの合成、ミキシング、多重化、重ね合わせ、または結合との間で選択するように構成され、前記2つのオーディオシーンは異なる隣接および/または近接する環境に関連付けられている、システム。 - 少なくともアダプテーションセットを作成または使用するように構成され、
いくつかのアダプテーションセットが1つのオーディオシーンに関連付けられ、および/または
各アダプテーションセットを1つのビューポイントまたは1つのオーディオシーンに関連付ける追加情報が提供され、および/または
1つのオーディオシーンの前記境界に関する情報、および/または
1つのアダプテーションセットと1つのオーディオシーンとの関係に関する情報
を含む追加情報が提供される、請求項2に記載のシステム。 - 隣接または近接する環境に関連付けられたオーディオシーンのストリームを受信し、
2つの環境間の境界の前記移行の検出時に、前記隣接または近接する環境の前記オーディオストリームのデコードおよび/または再生を開始する、
ように構成される、請求項1、11または24に記載のシステム。 - クライアントとして動作するように構成された、請求項1から35のいずれか一項に記載の前記システム(102)と、メディア消費デバイスで再生されるビデオおよび/またはオーディオストリームを配信するように構成されたサーバー(120)と、を含むシステム。
- メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリームと第2のオーディオストリームおよび/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
前記システムは、
少なくとも1つの第1のオーディオシーンに関連付けられた少なくとも1つのオーディオストリーム(106A)を含む少なくとも1つの第1のアダプテーションセットを要求および/または受信し、
前記少なくとも1つの第1のオーディオシーンを含む少なくとも2つのオーディオシーンに関連付けられた少なくとも1つの第2のオーディオストリーム(106B)を含む少なくとも1つの第2のアダプテーションセットを要求および/または受信し、
ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データに関して利用可能なメタデータ、ならびに/あるいは前記少なくとも1つの第1のアダプテーションセットの前記少なくとも1つの第1のオーディオシーンへの関連付けおよび/または前記少なくとも1つの第2のアダプテーションセットの前記少なくとも1つの第1のオーディオシーンへの関連付けを記述する情報に基づいて、前記第1のオーディオストリーム(106A)と前記少なくとも1つの第2のオーディオストリーム(106B)とを、デコードされる新しいオーディオストリームにマージする、
ようにさらに構成される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データに関する情報、ならびに/あるいは前記ユーザーのアクションによってトリガーされた変化を特徴付ける情報を受信し、
アダプテーションセットの利用可能性に関する情報と、少なくとも1つのオーディオシーンおよび/またはビューポイントおよび/またはビューポートおよび/または位置および/または仮想位置および/または動きのデータおよび/または向きに対する少なくとも1つのアダプテーションセットの関連付けを記述する情報と、を受信する、
ように構成される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
少なくとも1つのオーディオストリームに埋め込まれた少なくとも1つのオーディオシーンからの少なくとも1つのオーディオ要素(152)と、少なくとも1つの追加オーディオストリーム(106B)に埋め込まれた少なくとも1つの追加オーディオシーンからの少なくとも1つの追加オーディオ要素(152B)と、を再生するかどうかを決定し、
肯定的な決定の場合に、前記追加オーディオシーンの前記少なくとも1つの追加ストリーム(106B)を前記少なくとも1つのオーディオシーンの前記少なくとも1つのオーディオストリーム(106A)にマージまたは合成または多重化または重ね合わせまたは結合する操作を行う、
ように構成される、システム。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのシステム(102)であって、
前記システム(102)は、
VR、AR、MR、または360度ビデオ環境をユーザーに表現するためにビデオストリーム(1800)からビデオ信号をデコードするように構成された少なくとも1つのメディアビデオデコーダと、
オーディオシーンの表現のためのオーディオストリーム(106)からのオーディオ信号(108)をデコードするように構成された少なくとも1つのオーディオデコーダ(104)と、を含み、
前記システム(102)は、少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ(110)に基づいて、第1のオーディオストリーム(106)と第2のオーディオストリーム(106)および/またはオーディオストリームの1つのオーディオ要素および/または1つのアダプテーションセットをサーバー(120)に要求する(112)ように構成され、
前記第1のオーディオストリームの第1のオーディオ要素は、前記第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
少なくとも前記ユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データに基づいて、選択されたオーディオストリームに関連付けられたオーディオメタデータを操作して、
再生するように決定されたオーディオシーンを構成する前記オーディオ要素を選択および/または有効化および/またはアクティブ化し、
選択されたすべてのオーディオストリームを単一のオーディオストリームにマージすることを可能にする、
ように構成される、システム。 - 仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのオーディオおよびビデオストリームをクライアントに配信するためのサーバー(120)であって、前記ビデオおよびオーディオストリームはメディア消費デバイスで再生され、
前記サーバー(120)は、ビデオ環境を記述するビデオストリームを、エンコードするためのエンコーダおよび/または格納するための記憶装置を含み、前記ビデオ環境はオーディオシーンに関連付けられ、
前記サーバーは、前記クライアントに配信される複数のストリームおよび/またはオーディオ要素および/またはアダプテーションセットを、エンコードするためのエンコーダ(154)および/または格納するための記憶装置をさらに含み、前記オーディオストリームおよび/またはオーディオ要素および/またはアダプテーションセットは、少なくとも1つのオーディオシーンに関連付けられ、
前記サーバー(120)は、
前記クライアントからの要求に基づいてビデオストリーム(106)を選択して配信し、前記ビデオストリームは環境に関連付けられ、
前記クライアント(102)からの要求に基づいて、オーディオストリーム(106)および/またはオーディオ要素および/またはアダプテーションセットを選択し、前記要求は、少なくともユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ、ならびに環境に関連付けられたオーディオシーンに関連付けられ、
前記オーディオストリーム(106)を前記クライアントに配信する、
ように構成され、
前記要求は、異なるオーディオシーンに関連付けられた隣接および/または近接するビデオ環境の境界からの前記ユーザーの位置の距離に基づく、サーバー(120)。 - 仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のためのオーディオおよびビデオストリームをクライアントに配信するためのサーバー(120)であって、前記ビデオおよびオーディオストリームはメディア消費デバイスで再生され、
前記サーバー(120)は、ビデオ環境を記述するビデオストリームを、エンコードするためのエンコーダおよび/または格納するための記憶装置を含み、前記ビデオ環境はオーディオシーンに関連付けられ、
前記サーバーは、前記クライアントに配信される複数のオーディオストリームおよび/またはオーディオ要素および/またはアダプテーションセットを、エンコードするためのエンコーダおよび/または格納するための記憶装置をさらに含み、前記オーディオストリームおよび/またはオーディオ要素および/またはアダプテーションセットは、少なくとも1つのオーディオシーンに関連付けられ、
前記サーバーは、
前記クライアントからの要求に基づいてビデオストリームを選択して配信し、前記ビデオストリームは環境に関連付けられ、
前記クライアントからの要求に基づいて、オーディオストリームおよび/またはオーディオ要素および/またはアダプテーションセットを選択し、前記要求は、少なくともユーザーの現在のビューポートおよび/または頭の向きおよび/または動きのデータおよび/またはインタラクションメタデータおよび/または仮想位置データ、ならびに環境に関連付けられたオーディオシーンに関連付けられ、
前記オーディオストリームを前記クライアントに配信する、
ように構成され、
第1のオーディオストリームの第1のオーディオ要素は、第2のオーディオストリームの第2のオーディオ要素よりも関連性があり、かつ/または可聴性が高く、前記第1のオーディオストリームは、前記第2のオーディオストリームのビットレートよりも高いビットレートで要求および/または受信され、
前記オーディオストリームはアダプテーションセットにカプセル化され、各アダプテーションセットは、同じオーディオコンテンツの異なるビットレートで、異なる表現に関連付けられた複数のストリームを含み、
前記選択されたアダプテーションセットは、前記クライアントからの前記要求に基づいて選択される、サーバー(120)。 - 前記オーディオストリームはアダプテーションセットにカプセル化され、各アダプテーションセットは、同じオーディオコンテンツの異なるビットレートで、異なる表現に関連付けられた複数のストリームを含み、
前記選択されたアダプテーションセットは、前記クライアントからの前記要求に基づいて選択される、請求項42に記載のサーバー。 - メディア消費デバイスで再生されるビデオストリームおよびオーディオストリームを受信するように構成された仮想現実VR、拡張現実AR、複合現実MR、または360度ビデオ環境のための方法であって、
VR、AR、MR、または360度ビデオ環境シーンのユーザーへの表現のためにビデオストリームからビデオ信号をデコードするステップと、
オーディオシーンの前記表現のためにオーディオストリームからのオーディオ信号をデコードするステップと、
前記ユーザーの現在のビューポートおよび/または位置データおよび/または頭の向きおよび/または動きのデータおよび/またはメタデータおよび/または仮想位置データおよび/またはメタデータに基づいて、少なくとも1つのオーディオストリームを、サーバー(120)に要求し、および/または前記サーバーから取得するステップと、
異なるオーディオシーンに関連する隣接および/または近接するビデオ環境の境界からの前記ユーザーの位置の距離に基づいて、前記サーバー(120)への前記少なくとも1つのオーディオストリームの前記要求を制御するステップと、
を含む方法。 - プロセッサによって実行されると、前記プロセッサに請求項45に記載の方法を実行させる命令を含むコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023095140A JP2023116635A (ja) | 2017-10-12 | 2023-06-09 | 仮想現実アプリケーションのためのオーディオ配信の最適化 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17196259 | 2017-10-12 | ||
EP17196259.0 | 2017-10-12 | ||
PCT/EP2018/077770 WO2019072984A1 (en) | 2017-10-12 | 2018-10-11 | AUDIO DIFFUSION OPTIMIZATION FOR VIRTUAL REALITY APPLICATIONS |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023095140A Division JP2023116635A (ja) | 2017-10-12 | 2023-06-09 | 仮想現実アプリケーションのためのオーディオ配信の最適化 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020537418A JP2020537418A (ja) | 2020-12-17 |
JP7295851B2 true JP7295851B2 (ja) | 2023-06-21 |
Family
ID=60191107
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520204A Active JP7295851B2 (ja) | 2017-10-12 | 2018-10-11 | 仮想現実アプリケーションのためのオーディオ配信の最適化 |
JP2023095140A Pending JP2023116635A (ja) | 2017-10-12 | 2023-06-09 | 仮想現実アプリケーションのためのオーディオ配信の最適化 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023095140A Pending JP2023116635A (ja) | 2017-10-12 | 2023-06-09 | 仮想現実アプリケーションのためのオーディオ配信の最適化 |
Country Status (17)
Country | Link |
---|---|
US (2) | US11354084B2 (ja) |
EP (2) | EP4329319A3 (ja) |
JP (2) | JP7295851B2 (ja) |
KR (2) | KR20230130729A (ja) |
CN (5) | CN116193214A (ja) |
AR (6) | AR113357A1 (ja) |
AU (2) | AU2018348762B2 (ja) |
BR (1) | BR112020008073A2 (ja) |
CA (6) | CA3230205A1 (ja) |
ES (1) | ES2970490T3 (ja) |
MX (6) | MX2020003450A (ja) |
PL (1) | PL3695613T3 (ja) |
RU (2) | RU2750505C1 (ja) |
SG (2) | SG10202106080XA (ja) |
TW (1) | TWI713911B (ja) |
WO (1) | WO2019072984A1 (ja) |
ZA (3) | ZA202002064B (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242486B2 (en) * | 2017-04-17 | 2019-03-26 | Intel Corporation | Augmented reality and virtual reality feedback enhancement system, apparatus and method |
JP7274492B2 (ja) | 2018-02-22 | 2023-05-16 | ドルビー・インターナショナル・アーベー | パケット化メディアストリームのサイドロード処理のための方法、機器、およびシステム |
CN109151565B (zh) * | 2018-09-04 | 2019-12-20 | 北京达佳互联信息技术有限公司 | 播放语音的方法、装置、电子设备及存储介质 |
JP2020137044A (ja) * | 2019-02-25 | 2020-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 音声信号処理装置 |
US11211073B2 (en) * | 2019-04-22 | 2021-12-28 | Sony Corporation | Display control of different verbatim text of vocal deliverance of performer-of-interest in a live event |
US11429340B2 (en) | 2019-07-03 | 2022-08-30 | Qualcomm Incorporated | Audio capture and rendering for extended reality experiences |
US20210006976A1 (en) * | 2019-07-03 | 2021-01-07 | Qualcomm Incorporated | Privacy restrictions for audio rendering |
US11432097B2 (en) * | 2019-07-03 | 2022-08-30 | Qualcomm Incorporated | User interface for controlling audio rendering for extended reality experiences |
CN111246225B (zh) * | 2019-12-25 | 2022-02-08 | 北京达佳互联信息技术有限公司 | 信息交互方法、装置、电子设备及计算机可读存储介质 |
JP7371595B2 (ja) * | 2020-09-15 | 2023-10-31 | 横河電機株式会社 | 装置、システム、方法およびプログラム |
GB2599359A (en) * | 2020-09-23 | 2022-04-06 | Nokia Technologies Oy | Spatial audio rendering |
US12010496B2 (en) * | 2020-09-25 | 2024-06-11 | Apple Inc. | Method and system for performing audio ducking for headsets |
US11914157B2 (en) | 2021-03-29 | 2024-02-27 | International Business Machines Corporation | Adjustable air columns for head mounted displays |
US20220391167A1 (en) * | 2021-06-02 | 2022-12-08 | Tencent America LLC | Adaptive audio delivery and rendering |
CN113660347B (zh) * | 2021-08-31 | 2024-05-07 | Oppo广东移动通信有限公司 | 数据处理方法、装置、电子设备和可读存储介质 |
US20230086248A1 (en) * | 2021-09-21 | 2023-03-23 | Meta Platforms Technologies, Llc | Visual navigation elements for artificial reality environments |
US20230260537A1 (en) * | 2022-02-16 | 2023-08-17 | Google Llc | Single Vector Digital Voice Accelerometer |
US20240080638A1 (en) * | 2022-08-19 | 2024-03-07 | Stephen M. Zoepf | Method for navigating multidimensional space using sound |
CN116709162B (zh) * | 2023-08-09 | 2023-11-21 | 腾讯科技(深圳)有限公司 | 音频处理方法及相关设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004072694A (ja) | 2002-08-09 | 2004-03-04 | Sony Corp | 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム |
JP2007029506A (ja) | 2005-07-28 | 2007-02-08 | Konami Digital Entertainment:Kk | ゲーム装置、音声データの生成方法及びプログラム |
JP2009043274A (ja) | 2002-01-09 | 2009-02-26 | Dolby Lab Licensing Corp | 対話型立体的オーディオビジュアル・システム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020103554A1 (en) * | 2001-01-29 | 2002-08-01 | Hewlett-Packard Company | Interactive audio system |
DE102005008366A1 (de) * | 2005-02-23 | 2006-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten |
US20080022348A1 (en) | 2006-07-03 | 2008-01-24 | Samoa Opulence Investment Inc. | Interactive video display system and a method thereof |
US20090094375A1 (en) * | 2007-10-05 | 2009-04-09 | Lection David B | Method And System For Presenting An Event Using An Electronic Device |
KR101576294B1 (ko) * | 2008-08-14 | 2015-12-11 | 삼성전자주식회사 | 가상 현실 시스템에서 사운드 처리를 수행하기 위한 장치 및 방법 |
US10326978B2 (en) * | 2010-06-30 | 2019-06-18 | Warner Bros. Entertainment Inc. | Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning |
RU2621633C2 (ru) * | 2011-10-28 | 2017-06-06 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
US20150296247A1 (en) | 2012-02-29 | 2015-10-15 | ExXothermic, Inc. | Interaction of user devices and video devices |
EP2962468A1 (en) * | 2013-03-14 | 2016-01-06 | Arris Technology, Inc. | Devices, systems, and methods for converting or translating dynamic adaptive streaming over http (dash) to http live streaming (hls) |
EP2830052A1 (en) * | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension |
US20150302651A1 (en) * | 2014-04-18 | 2015-10-22 | Sam Shpigelman | System and method for augmented or virtual reality entertainment experience |
EP3151242B1 (en) * | 2014-05-30 | 2020-01-15 | Sony Corporation | Information processor and information processing method |
US9787846B2 (en) * | 2015-01-21 | 2017-10-10 | Microsoft Technology Licensing, Llc | Spatial audio signal processing for objects with associated audio content |
US20160255348A1 (en) * | 2015-02-27 | 2016-09-01 | Arris Enterprises, Inc. | Adaptive joint bitrate allocation |
GB2536025B (en) * | 2015-03-05 | 2021-03-03 | Nokia Technologies Oy | Video streaming method |
WO2017048713A1 (en) | 2015-09-16 | 2017-03-23 | Magic Leap, Inc. | Head pose mixing of audio files |
US20170109131A1 (en) * | 2015-10-20 | 2017-04-20 | Bragi GmbH | Earpiece 3D Sound Localization Using Mixed Sensor Array for Virtual Reality System and Method |
US10229540B2 (en) | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
WO2017120681A1 (en) * | 2016-01-15 | 2017-07-20 | Michael Godfrey | Method and system for automatically determining a positional three dimensional output of audio information based on a user's orientation within an artificial immersive environment |
US10229541B2 (en) | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
US10291910B2 (en) * | 2016-02-12 | 2019-05-14 | Gopro, Inc. | Systems and methods for spatially adaptive video encoding |
US11017712B2 (en) * | 2016-08-12 | 2021-05-25 | Intel Corporation | Optimized display image rendering |
CN109891850B (zh) * | 2016-09-09 | 2023-04-04 | Vid拓展公司 | 用于减少360度视区自适应流媒体延迟的方法和装置 |
CN106774891A (zh) * | 2016-12-15 | 2017-05-31 | 北京小鸟看看科技有限公司 | 虚拟现实场景的音效产生方法、设备及虚拟现实设备 |
US10659906B2 (en) * | 2017-01-13 | 2020-05-19 | Qualcomm Incorporated | Audio parallax for virtual reality, augmented reality, and mixed reality |
GB2560923A (en) * | 2017-03-28 | 2018-10-03 | Nokia Technologies Oy | Video streaming |
CN114895785A (zh) * | 2017-06-15 | 2022-08-12 | 杜比国际公司 | 一种包括再现和存储媒体内容的装置的***及其相关装置 |
US11164606B2 (en) * | 2017-06-30 | 2021-11-02 | Qualcomm Incorporated | Audio-driven viewport selection |
EP3649791A1 (en) * | 2017-07-03 | 2020-05-13 | Telefonaktiebolaget LM Ericsson (PUBL) | Methods for personalized 360 video delivery |
-
2018
- 2018-10-11 RU RU2020115448A patent/RU2750505C1/ru active
- 2018-10-11 CN CN202310102807.5A patent/CN116193214A/zh active Pending
- 2018-10-11 CA CA3230205A patent/CA3230205A1/en active Pending
- 2018-10-11 CN CN202310099423.2A patent/CN116193212A/zh active Pending
- 2018-10-11 KR KR1020237027561A patent/KR20230130729A/ko active IP Right Grant
- 2018-10-11 CA CA3230231A patent/CA3230231A1/en active Pending
- 2018-10-11 KR KR1020207013475A patent/KR102568373B1/ko active IP Right Grant
- 2018-10-11 WO PCT/EP2018/077770 patent/WO2019072984A1/en active Search and Examination
- 2018-10-11 MX MX2020003450A patent/MX2020003450A/es unknown
- 2018-10-11 SG SG10202106080XA patent/SG10202106080XA/en unknown
- 2018-10-11 CN CN202310142677.8A patent/CN116193215A/zh active Pending
- 2018-10-11 CN CN202310100084.5A patent/CN116193213A/zh active Pending
- 2018-10-11 EP EP23216937.5A patent/EP4329319A3/en active Pending
- 2018-10-11 CN CN201880080196.6A patent/CN111466122B/zh active Active
- 2018-10-11 PL PL18783491.6T patent/PL3695613T3/pl unknown
- 2018-10-11 RU RU2021117733A patent/RU2765569C1/ru active
- 2018-10-11 CA CA3230304A patent/CA3230304A1/en active Pending
- 2018-10-11 CA CA3078858A patent/CA3078858A1/en active Pending
- 2018-10-11 BR BR112020008073-0A patent/BR112020008073A2/pt unknown
- 2018-10-11 JP JP2020520204A patent/JP7295851B2/ja active Active
- 2018-10-11 AU AU2018348762A patent/AU2018348762B2/en active Active
- 2018-10-11 CA CA3230310A patent/CA3230310A1/en active Pending
- 2018-10-11 CA CA3230221A patent/CA3230221A1/en active Pending
- 2018-10-11 EP EP18783491.6A patent/EP3695613B1/en active Active
- 2018-10-11 ES ES18783491T patent/ES2970490T3/es active Active
- 2018-10-11 SG SG11202003269SA patent/SG11202003269SA/en unknown
- 2018-10-12 AR ARP180102986A patent/AR113357A1/es active IP Right Grant
- 2018-10-12 TW TW107136093A patent/TWI713911B/zh active
-
2020
- 2020-04-10 US US16/845,602 patent/US11354084B2/en active Active
- 2020-05-04 ZA ZA2020/02064A patent/ZA202002064B/en unknown
- 2020-07-13 MX MX2023012966A patent/MX2023012966A/es unknown
- 2020-07-13 MX MX2023012967A patent/MX2023012967A/es unknown
- 2020-07-13 MX MX2023012964A patent/MX2023012964A/es unknown
- 2020-07-13 MX MX2023012963A patent/MX2023012963A/es unknown
- 2020-07-13 MX MX2023012965A patent/MX2023012965A/es unknown
-
2022
- 2022-05-02 US US17/734,461 patent/US20220261215A1/en active Pending
- 2022-05-13 AR ARP220101294A patent/AR125884A2/es unknown
- 2022-05-13 AR ARP220101290A patent/AR125880A2/es unknown
- 2022-05-13 AR ARP220101292A patent/AR125882A2/es unknown
- 2022-05-13 AR ARP220101293A patent/AR125883A2/es unknown
- 2022-05-13 AR ARP220101291A patent/AR125881A2/es unknown
- 2022-07-27 ZA ZA2022/08388A patent/ZA202208388B/en unknown
- 2022-07-27 ZA ZA2022/08364A patent/ZA202208364B/en unknown
-
2023
- 2023-06-09 JP JP2023095140A patent/JP2023116635A/ja active Pending
- 2023-11-07 AU AU2023263436A patent/AU2023263436A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009043274A (ja) | 2002-01-09 | 2009-02-26 | Dolby Lab Licensing Corp | 対話型立体的オーディオビジュアル・システム |
JP2004072694A (ja) | 2002-08-09 | 2004-03-04 | Sony Corp | 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム |
JP2007029506A (ja) | 2005-07-28 | 2007-02-08 | Konami Digital Entertainment:Kk | ゲーム装置、音声データの生成方法及びプログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7295851B2 (ja) | 仮想現実アプリケーションのためのオーディオ配信の最適化 | |
JP7072649B2 (ja) | 高品質のエクスペリエンスのためのオーディオメッセージの効率的な配信および使用のための方法および装置 | |
KR102243666B1 (ko) | 360도 비디오를 전송하는 방법, 360도 비디오를 수신하는 방법, 360도 비디오 전송 장치, 360도 비디오 수신 장치 | |
RU2801698C2 (ru) | Оптимизация доставки звука для приложений виртуальной реальности | |
US20230043591A1 (en) | Information processing apparatus and method | |
Macq et al. | Application Scenarios and Deployment Domains |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200606 |
|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20200606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220822 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7295851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |