JP6676771B2 - メディアファイルにおけるバーチャルリアリティビデオの記憶 - Google Patents

メディアファイルにおけるバーチャルリアリティビデオの記憶 Download PDF

Info

Publication number
JP6676771B2
JP6676771B2 JP2018543201A JP2018543201A JP6676771B2 JP 6676771 B2 JP6676771 B2 JP 6676771B2 JP 2018543201 A JP2018543201 A JP 2018543201A JP 2018543201 A JP2018543201 A JP 2018543201A JP 6676771 B2 JP6676771 B2 JP 6676771B2
Authority
JP
Japan
Prior art keywords
virtual reality
data
box
file
scheme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018543201A
Other languages
English (en)
Other versions
JP2019512186A (ja
JP2019512186A5 (ja
Inventor
ワン、イェ−クイ
ヘンドリー、フヌ
カルチェビチ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2019512186A publication Critical patent/JP2019512186A/ja
Publication of JP2019512186A5 publication Critical patent/JP2019512186A5/ja
Application granted granted Critical
Publication of JP6676771B2 publication Critical patent/JP6676771B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[0001]本出願は、ISOベースメディアファイルフォーマット(ISOBMFF)および/またはISOBMFFから派生されたファイルフォーマットなど、1つまたは複数のメディアファイルフォーマットでのバーチャルリアリティ(VR)ビデオコンテンツの記憶に関する。たとえば、本出願は、後方互換性がある様式での、いくつかの例では、1つまたは複数のVRビデオ固有詳細を含む、VRビデオコンテンツの識別情報(identification)のシグナリングのための方法およびシステムに関する。
[0002]ビデオコーディング規格は、ITU−T H.261と、ISO/IEC MPEG−1 Visualと、ITU−T H.262またはISO/IEC MPEG−2 Visualと、ITU−T H.263と、ISO/IEC MPEG−4 Visualと、スケーラブルビデオコーディング(SVC)として知られるそれのスケーラブルビデオコーディング拡張、およびマルチビュービデオコーディング(MVC)拡張それのマルチビュービデオコーディング拡張を含む、ITU−T H.264またはISO/IEC MPEG−4 AVCと、それのスケーラブルコーディング拡張(すなわち、スケーラブル高効率ビデオコーディング、SHVC)およびマルチビュー拡張(すなわち、マルチビュー高効率ビデオコーディング、MV−HEVC)を含む、ITU−T H.265およびISO/IEC23008−2としても知られる、高効率ビデオコーディング(HEVC)とを含む。
[0003]いくつかの実施形態では、ビデオプレーヤデバイスがバーチャルリアリティコンテンツを適切にレンダリングおよび/または無視することができるように、ファイルがバーチャルリアリティコンテンツを含むことをそのファイル中で示すための技法が説明される。
[0004]少なくとも1つの例によれば、バーチャルリアリティデータを取得することを含む、ファイル中のバーチャルリアリティコンテンツを示すための方法が提供される。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。本方法は、バーチャルリアリティデータをファイルに記憶することをさらに含む。バーチャルリアリティデータは、フォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、バーチャルリアリティデータのファイル内での配置(placement within the file of the virtual reality data)と、またバーチャルリアリティデータに関連する情報のファイル内での配置(placement within the file of information associated with the virtual reality data)とを指定することができる。バーチャルリアリティデータに関連する情報はトラックボックスに記憶され得る。本方法は、サンプルエントリをトラックボックス中に記憶することをさらに含む。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。サンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。
[0005]別の例では、ビデオデータを記憶するように構成されたメモリと、プロセッサとを含む装置が提供される。プロセッサは、バーチャルリアリティデータを取得するように構成され、バーチャルリアリティデータを取得することができる。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。プロセスは、バーチャルリアリティデータをファイルに記憶するように構成され、バーチャルリアリティデータをファイルに記憶することができる。バーチャルリアリティデータは、フォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内でのバーチャルリアリティデータの配置と、またバーチャルリアリティデータに関連する情報の配置とを指定することができる。バーチャルリアリティデータに関連する情報はトラックボックスに記憶され得る。プロセッサは、サンプルエントリをトラックボックス中にさらに記憶するように構成され、サンプルエントリをトラックボックス中にさらに記憶することができる。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。サンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる
[0006]別の例では、プロセッサによって実行されたとき、バーチャルリアリティデータを取得することを含む方法を実施する命令を記憶したコンピュータ可読媒体が提供される。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。本方法は、バーチャルリアリティデータをファイルに記憶することをさらに含む。バーチャルリアリティデータは、フォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内での、バーチャルリアリティデータと、またバーチャルリアリティデータに関連する情報との配置を規定することができる。バーチャルリアリティデータに関連する情報はトラックボックスに記憶され得る。本方法は、サンプルエントリをトラックボックス中に書き込むことをさらに含む。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。サンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。
[0007]別の例では、ファイル中のバーチャルリアリティコンテンツを示すための手段を含む装置が提供される。本装置は、バーチャルリアリティデータを取得するための手段をさらに備える。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。本装置は、バーチャルリアリティデータをファイルに記憶するための手段をさらに含む。バーチャルリアリティデータは、フォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内でのバーチャルリアリティデータの配置と、またファイル内でのバーチャルリアリティデータに関連する情報の配置とを指定することができる。バーチャルリアリティデータに関連する情報はトラックボックスに記憶され得る。本装置は、サンプルエントリをトラックボックス中に記憶するための手段をさらに備える。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。サンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。
[0008]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、方式タイプボックス(scheme type box)をサンプルエントリ中に記憶することをさらに備える。方式タイプボックスは方式タイプを含むことができる。方式タイプは、バーチャルリアリティ方式として定義され得る。
[0009]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、バーチャルリアリティデータに関係するパラメータをファイルへ記憶すること(storing parameters related to the virtual reality data to the file)をさらに備える。いくつかの態様では、パラメータは、バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのか(whether the virtual reality data includes 2-dimensional or 3-dimensional video data)、ビデオデータがプリスティッチされるのかポストスティッチされるのか(whether the video data is pre-stitched or post-stitched)、またはビデオデータのためのマッピングタイプのうちの1つまたは複数を含む。いくつかの態様では、パラメータを記憶することは、パラメータを方式情報ボックス中に(into)記憶することを含む。
[0010]いくつかの態様では、ファイルフォーマットはISOベースメディアファイルフォーマットに基づく。
[0011]少なくとも1つの例によれば、ファイルを取得することを含む、ファイル中のリアリティデータコンテンツを処理するための方法が提供され、ここで、ファイルはバーチャルリアリティデータを含む。バーチャルリアリティデータは、ファイルフォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内でのバーチャルリアリティデータの配置を指定し、ファイル内でのバーチャルリアリティデータに関連する情報の配置を指定することができる。バーチャルリアリティデータに関連する情報はトラックボックス内に記憶され得る。本方法は、ファイルを処理することをさらに含み、ここで、ファイルを処理することは、トラックボックス中のサンプルエントリを処理することを含む。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。1つまたは複数のサンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。本方法は、バーチャルリアリティ方式に従って1つまたは複数のサンプルを処理することをさらに含む。
[0012]別の例では、ファイルを記憶するように構成されたメモリと、プロセッサとを含む装置が提供される。ファイルはバーチャルリアリティデータを含む。バーチャルリアリティデータは、ファイルフォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内でのバーチャルリアリティデータの配置と、ファイル内でのバーチャルリアリティデータに関連する情報の配置とを指定することができる。バーチャルリアリティデータに関連する情報はトラックボックスに記憶され得る。プロセッサは、ファイルを処理するように構成され、ファイルを処理することができ、ここで、ファイルを処理することは、トラックボックス中のサンプルエントリを処理することを含む。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。1つまたは複数のサンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。プロセッサは、バーチャルリアリティ方式に従って1つまたは複数のサンプルを処理するように構成され、バーチャルリアリティ方式に従って1つまたは複数のサンプルを処理することができる。
[0013]別の例では、プロセッサによって実行されたとき、ファイルを取得することを含む方法を実施する命令を記憶したコンピュータ可読媒体が提供され、ここで、ファイルはバーチャルリアリティデータを含む。バーチャルリアリティデータは、ファイルフォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内でのバーチャルリアリティデータの配置を指定し、ファイル内でのバーチャルリアリティデータに関連する情報の配置を指定することができる。バーチャルリアリティデータに関連する情報はトラックボックス内に記憶され得る。本方法は、ファイルを処理することをさらに含み、ここで、ファイルを処理することは、トラックボックス中のサンプルエントリを処理することを含む。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。1つまたは複数のサンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。本方法は、バーチャルリアリティ方式に従って1つまたは複数のサンプルを処理することをさらに含む。
[0014]別の例では、バーチャルリアリティコンテンツを含むファイルを処理するための手段を含む装置が提供される。ための本装置は、ファイルを取得するための手段を備え、ここで、ファイルはバーチャルリアリティデータを含む。バーチャルリアリティデータは、ファイルフォーマットに従ってファイルに記憶され得る。ファイルフォーマットは、ファイル内でのバーチャルリアリティデータの配置を指定し、ファイル内でのバーチャルリアリティデータに関連する情報の配置を指定することができる。バーチャルリアリティデータに関連する情報はトラックボックス内に記憶され得る。本装置は、ファイルを処理するための手段をさらに含み、ここで、ファイルを処理することは、トラックボックス中のサンプルエントリを処理することを含む。サンプルエントリは、1つまたは複数のサンプルに関連することができる。サンプルエントリは、制限付き方式情報ボックスを含むことができる。制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義することができる。1つまたは複数のサンプルは、バーチャルリアリティデータの少なくとも一部分を含むことができる。本装置は、バーチャルリアリティ方式に従って1つまたは複数のサンプルを処理するための手段をさらに含む。
[0015]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、サンプルエントリ中の方式タイプボックスを処理することをさらに備える。方式タイプボックスは方式タイプを含むことができる。方式タイプは、バーチャルリアリティ方式として定義される。
[0016]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、バーチャルリアリティデータに関係するパラメータを処理することをさらに備える。パラメータはファイルに記憶され得る。
[0017]いくつかの態様では、パラメータは、バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、またはビデオデータのためのマッピングタイプのうちの1つまたは複数を含む。いくつかの態様では、パラメータは、ファイルにおいて方式情報ボックスに記憶される(the parameters are stored in the file in a scheme information box)。
[0018]いくつかの態様では、ファイルフォーマットは、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく。
[0019]少なくとも1つの例によれば、バーチャルリアリティデータを取得することを含む、ファイル中のバーチャルリアリティコンテンツを示すための方法が提供される。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。本方法は、バーチャルリアリティデータをファイルへ書き込むことをさらに含む。バーチャルリアリティデータは、フォーマットに従ってファイルへ書き込まれ得る。ファイルフォーマットは、ファイル内での、バーチャルリアリティデータと、またバーチャルリアリティデータを記述する情報との配置を規定することができる。バーチャルリアリティデータを記述する情報はトラックボックス中に書き込まれ得る。本方法は、トラックボックス中の値を設定することをさらに含む。その値は、トラックボックスによって参照されるサンプルがバーチャルリアリティプレゼンテーションのためにフォーマットされることを示すことができる。
[0020]別の例では、ビデオデータを記憶するように構成されたメモリと、プロセッサとを含む装置が提供される。プロセッサは、バーチャルリアリティデータを取得するように構成され、バーチャルリアリティデータを取得することができる。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。プロセッサは、バーチャルリアリティデータをファイルへ書き込むように構成され、バーチャルリアリティデータをファイルへ書き込むことができる。バーチャルリアリティデータは、フォーマットに従ってファイルへ書き込まれ得る。ファイルフォーマットは、ファイル内での、バーチャルリアリティデータと、またバーチャルリアリティデータを記述する情報との配置を規定することができる。バーチャルリアリティデータを記述する情報はトラックボックス中に書き込まれ得る。プロセッサは、トラックボックス中の値を設定するように構成され、トラックボックス中の値を設定することができる。その値は、トラックボックスによって参照されるサンプルがバーチャルリアリティプレゼンテーションのためにフォーマットされることを示すことができる。
[0021]別の例では、プロセッサによって実行されたとき、バーチャルリアリティデータを取得することを含む方法を実施する命令を記憶したコンピュータ可読媒体が提供される。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。本方法は、バーチャルリアリティデータをファイルへ書き込むことをさらに含む。バーチャルリアリティデータは、フォーマットに従ってファイルへ書き込まれ得る。ファイルフォーマットは、ファイル内での、バーチャルリアリティデータと、またバーチャルリアリティデータを記述する情報との配置を規定することができる。バーチャルリアリティデータを記述する情報はトラックボックス中に書き込まれ得る。本方法は、トラックボックス中の値を設定することをさらに含む。その値は、トラックボックスによって参照されるサンプルがバーチャルリアリティプレゼンテーションのためにフォーマットされることを示すことができる。
[0022]別の例では、バーチャルリアリティデータを取得するための手段を含む装置が提供される。バーチャルリアリティデータはバーチャル環境の360度ビューを表すことができる。本装置は、バーチャルリアリティデータをファイルへ書き込むための手段をさらに備える。バーチャルリアリティデータは、フォーマットに従ってファイルへ書き込まれ得る。ファイルフォーマットは、ファイル内での、バーチャルリアリティデータと、またバーチャルリアリティデータを記述する情報との配置を規定することができる。バーチャルリアリティデータを記述する情報はトラックボックス中に書き込まれ得る。本装置は、トラックボックス中の値を設定するための手段をさらに備える。その値は、トラックボックスによって参照されるサンプルがバーチャルリアリティプレゼンテーションのためにフォーマットされることを示すことができる。
[0023]いくつかの態様では、トラックボックス中の値を設定することは、メディアハンドラボックス中の値を設定することを含む。メディアハンドラボックスはビデオハンドラボックスであり得る。いくつかの態様では、メディアハンドラボックスはバーチャルリアリティハンドラボックスであり得る。
[0024]いくつかの態様では、トラックボックス中の値を設定することは、サンプルエントリボックス中の値を設定することを含む。
[0025]いくつかの態様では、トラックボックス中の値を設定することは、トラックヘッダボックス、メディアヘッダボックス、またはビデオメディアヘッダボックス中の値を設定することを含む。
[0026]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、バーチャルリアリティデータに関係するパラメータをファイルへ書き込むことをさらに備える。いくつかの態様では、パラメータは、バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのか、ビデオデータがプリスティッチされるのかポストスティッチされるのか、またはビデオデータのためのマッピングタイプのうちの1つまたは複数を含む。いくつかの態様では、パラメータを書き込むことは、パラメータを方式情報ボックスへ書き込むことを含む。
[0027]いくつかの態様では、ファイルフォーマットはISOベースメディアファイルフォーマットに基づく。いくつかの態様では、バーチャルリアリティデータは、ビデオデータとオーディオデータとを含む。
[0028]本発明の概要は、請求される主題の主要なまたは本質的な特徴を識別するものではなく、請求される主題の範囲を決定するために独立して使用されるものでもない。本主題は、本特許の明細書全体、いずれかまたはすべての図面、および各請求項の適切な部分を参照することによって理解されたい。
[0029]上記のことは、他の特徴および実施形態とともに、以下の明細書、特許請求の範囲、および添付の図面を参照すると、より明らかになろう。
[0030]本発明の例示的な実施形態が、以下の図面を参照しながら以下で詳細に説明される。
[0031]符号化デバイスと復号デバイスとを含むシステムの一例を示すブロック図。 [0032]ISOBMFFに従ってフォーマットされた、ビデオプレゼンテーションのためのデータとメタデータとを含んでいるISOベースメディアファイルの一例を示す図。 [0033]ISOベースメディアファイルがバーチャルリアリティコンテンツを含むことを示すために、ISOベースメディアファイル中のトップレベルボックスが使用される例を示す図。 ISOベースメディアファイルがバーチャルリアリティコンテンツを含むことを示すために、ISOベースメディアファイル中のトップレベルボックスが使用される例を示す図。 [0034]ISOベースメディアファイル400がバーチャルリアリティコンテンツを含むことを示すために、ISOベースメディアファイル400中でムービーレベル指示が使用される一例を示す図。 [0035]ISOベースメディアファイルがバーチャルリアリティコンテンツを含むことを示すために、そのファイル中でトラックレベルインジケータが使用される一例を示す図。 [0036]トラックのコンテンツがバーチャルリアリティビデオを含むことをシグナリングするためにハンドラボックスが使用される、ISOベースメディアファイルの一例を示す図。 [0037]トラックがバーチャルリアリティコンテンツを含むことを示すために新しいハンドラボックスが定義された、ISOベースメディアファイルの一例を示す図。 [0038]ISOベースメディアファイル中に含まれ得るメディアボックスの一例を示す図。 [0039]バーチャルリアリティコンテンツを含んでいるファイルを生成するためのプロセスの一例を示す図。 [0040]バーチャルリアリティコンテンツを含んでいるファイルを処理するためのプロセスの一例を示す図 [0041]バーチャルリアリティコンテンツを含んでいるファイルを生成するためのプロセスの一例を示す図。 [0042]本開示で説明される技法のうちの1つまたは複数を実装し得る例示的な符号化デバイスを示すブロック図。 [0043]例示的な復号デバイスを示すブロック図。
[0044]本開示のいくつかの態様および実施形態が以下で与えられる。当業者に明らかであるように、これらの態様および実施形態のうちのいくつかは独立して適用され得、それらのうちのいくつかは組合せで適用され得る。以下の説明では、説明の目的で、本発明の実施形態の完全な理解を与えるために具体的な詳細が記載される。ただし、様々な実施形態は、これらの具体的な詳細なしに実施され得ることが明らかであろう。図および説明は限定するものではない。
[0045]以下の説明は、例示的な実施形態のみを与えるものであり、本開示の範囲、適用性、または構成を限定するものではない。そうではなく、例示的な実施形態の以下の説明は、例示的な実施形態を実装することを可能にする説明を当業者に与える。添付の特許請求の範囲に記載されるように、本発明の趣旨および範囲から逸脱することなく、要素の機能および構成において様々な変更が行われ得ることを理解されたい。
[0046]以下の説明では、実施形態の完全な理解を与えるために具体的な詳細が与えられる。ただし、実施形態はこれらの具体的な詳細なしに実施され得ることを当業者は理解されよう。たとえば、回路、システム、ネットワーク、プロセス、および他の構成要素は、実施形態を不要な詳細で不明瞭にしないためにブロック図の形態で構成要素として示され得る。他の事例では、実施形態を不明瞭にすることを避けるために、よく知られている回路、プロセス、アルゴリズム、構造、および技法が不要な詳細なしに示され得る。
[0047]また、個々の実施形態は、フローチャート、流れ図、データフロー図、構造図、またはブロック図として示されるプロセスとして説明されることがあることに留意されたい。フローチャートは動作を逐次プロセスとして説明することがあるが、動作の多くは並行してまたは同時に実施され得る。さらに、動作の順序は並べ替えられ得る。それの動作が完了されるとき、プロセスは終了されるが、図中に含まれない追加のステップを有し得る。プロセスは、方法、関数、プロシージャ、サブルーチン、サブプログラムなどに対応し得る。プロセスが関数に対応するとき、それの終了は呼出し関数またはメイン関数への関数の復帰に対応することができる。
[0048]「コンピュータ可読媒体」という用語は、限定はしないが、ポータブルまたは非ポータブル記憶デバイス、光記憶デバイス、ならびに(1つまたは複数の)命令および/またはデータを記憶、含有、または担持することが可能な様々な他の媒体を含む。コンピュータ可読媒体は、データがそこに記憶され得る非一時的媒体を含み得、それは、ワイヤレスにまたはワイヤード接続を介して伝搬する搬送波および/または一時的電子信号を含まない。非一時的媒体の例としては、限定はしないが、磁気ディスクまたはテープ、コンパクトディスク(CD)またはデジタル多用途ディスク(DVD)などの光記憶媒体、フラッシュメモリ、メモリまたはメモリデバイスがあり得る。コンピュータ可読媒体は、プロシージャ、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス、あるいは命令、データ構造、またはプログラムステートメントの任意の組合せを表し得るコードおよび/または機械実行可能命令をその上に記憶していることがある。コードセグメントは、情報、データ、引数、パラメータ、またはメモリ内容をパスおよび/または受信することによって、別のコードセグメントまたはハードウェア回路に結合され得る。情報、引数、パラメータ、データなどは、メモリ共有、メッセージパッシング、トークンパッシング、ネットワーク送信などを含む、任意の好適な手段を介してパス、フォワーディング、または送信され得る。
[0049]さらに、実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはそれらの任意の組合せによって実装され得る。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコードで実装されるとき、必要なタスク(たとえば、コンピュータプログラム製品)を実施するためのプログラムコードまたはコードセグメントは、コンピュータ可読または機械可読媒体に記憶され得る。(1つまたは複数の)プロセッサが、必要なタスクを実施し得る。
[0050]バーチャルリアリティ(VR)は、一見したところ(seemingly)現実的または身体的な方法内で相互作用され得る、3次元のコンピュータ生成された環境を記述する。概して、バーチャルリアリティ環境を経験しているユーザは、バーチャル環境と相互作用するために、ヘッドマウントディスプレイ(HMD)および随意に(optionally)また衣類(たとえば、センサーを取り付けたグローブ)など、電子機器を使用する。ユーザが実世界中で移動するにつれて、バーチャル環境中でレンダリングされる画像も変化し、ユーザがバーチャル環境内で移動しているという知覚をユーザに与える。いくつかの場合には、バーチャル環境は、ユーザの移動と相関する音を含み、音が特定の方向またはソースから発生するという印象をユーザに与える。バーチャルリアリティビデオは、極めて高い品質でキャプチャおよびレンダリングされ、真に没入型のバーチャルリアリティエクスペリエンスを潜在的に与えることができる。バーチャルリアリティ適用例は、特に、ゲーム、トレーニング、教育、スポーツビデオ、およびオンラインショッピングを含む。
[0051]バーチャルリアリティシステムは、一般に、ビデオキャプチャデバイスとビデオディスプレイデバイスとを含み、場合によっては、サーバ、データ記憶装置、およびデータ伝送機器など、他の中間デバイスをも含む。ビデオキャプチャデバイスは、カメラセット、すなわち、各々が、異なる方向に配向され、異なるビューをキャプチャする、複数のカメラのセットを含み得る。わずか6つのカメラが、カメラセットのロケーションを中心とする完全な360度ビューをキャプチャするために使用され得る。いくつかのビデオキャプチャデバイスは、たとえば、主に横方向ビューをキャプチャするビデオキャプチャデバイスなど、より少数のカメラを使用し得る。ビデオは、概してフレームを含み、ここで、フレームは、シーンの電子的にコード化された静止画像である。カメラは、毎秒一定数のフレームをキャプチャし、これは、通常、カメラのフレームレートと呼ばれる。
[0052]シームレスな360度ビューを与えるために、カメラセット中のカメラの各々によってキャプチャされたビデオは、一般に画像スティッチングを受ける。360度ビデオ生成の場合の画像スティッチングは、ビデオフレームが重複するかまたは場合によっては接続するであろうエリア中の隣接するカメラからのビデオフレームを組み合わせるかまたはマージすることを伴う。結果は、近似的に球状のフレームになるであろうが、メルカトル図法と同様に、マージされたデータは、一般に平面様式で表される。たとえば、マージされたビデオフレーム中のピクセルは、立方体形状、または何らかの他の3次元の平面形状(たとえば、ピラミッド、8面体、10面体など)の平面上にマッピングされ得る。ビデオキャプチャおよびビデオディスプレイデバイスは、概して、ビデオフレームがピクセルのグリッドとして扱われることを意味するラスタ原理上で動作し、したがって、正方形または長方形平面が、一般に、球状環境を表すために使用される。
[0053]平面表現にマッピングされたバーチャルリアリティビデオフレームは、記憶および/または送信のために符号化および/または圧縮され得る。符号化および/または圧縮は、ビデオコーデック(たとえば、H.265/HEVC準拠コーデック、H.264/AVC準拠コーデック、または他の好適なコーデック)を使用して達成され得、圧縮されたビデオビットストリームまたはビットストリームのグループを生じる。ビデオコーデックを使用するビデオデータの符号化は、以下でさらに詳細に説明される。
[0054](1つまたは複数の)符号化ビデオビットストリームは、メディアフォーマットまたはファイルフォーマットで記憶および/またはカプセル化され得る。(1つまたは複数の)記憶されたビットストリームは、表示のためにビデオを復号およびレンダリングすることができる受信機デバイスに、たとえば、ネットワークを介して、送信され得る。そのような受信機デバイスは、本明細書ではビデオディスプレイデバイスと呼ばれることがある。たとえば、バーチャルリアリティシステムは、(たとえば、国際標準化機構(ISO)ベースメディアファイルフォーマットおよび/または派生ファイルフォーマットを使用して)符号化ビデオデータから、カプセル化されたファイルを生成することができる。たとえば、ビデオコーデックはビデオデータを符号化することができ、カプセル化エンジンは、ビデオデータを1つまたは複数のISOフォーマットメディアファイル中にカプセル化することによってメディアファイルを生成することができる。代替または追加として、(1つまたは複数の)記憶されたビットストリームは、記憶媒体から受信機デバイスに直接与えられ得る。
[0055]受信機デバイスも、符号化ビデオビットストリームを復号および/または復元するためにコーデックを実装することができる。受信機デバイスは、ビデオビットストリームを1つのファイル(または複数のファイル)中にパックするために使用されたメディアまたはファイルフォーマットをサポートし、符号化ビデオデータを生成するために、ビデオ(および場合によってはまたオーディオ)データを抽出することができる。たとえば、受信機デバイスは、符号化ビデオデータを生成するために、カプセル化されたビデオデータをもつメディアファイルをパースすることができ、受信機デバイス中のコーデックは、符号化ビデオデータを復号することができる。
[0056]受信機デバイスは、次いで、復号ビデオ信号をレンダリングデバイス(たとえば、ビデオディスプレイデバイス)に送ることができる。レンダリングデバイスは、たとえば、ヘッドマウントディスプレイ、バーチャルリアリティテレビジョン、および他の180または360度ディスプレイデバイスを含む。概して、ヘッドマウントディスプレイは、着用者の頭の移動および/または着用者の眼の移動を追跡することが可能である。ヘッドマウントディスプレイは、着用者が、その人が実世界を経験するであろうということと同様に(in the same way)バーチャル環境を経験するように、着用者が見ている方向に対応する360度ビデオの部分をレンダリングするために追跡情報を使用することができる。レンダリングデバイスは、ビデオがキャプチャされた同じフレームレートで、または異なるフレームレートでビデオをレンダリングし得る。
[0057]ファイルフォーマット規格は、1つまたは複数のファイル中にビデオ(および場合によってはまたオーディオ)データをパックおよびアンパックするためのフォーマットを定義することができる。ファイルフォーマット規格は、国際標準化機構(ISO)ベースメディアファイルフォーマット(ISOBMFF、ISO/IEC14496−12において定義されている)と、モーションピクチャエキスパートグループ(MPEG:Motion Pictures Experts Group)MPEG−4ファイルフォーマット(ISO/IEC14496−15において定義されている)、第3世代パートナーシッププロジェクト(3GPP(登録商標))ファイルフォーマット(3GPP TS26.244において定義されている)、ならびにアドバンストビデオコーディング(AVC)ファイルフォーマットおよび高効率ビデオコーディング(HEVC)ファイルフォーマット(両方ともISO/IEC14496−15において定義されている)を含む、ISOBMFFから派生された他のファイルフォーマットとを含む。ISO/IEC14496−12および14496−15のための最近の新版のドラフトテキストは、それぞれ、http://phenix.int-evry.fr/mpeg/doc_end_user/documents/111_Geneva/wg11/w15177-v6-w15177.zipおよびhttp://phenix.int-evry.fr/mpeg/doc_end_user/documents/112_Warsaw/wg11/w15479-v2-w15479.zipにおいて入手可能である。
[0058]ISOBMFFは、多くのコーデックカプセル化フォーマット(たとえば、AVCファイルフォーマットまたは他の好適なコーデックカプセル化フォーマット)のための、ならびに多くのマルチメディアコンテナフォーマット(たとえば、MPEG−4ファイルフォーマット、3GPPファイルフォーマット(3GP)、DVBファイルフォーマット、または他の好適なマルチメディアコンテナフォーマット)のための、基礎として使用される。ISOBMFFベースファイルフォーマットは、ストリーミングメディアとも呼ばれる連続メディアのために使用され得る。
[0059]連続メディア(たとえば、オーディオおよびビデオ)に加えて、静的メディア(たとえば、画像)およびメタデータが、ISOBMFFに準拠するファイルに記憶され得る。ISOBMFFに従って構造化されたファイルは、ローカルメディアファイル再生、リモートファイルのプログレッシブダウンロードを含む、多くの目的のために、動的適応ストリーミングオーバーHTTP(DASH)のためのセグメントとして、ストリーミングされるべきコンテンツのためのコンテナとして(その場合、コンテナはパケット化命令を含む)、受信されたリアルタイムメディアストリームの記録、または他の用途のために使用され得る。
[0060]ISOBMFFおよびそれの派生ファイルフォーマット(たとえば、AVCファイルフォーマットまたは他の派生ファイルフォーマット)は、多くのマルチメディア適用例において、(たとえば、ビデオ、オーディオ、およびタイムドテキストを含む)メディアコンテンツの記憶およびカプセル化のために広く使用される。ISOBMFFおよびISOBMFFから派生されたファイルフォーマットは、しかしながら、バーチャルリアリティ(VR)ビデオを記憶するための仕様を含まない。たとえば、バーチャルリアリティビデオがISOBMFFまたは派生ファイルフォーマットに基づいてファイルに記憶された場合、プレーヤデバイスは、バーチャルリアリティビデオを従来の平面ビデオとして扱い得る(たとえば、処理することを試み得る)(たとえば、プレーヤデバイスは、バーチャルリアリティビデオを、バーチャルリアリティコンテンツを含まないものとして扱い得る)。したがって、プレーヤは、レンダリング中にバーチャルリアリティビデオの必要な投影を適用せず、その結果、ビデオは、表示されたとき、ひずんでおり、潜在的に閲覧可能でないことがある。
[0061]様々な実装形態では、ISOBMFFへの修正および/または追加は、ISOBMFF、またはISOBMFFから派生されたフォーマットに従ってフォーマットされたファイルが、バーチャルリアリティコンテンツを含むことを示すことができる。たとえば、いくつかの実装形態では、ファイルは、そのファイルのコンテンツが、バーチャルリアリティ使用事例または実装形態において使用するためにフォーマットされることをシグナリングする(たとえば、示す)、ファイルレベル指示を含むことができる。別の例として、いくつかの実装形態では、ファイルは、そのファイル中のムービープレゼンテーションがバーチャルリアリティコンテンツを含むことをシグナリングする(たとえば、示す)、ムービーレベル指示を含むことができる。別の例として、いくつかの実装形態では、ファイルは、トラックがバーチャルリアリティコンテンツを含むことをシグナリングする(たとえば、示す)、トラックレベル指示を含むことができる。様々な実装形態では、バーチャルリアリティコンテンツに関係するパラメータも、ファイル、ムービー、および/またはトラックレベルにおいてシグナリングされ得る。
[0062]これらおよび他の実装形態では、プレーヤデバイスは、ファイルがバーチャルリアリティコンテンツを含むときを認識することができる。いくつかの場合には、バーチャルリアリティコンテンツを表示することが可能でないプレーヤデバイスは、バーチャルリアリティメディアを無視および/またはスキップすることができる。
[0063]図1は、符号化デバイス104と復号デバイス112とを含むシステム100の一例を示すブロック図である。符号化デバイス104はソースデバイスの一部であり得、復号デバイス112は受信デバイスの一部であり得る。ソースデバイスおよび/または受信デバイスは、モバイルもしくは固定電話ハンドセット(たとえば、スマートフォン、セルラー電話など)、デスクトップコンピュータ、ラップトップもしくはノートブックコンピュータ、タブレットコンピュータ、セットトップボックス、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイス、または任意の他の好適な電子デバイスなど、電子デバイスを含み得る。いくつかの例では、ソースデバイスおよび受信デバイスは、ワイヤレス通信のための1つまたは複数のワイヤレストランシーバを含み得る。本明細書で説明されるコーディング技法は、(たとえば、インターネットを介した)ストリーミングビデオ送信、テレビジョン放送もしくは送信、データ記憶媒体上に記憶するためのデジタルビデオの符号化、データ記憶媒体上に記憶されたデジタルビデオの復号、または他の適用例を含む、様々なマルチメディア適用例におけるビデオコーディングに適用可能である。いくつかの例では、システム100は、ビデオ会議、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、ゲーム、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートすることができる。
[0064]符号化デバイス104(またはエンコーダ)は、符号化ビデオビットストリームを生成するために、ビデオコーディング規格またはプロトコルを使用して、バーチャルリアリティビデオデータを含むビデオデータを符号化するために使用され得る。ビデオコーディング規格は、ITU−T H.261と、ISO/IEC MPEG−1 Visualと、ITU−T H.262またはISO/IEC MPEG−2 Visualと、ITU−T H.263と、ISO/IEC MPEG−4 Visualと、それぞれSVCおよびMVCとして知られる、それのスケーラブルビデオコーディング拡張およびマルチビュービデオコーディング拡張を含む、(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264とを含む。より最近のビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)が、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)とISO/IECムービングピクチャエキスパートグループ(MPEG:Moving Picture Experts Group)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって確定された。MV−HEVCと呼ばれるHEVCに対するマルチビュー拡張、およびSHVCと呼ばれるHEVCに対するスケーラブル拡張、または任意の他の好適なコーディングプロトコルを含む、HEVCに対する様々な拡張が、マルチレイヤビデオコーディングに対処し、また、JCT−VCによって開発されている。
[0065]本明細書で説明される実装形態は、HEVC規格またはそれの拡張を使用する例について説明する。しかしながら、本明細書で説明される技法およびシステムは、AVC、MPEG、それの拡張、あるいはすでに利用可能であるか、またはまだ利用可能ではないか、もしくは開発されていない他の好適なコーディング規格など、他のコーディング規格にも適用可能であり得る。したがって、本明細書で説明される技法およびシステムは、特定のビデオコーディング規格を参照しながら説明され得るが、当業者は、説明がその特定の規格にのみ適用されると解釈されるべきではないことを諒解されよう。
[0066]ビデオソース102は、符号化デバイス104にビデオデータを与え得る。ビデオソース102は、ソースデバイスの一部であり得るか、またはソースデバイス以外のデバイスの一部であり得る。ビデオソース102は、ビデオキャプチャデバイス(たとえば、ビデオカメラ、カメラフォン、ビデオフォンなど)、記憶されたビデオを含むビデオアーカイブ、ビデオデータを与えるビデオサーバもしくはコンテンツプロバイダ、ビデオサーバもしくはコンテンツプロバイダからビデオを受信するビデオフィードインターフェース、コンピュータグラフィックスビデオデータを生成するためのコンピュータグラフィックスシステム、そのようなソースの組合せ、または任意の他の好適なビデオソースを含み得る。ビデオソース102の一例としては、インターネットプロトコルカメラ(IPカメラ)があり得る。IPカメラは、監視、ホームセキュリティ、または他の好適な適用例に使用され得るタイプのデジタルビデオカメラである。アナログ閉回路テレビジョン(CCTV)カメラとは異なり、IPカメラは、コンピュータネットワークおよびインターネットを介してデータを送り、受信することができる。
[0067]ビデオソース102からのビデオデータは、1つまたは複数の入力ピクチャまたはフレームを含み得る。ピクチャまたはフレームは、ビデオの一部である静止画像である。符号化デバイス104のエンコーダエンジン106(またはエンコーダ)は、符号化ビデオビットストリームを生成するためにビデオデータを符号化する。いくつかの例では、符号化ビデオビットストリーム(または「ビデオビットストリーム」もしくは「ビットストリーム」)は、一連の1つまたは複数のコード化ビデオシーケンスである。コード化ビデオシーケンス(CVS)は、ベースレイヤ中の、いくつかのプロパティをもつランダムアクセスポイントピクチャを有するアクセスユニット(AU)で始まり、ベースレイヤ中の、いくつかのプロパティをもつランダムアクセスポイントピクチャを有する次のAUまでの、次のAUを含まない一連のAUを含む。たとえば、CVSを開始するランダムアクセスポイントピクチャのいくつかのプロパティは、1に等しいRASLフラグ(たとえば、NoRaslOutputFlag)を含み得る。他の場合、(0に等しいRASLフラグをもつ)ランダムアクセスポイントピクチャはCVSを開始しない。アクセスユニット(AU)は、1つまたは複数のコード化ピクチャと、同じ出力時間を共有するコード化ピクチャに対応する制御情報とを含む。ピクチャのコード化スライスは、ビットストリームレベルにおいて、ネットワークアブストラクションレイヤ(NAL)ユニットと呼ばれるデータユニット中にカプセル化される。たとえば、HEVCビデオビットストリームは、NALユニットを含む1つまたは複数のCVSを含み得る。ビデオコーディングレイヤ(VCL)NALユニットと非VCL NALユニットとを含む、NALユニットの2つのクラスがHEVC規格に存在する。VCL NALユニットは、コード化ピクチャデータの(以下で説明される)1つのスライスまたはスライスセグメントを含み、非VCL NALユニットは、1つまたは複数のコード化ピクチャに関係する制御情報を含む。
[0068]NALユニットは、ビデオ中のピクチャのコード化表現など、ビデオデータのコード化表現を形成するビットのシーケンス(たとえば、符号化ビデオビットストリーム、ビットストリームのCVSなど)を含んでいることがある。エンコーダエンジン106は、各ピクチャを複数のスライスに区分することによってピクチャのコード化表現を生成する。スライスは、次いで、ルーマサンプルおよびクロマサンプルのコーディングツリーブロック(CTB)に区分される。ルーマサンプルのCTBおよびクロマサンプルの1つまたは複数のCTBは、サンプルのためのシンタックスとともに、コーディングツリーユニット(CTU)と呼ばれる。CTUは、HEVC符号化のための基本処理ユニットである。CTUは、様々なサイズの複数のコーディングユニット(CU)にスプリットされ得る。CUは、コーディングブロック(CB)と呼ばれるルーマおよびクロマサンプルアレイを含んでいる。
[0069]ルーマおよびクロマCBは、予測ブロック(PB)にさらにスプリットされ得る。PBは、インター予測のために同じ動きパラメータを使用するルーマまたはクロマ成分のサンプルのブロックである。ルーマPBおよび1つまたは複数のクロマPBは、関連するシンタックスとともに、予測ユニット(PU)を形成する。動きパラメータのセットは、PUごとにビットストリーム中でシグナリングされ、ルーマPBおよび1つまたは複数のクロマPBのインター予測のために使用される。CBはまた、1つまたは複数の変換ブロック(TB)に区分され得る。TBは、予測残差信号をコーディングするために同じ2次元変換が適用される色成分のサンプルの正方形ブロックを表す。変換ユニット(TU)は、ルーマおよびクロマサンプルのTBと、対応するシンタックス要素とを表す。
[0070]CUのサイズは、コーディングノードのサイズに対応し、形状が正方形であり得る。たとえば、CUのサイズは、8×8サンプル、16×16サンプル、32×32サンプル、64×64サンプル、または対応するCTUのサイズまでの任意の他の適切なサイズであり得る。「N×N」という句は、本明細書では、垂直寸法および水平寸法に関するビデオブロックのピクセル寸法(たとえば、8ピクセル×8ピクセル)を指すために使用される。ブロック中のピクセルは行および列に配列され得る。いくつかの実施形態では、ブロックは、水平方向において垂直方向と同じ数のピクセルを有するとは限らない。CUに関連するシンタックスデータは、たとえば、1つまたは複数のPUへのCUの区分を記述し得る。区分モードは、CUがイントラ予測モード符号化されるか、インター予測モード符号化されるかの間で異なり得る。PUは、形状が非正方形になるように区分され得る。CUに関連するシンタックスデータは、たとえば、CTUに従う1つまたは複数のTUへのCUの区分をも記述し得る。TUは、形状が正方形または非正方形であり得る。
[0071]HEVC規格によれば、変換は、変換ユニット(TU)を使用して実施され得る。TUは、異なるCUでは異なり得る。TUは、所与のCU内のPUのサイズに基づいてサイズ決定され得る。TUは、PUと同じサイズであるか、またはPUよりも小さいことがある。いくつかの例では、CUに対応する残差サンプルは、残差4分木(RQT)として知られる4分木構造を使用して、より小さいユニットに再分割され得る。RQTのリーフノードはTUに対応し得る。TUに関連するピクセル差分値は、変換係数を生成するために変換され得る。変換係数は、次いで、エンコーダエンジン106によって量子化され得る。
[0072]ビデオデータのピクチャがCUに区分されると、エンコーダエンジン106は、予測モードを使用して各PUを予測する。予測は、次いで、(以下で説明される)残差を得るために元のビデオデータから減算される。CUごとに、シンタックスデータを使用してビットストリーム内で予測モードがシグナリングされ得る。予測モードは、イントラ予測(もしくはピクチャ内予測)またはインター予測(もしくはピクチャ間予測)を含み得る。イントラ予測を使用して、各PUは、たとえば、PUに関する平均値を見つけるためのDC予測、平坦面をPUに適合させるための平面予測、隣接データから外挿するための方向予測、または任意の他の好適なタイプの予測を使用して、同じピクチャ中の隣接画像データから予測される。インター予測を使用して、各PUは、(出力順序において現在ピクチャの前または後の)1つまたは複数の参照ピクチャ中の画像データからの動き補償予測を使用して予測される。ピクチャ間予測を使用してピクチャエリアをコーディングすべきなのか、ピクチャ内予測を使用してピクチャエリアをコーディングすべきなのかの決定は、たとえば、CUレベルにおいて行われ得る。いくつかの例では、ピクチャの1つまたは複数のスライスは、スライスタイプを割り当てられる。スライスタイプは、Iスライスと、Pスライスと、Bスライスとを含む。Iスライス(フレーム内、独立して復号可能)は、イントラ予測によってのみコーディングされるピクチャのスライスであり、したがって、Iスライスは、スライスの任意のブロックを予測するためにフレーム内のデータのみを必要とするので、独立して復号可能である。Pスライス(単方向予測されるフレーム)は、イントラ予測および単方向インター予測を用いてコーディングされ得るピクチャのスライスである。Pスライス内の各ブロックは、イントラ予測またはインター予測のいずれかを用いてコーディングされる。インター予測が適用されるとき、ブロックは、1つの参照ピクチャによってのみ予測され、したがって、参照サンプルは、1つのフレームの1つの参照領域からのみのものである。Bスライス(双方向予測フレーム)は、イントラ予測およびインター予測を用いてコーディングされ得るピクチャのスライスである。Bスライスのブロックは、2つの参照ピクチャから双方向予測され得、ここで、各ピクチャが1つの参照領域を導き(contribute)、双方向予測されたブロックの予測信号を生成するために、2つの参照領域のサンプルセットが(たとえば、等しい重みを用いて)重み付けされる。上記で説明されたように、1つのピクチャのスライスが独立してコーディングされる。いくつかの場合には、ピクチャは、ただ1つのスライスとしてコーディングされ得る。
[0073]PUは、予測プロセスに関係するデータを含み得る。たとえば、PUがイントラ予測を使用して符号化されるとき、PUは、PUのためのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインター予測を使用して符号化されるとき、PUは、PUのための動きベクトルを定義するデータを含み得る。PUのための動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルについての解像度(たとえば、1/4ピクセル精度または1/8ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトルのための参照ピクチャリスト(たとえば、リスト0、リスト1、またはリストC)を記述し得る。
[0074]符号化デバイス104は、次いで、変換および量子化を実施し得る。たとえば、予測の後に、エンコーダエンジン106は、PUに対応する残差値を計算し得る。残差値は、ピクセル差分値を備え得る。予測が実施された後に残存し得るいずれの残差データも、離散コサイン変換、離散サイン変換、整数変換、ウェーブレット変換、または他の好適な変換関数に基づき得るブロック変換を使用して変換される。いくつかの場合には、1つまたは複数のブロック変換(たとえば、サイズ32×32、16×16、8×8、4×4など)が各CUにおける残差データに適用され得る。いくつかの実施形態では、エンコーダエンジン106によって実装される変換および量子化プロセスのためにTUが使用され得る。1つまたは複数のPUを有する所与のCUは、1つまたは複数のTUをも含み得る。以下でさらに詳細に説明されるように、残差値は、ブロック変換を使用して変換係数に変換され得、次いで、エントロピーコーディングのためのシリアル化変換係数を生成するために、TUを使用して量子化および走査され得る。
[0075]いくつかの実施形態では、CUのPUを使用したイントラ予測コーディングまたはインター予測コーディングの後に、エンコーダエンジン106は、CUのTUのための残差データを計算し得る。PUは、空間領域(またはピクセル領域)においてピクセルデータを備え得る。TUは、ブロック変換の適用の後に変換領域において係数を備え得る。前記のように、残差データは、符号化されていないピクチャのピクセルとPUに対応する予測値との間のピクセル差分値に対応し得る。エンコーダエンジン106は、CUのための残差データを含むTUを形成し得、次いで、CUのための変換係数を生成するためにTUを変換し得る。
[0076]エンコーダエンジン106は、変換係数の量子化を実施し得る。量子化は、係数を表すために使用されるデータの量を低減するために変換係数を量子化することによって、さらなる圧縮をもたらす。たとえば、量子化は、係数の一部または全部に関連するビット深度を低減し得る。一例では、nビット値をもつ係数は、量子化中にmビット値に切り捨てられ得、nはmよりも大きい。
[0077]量子化が実施されると、コード化ビデオビットストリームは、量子化変換係数と、予測情報(たとえば、予測モード、動きベクトルなど)と、区分情報と、他のシンタックスデータなどの任意の他の好適なデータとを含む。コード化ビデオビットストリームの異なる要素は、次いで、エンコーダエンジン106によってエントロピー符号化され得る。いくつかの例では、エンコーダエンジン106は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数を走査するためにあらかじめ定義された走査順序を利用し得る。いくつかの例では、エンコーダエンジン106は適応走査を実施し得る。ベクトル(たとえば、1次元ベクトル)を形成するために量子化変換係数を走査した後、エンコーダエンジン106は、ベクトルをエントロピー符号化し得る。たとえば、エンコーダエンジン106は、コンテキスト適応型可変長コーディング、コンテキスト適応型バイナリ算術コーディング、シンタックスベースコンテキスト適応型バイナリ算術コーディング、確率間隔区分エントロピーコーディング、または別の好適なエントロピー符号化技法を使用し得る。
[0078]符号化デバイス104の出力部110は、通信リンク120を介して受信デバイスの復号デバイス112に、符号化ビデオビットストリームデータを構成するNALユニットを送り得る。復号デバイス112の入力部114はNALユニットを受信し得る。通信リンク120は、ワイヤレスネットワーク、ワイヤードネットワーク、またはワイヤードネットワークとワイヤレスネットワークとの組合せによって与えられるチャネルを含み得る。ワイヤレスネットワークは、任意のワイヤレスインターフェースまたはワイヤレスインターフェースの組合せを含み得、任意の好適なワイヤレスネットワーク(たとえば、インターネットまたは他のワイドエリアネットワーク、パケットベースネットワーク、WiFi(登録商標)、無線周波数(RF)、UWB、WiFi−Direct、セルラー、ロングタームエボリューション(LTE(登録商標))、WiMax(登録商標)など)を含み得る。ワイヤードネットワークは、任意のワイヤードインターフェース(たとえば、ファイバー、イーサネット(登録商標)、電力線イーサネット、同軸ケーブルを介したイーサネット、デジタル信号線(DSL)など)を含み得る。ワイヤードおよび/またはワイヤレスネットワークは、基地局、ルータ、アクセスポイント、ブリッジ、ゲートウェイ、スイッチなど、様々な機器を使用して実装され得る。符号化ビデオビットストリームデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、受信デバイスに送信され得る。
[0079]いくつかの例では、符号化デバイス104は、符号化ビデオビットストリームデータを記憶装置108に記憶し得る。出力部110は、エンコーダエンジン106から、または記憶装置108から符号化ビデオビットストリームデータを取り出し得る。記憶装置108は、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。たとえば、記憶装置108は、ハードドライブ、記憶ディスク、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体を含み得る。
[0080]復号デバイス112の入力部114は、符号化ビデオビットストリームデータを受信し、ビデオビットストリームデータをデコーダエンジン116に、またはデコーダエンジン116による後の使用のために記憶装置118に与え得る。デコーダエンジン116は、(たとえば、エントロピーデコーダを使用して)エントロピー復号し、符号化ビデオデータを構成する1つまたは複数のコード化ビデオシーケンスの要素を抽出することによって、符号化ビデオビットストリームデータを復号し得る。デコーダエンジン116は、次いで、符号化ビデオビットストリームデータを再スケーリングし、符号化ビデオビットストリームデータに対して逆変換を実施し得る。残差データが、次いで、デコーダエンジン116の予測段階にパスされる。デコーダエンジン116は、次いで、ピクセルのブロック(たとえば、PU)を予測する。いくつかの例では、逆変換の出力(残差データ)に予測が加算される。
[0081]復号デバイス112は、復号ビデオをビデオ宛先デバイス122に出力し得、ビデオ宛先デバイス122は、復号ビデオデータをコンテンツの消費者に表示するためのディスプレイまたは他の出力デバイスを含み得る。いくつかの態様では、ビデオ宛先デバイス122は、復号デバイス112を含む受信デバイスの一部であり得る。いくつかの態様では、ビデオ宛先デバイス122は、受信デバイス以外の別個のデバイスの一部であり得る。
[0082]補足エンハンスメント情報(SEI)メッセージがビデオビットストリーム中に含まれ得る。たとえば、SEIメッセージは、復号デバイス112によってビットストリームを復号するために不可欠でない情報(たとえば、メタデータ)を搬送するために使用され得る。この情報は、復号された出力の表示または処理を改善する際に有用である(たとえば、そのような情報は、コンテンツの視認性を改善するためにデコーダ側エンティティによって使用され得る)。
[0083]いくつかの実施形態では、ビデオ符号化デバイス104および/またはビデオ復号デバイス112は、それぞれオーディオ符号化デバイスおよびオーディオ復号デバイスと統合され得る。ビデオ符号化デバイス104および/またはビデオ復号デバイス112はまた、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せなど、上記で説明されたコーディング技法を実装するために必要である他のハードウェアまたはソフトウェアを含み得る。ビデオ符号化デバイス104およびビデオ復号デバイス112は、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
[0084]HEVC規格に対する拡張は、MV−HEVCと呼ばれるマルチビュービデオコーディング拡張と、SHVCと呼ばれるスケーラブルビデオコーディング拡張とを含む。MV−HEVC拡張およびSHVC拡張は、階層化コーディングの概念を共有し、異なるレイヤが符号化ビデオビットストリーム中に含まれる。コード化ビデオシーケンス中の各レイヤは、一意のレイヤ識別子(ID)によってアドレス指定される。レイヤIDは、NALユニットがそれに関連するレイヤを識別するために、NALユニットのヘッダ中に存在し得る。MV−HEVCでは、異なるレイヤは、ビデオビットストリーム中の同じシーンの異なるビューを表すことができる。SHVCでは、異なる空間解像度(またはピクチャ解像度)で、または異なる再構成忠実度でビデオビットストリームを表す異なるスケーラブルレイヤが与えられる。スケーラブルレイヤは、(レイヤID=0である)ベースレイヤと(レイヤID=1、2、...nである)1つまたは複数のエンハンスメントレイヤとを含み得る。ベースレイヤは、HEVCの第1のバージョンのプロファイルに適合し得、ビットストリーム中の利用可能な最下位レイヤを表す。エンハンスメントレイヤは、ベースレイヤと比較して、増加された空間解像度、時間解像度もしくはフレームレート、および/または再構成忠実度(もしくは品質)を有する。エンハンスメントレイヤは、階層的に編成されており、下位レイヤに依存すること(または依存しないこと)がある。いくつかの例では、単一規格コーデックを使用して、異なるレイヤがコーディングされ得る(たとえば、HEVC、SHVC、または他のコーディング規格を使用して、すべてのレイヤが符号化される)。いくつかの例では、多規格コーデックを使用して、異なるレイヤがコーディングされ得る。たとえば、ベースレイヤは、AVCを使用してコーディングされ得るが、1つまたは複数のエンハンスメントレイヤは、HEVC規格に対するSHVC拡張および/またはMV−HEVC拡張を使用してコーディングされ得る。概して、レイヤは、VCL NALユニットのセットと非VCL NALユニットの対応するセットとを含む。NALユニットは、特定のレイヤID値を割り当てられる。レイヤは、あるレイヤが下位レイヤに依存し得るという意味で、階層的であり得る。
[0085]前に説明されたように、HEVCビットストリームは、VCL NALユニットと非VCL NALユニットとを含む、NALユニットのグループを含む。非VCL NALユニットは、他の情報に加えて、符号化ビデオビットストリームに関係する高レベル情報をもつパラメータセットを含んでいることがある。たとえば、パラメータセットは、ビデオパラメータセット(VPS)と、シーケンスパラメータセット(SPS)と、ピクチャパラメータセット(PPS)とを含み得る。パラメータセットの目的の例としては、ビットレート効率、エラーレジリエンシー、およびシステムレイヤインターフェースを与えることがある。各スライスは、復号デバイス112がそのスライスを復号するために使用し得る情報にアクセスするために、単一のアクティブなPPS、SPS、およびVPSを参照する。VPS識別子(ID)と、SPS IDと、PPS IDとを含むIDが、パラメータセットごとにコーディングされ得る。SPSは、SPS IDとVPS IDとを含む。PPSは、PPS IDとSPS IDとを含む。各スライスヘッダはPPS IDを含む。IDを使用して、アクティブなパラメータセットが所与のスライスについて識別され得る。
[0086]VCL NALユニットは、コード化ビデオビットストリームを形成するコード化ピクチャデータを含む。以下の表Aに示されるように、様々なタイプのVCL NALユニットがHEVC規格において定義されている。第1のHEVC規格において定義されているシングルレイヤビットストリームでは、AU中に含まれているVCL NALユニットは同じNALユニットタイプ値を有し、NALユニットタイプ値は、AUのタイプとAU内のコード化ピクチャのタイプとを定義する。たとえば、特定のAUのVCL NALユニットは、瞬時復号リフレッシュ(IDR)NALユニット(値19)を含み得、これは、AUをIDR AUにし、AUのコード化ピクチャをIDRピクチャにする。VCL NALユニットの所与のタイプは、VCL NALユニット中に含まれている、ピクチャまたはそれの一部分(たとえば、VCL NALユニット中のピクチャのスライスまたはスライスセグメント)に関係する。リーディングピクチャと、トレーリングピクチャと、イントラランダムアクセス(IRAP)ピクチャ(「ランダムアクセスピクチャ」とも呼ばれる)とを含む、3つのクラスのピクチャがHEVC規格において定義されている。マルチレイヤビットストリームでは、AU内のピクチャのVCL NALユニットは、同じNALユニットタイプ値と同じタイプのコード化ピクチャとを有する。たとえば、タイプIDRのVCL NALユニットを含んでいるピクチャは、AU中のIDRピクチャであると言われる。別の例では、ベースレイヤ(0に等しいレイヤID)におけるIRAPピクチャであるピクチャをAUが含んでいるとき、AUはIRAP AUである。
[0087]上記で説明されたように符号化されたビデオビットストリームは、そのビットストリームを符号化デバイス104から復号デバイス112に転送するために、1つまたは複数のファイル中に書き込まれるかまたはパックされ得る。たとえば、出力部110は、ビットストリームを含んでいる1つまたは複数のファイルを生成するように構成されたファイル書込みエンジンを含み得る。出力部110は、1つまたは複数のファイルを通信リンク120を介してデコーダデバイス112に送信することができる。代替または追加として、1つまたは複数のファイルは、復号デバイス112に後で送信するために記憶媒体(たとえば、テープ、磁気ディスク、またはハードドライブ、または何らかの他の媒体)に記憶され得る。
[0088]デコーダデバイス112は、たとえば入力部114中に、ファイルパーシングエンジンを含むことができる。ファイルパーシングエンジンは、通信リンク120を介してまたは記憶媒体から受信されたファイルを読み取ることができる。ファイルパーシングエンジンは、さらに、ファイルからサンプルを抽出し、デコーダエンジン116によって復号するためにビットストリームを再構成することができる。いくつかの場合には、再構成されたビットストリームは、エンコーダエンジン106によって生成されたビットストリームと同じであり得る。いくつかの場合には、エンコーダエンジン106は、ビットストリームを復号するためのいくつかの可能なオプションをもつビットストリームを生成していることがあり(may have generated)、その場合、再構成されたビットストリームは、1つのオプションのみ、またはすべての可能なオプションよりも少数のオプションを含み得る。
[0089]上記で説明されたように符号化されたビデオビットストリームは、ISOBMFF、ISOBMFFから派生されたファイルフォーマット、何らかの他のファイルフォーマット、および/またはISOBMFFを含むファイルフォーマットの組合せを使用して、1つまたは複数のファイル中に書き込まれるかまたはパックされ得る。1つまたは複数のファイルは、ビデオプレーヤデバイスを使用して再生され得、送信され、次いで表示され、および/または記憶され得る。
[0090]図2は、ISOBMFFに従ってフォーマットされた、ビデオプレゼンテーションのためのデータとメタデータとを含んでいるISOベースメディアファイル200の一例を示す。ISOBMFFは、メディアの交換、管理、編集、およびプレゼンテーションを可能にする(facilitates)、フレキシブルで拡張可能なフォーマットにおいてタイムドメディア情報を含んでいるように設計される。メディアのプレゼンテーションは、プレゼンテーションを含んでいるシステムに対して「ローカル」であり得るか、あるいはプレゼンテーションは、ネットワークまたは他のストリーム配信機構を介して行われ(be)得る。
[0091]ISOBMFF仕様によって定義された「プレゼンテーション」は、ビデオキャプチャデバイスによって連続して(sequentially)キャプチャされたことによってしばしば関係付けられた、または何らかの他の理由で関係付けられた、ピクチャのシーケンスである。本明細書では、プレゼンテーションは、ムービーまたはビデオプレゼンテーションと呼ばれることもある。プレゼンテーションはオーディオを含み得る。単一のプレゼンテーションは、1つまたは複数のファイル中に含まれていることがあり、1つのファイルが、プレゼンテーション全体のためのメタデータを含んでいる。メタデータは、タイミングおよびフレーミングデータ、記述子、ポインタ、パラメータ、ならびにプレゼンテーションを記述する他の情報など、情報を含む。メタデータは、それ自体にビデオおよび/またはオーディオデータを含まない。メタデータを含んでいるファイル以外のファイルは、ISOBMFFに従ってフォーマットされる必要がなく、これらのファイルがメタデータによって参照され得るようにのみフォーマットされる必要がある。
[0092]ISOベースメディアファイルのファイル構造はオブジェクト指向であり、ファイル中の個々のオブジェクトの構造はオブジェクトのタイプから直接推論され得る。ISOベースメディアファイル中のオブジェクトは、ISOBMFF仕様によって「ボックス」と呼ばれる。ISOベースメディアファイルは、他のボックスを含んでいることができるボックスのシーケンスとして構造化される。ボックスは、概して、ボックスのためのサイズとタイプとを与えるヘッダを含む。サイズは、ボックス内に含まれているヘッダと、フィールドと、すべてのボックスとを含む、ボックスのサイズ全体を記述する。プレーヤデバイスによって認識されないタイプをもつ(with)ボックスは、一般に、無視およびスキップされる。
[0093]図2の例によって示されるように、ファイルのトップレベルにおいて、ISOベースメディアファイル200は、ファイルタイプボックス210と、ムービーボックス220と、1つまたは複数のムービーフラグメントボックス230a、230nとを含むことができる。このレベルにおいて含まれ得るが、この例には表されていない他のボックスは、特に、フリースペースボックスと、メタデータボックスと、メディアデータボックスとを含む。
[0094]ISOベースメディアファイルは、ボックスタイプ「ftyp」によって識別されるファイルタイプボックス210を含むことができる。ファイルタイプボックス210は、ファイルをパースするのに最も好適であるISOBMFF仕様を識別する。この場合の「最も」は、ISOベースメディアファイル200が、特定のISOBMFF仕様に従ってフォーマットされていることがあるが、仕様の他のイタレーション(iteration)に適合する可能性があることを意味する。この最も好適な仕様はメジャーブランドと呼ばれる。プレーヤデバイスは、そのデバイスが、ファイルのコンテンツを復号および表示することが可能であるかどうかを決定するために、メジャーブランドを使用することができる。ファイルタイプボックス210はまた、ISOBMFF仕様のバージョンを示すために使用され得るバージョン番号を含むことができる。ファイルタイプボックス210は、ファイルが適合する他のブランドのリストを含む、適合ブランドのリストをも含むことができる。ISOベースメディアファイルは、2つ以上の(more than one)メジャーブランドに適合することができる。
[0095]ISOベースメディアファイル200がファイルタイプボックス210を含むとき、1つのファイルタイプボックスのみがある。ISOベースメディアファイル200は、より古いプレーヤデバイスに適合するためにファイルタイプボックス210を省略し得る。ISOベースメディアファイル200がファイルタイプボックス210を含まないとき、プレーヤデバイスは、デフォルトメジャーブランド(たとえば「mp41」)と、マイナーバージョン(たとえば、「0」)と、適合ブランド(たとえば、「mp41」)とを仮定することができる。ファイルタイプボックス210は、一般に、ISOベースメディアファイル200中のできるだけ早くに配置される(placed)。
[0096]ISOベースメディアファイルは、プレゼンテーションのためのメタデータを含んでいるムービーボックス220をさらに含むことができる。ムービーボックス220は、ボックスタイプ「moov」によって識別される。ISO/IEC14496−12は、プレゼンテーションが、1つのファイル中に含まれているのか複数のファイル中に含まれているのかにかかわらず(whether)、1つのムービーボックス220のみを含むことができることを規定している(provides)。しばしば、ムービーボックス220はISOベースメディアファイルの始まりの近くにある。ムービーボックス220は、ムービーヘッダボックス222を含み、1つまたは複数のトラックボックス224ならびに他のボックスを含むことができる。
[0097]ボックスタイプ「mvhd」によって識別されるムービーヘッダボックス222は、メディア独立型であり、全体としてのプレゼンテーションに関連する、情報を含むことができる。たとえば、ムービーヘッダボックス222は、特に、プレゼンテーションのための作成時間、修正時間、時間スケール、および/または持続時間などの情報を含むことができる。ムービーヘッダボックス222は、プレゼンテーション中の次のトラックを識別する識別子をも含むことができる。たとえば、識別子は、図示の例ではムービーボックス220によって含まれているトラックボックス224を指すことができる。
[0098]ボックスタイプ「trak」によって識別されるトラックボックス224は、プレゼンテーションのためのトラックについての情報を含んでいることができる。プレゼンテーションは、1つまたは複数のトラックを含むことができ、ここで、各トラックは、プレゼンテーション中の他のトラックから独立している。各トラックは、トラック中のコンテンツに固有である(that is specific to)時間および空間情報を含むことができ、各トラックはメディアボックスに関連することができる。トラック中のデータはメディアデータであり得、その場合、トラックはメディアトラックであり、またはデータは、ストリーミングプロトコルのためのパケット化情報であり得、その場合、トラックはヒントトラック(hint track)である。メディアデータは、たとえば、ビデオおよびオーディオデータを含む。図示の例では、例示的なトラックボックス224は、トラックヘッダボックス224aとメディアボックス224bとを含む。トラックボックスは、トラック参照ボックス、トラックグループボックス、編集ボックス、ユーザデータボックス、メタボックスなど、他のボックスを含むことができる。
[0099]ボックスタイプ「tkhd」によって識別されるトラックヘッダボックス224aは、トラックボックス224中に含まれているトラックの特性を指定することができる。たとえば、トラックヘッダボックス224aは、特に、トラックの作成時間、修正時間、持続時間、トラック識別子、レイヤ識別子、グループ識別子、ボリューム、幅、および/または高さを含むことができる。メディアトラックの場合、トラックヘッダボックス224aは、さらに、特に、トラックが使用可能にされるかどうか、トラックがプレゼンテーションの一部として再生されるべきであるかどうか、またはトラックが、プレゼンテーションをプレビューするために使用され得るかどうかを識別することができる。トラックのプレゼンテーションは、概して、プレゼンテーションの始まりにあると仮定される。トラックボックス224は、明示的タイムラインマップを含むことができる、ここでは示されていない、編集リストボックスを含むことができる。タイムラインマップは、特に、トラックのためのオフセット時間を指定することができ、ここで、オフセットは、そのトラックのための、プレゼンテーションの始まりの後の、開始時間を示す。
[0100]図示の例では、トラックボックス224は、ボックスタイプ「mdia」によって識別されるメディアボックス224bをも含む。メディアボックス224bは、トラック中のメディアデータに関するオブジェクトおよび情報を含んでいることができる。たとえば、メディアボックス224bは、トラックのメディアタイプと、トラック中のメディアが提示されるプロセスとを識別することができる、ハンドラ参照ボックスを含んでいることができる(can)。別の例として、メディアボックス224bは、トラック中のメディアの特性を指定することができるメディア情報ボックスを含んでいることができる。メディア情報ボックスは、さらに、サンプルのテーブルを含むことができ、ここで、各サンプルは、たとえば、サンプルのためのデータのロケーションを含めて、メディアデータ(たとえば、ビデオまたはオーディオデータ)のチャンクを記述する。サンプルのためのデータは、以下でさらに説明されるメディアデータボックスに記憶される。たいていの他のボックスの場合と同様に、メディアボックス224bもメディアヘッダボックスを含むことができる。
[0101]図示の例では、例示的なISOベースメディアファイル200は、プレゼンテーションの複数のフラグメント230a、230b、230c、230nをも含む。フラグメント230a、230b、203c、230nは、ISOBMFFボックスではなく、むしろ、ムービーフラグメントボックス232と、ムービーフラグメントボックス232によって参照されるメディアデータボックス238とを記述する。ムービーフラグメントボックス232およびメディアデータボックス238は、トップレベルボックスであるが、ムービーフラグメントボックス232とメディアデータボックス238との間の関係を示すために、ここではグループ化される。
[0102]ボックスタイプ「moof」によって識別されるムービーフラグメントボックス232は、さもなければムービーボックス220に記憶されるであろう追加情報を含むことによって、プレゼンテーションを拡張することができる。ムービーフラグメントボックス232を使用して、プレゼンテーションは増分的に構築され(built incrementally)得る。ムービーフラグメントボックス232は、ムービーフラグメントヘッダボックス234およびトラックフラグメントボックス236、ならびに、ここでは示されていない他のボックスを含むことができる。
[0103]ボックスタイプ「mfhd」によって識別されるムービーフラグメントヘッダボックス234は、シーケンス番号を含むことができる。プレーヤデバイスは、フラグメント230aがプレゼンテーションのための次の1つのデータ(next piece of data)を含むことを検証するために、シーケンス番号を使用することができる。いくつかの場合には、ファイルのコンテンツ、またはプレゼンテーションのためのファイルは、プレーヤデバイスに順が狂って与えられ得る。たとえば、ネットワークパケットは、頻繁に、パケットが最初に送信された順序以外の順序で到着することがある。これらの場合、シーケンス番号は、プレーヤデバイスがフラグメントのための正しい順序を決定するのを支援することができる。
[0104]ムービーフラグメントボックス232は、ボックスタイプ「traf」によって識別される、1つまたは複数のトラックフラグメントボックス236をも含むことができる。ムービーフラグメントボックス232は、トラックごとに0個以上の(zero or more per track)トラックフラグメントのセットを含むことができる。トラックフラグメントは、0個以上のトラックランを含んでいることができ、その各々は、トラックのためのサンプルの連続するランを記述する。トラックフラグメントは、トラックにサンプルを追加することに加えて、トラックに空き時間を追加するために使用され得る。
[0105]ボックスタイプ「mdat」によって識別されるメディアデータボックス238は、メディアデータを含んでいる。ビデオトラックでは、メディアデータボックス238はビデオフレームを含んでいるであろう。メディアデータボックスは、代替または追加としてオーディオデータを含むことができる。プレゼンテーションは、1つまたは複数の個々のファイル中に含まれている、0個以上のメディアデータボックスを含むことができる。メディアデータはメタデータによって記述される。図示の例では、メディアデータボックス238中のメディアデータは、トラックフラグメントボックス236中に含まれるメタデータによって記述され得る。他の例では、メディアデータボックス中のメディアデータは、ムービーボックス220中のメタデータによって記述され得る。メタデータは、メディアデータボックス238内のメディアデータヘッダおよび/またはフリースペースがスキップされ得るように、ファイル200内の絶対オフセットによって特定のメディアデータを指すことができる。
[0106]ISOベースメディアファイル200中の他のフラグメント230b、230c、230nは、第1のフラグメント230aについて示されたボックスと同様のボックスを含んでいることができ、および/または他のボックスを含んでいることができる。
[0107]ISOBMFFは、メディアのローカル再生をサポートすることに加えて、ネットワークを介してメディアデータをストリーミングするためのサポートを含む。1つのムービープレゼンテーションを含む1つまたは複数のファイルは、ストリーミングサーバが、1つまたは複数のファイルをパケットとして形成し、送信するのを支援することができる命令を含んでいる、ヒントトラックと呼ばれる追加のトラックを含むことができる。これらの命令は、たとえば、サーバが送るべきデータ(たとえば、ヘッダ情報)またはメディアデータのセグメントへの参照を含むことができる。ファイルは、異なるストリーミングプロトコルのための別個のヒントトラックを含むことができる。ヒントトラックはまた、ファイルを再フォーマットする必要なしに、ファイルに追加され得る。
[0108]メディアデータをストリーミングするための1つの方法は、(ISO/IEC23009−1:2014において定義されている)ハイパーテキスト転送プロトコル(HTTP)上での動的適応ストリーミング、またはDASHである。MPEG−DASHとしても知られるDASHは、従来のHTTPウェブサーバを使用してメディアコンテンツの高品質ストリーミングを可能にする適応ビットレートストリーミング技法である。DASHは、メディアコンテンツを小さい(small)HTTPベースファイルセグメントのシーケンスに分けることによって動作し、ここで、各セグメントは、コンテンツの短い時間間隔を含んでいる。DASHを使用して、サーバは、異なるビットレートでメディアコンテンツを与えることができる。メディアを再生しているクライアントデバイスは、次のセグメントをダウンロードするときに代替ビットレートの中から選択し、したがって、変化するネットワーク状態に適応することができる。DASHは、ワールドワイドウェブ上でコンテンツを配信するためにインターネットのHTTPウェブサーバインフラストラクチャを使用する。DASHは、メディアコンテンツを符号化および復号するために使用されるコーデックから独立しており、したがって、特に、H.264およびHEVCなどのコーデックとともに動作する。
[0109]ISOBMFF仕様は、DASHとともに使用するための6つのタイプのストリームアクセスポイント(SAP)を指定する。最初の2つのSAPタイプ(タイプ1および2)は、H.264/AVCおよびHEVCにおける瞬時復号リフレッシュ(IDR)ピクチャに対応する。たとえば、IDRピクチャは、デコーダにおける復号プロセスを完全にリフレッシュまたは再初期化し、新しいコード化ビデオシーケンスを開始する、イントラピクチャ(Iピクチャ)である。いくつかの例では、IDRピクチャおよび復号順序においてIDRピクチャに続く任意のピクチャは、復号順序においてIDRピクチャの前に来るいかなるピクチャにも依存することができない。
[0110]第3のSAPタイプ(タイプ3)は、オープンGOP(ピクチャグループ)ランダムアクセスポイント、したがって、HEVCにおける切断リンクアクセス(BLA)ピクチャまたはクリーンランダムアクセス(CRA)ピクチャに対応する。たとえば、CRAピクチャもIピクチャである。CRAピクチャは、デコーダをリフレッシュしなくてよく、新しいCVSを開始しなくてよいので、CRAピクチャのリーディングピクチャが、復号順序においてCRAピクチャの前に来るピクチャに依存することが可能になる。ランダムアクセスは、CRAピクチャにおいて、CRAピクチャと、復号順序においてCRAピクチャの前に来るいかなるピクチャにも依存しないCRAピクチャに関連するリーディングピクチャと、復号順序と出力順序の両方においてCRAに続くすべての関連するピクチャとを復号することによって行われ得る。いくつかの場合には、CRAピクチャは、関連するリーディングピクチャを有しないことがある。いくつかの実施形態では、マルチレイヤの場合、0よりも大きいレイヤIDをもつレイヤに属するIDRまたはCRAピクチャは、PピクチャまたはBピクチャであり得るが、これらのピクチャは、IDRまたはCRAピクチャと同じアクセスユニットに属し、IDRまたはCRAピクチャを含んでいるレイヤよりも小さいレイヤIDを有する、他のピクチャからのレイヤ間予測のみを使用することができる。
[0111]第4のSAPタイプ(タイプ4)は、漸進的復号リフレッシュ(GDR)ランダムアクセスポイントに対応する。
[0112]ISOBMFFは、フレキシブルで拡張可能であり、様々なタイプのメディアを記憶および送信するために広く使用されているが、バーチャルリアリティビデオを記憶するか、またはISOベースメディアファイルのコンテンツを、バーチャルリアリティコンテンツを含むものとして識別するための機構を含まない。したがって、プレーヤデバイスは、ファイルのコンテンツがバーチャルリアリティビデオを含むと決定することが可能でないことがある。バーチャルリアリティコンテンツを表示することが可能でないプレーヤデバイスは、いずれにせよコンテンツを表示することを試み、ひずんだプレゼンテーションを生じ得る。
[0113]様々な実装形態では、ISOBMFFおよび/またはISOBMFFから派生されたファイルフォーマットは、バーチャルリアリティコンテンツが識別され得るように修正および/または拡張され得る。これらの実装形態は、各々独立してまたは組合せで、バーチャルリアリティコンテンツを識別することができるボックス、ブランド値(brand values)、ボックス中の予約済みビット、および/または他のインジケータを伴うことができる。
[0114]図3Aおよび図3Bは、ISOベースメディアファイル300がバーチャルリアリティコンテンツを含むことを示すために、ファイル300中のトップレベルボックスが使用される例を示す。様々な実装形態では、トップレベルボックスを使用することは、ファイル300中のコンテンツのすべてがバーチャルリアリティコンテンツであることを示す。ファイル300はファイルタイプボックス310を含むことができ、それは、ファイル300が適合する、ISOBMFFあるいはISOBMFFの派生物の(1つまたは複数の)ブランドまたは特定のイタレーションを指定することができる。ファイル300は、プレゼンテーションのためのメタデータを含んでいることができるムービーボックス320をも含むことができる。ファイル300は、上記で説明されたように、1つまたは複数のフラグメント330a、330b、330c、330nをも随意に含むことができる。
[0115]図3Aの例では、ファイルタイプボックス310は、ファイル300がバーチャルリアリティコンテンツを含むことを示すために使用され得る。ファイルタイプボックス310は、たとえば、ファイルがバーチャルリアリティブランドに適合することを示すブランド値を指定するために使用され得る。様々な実装形態では、ファイルタイプボックス310にリストされた適合ブランドはまた、バーチャルリアリティ関係パラメータを与えるために使用され得る随意のブランドインジケータを与えるために使用され得る。たとえば、ある適合ブランド値は、バーチャルリアリティコンテンツが2次元(2D)であることを示すことができ、別の適合ブランド値は、バーチャルリアリティコンテンツが3次元(3D)であることを示すことができる。別の例として、適合ブランド値は、マッピングタイプ、すなわち、バーチャルリアリティビデオの球状表現が、ファイル300に記憶するために、正距円筒(equirectangular)形式にマッピングされたのか、立方体形式にマッピングされたのか、またはピラミッド形式にマッピングされたのか、あるいは何らかの他の形式にマッピングされたのかを示すために使用され得る。様々な実装形態では、ビデオの次元数および/またはマッピングなどの情報は、代替または追加として、ファイルタイプボックス310中の随意のフィールドを使用して示され得る。
[0116]図3Bの例では、新しいボックスタイプ360が定義されている。新しいボックスタイプ360は、ファイルタイプボックス310と同様にトップレベルボックスである。ファイル中の新しいボックスタイプ360の存在、および/または新しいボックスタイプ360中のインジケータは、ファイル300がバーチャルリアリティコンテンツを含むことを示すために使用され得る。たとえば、新しいボックスタイプ360は、バーチャルリアリティ適合ブランド値を指定し、および/またはバーチャルリアリティコンテンツに適合するブランド値を適合ブランドリスト中に含む(include brand value compatible with virtual reality content in a compatible brands list)ことができる。新しいボックスタイプ360は、さらに、たとえば、バーチャルリアリティコンテンツが2Dであるのか3Dであるのか、および/またはファイル300に記憶されたバーチャルリアリティデータのためのマッピングを示すことができる、随意のパラメータを含むことができる。新しいボックスタイプ360を指定することは、図3Aの例の場合のようにファイルタイプボックス310を修正する必要を回避することができる。新しいボックスタイプ360を認識することができないプレーヤデバイスは、それを無視し得る。
[0117]いくつかの実装形態において、ファイルタイプボックス310、またはファイルのトップレベルのために定義された新しいボックスタイプ360が、ファイル300がバーチャルリアリティコンテンツを含むことを示すために使用されるとき、ファイル300は、バーチャルリアリティコンテンツの存在をシグナリングするために、ファイル300中の他のボックス中にもインジケータを含む必要はないことがある。
[0118]図4は、ISOベースメディアファイル400がバーチャルリアリティコンテンツを含むことを示すために、ファイル400中でムービーレベル指示が使用される一例を示す。ファイル400はファイルタイプボックス410を含むことができ、ファイルタイプボックス410は、ファイル400がそれに適合する、ISOBMFFあるいはISOBMFFの派生物の(1つまたは複数の)ブランドまたは特定のイタレーションを指定することができる。ファイル400は、プレゼンテーションのためのメタデータを含んでいることができるムービーボックス420をも含むことができる。ファイル400は、上記で説明されたように、1つまたは複数のフラグメント430a、430b、430c、430nをも随意に含むことができる。
[0119]上記で説明されたように、ムービーボックス420は、ムービーヘッダボックス422と、随意に1つまたは複数のトラックボックス424とを含むことができる。図4の例では、ムービーヘッダボックス422は、ムービーボックス420によって記述されるムービーまたはプレゼンテーションがバーチャルリアリティコンテンツを含むことを示すために使用される。たとえば、ムービーヘッダボックス422中の予約済みビットは、1の値に設定されるとき、ムービーコンテンツがバーチャルリアリティビデオであることを示すことができ、ムービーがバーチャルリアリティビデオであることもないこともあるとき、別の値に設定され得る。1つの例示的な例では、予約済みビットのうちの1つが指示を伝達するために使用される場合、1に等しいビットは、コンテンツがバーチャルリアリティビデオコンテンツであることを示し、0に等しいビットは、コンテンツがバーチャルリアリティビデオコンテンツであるかもしれないまたはないかもしれない(may or may not)ことを示す。予約済みビットを処理するように構成されないプレーヤデバイスは、これらのビットを無視し得る。
[0120]ムービーヘッダボックス422中の他のフィールドおよび/または予約済みビットは、バーチャルリアリティコンテンツに関係する随意のパラメータを与えるために使用され得る。たとえば、ムービーヘッダボックス422は、バーチャルリアリティコンテンツが2Dであるのか3Dであるのかを示すパラメータを含むことができる。
[0121]別の例として、ムービーヘッダボックス422は、バーチャルリアリティコンテンツがプリスティッチされるのかポストスティッチされるのかを示すパラメータを含むことができる。「プリスティッチ」は、バーチャルリアリティプレゼンテーションのためにキャプチャされた異なるビューが、ファイル400に記憶される前に、単一の表現にアセンブルされたことを意味する「ポストスティッチ」は、異なるビューが、ファイル400に個々に記憶されたということ、デコーダデバイスによって単一の表現にアセンブルされることになることを意味する。
[0122]プリスティッチバーチャルリアリティビデオは、一般に、形状が球状として表され、記憶のためにより好都合である別の形状(たとえば、正距円筒、立方体マッピング型、ピラミッドマッピング型、または何らかの他の形状)にマッピングされる。使用されるマッピングタイプを示すパラメータは、たとえば、予約済みビットを使用して、ムービーヘッダボックス422中でシグナリングされ得るパラメータの別の例である。たとえば、1つの予約済みビットは、各マッピングタイプ指示を伝達するために使用され得る。様々な実装形態では、プレーヤデバイスは、複数のマッピングタイプをサポートすることができる。これらの実装形態では、ムービーヘッダボックス422は、各個々のトラックのための、および/またはトラックのグループのためのマッピングタイプを含むことができる。
[0123]様々な実装形態において、ムービーボックス420に記憶されたムービープレゼンテーションがバーチャルリアリティビデオを含むことを示すためにムービーヘッダボックス422が使用されるとき、ムービーボックス420中の他のボックスがバーチャルリアリティビデオの存在を同じく(also)シグナリングする必要はないことがある。
[0124]図5は、ISOベースメディアファイル500がバーチャルリアリティコンテンツを含むことを示すために、ファイル500中でトラックレベルインジケータが使用される一例を示す。ファイル500はファイルタイプボックス510を含むことができ、ファイルタイプボックス510は、ファイル500がそれに適合する、ISOBMFFあるいはISOBMFFの派生物の(1つまたは複数の)ブランドまたは特定のイタレーションを指定することができる。ファイル500は、プレゼンテーションのためのメタデータを含んでいることができるムービーボックス520をも含むことができる。ファイル500は、上記で説明されたように、1つまたは複数のフラグメント530a、530b、530c、530nをも随意に含むことができる。
[0125]ムービーボックス520は、ムービーヘッダボックス522および1つまたは複数のトラックボックス524、ならびに、ここでは示されていない他のボックスを含むことができる。ムービーヘッダボックス522は、プレゼンテーションを全体として記述する情報を含むことができる。トラックボックス524は、プレゼンテーション中のトラックについての情報を含むことができる。トラックボックス524は、トラックヘッダボックス524aと、0個以上のメディアデータボックス524bとを含むことができる。
[0126]図5の例では、特定のトラックボックス524のためのトラックヘッダボックス524aは、トラックによって指されるサンプルがバーチャルリアリティビデオデータを含むことを意味する、トラックボックス524によって記述されるトラックがバーチャルリアリティトラックであることを示すために使用される。トラック中のバーチャルリアリティコンテンツは、たとえば、トラックヘッダボックス524a中の予約済みビットを使用して示され得る。たとえば、特定の予約済みビットが1の値に設定されるとき、トラックはバーチャルリアリティコンテンツを含み、そのビットが別の値に設定されるとき、トラックはバーチャルリアリティコンテンツを含むことも含まないこともある。1つの例示的な例では、予約済みビットのうちの1つが指示を伝達するために使用される場合、1に等しいビットは、コンテンツがバーチャルリアリティビデオコンテンツであることを示し、0に等しいビットは、コンテンツがバーチャルリアリティビデオコンテンツであることもないこともあることを示す。いくつかの実装形態では、トラックヘッダボックス524中でのバーチャルリアリティコンテンツのシグナリングは、ムービーヘッダボックス522中で何がシグナリングされるかに依存し得る。たとえば、ムービーヘッダボックス622が、ムービーがバーチャルリアリティコンテンツを含まないことを示すとき、トラックがバーチャルリアリティデータを含んでいるというトラックヘッダボックス524a中の任意の(any)指示は無視され得る。
[0127]様々な実装形態では、他のバーチャルリアリティ関係パラメータも、トラックヘッダボックス524a中でシグナリングされ得る。たとえば、予約済みビットまたは何らかの(some)他の変数が、トラック中のバーチャルリアリティビデオがプリスティッチされるのかポストスティッチされるのかを示すために使用され得る。トラック中のビデオがプリスティッチされるとき、追加のパラメータが、(たとえば、視点および/または視野角に関して)カメラ位置などの情報を与えることができる。トラック中のビデオがポストスティッチされるとき、追加のパラメータが、球状ビデオ表現と、データをファイル500に記憶する(store the data in the file 500)ために使用された表現(たとえば、正距円筒、立方体マップ、ピラミッドマップ、または何らかの他の形状)との間のマッピングタイプを与えることができる。
[0128]いくつかの実装形態において、トラックボックス524のためのトラックヘッダボックス524aが、トラックがバーチャルリアリティコンテンツを含むことをシグナリングするために使用されるとき、トラックボックス524中の他のボックスがトラック中のバーチャルリアリティコンテンツの存在を同じくシグナリングする必要はないことがある。
[0129]様々な実装形態では、上記で説明された技法と同様の技法が、DASHを使用して送信されるファイル中のバーチャルリアリティコンテンツを示すために使用され得る。たとえば、バーチャルリアリティコンテンツは、DASHプレゼンテーションのメディアプレゼンテーションレベルにおいてシグナリングされ得る。DASH仕様によって定義されたような(as)メディアプレゼンテーションは、有界または非有界(bounded or unbounded)メディアプレゼンテーション(たとえば、例の中でも、単一の映画または連続ライブストリーム)のためのデータの集合である。メディアプレゼンテーションは、メディアプレゼンテーション記述によって記述され得、ドキュメントは、メディアプレゼンテーションのセグメントにアクセスするための適切なHTTPユニフォームリソースロケータ(URL)を構成するために、DASHクライアントによって使用され得るメタデータを含んでいる。
[0130]様々な実装形態では、メディアプレゼンテーション記述は、メディアプレゼンテーション記述によって記述されるメディアコンテンツがバーチャルリアリティコンテンツを含むことを示すために使用され得る。たとえば、要素が、メディアプレゼンテーション記述のためのスキーマに対して修正または追加され得、ここで、その要素は、次いで、バーチャルリアリティコンテンツをシグナリングする。様々な実装形態では、属性も、コンテンツが2Dであるのか3Dであるのか、コンテンツがプリスティッチされるのかポストスティッチされるのか、および/またはコンテンツがポストスティッチされるときのビデオフレームのためのマッピングなど、バーチャルリアリティコンテンツに関する情報を与えるために、メディアプレゼンテーション記述に対して修正または追加され得る。いくつかの実装形態では、メディアプレゼンテーション記述中のバーチャルリアリティインジケータは、プレゼンテーション中のコンテンツのすべてがバーチャルリアリティのためにフォーマットされることを示す。
[0131]DASHプレゼンテーションでは、1つのプレゼンテーションのためのメディアコンテンツは期間(periods)に分割される。DASHによって定義された期間は、メディアプレゼンテーション内の時間間隔である。したがって、プレゼンテーションは、期間の連続するシーケンスからなる。期間内に、メディアコンテンツは、一般に、1つの平均ビットレート、1つの言語、1つのキャプション設定、1つのサブタイトル設定などを有することを含めて、符号化の無矛盾な(consistent)セットを有する。
[0132]様々な実装形態では、期間の要素および/または属性が、バーチャルリアリティコンテンツを示すために使用され得る。たとえば、要素が、期間のためのスキーマに対して修正または追加され得、ここで、その要素は、次いで、バーチャルリアリティコンテンツをシグナリングする。様々な実装形態では、属性も、コンテンツが2Dであるのか3Dであるのか、コンテンツがプリスティッチされるのかポストスティッチされるのか、および/またはコンテンツがポストスティッチされるときのビデオフレームのためのマッピングなど、バーチャルリアリティコンテンツに関する情報を与えるために、期間に対して修正または追加され得る。いくつかの実装形態では、期間中のバーチャルリアリティインジケータは、期間中のコンテンツがバーチャルリアリティのためにフォーマットされることを示す。
[0133]期間内に、コンテンツは適応セットに構成され得る。適応セットは、1つまたは複数のメディアコンテンツ構成要素の交換可能な符号化バージョンのセットを表す。たとえば、期間は、主要なビデオ構成要素のための1つの適応セットと、主要なオーディオ構成要素のための別個の適応セットとを含み得る。この例では、キャプションまたはオーディオ記述など、利用可能な他のコンテンツがある場合、これらの各々は別個の適応セットを有し得る。
[0134]様々な実装形態では、バーチャルリアリティコンテンツは適応セット中でシグナリングされ得る。たとえば、要素が、適応セットのためのスキーマに対して修正または追加され得、ここで、その要素は、次いで、バーチャルリアリティコンテンツをシグナリングする。様々な実装形態では、属性も、コンテンツが2Dであるのか3Dであるのか、コンテンツがプリスティッチされるのかポストスティッチされるのか、および/またはコンテンツがポストスティッチされるときのビデオフレームのためのマッピングなど、バーチャルリアリティコンテンツに関する情報を与えるために、適応セットに対して修正または追加され得る。いくつかの実装形態では、適応セット中のバーチャルリアリティインジケータは、適応セット中の表現の各々がバーチャルリアリティコンテンツを含むことを示す。
[0135]適応セットは、複数の(multiple)代替表現を含んでいることができる。表現は、1つまたは複数の(one or several)メディアコンテンツ構成要素の配信可能な符号化バージョンを記述する。適応セット内の任意の単一の表現が、期間中にメディアコンテンツ構成要素をレンダリングするために使用され得る。1つの適応セント中の異なる表現は知覚的に等価であると考えられ得、これは、クライアントデバイスが、ネットワーク状態または他のファクタに適応するために、適応セット内のある表現から別の表現に動的に切り替えることができることを意味する。
[0136]様々な実装形態では、バーチャルリアリティコンテンツは表現中でシグナリングされ得る。たとえば、要素が、表現のためのスキーマに対して修正または追加され得、ここで、その要素は、次いで、バーチャルリアリティコンテンツを示す。様々な実装形態では、属性も、コンテンツが2Dであるのか3Dであるのか、コンテンツがプリスティッチされるのかポストスティッチされるのか、および/またはコンテンツがポストスティッチされるときのビデオフレームのためのマッピングなど、バーチャルリアリティコンテンツに関する情報を与えるために、表現に対して修正または追加され得る。いくつかの実装形態では、表現中のバーチャルリアリティインジケータは、表現のコンテンツがバーチャルリアリティのためにフォーマットされたことを示す。
[0137]メディアコンテンツのストリーミングに関係する別のフォーマットは、RFC4566に記載されているセッション記述プロトコル(SDP)である。SDPは、マルチメディア通信セッションを記述するために使用され得る。そのような記述は、たとえば、セッション告知、セッション招待、およびパラメータネゴシエーションのために使用され得る。SDPは、メディア自体を配信するためには使用されないが、メディアタイプ、フォーマット、および関連するプロパティのネゴシエーションのためにエンドポイント間で使用され得る。プロパティおよびパラメータのセットは、しばしばセッションプロファイルと呼ばれる。SDPは、初めはセッション告知プロトコル(SAP)の構成要素であったが、リアルタイム転送プロトコル(RTP)、リアルタイムストリーミングプロトコル(RTSP)、セッション開始プロトコル(SIP)に関連して、およびマルチキャストセッションを記述するためのスタンドアロンフォーマットとして、他の用途(uses)を見つけた。
[0138]様々な実装形態では、バーチャルリアリティコンテンツの指示は、SDPメッセージ中のメディア記述中におよび/またはセッション記述中に含まれ得る。たとえば、ストリーミングコンテンツ中のバーチャルリアリティコンテンツの存在を示すために、セッション記述および/またはメディア記述中でフィールドが追加または修正され得る。さらに、いくつかの実装形態では、バーチャルリアリティコンテンツに関係するパラメータも、SDPメッセージに追加され得る。そのようなパラメータは、たとえば、バーチャルリアリティコンテンツが2Dであるのか3Dであるのか、コンテンツがプリスティッチされるのかポストスティッチされるのか、および/またはデータを記憶するために使用されるマッピングを含むことができる。このおよび他の例では、SDPは、メディアコンテンツがバーチャルリアリティコンテンツを含むことを示すために、RTPベースストリーミング、ブロードキャスト、および/またはテレプレゼンスまたは会議適用例において使用され得る。
[0139]別の例として、バーチャルリアリティコンテンツが3GPPセルラーネットワーク上で送信されるとき、そのコンテンツを示すために、マルチメディアブロードキャストマルチキャストサービス(MBMS)が使用され得る。MBMSは、セルとコアネットワークの両方内で、ブロードキャストおよびマルチキャストサービスの効率的な配信を行うことができるポイントツーマルチポイントインターフェース仕様である。MBMSのためのターゲット適用例は、モバイルテレビジョンと、ライブビデオおよびオーディオストリームライニングと、ファイル配信と、緊急警報の配信とを含む。
[0140]様々な実装形態では、バーチャルリアリティコンテンツ、ならびにそのコンテンツに関係するパラメータのシグナリングは、MBMS特徴要件リストに新しい特徴を追加することによって達成され得る。様々な実装形態では、バーチャルリアリティコンテンツのシグナリングは、他のブロードキャストおよびマルチキャスト適用例のための同様の様式で達成され得る。
[0141]様々な実装形態では、ISOベースメディアファイル中のトラックがバーチャルリアリティコンテンツを含むとき、様々な追加または代替の手法が、プレーヤデバイスにバーチャルリアリティコンテンツをシグナリングするために使用され得る。図6は、トラックのコンテンツがバーチャルリアリティビデオを含むことをシグナリングするためにハンドラボックス624cが使用される、ISOベースメディアファイル600の一例を示す。ファイル600はファイルタイプボックス610を含むことができ、ファイルタイプボックス610は、ファイル600がそれに適合する、ISOBMFFあるいはISOBMFFの派生物の(1つまたは複数の)ブランドまたは特定のイタレーションを指定することができる。ファイル600は、プレゼンテーションのためのメタデータを含んでいることができるムービーボックス620をも含むことができる。ファイル600は、上記で説明されたように、1つまたは複数のフラグメント630a、630b、630c、630nをも随意に含むことができる。
[0142]ムービーボックス620は、ムービーヘッダボックス622および1つまたは複数のトラックボックス624、ならびに、ここでは示されていない他のボックスを含むことができる。ムービーヘッダボックス622は、プレゼンテーションを全体として記述する情報を含むことができる。トラックボックス624は、プレゼンテーション中のトラックについての情報を含むことができる。トラックボックス624は、トラックヘッダボックス624aと、0個以上のメディアデータボックス624bとを含むことができる。
[0143]メディアデータボックス624bは、ボックスの中でも、ハンドラボックス642cを含むことができる。ハンドラ参照ボックスと呼ばれることもあるハンドラボックス642cは、トラックのメディアタイプを示すことができる。トラックのメディアタイプは、トラック中のメディアデータが提示されるプロセスを定義する。メディアタイプの例は、特に、ビデオおよびオーディオを含む。メディアが提示される様式は、メディアのためのフォーマットを含むことができる。たとえば、プレーヤデバイスがトラック中のビデオデータを配信するために使用するフォーマット(たとえば、アスペクト比、解像度、フレームレートなど)は、ビデオトラックに記憶され、ハンドラボックス642cのビデオハンドラバージョンによって識別され得る。いくつかの場合には、ファイル600は、任意のタイプのメタデータストリームのための一般的なハンドラを含むことができる。これらの場合、ビデオコンテンツの固有のフォーマットは、コンテンツを記述するサンプルエントリによって識別され得る。
[0144]いくつかの場合には、メディアデータボックス624bはハンドラボックス642cを含むことができる。ハンドラボックス642cは、トラックボックス624によって記述されるトラックがバーチャルリアリティデータを含むことを示すために使用され得る。たとえば、トラックがビデオデータを記述するとき、ハンドラボックス642cは、詳細には、ボックスタイプ「vide」によって識別され得るビデオハンドラボックスであり得る。
[0145]様々な実装形態では、ハンドラボックス642cは、メディアデータボックス624bによって参照されるメディアコンテンツがバーチャルリアリティコンテンツを含むことを示すために使用され得る。たとえば、ハンドラボックス642cは、トラック中に含まれているビデオコンテンツがバーチャルリアリティビデオであるという随意のインジケータを(たとえば、予約済みビットまたは新しい変数中に)含むことができる。随意のインジケータを読み取るように構成されないビデオプレーヤは、それを無視し得る。
[0146]いくつかの実装形態では、ビデオハンドラボックスは、バーチャルリアリティビデオが2Dであるのか3Dであるのか、バーチャルリアリティビデオがプリスティッチされるのかポストスティッチされるのか、および/またはバーチャルリアリティビデオのためのマッピングなど、バーチャルリアリティコンテンツを記述するパラメータをも随意に含むことができる。様々な実装形態では、バーチャルリアリティコンテンツに関係するパラメータは、トラックボックス524中に見つかり得る様々な他のボックス中で示され得る。たとえば、パラメータは、トラックヘッダボックス624a中でシグナリングされ得る。代替または追加として、パラメータは、ここでは示されていない、(ボックスタイプ「mdhd」によって識別される)メディアヘッダボックス中で、および/または(ボックスタイプ「vmhd」によって識別される)ビデオメディアヘッダボックス中でシグナリングされ得る。代替または追加として、パラメータは、サンプルエントリ中で、および/またはトラックボックス624のトップレベルに配置され得る新たに定義されたボックス中で示され得る。
[0147]図7は、トラックがバーチャルリアリティコンテンツを含むことを示すために新しいハンドラボックス724dが定義された、ISOベースメディアファイル700の一例を示す。ファイル700はファイルタイプボックス710を含むことができ、ファイルタイプボックス710は、ファイル700がそれに適合する、ISOBMFFあるいはISOBMFFの派生物の(1つまたは複数の)ブランドまたは特定のイタレーションを指定することができる。ファイル700は、プレゼンテーションのためのメタデータを含んでいることができるムービーボックス720をも含むことができる。ファイル700は、上記で説明されたように、1つまたは複数のフラグメント730a、730b、730c、730nをも随意に含むことができる。
[0148]ムービーボックス720は、ムービーヘッダボックス722および1つまたは複数のトラックボックス724、ならびに、ここでは示されていない他のボックスを含むことができる。ムービーヘッダボックス722は、プレゼンテーションを全体として記述する情報を含むことができる。トラックボックス724は、プレゼンテーション中のトラックについての情報を含むことができる。トラックボックス724は、トラックヘッダボックス724aと、0個以上のメディアデータボックス724bとを含むことができる。
[0149]上記で説明されたように、いくつかの場合には、メディアデータボックス724bは、メディアデータボックス724bによって記述されるメディアコンテンツを提示するためのフォーマットを記述することができるハンドラボックス724dを含むことができる。図7の例では、バーチャルリアリティビデオデータに固有である、新しいハンドラボックス724dが定義されている。新しいハンドラボックス724dは、たとえば、ボックスタイプ「vrvd」によって識別され得る。この例では、バーチャルリアリティコンテンツに適合しないビデオプレーヤは、新しいハンドラボックス724dを識別することが可能でないことがあり、したがって、新しいハンドラボックス724dを無視し、トラックボックス724によって指される任意のコンテンツをスキップし得る。したがって、バーチャルリアリティコンテンツは、バーチャルリアリティビデオを表示するように構成されないプレーヤによってレンダリングおよび表示されないことになる。
[0150]いくつかの実装形態では、新しいハンドラボックスは、バーチャルリアリティビデオが2Dであるのか3Dであるのか、バーチャルリアリティビデオがプリスティッチされるのかポストスティッチされるのか、および/またはバーチャルリアリティビデオのためのマッピングなど、バーチャルリアリティコンテンツを記述するパラメータをも随意に含むことができる。様々な実装形態では、バーチャルリアリティコンテンツに関係するパラメータは、トラックボックス724中に見つかり得る様々な他のボックス中で示され得る。たとえば、パラメータは、トラックヘッダボックス724a中でシグナリングされ得る。代替または追加として、パラメータは、ここでは示されていない、(ボックスタイプ「mdhd」によって識別される)メディアヘッダボックス中で、および/または(ボックスタイプ「vmhd」によって識別される)ビデオメディアヘッダボックス中でシグナリングされ得る。代替または追加として、パラメータは、サンプルエントリ中で、および/またはトラックボックス724のトップレベルに配置され得る新たに定義されたボックス中で示され得る。
[0151]図8は、ISOベースメディアファイル中に含まれ得るメディアボックス840の一例を示す。上記で説明されたように、メディアボックスは、トラックボックス中に含まれ得、トラック中のメディアデータを記述するオブジェクトおよび情報を含んでいることができる。図示の例では、メディアボックス840はメディア情報ボックス842を含む。メディアボックス840は、ここでは示されていない他のボックスをも含むことができる。
[0152]メディア情報ボックス842は、トラック中のメディアに関する特性情報を記述するオブジェクトを含んでいることができる。たとえば、メディア情報ボックス842は、トラック中のメディア情報のロケーションを記述するデータ情報ボックスを含むことができる。別の例として、メディア情報ボックス842は、トラックがビデオデータを含むとき、ビデオメディアヘッダを含むことができる。ビデオメディアヘッダは、ビデオメディアのコーディングから独立している一般的なプレゼンテーション情報を含んでいることができる。メディア情報ボックス842はまた、トラックがオーディオデータを含むとき、サウンドメディアヘッダを含むことができる。
[0153]メディア情報ボックス842は、図示の例で与えられるように、サンプルテーブルボックス844をも含むことができる。ボックスタイプ「stbl」によって識別されるサンプルテーブルボックス844は、トラック中のメディアサンプルのためのロケーション(たとえば、ファイルに関する(with)ロケーション)、ならびにサンプルのための時間情報を与えることができる。サンプルテーブルボックス844によって与えられる情報を使用して、プレーヤデバイスは、特に、正しい(correct)時間順序においてサンプルの位置を特定し、サンプルのタイプを決定し、および/またはコンテナ内のサンプルのサイズとコンテナとオフセットとを決定することができる。
[0154]サンプルテーブルボックス844は、ボックスタイプ「stsd」によって識別されるサンプル記述ボックス846を含むことができる。サンプル記述ボックス846は、たとえば、サンプルのために使用されるコーディングタイプ、およびそのコーディングタイプのために必要とされる任意の初期化情報に関する、詳細な情報を与えることができる。サンプル記述ボックスに記憶された情報は、サンプルを含むトラックのタイプに固有であり得る。たとえば、トラックがビデオトラックであるとき、サンプル記述のためにあるフォーマットが使用され得、トラックがヒントトラックであるとき、異なるフォーマットが使用され得る。さらなる例として、サンプル記述のためのフォーマットはまた、ヒントトラックのフォーマットに応じて異なり得る。
[0155]サンプル記述ボックス846は、1つまたは複数のサンプルエントリボックス848a、848b、848cを含むことができる。サンプルエントリタイプは抽象クラスであり、したがって、一般に、サンプル記述ボックスは、例の中でも、ビデオデータのためのビジュアルサンプルエントリ、またはオーディオサンプルのためのオーディオサンプルエントリなど、固有のサンプルエントリボックスを含む。サンプルエントリボックスは、特定のサンプルのためのパラメータを記憶することができる。たとえば、ビデオサンプルの場合、サンプルエントリボックスは、特に、ビデオサンプルのための幅、高さ、水平解像度、垂直解像度、フレームカウント、および/または深度を含むことができる。別の例として、オーディオサンプルの場合、サンプルエントリは、特に、チャネルカウント、チャネルレイアウト、および/またはサンプリングレートを含むことができる。
[0156]図示の例では、第1のサンプルエントリ848aは、制限付き方式情報ボックス860を含む。ボックスタイプ「rinf」によって識別される制限付き方式情報ボックスは、サンプルに適用される制限付き方式とその方式のパラメータの両方を理解するために必要とされる情報を含んでいることができる。いくつかの場合には、ファイルのオーサーは、いくつかのアクションがプレーヤデバイスを形成する要求し(require certain actions form a player device)得る。これらの場合、ファイルは、プレーヤデバイスが、ファイルのメディアコンテンツをレンダリングするための要件を決定するために、その位置を特定し、使用することができる、制限付き方式情報ボックスを含むことができる。コンテンツをレンダリングすることが可能でないことがあるプレーヤは、また、それらが、コンテンツをレンダリングすることができず、したがって、コンテンツを処理することを試みるべきではないと決定するために、制限付き方式情報ボックスを使用することができる。制限付き方式情報ボックスは、一般に、元のサンプルエントリタイプ、すなわち、制限付き方式情報ボックスによって記述される任意の変換(transformation)より前のサンプルエントリのタイプを含む。
[0157]様々な実装形態では、制限付き方式は、バーチャルリアリティコンテンツのために定義され得る。これらの実装形態では、制限付き方式情報ボックス860は、バーチャルリアリティデータを含むサンプルエントリ848aに追加され得る。制限付き方式のタイプは、ボックスタイプ「schm」によって識別される方式タイプボックス862において指定され得る。たとえば、「vrvd」に対応する符号化は、バーチャルリアリティコンテンツのための制限付き方式を識別するために使用され得る。
[0158]図示の例における制限付き方式情報ボックス860は、ボックスタイプ「schi」によって識別される方式情報ボックス864を含む。方式情報ボックス864は、固有の方式についての情報を記憶する(store)ことができる。たとえば、制限付き方式がバーチャルリアリティコンテンツのためのものであるとき、方式情報ボックス864は、バーチャルリアリティコンテンツのためのパラメータを含むことができる。これらのパラメータは、たとえば、バーチャルリアリティビデオが2Dであるのか3Dであるのか、バーチャルリアリティビデオがプリスティッチされるのかポストスティッチされるのか、および/またはバーチャルリアリティビデオのためのマッピングを含むことができる。様々な実装形態では、方式情報ボックスは、バーチャルリアリティコンテンツのために、詳細には、バーチャルリアリティコンテンツのためのパラメータを含んでいるために定義され得る。
[0159]図8に示された技法を使用して、レガシープレーヤデバイスによって理解されないことがある新しいボックスが、ISOBMFF仕様に追加される必要はない。新しいボックスをもつ(with)場合でも、レガシープレーヤデバイスは、そのデバイスが識別することができないコンテンツを再生することを試み得、このコンテンツがバーチャルリアリティメディアであるとき、結果はひずんだ(distorted)プレゼンテーションになり得る。新しいボックスを追加することを回避する際に、バーチャルリアリティコンテンツのためにファイルが生成され得、ここで、そのファイルは、おそらく、レガシープレーヤデバイスが識別することができるボックスのみを含む。レガシープレーヤデバイスは、さらに、そのデバイスが、制限付き方式情報ボックス864によって記述される制限付き方式を実装することができず、したがって、バーチャルリアリティコンテンツを表示することを試みないと決定することができる。
[0160]本技法は、さらに(additionally)、レガシープレーヤと、バーチャルリアリティコンテンツをレンダリングすることが可能なプレーヤの両方にフレキシビリティを与える。レガシープレーヤは、たとえば、そのプレーヤが、制限付き方式情報ボックスによって識別されるバーチャルリアリティ方式を理解するかどうかを決定することができる。プレーヤデバイスが、制限付き方式に準拠する(conform to)ことが可能でないとき、プレーヤデバイスは、トラック中のコンテンツをまったくレンダリングしないことを選定し得るか、または、代わりに元の変換されていないサンプルを処理することが可能であり得る。したがって、制限付き方式機構は、プレーヤデバイスが、ビットストリームをレンダリングするための要件を決定するためにファイルを検査する(inspect)ことを可能にすることができ、レガシープレーヤデバイスが、そのデバイスが処理することが可能でないことがあるファイルを復号およびレンダリングするのを阻止することができる。
[0161]様々な実装形態では、バーチャルリアリティコンテンツは、代替または追加として、ビデオビットストリーム中の補足エンハンスメント情報(SEI)メッセージ中に含まれ得る。したがって、SEIメッセージは、ビットストリームがバーチャルリアリティコンテンツを含むことを示すことができる。様々な実装形態では、SEIメッセージは、ファイルのレベル、ムービーレベル、および/またはトラックレベルにおいてバーチャルリアリティコンテンツを示すことができる。様々な実装形態では、SEIメッセージはまた、バーチャルリアリティビデオのプロパティ(たとえば、ビデオが2Dであるのか3Dであるのか、プリスティッチされるのかポストスティッチされるのかなど)を記述するパラメータを含むことができる。
[0162]様々な実装形態では、ISOBMFF仕様に対する拡張は、トラックがバーチャルリアリティビデオを含むことを示すためのトラックレベル指示を含む。様々な実装形態では、ポストデコーダ要件機構が、たとえば、制限付き方式情報(rinf)ボックスを使用して、このトラックレベル指示のために使用され得る。様々な実装形態では、拡張は、ISOBMFF仕様のセクション8.15に対する修正を含むことができる。以下の段落は、新しいセクションおよびサブセクション8.15.5(「バーチャルリアリティビデオのための方式」)、8.15.5.1(「概略」)、8.15.5.2(「VRビデオボックス」)、8.15.5.2.1(「定義」)、8.15.5.2.2(「シンタックス」)、および8.15.5.2.3(「セマンティクス」)を含む、ISO/IEC14496−12のセクション8.15のテキストを与える。セクション8.15のテキストに対する変更は、下線付きのテキストを使用して示される(テキストに対する変更の例)。
[0163]8.15 メディアに関するポストデコーダ要件
[0164]8.15.1 概略
[0165]ファイルオーサーがいくつかのアクションをプレーヤまたはレンダラに対して要求する状況を扱うために、このサブクローズは、プレーヤが、ビットストリームをレンダリングするためのそのような要件を見つけ出すためにファイルを単に検査することを可能にし、レガシープレーヤが、さらなる処理を必要とするファイルを復号およびレンダリングするのを阻止する、機構を指定する。機構は、任意のタイプのビデオコーデックに適用される。特に、それはAVCに適用され、この場合、ファイルオーサーが、発生している(occurring)SEIメッセージIDをリストすることと、レンダリングプロセスのための必要とされるアクションと必要とされないアクションとの間で区別することとを可能にする、固有のシグナリングが、AVCファイルフォーマット(ISO/IEC14496−15)において定義されている。
[0166]機構は、サンプルエントリが、暗号化またはカプセル化されたメディアを示す一般サンプルエントリ‘encv’、‘enca’などの後ろに隠される、コンテンツ保護変換と同様である。制限付きビデオのための類似する機構は、一般サンプルエントリ‘resv’を用いた変換を使用する。方法は、コンテンツが、それを正しく提示するプレーヤによってのみ復号されるべきであるとき、適用され得る。
[0167]8.15.2 変換
[0168]方法は以下のように適用される。
[0169]1) サンプルエントリの4文字コードが、制限付きビデオを意味する新しいサンプルエントリコード‘resv’ によって置き換えられる。
[0170]2) 制限付き方式情報(Restricted Scheme Info)ボックスがサンプル記述に追加され、すべての他のボックスは修正されないままになる。
[0171]3) 元のサンプルエントリタイプが、制限付き方式情報ボックス中に含まれている元のフォーマット(Original Format)ボックス内に記憶される。
[0172]RestrictedSchemeInfoBoxは、識別子‘sinf’の代わりに‘rinf’を使用するであることを除いて、ProtectionSchemeInfoBoxとまったく同じにフォーマットされる(下記参照)。
[0173]元のサンプルエントリタイプは、(暗号化されたメディアのための保護方式情報(Protection Scheme Info)ボックスと同等の(identical)方法で)制限付き方式情報ボックス中にある(the)元のフォーマットボックス中に含まれている。
[0174]制限の厳密な性質は、SchemeTypeBoxにおいて定義されており、その方式のために必要とされるデータは、この場合も、保護情報と同様にSchemeInformationBoxに記憶される。
[0175]制限と保護とは同時に適用され得ることに留意されたい。変換の順序はサンプルエントリの4文字コードから得られる(follows)。たとえば、サンプルエントリタイプが‘resv’である場合、上記の変換を元に戻すことは、メディアが保護されることを示すサンプルエントリタイプ‘encv’を生じ得る。
[0176]ファイルオーサーが、レガシープレーヤがファイルを再生するのを阻止することなしに、助言(advisory)情報を与えることのみを希望する場合、制限付き方式情報ボックスは、4文字コード変換を適用することなしに、サンプルエントリ内に配置され得ることに留意されたい。この場合、元のフォーマットボックスを含むことは必要ではない。
[0177]8.15.3 制限付き方式情報ボックス
[0178]8.15.3.1 定義
[0179]ボックスタイプ: ‘rinf’
[0180]コンテナ: 制限付きサンプルエントリ(Restricted Sample Entry)またはサンプルエントリ(Sample Entry)
[0181]必須: はい
[0182]数量: 厳密に1つ
[0183]制限付き方式情報ボックスは、適用される制限方式とそれのパラメータの両方を理解するために必要とされるすべての情報を含んでいる。それはまた、メディアの元の(変換されていない)サンプルエントリタイプをドキュメント化する。制限付き方式情報ボックスはコンテナボックスである。それは、制限付きストリームを示すコード、すなわち、‘resv’を使用するサンプルエントリでは必須である。
[0184]制限付きサンプルエントリ中で使用されるとき、このボックスは、元のサンプルエントリタイプをドキュメント化するための元のフォーマットボックスと方式タイプ(Scheme type)ボックスとを含んでいなければならない。方式情報(Scheme Information)ボックスは、制限方式に応じて必要とされ得る。
[0185]8.15.3.2 シンタックス
[0186]
Figure 0006676771
[0187]8.15.4 立体視ビデオ構成のための方式
[0188]8.15.4.1 概略
[0189]ステレオコード化ビデオフレームが復号されるとき、復号フレームは、ステレオペア(異なるトラック中の左および右ビュー)の1つのビューのみの1つ、または、ステレオペアを形成する2つの空間的にパックされた成分フレーム(フレームパッキング)の表現(a representation of two spatially packed constituent frames that form a stereo pair (frame packing))のいずれかを含んでいる。ステレオコード化ビデオによる制限は、ステレオビデオ(Stereo Video)ボックス中に含まれている。
[0190]SchemeType‘stvi’(立体視ビデオ)が使用される。
[0191]8.15.4.2 ステレオビデオボックス
[0192]8.15.4.2.1 定義
[0193]ボックスタイプ: ‘stvi’
[0194]コンテナ: 方式情報ボックス(‘schi’)
[0195]必須: はい(SchemeTypeが‘stvi’であるとき)
[0196]数量: 1つ
[0197]ステレオビデオボックスは、復号フレームが、ステレオペアを形成する2つの空間的にパックされた成分フレームの表現を含んでいること、またはステレオペアの2つのビューのうちの1つを含んでいることのいずれかを示すために使用される。ステレオビデオボックスは、SchemeTypeが‘stvi’であるとき、存在するものとする。
[0198]8.15.4.2.2 シンタックス
[0199]
Figure 0006676771
[0200]8.15.4.2.3 セマンティクス
[0201]single_view_allowedは整数である。0値(zero value)は、コンテンツが立体視(stereoscopic)ディスプレイ上にのみ表示され得ることを示す。(single_view_allowed & 1)が1に等しいとき、平面視(monoscopic)単一ビューディスプレイ上に右ビューを表示することが可能にされる。(single_view_allowed & 2)が2に等しいとき、平面視単一ビューディスプレイ上に左ビューを表示することが可能にされる。
[0202]stereo_schemeは、使用されるステレオ構成方式と、使用される方式によるステレオ指示タイプとを示す整数である。stereo_schemeのための以下の値が指定される。
[0203]1: ISO/IEC14496−10[ISO/IEC14496−10]のフレームパッキング構成補足エンハンスメント情報メッセージによって指定されたフレームパッキング方式
[0204]2: ISO/IEC13818−2[ISO/IEC13818−2:2000/Amd.4]のアネックスLにおいて指定された構成タイプ方式
[0205]3: フレーム/サービス適合と2D/3D混合サービスの両方のためのISO/IEC23000−11において指定されたステレオ方式。
[0206]stereo_schemeの他の値は予約済みである。
[0207]lengthは、stereo_indication_typeフィールドのためのバイト数を示す。
[0208]stereo_indication_typeは、使用されるステレオ指示方式によるステレオ構成タイプを示す。stereo_indication_typeのシンタックスおよびセマンティクスは、stereo_schemeの値に依存する。stereo_schemeの以下の値についてのstereo_indication_typeのためのシンタックスおよびセマンティクスは、以下のように指定される。
[0209]1に等しいstereo_scheme: lengthの値は4であるものとし、stereo_indication_typeは、ISO/IEC14496−10[ISO/IEC14496−10]の表D−8(「frame_packing_arrangement_typeの定義」)からのframe_packing_arrangement_type値を含んでいるunsigned int(32)であるものとする。
[0210]2に等しいstereo_scheme: lengthの値は4であるものとし、stereo_indication_typeは、ISO/IEC13818−2[ISO/IEC13818−2:2000/Amd.4]の表L−1(「arrangement_typeの定義」)からのタイプ値を含んでいるunsigned int(32)であるものとする。
[0211]3に等しいstereo_scheme: lengthの値は2であるものとし、stereo_indication_typeは、unsigned int(8)の2つのシンタックス要素を含んでいるものとする(shall)。第1のシンタックス要素は、ISO/IEC23000−11:2009の表4からの立体視組成タイプを含んでいるものとする。第2のシンタックス要素の最下位ビットは、ISO/IEC23000−11:2009の8.4.3において指定されたis_left_firstの値を含んでいるものとし、他のビットは、予約済みであり、0に設定されるものとする。
[0212]以下は、ステレオビデオボックスが使用されるときに適用される。
[0213]トラックヘッダ(Track Header)ボックスにおいて
[0214]widthおよびheightは、アンパックした後の単一のビューのビジュアルプレゼンテーションサイズを指定する。
[0215]サンプル記述(Sample Description)ボックスにおいて
[0216]frame_countは、デコーダが単一のフレームを物理的に出力するので、1であるものとする。言い換えれば、フレームパックされたピクチャ内に含まれる成分フレームは、frame_countによってドキュメント化されない。
[0217]widthおよびheightは、(フレームパックされたピクチャ内の単一のビューのピクセルカウントではなく)フレームパックされたピクチャのピクセルカウントをドキュメント化する。
[0218]ピクセルアスペクト比(Pixel Aspect Ratio)ボックスは、ビューが平面視単一ビューディスプレイ上に表示されるときの、各ビューのピクセルアスペクト比をドキュメント化する(document)。たとえば、多くの空間フレームパッキング構成では、したがって、ピクセルアスペクト比ボックスは、フレームパックされたビデオの1つのビューの空間解像度が、一般に、同じフォーマットの単一ビュービデオのそれと比較して、1つの座標軸に沿って1/2にされる(halved)ので、2:1または1:2のピクセルアスペクト比を示す。
[0219]8.15.5 バーチャルリアリティビデオのための方式
[0220]8.15.5.1 概略
[0221]バーチャルリアリティ(VR)ビデオの復号ピクチャは特殊レンダリングプロセスを必要とする。VRビデオに関する情報はVRビデオ(VR Video)ボックス中に含まれている。
[0222]SchemeType‘vrvd’(VRビデオ)が使用される。
[0223]8.15.5.2 VRビデオボックス
[0224]8.15.5.2.1 定義
[0225]ボックスタイプ: ‘vrvd’
[0226]コンテナ: 方式情報ボックス(‘schi’)
[0227]必須: はい(SchemeTypeが‘vrvd’であるとき)
[0228]数量: 1つ
[0229]VRビデオボックスは、トラック中に含まれているビデオがVRビデオであることを示すために使用される。VRビデオボックスは、SchemeTypeが‘vrvd’であるとき、存在するものとする。
[0230]8.15.5.2.2 シンタックス
[0231]
Figure 0006676771
[0232]8.15.5.2.3 セマンティクス
[0233]vr_mapping_typeは、球状ビデオから矩形形式(format)へのマッピングタイプを示す整数である。0値は正距円筒(equi-rectangular)マップを示す。値1(value one)は立方体マップを示す。値2はピラミッドマップを示す。他の値は予約済みである。
[0234]図9は、本明細書で説明される、バーチャルリアリティコンテンツを含んでいるファイルを生成するためのプロセス900の一例を示す。902において、プロセス900は、バーチャルリアリティデータを取得することを含み、ここにおいて、バーチャルリアリティデータはバーチャル環境の360度ビューを表す。いくつかの実装形態では、バーチャルリアリティデータはバーチャルリアリティビデオを含む。いくつかの実装形態では、バーチャルリアリティビデオはプリスティッチされ得る。いくつかの実装形態では、バーチャルリアリティビデオ中のフレームは、アセンブルされないことがあり、ポストスティッチングを必要とし得る。
[0235]904において、プロセス900は、バーチャルリアリティデータをファイルへ記憶することを含み、ここにおいて、バーチャルリアリティデータはファイルフォーマットに従って記憶され、ここにおいて、ファイルフォーマットは、バーチャルリアリティデータのファイル内での配置を指定し、バーチャルリアリティデータに関連する情報のファイル内での配置を指定し、ここにおいて、バーチャルリアリティデータに関連する情報はトラックボックスに記憶される。様々な実装形態では、ファイルフォーマットは、ISOBMFF、またはISOBMFFから派生されたファイルフォーマットである。いくつかの実装形態では、バーチャルリアリティデータに関連する情報は、たとえば、フレームレート、解像度、ビデオおよび/もしくはオーディオサンプルのファイル内でのまたは他のファイル内でのロケーション、ならびに/あるいは他の情報を含むことができる。
[0236]906において、プロセス900は、サンプルエントリをトラックボックス中に記憶することを含み、ここにおいて、サンプルエントリは1つまたは複数のサンプルに関連し、ここにおいて、サンプルエントリは制限付き方式情報ボックスを含み、ここにおいて、制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義し、ここにおいて、1つまたは複数のサンプルはバーチャルリアリティデータの少なくとも一部分を含む。いくつかの実装形態では、制限付き方式情報ボックスは方式タイプボックスを含むことができる。これらの実装形態では、バーチャルリアリティ方式は、方式タイプボックスを使用して定義され得る。いくつかの実装形態では、制限付き方式情報ボックスは方式情報ボックスを含むことができる。これらの実装形態では、バーチャルリアリティデータ中のビデオに関係する随意のパラメータが、方式情報ボックスを使用してファイルへ書き込まれ得る。随意のパラメータは、たとえば、バーチャルリアリティデータが2Dビデオを含むのか3Dビデオを含むのか、ビデオがプリスティッチされるのかポストスティッチングを必要とするのか、および/またはビデオのためのマッピングタイプを含む。
[0237]いくつかの実装形態では、プロセス900は、バーチャルリアリティビデオに関係するパラメータ(たとえば、上記で説明された随意のパラメータ)をファイルへ記憶することをも含むことができる。いくつかの実装形態では、パラメータは方式情報ボックスに記憶される。
[0238]図10は、本明細書で説明される、バーチャルリアリティコンテンツを含んでいるファイルを処理するためのプロセス1000の一例を示す。1002において、プロセスは、ファイルを取得することを含み、ここにおいて、ファイルはバーチャルリアリティデータを含み、ここにおいて、バーチャルリアリティデータは、ファイルフォーマットに従ってファイルに記憶され、ここにおいて、ファイルフォーマットは、ファイル内でのバーチャルリアリティコンテンツの配置と、ファイル内でのバーチャルリアリティデータに関連する情報の配置とを指定し、ここにおいて、バーチャルリアリティデータに関連する情報はトラックボックス内に記憶される。様々な実装形態では、ファイルフォーマットはISOBMFFフォーマットに基づく。。
[0239]1004において、プロセスは、ファイルを処理することを含み、ここにおいて、ファイルを処理することは、トラックボックス中のサンプルエントリを処理することを含み、ここにおいて、サンプルエントリは1つまたは複数のサンプルに関連し、ここにおいて、サンプルエントリは制限付き方式情報ボックスを含み、ここにおいて、制限付き方式情報ボックスは、1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義し、ここで、1つまたは複数のサンプルはバーチャルリアリティデータの少なくとも一部分を含む。いくつかの実装形態では、ファイルを処理することは、サンプルエントリ中の方式タイプボックスを処理することをさらに含む。これらの実装形態では、方式タイプボックスは、バーチャルリアリティ方式として定義される方式タイプを含む。
[0240]いくつかの実装形態では、ファイルを処理することは、バーチャルリアリティデータに関係するパラメータを処理することを含む。パラメータは、またファイルに記憶される。様々な実装形態では、パラメータは、バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、またはビデオデータのためのマッピングタイプのうちの1つまたは複数を含むことができる。
[0241]1006において、プロセスは、バーチャルリアリティ方式に従って1つまたは複数のサンプルを処理するを含む。様々な実装形態では、サンプルを処理することは、バーチャルリアリティコンテンツを表示することが可能なデバイスによる表示のためにビデオフレームを生成することを含むことができる。
[0242]図11は、本明細書で説明される、バーチャルリアリティコンテンツを含んでいるファイルを生成するためのプロセス1100の一例を示す。1102において、プロセス1100は、バーチャルリアリティデータを取得することを含み、ここにおいて、バーチャルリアリティデータはバーチャル環境の360度ビューを表す。バーチャルリアリティデータは、ビデオデータとオーディオデータとを含むことができる。
[0243]1104において、プロセス1100は、バーチャルリアリティデータをファイルへ書き込むことを含み、ここにおいて、バーチャルリアリティデータはファイルフォーマットに従って書き込まれ、ここにおいて、ファイルフォーマットは、ファイル内での、バーチャルリアリティデータと、バーチャルリアリティデータを記述する情報との配置を規定し、ここにおいて、バーチャルリアリティデータを記述する情報はトラックボックス中に書き込まれる。
[0244]1106において、プロセス1100は、トラックボックス中の値を設定することを含み、ここにおいて、その値は、トラックボックスによって参照されるサンプルがバーチャルリアリティプレゼンテーションのためにフォーマットされることを示す。バーチャルリアリティプレゼンテーションは、ファイルに記憶されたビデオデータを球状の360度フォーマットにマッピングすることを含むことができる。ビデオデータは、次いで、360度ビデオを閲覧するために構成されたデバイスを使用して表示され得る。
[0245]いくつかの実装形態では、サンプルがバーチャルリアリティプレゼンテーションのためにフォーマットされることを示す値は、メディアハンドラボックス中で設定され得る。これらの実装形態では、メディアハンドラボックスはビデオハンドラボックスであり得る。いくつかの実装形態では、メディアハンドラボックスは、より詳細にはバーチャルリアリティビデオハンドラボックスである。
[0246]いくつかの実装形態では、値は、サンプルエントリボックス中に書き込まれ得る。これらの実装形態では、値は、例の中でも、トラックヘッダボックス、メディアヘッダボックス、またはビデオメディアヘッダボックス中に書き込まれ得る。
[0247]様々な実装形態では、バーチャルリアリティデータに関係するパラメータもファイルへ書き込まれ得る。そのようなパラメータは、たとえば、例の中でも、バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのか、ビデオデータがプリスティッチされるのかポストスティッチされるのか、またはビデオデータのためのマッピングタイプを含むことができる。
[0248]様々な実装形態では、ファイルフォーマットは、ISOベースメディアファイルフォーマットに基づき得る。
[0249]いくつかの例では、プロセス900、1000、および1100は、システム100など、コンピューティングデバイスまたは装置によって実施され得る。たとえば、プロセス900、1000、および/または1100は、図1に示されているシステム100および/あるいは記憶装置108または出力部110によって実施され得る。いくつかの場合には、コンピューティングデバイスまたは装置は、プロセス900、1000、または1100のステップを行う(carry out)ように構成されたデバイスのプロセッサ、マイクロプロセッサ、マイクロコンピュータ、または他の構成要素を含み得る。いくつかの例では、コンピューティングデバイスまたは装置は、ビデオフレームを含むビデオデータ(たとえば、ビデオシーケンス)をキャプチャするように構成されたカメラを含み得る。たとえば、コンピューティングデバイスは、ビデオコーデックを含み得るカメラデバイス(たとえば、IPカメラまたは他のタイプのカメラデバイス)を含み得る。いくつかの例では、ビデオデータをキャプチャするカメラまたは他のキャプチャデバイスは、コンピューティングデバイスとは別個であり、その場合、コンピューティングデバイスは、キャプチャされたビデオデータを受信する。コンピューティングデバイスは、ビデオデータを通信するように構成されたネットワークインターフェースをさらに含み得る。ネットワークインターフェースは、インターネットプロトコル(IP)ベースのデータを通信するように構成され得る。
[0250]プロセス900、1000、および1100は論理フロー図として示され、その動作は、ハードウェア、コンピュータ命令、またはそれらの組合せで実装され得る動作のシーケンスを表す。コンピュータ命令のコンテキストでは、動作は、1つまたは複数のプロセッサによって実行されたとき、具陳された動作を実施する1つまたは複数のコンピュータ可読記憶媒体に記憶されたコンピュータ実行可能命令を表す。概して、コンピュータ実行可能命令は、特定の機能を実施するか、または特定のデータタイプを実装する、ルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。動作が説明される順序は、限定として解釈されるものではなく、任意の数の説明される動作は、プロセスを実装するために任意の順序でおよび/または並行して組み合わせられ得る。
[0251]さらに、プロセス900、1000、および1100は、実行可能な命令で構成された1つまたは複数のコンピュータシステムの制御下で実施され得、1つまたは複数のプロセッサ上でまとめて実行するコード(たとえば、実行可能な命令、1つまたは複数のコンピュータプログラム、または1つまたは複数のアプリケーション)として、ハードウェア、またはそれらの組合せによって、実装され得る。上述のように、コードは、たとえば、1つまたは複数のプロセッサによって実行可能な複数の命令を備えるコンピュータプログラムの形態で、コンピュータ可読または機械可読記憶媒体に記憶され得る。コンピュータ可読または機械可読記憶媒体は非一時的であり得る。
[0252]符号化デバイス1204および復号デバイス1312の具体的な詳細が、それぞれ図12および図13に示されている。図12は、本開示で説明される技法のうちの1つまたは複数を実装し得る例示的な符号化デバイス1204を示すブロック図である。符号化デバイス1204は、たとえば、本明細書で説明されるシンタックス構造(たとえば、VPS、SPS、PPS、または他のシンタックス要素のシンタックス構造)を生成し得る。符号化デバイス1204は、ビデオスライス内のビデオブロックのイントラ予測コーディングおよびインター予測コーディングを実施し得る。前に説明されたように、イントラコーディングは、所与のビデオフレームまたはピクチャ内の空間冗長性を低減または除去するために、空間予測に少なくとも部分的に依拠する。インターコーディングは、ビデオシーケンスの隣接するまたは周囲のフレーム内の時間冗長性を低減または除去するために、時間予測に少なくとも部分的に依拠する。イントラモード(Iモード)は、いくつかの空間ベース圧縮モードのいずれかを指すことがある。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベース圧縮モードのいずれかを指すことがある。
[0253]符号化デバイス1204は、区分ユニット35と、予測処理ユニット41と、フィルタユニット63と、ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。予測処理ユニット41は、動き推定ユニット42と、動き補償ユニット44と、イントラ予測処理ユニット46とを含む。ビデオブロック再構成のために、符号化デバイス1204はまた、逆量子化ユニット58と、逆変換処理ユニット60と、加算器62とを含む。フィルタユニット63は、デブロッキングフィルタ、適応ループフィルタ(ALF)、およびサンプル適応オフセット(SAO)フィルタなど、1つまたは複数のループフィルタを表すものとする。図12では、フィルタユニット63はループ内フィルタであるとして示されているが、他の構成では、フィルタユニット63はループ後フィルタとして実装され得る。後処理デバイス57は、符号化デバイス1204によって生成された符号化ビデオデータに対して追加の処理を実施し得る。本開示の技法は、いくつかの事例では、符号化デバイス1204によって実装され得る。しかしながら、他の事例では、本開示の技法のうちの1つまたは複数は、後処理デバイス57によって実装され得る。
[0254]図12に示されているように、符号化デバイス1204はビデオデータを受信し、区分ユニット35はデータをビデオブロックに区分する。区分はまた、たとえば、LCUおよびCUの4分木構造に従って、スライス、スライスセグメント、タイル、または他のより大きいユニットへの区分、ならびにビデオブロック区分を含み得る。符号化デバイス1204は、概して、符号化されるべきビデオスライス内のビデオブロックを符号化する構成要素を示す。スライスは、複数のビデオブロックに(および場合によっては、タイルと呼ばれるビデオブロックのセットに)分割され得る。予測処理ユニット41は、誤差結果(たとえば、コーディングレートおよびひずみレベルなど)に基づいて現在ビデオブロックについて、複数のイントラ予測コーディングモードのうちの1つ、または複数のインター予測コーディングモードのうちの1つなど、複数の可能なコーディングモードのうちの1つを選択し得る。予測処理ユニット41は、得られたイントラコード化ブロックまたはインターコード化ブロックを、残差ブロックデータを生成するために加算器50に与え、参照ピクチャとして使用するための符号化ブロックを再構成するために加算器62に与え得る。
[0255]予測処理ユニット41内のイントラ予測処理ユニット46は、空間圧縮を行うために、コーディングされるべき現在ブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対して現在ビデオブロックのイントラ予測コーディングを実施し得る。予測処理ユニット41内の動き推定ユニット42および動き補償ユニット44は、時間圧縮を行うために、1つまたは複数の参照ピクチャ中の1つまたは複数の予測ブロックに対して現在ビデオブロックのインター予測コーディングを実施する。
[0256]動き推定ユニット42は、ビデオシーケンスの所定のパターンに従ってビデオスライスのためのインター予測モードを決定するように構成され得る。所定のパターンは、シーケンス中のビデオスライスを、Pスライス、Bスライス、またはGPBスライスに指定し得る。動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示されている。動き推定ユニット42によって実施される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、参照ピクチャ内の予測ブロックに対する、現在ビデオフレームまたはピクチャ内のビデオブロックの予測ユニット(PU)の変位を示し得る。
[0257]予測ブロックは、絶対差分和(SAD)、2乗差分和(SSD)、または他の差分メトリックによって決定され得るピクセル差分に関して、コーディングされるべきビデオブロックのPUにぴったり一致することがわかるブロックである。いくつかの例では、符号化デバイス1204は、ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置についての値を計算し得る。たとえば、符号化デバイス1204は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対して動き探索を実施し、分数ピクセル精度で動きベクトルを出力し得る。
[0258]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライス中のビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらの各々は、ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0259]動き補償ユニット44によって実施される動き補償は、動き推定によって決定された動きベクトルに基づいて予測ブロックをフェッチまたは生成すること、場合によってはサブピクセル精度への補間を実施することを伴い得る。現在ビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストにおいて指す予測ブロックの位置を特定し得る。符号化デバイス1204は、コーディングされている現在ビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。ピクセル差分値は、ブロックのための残差データを形成し、ルーマ差分成分とクロマ差分成分の両方を含み得る。加算器50は、この減算演算を実施する1つまたは複数の構成要素を表す。動き補償ユニット44はまた、ビデオスライスのビデオブロックを復号する際に復号デバイス1312が使用するための、ビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0260]イントラ予測処理ユニット46は、上記で説明されたように、動き推定ユニット42と動き補償ユニット44とによって実施されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測処理ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測処理ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット処理46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。たとえば、イントラ予測処理ユニット46は、様々なテストされたイントラ予測モードのためにレートひずみ分析を使用してレートひずみ値を計算し得、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測処理ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを決定するために、様々な符号化ブロックのためのひずみおよびレートから比を計算し得る。
[0261]いずれの場合も、ブロックのためのイントラ予測モードを選択した後に、イントラ予測処理ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット56に与え得る。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。符号化デバイス1204は、様々なブロックのための符号化コンテキストの構成データ定義、ならびにコンテキストの各々について使用すべき、最確イントラ予測モード、イントラ予測モードインデックステーブル、および修正されたイントラ予測モードインデックステーブルの指示を送信ビットストリーム中に含み得る。ビットストリーム構成データは、複数のイントラ予測モードインデックステーブルと、(コードワードマッピングテーブルとも呼ばれる)複数の修正されたイントラ予測モードインデックステーブルとを含み得る。
[0262]予測処理ユニット41が、インター予測またはイントラ予測のいずれかを介して、現在ビデオブロックのための予測ブロックを生成した後、符号化デバイス1204は、現在ビデオブロックから予測ブロックを減算することによって残差ビデオブロックを形成する。残差ブロック中の残差ビデオデータは、1つまたは複数のTU中に含まれ、変換処理ユニット52に適用され得る。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を使用して、残差ビデオデータを残差変換係数に変換する。変換処理ユニット52は、残差ビデオデータをピクセル領域から周波数領域などの変換領域に変換し得る。
[0263]変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって修正され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実施し得る。代替的に、エントロピー符号化ユニット56が走査を実施し得る。
[0264]量子化の後に、エントロピー符号化ユニット56は量子化変換係数をエントロピー符号化する。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピー符号化技法を実施し得る。エントロピー符号化ユニット56によるエントロピー符号化の後に、符号化ビットストリームは復号デバイス1312に送信されるか、あるいは復号デバイス1312が後で送信するかまたは取り出すためにアーカイブされ得る。エントロピー符号化ユニット56はまた、コーディングされている現在ビデオスライスのための動きベクトルと他のシンタックス要素とをエントロピー符号化し得る。
[0265]逆量子化ユニット58および逆変換処理ユニット60は、参照ピクチャの参照ブロックとして後で使用するためにピクセル領域において残差ブロックを再構成するために、それぞれ逆量子化および逆変換を適用する。動き補償ユニット44は、残差ブロックを参照ピクチャリスト内の参照ピクチャのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、動き推定において使用するためのサブ整数ピクセル値を計算するために、再構成された残差ブロックに1つまたは複数の補間フィルタを適用し得る。加算器62は、ピクチャメモリ64に記憶するための参照ブロックを生成するために、再構成された残差ブロックを動き補償ユニット44によって生成された動き補償予測ブロックに加算する。参照ブロックは、後続のビデオフレームまたはピクチャ中のブロックをインター予測するために、動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0266]このようにして、図12の符号化デバイス1204は、符号化ビデオビットストリームのためのシンタックスを生成するように構成されたビデオエンコーダの一例を表す。符号化デバイス1204は、たとえば、上記で説明されたようにVPS、SPS、およびPPSパラメータセットを生成し得る。符号化デバイス1204は、図12および図13に関して上記で説明されたプロセスを含む、本明細書で説明される技法のいずれかを実施し得る。本開示の技法は、概して符号化デバイス1204に関して説明されたが、上述のように、本開示の技法のうちのいくつかは後処理デバイス57によっても実装され得る。
[0267]図13は、例示的な復号デバイス1312を示すブロック図である。復号デバイス1312は、エントロピー復号ユニット80と、予測処理ユニット81と、逆量子化ユニット86と、逆変換処理ユニット88と、加算器90と、フィルタユニット91と、ピクチャメモリ92とを含む。予測処理ユニット81は、動き補償ユニット82と、イントラ予測処理ユニット84とを含む。復号デバイス1312は、いくつかの例では、図12からの符号化デバイス1204に関して説明された符号化パスとは概して逆の復号パスを実施し得る。
[0268]復号プロセス中に、復号デバイス1312は、符号化デバイス1204によって送られた、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。いくつかの実施形態では、復号デバイス1312は、符号化デバイス1204から符号化ビデオビットストリームを受信し得る。いくつかの実施形態では、復号デバイス1312は、サーバ、メディアアウェアネットワーク要素(MANE)、ビデオエディタ/スプライサ、または上記で説明された技法のうちの1つまたは複数を実装するように構成された他のそのようなデバイスなど、ネットワークエンティティ79から符号化ビデオビットストリームを受信し得る。ネットワークエンティティ79は、符号化デバイス1204を含むことも、含まないこともある。本開示で説明される技法のうちのいくつかは、ネットワークエンティティ79が符号化ビデオビットストリームを復号デバイス1312に送信するより前に、ネットワークエンティティ79によって実装され得る。いくつかのビデオ復号システムでは、ネットワークエンティティ79および復号デバイス1312は別個のデバイスの部分であり得るが、他の事例では、ネットワークエンティティ79に関して説明される機能は、復号デバイス1312を備える同じデバイスによって実施され得る。
[0269]復号デバイス1312のエントロピー復号ユニット80は、量子化係数と、動きベクトルと、他のシンタックス要素とを生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット80は、動きベクトルと他のシンタックス要素とを予測処理ユニット81に転送する。復号デバイス1312は、ビデオスライスレベルおよび/またはビデオブロックレベルのシンタックス要素を受信し得る。エントロピー復号ユニット80は、VPS、SPS、およびPPSなど、1つまたは複数のパラメータセット中の固定長シンタックス要素と可変長シンタックス要素の両方を処理し、パースし得る。
[0270]ビデオスライスがイントラコード化(I)スライスとしてコーディングされたとき、予測処理ユニット81のイントラ予測処理ユニット84は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化(すなわち、B、PまたはGPB)スライスとしてコーディングされたとき、予測処理ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された動きベクトルおよび他のシンタックス要素に基づいて現在ビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリスト内の参照ピクチャのうちの1つから生成され得る。復号デバイス1312は、ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、すなわち、リスト0とリスト1とを構成し得る。
[0271]動き補償ユニット82は、動きベクトルと他のシンタックス要素とをパースすることによって現在ビデオスライスのビデオブロックのための予測情報を決定し、復号されている現在ビデオブロックのための予測ブロックを生成するために、その予測情報を使用する。たとえば、動き補償ユニット82は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスのための1つまたは複数の参照ピクチャリストのための構成情報と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコード化ビデオブロックのためのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、パラメータセット中の1つまたは複数のシンタックス要素を使用し得る。
[0272]動き補償ユニット82はまた、補間フィルタに基づいて補間を実施し得る。動き補償ユニット82は、参照ブロックのサブ整数ピクセルのための補間値を計算するために、ビデオブロックの符号化中に符号化デバイス1204によって使用された補間フィルタを使用し得る。この場合、動き補償ユニット82は、受信されたシンタックス要素から符号化デバイス1204によって使用された補間フィルタを決定し得、予測ブロックを生成するためにその補間フィルタを使用し得る。
[0273]逆量子化ユニット86は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された量子化変換係数を逆量子化、すなわち、量子化解除する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するための、ビデオスライス中のビデオブロックごとに符号化デバイス1204によって計算される量子化パラメータの使用を含み得る。逆変換処理ユニット88は、ピクセル領域における残差ブロックを生成するために、逆変換(たとえば、逆DCTまたは他の好適な逆変換)、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。
[0274]動き補償ユニット82が、動きベクトルと他のシンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後に、復号デバイス1312は、逆変換処理ユニット88からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器90は、この加算演算を実施する1つまたは複数の構成要素を表す。所望される場合、(コーディングループ内またはコーディングループ後のいずれかの)ループフィルタも、ピクセル遷移を平滑化するために、またはさもなければビデオ品質を改善するために使用され得る。フィルタユニット91は、デブロッキングフィルタ、適応ループフィルタ(ALF)、およびサンプル適応オフセット(SAO)フィルタなど、1つまたは複数のループフィルタを表すものとする。図13では、フィルタユニット91はループ内フィルタであるとして示されているが、他の構成では、フィルタユニット91はループ後フィルタとして実装され得る。所与のフレームまたはピクチャ中の復号ビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶するピクチャメモリ92に記憶される。ピクチャメモリ92はまた、図1に示されているビデオ宛先デバイス122など、ディスプレイデバイス上で後で提示するために復号ビデオを記憶する。
[0275]上記の説明では、本出願の態様がそれの特定の実施形態を参照しながら説明されたが、本発明はそれに限定されないことを、当業者は認識されよう。したがって、本出願の例示的な実施形態が本明細書で詳細に説明されているが、従来技術によって限定される場合を除いて、発明的概念が、場合によっては様々に実施および採用され得、添付の特許請求の範囲が、そのような変形形態を含むように解釈されるものであることを理解されたい。上記で説明された発明の様々な特徴および態様は、個々にまたは一緒に使用され得る。さらに、実施形態は、本明細書のより広い趣旨および範囲から逸脱することなく、本明細書で説明された環境および適用例以外に、任意の数の環境および適用例において利用され得る。したがって、本明細書および図面は、限定的なものではなく例示的なものとして考慮されるべきである。説明の目的で、方法は特定の順序で説明された。代替実施形態では、方法は、説明された順序とは異なる順序で実施され得ることを諒解されたい。
[0276]構成要素が、ある動作を実施する「ように構成されて」いるものとして説明される場合、そのような構成は、たとえば、動作を実施するように電子回路または他のハードウェアを設計することによって、動作を実施するようにプログラマブル電子回路(たとえば、マイクロプロセッサ、または他の好適な電子回路)をプログラムすることによって、またはそれらの任意の組合せによって、達成され得る。
[0277]本明細書で開示された実施形態に関して説明された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、またはその両方の組合せとして実装され得る。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップが、概してそれらの機能に関して上記で説明された。そのような機能がハードウェアとして実装されるのかソフトウェアとして実装されるのかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明された機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本発明の範囲からの逸脱を生じるものと解釈されるべきではない。
[0278]本明細書で説明された技法は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。そのような技法は、汎用コンピュータ、ワイヤレス通信デバイスハンドセット、またはワイヤレス通信デバイスハンドセットおよび他のデバイスにおける適用例を含む複数の用途を有する集積回路デバイスなど、様々なデバイスのいずれかにおいて実装され得る。モジュールまたは構成要素として説明された特徴は、集積論理デバイスに一緒に、または個別であるが相互運用可能な論理デバイスとして別々に実装され得る。ソフトウェアで実装された場合、本技法は、実行されたとき、上記で説明された方法のうちの1つまたは複数を実施する命令を含むプログラムコードを備えるコンピュータ可読データ記憶媒体によって、少なくとも部分的に実現され得る。コンピュータ可読データ記憶媒体は、パッケージング材料を含むことがあるコンピュータプログラム製品の一部を形成し得る。コンピュータ可読媒体は、同期型ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM(登録商標))、フラッシュメモリ、磁気または光学データ記憶媒体など、メモリまたはデータ記憶媒体を備え得る。本技法は、追加または代替として、伝搬信号または電波など、命令またはデータ構造の形態でプログラムコードを搬送または伝達し、コンピュータによってアクセスされ、読み取られ、および/または実行され得るコンピュータ可読通信媒体によって、少なくとも部分的に実現され得る。
[0279]プログラムコードは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサを含み得るプロセッサによって実行され得る。そのようなプロセッサは、本開示で説明された技法のいずれかを実施するように構成され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、または任意の他のそのような構成として実装され得る。したがって、本明細書で使用される「プロセッサ」という用語は、上記の構造、上記の構造の任意の組合せ、または本明細書で説明された技法の実装に好適な他の構造または装置のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供され得、あるいは複合ビデオエンコーダ/デコーダ(コーデック)に組み込まれ得る。
[0280]本明細書で説明されたコーディング技法は、例示的なビデオ符号化および復号システムにおいて実施され得る。システムは、宛先デバイスによって後で復号されるべき符号化ビデオデータを与えるソースデバイスを含む。特に、ソースデバイスは、コンピュータ可読媒体を介して宛先デバイスにビデオデータを与える。ソースデバイスおよび宛先デバイスは、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。いくつかの場合には、ソースデバイスおよび宛先デバイスはワイヤレス通信のために装備され得る。
[0281]宛先デバイスは、コンピュータ可読媒体を介して復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体は、ソースデバイスから宛先デバイスに符号化ビデオデータを移動することが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体は、ソースデバイスが符号化ビデオデータを宛先デバイスにリアルタイムで直接送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイスに送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイスから宛先デバイスへの通信を可能にするために有用であり得る任意の他の機器を含み得る。
[0282]いくつかの例では、符号化データは、出力インターフェースから記憶デバイスに出力され得る。同様に、符号化データは、入力インターフェースによって記憶デバイスからアクセスされ得る。記憶デバイスは、ハードドライブ、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、記憶デバイスは、ソースデバイスによって生成された符号化ビデオを記憶し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。宛先デバイスは、ストリーミングまたはダウンロードを介して記憶デバイスから記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶することと、その符号化ビデオデータを宛先デバイスに送信することとが可能な任意のタイプのサーバであり得る。例示的なファイルサーバとしては、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続記憶(NAS)デバイス、またはローカルディスクドライブがある。宛先デバイスは、インターネット接続を含む、任意の標準のデータ接続を通して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、またはその両方の組合せを含み得る。記憶デバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0283]本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システムは、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0284]一例では、ソースデバイスは、ビデオソースと、ビデオエンコーダと、出力インターフェースとを含む。宛先デバイスは、入力インターフェースと、ビデオデコーダと、ディスプレイデバイスとを含み得る。ソースデバイスのビデオエンコーダは、本明細書で開示される技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または構成を含み得る。たとえば、ソースデバイスは、外部カメラなどの外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイスは、内蔵ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0285]上記の例示的なシステムは一例にすぎない。ビデオデータを並行して処理するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実施され得る。概して、本開示の技法はビデオ符号化デバイスによって実施されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実施され得る。その上、本開示の技法はビデオプリプロセッサによっても実施され得る。ソースデバイスおよび宛先デバイスは、ソースデバイスが宛先デバイスに送信するためのコード化ビデオデータを生成するような、コーディングデバイスの例にすぎない。いくつかの例では、ソースデバイスおよび宛先デバイスは、デバイスの各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称的に動作し得る。したがって、例示的なシステムは、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオテレフォニーのための、ビデオデバイス間の一方向または双方向のビデオ送信をサポートし得る。
[0286]ビデオソースは、ビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソースは、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。いくつかの場合には、ビデオソースがビデオカメラである場合、ソースデバイスおよび宛先デバイスは、いわゆるカメラフォンまたはビデオフォンを形成し得る。ただし、上述のように、本開示で説明される技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。各場合において、キャプチャされたビデオ、プリキャプチャされたビデオ、またはコンピュータ生成ビデオは、ビデオエンコーダによって符号化され得る。符号化ビデオ情報は、次いで、出力インターフェースによってコンピュータ可読媒体上に出力され得る。
[0287]述べられたように、コンピュータ可読媒体は、ワイヤレスブロードキャストまたはワイヤードネットワーク送信などの一時媒体、あるいはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、Blu−rayディスク、または他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、たとえば、ネットワーク送信を介して、ソースデバイスから符号化ビデオデータを受信し、その符号化ビデオデータを宛先デバイスに与え得る。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティングデバイスは、ソースデバイスから符号化ビデオデータを受信し、その符号化ビデオデータを含んでいるディスクを生成し得る。したがって、コンピュータ可読媒体は、様々な例において、様々な形態の1つまたは複数のコンピュータ可読媒体を含むことが理解され得る。
[0288]宛先デバイスの入力インターフェースはコンピュータ可読媒体から情報を受信する。コンピュータ可読媒体の情報は、ビデオエンコーダによって定義され、またビデオデコーダによって使用される、ブロックおよび他のコード化ユニット、たとえば、ピクチャグループ(GOP)の特性および/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイスは、復号ビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。本発明の様々な実施形態が説明された。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
バーチャルリアリティデータを処理する方法であって、
前記バーチャルリアリティデータを取得することと、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
前記バーチャルリアリティデータをファイルに記憶することと、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
サンプルエントリを前記トラックボックスに記憶することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
を備える、方法。
[C2]
方式タイプボックスを前記サンプルエントリに記憶することをさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C1に記載の方法。
[C3]
前記バーチャルリアリティデータに関係するパラメータを前記ファイル内に記憶すること
をさらに備える、C1に記載の方法。
[C4]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C3に記載の方法。
[C5]
前記パラメータを方式情報ボックスに記憶すること
をさらに備える、C3に記載の方法。
[C6]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C1に記載の方法。
[C7]
バーチャルリアリティデータを符号化するためのデバイスであって、
前記バーチャルリアリティデータを記憶するように構成されたメモリと、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
前記メモリと通信している出力エンジンと
を備え、ここにおいて、前記出力エンジンは、
前記バーチャルリアリティデータをファイルに記憶することと、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルへ記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
サンプルエントリを前記トラックボックス中に記憶することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
を行うように構成された、デバイス。
[C8]
前記出力エンジンが、
方式タイプボックスを前記サンプルエントリ中に記憶するようにさらに構成され、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C7に記載のデバイス。
[C9]
前記出力エンジンが、
前記バーチャルリアリティデータに関係するパラメータを前記ファイルに記憶することを行うようにさらに構成された、C7に記載のデバイス。
[C10]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C9に記載のデバイス。
[C11]
前記出力エンジンが、
前記パラメータを方式情報ボックスに記憶すること
を行うようにさらに構成された、C9に記載のデバイス。
[C12]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C7に記載のデバイス。
[C13]
1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
バーチャルリアリティデータを取得することと、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
前記バーチャルリアリティデータをファイルに記憶することと、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
サンプルエントリを前記トラックボックスに記憶することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
を行わせる命令を記憶した非一時的コンピュータ可読媒体。
[C14]
前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
方式タイプボックスを前記サンプルエントリに記憶することを行わせる命令をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C13に記載の非一時的コンピュータ可読媒体。
[C15]
前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
前記バーチャルリアリティデータに関係するパラメータを前記ファイル内に記憶すること
を行わせる命令をさらに備える、C13に記載の非一時的コンピュータ可読媒体。
[C16]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C15に記載の非一時的コンピュータ可読媒体。
[C17]
前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
前記パラメータを方式情報ボックスに記憶すること
を行わせる命令をさらに備える、C15に記載の非一時的コンピュータ可読媒体。
[C18]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C13に記載の非一時的コンピュータ可読媒体。
[C19]
バーチャルリアリティデータを処理するための装置であって、
前記バーチャルリアリティデータを取得するための手段と、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
前記バーチャルリアリティデータをファイルに記憶するための手段と、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
サンプルエントリを前記トラックボックスに記憶するための手段と、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
を備える、装置。
[C20]
方式タイプボックスを前記サンプルエントリに記憶するための手段をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C19に記載の装置。
[C21]
前記バーチャルリアリティデータに関係するパラメータを前記ファイル内に記憶するための手段
をさらに備える、C19に記載の装置。
[C22]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C21に記載の装置。
[C23]
前記パラメータを方式情報ボックスに記憶するための手段
をさらに備える、C21に記載の装置。
[C24]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C19に記載の装置。
[C25]
バーチャルリアリティデータを処理する方法であって、
ファイルを取得することと、ここにおいて、前記ファイルが前記バーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
前記ファイル内の前記トラックボックス中のサンプルエントリを処理することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む、
前記制限付き方式情報ボックスによって与えられる情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式であると決定すると、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理することと
を備える、方法。
[C26]
前記サンプルエントリ中の方式タイプボックスを処理することをさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C25に記載の方法。
[C27]
前記バーチャルリアリティデータに関係するパラメータを処理することをさらに備え、ここにおいて、前記パラメータが前記ファイルに記憶される、
C25に記載の方法。
[C28]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C27に記載の方法。
[C29]
前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、C27に記載の方法。
[C30]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C25に記載の方法。
[C31]
バーチャルリアリティデータを復号するためのデバイスであって、
ファイルを記憶するように構成されたメモリと、ここにおいて、前記ファイルが前記バーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
前記メモリと通信している入力エンジンと
を備え、ここにおいて、前記入力エンジンは、
前記ファイル内の前記トラックボックス中のサンプルエントリを処理することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む、
前記制限付き方式情報ボックス中の情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式であると決定することと、ここで、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理することと
を行うように構成された、デバイス。
[C32]
前記入力エンジンが、
前記サンプルエントリ中の方式タイプボックスを処理するようにさらに構成され、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C31に記載のデバイス。
[C33]
前記入力エンジンが、
前記バーチャルリアリティデータに関係するパラメータを処理するようにさらに構成され、ここにおいて、前記パラメータが前記ファイルに記憶される、
C31に記載のデバイス。
[C34]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C33に記載のデバイス。
[C35]
前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、C33に記載のデバイス。
[C36]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C31に記載のデバイス。
[C37]
1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
ファイルを取得することと、ここにおいて、前記ファイルが前記バーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、
前記ファイル内の前記トラックボックス中のサンプルエントリを処理することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む
前記制限付き方式情報ボックスによって与えられる情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式として決定することと、ここにおいて、前記制限付き方式ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理することと
を行わせる命令を記憶した非一時的コンピュータ可読媒体。
[C38]
前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
前記サンプルエントリ中の方式タイプボックスを処理することを行わせる命令をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C37に記載の非一時的コンピュータ可読媒体。
[C39]
前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
前記バーチャルリアリティデータに関係するパラメータを処理することを行わせる命令をさらに備え、ここにおいて、前記パラメータが前記ファイルに記憶される、
C37に記載の非一時的コンピュータ可読媒体。
[C40]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C39に記載の非一時的コンピュータ可読媒体。
[C41]
前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、C39に記載の非一時的コンピュータ可読媒体。
[C42]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C37に記載の非一時的コンピュータ可読媒体。
[C43]
バーチャルリアリティデータを処理するための装置であって、
ファイルを取得するための手段と、ここにおいて、前記ファイルが前記バーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報の前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶される、 前記ファイル内の前記トラックボックス中のサンプルエントリを処理するための手段と、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む、
前記制限付き方式情報ボックスによって与えられる情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式であると決定するための手段と、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理するための手段と
を備える、装置。
[C44]
前記サンプルエントリ中の方式タイプボックスを処理するための手段をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
C43に記載の装置。
[C45]
前記バーチャルリアリティデータに関係するパラメータを処理するための手段をさらに備え、ここにおいて、前記パラメータが前記ファイルに記憶される、
C43に記載の装置。
[C46]
前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記ビデオデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記ビデオデータのためのマッピングタイプのうちの1つまたは複数を含む、C45に記載の装置。
[C47]
前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、C45に記載の装置。
[C48]
前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、C43に記載の装置。

Claims (48)

  1. バーチャルリアリティデータを処理する方法であって、
    前記バーチャルリアリティデータを取得することと、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
    前記バーチャルリアリティデータをファイルに記憶することと、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    サンプルエントリを前記トラックボックスに記憶することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記1つまたは複数のサンプルが、前記バーチャルリアリティデータの少なくとも一部分を含み、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義する、
    を備える、方法。
  2. 方式タイプボックスを前記サンプルエントリに記憶することをさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項1に記載の方法。
  3. 前記バーチャルリアリティデータに関係するパラメータを前記ファイル内に記憶すること
    をさらに備える、請求項1に記載の方法。
  4. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項3に記載の方法。
  5. 前記パラメータを方式情報ボックスに記憶すること
    をさらに備える、請求項3に記載の方法。
  6. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項1に記載の方法。
  7. バーチャルリアリティデータを符号化するためのデバイスであって、
    前記バーチャルリアリティデータを記憶するように構成されたメモリと、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
    前記メモリと通信している出力エンジンと
    を備え、ここにおいて、前記出力エンジンは、
    前記バーチャルリアリティデータをファイルに記憶することと、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルへ記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    サンプルエントリを前記トラックボックス中に記憶することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記1つまたは複数のサンプルが、前記バーチャルリアリティデータの少なくとも一部分を含み、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義する、
    を行うように構成された、デバイス。
  8. 前記出力エンジンが、
    方式タイプボックスを前記サンプルエントリ中に記憶するようにさらに構成され、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項7に記載のデバイス。
  9. 前記出力エンジンが、
    前記バーチャルリアリティデータに関係するパラメータを前記ファイルに記憶することを行うようにさらに構成された、請求項7に記載のデバイス。
  10. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項9に記載のデバイス。
  11. 前記出力エンジンが、
    前記パラメータを方式情報ボックスに記憶すること
    を行うようにさらに構成された、請求項9に記載のデバイス。
  12. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項7に記載のデバイス。
  13. 1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    バーチャルリアリティデータを取得することと、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
    前記バーチャルリアリティデータをファイルに記憶することと、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    サンプルエントリを前記トラックボックスに記憶することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記1つまたは複数のサンプルが、前記バーチャルリアリティデータの少なくとも一部分を含み、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義する、
    を行わせる命令を記憶した非一時的コンピュータ可読媒体。
  14. 前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    方式タイプボックスを前記サンプルエントリに記憶することを行わせる命令をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項13に記載の非一時的コンピュータ可読媒体。
  15. 前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    前記バーチャルリアリティデータに関係するパラメータを前記ファイル内に記憶すること
    を行わせる命令をさらに備える、請求項13に記載の非一時的コンピュータ可読媒体。
  16. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項15に記載の非一時的コンピュータ可読媒体。
  17. 前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    前記パラメータを方式情報ボックスに記憶すること
    を行わせる命令をさらに備える、請求項15に記載の非一時的コンピュータ可読媒体。
  18. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項13に記載の非一時的コンピュータ可読媒体。
  19. バーチャルリアリティデータを処理するための装置であって、
    前記バーチャルリアリティデータを取得するための手段と、ここにおいて、前記バーチャルリアリティデータがバーチャル環境の360度ビューを表す、
    前記バーチャルリアリティデータをファイルに記憶するための手段と、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータ関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    サンプルエントリを前記トラックボックスに記憶するための手段と、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記1つまたは複数のサンプルが、前記バーチャルリアリティデータの少なくとも一部分を含み、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含み、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための方式をバーチャルリアリティ方式として定義する、
    を備える、装置。
  20. 方式タイプボックスを前記サンプルエントリに記憶するための手段をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項19に記載の装置。
  21. 前記バーチャルリアリティデータに関係するパラメータを前記ファイル内に記憶するための手段
    をさらに備える、請求項19に記載の装置。
  22. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項21に記載の装置。
  23. 前記パラメータを方式情報ボックスに記憶するための手段
    をさらに備える、請求項21に記載の装置。
  24. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項19に記載の装置。
  25. バーチャルリアリティデータを処理する方法であって、
    ファイルを取得することと、ここにおいて、前記ファイルがバーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    前記ファイル内の前記トラックボックス中のサンプルエントリを処理することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む、
    前記制限付き方式情報ボックスによって与えられる情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式であると決定することと、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
    前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理することと
    を備える、方法。
  26. 前記サンプルエントリ中の方式タイプボックスを処理することをさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項25に記載の方法。
  27. 前記バーチャルリアリティデータに関係するパラメータを処理することをさらに備え、ここにおいて、前記パラメータが前記ファイルに記憶される、
    請求項25に記載の方法。
  28. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項27に記載の方法。
  29. 前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、請求項27に記載の方法。
  30. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項25に記載の方法。
  31. バーチャルリアリティデータを復号するためのデバイスであって、
    ファイルを記憶するように構成されたメモリと、ここにおいて、前記ファイルが前記バーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    前記メモリと通信している入力エンジンと
    を備え、ここにおいて、前記入力エンジンは、
    前記ファイル内の前記トラックボックス中のサンプルエントリを処理することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む、
    前記制限付き方式情報ボックス中の情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式であると決定することと、ここで、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
    前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理することと
    を行うように構成された、デバイス。
  32. 前記入力エンジンが、
    前記サンプルエントリ中の方式タイプボックスを処理するようにさらに構成され、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項31に記載のデバイス。
  33. 前記入力エンジンが、
    前記バーチャルリアリティデータに関係するパラメータを処理するようにさらに構成され、ここにおいて、前記パラメータが前記ファイルに記憶される、
    請求項31に記載のデバイス。
  34. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項33に記載のデバイス。
  35. 前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、請求項33に記載のデバイス。
  36. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項31に記載のデバイス。
  37. 1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    ファイルを取得することと、ここにおいて、前記ファイルがバーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    前記ファイル内の前記トラックボックス中のサンプルエントリを処理することと、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む
    前記制限付き方式情報ボックスによって与えられる情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式として決定することと、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
    前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理することと
    を行わせる命令を記憶した非一時的コンピュータ可読媒体。
  38. 前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    前記サンプルエントリ中の方式タイプボックスを処理することを行わせる命令をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項37に記載の非一時的コンピュータ可読媒体。
  39. 前記1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、
    前記バーチャルリアリティデータに関係するパラメータを処理することを行わせる命令をさらに備え、ここにおいて、前記パラメータが前記ファイルに記憶される、
    請求項37に記載の非一時的コンピュータ可読媒体。
  40. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項39に記載の非一時的コンピュータ可読媒体。
  41. 前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、請求項39に記載の非一時的コンピュータ可読媒体。
  42. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項37に記載の非一時的コンピュータ可読媒体。
  43. バーチャルリアリティデータを処理するための装置であって、
    ファイルを取得するための手段と、ここにおいて、前記ファイルがバーチャルリアリティデータを含み、ここにおいて、前記バーチャルリアリティデータが、ファイルフォーマットに従って前記ファイルに記憶され、ここにおいて、前記ファイルフォーマットが、前記ファイルにデータを記憶するためのボックスを定義し、ここにおいて、前記ボックスが、オブジェクト指向型データ構造であり、ここにおいて、前記ファイルフォーマットが、前記バーチャルリアリティデータを記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、前記バーチャルリアリティデータに関連する情報を記憶する1つまたは複数のボックスの前記ファイル内での配置を指定し、ここにおいて、前記バーチャルリアリティデータに関連する前記情報がトラックボックス内に記憶され、ここにおいて、トラックボックスが、オーディオデータまたはビデオデータのうちの1つまたは複数のためのデータを記憶する、
    前記ファイル内の前記トラックボックス中のサンプルエントリを処理するための手段と、ここにおいて、前記サンプルエントリが1つまたは複数のサンプルに関連し、ここにおいて、前記サンプルエントリが制限付き方式情報ボックスを含む、
    前記制限付き方式情報ボックスによって与えられる情報に基づいて、前記1つまたは複数のサンプルのための方式がバーチャルリアリティ方式であると決定するための手段と、ここにおいて、前記制限付き方式情報ボックスが、前記1つまたは複数のサンプルのための前記方式を前記バーチャルリアリティ方式として定義し、ここにおいて、前記1つまたは複数のサンプルが前記バーチャルリアリティデータの少なくとも一部分を含む、
    前記バーチャルリアリティ方式に従って前記1つまたは複数のサンプルを処理するための手段と
    を備える、装置。
  44. 前記サンプルエントリ中の方式タイプボックスを処理するための手段をさらに備え、ここにおいて、前記方式タイプボックスが方式タイプを含み、ここにおいて、前記方式タイプが前記バーチャルリアリティ方式として定義される、
    請求項43に記載の装置。
  45. 前記バーチャルリアリティデータに関係するパラメータを処理するための手段をさらに備え、ここにおいて、前記パラメータが前記ファイルに記憶される、
    請求項43に記載の装置。
  46. 前記パラメータは、前記バーチャルリアリティデータが2次元ビデオデータを含むのか3次元ビデオデータを含むのかの指示、前記バーチャルリアリティデータがプリスティッチビデオデータであるのかポストスティッチビデオデータであるのかの指示、または前記バーチャルリアリティデータのためのマッピングタイプのうちの1つまたは複数を含む、請求項45に記載の装置。
  47. 前記パラメータが、前記ファイルにおいて方式情報ボックスに記憶される、請求項45に記載の装置。
  48. 前記ファイルフォーマットが、国際標準化機構(ISO)ベースメディアファイルフォーマットに基づく、請求項43に記載の装置。
JP2018543201A 2016-02-17 2017-02-15 メディアファイルにおけるバーチャルリアリティビデオの記憶 Active JP6676771B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662296528P 2016-02-17 2016-02-17
US62/296,528 2016-02-17
US15/432,660 US10389999B2 (en) 2016-02-17 2017-02-14 Storage of virtual reality video in media files
US15/432,660 2017-02-14
PCT/US2017/017981 WO2017142951A1 (en) 2016-02-17 2017-02-15 Storage of virtual reality video in media files

Publications (3)

Publication Number Publication Date
JP2019512186A JP2019512186A (ja) 2019-05-09
JP2019512186A5 JP2019512186A5 (ja) 2019-11-21
JP6676771B2 true JP6676771B2 (ja) 2020-04-08

Family

ID=59561930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018543201A Active JP6676771B2 (ja) 2016-02-17 2017-02-15 メディアファイルにおけるバーチャルリアリティビデオの記憶

Country Status (9)

Country Link
US (1) US10389999B2 (ja)
EP (1) EP3417634A1 (ja)
JP (1) JP6676771B2 (ja)
KR (1) KR102161903B1 (ja)
CN (1) CN108605168B (ja)
BR (1) BR112018016787A2 (ja)
CA (1) CA3011941A1 (ja)
TW (1) TWI692974B (ja)
WO (1) WO2017142951A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142288B1 (en) * 2015-09-04 2018-11-27 Madrona Venture Fund Vi, L.P Machine application interface to influence virtual environment
US10587934B2 (en) * 2016-05-24 2020-03-10 Qualcomm Incorporated Virtual reality video signaling in dynamic adaptive streaming over HTTP
EP3565244A4 (en) * 2016-12-28 2019-12-11 Sony Corporation GENERATING DEVICE, IDENTIFICATION INFORMATION GENERATING METHOD, REPRODUCING DEVICE, AND IMAGE REPRODUCTION METHOD
GB2560921B (en) * 2017-03-27 2020-04-08 Canon Kk Method and apparatus for encoding media data comprising generated content
US20200120359A1 (en) * 2017-04-11 2020-04-16 Vid Scale, Inc. 360-degree video coding using face continuities
US10375375B2 (en) * 2017-05-15 2019-08-06 Lg Electronics Inc. Method of providing fixed region information or offset region information for subtitle in virtual reality system and device for controlling the same
CN107480181B (zh) * 2017-07-05 2020-11-24 百度在线网络技术(北京)有限公司 音频播放方法、装置、设备及服务器
US10567734B2 (en) * 2017-08-29 2020-02-18 Qualcomm Incorporated Processing omnidirectional media with dynamic region-wise packing
CN111434120A (zh) * 2017-10-02 2020-07-17 弗劳恩霍夫应用研究促进协会 高效的沉浸式流传输
GB2567624B (en) * 2017-10-12 2021-05-26 Canon Kk Method, device and computer program for transmitting media content
CN109996069B (zh) * 2018-01-03 2021-12-10 华为技术有限公司 视频图像编解码方法及设备
US10939086B2 (en) * 2018-01-17 2021-03-02 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding virtual reality content
US10944977B2 (en) * 2018-04-03 2021-03-09 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding overlay compositions
CN110351492B (zh) * 2018-04-06 2021-11-19 中兴通讯股份有限公司 一种视频数据处理方法、装置及介质
US10869016B2 (en) 2018-04-12 2020-12-15 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding virtual reality content
US11012657B2 (en) * 2018-06-08 2021-05-18 Lg Electronics Inc. Method for processing overlay in 360-degree video system and apparatus for the same
EP3820147A4 (en) * 2018-07-06 2022-07-20 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2022051967A (ja) * 2019-01-08 2022-04-04 ソニーグループ株式会社 情報処理装置および情報処理方法
US11457231B2 (en) 2019-03-15 2022-09-27 Mediatek Singapore Pte. Ltd. Methods and apparatus for signaling spatial relationships for point cloud multimedia data tracks
US11245926B2 (en) * 2019-03-19 2022-02-08 Mediatek Singapore Pte. Ltd. Methods and apparatus for track derivation for immersive media data tracks
CN110113623B (zh) * 2019-04-18 2021-07-27 浙江工业大学 一种基于sip协议的音视频切片传输平台
CN113542907B (zh) * 2020-04-16 2022-09-23 上海交通大学 多媒体数据收发方法、***、处理器和播放器

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459451B2 (en) * 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
US7751628B1 (en) * 2001-12-26 2010-07-06 Reisman Richard R Method and apparatus for progressively deleting media objects from storage
TW200639741A (en) * 2005-05-12 2006-11-16 Jin-Sung Lai Method for producing real-time virtual reality flow field image, editing system thereof and system storage device
EP2757788B1 (en) * 2007-06-19 2020-03-11 Electronics and Telecommunications Research Institute Metadata structure for storing and playing stereoscopic data, and method for storing stereoscopic content file using this metadata
JP2011142586A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
US20120142415A1 (en) * 2010-12-03 2012-06-07 Lindsay L Jon Video Show Combining Real Reality and Virtual Reality
KR101887548B1 (ko) * 2012-03-23 2018-08-10 삼성전자주식회사 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치
US20130278633A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Method and system for generating augmented reality scene
US10038899B2 (en) * 2012-10-04 2018-07-31 Qualcomm Incorporated File format for video data
US20140280505A1 (en) * 2013-03-15 2014-09-18 John Cronin Virtual reality interaction with 3d printing
US20140280506A1 (en) * 2013-03-15 2014-09-18 John Cronin Virtual reality enhanced through browser connections
US9838506B1 (en) * 2013-03-15 2017-12-05 Sony Interactive Entertainment America Llc Virtual reality universe representation changes viewing based upon client side parameters
US20140280644A1 (en) * 2013-03-15 2014-09-18 John Cronin Real time unified communications interaction of a predefined location in a virtual reality location
KR20140119291A (ko) * 2013-03-28 2014-10-10 최명진 미러월드 마케팅 플랫폼 기반 증강현실 장바구니 시스템
US20140359202A1 (en) * 2013-05-31 2014-12-04 Western Digital Technologies, Inc. Reading voltage calculation in solid-state storage devices
CN103327280A (zh) * 2013-07-16 2013-09-25 无锡方圆环球显示技术股份有限公司 多媒体摄录时加入定位轨迹数据的方法
KR102179154B1 (ko) * 2013-11-27 2020-11-16 한국전자통신연구원 투명 디스플레이를 이용한 전자기기 제어방법 및 이를 이용한 장치
US20170127152A1 (en) * 2014-07-01 2017-05-04 Sony Corporation Information processing device and information processing method
US20160300392A1 (en) * 2015-04-10 2016-10-13 VR Global, Inc. Systems, media, and methods for providing improved virtual reality tours and associated analytics
US9924238B2 (en) * 2016-03-21 2018-03-20 Screenovate Technologies Ltd. Method and a system for using a computerized source device within the virtual environment of a head mounted device
US10319071B2 (en) * 2016-03-23 2019-06-11 Qualcomm Incorporated Truncated square pyramid geometry and frame packing structure for representing virtual reality video content
US10088898B2 (en) * 2016-03-31 2018-10-02 Verizon Patent And Licensing Inc. Methods and systems for determining an effectiveness of content in an immersive virtual reality world

Also Published As

Publication number Publication date
TWI692974B (zh) 2020-05-01
KR20180112793A (ko) 2018-10-12
CN108605168B (zh) 2020-11-03
US10389999B2 (en) 2019-08-20
JP2019512186A (ja) 2019-05-09
US20170237965A1 (en) 2017-08-17
WO2017142951A1 (en) 2017-08-24
CN108605168A (zh) 2018-09-28
EP3417634A1 (en) 2018-12-26
CA3011941A1 (en) 2017-08-24
KR102161903B1 (ko) 2020-10-05
TW201733361A (zh) 2017-09-16
BR112018016787A2 (pt) 2018-12-26

Similar Documents

Publication Publication Date Title
JP6676771B2 (ja) メディアファイルにおけるバーチャルリアリティビデオの記憶
KR102614206B1 (ko) 비디오 코딩을 위한 서브-픽처 비트스트림들을 포함한 비디오 컨텐츠의 시그널링
KR102646968B1 (ko) 전방향 시각 미디어에서의 관심 영역들의 어드밴스드 시그널링
KR102185811B1 (ko) 컨테이너 파일들 및 비디오 비트스트림들의 관심 영역들의 강화된 시그널링
CN110024400B (zh) 感兴趣区的信号发送的***和方法
JP2019517212A (ja) バーチャル・リアリティにおける円周魚眼ビデオ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191011

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200312

R150 Certificate of patent or registration of utility model

Ref document number: 6676771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250