JP5298201B2 - メディアコンテナファイル - Google Patents

メディアコンテナファイル Download PDF

Info

Publication number
JP5298201B2
JP5298201B2 JP2011530022A JP2011530022A JP5298201B2 JP 5298201 B2 JP5298201 B2 JP 5298201B2 JP 2011530022 A JP2011530022 A JP 2011530022A JP 2011530022 A JP2011530022 A JP 2011530022A JP 5298201 B2 JP5298201 B2 JP 5298201B2
Authority
JP
Japan
Prior art keywords
view
representation
camera
identifier
camera views
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011530022A
Other languages
English (en)
Other versions
JP2012505570A (ja
Inventor
ペル フレイデ,
ジャンフェイ ウー,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2012505570A publication Critical patent/JP2012505570A/ja
Application granted granted Critical
Publication of JP5298201B2 publication Critical patent/JP5298201B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/67Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving unequal error protection [UEP], i.e. providing protection according to the importance of the data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、一般に多視点映像データに関し、特にそのような多視点映像データを含むメディアコンテナファイルに関する。
MPEG(Moving Picture Experts Group)(非特許文献1を参照)及び国際電気通信連合電気通信標準化部門(ITU−T)Study Group16(SG16)により進行中の多視点映像符号化(MVC)の標準化は、いくつかのカメラ又はカメラアレイにより生成された映像系列を符号化する映像符号化技術である。MVCは、コンパクトな符号化映像ストリームを提供するために複数の映像ビューの間の冗長性を効率的に利用する。MVCは、ITU−T H.264としても既知である高度映像符号化(AVC)規格に基づくため、MVCビットストリームの構文及びセマンティクスはAVCビットストリームの構文及びセマンティクスと同様に維持される。
ISO/IEC14496−15(非特許文献2を参照)は、AVCビットストリームの管理を行いやすくする融通性のある拡張可能な形式で高度映像符号化(AVC)ビットストリーム情報を含むように設計された国際標準である。この標準は、MP4ファイル形式(非特許文献3を参照)及び3GPPファイル形式(非特許文献4を参照)に準拠する。これらの全ての標準は、MPEGにより規定されたISO準拠メディアファイル形式(非特許文献5を参照)から導出される。MVC映像ストリームの保存形式はMVCファイル形式と呼ばれる。
MVCファイル形式において、多視点映像ストリームはファイル中の1つ以上の映像トラックにより表される。各トラックは、ストリームの1つ以上のビューを表す。MVCファイル形式は、符号化された多視点映像データ自体に加えて、映像データを処理する時に使用されるメタデータを含む。例えば各ビューは、1つのビュー内のMVCネットワーク抽象化層(NAL)ユニットが全て同一のビュー識別子を有すること、すなわちMVC NALユニットヘッダ拡張部において同一の値のview_idフィールドを有することを示す関連付けられたビュー識別子を有する。
今日、カメラパラメータは、多視点取得情報付加拡張情報(SEI)メッセージに格納され、外部カメラパラメータボックス及び内部カメラパラメータボックスに含まれる。これらのパラメータは、カメラの位置及びカメラ焦点距離の座標を提供する平行移動ベクトルを含む。
ISO/IEC JTC1/SC29/WG11 - Coding of Moving Pictures and Audio, MPEG-4 Overview、2000年7月 ISO/IEC 14496-15:2004 - Information Technology, Coding of Audio-visual Objects, Part 15: Advanced Video Coding (AVC) File Format ISO/IEC 14496-14:2003 - Information Technology, Coding of Audio-Visual Objects, Part 14: MP4 File Format 3GPP TS 26.244 V7.3.0 - 3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; Transparent end-to-end packet switched streaming service (PSS); 3GPP file format、2007年 ISO/IEC 14496-12:2005 - Information Technology, Coding of Audio-Visual Objects, Part 12: ISO Base Media File Format
多視点取得情報SEIメッセージに含まれた情報に基づいてカメラ及びカメラビューの関係並びに全体的な配置(deployment)及びレイアウトを判定することは非常に困難であり且つ場合によっては不可能である。
本発明の実施形態は、従来の構成の上記欠点及び他の欠点を克服する。
一般的な目的は、有用なカメラビュー配置情報を含むメディアコンテナファイルを生成することである。
この目的及び他の目的は、添付の請求の範囲により規定されるように実施形態により達成される。
簡単に説明すると、一実施形態は、メディアコンテナファイルの少なくとも1つのメディアトラックにシーンの複数のカメラビューを表す符号化映像データを編成することによりメディアコンテナファイルを生成することを含む。カメラビューの他の所定の配置及び位置関係を示す複数の所定のビュー構成表現が利用可能である。複数のカメラビューの現在のアレイに関連する1つ以上のビュー構成表現が選択される。複数のカメラビューのビュー識別子は、選択されたビュー構成表現に含まれる。このビュー識別子を有するビュー構成表現は、少なくとも1つのメディアトラックに対してメディアコンテナファイルに関連付けて編成される。
ビュー構成表現は、多視点データを録画するのに使用されるカメラの互いに対する配置方法に関する直観的な見識を直接与え且つカメラの配置にあらゆるパターンを与える高レベル情報を提供する。
更に実施形態は、メディアコンテナファイルを生成する装置及びそのようなメディアコンテナファイルに関する。
実施形態は、添付の図面と共に以下の説明を参照することにより更なる目的及び利点と共に最もよく理解されるだろう。
発明の実施形態に係るメディアコンテナファイルを生成する方法を示すフローチャートである。 複数のカメラ及びカメラビューのアレイの一例を示す概略図である。 複数のカメラビューのアレイの別の例を示す概略図である。 メディアコンテナファイルの一実施形態を示す図である。 図4のメディアコンテナファイルに含まれる複数のビュー構成表現のボックスを示す図である。 図1の生成方法の選択するステップ及び付加するステップの一実施形態を示すフローチャートである。 インラインビュー(inline view)構成表現の例を示す図である。 図1の生成方法の選択するステップ及び付加するステップの別の実施形態を示すフローチャートである。 平面ビュー(plane view)構成表現の例を示す図である。 図1の生成方法の選択するステップの一実施形態を示すフローチャートである。 矩形ビュー(rectangular view)構成表現の一例を示す図である。 図1の生成方法の選択するステップの別の実施形態を示すフローチャートである。 球体ビュー(sphere view)構成表現の例を示す図である。 図1の生成方法の選択するステップの更に別の実施形態を示すフローチャートである。 立体ビュー(stereo view)構成表現の一例を示す図である。 図1の生成方法のオプションの追加のステップを示すフローチャートである。 図4のメディアコンテナファイルに含まれるオーバラッピングカメラビューの表現の一例を示す図である。 一実施形態に係るコンテナファイル生成装置を示す概略ブロック図である。 実施形態が実現される通信システムの一例を示す概略図である。 オーバラッピングカメラビューを概略的に示す図である。
図中、同一の図中符号は対応する要素又は同様の要素に対して使用される。
本発明の実施形態は、多視点映像データ及び符号化された多視点映像データを含むメディアコンテナファイルに関する。
多視点映像データとは、コンテンツの複数のカメラビューが利用可能であることを示し、そのような各カメラビューは複数の利用可能なカメラビューのうちの1つからコンテンツを表す映像データを生成する。多視点映像において、複数のカメラ又は他のメディア録画/作成機器又は複数のそのようなカメラのアレイが録画するシーンに対して提供される。カメラがシーンに対する種々の位置及び/又は種々の指示方向及び/又は焦点距離を有するため、カメラはコンテンツに対して別のビューを提供する。図2は、例えばサッカーの試合が異なるカメラ12〜18により録画されるサッカー競技場であるシーン5に隣接して位置付けられた複数のカメラ12〜18のアレイ10を使用してこの概念を概略的に示す。図2は、カメラ12〜18の各カメラビュー22〜28を更に示す。この図示する例において、カメラ12〜18は、サッカー競技場の長さに沿う異なる位置に位置付けられるため、競技場の異なる部分を録画する。これは、カメラ12〜18が各カメラビュー22〜28から見えるようなメディアコンテンツの異なるバージョンを取り込むことを意味する。
従来技術において既知であるように、映像データ符号化は、一般にH.261、H.263、MPEG−4及びH.264等の相対画素予測に基づく。H.264において、利用される画素予測方法は3つ存在する。すなわち、イントラ予測、インター予測及び双方向予測が存在する。イントラ予測は、現在のフレームの先に復号化された画素から現在の画素ブロックの空間予測を提供する。インター予測は、先に復号化されたフレームの対応する変位画素ブロックを使用して現在のブロックの時間的予測を与える。双方向予測は、2つのインター予測の加重平均を与える。従って、イントラフレームは、映像ストリームのいずれの先行フレームにも依存しないが、双方向予測によるインターフレームを含むインターフレームは映像ストリームの1つ以上の他の基準フレームからの動き補償を使用する。
多視点映像符号化は、単一のカメラビューからのフレーム間の予測を可能にするだけでなくビュー間予測も可能にすることにより一歩進んだ予測を用いた符号化を利用している。従って、基準フレームは、符号化する現在のフレームと比較して別のカメラビューに属する同一の相対時間のフレームであってもよい。ビュー間予測及びビュー内予測の組み合わせも可能であり、これにより種々のカメラビューから複数の基準フレームを有する。
従来技術において、MVC規格の草案において開示されるように、録画されたシーンに対してカメラの位置のMVCファイル形式で含まれた情報の量は非常に限られている。基本的に、従来の情報はカメラの焦点距離に対する平行移動ベクトル及び座標に限定される。しかし、本質的にこの情報は、例えばカメラビューがグローバルに編成される方法、互いに隣接するか又は実際にはオーバラップするカメラビューに関して直観的な指示を与えない。これに対して、各カメラに対するベクトル及び座標情報は、カメラビューのメディアコンテナファイルの各記憶位置から取り出される必要がある。取り出されたデータは、あらゆるグローバル及びローカルカメラビュー相互関係を判定するために計算の複雑なアルゴリズムで処理される。例えば、ベクトル及び座標に基づいて、カメラが平面又は球面にグリッド状に編成されるかを判断することは非常に困難であり且つ場合によっては不可能である。
実施形態は、複雑な計算をせずにメディアコンテナファイルから直接取り出されるビュー構成表現の明示的な情報を提供することにより従来技術の制約を解決する。
図1は、一実施形態に係るメディアコンテナファイルを生成する方法を示すフローチャートである。
方法は、ステップS1で開始し、映像コンテンツの複数のカメラビューを表す符号化映像データが提供される。このステップS1の多視点映像データの提供は、映像データが先に入力されたアクセス可能なメディアメモリから映像データを取り出すことにより実現される。あるいは、映像データは、映像データが格納されたか、録画されたか又は生成された他のある外部ユニットから受信される。更なる可能性は、映像系列を録画すること又は映像データを合成して生成すること等、映像データを実際に作成及び符号化することである。
次のステップS2において、提供された符号化多視点映像データは、メディアコンテナファイルの少なくとも1つのメディアトラックとして編成される。メディアコンテナファイルは、例えばいわゆるMVCファイル又はISO準拠メディアファイル形式に基づくのが好ましい他のあるファイル形式であってもよい。
メディアコンテナファイルは、映像コンテンツを提供し且つ映像データを送信可能なデータパケットに形成するためにメディアセッション中にメディアサーバにより使用される完全な入力パッケージとして考えられる。従って、コンテナファイルは、本質的な映像コンテンツに加え、メディアセッション中に映像コンテンツの処理を実行し且つ送信を可能にするためにメディアサーバにより要求された情報及び命令を含むのが好ましい。
一実施形態において、各カメラビューは、メディアコンテナファイルの別個の割り当てられたメディアトラックを有し、これによりカメラビューの数とメディアトラックの数との間に1対1関係を提供する。あるいは、少なくとも2つのカメラビュー、可能性として全てのカメラビューの符号化映像データは、メディアコンテナファイルの単一のメディアトラックに格納される。図4は、符号化多視点映像データを保持する1つ以上のメディアトラック32を有するメディアコンテナファイル30の一例を概略的に示す。
1つ以上のメディアトラックに編成されるか否かに関わらず、複数のカメラビューの各映像データは、カメラビューと関連付けられた各ビュー識別子を割り当てられるのが好ましい。
生成方法の次のステップS3は、複数のカメラビューの相対位置に基づいて多視点映像データに対するビュー構成表現を選択する。このビュー構成表現は、複数の所定のビュー構成表現の中から更に選択される。これらのビュー構成表現は、複数のカメラビューの種々の所定の配置及び位置関係を示す。ビュー構成表現は、録画されたシーンに対する複数のカメラ及びカメラビューの特定の全体の配置の識別子として考えられる。従って、ビュー構成表現は、複数のカメラビューの編成方法に関する情報を直接提供し、現在のカメラビュー配置を判定するためにカメラベクトル及び座標のいかなる処理も必要としない。
ステップS3は、複数の所定のビュー構成表現の集合からビュー構成を選択する。これは、カメラが多視点設定で録画されるシーン又は被写体に対して編成される事前に指定及び許可された配置の数が限られることを意味する。これらの所定のビュー構成表現は、多視点映像の録画で使用されるカメラの最も一般的な配置案に対応する。
使用可能なそのような所定のビュー構成表現の例には、インラインビュー構成表現、平面ビュー構成表現、矩形ビューアレイ表現、球体ビューアレイ構成表現及び立体ビューペア構成表現が含まれる。従って、複数の所定のビュー構成表現、すなわち少なくとも2つの所定のビュー構成表現が集合に存在する限り、複数の所定のビュー構成表現の集合は上述のビュー構成表現の全て又はその部分集合を含むことができる。本発明の実施形態は、それらの特定のビュー構成表現に限定されず、代わりに又は更に、直線、平面、矩形の格子、球体又は立体ビューペアの他に異なるカメラビュー配置を有する他のビュー構成表現を使用できる。
ステップS3の選択は、単一のビュー構成表現を選択することにより実行される。あるいは、複数の所定のビュー構成表現の部分集合は、実際には現在のカメラビュー構成に適用されてもよいため、ステップS3で選択されてもよい。例えば矩形ビューアレイ構成表現により規定されるようにデプロイされたカメラビューは平面にもデプロイされるため、平面ビュー構成表現も選択可能である。
ステップS4において、複数のカメラビューのビュー識別子は、選択されたビュー構成表現に含まれる。従って、これらのビュー識別子は、選択されたビュー構成表現により示される配置案に従って記録されたシーンに対してデプロイされるカメラビューを指定する。ビュー識別子は、選択されたビュー構成表現により規定された配置及び位置関係でカメラビューの相対位置順序を記述する順序でビュー構成表現に含まれるのが好ましい。従って、カメラビューのビュー識別子は、カメラビューがビュー構成表現により規定された配置案においてシーンに対して位置付けられた順序でビュー構成に含まれるのが好ましい。
ステップS5において、含まれたビュー識別子を有する選択されたビュー構成は、ステップS2でファイルに編成された少なくとも1つのメディアトラックに対してメディアコンテナファイルに関連付けて編成される。関連付けて編成するとは、ビュー構成表現とビュー構成表現が適用されるカメラビューとの間に関連性を提供するように、ビュー構成表現がメディアコンテナファイルに含まれることを示す。これに対応して、そのような関連性は、ビュー構成表現と少なくとも1つのメディアトラックに編成された符号化多視点データとの間に代わりに提供されてもよい。
関連性は、メディアコンテナファイル内の映像データの記憶位置からビュー構成表現の記憶位置へのポインタ形式又はその逆のポインタ形式であってもよい。このポインタ又はそれに対するメタデータにより、メディアコンテナファイル内の特定の映像データ又はその場所を仮定すると、関連付けられたビュー構成表現又はファイル内のビュー構成表現の記憶位置の識別が可能になる。ポインタを採用する代わりに、メタデータは映像データの映像データ識別子又は多視点映像データを保持するメディアトラックのトラック識別子を含むことができる。更なる例はビュー構成表現に含まれたビュー識別子を含み、これにより、カメラビュー、並びにビュー構成表現が適用されるメディアトラック及び映像データの識別が可能になる。
その後、方法は終了する。生成方法の動作ステップは、図1に示すように順番に実行されてもよい。あるいは、ステップS3〜S5は、ステップS1及びS2の前に又は実際にはステップS1及びS2と並列に実行可能である。
図4は、メディアコンテナファイル30の一実施形態を概略的に示す。メディアコンテナファイル30は、符号化多視点映像データを保持する1つ以上のメディアトラック32を含む。カメラビューのビュー識別子36を含む選択されたビュー構成表現34は、メディアコンテナファイル30にメタデータとして更に編成される。
図5は、ビュー構成表現がメディアコンテナファイルに編成される方法の一例を示す。この図示する例において、メディアコンテナファイルは、グローバル補助ビュー位置ボックス38で示されるボックスを含む。このボックス38は、一般に使用されたカメラ位置を記録する。これは、カメラ及びカメラビューがカメラ位置の座標から抽出するのは複雑である直観的に単純なパターンで方向付けられる時に特に有用である。コンテンツ作成者は、自身の選択したカメラの間の有用な関係を強調表示するためにこのボックスを使用できる。
図5のグローバル補助ビュー位置ボックス38は、一実施形態に従って複数の所定のビュー構成表現34A〜34Eを示す。ボックス38は、インラインビューボックス34A、平面ビューボックス34B、矩形ビューボックス34C、球体ビューボックス34D及び立体ビューボックス34Eを含む。尚、最も実用的な実現例において、ビュー構成表現34A〜34Eのうちの1つのみ又は部分集合は、それらが現在のカメラビュー構成に対して選択されると、グローバル補助ビュー位置ボックス38に実際に含まれる。
メディアコンテナファイルのグローバル補助ビュー位置ボックス38を提供する例は以下の通りであるが、これに限定されない。
ボックスタイプ:「gsvp」
コンテナ:動画像ボックス(「moov」)
必須:No
数量:1
aligned(8) class GlobalSupplementaryViewPositionBox
extends Fullbox('gsvp', version = 0, 0){
Inline ViewBox(); //オプション
PlaneViewBox(); //オプション
RectangularViewBox(); //オプション
SphereViewBox(); //オプション
StereoViewBox(); //オプション
}
ボックスタイプ「gsvp」に対して利用可能なビューボックス34A〜34Eはオプションであり、それらの全てが必ずしも所定のカメラビュー構成に対するメディアコンテナファイルに含まれる必要はないことを示す。図5において、ボックス38は、ビュー構成表現タイプ毎に最大1つのボックス34A〜34Eを有するものとして示される。しかし、一部のカメラアレイに対しては、複数のインラインビュー構成表現34A及び/又は複数の立体ビュー構成表現34E等の所定のタイプの複数のビュー構成表現を含むのが有利である。
図6は、図1の生成方法の選択するステップS3及び付加するステップS4の一実施形態を示すフローチャートである。方法は、図1のステップS2から継続する。次のステップS10は、複数のカメラビュー又は複数のカメラの相対位置に基づいてインラインビュー構成表現を選択する。例えば図2を参照すると、カメラビュー22〜28は全て直線に配置され、インラインビュー構成表現がこのカメラビューの配置に対して選択されるべきである。
図3は、カメラビューの別のグループを示す。この時、カメラビューの最小数が3である場合、16個のカメラビュー22A〜28Dを含むアレイに対してインラインビュー構成表現の34個の可能なエントリが実際には存在する。
22A, 22B, 22C, 22D 24A, 24B, 24C, 24D 26A, 26B, 26C, 26D
28A, 28B, 28C, 28D 22A, 24A, 26A, 28A 22B, 24B, 26B, 28B
22C, 24C, 26C, 28C 22D, 24D, 26D, 28D 22A, 24B, 26C, 28D
28A, 26B, 24C, 22D 24A, 26B, 28C 22A, 24B, 26C
24B, 26C, 28D 22B, 24C, 26D 26A, 24B, 22C
28A, 26B, 24C 26B, 24C, 22D 28B, 26C, 24D
22A, 22B, 22C 22B, 22C, 22D 24A, 24B, 24C
24B, 24C, 24D 26A, 26B, 26C 26B, 26C, 26D
28A, 28B, 28C 28B, 28C, 28D 22A, 24A, 26A
24A, 26A, 28A 22B, 24B, 26B 24B, 26B, 28B
22C, 24C, 26C 24C, 26C, 28C 22D, 24D, 26D
24D, 26D, 28D
好適な一実施形態において、直線状であると考えられるカメラビューの数は、上記例と同様に少なくとも3つである。
オプションの次のステップS11は、第1のインラインバージョン及び第2のインラインバージョンから1つのインラインバージョンを選択する。これらの複数のインラインバージョンは、直線状にデプロイされた好ましくは少なくとも3つのカメラビューのビュー識別子を編成する種々の方法を規定する。ステップS11のインラインバージョンの選択は、複数のカメラビューの相対位置に基づいて実行される。ステップS11で第1のインラインバージョンV1が選択される場合、ステップS12に進む。ステップS12は、直線状にデプロイされたカメラビューの全てのビュー識別子をインラインビュー構成表現に付加する。従って、カメラビューは線に沿ってデプロイされるように正確な順序で提供される。例えば22A〜28Dがカメラビューに対するビュー識別子を表す場合、図3において22A、24B、26C、28Dである。
しかし、ステップS11で第2のインラインバージョンV0が選択される場合、ステップS13は、開始ビュー識別子及びオプションとして識別子の増分をインラインビュー構成表現に付加する。このビュー識別子の表現方法は、ビュー識別子の合計のビットサイズに関してより効率的である。しかし、ビュー識別子がstart_view_id、start_view_id+id_increment、start_view_id+2×id_increment、start_view_id+3×id_increment、...となるようにカメラビューが編成される場合、第2のインラインバージョンのみが利用可能である。ここで、start_view_idは一連の位置合わせされたカメラビューのうち最小のビュー識別子を有するカメラビューのビュー識別子であり、id_incrementは識別子の増分である。いくつかの応用例において、識別子の増分は1等の所定の値を有することができ、これによりインラインビューボックスにおいて識別子の増分を指定する必要性を緩和する。その後、図1のステップS5に進む。
図7Aは、図6のステップS11で第1のインラインバージョンが選択された場合のインラインビューボックス34Aの第1の例を示す。インラインビューボックス34Aは、第1のインラインバージョンと関連付けられた値を有するバージョン識別子31を含む。更に、位置合わせされたカメラビューのビュー識別子36Aがインラインビューボックス34Aに含まれる。
図7Bは、図6のステップS11で第2のインラインバージョンが選択された場合の対応するインラインビューボックス34Aを示す。インラインビューボックス34Aは、上述したようにインラインバージョン識別子31、開始ビュー識別子36B及びオプションの識別子の増分36Cを含む。開始ビュー識別子36B及び識別子の増分36Cは、位置合わせされたカメラビューのビュー識別子の表現であり、view_idk = start_view_id + k × id_incrementに従ってカメラビューを計算するのに使用される。ここで、k = 0, 1, 2, ..., view_count-1であり、view_countは連続して位置合わせされたカメラビューの数を指定する整数である。
図7A及び図7Bには示さないが、インラインビューボックス34Aは、view_count、すなわち直線状に位置合わせされたカメラビューの総数を更に含むことができる。しかし、これは、ボックス/フルボックス構造に含まれたサイズフィールドがボックス中のビューエントリの数の指示を与えるため必要ではない。ビューの総数を得るためにサイズを各ビューにより占有されたビット数で常に除算できる。
インラインビューボックス34Aは以下のように規定される。
ボックスタイプ:「ilvi」
コンテナ:グローバル補助ビュー位置ボックス(「gsvp」)
必須:No
数量:0以上
aligned(8) class InlineViewBox extends Fullbox('ilvi', version, 0){
if(version == 1){
for (i=0; ; i++){ //ボックスの最後まで
unsigned int(6) reserved1 = 0;
unsigned int(10) view_id;
}
} else {
unsigned int(6) reserved2 = 0;
unsigned int(10) start_view_id;
unsigned int(16) view_count;
unsigned int(16) id_increment
}
}
セマンティクス
versionは、インラインビューボックスのインラインバージョンを指定する整数である。
view_idは、MVC規格の草案のViewIdentifier Boxで指示されるようなカメラビューの識別子である。
start_view_idは、ViewIdentifierBoxで指示されるようなカメラビューのビュー識別子であり、これは位置合わせされた一連のカメラビューのうち最小のview_idである。
view_countは、連続的に位置合わせされたカメラビューの数をカウントする整数である。
id_incrementは識別子の増分である。
尚、単一のカメラビュー構成は、図3と関連して上述して示したように複数のインラインビューボックスを含んでもよい。
別の実施形態において、第1のインラインバージョンのみが利用可能である。従って、ステップS11及びS13は省略されてもよく、全てのインラインビューボックスは図7Aに示す通りである。更に別の実施形態は、第2のインラインバージョンのみを許可することである。従って、ステップS11及びS12は省略されてもよく、インラインビューボックスは図7Bに示す通りである。
他の実施形態において、インラインビュー構成表現は、位置合わせされたカメラビューの直線が水平線であるか、垂直線であるか又は斜線であるかを示す情報を更に含む。
図8は、図1の選択するステップS3及び付加するステップS4の一実施形態を示すフローチャートである。方法は、図1のステップS2から継続する。次のステップS20は、複数のカメラビューの相対位置に基づいて平面ビュー構成表現を選択する。カメラビュー又はカメラのグループが平面上に配置される場合、このビュー構成表現が選択される。グループ中のカメラビューの数は3つ以上であるのが好ましい。図3に示した全てのカメラビュー22A〜28Dは平面上に存在するため、平面ビュー構成表現がカメラビュー22A〜28Dのグループに対して選択される。
次のオプションのステップS21は、インラインビュー構成表現の場合に対応して第1の平面ビューバージョン及び第2の平面ビューバージョンから選択する。ステップS21の選択は、複数のカメラビューの相対位置に基づいて実行される。ステップS21で第1の平面バージョンV1が選択される場合、ステップS22は、平面に位置合わせされたカメラビューの全てのビュー識別子を平面ビュー構成表現に付加する。このステップS22は、複数のカメラビューが直線にだけでなく平面に位置合わせされること以外は基本的に図6のステップS12と同様に実行される。ビュー識別子は、例えば左上のカメラビューから開始して第1の行に沿って走査し且つ第2の行に継続するような所定の走査方式に従って平面のカメラビューを移動することにより取得された順序で含まれるのが好ましい。使用される他の可能な走査順序はジグザグ走査順序を含む。これは、例えば3×3のカメラ又はカメラビューを含むマトリクスが(行,列)で(1,1)、(1,2)、(2,1)、(3,1)、(2,2)、(1,3)、(2,3)、(3,2)及び(3,3)の順序で走査されることを意味する。更なる例は、飛越し走査順序である。
ステップS22で第2の平面バージョンV0が選択される場合、ステップS23は、開始ビュー識別子及び一定でない限りオプションの識別子の増分を平面ビュー構成表現に付加する。このステップS23は、基本的に図6のステップS13と同様に実行される。その後、図1のステップS5に進む。
図9Aは、第1の平面バージョンに対する平面ビューボックス34B、すなわち平面ビュー構成表現を示す。平面ビューボックス34Bは、バージョン識別子31及び平面に位置合わせされたカメラビューの全てのビュー識別子36Aを含む。図9Bは、バージョン識別子31が第2の平面バージョンを信号で伝送する場合の平面ビューボックス34Bを示す。平面ビューボックス34Bは、開始ビュー識別子36B及びオプションの識別子の増分36Cを含む。平面ビューボックス34Bは、平面に位置合わせされたカメラビューの数の情報、すなわちview_countをオプションとして含む。
インラインビュー構成表現と同様に、別の実施形態において、第1の平面バージョンのみ又は第2の平面バージョンのみが利用可能である。
平面ビューボックスは以下のように規定される。
ボックスタイプ:「plvi」
コンテナ:グローバル補助ビュー位置ボックス(「gsvp」)
必須:No
数量:0以上
aligned(8) class PlaneViewBox extends FullBox('plvi', version, 0){
if (version == 1){
for (i=0; ; i++){ //ボックスの最後まで
unsigned int(6) reserved1 = 0;
unsigned int(10) view_id;
}
} else {
unsigned int(6) reserυed2 = 0;
unsigned int(10) start_view_id;
unsigned int(16) view_count;
unsigned int(16) id_increment;
}
}
セマンティクス
versionは、平面ビューボックスの平面バージョンを指定する整数である。
view_idは、MVC規格の草案のViewIdentifier Boxで指示されるようなカメラビューの識別子である。
start_view_idは、ViewIdentifierBoxで指示されるようなカメラビューのビュー識別子であり、これは平面に配置された一連の連続したカメラビューのうち最小のview_idである。
view_countは、平面に連続的に位置合わせされたカメラビューの数をカウントする整数である。
id_incrementは識別子の増分である。
図10は、図1の選択するステップS3の一実施形態を示すフローチャートである。方法は、図1のステップS2から継続する。次のステップS30は、複数のカメラビューの相対位置に基づいて矩形ビューアレイ構成を選択する。そのような矩形ビュー構成表現は、平面に矩形の格子又はグリッドを形成するカメラビュー又はカメラのグループを表現するのに適する。グループ中のカメラビューの数は4つ以上であるのが好ましく、周期的なパターンで同等に離間されるのが好ましい。図3は、カメラビュー22A〜28Dのグループが矩形アレイに配置されることを示す。
次のステップS31は、矩形のカメラビューアレイの行数の表現及び列数の表現を平面ビューアレイ構成表現に付加する。ステップS32において、矩形カメラビューアレイの連続した行の間の距離の表現及び連続した列の間の距離の表現が判定され且つ矩形ビューアレイ構成表現に含まれる。図1のステップS4に進み、矩形アレイのカメラビューのビュー識別子が構成表現に含まれる。ビュー識別子は、上述の走査方式により判定されるような順序で含まれるのが好ましい。
図11は、一実施形態に従って矩形ビューボックス34C、すなわち矩形ビューアレイ構成表現を示す概略図である。矩形ビューボックス34Cは、矩形アレイの行数の表現35A及び列数の表現35B、並びに連続した行の間の距離の表現37A及び連続した列の間の距離の表現37Bを含む。矩形アレイに編成されたカメラビューのビュー識別子36Aは、矩形ビューボックス34Cに更に含まれる。
インラインビューボックス及び平面ビューボックスと同様に2つの矩形バージョンの間の選択は、矩形ビューボックス34Cに対しても使用される。更に、カメラビューの全てのビュー識別子36Aを明示的に一覧表示する代わりに、ビュー識別子の明示的な一覧表示を提供するために開始ビュー識別子及びオプションの識別子の増分が使用されてもよい。
矩形ビューボックス34Cは、メディアコンテナファイルにおいて以下のように表される。
ボックスタイプ:「rtvi」
コンテナ:グローバル補助ビュー位置ボックス(「gsvp」)
必須:No
数量:0以上
aligned(8) class RectangularViewBox extends Box('rtvi'){
unsigned int(32) row_view_count;
unsigned int(32) row_interval;
unsigned int(32) column_view_count;
unsigned int(32) column_interval;
for (i=0; i<row_view_count; i++){
for (j=0; j<column_view_count; j++){
unsigned int (6) reserved = 0;
unsigned int(10) view_id[i][j];
}
}
}
セマンティクス
row_view_countは、矩形アレイにおける行数を指定する。
row_intervalは、矩形アレイにおける2つの行の間の距離を示す。
column_view_countは、矩形アレイにおける列数である。
column_intervalは、矩形アレイにおける2つの列の間の距離を指定する。
view_id[i][j]は、MVC規格の草案のViewIdentifier Boxで指示されるようなカメラビューの識別子である。
図12は、図1の選択するステップS3及び付加するステップS4の一実施形態を示すフローチャートである。方法は、図1のステップS2から継続する。次のステップS40は、複数のカメラビューの相対位置に基づいて球体ビュー構成表現を選択する。この構成表現は、球面に配置されたカメラビュー又はカメラのグループに対して利用可能である。カメラビューは、例えば球の周囲に沿って提供されてもよい。すなわち、基本的に球の中心を中心とする円の円周に沿って位置付けられ且つ同一の半径を有する。カメラビューが球面の一部分にわたり配置されるような更に高度な実施形態も可能である。一般に、カメラビューの数は4つ以上であるのが好ましい。
図12の次のステップS41は、球の半径及び中心座標の情報を球体ビュー構成表現に付加する。オプションの一実施形態において、2つの球体ビューバージョンがインラインビュー構成表現及び平面ビュー構成表現と同様に利用可能である。ステップS42は、カメラビューの相対位置に基づいてカメラビューの現在のグループに対して使用する球体バージョンビューを選択する。第1の球体ビューバージョンが選択される場合、ステップS43において、グループ中のカメラビューの全てのビュー識別子が球体ビュー構成表現に明示的に含まれる。しかし、第2の球体ビューバージョンが選択される場合、グループ中のカメラビューの総数の情報に加えて、開始ビュー識別子及びオプションの識別子の増分が含まれる。
その後、図1のステップS5に進む。
別の実施形態において、第1の球体バージョン及び第2の球体バージョンの一方のみが利用可能である。
図13Aは、第1の球体バージョンに従って球体ビューボックス34Dを示す。球体ビューボックス34Dは、球体バージョン識別子31に加えて球の半径39A及び中心座標39Bの情報を含む。カメラビュー36Aは、この球体バージョンで球体ビューボックスに明示的に一覧表示される。
図13Bは、第2の球体バージョンに従って球体ビューボックス34Dを示す。球体ビューボックス34Dは、明示的に一覧表示されたビュー識別子の代わりに、開始ビュー識別子36B及び一定でない限り1又は他の整数等のオプションの識別子の増分を含む。
球体ビューボックスは、以下のようにメディアコンテナファイルに規定されてもよい。
ボックスタイプ:「spvi」
コンテナ:グローバル補助ビュー位置ボックス(「gsvp」)
必須:No
数量:0以上
aligned(8) class SphereViewBox extends FullBox('spvi'){
unsigned int(32) radius;
unsigned int(32) center_of_sphere[3];
if(version == 1){
for (i=0; ; i++){ //ボックスの最後まで
unsigned int(6) reserved1 = 0;
unsigned int(10) view_id;
}
} else {
unsigned int(6) reserved2 = 0;
unsigned int(10) start_view_id;
unsigned int(16) view_count;
unsigned int(16) id_increment;
}
}
セマンティクス
versionは、球体ビューボックスの球体バージョンを指定する整数である。
radiusは、球体ビューアレイ構成における球の半径を指定する。
center_of_sphereは、球の中心点座標である。
view_idは、MVC規格の草案のViewIdentifier Boxで指示されるようなカメラビューの識別子である。
start_view_idは、ViewIdentifierBoxで指示されるようなカメラビューのビュー識別子であり、これは球面に配置された一連の連続したカメラビューのうち最小のview_idである。
view_countは、球面に連続的に位置合わせされたカメラビューの数をカウントする整数である。
id_incrementは識別子の増分である。
図14は、図1の選択するステップS3の一実施形態を示すフローチャートである。方法は、図1のステップS2から継続する。ステップS50は、複数のカメラビューの相対位置に基づいて立体ビュー構成表現を選択する。この立体ビュー構成は、3次元(3D)映像をレンダリングするために使用される一対のカメラビューを示す。従って、カメラビューは人間の視覚系に適切な焦点角度及び左眼と右眼との距離を有するのが好ましい。
ステップS50から図1のステップS4に進み、左カメラビュー及び右カメラビューのビュー識別子は、立体ビュー構成表現に含まれる。
図15は、立体ビューボックス34E、すなわち立体ビュー構成表現の一実施形態を概略的に示す。立体ビューボックスは、立体ビューペアを形成する左カメラビュー及び右カメラビューのそれぞれの上記識別子36D及び36Eを含む。
立体ビューボックス34Eは以下のように実現される。
ボックスタイプ:「stvi」
コンテナ:グローバル補助ビュー位置ボックス(「gsvp」)
必須:No
数量:0以上
aligned(8) class StereoViewBox extends Box('stvi'){
unsigned int(6) reserved1 = 0;
unsigned int(10) left_view_id;
unsigned int(6) reserυed2 = 0;
unsigned int(10) right_view_id;
}
セマンティクス
left_view_idは、MVC規格の草案のViewIdentifierBoxに示されるようなカメラビューのビュー識別子であり、左眼ビューとして使用される。
right_view_idは、右眼ビューとして使用される対応するビュー識別子である。
複数のカメラビューの所定のグループは、上述したように複数のビュー構成表現が割り当てられる。そのような場合、複数のビュー構成表現は同一のタイプ又は異なるタイプであってもよい。例えば図3に示したカメラビュー配置は、潜在的に34個の異なるインラインビュー構成表現、平面ビュー構成表現、矩形ビュー構成表現及び可能性として1つ以上の立体ビュー構成表現が割り当てられる。
従って、上述した所定のビュー構成表現の定義は排他的ではない。例えば、矩形ビュー構成は平面ビュー構成でもあるが、その逆は必ずしも成り立たない。メディアコンテナファイルを作成するコンテンツプロバイダが現在のカメラビュー構成に最も重要であるか又は最も関連性が高いと考える1つ以上のビュー構成を指定することは、コンテンツプロバイダに依存する。コンテンツ作成者は、複数のカメラにより録画された特定のシーンに基づいて選択する1つ以上のビュー構成表現のタイプを更に選択してもよい。例えばニュースナレータのシーンにおいては、球体ビュー構成が有益である。これに対応して、100m走等のトラック競技においてはインラインビュー構成が適切な選択であり、その一方で、平面ビュー構成及び矩形ビュー構成は対戦やオリンピック大会等の広範なシーンの取り込みに使用されてもよい。
メディアコンテナファイルに含まれた多視点映像データを生成するのに使用される複数のカメラビューのグローバル構成を表すために選択されたビュー構成表現に加えて、メディアコンテナファイルはカメラビューの局所的な関係を記述する情報を更に含んでもよい。そのような局所的な関係の例は、隣接するビュー、すなわち現在のカメラビューに対して距離が最も近いカメラビュー、並びにオーバラッピングビュー、すなわちオーバラッピングコンテンツ領域を有するカメラビューを指定することである。
そのような場合、メディアコンテナファイルは、図17に示すようにいわゆるローカル補助ビュー位置ボックス40を含んでもよい。ローカル補助ビュー位置ボックス40は、以下のようにメディアコンテナファイルに実現される。
ボックスタイプ:「lsvp」
コンテナ:ローカル補助ビュー位置コンテナボックス(「lvpc」)
必須:No
数量:0以上
aligned(8) class LocalSupplementaryViewPositionBox
extends FullBox('lsvp', version = 0, 0){
LocalPosistionViewIdentifierBox(); //必須
AdjacentViewBox(); //オプション
OverlapViewBox(); //オプション
}
この図示する例において、ローカル補助ビュー位置ボックス40は、メディアコンテナファイルに配置されたローカル補助ビュー位置コンテナボックスに提供される。ローカル補助ビュー位置コンテナボックスは以下のように実現される。
ボックスタイプ:「lvpc」
コンテナ:サンプルエントリ(「avc1」、「avc2」、「mvc1」)
必須:No
数量:0又は1
aligned(8) class LocalSupplementaryViewPositionContainerBox
extends FullBox('lsvp', version = 0, 0){
LocalSupplementaryViewPositionBox(); //オプション
}
あるいは、ローカル補助ビュー位置コンテナボックスは省略されてもよい。
ローカル補助ビュー位置ボックス40は、基本ビューと考えられる1つのカメラビューのビュー識別子51を指定するローカル位置ビュー識別子ボックスを含む。従って、ローカル補助ビュー位置ボックス50は以下のように実現される。
ボックスタイプ:「lpvi」
コンテナ:ローカル補助ビュー位置ボックス(「lsvp」)
必須:Yes
数量:1
aligned(8) class LocalPositionViewIdentifierBox
extends Box('lpvi'){
unsigned int(6) reserved = 0;
unsigned int(10) view_id;
}
セマンティクス
view_idは、隣接及び/又はオーバラップ情報がローカル補助ビュー位置ボックスに含まれる他のボックスにより提供されてもよいカメラビューのビュー識別子である。
オプションの隣接ビューボックス70は、ローカル位置ビュー識別子ボックス50で識別された基本カメラビューに対する距離に関して最近接する1つ以上のカメラビューの1つ以上のビュー識別子71を含む。隣接ビューボックス70は以下のように実現されてもよい。
ボックスタイプ:「advi」
コンテナ:ローカル補助ビュー位置ボックス(「lsvp」)
必須:No
数量:0又は1
aligned(8) class AdjacentViewBox extends Box('advi'){
for (i=0; ; i++){ //ボックスの最後まで
unsigned int(6) reserved = 0;
unsigned int(10) view_id;
}
}
セマンティクス
view_idは、ローカル位置ビュー識別子ボックス50で識別されたカメラビューに隣接するカメラビューのビュー識別子である。
隣接ビューは、近傍に配置されたカメラの物理的位置定義である。これは、カメラの一に関連するが、カメラが撮影しているシーン又は被写体については考慮しない。3つ以上のカメラのグループの2つのカメラの距離が最近接している限り、それらのカメラは、異なる方向又は反対方向を撮影している可能性があるが隣接カメラに分類される。
隣接ビューとは対照的に、オーバラップビューは、少なくとも2つのカメラのカメラビューが少なくとも部分的にオーバラップしていることを規定するコンテンツ毎の表現である。そのような一実施形態において、オーバラッピングカメラビューの表現は、メディアコンテナファイルに編成される。
図16は、そのようなオーバラップビュー表現を提供する一実施形態を示すフローチャートである。方法は、図1のステップS5から継続する。図16及び図17を参照すると、次のステップS60は、少なくとも1つのメディアトラックに対してメディアコンテナファイルにオーバラッピングカメラビューの表現40を関連付けて編成する。ステップS61において、基本ビュー識別子として選択されたカメラビューのビュー識別子51は、好ましくはローカル位置ビュー識別子ボックス50に含まれることによりオーバラッピングカメラビューの表現40に含まれる。
ステップS62において、基本カメラビューと少なくとも部分的にオーバラップする1つ以上のカメラビューの1つ以上のビュー識別子61は表現40に含まれる。図2において、カメラビュー22が基本カメラビューとして選択される場合、カメラビュー24は、オーバラッピングカメラビューとなる。これに対応して、カメラビュー24が基本カメラビューである場合、カメラビュー22及びカメラビュー26はオーバラッピングビューとなる。
被写体又はシーンと撮影しているカメラとの間の距離は、異なるオーバラップ領域を与える。例えば、2つのカメラが警察官を録画してもよい。警察官が2つのカメラの前に近接して立っている場合、左側のカメラは左腕を撮影し、右側のカメラは右腕を撮影する。そのような場合、2つのカメラビューの間にはオーバラッピング領域は存在しない。警察官が離れて立っている場合、双方のカメラは警察官の全体像を撮影でき、その結果、警察官が立っているカメラの画面の領域はオーバラップ領域に属する。
従って、カメラと共通に関心のある被写体との距離を指定する被写体距離62が判定され且つステップS63で表現40に含まれるのが好ましい。
図16、図17及び図20を参照すると、オーバラッピングビュー24が基本カメラビュー22にオーバラップする方法を規定するために、水平オフセット83を指定するオフセット情報63及び垂直オフセット84を指定するオフセット情報64がステップS64において表現40に含まれる。オーバラッピング領域のサイズは、サイズ情報65、66、好ましくはオーバラッピング領域の幅85及び高さ86により規定される。ステップS65において、このサイズ情報65、66は表現40に含まれる。
図17において、オーバラッピング領域及びカメラビューに関連する情報は、ローカル補助ビュー位置ボックス40に含まれたオーバラップビューボックス60に提供される。オーバラップビューボックス60は以下のように実現される。
ボックスタイプ:「olvi」
コンテナ:ローカル補助ビュー位置ボックス(「lsvp」)
必須:No
数量:0以上
aligned(8) class OverlapViewBox extends Box('spvi'){
unsigned int(6) reserved = 0;
unsigned int(10) view_id;
unsigned int(1) dynamic_overlap;
unsigned int(7) reserved = 0;
unsigned int(32) object_distance;
if (dynamic overlap == 0){
unsigned int(16) horizontal_offset;
unsigned int(16) vertical_offset;
unsigned int(16) region_width;
unsigned int(16) region_height;
}
}
セマンティクス
view_idは、ローカル位置ビュー識別子ボックス50で識別されたカメラビューとオーバラップしているカメラビューの識別子である。
dynamic_overlapは、1である場合、現在の層により表された領域が基本領域の動的に変化する矩形部分であることを示す。あるいは、すなわち0である場合、現在の層により表された領域は基本領域の固定された矩形部分である。
object_distanceは、複数のカメラと関心のある共通の被写体との間の距離を示す。これが値0を有する場合、オーバラップ領域に対して利用可能な情報は存在せず、オーバラップ領域は、例えば100ユニット離れた被写体の距離を仮定してデフォルト値をとる。
horizontal_offset及びvertical_offsetは、基本領域の輝度サンプルにおいて、基本カメラビューにより表された基本領域の左上画素に対するカメラビューにより表された矩形領域の左上画素の水平オフセット及び垂直オフセットをそれぞれ与える。
region_width及びregion_heightは、基本領域の輝度サンプルにおいて、カメラビューにより表された矩形領域の幅及び高さをそれぞれ与える。
ローカル補助ビュー位置ボックス40は、最近接する隣接カメラビューの数及び情報がコンテンツ作成者により有益であると考えられてローカル補助ビュー位置ボックス40に含まれるべきであるか否かに依存して0、1又は複数個の隣接ビューボックス70を含んでもよい。これに対応して、0、1又は複数個のオーバラップビューボックス60がオーバラッピングカメラビューの数に基づいて判定されるようにローカル補助ビュー位置ボックス40毎に使用可能である。尚、メディアコンテナファイルは、0、1又は複数個のローカル補助ビュー位置ボックスを含むことができる。
ローカル補助ビュー位置ボックスに含まれた情報は、ビュー構成表現により提供されたグローバルビュー情報に加えて関心のある追加情報又は付加情報として考えられる。別の方法において、いかなるビュー構成表現を選択することも含むことも必要なく、ローカル補助ビュー位置ボックスが使用され且つメディアコンテナファイルに含まれる。
図18は、一実施形態に係るメディアコンテナファイルを生成する装置を示す概略ブロック図である。装置100は、メディアコンテナファイルの少なくとも1つのメディアトラックの映像コンテンツの複数のカメラビューを表す符号化映像データを編成するように構成されたトラック編成器120を含む。トラック編成器120は、複数のカメラビューの映像データを録画又は生成する機器12〜18及び録画又は生成した映像データを符号化するエンコーダ190を含む内部又は外部メディアエンジンに接続される。あるいは、トラック編成器120は、一般に符号化形式で又は非符号化映像データとして映像データを装置100の接続された受信機110から受信する。受信機110は、通信システムにおいて外部端末から有線又は無線通信を介して映像データを受信する。更に別の例として、トラック編成器120は、装置100の接続されたメディアメモリ130から多視点映像データを取り出せる。
表現選択器140は、複数の所定のビュー構成表現のうち1つのビュー構成表現を選択するように実現される。選択は、少なくとも部分的に複数のカメラビューの相対位置に基づいて更に実行される。ビュー構成表現の選択は、カメラビュー配置の知識を有するコンテンツ作成者により手作業で実行されてもよい。そのような場合、表現選択器140は、ユーザ入力を含むか又はユーザ入力に接続され、ユーザ入力は、ビュー構成表現を選択するためにコンテンツ作成者により使用される。別の例として、カメラの座標は、例えばユーザ入力を介して又は映像データ自体から表現選択器140に提供される。表現選択器140は、カメラビュー配置及び相互関係を規定する複雑な計算を実行する処理能力を含む。メディアコンテナファイルがオフラインで生成され且つ一般に無制限の電力を利用できる装置100にあるため、実際には冗長な計算が表現選択器140により実行される。そのような計算は、特に移動端末等の計算の処理能力が制限されたシン端末にとって、一般に不可能であるか又は少なくとも映像復号化及びレンダリングに関連して不都合である。
識別子プロセッサ160は、表現選択器140により選択されたビュー構成表現に複数のカメラビューのビュー識別子を含むために装置100に提供される。そのような場合、識別子プロセッサ160は、選択されたビュー構成表現により規定された所定の配置及び位置関係で複数のカメラビューの相対位置順序を記述する順序でビュー識別子を含むのが好ましい。
ビュー識別子を含む選択されたビュー構成表現は、表現編成器150により少なくとも1つのメディアトラックに対してメディアコンテナファイルに関連付けて編成される。
表現選択器140がインラインビュー構成表現を選択する場合、オプションのバージョンプロセッサ170は、直線状に位置合わせされたカメラビューの相対位置に基づいて第1のインラインバージョン及び第2のインラインバージョンから選択するために起動される。前者の場合、識別子プロセッサ160は、位置合わせされた全てのカメラビューのビュー識別子を含む。しかし、第2のバージョンがバージョン識別子により選択された場合、識別子プロセッサ160は、開始ビュー識別子及びオプションの識別子の増分を含む。この情報により、カメラビューに単純な計算が可能になる。
バージョンプロセッサ170は、連続したカメラビューの各ビュー識別子を調査することによりバージョンを選択する。線に沿って移動した時にビュー識別子が増分又は減分により増加又は減少した場合、バージョンプロセッサ170は第2のインラインバージョンを選択し、それ以外の場合は第1のインラインバージョンが使用される。
表現選択器140は、代わりに又は加えて平面ビュー構成表現を選択してもよい。そのような場合、バージョンプロセッサ170は、上述した第1の平面バージョン及び第2の平面バージョンから選択するのが好ましい。選択される平面バージョンに依存して、識別子プロセッサ160は、平面に存在する全てのカメラビューのビュー識別子、あるいは開始ビュー識別子、オプションのカメラビューの総数及びオプションの識別子の増分を含む。
カメラビューの総数は、符号化多視点データに含まれた入力情報又はユーザ入力からの入力情報に基づいて数プロセッサ174により判定されてもよい。
表現選択器140が矩形ビューアレイ構成表現を選択する場合、装置100の数プロセッサ174は、矩形ビューアレイ構成表現の矩形カメラビューアレイの行数及び列数の表現を含む。距離プロセッサ176は、矩形ビューアレイ構成表現の連続した行の間の距離及び連続した列の間の距離の情報を含む。
球体プロセッサ172は、表現選択器140が球体ビューアレイ構成表現を選択した場合に起動される。この球体プロセッサ172は、複数のカメラが配置される球の半径及び中心座標の情報を構成表現に含む。
表現選択器140が立体ビュー構成表現を選択する場合、識別子プロセッサ160は、立体ビュー構成表現の左眼カメラビュー及び右眼カメラビューのビュー識別子を含む。
装置100は、メディアコンテナファイルに付加情報を提供するプロセッサをオプションとして更に含んでもよい。ビュープロセッサ182は、例えば線状に、平面に、矩形格子に又は球に配置される複数の利用可能なカメラビューの基本カメラビューとして選択されたカメラビューのビュー識別子を含んでもよい。ビュープロセッサ182は、基本カメラビューとして指定されたカメラビューまでの距離に関して最近接すると判定される1つ以上のカメラビューのビュー識別子を更に含んでもよい。
ビュー編成器180は、少なくとも1つのメディアトラックに対してメディアコンテナファイルにオーバラッピングカメラビューの表現を関連付けて編成できる。ビュープロセッサ182は、オーバラッピングカメラビュー及び基本カメラビューの識別子を表現に付加する。
装置100の距離プロセッサ176又は別のプロセッサは、オーバラッピングカメラと関心のあるオーバラッピング被写体との間の距離の情報を含んでもよい。これに対応して、オフセットプロセッサ184は、基本カメラビューとオーバラッピングカメラビューとの間のオフセットの情報を含み、サイズプロセッサは、上述したようにオーバラッピング領域のサイズの情報を含む。
装置100の一実施形態に従って生成されたメディアコンテナフレームは、後で外部ユニットに送信するためにメディアメモリ130に入力され、外部ユニットはメディアコンテナファイルを転送又は処理する。あるいは、メディアコンテナファイルは、メディアサーバ、トランスコーダ、あるいはメディアレンダリング又は再生機能を有するユーザ端末等の外部ユニットに対して装置100の送信機110により直接送信される。
装置100のユニット110、120及び140〜190は、ハードウェア、ソフトウェア、あるいはハードウェア及びソフトウェアの組み合わせで提供されてもよい。装置100は、有線又は好ましくは無線通信システムのネットワークノードで構成されるのが有利である。装置100は、コンテンツプロバイダ又はサーバの一部を構成でき、あるいはそれらに接続可能である。
図18において、受信機能性及び送信機能性の双方を含む組み合わせユニット、すなわちトランシーバが使用されている。あるいは、無線の実現例において別個の受信アンテナ及び送信アンテナ、あるいは組み合わされた送受信アンテナにオプションとして接続された専用受信機及び専用送信機が使用可能である。
図19は、実施形態が実現される無線通信システム1の一部分を示す概略図である。通信システム1は、1つ以上のネットワークノード又は基地局300を含み、接続されたユーザ端末400に通信サービスを提供する。基地局300のうち少なくとも1つは、上述し且つ図18に開示されたコンテナファイル生成装置100を含むメディアサーバ又はプロバイダ200を含むか又はそれに接続される。メディアコンテナファイルに含まれた多視点映像データは、通信システム1に提供されたユーザ端末200及び/又は他のデータ処理装置に配信される。そのような場合、多視点映像データは、ユニキャスト送信で、あるいは図に概略的に示すようなマルチキャスト又はブロードキャスト送信の形態でユーザ端末400に送信される。
メディアコンテナファイルに含まれたビュー構成表現は、カメラ間の頻繁に使用される関係に関する高レベル情報を提供する。ビュー構成表現は、全てのカメラパラメータを走査せず且つ徹底的な計算を回避せずにカメラのパターンに関する直観的情報を非常に容易に提供するために使用される。従って、構成表現は、平面又は他の配置パターンで位置合わせされるカメラ及びカメラビュー、互いに隣接するカメラ、立体レンダリングに適するカメラビューを容易に見つけるために使用される。
ビュー構成表現及びそれに含まれた情報は、例えばトランスコード又はレンダリング等の更なる処理を行うメディアデータを選択する時にレンダリング機器、メディアプレーヤ又は他のメディアプロセッサにより使用される。従って多視点映像データを録画するのに使用されるカメラが互いに対してどのように配置されるかの情報は、メディアコンテナファイルの映像データを処理するのに有利に使用される。例えば3D映像をレンダリングする時、立体ビュー構成表現により、3D効果を達成するために共にレンダリングするカメラビュー及び従ってカメラビューからの映像データの識別が可能になる。
配置情報に基づく多視点映像データ処理の他の例は、直線状に配置された連続したカメラビューを切り替えたい場合である。従って、インラインビュー構成表現により、このようにレンダリングビューを切り替える時に使用するカメラビュー及びカメラビューからの映像データの識別が可能になる。これに対応して、球体ビューアレイ構成表現は、球面に配置されたカメラビューの間でパン又は移動したい場合に使用される。
更に、ビュー構成表現に含まれた情報は、カメラビューの結合が適切であるか否か又は実際に可能であるか否かを判断するために、例えば隣接カメラがオーバラッピングビューを有するか否かのローカル情報と組み合わされる。結合の使用例は、いくつかのカメラビューの結合又は単一の360°パノラマビューを必要とする大画面及びプロジェクタである。
ビュー構成表現は、被写体の追跡にも使用される。例えば、左から右に非常に迅速に進む被写体を仮定する。進む被写体の追跡が可能であるように水平インラインビュー構成表現が現在のカメラアレイに存在するかを認識することは利点である。
添付の請求の範囲により規定される本発明の範囲から逸脱せずに、種々の変形及び変更が本発明に対して行われてもよいことは、当業者には理解されるだろう。

Claims (20)

  1. メディアコンテナファイルを生成する方法であって、
    −前記メディアコンテナファイルの少なくとも1つのメディアトラックに映像コンテンツの複数のカメラビューを表す符号化映像データを編成する工程と、
    −前記複数のカメラビューの相対位置に基づいて、前記複数のカメラビューの異なる所定の配置及び位置関係を示す複数の所定のビュー構成表現の中から、1つのビュー構成表現を選択する工程と、
    −前記選択したビュー構成表現に前記複数のカメラビューのビュー識別子を付加する工程と、
    −前記メディアコンテナファイル内で、前記選択したビュー構成表現を前記少なくとも1つのメディアトラックに対して関連付けて編成する工程と
    を備え
    前記選択する工程は、前記複数のカメラビューの前記相対位置に基づいて、インラインビュー構成表現、平面ビュー構成表現、矩形ビューアレイ構成表現、球体ビューアレイ構成表現及び立体ビューペア構成表現のうち1つのビュー構成表現を選択する工程を含むことを特徴とする方法。
  2. 前記付加する工程は、前記選択したビュー構成表現により定義された所定の配置及び位置関係で、前記複数のカメラビューの相対位置順序を記述する順序で前記ビュー識別子を付加する工程を含む
    ことを特徴とする請求項1に記載の方法。
  3. 前記選択する工程、前記複数のカメラビューの前記相対位置に基づいて前記インラインビュー構成表現を選択する工程を含む場合に
    前記方法は、前記複数のカメラビューの前記相対位置に基づいて第1のインラインバージョンと第2のインラインバージョンとの間で選択を行う工程を更に含み、
    前記付加する工程は、
    前記第1のインラインバージョンが選択された場合に前記ビュー識別子を付加する工程と、
    前記第2のインラインバージョンが選択された場合に前記ビュー識別子から選択された開始ビュー識別子と、前記複数のカメラビューの少なくとも一部分のビュー識別子を取得するために前記開始ビュー識別子に適用可能な識別子の増分とを付加する工程と
    を含むことを特徴とする請求項1または2に記載の方法。
  4. 前記選択する工程、前記複数のカメラビューの前記相対位置に基づいて前記平面ビュー構成表現を選択する工程を含む場合に
    前記方法は、前記複数のカメラビューの前記相対位置に基づいて第1の平面バージョンと第2の平面バージョンとの間で選択を行う工程を更に含み、
    前記付加する工程は、
    前記第1の平面バージョンが選択された場合に前記ビュー識別子を付加する工程と、
    前記第2の平面バージョンが選択された場合に前記ビュー識別子から選択された開始ビュー識別子と、前記複数のカメラビューの少なくとも一部分のビュー識別子を取得するために前記開始ビュー識別子に適用可能な識別子の増分とを付加する工程と
    を含むことを特徴とする請求項1または2に記載の方法。
  5. 前記選択する工程、前記複数のカメラビューの前記相対位置に基づいて前記矩形ビューアレイ構成表現を選択する工程を含む場合に
    前記方法は、
    −前記複数のカメラビューの矩形カメラビューアレイの行数及び列数の表現を前記矩形ビューアレイ構成表現に付加する工程と、
    −前記矩形カメラビューアレイの連続した行の間の距離の表現及び連続した列の間の距離の表現を前記矩形ビューアレイ構成表現に付加する工程と
    を更に含むことを特徴とする請求項1または2に記載の方法。
  6. 前記選択する工程、前記複数のカメラビューの前記相対位置に基づいて前記球体ビューアレイ構成表現を選択する工程を含む場合に
    前記方法は、前記複数のカメラビューを含む球体カメラビューアレイの半径の表現及び中心座標の表現を前記球体ビューアレイ構成表現に付加する工程を更に含むことを特徴とする請求項1または2に記載の方法。
  7. 前記選択する工程、前記複数のカメラビューの前記相対位置に基づいて前記立体ビューペア構成表現を選択する工程を含む場合に
    前記付加する工程は、前記複数のカメラビューの左眼カメラビューのビュー識別子と右眼カメラビューのビュー識別子とを前記立体ビューペア構成表現に付加する工程を含む
    ことを特徴とする請求項1または2に記載の方法。
  8. 前記メディアコンテナファイル内で、前記複数のカメラビューのオーバラッピングカメラビューの表現を前記少なくとも1つのメディアトラックに対して関連付けて編成することを更に含むことを特徴とする請求項1からのいずれか1項に記載の方法。
  9. −前記複数のカメラビューのうちの基本カメラビューのビュー識別子を前記オーバラッピングカメラビューの表現に付加する工程と、
    −前記基本カメラビューにオーバラップする前記複数のカメラビューのうちのいずれかのカメラビューのビュー識別子を前記オーバラッピングカメラビューの表現に付加する工程と
    を更に含むことを特徴とする請求項記載の方法。
  10. −前記基本カメラビューと前記基本カメラビューにオーバラップする前記いずれかのカメラビューとの間のオフセットの情報を、前記オーバラッピングカメラビューの表現に付加する工程と、
    −前記基本カメラビュー及び前記基本カメラビューにオーバラップする前記いずれかのカメラビューのオーバラッピング領域のサイズの情報を、前記オーバラッピングカメラビューの表現に付加する工程と
    を更に含むことを特徴とする請求項記載の方法。
  11. メディアコンテナファイルを生成する装置であって、
    −前記メディアコンテナファイルの少なくとも1つのメディアトラックに、映像コンテンツの複数のカメラビューを表す符号化映像データを編成するトラック編成器と、
    −前記複数のカメラビューの相対位置に基づいて、前記複数のカメラビューの異なる所定の配置及び位置関係を示す複数の所定のビュー構成表現の中から、1つのビュー構成表現を選択する表現選択器と、
    −前記表現選択器により選択された前記ビュー構成表現に前記複数のカメラビューのビュー識別子を付加する識別子プロセッサと、
    −前記メディアコンテナファイル内で、前記表現選択器により選択された前記ビュー構成表現を前記少なくとも1つのメディアトラックに対して関連付けて編成する表現編成器と
    を備え
    前記表現選択器は、前記複数のカメラビューの前記相対位置に基づいて、インラインビュー構成表現、平面ビュー構成表現、矩形ビューアレイ構成表現、球体ビューアレイ構成表現及び立体ビューペア構成表現のうち1つのビュー構成表現を選択するように構成されていることを特徴とする装置。
  12. 前記識別子プロセッサは、前記表現選択器により選択された前記ビュー構成表現により定義された所定の配置及び位置関係で、前記複数のカメラビューの相対位置順序を記述する順序で前記ビュー識別子を付加するように構成されていることを特徴とする請求項11記載の装置。
  13. 前記表現選択器、前記複数のカメラビューの前記相対位置に基づいて前記インラインビュー構成表現を選択するように構成されている場合に
    前記装置は、前記複数のカメラビューの前記相対位置に基づいて第1のインラインバージョン又は第2のインラインバージョンのバージョン識別子を前記インラインビュー構成表現に付加するバージョンプロセッサを更に備え、
    前記識別子プロセッサは、
    前記バージョンプロセッサが前記第1のインラインバージョンの前記バージョン識別子を付加する場合に、前記ビュー識別子を含め、
    前記バージョンプロセッサが前記第2のインラインバージョンの前記バージョン識別子を付加する場合に、前記ビュー識別子から選択された開始ビュー識別子と、前記複数のカメラビューの少なくとも一部分のビュー識別子を取得するために前記開始ビュー識別子に適用可能な識別子の増分とを付加するように構成されている
    ことを特徴とする請求項11または12に記載の装置。
  14. 前記表現選択器、前記複数のカメラビューの前記相対位置に基づいて前記平面ビュー構成表現を選択するように構成されている場合に
    前記装置は、前記複数のカメラビューの前記相対位置に基づいて第1の平面バージョン又は第2の平面バージョンのバージョン識別子を前記平面ビュー構成表現に付加するバージョンプロセッサを更に備え、
    前記識別子プロセッサは、
    前記バージョンプロセッサが前記第1の平面バージョンの前記バージョン識別子を付加する場合に、前記ビュー識別子を含め、
    前記バージョンプロセッサが前記第2の平面バージョンの前記バージョン識別子を付加する場合に、前記ビュー識別子から選択された開始ビュー識別子と、前記複数のカメラビューの少なくとも一部分のビュー識別子を取得するために前記開始ビュー識別子に適用可能な識別子の増分とを付加するように構成されている
    ことを特徴とする請求項11または12に記載の装置。
  15. 前記表現選択器、前記複数のカメラビューの前記相対位置に基づいて前記矩形ビューアレイ構成表現を選択するように構成されている場合に
    前記装置は、
    −前記複数のカメラビューの矩形カメラビューアレイの行数及び列数の表現を前記矩形ビューアレイ構成表現に付加する数プロセッサと、
    −前記矩形カメラビューアレイの連続した行の間の距離の表現及び連続した列の間の距離の表現を前記矩形ビューアレイ構成表現に付加する距離プロセッサと
    を更に備えることを特徴とする請求項11または12に記載の装置。
  16. 前記表現選択器、前記複数のカメラビューの前記相対位置に基づいて前記球体ビューアレイ構成表現を選択するように構成されている場合に
    前記装置は、前記複数のカメラビューを含む球体カメラビューアレイの半径の表現及び中心座標の表現を前記球体ビューアレイ構成表現に付加する球体プロセッサを更に備えることを特徴とする請求項11または12に記載の装置。
  17. 前記表現選択器、前記複数のカメラビューの前記相対位置に基づいて前記立体ビューペア構成表現を選択するように構成されている場合に
    前記識別子プロセッサは、前記複数のカメラビューの左眼カメラビューのビュー識別子及び右眼カメラビューのビュー識別子を前記立体ビューペア構成表現に付加するように構成されていることを特徴とする請求項11または12に記載の装置。
  18. 前記メディアコンテナファイル内で、前記複数のカメラビューのオーバラッピングカメラビューの表現を前記少なくとも1つのメディアトラックに対して関連付けて編成するビュー編成器を更に備えることを特徴とする請求項11から17のいずれか1項に記載の装置。
  19. 前記複数のカメラビューのうちの基本カメラビューのビュー識別子を前記オーバラッピングカメラビューの表現に付加し、前記基本カメラビューにオーバラップする前記複数のカメラビューのうちのいずれかのカメラビューのビュー識別子を前記オーバラッピングカメラビューの表現に付加するビュープロセッサを更に備えることを特徴とする請求項18記載の装置。
  20. −前記基本カメラビューと前記基本カメラビューにオーバラップする前記いずれかのカメラビューとの間のオフセットの情報を前記オーバラッピングカメラビューの表現に付加するオフセットプロセッサと、
    −前記基本カメラビュー及び前記基本カメラビューにオーバラップする前記いずれかのカメラビューのオーバラッピング領域のサイズの情報を前記オーバラッピングカメラビューの表現に付加するサイズプロセッサと
    を更に備えることを特徴とする請求項19記載の装置。
JP2011530022A 2008-10-07 2008-12-15 メディアコンテナファイル Expired - Fee Related JP5298201B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10339908P 2008-10-07 2008-10-07
US61/103,399 2008-10-07
PCT/SE2008/051460 WO2010041999A1 (en) 2008-10-07 2008-12-15 Media container file

Publications (2)

Publication Number Publication Date
JP2012505570A JP2012505570A (ja) 2012-03-01
JP5298201B2 true JP5298201B2 (ja) 2013-09-25

Family

ID=42100782

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011530021A Pending JP2012505569A (ja) 2008-10-07 2008-12-15 多視点メディアデータ
JP2011530022A Expired - Fee Related JP5298201B2 (ja) 2008-10-07 2008-12-15 メディアコンテナファイル

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011530021A Pending JP2012505569A (ja) 2008-10-07 2008-12-15 多視点メディアデータ

Country Status (9)

Country Link
US (2) US20110182366A1 (ja)
EP (2) EP2332337A4 (ja)
JP (2) JP2012505569A (ja)
CN (2) CN102177718B (ja)
AU (2) AU2008362801A1 (ja)
CA (2) CA2767794A1 (ja)
ES (1) ES2515967T3 (ja)
RU (2) RU2508609C2 (ja)
WO (2) WO2010041999A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689705A (en) * 1995-02-13 1997-11-18 Pulte Home Corporation System for facilitating home construction and sales
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US20110077990A1 (en) * 2009-09-25 2011-03-31 Phillip Anthony Storage Method and System for Collection and Management of Remote Observational Data for Businesses
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US9716920B2 (en) * 2010-08-05 2017-07-25 Qualcomm Incorporated Signaling attributes for network-streamed video data
US9065936B2 (en) * 2010-12-09 2015-06-23 Allot Communications Ltd. Cellular traffic monitoring and charging using application detection rules
BR112013017322A2 (pt) * 2011-11-11 2017-03-01 Sony Corp dispositivo e método de transmissão, e, método de recepção
US20130188922A1 (en) * 2012-01-23 2013-07-25 Research In Motion Limited Multimedia File Support for Media Capture Device Position and Location Timed Metadata
US20140032820A1 (en) * 2012-07-25 2014-01-30 Akinori Harasawa Data storage apparatus, memory control method and electronic device with data storage apparatus
US9444862B2 (en) * 2012-09-29 2016-09-13 Intel Corporation Dynamic media content output for mobile devices
CN105519130B (zh) * 2013-07-19 2019-03-08 索尼公司 信息处理装置和方法
CN105379256B (zh) * 2013-07-22 2019-11-12 索尼公司 信息处理装置和方法
EP3092796B1 (en) * 2014-01-07 2020-06-17 Canon Kabushiki Kaisha Method, device, and computer program for encoding inter-layer dependencies
KR20150083243A (ko) * 2014-01-09 2015-07-17 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 영상표시방법
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US9922680B2 (en) * 2015-02-10 2018-03-20 Nokia Technologies Oy Method, an apparatus and a computer program product for processing image sequence tracks
US10460765B2 (en) * 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
KR102170550B1 (ko) * 2016-05-24 2020-10-29 노키아 테크놀로지스 오와이 미디어 콘텐츠를 인코딩하는 방법, 장치 및 컴퓨터 프로그램
GB2553315A (en) * 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
KR102243666B1 (ko) * 2017-06-15 2021-04-23 엘지전자 주식회사 360도 비디오를 전송하는 방법, 360도 비디오를 수신하는 방법, 360도 비디오 전송 장치, 360도 비디오 수신 장치
US10679415B2 (en) * 2017-07-05 2020-06-09 Qualcomm Incorporated Enhanced signaling of regions of interest in container files and video bitstreams
US11051040B2 (en) * 2017-07-13 2021-06-29 Mediatek Singapore Pte. Ltd. Method and apparatus for presenting VR media beyond omnidirectional media
CN109327699B (zh) * 2017-07-31 2021-07-16 华为技术有限公司 一种图像的处理方法、终端和服务器
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
CN108184136B (zh) * 2018-01-16 2020-06-02 北京三体云联科技有限公司 一种视频合流方法及装置
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US20200296462A1 (en) 2019-03-11 2020-09-17 Wci One, Llc Media content presentation
US20200296316A1 (en) 2019-03-11 2020-09-17 Quibi Holdings, LLC Media content presentation
CN110324708A (zh) * 2019-07-16 2019-10-11 浙江大华技术股份有限公司 视频处理方法、终端设备及计算机存储介质
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11997336B2 (en) * 2021-05-14 2024-05-28 Qualcomm Incorporated Scheduling compressed video frame for in-vehicle wireless networks
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
EP4297418A1 (en) * 2022-06-24 2023-12-27 Beijing Xiaomi Mobile Software Co., Ltd. Signaling encapsulated data representing primary video sequence and associated auxiliary video sequence

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7782363B2 (en) * 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
KR100814426B1 (ko) * 2001-07-14 2008-03-18 삼성전자주식회사 다 채널 영상 중계 처리기 및 이를 적용한 다 채널 영상보안 시스템
US7679616B2 (en) * 2002-04-25 2010-03-16 Sharp Kabushiki Kaisha Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto
KR100491724B1 (ko) * 2002-10-14 2005-05-27 한국전자통신연구원 공간영상의 효율적인 저장 및 검색을 지원하기 위한공간영상정보시스템 및 그 검색방법
JP4420897B2 (ja) * 2002-10-15 2010-02-24 サムスン エレクトロニクス カンパニー リミテッド マルチアングルを支援するデータ構造で記録された情報保存媒体及びその装置
US20040076042A1 (en) * 2002-10-16 2004-04-22 Sifang Wu High performance memory column group repair scheme with small area penalty
KR100636129B1 (ko) * 2002-12-16 2006-10-19 삼성전자주식회사 멀티 앵글을 지원하는 데이터 구조로 기록된 정보저장매체및 그 장치
US8832732B2 (en) * 2003-04-16 2014-09-09 Accenture Global Services Limited Controlled multi-media program review
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
JP2007506385A (ja) * 2003-09-23 2007-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオコンテンツおよび隠蔽に依存した誤り保護およびスケジューリングアルゴリズムを提供するシステムおよび方法
JP4110105B2 (ja) * 2004-01-30 2008-07-02 キヤノン株式会社 文書処理装置及び文書処理方法及び文書処理プログラム
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
US20050193015A1 (en) * 2004-02-19 2005-09-01 Sandraic Logic, Llc A California Limited Liability Company Method and apparatus for organizing, sorting and navigating multimedia content
JP5035901B2 (ja) * 2004-04-22 2012-09-26 テクニカラー インコーポレイテツド ディジタル多用途ディスクのためのコンテキスト依存のマルチアングル・ナビゲーション技術
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US7444664B2 (en) * 2004-07-27 2008-10-28 Microsoft Corp. Multi-view video format
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
US20070103558A1 (en) * 2005-11-04 2007-05-10 Microsoft Corporation Multi-view video delivery
US7817865B2 (en) * 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
WO2007114612A1 (en) * 2006-03-30 2007-10-11 Lg Electronics Inc. A method and apparatus for decoding/encoding a video signal
US9641842B2 (en) * 2006-07-06 2017-05-02 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
KR101021831B1 (ko) * 2006-08-24 2011-03-17 노키아 코포레이션 미디어 파일에서 트랙 관계를 표시하는 시스템 및 방법
US8365060B2 (en) * 2006-08-24 2013-01-29 Nokia Corporation System and method for indicating track relationships in media files
EP2087741B1 (en) * 2006-10-16 2014-06-04 Nokia Corporation System and method for implementing efficient decoded buffer management in multi-view video coding
EP2087737A2 (en) * 2006-10-24 2009-08-12 Thomson Licensing Picture management for multi-view video coding
WO2008084443A1 (en) * 2007-01-09 2008-07-17 Nokia Corporation System and method for implementing improved decoded picture buffer management for scalable video coding and multiview video coding
CN100588250C (zh) * 2007-02-05 2010-02-03 北京大学 一种多视点视频流的自由视点视频重建方法及***
CN101242530B (zh) * 2007-02-08 2011-06-01 华为技术有限公司 运动估计方法、基于运动估计的多视编解码方法及装置
EP2135454A4 (en) * 2007-03-02 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
US8253797B1 (en) * 2007-03-05 2012-08-28 PureTech Systems Inc. Camera image georeferencing systems
US8494046B2 (en) * 2007-03-23 2013-07-23 Lg Electronics Inc. Method and an apparatus for decoding/encoding a video signal by performing illumination compensation
EP2149262A4 (en) * 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
EP2143278B1 (en) * 2007-04-25 2017-03-22 Thomson Licensing Inter-view prediction with downsampled reference pictures
US8355019B2 (en) * 2007-11-02 2013-01-15 Dimension Technologies, Inc. 3D optical illusions from off-axis displays

Also Published As

Publication number Publication date
CN102177717B (zh) 2014-01-29
US20110202575A1 (en) 2011-08-18
CN102177718A (zh) 2011-09-07
EP2332336A1 (en) 2011-06-15
RU2508609C2 (ru) 2014-02-27
WO2010041998A1 (en) 2010-04-15
ES2515967T3 (es) 2014-10-30
US20110182366A1 (en) 2011-07-28
CA2767794A1 (en) 2010-04-15
EP2332337A1 (en) 2011-06-15
JP2012505569A (ja) 2012-03-01
CN102177718B (zh) 2014-03-12
AU2008362821A1 (en) 2010-04-15
RU2011118384A (ru) 2012-12-10
CN102177717A (zh) 2011-09-07
RU2504917C2 (ru) 2014-01-20
EP2332337A4 (en) 2014-01-01
JP2012505570A (ja) 2012-03-01
RU2011118367A (ru) 2012-11-20
WO2010041999A1 (en) 2010-04-15
EP2332336A4 (en) 2014-01-01
EP2332336B1 (en) 2014-08-13
CA2739716A1 (en) 2010-04-15
AU2008362801A1 (en) 2010-04-15

Similar Documents

Publication Publication Date Title
JP5298201B2 (ja) メディアコンテナファイル
CN110431849B (zh) 包含用于视频译码的子图片位流的视频内容的信令传输
KR102329474B1 (ko) 미디어 데이터를 생성하기 위한 방법
US10652553B2 (en) Systems and methods of signaling of regions of interest
KR101533114B1 (ko) 입체영상 데이터를 수록한 기록매체 및 상기 입체영상 데이터를 기록하는 방법
CN103053159B (zh) 用信号传递网络串流传输视频数据的属性
KR102258448B1 (ko) 핫스팟 및 roi 관련 메타데이터를 이용한 360도 비디오를 송수신하는 방법 및 그 장치
US20180176468A1 (en) Preferred rendering of signalled regions-of-interest or viewports in virtual reality video
KR20200030053A (ko) 미디어 콘텐츠를 위한 영역별 패킹, 콘텐츠 커버리지, 및 시그널링 프레임 패킹
CN102714715B (zh) 用于文件格式轨迹选择的媒体提取器轨迹
US10992961B2 (en) High-level signaling for fisheye video data
KR20210016530A (ko) 미디어 콘텐츠 전송을 위한 방법, 디바이스, 및 컴퓨터 프로그램
KR20200024829A (ko) Dash 에서 피쉬아이 가상 현실 비디오에 대한 강화된 하이레벨 시그널링
JP2019514313A (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
CN102984560A (zh) 从断点处播放视频的方法和设备
CN111726598B (zh) 图像处理方法和装置
Niamut et al. Live event experiences-interactive UHDTV on mobile devices
CN110198457A (zh) 视频播放方法及其设备、***、存储介质、终端、服务器
Niamut et al. Immersive live event experiences-interactive UHDTV on mobile devices
TW202406353A (zh) 自由視角視訊串流的系統及方法
Macq et al. Interim Specification of Generic Data Representation and Coding Scheme
Macq et al. Final Specification of Generic Data Representation and Coding Scheme

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Ref document number: 5298201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees