JP6046246B2 - 3dビデオコーディングのための深度マップのイントラコーディング - Google Patents

3dビデオコーディングのための深度マップのイントラコーディング Download PDF

Info

Publication number
JP6046246B2
JP6046246B2 JP2015518751A JP2015518751A JP6046246B2 JP 6046246 B2 JP6046246 B2 JP 6046246B2 JP 2015518751 A JP2015518751 A JP 2015518751A JP 2015518751 A JP2015518751 A JP 2015518751A JP 6046246 B2 JP6046246 B2 JP 6046246B2
Authority
JP
Japan
Prior art keywords
block
depth
mode
wedgelet
intra
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015518751A
Other languages
English (en)
Other versions
JP2015525988A (ja
Inventor
ジャオ、シン
チェン、イン
ジャン、リ
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015525988A publication Critical patent/JP2015525988A/ja
Application granted granted Critical
Publication of JP6046246B2 publication Critical patent/JP6046246B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

関連出願
[0001]本出願は、その全体が参照により本明細書に組み込まれる、2012年7月2日に出願された米国仮出願第61/667,400号の利益を主張する。
[0002]本開示は、ビデオコーディングに関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part10,アドバンストビデオコーディング(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオコーディング技法など、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004]「HEVC Working Draft 7」または「WD7」と呼ばれる、今度のHEVC規格の最近のドラフトは、2012年7月5日現在、http://phenix.it-sudparis.eu/jct/doc_end_user/documents/9_Geneva/wg11/JCTVC-I1003-v5.zipからダウンロード可能である、ドキュメントJCTVC−I1003、Bross他、「High Efficiency Video Coding (HEVC) Text Specification Draft 7」、Joint Collaborative Team on Video Coding (JCT−VC) of ITU−T SG16 WP3 and ISO/IEC JTC1/SC29/WG11、9th Meeting:Geneva、Switzerland、2012年4月27日〜2012年5月7日に記載されている。
[0005]ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオフレームまたはビデオフレームの一部分)が、ツリーブロック、コーディングユニット(CU:coding unit)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0006]空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコーディングされたブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコーディングされたブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコーディングされたブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化変換係数は、最初は2次元アレイで構成され、変換係数の1次元ベクトルを生成するためにスキャンされ得、なお一層の圧縮を達成するために、エントロピーコーディングが適用され得る。
[0007]概して、本開示では、3次元(3D)ビデオデータの深度マップをコーディングするための技法について説明する。特に、本開示では、3Dビデオデータの深度マップのイントラ予測コーディングのための技法について説明する。これらの技法は、たとえば、3D高効率ビデオコーディング(3D−HEVC)技法に対して3Dビデオコーディングの複雑さを低減するために使用され得る。本開示の技法は、概して、深度マップのブロックをイントラコーディングするための深度モデリングモード(DMM:depth modeling mode)に関する。たとえば、これらの技法は、深度マップのブロックがイントラ予測コーディングのためにどのように区分されるべきかをシグナリングするために使用され得る。
[0008]一例では、ビデオデータをコーディングする方法は、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロック(co-located texture block)を決定することと、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット(inter-component Wedgelet)深度モデリングモードを無効にすることと、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択することと、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングすることとを含む。
[0009]別の例では、ビデオデータをコーディングするためのデバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択することと、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングすることとを行うように構成されたビデオコーダを含む。
[0010]別の例では、ビデオデータをコーディングするためのデバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択するための手段と、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングするための手段とを含む。
[0011]別の例では、コンピュータ可読記憶媒体は、実行されたとき、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択することと、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングすることとをプロセッサに行わせる命令を記憶している。
[0012]別の例では、ビデオデータをコーディングする方法は、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、テクスチャブロックのイントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、決定されたウェッジレットパターンと深度モデリングモードとを使用して深度ブロックをコーディングすることとを含む。
[0013]別の例では、ビデオデータをコーディングするためのデバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、テクスチャブロックのイントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、決定されたウェッジレットパターンと深度モデリングモードとを使用して深度ブロックをコーディングすることとを行うように構成されたビデオコーダを含む。
[0014]別の例では、ビデオデータをコーディングするためのデバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定するための手段と、テクスチャブロックのイントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定するための手段と、決定されたウェッジレットパターンと深度モデリングモードとを使用して深度ブロックをコーディングするための手段とを含む。
[0015]別の例では、コンピュータ可読記憶媒体は、実行されたとき、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、テクスチャブロックのイントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、決定されたウェッジレットパターンと深度モデリングモードとを使用して深度ブロックをコーディングすることとをプロセッサに行わせる命令を記憶している。
[0016]1つまたは複数の例の詳細を添付の図面および以下の説明に記載する。他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
[0017]深度マップコーディングのための深度モデリングモードをシグナリングするための技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0018]深度マップコーディングのための深度モデリングモードをシグナリングするための技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0019]深度マップコーディングのための深度モデリングモードをシグナリングするための技法を実装し得るビデオデコーダの一例を示すブロック図。 [0020]ビデオデータのブロックのための様々な潜在的な方向性イントラ予測モード(directional intra-prediction mode)を示す概念図。 [0021]深度モデリングモードの例を示す概念図。 深度モデリングモードの例を示す概念図。 [0022]深度コンポーネント中の深度ブロックと、対応するテクスチャコンポーネント中のコロケートテクスチャブロックとの例を示す図。 深度コンポーネント中の深度ブロックと、対応するテクスチャコンポーネント中のコロケートテクスチャブロックとの例を示す図。 [0023]現在の深度ブロックを符号化するための例示的な方法を示すフローチャート。 [0024]ビットストリームを復号するための例示的な方法を示すフローチャート。 [0025]本開示の技法による、深度ブロックを復号するための例示的な方法を示すフローチャート。
[0026]概して、本開示の技法は3次元(3D)ビデオコーディングに関する。すなわち、これらの技法を使用してコーディングされたビデオデータは、3次元効果を生成するためにレンダリングされ、表示され得る。たとえば、異なるビューの2つの画像(すなわち、わずかに異なる水平位置を有する2つのカメラパースペクティブに対応する)は、一方の画像が閲覧者の左眼によって見られ、他方の画像が閲覧者の右眼によって見られるように、実質的に同時に表示され得る。
[0027]この3D効果は、たとえば、立体視(stereoscopic)ディスプレイまたは自動立体視(autostereoscopic)ディスプレイを使用して達成され得る。立体視ディスプレイは、2つの画像を相応にフィルタ処理するアイウェア(eyewear)とともに使用され得る。たとえば、パッシブ眼鏡は、正しい眼が正しい画像を閲覧することを保証するために偏光レンズまたは異なるカラーレンズを使用して画像をフィルタ処理し得る。アクティブ眼鏡は、別の例として、立体視ディスプレイと協調して交互のレンズを迅速に閉じ得、それにより、左眼画像を表示することと右眼画像を表示することとを交互に行い得る。自動立体視ディスプレイは、眼鏡が必要とされないような方法で2つの画像を表示する。たとえば、自動立体視ディスプレイは、各画像が閲覧者の適切な眼に投影されるように構成されたミラーまたはプリズムを含み得る。
[0028]本開示の技法は、テクスチャデータと深度データとをコーディングすることによって3Dビデオデータをコーディングすることに関する。概して、「テクスチャ」という用語は、画像のルミナンス(すなわち、輝度または「ルーマ」)値と画像のクロミナンス(すなわち、色または「クロマ」)値とを説明するために使用される。いくつかの例では、テクスチャ画像は、1セットのルミナンスデータと、青色相(Cb)および赤色相(Cr)のための2セットのクロミナンスデータとを含み得る。4:2:2または4:2:0などの特定のクロマフォーマットでは、クロマデータは、ルーマデータに関してダウンサンプリングされる。すなわち、クロミナンスピクセルの空間解像度は、対応するルミナンスピクセルの空間解像度よりも低く、たとえば、ルミナンス解像度の1/2または1/4であり得る。
[0029]深度データは、概して、対応するテクスチャデータの深度値を表す。たとえば、深度画像は、各々が対応するテクスチャデータの深度を表す深度ピクセルのセットを含み得る。深度データは、対応するテクスチャデータの水平視差を決定するために使用され得る。したがって、テクスチャデータと深度データとを受信するデバイスは、一方のビュー(たとえば、左眼ビュー)のための第1のテクスチャ画像を表示し、深度値に基づいて決定された水平視差値だけ第1の画像のピクセル値をオフセットすることによって、他方のビュー(たとえば、右眼ビュー)のための第2のテクスチャ画像を生成するように第1のテクスチャ画像を変更するために深度データを使用し得る。概して、水平視差(または単に「視差」)は、右ビュー中の対応するピクセルに対する第1のビュー中のピクセルの水平空間オフセットを表し、2つのピクセルは、2つのビュー中で表される同じオブジェクトの同じ部分に対応する。
[0030]さらに他の例では、画像について定義されたゼロ視差平面に対して所与のピクセルに関連する深度が定義されるように、画像平面に直交するz次元におけるピクセルについて深度データが定義され得る。そのような深度は、ピクセルを表示するための水平視差を作成するために使用され得、その結果として、ピクセルは、ゼロ視差平面に対するピクセルのz次元深度値に応じて、左眼と右眼とで異なるように表示される。ゼロ視差平面は、ビデオシーケンスの異なる部分に対して変化し得、ゼロ視差平面に対する深度の量も変化し得る。ゼロ視差平面上に位置するピクセルは、左眼および右眼に対して同様に定義され得る。ゼロ視差平面の前に位置するピクセルは、ピクセルが画像平面に直交するz方向の画像から出てくるように見える知覚を作成するように、(たとえば、水平視差を用いて)左眼と右眼とに対して異なるロケーションで表示され得る。ゼロ視差平面の後に位置するピクセルは、深度のわずかな知覚まで、わずかなぼかしとともに表示され得るか、または(たとえば、ゼロ視差平面の前に位置するピクセルの水平視差とは反対の水平視差を用いて)左眼と右眼とに対して異なるロケーションで表示され得る。他の多くの技法も、画像の深度データを伝達または定義するために使用され得る。
[0031]2次元ビデオデータは、概して、その各々が特定の時間インスタンスに対応する、個別ピクチャのシーケンスとしてコーディングされる。すなわち、各ピクチャは、シーケンス中の他の画像の再生時間に対する関連する再生時間を有する。これらのピクチャはテクスチャピクチャまたはテクスチャ画像と考えられ得る。深度ベースの3Dビデオコーディングでは、シーケンス中の各テクスチャピクチャは深度マップにも対応し得る。すなわち、テクスチャピクチャに対応する深度マップは、対応するテクスチャピクチャのための深度データを記述する。マルチビュービデオデータは、様々な異なるビューのためのデータを含み得、各ビューは、テクスチャピクチャと、対応する深度ピクチャとのそれぞれのシーケンスを含み得る。
[0032]上述したように、画像は特定の時間インスタンスに対応し得る。ビデオデータは、アクセスユニットのシーケンスを使用して表され得、各アクセスユニットは、特定の時間インスタンスに対応するすべてのデータを含む。したがって、たとえば、マルチビュービデオデータ+深度の場合、共通時間インスタンスについての各ビューからのテクスチャ画像+テクスチャ画像の各々についての深度マップはすべて、特定のアクセスユニット内に含まれ得る。アクセスユニットは、テクスチャ画像に対応するテクスチャコンポーネントのためのデータと、深度マップに対応する深度コンポーネントのためのデータとを含み得る。このようにして、3Dビデオデータは、キャプチャまたは生成されたビュー(テクスチャ)が対応する深度マップに関連する、マルチビュービデオ+深度フォーマットを使用して表され得る。その上、3Dビデオコーディングでは、テクスチャと深度マップとはコーディングされ、3Dビデオビットストリーム中に多重化され得る。深度マップはグレースケール画像としてコーディングされ得、深度マップの「ルーマ」サンプル(すなわち、ピクセル)は深度値を表す。従来のイントラコーディング方法およびインターコーディング方法は深度マップコーディングのために適用され得る。
[0033]深度マップは、通常、シャープエッジと一定のエリアとを含み、深度マップ中のエッジは、一般に、対応するテクスチャデータとの強い相関を提示する。テクスチャと対応する深度との間の異なる統計値および相関により、異なるコーディング方式が、2Dビデオコーデックに基づく深度マップのために設計されており、設計され続ける。深度マップコーディングに特有であるいくつかのコーディング方式は、以下でより詳細に説明するように、深度マップのブロックを様々な予測領域に区分することに関する。たとえば、深度マップのブロックは、以下でより詳細に説明するように、ウェッジレット(Wedgelet)パターンまたは輪郭(Contour)パターンを使用して区分され得る。概して、ウェッジレットパターンは、深度マップデータのブロックを通して描画される任意のラインによって画定されるが、輪郭区分では、深度ブロックが2つの不規則形状領域に区分され得る。
[0034]マルチビュービデオ+深度コーディング技法を含む、本開示の技法は、高度コーデック(エンコーダ/デコーダ)に基づく3Dビデオコーディングとともに使用され得る。様々な例では、本開示の提案する深度コーディング技法は、テクスチャビューコンポーネントの対応するテクスチャ情報のコーディングされた情報に基づいて深度情報のための最適区分パターンを探索することを含み得る。すなわち、深度情報のブロックは区分され、深度情報のブロックに対応する(たとえば、深度情報のブロックと空間的にコロケートされた)テクスチャ情報のブロックのコーディングに基づいてコーディングされ得る。
[0035]3D−HEVCと呼ばれる、3Dビデオコーディングをサポートするように今度のHEVC規格を拡張するための提案が作成された。3D−HEVCは、Schwarz他、「Description of 3D Video Coding Technology Proposal by Fraunhofer HHI (HEVC compatible configuration A)」、MPEG Meeting ISO/IEC JTC1/SC29/WG11,Doc.MPEG11/M22570、Geneva、Switzerland、2011年11月/12月、およびSchwarz他、「Description of 3D Video Technology Proposal by Fraunhofer HHI (HEVC compatible; configuration B)」、MPEG Meeting−ISO/IEC JTC1/SC29/WG11,Doc.MPEG11/M22571、Geneva、Switzerland、2011年11月/12月中で提案されたソリューションに基づく。
[0036]HEVCの開発はHEVCテストモデル(HTM:HEVC test model)の開発を含む。3D−HEVCのためのHTMバージョン3.1は、2012年7月5日現在、https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM-3.1/からダウンロードされ得る。HTMソフトウェアの説明は、2012年7月5日現在、http://wg11.sc29.org/doc_end_user/documents/100_Geneva/wg11/w12744-v2-w12744.zipから入手可能である。
[0037]3D−HEVCでは、各アクセスユニットは複数のビューコンポーネントを含んでおり、ビューコンポーネントの各々は、一意のビューid、またはビュー順序インデックス、またはレイヤidを含んでいる。ビューコンポーネントは、3D−HEVCでは、テクスチャビューコンポーネントならびに深度ビューコンポーネントを含んでいる。3D−HEVCでは、テクスチャビューコンポーネントは1つまたは複数のテクスチャスライスとしてコーディングされるが、深度ビューコンポーネントは1つまたは複数の深度スライスとしてコーディングされる。その上、3D−HEVCでは、イントラ予測モードの、従来のHEVCと同じ定義が利用される。加えて、方向性イントラ予測モードの角度は、さらに(H、V)として示され、その値は、ほぼH/Vに等しくなり得る。イントラモードのための可能な(H、V)組合せは表1に記載されており、ここにおいて、2〜34によってインデックス付けされた各予測モードは1つの(H、V)組合せに対応する。
Figure 0006046246
[0038]3D−HEVCは、深度スライスのイントラ予測ユニットをコーディングするために使用され得る深度モデリングモード(DMM)を含む。3D−HEVCのDMMについて、図5Aおよび図5Bに関して以下でより詳細に説明する。概して、3D−HEVCのDMMは、たとえば、ウェッジレット区分パターンまたは輪郭区分パターンを使用して深度ビデオデータのブロックを2つの領域に区分することを含む。3D−HEVCは、現在4つのDMM、すなわち、モード1(明示的ウェッジレットシグナリング)と、モード2(イントラ予測ウェッジレット区分)と、モード3(コンポーネント間ウェッジレット区分)と、モード4(コンポーネント間輪郭区分)とを含む。
[0039]本開示は、3D−HEVCのDMMパターン導出の現在の設計からいくつかの問題が起こり得ることを認める。たとえば、コロケートテクスチャ予測ユニットの予測モードにかかわらず、深度スライスの現在予測ユニットによって使用されるウェッジレットパターンを決定するために、コロケートテクスチャ領域上の(約1500の数になることがある)すべての可能なウェッジレットパターンが網羅的に検査されるので、現在の3D−HEVC設計のDMMモード3は、かなりのデコーダの複雑さの増加を必要とする。本開示では、DMMの改善されたシグナリングに関する様々な技法について説明するが、たとえば、3D−HEVCの場合、これらの技法は、他のビデオコーディング規格に関しても実装され得ることを理解されたい。これらの技法は、単に説明のために3D−HEVCの例に関して説明され、3D−HEVCに限定されない。
[0040]図1は、深度マップコーディングのための深度モデリングモードをシグナリングするための技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを与えるソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介してビデオデータを宛先デバイス14に与える。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0041]宛先デバイス14は、コンピュータ可読媒体16を介して復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動させることができる任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が、符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得るルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0042]いくつかの例では、符号化データは、出力インターフェース22からストレージデバイスに出力され得る。同様に、符号化データは、入力インターフェースによってストレージデバイスからアクセスされ得る。ストレージデバイスは、ハードドライブ、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイスは、ソースデバイス12によって生成された符号化ビデオを記憶し得るファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージデバイスから記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバとしては、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブがある。宛先デバイス14は、インターネット接続を含む、任意の標準のデータ接続を介して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、またはその両方の組合せを含み得る。ストレージデバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0043]本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH:dynamic adaptive streaming over HTTP)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0044]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。本開示によれば、ソースデバイス12のビデオエンコーダ20は、深度マップコーディングのための深度モデリングモードをシグナリングするための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは他の構成要素または構成を含み得る。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、内蔵ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0045]図1の図示のシステム10は一例にすぎない。深度マップコーディングのための深度モデリングモードをシグナリングするための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。概して、本開示の技法はビデオ符号化デバイスによって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。さらに、本開示の技法は、ビデオプリプロセッサによっても実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14に送信するためのコーティングされたビデオデータを生成するような、コーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称的に動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、またはビデオテレフォニーのための、ビデオデバイス12とビデオデバイス14との間の一方向または双方向のビデオ送信をサポートし得る。
[0046]ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、前にキャプチャされたビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラフォンまたはビデオフォンを形成し得る。ただし、上述のように、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。各場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成ビデオは、ビデオエンコーダ20によって符号化され得る。符号化ビデオ情報は、次いで、出力インターフェース22によってコンピュータ可読媒体16上に出力され得る。
[0047]コンピュータ可読媒体16は、ワイヤレスブロードキャストまたはワイヤードネットワーク送信などの一時媒体、あるいはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、Blu−rayディスク、または他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、ソースデバイス12から符号化ビデオデータを受信し、たとえば、ネットワーク送信を介して、その符号化ビデオデータを宛先デバイス14に与え得る。同様に、ディスクスタンピング設備など、媒体製造設備のコンピューティングデバイスは、ソースデバイス12から符号化ビデオデータを受信し、その符号化ビデオデータを含んでいるディスクを生成し得る。したがって、コンピュータ可読媒体16は、様々な例において、様々な形態の1つまたは複数のコンピュータ可読媒体を含むことが理解されよう。
[0048]宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、ブロックおよび他のコーティングされたユニット、たとえば、GOPの特性および/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0049]ビデオエンコーダ20およびビデオデコーダ30は、現在開発中の高効率ビデオコーディング(HEVC)規格などのビデオコーディング規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4,Part 10,アドバンストビデオコーディング(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格または業界規格、あるいはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオコーディング規格の他の例には、MPEG−2およびITU−T H.263がある。図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびデコーダと統合され得、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するために、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0050]ITU−T H.264/MPEG−4(AVC)規格は、ジョイントビデオチーム(JVT:Joint Video Team)として知られる共同パートナーシップの成果として、ISO/IECムービングピクチャエキスパーツグループ(MPEG:Moving Picture Experts Group)とともにITU−Tビデオコーディングエキスパーツグループ(VCEG:Video Coding Experts Group)によって策定された。いくつかの態様では、本開示で説明する技法は、H.264規格に概して準拠するデバイスに適用され得る。H.264規格は、ITU−T研究グループによる2005年3月付けのITU−T勧告H.264「Advanced Video Coding for generic audiovisual services」に記載されており、本明細書ではH.264規格またはH.264仕様、あるいはH.264/AVC規格または仕様と呼ぶことがある。ジョイントビデオチーム(JVT)はH.264/MPEG−4 AVCへの拡張に取り組み続けている。
[0051]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
[0052]JCT−VCは、HEVC規格の開発に取り組んでいる。HEVC規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコーディングデバイスの発展的モデルに基づく。HMは、たとえば、ITU−T H.264/AVCに従う既存のデバイスに対してビデオコーディングデバイスのいくつかの追加の能力を仮定する。たとえば、H.264は9つのイントラ予測符号化モードを提供するが、HMは33個ものイントラ予測符号化モードを提供し得る。
[0053]概して、HMの作業モデルは、ビデオフレームまたはピクチャが、ルーマサンプルとクロマサンプルの両方を含む一連のツリーブロックまたは最大コーディングユニット(LCU:largest coding unit)に分割され得ることを記載している。ビットストリーム内のシンタックスデータが、ピクセルの数に関して最大コーディングユニットであるLCUのサイズを定義し得る。スライスは、コーディング順序でいくつかの連続するツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分され得る。各ツリーブロックは、4分木に従ってコーディングユニット(CU)に分割され得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはツリーブロックに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。
[0054]4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。CUがさらに分割されない場合、そのCUはリーフCUと呼ばれる。本開示では、元のリーフCUの明示的分割が存在しない場合でも、リーフCUの4つのサブCUをリーフCUとも呼ぶ。たとえば、16×16サイズのCUがさらに分割されない場合、この16×16CUが決して分割されなくても、4つの8×8サブCUをリーフCUとも呼ぶ。
[0055]CUは、CUがサイズ差異を有さないことを除いて、H.264規格のマクロブロックと同様の目的を有する。たとえば、ツリーブロックは、4つの子ノード(サブCUとも呼ばれる)に分割され得、各子ノードは、今度は親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードと呼ばれる、最後の分割されていない子ノードは、リーフCUとも呼ばれるコーディングノードを備える。コーティングされたビットストリームに関連するシンタックスデータは、最大CU深さと呼ばれる、ツリーブロックが分割され得る最大回数を定義し得、また、コーディングノードの最小サイズを定義し得る。それに応じて、ビットストリームは最小コーディングユニット(SCU:smallest coding unit)をも定義し得る。本開示では、HEVCのコンテキストにおけるCU、PU、またはTU、あるいは他の規格のコンテキストにおける同様のデータ構造(たとえば、H.264/AVCにおけるマクロブロックおよびそれのサブブロック)のいずれかを指すために「ブロック」という用語を使用する。
[0056]CUは、コーディングノードと、コーディングノードに関連する予測ユニット(PU:prediction unit)および変換ユニット(TU:transform unit)とを含む。CUのサイズは、コーディングノードのサイズに対応し、形状が方形でなければならない。CUのサイズは、8×8ピクセルから最大64×64以上のピクセルをもつツリーブロックのサイズまでに及び得る。各CUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。CUに関連するシンタックスデータは、たとえば、CUを1つまたは複数のPUに区分することを記述し得る。区分モードは、CUが、スキップモード符号化またはダイレクトモード符号化されるか、イントラ予測モード符号化されるか、あるいはインター予測モード符号化されるかの間で異なり得る。PUは、形状が非方形になるように区分され得る。CUに関連するシンタックスデータは、たとえば、4分木に従ってCUを1つまたは複数のTUに区分することも記述し得る。TUは、形状が正方形または非正方形(たとえば、矩形)であり得る。
[0057]HEVC規格は、CUごとに異なり得るTUに従う変換を可能にする。TUは、一般に、区分されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般にPUと同じサイズであるかまたはPUよりも小さい。いくつかの例では、CUに対応する残差サンプルは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用してより小さいユニットに再分割され得る。RQTのリーフノードは変換ユニット(TU)と呼ばれることがある。TUに関連するピクセル差分値は、変換されて変換係数が生成され得、その変換係数は量子化され得る。
[0058]リーフCUは、1つまたは複数の予測ユニット(PU)を含み得る。概して、PUは、対応するCUの全部または一部分に対応する空間的エリアを表し、そのPUの参照サンプルを取り出すためのデータを含み得る。その上、PUは、予測に関係するデータを含む。たとえば、PUがイントラモード符号化されるとき、PUについてのデータは、PUに対応するTUについてのイントラ予測モードを記述するデータを含み得る残差4分木(RQT)中に含まれ得る。別の例として、PUがインターモード符号化されるとき、PUは、PUのための1つまたは複数の動きベクトルを定義するデータを含み得る。PUの動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度もしくは1/8ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトルの参照ピクチャリスト(たとえば、リスト0、リスト1、もしくはリストC)を記述し得る。
[0059]1つまたは複数のPUを有するリーフCUはまた、1つまたは複数の変換ユニット(TU)を含み得る。変換ユニットは、上記で説明したように、(TU4分木構造とも呼ばれる)RQTを使用して指定され得る。たとえば、分割フラグは、リーフCUが4つの変換ユニットに分割されるかどうかを示し得る。次いで、各変換ユニットは、さらなるサブTUにさらに分割され得る。TUがさらに分割されないとき、そのTUはリーフTUと呼ばれることがある。概して、イントラコーディングの場合、リーフCUに属するすべてのリーフTUは同じイントラ予測モードを共有する。すなわち、概して、リーフCUのすべてのTUの予測値を計算するために同じイントラ予測モードが適用される。イントラコーディングの場合、ビデオエンコーダは、イントラ予測モードを使用して各リーフTUの残差値を、TUに対応するCUの一部と元のブロックとの間の差分として計算し得る。TUは、必ずしもPUのサイズに制限されるとは限らない。したがって、TUは、PUよりも大きいことも小さいこともある。イントラコーディングの場合、PUは、同じCUの対応するリーフTUとコロケートされ得る。いくつかの例では、リーフTUの最大サイズは、対応するリーフCUのサイズに対応し得る。
[0060]その上、リーフCUのTUはまた、残差4分木(RQT)と呼ばれる、それぞれの4分木データ構造に関連付けられ得る。すなわち、リーフCUは、リーフCUがどのようにTUに区分されるかを示す4分木を含み得る。TU4分木のルートノードは概してリーフCUに対応し、CU4分木のルートノードは概してツリーブロック(またはLCU)に対応する。分割されないRQTのTUはリーフTUと呼ばれる。概して、本開示では、特に明記しない限り、リーフCUおよびリーフTUに言及するためにそれぞれCUおよびTUという用語を使用する。
[0061]ビデオシーケンスは、一般に、一連のビデオフレームまたはピクチャを含む。ピクチャグループ(GOP:group of pictures)は、概して、ビデオピクチャのうちの一連の1つまたは複数を備える。GOPは、GOP中に含まれるいくつかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、ピクチャのうちの1つまたは複数のヘッダ中、または他の場所に含み得る。ピクチャの各スライスは、それぞれのスライスの符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、一般に、ビデオデータを符号化するために個々のビデオスライス内のビデオブロックに対して動作する。ビデオブロックはCU内のコーディングノードに対応し得る。ビデオブロックは、固定サイズまたは可変サイズを有し得、指定のコーディング規格に応じてサイズが異なり得る。
[0062]一例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2NまたはN×NのPUサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、またはN×Nの対称的なPUサイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズでのインター予測のための非対称区分をサポートする。非対称区分では、CUの一方向は区分されないが、他の方向は25%と75%とに区分される。25%の区分に対応するCUの部分は、「n」とその後ろに付く「Up」、「Down」、「Left」、または「Right」という表示によって示される。したがって、たとえば、「2N×nU」は、上部の2N×0.5N PUと下部の2N×1.5N PUとで水平方向に区分された2N×2N CUを指す。
[0063]本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのピクセル寸法、たとえば、16×16(16x16)ピクセルまたは16×16(16 by 16)ピクセルを指すために互換的に使用され得る。概して、16×16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、N×Nブロックは、概して、垂直方向にNピクセルを有し、水平方向にNピクセルを有し、ただし、Nは非負整数値を表す。ブロック中のピクセルは行と列に構成され得る。その上、ブロックは、必ずしも、水平方向において垂直方向と同じ数のピクセルを有する必要があるとは限らない。たとえば、ブロックはN×Mピクセルを備え得、ただし、Mは必ずしもNに等しいとは限らない。
[0064]CUのPUを使用したイントラ予測コーディングまたはインター予測コーディングの後、ビデオエンコーダ20は、CUのTUのための残差データを計算し得る。PUは、(ピクセル領域とも呼ばれる)空間領域において予測ピクセルデータを生成する方法またはモードを記述するシンタックスデータを備え得、TUは、たとえば、残差ビデオデータへの離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換などの変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを含むTUを形成し、次いで、TUを変換して、CUの変換係数を生成し得る。
[0065]変換係数を生成するための任意の変換の後に、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、一般に、係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を行うプロセスを指す。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、ただし、nはmよりも大きい。
[0066]量子化の後に、ビデオエンコーダは、変換係数をスキャンして、量子化変換係数を含む2次元行列から1次元ベクトルを生成し得る。スキャンは、アレイの前部により高いエネルギー(したがって、より低い周波数)係数を配置し、アレイの後部により低いエネルギー(したがって、より高い周波数)係数を配置するように設計され得る。いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数をスキャンするためにあらかじめ定義されたスキャン順序を利用し得る。他の例では、ビデオエンコーダ20は適応スキャンを実行し得る。量子化変換係数をスキャンして1次元ベクトルを形成した後に、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC:context-adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context-adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コーディング、または別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30が使用するための符号化ビデオデータに関連するシンタックス要素をエントロピー符号化し得る。
[0067]CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が非ゼロであるか否かに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルのための可変長コードを選択し得る。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。
[0068]本開示の技法によれば、ビデオエンコーダ20またはビデオデコーダ30などのビデオコーダは、深度マップコーディングのための深度モデリングモードをシグナリングし得る。現在、3D−HEVCでは、4つの一般的な深度モデリングモード(DMM)がある。3D−HEVCの例では、これらのモードについて、以下のように説明している。
1.モード1:明示的ウェッジレットシグナリング
このモードでは、ウェッジレット区分が適用され、あるひずみ基準に基づいて、最適または望ましいウェッジレット区分がエンコーダにおいて選択される。選択されたウェッジレットパターンのインデックスはビットストリーム中でシグナリングされる。
2.モード2:イントラ予測ウェッジレット区分
このモードでは、ウェッジレット区分が適用され、選択されたウェッジレットパターンは、隣接イントラ予測モードの情報とウェッジレットパターン情報とを使用して予測される。この場合、ウェッジレットパターンインデックスの直接シグナリングは回避され、予測されたウェッジレットパターンの改良点がシグナリングされる。
3.モード3:コンポーネント間ウェッジレット区分
同じアクセスユニットのコロケートルーマテクスチャブロック領域上で、すべての利用可能なウェッジレットパターンが網羅的に試みられ、テクスチャブロックに最も良く一致するウェッジレットパターンが、深度スライス中のPUのためのウェッジレットパーティションとして選択される。ウェッジレット区分パターンのシグナリングは必要とされないが、最良のパターンの全数探索は(本開示の技法外の)デコーダにおいて必要とされ得る。
4.モード4:コンポーネント間輪郭区分
このモードでは、コロケートテクスチャブロックを2つの部分に分離することによって、輪郭区分パターンが復号プロセス中に生成され、第1の部分は、平均値よりも大きいルーマサンプル値をもつピクセルを含んでおり、第2の部分は、平均よりも小さいかまたはそれに等しいルーマサンプル値をもつピクセルを含んでいる。
[0069]DMMのための異なる区分パターンの数は、DMMを使用してコーディングされるべきブロックのサイズに依存し得る。たとえば、3D−HEVCでは、4×4ブロックの場合86個のウェッジレットパターンがあり、8×8ブロックの場合782個のウェッジレットパターンがあり、16×16ブロックの場合1394個のウェッジレットパターンがあり、32×32ブロックの場合1503個のウェッジレットパターンがある。これらのパターンは、符号化と復号の両方中に生成され、記憶される。すなわち、ビデオエンコーダ20およびビデオデコーダ30は様々なウェッジレットパターンを生成し、記憶し得る。3D−HEVCの4つのDMMは、タイプ(たとえば、ウェッジレット区分または輪郭区分)と、導出の方法(たとえば、明示的シグナリング、イントラ予測、またはコンポーネント間)とに基づいて定義され得る。その上、ブロックをコーディングするためにどのDMMが利用可能であるかは、ブロックのサイズに依存し得る。表2に、3D−HEVCの例における様々なブロックサイズのためにどのDMMが利用可能であるかを要約する。
Figure 0006046246
[0070]表2に示すように、3D−HEVCでは、4×4よりも小さいかまたはそれに等しいブロック(たとえば、PU)サイズの場合、モード1および3のみが有効にされ、4×4よりも大きいが、64×64よりも小さいPUサイズ、すなわち、8×8、16×16、および32×32の場合、すべての4つのモードが有効にされる。64×64よりも大きいかまたはそれに等しいPUサイズの場合、3D−HEVCでは、すべての4つのモードが無効にされる。
[0071]表2に見られるように、モード3(すなわち、コンポーネント間ウェッジレット区分)は、3D−HEVCでは、64×64を含まないが、64×64までのすべてのブロックサイズのために利用可能である。しかしながら、上記のように、本開示は、たとえば、モード3を実装することはビデオデコーダ30などのビデオデコーダにおいてかなりの複雑さの増加を必要とするという、モード3のいくつかの問題を認める。したがって、本開示は、この複雑さを低減するために使用され得る様々な技法について説明する。
[0072]本開示の技法は、概して、コロケートテクスチャブロックのコーディング特性に基づいて深度ブロックのためのモード3を有効にすべきか無効にすべきかを決定することに関する。以下の説明では、深度ブロックは、深度コンポーネント中のコーディングユニットの予測ユニットを表し得る。深度ブロックとコロケートされたテクスチャブロックは、概して、テクスチャ画像中のピクセルのブロックに対応し、深度マップおよびテクスチャ画像は、同じビューおよび同じ時間インスタンスに対応する。たとえば、アクセスユニットの単一のビューコンポーネントは、テクスチャ画像を表すテクスチャビューコンポーネントと深度マップを表す深度ビューコンポーネントの両方についてのデータを含み得る。以下でより詳細に説明するように、テクスチャブロックとコロケート深度ブロックとの例を、図6Aおよび図6Bに示す。
[0073]概して、深度ブロックとコロケートされたテクスチャブロックは、テクスチャ画像内で、深度マップ中の深度ブロックと同じ相対位置中にあるテクスチャブロックである。たとえば、テクスチャ画像と深度マップとが同じ空間解像度(すなわち、水平と垂直に同じ数のピクセル)を有すると仮定すると、深度ブロックとコロケートされたテクスチャブロックは、テクスチャピクチャの左エッジに対して、深度マップの左エッジに対する深度ブロックの水平オフセットと同じ水平オフセットを有し、テクスチャピクチャの上部エッジに対して、深度マップの上部エッジに対する深度ブロックの垂直オフセットと同じ垂直オフセットを有するテクスチャブロックであり得る。テクスチャ画像と深度マップとが、異なる空間解像度を有する場合、上記で説明した水平オフセットと垂直オフセットとは、水平オフセットの空間解像度と垂直オフセットの空間解像度との間のスケーリングされた差に比例してスケーリングされ得る。
[0074]いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、コロケートテクスチャブロックの少なくとも一部分がイントラ予測コーディングされるのか(またはイントラ予測コーディングされないのか)に基づいて、コンポーネント間ウェッジレットモード(DMMモード3)が深度ブロックのために有効にされるのか無効にされるのかを決定するように構成され得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、コロケートテクスチャブロックが、イントラ予測モードコーディングされたテクスチャ画像のPUに完全には属しないとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、コロケートテクスチャブロックが、DCモードと平面モードと以外のモード(たとえば、方向性イントラ予測モード)を使用してイントラ予測モードコーディングされたテクスチャ画像のPUに完全には属しないとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。
[0075]いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、コロケートテクスチャブロックの左上4×4サブブロックがイントラ予測モードコーディングされないとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、コロケートテクスチャブロックの左上4×4サブブロックが、DCモードまたは平面モードのいずれかを使用してイントラ予測モードコーディングされたとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。
[0076]いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、コロケートテクスチャブロックがイントラスライス(Iスライス)以外のスライスに属するとき、すなわち、テクスチャブロックがインタースライス(たとえば、PスライスまたはBスライス)内に含まれるとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、深度スライスが、その一部がイントラでないとしてコーディングされたコロケートテクスチャブロックを有するとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、テクスチャブロックがテクスチャ画像中のいくつかのPUに対応し、テクスチャブロックが対応するPUのいずれもイントラ予測モードコーディングされないとき、深度ブロックのためのコンポーネント間ウェッジレットモードを無効にするように構成され得る。
[0077]ビデオエンコーダ20およびビデオデコーダ30は、上記で説明したシナリオのいずれかまたはすべてで、任意の組合せで、コンポーネント間ウェッジレットモードを無効にするように構成され得る。コンポーネント間ウェッジレットモードが有効にされ、テクスチャブロックが、イントラコーディングされた単一のPUに対応する場合、ビデオエンコーダ20およびビデオデコーダ30は、テクスチャブロックのイントラ予測モードを使用して深度ブロックのウェッジレットパターンを予測するように構成され得る。たとえば、各ウェッジレットパターンは、3D−HEVCの33個の方向性イントラ予測モードのうちの1つを割り当てられ得る。ビデオエンコーダ20およびビデオデコーダ30は、イントラ予測モードにウェッジレットパターンを割り当てるデータで構成され得る。
[0078]いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、いくつかの基準に基づいてウェッジレットパターンのセットにイントラ予測モードを割り当てるデータで構成され得る。いくつかの例では、3D−HEVCの33個のイントラ予測モードの各々には、同数のウェッジレットパターンが割り当てられ得る。所与のテクスチャイントラ予測モードの場合、ビデオエンコーダ20およびビデオデコーダ30は、そのテクスチャイントラ予測モードに関連するウェッジレットパターンのセットのみを探索するように構成され得る。言い換えれば、コロケートテクスチャブロックのためのイントラ予測モードに関連するウェッジレットパターンのみが、最終ウェッジレットパターンを導出するときに検査され得る。いくつかの例では、特定の角度イントラ予測モードに関連するウェッジレットパターンのセットは、イントラ予測モードの角度にぴったり一致する区分線を有するウェッジレットパターンであり得る。たとえば、ウェッジレットパターンのセットは、角度イントラ予測モードの角度に平行なウェッジレットパターン、実質的に平行なウェッジレットパターン、および/またはある程度平行なウェッジレットパターンを含み得る。このようにして、ビデオエンコーダ20またはビデオデコーダ30などのビデオコーダは、DMMモード3の場合に使用すべきウェッジレットパターンを決定するときに、コロケートテクスチャブロックをコーディングするために使用される角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを探索し得るにすぎない。
[0079]いくつかの例では、コロケートテクスチャブロックが、イントラコーディングされたPUに完全に属し、イントラ予測モードがDCまたは平面でないときのみ、ビデオエンコーダ20およびビデオデコーダ30は、現在の深度PUのウェッジレットパターンを予測するためにコロケートテクスチャブロックのイントラ予測モードを使用し得る。いくつかの例では、コロケートテクスチャブロックの左上4×4サブブロックが完全にイントラコーディングされ、イントラ予測モードがDCまたは平面でないときのみ、ビデオエンコーダ20およびビデオデコーダ30は、現在の深度PUのウェッジレットパターンを予測するためにコロケートテクスチャブロックのイントラ予測モードを使用し得る。いくつかの例では、コロケートテクスチャブロックの左上4×4サブブロックが完全にイントラコーディングされたときのみ、ビデオエンコーダ20およびビデオデコーダ30は、現在の深度PUのウェッジレットパターンを予測するためにコロケートテクスチャブロックのイントラ予測モードを使用し得る。
[0080]ビデオエンコーダ20およびビデオデコーダ30は、テクスチャブロックのイントラ予測モードからウェッジレットパターンを予測するための技法のいずれかまたはすべてを、単独でまたは任意の組合せで実行するように構成され得る。その上、ビデオエンコーダ20およびビデオデコーダ30は、上記で説明したシナリオのコンポーネント間ウェッジレットモードを無効にするための技法のいずれかまたはすべてとの任意の組合せで、テクスチャブロックのイントラ予測モードからウェッジレットパターンを予測するための技法のいずれかまたはすべてを実行し得る。
[0081]さらに、たとえば、上記で説明した技法のいずれかまたはすべてを使用してDMMコンポーネント間ウェッジレットモードが無効にされたとき、DMMモードのシグナリングは以下のように変更され得る。4×4よりも大きいが、64×64よりも小さい深度ブロックサイズ、たとえば、8×8、16×16、および32×32の場合、利用可能なDMMモードの数は4から3に変更され得る。代替的に、コンポーネント間ウェッジレットモードはモード4としてシグナリングされ得、コンポーネント間輪郭はモード3としてシグナリングされ得る。すなわち、3D−HEVCのコンポーネント間ウェッジレットモードとコンポーネント間輪郭モードとをシグナリングするために使用される値は、コンポーネント間ウェッジレットモードが無効にされたときスワップされ得る。
[0082]代替的に、DMMモード1、2、および4中の1つのモードのインデックスは1ビットとして2値化され得、他の2つのインデックスは2ビットとして2値化され得る。たとえば、モード1は1ビット(たとえば、「0」)として2値化され得、モード2および4は、2ビット(たとえば、それぞれ「10」および「11」)を使用して2値化され得る。代替的に、DMMモード1、2、および4についてのインデックス値は単項2値化(unary binarize)され得る。たとえば、モード1は「1」として2値化され得、モード2は「11」として2値化され得、モード3は「111」として2値化され得る。4×4よりも小さいかまたはそれに等しいPUサイズの場合、DMMモードの数は2から1に変更され得る。その上、DMMモードについてのインデックス値は、DMMモードの数が2から1に変更されたときDMMモードを示すためにコーディング(たとえば、送信または受信)される必要はない。代わりに、DMMモードは、上記の表2に要約されるように、3D−HEVCの例によれば、明示的ウェッジレット(すなわち、モード1)に等しくなるように導出され得る。
[0083]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、適用可能なとき、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダまたはデコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも複合ビデオエンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
[0084]図2は、深度マップコーディングのための深度モデリングモードをシグナリングするための技法を実装し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースのコーディングモードのいずれかを指し得る。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指し得る。
[0085]図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在のビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、モード選択ユニット40と、参照フレームメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピーコーディングユニット56とを含む。モード選択ユニット40は、今度は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、パーティションユニット48とを含む。ビデオブロックの復元のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理することになる。追加のフィルタ(ループ内またはループ後)もデブロッキングフィルタに加えて使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理し得る。
[0086]符号化プロセス中に、ビデオエンコーダ20はコーディングされるべきビデオフレームまたはスライスを受信する。フレームまたはスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間的予測を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対して受信されたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は、代替的に、空間的予測を行うために、コーディングされるべきブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対して受信されたビデオブロックのイントラ予測コーディングを実行し得る。ビデオエンコーダ20は、たとえば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを実行し得る。
[0087]その上、パーティションユニット48は、前のコーディングパスにおける前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、パーティションユニット48は、初めにフレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、LCUをサブCUに区分することを示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。
[0088]モード選択ユニット40は、たとえば、誤差結果に基づいてコーディングモード、すなわち、イントラまたはインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコーティングされたブロックまたはインターコーティングされたブロックを加算器50に与え、参照フレームとして使用するための符号化ブロックを再構成するために、得られたイントラコーティングされたブロックまたはインターコーティングされたブロックを加算器62に与え得る。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報など、シンタックス要素をエントロピーコーディングユニット56に与える。
[0089]動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示されている。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在フレーム(または他のコーティングされたユニット)内でコーディングされている現在ブロックに対する参照フレーム(または他のコーティングされたユニット)内の予測ブロックに対する現在ビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって決定され得るピクセル差分に関して、コーディングされるべきブロックにぴったり一致することがわかるブロックである。いくつかの例では、ビデオエンコーダ20は、参照フレームメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0090]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコーティングされたスライスにおけるビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらの参照ピクチャリストの各々は、参照ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0091]動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。現在ビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コーディングされている現在ビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対して動き推定を実行し、動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0092]イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
[0093]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを決定するために、様々な符号化ブロックのひずみおよびレートから比率を計算し得る。
[0094]さらに、イントラ予測ユニット46は、本開示の技法によれば、深度モデリングモード(DMM)を使用して深度マップの深度ブロックをコーディングするように構成され得る。モード選択ユニット40は、最初に、たとえば、図1に関して上記で説明した基準のいずれかまたはすべてに基づいて、DMMモード3など、DMMモードのいずれかが無効にされるべきかどうかを決定し得る。モード選択ユニット40は、たとえば、レートひずみ最適化(RDO:rate-distortion optimization)を使用して、利用可能なDMMモードがイントラ予測モードと他のDMMモードとよりも良好なコーディング結果を生成するかどうかを決定し得る。DMMモードが選択され(または現在テストされており)、そのDMMモードが、DMMモード3など、パターンが明示的にシグナリングされるモードでない場合、イントラ予測ユニット46は、たとえば、コロケートテクスチャブロックのイントラ予測モードに基づいてパターンを選択するための本開示の技法を実行し得る。深度マップに対応するテクスチャ画像のためのデータは、参照フレームメモリ64に記憶され得る。動き推定ユニット42および動き補償ユニット44はまた、深度マップの深度ブロックをインター予測するように構成され得る。
[0095]ブロックのためのイントラ予測モード(たとえば、従来のイントラ予測モード、またはDMMモードのうちの1つ)を選択した後に、イントラ予測ユニット46は、エントロピーコーディングユニット56にブロックのための選択されたイントラ予測モードを示す情報を与え得る。エントロピーコーディングユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信ビットストリーム中に、複数のイントラ予測モードインデックステーブルおよび複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックの符号化コンテキストの定義と、コンテキストの各々について使用すべき、最確イントラ予測モード、イントラ予測モードインデックステーブル、および変更されたイントラ予測モードインデックステーブルの指示とを含み得る構成データを含み得る。
[0096]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。
[0097]いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列のスキャンを実行し得る。代替的に、エントロピー符号化ユニット56がスキャンを実行し得る。
[0098]量子化の後に、エントロピーコーディングユニット56は量子化変換係数をエントロピーコーディングする。たとえば、エントロピーコーディングユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピーコーディング技法を実行し得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。エントロピーコーディングユニット56によるエントロピーコーディングの後に、符号化ビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信されるか、あるいは後で送信するかまたは取り出すためにアーカイブされ得る。
[0099]本開示の技法によれば、エントロピーコーディングユニット56は、深度ブロックをコーディングするために使用されるDMMモードを示すシンタックスデータをエントロピーコーディングするように構成され得る。特に、エントロピーコーディングユニット56は、利用可能なDMMモードの数に基づいて、DMMモードを示すシンタックスデータをコーディングするように構成され得る。たとえば、4×4よりも大きいが、64×64よりも小さい深度ブロックのPUサイズの場合、利用可能なDMMモードの数は、DMMモード3が利用可能でないとき、4から3に変更され得る。エントロピーコーディングユニット56は、DMMモード3が利用可能であるかどうかに基づいて、深度ブロックのためのDMMモードのモードインデックスを2値化するために2値化テーブルを選択し得る。
[0100]たとえば、DMMモード3が利用可能であるとき、エントロピーコーディングユニット56は、4つのエントリを有する2値化テーブルを使用してDMMモードインデックスを2値化し得るが、DMMモード3が利用可能でないとき、エントロピーコーディングユニット56は、3つのインデックスのみを有する2値化テーブルを使用してDMMモードインデックスを2値化し得る。代替的に、エントロピーコーディングユニット56は、DMMモード3が利用可能でないとき、2値化テーブル中のDMMモード4のための2値化値とDMMモード3のための2値化値とをスワップし得る。代替的に、DMMモードのための2値化テーブルは、DMMモード1、2、および4のためのDMMモードインデックスのうちの1つを1つのビット値に2値化し、他の2つのDMMモードのためのDMMモードインデックスをそれぞれの2つのビット値に2値化し得る。代替的に、エントロピーコーディングユニット56は、DMMモード3が利用可能でないとき、モード1、2、および4のモードインデックスを単項コーディングし得る。
[0101]深度ブロックが、4×4またはより小さいサイズを有するとき(あるいは深度ブロックが、場合によっては深度ブロックのサイズに基づいて利用可能な2つのモードのみを有するとき)、エントロピーコーディングユニット56は、DMMモード3が利用可能でないとき、ただ1つのDMMモードが利用可能であると決定し得る。したがって、ただ1つのDMMモードが利用可能な深度ブロックのために、DMMモードが選択された場合、エントロピーコーディングユニット56は、DMMが選択されたとき、DMMモードを示すシンタックス要素のコーディングをスキップし得る。代わりに、エントロピーコーディングユニット56は、DMMがブロックのために選択されたことを示す1ビットフラグをコーディングし得るにすぎず、ビデオデコーダ30などのデコーダは、選択されたDMMモードが、利用可能な1つのDMMモード(たとえば、明示的ウェッジレットまたはDMMモード1)であると推論することができる。
[0102]逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照フレームメモリ64のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するサブ整数ピクセル値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照フレームメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオフレーム中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0103]このようにして、図2のビデオエンコーダ20は、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択することと、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングすることとを行うように構成されたビデオエンコーダの一例を表す。
[0104]図3は、深度マップコーディングのための深度モデリングモードをシグナリングするための技法を実装し得るビデオデコーダ30の一例を示すブロック図である。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、参照フレームメモリ82と、加算器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明した符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0105]復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット70は、量子化係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトルと他の予測シンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0106]ビデオスライスがイントラコーティングされた(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコーディングされた(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照フレームメモリ92に記憶された参照ピクチャに基づいて、デフォルトの構築技法を使用して、参照フレームリスト、すなわち、リスト0とリスト1とを構築し得る。
[0107]本開示の技法によれば、エントロピー復号ユニット70は、深度ブロックをコーディングするために使用されるDMMモードを示すシンタックスデータをエントロピー復号するように構成され得る。特に、エントロピー復号ユニット70は、利用可能なDMMモードの数に基づいて、DMMモードを示すシンタックスデータを復号するように構成され得る。たとえば、4×4よりも大きいが、64×64よりも小さい深度ブロックのPUサイズの場合、利用可能なDMMモードの数は、DMMモード3が利用可能でないとき、4から3に変更され得る。エントロピー復号ユニット70は、復号された2値化値からDMMモード3が利用可能であるかどうかに基づいて、深度ブロックのためのDMMモードのモードインデックスを決定するために2値化テーブルを選択し得る。すなわち、エントロピー復号ユニット70は、シンタックス要素を復号して2値化値を生成し、次いで、その2値化値を使用して、選択された2値化テーブル中のDMMモードインデックス、すなわち、2値化テーブル中でその2値化値がマッピングされたDMMモードインデックスをルックアップし得る。
[0108]たとえば、DMMモード3が利用可能であるとき、エントロピー復号ユニット70は、4つのエントリを有する2値化テーブルを使用し得るが、DMMモード3が利用可能でないとき、エントロピー復号ユニット70は、3つのインデックスのみを有する2値化テーブルを使用し得る。代替的に、エントロピー復号ユニット70は、DMMモード3が利用可能でないとき、2値化テーブル中のDMMモード4のための2値化値とDMMモード3のための2値化値とをスワップし得る。代替的に、DMMモードのための2値化テーブルは、DMMモード1、2、および4のためのDMMモードインデックスのうちの1つを1つのビット2値化値にマッピングし、他の2つのDMMモードのためのDMMモードインデックスをそれぞれの2つのビット2値化値にマッピングし得る。代替的に、エントロピー復号ユニット70は、DMMモード3が利用可能でないとき、モード1、2、および4のモードインデックスを決定するために単項復号を使用し得る。
[0109]深度ブロックが、4×4またはより小さいサイズを有するとき(あるいは深度ブロックが、場合によっては深度ブロックのサイズに基づいて利用可能な2つのモードのみを有するとき)、およびDMMモード3が無効にされたとき、エントロピー復号ユニット70は、ただ1つのDMMモードが利用可能であると決定し得る。したがって、たとえば、1ビットシンタックス要素の値によって示されるように、ただ1つのDMMモードが利用可能である深度ブロックのためにDMMモードが選択された場合、エントロピー復号ユニット70は、選択されたDMMモードが、利用可能な1つのDMMモード(たとえば、明示的ウェッジレットまたはDMMモード1)であると推論し得る。したがって、エントロピー復号ユニット70は、たとえば、深度ブロックのサイズと、DMMモード3が無効にされたことと、(イントラ予測のみではなく)DMMが使用されることを示す復号された値とに基づいて、ただ1つのDMMモードが利用可能であると決定することができるので、エントロピー復号ユニット70は、どのDMMモードが使用されるかを明示的に示すシンタックス要素を受信または復号する必要がない。
[0110]動き補償ユニット72は、動きベクトルと他のシンタックス要素とをパースすることによって現在ビデオスライスのビデオブロックのための予測情報を決定し、その予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット72は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数のための構成情報と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコーティングされたビデオブロックのためのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、受信されたシンタックス要素のいくつかを使用する。
[0111]動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。この場合、動き補償ユニット72は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
[0112]本開示の技法によれば、イントラ予測ユニット74は、深度モデリングモード(DMM)を使用して深度マップの深度ブロックをコーディングするように構成され得る。イントラ予測ユニット74は、最初に、たとえば、図1に関して上記で説明した基準のいずれかまたはすべてに基づいて、DMMモード3など、DMMモードのいずれかが無効にされるべきかどうかを決定し得る。(たとえば、エントロピー復号ユニット70から受信したシンタックス要素によって示されるように)DMMモードが選択され、そのDMMモードが、DMMモード3など、パターンが明示的にシグナリングされるモードでない場合、イントラ予測ユニット74は、たとえば、コロケートテクスチャブロックのイントラ予測モードに基づいてパターンを選択するための本開示の技法を実行し得る。深度マップに対応するテクスチャ画像のためのデータは、参照フレームメモリ82に記憶され得る。動き補償ユニット72はまた、深度マップの深度ブロックをインター予測するように構成され得る。
[0113]逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された、量子化変換係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するための、ビデオスライス中のビデオブロックごとにビデオエンコーダ30によって計算される量子化パラメータQPYの使用を含み得る。
[0114]逆変換ユニット78は、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用して、ピクセル領域において残差ブロックを生成する。
[0115]動き補償ユニット82またはイントラ予測ユニット74が、動きベクトルまたは他のシンタックス要素に基づいて現在ビデオブロック(たとえば、テクスチャブロックまたは深度ブロック)のための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを、動き補償ユニット82またはイントラ予測ユニット74によって生成された対応する予測ブロックと加算することによって復号ビデオブロックを形成する。加算器90は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために、復号ブロックをフィルタ処理するためにデブロッキングフィルタも適用され得る。ピクセル遷移を平滑化するか、またはさもなければビデオ品質を改善するために、(コーディングループ内またはコーディングループ後の)他のループフィルタも使用され得る。所与のフレームまたはピクチャの復号されたビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ92に記憶される。参照フレームメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上での後の表示のために、復号ビデオを記憶する。
[0116]このようにして、図3のビデオデコーダ30は、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択することと、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングすることとを行うように構成されたビデオデコーダの一例を表す。
[0117]図4は、ビデオデータのブロックのための様々な潜在的な方向性イントラ予測モードを示す概念図である。特に、ブロック106は、ビデオデータの(「サンプル」とも呼ばれる)ピクセルの8×8ブロックの一例を表す。イントラ予測は、概して、隣接ピクセル100A〜100AG(隣接ピクセル100)のうちの1つまたは複数など、隣接ピクセルの値を使用してブロック106についての値を予測することを伴う。角度イントラ予測モードとも呼ばれる方向性イントラ予測モードは、矢印102A〜102AG(矢印102)によって表される。概して、角度予測モードでは、図4の例では、ブロック106のピクセルの値を予測するために、隣接ピクセル100のうちの1つまたは複数の値が使用される。
[0118]WD7では、角度イントラ予測モードは、2から34までインデックス付けされる。WD7の例では、角度イントラ予測モードのためのインデックスは、(矢印102Aによって表される角度イントラ予測方向にマッピングされた)2において開始し、矢印102の増加計数(incremental enumeration)と一致して34まで増加的に進む。たとえば、矢印102Bはモード3に対応し、矢印102Cはモード4に対応し、以下同様である。WD7はまた、平面モード(モードインデックス0)とDCモード(モードインデックス1)とフロムルーマ(from-Luma)(モードインデックス3)とを含む、3つの非角度イントラ予測モードを与える。
[0119]概して、矢印102の末端は、値がそこから取り出される隣接ピクセル100のうちの相対的な1つを表すが、矢印102のヘッドは、ブロック106のための予測ブロックを形成するために取り出された値が伝搬される方向を表す。矢印102のための線が通るピクセルは、値が伝搬されるピクセルロケーションを表す。矢印102は、概してブロック106の右下ピクセルに対して角度イントラ予測モードの方向を表し、平行方向は、ブロック106の他のピクセルのために使用され得ることを理解されたい。
[0120]上記で説明したように、いくつかの例では、図4に示された角度イントラ予測モードの各々は、ウェッジレットパターンのセットに関連し得る。たとえば、矢印102Aは、矢印102Aの角度と同様または同等の角度を有するウェッジレットパターンのセットに対応するイントラ予測モードを表し得る。角度イントラ予測モードに関連するウェッジレットパターンのセットは、角度イントラ予測モードの角度に平行な角度、または(たとえば、一定の程度内で)ほぼ平行な角度を有し得る。
[0121]図5Aおよび図5Bは、深度モデリングモードの例を示す概念図である。図5Aは、たとえば、ウェッジレット区分を使用して区分された深度ブロック110を示し、図5Bは、別の例として、輪郭区分を使用して区分された深度ブロック130を示す。3D−HEVCは、深度スライスのイントラ予測ユニットをコーディングするために、イントラ予測モードとともに、ブロックを区分するための深度モデリングモード(DMM)のための技法を含む。HTMバージョン3.1は、場合によっては深度マップ中のより鋭いエッジをより良く表し得る、深度マップのイントラコーディングのためのDMM方法を適用する。
[0122]たとえば、表2に関して上記で説明したように、3D−HEVCは、4つのDMMモード、すなわち、モード1(明示的ウェッジレットシグナリング)と、モード2(イントラ予測ウェッジレット区分)と、モード3(コンポーネント間ウェッジレット区分)と、モード4(コンポーネント間輪郭区分)とを与える。すべての4つのモードでは、ビデオエンコーダ20またはビデオデコーダ30などのビデオコーダは、深度ブロックをDMMパターンによって指定された2つの領域に区分し得、各領域は一定値によって表される。DMMパターンは、明示的にシグナリングされる(モード1)か、空間的に隣接するブロックによって予測される(モード2)か、またはコロケートテクスチャブロックを使用して予測される(モード3およびモード4)かのいずれかであり得る。
[0123]ウェッジレット区分と輪郭区分とを含む、DMMにおいて定義されている2つの区分モデルがある。この場合も、図5Aにウェッジレット区分の一例を示し、図5Bに輪郭区分の一例を示す。深度ブロック110および130内の各個々の正方形は、それぞれ、深度ブロック110および130のそれぞれの個々のピクセルを表す。正方形内の数値は、対応するピクセルが領域112(図5Aの例における値「0」)に属するのか、領域114(図5Aの例における値「1」)に属するのかを表す。また、図5Aにおいて、ピクセルが領域112(白い正方形)に属するのか、領域114(灰色の影つき正方形)に属するのかを示すために陰影が使用される。
[0124]各パターン(すなわち、ウェッジレットと輪郭の両方)は、対応するサンプル(すなわち、ピクセル)が領域P1に属するのかP2に属するのか(ただし、P1は図5A中の領域112と図5B中の領域132とに対応し、P2は図5A中の領域114と図5B中の領域134A、134Bとに対応する)のサイズuB×vB2進数字ラベリングのアレイによって画定され得、uBおよびvBは、それぞれ、現在PUの水平サイズおよび垂直サイズを表す。図5Aおよび図5Bの例では、PUは、それぞれ、ブロック110および130に対応する。ビデオエンコーダ20およびビデオデコーダ30などのビデオコーダは、コーディングの開始、たとえば、符号化の開始または復号の開始時に、ウェッジレットパターンを初期化し得る。
[0125]図5Aの例に示されているように、ウェッジレット区分の場合、深度ブロック110は、(Xs,Ys)に位置する開始点118と(Xe,Ye)に位置する終了点120とをもつ直線116によって2つの領域、すなわち、領域112と領域114とに区分される。図5Aの例では、開始点118は点(8,0)として定義され得、終了点120は点(0,8)として定義され得る。
[0126]図5Bの例に示されているように、輪郭区分の場合、深度ブロック130などの深度ブロックは2つの不規則形状領域に区分され得る。図5Bの例では、深度ブロック130は、領域132と領域134A、134Bとに区分される。領域134A中のピクセルは領域134B中のピクセルに直接隣接しないが、領域134Aおよび134Bは、深度ブロック130のPUを予測する目的で1つの単一の領域を形成するように画定される。輪郭区分は、ウェッジレット区分よりもフレキシブルであるが、シグナリングすることが困難である。DMMモード4では、3D−HEVCの場合、輪郭区分パターンは、コロケートテクスチャブロックの再構成されたルーマサンプルを使用して暗黙的に導出される。
[0127]このようにして、ビデオエンコーダ20およびビデオデコーダ30などのビデオコーダは、深度ブロック110のピクセルが(領域「P1」と呼ばれることもある)領域112に属するのか、(領域「P2」と呼ばれることもある)領域114に属するのかを決定するために、開始点118と終了点120とによって画定された線116を使用し得る。同様に、ビデオコーダは、深度ブロック130のピクセルが(領域「P1」と呼ばれることもある)領域132に属するのか、(領域「P2」と呼ばれることもある)領域134に属するのかを決定するために、図5Bの線136、138を使用し得る。領域「P1」および「P2」は、DMMに従って区分された異なる領域のためのデフォルト命名規則であり、したがって、深度ブロック110の領域P1は、深度ブロック130の領域P1と同じ領域と考えられるべきでない。
[0128]上記のように、DMMの各々は、DMMがウェッジレット区分を使用するのか輪郭区分を使用するのかと、パターンが明示的にシグナリングされるのかまたは暗黙的に決定されるのかとによって定義され得る。本開示の技法によれば、モード3(コンポーネント間ウェッジレット区分)は、いくつかの状況では無効にされ得る。その上、有効にされ、使用されるときに、ウェッジレットパターンは、対応するイントラ予測モードに基づいて決定され得る。
[0129]図6Aおよび図6Bは、深度コンポーネント中の深度ブロックと、対応するテクスチャコンポーネント中のコロケートテクスチャブロックとの例を示す図である。たとえば、図6Aに、テクスチャコンポーネント150と深度コンポーネント154とを示す。深度コンポーネント154は深度ブロック156を含む。深度ブロック156は深度コンポーネント154の単一の予測ユニット(PU)を表し得る。テクスチャコンポーネント150は、そのテクスチャコンポーネント150中の深度コンポーネント154に対応し得、深度コンポーネント154は同じビューに属し、同じ時間インスタンスに対応し得る。すなわち、テクスチャコンポーネント150と深度コンポーネント154とは同じアクセスユニット内に含まれ得る。
[0130]図6Aの例では、深度ブロック156とコロケートされたテクスチャブロック152は、テクスチャコンポーネント150の単一のPUに対応する。上記のように、いくつかの例では、コロケートテクスチャブロックが、イントラコーディングされたPUに完全には属しない限り、DMMモード3(コンポーネント間ウェッジレット区分)は深度ブロックのために無効にされる。そのような例では、テクスチャブロック152がイントラコーディングされた場合、DMMモード3は深度ブロック156のために有効にされ得る。いくつかの例では、DMMモード3が深度ブロック156のために有効にされたとき、およびテクスチャブロック152がイントラコーディングされたとき、テクスチャブロック152のためのイントラ予測モードは、深度ブロック156のためのウェッジレットパターンを予測するために使用され得る。
[0131]図6Bに、テクスチャコンポーネント160が深度コンポーネント166に対応する一例を示す。深度コンポーネント166は深度ブロック168を含み、深度ブロック168は深度コンポーネント166のPUを表す。テクスチャブロック162は深度ブロック168とコロケートされる。しかしながら、テクスチャブロック162は2つのPU164A、164Bに対応する。すなわち、PU164Aおよび164Bは、テクスチャブロック162の別個の重複しない部分を形成する。したがって、テクスチャブロック162は、深度コンポーネント中の深度ブロックとコロケートされたテクスチャブロックの一例を表し、そのテクスチャブロックは、単一のPUに完全には対応しないが、代わりに複数のPUに対応する。
[0132]いくつかの例では、上記で説明したように、深度ブロック168などの深度ブロックが、単一のPUに対応しないテクスチャブロック162などのテクスチャブロックとコロケートされたとき、DMMモード3は無効にされ得る。代替的に、テクスチャブロックが複数のPUに対応し、PUのいずれもがイントラコーディングされないとき、またはPUのうちの少なくとも1つがイントラコーディングされないとき、DMMモード3は無効にされ得る。したがって、一例では、PU164A、164Bのうちの少なくとも1つがイントラコーディングされるとき、または、別の例では、PU164A、164Bの各々がイントラコーディングされるとき、DMMモード3は深度ブロック168のために有効にされ得る。
[0133]図7は、現在の深度ブロックを符号化するための例示的な方法を示すフローチャートである。現在の深度ブロックは、現在CUまたは現在CUの一部分、たとえば、PUに対応する一部分を備え得る。図7の方法は、ビデオエンコーダ20またはビデオデコーダ30など、ビデオコーディングデバイスによって実行され得る。例として、図7の方法についてビデオデコーダ30に関して説明する。本方法には、ビデオエンコーダ20などのビデオエンコーダによって実行されるように、いくつかの変更が行われ得る。変更の例は、以下に言及される。
[0134]この例では、ビデオデコーダ30は、最初にテクスチャコンポーネントをコーディングする(200)。すなわち、ビデオデコーダ30は、テクスチャコンポーネントのブロックのためにシグナリングされたシンタックス情報に基づいて、テクスチャコンポーネントの各ブロックを復号する。本方法がビデオエンコーダ20によって実行されるとき、ビデオエンコーダ20は、テクスチャコンポーネントの各ブロックについてどのコーディングモードを使用すべきかを決定し、ブロックのための選択されたコーディングモードを示すブロックについてのシンタックス情報をシグナリングし得る。
[0135]ビデオデコーダ30は、次いで、深度コンポーネントの現在の深度ブロックを取得する(202)。この例では、現在の深度ブロックは、深度コンポーネントの任意の深度ブロックであり得る。深度コンポーネントは、深度コンポーネントに対応し、たとえば、同じ時間ロケーションと同じビューとに対応する。ビデオデコーダ30は、次いで、現在の深度ブロックとコロケートされたテクスチャコンポーネントのテクスチャブロックを決定する(204)。
[0136]ビデオデコーダ30は、次いで、現在の深度ブロックのためのDMMモード3(DMMコンポーネント間ウェッジレットモード)を有効にすべきかどうかを決定する(206)。ビデオデコーダ30は、たとえば、コロケートテクスチャブロックが、イントラコーディングされるかどうか、DCモードと平面モードと以外のモードを使用してイントラコーディングされるかどうか、単一のPUに属するのか複数のPUに属するのか、コロケートテクスチャブロックの左上4×4ブロックのためのコーディングモードなどに基づいて、現在の深度ブロックのためのDMMモード3を有効にすべきかどうかを決定するために本開示の技法のいずれかを使用し得る。
[0137]ビデオデコーダ30は、次いで、DMMモード3が有効にされるかどうかの決定に基づいて現在の深度ブロックのためのコーディングモードを選択する(208)。DMMモード3が無効にされたとき、ビデオデコーダ30は、DMMモード3を選択しないように構成される。ビデオデコーダ30は、暗黙的および/または明示的基準に基づいてコーディングモードを選択し得る。たとえば、ビデオデコーダ30は、(現在の深度ブロックのサイズに基づいて)利用可能なDMMモードの数を、たとえば、4から3に、または2から1に低減するか、あるいは様々なDMMモードに割り当てられた2値化されたコードワードのための2値化テーブルを変更し得る。
[0138]ビデオデコーダ30は、次いで、DMMモードが現在の深度ブロックのために選択されたかどうかを決定する(210)。DMMモードが選択されなかった場合(210の「NO」ブランチ)、ビデオデコーダ30は、続いて、選択されたモードを使用して現在の深度ブロックをコーディングする(214)。代替的に、DMMモードが選択された場合(210の「YES」ブランチ)、ビデオデコーダ30は、さらに、選択されたDMMモードのためのDMM区分パターンを決定する(212)。たとえば、選択されたモードは、DMM区分がウェッジレット区分であるのか輪郭区分であるのかと、その区分が暗黙的にシグナリングされるのか明示的にシグナリングされるのかとを示し得る。
[0139]さらに、DMMモード3が有効にされ、選択された場合、ビデオデコーダ30は、コロケートテクスチャブロックのイントラ予測モードに基づいて区分パターンを決定し得る。すなわち、ビデオデコーダ30は、対応するテクスチャコンポーネント中のコロケートテクスチャブロックをコーディングするために使用されたイントラ予測モードに基づいて、現在の深度ブロックのためのウェッジレットパターンを予測し得る。たとえば、各イントラ予測モードは、正確に1つのウェッジレットパターンにマッピングされ得る。代替的に、各イントラ予測モードはウェッジレットパターンのセットにマッピングされ得、ビデオデコーダ30は、ウェッジレットパターンのセットのうちの適切な1つを決定するために、コロケートテクスチャブロックのためのイントラ予測モードがマッピングされたセット中のウェッジレットパターンの各々を分析するように構成され得る。DMM区分パターンを決定した後に、ビデオデコーダ30は、続いて、選択されたモードと決定された区分パターとを使用して現在の深度ブロックをコーディングする(214)。
[0140]上記で説明したように、ビデオデコーダ30によって実行されるとき、現在の深度ブロックをコーディングすることは、現在の深度ブロックを復号することを備える。すなわち、ビデオデコーダ30は、選択されたコーディングモードに基づいて現在の深度ブロックのための予測されたブロックを形成し、次いで、現在の深度ブロックのための1つまたは複数の変換ユニットの変換係数を復号し得る。ビデオデコーダ30は、次いで、変換係数を逆変換して残差ブロックを生成し得、ビデオデコーダ30は、その残差ブロックを予測されたブロックと組み合わせて、現在の深度ブロックについての元の値を再生し得る。代替的に、ビデオエンコーダ20によって実行されるとき、現在の深度ブロックをコーディングすることは、現在の深度ブロックを符号化することを備え得、現在の深度ブロックを符号化することは、現在の深度ブロック自体の値から現在の深度ブロックのための予測されたブロックの値を減算して残差ブロックを形成することと、次いで残差ブロックの値を変換して変換係数を生成することと、次いで変換係数を量子化およびエントロピー符号化することとを含み得る。
[0141]このようにして、図7の方法は、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、テクスチャブロックの少なくとも一部分が、イントラ予測コーディングされないテクスチャコンポーネントの予測ユニットに対応するとき、深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の深度ブロックのためのイントラ予測コーディングモードを選択することと、選択されたイントラ予測コーディングモードを使用して深度ブロックをコーディングすることとを含む方法の一例を表す。
[0142]図8は、たとえば、ビデオデコーダ30によってビットストリームを復号するための例示的な方法を示すフローチャートである。逆の方法はビデオエンコーダ20によって実行され得る。ビデオデコーダ30は、この例では、深度ブロックがコンポーネント間ウェッジレットモードを用いてコーディングされるとき、コロケートテクスチャPUが角度イントラ予測モードを使用してコーディングされるという制約に従い得る。すなわち、図8の例の場合、上記で説明したように、DMMモード3(コンポーネント間ウェッジレットモード)は、コロケートテクスチャブロックが、角度イントラ予測モードを使用してコーディングされる単一のPUに対応するときのみ利用可能であり得る。
[0143]図8の例では、ビデオデコーダ30は、1つのビットストリームの復号プロセスの最初にウェッジレットパターンを作成する(230)。その後、ビデオデコーダ30は、各イントラ予測モードのためのウェッジレットパターンのリストを作成する(232)。一例では、各角度イントラ予測モードTexIntraModeについて、ビデオデコーダ30はリストWdgIdxLst[TexIntraMode]を構成し得る。たとえば、TexIntraModeの値とあらかじめ定義されたしきい値パラメータtrとを使用して、ビデオデコーダ30は、(値idxWによってインデックス付けされた)各ウェッジレットパターンについて、イントラ予測モードへのインデックスであるインデックス値idxMを決定し得る。trの値は、たとえば、1、0.5、4、または別の値であり得る。いくつかの例では、ビデオエンコーダ20はtrの値を選択し、ビデオデコーダ30が使用するtrの値をシグナリングし得る。ビデオデコーダ30は、((|IdxM−TexIntraMode|≦tr)AND(idxW>1)AND(idxWがWdgIdxLst[TexIntraMode]のメンバーでない))場合、idxWをリストWdgIdxLst[TexIntraMode]に加算するという分析に従って、idxWによって表されるウェッジレットパターンを、idxMによってインデックス付けされたイントラ予測モードのためのウェッジレットパターンのリストに加算すべきかどうかを決定し得る。
[0144]一例では、各々について、ビデオデコーダ30は、作成されたウェッジレットパターンを反復し、ウェッジレットパターンの各々について、現在ウェッジレットパターンのためのインデックス値を決定し得る。ビデオデコーダ30は、次いで、現在ウェッジレットパターンのための開始点(Xs,Ys)と終了点(Xe,Ye)との座標を取り出し得る。次いで、(3D−HEVCの例における)2から34までの各イントラ予測モードiについて、ビデオデコーダ30は、表1を表す、メモリに記憶されたデータ構造から(Hi,Vi)を取得し得る。その上、ビデオデコーダ30は、たとえば、以下の式(1)に従って、各イントラ予測モードのための値D[i]を計算し得る。
Figure 0006046246
[0145]ビデオデコーダ30は、次いで、値idxOptを−1に等しく設定し、値MinValueを16384(または任意のiと任意のウェッジレットパターンとについて、D[i]のいかなる考えられる値よりも常に大きい別の大きい整数値)に等しく設定し得る。2から34までの各iについて、D[i]がMinValueよりも小さい場合、ビデオデコーダ30は、MinValueをD[i]に等しく設定し、idxOptをiに設定し得る。ビデオデコーダ30はidxOptの最終値を生成するためにイントラ予測モードを反復し続け得、ビデオデコーダ30は、上記で説明したように、ウェッジレットパターンidxWを、idxOptによって表されるイントラ予測モードのためのウェッジレットパターンのセットに加算すべきかどうかを決定するためにidxOptの最終値を使用し得る。
[0146]各イントラ予測モードのためのウェッジレットパターンのリストを作成した後に、ビデオデコーダ30は、すべてのアクセスユニットが復号されるまで、ビットストリームの各アクセスユニットを1つずつ復号し得る。特に、ビデオデコーダ30は、現在アクセスユニットを取り出すために、ビットストリームをパースする(234)。ビデオデコーダ30は、次いで、現在アクセスユニットのテクスチャコンポーネントと深度コンポーネントの両方を復号する(236)。ビデオデコーダ30は、次いで、ビットストリーム中により多くのアクセスユニットがあるかどうかを決定する(238)。ビットストリーム中により多くのアクセスユニットがある場合(238の「YES」ブランチ)、ビデオデコーダ30はビットストリームをパースし(234)、次のアクセスユニットを復号し(236)続け得る。場合によっては、ビットストリーム中により多くのアクセスユニットがない場合(238の「NO」ブランチ)、復号プロセスは終了し得る。
[0147]図9は、本開示の技法による、深度ブロックを復号するための例示的な方法を示すフローチャートである。図9の方法は、ビデオデコーダ30によって実行され得る。同様の逆の方法は、ビデオエンコーダ20によって実行され得る。この例では、ビデオデコーダ30は、最初に、深度ブロックが深度モデリングモード(DMM)を使用してコーディングされるのか、イントラ予測モードを使用してコーディングされるのかを表す、深度ブロックのための値をコーディングする(250)。たとえば、ビデオデコーダ30は、現在の深度PUが従来のイントラ予測モードを使用して復号されるべきか、DMMモードを使用して復号されるべきかを確認するために1ビットフラグをパースし得る。現在の深度ブロックがDMMモードを使用してコーディングされないことを値が示す場合(252の「NO」ブランチ)、ビデオデコーダ30は、シグナリングされたイントラ予測モードを使用して深度ブロックをコーディングする(254)。
[0148]一方、現在の深度ブロックがDMMモードを使用してコーディングされることを値が示す場合(252の「YES」ブランチ)、ビデオデコーダ30は、選択されたDMMモードインデックスを示すDMMモードインデックス値(MIDX:mode index)をパースする(256)。MIDX値がDMMモード3(コンポーネント間ウェッジレットモード)に対応しない場合(258の「NO」ブランチ)、ビデオデコーダ30は、MIDXによって示されるDMMモードを使用して現在の深度ブロックをコーディングする(260)。シグナリングされたDMMモードを使用してコーディングするこのプロセスは、DMMモード3以外のモードの場合、概して、3D−HEVCの技法の場合と同じままであり得る。
[0149]しかしながら、MIDX値がDMMモード3に対応する場合(258の「YES」ブランチ)、ビデオデコーダ30は、本開示の技法に従って現在の深度ブロックをコーディングするために使用すべきウェッジレットパターンインデックス(WPIDX:Wedgelet pattern index)値を導出する(262)。たとえば、ビデオデコーダ30は、WPIDXの値を導出するために、以下のプロセスを実行し得る。最初に、ビデオデコーダ30は、値TexIntraModeを、現在の深度ブロックのためのコロケートルーマテクスチャブロックのイントラ予測モードに対応するように設定し得る。次に、ビデオデコーダ30は、コロケートルーマテクスチャブロックのイントラ予測モードに基づいて、ウェッジレットパターンへのインデックスのリストを決定し得る。すなわち、ビデオデコーダ30はWdgIdxLst[TexIntraMode]を決定し得る。ビデオデコーダ30は、次いで、WdgIdxLst[TexIntraMode]によって定義されるリストの中からウェッジレットパターンを決定するために探索プロセスを実行し得る。
[0150]探索プロセスは、以下のようであり得る。ビデオデコーダ30は、リストからウェッジレットパターンを取得し、「0」によって標示されるウェッジレットパターン中の構成要素に対応するコロケートルーマテクスチャブロック中の構成要素の平均値を、P1のための平均値として計算し得る。ビデオデコーダ30はまた、「1」によって標示されるウェッジレットパターン中の構成要素に対応するコロケートテクスチャブロック中の構成要素の平均値を、P2のための平均値として計算し得る。ビデオデコーダ30は、次いで、コロケートルーマテクスチャブロックのサイズと同じサイズをもつ予測ブロックPを生成し得、Pの各構成要素について、構成要素は、ウェッジレットパターン中の対応する構成要素が「0」によって標示される場合、「P1」として評価され、さもなければ、構成要素は「P2」として評価される。ビデオデコーダ30は、次いで、ルーマテクスチャブロックの各構成要素と予測ブロックPの各構成要素との間の2乗差分和をDとして計算し得る。DがMinValueWedgeletよりも小さい場合、ビデオデコーダ30はMinValueをDに設定し、idxOptをWdgIdxに設定し得る。ビデオデコーダ30は、WdgIdxLst[TexIntraMode]中の各ウェッジレットパターンについてこの探索プロセスを反復的に実行し得る。最終的に、ビデオデコーダ30は、探索プロセスの終了時に、ウェッジレットパターンがidxOptに対応するウェッジレットパターンであると決定し得る。
[0151]代替的に、別の例では、上記で説明したウェッジレットリストの初期作成はスキップされ得、以下の探索プロセスが実行され得る。ビデオデコーダ30は、代わりに、最初に値idxWを0に等しく設定し、idxOptを−1に等しく設定し、MinValueを16384(または別の適切に高い値の整数)に等しく設定し得る。ビデオデコーダ30は、次いで、コロケートルーマテクスチャブロックのイントラ予測モードをidxTとして決定し、あらかじめ定義されたしきい値trを取得し得る。
[0152]idxWによってインデックス付けされた各ウェッジレットパターンについて、ビデオデコーダ30は、イントラ予測モードに戻されたインデックスとしてインデックスidxMを用いて、上記で説明したマッピングプロセスを実行し得る。|idxM−idxT|<trおよびidxM>1の場合、以下が適用され得る。ビデオデコーダ30は、ウェッジレットパターン中の対応する構成要素が「0」によって標示されるコロケートルーマテクスチャブロック中の構成要素の平均値をP1として計算し得、ウェッジレットパターン中の対応する構成要素が「1」と標示されるコロケートルーマテクスチャブロック中の構成要素の平均値をP2として計算し得る。ビデオデコーダ30は、次いで、コロケートルーマテクスチャブロックのサイズと同じサイズをもつ予測ブロックPを生成し得、Pの各構成要素について、構成要素は、ウェッジレットパターン中の対応する構成要素が「0」によって標示される場合、「P1」として評価され、さもなければ、構成要素は「P2」として評価される。ビデオデコーダ30は、次いで、ルーマテクスチャブロックの各構成要素と予測ブロックPの各構成要素との間の2乗差分和をDとして計算し得る。DがMinValueよりも小さい場合、ビデオデコーダ30はMinValueをDに設定し、idxOptをidxWに設定し得る。ビデオデコーダ30は、WdgIdxLst[TexIntraMode]中の各ウェッジレットパターンについてこの探索プロセスを反復的に実行し得る。最終的に、ビデオデコーダ30は、探索プロセスの終了時に、ウェッジレットパターンがidxOptに対応するウェッジレットパターンであると決定し得る。
[0153]ビデオデコーダ30は、次いで、ステップ262から決定されるWPIDXに基づいて、DMMモード3とウェッジレットパターン(WP)とを使用して現在の深度ブロックをコーディングする(264)。すなわち、ビデオデコーダ30は、idxOptによって識別されるウェッジレットパターンを使用して、コンポーネント間ウェッジレットモードをもつ現在の深度ブロックを復号し得る。この復号プロセスは、現在の3D−HEVCの復号プロセスに実質的に従い得る。しかしながら、DMMモードを決定するプロセスと、DMMモード3が選択されるときにウェッジレットパターンを決定するプロセスとは、本開示の技法に従い得ることに留意されたい。
[0154]図8および図9に関して上記で説明した例は、コロケートルーマテクスチャブロックのイントラ予測モードを使用するものとして説明された。しかしながら、他の例では、完全なコロケートテクスチャブロックのためのイントラ予測モードではなく、コロケートルーマテクスチャブロックの左上4×4ブロックをコーディングするために使用されるイントラ予測モードは決定され得ることを理解されたい。これは、コロケートテクスチャブロックが複数のPUに対応するときでも、コロケートテクスチャブロックのPUのうちの少なくとも1つがイントラ予測コーディングされないときでも、DMMモード3が深度ブロックをコーディングするために使用されることを可能にし得る。コロケートルーマテクスチャブロックの左上4×4ブロックがイントラ予測コーディングされないとき、DMMモード3は無効にされ得る。
[0155]例によっては、本明細書で説明した技法のうちいずれかの、いくつかの作用またはイベントは、異なるシーケンスで実行され得、追加、マージ、または完全に除外され得る(たとえば、すべての説明した作用またはイベントが、本技法の実施のために必要であるとは限らない)ことを認識されたい。さらに、いくつかの例では、行為またはイベントは、連続してではなくむしろ、同時に、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通して実行され得る。
[0156]1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0157]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu−rayディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0158]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明した技法の実装に好適な他の構造のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[0159]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0160]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を備える、方法。
[C2]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C1]に記載の方法。
[C3]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C4]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C3]に記載の方法。
[C5]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C6]
前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
[C1]に記載の方法。
[C7]
前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
[C1]に記載の方法。
[C8]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C9]
複数の方向性イントラ予測モードの各々がそれぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードが前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを備える、
[C8]に記載の方法。
[C10]
複数の方向性イントラ予測モードの各々がウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを備える、
[C8]に記載の方法。
[C11]
前記ウェッジレットパターンを予測することが前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
[C8]に記載の方法。
[C12]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C8]に記載の方法。
[C13]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C8]に記載の方法。
[C14]
前記ウェッジレットパターンを予測することは、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
[C13]に記載の方法。
[C15]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記方法は、
前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすることをさらに備える、
[C1]に記載の方法。
[C16]
前記深度ブロックのための利用可能な深度モデリングモードの前記数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C15]に記載の方法。
[C17]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
[C16]に記載の方法。
[C18]
前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
[C15]に記載の方法。
[C19]
前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、シングルビットを備える、
[C15]に記載の方法。
[C20]
前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、単項2値化値を備える、
[C15]に記載の方法。
[C21]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記方法は、
単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C22]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C21]に記載の方法。
[C23]
前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることをさらに備える、
[C21]に記載の方法。
[C24]
前記深度ブロックをコーディングすることは、前記深度ブロックを復号することを備え、前記深度ブロックを復号することは、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
を備える、[C1]に記載の方法。
[C25]
前記深度ブロックをコーディングすることは、前記深度ブロックを符号化することを備え、前記深度ブロックを符号化することは、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
前記残差ブロックの値を符号化することと
を備える、[C1]に記載の方法。
[C26]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成されたビデオコーダを備える、
デバイス。
[C27]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C26]に記載のデバイス。
[C28]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を行うように構成された、[C26]に記載のデバイス。
[C29]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C28]に記載のデバイス。
[C30]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成された、
[C26]に記載のデバイス。
[C31]
前記ビデオコーダは、前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
[C26]に記載のデバイス。
[C32]
前記ビデオコーダは、前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
[C26]に記載のデバイス。
[C33]
前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
[C26]に記載のデバイス。
[C34]
複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するように構成された、
[C33]に記載のデバイス。
[C35]
複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするように構成された、
[C33]に記載のデバイス。
[C36]
前記ウェッジレットパターンを予測するために、前記ビデオコーダが前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
[C33]に記載のデバイス。
[C37]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C33]に記載のデバイス。
[C38]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C33]に記載のデバイス。
[C39]
前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
[C38]に記載のデバイス。
[C40]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記ビデオコーダは、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするように構成された、
[C26]に記載のデバイス。
[C41]
前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C40]に記載のデバイス。
[C42]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードは、3つの深度モデリングモードを備える、
[C41]に記載のデバイス。
[C43]
前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
[C40]に記載のデバイス。
[C44]
前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、シングルビットを備える、
[C40]に記載のデバイス。
[C45]
前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、単項2値化値を備える、
[C40]に記載のデバイス。
[C46]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記ビデオコーダは、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
[C26]に記載のデバイス。
[C47]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C46]に記載のデバイス。
[C48]
前記ビデオコーダは、前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値のコーディングをスキップするようにさらに構成された、
[C46]に記載のデバイス。
[C49]
前記ビデオコーダは、ビデオデコーダを備え、前記深度ブロックをコーディングするために、前記ビデオデコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することとを行うように構成された、
[C26]に記載のデバイス。
[C50]
前記ビデオコーダは、ビデオエンコーダを備え、前記深度ブロックをコーディングするために、前記ビデオエンコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、前記残差ブロックの値を符号化することとを行うように構成された、
[C26]に記載のデバイス。
[C51]
前記デバイスは、
集積回路と、
マイクロプロセッサと、
前記ビデオコーダを含むワイヤレス通信デバイスと
のうちの少なくとも1つを備える、[C26]に記載のデバイス。
[C52]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
を備える、デバイス。
[C53]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C52]に記載のデバイス。
[C54]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C55]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C54]に記載のデバイス。
[C56]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C57]
前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
[C52]に記載のデバイス。
[C58]
前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
[C52]に記載のデバイス。
[C59]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測するための手段と、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C60]
複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するための手段を備える、
[C59]に記載のデバイス。
[C61]
複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするための手段を備える、
[C59]に記載のデバイス。
[C62]
前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するための手段を備える、
[C59]に記載のデバイス。
[C63]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C59]に記載のデバイス。
[C64]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C59]に記載のデバイス。
[C65]
前記ウェッジレットパターンを予測することは、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
[C64]に記載のデバイス。
[C66]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするための手段をさらに備える、
[C52]に記載のデバイス。
[C67]
前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C66]に記載のデバイス。
[C68]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
[C67]に記載のデバイス。
[C69]
前記利用可能な深度モデリングモードがコンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングするための手段を備える、
[C66]に記載のデバイス。
[C70]
前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、シングルビットを備える、
[C66]に記載のデバイス。
[C71]
前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、単項2値化値を備える、
[C66]に記載のデバイス。
[C72]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定するための手段と、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C73]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C72]に記載のデバイス。
[C74]
前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップするための手段をさらに備える、
[C72]に記載のデバイス。
[C75]
前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを復号するための手段を備え、前記深度ブロックを復号するための前記手段は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
前記深度ブロックのための少なくとも1つの残差ブロックを計算するための手段と、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算するための手段と
を備える、[C52]に記載のデバイス。
[C76]
前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを符号化するための手段を備え、前記深度ブロックを符号化するための前記手段は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算するための手段と、
前記残差ブロックの値を符号化するための手段と
を備える、[C52]に記載のデバイス。
[C77]
実行されたとき、ビデオデータをコーディングするためのデバイスのプロセッサに、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C78]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C79]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C80]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C79]に記載のコンピュータ可読記憶媒体。
[C81]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C82]
前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C83]
前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C84]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C85]
複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを前記プロセッサに行わせる命令を備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C86]
複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードは、マッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを前記プロセッサに行わせる命令を備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C87]
前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C88]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C89]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C90]
前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
[C89]に記載のコンピュータ可読記憶媒体。
[C91]
前記コンピュータ可読記憶媒体は、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、
前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすること
を前記プロセッサに行わせる命令をさらに備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C92]
前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C91]に記載のコンピュータ可読記憶媒体。
[C93]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
[C92]に記載のコンピュータ可読記憶媒体。
[C94]
前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを前記プロセッサに行わせる命令を備える、
[C91]に記載のコンピュータ可読記憶媒体。
[C95]
前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、シングルビットを備える、
[C91]に記載のコンピュータ可読記憶媒体。
[C96]
前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、単項2値化値を備える、
[C91]に記載のコンピュータ可読記憶媒体。
[C97]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、
単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C98]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C97]に記載のコンピュータ可読記憶媒体。
[C99]
前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることを前記プロセッサに行わせる命令をさらに備える、
[C97]に記載のコンピュータ可読記憶媒体。
[C100]
前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを復号することを前記プロセッサに行わせる命令を備え、前記深度ブロックを復号することを前記プロセッサに行わせる前記命令は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
を前記プロセッサに行わせる命令を備える、[C77]に記載のコンピュータ可読記憶媒体。
[C101]
前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを符号化することを前記プロセッサに行わせる命令を備え、前記深度ブロックを符号化することを前記プロセッサに行わせる前記命令は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
前記残差ブロックの値を符号化することと
を前記プロセッサに行わせる命令を備える、[C77]に記載のコンピュータ可読記憶媒体。
[C102]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、
前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、
前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングすることと
を備える、方法。
[C103]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C102]に記載の方法。
[C104]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングすることと
を行うように構成されたビデオコーダを備える、デバイス。
[C105]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C104]に記載のデバイス。
[C106]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、
前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定するための手段と、
前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定するための手段と、
前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングするための手段と
を備える、デバイス。
[C107]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C106]に記載のデバイス。
[C108]
実行されたとき、プロセッサに、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、
前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、
前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングすることと
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C109]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C108]に記載のコンピュータ可読記憶媒体。

Claims (101)

  1. ビデオデータをコーディングする方法であって、前記方法は、
    ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
    前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
    前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
    前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    を備える、方法。
  2. イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項1に記載の方法。
  3. 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
    前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
    前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
    前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    をさらに備える、請求項1に記載の方法。
  4. イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項3に記載の方法。
  5. 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
    前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
    前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
    前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    をさらに備える、請求項1に記載の方法。
  6. 前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
    請求項1に記載の方法。
  7. 前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
    請求項1に記載の方法。
  8. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
    前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
    をさらに備える、請求項1に記載の方法。
  9. 複数の方向性イントラ予測モードの各々がそれぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードが前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを備える、
    請求項8に記載の方法。
  10. 複数の方向性イントラ予測モードの各々がウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを備える、
    請求項8に記載の方法。
  11. 前記ウェッジレットパターンを予測することは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
    請求項8に記載の方法。
  12. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
    請求項8に記載の方法。
  13. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
    請求項8に記載の方法。
  14. 前記ウェッジレットパターンを予測することは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
    請求項13に記載の方法。
  15. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記方法は、
    前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすることをさらに備える、
    請求項1に記載の方法。
  16. 前記深度ブロックのための利用可能な深度モデリングモードの前記数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
    請求項15に記載の方法。
  17. 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
    請求項16に記載の方法。
  18. 前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
    請求項15に記載の方法。
  19. 前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、シングルビットを備える、
    請求項15に記載の方法。
  20. 前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、単項2値化値を備える、
    請求項15に記載の方法。
  21. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記方法は、
    単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
    前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
    をさらに備える、請求項1に記載の方法。
  22. 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
    請求項21に記載の方法。
  23. 前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることをさらに備える、
    請求項21に記載の方法。
  24. 前記深度ブロックをコーディングすることは、前記深度ブロックを復号することを備え、前記深度ブロックを復号することは、
    前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
    前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
    前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
    を備える、請求項1に記載の方法。
  25. 前記深度ブロックをコーディングすることは、前記深度ブロックを符号化することを備え、前記深度ブロックを符号化することは、
    前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
    前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
    前記残差ブロックの値を符号化することと
    を備える、請求項1に記載の方法。
  26. ビデオデータをコーディングするためのデバイスであって、前記デバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成されたビデオコーダを備える、
    デバイス。
  27. イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項26に記載のデバイス。
  28. 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    を行うように構成された、請求項26に記載のデバイス。
  29. イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項28に記載のデバイス。
  30. 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成された、
    請求項26に記載のデバイス。
  31. 前記ビデオコーダは、前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
    請求項26に記載のデバイス。
  32. 前記ビデオコーダは、前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
    請求項26に記載のデバイス。
  33. 前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
    請求項26に記載のデバイス。
  34. 複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するように構成された、
    請求項33に記載のデバイス。
  35. 複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするように構成された、
    請求項33に記載のデバイス。
  36. 前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
    請求項33に記載のデバイス。
  37. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
    請求項33に記載のデバイス。
  38. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
    請求項33に記載のデバイス。
  39. 前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
    請求項38に記載のデバイス。
  40. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記ビデオコーダは、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするように構成された、
    請求項26に記載のデバイス。
  41. 前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
    請求項40に記載のデバイス。
  42. 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードは、3つの深度モデリングモードを備える、
    請求項41に記載のデバイス。
  43. 前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
    請求項40に記載のデバイス。
  44. 前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、シングルビットを備える、
    請求項40に記載のデバイス。
  45. 前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、単項2値化値を備える、
    請求項40に記載のデバイス。
  46. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記ビデオコーダは、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
    請求項26に記載のデバイス。
  47. 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
    請求項46に記載のデバイス。
  48. 前記ビデオコーダは、前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値のコーディングをスキップするようにさらに構成された、
    請求項46に記載のデバイス。
  49. 前記ビデオコーダは、ビデオデコーダを備え、前記深度ブロックをコーディングするために、前記ビデオデコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することとを行うように構成された、
    請求項26に記載のデバイス。
  50. 前記ビデオコーダは、ビデオエンコーダを備え、前記深度ブロックをコーディングするために、前記ビデオエンコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、前記残差ブロックの値を符号化することとを行うように構成された、
    請求項26に記載のデバイス。
  51. 前記デバイスは、
    集積回路と、
    マイクロプロセッサと、
    前記ビデオコーダを含むワイヤレス通信デバイスと
    のうちの少なくとも1つを備える、請求項26に記載のデバイス。
  52. ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
    ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択するための手段と、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
    を備える、デバイス。
  53. イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項52に記載のデバイス。
  54. 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
    前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
    前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
    をさらに備える、請求項52に記載のデバイス。
  55. イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項54に記載のデバイス。
  56. 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
    前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
    前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
    をさらに備える、請求項52に記載のデバイス。
  57. 前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
    請求項52に記載のデバイス。
  58. 前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
    請求項52に記載のデバイス。
  59. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択するための手段と、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測するための手段と、
    前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングするための手段と
    をさらに備える、請求項52に記載のデバイス。
  60. 複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するための手段を備える、
    請求項59に記載のデバイス。
  61. 複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするための手段を備える、
    請求項59に記載のデバイス。
  62. 前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するための手段を備える、
    請求項59に記載のデバイス。
  63. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
    請求項59に記載のデバイス。
  64. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
    請求項59に記載のデバイス。
  65. 前記ウェッジレットパターンを予測することは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
    請求項64に記載のデバイス。
  66. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするための手段をさらに備える、
    請求項52に記載のデバイス。
  67. 前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
    請求項66に記載のデバイス。
  68. 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
    請求項67に記載のデバイス。
  69. 前記利用可能な深度モデリングモードがコンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングするための手段を備える、
    請求項66に記載のデバイス。
  70. 前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、シングルビットを備える、
    請求項66に記載のデバイス。
  71. 前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、単項2値化値を備える、
    請求項66に記載のデバイス。
  72. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定するための手段と、
    前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングするための手段と
    をさらに備える、請求項52に記載のデバイス。
  73. 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
    請求項72に記載のデバイス。
  74. 前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップするための手段をさらに備える、
    請求項72に記載のデバイス。
  75. 前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを復号するための手段を備え、前記深度ブロックを復号するための前記手段は、
    前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
    前記深度ブロックのための少なくとも1つの残差ブロックを計算するための手段と、
    前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算するための手段と
    を備える、請求項52に記載のデバイス。
  76. 前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを符号化するための手段を備え、前記深度ブロックを符号化するための前記手段は、
    前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
    前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算するための手段と、
    前記残差ブロックの値を符号化するための手段と
    を備える、請求項52に記載のデバイス。
  77. 実行されたとき、ビデオデータをコーディングするためのデバイスのプロセッサに、
    ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
    前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
    前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
    前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    を行わせる命令を記憶したコンピュータ可読記憶媒体。
  78. イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項77に記載のコンピュータ可読記憶媒体。
  79. 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
    前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
    前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
    前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。
  80. イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
    請求項79に記載のコンピュータ可読記憶媒体。
  81. 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
    前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
    前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
    前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
    を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。
  82. 前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
    請求項77に記載のコンピュータ可読記憶媒体。
  83. 前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
    請求項77に記載のコンピュータ可読記憶媒体。
  84. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
    前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
    前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
    を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。
  85. 複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを前記プロセッサに行わせる命令を備える、
    請求項84に記載のコンピュータ可読記憶媒体。
  86. 複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードは、マッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを前記プロセッサに行わせる命令を備える、
    請求項84に記載のコンピュータ可読記憶媒体。
  87. 前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
    請求項84に記載のコンピュータ可読記憶媒体。
  88. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
    請求項84に記載のコンピュータ可読記憶媒体。
  89. 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
    請求項84に記載のコンピュータ可読記憶媒体。
  90. 前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
    請求項89に記載のコンピュータ可読記憶媒体。
  91. 前記コンピュータ可読記憶媒体は、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、
    前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすること
    を前記プロセッサに行わせる命令をさらに備える、
    請求項77に記載のコンピュータ可読記憶媒体。
  92. 前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
    請求項91に記載のコンピュータ可読記憶媒体。
  93. 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
    請求項92に記載のコンピュータ可読記憶媒体。
  94. 前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを前記プロセッサに行わせる命令を備える、
    請求項91に記載のコンピュータ可読記憶媒体。
  95. 前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、シングルビットを備える、
    請求項91に記載のコンピュータ可読記憶媒体。
  96. 前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、単項2値化値を備える、
    請求項91に記載のコンピュータ可読記憶媒体。
  97. 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、
    単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
    前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
    を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。
  98. 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
    請求項97に記載のコンピュータ可読記憶媒体。
  99. 前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることを前記プロセッサに行わせる命令をさらに備える、
    請求項97に記載のコンピュータ可読記憶媒体。
  100. 前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを復号することを前記プロセッサに行わせる命令を備え、前記深度ブロックを復号することを前記プロセッサに行わせる前記命令は、
    前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
    前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
    前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
    を前記プロセッサに行わせる命令を備える、請求項77に記載のコンピュータ可読記憶媒体。
  101. 前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを符号化することを前記プロセッサに行わせる命令を備え、前記深度ブロックを符号化することを前記プロセッサに行わせる前記命令は、
    前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
    前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
    前記残差ブロックの値を符号化することと
    を前記プロセッサに行わせる命令を備える、請求項77に記載のコンピュータ可読記憶媒体。
JP2015518751A 2012-07-02 2012-07-09 3dビデオコーディングのための深度マップのイントラコーディング Expired - Fee Related JP6046246B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261667400P 2012-07-02 2012-07-02
US61/667,400 2012-07-02
PCT/CN2012/000942 WO2014005248A1 (en) 2012-07-02 2012-07-09 Intra-coding of depth maps for 3d video coding

Publications (2)

Publication Number Publication Date
JP2015525988A JP2015525988A (ja) 2015-09-07
JP6046246B2 true JP6046246B2 (ja) 2016-12-14

Family

ID=49881209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015518751A Expired - Fee Related JP6046246B2 (ja) 2012-07-02 2012-07-09 3dビデオコーディングのための深度マップのイントラコーディング

Country Status (4)

Country Link
US (1) US9900619B2 (ja)
JP (1) JP6046246B2 (ja)
CN (1) CN104396250B (ja)
WO (1) WO2014005248A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2873240A1 (en) * 2012-07-13 2015-05-20 Huawei Technologies Co., Ltd. Apparatus for coding a bit stream representing a three-dimensional video
JP6069923B2 (ja) * 2012-07-20 2017-02-01 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置
JP6787667B2 (ja) * 2012-09-21 2020-11-18 ノキア テクノロジーズ オサケユイチア ビデオコーディングのための方法と装置
KR102216585B1 (ko) * 2013-01-04 2021-02-17 삼성전자주식회사 깊이 영상의 부호화 장치 및 복호화 장치, 부호화 방법 및 복호화 방법
WO2014110452A1 (en) * 2013-01-11 2014-07-17 Futurewei Technologies Co., Ltd. Method and apparatus of depth prediction mode selection
US20140198855A1 (en) * 2013-01-14 2014-07-17 Qualcomm Incorporated Square block prediction
JP6154643B2 (ja) * 2013-03-29 2017-06-28 Kddi株式会社 動画像符号化装置、動画像符号化装置のデプスイントラ予測方法およびプログラム、ならびに動画像復号装置、動画像復号装置のデプスイントラ予測方法およびプログラム
WO2014172387A1 (en) * 2013-04-15 2014-10-23 Huawei Technologies Co., Ltd. Method and apparatus of depth prediction mode selection
WO2015000168A1 (en) * 2013-07-05 2015-01-08 Mediatek Singapore Pte. Ltd. A simplified dc prediction method in intra prediction
KR20150010660A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 깊이 영상의 화면내 예측 방법
WO2015057947A1 (en) * 2013-10-17 2015-04-23 Huawei Technologies Co., Ltd. Improved reference pixel selection and filtering for intra coding of depth map
JP6257064B2 (ja) * 2014-01-03 2018-01-10 インテル・コーポレーション 深度カメラを用いたリアルタイム3d再構成
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
WO2015133830A1 (ko) * 2014-03-07 2015-09-11 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
WO2015135473A1 (en) * 2014-03-11 2015-09-17 Mediatek Inc. Method and apparatus of single sample mode for video coding
WO2015137736A1 (ko) * 2014-03-11 2015-09-17 삼성전자 주식회사 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치
CA2939009A1 (en) * 2014-03-13 2015-09-17 Qualcomm Incorporated Simplified advanced residual prediction for 3d-hevc
KR20160132891A (ko) * 2014-03-13 2016-11-21 퀄컴 인코포레이티드 3d 비디오 코딩에 대한 제약된 깊이 인트라 모드 코딩
WO2015196424A1 (en) * 2014-06-26 2015-12-30 Mediatek Inc. Methods for the transmission of flags related to dbbp
CN103826115B (zh) * 2014-03-21 2016-03-02 华为技术有限公司 图像分割方式的编解码处理方法和装置
CN106416256B (zh) * 2014-03-31 2019-08-23 三星电子株式会社 用于对深度图像进行编码或解码的方法和设备
KR20150136017A (ko) * 2014-05-26 2015-12-04 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
US10136161B2 (en) * 2014-06-24 2018-11-20 Sharp Kabushiki Kaisha DMM prediction section, image decoding device, and image coding device
CN104079943B (zh) 2014-06-26 2017-11-28 华为技术有限公司 一种帧内深度图像块编码、解码的方法及装置
JP6308449B2 (ja) * 2014-06-26 2018-04-11 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 高効率ビデオ符号化における演算負荷を低減するための方法および装置
WO2016049891A1 (en) * 2014-09-30 2016-04-07 Mediatek Singapore Pte. Ltd. Methods on segmentation coding in intra prediction
WO2016049913A1 (en) * 2014-09-30 2016-04-07 Mediatek Singapore Pte. Ltd. A simplified method for the depth modeling modes
US9772405B2 (en) * 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
WO2016056550A1 (ja) * 2014-10-08 2016-04-14 シャープ株式会社 画像復号装置
WO2016123782A1 (zh) * 2015-02-05 2016-08-11 华为技术有限公司 模板处理方法和相关设备
WO2016123783A1 (zh) * 2015-02-05 2016-08-11 华为技术有限公司 图像预测处理方法和相关设备
CN105791863B (zh) * 2016-03-24 2018-11-30 西安电子科技大学 基于层的3d-hevc深度图帧内预测编码方法
CN106162195B (zh) * 2016-07-05 2018-04-17 宁波大学 一种基于单深度帧内模式的3d‑hevc深度视频信息隐藏方法
CN106791768B (zh) * 2016-12-16 2019-01-04 浙江大学 一种基于图割优化的深度图帧率提升方法
US11153550B2 (en) * 2018-04-06 2021-10-19 Disney Enterprises, Inc. Depth codec for real-time, high-quality light field reconstruction
US11265579B2 (en) * 2018-08-01 2022-03-01 Comcast Cable Communications, Llc Systems, methods, and apparatuses for video processing
US11528509B2 (en) 2018-09-07 2022-12-13 Lg Electronics Inc. Video transmission method, video transmission device, video receiving method and video receiving device
US11412260B2 (en) * 2018-10-29 2022-08-09 Google Llc Geometric transforms for image compression
TWI815259B (zh) * 2019-03-12 2023-09-11 弗勞恩霍夫爾協會 用於影像及視訊寫碼之選擇性成分間變換(ict)技術
CN110446040A (zh) * 2019-07-30 2019-11-12 暨南大学 一种适用于hevc标准的帧间编码方法与***
JP7323710B2 (ja) 2019-09-13 2023-08-08 北京字節跳動網絡技術有限公司 映像符号化における重み付けサンプルの双予測
CN110933441B (zh) * 2019-12-12 2023-05-30 西安邮电大学 一种深度图轮廓预测的并行实现方法
CN111327909B (zh) * 2020-03-06 2022-10-18 郑州轻工业大学 一种针对3d-hevc的快速深度编码方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598855B1 (ko) 2010-05-11 2016-03-14 삼성전자주식회사 입체영상 부호화 장치 및 방법
CN107257484B (zh) 2010-08-11 2020-05-12 Ge视频压缩有限责任公司 解码器、编码器、用于解码的方法和用于编码的方法
US10327008B2 (en) * 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
CN102209243B (zh) * 2011-05-27 2012-10-24 山东大学 基于线性模型的深度图帧内预测方法

Also Published As

Publication number Publication date
WO2014005248A1 (en) 2014-01-09
JP2015525988A (ja) 2015-09-07
CN104396250B (zh) 2018-04-03
US20150245061A1 (en) 2015-08-27
US9900619B2 (en) 2018-02-20
CN104396250A (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
JP6046246B2 (ja) 3dビデオコーディングのための深度マップのイントラコーディング
JP6495390B2 (ja) ビデオコーディングにおける関心領域および漸次復号リフレッシュのシグナリング
JP6552923B2 (ja) ビデオコード化における動きベクトル予測
JP6158420B2 (ja) 3d−hevcのための深度データの深度コーディングモードシグナリング
JP6377734B2 (ja) 変位ベクトルを使用する予測ブロックからのイントラ予測
JP6133489B2 (ja) 3d−hevcのための深度データの深度コーディングモードシグナリング
JP6336987B2 (ja) 3d映像に関するインタービュー動き予測
JP6262260B2 (ja) 深度マップイントラコード化のための予測子
JP6445039B2 (ja) 3dビデオコーディングのための制限付き深度イントラモードコーディング
JP6580562B2 (ja) イントラ予測フィルタリングの無効化
JP6227678B2 (ja) 3dビデオコーディングにおける導出視差ベクトル
JP6615606B2 (ja) 3d−hevcに関する視差ベクトル構築方法
JP6462693B2 (ja) 3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング
JP6246919B2 (ja) 深度イントラコーディングのためのウェッジレットパターン拡張
JP6698351B2 (ja) ビュー内でのおよびビューにわたる深度ルックアップテーブルの予測コーディング
KR20180063201A (ko) 비디오 코딩을 위한 위치-의존적인 예측 결합을 이용한 향상된 비디오 인트라-예측
US20130258052A1 (en) Inter-view residual prediction in 3d video coding
JP2018537908A (ja) ビデオデータの符号情報をコーディングすること
US20150229957A1 (en) Depth map coding
US20160050419A1 (en) Depth modeling modes for depth map intra coding
JP2016530775A (ja) インター色成分残差予測
JP2016535490A (ja) 適応インター色成分残差予測
JP2017523685A (ja) イントラブロックコピーイングのためのブロックベクトルコーディング
JP2016519518A (ja) 後方ビュー合成予測
CN105637766B (zh) 二元分割模式的推导方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161116

R150 Certificate of patent or registration of utility model

Ref document number: 6046246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees