JP6046246B2 - 3dビデオコーディングのための深度マップのイントラコーディング - Google Patents
3dビデオコーディングのための深度マップのイントラコーディング Download PDFInfo
- Publication number
- JP6046246B2 JP6046246B2 JP2015518751A JP2015518751A JP6046246B2 JP 6046246 B2 JP6046246 B2 JP 6046246B2 JP 2015518751 A JP2015518751 A JP 2015518751A JP 2015518751 A JP2015518751 A JP 2015518751A JP 6046246 B2 JP6046246 B2 JP 6046246B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- depth
- mode
- wedgelet
- intra
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
1.モード1:明示的ウェッジレットシグナリング
このモードでは、ウェッジレット区分が適用され、あるひずみ基準に基づいて、最適または望ましいウェッジレット区分がエンコーダにおいて選択される。選択されたウェッジレットパターンのインデックスはビットストリーム中でシグナリングされる。
2.モード2:イントラ予測ウェッジレット区分
このモードでは、ウェッジレット区分が適用され、選択されたウェッジレットパターンは、隣接イントラ予測モードの情報とウェッジレットパターン情報とを使用して予測される。この場合、ウェッジレットパターンインデックスの直接シグナリングは回避され、予測されたウェッジレットパターンの改良点がシグナリングされる。
3.モード3:コンポーネント間ウェッジレット区分
同じアクセスユニットのコロケートルーマテクスチャブロック領域上で、すべての利用可能なウェッジレットパターンが網羅的に試みられ、テクスチャブロックに最も良く一致するウェッジレットパターンが、深度スライス中のPUのためのウェッジレットパーティションとして選択される。ウェッジレット区分パターンのシグナリングは必要とされないが、最良のパターンの全数探索は(本開示の技法外の)デコーダにおいて必要とされ得る。
4.モード4:コンポーネント間輪郭区分
このモードでは、コロケートテクスチャブロックを2つの部分に分離することによって、輪郭区分パターンが復号プロセス中に生成され、第1の部分は、平均値よりも大きいルーマサンプル値をもつピクセルを含んでおり、第2の部分は、平均よりも小さいかまたはそれに等しいルーマサンプル値をもつピクセルを含んでいる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を備える、方法。
[C2]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C1]に記載の方法。
[C3]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C4]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C3]に記載の方法。
[C5]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C6]
前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
[C1]に記載の方法。
[C7]
前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
[C1]に記載の方法。
[C8]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C9]
複数の方向性イントラ予測モードの各々がそれぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードが前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを備える、
[C8]に記載の方法。
[C10]
複数の方向性イントラ予測モードの各々がウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを備える、
[C8]に記載の方法。
[C11]
前記ウェッジレットパターンを予測することが前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
[C8]に記載の方法。
[C12]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C8]に記載の方法。
[C13]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C8]に記載の方法。
[C14]
前記ウェッジレットパターンを予測することは、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
[C13]に記載の方法。
[C15]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記方法は、
前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすることをさらに備える、
[C1]に記載の方法。
[C16]
前記深度ブロックのための利用可能な深度モデリングモードの前記数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C15]に記載の方法。
[C17]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
[C16]に記載の方法。
[C18]
前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
[C15]に記載の方法。
[C19]
前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、シングルビットを備える、
[C15]に記載の方法。
[C20]
前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、単項2値化値を備える、
[C15]に記載の方法。
[C21]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記方法は、
単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、[C1]に記載の方法。
[C22]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C21]に記載の方法。
[C23]
前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることをさらに備える、
[C21]に記載の方法。
[C24]
前記深度ブロックをコーディングすることは、前記深度ブロックを復号することを備え、前記深度ブロックを復号することは、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
を備える、[C1]に記載の方法。
[C25]
前記深度ブロックをコーディングすることは、前記深度ブロックを符号化することを備え、前記深度ブロックを符号化することは、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
前記残差ブロックの値を符号化することと
を備える、[C1]に記載の方法。
[C26]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成されたビデオコーダを備える、
デバイス。
[C27]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C26]に記載のデバイス。
[C28]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を行うように構成された、[C26]に記載のデバイス。
[C29]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C28]に記載のデバイス。
[C30]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成された、
[C26]に記載のデバイス。
[C31]
前記ビデオコーダは、前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
[C26]に記載のデバイス。
[C32]
前記ビデオコーダは、前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
[C26]に記載のデバイス。
[C33]
前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
[C26]に記載のデバイス。
[C34]
複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するように構成された、
[C33]に記載のデバイス。
[C35]
複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするように構成された、
[C33]に記載のデバイス。
[C36]
前記ウェッジレットパターンを予測するために、前記ビデオコーダが前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
[C33]に記載のデバイス。
[C37]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C33]に記載のデバイス。
[C38]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C33]に記載のデバイス。
[C39]
前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
[C38]に記載のデバイス。
[C40]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記ビデオコーダは、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするように構成された、
[C26]に記載のデバイス。
[C41]
前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C40]に記載のデバイス。
[C42]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードは、3つの深度モデリングモードを備える、
[C41]に記載のデバイス。
[C43]
前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
[C40]に記載のデバイス。
[C44]
前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、シングルビットを備える、
[C40]に記載のデバイス。
[C45]
前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、単項2値化値を備える、
[C40]に記載のデバイス。
[C46]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記ビデオコーダは、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
[C26]に記載のデバイス。
[C47]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C46]に記載のデバイス。
[C48]
前記ビデオコーダは、前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値のコーディングをスキップするようにさらに構成された、
[C46]に記載のデバイス。
[C49]
前記ビデオコーダは、ビデオデコーダを備え、前記深度ブロックをコーディングするために、前記ビデオデコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することとを行うように構成された、
[C26]に記載のデバイス。
[C50]
前記ビデオコーダは、ビデオエンコーダを備え、前記深度ブロックをコーディングするために、前記ビデオエンコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、前記残差ブロックの値を符号化することとを行うように構成された、
[C26]に記載のデバイス。
[C51]
前記デバイスは、
集積回路と、
マイクロプロセッサと、
前記ビデオコーダを含むワイヤレス通信デバイスと
のうちの少なくとも1つを備える、[C26]に記載のデバイス。
[C52]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
を備える、デバイス。
[C53]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C52]に記載のデバイス。
[C54]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C55]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C54]に記載のデバイス。
[C56]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C57]
前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
[C52]に記載のデバイス。
[C58]
前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
[C52]に記載のデバイス。
[C59]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測するための手段と、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C60]
複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するための手段を備える、
[C59]に記載のデバイス。
[C61]
複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするための手段を備える、
[C59]に記載のデバイス。
[C62]
前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するための手段を備える、
[C59]に記載のデバイス。
[C63]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C59]に記載のデバイス。
[C64]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C59]に記載のデバイス。
[C65]
前記ウェッジレットパターンを予測することは、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
[C64]に記載のデバイス。
[C66]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするための手段をさらに備える、
[C52]に記載のデバイス。
[C67]
前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C66]に記載のデバイス。
[C68]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
[C67]に記載のデバイス。
[C69]
前記利用可能な深度モデリングモードがコンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングするための手段を備える、
[C66]に記載のデバイス。
[C70]
前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、シングルビットを備える、
[C66]に記載のデバイス。
[C71]
前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、単項2値化値を備える、
[C66]に記載のデバイス。
[C72]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定するための手段と、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、[C52]に記載のデバイス。
[C73]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C72]に記載のデバイス。
[C74]
前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップするための手段をさらに備える、
[C72]に記載のデバイス。
[C75]
前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを復号するための手段を備え、前記深度ブロックを復号するための前記手段は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
前記深度ブロックのための少なくとも1つの残差ブロックを計算するための手段と、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算するための手段と
を備える、[C52]に記載のデバイス。
[C76]
前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを符号化するための手段を備え、前記深度ブロックを符号化するための前記手段は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算するための手段と、
前記残差ブロックの値を符号化するための手段と
を備える、[C52]に記載のデバイス。
[C77]
実行されたとき、ビデオデータをコーディングするためのデバイスのプロセッサに、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C78]
イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C79]
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C80]
イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
[C79]に記載のコンピュータ可読記憶媒体。
[C81]
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C82]
前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C83]
前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットのうちの少なくとも1つがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C84]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C85]
複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを前記プロセッサに行わせる命令を備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C86]
複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードは、マッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを前記プロセッサに行わせる命令を備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C87]
前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C88]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C89]
前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
[C84]に記載のコンピュータ可読記憶媒体。
[C90]
前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがDCモードと平面モードと以外のイントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
[C89]に記載のコンピュータ可読記憶媒体。
[C91]
前記コンピュータ可読記憶媒体は、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、
前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすること
を前記プロセッサに行わせる命令をさらに備える、
[C77]に記載のコンピュータ可読記憶媒体。
[C92]
前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
[C91]に記載のコンピュータ可読記憶媒体。
[C93]
前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
[C92]に記載のコンピュータ可読記憶媒体。
[C94]
前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを前記プロセッサに行わせる命令を備える、
[C91]に記載のコンピュータ可読記憶媒体。
[C95]
前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、シングルビットを備える、
[C91]に記載のコンピュータ可読記憶媒体。
[C96]
前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、単項2値化値を備える、
[C91]に記載のコンピュータ可読記憶媒体。
[C97]
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、
単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、[C77]に記載のコンピュータ可読記憶媒体。
[C98]
前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
[C97]に記載のコンピュータ可読記憶媒体。
[C99]
前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることを前記プロセッサに行わせる命令をさらに備える、
[C97]に記載のコンピュータ可読記憶媒体。
[C100]
前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを復号することを前記プロセッサに行わせる命令を備え、前記深度ブロックを復号することを前記プロセッサに行わせる前記命令は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
を前記プロセッサに行わせる命令を備える、[C77]に記載のコンピュータ可読記憶媒体。
[C101]
前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを符号化することを前記プロセッサに行わせる命令を備え、前記深度ブロックを符号化することを前記プロセッサに行わせる前記命令は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
前記残差ブロックの値を符号化することと
を前記プロセッサに行わせる命令を備える、[C77]に記載のコンピュータ可読記憶媒体。
[C102]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、
前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、
前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングすることと
を備える、方法。
[C103]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C102]に記載の方法。
[C104]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングすることと
を行うように構成されたビデオコーダを備える、デバイス。
[C105]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C104]に記載のデバイス。
[C106]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、
前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定するための手段と、
前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定するための手段と、
前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングするための手段と
を備える、デバイス。
[C107]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C106]に記載のデバイス。
[C108]
実行されたとき、プロセッサに、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分をコーディングするために使用されたイントラ予測モードを決定することと、
前記テクスチャブロックの前記イントラ予測モードに関連するウェッジレットパターンのセットを探索することによって、前記深度ブロックをコーディングするための深度モデリングモードのためのウェッジレットパターンを決定することと、
前記決定されたウェッジレットパターンと前記深度モデリングモードとを使用して前記深度ブロックをコーディングすることと
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C109]
前記イントラ予測モードは、角度イントラ予測モードを備え、前記イントラ予測モードに関連する前記ウェッジレットパターンは、前記角度イントラ予測モードの角度と同様の角度を有するウェッジレットパターンを備える、
[C108]に記載のコンピュータ可読記憶媒体。
Claims (101)
- ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を備える、方法。 - イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項1に記載の方法。 - 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、請求項1に記載の方法。 - イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項3に記載の方法。 - 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、請求項1に記載の方法。 - 前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
請求項1に記載の方法。 - 前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることをさらに備える、
請求項1に記載の方法。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
をさらに備える、請求項1に記載の方法。 - 複数の方向性イントラ予測モードの各々がそれぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードが前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを備える、
請求項8に記載の方法。 - 複数の方向性イントラ予測モードの各々がウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを備える、
請求項8に記載の方法。 - 前記ウェッジレットパターンを予測することは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
請求項8に記載の方法。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
請求項8に記載の方法。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
請求項8に記載の方法。 - 前記ウェッジレットパターンを予測することは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
請求項13に記載の方法。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記方法は、
前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすることをさらに備える、
請求項1に記載の方法。 - 前記深度ブロックのための利用可能な深度モデリングモードの前記数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
請求項15に記載の方法。 - 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
請求項16に記載の方法。 - 前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
請求項15に記載の方法。 - 前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、シングルビットを備える、
請求項15に記載の方法。 - 前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを備え、前記2値化値は、単項2値化値を備える、
請求項15に記載の方法。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記方法は、
単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
をさらに備える、請求項1に記載の方法。 - 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
請求項21に記載の方法。 - 前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることをさらに備える、
請求項21に記載の方法。 - 前記深度ブロックをコーディングすることは、前記深度ブロックを復号することを備え、前記深度ブロックを復号することは、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
を備える、請求項1に記載の方法。 - 前記深度ブロックをコーディングすることは、前記深度ブロックを符号化することを備え、前記深度ブロックを符号化することは、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
前記残差ブロックの値を符号化することと
を備える、請求項1に記載の方法。 - ビデオデータをコーディングするためのデバイスであって、前記デバイスは、ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成されたビデオコーダを備える、
デバイス。 - イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項26に記載のデバイス。 - 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を行うように構成された、請求項26に記載のデバイス。 - イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項28に記載のデバイス。 - 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることとを行うように構成された、
請求項26に記載のデバイス。 - 前記ビデオコーダは、前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
請求項26に記載のデバイス。 - 前記ビデオコーダは、前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするように構成された、
請求項26に記載のデバイス。 - 前記ビデオコーダは、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
請求項26に記載のデバイス。 - 複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するように構成された、
請求項33に記載のデバイス。 - 複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするように構成された、
請求項33に記載のデバイス。 - 前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
請求項33に記載のデバイス。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
請求項33に記載のデバイス。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
請求項33に記載のデバイス。 - 前記ウェッジレットパターンを予測するために、前記ビデオコーダは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するように構成された、
請求項38に記載のデバイス。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記ビデオコーダは、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするように構成された、
請求項26に記載のデバイス。 - 前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
請求項40に記載のデバイス。 - 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードは、3つの深度モデリングモードを備える、
請求項41に記載のデバイス。 - 前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることは、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを備える、
請求項40に記載のデバイス。 - 前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、シングルビットを備える、
請求項40に記載のデバイス。 - 前記選択されたイントラ予測モードを表す前記値をコーディングするために、前記ビデオコーダは、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするように構成され、前記2値化値は、単項2値化値を備える、
請求項40に記載のデバイス。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記ビデオコーダは、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることとを行うようにさらに構成された、
請求項26に記載のデバイス。 - 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
請求項46に記載のデバイス。 - 前記ビデオコーダは、前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値のコーディングをスキップするようにさらに構成された、
請求項46に記載のデバイス。 - 前記ビデオコーダは、ビデオデコーダを備え、前記深度ブロックをコーディングするために、前記ビデオデコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することとを行うように構成された、
請求項26に記載のデバイス。 - 前記ビデオコーダは、ビデオエンコーダを備え、前記深度ブロックをコーディングするために、前記ビデオエンコーダは、前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、前記残差ブロックの値を符号化することとを行うように構成された、
請求項26に記載のデバイス。 - 前記デバイスは、
集積回路と、
マイクロプロセッサと、
前記ビデオコーダを含むワイヤレス通信デバイスと
のうちの少なくとも1つを備える、請求項26に記載のデバイス。 - ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
を備える、デバイス。 - イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項52に記載のデバイス。 - 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、請求項52に記載のデバイス。 - イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項54に記載のデバイス。 - 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にするための手段と、
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択するための手段と、
前記テクスチャブロックを備えるスライスがイントラスライスでないとき、前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、請求項52に記載のデバイス。 - 前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
請求項52に記載のデバイス。 - 前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングするための手段をさらに備える、
請求項52に記載のデバイス。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択するための手段と、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測するための手段と、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、請求項52に記載のデバイス。 - 複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択するための手段を備える、
請求項59に記載のデバイス。 - 複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードがマッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストするための手段を備える、
請求項59に記載のデバイス。 - 前記ウェッジレットパターンを予測するための前記手段は、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測するための手段を備える、
請求項59に記載のデバイス。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
請求項59に記載のデバイス。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
請求項59に記載のデバイス。 - 前記ウェッジレットパターンを予測することは、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを備える、
請求項64に記載のデバイス。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングするための手段をさらに備える、
請求項52に記載のデバイス。 - 前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
請求項66に記載のデバイス。 - 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
請求項67に記載のデバイス。 - 前記利用可能な深度モデリングモードがコンポーネント間輪郭モードを備え、第1のシグナリング値が前記コンポーネント間輪郭モードに対応し、第2のシグナリング値が前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードが前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングするための手段を備える、
請求項66に記載のデバイス。 - 前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、シングルビットを備える、
請求項66に記載のデバイス。 - 前記選択されたイントラ予測モードを表す前記値をコーディングするための前記手段は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングするための手段を備え、前記2値化値は、単項2値化値を備える、
請求項66に記載のデバイス。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定するための手段と、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングするための手段と
をさらに備える、請求項52に記載のデバイス。 - 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
請求項72に記載のデバイス。 - 前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップするための手段をさらに備える、
請求項72に記載のデバイス。 - 前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを復号するための手段を備え、前記深度ブロックを復号するための前記手段は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
前記深度ブロックのための少なくとも1つの残差ブロックを計算するための手段と、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算するための手段と
を備える、請求項52に記載のデバイス。 - 前記深度ブロックをコーディングするための前記手段は、前記深度ブロックを符号化するための手段を備え、前記深度ブロックを符号化するための前記手段は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算するための手段と、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算するための手段と、
前記残差ブロックの値を符号化するための手段と
を備える、請求項52に記載のデバイス。 - 実行されたとき、ビデオデータをコーディングするためのデバイスのプロセッサに、
ビデオデータの深度コンポーネントの深度ブロックのために、対応するテクスチャコンポーネントのコロケートテクスチャブロックを決定することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされない前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのためのコンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのためのイントラ予測コーディングモードを選択することと、
前記選択されたイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を行わせる命令を記憶したコンピュータ可読記憶媒体。 - イントラ予測コーディングされない前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項77に記載のコンピュータ可読記憶媒体。 - 前記テクスチャブロックの少なくとも一部分がDCモードと平面モードとのうちの1つを備えるイントラ予測モードを使用してイントラ予測コーディングされた前記テクスチャコンポーネントの予測ユニットに対応するとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。 - イントラ予測コーディングされた前記予測ユニットに対応する前記テクスチャブロックの前記少なくとも一部分は、左上4×4ピクセルブロックを備える、
請求項79に記載のコンピュータ可読記憶媒体。 - 前記テクスチャブロックを備えるスライスがイントラスライスでないとき、
前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを無効にすることと、
前記無効にされたコンポーネント間ウェッジレット深度モデリングモード以外の前記深度ブロックのための第2のイントラ予測コーディングモードを選択することと、
前記第2のイントラ予測コーディングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。 - 前記テクスチャブロックがイントラ予測コーディングされた単一の予測ユニットに対応するときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
請求項77に記載のコンピュータ可読記憶媒体。 - 前記テクスチャブロックが複数の予測ユニットに対応し、前記複数の予測ユニットがイントラ予測コーディングされるときのみ、前記コンポーネント間ウェッジレット深度モデリングモードを使用して前記深度ブロックをコーディングすることを前記プロセッサに行わせる命令をさらに備える、
請求項77に記載のコンピュータ可読記憶媒体。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードを選択することと、
前記テクスチャブロックの少なくとも一部分がイントラ予測コーディングされた予測ユニットに対応するとき、前記テクスチャブロックのためのイントラ予測モードに基づいて前記深度ブロックのためのウェッジレットパターンを予測することと、
前記予測されたウェッジレットパターンを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。 - 複数の方向性イントラ予測モードの各々は、それぞれのウェッジレットパターンにマッピングされ、前記イントラ予測モードは、前記複数の方向性イントラ予測モードのうちの1つを備え、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードがマッピングされる前記ウェッジレットパターンを選択することを前記プロセッサに行わせる命令を備える、
請求項84に記載のコンピュータ可読記憶媒体。 - 複数の方向性イントラ予測モードの各々は、ウェッジレットパターンのそれぞれのセットにマッピングされ、前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードは、マッピングされるウェッジレットパターンの前記セット中の前記ウェッジレットパターンの各々をテストすることを前記プロセッサに行わせる命令を備える、
請求項84に記載のコンピュータ可読記憶媒体。 - 前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
請求項84に記載のコンピュータ可読記憶媒体。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックのすべてを備える、
請求項84に記載のコンピュータ可読記憶媒体。 - 前記テクスチャブロックの前記少なくとも一部分は、前記テクスチャブロックの左上4×4ブロックを備える、
請求項84に記載のコンピュータ可読記憶媒体。 - 前記ウェッジレットパターンを予測することを前記プロセッサに行わせる前記命令は、前記イントラ予測モードが方向性イントラ予測モードを備えるときのみ、前記テクスチャブロックのための前記イントラ予測モードに基づいて前記深度ブロックのための前記ウェッジレットパターンを予測することを前記プロセッサに行わせる命令を備える、
請求項89に記載のコンピュータ可読記憶媒体。 - 前記コンピュータ可読記憶媒体は、前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも大きく、64×64ピクセルよりも小さいブロックを備えるとき、
前記深度ブロックのための利用可能な深度モデリングモードの数に基づいて前記深度ブロックのための前記選択されたイントラ予測モードを表す値をコーディングすること
を前記プロセッサに行わせる命令をさらに備える、
請求項77に記載のコンピュータ可読記憶媒体。 - 前記深度ブロックのための前記利用可能な深度モデリングモードの数は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに少なくとも部分的に基づいて、利用可能な深度モデリングモードの全部の数に対して低減される、
請求項91に記載のコンピュータ可読記憶媒体。 - 前記利用可能な深度モデリングモードの全部の数は、4つの深度モデリングモードを備え、前記数の前記深度ブロックのための利用可能な深度モデリングモードが3つの深度モデリングモードを備える、
請求項92に記載のコンピュータ可読記憶媒体。 - 前記利用可能な深度モデリングモードは、コンポーネント間輪郭モードを備え、第1のシグナリング値は、前記コンポーネント間輪郭モードに対応し、第2のシグナリング値は、前記コンポーネント間ウェッジレットモードに対応し、前記選択されたイントラ予測モードは、前記コンポーネント間輪郭モードを備え、前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたことに基づいて前記第2のシグナリング値をコーディングすることを前記プロセッサに行わせる命令を備える、
請求項91に記載のコンピュータ可読記憶媒体。 - 前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、シングルビットを備える、
請求項91に記載のコンピュータ可読記憶媒体。 - 前記選択されたイントラ予測モードを表す前記値をコーディングすることを前記プロセッサに行わせる前記命令は、前記選択されたイントラ予測モードのための2値化値をコンテキスト適応型バイナリ算術コーディングすることを前記プロセッサに行わせる命令を備え、前記2値化値は、単項2値化値を備える、
請求項91に記載のコンピュータ可読記憶媒体。 - 前記深度ブロックのための前記コンポーネント間ウェッジレット深度モデリングモードが無効にされたとき、および前記深度ブロックが、4×4ピクセルよりも小さいかまたはそれに等しいブロックを備えるとき、
単一の深度モデリングモードのみが前記深度ブロックのために利用可能であると決定することと、
前記単一の深度モデリングモードを使用して前記深度ブロックをコーディングすることと
を前記プロセッサに行わせる命令をさらに備える、請求項77に記載のコンピュータ可読記憶媒体。 - 前記単一の深度モデリングモードは、明示的ウェッジレットモードを備える、
請求項97に記載のコンピュータ可読記憶媒体。 - 前記単一の深度モデリングモードのみが前記深度ブロックのために利用可能であるという前記決定に基づいて、前記単一の深度モデリングモードを表す値をコーディングすることをスキップすることを前記プロセッサに行わせる命令をさらに備える、
請求項97に記載のコンピュータ可読記憶媒体。 - 前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを復号することを前記プロセッサに行わせる命令を備え、前記深度ブロックを復号することを前記プロセッサに行わせる前記命令は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための少なくとも1つの残差ブロックを計算することと、
前記深度ブロックの復号されたバージョンを生成するために前記予測ブロックの値を前記残差ブロックの値に加算することと
を前記プロセッサに行わせる命令を備える、請求項77に記載のコンピュータ可読記憶媒体。 - 前記深度ブロックをコーディングすることを前記プロセッサに行わせる前記命令は、前記深度ブロックを符号化することを前記プロセッサに行わせる命令を備え、前記深度ブロックを符号化することを前記プロセッサに行わせる前記命令は、
前記深度ブロックのための少なくとも1つの予測ブロックを計算することと、
前記深度ブロックのための残差ブロックを生成するために前記深度ブロックの値と前記予測ブロックの値との間の差を計算することと、
前記残差ブロックの値を符号化することと
を前記プロセッサに行わせる命令を備える、請求項77に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261667400P | 2012-07-02 | 2012-07-02 | |
US61/667,400 | 2012-07-02 | ||
PCT/CN2012/000942 WO2014005248A1 (en) | 2012-07-02 | 2012-07-09 | Intra-coding of depth maps for 3d video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015525988A JP2015525988A (ja) | 2015-09-07 |
JP6046246B2 true JP6046246B2 (ja) | 2016-12-14 |
Family
ID=49881209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015518751A Expired - Fee Related JP6046246B2 (ja) | 2012-07-02 | 2012-07-09 | 3dビデオコーディングのための深度マップのイントラコーディング |
Country Status (4)
Country | Link |
---|---|
US (1) | US9900619B2 (ja) |
JP (1) | JP6046246B2 (ja) |
CN (1) | CN104396250B (ja) |
WO (1) | WO2014005248A1 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2873240A1 (en) * | 2012-07-13 | 2015-05-20 | Huawei Technologies Co., Ltd. | Apparatus for coding a bit stream representing a three-dimensional video |
JP6069923B2 (ja) * | 2012-07-20 | 2017-02-01 | セイコーエプソン株式会社 | ロボットシステム、ロボット、ロボット制御装置 |
JP6787667B2 (ja) * | 2012-09-21 | 2020-11-18 | ノキア テクノロジーズ オサケユイチア | ビデオコーディングのための方法と装置 |
KR102216585B1 (ko) * | 2013-01-04 | 2021-02-17 | 삼성전자주식회사 | 깊이 영상의 부호화 장치 및 복호화 장치, 부호화 방법 및 복호화 방법 |
WO2014110452A1 (en) * | 2013-01-11 | 2014-07-17 | Futurewei Technologies Co., Ltd. | Method and apparatus of depth prediction mode selection |
US20140198855A1 (en) * | 2013-01-14 | 2014-07-17 | Qualcomm Incorporated | Square block prediction |
JP6154643B2 (ja) * | 2013-03-29 | 2017-06-28 | Kddi株式会社 | 動画像符号化装置、動画像符号化装置のデプスイントラ予測方法およびプログラム、ならびに動画像復号装置、動画像復号装置のデプスイントラ予測方法およびプログラム |
WO2014172387A1 (en) * | 2013-04-15 | 2014-10-23 | Huawei Technologies Co., Ltd. | Method and apparatus of depth prediction mode selection |
WO2015000168A1 (en) * | 2013-07-05 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | A simplified dc prediction method in intra prediction |
KR20150010660A (ko) * | 2013-07-18 | 2015-01-28 | 삼성전자주식회사 | 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 깊이 영상의 화면내 예측 방법 |
WO2015057947A1 (en) * | 2013-10-17 | 2015-04-23 | Huawei Technologies Co., Ltd. | Improved reference pixel selection and filtering for intra coding of depth map |
JP6257064B2 (ja) * | 2014-01-03 | 2018-01-10 | インテル・コーポレーション | 深度カメラを用いたリアルタイム3d再構成 |
US10368097B2 (en) * | 2014-01-07 | 2019-07-30 | Nokia Technologies Oy | Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures |
WO2015133830A1 (ko) * | 2014-03-07 | 2015-09-11 | 주식회사 케이티 | 다시점 비디오 신호 처리 방법 및 장치 |
WO2015135473A1 (en) * | 2014-03-11 | 2015-09-17 | Mediatek Inc. | Method and apparatus of single sample mode for video coding |
WO2015137736A1 (ko) * | 2014-03-11 | 2015-09-17 | 삼성전자 주식회사 | 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치 |
CA2939009A1 (en) * | 2014-03-13 | 2015-09-17 | Qualcomm Incorporated | Simplified advanced residual prediction for 3d-hevc |
KR20160132891A (ko) * | 2014-03-13 | 2016-11-21 | 퀄컴 인코포레이티드 | 3d 비디오 코딩에 대한 제약된 깊이 인트라 모드 코딩 |
WO2015196424A1 (en) * | 2014-06-26 | 2015-12-30 | Mediatek Inc. | Methods for the transmission of flags related to dbbp |
CN103826115B (zh) * | 2014-03-21 | 2016-03-02 | 华为技术有限公司 | 图像分割方式的编解码处理方法和装置 |
CN106416256B (zh) * | 2014-03-31 | 2019-08-23 | 三星电子株式会社 | 用于对深度图像进行编码或解码的方法和设备 |
KR20150136017A (ko) * | 2014-05-26 | 2015-12-04 | 주식회사 케이티 | 다시점 비디오 신호 처리 방법 및 장치 |
US10136161B2 (en) * | 2014-06-24 | 2018-11-20 | Sharp Kabushiki Kaisha | DMM prediction section, image decoding device, and image coding device |
CN104079943B (zh) | 2014-06-26 | 2017-11-28 | 华为技术有限公司 | 一种帧内深度图像块编码、解码的方法及装置 |
JP6308449B2 (ja) * | 2014-06-26 | 2018-04-11 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 高効率ビデオ符号化における演算負荷を低減するための方法および装置 |
WO2016049891A1 (en) * | 2014-09-30 | 2016-04-07 | Mediatek Singapore Pte. Ltd. | Methods on segmentation coding in intra prediction |
WO2016049913A1 (en) * | 2014-09-30 | 2016-04-07 | Mediatek Singapore Pte. Ltd. | A simplified method for the depth modeling modes |
US9772405B2 (en) * | 2014-10-06 | 2017-09-26 | The Boeing Company | Backfilling clouds of 3D coordinates |
WO2016056550A1 (ja) * | 2014-10-08 | 2016-04-14 | シャープ株式会社 | 画像復号装置 |
WO2016123782A1 (zh) * | 2015-02-05 | 2016-08-11 | 华为技术有限公司 | 模板处理方法和相关设备 |
WO2016123783A1 (zh) * | 2015-02-05 | 2016-08-11 | 华为技术有限公司 | 图像预测处理方法和相关设备 |
CN105791863B (zh) * | 2016-03-24 | 2018-11-30 | 西安电子科技大学 | 基于层的3d-hevc深度图帧内预测编码方法 |
CN106162195B (zh) * | 2016-07-05 | 2018-04-17 | 宁波大学 | 一种基于单深度帧内模式的3d‑hevc深度视频信息隐藏方法 |
CN106791768B (zh) * | 2016-12-16 | 2019-01-04 | 浙江大学 | 一种基于图割优化的深度图帧率提升方法 |
US11153550B2 (en) * | 2018-04-06 | 2021-10-19 | Disney Enterprises, Inc. | Depth codec for real-time, high-quality light field reconstruction |
US11265579B2 (en) * | 2018-08-01 | 2022-03-01 | Comcast Cable Communications, Llc | Systems, methods, and apparatuses for video processing |
US11528509B2 (en) | 2018-09-07 | 2022-12-13 | Lg Electronics Inc. | Video transmission method, video transmission device, video receiving method and video receiving device |
US11412260B2 (en) * | 2018-10-29 | 2022-08-09 | Google Llc | Geometric transforms for image compression |
TWI815259B (zh) * | 2019-03-12 | 2023-09-11 | 弗勞恩霍夫爾協會 | 用於影像及視訊寫碼之選擇性成分間變換(ict)技術 |
CN110446040A (zh) * | 2019-07-30 | 2019-11-12 | 暨南大学 | 一种适用于hevc标准的帧间编码方法与*** |
JP7323710B2 (ja) | 2019-09-13 | 2023-08-08 | 北京字節跳動網絡技術有限公司 | 映像符号化における重み付けサンプルの双予測 |
CN110933441B (zh) * | 2019-12-12 | 2023-05-30 | 西安邮电大学 | 一种深度图轮廓预测的并行实现方法 |
CN111327909B (zh) * | 2020-03-06 | 2022-10-18 | 郑州轻工业大学 | 一种针对3d-hevc的快速深度编码方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101598855B1 (ko) | 2010-05-11 | 2016-03-14 | 삼성전자주식회사 | 입체영상 부호화 장치 및 방법 |
CN107257484B (zh) | 2010-08-11 | 2020-05-12 | Ge视频压缩有限责任公司 | 解码器、编码器、用于解码的方法和用于编码的方法 |
US10327008B2 (en) * | 2010-10-13 | 2019-06-18 | Qualcomm Incorporated | Adaptive motion vector resolution signaling for video coding |
CN102209243B (zh) * | 2011-05-27 | 2012-10-24 | 山东大学 | 基于线性模型的深度图帧内预测方法 |
-
2012
- 2012-07-09 JP JP2015518751A patent/JP6046246B2/ja not_active Expired - Fee Related
- 2012-07-09 CN CN201280074388.9A patent/CN104396250B/zh not_active Expired - Fee Related
- 2012-07-09 WO PCT/CN2012/000942 patent/WO2014005248A1/en active Application Filing
- 2012-07-09 US US14/409,785 patent/US9900619B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2014005248A1 (en) | 2014-01-09 |
JP2015525988A (ja) | 2015-09-07 |
CN104396250B (zh) | 2018-04-03 |
US20150245061A1 (en) | 2015-08-27 |
US9900619B2 (en) | 2018-02-20 |
CN104396250A (zh) | 2015-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6046246B2 (ja) | 3dビデオコーディングのための深度マップのイントラコーディング | |
JP6495390B2 (ja) | ビデオコーディングにおける関心領域および漸次復号リフレッシュのシグナリング | |
JP6552923B2 (ja) | ビデオコード化における動きベクトル予測 | |
JP6158420B2 (ja) | 3d−hevcのための深度データの深度コーディングモードシグナリング | |
JP6377734B2 (ja) | 変位ベクトルを使用する予測ブロックからのイントラ予測 | |
JP6133489B2 (ja) | 3d−hevcのための深度データの深度コーディングモードシグナリング | |
JP6336987B2 (ja) | 3d映像に関するインタービュー動き予測 | |
JP6262260B2 (ja) | 深度マップイントラコード化のための予測子 | |
JP6445039B2 (ja) | 3dビデオコーディングのための制限付き深度イントラモードコーディング | |
JP6580562B2 (ja) | イントラ予測フィルタリングの無効化 | |
JP6227678B2 (ja) | 3dビデオコーディングにおける導出視差ベクトル | |
JP6615606B2 (ja) | 3d−hevcに関する視差ベクトル構築方法 | |
JP6462693B2 (ja) | 3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング | |
JP6246919B2 (ja) | 深度イントラコーディングのためのウェッジレットパターン拡張 | |
JP6698351B2 (ja) | ビュー内でのおよびビューにわたる深度ルックアップテーブルの予測コーディング | |
KR20180063201A (ko) | 비디오 코딩을 위한 위치-의존적인 예측 결합을 이용한 향상된 비디오 인트라-예측 | |
US20130258052A1 (en) | Inter-view residual prediction in 3d video coding | |
JP2018537908A (ja) | ビデオデータの符号情報をコーディングすること | |
US20150229957A1 (en) | Depth map coding | |
US20160050419A1 (en) | Depth modeling modes for depth map intra coding | |
JP2016530775A (ja) | インター色成分残差予測 | |
JP2016535490A (ja) | 適応インター色成分残差予測 | |
JP2017523685A (ja) | イントラブロックコピーイングのためのブロックベクトルコーディング | |
JP2016519518A (ja) | 後方ビュー合成予測 | |
CN105637766B (zh) | 二元分割模式的推导方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160628 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6046246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |