JP2016526348A - Advanced depth intercoding based on depth block mismatch - Google Patents

Advanced depth intercoding based on depth block mismatch Download PDF

Info

Publication number
JP2016526348A
JP2016526348A JP2016517046A JP2016517046A JP2016526348A JP 2016526348 A JP2016526348 A JP 2016526348A JP 2016517046 A JP2016517046 A JP 2016517046A JP 2016517046 A JP2016517046 A JP 2016517046A JP 2016526348 A JP2016526348 A JP 2016526348A
Authority
JP
Japan
Prior art keywords
mismatch
adjacent
sample
depth
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016517046A
Other languages
Japanese (ja)
Other versions
JP6370891B2 (en
JP2016526348A5 (en
Inventor
ジャン、リ
チェン、イン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016526348A publication Critical patent/JP2016526348A/en
Publication of JP2016526348A5 publication Critical patent/JP2016526348A5/ja
Application granted granted Critical
Publication of JP6370891B2 publication Critical patent/JP6370891B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

1つの例において、本開示は、ビデオデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することを含む技術に関する。この技術は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することをさらに含み、ここにおいて、少なくとも1つの不一致ベクトルは、各PUについて各々のCUに関する。この技術は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各PUについて各々のCUに関するコーディングブロックを再構築することをさらに含む。In one example, this disclosure relates to at least one reconstructed depth sample of at least one adjacent sample for each prediction unit (PU) of each coding unit (CU) of a slice of a picture of video data. The present invention relates to a technique that includes determining at least one discrepancy value based at least in part on at least one depth value. The technique further includes determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each CU for each PU. The technique further includes reconstructing a coding block for each CU for each PU based at least in part on the at least one mismatch vector.

Description

[0001]本願は、2013年5月31日に出願された米国仮出願番号61/829,919の利益を主張し、全体の内容が参照によりここに組み込まれる。   [0001] This application claims the benefit of US Provisional Application No. 61 / 829,919, filed May 31, 2013, the entire contents of which are hereby incorporated by reference.

[0002]本開示は、ビデオコーディング(すなわち、ビデオデータの符号化および/または復号)に関する。   [0002] This disclosure relates to video coding (ie, encoding and / or decoding of video data).

[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、個人用デジタル補助装置(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、eブックリーダー、デジタルカメラ、デジタル録音デバイス、デジタルメディアプレイヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオテレビ会議デバイス、ビデオストリーミングデバイスなどを含む広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、パート10、先進ビデオコーディング(AVC)、現在開発中の高効率ビデオコーディング(HEVC)の標準、およびこういった標準の拡張によって定義される標準において説明されるようなビデオコーディング技術を実施する。ビデオデバイスは、こういったビデオ圧縮技術を実施することによって、より効率的にデジタルビデオ情報を送信、受信、符号化、復号、および/または記憶し得る。   [0003] Digital video functions include digital television, digital direct broadcast system, wireless broadcast system, personal digital assistant (PDA), laptop or desktop computer, tablet computer, ebook reader, digital camera, digital recording device, It can be incorporated into a wide range of devices including digital media players, video game devices, video game consoles, cellular or satellite radiotelephones, so-called “smartphones”, video videoconferencing devices, video streaming devices, and the like. Digital video devices are MPEG-2, MPEG-4, ITU-T H.264, and so on. 263, ITU-TH. Video coding as described in H.264 / MPEG-4, Part 10, Advanced Video Coding (AVC), standards for high efficiency video coding (HEVC) currently under development, and standards defined by extensions to these standards Implement technology. A video device may transmit, receive, encode, decode, and / or store digital video information more efficiently by implementing these video compression techniques.

[0004]ビデオ圧縮技術は、ビデオシーケンスに内在する冗長性を低減するあるいは除去するために空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を実行する。ブロックベースビデオコーディングのために、ビデオスライス(すなわちビデオフレームまたはビデオフレームの一部)は、複数のビデオブロックに分割され得る。ピクチャのイントラコード化された(I)スライス内のビデオブロックは、同じピクチャ内で隣接するブロック内の参照サンプルに関する空間的予測を用いて符号化される。ピクチャのインターコード化された(PまたはB)スライス内のビデオブロックは、同じピクチャ内で隣接するブロック内の参照サンプルに関する空間的予測または他の参照ピクチャ内の参照サンプルに関する時間的予測を使用し得る。ピクチャはフレームと呼ばれても良い。参照ピクチャは参照フレームと呼ばれても良い。   [0004] Video compression techniques perform spatial (intra-picture) prediction and / or temporal (inter-picture) prediction to reduce or remove redundancy inherent in video sequences. For block-based video coding, a video slice (ie, a video frame or a portion of a video frame) may be divided into multiple video blocks. Video blocks within an intra-coded (I) slice of a picture are encoded using spatial prediction with respect to reference samples in adjacent blocks within the same picture. Video blocks within an intercoded (P or B) slice of a picture use spatial prediction with respect to reference samples in adjacent blocks within the same picture or temporal prediction with respect to reference samples in other reference pictures. obtain. A picture may be called a frame. The reference picture may be called a reference frame.

[0005]空間的または時間的予測は、コード化されるべきブロックのための予測ブロックをもたらす。残差データは、コード化されるべきオリジナルのブロックと予測ブロックの間の画素差を表す。インターコード化されたブロックは、予測ブロックを形成する参照サンプルのブロックを指し示す動きベクトルにしたがって符号化され、残差データは、コード化されたブロックと予測ブロックの間の差分を示す。イントラコード化されたブロックは、イントラコーディングモードと残差データにしたがって符号化される。さらなる圧縮のために、残差データはピクセルドメインから変換ドメインに変換され得、その結果、残差係数が生じ、それらは次に量子化され得る。初めに2次元アレイに配置される量子化された係数は、複数の係数から成る1次元ベクトルを作成するために走査され得、エントロピーコーディングは、さらにいっそう圧縮を実現するために適用され得る。   [0005] Spatial or temporal prediction results in a predictive block for the block to be coded. The residual data represents the pixel difference between the original block to be coded and the predicted block. The intercoded block is encoded according to a motion vector that points to the block of reference samples that form the prediction block, and the residual data indicates the difference between the coded block and the prediction block. The intra-coded block is encoded according to the intra-coding mode and residual data. For further compression, the residual data can be transformed from the pixel domain to the transform domain, resulting in residual coefficients that can then be quantized. The quantized coefficients initially placed in the two-dimensional array can be scanned to create a one-dimensional vector of coefficients, and entropy coding can be applied to achieve even more compression.

[0006]マルチビューコーディングビットストリームは、例えば複数の視点からのビュー(views)を符号化することによって生成され得る。開発されてきた、あるいは現在開発中のいくつかの3次元(3D)ビデオの標準はマルチビューコーディングの態様を利用する。例えば、異なるビューは、3Dビデオをサポートするために左右の目の視点を送信し得る。別法として、いくつかの3Dビデオコーディングのプロセスは、いわゆるマルチビュープラス深さコーディングを適用し得る。マルチビュープラス深さコーディングにおいて、3Dビデオビットストリームは、テクスチャビュー構成要素だけでなく、深さビュー構成要素も含み得る。例えば、各ビューは1つのテクスチャビュー構成要素と1つの深さビュー構成要素を備え得る。   [0006] A multi-view coding bitstream may be generated, for example, by encoding views from multiple viewpoints. Some three-dimensional (3D) video standards that have been developed or are currently being developed utilize multi-view coding aspects. For example, different views may transmit left and right eye viewpoints to support 3D video. Alternatively, some 3D video coding processes may apply so-called multiview plus depth coding. In multi-view plus depth coding, the 3D video bitstream may include not only the texture view component but also the depth view component. For example, each view may comprise one texture view component and one depth view component.

[0007]一般に、本開示は、3D−HEVCコーデックを用いた2つ以上のビュープラス深さのコーディングを含む高度なコーデックに基づく3Dビデオコーディングに関する。特に、本開示は、深さビューコーディングのための不一致ベクトル(disparity vectors)に関する技術を説明する。   [0007] In general, this disclosure relates to 3D video coding based on advanced codecs, including coding of two or more view plus depths using 3D-HEVC codecs. In particular, this disclosure describes techniques for disparity vectors for depth view coding.

[0008]1つの例において、本開示は、ビデオデータを復号する方法を説明する。ビデオデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、ビデオデータを復号するための方法は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することを含む。さらに、この方法は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することを含み、ここにおいて、少なくとも1つの不一致ベクトルは、各々のCUに関する。この方法は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のCUに関するコーディングブロックを再構築することをも含む。   [0008] In one example, this disclosure describes a method of decoding video data. For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of video data, a method for decoding video data includes at least one reconstructed depth sample of at least one adjacent sample. Determining at least one mismatch value based at least in part on the at least one depth value. Further, the method includes determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each CU. The method also includes reconstructing a coding block for each CU based at least in part on the at least one mismatch vector.

[0009]別の例において、本開示は、ピクチャと関連付けられるデータを記憶するように構成されたメモリと、そのメモリと通信を行う1つまたは複数のプロセッサとを備えるビデオコーディングデバイスに関し、およびビデオデータのピクチャのスライスの各々のCUの各PUに関して、1つまたは複数のプロセッサが少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定するように構成される。さらに、1つまたは複数のプロセッサは、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定するように構成され、ここにおいて、少なくとも1つの不一致ベクトルは、各々のCUに関する。1つまたは複数のプロセッサはまた、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のCUに関するコーディングブロックを再構築するように構成される。   [0009] In another example, this disclosure relates to a video coding device comprising a memory configured to store data associated with a picture, and one or more processors in communication with the memory, and video For each PU of each CU of a slice of a picture of data, one or more processors are at least partially in at least one depth value of at least one reconstructed depth sample of at least one adjacent sample. Based on, configured to determine at least one mismatch value. Further, the one or more processors are configured to determine at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is associated with each CU. . The one or more processors are also configured to reconstruct the coding block for each CU based at least in part on the at least one mismatch vector.

[0010]別の例において、本開示は、実行されると、本開示にしたがった技術を実行するためのビデオ復号デバイスを構成する命令を記憶したコンピュータ可読記憶媒体に関する。ビデオデータのピクチャのスライスの各々のCUの各PUに関して、命令は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定するようにビデオ復号デバイスを構成する。さらに、命令は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定するようにビデオ復号デバイスを構成し、ここにおいて、少なくとも1つの不一致ベクトルは、各々のCUに関する。命令はまた、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のCUに関するコーディングブロックを再構築するようにビデオ復号デバイスを構成する。   [0010] In another example, the present disclosure is directed to a computer-readable storage medium that, when executed, stores instructions that constitute a video decoding device for performing techniques in accordance with the present disclosure. For each PU of each CU of a slice of a picture of video data, the instructions are based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample; The video decoding device is configured to determine at least one mismatch value. Further, the instructions configure the video decoding device to determine at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each CU. The instructions also configure the video decoding device to reconstruct the coding block for each CU based at least in part on the at least one mismatch vector.

[0011]別の例において、本開示は、ビデオデータを符号化する方法を説明する。ビデオデータのピクチャのスライスの各々のCUの各PUに関して、この方法は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することを含む。この方法は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することをも含み、ここにおいて、少なくとも1つの不一致ベクトルは、各々のCUに関する。この方法は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のCUに関するコーディングブロックを符号化された描写(representation)を生成することをも含む。   [0011] In another example, this disclosure describes a method of encoding video data. For each PU of each CU of a slice of a picture of video data, the method is based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample. Determining at least one mismatch value. The method also includes determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each CU. The method also includes generating an encoded representation of the coding block for each CU based at least in part on the at least one mismatch vector.

[0012]別の例において、本開示は、1つまたは複数のプロセッサを備えるビデオコーディングデバイスに関する。ビデオデータのピクチャのスライスの各々のCUの各PUに関して、1つまたは複数のプロセッサは、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定するように構成される。さらに、1つまたは複数のプロセッサは、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定するように構成され、ここにおいて、少なくとも1つの不一致ベクトルは、各々のCUに関する。1つまたは複数のプロセッサはまた、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のCUに関するコーディングブロックの符号化された描写を生成するように構成される。   [0012] In another example, the present disclosure is directed to a video coding device comprising one or more processors. For each PU of each CU of a slice of a picture of video data, the one or more processors at least partly at least one depth value of at least one reconstructed depth sample of at least one adjacent sample. And at least one mismatch value is configured to be determined. Further, the one or more processors are configured to determine at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is associated with each CU. . The one or more processors are also configured to generate an encoded representation of the coding block for each CU based at least in part on the at least one mismatch vector.

[0013]別の例において、本開示は、実行されると、本開示にしたがった技術を実行するためのビデオ符号化デバイスを構成する命令を記憶したコンピュータ可読記憶媒体に関する。ビデオデータのピクチャのスライスの各々のCUの各PUに関して、命令は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定するようにビデオ復号デバイスを構成する。さらに、命令は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定するようにビデオ復号デバイスを構成し、ここにおいて、少なくとも1つの不一致ベクトルは、各々のCUに関する。命令はまた、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のCUに関するコーディングブロックの符号化された描写を生成するようにビデオ復号デバイスを構成する。   [0013] In another example, the present disclosure is directed to a computer-readable storage medium that, when executed, stores instructions that constitute a video encoding device for performing techniques in accordance with the present disclosure. For each PU of each CU of a slice of a picture of video data, the instructions are based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample; The video decoding device is configured to determine at least one mismatch value. Further, the instructions configure the video decoding device to determine at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each CU. The instructions also configure the video decoding device to generate an encoded representation of the coding block for each CU based at least in part on the at least one mismatch vector.

[0014]本開示の1つまたは複数の例の詳細は、添付の図面と下記の詳細な説明において説明される。他の特徴、目的、および利点は、詳細な説明、図面、および特許請求の範囲から明らかになる。   [0014] The details of one or more examples of the disclosure are set forth in the accompanying drawings and the detailed description below. Other features, objects, and advantages will be apparent from the detailed description, drawings, and claims.

[0015] 図1は、本開示において説明される技術を利用し得るビデオコーディングシステムの例を示すブロック図である。[0015] FIG. 1 is a block diagram illustrating an example of a video coding system that may utilize the techniques described in this disclosure. [0016] 図2は、マルチビューコーディングの復号順序の例を示す概念図である。[0016] FIG. 2 is a conceptual diagram illustrating an example of the decoding order of multi-view coding. [0017] 図3は、本開示において説明される技術にしたがったマルチビューコーディングのための予測構造の例を示す概念図である。[0017] FIG. 3 is a conceptual diagram illustrating an example of a prediction structure for multi-view coding according to the technology described in this disclosure. [0018] 図4は、本開示において説明される技術にしたがった隣接ベースの不一致ベクトルの誘導(neighbor-based disparity vector derivation)(NBDV)のための現在の予測ユニット(PU)の空間的に隣接するブロックを示す概念図である。[0018] FIG. 4 illustrates spatial neighbors of a current prediction unit (PU) for neighbor-based disparity vector derivation (NBDV) in accordance with the techniques described in this disclosure. It is a conceptual diagram which shows the block to do. [0019] 図5は、本開示において説明される技術にしたがった後方ワーピング(backward warping)に基づいて、ブロックベースのビュー合成予測(block-based view synthesis prediction)(BVSP)を行うための参照ビューからの深さブロック誘導の視覚化例の概念図である。[0019] FIG. 5 is a reference view for performing block-based view synthesis prediction (BVSP) based on backward warping in accordance with the techniques described in this disclosure. It is a conceptual diagram of the visualization example of depth block guidance from. [0020] 図6は、本開示において説明される技術にしたがった高度な残差予測(ARP)の予測構造の例を示す概念図である。FIG. 6 is a conceptual diagram illustrating an example of a prediction structure of advanced residual prediction (ARP) according to the technique described in this disclosure. [0021] 図7は、本開示において説明される技術にしたがった現在の深さブロックの不一致ベクトルを抽出するために使用される参照サンプルの例を示す概念図である。[0021] FIG. 7 is a conceptual diagram illustrating an example of reference samples used to extract a mismatch vector for a current depth block in accordance with the techniques described in this disclosure. [0022] 図8は、本開示において説明される技術を実施し得るビデオエンコーダの例を示すブロック図である。[0022] FIG. 8 is a block diagram illustrating an example of a video encoder that may implement the techniques described in this disclosure. [0023] 図9は、本開示において説明される技術を実施し得るビデオデコーダの例を示すブロック図である。[0023] FIG. 9 is a block diagram illustrating an example of a video decoder that may implement the techniques described in this disclosure. [0024] 図10は、本開示における1つまたは複数の態様にしたがった復号技術の例を示すフロー図である。[0024] FIG. 10 is a flow diagram illustrating an example of a decoding technique in accordance with one or more aspects of the present disclosure. [0025] 図11は、本開示における1つまたは複数の態様にしたがった符号化技術の例を示すフロー図である。[0025] FIG. 11 is a flow diagram illustrating an example of an encoding technique in accordance with one or more aspects of the present disclosure.

詳細な説明Detailed description

[0026]3D−HEVCにおける深さコーディング(depth coding)が、HEVCコーディングと、インタービュー参照ピクチャを利用する典型的な動き補償である不一致補償の最初に構築される。深さ情報をより好適に表すために、3D−HEVCイントラコーディングにおいて、種々の拡張深さコーディングツールが適用される。拡張深さコーディングツールの全ては、非矩形のパーティション(non-rectangular partitions)に深さブロックを分割することを可能にする。こういった分割ベースの深さイントラコーディングモードは、深さモデリングモード(Depth Modeling Modes)(DMM)、領域境界チェーン(Region Boundary Chain)(RBC)コーディングおよび簡略化された深さコーディング(Simplified Depth Coding)(SDC)を含む。DMM、RBCまたはSDCにおいて、各深さPUは、1つまたは2つの部分に分割され得、かつ各部分は、一定の値、すなわちDC値によって表される。各パーティションに関するDC値は、隣接する参照サンプルを用いて予測され、および残差値は予測誤差を補償するためにさらにコード化され得る。   [0026] Depth coding in 3D-HEVC is constructed at the beginning of HEVC coding and mismatch compensation, which is typical motion compensation using inter-view reference pictures. In order to better represent depth information, various extended depth coding tools are applied in 3D-HEVC intra coding. All of the extended depth coding tools make it possible to divide a depth block into non-rectangular partitions. These split-based depth intra-coding modes include Depth Modeling Modes (DMM), Region Boundary Chain (RBC) coding and Simplified Depth Coding. ) (SDC). In DMM, RBC or SDC, each depth PU can be divided into one or two parts, and each part is represented by a constant value, ie a DC value. The DC value for each partition is predicted using adjacent reference samples, and the residual value can be further coded to compensate for the prediction error.

[0027]DMMとRBC両方の方法は、深さPUを2つの部分に分割するが、それらは分割パターンの表現については相違がある。DMMにおいて、ウェッジレットと輪郭パターン(wedgelet and contour pattern)を含む2つのタイプの分割パターンが適用される。ウェッジレットパターンは、特定の直線を用いて深さPUを分割する(segments)。ウェッジレットとは異なり、RBCは、一連の連結されたチェーンを用いて、明確に分割パターンを表し、各チェーンは、1つのサンプルと0から7までのインデックス付の8個の連結サンプル(eight-connectivity samples)のうちの1つの連結であり得、輪郭パターンは、深さPUをそれぞれが別個のサブ領域を含み得る2つのイレギュラーなパーティションへの分割をサポートできる。深さブロックの輪郭のパーティションは、同じ場所を共有するテクスチャ(co-located texture)を解析することによって計算され得る。さらに、分割パターンをシグナリングするための異なる方法は、1)ウェッジレットパターンの既定のセットから選択されたウェッジレットパターンインデックスを明確にシグナリングすること、2)隣接するイントラ予測モードを用いる現在のウェッジレットパターンとウェッジレットパターンを予測すること、3)再構築された同じ場所を共有するテクスチャブロックに基づいて、分割パターンを抽出すること、を含む、ウェッジレットモードで利用される。   [0027] Both DMM and RBC methods divide the depth PU into two parts, but they differ in the representation of the division pattern. In DMM, two types of partitioning patterns are applied, including wedgelet and contour patterns. The wedgelet pattern segments the depth PU using specific straight lines (segments). Unlike a wedgelet, an RBC clearly represents a division pattern using a series of connected chains, each chain consisting of one sample and eight connected samples (eight-) indexed from 0 to 7. of the connectivity samples), the contour pattern can support splitting the depth PU into two irregular partitions, each of which may contain a separate sub-region. The contour partition of the depth block can be calculated by analyzing a co-located texture that shares the same location. In addition, different methods for signaling split patterns are: 1) unambiguously signaling a selected wedgelet pattern index from a predefined set of wedgelet patterns, and 2) current wedgelets using adjacent intra prediction modes. Used in wedgelet mode, including predicting patterns and wedgelet patterns, and 3) extracting split patterns based on texture blocks that share the same reconstructed location.

[0028]動きパラメータ継承(Motion Parameter Inheritance)(MPI)は統合候補リスト生成を修正することによって実施されてきた。同じ場所を共有するテクスチャブロックの動き情報から生成され得る1つの付加的な統合候補は、HEVC統合モードによって作成されたオリジナルの空間的および時間的な候補に加えて、現在の深さブロックの統合リストに追加され得る。   [0028] Motion Parameter Inheritance (MPI) has been implemented by modifying the merge candidate list generation. One additional integration candidate that can be generated from motion information of texture blocks sharing the same location is the integration of the current depth block in addition to the original spatial and temporal candidates created by the HEVC integration mode. Can be added to the list.

[0029]高度なインタービューコーディングスキームは、深さコーディングに適用されない。深さコーディングにおいて、不一致ベクトルを抽出するために、テクスチャコーディングにおいて用いられる隣接ベースの不一致ベクトルの誘導(NBDV)スキームを利用することは、より精度が低くかつより複雑になり得る。したがって、本開示に説明される技術は、隣接するブロックにおける1つまたは複数の再構築された深さサンプルから現在の深さブロックに関する不一致ベクトルを生成する。抽出された不一致ベクトルは、インタービュー動き予測と高度な残差予測を含む高度なインタービューコーディングツールに利用され得る。   [0029] Advanced inter-view coding schemes are not applied to depth coding. In depth coding, utilizing the neighbor-based mismatch vector derivation (NBDV) scheme used in texture coding to extract mismatch vectors can be less accurate and more complex. Accordingly, the techniques described in this disclosure generate a mismatch vector for the current depth block from one or more reconstructed depth samples in adjacent blocks. The extracted mismatch vector can be used for advanced interview coding tools including interview motion prediction and advanced residual prediction.

[0030]深さブロックに関する不一致ベクトル誘導は、PUレベルまたはCUレベルにおいて生じ得る。CUレベルの不一致ベクトル誘導において、CUの全てのPUに関して、現在のPUをカバーするコーディングユニット(CU)の隣接するブロックにおける再構築された深さサンプルのうちの1つの深さ値は、所定の参照ビューの対応するブロックに対する不一致ベクトルに変換されるために(to be converted to a disparity vector to a corresponding block of a given reference view)利用され得る。不一致値から不一致ベクトルへの変換は、カメラパラメータに基づき得る。複数の不一致ベクトルは、参照ビューに対応するそれぞれが抽出され得る。   [0030] Mismatch vector derivation for depth blocks may occur at the PU level or the CU level. In CU level mismatch vector derivation, for all PUs of a CU, the depth value of one of the reconstructed depth samples in adjacent blocks of the coding unit (CU) covering the current PU is given by Can be used to be converted to a disparity vector to a corresponding block of a given reference view. The conversion from a mismatch value to a mismatch vector may be based on camera parameters. Each of the plurality of mismatch vectors can be extracted corresponding to the reference view.

[0031]例えば、少なくとも1つの不一致値を決定する際に、システムは、各々のPUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定し得る。少なくとも1つの不一致値に少なくとも部分的に基づいて少なくとも1つの不一致ベクトルを決定する際に、システムは、2つ以上の不一致値に少なくとも部分的に基づいて2つ以上の不一致ベクトルを決定し得る。PUの左上のサンプルは、座標(x,y)を有し、2つ以上の再構築された深さサンプルは、PUの上部に隣接する行、PUの左側に隣接する列、各々のPUの特別な隣接するブロックに配置された任意のサンプル、座標(x−1,y+1)を有するサンプル、座標(x+1,y−1)を有するサンプル、およびPUのサイズがW×Hによって表される場合は、座標(x−1,y+H−1)を有するサンプルと座標(x+W−1,y−1)を有するサンプル、のうちの少なくとも2つ以上からのものである。   [0031] For example, in determining at least one mismatch value, the system may determine two or more mismatch values based at least in part on two or more adjacent samples of each PU. In determining at least one mismatch vector based at least in part on at least one mismatch value, the system may determine two or more mismatch vectors based at least in part on the two or more mismatch values. The upper left sample of the PU has coordinates (x, y), and two or more reconstructed depth samples are the rows adjacent to the top of the PU, the columns adjacent to the left side of the PU, each PU's Arbitrary samples placed in special adjacent blocks, samples with coordinates (x-1, y + 1), samples with coordinates (x + 1, y-1), and the size of PU is represented by WxH Are from at least two of the sample having coordinates (x-1, y + H-1) and the sample having coordinates (x + W-1, y-1).

[0032]PUをカバーするCUの隣接するサンプルは下記のとおり選択され得る。現在のPUをカバーするCU内の左上のサンプルの座標は(x,y)と表され得る。1つの例において、現在のPUをカバーするCUの左上に隣接するサンプルが選択され得る。左上に隣接するサンプルは(x−1,y−1)の座標を有する。さらに、現在のPUをカバーするCUの上部に隣接する行または左側に隣接する列に配置された任意のサンプルが使用され得る。さらに、現在のPUをカバーするCUの空間的に隣接するブロックに配置される任意のサンプルが使用され得る。   [0032] Adjacent samples of a CU covering a PU may be selected as follows. The coordinates of the upper left sample in the CU covering the current PU can be expressed as (x, y). In one example, a sample adjacent to the upper left of the CU that covers the current PU may be selected. The sample adjacent to the upper left has (x-1, y-1) coordinates. Furthermore, any sample placed in a row adjacent to the top of the CU covering the current PU or a column adjacent to the left side may be used. Furthermore, any sample placed in a spatially adjacent block of the CU covering the current PU can be used.

[0033]別法として、現在のPUがコード化されると、現在のPUをカバーするCUの2つ以上の使用可能な隣接するサンプルは、現在のPUに関する1つ又は複数の不一致ベクトルを抽出するために使用され得る。例えば、座標(x,y−1)を有する別の上部のサンプルと座標(x−1,y)を有する別の左側のサンプルが使用され得る。別法として、(x−1,y+1)または(x+1,y−1)の座標を有するサンプルが使用され得る。CUのサイズが2N×2Nによって表され得る場合は、(x−1,y+2N−1)および(x+2N−1,y−1)の座標を有する任意のサンプルが使用され得る。さらに、上部に隣接する行、左側に隣接する列、または現在のPUをカバーするCUの空間的に隣接するブロックの任意のサンプルが使用され得る。   [0033] Alternatively, when the current PU is coded, two or more available adjacent samples of the CU covering the current PU extract one or more mismatch vectors for the current PU. Can be used to For example, another upper sample with coordinates (x, y-1) and another left sample with coordinates (x-1, y) may be used. Alternatively, samples with (x-1, y + 1) or (x + 1, y-1) coordinates can be used. If the size of the CU can be represented by 2N × 2N, any sample with coordinates (x−1, y + 2N−1) and (x + 2N−1, y−1) can be used. Furthermore, any sample of the top adjacent row, the left adjacent column, or the spatially adjacent block of CUs covering the current PU may be used.

[0034]例えば、少なくとも1つの不一致値を決定する際に、システムは、各々のCUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定し得る。各々のCUの左上のサンプルは、座標(x,y)を有し、2つ以上の再構築された深さサンプルは、各々のCUの左上に隣接するサンプル、各々のCUの上部に隣接する行、各々のCUの左側に隣接する列、各々のCUの特別な隣接するブロックに配置された任意のサンプル、座標(x−1,y+1)を有するサンプル、座標(x+1,y−1)を有するサンプル、および各々のCUのサイズが2N×2Nで表される場合は、座標(x−1,y+2N−1)を有するサンプルと座標(x+2N−1,y−1)を有するサンプル、のうちの少なくとも2つ以上からのものである。   [0034] For example, in determining at least one mismatch value, the system may determine two or more mismatch values based at least in part on two or more adjacent samples of each CU. The upper left sample of each CU has coordinates (x, y), and two or more reconstructed depth samples are adjacent to the upper left of each CU, adjacent to the top of each CU Row, adjacent column to the left of each CU, any sample placed in a special adjacent block of each CU, sample with coordinates (x-1, y + 1), coordinates (x + 1, y-1) And a sample having coordinates (x−1, y + 2N−1) and a sample having coordinates (x + 2N−1, y−1) when the size of each CU is represented by 2N × 2N From at least two of the above.

[0035]別法として、現在のPUがコード化されると、現在のPUをカバーする最大CU(LCU)の1つまたは複数の使用可能な隣接するサンプルが、現在のPUに関する1つまたは複数の不一致ベクトルを抽出するために使用され得る。いくつかの例において、上述したサンプルのうちのいくつかはLCUのために使用され得る。   [0035] Alternatively, once the current PU is coded, one or more available adjacent samples of the largest CU (LCU) covering the current PU may be one or more for the current PU. Can be used to extract a mismatch vector. In some examples, some of the samples described above may be used for the LCU.

[0036]PUレベルの不一致ベクトル誘導に関して、各PUについて、隣接するブロックにおいて再構築された深さサンプルのうちの1つの深さ値は、所定の参照ビューの対応するブロックに対する不一致ベクトルに変換されるために利用され得る。不一致値から不一致ベクトルへの変換は、カメラパラメータに基づき得る。参照ビューにそれぞれ対応する複数の不一致ベクトルが抽出され得る。   [0036] For PU level mismatch vector derivation, for each PU, the depth value of one of the reconstructed depth samples in the neighboring block is converted to a mismatch vector for the corresponding block of a given reference view. Can be used to The conversion from a mismatch value to a mismatch vector may be based on camera parameters. A plurality of mismatch vectors corresponding to the reference views can be extracted.

[0037]図1は、本開示において説明される技術を利用し得るビデオコーディングシステム10の例を示すブロック図である。ここで使用されるように、「ビデオコーダ」という用語は一般に、ビデオエンコーダとビデオデコーダの両方を指す。本開示において、「ビデオコーディング」または「コーディング」という用語は一般に、ビデオ符号化またはビデオ復号を指し得る。   [0037] FIG. 1 is a block diagram illustrating an example of a video coding system 10 that may utilize the techniques described in this disclosure. As used herein, the term “video coder” generally refers to both video encoders and video decoders. In this disclosure, the terms “video coding” or “coding” may generally refer to video encoding or video decoding.

[0038]図1に示されたように、ビデオコーディングシステム10は、ソースデバイス12とデスティネーションデバイス14を含む。ソースデバイス12は符号化されたビデオデータを生成する。したがって、ソースデバイス12は、ビデオ符号化デバイスまたはビデオ符号化装置と称され得る。デスティネーションデバイス14は、ソースデバイス12によって生成された符号化されたビデオデータを復号し得る。したがって、デスティネーションデバイス14は、ビデオ復号デバイスまたはビデオ復号装置と称され得る。ソースデバイス12とデスティネーションデバイス14は、ビデオコーディングデバイスまたはビデオコーディング装置の例であり得る。   [0038] As shown in FIG. 1, the video coding system 10 includes a source device 12 and a destination device 14. Source device 12 generates encoded video data. Accordingly, the source device 12 may be referred to as a video encoding device or a video encoding device. Destination device 14 may decode the encoded video data generated by source device 12. Accordingly, the destination device 14 may be referred to as a video decoding device or a video decoding device. Source device 12 and destination device 14 may be examples of video coding devices or video coding devices.

[0039]ソースデバイス12とデスティネーションデバイス14は、デスクトップコンピュータ、モバイルコンピューティングデバイス、ノートブック(例えばラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンのようなテレフォンハンドセット、テレビジョン、カメラ、表示デバイス、デジタルメディアプレイヤ、ビデオゲームコンソール、自動車内に設置されたコンピュータなどを含む広範囲にわたるデバイスを備え得る。   [0039] Source device 12 and destination device 14 may be a desktop computer, a mobile computing device, a notebook (eg, laptop) computer, a tablet computer, a set top box, a telephone handset such as a so-called "smart" phone, a television A wide range of devices, including cameras, display devices, digital media players, video game consoles, computers installed in automobiles, and the like.

[0040]デスティネーションデバイス14は、チャネル16を介してソースデバイス12から符号化されたビデオデータを受信し得る。チャネル16は、ソースデバイス12からデスティネーションデバイス14へ符号化されたビデオデータを移動することが可能な1つまたは複数のメディアまたはデバイスを備え得る。一例において、チャネル16は、ソースデバイス12が、符号化されたビデオデータを直接デスティネーションデバイス14に即時送信することを可能にする1つまたは複数の通信メディアを備え得る。この例において、ソースデバイス12は、ワイヤレス通信プロトコルのような通信の標準にしたがって、符号化されたビデオデータを変調し得、デスティネーションデバイス14に変調されたビデオデータを送信し得る。1つまたは複数の通信メディアは、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路(physical transmission lines)のようなワイヤレスおよび/またはワイヤード通信メディアを含み得る。1つまたは複数の通信メディアは、ローカルエリアネットワーク、広域ネットワーク、またはグローバルネットワーク(例えば、インターネット)のようなパケットベースネットワークの一部を形成し得る。1つまたは複数の通信メディアは、ソースデバイス12からデスティネーションデバイス14への通信を容易にするルータ、スイッチ、基地局、または他の機器を含み得る。   [0040] Destination device 14 may receive encoded video data from source device 12 via channel 16. Channel 16 may comprise one or more media or devices capable of moving encoded video data from source device 12 to destination device 14. In one example, the channel 16 may comprise one or more communication media that allow the source device 12 to immediately transmit the encoded video data directly to the destination device 14. In this example, source device 12 may modulate the encoded video data and transmit the modulated video data to destination device 14 according to a communication standard such as a wireless communication protocol. The one or more communication media may include wireless and / or wired communication media such as a radio frequency (RF) spectrum or one or more physical transmission lines. One or more communication media may form part of a packet-based network, such as a local area network, a wide area network, or a global network (eg, the Internet). The one or more communication media may include a router, switch, base station, or other equipment that facilitates communication from the source device 12 to the destination device 14.

[0041]別の例において、チャネル16は、ソースデバイス12によって生成された符号化されたビデオデータを記憶する記憶媒体を含み得る。この例において、デスティネーションデバイス14は、例えば、ディスクアクセスまたはカードアクセスを介して記憶媒体にアクセスし得る。記憶媒体は、Blu−ray(登録商標)ディスク、DVD,CD−ROM、フラッシュメモリ、または符号化されたビデオデータを記憶するための他の適切なデジタル記憶メディアのように、ローカルにアクセスされる様々なデータ記憶メディアを含み得る。   [0041] In another example, the channel 16 may include a storage medium that stores encoded video data generated by the source device 12. In this example, destination device 14 may access the storage medium via disk access or card access, for example. The storage medium is accessed locally like a Blu-ray® disk, DVD, CD-ROM, flash memory, or other suitable digital storage media for storing encoded video data. Various data storage media may be included.

[0042]さらなる例において、チャネル16は、ソースデバイス12によって生成された、符号化されたビデオデータを記憶するファイルサーバまたは別の中間記憶デバイスを含み得る。この例において、デスティネーションデバイス14は、ストリーミングまたはダウンロードを介してファイルサーバまたは他の中間記憶デバイスに記憶された、符号化されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶し、該符号化されたビデオデータをデスティネーションデバイス14に送信することが可能なサーバのタイプであり得る。ファイルサーバの例は、ウェブサーバ(例えば、ウェブサイト用の)ファイル転送プロトコル(FTP)サーバ、ネットワーク接続型記憶(NAS)デバイス、およびローカルディスクドライブを含む。   [0042] In a further example, the channel 16 may include a file server or another intermediate storage device that stores the encoded video data generated by the source device 12. In this example, destination device 14 may access encoded video data stored on a file server or other intermediate storage device via streaming or download. The file server may be a type of server that is capable of storing encoded video data and transmitting the encoded video data to the destination device 14. Examples of file servers include web servers (eg, for websites) file transfer protocol (FTP) servers, network attached storage (NAS) devices, and local disk drives.

[0043]デスティネーションデバイス14は、インターネット接続のような標準のデータ接続を介して符号化されたビデオデータにアクセスし得る。データ接続のタイプの例は、ワイヤレスチャネル(例えば、Wi−Fi(登録商標)接続)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、またはファイルサーバに記憶された、符号化されたビデオデータにアクセスするのに適切な両方の組合せを含み得る。ファイルサーバからの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその両方の組合せであり得る。   [0043] The destination device 14 may access the encoded video data via a standard data connection, such as an Internet connection. Examples of data connection types include encoded video data stored in a wireless channel (eg, Wi-Fi® connection), wired connection (eg, DSL, cable modem, etc.), or a file server. It may contain a combination of both appropriate for access. The transmission of the encoded video data from the file server can be a streaming transmission, a download transmission, or a combination of both.

[0044]本開示の技術は、ワイヤレスアプリケーションまたは設定に限定されるものではない。この技術は、例えば、インターネットを介した、無線テレビ放送、ケーブルテレビ送信、衛星テレビ送信、ストリーミングビデオ送信のような様々なマルチメディアアプリケーション、データ記憶媒体に記憶するためのビデオデータの符号化、データ記憶媒体に記憶されたビデオデータの復号、あるいは他のアプリケーション、をサポートするビデオコーディングに適用され得る。いくつかの例において、ビデオコーディングシステム10は、ビデオストリーミング、ビデオの再生、ビデオ放送、および/またはビデオ電話のようなアプリケーションをサポートするための一方向または双方向のビデオ送信をサポートするように構成され得る。   [0044] The techniques of this disclosure are not limited to wireless applications or settings. This technology includes various multimedia applications such as wireless television broadcasting, cable television transmission, satellite television transmission, streaming video transmission over the Internet, encoding of video data for storage in data storage media, data The present invention can be applied to video coding that supports decoding of video data stored in a storage medium or other applications. In some examples, video coding system 10 is configured to support one-way or two-way video transmission to support applications such as video streaming, video playback, video broadcast, and / or video telephony. Can be done.

[0045]図1は、単に一例であり、本開示の技術は、符号化デバイスおよび復号デバイスの間にいずれかのデータ通信を必ずしも含まないビデオコーディング設定(例えば、ビデオ符号化またはビデオ復号)に適用し得る。他の例において、データはローカルメモリから検索され、ネットワークなどを介してストリーミングされる。ビデオ符号化デバイスは、データを符号化してメモリに記憶し得、および/またはビデオ復号デバイスは、メモリからデータを検索して復号し得る。多くの例において、符号化および復号は相互に通信を行わないデバイスによって実行され得るが、単にデータを符号化してメモリに記憶しおよび/またはメモリからデータを検索して復号するのみである。   [0045] FIG. 1 is merely an example, and the techniques of this disclosure may be used in video coding settings that do not necessarily include any data communication between an encoding device and a decoding device (eg, video encoding or video decoding). Applicable. In other examples, data is retrieved from local memory and streamed over a network or the like. A video encoding device may encode and store data in memory, and / or a video decoding device may retrieve and decode data from memory. In many examples, encoding and decoding may be performed by devices that do not communicate with each other, but simply encode and store data in memory and / or retrieve and decode data from memory.

[0046]図1の例において、ソースデバイス12は、ビデオソース18、ビデオエンコーダ20、および出力インターフェース22を含む。いくつかの例において、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含み得る。ビデオソース18は、例えばビデオカメラなどのビデオキャプチャデバイス、前にキャプチャしたビデオデータを含むビデオアーカイブ、ビデオコンテンツプロバイダからビデオデータを受信するためのビデオフィードインターフェース、および/またはビデオデータを生成するためのコンピュータグラフィックスシステム、またはビデオデータのソースなどの組合せを含み得る。   [0046] In the example of FIG. 1, the source device 12 includes a video source 18, a video encoder 20, and an output interface 22. In some examples, output interface 22 may include a modulator / demodulator (modem) and / or a transmitter. The video source 18 may be a video capture device, such as a video camera, a video archive containing previously captured video data, a video feed interface for receiving video data from a video content provider, and / or for generating video data. Combinations such as a computer graphics system or a source of video data may be included.

[0047]ビデオエンコーダ20は、ビデオソース18からのビデオデータを符号化し得る。いくつかの例において、ソースデバイス12は、出力インターフェース22を介してデスティネーションデバイス14に符号化されたビデオデータを直接送信する。他の例において、符号化されたビデオデータは、デスティネーションデバイス14が復号および/または再生のために後からアクセスするための記憶媒体またはファイルサーバ上にも記憶され得る。   [0047] Video encoder 20 may encode video data from video source 18. In some examples, the source device 12 transmits the encoded video data directly to the destination device 14 via the output interface 22. In other examples, the encoded video data may also be stored on a storage medium or file server for subsequent access by destination device 14 for decoding and / or playback.

[0048]本開示の技術は、ビデオエンコーダ20のようなビデオエンコーダの要素によって実行され得る。この技術において、ビデオデータのピクチャのスライスの各々のコーディングユニットの各予測ユニットに関して、ビデオエンコーダ20は、少なくとも1つの隣接サンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定し得る。ビデオエンコーダ20は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定し得、ここにおいて、少なくとも1つの不一致ベクトルが各々のコーディングユニットに関する。ビデオエンコーダ20は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のコーディングユニットに関するコーディングブロックの符号化された描写を生成し得る。   [0048] The techniques of this disclosure may be performed by elements of a video encoder, such as video encoder 20. In this technique, for each prediction unit of each coding unit of a slice of a picture of video data, video encoder 20 is configured to at least one depth value of at least one reconstructed depth sample of at least one neighboring sample. Based at least in part, at least one mismatch value may be determined. Video encoder 20 may determine at least one mismatch vector based at least in part on the at least one mismatch value, where at least one mismatch vector is associated with each coding unit. Video encoder 20 may generate an encoded representation of the coding block for each coding unit based at least in part on the at least one mismatch vector.

[0049]図1の例において、デスティネーションデバイス14は、入力インターフェース28、ビデオデコーダ30、および表示デバイス32を含む。いくつかの例において、入力インターフェース28は、受信機および/またはモデムを含む。入力インターフェース28は、チャネル16を介して符号化されたビデオデータを受信し得る。表示デバイス32は、デスティネーションデバイス14と統合され得るか、またはデスティネーションデバイス14の外部にあり得る。一般に、表示デバイス32は、復号されたビデオデータを表示する。表示デバイス32は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプの表示デバイスのような様々な表示デバイスを備え得る。   [0049] In the example of FIG. 1, the destination device 14 includes an input interface 28, a video decoder 30, and a display device 32. In some examples, input interface 28 includes a receiver and / or a modem. Input interface 28 may receive video data encoded via channel 16. Display device 32 may be integrated with destination device 14 or may be external to destination device 14. In general, the display device 32 displays the decoded video data. Display device 32 may comprise various display devices such as a liquid crystal display (LCD), a plasma display, an organic light emitting diode (OLED) display, or another type of display device.

[0050]本開示の技術は、ビデオデコーダ30のようなビデオデコーダの要素によって実行され得る。ビデオデータのピクチャのスライスの各々のコーディングユニットの各予測ユニットに関して、ビデオデコーダ30は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定し得る。ビデオデコーダ30は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定し得、ここにおいて、少なくとも1つの不一致ベクトルが各々のコーディングユニットに関する。ビデオデコーダ30は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のコーディングユニットに関するコーディングブロックを再構築し得る。   [0050] The techniques of this disclosure may be performed by elements of a video decoder, such as video decoder 30. For each prediction unit of each coding unit of a slice of a picture of video data, video decoder 30 is at least partially at least at least one depth value of at least one reconstructed depth sample of at least one adjacent sample. Based on the at least one discrepancy value. Video decoder 30 may determine at least one mismatch vector based at least in part on the at least one mismatch value, wherein at least one mismatch vector is associated with each coding unit. Video decoder 30 may reconstruct the coding block for each coding unit based at least in part on the at least one mismatch vector.

[0051]ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまた複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、アプリケーション特定集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ハードウェア、またはそれらの任意の組合せのような様々な適切な回路のいずれかとして実装され得る。この技術がソフトウェアにおいて部分的に実施される場合、デバイスは適切な非一時的なコンピュータ可読記憶媒体内にソフトウェアのための命令を記憶し得、本開示の技術を実行するために、1つまた複数のプロセッサを用いてハードウェア内の命令を実行し得る。(ハードウェア、ソフトウェア、ハードウェアとソフトウェアの組合せなどを含む)前述のいずれかは、1つまたは複数のプロセッサであると考えられ得る。ビデオエンコーダ20およびビデオデコーダ30のそれぞれは1つまた複数のエンコーダまたはデコーダ内に含まれ得、それらのうちのいずれかは、それぞれのデバイス内の組み合されたエンコーダ/デコーダ(CODEC)の一部として統合され得る。   [0051] Each of video encoder 20 and video decoder 30 includes one or more microprocessors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), discrete logic, hardware, Or it can be implemented as any of a variety of suitable circuits, such as any combination thereof. If this technique is partially implemented in software, the device may store instructions for the software in a suitable non-transitory computer readable storage medium, one or more to perform the techniques of this disclosure. Multiple processors may be used to execute instructions in hardware. Any of the foregoing (including hardware, software, a combination of hardware and software, etc.) may be considered to be one or more processors. Each of video encoder 20 and video decoder 30 may be included in one or more encoders or decoders, any of which may be part of a combined encoder / decoder (CODEC) in the respective device. Can be integrated as

[0052]本開示は、一般的に、特定の情報をビデオデコーダ30のような別のデバイスに「シグナリング」するビデオエンコーダ20に言及し得る。「シグナリング」という用語は、一般的に、圧縮されたビデオデータを復号するために使用されるシンタックス要素および/または他のデータの通信を指し得る。こういった通信は、即時にまたはほぼ即時に発生し得る。別法として、符号化時に符号化されたビットストリームにおいて、例えばファイルサーバまたはストリーミングサーバを介してリモートにアクセス可能な記憶媒体またはローカルにアクセス可能な記憶デバイスといったコンピュータ可読記憶媒体に、例えばシンタックス要素を記憶する場合、こういった通信は、一定時間にわたって発生し得、次にこの媒体に記憶された後は、いつでも復号デバイスによって検索され得る。   [0052] This disclosure may generally refer to video encoder 20 that "signals" certain information to another device, such as video decoder 30. The term “signaling” may generally refer to communication of syntax elements and / or other data used to decode compressed video data. Such communications can occur immediately or almost immediately. Alternatively, in a bitstream encoded at the time of encoding, for example, a syntax element Such communication may occur over a period of time and then retrieved by the decoding device at any time after being stored on the medium.

[0053]いくつかの例において、ビデオエンコーダ20およびビデオデコーダ30は、スケーラブルビデオコーディング(SVC)拡張、マルチビュービデオコーディング(MVC)拡張、およびMVCベースの3DV拡張を含む、ISO/IEC MPEG−4ビジュアルおよびITU−T H.264(ISO/IEC MPEG−4 AVCとしても知られる)のようなビデオ圧縮の標準にしたがって動作する。いくつかの例において、MVCベースの3DVに準拠する任意の適法なビットストリームは、例えば、ステレオハイプロファイルなどのMVCプロファイルに適合し得るサブビットストリームを常に含む。H.264/AVCのMVC拡張の共同文書は、2010年3月の「一般的なオーディオビジュアルサービスのための高度なビデオコーディング」ITU−T 推薦 H.264において説明される。さらに、H.264/AVCに対する3次元ビデオ(3DV)コーディング拡張、すなわちAVCベースの3DVを生成するために現在進行中の取り組みがある。他の例において、ビデオエンコーダ20およびビデオデコーダ30は、ITU−T H.261、ISO/IEC MPEG−1ビジュアル、ITU−T H.262またはISO/IEC MPEG−2ビジュアル、ITU−T H.263、ISO/IEC MPEG−4ビジュアル、およびITU−T H.264、ISO/IECビジュアルにしたがって動作し得る。   [0053] In some examples, video encoder 20 and video decoder 30 may include ISO / IEC MPEG-4, including scalable video coding (SVC) extensions, multi-view video coding (MVC) extensions, and MVC-based 3DV extensions. Visual and ITU-TH It operates according to video compression standards such as H.264 (also known as ISO / IEC MPEG-4 AVC). In some examples, any legitimate bitstream that conforms to MVC-based 3DV always includes a sub-bitstream that may conform to an MVC profile such as, for example, a stereo high profile. H. H.264 / AVC's MVC extension collaborative document was published in March 2010, “Advanced Video Coding for General Audio-Visual Services” ITU-T Recommendation H.264. H.264. In addition, H.C. There is an ongoing effort to generate a 3D video (3DV) coding extension to H.264 / AVC, ie AVC-based 3DV. In another example, the video encoder 20 and the video decoder 30 are ITU-T H.264. 261, ISO / IEC MPEG-1 Visual, ITU-T H.264. 262 or ISO / IEC MPEG-2 Visual, ITU-T H.264. H.263, ISO / IEC MPEG-4 Visual, and ITU-T H.264. H.264, may operate according to ISO / IEC visual.

[0054]図1の例において、ビデオエンコーダ20およびビデオデコーダ30は、ITU−Tビデオコーディング専門家グループ(VCEG)とISO/IEC動画専門家グループ(MPEG)のビデオコーディング(JCT−VC)に関する共同協力チームによって現在開発中の高効率ビデオコーディング(HEVC)の標準にしたがって動作し得る。「HEVC作業ドラフト10」と称される近く発表されるHEVCの標準のドラフトは、ブロス氏およびその他による「高効率ビデオコーディング(HEVC)テキスト仕様書ドラフト10」に記載されており、2013年1月にスイスのジュネーブにて開催された、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11のビデオコーディング(JCT−VC)に関する共同協力チームによる第12回の会議にて発表され、2013年5月31よりhttp://phenix.it−sudparis.eu/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC−L1003−v34.zipから使用可能である。   [0054] In the example of FIG. 1, video encoder 20 and video decoder 30 are jointly involved in video coding (JCT-VC) of the ITU-T video coding expert group (VCEG) and ISO / IEC video expert group (MPEG). It may operate according to the High Efficiency Video Coding (HEVC) standard currently being developed by a collaborative team. The upcoming HEVC standard draft, referred to as “HEVC Working Draft 10”, is described in “High Efficiency Video Coding (HEVC) Text Specification Draft 10” by Bros and others, January 2013. Announced at the 12th meeting of the joint team on video coding (JCT-VC) of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11 held in Geneva, Switzerland. From month 31 http: // phenix. it-sudparis. eu / jct / doc_end_user / documents / 12_Geneva / wg11 / JCTVC-L1003-v34. It can be used from zip.

[0055]さらに、スケーラブルビデオコーディング、マルチビューコーディング、およびHEVCに関する3DV拡張を作成するために現在進行中の取り組みがある。HEVCのSVC拡張はSHEVCと称され得る。HEVCの3DV拡張は、HEVCベースの3DVまたは3D−HEVCと称され得る。3D−HEVCは、2011年11月/12月にスイスのジュネーブにて発表された、シュワルツ氏およびその他による「フラウンホーファーHHI(HEVCに準拠した構成A)、ISO/IEC JTC1/SC29/WG11,Doc.MPEG11/M22570による3Dビデオビデオコーディングの技術提案の説明」、以下「m22570」と称す、および2011年11月/12月にスイスのジュネーブにて発表された、シュワルツ氏およびその他による「フラウンホーファーHHI(HEVCに準拠した構成B)、ISO/IEC JTC1/SC29/WG11,Doc.MPEG11/M22571による3Dビデオコーディングの技術提案の説明」、以下「m22571」と称す、において提案された解決法に部分的に基づく。3D−HEVCに関する参照ソフトウェアの説明は、2012年2月に米国のサンノゼにて発表された、シュワルツ氏およびその他による「HEVCベースの3Dビデオコーディングに関して検討中のテストモデル」、ISO/IEC JTC1/SC29/WG11 MPEG2011/N12559において使用可能である。参照ソフトウェア、すなわちHTMバージョン3.0は、https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM−3.0/から、2013年5月31日より使用可能である。   [0055] In addition, there are ongoing efforts to create 3DV extensions for scalable video coding, multiview coding, and HEVC. The SVC extension of HEVC can be referred to as SHEVC. The 3DV extension of HEVC may be referred to as HEVC-based 3DV or 3D-HEVC. 3D-HEVC was announced in November / December 2011 in Geneva, Switzerland, by Schwartz and others “Fraunhofer HHI (Configuration A in accordance with HEVC), ISO / IEC JTC1 / SC29 / WG11, Doc. "Explanation of 3D Video Video Coding Technical Proposal According to MPEG11 / M22570", "M22570", and "Fraunhofer HHI" by Schwartz and others, announced in Geneva, Switzerland in November / December 2011 (Configuration B in accordance with HEVC), ISO / IEC JTC1 / SC29 / WG11, Doc.MPEG11 / M22571 3D video coding technical proposal description ", hereinafter referred to as" m22571 ", partially in the proposed solution Based on Ku. Reference software description for 3D-HEVC was published in San Jose, USA in February 2012, “Test model under consideration for HEVC-based 3D video coding” by Schwartz and others, ISO / IEC JTC1 / SC29. / WG11 MPEG2011 / N12559 can be used. The reference software, ie, HTM version 3.0, is available at https: // hevc. hhi. fraunhofer. From de / svn / svn_3DVCSoftware / tags / HTM-3.0 /, it can be used from May 31, 2013.

[0056]H.264/AVC、HEVC、および他のビデオコーディングの標準において、ビデオシーケンスは一連のピクチャを含み得る。ピクチャは「フレーム」とも称され得る。ピクチャは3つのサンプルアレイを含み得、S、SCbおよびSCrと表示される。Sは、ルーマサンプルの2次元アレイ(すなわちブロック)である。SCbは、Cbクロミナンスサンプルの2次元アレイである。SCrは、Crクロミナンスサンプルの2次元アレイである。クロミナンスサンプルは、ここで、「クロマ」サンプルとも称され得る。他の例において、ピクチャは単色であり得、およびルーマサンプルのアレイを含むのみであり得る。 [0056] H. In H.264 / AVC, HEVC, and other video coding standards, a video sequence may include a series of pictures. A picture may also be referred to as a “frame”. A picture may include three sample arrays, denoted S L , S Cb and S Cr . S L is a two-dimensional array (ie, block) of luma samples. S Cb is a two-dimensional array of Cb chrominance samples. S Cr is a two-dimensional array of Cr chrominance samples. A chrominance sample may also be referred to herein as a “chroma” sample. In other examples, the picture may be monochromatic and only contain an array of luma samples.

[0057]H.264/AVCにおいて、各ピクチャは、マクロブロック(MBs)のセットに分割され得る。マクロブロックは、3つのサンプルアレイを有するピクチャのルーマサンプルの16×16のブロックとクロマサンプルの2つの対応するブロック、または単色のピクチャ、または3つの別個の色平面を使用してコード化されるピクチャのサンプルの16×16のブロックである。   [0057] H. In H.264 / AVC, each picture may be divided into a set of macroblocks (MBs). A macroblock is coded using a 16 × 16 block of luma samples and two corresponding blocks of chroma samples, or a monochrome picture, or three separate color planes of a picture with three sample arrays A 16 × 16 block of picture samples.

[0058]ビデオエンコーダ20は、インター予測またはイントラ予測を用いてマクロブロックを符号化し得る。ビデオエンコーダ20がインター予測を用いてマクロブロックを符号化する場合、ビデオエンコーダ20は、現在のピクチャ(すなわちマクロブロックを含むピクチャ)以外の1つまたは複数のピクチャのサンプルに基づいて、マクロブロックに関する1つまたは複数の予測ブロックを生成する。インター予測を用いて符号化されたマクロブロックは、インターマクロブロックと称され得る。ビデオエンコーダ20がイントラ予測を用いてマクロブロックを符号化する場合、ビデオエンコーダ20は、現在のピクチャ内のサンプルに基づいて、マクロブロックに関する1つまたは複数の予測ブロックを生成する。イントラ予測を用いて符号化されたマクロブロックは、イントラマクロブロックと称され得る。   [0058] Video encoder 20 may encode the macroblock using inter prediction or intra prediction. When video encoder 20 encodes a macroblock using inter prediction, video encoder 20 relates to the macroblock based on a sample of one or more pictures other than the current picture (ie, a picture that includes the macroblock). One or more prediction blocks are generated. Macroblocks encoded using inter prediction may be referred to as inter macroblocks. When video encoder 20 encodes a macroblock using intra prediction, video encoder 20 generates one or more prediction blocks for the macroblock based on the samples in the current picture. Macroblocks encoded using intra prediction may be referred to as intra macroblocks.

[0059]H.264/AVCにおいて、各インターマクロブロックは、4つの異なる方法、すなわち、1つの16×16のマクロブロックパーティション、2つの16×8のマクロブロックパーティション、2つの8×16のマクロブロックパーティション、あるいは4つの8×8のマクロブロックパーティションに分割され得る。   [0059] H. In H.264 / AVC, each inter macroblock is represented in four different ways: one 16 × 16 macroblock partition, two 16 × 8 macroblock partitions, two 8 × 16 macroblock partitions, or 4 It can be divided into two 8x8 macroblock partitions.

[0060]1つのMBにおける異なるMBのパーティションは、各方向に関して異なる参照インデックス値(すなわちRefPicList0またはRefPicList1)を有し得る。MBが4つの8×8のMBパーティションに分割されない場合、MBはそれぞれの方向にMBパーティション全体について1つだけ動きベクトルを有し得る。   [0060] Different MB partitions in one MB may have different reference index values for each direction (ie, RefPicList0 or RefPicList1). If the MB is not divided into four 8 × 8 MB partitions, the MB may have only one motion vector for the entire MB partition in each direction.

[0061]MBが4つの8×8のMBパーティションに分割される場合、それぞれの8×8のMBパーティションはさらにサブブロックに分割され得る。8×8のMBパーティションからサブブロックを取得するために4つの異なる方法、すなわち、1つの8×8のサブブロック、2つの8×4のサブブロック、2つの4×8のサブブロック、あるいは4つの4×4のサブブロックがある。   [0061] If the MB is divided into four 8x8 MB partitions, each 8x8 MB partition may be further divided into sub-blocks. Four different ways to obtain subblocks from an 8x8 MB partition: one 8x8 subblock, two 8x4 subblocks, two 4x8 subblocks, or 4 There are four 4 × 4 sub-blocks.

[0062]それぞれのサブブロックはそれぞれの方向に異なる動きベクトルを有し得る。8×8のMBパーティションがどのようにサブブロックに分割されるかは、サブブロックパーティションと名づけられている。   [0062] Each sub-block may have a different motion vector in each direction. How an 8 × 8 MB partition is divided into sub-blocks is named a sub-block partition.

[0063]上述したとおり、マルチビューコーディング(MVC)は、H.264/AVCの拡張である。マルチビューコーディングにおいて、異なる視点から、同じ場面の複数の物のビューが存在し得る。「アクセスユニット」という用語は、同じ時間インスタンスに対応するピクチャのセットを指すために使用される。したがって、ビデオデータは、時間にわたって生じる一連のアクセスユニットとして概念化され得る。「ビュー構成要素」とは、単一のアクセスユニットにおけるビューのコード化された描写であり得る。本開示において、「ビュー」は、同じビュー識別子に関連付けられる一連のビュー構成要素を指し得る。   [0063] As described above, multi-view coding (MVC) is an H.264 standard. It is an extension of H.264 / AVC. In multi-view coding, there can be multiple views of the same scene from different viewpoints. The term “access unit” is used to refer to a set of pictures corresponding to the same time instance. Thus, video data can be conceptualized as a series of access units that occur over time. A “view component” can be a coded description of a view in a single access unit. In this disclosure, a “view” may refer to a series of view components that are associated with the same view identifier.

[0064]VCEGとMPEGの3Dビデオコーディング(JCT−3C)に関する共同協力チームは、HEVCに基づく3DVの標準を開発しており、それに対して、標準化の取り組みの一部は、HEVC(MV−HEVC)に基づくマルチビュービデオコーデックの標準化とHEVC(3D−HEVC)に基づく3Dビデオコーディングについての別の部分を含む。3D−HEVCに関して、テクスチャビューと深さビューの両方が含まれかつサポートされ得るため、新しいコーディングツールは、コーディングユニット/予測ユニットレベルにおいてそれらを含む。3D−HEVC(3D−HTMバージョン6.0)に関する最新のソフトウェア3D−HTMは、https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM−6.0/において、2013年5月31日より使用可能である。   [0064] A joint team of VCEG and MPEG 3D video coding (JCT-3C) has developed a 3DV standard based on HEVC, whereas part of the standardization effort is HEVC (MV-HEVC). ) Based multi-view video codec standard and another part about 3D video coding based on HEVC (3D-HEVC). For 3D-HEVC, both texture views and depth views can be included and supported, so the new coding tool includes them at the coding unit / prediction unit level. The latest software 3D-HTM for 3D-HEVC (3D-HTM version 6.0) is available at https: // hevc. hhi. fraunhofer. de / svn / svn_3DVCSoftware / tags / HTM-6.0 / can be used from May 31, 2013.

[0065]最新の基準ソフトウェアの説明は、3D−HEVCの作業ドラフトと同様に、http://phenix.it−sudparis.eu/jct2/doc_end_user/documents/3_Geneva/wg11/JCT3V−C1005−v2.zip、ITU−T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11の3Dビデオコーディング拡張の開発に関して2013年1月17日から23日にかけてスイスのジュネーブで開催された共同協力チームによる第3回会議における、ゲールハルト・テック氏、クシシュトフ・ウェグナー氏、イン・チェン氏、セフン・イェ氏による「3D−HEVCテストモデル3」JCT3V−C1005_spec_d1において、2013年5月31日より使用可能である。   [0065] The description of the latest reference software, as well as the working draft of 3D-HEVC, is available at http: // phenix. it-sudparis. eu / jct2 / doc_end_user / documents / 3_Geneva / wg11 / JCT3V-C1005-v2. zip, by a collaborative team in Geneva, Switzerland, from 17 to 23 January 2013 on the development of 3D video coding extensions of ITU-TSG 16 WP 3 and ISO / IEC JTC 1 / SC 29 / WG 11 Available from May 31, 2013 in the 3D-HEVC test model 3 "JCT3V-C1005_spec_d1" by Gerhard Tech, Kushisztof Wegner, Yin Chen and Sehun Ye .

[0066]ピクチャの符号化された描写を生成するために、ビデオエンコーダ20は、コーディングツリーユニット(CTUs)のセットを生成し得る。CTUのそれぞれは、複数のルーマサンプルから成るコーディングツリーブロック、複数のクロマサンプルから成る2つの対応するコーディングツリーブロック、およびコーディングツリーブロックのサンプルをコード化するために用いられるシンタックス構造であり得る。コーディングツリーブロックは、N×Nのサンプルから成るブロック(an NxN block of samples)であり得る。CTUは、「ツリーブロック」または「最大コーディングユニット」(LCU)とも称され得る。HEVCのCTUは、H.264/AVCのような他のビデオコーディングの標準のマクロブロックに概ね類似し得る。しかし、CTUは、必ずしも特定のサイズに限定されるわけではなく、1つまたは複数のコーディングユニット(CUs)を含み得る。スライスは、ラスター走査において、連続して順序付けられた整数のCTUを含み得る。   [0066] To generate an encoded representation of a picture, video encoder 20 may generate a set of coding tree units (CTUs). Each of the CTUs may be a syntax tree used to code a coding tree block consisting of a plurality of luma samples, two corresponding coding tree blocks consisting of a plurality of chroma samples, and a sample of coding tree blocks. A coding tree block may be an N × N block of samples. A CTU may also be referred to as a “tree block” or “maximum coding unit” (LCU). HEVC's CTU is H.264. It may be generally similar to other video coding standard macroblocks such as H.264 / AVC. However, CTUs are not necessarily limited to a particular size and may include one or more coding units (CUs). A slice may contain an integer number of consecutively ordered CTUs in a raster scan.

[0067]本開示は、1つまたは複数のサンプルのブロックと、1つまたは複数のサンプルのブロックのサンプルをコード化するために用いられるシンタックス構造を指すために、「ビデオユニット」または「ビデオブロック」という用語を使用し得る。ビデオユニットのタイプの例は、CTU、CU、PU、変換ユニット(TUs)、マクロブロック、マクロブロックパーティションなどを含み得る。   [0067] This disclosure refers to a "video unit" or "video" to refer to a block of one or more samples and a syntax structure used to code samples of the block of one or more samples. The term “block” may be used. Examples of video unit types may include CTUs, CUs, PUs, transform units (TUs), macroblocks, macroblock partitions, and so on.

[0068]コード化されたCTUを生成するために、ビデオエンコーダ20は、コーディングツリーブロックをコーディングブロックに分割するために、CTUのコーディングツリーブロック上で再帰的に四分木分割を実行し得、そのため、「コーディングツリーユニット」という名である。コーディングブロックは、N×Nのサンプルのブロックである。CUは、ルーマサンプルアレイ、Cbサンプルアレイ、およびCrサンプルアレイ、およびコーディングブロックのサンプルをコード化するために用いられるシンタックス構造を有するピクチャのルーマサンプルのコーディングブロックと2つの対応するクロマサンプルのコーディングブロックであり得る。ビデオエンコーダ20は、CUのコーディングブロックを1つまたは複数の予測ブロックに分割し得る。予測ブロックは、同じ予測が適用されるサンプルの矩形(すなわち正方形または非正方形)ブロックであり得る。CUの予測ユニット(PU)は、ピクチャのルーマサンプルの予測ブロック、2つの対応するクロマサンプルの予測ブロック、および予測ブロックのサンプルを予測するために用いられるシンタックス構造であり得る。ビデオエンコーダ20は、予測ルーマ、ルーマに関するCbおよびCrブロック、およびCUの各PUのCbおよびCr予測ブロックを生成し得る。   [0068] To generate a coded CTU, video encoder 20 may recursively perform quadtree partitioning on a CTU coding tree block to divide the coding tree block into coding blocks; Therefore, it is named “coding tree unit”. A coding block is a block of N × N samples. The CU is a luma sample array, a Cb sample array, a Cr sample array, and a coding block of a luma sample of a picture having a syntax structure used to code the samples of the coding block and two corresponding chroma sample codings. Can be a block. Video encoder 20 may divide the coding block of the CU into one or more prediction blocks. A prediction block may be a rectangular (ie, square or non-square) block of samples to which the same prediction is applied. A prediction unit (PU) of a CU may be a syntax structure used to predict a luma sample prediction block of a picture, two corresponding chroma sample prediction blocks, and a prediction block sample. Video encoder 20 may generate a prediction luma, a Cb and Cr block for the luma, and a Cb and Cr prediction block for each PU of the CU.

[0069]ビデオエンコーダ20は、PUに関する予測ブロックを生成するためにイントラ予測またはインター予測を使用し得る。ビデオエンコーダ20がPUの予測ブロックを生成するためにイントラ予測を用いる場合、ビデオエンコーダ20は、PUと関連付けられるピクチャの復号されたサンプルに基づいてPUの予測ブロックを生成し得る。   [0069] Video encoder 20 may use intra prediction or inter prediction to generate a prediction block for the PU. When video encoder 20 uses intra prediction to generate a PU prediction block, video encoder 20 may generate a PU prediction block based on decoded samples of a picture associated with the PU.

[0070]ビデオエンコーダ20がPUの予測ブロックを生成するためにインター予測を用いる場合、ビデオエンコーダ20は、PUと関連付けられるピクチャ以外の1つまたは複数のピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成し得る。インター予測は、一方向のインター予測(すなわち一方向予測)または双方向のインター予測(すなわち双方向予測)であり得る。一方向予測または双方向予測を実行するために、ビデオエンコーダ20は、現在のスライスに関する第1の参照ピクチャリスト(RefPicList0)および第2の参照ピクチャリスト(RefPicList1)を生成し得る。参照ピクチャリストのそれぞれは、1つまたは複数の参照ピクチャを含み得る。一方向予測を用いる場合、ビデオエンコーダ20は、参照ピクチャ内の参照場所を決定するために、RefPicList0およびRefPicList1のいずれかまたは両方における参照ピクチャを検索し得る。さらに、一方向予測を用いる場合、ビデオエンコーダ20は、参照場所に対応するサンプルに少なくとも部分的に基づいて、PUに関する予測サンプルブロックを生成し得る。さらに、一方向予測を用いる場合、ビデオエンコーダ20は、PUの予測ブロックと参照場所の間の空間的置換を示す単一の動きベクトルを生成し得る。PUの予測ブロックと参照場所の間の空間的置換を示すために、動きベクトルは、PUの予測ブロックと参照場所の間の水平置換を特定する水平成分を含み得、およびPUの予測ブロックと参照場所の間の垂直置換を特定する垂直成分を含み得る。   [0070] When the video encoder 20 uses inter prediction to generate a prediction block for a PU, the video encoder 20 may use the PU based on decoded samples of one or more pictures other than the picture associated with the PU. Predictive blocks may be generated. The inter prediction may be unidirectional inter prediction (ie, unidirectional prediction) or bidirectional inter prediction (ie, bi-directional prediction). To perform unidirectional or bi-directional prediction, video encoder 20 may generate a first reference picture list (RefPicList0) and a second reference picture list (RefPicList1) for the current slice. Each reference picture list may include one or more reference pictures. When using unidirectional prediction, video encoder 20 may search for reference pictures in one or both of RefPicList0 and RefPicList1 to determine a reference location within the reference picture. Further, when using unidirectional prediction, video encoder 20 may generate a predicted sample block for the PU based at least in part on samples corresponding to the reference location. Further, when using unidirectional prediction, video encoder 20 may generate a single motion vector that indicates the spatial permutation between the prediction block of the PU and the reference location. To indicate a spatial permutation between the PU prediction block and the reference location, the motion vector may include a horizontal component that identifies a horizontal permutation between the PU prediction block and the reference location, and the PU prediction block and reference. It may include a vertical component that specifies a vertical permutation between locations.

[0071]PUを符号化するために双方向予測を用いる場合、ビデオエンコーダ20は、RefPicList0における参照ピクチャ内の第1の参照場所とRefPicList1における参照ピクチャ内の第2の参照場所を決定し得る。ビデオエンコーダ20は次に、第1および第2の参照場所に対応するサンプルに少なくとも部分的に基づいて、PUに関する予測ブロックを生成し得る。さらに、PUを符号化するために双方向予測を用いる場合、ビデオエンコーダ20は、PUのサンプルブロックと第1の参照場所の間の空間的置換を示す第1のMVとPUの予測ブロックと第2の参照場所の間の空間的置換を示す第2のMVを生成し得る。   [0071] When using bi-prediction to encode a PU, video encoder 20 may determine a first reference location in a reference picture in RefPicList0 and a second reference location in a reference picture in RefPicList1. Video encoder 20 may then generate a prediction block for the PU based at least in part on the samples corresponding to the first and second reference locations. Further, when using bi-directional prediction to encode the PU, the video encoder 20 may include a first MV and PU prediction block and a first prediction block indicating a spatial permutation between the PU sample block and the first reference location. A second MV may be generated that indicates a spatial permutation between the two reference locations.

[0072]ビデオエンコーダ20がCUの1つまたは複数のPUに関する予測ルーマ、CbおよびCrブロックを生成した後、ビデオエンコーダ20は、CUに関するルーマ残差ブロックを生成し得る。CUのルーマ残差ブロック内の各サンプルは、CUの予測ルーマブロックのうちの1つ中のルーマサンプルとCUのオリジナルのルーマコーディングブロック内の対応するサンプルの間の差を示す。さらに、ビデオエンコーダ20は、CUに関するCb残差ブロックを生成し得る。CUのCb残差ブロック内の各サンプルは、CUの予測Cbブロックのうちの1つ中のCbサンプルとCUのオリジナルのCbコーディングブロック中の対応するサンプルの間の差を示し得る。ビデオエンコーダ20は、CUに関するCr残差ブロックをも生成し得る。CUのCr残差ブロック内の各サンプルは、CUの予測Crブロックのうちの1つ中のCrサンプルとCUのオリジナルのCrコーディングブロック中の対応するサンプルの間の差を示し得る。   [0072] After video encoder 20 generates predictive luma, Cb and Cr blocks for one or more PUs of a CU, video encoder 20 may generate luma residual blocks for the CU. Each sample in the CU's luma residual block indicates the difference between the luma sample in one of the CU's predicted luma blocks and the corresponding sample in the CU's original luma coding block. Furthermore, video encoder 20 may generate a Cb residual block for the CU. Each sample in the CU's Cb residual block may indicate a difference between a Cb sample in one of the CU's predicted Cb blocks and a corresponding sample in the CU's original Cb coding block. Video encoder 20 may also generate a Cr residual block for the CU. Each sample in the CU's Cr residual block may indicate a difference between a Cr sample in one of the CU's predicted Cr blocks and a corresponding sample in the CU's original Cr coding block.

[0073]さらに、ビデオエンコーダ20は、CUのルーマ、CbおよびCr残差ブロックを1つまたは複数のルーマ、CbおよびCr変換ブロックに分解するために、四分木分割を用い得る。変換ブロックは、同じ変換が適用されるサンプルの矩形ブロックであり得る。CUの変換ユニット(TU)は、ルーマサンプルの変換ブロック、2つの対応するクロマサンプルの変換ブロック、および変換ブロックのサンプルを変換するために用いられるシンタックス構造であり得る。したがって、CUの各TUは、ルーマ変換ブロック、Cb変換ブロック、およびCr変換ブロックと関連付けられ得る。TUと関連付けられるルーマ変換ブロックは、CUのルーマ残差ブロックのサブブロックであり得る。Cb変換ブロックは、CUのCb残差ブロックのサブブロックであり得る。Cr変換ブロックは、CUのCr残差ブロックのサブブロックであり得る。   [0073] Further, video encoder 20 may use quadtree partitioning to decompose a CU's luma, Cb and Cr residual blocks into one or more luma, Cb and Cr transform blocks. A transform block may be a rectangular block of samples to which the same transform is applied. A transform unit (TU) of a CU may be a syntax structure used to transform luma sample transform blocks, two corresponding chroma sample transform blocks, and transform block samples. Thus, each TU of a CU can be associated with a luma transform block, a Cb transform block, and a Cr transform block. The luma transform block associated with the TU may be a sub-block of the CU's luma residual block. The Cb transform block may be a sub-block of the CU's Cb residual block. The Cr transform block may be a sub-block of the CU's Cr residual block.

[0074]ビデオエンコーダ20は、TUに関するルーマ係数ブロックを生成するために、TUのルーマ変換ブロックに1つまたは複数の変換を適用し得る。係数ブロックは、変換係数の2次元アレイであり得る。変換係数はスカラー量であり得る。ビデオエンコーダ20は、TUに関するCb係数ブロックを生成するために、TUのCb変換ブロックに1つまたは複数の変換を適用し得る。ビデオエンコーダ20は、TUに関するCr係数ブロックを生成するために、TUのCr変換ブロックに1つまたは複数の変換を適用し得る。   [0074] Video encoder 20 may apply one or more transforms to a TU's luma transform block to generate a luma coefficient block for the TU. The coefficient block can be a two-dimensional array of transform coefficients. The conversion factor can be a scalar quantity. Video encoder 20 may apply one or more transforms to the TU's Cb transform block to generate a Cb coefficient block for the TU. Video encoder 20 may apply one or more transforms to the TU's Cr transform block to generate a Cr coefficient block for the TU.

[0075]係数ブロック(例えば、ルーマ係数ブロック、Cb係数ブロック、またはCr係数ブロック)を生成した後、ビデオエンコーダ20は係数ブロックを量子化し得る。量子化とは一般的に、変換係数が変換係数を表すために用いられるデータの量をできる限り減らし、さらなる圧縮を提供するために量子化されるプロセスを指す。さらに、ビデオエンコーダ20は、変換係数を逆量子化し、ピクチャのCUのTUの変換ブロックを再構築するために、変換係数に逆変換を適用し得る。ビデオエンコーダ20は、CUのコーディングブロックを再構築するために、CUのTUの再構築された変換ブロックとCUのPUの予測ブロックを使用し得る。ピクチャの各CUのコーディングブロックを再構築することによって、ビデオエンコーダ20はピクチャを再構築し得る。ビデオエンコーダ20は、復号されたピクチャバッファ(DPB)に再構築されたピクチャを記憶し得る。ビデオエンコーダ20は、インター予測とイントラ予測のためにDPB内の再構築されたピクチャを使用し得る。   [0075] After generating a coefficient block (eg, luma coefficient block, Cb coefficient block, or Cr coefficient block), video encoder 20 may quantize the coefficient block. Quantization generally refers to the process by which transform coefficients are quantized to reduce the amount of data used to represent the transform coefficients as much as possible and provide further compression. Further, video encoder 20 may apply the inverse transform to the transform coefficient to dequantize the transform coefficient and reconstruct the transform block of the TU of the CU of the picture. Video encoder 20 may use the reconstructed transform block of CU TU and the prediction block of CU PU to reconstruct the coding block of CU. By reconstructing the coding block for each CU of the picture, video encoder 20 may reconstruct the picture. Video encoder 20 may store the reconstructed picture in a decoded picture buffer (DPB). Video encoder 20 may use the reconstructed pictures in the DPB for inter prediction and intra prediction.

[0076]ビデオエンコーダ20が係数ブロックを量子化した後、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素をエントロピー符号化し得る。例えば、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素に関してコンテキスト適応型2値算術コーディング(CABCA)を実行し得る。ビデオエンコーダ20は、ビットストリーム内にエントロピー符号化されたシンタックス要素を出力し得る。   [0076] After video encoder 20 quantizes the coefficient block, video encoder 20 may entropy encode syntax elements indicative of the quantized transform coefficients. For example, video encoder 20 may perform context-adaptive binary arithmetic coding (CABCA) on syntax elements indicating quantized transform coefficients. Video encoder 20 may output syntax elements that are entropy encoded in the bitstream.

[0077]ビデオエンコーダ20は、コード化されたピクチャと関連データの描写を形成する一連のビットを含むビットストリームを出力し得る。ビットストリームは、一連のネットワーク抽象化レイヤ(NAL)ユニットを備え得る。NALユニットのそれぞれは、NALユニットヘッダを含み、ローバイトシーケンスペイロード(a raw byte sequence payload)(RBSP)をカプセル化する。NALユニットヘッダは、NALユニットタイプコードを示すシンタックス要素を含み得る。NALユニットのNALユニットヘッダによって特定されたNALユニットタイプコードは、NALユニットのタイプを示す。RBSPは、NALユニット内でカプセル化される整数のバイトを含むシンタックス構造であり得る。いくつかの例において、RBSPはゼロビットを含む。   [0077] Video encoder 20 may output a bitstream that includes a series of bits that form a representation of the encoded picture and associated data. A bitstream may comprise a series of network abstraction layer (NAL) units. Each NAL unit includes a NAL unit header and encapsulates a raw byte sequence payload (RBSP). The NAL unit header may include a syntax element indicating a NAL unit type code. The NAL unit type code specified by the NAL unit header of the NAL unit indicates the type of the NAL unit. An RBSP may be a syntax structure that includes an integer number of bytes encapsulated within a NAL unit. In some examples, the RBSP includes zero bits.

[0078]NALユニットの異なるタイプは、RBSPの異なるタイプをカプセル化し得る。例えば、第1のタイプのNALユニットは、ピクチャパラメータセット(PPS)に関するRBSPをカプセル化し得、第2のタイプのNALユニットはコード化されたスライスに関するRBSPをカプセル化し得、第3のタイプのNALユニットは補助拡張情報(SEI)に関するRBSPをカプセル化し得る、などである。PPSは、ゼロ以上の全体にコード化されたピクチャに適用するシンタックス要素を含み得るシンタックス構造である。(パラメータセットとSEIメッセージに関するRBSPとは対照的に)ビデオコーディングデータに関するRBSPをカプセル化するNALユニットは、ビデオコーディングレイヤ(VCL)NALユニットと称され得る。コード化されたスライスをカプセル化するNALユニットは、ここでは、コード化されたスライスNALユニットと称され得る。コード化されたスライスに関するRBSPは、スライスヘッダとスライスデータを含み得る。   [0078] Different types of NAL units may encapsulate different types of RBSPs. For example, a first type of NAL unit may encapsulate an RBSP for a picture parameter set (PPS), a second type of NAL unit may encapsulate an RBSP for a coded slice, and a third type of NAL A unit may encapsulate an RBSP for auxiliary extension information (SEI), and so on. PPS is a syntax structure that may contain syntax elements that apply to zero or more totally coded pictures. A NAL unit that encapsulates an RBSP for video coding data (as opposed to an RBSP for parameter sets and SEI messages) may be referred to as a video coding layer (VCL) NAL unit. A NAL unit that encapsulates a coded slice may be referred to herein as a coded slice NAL unit. The RBSP for the coded slice may include a slice header and slice data.

[0079]ビデオデコーダ30はビットストリームを受け取り得る。さらに、ビデオデコーダ30は、ビットストリームからのシンタックス要素を復号するためにビットストリームを解析し得る。ビデオデコーダ30は、ビットストリームから復号されたシンタックス要素に少なくとも部分的に基づいて、ビデオデータのピクチャを再構築し得る。ビデオデータを再構築するためのプロセスは、ビデオエンコーダ20によって実行されるプロセスと一般的に相互に関係し得る。例えば、ビデオデコーダ30は、現在のCUのPUに関する予測ブロックを決定するために、PUの動きベクトルを使用し得る。ビデオデコーダ30は、PUに関する予測ブロックを生成するために、複数のPUの1つまたは複数の動きベクトルを使用し得る。   [0079] Video decoder 30 may receive a bitstream. Further, video decoder 30 may parse the bitstream to decode syntax elements from the bitstream. Video decoder 30 may reconstruct pictures of video data based at least in part on syntax elements decoded from the bitstream. The process for reconstructing video data may generally correlate with the process performed by video encoder 20. For example, video decoder 30 may use the motion vector of the PU to determine a prediction block for the PU of the current CU. Video decoder 30 may use one or more motion vectors of the plurality of PUs to generate a prediction block for the PU.

[0080]さらに、ビデオデコーダ30は、現在のCUのTUと関連付けられる係数ブロックを逆量子化し得る。ビデオデコーダ30は、現在のCUのTUと関連付けられる変換ブロックを再構築するために、係数ブロックに関して逆変換を実行し得る。ビデオデコーダ30は、現在のCUのPUに関する予測サンプルブロックのサンプルを現在のCUのTUの変換ブロックの対応するサンプルに加えることによって、現在のCUのコーディングブロックを再構築し得る。ピクチャの各CUに関するコーディングブロックを再構築することによって、ビデオデコーダ30はピクチャを再構築し得る。ビデオデコーダ30は、他のピクチャを復号する際に出力および/または使用するために、復号されたピクチャバッファ内に復号されたピクチャを記憶し得る。   [0080] Further, video decoder 30 may dequantize the coefficient block associated with the TU of the current CU. Video decoder 30 may perform an inverse transform on the coefficient block to reconstruct the transform block associated with the TU of the current CU. Video decoder 30 may reconstruct the coding block of the current CU by adding the sample of the predicted sample block for the PU of the current CU to the corresponding sample of the transform block of the current CU's TU. By reconstructing the coding block for each CU of the picture, video decoder 30 may reconstruct the picture. Video decoder 30 may store the decoded picture in a decoded picture buffer for output and / or use in decoding other pictures.

[0081]ビデオコーダ(例えば、ビデオエンコーダ20またはビデオデコーダ30)がピクチャの現在のスライスのコーディングを開始するときに、ビデオコーダは第1の参照ピクチャリスト(すなわちリスト0)を初期化し得る。さらに、現在のスライスがBスライスである場合、ビデオコーダは、第2の参照ピクチャリスト(すなわちリスト1)を初期化し得る。本開示は、リスト0を「RefPicList0」と称し、リスト1を「RefPicList1」と称し得る。ビデオコーダが参照ピクチャリスト(例えば、リスト0またはリスト1)を初期化した後に、ビデオコーダは、参照ピクチャリスト内の参照ピクチャの順序を修正し得る。言い換えると、ビデオコーダは、参照ピクチャリスト修正(RPLM)プロセスを実行し得る。ビデオコーダは、参照ピクチャの順序を、ある特定の参照ピクチャが参照ピクチャリスト内の2つ以上の位置に出現し得る場合を含む任意の順序に修正し得る。   [0081] When a video coder (eg, video encoder 20 or video decoder 30) begins coding the current slice of a picture, the video coder may initialize a first reference picture list (ie, list 0). Further, if the current slice is a B slice, the video coder may initialize a second reference picture list (ie, list 1). This disclosure may refer to list 0 as “RefPicList0” and list 1 as “RefPicList1”. After the video coder initializes a reference picture list (eg, list 0 or list 1), the video coder may modify the order of reference pictures in the reference picture list. In other words, the video coder may perform a reference picture list modification (RPLM) process. A video coder may modify the order of reference pictures to any order, including the case where a particular reference picture may appear in more than one position in the reference picture list.

[0082]いくつかの場合において、ビデオエンコーダ20は、統合モードまたは高度な動きベクトル予測(AMVP)モードを用いてPUの動き情報をシグナリングし得る。言い換えると、HEVCにおいて、動きパラメータの予測ために2つのモードが存在し、その一方は統合モードであり、他方がAMVPである。PUの動き情報は、PUの(1つまたは複数の)動きベクトルとPUの(1つまたは複数の)参照インデックスを含み得る。ビデオエンコーダ20が統合モードを用いて現在のPUの動き情報をシグナリングする場合、ビデオエンコーダ20は、統合候補リスト(すなわち動きベクトル予測器(MVP)候補リスト)を生成する。言い換えると、ビデオエンコーダ20は、動きベクトル予測器リスト構築プロセスを実行し得る。統合候補リストは、統合候補(すなわちMVP候補)のセットを含む。統合候補リストは、空間的または時間的に現在のPUに隣接するPUの動き情報を示す統合候補を含み得る。すなわち、統合モードにおいて、動きパラメータ(例えば、参照インデックス、動きベクトル、など)の候補リストは、構築され、ここで、候補は空間的および時間的に隣接するブロックからのものである。   [0082] In some cases, video encoder 20 may signal PU motion information using an integrated mode or an advanced motion vector prediction (AMVP) mode. In other words, in HEVC, there are two modes for motion parameter prediction, one of which is an integrated mode and the other is AMVP. The motion information of a PU may include a motion vector (s) of the PU and a reference index (s) of the PU. When the video encoder 20 signals the motion information of the current PU using the integrated mode, the video encoder 20 generates an integrated candidate list (ie, a motion vector predictor (MVP) candidate list). In other words, video encoder 20 may perform a motion vector predictor list construction process. The integration candidate list includes a set of integration candidates (ie, MVP candidates). The integration candidate list may include integration candidates indicating motion information of PUs adjacent to the current PU spatially or temporally. That is, in unified mode, a candidate list of motion parameters (eg, reference indices, motion vectors, etc.) is constructed, where the candidates are from spatially and temporally adjacent blocks.

[0083]さらに、統合モードにおいて、ビデオエンコーダ20は、統合候補リストから統合候補を選択し、選択された統合候補によって示された動き情報を現在のPUの動き情報として使用し得る。ビデオエンコーダ20は、選択された統合候補の統合候補リスト内の位置をシグナリングし得る。例えば、ビデオエンコーダ20は、インデックスを候補リストに送信することによって、選択された動きベクトルパラメータをシグナリングし得る。ビデオデコーダ30は、ビットストリームから、候補リストへのインデックス(すなわち、候補リストインデックス)を取得し得る。さらに、ビデオデコーダ30は、同じ統合候補リストを生成し、選択された統合候補の位置の表示に基づいて、選択された統合候補を決定し得る。ビデオデコーダ30は次に、現在のPUに関する予測ブロックを生成するために、選択された統合候補の動き情報を使用し得る。すなわち、ビデオデコーダ30は、候補リストインデックスに少なくとも部分的に基づいて、候補リスト内で選択された候補を決定し得、ここにおいて、選択された候補は、現在のPUに関する動きベクトルを特定する。このように、デコーダ側で、インデックスが復号されると、インデックスが指す対応するブロックの全ての動きパラメータが現在のPUによって受け継がれることになる。   [0083] Further, in the integration mode, the video encoder 20 may select an integration candidate from the integration candidate list and use the motion information indicated by the selected integration candidate as the motion information of the current PU. Video encoder 20 may signal a position in the integration candidate list of the selected integration candidate. For example, video encoder 20 may signal the selected motion vector parameter by sending an index to the candidate list. Video decoder 30 may obtain an index into the candidate list (ie, candidate list index) from the bitstream. Further, the video decoder 30 may generate the same integration candidate list and determine the selected integration candidate based on the display of the position of the selected integration candidate. Video decoder 30 may then use the selected integration candidate motion information to generate a prediction block for the current PU. That is, video decoder 30 may determine a candidate selected in the candidate list based at least in part on the candidate list index, where the selected candidate identifies a motion vector for the current PU. Thus, when the index is decoded on the decoder side, all motion parameters of the corresponding block pointed to by the index are inherited by the current PU.

[0084]スキップモードは統合モードに類似している。スキップモードにおいて、ビデオエンコーダ20およびビデオデコーダ30は、ビデオエンコーダ20およびビデオデコーダ30が統合モードで統合候補リストを使用するのと同じ方法で統合候補リストを生成および使用する。しかし、ビデオエンコーダ20がスキップモードを用いて現在のPUの動き情報をシグナリングする場合、ビデオエンコーダ20は、現在のPUに関する残差データのいずれもシグナリングしない。したがって、ビデオデコーダ30は、統合候補リスト内で選択された候補の動き情報によって示された参照ブロックをPUに関する予測ブロックとして使用し得る。   [0084] The skip mode is similar to the integration mode. In skip mode, video encoder 20 and video decoder 30 generate and use an integrated candidate list in the same manner that video encoder 20 and video decoder 30 use the integrated candidate list in integrated mode. However, when the video encoder 20 signals the current PU motion information using the skip mode, the video encoder 20 does not signal any residual data for the current PU. Accordingly, the video decoder 30 may use the reference block indicated by the motion information of the candidate selected in the integrated candidate list as a prediction block for the PU.

[0085]AMVPモードは、ビデオエンコーダ20が候補リストを生成し、候補のリストから候補を選択する点で統合モードに類似している。しかし、ビデオエンコーダ20がAMVPモードを用いて現在のPUの動き情報をシグナリングする場合、ビデオエンコーダ20もまた、候補リスト内で選択された候補の位置をシグナリングするのに加えて、現在のPUと参照インデックスに関する動きベクトル差(MVD)をシグナリングし得る。現在のPUに関するMVDは、現在のPUの動きベクトルとAMVP候補リストから選択された候補の動きベクトルの間の差を示し得る。一方向予測において、ビデオエンコーダ20は、現在のPUに関する1つのMVDと1つの参照インデックスをシグナリングし得る。双方向予測において、ビデオエンコーダ20は、現在のPUに関する2つのMVDと2つの参照インデックスをシグナリングし得る。このように、ビデオエンコーダ20は、インデックスを候補リストに送信することによって選択された動きベクトルをシグナリングし、および参照インデックス値とMVDをシグナリングし得る。言い換えると、現在のPUに関する動きベクトルを表すビットストリーム内のデータは、参照インデックスを表すデータと、候補リストに対応するインデックス、およびMVDを含み得る。   [0085] The AMVP mode is similar to the integrated mode in that the video encoder 20 generates a candidate list and selects a candidate from the candidate list. However, if the video encoder 20 uses AMVP mode to signal motion information of the current PU, the video encoder 20 will also signal the current PU in addition to signaling the position of the candidate selected in the candidate list. A motion vector difference (MVD) for the reference index may be signaled. The MVD for the current PU may indicate the difference between the current PU motion vector and the candidate motion vector selected from the AMVP candidate list. In unidirectional prediction, video encoder 20 may signal one MVD and one reference index for the current PU. In bi-directional prediction, video encoder 20 may signal two MVDs and two reference indices for the current PU. Thus, video encoder 20 may signal the selected motion vector by sending an index to the candidate list, and may signal the reference index value and MVD. In other words, the data in the bitstream representing the motion vector for the current PU may include data representing the reference index, an index corresponding to the candidate list, and MVD.

[0086]さらに、現在のPUの動き情報がAMVPモードを用いてシグナリングされる場合、ビデオエンコーダ30は、ビットストリームから、現在のPUに関するMVDと候補リストインデックスを取得し得る。ビデオデコーダ30は、同じAMVP候補リストを生成し、AMVP候補リスト内で選択された候補の位置の表示に基づいて、選択された候補を決定し得る。ビデオデコーダ30は、選択された候補によって示された動きベクトルにMVDを追加することによって、現在のPUの動きベクトルを回復し得る。すなわち、ビデオデコーダ30は、選択された候補とMVDによって示された動きベクトルに少なくとも部分的に基づいて、現在のPUの動きベクトルを決定し得る。ビデオデコーダ30は次に、現在のPUに関する予測ブロックを生成するために、回復された動きベクトルまたは現在のPUの動きベクトルを使用し得る。   [0086] Further, if motion information of the current PU is signaled using AMVP mode, video encoder 30 may obtain an MVD and candidate list index for the current PU from the bitstream. Video decoder 30 may generate the same AMVP candidate list and determine the selected candidate based on an indication of the position of the candidate selected in the AMVP candidate list. Video decoder 30 may recover the current PU motion vector by adding the MVD to the motion vector indicated by the selected candidate. That is, video decoder 30 may determine a motion vector for the current PU based at least in part on the selected candidate and the motion vector indicated by the MVD. Video decoder 30 may then use the recovered motion vector or the current PU motion vector to generate a prediction block for the current PU.

[0087]現在のPU(すなわち現在のPUとは異なる時間インスタンスにあるPU)に時間的に隣接するPUの動き情報に基づく統合候補リストまたはAMVP候補リスト内の候補は、時間的な動きベクトル予測器(TMVP)と称され得る。TMPVは、HEVCのコーディング効率を向上させるために使用され、他のコーディングツールとは異なる。TMVPを決定するために、ビデオコーダは、現在のPUと同じ場所を共有するPUを含む参照ピクチャを最初に識別し得る。すなわち、ビデオコーダは、復号されたピクチャバッファ内、さらに具体的には参照ピクチャリスト内のフレームの動きベクトルにアクセスする。言い換えると、ビデオコーダは、同じ場所を共有するピクチャを識別し得る。   [0087] Candidates in an integrated candidate list or AMVP candidate list based on motion information of PUs temporally adjacent to the current PU (ie, a PU in a different time instance than the current PU) are temporal motion vector predictions. May be referred to as a vessel (TMVP). TMPV is used to improve HEVC coding efficiency and is different from other coding tools. To determine the TMVP, the video coder may first identify a reference picture that includes a PU that shares the same location as the current PU. That is, the video coder accesses the motion vectors of the frames in the decoded picture buffer, more specifically in the reference picture list. In other words, the video coder may identify pictures that share the same location.

[0088]インター予測されたスライスにおいて、TMVPが全体にコード化されたビデオシーケンスに関してイネーブルされると(シーケンスパラメータセット内のsps_temporal_mvp_enable_flagが1に設定される)、ビデオエンコーダ20は、TMVPが現在のスライスに関してイネーブルされたかどうかを示すためにスライスヘッダ内のslice_temporal_mvp_enable_flagをシグナリングし得る。   [0088] In an inter-predicted slice, if TMVP is enabled for the entire coded video sequence (sps_temporal_mvp_enable_flag in the sequence parameter set is set to 1), video encoder 20 may make TMVP the current slice. The slice_temporal_mvp_enable_flag in the slice header may be signaled to indicate whether it is enabled for.

[0089]現在のピクチャの現在のスライスがBスライス(すなわち双方向にインター予測されたPUを含むことが可能なスライス)である場合、ビデオエンコーダ20は、スライスヘッダにおいて、同じ場所を共有するピクチャがRefPicList0またはRefPicList1からのものであるかどうかを示すシンタックス要素(例えば、collocated_from_10_flag)をシグナリングし得る。ビデオデコーダ30が同じ場所を共有するピクチャを含む参照ピクチャリストを識別した後、ビデオデコーダ30は、識別された参照ピクチャリストにおいてピクチャ(すなわち同じ場所を共有するピクチャ)を識別するために、スライスヘッダにおいてシグナリングされ得る別のシンタックス要素(例えば、collocated_ref_idx)を使用し得る。   [0089] If the current slice of the current picture is a B slice (ie, a slice that can include bi-interpreted PUs), video encoder 20 may share pictures that share the same location in the slice header. May signal a syntax element (e.g., collated_from_10_flag) that indicates whether is from RefPicList0 or RefPicList1. After video decoder 30 identifies a reference picture list that includes pictures that share the same location, video decoder 30 may identify a slice header to identify a picture (ie, a picture that shares the same location) in the identified reference picture list. Another syntax element that can be signaled in (eg, collated_ref_idx) may be used.

[0090]ビデオコーダは、同じ場所を共有するピクチャを確認することによって同じ場所を共有するPUを識別し得る。TMVPは、同じ場所を共有するPUを含むCUの右下のPUの動き情報か、あるいはこのPUを含むCUの中央のPU内の右下のPUの動き情報を示し得る。同じ場所を共有するPUを含むCUの右下のPUは、PUの予測ブロックの右下のサンプルの直下および右の場所をカバーするPUであり得る。言い換えると、TMVPは、参照ピクチャ内にあり、かつ現在のPUの右下角と同じ場所を共有する場所をカバーするPUの動き情報を示すか、あるいはTMVPは、参照ピクチャ内にあり、かつ現在のPUの中央と同じ場所を共有する場所をカバーするPUの動き情報を示し得る。   [0090] A video coder may identify PUs that share the same location by identifying pictures that share the same location. The TMVP may indicate the motion information of the lower right PU of the CU including the PU sharing the same location, or the motion information of the lower right PU in the central PU of the CU including this PU. The lower right PU of a CU that includes PUs that share the same location may be a PU that covers the locations immediately below and to the right of the lower right sample of the prediction block of the PU. In other words, TMVP indicates the motion information of the PU covering the location that is in the reference picture and shares the same location as the lower right corner of the current PU, or TMVP is in the reference picture and the current It may indicate the motion information of the PU covering a location that shares the same location as the center of the PU.

[0091]上記のプロセスによって識別された動きベクトルが、統合モードまたはAMVPモードのための動き候補を生成するために使用される場合、動きベクトルは、(POC値によって影響される)時間的な場所に基づいてスケールされ得る。例えば、現在のピクチャと参照ピクチャのPOC値の間の差分がより小さい場合より、現在のピクチャと参照ピクチャのPOC値の間の差分が大きい場合に、ビデオコーダは、より大きい量だけ動きベクトルの大きさを増大させ得る。   [0091] If the motion vector identified by the above process is used to generate motion candidates for the integrated mode or AMVP mode, the motion vector is a temporal location (affected by the POC value). Can be scaled based on For example, if the difference between the POC value of the current picture and the reference picture is larger than if the difference between the POC value of the current picture and the reference picture is smaller, the video coder The size can be increased.

[0092]3D−HEVCは、異なる視点からの同一場面の複数のビューを提供する。3D−HEVCに関する標準化の取り組みの一部は、HEVCに基づくマルチビュービデオコーデックの標準化を含む。同様に、HEVCベースの3DVにおいて、異なるビューから再構築されたビュー構成要素に基づくインタービュー予測がイネーブルされる。H.264/AVCにおけるMVCのように、3D−HEVCはインタービュー動き予測(IMP)をサポートする。3D−HEVCにおいて、IMPは、HEVCの標準で用いられる動き補償に類似しており、かつ同じまたは類似のシンタックス要素を利用し得る。しかし、ビデオコーダがPUに対してIMPを実行する場合、ビデオコーダは、PUと同じアクセスユニット内だが異なるビューにあるピクチャを参照ピクチャとして使用し得る。対照的に、従来の動き補償は、参照ピクチャとして異なるアクセスユニット内のピクチャを使用するだけである。したがって、3D−HEVCにおいて、従属ビューにおけるブロックの動きパラメータは、同じアクセスユニットの他のビューにおける既にコード化された動きパラメータに基づいて予測または推測される。   [0092] 3D-HEVC provides multiple views of the same scene from different viewpoints. Part of the standardization effort for 3D-HEVC includes the standardization of a multi-view video codec based on HEVC. Similarly, in HEVC-based 3DV, inter-view prediction based on view components reconstructed from different views is enabled. H. Like MVC in H.264 / AVC, 3D-HEVC supports inter-view motion prediction (IMP). In 3D-HEVC, IMP is similar to the motion compensation used in the HEVC standard and may utilize the same or similar syntax elements. However, if the video coder performs IMP on the PU, the video coder may use a picture in the same access unit as the PU but in a different view as a reference picture. In contrast, conventional motion compensation only uses a picture in a different access unit as a reference picture. Thus, in 3D-HEVC, the motion parameters of a block in a dependent view are predicted or inferred based on already coded motion parameters in other views of the same access unit.

[0093]ビデオコーダは、現在のPUの動き情報が統合モードまたはAMVPモードを用いてシグナリングされる場合、候補リスト(例えば、統合候補リストまたはAMVP候補リスト)を生成し得る。3D−HEVCにおいて、候補リストは、候補リスト内の他の候補と同じ方法で使用され得るインタービュー予測候補を含み得る。インタービュー予測候補は、参照ピクチャのPU(すなわち参照PU)の動き情報を特定する。参照ピクチャは、現在のPUと同じアクセスユニット内だが、現在のPUとは異なるビュー内に存在し得る。参照PUを決定するために、ビデオコーダは、現在のPUに関する不一致ベクトルを決定するために、不一致ベクトル構築プロセスを実行し得る。現在のPUに関する不一致ベクトルは、現在のPUと参照テクスチャピクチャ内の場所の間の水平空間的置換(horizontal spatial displacement)を示し得る。参照PUは、不一致ベクトルによって示される場所をカバーする参照テクスチャピクチャのPUであり得る。   [0093] The video coder may generate a candidate list (eg, an integrated candidate list or an AMVP candidate list) if the current PU motion information is signaled using the integrated mode or the AMVP mode. In 3D-HEVC, the candidate list may include inter-view prediction candidates that may be used in the same manner as other candidates in the candidate list. The inter-view prediction candidate specifies motion information of a PU of a reference picture (that is, a reference PU). The reference picture may be in the same access unit as the current PU, but in a different view than the current PU. To determine the reference PU, the video coder may perform a mismatch vector construction process to determine a mismatch vector for the current PU. The mismatch vector for the current PU may indicate a horizontal spatial displacement between the current PU and a location in the reference texture picture. The reference PU may be a PU of a reference texture picture that covers the location indicated by the mismatch vector.

[0094]不一致動きベクトルは、インタービュー参照ピクチャ内の場所を指す動きベクトルである。インタービュー参照ピクチャは、現在のPUと同じアクセスユニット内だが、異なるビューにあるテクスチャピクチャである。空間的不一致ベクトル(「SDV」)は、現在のPUに空間的に隣接するPUの不一致動きベクトルである。言い換えると、SDVは、空間的に隣接するPUによって特定され、インタービュー参照ピクチャ内の場所を示す動きベクトルであり、ここにおいて、空間的に隣接するPUは現在のPUに空間的に隣接する。時間的不一致ベクトル(「TDV」)は、現在のPUと同じビュー内で、かつ現在のPUとは異なるアクセスユニット内にある現在のPUと同じ場所を共有するPUの不一致動きベクトルである。言い換えると、TDVは、同じアクセスユニットを用いて、参照ピクチャまたはインタービューピクチャのいずれかにおける同じ場所を共有するLCU、同じ場所を共有するPUからの不一致動きベクトルであり得る。別法として、TMVPに使用されたピクチャからの同じ場所を共有するPUの動きベクトルまたはTMVPによって生成された動きベクトルが不一致ベクトルである場合、そのベクトルはまたTDVとして扱われる。現在のPUの空間的に隣接するまたは時間的に隣接するPUがインタービュー動き予測を用いてコード化される場合、空間的に隣接するまたは時間的に隣接するPUの不一致ベクトルは暗黙不一致ベクトル(「IDV」)である。   [0094] A mismatch motion vector is a motion vector that points to a location in an inter-view reference picture. An inter-view reference picture is a texture picture in the same access unit as the current PU but in a different view. A spatial mismatch vector (“SDV”) is a mismatch motion vector of a PU spatially adjacent to the current PU. In other words, an SDV is a motion vector that is specified by a spatially adjacent PU and indicates a location in an inter-view reference picture, where the spatially adjacent PU is spatially adjacent to the current PU. The temporal mismatch vector (“TDV”) is a mismatch motion vector of a PU that shares the same location as the current PU in the same view as the current PU and in an access unit different from the current PU. In other words, a TDV may be a mismatch motion vector from an LCU that shares the same location in either a reference picture or an inter-view picture, a PU that shares the same location, using the same access unit. Alternatively, if a PU motion vector that shares the same location from the picture used for TMVP or a motion vector generated by TMVP is a mismatch vector, then that vector is also treated as TDV. When spatially adjacent or temporally adjacent PUs of the current PU are coded using inter-view motion prediction, the spatially or temporally adjacent PU mismatch vector is an implicit mismatch vector ( “IDV”).

[0095]ビデオコーダは、IMPのために直接SDV、TDV、またはIDVから選択された不一致ベクトルを使用し得る。上述されたとおり、ビデオエンコーダは、統合/スキップモードまたはAMVPモードを用いて現在のPUの動き情報をシグナリングする場合、現在のPUに関するMVP候補リストを生成し得る。ビデオコーダは、インタービュー参照ピクチャにおいて参照PUを決定するために、選択された不一致ベクトル候補によって特定された不一致ベクトルを使用し得る。ビデオコーダは、統合モードまたはAMVPモードに関するMV候補リストにおけるインタービュー予測MV候補として参照PUの動き情報を含み得る。   [0095] The video coder may use a mismatch vector selected directly from SDV, TDV, or IDV for IMP. As described above, the video encoder may generate an MVP candidate list for the current PU when signaling motion information of the current PU using the merge / skip mode or AMVP mode. The video coder may use the mismatch vector identified by the selected mismatch vector candidate to determine the reference PU in the inter-view reference picture. The video coder may include the motion information of the reference PU as an inter-view prediction MV candidate in the MV candidate list for the integrated mode or the AMVP mode.

[0096]シンタックス要素part_modeは、現在のCUの分割モードを特定する。HEVCにおけるpart_modeの値は下記のとおり限定される。1つのCUのコーディングモードがMODE_INTRAに等しい場合、part_modeは0または1に等しいものとする。別の場面で、1つのCUのコーディングモードがMODE_INTERに等しい場合、下記があてはまる。現在のCUのサイズが最小CUのサイズより大きく、非対称の動きパーティションがイネーブルされる場合、part_modeは、境界も含めて0から2までの範囲であり、かつ境界も含めて4から7までの範囲とする。別の場面で、現在のCUのサイズが最小CUのサイズより大きく、非対称の動きパーティションがディスエーブルされる場合、part_modeは、境界も含めて0から2までの範囲とする。別の場面で、現在のCUのサイズが8に等しい場合、part_modeの値は、境界も含めて0から2までの範囲とする。別の場面(現在のCUのサイズが8より大きい)で、part_modeの値は、境界も含めて0から3までの範囲とする。   [0096] The syntax element part_mode identifies the split mode of the current CU. The value of part_mode in HEVC is limited as follows. If the coding mode of one CU is equal to MODE_INTRA, part_mode shall be equal to 0 or 1. In another scenario, if the coding mode of one CU is equal to MODE_INTER, the following applies: If the size of the current CU is larger than the size of the minimum CU and asymmetric motion partition is enabled, part_mode ranges from 0 to 2 including the boundary, and ranges from 4 to 7 including the boundary. And In another scenario, if the size of the current CU is larger than the size of the minimum CU and asymmetric motion partitions are disabled, then part_mode ranges from 0 to 2 including the boundary. In another scenario, if the current CU size is equal to 8, the value of part_mode ranges from 0 to 2 including the boundary. In another scene (the current CU size is greater than 8), the value of part_mode ranges from 0 to 3 including the boundary.

[0097]part_modeと可変PartModeの関連する値の間の関係は、下記の表1に定義される。part_modeが存在しない場合、現在のCUのパーティションモードは、PART_2N×2Nに等しいものと推測されることに留意のこと。

Figure 2016526348
[0097] The relationship between the relevant values of part_mode and variable PartMode is defined in Table 1 below. Note that in the absence of part_mode, the partition mode of the current CU is assumed to be equal to PART_2N × 2N.
Figure 2016526348

[0098]NBDVは、全てのビューに関するテクスチャ−第1のコーディング順序を用いる3D−HEVCおける不一致ベクトル誘導方法のために用いられる。現在の3D−HEVC設計において、NBDVは、参照ビューの深さマップから深さデータを検索するためにも用いられ得る。   [0098] NBDV is used for the mismatch vector derivation method in 3D-HEVC using texture-first coding order for all views. In the current 3D-HEVC design, NBDV can also be used to retrieve depth data from a reference view depth map.

[0099]不一致ベクトルは、2つのビューの間の不一致の推定器に用いられる。隣接するブロックは、ビデオコーディングにおいてほとんど同じ動き/不一致情報を共有するため、現在のブロックは、優れた予測器として隣接するブロック内の動きベクトル情報を使用し得る。この考えにしたがって、NBDVは、異なるビューにおける不一致ベクトルを推測するために隣接する不一致情報を使用する。   [0099] The mismatch vector is used for an estimator of mismatch between the two views. Since neighboring blocks share almost the same motion / mismatch information in video coding, the current block may use motion vector information in neighboring blocks as a good predictor. In accordance with this idea, NBDV uses adjacent mismatch information to infer mismatch vectors in different views.

[0100]様々な空間的および時間的に隣接するブロックがまず定義される。空間的および時間的に隣接するブロックのそれぞれは次に、現在のブロックと候補ブロックの間の相関関係の優先度によって決定される予め定義された順序で確認される。不一致動きベクトル(すなわち、インタービュー参照ピクチャを指す動きベクトル)が候補内に発見されると、不一致動きベクトルは不一致ベクトルに変換される。隣接するブロックの2つのセットが利用される。一方のセットは空間的に隣接するブロックからのものであり、もう一方のセットは時間的に隣接するブロックからのものである。   [0100] Various spatially and temporally adjacent blocks are first defined. Each of the spatially and temporally adjacent blocks is then confirmed in a predefined order determined by the correlation priority between the current block and the candidate block. If a mismatch motion vector (ie, a motion vector pointing to an inter-view reference picture) is found in the candidate, the mismatch motion vector is converted to a mismatch vector. Two sets of adjacent blocks are used. One set is from spatially adjacent blocks and the other set is from temporally adjacent blocks.

[0101]3D−HEVCは、L.チャン氏およびその他による「3D−CE5.h:不一致ベクトル生成結果」文献JCT3V−A0097において提案されたNBDV方法を最初に採用した。暗黙不一致ベクトルは、J.スン氏およびその他による「3D−CE5.h:HEVCベースの3Dビデオコーディングに関する不一致ベクトル誘導の簡略化」文献JCT3V−A0126に簡略化されたNBDVと共に含まれていた。J.カン氏およびその他による「3D−CE5.h関連:不一致ベクトル誘導に関する改良」文献番号JCT3V−B0047において、NBDVは、復号されたピクチャバッファ内に記憶された暗黙の不一致ベクトルを取り除くことによってさらに簡略化されるが、RAPピクチャ選択を用いてコーディング利得も改良した。   [0101] 3D-HEVC The NBDV method proposed in “3D-CE5.h: mismatch vector generation results” document JCT3V-A0097 by Chang and others was first adopted. Implicit mismatch vectors are Sun and others included “3D-CE5.h: Simplification of mismatch vector derivation for HEVC-based 3D video coding” document JCT3V-A0126 with a simplified NBDV. J. et al. In 3D-CE5.h Related: Improvement on Mismatch Vector Guidance, Document No. JCT3V-B0047 by Kang and others, NBDV is further simplified by removing implicit mismatch vectors stored in the decoded picture buffer However, the coding gain was also improved using RAP picture selection.

[0102]図2は、マルチビューコーディング復号順序の例を示す概念の図である。図2の例において、各正方形はビュー構成要素に対応する。正方形の列はアクセスユニットに対応する。各アクセスユニットは、時間インスタンスの全てのビューのコード化されたピクチャを含むように定義され得る。正方形の行はビューに対応する。図2の例において、アクセスユニットは、T0…T8とラベル付けされ、ビューはS0…S8とラベル付けされる。アクセスユニットの各ビュー構成要素は、次のアクセスユニットの任意のビュー構成要素より前に復号されるため、図2の復号順序は、時間−第1のコーディング(time-first coding)と称され得る。アクセスユニットの復号順序は、ビューの出力または表示の順序に一致し得ない。   [0102] FIG. 2 is a conceptual diagram illustrating an example of a multi-view coding decoding order. In the example of FIG. 2, each square corresponds to a view component. Square columns correspond to access units. Each access unit may be defined to include coded pictures of all views of the time instance. Square rows correspond to views. In the example of FIG. 2, the access unit is labeled T0 ... T8 and the view is labeled S0 ... S8. Since each view component of an access unit is decoded before any view component of the next access unit, the decoding order of FIG. 2 may be referred to as time-first coding. . The decoding order of access units cannot match the order of view output or display.

[0103]マルチビューコーディングはインタービュー予測をサポートする。インタービュー予測はH.264/AVC、HEVC、または他のビデオコーディングの標準で用いられるインター予測に類似しており、類似のシンタックス要素を使用し得る。しかし、ビデオコーダが現在のビデオユニット(例えば、マクロブック)に対してインタービュー予測を実行する場合、ビデオコーダは、現在のビデオユニットと同じアクセスユニット内ではあるが、異なるビューにあるピクチャを参照ピクチャとして使用し得る。対照的に、従来のインター予測は、参照ピクチャとして異なるアクセスユニット内のピクチャを使用するのみである。   [0103] Multi-view coding supports inter-view prediction. Inter-view prediction is based on H.264. Similar to the inter prediction used in H.264 / AVC, HEVC, or other video coding standards, similar syntax elements may be used. However, if the video coder performs inter-view prediction on the current video unit (eg, macrobook), the video coder references a picture in the same access unit as the current video unit but in a different view Can be used as a picture. In contrast, conventional inter prediction only uses pictures in different access units as reference pictures.

[0104]マルチビューコーディングにおいて、ビデオデコーダ(例えば、ビデオデコーダ30)がいずれかの他のビュー内のピクチャを参照することをなくビュー内のピクチャを復号可能な場合、ビューは、「基本ビュー(base view)」と称され得る。非基本ビューのうちの1つにおいてピクチャをコード化する場合、ピクチャが異なるビュー内にあるが、ビデオコーダが現在コード化しているピクチャと同じ時間インスタンス(すなわちアクセスユニット)内にある場合、ビデオコーダ(例えば、ビデオエンコーダ20またはビデオデコーダ30)は、ピクチャを参照ピクチャリスト(例えば、RefPicList0またはRefPicList1)に加え得る。他のインター予測参照ピクチャと同様に、ビデオコーダは、参照ピクチャリストの任意の位置にインタービュー予測参照ピクチャを挿入し得る。   [0104] In multi-view coding, if a video decoder (eg, video decoder 30) can decode a picture in a view without referring to a picture in any other view, the view is "basic view ( base view) ". When coding a picture in one of the non-basic views, if the picture is in a different view, but the video coder is in the same time instance (ie access unit) as the currently coded picture, the video coder (Eg, video encoder 20 or video decoder 30) may add the picture to a reference picture list (eg, RefPicList0 or RefPicList1). Similar to other inter-predicted reference pictures, the video coder may insert an inter-view predicted reference picture at any position in the reference picture list.

[0105]図3は、本開示において説明される技術にしたがったマルチビューコーディングのための予測構造の例を示す概念図である。図3のマルチビュー予測構造は、時間的およびインタービュー予測を含む。図3の例において、各正方形はビュー構成要素に対応する。「I」とラベル付けされた正方形は、イントラ予測されるビュー構成要素である。「P」とラベル付けされた正方形は、一方向にインター予測されるビュー構成要素である。「B」および「b」とラベル付けされた正方形は、双方向にインター予測されるビュー構成要素である。「b」とラベル付けされた正方形は、参照ピクチャとして「B」とラベル付けされた正方形を用い得る。第1の正方形から第2の正方形までを指し示す矢印は、第1の正方形が、インター予測において、第2の正方形に関する参照ピクチャとして使用可能であることを示す。図3において垂直矢印によって示されるように、同じアクセスユニットの異なるビューにおけるビュー構成要素は、参照ピクチャとして使用可能であり得る。同じアクセスユニットの別のビュー構成要素に関する参照ピクチャとしてのアクセスユニットの1つのビュー構成要素の使用はインタービュー予測と称され得る。したがって、マルチビュービデオコーディングのための(各ビュー内のインターピクチャ予測とインタービュー予測の両方を含む)典型的なMVC予測構造が図3に示され、ここにおいて、予測は矢印によって示され、被参照オブジェクトは、参照予測のためにオブジェクトからの位置を使用する。   [0105] FIG. 3 is a conceptual diagram illustrating an example of a prediction structure for multi-view coding in accordance with the techniques described in this disclosure. The multi-view prediction structure of FIG. 3 includes temporal and inter-view prediction. In the example of FIG. 3, each square corresponds to a view component. The square labeled “I” is the intra-predicted view component. The square labeled “P” is a view component that is inter-predicted in one direction. The squares labeled “B” and “b” are view components that are bi-inter-predicted. The square labeled “b” may use the square labeled “B” as the reference picture. An arrow pointing from the first square to the second square indicates that the first square can be used as a reference picture for the second square in inter prediction. As indicated by the vertical arrows in FIG. 3, view components in different views of the same access unit may be usable as reference pictures. The use of one view component of an access unit as a reference picture for another view component of the same access unit may be referred to as inter-view prediction. Thus, a typical MVC prediction structure (including both inter-picture prediction and inter-view prediction within each view) for multi-view video coding is shown in FIG. The reference object uses the position from the object for reference prediction.

[0106]H.264/AVCのMVC拡張において、インタービュー予測はH.264/AVCの動き補償のシンタックスを使用する不一致動き補償によってサポートされ得るが、異なるビューにおけるピクチャが参照ピクチャとして使用されることを可能にする。2つのビューのコード化は、H.264/AVCのMVC拡張によってもサポートされ得る。H.264/AVCのMVC拡張の利点の一つは、MVCエンコーダが3Dビデオ入力として3つ以上のビューを取得し得、かつMVCデコーダが例えばマルチビュー描写を復号し得る点である。その結果、MVCデコーダを用いる任意のレンダラ(renderer)は、3つ以上のビューを有する3Dビデオコンテンツを要求し得る。   [0106] H. In the MVC extension of H.264 / AVC, inter-view prediction is performed in H.264. H.264 / AVC motion compensation syntax may be supported, but allows pictures in different views to be used as reference pictures. The encoding of the two views is H.264. It can also be supported by the H.264 / AVC MVC extension. H. One of the advantages of the H.264 / AVC MVC extension is that the MVC encoder can obtain more than two views as 3D video input, and the MVC decoder can, for example, decode multi-view representations. As a result, any renderer that uses an MVC decoder may request 3D video content with more than two views.

[0107]H.264/AVCのMVC拡張において、インタービュー予測は、同じアクセスユニット(すなわち同じ時間インスタンスを有する)におけるピクチャの間で許可される。言い換えると、MVCにおいて、インタービュー予測は、ビュー間の相関関係を取り除くために、同じアクセスユニット(すなわち同じ時間インスタンスを有する)の異なるビューから取得されたピクチャの間で実行される。非基本ビューのうちの1つ内のピクチャをコード化する場合、ピクチャが異なるビュー内にあるが同じ時間インスタンスを有していれば、ピクチャは参照ピクチャリストに加えられ得る。言い換えると、インタービュー予測を用いてコード化されたピクチャは、他の非基本ビューのインタービュー予測のために参照ピクチャリストに加えられえる。言い換えると、インタービュー予測を用いてコード化されたピクチャは、他の非基本ビューのインタービュー予測のために参照ピクチャリストに加えられえる。インタービュー予測参照ピクチャは、ちょうど任意のインター予測参照ピクチャのように参照ピクチャリストの任意の位置に配置され得る。   [0107] H. In the H.264 / AVC MVC extension, inter-view prediction is allowed between pictures in the same access unit (ie, having the same time instance). In other words, in MVC, inter-view prediction is performed between pictures taken from different views of the same access unit (ie, having the same time instance) to remove the correlation between views. When coding a picture in one of the non-base views, the picture can be added to the reference picture list if the picture is in a different view but has the same time instance. In other words, pictures coded using inter-view prediction can be added to the reference picture list for inter-view prediction of other non-basic views. In other words, pictures coded using inter-view prediction can be added to the reference picture list for inter-view prediction of other non-basic views. The inter-view prediction reference picture may be placed at any position in the reference picture list just like any inter prediction reference picture.

[0108]さらに、マルチビュービデオコーディングのコンテキストにおいて、2つのタイプの動きベクトルが存在し得る。一方のタイプの動きベクトルは、時間的参照ピクチャを指し示す通常の動きベクトルであり、対応する時間的インター予測は動き補償予測(MCP)である。他方のタイプの動きベクトルは、異なるビュー(すなわちインタービュー参照ピクチャ)におけるピクチャを指し示す不一致動きベクトルであり、対応するインター予測は不一致補償予測(DCP)である。   [0108] Further, in the context of multi-view video coding, there can be two types of motion vectors. One type of motion vector is a normal motion vector that points to a temporal reference picture, and the corresponding temporal inter prediction is motion compensated prediction (MCP). The other type of motion vector is a mismatch motion vector that points to pictures in different views (ie, inter-view reference pictures), and the corresponding inter prediction is a mismatch compensated prediction (DCP).

[0109]図4は、本開示において説明される技術にしたがった隣接ベースの不一致ベクトルの誘導(NBDV)のための現在の予測ユニット(PU)の空間的に隣接するブロックを示す概念図である。現在のNBDVにおいて、5個の空間的に隣接するブロックが現在のPUに関する不一致ベクトル誘導のために用いられる。5個の空間的に隣接するブロックは、現在のPUの左下、左、右上、上、および左上のブロックであり、それぞれA0、A1、B0、B1、およびB2によって示される。5個の空間的に隣接するブロックは、HEVCにおける統合モードで使用される空間的に隣接するブロックと同じであることが留意されるべきである。したがって、追加のメモリアクセスは必要とされない。   [0109] FIG. 4 is a conceptual diagram illustrating spatially adjacent blocks of a current prediction unit (PU) for neighbor-based mismatch vector derivation (NBDV) in accordance with the techniques described in this disclosure. . In the current NBDV, 5 spatially adjacent blocks are used for mismatch vector derivation for the current PU. The five spatially adjacent blocks are the lower left, left, upper right, upper, and upper left blocks of the current PU, indicated by A0, A1, B0, B1, and B2, respectively. It should be noted that the five spatially adjacent blocks are the same as the spatially adjacent blocks used in the integrated mode in HEVC. Thus, no additional memory access is required.

[0110]時間的に隣接するブロックを確認するために、候補ピクチャの構築プロセスが最初に実行される。現在のビューから最大2個の参照ピクチャが候補ピクチャとして扱われ得る。同じ場所を共有する参照ピクチャは、最初に候補ピクチャリストに挿入され、次に、参照インデックスの昇順に残りの候補ピクチャが挿入される。両方の参照ピクチャリストにおいて同じ参照インデックスを有する参照ピクチャが使用可能な場合、同じ場所を共有するピクチャの同じ参照ピクチャリストにおける一方が他方に先行する。候補ピクチャリスト内の各候補ピクチャに関して、3つの候補領域が時間的に隣接するブロックを抽出すために決定される。   [0110] A candidate picture construction process is first performed to identify temporally adjacent blocks. Up to two reference pictures from the current view can be treated as candidate pictures. Reference pictures sharing the same location are first inserted into the candidate picture list, and then the remaining candidate pictures are inserted in ascending order of reference index. If reference pictures with the same reference index are available in both reference picture lists, one in the same reference picture list of pictures sharing the same location precedes the other. For each candidate picture in the candidate picture list, three candidate regions are determined to extract temporally adjacent blocks.

[0111]ブロックがインタービュー動き予測を用いてコード化される場合、不一致ベクトルは、異なるビューにおいて対応するブロックを選択するために抽出される必要があり得る。抽出された不一致ベクトルとも称される暗黙不一致ベクトル(IDV)は、インタービュー動き予測において抽出される不一致ベクトルと称される。ブロックが動き予測を用いてコード化さたとしても、抽出された不一致ベクトルは、下記のブロックをコード化する目的で破棄されることはない。NBDVプロセスは、時間的に隣接するブロックにおける不一致動きベクトル、空間的に隣接するブロックにおける不一致動きベクトル、次に暗黙の不一致ベクトルを順に確認し得る。不一致ベクトルが発見されると、プロセスは終了する。   [0111] If a block is coded using inter-view motion prediction, the mismatch vector may need to be extracted to select the corresponding block in different views. The implicit mismatch vector (IDV), also referred to as the extracted mismatch vector, is referred to as the mismatch vector extracted in the inter-view motion prediction. Even if the block is coded using motion prediction, the extracted mismatch vector is not discarded for the purpose of coding the following block. The NBDV process may sequentially check for mismatched motion vectors in temporally adjacent blocks, mismatched motion vectors in spatially adjacent blocks, and then implicit mismatched vectors. If a mismatch vector is found, the process ends.

[0112]不一致動きベクトルまたは前のプロセスの間に発見されたIDVが無い場合、NBDVは、使用不可能であるとマークされる。この場合、NBDVは使用不可能な不一致ベクトルを返すと考えられ得る。しかし、NBDVが使用不可能な結果を返しても、ゼロ不一致ベクトルは、不一致ベクトルを必要とする他のコーディングプロセスによって使用可能である。3D−HEVCは、参照ビューの深さがアクセスされるのを可能にする。この場合、深さは後方ビュー合成予測(BVSP)のために用いられるべき不一致ベクトルまたは不一致動きベクトルを精密化するためにも用いられ得る。   [0112] If there is no mismatch motion vector or IDV found during the previous process, the NBDV is marked as unusable. In this case, NBDV may be considered to return an unusable mismatch vector. However, even if NBDV returns an unusable result, the zero mismatch vector can be used by other coding processes that require a mismatch vector. 3D-HEVC allows the reference view depth to be accessed. In this case, the depth can also be used to refine the discrepancy vector or discrepancy motion vector to be used for backward view synthesis prediction (BVSP).

[0113]使用可能な不一致ベクトルがNBDVプロセスから抽出される場合、不一致ベクトルは、参照ビューの深さマップから深さデータを検索することによってさらに精密化される。精密化プロセスは2つのステップを含む。第1に、対応する深さブロックは、基本ビューのような前にコード化された参照深さビューにおいて抽出された不一致ベクトルを用いることによって配置される。対応する深さブロックのサイズは、現在のPUのサイズと同じである。第2に、対応する深さブロックの4つの角のピクセルから1つの深さ値が選択され、精密化された不一致ベクトルの水平成分に変換される。不一致ベクトルの垂直成分は変わらない。   [0113] If available mismatch vectors are extracted from the NBDV process, the mismatch vectors are further refined by retrieving depth data from the reference view depth map. The refinement process includes two steps. First, the corresponding depth block is placed by using a mismatch vector extracted in a previously coded reference depth view, such as a basic view. The corresponding depth block size is the same as the current PU size. Second, a depth value is selected from the four corner pixels of the corresponding depth block and converted into a refined discrepancy vector horizontal component. The vertical component of the mismatch vector does not change.

[0114]使用可能な不一致ベクトルを抽出すための上記のプロセスは、NBDV精密化(NBDV−R)または深さ指向NBDV(Do−NBDV)とも呼ばれる。しかし、NBDVが使用可能な不一致ベクトルを提供しない(したがって、NBDVの結果が使用不可能である)場合、上記のNBDV−Rプロセスはスキップされ、ゼロ不一致ベクトルが直接返される。   [0114] The above process for extracting usable mismatch vectors is also referred to as NBDV refinement (NBDV-R) or depth-oriented NBDV (Do-NBDV). However, if NBDV does not provide a usable mismatch vector (and therefore the NBDV result is not available), the NBDV-R process above is skipped and a zero mismatch vector is returned directly.

[0115]精密化された不一致ベクトルがインタービュー動き予測に使用される一方で、精密化されていない不一致ベクトルがインタービュー残差予測に使用されることが留意される。さらに、精密化された不一致ベクトルは、後方VSPモードを用いてコード化される場合、1つのPUの動きベクトルとして記憶される。   [0115] It is noted that refined discrepancy vectors are used for inter-view motion prediction, while unrefined discrepancy vectors are used for inter-view residual prediction. Furthermore, the refined mismatch vector is stored as a motion vector for one PU when coded using the backward VSP mode.

[0116]HEVCは、AMVPおよび統合モードに関する候補リストの概念を導入するので、3D−HEVCにおいて、インタービュー動き予測は、新しい候補を導入することによって実現される。AMVP候補リストの生成を変更するためのアクティビティは存在したが、そのアクティビティを行う利点は小さいと考えられたため、AMVPモードは、現在の3D−HEVCにおいて変更されないままであった。インタービュー動き予測の主な実現化は統合モードの修正によって達成される。   [0116] Since HEVC introduces the concept of candidate lists for AMVP and unified mode, in 3D-HEVC, inter-view motion prediction is realized by introducing new candidates. There was an activity to change the generation of the AMVP candidate list, but the AMVP mode remained unchanged in the current 3D-HEVC because the benefits of doing that activity were considered small. The main realization of inter-view motion prediction is achieved by the integration mode modification.

[0117]3D−HEVCにおいて、最大6個の統合候補が統合候補リストに挿入され得る。HEVCにおける統合モードの復号プロセスによってリストに挿入される候補を維持する一方で、2つのさらなる候補が統合候補リストに加えられ得る。それらは、参照ブロックの動き情報にアクセスすることから抽出される候補、すなわちインタービュー候補であり、その候補は現在のブロックの不一致ベクトルから変換される。   [0117] In 3D-HEVC, a maximum of 6 integration candidates may be inserted into the integration candidate list. Two additional candidates may be added to the consolidated candidate list while maintaining candidates that are inserted into the list by the integrated mode decoding process in HEVC. They are candidates extracted from accessing the motion information of the reference block, i.e. inter-view candidates, which are transformed from the mismatch vector of the current block.

[0118]インタービュー候補は、不一致ベクトルによって配置された参照ブロックの動きベクトルを再利用することによって抽出され、その関連の参照ビューはNBDVプロセスから抽出される。さらに、統合候補の参照インデックスは、動きベクトルが参照ビューにおいて指し示すアクセスユニットと同じアクセスユニット(時間インスタンス)内の(現在のピクチャの参照ピクチャリストにおける)ピクチャを識別するために設定される。   [0118] Inter-view candidates are extracted by reusing motion vectors of reference blocks arranged by mismatch vectors, and their associated reference views are extracted from the NBDV process. Furthermore, the reference index of the integration candidate is set to identify a picture (in the reference picture list of the current picture) in the same access unit (temporal instance) as the access unit that the motion vector points to in the reference view.

[0119]ビデオコーダは、他の候補を生成するために、インタービュー参照ピクチャを識別する参照インデックスを用いて不一致ベクトルを不一致動きベクトルに変換する。この候補はインタービュー候補の使用可能性に関わらず挿入される。HEVCにおける統合プロセスと同様に、ビデオコーダは、図4に示されたように、A1およびB1によって示された空間的に隣接するからの候補のみと比較することによって、追加の候補に対して枝刈り(pruning)を適用する。   [0119] The video coder converts the mismatch vector into a mismatch motion vector using a reference index that identifies the inter-view reference picture to generate other candidates. This candidate is inserted regardless of the availability of the interview candidate. Similar to the integration process in HEVC, the video coder branches to additional candidates by comparing only with the candidates from the spatial neighbors indicated by A1 and B1, as shown in FIG. Apply pruning.

[0120]JCT3V−C0152において提案されたように、後方ワーピングVSP(BVSP)アプローチは、3D−AVCにおけるブロックベースのVSPと同じである。これら2つの技術の両方は、動きベクトル差を送信するのを避けるために、後方ワーピングとブロックベースのVSPを用い、かつより正確な動きベクトルを用いる。しかし、実施の詳細は、異なるプラットフォームが原因で異なる。用語BVSPは、3D−HEVCにおける後方ワーピングVSPアプローチを示すためにも使用され得る。   [0120] As proposed in JCT3V-C0152, the backward warping VSP (BVSP) approach is the same as the block-based VSP in 3D-AVC. Both of these two techniques use backward warping and block-based VSP to avoid sending motion vector differences and use more accurate motion vectors. However, implementation details differ due to different platforms. The term BVSP can also be used to indicate the backward warping VSP approach in 3D-HEVC.

[0121]3D−HTMにおいて、テクスチャ第1のコーディングが共通のテスト条件に適用される。したがって、対応する非基本深さビューは、1つの非基本テクスチャビューを復号し、深さ情報がBVSPを実行するために推測および用いられる場合に使用不可能である。   [0121] In 3D-HTM, texture first coding is applied to common test conditions. Thus, the corresponding non-basic depth view is unusable if one non-basic texture view is decoded and depth information is inferred and used to perform BVSP.

[0122]図5は、本開示において説明される技術にしたがった後方ワーピングに基づいて、ブロックベースのビュー合成予測(BVSP)を行うために、参照ビューからの深さブロック誘導の視覚化例の概念図である。図5は、どのように参照ビューからの深さブロックが配置され、次にBVSP予測に用いられるかの3つのステップを示す。ブロックに関する深さ情報を推定するために、初めに隣接するブロックから不一致ベクトルを抽出することが提案される。次に、抽出された不一致ベクトルは、参照ビューから深さブロックを取得するために使用される。HTM5.1テストモデルは、NBDV(隣接するブロック不一致ベクトル)として知られる不一致ベクトル予測器を抽出するプロセスを含む。(dvx,dvy)にNBDV関数(function)から識別された不一致ベクトルを表示させ、現在のブロック位置は、(blockx,blocky)と表示される。深さブロックは、参照ビューの深さイメージにおける(blockx+dvx,blocky+dvy)においてフェッチされ得る。フェッチされた深さブロックは現在のPUの同じサイズを有するはずであり、それは次に、現在のPUに関して後方ワーピングを行うために用いられる。BVSPがシーケンスにおいてイネーブルされる場合、インタービュー動き予測のためのNBDVプロセスが変更される。   [0122] FIG. 5 is an example visualization of depth block derivation from a reference view to perform block-based view synthesis prediction (BVSP) based on backward warping in accordance with the techniques described in this disclosure. It is a conceptual diagram. FIG. 5 shows three steps of how a depth block from a reference view is placed and then used for BVSP prediction. In order to estimate the depth information about a block, it is proposed to first extract the mismatch vector from neighboring blocks. The extracted mismatch vector is then used to obtain the depth block from the reference view. The HTM 5.1 test model includes a process of extracting a mismatch vector predictor known as NBDV (adjacent block mismatch vector). The mismatch vector identified from the NBDV function is displayed on (dvx, dvy), and the current block position is displayed as (blockx, blocky). The depth block may be fetched at (blockx + dvx, blocky + dvy) in the depth image of the reference view. The fetched depth block should have the same size of the current PU, which is then used to do backward warping on the current PU. If BVSP is enabled in the sequence, the NBDV process for inter-view motion prediction is modified.

[0123]BVSPがイネーブルされる場合のNBDVのプロセスへの1つ目の差分は、時間的に隣接するブロックのそれぞれに関して、それが不一致動きベクトルを使用する場合、不一致動きベクトルが不一致ベクトルとして返されることを含む。不一致ベクトルは、深さ情報部分にアクセスした状態で、NBDVの精密化で説明されたようにさらに精密化される。   [0123] The first difference to the NBDV process when BVSP is enabled is that for each temporally adjacent block, if it uses a mismatch motion vector, the mismatch motion vector is returned as a mismatch vector. Including The discrepancy vector is further refined as described in NBDV refinement while accessing the depth information portion.

[0124]別の差分は、空間的に隣接するブロックのそれぞれに関して、下記の条件を参照ピクチャリスト0と参照ピクチャリスト1に順に適用する。その条件とは、空間的に隣接するブロックが不一致動きベクトルを使用する場合、不一致動きベクトルは不一致ベクトルとして返され、それは上述したとおりさらに精密化される。別法として、空間的に隣接するブロックがBVSPモードを用いる場合、関連する動きベクトルは不一致ベクトルとして返される。不一致ベクトルは、上述したのと同様の方法でさらに精密化される。しかし、最大深さ値は、4つの角のピクセルではなく対応する深さブロックの全てのピクセルから選択され、精密化された不一致ベクトルの垂直成分は0に設定される。   [0124] Another difference is that the following conditions are sequentially applied to the reference picture list 0 and the reference picture list 1 for each spatially adjacent block. The condition is that if spatially adjacent blocks use mismatched motion vectors, the mismatched motion vectors are returned as mismatched vectors, which are further refined as described above. Alternatively, if spatially adjacent blocks use BVSP mode, the associated motion vector is returned as a mismatch vector. The mismatch vector is further refined in the same way as described above. However, the maximum depth value is selected from all pixels of the corresponding depth block rather than the four corner pixels, and the vertical component of the refined mismatch vector is set to zero.

[0125]さらに別の差分は、空間的に隣接するブロックのそれぞれに関して、各ブロックがIDVを使用する場合、IDVは不一致ベクトルとして返され、およびそれが上述したとおりさらに精密化されることを含む。さらなる差分は、不一致動きベクトルが使用可能でない場合、精密化プロセスは適用されず、かつ不一致ベクトルはゼロベクトルとして抽出されることを含む。   [0125] Yet another difference includes, for each spatially adjacent block, if each block uses an IDV, the IDV is returned as a mismatch vector, and it is further refined as described above. . Further differences include that if a mismatch motion vector is not available, no refinement process is applied and the mismatch vector is extracted as a zero vector.

[0126]不一致動きベクトル誘導プロセスのために、BVSPモードでコード化された1つのPU内の各サブ領域(4×4のブロック)に関して、対応する4×4の深さブロックは、前述した精密化された不一致ベクトルを用いて参照深さビュー内に最初に配置される。第2に、対応する深さブロックにおいて16個の深さピクセルの最大値が選択される。第3に、その最大値は、不一致動きベクトルの水平成分に変換される。不一致動きベクトルの垂直成分は0に設定される。   [0126] For each sub-region (4x4 block) in one PU coded in BVSP mode due to the mismatch motion vector guidance process, the corresponding 4x4 depth block is the precision described above. Is first placed in the reference depth view using the normalized discrepancy vector. Second, a maximum value of 16 depth pixels is selected in the corresponding depth block. Third, the maximum value is converted to the horizontal component of the mismatch motion vector. The vertical component of the mismatch motion vector is set to zero.

[0127]図6は、本開示において説明される技術にしたがった高度な残差予測(ARP)の予測構造の例を示す概念図である。現在の3D−HEVCにおいて、2つのビューの残差信号の間の相関をさらに効率的に利用するために、インタービュー残差予測は、いわゆる高度な残差予測(ARP)によって実現された。ARPにおいて、不一致ベクトルを用いて識別された参照ブロックの残差は、図6に示されるように、参照ビューに関する残差ピクチャを保持し、残差ピクチャにおける参照ブロック内の残差を直接予測する代わりに、オンザフライで(on-the-fly)生成される。   [0127] FIG. 6 is a conceptual diagram illustrating an example of a prediction structure for advanced residual prediction (ARP) in accordance with the techniques described in this disclosure. In the current 3D-HEVC, in order to make more efficient use of the correlation between the residual signals of the two views, inter-view residual prediction has been realized by so-called advanced residual prediction (ARP). In ARP, the residual of the reference block identified using the mismatch vector retains the residual picture for the reference view and directly predicts the residual in the reference block in the residual picture, as shown in FIG. Instead, it is generated on-the-fly.

[0128]図6に示すように、非基本ビューにおける現在のブロックの残差40を好適に予測するために、ビデオコーダは、不一致ベクトル44を用いて参照ブロック42を識別し得る。参照ブロック42の動き補償は、予測信号43と参照ブロック42の再構築された信号の間の残差を抽出するために呼び出される。ARPモードが呼び出されると、予測された残差は、例えば、非基本ビューの参照ピクチャにおけるブロック41からの動き補償によって生成された非基本ビューの予測信号のトップに加えられる。ARPモードの利点の1つは、(ARPに関する残差を生成する場合)参照ブロック42によって使用される動きベクトル45は、現在のブロック40の動きベクトル46を用いてアラインされるため、現在のブロックの残差信号は、さらに正確に予測され得ることである。したがって、残差のエネルギーは顕著に低減され得る。   [0128] As shown in FIG. 6, in order to better predict the residual 40 of the current block in the non-basic view, the video coder may identify the reference block 42 using the mismatch vector 44. The motion compensation of the reference block 42 is invoked to extract the residual between the predicted signal 43 and the reconstructed signal of the reference block 42. When the ARP mode is invoked, the predicted residual is added to the top of the non-basic view prediction signal generated by motion compensation from block 41 in the non-basic view reference picture, for example. One advantage of the ARP mode is that the motion vector 45 used by the reference block 42 is aligned with the motion vector 46 of the current block 40 (when generating a residual for ARP), so that the current block The residual signal of can be predicted more accurately. Thus, the residual energy can be significantly reduced.

[0129]基本(例えば、参照)および非基本ビューの間の量子化差分は予測の正確さが劣ることにつながる可能性があるため、2つの重み付け係数が、参照ビュー:0.5および1から生成された残差に適応的に適用され得る。   [0129] Since the quantized difference between the basic (eg, reference) and non-basic views can lead to poor prediction accuracy, two weighting factors are used from the reference views: 0.5 and 1 It can be applied adaptively to the generated residual.

[0130]基本(例えば、参照)ビューにおけるさらなる動き補償がメモリアクセスと演算の著しい増加を必要とし得るので、コーディング効率のわずかな犠牲によってより実質的な設計を行うための種々の方法が実施され得る。最初に、ARPモードは、特にビデオエンコーダ20のようなエンコーダでの計算を減らすために、PUが2N×2Nを用いてコード化される場合にのみイネーブルされる。第2に、双線形フィルタは、ARPモードを用いてコード化されたブロックへのメモリアクセスを顕著に減らすために、参照ブロックと現在のブロックの両方の動き補償のために用いられ得る。第3に、キャッシュ効率を高めるために、動きベクトルは、非基本ビューにおいて異なるピクチャを指し示し得るが、基本ビューにおける参照ピクチャは固定される。この場合、現在のブロックの動きベクトルは、ピクチャの距離に基づいてスケールされる必要があり得る。   [0130] Since further motion compensation in the basic (eg, reference) view may require a significant increase in memory access and computation, various methods are implemented to make a more substantial design at a slight cost of coding efficiency. obtain. Initially, the ARP mode is enabled only when the PU is coded with 2N × 2N, particularly to reduce computations at an encoder such as video encoder 20. Second, bilinear filters can be used for motion compensation of both the reference block and the current block to significantly reduce memory access to blocks coded using the ARP mode. Third, to increase cache efficiency, motion vectors may point to different pictures in the non-basic view, but the reference picture in the basic view is fixed. In this case, the motion vector of the current block may need to be scaled based on the distance of the picture.

[0131]図7は、本開示において説明される技術にしたがった現在の深さブロックの不一致ベクトルを抽出するために使用される参照サンプルの例を示す概念図である。図7は、現在のPUに対応する現在の深さブロック50を含む。現在の深さブロック50は幅Wおよび高さHを有する。3つの隣接する参照サンプルは現在の深さブロックに関して図示される。   [0131] FIG. 7 is a conceptual diagram illustrating an example of reference samples used to extract a mismatch vector for a current depth block in accordance with the techniques described in this disclosure. FIG. 7 includes a current depth block 50 corresponding to the current PU. The current depth block 50 has a width W and a height H. Three adjacent reference samples are illustrated for the current depth block.

[0132]1つの例において、現在の深さブロック50の左上に隣接するサンプル54が選択される。図7に示されるように、現在の深さブロック50内の左上のサンプル52が(x,y)の座標を有する場合、左上に隣接するサンプル54は、(x−1,y−1)の座標を有する。別法として、現在の深さブロック50の上部に隣接する行または左側に隣接する列に配置された任意のサンプルが使用され得る。別法として、現在の深さブロック50の空間的に隣接するブロックに配置された任意のサンプルが使用され得る。   [0132] In one example, the sample 54 adjacent to the upper left of the current depth block 50 is selected. As shown in FIG. 7, if the upper left sample 52 in the current depth block 50 has coordinates (x, y), the upper left adjacent sample 54 is (x-1, y-1). Has coordinates. Alternatively, any sample placed in a row adjacent to the top of the current depth block 50 or a column adjacent to the left can be used. Alternatively, any sample placed in a spatially adjacent block of the current depth block 50 can be used.

[0133]別法として、現在の深さブロック50がコード化される場合、2つ以上の使用可能な隣接するサンプルが現在の深さブロック50に関する1つまたは複数の不一致ベクトルを抽出するために使用され得る。例えば、座標(x,y−1)を有する別の上部サンプル56と座標(x−1,y)を有する別の左側のサンプル58が使用され得る。別法として、(x−1,y+1)および(x+1,y−1)の座標を有するサンプルが使用され得る。別法として、(x−1,y+H−1)および(x+W−1,y−1)の座標を有するサンプルは、図7に示された左側に隣接する角または上部に隣接する角のように、現在の深さブロック50のサイズがW×Hで表される場合に使用され得る。別法として、現在の深さブロック50の上部に隣接する行の任意のサンプルが使用され得る。別法として、現在の深さブロック50の左側に隣接する列の任意のサンプルが使用され得る。別法として、現在の深さブロック50の空間的に隣接するブロックの任意のサンプルが使用され得る。   [0133] Alternatively, if the current depth block 50 is coded, two or more available adjacent samples can be used to extract one or more mismatch vectors for the current depth block 50. Can be used. For example, another upper sample 56 having coordinates (x, y-1) and another left sample 58 having coordinates (x-1, y) may be used. Alternatively, samples with (x-1, y + 1) and (x + 1, y-1) coordinates can be used. Alternatively, the samples with coordinates (x-1, y + H-1) and (x + W-1, y-1) are like the corners adjacent to the left side or the top corners shown in FIG. Can be used when the current depth block 50 size is expressed in W × H. Alternatively, any sample in the row adjacent to the top of the current depth block 50 can be used. Alternatively, any sample in the column adjacent to the left side of the current depth block 50 can be used. Alternatively, any sample of spatially adjacent blocks of the current depth block 50 can be used.

[0134]他の別法は、上述されたとおりCUレベルとPUレベルの解決法に適用可能ならば、ブロックレベルの不一致ベクトル誘導に適用され得る。2つ以上の隣接する深さサンプルが不一致ベクトルを抽出するために使用される場合、1つのサンプルが下記の手段のうちの1つによって選択され得る。第1に、インデックスが、複数のサンプルのうちのいずれが不一致ベクトルに変換されるために選択されかを示すブロック(PUまたはCU)レベルにおいてシグナリングされ得る。   [0134] Other alternatives may be applied to block level mismatch vector derivation if applicable to CU level and PU level solutions as described above. If two or more adjacent depth samples are used to extract the mismatch vector, one sample can be selected by one of the following means. First, an index may be signaled at the block (PU or CU) level that indicates which of a plurality of samples are selected for conversion to a mismatch vector.

[0135]第2に、複数の不一致ベクトルが変換される。その数は深さサンプルの数と同じであっても良い。複数の不一致ベクトルは、インタービュー予測に用いられる予測器を生成するために使用される。例えば、複数の動きベクトル候補が生成され、統合候補リストに挿入され得る。   [0135] Second, a plurality of mismatch vectors are transformed. The number may be the same as the number of depth samples. A plurality of mismatch vectors are used to generate a predictor used for inter-view prediction. For example, a plurality of motion vector candidates can be generated and inserted into the integrated candidate list.

[0136]第3に、数学関数が、例えば、メジアン、最大、または平均関数のような複数の深さサンプルの値に適用され、関数の出力値が一意的な不一致ベクトルに変換されるために使用され得る。例えば、CUレベルの不一致ベクトル誘導プロセスにおいて、現在の深さブロック50を変換するCU内の左上のサンプルの座標は(x,y)と表され、CUのサイズは2N×2Nであり、座標(x−1,y−1)、(x−1,y)、および(x,y−1)を有する3つのサンプルの中間値(medium value)が使用される。別の例において、座標(x−1,y−1)、(x−1,y+2N)、(x−1,y+2N−1)、(x+2N,y−1)および(x+2N−1,y−1)を有する5つのサンプルの最大値が使用され得る。   [0136] Third, a mathematical function is applied to the values of multiple depth samples, eg, median, maximum, or average function, so that the output value of the function is converted to a unique mismatch vector. Can be used. For example, in the CU level mismatch vector derivation process, the coordinates of the upper left sample in the CU that transforms the current depth block 50 are represented as (x, y), the size of the CU is 2N × 2N, and the coordinates ( The media value of the three samples with x-1, y-1), (x-1, y), and (x, y-1) is used. In another example, coordinates (x-1, y-1), (x-1, y + 2N), (x-1, y + 2N-1), (x + 2N, y-1) and (x + 2N-1, y-1) A maximum of 5 samples with) can be used.

[0137]例えば、少なくとも1つの不一致値を決定する際に、システムは、各々のCUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定し得る。各々のCUの左上のサンプルは、座標(x,y)を有し、2つ以上の再構築された深さサンプルは、各々のCUの左上に隣接するサンプル、各々のCUの上部に隣接する行、各々のCUの左側に隣接する列、各々のCUの空間的に隣接するブロックに配置された任意のサンプル、座標(x−1,y+1)を有するサンプル、座標(x+1,y−1)を有するサンプル、および各々のCUのサイズが2N×2Nで表される場合は、座標(x−1,y+2N−1)を有するサンプルと座標(x+2N−1,y−1)を有するサンプル、のうちの少なくとも2つ以上からのものである。   [0137] For example, in determining at least one mismatch value, the system may determine two or more mismatch values based at least in part on two or more adjacent samples of each CU. The upper left sample of each CU has coordinates (x, y), and two or more reconstructed depth samples are adjacent to the upper left of each CU, adjacent to the top of each CU Row, adjacent column to the left of each CU, any sample placed in a spatially adjacent block of each CU, sample with coordinates (x-1, y + 1), coordinates (x + 1, y-1) And a sample with coordinates (x-1, y + 2N-1) and a sample with coordinates (x + 2N-1, y-1), where the size of each CU is represented by 2N x 2N From at least two of them.

[0138]不一致ベクトルを抽出するために使用されるサンプルを選択するために数学関数を適用する別の例において、3つのサンプルのうちのメジアン値が使用される。例えば、PUレベルの不一致ベクトル誘導プロセスの場合、現在のPU内の左上のサンプルの座標が(x,y)およびW×HによるPUサイズによって表され、座標(x−1,y−1)、(x−1,y)、および(x,y−1)を有する3つのサンプルの中間値が使用される。別の例において、座標(x−1,y−1)、(x−1,y+H)、(x−1,y+H−1)、(x+W,y−1)、および(x+W−1,y−1)を有する5つのサンプルの最大値が使用され得る。   [0138] In another example of applying a mathematical function to select the samples used to extract the mismatch vector, the median value of the three samples is used. For example, in the case of PU level mismatch vector derivation process, the coordinates of the upper left sample in the current PU are represented by the PU size by (x, y) and W × H, the coordinates (x−1, y−1), The intermediate value of the three samples with (x-1, y) and (x, y-1) is used. In another example, coordinates (x-1, y-1), (x-1, y + H), (x-1, y + H-1), (x + W, y-1), and (x + W-1, y- A maximum of 5 samples with 1) can be used.

[0139]例えば、少なくとも1つの不一致値を決定する際に、システムは、各々のPUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定し得る。少なくとも1つの不一致値に少なくとも部分的に基づいて少なくとも1つの不一致ベクトルを決定する際に、システムは、2つ以上の不一致値に少なくとも部分的に基づいて2つ以上の不一致ベクトルを決定し得る。PUの左上のサンプルは座標(x,y)を有し、2つ以上の再構築された深さサンプルは、PUの上部に隣接する行、PUの左側に隣接する列、各々のCUの空間的に隣接するブロックに配置された任意のサンプル、座標(x−1,y+1)を有するサンプル、座標(x+1,y−1)を有するサンプル、およびPUサイズがW×Hによって表される場合は、座標(x−1,y+H−1)を有するサンプルと座標(x+W−1,y−1)を有するサンプル、のうちの少なくとも2つ以上からのものである。   [0139] For example, in determining at least one mismatch value, the system may determine two or more mismatch values based at least in part on two or more adjacent samples of each PU. In determining at least one mismatch vector based at least in part on at least one mismatch value, the system may determine two or more mismatch vectors based at least in part on the two or more mismatch values. The upper left sample of the PU has coordinates (x, y), and two or more reconstructed depth samples are the row adjacent to the top of the PU, the column adjacent to the left side of the PU, the space of each CU. Any sample placed in a block that is adjacent, a sample with coordinates (x-1, y + 1), a sample with coordinates (x + 1, y-1), and the PU size is represented by WxH , From at least two of the sample having coordinates (x-1, y + H-1) and the sample having coordinates (x + W-1, y-1).

[0140]上記の例は、3D−HEVCのテクスチャビューコーディングで用いられるNBDVプロセスと組み合わされても良い。NBDVプロセスと同じプロシージャが最初に適用され得る。不一致ベクトルがNBDVプロセスから発見されない場合、上記の方法のうちの1つが現在の深さブロックに関する不一致ベクトルを得るためにさらに適用され得る。   [0140] The above example may be combined with the NBDV process used in 3D-HEVC texture view coding. The same procedure as the NBDV process can be applied first. If a mismatch vector is not found from the NBDV process, one of the above methods can be further applied to obtain a mismatch vector for the current depth block.

[0141]いくつかの例において、1つまたは複数のサンプルは、別法においてのみ記載されたグループから選択され得る。他の例において、1つまたは複数のサンプルがそのグループのうちのいずれかから選択され得る。   [0141] In some examples, one or more samples may be selected from a group described only in an alternative. In other examples, one or more samples may be selected from any of the groups.

[0142]深さブロックに関する不一致ベクトルは、複数の方法において利用され得る。例えば、不一致ベクトルは、参照ブロックを識別するために使用され得、および参照ブロックの動き情報は、現在のブロックの現在の動きを予測するために使用される。さらに具体的には、参照ブロックの動きベクトルは、統合またはAMVP候補リスト内に挿入されるべき新しい候補を生成するために使用され得る。さらに、不一致ベクトルは、不一致動きベクトルに変換されるために使用され得る。このような変換された候補は、統合またはAMVP候補リスト内に挿入され得る。さらに、不一致ベクトルは、ARPが現在の深さブロックに適用され得る場所から参照ブロックを識別するために使用され得る。   [0142] The mismatch vector for depth blocks can be utilized in multiple ways. For example, the mismatch vector may be used to identify a reference block, and the reference block motion information is used to predict the current motion of the current block. More specifically, the motion vector of the reference block can be used to generate a new candidate to be inserted into the merged or AMVP candidate list. Further, the mismatch vector can be used to be converted to a mismatch motion vector. Such transformed candidates can be inserted into the merged or AMVP candidate list. Furthermore, the mismatch vector can be used to identify the reference block from where ARP can be applied to the current depth block.

[0143]図8は、本開示の技術を実施し得るビデオエンコーダ20の例を示すブロック図である。図8は、説明の目的で提供されており、本開示で広義に例示および説明された技術を限定したものであると考えられるべきではない。説明のために、本開示は、HEVCコーディングのコンテキストにおいてビデオエンコーダ20を説明する。しかし、本開示の技術は、他のコーディングの標準または方法に適用可能であり得る。   [0143] FIG. 8 is a block diagram illustrating an example of a video encoder 20 that may implement the techniques of this disclosure. FIG. 8 is provided for purposes of explanation and should not be considered as limiting the technique as broadly exemplified and described in this disclosure. For purposes of explanation, this disclosure describes video encoder 20 in the context of HEVC coding. However, the techniques of this disclosure may be applicable to other coding standards or methods.

[0144]図8の例において、ビデオエンコーダ20は、予測処理ユニット100、残差生成ユニット102、変換処理ユニット104、量子化ユニット106、逆量子化ユニット108、逆変換処理ユニット110、再構築ユニット112、フィルタユニット114、復号されたピクチャバッファ116、およびエントロピー符号化ユニット118を含む。予測処理ユニット100は、インター予測処理ユニット120およびイントラ予測処理ユニット126を含む。インター予測処理ユニット120は、動き推定ユニット122および動き補償ユニット124を含む。他の例において、ビデオエンコーダ20は、より多くの、またはより少ない、または異なる機能を有する構成要素を含み得る。   [0144] In the example of FIG. 8, the video encoder 20 includes a prediction processing unit 100, a residual generation unit 102, a transform processing unit 104, a quantization unit 106, an inverse quantization unit 108, an inverse transform processing unit 110, and a reconstruction unit. 112, a filter unit 114, a decoded picture buffer 116, and an entropy encoding unit 118. The prediction processing unit 100 includes an inter prediction processing unit 120 and an intra prediction processing unit 126. The inter prediction processing unit 120 includes a motion estimation unit 122 and a motion compensation unit 124. In other examples, video encoder 20 may include components having more, fewer, or different functions.

[0145]ビデオデコーダ20はビデオデータを受信し得る。ビデオエンコーダ20は、ビデオデータのピクチャのスライスにおける各CTUを符号化し得る。複数のCTUのうちのそれぞれは、同じサイズのルーマコーディングツリーブロック(CTBs)と対応するピクチャのCTBと関連付けられ得る。CTUを符号化する一部として、予測処理ユニット100は、CTUのCTBを革新的により小さいブロックに分割するために四分木分割を実行し得る。より小さいブロックは、CUのコーディングブロックであり得る。例えば、予測処理ユニット100は、CTUと関連付けられるCTBを4つの同じサイズのサブブロックに分割し、サブブロックのうちの1つまたは複数を4つの同じサイズのサブサブブロックに分割する、などである。   [0145] Video decoder 20 may receive video data. Video encoder 20 may encode each CTU in a slice of a picture of video data. Each of the plurality of CTUs may be associated with a CTB of the corresponding picture with the same size luma coding tree blocks (CTBs). As part of encoding a CTU, the prediction processing unit 100 may perform quadtree partitioning to break the CTU CTB into innovative smaller blocks. The smaller block may be a CU coding block. For example, the prediction processing unit 100 divides the CTB associated with the CTU into four equal sized sub-blocks, divides one or more of the sub-blocks into four equal sized sub-sub-blocks, and so on.

[0146]ビデオエンコーダ20は、CU(すなわちコード化されたCU)の符号化された描写を生成するためにCTUのCUを符号化し得る。CUを符号化する一部として、予測処理ユニット100は、CUの1つまたは複数のPUの間でCUと関連付けられるコーディングブロックを分割し得る。したがって、各PUは、ルーマ予測ブロックと関連付けられかつ対応するクロマ予測ブロックであり得る。ビデオエンコーダ20およびビデオデコーダ30は、様々なサイズを有するPUをサポートし得る。CUのサイズは、CUのルーマコーディングブロックのサイズを指し、PUのサイズは、PUのルーマ予測ブロックのサイズを指し得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ20およびビデオデコーダ30は、イントラ予測のために2N×2NまたはN×NのPUのサイズ、2N×2N、2N×N、N×2N、N×Nの左右対称なPUのサイズまたはインター予測のための同様のサイズをサポートし得る。ビデオエンコーダ20およびビデオデコーダ30は、インター予測のために2N×nU、2N×nD、nL×2N、およびnR×2NのPUのサイズに関して非対称的に分割することをもサポートし得る。   [0146] Video encoder 20 may encode the CU of the CTU to generate an encoded representation of the CU (ie, the encoded CU). As part of encoding a CU, prediction processing unit 100 may divide the coding block associated with the CU among one or more PUs of the CU. Thus, each PU may be a chroma prediction block associated with and corresponding to a luma prediction block. Video encoder 20 and video decoder 30 may support PUs having various sizes. The size of the CU may refer to the size of the luma coding block of the CU, and the size of the PU may refer to the size of the luma prediction block of the PU. Assuming that the size of a particular CU is 2N × 2N, video encoder 20 and video decoder 30 may use 2N × 2N or N × N PU sizes for intra prediction, 2N × 2N, 2N × N, N It may support x2N, NxN symmetric PU sizes or similar sizes for inter prediction. Video encoder 20 and video decoder 30 may also support asymmetric partitioning for PU sizes of 2N × nU, 2N × nD, nL × 2N, and nR × 2N for inter prediction.

[0147]インター予測処理ユニット120は、CUの各PUに対してインター予測を実行することによってPUに関する予測データを生成し得る。PUに関する予測データは、PUの予測ブロックとPUに関する動き情報を含み得る。インター予測処理ユニット120は、PUがIスライスにあるか、Pスライスにあるか、またはBスライスにあるかに依存してCUのPUに対して異なる動作を実行し得る。Iスライスにおいて、全てのPUはイントラ予測される。そのため、PUがIスライスにある場合、インター予測処理ユニット120は、PUに対してインター予測を実行しない。したがって、Iモードで符号化されたビデオブロックに関して、予測ブロックは、同じフレーム内の前に符号化された隣接するブロックから空間的予測を用いて形成される。   [0147] Inter-prediction processing unit 120 may generate prediction data for a PU by performing inter prediction for each PU of the CU. The prediction data regarding the PU may include a prediction block of the PU and motion information regarding the PU. Inter-prediction processing unit 120 may perform different operations on the PU of a CU depending on whether the PU is in an I slice, a P slice, or a B slice. In the I slice, all PUs are intra predicted. Therefore, when the PU is in the I slice, the inter prediction processing unit 120 does not perform inter prediction on the PU. Thus, for a video block encoded in I mode, a prediction block is formed using spatial prediction from previously encoded neighboring blocks in the same frame.

[0148]PスライスにおけるPUは、イントラ予測されるか、または一方向にインター予測され得る。例えば、PUがPスライスにある場合、動き推定ユニット122は、PUに関する参照領域に関して、参照ピクチャ(例えば、「RefPicList0」)のリストにおいて参照ピクチャを検索し得る。PUに関する参照領域は、PUの予測ブロックに最も密接に対応するサンプルブロックを含む参照ピクチャ内の領域であり得る。動き推定ユニット122は、PUに関する参照領域を含む参照ピクチャのRefPicList0における位置を示す参照インデックスを生成し得る。さらに、動き推定ユニット122は、PUの予測ブロックと参照領域と関連付けられる参照場所との間の空間的置換を示す動きベクトルを生成し得る。例えば、動きベクトルは、現在の復号されたピクチャにおける座標から参照ピクチャにおける座標までのオフセットを提供する2次元ベクトルであり得る。動き推定ユニット122は、PUの動き情報として参照インデックスと動きベクトルを出力し得る。動き補償ユニット124は、PUの動きベクトルによって示される参照場所において、実際のまたは補間サンプルに基づいてPUの予測ブロックを生成し得る。   [0148] PUs in P slices may be intra predicted or inter predicted in one direction. For example, if the PU is in a P slice, motion estimation unit 122 may search for a reference picture in a list of reference pictures (eg, “RefPicList0”) for a reference region for the PU. A reference region for a PU may be a region in a reference picture that includes a sample block that most closely corresponds to a predicted block of the PU. Motion estimation unit 122 may generate a reference index that indicates a position in RefPicList0 of a reference picture that includes a reference region for the PU. Further, motion estimation unit 122 may generate a motion vector that indicates a spatial permutation between the predicted block of the PU and the reference location associated with the reference region. For example, the motion vector may be a two-dimensional vector that provides an offset from the coordinates in the current decoded picture to the coordinates in the reference picture. The motion estimation unit 122 may output a reference index and a motion vector as PU motion information. Motion compensation unit 124 may generate a prediction block for the PU based on actual or interpolated samples at the reference location indicated by the motion vector of the PU.

[0149]BスライスにおけるPUは、イントラ予測されるか、一方向にインター予測されるか、または双方向にインター予測され得る。そのため、PUがBスライスにある場合、動き推定ユニット122は、PUに関して一方向予測または双方向予測を実行し得る。PUに関して一方向予測を実行するために、動き推定ユニット122は、PUに関する参照領域について、RefPicList0または第2の参照ピクチャリスト(「RefPicList1」)の参照ピクチャを検索し得る。動き推定ユニット122は、PUの動き情報として、参照領域を含む参照ピクチャのRefPicList0またはRefPicList1における位置を示す参照インデックス、参照領域と関連付けられる参照場所とPUのサンプルブロックとの間の空間的置換を示す動きベクトル、および参照ピクチャがRefPicList0であるかRefPicList1であるかを示す1つ又は複数の予測方向インジケータを出力し得る。動き補償ユニット124は、PUの動きベクトルによって示される参照領域において、実際のまたは補間サンプルに少なくとも部分的に基づいてPUの予測ブロックを生成し得る。   [0149] PUs in a B slice may be intra-predicted, inter-predicted in one direction, or bi-inter-predicted. Thus, if the PU is in a B slice, motion estimation unit 122 may perform unidirectional or bi-directional prediction on the PU. To perform unidirectional prediction on the PU, motion estimation unit 122 may search for a reference picture in RefPicList0 or the second reference picture list (“RefPicList1”) for the reference region for the PU. The motion estimation unit 122 indicates, as the motion information of the PU, a reference index indicating the position of the reference picture including the reference region in RefPicList0 or RefPicList1, and a spatial replacement between the reference location associated with the reference region and the sample block of the PU A motion vector and one or more prediction direction indicators may be output indicating whether the reference picture is RefPicList0 or RefPicList1. Motion compensation unit 124 may generate a prediction block for the PU based at least in part on the actual or interpolated samples in the reference region indicated by the motion vector of the PU.

[0150]PUに関する双方向のインター予測を実行するために、動き推定ユニット122は、PUに関する参照領域についてのRefPicList0において参照ピクチャを検索し得、およびPUに関する別の参照領域についてのRefPicList1において参照ピクチャをも検索し得る。動き推定ユニット122は、参照領域を含む参照ピクチャのRefPicList0およびRefPicList1における位置を示す参照インデックスを生成し得る。さらに、動き推定ユニット122は、参照領域と関連付けられる参照場所とPUのサンプルブロックの間の空間的置換を示す動きベクトルを生成し得る。PUの動き情報は、PUの参照インデックスとMVを含み得る。動き補償ユニット124は、PUの動きベクトルによって示される参照領域において、実際のまたは補間サンプルに少なくとも部分的に基づいてPUの予測ブロックを生成し得る。   [0150] To perform bi-directional inter prediction for the PU, the motion estimation unit 122 may search for a reference picture in RefPicList0 for the reference region for the PU and a reference picture in RefPicList1 for another reference region for the PU. Can also be searched. Motion estimation unit 122 may generate a reference index that indicates the position in RefPicList0 and RefPicList1 of the reference picture that includes the reference region. Further, motion estimation unit 122 may generate a motion vector that indicates a spatial permutation between a reference location associated with the reference region and a sample block of the PU. The PU motion information may include a PU reference index and MV. Motion compensation unit 124 may generate a prediction block for the PU based at least in part on the actual or interpolated samples in the reference region indicated by the motion vector of the PU.

[0151]イントラ予測処理ユニット126は、PUに対してイントラ予測を実行することによってPUに関する予測データを生成し得る。PUに関する予測データは、PUに関する予測ブロックと様々なシンタックス要素を含み得る。イントラ予測処理ユニット126は、Iスライス、Pスライス、およびBスライスにおけるPUに対してイントラ予測を実行し得る。   [0151] The intra prediction processing unit 126 may generate prediction data for the PU by performing intra prediction on the PU. Prediction data for the PU may include a prediction block for the PU and various syntax elements. Intra-prediction processing unit 126 may perform intra prediction on PUs in I slices, P slices, and B slices.

[0152]PUに対してイントラ予測を実行するために、イントラ予測処理ユニット126は、PUに関する予測データの複数のセットを生成するために、複数のイントラ予測モードを使用し得る。イントラ予測処理ユニット126は、隣接するPUのサンプルに基づいて、PUに関する予測ブロックを生成し得る。PU、CU、およびCTUに関して左から右、上部から下部への符号化順序を仮定すると、隣接するPUは、PUの上部、上部および右側、上部および左側、またはPUの左側に存在し得る。イントラ予測処理ユニット126は、様々な数のイントラ予測モードを使用し得る。いくつかの例において、イントラ予測モードの数はPUの予測ブロックのサイズに依存し得る。   [0152] To perform intra prediction on a PU, intra prediction processing unit 126 may use multiple intra prediction modes to generate multiple sets of prediction data for the PU. Intra-prediction processing unit 126 may generate a prediction block for the PU based on neighboring PU samples. Assuming a left-to-right and top-to-bottom coding order for PUs, CUs, and CTUs, adjacent PUs may exist at the top, top and right, top and left, or left of the PU. Intra-prediction processing unit 126 may use various numbers of intra-prediction modes. In some examples, the number of intra prediction modes may depend on the size of the prediction block of the PU.

[0153]予測処理ユニット100は、PUに関してインター予測処理ユニット120によって生成された予測データまたはPUに関してイントラ予測処理ユニット126によって生成された予測データのうちからCUのPUに関する予測データを選択し得る。いくつかの例において、予測処理ユニット100は、予測データのセットのレート/ひずみメトリックに基づいて、CUのPUに関する予測データを選択する。選択された予測データの予測ブロックは、ここでは、選択された予測ブロックと称され得る。   [0153] The prediction processing unit 100 may select prediction data for the PU of the CU from prediction data generated by the inter prediction processing unit 120 for the PU or prediction data generated by the intra prediction processing unit 126 for the PU. In some examples, the prediction processing unit 100 selects prediction data for the PU of the CU based on the rate / distortion metric of the set of prediction data. The prediction block of the selected prediction data may be referred to herein as the selected prediction block.

[0154]残差生成ユニット102は、CUのルーマ、CbおよびCrコーディングブロックおよびCUのPUの選択された予測ルーマ、CbおよびCrブロックに基づいて、CUのルーマ、CbおよびCr残差ブロックを生成し得る。例えば、残差生成ユニット102は、残差ブロック内の各サンプルが、CUのコーディングブロック内のサンプルとCUのPUの対応する選択された予測ブロック内の対応するサンプルの間の差に等しい値を有するようにCUの残差ブロックを生成し得る。   [0154] Residual generation unit 102 generates CU luma, Cb and Cr residual blocks based on CU luma, Cb and Cr coding blocks and CU PU selected prediction luma, Cb and Cr blocks Can do. For example, the residual generation unit 102 determines that each sample in the residual block is equal to the difference between the sample in the coding block of the CU and the corresponding sample in the corresponding selected prediction block of the CU PU. A residual block of CUs may be generated to have.

[0155]本開示の技術は、ビデオエンコーダ20の残差生成ユニット102のようなビデオエンコーダの要素によって実行され得るが、他の例において、図8に図示された、または図示されないビデオエンコーダ20の他の要素が本開示の技術を実行し得る。この技術において、ビデオデータのピクチャのスライスの各々のコーディングユニットの各予測ユニットに関して、残差生成ユニット102は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定し得る。残差生成ユニット102は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定し得、ここにおいて、少なくとも1つの不一致ベクトルは、各々のコーディングユニットに関する。残差生成ユニット102は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のコーディングユニットに関するコーディングブロックの符号化された描写を生成し得る。   [0155] The techniques of this disclosure may be performed by elements of a video encoder, such as the residual generation unit 102 of the video encoder 20, but in other examples, the video encoder 20 illustrated or not illustrated in FIG. Other elements may implement the techniques of this disclosure. In this technique, for each prediction unit of each coding unit of a slice of a picture of video data, residual generation unit 102 performs at least one depth of at least one reconstructed depth sample of at least one adjacent sample. At least one mismatch value may be determined based at least in part on the value. Residual generation unit 102 may determine at least one mismatch vector based at least in part on the at least one mismatch value, where the at least one mismatch vector is associated with each coding unit. Residual generation unit 102 may generate an encoded representation of the coding block for each coding unit based at least in part on the at least one mismatch vector.

[0156]変換処理ユニット104は、CUに関連付けられる残差ブロックをCUのTUに関連付けられる変換ブロックに分割するために四分木分割を実行し得る。したがって、TUは、ルーマ変換ブロックと2つのクロマ変換ブロックと関連付けられ得る。CUのTUのルーマおよびクロマ変換ブロックのサイズと位置は、CUのPUの予測ブロックのサイズと位置に基づいても良いし基づかなくても良い。「残差四分木」(RQT)として知られる四分木構造は、複数の領域のそれぞれと関連付けられるノードを含み得る。CUのTUは、RQTの葉ノードに対応し得る。   [0156] Transform processing unit 104 may perform quadtree partitioning to split the residual block associated with the CU into transform blocks associated with the TU of the CU. Thus, a TU can be associated with a luma transform block and two chroma transform blocks. The size and position of the CU TU luma and chroma transform blocks may or may not be based on the size and position of the CU PU prediction block. A quadtree structure, known as a “residual quadtree” (RQT), may include nodes associated with each of a plurality of regions. The TU of the CU may correspond to a leaf node of the RQT.

[0157]変換処理ユニット104は、1つまたは複数の変換をTUの変換ブロックに適用することによって、CUの各TUに関する係数ブロックを生成し得る。変換処理ユニット104は、様々な変換をTUと関連付けられる変換ブロックに適用し得る。例えば、変換処理ユニット104は、ディスクリートコサイン変換(DCT)、方向性変換、または概念的に類似する変換をブロックに適用し得る。いくつかの例において、変換処理ユニット104は、変換を変換ブロックに適用しない。こういった例において、変換ブロックは、係数ブロックとして扱われ得る。   [0157] Transform processing unit 104 may generate a coefficient block for each TU of the CU by applying one or more transforms to the transform block of the TU. Transform processing unit 104 may apply various transforms to the transform block associated with the TU. For example, transform processing unit 104 may apply a discrete cosine transform (DCT), a directional transform, or a conceptually similar transform to the block. In some examples, transform processing unit 104 does not apply transforms to transform blocks. In these examples, the transform block can be treated as a coefficient block.

[0158]量子化ユニット106は、係数ブロックにおける変換係数を量子化し得る。量子化プロセスは、変換係数のうちのいくつかまたは全てと関連付けられるビット深さを低減し得る。例えば、nビットの変換係数は、量子化の間mビット変換係数に四捨五入され(be round down)得、ここにおいて、nはmよりも大きい。量子化ユニット106は、CUに関連付けられる量子化パラメータ(QP)値に基づいて、CUのTUに関連付けられる係数ブロックを量子化し得る。ビデオエンコーダ20は、CUと関連付けられるQP値を調整することによって、CUに関連付けられる係数ブロックに適用される量子化の程度を調整し得る。量子化は、情報の損失を生み出す可能性があり、したがって、量子化された変換係数はオリジナルのものより低い正確さを有し得る。   [0158] The quantization unit 106 may quantize the transform coefficients in the coefficient block. The quantization process may reduce the bit depth associated with some or all of the transform coefficients. For example, an n-bit transform coefficient may be rounded down to an m-bit transform coefficient during quantization, where n is greater than m. The quantization unit 106 may quantize the coefficient block associated with the TU of the CU based on a quantization parameter (QP) value associated with the CU. Video encoder 20 may adjust the degree of quantization applied to the coefficient block associated with the CU by adjusting the QP value associated with the CU. Quantization can result in loss of information, and thus the quantized transform coefficients can have a lower accuracy than the original.

[0159]逆量子化ユニット108と逆変換処理ユニット110は、係数ブロックから残差ブロックを再構築するために、係数ブロックに各々逆量子化および逆変換を適用し得る。再構築ユニット112は、TUに関連付けられる再構築された変換ブロックを生成するために、予測処理ユニット100によって生成された1つまたは複数の予測ブロックから再構築された残差ブロックを対応するサンプルに加え得る。この方法で、CUの各TUに関する変換ブロックを再構築することによって、ビデオエンコーダ20は、CUのコーディングブロックを再構築し得る。   [0159] Inverse quantization unit 108 and inverse transform processing unit 110 may each apply inverse quantization and inverse transform to the coefficient blocks to reconstruct a residual block from the coefficient blocks. The reconstruction unit 112 converts the residual block reconstructed from one or more prediction blocks generated by the prediction processing unit 100 into corresponding samples to generate a reconstructed transform block associated with the TU. Can be added. In this way, by reconstructing the transform block for each TU of the CU, video encoder 20 may reconstruct the coding block of the CU.

[0160]フィルタユニット114は、CUと関連付けられるコーディングブロックにおけるブロッキングアーチファクト(blocking artifacts)を減少させるために、1つまたは複数のデブロッキング動作(deblocking operations)を実行し得る。復号されたピクチャバッファ116は、フィルタユニット114が再構築されたコーディングブロックに対して1つまたは複数のデブロッキング動作を実行した後、再構築されたコーディングブロックを記憶し得る。インター予測ユニット120は、他のピクチャのPUに対してインター予測を実行するために、再構築されたコーディングブロックを含む参照ピクチャを使用し得る。さらに、イントラ予測処理ユニット126は、CUと同じピクチャにおける他のPUに対してイントラ予測を実行するために、復号されたピクチャバッファ116において再構築されたコーディングブロックを使用し得る。   [0160] The filter unit 114 may perform one or more deblocking operations to reduce blocking artifacts in the coding block associated with the CU. Decoded picture buffer 116 may store the reconstructed coding block after filter unit 114 performs one or more deblocking operations on the reconstructed coding block. Inter prediction unit 120 may use reference pictures including reconstructed coding blocks to perform inter prediction on PUs of other pictures. Further, intra prediction processing unit 126 may use the reconstructed coding block in decoded picture buffer 116 to perform intra prediction on other PUs in the same picture as the CU.

[0161]エントロピー符号化ユニット118は、ビデオエンコーダ20の他の機能を有する構成要素からデータを受信し得る。例えば、エントロピー符号化ユニット118は、量子化ユニット106から係数ブロックを受信し得、および予測処理ユニット100からシンタックス要素を受信し得る。エントロピー符号化ユニット118は、エントロピー符号化されたデータを生成するためのデータに対して1つまたは複数のエントロピー符号化動作を実行し得る。例えば、エントロピー符号化ユニット118は、データに対して、コンテキスト適応型可変長コーディング(CAVLC)動作、CABAC動作、可変長対可変長(V2V)コーディング動作、シンタックスベースのコンテキスト適応型バイナリ算術コーディング(SBAC)動作、可能性インターバル分割エントロピー(PIPE)コーディング動作、指数ゴロム符号化動作(Exponential-Golomb encoding operation)、または別のタイプのエントロピー符号化動作を実行し得る。ビデオエンコーダ20は、エントロピー符号化ユニット118によって生成されたエントロピー符号化されたデータを含むビットストリームを出力し得る。例えば、ビットストリームは、CUに関するRQTを表すデータを含み得る。ビットストリームは、エントロピー符号化されないシンタックス要素をも含み得る。   [0161] Entropy encoding unit 118 may receive data from other functional components of video encoder 20. For example, entropy encoding unit 118 may receive coefficient blocks from quantization unit 106 and may receive syntax elements from prediction processing unit 100. Entropy encoding unit 118 may perform one or more entropy encoding operations on the data to generate entropy encoded data. For example, the entropy encoding unit 118 may perform a context adaptive variable length coding (CAVLC) operation, a CABAC operation, a variable length vs variable length (V2V) coding operation, a syntax based context adaptive binary arithmetic coding ( An SBAC) operation, a potential interval division entropy (PIPE) coding operation, an Exponential-Golomb encoding operation, or another type of entropy encoding operation may be performed. Video encoder 20 may output a bitstream that includes entropy encoded data generated by entropy encoding unit 118. For example, the bitstream may include data representing an RQT for the CU. The bitstream may also include syntax elements that are not entropy encoded.

[0162]図9は、本開示で説明された技術を実施し得るビデオデコーダ30の例を示すブロック図である。図9は、説明の目的で提供されており、本開示で広義に例示および説明された技術に限定するものではない。説明のために、本開示は、HEVCコーディングのコンテキストにおいてビデオデコーダ30について説明する。しかし、本開示の技術は、他のコーディングの標準または方法にも適用可能であり得る。   [0162] FIG. 9 is a block diagram illustrating an example of a video decoder 30 that may implement the techniques described in this disclosure. FIG. 9 is provided for purposes of explanation and is not limited to the technology broadly illustrated and described in this disclosure. For purposes of explanation, this disclosure describes video decoder 30 in the context of HEVC coding. However, the techniques of this disclosure may be applicable to other coding standards or methods.

[0163]図9の例において、ビデオデコーダ30は、エントロピー復号ユニット150、予測処理ユニット152、逆量子化ユニット154、逆変換処理ユニット156、再構築ユニット158、フィルタユニット160、および復号されたピクチャバッファ162を含む。予測処理ユニット152は、動き補償ユニット164およびイントラ予測処理ユニット166を含む。他の例において、ビデオエンコーダ30は、より多くの、またはより少ない、または異なる機能を有する構成要素を含み得る。   [0163] In the example of FIG. 9, the video decoder 30 includes an entropy decoding unit 150, a prediction processing unit 152, an inverse quantization unit 154, an inverse transform processing unit 156, a reconstruction unit 158, a filter unit 160, and a decoded picture. A buffer 162 is included. The prediction processing unit 152 includes a motion compensation unit 164 and an intra prediction processing unit 166. In other examples, video encoder 30 may include components having more, fewer, or different functions.

[0164]エントロピー復号ユニット150は、NALユニットを受信し、シンタックス要素を復号するためのNALユニットを解析し得る。エントロピー復号ユニット150は、NALユニットにおいて、エントロピー符号化されたシンタックス要素をエントロピー復号し得る。予測処理ユニット152、逆量子化ユニット154、逆変換処理ユニット156、再構築ユニット158、およびフィルタユニット160は、ビットストリームから取り出されたシンタックス要素に基づいて、復号されたビデオデータを生成し得る。   [0164] Entropy decoding unit 150 may receive the NAL unit and analyze the NAL unit for decoding the syntax elements. Entropy decoding unit 150 may entropy decode the entropy encoded syntax elements in the NAL unit. Prediction processing unit 152, inverse quantization unit 154, inverse transform processing unit 156, reconstruction unit 158, and filter unit 160 may generate decoded video data based on syntax elements retrieved from the bitstream. .

[0165]ビットストリームのNALユニットは、コード化されたスライスNALユニットを含み得る。ビットストリームを復号する一部として、エントロピー復号ユニット150は、コード化されたスライスNALユニットからシンタックス要素を取り出してエントロピー復号し得る。複数のコード化されたスライスのそれぞれは、スライスヘッダとスライスデータを含み得る。スライスヘッダは、スライスに関係するシンタックス要素を含み得る。スライスヘッダにおけるシンタックス要素は、スライスを含むピクチャと関連付けられるPPSを識別するシンタックス要素を含み得る。   [0165] NAL units of a bitstream may include coded slice NAL units. As part of decoding the bitstream, entropy decoding unit 150 may retrieve the syntax elements from the coded slice NAL unit and entropy decode. Each of the plurality of coded slices may include a slice header and slice data. The slice header may include syntax elements related to the slice. The syntax element in the slice header may include a syntax element that identifies the PPS associated with the picture that includes the slice.

[0166]ビットストリームからシンタックス要素を復号することに加えて、ビデオデコーダ30は、CUに対して再構築動作を実行し得る。CUに対して再構築動作を実行するために、ビデオデコーダ30は、CUの各TUに対して再構築動作を実行し得る。CUの各TUに関する再構築動作を実行することによって、ビデオデコーダ30は、CUの残差ブロックを再構築し得る。   [0166] In addition to decoding syntax elements from the bitstream, video decoder 30 may perform a reconstruction operation on the CU. In order to perform a rebuild operation for a CU, video decoder 30 may perform a rebuild operation for each TU of the CU. By performing a reconstruction operation for each TU of the CU, video decoder 30 may reconstruct the residual block of the CU.

[0167]CUのTUに対して再構築動作を実行する一部として、逆量子化ユニット154は、TUと関連付けられる係数ブロックを逆量子化、すなわち逆量子化(de-quantize)し得る。逆量子化ユニット154は、逆量子化ユニット154が適用する量子化の程度、同様に逆量子化の程度を決定するために、TUのCUと関連付けられるQP値を使用し得る。   [0167] As part of performing the reconstruction operation on the TU of the CU, the dequantization unit 154 may dequantize, or de-quantize, the coefficient block associated with the TU. The inverse quantization unit 154 may use the QP value associated with the CU of the TU to determine the degree of quantization that the inverse quantization unit 154 applies, as well as the degree of inverse quantization.

[0168]逆量子化ユニット154が係数ブロックを逆量子化した後、逆変換処理ユニット156は、TUと関連付けられる残差ブロックを生成するための係数ブロックに1つまたは複数の逆変換を適用し得る。例えば、逆変換処理ユニット156は、係数ブロックに、逆DCT、逆整数変換、逆Karhunen−Loeve変換(KLT)、逆回転変換、逆方向性変換、または別の逆変換を適用し得る。   [0168] After inverse quantization unit 154 inverse quantizes the coefficient block, inverse transform processing unit 156 applies one or more inverse transforms to the coefficient block to generate a residual block associated with the TU. obtain. For example, the inverse transform processing unit 156 may apply inverse DCT, inverse integer transform, inverse Karhunen-Loeve transform (KLT), inverse rotation transform, inverse direction transform, or another inverse transform to the coefficient block.

[0169]PUがイントラ予測を使用して符号化される場合、イントラ予測処理ユニット166は、PUに関する予測ブロックを生成するためにイントラ予測を実行し得る。イントラ予測処理ユニット166は、空間的に隣接するPUの予測ブロックに基づいて、PUに関する予測ルーマ、CbおよびCrブロックを生成するためにイントラ予測モードを使用し得る。イントラ予測処理ユニット166は、ビットストリームから復号された1つまたは複数のシンタックス要素に基づいて、PUのためのイントラ予測モードを決定し得る。   [0169] If the PU is encoded using intra prediction, intra prediction processing unit 166 may perform intra prediction to generate a prediction block for the PU. Intra-prediction processing unit 166 may use the intra-prediction mode to generate prediction luma, Cb and Cr blocks for the PU based on the prediction blocks of spatially adjacent PUs. Intra-prediction processing unit 166 may determine an intra-prediction mode for the PU based on one or more syntax elements decoded from the bitstream.

[0170]予測処理ユニット152は、ビットストリームから取り出されたシンタックス要素に基づいて、第1の参照ピクチャリスト(RefPicList0)および第2の参照ピクチャリスト(RefPicList1)を構築し得る。さらに、PUがインター予測を用いて符号化される場合、エントロピー復号ユニット150は、PUに関する動き情報を取り出し得る。動き補償ユニット164は、PUの動き情報に基づいて、PUに関する1つまたは複数の参照領域を決定し得る。動き補償ユニット164は、PUに関する1つまたは複数の参照ブロックにおける複数のサンプルブロックに基づいて、PUに関する予測ルーマ、CbおよびCrブロックを生成し得る。   [0170] The prediction processing unit 152 may construct a first reference picture list (RefPicList0) and a second reference picture list (RefPicList1) based on syntax elements retrieved from the bitstream. Further, if the PU is encoded using inter prediction, entropy decoding unit 150 may retrieve motion information regarding the PU. Motion compensation unit 164 may determine one or more reference regions for the PU based on the PU motion information. Motion compensation unit 164 may generate prediction luma, Cb and Cr blocks for the PU based on the plurality of sample blocks in one or more reference blocks for the PU.

[0171]再構築ユニット158は、CUのルーマ、CbおよびCrコーディングブロックを再構築するために、既定どおりに、CUのTUに関連付けられるルーマ、CbおよびCr変換ブロックとCUのPUの予測ルーマ、CbおよびCrブロック、すなわちイントラ予測データまたはインター予測データのいずれかを使用し得る。例えば、再構築ユニット158は、CUのルーマ、CbおよびCrコーディングブロックを再構築するために、ルーマ、CbおよびCr変換ブロックのサンプルを対応する予測ルーマ、CbおよびCrブロックのサンプルを加え得る。   [0171] The reconstruction unit 158 is configured to reconstruct the CU's luma, Cb and Cr coding blocks, the luma associated with the CU's TU, the prediction luma of the Cb and Cr transform block and the CU's PU, Cb and Cr blocks, either intra prediction data or inter prediction data may be used. For example, reconstruction unit 158 may add samples of luma, Cb, and Cr transform blocks to corresponding prediction luma, Cb, and Cr block samples to reconstruct the CU's luma, Cb, and Cr coding blocks.

[0172]本開示の技術は、ビデオデコーダ30の再構築ユニット158によって実行され得るが、他の例において、図9に図示された、または図示されていないビデオデコーダ30の他の要素が本開示の技術を実行し得る。ビデオデータのピクチャのスライスの各々のコーディングユニットの各予測ユニットに関して、再構築ユニット158は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定し得る。再構築ユニット158は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定し得、ここにおいて、少なくとも1つの不一致ベクトルは、各々のコーディングユニットに関する。再構築ユニット158は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のコーディングユニットに関するコーディングブロックを再構築し得る。   [0172] The techniques of this disclosure may be performed by reconstruction unit 158 of video decoder 30, but in other examples, other elements of video decoder 30 illustrated or not illustrated in FIG. The technology can be implemented. For each prediction unit of each coding unit of a slice of a picture of video data, reconstruction unit 158 is at least partly at least one depth value of at least one reconstructed depth sample of at least one adjacent sample. The at least one discrepancy value may be determined based on the target. The reconstruction unit 158 may determine at least one mismatch vector based at least in part on the at least one mismatch value, where the at least one mismatch vector is for each coding unit. Reconstruction unit 158 may reconstruct the coding block for each coding unit based at least in part on the at least one mismatch vector.

[0173]フィルタユニット160は、CUのルーマ、CbおよびCrコーディングブロックと関連するブロッキングアーチファクトを減少させるためにデブロッキング動作を実行し得る。ビデオデコーダ30は、CUのルーマ、CbおよびCrコーディングブロックを復号されたピクチャバッファ162内に記憶し得る。復号されたピクチャバッファ162は、次の動き補償、イントラ予測、図1の表示デバイス32のような表示デバイスへの表示のために参照ピクチャを提供し得る。例えば、ビデオデコーダ30は、復号されたピクチャバッファ162におけるルーマ、CbおよびCrブロックに基づいて、他のCUのPUに対するイントラ予測またはインター予測動作を実行し得る。このように、ビデオデコーダ30は、ビットストリームから解析し、ルーマ係数ブロックの係数レベルを変換し、変換係数レベルを逆量子化し、変換ブロックを生成するためにその変換係数レベルに変換を適用し、変換ブロックに少なくとも部分的に基づいてコーディングブロックを生成し、および表示のためにコーディングブロックを出力し得る。   [0173] The filter unit 160 may perform a deblocking operation to reduce blocking artifacts associated with the CU's luma, Cb and Cr coding blocks. Video decoder 30 may store the CU's luma, Cb and Cr coding blocks in decoded picture buffer 162. Decoded picture buffer 162 may provide a reference picture for subsequent motion compensation, intra prediction, and display on a display device such as display device 32 of FIG. For example, video decoder 30 may perform intra prediction or inter prediction operations on PUs of other CUs based on luma, Cb, and Cr blocks in decoded picture buffer 162. Thus, the video decoder 30 analyzes from the bitstream, transforms the coefficient level of the luma coefficient block, dequantizes the transform coefficient level, applies the transform to the transform coefficient level to generate a transform block, A coding block may be generated based at least in part on the transform block and the coding block may be output for display.

[0174]図10は、本開示の1つまたは複数の態様にしたがった復号技術の例を示すフロー図である。この技術は、ビデオデコーダ30の再構築ユニット158のようなビデオデコーダの要素によって実行され得る。この技術において、ビデオデータのピクチャのスライスの各々のコーディングユニットの各予測ユニットに関して、再構築ユニット158は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定し得る(200)。再構築ユニット158は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定し得、ここにおいて、少なくとも1つの不一致ベクトルは、各々のコーディングユニットに関する(202)。再構築ユニット158は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のコーディングユニットに関するコーディングブロックを再構築し得る(204)。   [0174] FIG. 10 is a flow diagram illustrating an example of a decoding technique in accordance with one or more aspects of the present disclosure. This technique may be performed by elements of a video decoder, such as reconstruction unit 158 of video decoder 30. In this technique, for each prediction unit of each coding unit of a slice of a picture of video data, the reconstruction unit 158 includes at least one depth of at least one reconstructed depth sample of at least one adjacent sample. At least one mismatch value may be determined based at least in part on the value (200). The reconstruction unit 158 may determine at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each coding unit (202). Reconstruction unit 158 may reconstruct the coding block for each coding unit based at least in part on the at least one mismatch vector (204).

[0175]図11は、本開示の1つまたは複数の態様にしたがった符号化技術の例を示すフロー図である。この技術は、ビデオエンコーダ20の残差生成ユニット102のようなビデオエンコーダの要素によって実行され得る。この技術において、ビデオデータのピクチャのスライスの各々のコーディングユニットの各予測ユニットに関して、残差生成ユニット102は、少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定し得る(210)。残差生成ユニット102は、少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定し得、ここにおいて、少なくとも1つの不一致ベクトルは、各々のコーディングユニットに関する(212)。残差生成ユニット102は、少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、各々のコーディングユニットに関するコーディングブロックの符号化された描写を生成し得る(214)。   [0175] FIG. 11 is a flow diagram illustrating an example of an encoding technique in accordance with one or more aspects of the present disclosure. This technique may be performed by elements of a video encoder such as the residual generation unit 102 of the video encoder 20. In this technique, for each prediction unit of each coding unit of a slice of a picture of video data, residual generation unit 102 performs at least one depth of at least one reconstructed depth sample of at least one adjacent sample. At least one mismatch value may be determined 210 based at least in part on the value. Residual generation unit 102 may determine at least one mismatch vector based at least in part on the at least one mismatch value, where the at least one mismatch vector is associated with each coding unit (212). Residual generation unit 102 may generate an encoded representation of the coding block for each coding unit based at least in part on the at least one mismatch vector (214).

[0176]1つまたは複数の例において、記載された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実施され得る。ソフトウェアで実装される場合、この機能は、1つまた複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信され、ならびにハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体のような実体のある媒体、または例えば、通信プロトコルにしたがって、ある場所から別の場所へコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体に対応するコンピュータ可読記憶媒体を含み得る。この方法において、コンピュータ可読媒体は一般的に、(1)非一時的な実体のあるコンピュータ可読記憶媒体、または(2)信号または搬送波のような通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技術の実施のために命令、コード、および/またはデータ構造を検索するための1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得るいずれか使用可能な媒体であり得る。コンピュータプログラムプロダクトは、コンピュータ可読媒体を含み得る。   [0176] In one or more examples, the functions described may be implemented in hardware, software, firmware, or any combination thereof. When implemented in software, the functionality is stored on or transmitted over as one or more instructions or code on a computer-readable medium and performed by a hardware-based processing unit. Can be done. Computer-readable media is any computer that corresponds to a tangible medium, such as a data storage medium, or a communication medium including any medium that facilitates transfer of a computer program from one place to another, eg, according to a communication protocol. A readable storage medium may be included. In this manner, computer-readable media generally may correspond to (1) non-transitory tangible computer-readable storage media or (2) a communication medium such as a signal or carrier wave. Any of the data storage media may be accessed by one or more computers or one or more processors to retrieve instructions, code, and / or data structures for implementation of the techniques described in this disclosure. It can be a usable medium. The computer program product may include a computer readable medium.

[0177]限定ではなく例として、こういったコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光学ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶デバイス、フラッシュメモリ、または命令またはデータ構造の形式で所望のプログラムコードを記憶するために用いることが可能なおよびコンピュータによってアクセス可能な任意の他の媒体を備えることができる。同様に、任意の接続は、コンピュータ可読媒体と適切に呼ばれ得る。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線およびマイクロ波のようなワイヤレス技術を用いるウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線およびマイクロ波のようなワイヤレス技術が媒体の定義に含まれる。しかし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的な媒体を含まないが、代わりに非一時的な実体のある記憶媒体に関することが理解されるべきである。ここで用いられたようなディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光学ディスク、(CD)、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、およびBlue−rayディスクを含み、ここで、ディスク(disk)が通常データを磁気的に再生する一方で、ディスク(disc)はレーザを用いて光学的にデータを再生する。上記の組合せもまた、コンピュータ可読媒体の範囲に含まれるべきである。   [0177] By way of example, and not limitation, such computer-readable storage media include RAM, ROM, EEPROM®, CD-ROM or other optical disk storage device, magnetic disk storage device or other magnetic storage device, Flash memory or any other medium that can be used to store the desired program code in the form of instructions or data structures and that is accessible by the computer can be provided. Similarly, any connection may suitably be referred to as a computer readable medium. For example, if the instructions are sent from a coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or a website, server, or other remote source that uses wireless technologies such as infrared, radio and microwave Coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio and microwave are included in the definition of media. However, it should be understood that computer-readable storage media and data storage media do not include connections, carrier waves, signals, or other temporary media, but instead relate to non-transitory tangible storage media. . Discs and discs as used herein are compact discs (CD), laser discs (registered trademark), optical discs (CD), digital versatile discs (DVD), floppy (registered trademark). ) Discs, and blue-ray discs, where the discs normally reproduce data magnetically, while the discs optically reproduce data using a laser. Combinations of the above should also be included within the scope of computer-readable media.

[0178]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積またはディスクリート論理のような1つまたは複数のプロセッサによって実行可能であり得る。従って、ここで使用されたような用語「プロセッサ」は、前述の構造またはここで説明された技術の実施に適切な任意の他の構造のいずれかを指し得る。さらに、いくつかの態様において、ここで説明された機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に提供されるか、または組み合わされたコーデック内に組み込まれ得る。同様に、この技術は、1つまたは複数の回路または論理要素において十分に実施され得る。   [0178] The instructions are like one or more digital signal processors (DSPs), general purpose microprocessors, application specific integrated circuits (ASICs), field programmable logic arrays (FPGAs), or other equivalent integrated or discrete logic. May be executable by one or more processors. Thus, the term “processor” as used herein may refer to either the foregoing structure or any other structure suitable for the implementation of the techniques described herein. Further, in some aspects, the functions described herein may be provided in dedicated hardware and / or software modules configured for encoding and decoding, or incorporated in a combined codec. Can be. Similarly, the techniques may be fully implemented in one or more circuits or logic elements.

[0179]本開示の技術は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(例えばチップセット)を含む多種多様なデバイスまたは装置において実施され得る。種々の構成要素、モジュールまたはユニットは、開示された技術を実行するように構成されたデバイスの機能的態様を強調するために本開示において説明されるが、必ずしも異なるハードウェアユニットによる実現を必要とするわけではない。むしろ、上述したとおり、様々なユニットは、コーデックハードウェアユニットに組み込まれるか、あるいは適切なソフトウェアおよび/またはファームウェアと連結して、上述したような1つまたは複数のプロセッサを含む相互運用ハードウェアユニットの収集によって提供され得る。   [0179] The techniques of this disclosure may be implemented in a wide variety of devices or apparatuses, including a wireless handset, an integrated circuit (IC), or a set of ICs (eg, a chipset). Various components, modules or units are described in this disclosure to highlight the functional aspects of a device configured to perform the disclosed techniques, but need not necessarily be implemented by different hardware units. Not to do. Rather, as described above, the various units may be incorporated into a codec hardware unit or interlinked with appropriate software and / or firmware to include an interoperable hardware unit that includes one or more processors as described above. Can be provided by a collection of

[0180]本開示の種々の例が説明されてきた。これらおよび他の例は、下記の請求項の範囲内にある。   [0180] Various examples of the disclosure have been described. These and other examples are within the scope of the following claims.

[0180]本開示の種々の例が説明されてきた。これらおよび他の例は、下記の請求項の範囲内にある。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
深さビューデータを復号する方法であって、
前記方法は、
前記深さビューデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックを再構築することと、
を備える、方法。
[C2]
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定することを備え、前記方法は、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択することと、
を備える、C1に記載の方法。
[C3]
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、2つ以上の不一致ベクトルを決定することを備え、
前記方法は、前記2つ以上の隣接する深さサンプルに基づいて、2つ以上の不一致値を前記2つ以上の不一致ベクトルに変換すること、をさらに備えるC1に記載の方法。
[C4]
前記少なくとも1つの不一致ベクトルを少なくとも1つの不一致動きベクトルに変換すること、
をさらに備える、C1に記載の方法。
[C5]
前記少なくとも1つの不一致値を決定することは、前記各々のPUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記少なくとも1つの不一致値に少なくとも部分的に基づいて前記少なくとも1つの不一致ベクトルを決定することは、前記2つ以上の不一致値に少なくとも部分的に基づいて2つ以上の不一致ベクトルを決定することをさらに備え、前記PUの左上のサンプルは座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記各々のPUの特別な隣接するブロックに配置される任意のサンプルと、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記PUのサイズがW×Hによって表される場合は、座標(x−1,y+H−1)を有するサンプルと座標(x+W−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、C1に記載の方法。
[C6]
前記少なくとも1つの不一致値を決定することは、前記各々のCUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記各々のCUの左上のサンプルは前記座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
前記各々のCUの左上に隣接するサンプルと、
前記各々のCUの上部に隣接する行と、
前記各々のCUの左側に隣接する列と、
前記各々のCUの特別な隣接するブロックに配置される任意のサンプルと、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記各々のCUのサイズが2N×2Nによって表される場合は、座標(x−1,y+2N−1)を有するサンプルと座標(x+2N−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、C5に記載の方法。
[C7]
前記2つ以上の隣接するサンプルは、前記PUの最大コーディングユニット(LUC)の隣接するサンプルである、C5に記載の方法。
[C8]
前記少なくとも1つの隣接するサンプルは、各々のCUの隣接である、C1に記載の方法。
[C9]
前記少なくとも1つの再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記PUの特別な隣接するブロックに配置される任意のサンプルと、
のうちの少なくとも1つからのものである、C1に記載の方法。
[C10]
前記少なくとも1つの不一致ベクトルを決定することは、任意の使用可能な不一致ベクトルを識別できなかった実行された隣接ベースの不一致ベクトルの誘導(NBDV)プロセスに応答する、C1に記載の方法。
[C11]
前記少なくとも1つの不一致ベクトルに基づいて参照ブロックを識別することと、
動きベクトルと前記識別された参照ブロックの参照インデックスに少なくとも部分的に基づいて前記PUの現在の動きを予測することと、
前記動きベクトルと参照インデックスに少なくとも部分的に基づいて決定された候補を統合されたまたは高度な動きベクトル予測(AMVP)候補リストに挿入することと、
をさらに備える、C1に記載の方法。
[C12]
前記少なくとも1つの不一致ベクトルを決定することは、カメラパラメータに少なくとも部分的に基づいて、前記不一致ベクトルを決定することを備える、C1に記載の方法。
[C13]
前記1つまたは複数のカメラパラメータは2つのビューの水平置換を含む、C12に記載の方法。
[C14]
深さビューデータのピクチャと関連付けられるデータを記憶するように構成されたメモリと、
前記メモリと通信を行いおよび
深さビューデータの前記ピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックを再構築することと、
を行うように構成された1つまたは複数のプロセッサと、
を備える、ビデオデータを復号するためのデバイス。
[C15]
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定するように構成された前記デバイスを備え、ここにおいて、前記デバイスは、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、および
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択すること、
を行うようにさらに構成される、C14に記載のデバイス。
[C16]
前記デバイスは、前記少なくとも1つの不一致ベクトルを少なくとも1つの不一致動きベクトルに変換するようにさらに構成される、C14に記載のデバイス。
[C17]
実行されると、
前記深さビューデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックを再構築することと、
を行うようにビデオ復号デバイスを構成する命令を記憶した、コンピュータ可読記憶媒体。
[C18]
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定するように前記デバイスをさらに構成する前記命令を備え、ここにおいて、前記命令は、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、および
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択すること、
を行うように前記デバイスをさらに構成する、C17に記載のコンピュータ可読記憶媒体。
[C19]
深さビューデータを符号化する方法であって、
前記方法は、
前記ビデオデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックの符号化された描写を生成することと、
を備える、方法。
[C20]
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定することを備え、前記方法は、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、および
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択すること、
をさらに備える、C19に記載の方法。
[C21]
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、2つ以上の不一致ベクトルを決定することを備え、

前記方法は、前記2つ以上の隣接する深さサンプルに基づいて、2つ以上の不一致値を2つ以上の不一致ベクトルに変換すること、をさらに備える、C19に記載の方法。
[C22]
前記不一致ベクトルを不一致動きベクトルに変換することをさらに備える、C19に記載の方法。
[C23]
前記少なくとも1つの不一致値を決定することは、前記各々のPUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記少なくとも1つの不一致値に少なくとも部分的に基づいて前記少なくとも1つの不一致ベクトルを決定することは、前記2つ以上の不一致値に少なくとも部分的に基づいて2つ以上の不一致ベクトルを決定することをさらに備え、前記PUの左上のサンプルは座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記各々のCUの特別な隣接するブロックに配置される任意のサンプルと、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記PUのサイズがW×Hによって表される場合は、座標(x−1,y+H−1)を有するサンプルと座標(x+W−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、C19に記載の方法。
[C24]
少なくとも1つの不一致値を決定することは、前記各々のCUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記各々のCUの左上のサンプルは前記座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記各々のCUのサイズが2N×2Nによって表される場合は、座標(x−1,y+2N−1)を有するサンプルと座標(x+2N−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、C23に記載の方法。
[C25]
前記2つ以上の隣接するサンプルは、前記PUの最大コーディングユニット(LUC)の隣接するサンプルである、C23に記載の方法。
[C26]
前記少なくとも1つの再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記PUの特別な隣接するブロックに配置される任意のサンプルと、
のうちの少なくとも1つからのものである、C19に記載の方法。
[C27]
前記少なくとも1つの不一致ベクトルを決定することは、任意の使用可能な不一致ベクトルを識別できなかった実行された隣接ベースの不一致ベクトルの誘導(NBDV)プロセスに応答する、C19に記載の方法。
[C28]
前記不一致ベクトルに基づいて参照ブロックを識別することと、
動きベクトルと前記識別された参照ブロックの参照インデックスに少なくとも部分的に基づいて前記PUの現在の動きを予測することと、
前記動きベクトルと参照インデックスに少なくとも部分的に基づいて決定された候補を統合されたまたは高度な動きベクトル予測(AMVP)候補リストに挿入することと、
をさらに備える、C19に記載の方法。
[C29]
前記不一致値に少なくとも部分的に基づいて不一致ベクトルを決定することは、前記不一致値とカメラパラメータに少なくとも部分的に基づいて前記不一致ベクトルを決定することを備える、C19に記載の方法。
[C30]
前記1つまたは複数のカメラパラメータは2つのビューの水平置換を含む、C29に記載の方法。
[0180] Various examples of the disclosure have been described. These and other examples are within the scope of the following claims.
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[C1]
A method for decoding depth view data, comprising:
The method
For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of the depth view data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Reconstructing a coding block for each of the CUs based at least in part on the at least one mismatch vector;
A method comprising:
[C2]
Determining the at least one mismatch vector comprises determining one mismatch vector based at least in part on two or more adjacent depth samples, the method comprising:
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level;
Applying a mathematical function to the values of the two or more adjacent depth samples to select one of the two or more adjacent depth samples;
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of:
The method of C1, comprising.
[C3]
Determining the at least one mismatch vector comprises determining two or more mismatch vectors based at least in part on two or more adjacent depth samples;
The method of C1, wherein the method further comprises transforming two or more mismatch values into the two or more mismatch vectors based on the two or more adjacent depth samples.
[C4]
Converting the at least one mismatch vector into at least one mismatch motion vector;
The method of C1, further comprising:
[C5]
Determining the at least one mismatch value further comprises determining two or more mismatch values based at least in part on two or more adjacent samples of each PU. Determining the at least one mismatch vector based at least in part on at least one mismatch value further comprises determining two or more mismatch vectors based at least in part on the two or more mismatch values. The upper left sample of the PU has coordinates (x, y), and the two or more reconstructed depth samples are
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of each PU;
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
When the size of the PU is represented by W × H, a sample having coordinates (x−1, y + H−1) and a sample having coordinates (x + W−1, y−1),
The method of C1, wherein the method is from at least two of the above.
[C6]
Determining the at least one discrepancy value further comprises determining two or more discrepancy values based at least in part on two or more adjacent samples of each CU, wherein The upper left sample of each CU has the coordinates (x, y), and the two or more reconstructed depth samples are
A sample adjacent to the upper left of each CU;
A row adjacent to the top of each CU;
A column adjacent to the left side of each CU;
Any sample placed in a special adjacent block of each CU;
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
If the size of each CU is represented by 2N × 2N, a sample with coordinates (x−1, y + 2N−1) and a sample with coordinates (x + 2N−1, y−1);
The method of C5, wherein the method is from at least two of the above.
[C7]
The method of C5, wherein the two or more adjacent samples are adjacent samples of a maximum coding unit (LUC) of the PU.
[C8]
The method of C1, wherein the at least one adjacent sample is adjacent to each CU.
[C9]
The at least one reconstructed depth sample is
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of the PU;
The method of C1, wherein the method is from at least one of
[C10]
The method of C1, wherein determining the at least one mismatch vector is responsive to a performed neighbor-based mismatch vector derivation (NBDV) process that failed to identify any available mismatch vector.
[C11]
Identifying a reference block based on the at least one mismatch vector;
Predicting the current motion of the PU based at least in part on a motion vector and a reference index of the identified reference block;
Inserting a candidate determined based at least in part on the motion vector and a reference index into an integrated or advanced motion vector prediction (AMVP) candidate list;
The method of C1, further comprising:
[C12]
The method of C1, wherein determining the at least one mismatch vector comprises determining the mismatch vector based at least in part on camera parameters.
[C13]
The method of C12, wherein the one or more camera parameters include a horizontal permutation of two views.
[C14]
A memory configured to store data associated with a picture of depth view data;
Communicate with the memory and
For each prediction unit (PU) of each coding unit (CU) of the slice of the picture of depth view data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Reconstructing a coding block for each of the CUs based at least in part on the at least one mismatch vector;
One or more processors configured to perform:
A device for decoding video data.
[C15]
Determining the at least one mismatch vector comprises the device configured to determine one mismatch vector based at least in part on two or more adjacent depth samples, wherein The device
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level; and
Applying a mathematical function to the values of the two or more adjacent depth samples to select one of the two or more adjacent depth samples;
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of
The device of C14, further configured to:
[C16]
The device of C14, wherein the device is further configured to convert the at least one mismatch vector to at least one mismatch motion vector.
[C17]
When executed
For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of the depth view data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Reconstructing a coding block for each of the CUs based at least in part on the at least one mismatch vector;
A computer readable storage medium storing instructions for configuring a video decoding device to perform
[C18]
Determining the at least one mismatch vector comprises the instructions further configuring the device to determine a mismatch vector based at least in part on two or more adjacent depth samples; The instruction is:
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level; and
Applying a mathematical function to the values of the two or more adjacent depth samples to select one of the two or more adjacent depth samples;
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of
The computer-readable storage medium of C17, further configured to perform the device.
[C19]
A method for encoding depth view data, comprising:
The method
For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of the video data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Generating an encoded representation of a coding block for each of the CUs based at least in part on the at least one mismatch vector;
A method comprising:
[C20]
Determining the at least one mismatch vector comprises determining one mismatch vector based at least in part on two or more adjacent depth samples, the method comprising:
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level; and
Applying a mathematical function to the values of the two or more adjacent depth samples to select one of the two or more adjacent depth samples;
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of
The method of C19, further comprising:
[C21]
Determining the at least one mismatch vector comprises determining two or more mismatch vectors based at least in part on two or more adjacent depth samples;

The method of C19, wherein the method further comprises converting two or more mismatch values into two or more mismatch vectors based on the two or more adjacent depth samples.
[C22]
The method of C19, further comprising converting the mismatch vector to a mismatch motion vector.
[C23]
Determining the at least one mismatch value further comprises determining two or more mismatch values based at least in part on two or more adjacent samples of each PU. Determining the at least one mismatch vector based at least in part on at least one mismatch value further comprises determining two or more mismatch vectors based at least in part on the two or more mismatch values. The upper left sample of the PU has coordinates (x, y), and the two or more reconstructed depth samples are
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of each CU;
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
When the size of the PU is represented by W × H, a sample having coordinates (x−1, y + H−1) and a sample having coordinates (x + W−1, y−1),
The method of C19, wherein the method is from at least two of the above.
[C24]
Determining at least one mismatch value further comprises determining two or more mismatch values based at least in part on two or more adjacent samples of each CU, wherein The upper left sample of the CU has the coordinates (x, y), and the two or more reconstructed depth samples are
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
If the size of each CU is represented by 2N × 2N, a sample with coordinates (x−1, y + 2N−1) and a sample with coordinates (x + 2N−1, y−1);
The method of C23, wherein the method is from at least two of the above.
[C25]
The method of C23, wherein the two or more adjacent samples are adjacent samples of a maximum coding unit (LUC) of the PU.
[C26]
The at least one reconstructed depth sample is
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of the PU;
The method of C19, wherein the method is from at least one of
[C27]
The method of C19, wherein determining the at least one mismatch vector is responsive to a performed neighbor-based mismatch vector derivation (NBDV) process that failed to identify any available mismatch vector.
[C28]
Identifying a reference block based on the mismatch vector;
Predicting the current motion of the PU based at least in part on a motion vector and a reference index of the identified reference block;
Inserting a candidate determined based at least in part on the motion vector and a reference index into an integrated or advanced motion vector prediction (AMVP) candidate list;
The method of C19, further comprising:
[C29]
The method of C19, wherein determining a mismatch vector based at least in part on the mismatch value comprises determining the mismatch vector based at least in part on the mismatch value and a camera parameter.
[C30]
The method of C29, wherein the one or more camera parameters include a horizontal permutation of two views.

Claims (30)

深さビューデータを復号する方法であって、
前記方法は、
前記深さビューデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックを再構築することと、
を備える、方法。
A method for decoding depth view data, comprising:
The method
For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of the depth view data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Reconstructing a coding block for each of the CUs based at least in part on the at least one mismatch vector;
A method comprising:
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定することを備え、前記方法は、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択することと、
を備える、請求項1に記載の方法。
Determining the at least one mismatch vector comprises determining one mismatch vector based at least in part on two or more adjacent depth samples, the method comprising:
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level;
Applying a mathematical function to the values of the two or more adjacent depth samples to select one of the two or more adjacent depth samples;
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of:
The method of claim 1, comprising:
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、2つ以上の不一致ベクトルを決定することを備え、
前記方法は、前記2つ以上の隣接する深さサンプルに基づいて、2つ以上の不一致値を前記2つ以上の不一致ベクトルに変換すること、をさらに備える請求項1に記載の方法。
Determining the at least one mismatch vector comprises determining two or more mismatch vectors based at least in part on two or more adjacent depth samples;
The method of claim 1, further comprising transforming two or more mismatch values into the two or more mismatch vectors based on the two or more adjacent depth samples.
前記少なくとも1つの不一致ベクトルを少なくとも1つの不一致動きベクトルに変換すること、
をさらに備える、請求項1に記載の方法。
Converting the at least one mismatch vector into at least one mismatch motion vector;
The method of claim 1, further comprising:
前記少なくとも1つの不一致値を決定することは、前記各々のPUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記少なくとも1つの不一致値に少なくとも部分的に基づいて前記少なくとも1つの不一致ベクトルを決定することは、前記2つ以上の不一致値に少なくとも部分的に基づいて2つ以上の不一致ベクトルを決定することをさらに備え、前記PUの左上のサンプルは座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記各々のPUの特別な隣接するブロックに配置される任意のサンプルと、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記PUのサイズがW×Hによって表される場合は、座標(x−1,y+H−1)を有するサンプルと座標(x+W−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、請求項1に記載の方法。
Determining the at least one mismatch value further comprises determining two or more mismatch values based at least in part on two or more adjacent samples of each PU. Determining the at least one mismatch vector based at least in part on at least one mismatch value further comprises determining two or more mismatch vectors based at least in part on the two or more mismatch values. The upper left sample of the PU has coordinates (x, y), and the two or more reconstructed depth samples are
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of each PU;
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
When the size of the PU is represented by W × H, a sample having coordinates (x−1, y + H−1) and a sample having coordinates (x + W−1, y−1),
The method of claim 1, wherein the method is from at least two of the above.
前記少なくとも1つの不一致値を決定することは、前記各々のCUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記各々のCUの左上のサンプルは前記座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
前記各々のCUの左上に隣接するサンプルと、
前記各々のCUの上部に隣接する行と、
前記各々のCUの左側に隣接する列と、
前記各々のCUの特別な隣接するブロックに配置される任意のサンプルと、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記各々のCUのサイズが2N×2Nによって表される場合は、座標(x−1,y+2N−1)を有するサンプルと座標(x+2N−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、請求項5に記載の方法。
Determining the at least one discrepancy value further comprises determining two or more discrepancy values based at least in part on two or more adjacent samples of each CU, wherein The upper left sample of each CU has the coordinates (x, y), and the two or more reconstructed depth samples are
A sample adjacent to the upper left of each CU;
A row adjacent to the top of each CU;
A column adjacent to the left side of each CU;
Any sample placed in a special adjacent block of each CU;
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
If the size of each CU is represented by 2N × 2N, a sample with coordinates (x−1, y + 2N−1) and a sample with coordinates (x + 2N−1, y−1);
6. The method of claim 5, wherein the method is from at least two of the above.
前記2つ以上の隣接するサンプルは、前記PUの最大コーディングユニット(LUC)の隣接するサンプルである、請求項5に記載の方法。   The method of claim 5, wherein the two or more adjacent samples are adjacent samples of a maximum coding unit (LUC) of the PU. 前記少なくとも1つの隣接するサンプルは、各々のCUの隣接である、請求項1に記載の方法。   The method of claim 1, wherein the at least one adjacent sample is adjacent to each CU. 前記少なくとも1つの再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記PUの特別な隣接するブロックに配置される任意のサンプルと、
のうちの少なくとも1つからのものである、請求項1に記載の方法。
The at least one reconstructed depth sample is
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of the PU;
The method of claim 1, wherein the method is from at least one of the following.
前記少なくとも1つの不一致ベクトルを決定することは、任意の使用可能な不一致ベクトルを識別できなかった実行された隣接ベースの不一致ベクトルの誘導(NBDV)プロセスに応答する、請求項1に記載の方法。   The method of claim 1, wherein determining the at least one mismatch vector is responsive to a performed neighbor-based mismatch vector derivation (NBDV) process that failed to identify any available mismatch vector. 前記少なくとも1つの不一致ベクトルに基づいて参照ブロックを識別することと、
動きベクトルと前記識別された参照ブロックの参照インデックスに少なくとも部分的に基づいて前記PUの現在の動きを予測することと、
前記動きベクトルと参照インデックスに少なくとも部分的に基づいて決定された候補を統合されたまたは高度な動きベクトル予測(AMVP)候補リストに挿入することと、
をさらに備える、請求項1に記載の方法。
Identifying a reference block based on the at least one mismatch vector;
Predicting the current motion of the PU based at least in part on a motion vector and a reference index of the identified reference block;
Inserting a candidate determined based at least in part on the motion vector and a reference index into an integrated or advanced motion vector prediction (AMVP) candidate list;
The method of claim 1, further comprising:
前記少なくとも1つの不一致ベクトルを決定することは、カメラパラメータに少なくとも部分的に基づいて、前記不一致ベクトルを決定することを備える、請求項1に記載の方法。   The method of claim 1, wherein determining the at least one mismatch vector comprises determining the mismatch vector based at least in part on camera parameters. 前記1つまたは複数のカメラパラメータは2つのビューの水平置換を含む、請求項12に記載の方法。   The method of claim 12, wherein the one or more camera parameters include a horizontal permutation of two views. 深さビューデータのピクチャと関連付けられるデータを記憶するように構成されたメモリと、
前記メモリと通信を行いおよび
深さビューデータの前記ピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックを再構築することと、
を行うように構成された1つまたは複数のプロセッサと、
を備える、ビデオデータを復号するためのデバイス。
A memory configured to store data associated with a picture of depth view data;
For each prediction unit (PU) in communication with the memory and for each coding unit (CU) of each slice of the picture of depth view data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Reconstructing a coding block for each of the CUs based at least in part on the at least one mismatch vector;
One or more processors configured to perform:
A device for decoding video data.
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定するように構成された前記デバイスを備え、ここにおいて、前記デバイスは、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、および
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択すること、
を行うようにさらに構成される、請求項14に記載のデバイス。
Determining the at least one mismatch vector comprises the device configured to determine one mismatch vector based at least in part on two or more adjacent depth samples, wherein The device
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level, and selecting one of the two or more adjacent depth samples Applying a mathematical function to the values of the two or more adjacent depth samples to:
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of
The device of claim 14, further configured to:
前記デバイスは、前記少なくとも1つの不一致ベクトルを少なくとも1つの不一致動きベクトルに変換するようにさらに構成される、請求項14に記載のデバイス。   The device of claim 14, wherein the device is further configured to convert the at least one mismatch vector to at least one mismatch motion vector. 実行されると、
前記深さビューデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックを再構築することと、
を行うようにビデオ復号デバイスを構成する命令を記憶した、コンピュータ可読記憶媒体。
When executed
For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of the depth view data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Reconstructing a coding block for each of the CUs based at least in part on the at least one mismatch vector;
A computer readable storage medium storing instructions for configuring a video decoding device to perform
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定するように前記デバイスをさらに構成する前記命令を備え、ここにおいて、前記命令は、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、および
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択すること、
を行うように前記デバイスをさらに構成する、請求項17に記載のコンピュータ可読記憶媒体。
Determining the at least one mismatch vector comprises the instructions further configuring the device to determine a mismatch vector based at least in part on two or more adjacent depth samples; The instruction is:
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level, and selecting one of the two or more adjacent depth samples Applying a mathematical function to the values of the two or more adjacent depth samples to:
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of
The computer-readable storage medium of claim 17, further configured to perform the device.
深さビューデータを符号化する方法であって、
前記方法は、
前記ビデオデータのピクチャのスライスの各々のコーディングユニット(CU)の各予測ユニット(PU)に関して、
少なくとも1つの隣接するサンプルの少なくとも1つの再構築された深さサンプルの少なくとも1つの深さ値に少なくとも部分的に基づいて、少なくとも1つの不一致値を決定することと、
前記少なくとも1つの不一致値に少なくとも部分的に基づいて、少なくとも1つの不一致ベクトルを決定することと、ここにおいて、前記少なくとも1つの不一致ベクトルは前記各々のCUに関し、
前記少なくとも1つの不一致ベクトルに少なくとも部分的に基づいて、前記各々のCUに関するコーディングブロックの符号化された描写を生成することと、
を備える、方法。
A method for encoding depth view data, comprising:
The method
For each prediction unit (PU) of each coding unit (CU) of a slice of a picture of the video data,
Determining at least one mismatch value based at least in part on at least one depth value of at least one reconstructed depth sample of at least one adjacent sample;
Determining at least one mismatch vector based at least in part on the at least one mismatch value, wherein the at least one mismatch vector is for each of the CUs;
Generating an encoded representation of a coding block for each of the CUs based at least in part on the at least one mismatch vector;
A method comprising:
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、1つの不一致ベクトルを決定することを備え、前記方法は、
選択された隣接する深さサンプルを識別するインデックス値を決定することと、ここにおいて、前記インデックス値はブロックレベルにおいてシグナリングされ、および
前記2つ以上の隣接する深さサンプルのうちの1つを選択するために、前記2つ以上の隣接する深さサンプルの前記値に数学関数を適用することと、
のうちの少なくとも1つに基づいて、前記2つ以上の隣接する深さサンプルのうちの1つの隣接する深さサンプルを選択すること、
をさらに備える、請求項19に記載の方法。
Determining the at least one mismatch vector comprises determining one mismatch vector based at least in part on two or more adjacent depth samples, the method comprising:
Determining an index value identifying a selected adjacent depth sample, wherein the index value is signaled at a block level, and selecting one of the two or more adjacent depth samples Applying a mathematical function to the values of the two or more adjacent depth samples to:
Selecting one adjacent depth sample of the two or more adjacent depth samples based on at least one of
20. The method of claim 19, further comprising:
前記少なくとも1つの不一致ベクトルを決定することは、2つ以上の隣接する深さサンプルに少なくとも部分的に基づいて、2つ以上の不一致ベクトルを決定することを備え、

前記方法は、前記2つ以上の隣接する深さサンプルに基づいて、2つ以上の不一致値を2つ以上の不一致ベクトルに変換すること、をさらに備える、請求項19に記載の方法。
Determining the at least one mismatch vector comprises determining two or more mismatch vectors based at least in part on two or more adjacent depth samples;

The method of claim 19, further comprising converting two or more mismatch values into two or more mismatch vectors based on the two or more adjacent depth samples.
前記不一致ベクトルを不一致動きベクトルに変換することをさらに備える、請求項19に記載の方法。   The method of claim 19, further comprising converting the mismatch vector to a mismatch motion vector. 前記少なくとも1つの不一致値を決定することは、前記各々のPUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記少なくとも1つの不一致値に少なくとも部分的に基づいて前記少なくとも1つの不一致ベクトルを決定することは、前記2つ以上の不一致値に少なくとも部分的に基づいて2つ以上の不一致ベクトルを決定することをさらに備え、前記PUの左上のサンプルは座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記各々のCUの特別な隣接するブロックに配置される任意のサンプルと、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記PUのサイズがW×Hによって表される場合は、座標(x−1,y+H−1)を有するサンプルと座標(x+W−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、請求項19に記載の方法。
Determining the at least one mismatch value further comprises determining two or more mismatch values based at least in part on two or more adjacent samples of each PU. Determining the at least one mismatch vector based at least in part on at least one mismatch value further comprises determining two or more mismatch vectors based at least in part on the two or more mismatch values. The upper left sample of the PU has coordinates (x, y), and the two or more reconstructed depth samples are
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of each CU;
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
When the size of the PU is represented by W × H, a sample having coordinates (x−1, y + H−1) and a sample having coordinates (x + W−1, y−1),
20. The method of claim 19, wherein the method is from at least two of the above.
少なくとも1つの不一致値を決定することは、前記各々のCUの2つ以上の隣接するサンプルに少なくとも部分的に基づいて、2つ以上の不一致値を決定することをさらに備え、ここにおいて、前記各々のCUの左上のサンプルは前記座標(x,y)を有し、前記2つ以上の再構築された深さサンプルは、
座標(x−1,y+1)を有するサンプルと、
座標(x+1,y−1)を有するサンプルと、
前記各々のCUのサイズが2N×2Nによって表される場合は、座標(x−1,y+2N−1)を有するサンプルと座標(x+2N−1,y−1)を有するサンプルと、
のうちの少なくとも2つ以上からのものである、請求項23に記載の方法。
Determining at least one mismatch value further comprises determining two or more mismatch values based at least in part on two or more adjacent samples of each CU, wherein The upper left sample of the CU has the coordinates (x, y), and the two or more reconstructed depth samples are
A sample having coordinates (x-1, y + 1);
A sample having coordinates (x + 1, y-1);
If the size of each CU is represented by 2N × 2N, a sample with coordinates (x−1, y + 2N−1) and a sample with coordinates (x + 2N−1, y−1);
24. The method of claim 23, wherein the method is from at least two of the above.
前記2つ以上の隣接するサンプルは、前記PUの最大コーディングユニット(LUC)の隣接するサンプルである、請求項23に記載の方法。   24. The method of claim 23, wherein the two or more adjacent samples are adjacent samples of a maximum coding unit (LUC) of the PU. 前記少なくとも1つの再構築された深さサンプルは、
前記PUの左上に隣接するサンプルと、
前記PUの上部に隣接する行と、
前記PUの左側に隣接する列と、
前記PUの特別な隣接するブロックに配置される任意のサンプルと、
のうちの少なくとも1つからのものである、請求項19に記載の方法。
The at least one reconstructed depth sample is
A sample adjacent to the upper left of the PU;
A row adjacent to the top of the PU;
A column adjacent to the left side of the PU;
Any sample placed in a special adjacent block of the PU;
20. The method of claim 19, wherein the method is from at least one of the following.
前記少なくとも1つの不一致ベクトルを決定することは、任意の使用可能な不一致ベクトルを識別できなかった実行された隣接ベースの不一致ベクトルの誘導(NBDV)プロセスに応答する、請求項19に記載の方法。   20. The method of claim 19, wherein determining the at least one mismatch vector is responsive to a performed neighbor-based mismatch vector derivation (NBDV) process that failed to identify any available mismatch vector. 前記不一致ベクトルに基づいて参照ブロックを識別することと、
動きベクトルと前記識別された参照ブロックの参照インデックスに少なくとも部分的に基づいて前記PUの現在の動きを予測することと、
前記動きベクトルと参照インデックスに少なくとも部分的に基づいて決定された候補を統合されたまたは高度な動きベクトル予測(AMVP)候補リストに挿入することと、
をさらに備える、請求項19に記載の方法。
Identifying a reference block based on the mismatch vector;
Predicting the current motion of the PU based at least in part on a motion vector and a reference index of the identified reference block;
Inserting a candidate determined based at least in part on the motion vector and a reference index into an integrated or advanced motion vector prediction (AMVP) candidate list;
20. The method of claim 19, further comprising:
前記不一致値に少なくとも部分的に基づいて不一致ベクトルを決定することは、前記不一致値とカメラパラメータに少なくとも部分的に基づいて前記不一致ベクトルを決定することを備える、請求項19に記載の方法。   The method of claim 19, wherein determining a mismatch vector based at least in part on the mismatch value comprises determining the mismatch vector based at least in part on the mismatch value and a camera parameter. 前記1つまたは複数のカメラパラメータは2つのビューの水平置換を含む、請求項29に記載の方法。   30. The method of claim 29, wherein the one or more camera parameters include a horizontal permutation of two views.
JP2016517046A 2013-05-31 2014-05-30 Advanced depth intercoding based on depth block disparity Expired - Fee Related JP6370891B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361829919P 2013-05-31 2013-05-31
US61/829,919 2013-05-31
US14/290,603 US10009621B2 (en) 2013-05-31 2014-05-29 Advanced depth inter coding based on disparity of depth blocks
US14/290,603 2014-05-29
PCT/US2014/040272 WO2014194218A1 (en) 2013-05-31 2014-05-30 Advanced depth inter coding based on disparity of depth blocks

Publications (3)

Publication Number Publication Date
JP2016526348A true JP2016526348A (en) 2016-09-01
JP2016526348A5 JP2016526348A5 (en) 2018-07-05
JP6370891B2 JP6370891B2 (en) 2018-08-08

Family

ID=51985083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016517046A Expired - Fee Related JP6370891B2 (en) 2013-05-31 2014-05-30 Advanced depth intercoding based on depth block disparity

Country Status (6)

Country Link
US (1) US10009621B2 (en)
EP (1) EP3005704A1 (en)
JP (1) JP6370891B2 (en)
KR (1) KR20160016841A (en)
CN (1) CN105247870A (en)
WO (1) WO2014194218A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
US9955187B2 (en) * 2014-03-28 2018-04-24 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
CN104768019B (en) * 2015-04-01 2017-08-11 北京工业大学 A kind of adjacent parallax vector acquisition methods towards many deep videos of multi-texturing
JP6078138B1 (en) * 2015-10-30 2017-02-08 Nttエレクトロニクス株式会社 Moving picture coding apparatus and moving picture coding method
US10419755B2 (en) * 2016-05-16 2019-09-17 Qualcomm Incorporated Confusion of multiple filters in adaptive loop filtering in video coding
CN113873261B (en) 2016-10-04 2022-12-27 有限公司B1影像技术研究所 Image data encoding/decoding method and apparatus
KR20240051314A (en) * 2016-10-04 2024-04-19 주식회사 비원영상기술연구소 Image data encoding/decoding method and apparatus
US10587885B2 (en) * 2018-06-04 2020-03-10 Tencent America LLC Method and apparatus for merge mode with additional middle candidates in video coding
US11197017B2 (en) * 2018-12-06 2021-12-07 Tencent America LLC Methods and apparatuses for video coding
US20220086475A1 (en) * 2019-01-09 2022-03-17 Lg Electronics Inc. Method and device for signaling whether tmvp candidate is available
WO2020177665A1 (en) 2019-03-05 2020-09-10 Mediatek Inc. Methods and apparatuses of video processing for bi-directional prediction with motion refinement in video coding systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013053309A1 (en) * 2011-10-11 2013-04-18 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
JP2013078097A (en) * 2011-09-15 2013-04-25 Sharp Corp Image encoder, image decoder, image encoding method, image decoding method and program
WO2014044168A1 (en) * 2012-09-21 2014-03-27 Mediatek Inc. Method and apparatus of virtual depth values in 3d video coding

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2064675B1 (en) 2006-09-04 2012-11-21 Koninklijke Philips Electronics N.V. Method for determining a depth map from images, device for determining a depth map
EP2777273B1 (en) * 2011-11-11 2019-09-04 GE Video Compression, LLC Efficient multi-view coding using depth-map estimate for a dependent view
KR102137266B1 (en) * 2012-09-28 2020-07-23 삼성전자주식회사 Method and apparatus for estimation of motion vector and disparity vector
US9736498B2 (en) * 2012-10-03 2017-08-15 Mediatek Inc. Method and apparatus of disparity vector derivation and inter-view motion vector prediction for 3D video coding
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078097A (en) * 2011-09-15 2013-04-25 Sharp Corp Image encoder, image decoder, image encoding method, image decoding method and program
WO2013053309A1 (en) * 2011-10-11 2013-04-18 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
WO2014044168A1 (en) * 2012-09-21 2014-03-27 Mediatek Inc. Method and apparatus of virtual depth values in 3d video coding

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
DONG TIAN ET AL.: "CE1.h: Backward View Synthesis Prediction using Neighbouring Blocks", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-C0152_r1, JPN6017013695, January 2013 (2013-01-01), pages 1 - 5, ISSN: 0003795899 *
JIAN-LIANG LIN ET AL.: "3D-CE5.a results on unification of the depth to DV conversion", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-B0081r1, JPN6017013693, October 2012 (2012-10-01), pages 1 - 4, ISSN: 0003795898 *
JIAN-LIANG LIN ET AL.: "3D-CE5.h related: Simplification on disparity vector derivation for HEVC-based 3D video coding", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPME OF ITU-T SG 16 WP 3 AND ISO/IEC JTC, vol. JCT2-A0047_r1, JPN6016022418, July 2012 (2012-07-01), pages 1 - 3, ISSN: 0003795896 *
SHINYA SHIMIZU: "Description of Core Experiment 1 (CE1) on View Synthesis Prediction", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-D1101, JPN6018006804, 26 April 2013 (2013-04-26), pages 1 - 4, ISSN: 0003748359 *
TZU-DER CHUANG ET AL.: "Non-CE9: Division-free MV scaling", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G223, JPN6018006806, November 2011 (2011-11-01), pages 1 - 6, ISSN: 0003795895 *
VIJAYARAGHAVAN THIRUMALAI ET AL.: "CE5.h: Merge candidates derivation from vector shifting", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-D0178, JPN6018006805, April 2013 (2013-04-01), pages 1 - 5, ISSN: 0003795901 *
WENYI SU ET AL.: "3DV-CE1.a: Block-based View Synthesis Prediction for 3DV-ATM", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT2-A0107, JPN6017013692, July 2012 (2012-07-01), pages 1 - 5, ISSN: 0003795897 *
YU-LIN CHANG ET AL.: "3D-CE2.h related: Simplified DV derivation for DoNBDV and BVSP", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-D0138, JPN6016012248, April 2013 (2013-04-01), pages 1 - 4, ISSN: 0003795900 *

Also Published As

Publication number Publication date
WO2014194218A1 (en) 2014-12-04
US10009621B2 (en) 2018-06-26
JP6370891B2 (en) 2018-08-08
CN105247870A (en) 2016-01-13
US20140355666A1 (en) 2014-12-04
EP3005704A1 (en) 2016-04-13
KR20160016841A (en) 2016-02-15

Similar Documents

Publication Publication Date Title
US9350970B2 (en) Disparity vector derivation
KR101821030B1 (en) Inter-view residual prediction in multi-view or 3-dimensional video coding
US9615090B2 (en) Parsing syntax elements in three-dimensional video coding
JP6370891B2 (en) Advanced depth intercoding based on depth block disparity
US9924191B2 (en) Filters for advanced residual prediction in video coding
JP6434012B2 (en) Simplified advanced motion prediction for 3D-HEVC
JP6407961B2 (en) Disparity vector refinement in video coding
JP5992640B2 (en) Disabling inter-view prediction for reference picture lists in video coding
JP6559675B2 (en) Control of sub prediction unit (sub PU) motion parameter inheritance (MPI) in 3D (3D) HEVC or other 3D coding
JP2016524408A (en) Parallel-derived disparity vectors for 3D video coding with adjacency-based disparity vector derivation
JP2017510127A (en) Block-based advanced residual prediction for 3D video coding
JP2016526348A5 (en)
KR20150139953A (en) Backward view synthesis prediction
US9516332B2 (en) Disparity vector derivation in three-dimensional video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20180524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180711

R150 Certificate of patent or registration of utility model

Ref document number: 6370891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees