JP2016526334A - 色成分の間のサンプル予測を使用したビデオコード化 - Google Patents

色成分の間のサンプル予測を使用したビデオコード化 Download PDF

Info

Publication number
JP2016526334A
JP2016526334A JP2016515091A JP2016515091A JP2016526334A JP 2016526334 A JP2016526334 A JP 2016526334A JP 2016515091 A JP2016515091 A JP 2016515091A JP 2016515091 A JP2016515091 A JP 2016515091A JP 2016526334 A JP2016526334 A JP 2016526334A
Authority
JP
Japan
Prior art keywords
color component
sample value
prediction
block
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016515091A
Other languages
English (en)
Inventor
キム、ウォ−シク
ソル・ロジャルス、ジョエル
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016526334A publication Critical patent/JP2016526334A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオコーダは、動き予測を使用して生成された予測子色成分の残差信号を再構成し得る。予測子色成分の再構成された残差信号は予測子色成分の再構成された残差サンプル値を含み得る。更に、ビデオコーダは、異なる予測された色成分の残差サンプル値を予測するために予測子色成分の再構成された残差サンプル値を使用し得る。

Description

[0001]本出願は、その内容全体が参照により本明細書に組み込まれる、2013年5月22日に出願された米国仮特許出願第61/826,396号の利益を主張する。
[0002]本開示はビデオコード化(即ち、ビデオデータの符号化及び/又は復号)に関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップ又はデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録機器、デジタルメディアプレーヤ、ビデオゲーム機器、ビデオゲームコンソール、セルラー又は衛星無線電話、所謂「スマートフォン」、ビデオ遠隔会議機器、ビデオストリーミング機器などを含む、広範囲にわたる機器に組み込まれ得る。デジタルビデオ機器は、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part10,アドバンストビデオコード化(AVC:Advanced Video Coding)、現在開発中の高効率ビデオコード化(HEVC:High Efficiency Video Coding)規格によって定義された規格、及びそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。ビデオ機器は、そのようなビデオ圧縮技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、及び/又は記憶し得る。
[0004]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減又は除去するために空間的(イントラピクチャ)予測及び/又は時間的(インターピクチャ)予測を実行する。ブロックベースのビデオコード化の場合、ビデオスライス(即ち、ビデオフレーム又はビデオフレームの一部分)がビデオブロックに区分され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(P又はB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、又は他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005]空間的予測又は時間的予測は、コード化されるべきブロックのための予測ブロックを生じる。残差データは、コード化されるべき元のブロックと予測ブロックとの間の画素差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルに従って符号化され、残差データはコード化ブロックと予測ブロックとの間の差分を示す。イントラコード化ブロックは、イントラコード化モードと残差データとに従って符号化される。更なる圧縮のために、残差データは、画素領域から変換領域に変換されて、残差係数が得られ得、その残差係数は、次いで量子化され得る。量子化された係数は、最初は2次元アレイで構成され、係数の1次元ベクトルを生成するために走査され得、なお一層の圧縮を達成するためにエントロピーコード化が適用され得る。
[0006]概して、本開示の技法はビデオコード化及び圧縮の分野に関する。幾つかの例では、本開示の技法は、YCbCr4:2:0以外の色空間及びサンプリングフォーマットがサポートされ得る、高効率ビデオコード化(HEVC)範囲拡張に関する。本明細書で説明するように、ビデオコーダは、動き予測を使用して生成された予測子(predictor)色成分の残差信号(residual signal)を再構成し得る。予測子色成分の再構成された残差信号は予測子色成分の再構成された残差サンプル値(residual sample value)を含み得る。更に、ビデオコーダは、異なる予測された色成分の残差サンプル値を予測するために予測子色成分の再構成された残差サンプル値を使用し得る。
[0007]一例では、本開示では、ビデオデータを復号する方法について説明し、本方法は、ビデオデータの符号化表現を含むビットストリームを復号することを備え、ここにおいて、ビットストリームを復号することは、第1の色成分の残差信号を再構成することと、ここにおいて、第1の色成分の残差信号が動き予測を使用して生成され、第1の色成分の再構成された残差信号が第1の色成分の再構成された残差サンプル値を含む、第2の異なる色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用することとを備える。
[0008]別の例では、本開示では、ビデオデータを符号化する方法について説明し、本方法は、ビデオデータの符号化表現を備えるビットストリームを生成することを備え、ここにおいて、ビットストリームを生成することは、動き予測の使用によって、第1の色成分のための残差信号を生成することと、第1の色成分の残差信号を再構成することと、第1の色成分の再構成された残差信号が第1の色成分の再構成された残差サンプル値を含む、第2の色成分のサンプル値を予測するために第1の色成分の再構成されたサンプル値を使用することとを備える。
[0009]別の例では、本開示では、ビデオデータを記憶するように構成されたデータ記憶媒体と、ビデオデータの符号化表現を備えるビットストリームを生成又は復号するように構成された1つ又は複数のプロセッサとを備え、ここにおいて、ビットストリームを生成又は復号することの一部として、1つ又は複数のプロセッサは、第1の色成分の残差信号を再構成することと、ここにおいて、第1の色成分の残差信号が動き予測を使用して生成され、第1の色成分の再構成された残差信号が第1の色成分の再構成された残差サンプル値を含む、第2の異なる色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用することとを行う、ビデオコード化機器について説明する。
[0010]別の例では、本開示では、第1の色成分の残差信号を再構成するための手段と、ここにおいて、第1の色成分の残差信号が動き予測を使用して生成され、第1の色成分の再構成された残差信号が第1の色成分の再構成された残差サンプル値を含む、第2の異なる色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用するための手段とを備えるビデオコード化機器について説明する。
[0011]別の例では、本開示では、実行されたとき、ビデオコード化機器に、第1の色成分の残差信号を再構成することと、ここにおいて、第1の色成分の残差信号が動き予測を使用して生成され、第1の色成分の再構成された残差信号が第1の色成分の再構成された残差サンプル値を含む、第2の異なる色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用することとを行わせる命令を記憶した非一時的コンピュータ可読データ記憶媒体について説明する。
[0012]本開示の1つ又は複数の例の詳細を添付の図面及び以下の説明に記載する。他の特徴、目的、及び利点は、説明、図面、及び特許請求の範囲から明らかになろう。
[0013]本開示で説明する技法を利用し得る例示的なビデオコード化システムを示すブロック図。 [0014]本開示で説明する技法を実装し得る例示的なビデオエンコーダを示すブロック図。 [0015]本開示で説明する技法を実装し得る例示的なビデオデコーダを示すブロック図。 [0016]本開示の1つ又は複数の技法による、ビデオエンコーダの例示的な動作を示すフローチャート。 [0017]本開示の1つ又は複数の技法による、ビデオデコーダの例示的な動作を示すフローチャート。 [0018]本開示の1つ又は複数の技法による、ビデオエンコーダの例示的な動作を示すフローチャート。 [0019]本開示の1つ又は複数の技法による、ビデオデコーダの例示的な動作を示すフローチャート。
[0020]多くのビデオコード化規格では、画素のブロックは、実際には、異なる色成分のためのサンプルの2つ又はそれ以上のブロックを備え得る。例えば、画素のブロックは、実際には、輝度を示すためのルーマサンプルのブロックと、色を示すためのクロミナンス(即ち、クロマ)サンプルの2つのブロックとを備え得る。幾つかの状況では、色成分のためのサンプル値は、異なる色成分の対応するサンプル値と相関され得る。言い換えれば、ある色成分のサンプルの値は別の色成分のサンプルの値との相互関係を有し得る。そのような相関の低減により、サンプル値を表すために必要とされるデータの量が低減し得る。
[0021]本開示の1つ又は複数の技法によれば、異なる色成分のサンプル値間の相関は、インター予測されたブロック中で低減され得る。従って、本開示の1つ又は複数の技法によれば、ビデオコーダが、ビデオデータの符号化表現を備えるビットストリームを生成又は復号し得る。ビットストリームを生成又は復号することの一部として、ビデオコーダは第1の色成分(即ち、予測子色成分)の残差信号を再構成し得る。第1の色成分の残差信号は動き予測を使用して生成され得る。第1の色成分の再構成された残差信号は第1の色成分の再構成された残差サンプル値を含む。更に、ビデオコーダは、第2の異なる色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用し得る。このようにして、第1の色成分のサンプル値と第2の色成分のサンプル値との間の相関は低減され、その結果、潜在的にビットストリームが小さくなり得る。
[0022]図1は、本開示の技法を利用し得る例示的なビデオコード化システム10を示すブロック図である。本明細書で使用する「ビデオコーダ」という用語は、総称的にビデオエンコーダとビデオデコーダの両方を指す。本開示では、「ビデオコード化」又は「コード化」という用語は、総称的にビデオ符号化又はビデオ復号を指すことがある。
[0023]図1に示されているように、ビデオコード化システム10は、発信源機器12と宛先機器14とを含む。発信源機器12は符号化ビデオデータを生成する。従って、発信源機器12は、ビデオ符号化機器又はビデオ符号化装置と呼ばれることがある。宛先機器14は、発信源機器12によって生成された符号化ビデオデータを復号し得る。従って、宛先機器14は、ビデオ復号機器又はビデオ復号装置と呼ばれることがある。発信源機器12及び宛先機器14は、ビデオコード化機器又はビデオコード化装置の例であり得る。
[0024]発信源機器12及び宛先機器14は、デスクトップコンピュータ、モバイルコンピュータ機器、ノートブック(例えば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、所謂「スマート」フォンなどの電話ハンドセット、テレビジョン、カメラ、表示装置、デジタルメディアプレーヤ、ビデオゲームコンソール、車内コンピュータなどを含む、広範囲の機器を備え得る。
[0025]宛先機器14は、チャネル16を介して発信源機器12から符号化ビデオデータを受信し得る。チャネル16は、発信源機器12から宛先機器14に符号化ビデオデータを移動することが可能な1つ又は複数の媒体又は機器を備え得る。一例では、チャネル16は、発信源機器12が符号化ビデオデータを宛先機器14にリアルタイムで直接送信することを可能にする1つ又は複数の通信媒体を備え得る。この例では、発信源機器12は、ワイヤレス通信プロトコルなどの通信規格に従って符号化ビデオデータを変調し得、変調されたビデオデータを宛先機器14に送信し得る。1つ又は複数の通信媒体は、無線周波数(RF)スペクトル又は1つ以上の物理伝送線路など、ワイヤレス及び/又はワイヤード通信媒体を含み得る。1つ又は複数の通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、又はグローバルネットワーク(例えば、インターネット)など、パケットベースネットワークの一部を形成し得る。1つ又は複数の通信媒体は、発信源機器12から宛先機器14への通信を可能にする、ルータ、スイッチ、基地局、又は他の機器を含み得る。
[0026]別の例では、チャネル16は、発信源機器12によって生成された符号化ビデオデータを記憶する記憶媒体を含み得る。この例では、宛先機器14は、例えば、ディスクアクセス又はカードアクセスを介して記憶媒体にアクセスし得る。記憶媒体は、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、又は符号化ビデオデータを記憶するための他の適切なデジタル記憶媒体など、様々なローカルにアクセスされるデータ記憶媒体を含み得る。
[0027]更なる一例では、チャネル16は、発信源機器12によって生成された符号化ビデオデータを記憶するファイルサーバ又は別の中間記憶装置を含み得る。この例では、宛先機器14は、ストリーミング又はダウンロードを介して、ファイルサーバ又は他の中間記憶装置に記憶された符号化ビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶することと、符号化ビデオデータを宛先機器14に送信することとが可能なタイプのサーバであり得る。例示的なファイルサーバとしては、(例えば、ウェブサイト用の)ウェブサーバ、ハイパーテキスト転送プロトコル(HTTP)ストリーミングサーバ、ファイル転送プロトコル(FTP)サーバ、ネットワーク接続記憶NAS)機器、及びローカルディスクドライブがある。
[0028]宛先機器14は、インターネット接続などの標準的なデータ接続を通して符号化ビデオデータにアクセスし得る。例示的なタイプのデータ接続としては、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適である、ワイヤレスチャネル(例えば、Wi−Fi(登録商標)接続)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、又はその両方の組合せがあり得る。ファイルサーバからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、又はその両方の組合せであり得る。
[0029]本開示の技法はワイヤレス適用例又は設定に限定されない。本技法は、無線テレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、例えばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのビデオデータの符号化、データ記憶媒体に記憶されたビデオデータの復号、又は他の適用例など、様々なマルチメディア適用例をサポートするビデオコード化に適用され得る。幾つかの例では、ビデオコード化システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、及び/又はビデオテレフォニーなどの適用例をサポートするために、一方向又は双方向のビデオ送信をサポートするように構成され得る。
[0030]図1は一例にすぎず、本開示の技法は、符号化機器と復号機器との間のデータ通信を必ずしも含むとは限らないビデオコード化設定(例えば、ビデオ符号化又はビデオ復号)に適用され得る。他の例では、データ(例えば、ビデオデータ)がローカルメモリから取り出されること、ネットワークを介してストリーミングされることなどが行われる。ビデオ符号化機器は、データ(例えば、ビデオデータ)を符号化し、メモリに記憶し得、及び/又はビデオ復号機器は、メモリからデータ(例えば、ビデオデータ)を取り出し、復号し得る。多くの例では、符号化及び復号は、互いに通信しないが、単にメモリにデータ(例えば、ビデオデータ)を符号化し、及び/又はメモリからデータ(例えば、ビデオデータ)を取り出し、復号する機器によって実行される。
[0031]図1の例では、発信源機器12は、ビデオ発信源18と、ビデオエンコーダ20と、出力インターフェース22とを含む。幾つかの例では、出力インターフェース22は、変調器/復調器(モデム)及び/又は送信機を含み得る。ビデオ発信源18は、撮像装置、例えばビデオカメラ、以前に撮影されたビデオデータを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオデータを受信するためのビデオフィードインターフェース、及び/又はビデオデータを生成するためのコンピュータグラフィクスシステム、あるいはビデオデータのそのような発信源の組合せを含み得る。
[0032]ビデオエンコーダ20は、ビデオ発信源18からのビデオデータを符号化し得る。幾つかの例では、発信源機器12は、出力インターフェース22を介して宛先機器14に符号化ビデオデータを直接送信する。他の例では、符号化ビデオデータはまた、復号及び/又は再生のための宛先機器14による後のアクセスのために記憶媒体又はファイルサーバ上に記憶され得る。
[0033]図1の例では、宛先機器14は、入力インターフェース28と、ビデオデコーダ30と、表示装置32とを含む。幾つかの例では、入力インターフェース28は受信機及び/又はモデムを含む。入力インターフェース28は、チャネル16を介して符号化ビデオデータを受信し得る。表示装置32は、宛先機器14と一体化され得るか又はその外部にあり得る。概して、表示装置32は復号ビデオデータを表示する。表示装置32は、液晶表示器(LCD)、プラズマ表示器、有機発光ダイオード(OLED)表示器、又は別のタイプの表示装置など、様々な表示装置を備え得る。
[0034]ビデオエンコーダ20及びビデオデコーダ30はそれぞれ、1つ又は複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ハードウェアなど、様々な好適な回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装される場合、機器は、好適な非一時的コンピュータ可読記憶媒体にソフトウェアの命令を記憶し得、本開示の技法を実行するために1つ又は複数のプロセッサを使用してその命令をハードウェアで実行し得る。(ハードウェア、ソフトウェア、ハードウェアとソフトウェアの組合せなどを含む)上記のいずれも、1つ又は複数のプロセッサであると見なされ得る。ビデオエンコーダ20及びビデオデコーダ30の各々は1つ又は複数のエンコーダ又はデコーダ中に含まれ得、そのいずれも、それぞれの機器において複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
[0035]本開示では、概して、ビデオエンコーダ20が、ある情報をビデオデコーダ30などの別の機器に「信号伝達(signaling)」することに言及することがある。「信号伝達」という用語は、概して、圧縮ビデオデータを復号するために使用されるシンタックス要素及び/又は他のデータの通信を指し得る。そのような通信は、リアルタイム又はほぼリアルタイムに行われ得る。代替的に、そのような通信は、符号化時に符号化ビットストリーム中でシンタックス要素をコンピュータ可読記憶媒体に記憶するときに行われることがあるなど、ある時間期間にわたって行われ得、次いで、これらの要素は、この媒体に記憶された後の任意の時間に復号機器によって取り出され得る。
[0036]幾つかの例では、ビデオエンコーダ20及びビデオデコーダ30は、それのスケーラブルビデオコード化(SVC:Scalable Video Coding)拡張、マルチビュービデオコード化(MVC:Multiview Video Coding)拡張、及びMVCベースの3DV拡張を含む、ISO/IEC MPEG−4 Visual及び(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264などのビデオ圧縮規格に従って動作する。場合によっては、MVCベースの3DVに準拠する任意の正当なビットストリームは、MVCプロファイル、例えばステレオハイプロファイルに準拠するサブビットストリームを常に含んでいる。更に、H.264/AVCへの3次元ビデオ(3DV:three-dimensional video)コード化拡張、即ちAVCベース3DVを生成するための取り組みが進行中である。他の例では、ビデオエンコーダ20及びビデオデコーダ30は、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262又はISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、及びITU−T H.264、ISO/IEC Visualに従って動作し得る。
[0037]図1の例では、ビデオエンコーダ20及びビデオデコーダ30は、ITU−Tビデオコード化エキスパートグループ(VCEG:Video Coding Experts Group)とISO/IECモーションピクチャエキスパートグループ(MPEG:Motion Picture Experts Group)とのジョイントコラボレーションチームオンビデオコード化(JCT−VC:Joint Collaboration Team on Video Coding)によって開発された高効率ビデオコード化(HEVC)規格に従って動作し得る。「HEVCワーキングドラフト6」と呼ばれる、HEVC規格のドラフトは、Brossら、「High Efficiency Video Coding (HEVC) text specification draft 6」、ITU−T SG16 WP3とISO/IEC JTC1/SC29/WG11とのジョイントコラボレーティブチームオンビデオコード化(JCT−VC:Joint Collaborative Team on Video Coding)、第7回会議、ジュネーブ、スイス、2011年11月に記載されている。少なくとも2014年5月9日現在、HEVCワーキングドラフト6は、http://phenix.it-sudparis.eu/jct/doc_end_user/documents/8_San%20Jose/wg11/JCTVC-H1003-v1.zipから入手可能である。「HEVCワーキングドラフト9」と呼ばれる、今度のHEVC規格の別のドラフトは、Brossら、「High Efficiency Video Coding (HEVC) text specification draft 9」、ITU−T SG16 WP3とISO/IEC JTC1/SC29/WG11とのジョイントコラボレーティブチームオンビデオコード化(JCT−VC)、第11回会議、上海、中国、2012年10月に記載されている。少なくとも2014年5月9日現在、HEVCワーキングドラフト9は、http://phenix.int-evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC-K1003-v13.zipから入手可能である。
[0038]更に、HEVCのためのSVC、マルチビューコード化拡張、及び3DV拡張を生成するための取り組みが進行中である。HEVCのSVC拡張はHEVC−SVCと呼ばれることがある。HEVCの3DV拡張はHEVCベース3DV又は3D−HEVCと呼ばれることがある。3D−HEVCは、少なくとも部分的に、Schwarzら、「Description of 3D Video Coding Technology Proposal by Fraunhofer HHI (HEVC compatible configuration A)」、ISO/IEC JTC1/SC29/WG11、Doc.MPEG11/M22570、ジュネーブ、スイス、2011年11月/12月、以下「m22570」、及びSchwarzら、「Description of 3D Video Technology Proposal by Fraunhofer HHI (HEVC compatible; configuration B)」、ISO/IEC JTC1/SC29/WG11、Doc.MPEG11/M22571、ジュネーブ、スイス、2011年11月/12月、以下「m22571」において提案されたソリューションに基づく。3D−HEVCのための参照ソフトウェアの記述は、Schwarzら、「Test Model under Consideration for HEVC based 3D video coding」、ISO/IEC JTC1/SC29/WG11 MPEG2011/N12559、サンノゼ、米国、2012年2月において入手可能である。参照ソフトウェア、即ち、HTMバージョン3.0は、少なくとも2014年5月9日現在、https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM-3.0/から入手可能である。
[0039]更に、HEVCのための範囲拡張規格を生成するための取り組みが進行中である。HEVCのための範囲拡張規格は、YCbCr4:2:2、YCbCr4:4:4、及びRGBなど、YCbCr4:2:0以外の色空間のためにビデオコード化を拡張することを含む。Flynnら、「High Efficiency Video Coding (HEVC) Range Extensions text specification:Draft 2 (for PDAM)」、ITU−T SG16WP3とISO/IEC JTC1/SC29/WG11とのジョイントコラボレーティブチームオンビデオコード化(JCT−VC)、第12回会議:ジュネーブ、スイス、2013年1月14〜23日、文書番号JCTVC−L1005v4(以下、「JCTVC−L1005v4」)はHEVCのための範囲拡張規格のドラフトである。少なくとも2014年5月9日現在、JCTVC−L1005v4は、http://phenix.int-evry.fr/jct/doc_end_user/current_document.php?id=7276から入手可能であった。
[0040]HEVC及び他のビデオコード化規格では、ビデオシーケンスは一般に一連のピクチャを含む。ピクチャは「フレーム」と呼ばれることもある。ピクチャは、SL、SCb及びSCrと示される3つのサンプルアレイを含み得る。SLはルーマサンプルの2次元アレイ(即ち、ブロック)である。SCbはCbクロミナンスサンプルの2次元アレイである。SCrはCrクロミナンスサンプルの2次元アレイである。クロミナンスサンプルは、本明細書では「クロマ」サンプルと呼ばれることもある。他の例では、ピクチャは、モノクロームであり得、ルーマサンプルのアレイのみを含み得る。
[0041]ピクチャの符号化表現を生成するために、ビデオエンコーダ20はコード化ツリーユニット(CTU:coding tree unit)のセットを生成し得る。CTUの各々は、ルーマサンプルのコード化ツリーブロックと、クロマサンプルの2つの対応するコード化ツリーブロックと、それらのコード化ツリーブロックのサンプルをコード化するために使用されるシンタックス構造とを備え得る。コード化ツリーブロックはサンプルのN×Nブロックであり得る。CTUは「ツリーブロック」又は「最大コード化単位」(LCU:largest coding unit)と呼ばれることもある。HEVCのCTUは、H.264/AVCなど、他のビデオコード化規格のマクロブロックに広い意味で類似し得る。しかしながら、CTUは、必ずしも特定のサイズに限定されるとは限らず、1つ又は複数のコード化単位(CU)を含み得る。スライスは、走査順序(例えば、ラスタ走査)において連続的に順序付けられた整数個のCTUを含み得る。
[0042]本開示では、サンプルの1つ又は複数のブロックと、サンプルの1つ又は複数のブロックのサンプルをコード化するために使用されるシンタックス構造とを指すために、「ビデオ単位」、「ビデオブロック」、又は「ブロック」という用語を使用し得る。例示的なタイプのビデオ単位は、CTU、CU、PU、変換単位(TU)、マクロブロック、マクロブロック区分などを含み得る。
[0043]コード化CTUを生成するために、ビデオエンコーダ20は、コード化ツリーブロックをコード化ブロックに分割するためにCTUのコード化ツリーブロックに対して4分木区分を再帰的に実行し得、従って「コード化ツリー単位」という名称がある。コード化ブロックはサンプルのN×Nブロックである。CUは、ルーマサンプルアレイとCbサンプルアレイとCrサンプルアレイとを有するピクチャのルーマサンプルのコード化ブロックと、そのピクチャのクロマサンプルの2つの対応するコード化ブロックと、それらのコード化ブロックのサンプルをコード化するために使用されるシンタックス構造とを備え得る。ビデオエンコーダ20は、CUのコード化ブロックを1つ又は複数の予測ブロックに区分し得る。予測ブロックは、同じ予測が適用されるサンプルの矩形(即ち、正方形又は非正方形)ブロックであり得る。CUの予測単位(PU)は、ピクチャのルーマサンプルの予測ブロックと、クロマサンプルの2つの対応する予測ブロックと、予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。ビデオエンコーダ20は、CUの各PUの予測ブロック(例えば、ルーマ予測ブロック、Cb予測ブロック、及びCr予測ブロック)のための予測ブロック(例えば、予測ルーマブロック、予測Cbブロック及び予測Crブロック)を生成し得る。幾つかの例では、ブロック(例えば、PU、CUなど)の予測ブロックのサンプルは、本明細書ではブロックのための基準信号と呼ばれることがある。
[0044]ビデオエンコーダ20は、PUのための予測ブロックを生成するためにイントラ予測又はインター予測を使用し得る。ビデオエンコーダ20が、PUの予測ブロックを生成するためにイントラ予測を使用する場合、ビデオエンコーダ20は、PUが属するピクチャ(即ち、PUに関連付けられたピクチャ)の復号サンプルに基づいて、PUの予測ブロックを生成し得る。
[0045]ビデオエンコーダ20が、PUの予測ブロックを生成するためにインター予測を使用する場合、ビデオエンコーダ20は、PUに関連付けられたピクチャ以外の1つ又は複数のピクチャの復号サンプルに基づいて、PUの予測ブロックを生成し得る。インター予測は、単方向インター予測(即ち、単予測)又は双方向インター予測(即ち、双予測)であり得る。単予測又は双予測を実行するために、ビデオエンコーダ20は、現在スライスに対して、第1の参照ピクチャリスト(RefPicList0)と第2の参照ピクチャリスト(RefPicList1)とを生成し得る。参照ピクチャリストの各々は1つ又は複数の参照ピクチャを含み得る。
[0046]単予測を使用するとき、ビデオエンコーダ20は、参照ピクチャ内の参照位置を決定するために、RefPicList0とRefPicList1のいずれか又は両方の中の参照ピクチャを探索し得る。更に、単予測を使用するとき、ビデオエンコーダ20は、参照位置に対応するサンプルに少なくとも部分的に基づいて、PUのための予測サンプルブロックを生成し得る。更に、単予測を使用するとき、ビデオエンコーダ20は、PUの予測ブロックと参照位置との間の空間変位を示す単一の動きベクトルを生成し得る。PUの予測ブロックと参照位置(reference location)との間の空間変位を示すために、動きベクトルは、PUの予測ブロックと参照位置との間の水平変位を規定する水平成分を含み得、PUの予測ブロックと参照位置との間の垂直変位を規定する垂直成分を含み得る。
[0047]PUを符号化するために双予測を使用するとき、ビデオエンコーダ20は、RefPicList0中の参照ピクチャ中の第1の参照位置と、RefPicList1中の参照ピクチャ中の第2の参照位置とを決定し得る。ビデオエンコーダ20は、次いで、第1及び第2の参照位置に対応するサンプルに少なくとも部分的に基づいて、PUのための予測ブロックを生成し得る。更に、PUを符号化するために双予測を使用するとき、ビデオエンコーダ20は、PUの予測ブロックと第1の参照位置との間の空間変位を示す第1の動きベクトルと、PUの予測ブロックと第2の参照位置との間の空間変位を示す第2の動きベクトルとを生成し得る。
[0048]ビデオエンコーダ20がCUの1つ又は複数のPUのための予測ブロック(例えば、予測ルーマ(Y)ブロック、予測Cbブロック及び予測Crブロック)を生成した後、ビデオエンコーダ20はCUのための残差ブロック(例えば、ルーマ残差ブロック、Cb残差ブロック、及びCr残差ブロック)を生成し得る。CUのルーマ残差ブロック中の各サンプルは、CUの予測ルーマブロックのうちの1つ中のルーマサンプルとCUの元のルーマコード化ブロック中の対応するサンプルとの間の差を示す。更に、ビデオエンコーダ20はCUのためのCb残差ブロックを生成し得る。CUのCb残差ブロック中の各サンプルは、CUの予測Cbブロックのうちの1つ中のCbサンプルとCUの元のCbコード化ブロック中の対応するサンプルとの間の差を示し得る。ビデオエンコーダ20はまた、CUのためのCr残差ブロックを生成し得る。CUのCr残差ブロック中の各サンプルは、CUの予測Crブロックのうちの1つ中のCrサンプルとCUの元のCrコード化ブロック中の対応するサンプルとの間の差を示し得る。本開示では、ブロック(例えば、CU)の残差ブロックのサンプルをブロックのための残差信号と呼ぶことがある。
[0049]更に、ビデオエンコーダ20は、CU残差ブロック(例えば、ルーマ残差ブロック、Cb残差ブロック及びCr残差ブロック)を1つ又は複数の変換ブロック(例えば、ルーマ変換ブロック、Cb変換ブロック及びCr変換ブロック)に分解するために4分木区分を使用し得る。変換ブロックは、同じ変換が適用されるサンプルの矩形(例えば、正方形又は非正方形)ブロックであり得る。CUの変換単位(TU)は、ルーマサンプルの変換ブロックと、クロマサンプルの2つの対応する変換ブロックと、それらの変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。従って、CUの各TUは、ルーマ変換ブロックと、Cb変換ブロックと、Cr変換ブロックとに関連付けられ得る。TUに関連付けられたルーマ変換ブロックはCUのルーマ残差ブロックのサブブロックであり得る。Cb変換ブロックはCUのCb残差ブロックのサブブロックであり得る。Cr変換ブロックはCUのCr残差ブロックのサブブロックであり得る。
[0050]ビデオエンコーダ20は、TUのための係数ブロックを生成するためにTUの変換ブロックに1つ又は複数の変換を適用し得る。係数ブロックは変換係数の2次元アレイであり得る。変換係数はスカラー量であり得る。例えば、ビデオエンコーダ20は、TUのためのルーマ係数ブロックを生成するためにTUのルーマ変換ブロックに1つ又は複数の変換を適用し得る。ビデオエンコーダ20は、TUのためのCb係数ブロックを生成するためにTUのCb変換ブロックに1つ又は複数の変換を適用し得る。ビデオエンコーダ20は、TUのためのCr係数ブロックを生成するためにTUのCr変換ブロックに1つ又は複数の変換を適用し得る。幾つかの例では、ビデオエンコーダ20は、変換をスキップし、変換係数ブロックと同じ様式で変換ブロック(例えば、残差サンプルのブロック)を扱い得る。
[0051]係数ブロック(例えば、ルーマ係数ブロック、Cb係数ブロック又はCr係数ブロック)を生成した後、ビデオエンコーダ20は係数ブロックを量子化し得る。量子化は、概して、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、更なる圧縮を実現するプロセスを指す。幾つかの例では、ビデオエンコーダ20は変換係数ブロックの量子化をスキップし得る。更に、ビデオエンコーダ20は、変換係数を逆量子化し得、ピクチャのCUのTUの変換ブロックを再構成するために変換係数に逆変換を適用し得る。ビデオエンコーダ20は、CUのコード化ブロックを再構成するためにCUのTUの再構成された変換ブロックとCUのPUの予測ブロックとを使用し得る。ピクチャの各CUのコード化ブロックを再構成することによって、ビデオエンコーダ20はピクチャを再構成し得る。ビデオエンコーダ20は、再構成されたピクチャを復号ピクチャバッファ(DPB:decoded picture buffer)に記憶し得る。ビデオエンコーダ20は、インター予測及びイントラ予測のためにDPB中の再構成されたピクチャを使用し得る。
[0052]ビデオエンコーダ20が係数ブロックを量子化した後、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素をエントロピー符号化し得る。例えば、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素に対してコンテキスト適応型バイナリ算術コード化(CABAC:Context-Adaptive Binary Arithmetic Coding)を実行し得る。ビデオエンコーダ20は、エントロピー符号化されたシンタックス要素をビットストリーム中に出力し得る。
[0053]ビデオエンコーダ20は、コード化ピクチャと関連データとの表現を形成するビットのシーケンスを含むビットストリームを出力し得る。ビットストリームは、一連のネットワークアブストラクションレイヤ(NAL:network abstraction layer)単位を備え得る。NAL単位の各々は、NAL単位ヘッダを含み得、ローバイトシーケンスペイロード(RBSP:raw byte sequence payload)をカプセル化し得る。NAL単位ヘッダは、NAL単位タイプコードを示すシンタックス要素を含み得る。NAL単位のNAL単位ヘッダによって指定されるNAL単位タイプコードは、NAL単位のタイプを示す。RBSPは、NAL単位内にカプセル化された整数個のバイトを含んでいるシンタックス構造であり得る。幾つかの事例では、RBSPは0ビットを含む。
[0054]異なるタイプのNAL単位は、異なるタイプのRBSPをカプセル化し得る。例えば、第1のタイプのNAL単位はピクチャパラメータセット(PPS:picture parameter set)のためのRBSPをカプセル化し得、第2のタイプのNAL単位はコード化スライスのためのRBSPをカプセル化し得、第3のタイプのNAL単位は補足拡張情報(SEI:supplemental enhancement information)のためのRBSPをカプセル化し得、以下同様である。PPSは、0個又はそれ以上のコード化ピクチャ全体に適用されるシンタックス要素を含んでいることがあるシンタックス構造である。(パラメータセット及びSEIメッセージのためのRBSPとは対照的に)ビデオコード化データのためのRBSPをカプセル化するNAL単位は、ビデオコード化レイヤ(VCL:video coding layer)NAL単位と呼ばれることがある。コード化スライスをカプセル化するNAL単位は、本明細書ではコード化スライスNAL単位と呼ばれることがある。コード化スライスのためのRBSPはスライスヘッダとスライスデータとを含み得る。
[0055]HEVC及び他のビデオコード化規格は様々なタイプのパラメータセットを与える。例えば、ビデオパラメータセット(VPS:video parameter set)は、0個又はそれ以上のコード化ビデオシーケンス(CVS:coded video sequence)全体に適用されるシンタックス要素を備えるシンタックス構造である。シーケンスパラメータセット(SPS:sequence parameter set)は、CVSの全てのスライスに適用される情報を含んでいることがある。SPSは、SPSがアクティブであるときにアクティブであるVPSを識別するシンタックス要素を含み得る。従って、VPSのシンタックス要素は、SPSのシンタックス要素よりも一般的に適用可能であり得る。PPSは、0個又はそれ以上のコード化ピクチャに適用されるシンタックス要素を備えるシンタックス構造である。PPSは、PPSがアクティブであるときにアクティブであるSPSを識別するシンタックス要素を含み得る。スライスのスライスヘッダは、スライスがコード化されるときにアクティブであるPPSを示すシンタックス要素を含み得る。
[0056]ビデオデコーダ30はビットストリームを受信し得る。更に、ビデオデコーダ30は、ビットストリームからシンタックス要素を取得(例えば、復号)するためにビットストリームを構文解析し得る。ビデオデコーダ30は、ビットストリームから復号されたシンタックス要素に少なくとも部分的に基づいてビデオデータのピクチャを再構成し得る。ビデオデータを再構成するためのプロセスは、概して、ビデオエンコーダ20によって実行されるプロセスの逆であり得る。例えば、ビデオデコーダ30は、現在CUのPUのための予測ブロックを決定するためにPUの動きベクトルを使用し得る。ビデオデコーダ30は、PUのための予測ブロックを生成するためにPUの1つ又は複数の動きベクトルを使用し得る。
[0057]更に、ビデオデコーダ30は、現在CUのTUに関連付けられた係数ブロックを逆量子化し得る。ビデオデコーダ30は、現在CUのTUに関連付けられた変換ブロックを再構成するために係数ブロックに対して逆変換を実行し得る。ビデオデコーダ30は、現在CUのPUのための予測サンプルブロックのサンプルを現在CUのTUの変換ブロックの対応するサンプルに加算することによって、現在CUのコード化ブロックを再構成し得る。ピクチャの各CUのためのコード化ブロックを再構成することによって、ビデオデコーダ30はピクチャを再構成し得る。ビデオデコーダ30は、出力のために及び/又は他のピクチャを復号する際に使用するために、復号されたピクチャを復号ピクチャバッファに記憶し得る。
[0058]色成分の間の相関を低減することによって、ビデオコンテンツが効率的にコード化され得る。これを行うための1つの方法は予測を実行することである。HEVCの開発中に提案されたルーマベースのクロマ予測方法では、再構成されたルーマサンプル値からクロマサンプル値が予測される。予測値は、最小2乗適合法を使用して生成され得る。これはイントラコード化ブロックにのみ適用されている。コード化効率を更に改善するために、インターコード化ブロック中の相関を低減することが望ましいこともある。
[0059]インターフレーム(即ち、インター予測を使用してコード化されたピクチャ)の場合、各色成分のための相関を低減するために、動き予測が適用される。概して、動き予測は、ブロックのための1つ又は複数の予測ブロックを決定するためのブロックのための1つ又は複数の動きベクトルの使用を伴う。全ての色成分のために同じ動きベクトルが使用され得、それにより、動き予測の後に色成分の間の相関が増加し得る。色成分の間の相関を低減するために、本開示の1つ又は複数の技法は、動き予測の後に予測コード化を適用し得る。
[0060]第1に、本開示の1つ又は複数の技法によれば、参照ピクチャ中の動きブロック(即ち、参照ブロック)は動きベクトルによって配置される。言い換えれば、ビデオコーダは、参照ピクチャ中の参照ブロックを決定するために動きベクトルを使用し得る。次いで、各色成分の残差信号が動き予測の使用によって生成される。例えば、ビデオコーダは、残差サンプルを備える残差信号を生成し得る。残差サンプルの各々は、現在ブロックの元のサンプルと参照ブロックの対応するサンプルとの間の差に等しい値を有し得る。それらの成分のうち1つは予測子成分として設定される。例えば、ビデオエンコーダ20は、ルーマ成分、Cb成分、又はCr成分を予測子成分として設定し得る。予測子成分の残差信号は、変換/量子化の使用によって更に圧縮され、逆量子化/逆変換を使用して再構成される。予測子成分の再構成された残差サンプル値は、他の色成分の残差サンプル値を予測するために(例えば、ビデオコーダによって)使用され得る。
[0061]従って、本開示の1つ又は複数の技法によれば、ビデオエンコーダ20は、ビデオデータの符号化表現を備えるビットストリームを生成し得る。ビットストリームを生成することの一部として、ビデオエンコーダ20は、動き予測の使用によって、予測子色成分のための残差信号を生成し得る。更に、ビデオエンコーダ20は予測子色成分の残差信号を再構成し得る。少なくとも幾つかの事例では、ビデオエンコーダ20は、予測子色成分の残差信号を再構成するために逆量子化及び逆変換を使用し得る。予測子色成分の再構成された残差信号は予測子色成分の再構成された残差サンプル値を含み得る。ビデオエンコーダ20は、予測された色成分のサンプル値を予測するために予測子色成分の再構成されたサンプル値を使用し得る。更に、ビデオエンコーダ20は、動き予測の使用によって、予測された色成分のための初期残差信号を生成し得る。ビデオエンコーダ20は、予測された色成分のための最終残差信号中の各サンプル値が、予測された色成分の予測されたサンプル値のうちの1つと予測された色成分の初期残差信号の対応するサンプルとの間の差に等しくなるように、予測された色成分のための最終残差信号を決定し得る。更に、ビデオエンコーダ20は、予測された色成分のための最終残差信号を変換することによって係数ブロックを生成し得る。ビデオエンコーダ20は、ビットストリーム中に、係数ブロックの量子化された変換係数を示すエントロピー符号化されたデータを含め得る。予測子色成分と予測された色成分とは、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つであり得る。
[0062]同様に、ビデオデコーダ30は、ビデオデータの符号化表現を含むビットストリームを復号し得る。ビットストリームを復号することの一部として、ビデオデコーダ30は予測子色成分の残差信号を再構成し得る。予測子色成分の残差信号は動き予測を使用して生成され得る。予測子色成分の再構成された残差信号は予測子色成分の再構成された残差サンプル値を含み得る。少なくとも幾つかの事例では、ビデオデコーダ30は、予測子色成分の残差信号を再構成するために逆量子化及び逆変換を使用し得る。ビデオデコーダ30は、予測された色成分の残差サンプル値を予測するために予測子色成分の再構成された残差サンプル値を使用し得る。更に、ビデオデコーダ30は、予測された色成分の予測されたサンプル値を、逆量子化し、係数ブロックに逆変換を適用することによって生成された対応するサンプルに加算し得る。ビットストリームは、係数ブロックの量子化された変換係数を示すエントロピー符号化されたシンタックス要素を含み得る。幾つかの例では、「色成分」という用語はルーマ及びクロマ(例えば、Cb及びCr)成分に適用される。予測子色成分と予測された色成分とは、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つであり得る。
[0063]少なくとも幾つかの例では、ビデオコーダは、予測子色成分の再構成された残差サンプル値からの線形予測を使用して、予測された色成分の予測サンプル値(即ち、予測されたサンプル値)を生成し得る。例えば、線形予測は、予測されたサンプル値x’が、
x’=ax+b
のように、再構成された残差サンプル値xから生成される場合に使用され得、ここで、aはスケールファクタであり、bはオフセットである。例えば、ビデオコーダは、予測サンプル値がx’=ax+bに等しくなるように予測サンプル値を決定し得、ここで、x’は予測サンプル値であり、xは再構成された残差サンプルである。値a及びbは、本明細書では予測パラメータと呼ばれることがある。幾つかの例では、a及びbは、動きブロックに適用される最小2乗適合法を使用して計算され得る。例えば、a及びbは、
a = Cov( Yref, Cref) / Var( Yref ),
b = Mean( Cref ) - a・Mean( Yref ),
のように計算され、ここで、Cov( )は共分散関数(例えば、Cov(x,y)=E[(x−E[x])(y−E[y])])であり、Var( )は分散関数(例えば、Var(x)=E[(x−E[x])2])であり、Mean( )は平均関数(例えば、Mean(x)=E[x])である。Yref及びCrefは、それぞれ予測子成分のための動きブロック中の基準信号及び予測されるべき成分のための動きブロック中の基準信号である。基準信号は参照ピクチャ中の(又はそれから補間された)サンプルを備え得る。予測値の生成後に、予測値は現在の残差サンプル値から減算され、その差は変換及び量子化によって更にコード化される。
[0064]幾つかの例では、これらのパラメータのうちの1つのみが使用され得る。例えば、ビデオコーダは、
x’ = ax,
のように予測サンプル値x’を決定し得、ここで、xは、予測子色成分の再構成された残差サンプル値であり、aはCov(Yref,Cref)/Var(Yref)に等しく、Cov( )は共分散関数であり、Var( )は分散関数であり、Yrefは予測子色成分のための動きブロック中の基準信号であり、Crefは、予測された色成分のための動きブロック中の基準信号である。
[0065]予測パラメータ(例えば、上記の例におけるa及びb)は、ビデオエンコーダ20及びビデオデコーダ30において同じ再構成された残差画素を使用して計算され得る。予測されるべき各色成分のための別個のパラメータセットがあり得る。言い換えれば、ビデオコーダ(例えば、ビデオエンコーダ20又はビデオデコーダ30)は、色成分のうちの異なる1つのための予測パラメータのための異なる値を計算し得る。
[0066]別の例では、ビデオエンコーダ20は、ビデオデコーダ30が同じパラメータ値を使用することができるように、計算されたパラメータ値をビデオデコーダ30に信号伝達する。例えば、ビデオエンコーダ20は、ビットストリーム中に、上記の例において又は他の例において説明したa及び/又はbの値を示すデータを含め得る。パラメータは効率的な信号伝達のために量子化され得る。例えば、ビデオエンコーダ20は、予測パラメータ値を量子化し得、ビットストリーム中に、量子化された予測パラメータ値を示すシンタックス要素を含め得る。パラメータが明示的に信号伝達されるので、デコーダ側において利用可能でない情報を使用して最適なパラメータ値を見つけることが可能であり得る。従って、幾つかの例では、ビデオエンコーダ20は、ビットストリーム中に、パラメータの値を示すデータを含め得る。同様に、ビデオデコーダ30は、ビットストリームからパラメータの値を取得し得る。これらの例では、ビデオエンコーダ20及びビデオデコーダ30は、予測サンプル値がx’=axに等しくなるように予測サンプル値を決定し得、ここで、x’は予測サンプル値であり、xは予測子色成分の再構成された残差サンプル値のうちの1つであり、aはパラメータである。
[0067]例えば、動きブロックの代わりに、パラメータは、コード化されるべき現在ブロックの残差信号を使用して計算され得る。より詳細には、a及びbは、以下のような式、即ち、
a = Cov( Yres’, Cres ) / Var( Yres’ ),
b = Mean(Cres ) - a・Mean(Yres’ ),
を適用することによって見つけられ得、ここで、Cov( )は共分散関数であり、Var( )は分散関数であり、Mean( )は平均関数であり、Yresは、予測子成分のための現在ブロックの再構成された残差信号であり、Cresは、予測されるべき成分のための現在ブロック中の残差信号である。従って、この例では、ビデオコーダ(例えば、ビデオエンコーダ20又はビデオデコーダ30)は、x’=ax+bのように予測サンプル値を決定し得、ここで、x’は予測サンプル値であり、xは予測子色成分の再構成されたサンプル値のうちの1つであり、aはCov(Yres,Cres)/Var(Yres)に等しく、bはMean(Cres)−a・Mean(Yres)に等しい。ビデオエンコーダは、残差信号の対応するサンプルから予測サンプル値を減算し得る。ビデオエンコーダは、得られたサンプル値を変換し、量子化し得る。ビデオデコーダは、元の残差値を再構成するために予測サンプル値を対応する残差値に加算し得る。幾つかの例では、予測子色成分のための再構成された残差信号の代わりに、残差信号は、計算/実装複雑さを低減するために使用され得る。幾つかの例では、予測パラメータを計算するために、コード化単位又はブロックのための動きブロック中の全てのサンプル値が使用され得る。代替的に、幾つかの例では、0値をサブサンプリング又は除外することによって、CU又はブロックのための動きブロック中のサンプル値の一部が使用され得る。
[0068]更に、幾つかの例では、予測値を生成するために、予測子成分中のただ1つのサンプル値が使用され得、それは、予測されるべき画素に同一位置配置(collocated)される。代替的に、予測子成分中の複数のサンプル値が使用され得、ここで、これらのサンプルは、同一位置配置された画素とそれのネイバーうちの1つ又は複数とである。
[0069]この予測機能は、スイッチを与えることによって幾つかのエリアに適用され得る。例えば、予測が(例えば、デコーダによって)スライス全体に適用されるか、又は適用されないように、この機能をオン及びオフにすることを示すためのフラグがスライスヘッダにコード化され得る。代替的に、フラグは、シーケンス、ピクチャ、LCU、CU、PU、又はTUなど、別のレベルで信号伝達され得る。フラグがシーケンスレベルで信号伝達されるとき、フラグはSPS中で信号伝達され得る。フラグがピクチャレベルで信号伝達されるとき、フラグはPPS中で信号伝達され得る。
[0070]従って、ビットストリームを生成することの一部として、ビデオエンコーダ20は、ビットストリーム中で、予測された色成分の残差サンプル値を予測するために予測子色成分の再構成された残差サンプルを使用すべきかどうかを示すためのフラグを信号伝達し得る。幾つかの例では、ビデオエンコーダ20はシーケンスレベルで(例えば、SPS中で)フラグをコード化し得る。同様に、ビットストリームを復号することの一部として、ビデオデコーダ30は、ビットストリームから、予測された色成分の残差サンプル値を予測するために予測子色成分の再構成された残差サンプルを使用すべきかどうかを示すためのフラグを取得し得る。
[0071]図2は、本開示の技法を実装し得る例示的なビデオエンコーダ20を示すブロック図である。図2は、説明の目的で与えられており、本開示において広く例示され、説明される技法を限定するものと見なされるべきではない。説明の目的で、本開示では、HEVCコード化のコンテキストにおいてビデオエンコーダ20について説明する。但し、本開示の技法は他のコード化規格又は方法に適用可能であり得る。
[0072]図2の例では、ビデオエンコーダ20は、予測処理ユニット100と、差分ユニット102と、変換/量子化処理ユニット104と、逆量子化/逆変換ユニット108と、予測補償器110と、デブロックフィルタユニット112と、サンプル適応オフセット(SAO:sample adaptive offset)ユニット114と、参照ピクチャメモリ116と、エントロピー符号化ユニット118と、予測パラメータ計算器120と、予測子生成器122とを含む。他の例では、ビデオエンコーダ20は、より多数の、より少数の、又は異なる機能構成要素を含み得る。
[0073]ビデオエンコーダ20はビデオデータを受信し得る。ビデオエンコーダ20はビデオデータのピクチャのスライス中の各CTUを符号化し得る。CTUの各々は、等しいサイズのルーマコード化ツリーブロック(CTB:coding tree block)と、ピクチャの対応するCTBとに関連付けられ得る。CTUを符号化することの一部として、予測処理ユニット100は、CTUのCTBを徐々により小さいブロックに分割するために4分木区分を実行し得る。より小さいブロックはCUのコード化ブロックであり得る。例えば、予測処理ユニット100は、CTUに関連付けられたCTBを4つの等しいサイズのサブブロックに区分し、サブブロックのうちの1つ又は複数を4つの等しいサイズのサブサブブロックに区分し得、以下同様である。
[0074]ビデオエンコーダ20は、CUの符号化表現(即ち、コード化されたCU)を生成するためにCTUのCUを符号化し得る。CUを符号化することの一部として、予測処理ユニット100は、CUの1つ又は複数のPUの間でCUに関連付けられたコード化ブロックを区分し得る。従って、各PUは、ルーマ予測ブロックと、対応するクロマ予測ブロックとに関連付けられ得る。ビデオエンコーダ20及びビデオデコーダ30は、様々なサイズを有するPUをサポートし得る。CUのサイズはCUのルーマコード化ブロックのサイズを指し得、PUのサイズはPUのルーマ予測ブロックのサイズを指し得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ20及びビデオデコーダ30は、イントラ予測用の2N×2N又はN×NのPUサイズと、インター予測用の2N×2N、2N×N、N×2N、N×N、又は同様の対称PUサイズとをサポートし得る。ビデオエンコーダ20及びビデオデコーダ30は、インター予測用の2N×nU、2N×nD、nL×2N、及びnR×2NのPUサイズに対する非対称区分をもサポートし得る。幾つかの例では、クロマサンプルはルーマサンプルに対してサブサンプリングされる。
[0075]予測処理ユニット100は、CUの各PUに対してインター予測を実行することによってPUのための予測データを生成し得る。PUのための予測データは、PUの予測ブロックとPUのための動き情報とを含み得る。予測処理ユニット100は、PUがIスライス中にあるのか、Pスライス中にあるのか、Bスライス中にあるのかに応じて、CUのPUに対して異なる演算を実行し得る。Iスライス中では、全てのPUがイントラ予測される。従って、PUがIスライス中にある場合、予測処理ユニット100はPUに対してインター予測を実行しない。従って、Iモードで符号化されたビデオブロックの場合、予測ブロックは、同じフレーム内の前に符号化された隣接ブロックからの空間的予測を使用して形成される。
[0076]Pスライス中のPUはイントラ予測されるか、又は単方向にインター予測され得る。例えば、PUがPスライス中にある場合、予測処理ユニット100は、PUのための参照領域について参照ピクチャのリスト(例えば、「RefPicList0」)中の参照ピクチャを探索し得る。PUのための参照領域は、PUの予測ブロックに最も密接に対応するサンプルブロック(即ち、動きブロック)を含んでいる参照ピクチャ内の領域であり得る。予測処理ユニット100は、PUのための参照領域を含んでいる参照ピクチャのRefPicList0中の位置を示す参照インデックスを生成し得る。更に、予測処理ユニット100は、PUの予測ブロックと参照領域に関連付けられた参照位置との間の空間変位を示す動きベクトルを生成し得る。例えば、動きベクトルは、現在の復号ピクチャ中の座標から参照ピクチャ中の座標までのオフセットを実現する2次元ベクトルであり得る。予測処理ユニット100は、PUの動き情報として参照インデックスと動きベクトルとを出力し得る。予測処理ユニット100は、PUの動きベクトルによって示された参照位置における実際の又は補間されたサンプルに基づいて、PUの予測ブロックを生成し得る。ルーマ予測ブロック及びクロマ予測ブロックのために同じ動きベクトルが使用され得る。
[0077]Bスライス中のPUは、イントラ予測されるか、単方向にインター予測されるか、又は双方向にインター予測され得る。従って、PUがBスライス中にある場合、予測処理ユニット100はPUについての単予測又は双予測を実行し得る。PUについての単予測を実行するために、予測処理ユニット100は、PUのための参照領域についてRefPicList0の参照ピクチャ又は第2の参照ピクチャリスト(「RefPicList1」)を探索し得る。予測処理ユニット100は、PUの動き情報として、参照領域を含んでいる参照ピクチャのRefPicList0又はRefPicList1中の位置を示す参照インデックスと、PUのサンプルブロックと参照領域に関連付けられた参照位置との間の空間変位を示す動きベクトルと、参照ピクチャがRefPicList0中にあるのかRefPicList1中にあるのかを示す1つ又は複数の予測方向インジケータとを出力し得る。予測処理ユニット100は、PUの動きベクトルによって示された参照領域における実際の又は補間されたサンプルに少なくとも部分的に基づいて、PUの予測ブロックを生成し得る。
[0078]PUについての双方向インター予測を実行するために、予測処理ユニット100は、PUのための参照領域についてRefPicList0中の参照ピクチャを探索し得、またPUのための別の参照領域についてRefPicList1中の参照ピクチャを探索し得る。予測処理ユニット100は、参照領域を含んでいる参照ピクチャのRefPicList0及びRefPicList1中の位置を示す参照インデックスを生成し得る。更に、予測処理ユニット100は、参照領域に関連付けられた参照位置とPUのサンプルブロックとの間の空間変位を示す動きベクトルを生成し得る。PUの動き情報は、PUの参照インデックスと動きベクトルとを含み得る。予測処理ユニット100は、PUの動きベクトルによって示された参照領域における実際の又は補間されたサンプルに少なくとも部分的に基づいて、PUの予測ブロックを生成し得る。ルーマ予測ブロック及びクロマ予測ブロックのために同じ動きベクトルが使用され得る。
[0079]代替的に、予測処理ユニット100は、PUに対してイントラ予測を実行することによってPUのための予測データを生成し得る。PUのための予測データは、PUのための予測ブロックと様々なシンタックス要素とを含み得る。予測処理ユニット100は、Iスライス、Pスライス、及びBスライス中のPUに対してイントラ予測を実行し得る。
[0080]PUに対してイントラ予測を実行するために、予測処理ユニット100は、PUのための予測データの複数のセットを生成するために複数のイントラ予測モードを使用し得る。予測処理ユニット100は、隣接PUのサンプルに基づいてPUのための予測ブロックを生成し得る。隣接PUは、PU、CU、及びCTUについて左から右、上から下の符号化順序を仮定すると、PUの上、右上、左上、又は左にあり得る。予測処理ユニット100は、様々な数のイントラ予測モード、例えば、33個の方向性イントラ予測モードを使用し得る。幾つかの例では、イントラ予測モードの数はPUの予測ブロックのサイズに依存し得る。
[0081]予測処理ユニット100は、インター予測及びイントラ予測によって生成された予測データの中からCUのPUのための予測データを選択し得る。幾つかの例では、予測処理ユニット100は、予測データのセットのレート/歪メトリックに基づいてCUのPUのための予測データを選択する。選択された予測データの予測ブロックは、本明細書では、選択された予測ブロックと呼ばれることがある。
[0082]予測処理ユニット100は、CUのコード化ブロック(例えば、ルーマコード化ブロック、Cbコード化ブロック及びCrコード化ブロック)と、CUのPUの選択された予測ブロック(例えば、ルーマブロック、Cbブロック及びCrブロック)とに基づいて、残差信号を生成し得る。残差信号は、CUの残差ルーマブロックと、残差Cbブロックと、残差Crブロックとを含み得る。例えば、予測処理ユニット100は、残差ブロック中の各サンプルが、CUのコード化ブロック中のサンプルとCUのPUの対応する選択された予測ブロック中の対応するサンプルとの間の差に等しい値を有するように、CUの残差ブロックを生成し得る。残差信号中の残差ブロックの各サンプルについて、差分ユニット102は、サンプルと予測子生成器122によって生成されたサンプル予測子との間の差を決定し得る。
[0083]変換/量子化処理ユニット104は、CUの(即ち、それに関連付けられた)残差ブロックをCUのTUに関連付けられた変換ブロックに区分するために4分木区分を実行し得る。従って、TUは、ルーマ変換ブロックと2つのクロマ変換ブロックとを備え(例えば、それらに関連付けられ)得る。CUのTUのルーマ変換ブロックとクロマ変換ブロックとのサイズ及び位置は、CUのPUの予測ブロックのサイズ及び位置に基づくことも基づかないこともある。「残差4分木」(RQT:residual quad-tree)として知られる4分木構造は、領域の各々に関連付けられたノードを含み得る。CUのTUはRQTのリーフノードに対応し得る。
[0084]変換/量子化処理ユニット104は、TUの変換ブロックに1つ又は複数の変換を適用することによって、CUの各TUのための係数ブロックを生成し得る。変換/量子化処理ユニット104は、TUに関連付けられた変換ブロックに様々な変換を適用し得る。例えば、変換/量子化処理ユニット104は、離散コサイン変換(DCT)、方向変換、又は概念的に同様の変換を変換ブロックに適用し得る。幾つかの例では、変換/量子化処理ユニット104は変換ブロックに変換を適用しない。そのような例(例えば、変換スキップモードを使用した例)では、変換ブロックは係数ブロックとして扱われ得る。
[0085]変換/量子化処理ユニット104は係数ブロック中の変換係数を量子化し得る。量子化プロセスは、変換係数の一部又は全部に関連付けられたビット深度を低減し得る。例えば、量子化中にnビットの変換係数がmビットの変換係数に切り捨てられることがあり、ここで、nはmよりも大きい。変換/量子化処理ユニット104は、CUに関連付けられた量子化パラメータ(QP:quantization parameter)値に基づいて、CUのTUに関連付けられた係数ブロックを量子化し得る。変換/量子化処理ユニット104は、CUに関連付けられたQP値を調整することによって、CUに関連付けられた係数ブロックに適用される量子化の程度を調整し得る。量子化は情報の損失をもたらし得、従って、量子化された変換係数は元の係数よりも低い精度を有し得る。
[0086]逆量子化/逆変換処理ユニット108は、係数ブロックから残差ブロックを再構成するために、それぞれ、係数ブロックに逆量子化及び逆変換を適用し得る。即ち、逆量子化/逆変換処理ユニット108はブロックのための残差信号を再構成し得る。予測補償器110は、TUに関連付けられた再構成された変換ブロックを生成するために、再構成された残差ブロックを、予測処理ユニット100によって生成された1つ又は複数の予測ブロックからの対応するサンプルに加算し得る。幾つかの例では、予測補償器110は、予測子色成分のための再構成された残差信号に基づいて、(例えば、線形予測を使用して)予測された色成分のサンプルのための予測されたサンプル値を決定し得る。予測補償器110は、予測された色成分のための残差信号のサンプル値を再構成するために、予測されたサンプル値を、予測された色成分のための再構成された残差信号の対応するサンプルに加算し得る。このようにCUの各TUのための変換ブロックを再構成することによって、ビデオエンコーダ20はCUのコード化ブロックを再構成し得る。
[0087]デブロックフィルタユニット112は、CUのコード化ブロック中のブロック歪(blocking artifacts)を低減するために1つ又は複数のデブロッキング演算を実行し得る。SAOフィルタユニット114はCUのコード化ブロックにSAO演算を適用し得る。参照ピクチャメモリ116は、SAOフィルタユニット114が、再構成されたコード化ブロックに対して1つ又は複数のSAO演算を実行した後、再構成されたコード化ブロックを記憶し得る。予測処理ユニット100は、他のピクチャのPUに対してインター予測を実行するために、再構成されたコード化ブロックを含んでいる参照ピクチャを使用し得る。更に、予測処理ユニット100は、CUと同じピクチャ中の他のPUに対してイントラ予測を実行するために、参照ピクチャメモリ116中の再構成されたコード化ブロックを使用し得る。
[0088]エントロピー符号化ユニット118は、ビデオエンコーダ20の他の機能構成要素からデータを受信し得る。例えば、エントロピー符号化ユニット118は、量子化ユニット106から係数ブロックを受信し得、予測処理ユニット100からシンタックス要素を受信し得る。エントロピー符号化ユニット118は、エントロピー符号化されたデータを生成するために、データに対して1つ又は複数のエントロピー符号化演算を実行し得る。例えば、エントロピー符号化ユニット118は、CABAC演算、コンテキスト適応型可変長コード化(CAVLC:context-adaptive variable length coding)演算、可変対可変(V2V:variable-to-variable)長コード化演算、シンタックスベースコンテキスト適応型バイナリ算術コード化(SBAC:syntax-based context-adaptive binary arithmetic coding)演算、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コード化演算、指数ゴロム符号化演算、又は別のタイプのエントロピー符号化演算をデータに対して実行し得る。ビデオエンコーダ20は、エントロピー符号化ユニット118によって生成されたエントロピー符号化されたデータを含むビットストリームを出力し得る。例えば、ビットストリームは、CUのためのRQTを表すデータを含み得る。ビットストリームはまた、エントロピー符号化されないシンタックス要素を含み得る。
[0089]上記で説明したように、ビデオエンコーダ20は、他の色成分のサンプル値を予測するために予測子成分(例えば、ルーマ、Cb、又はCr)の残差サンプル値を使用し得る。一例として、ビデオエンコーダ20は、Cr色成分又はCb色成分のサンプル値(例えば、残差サンプル値)を予測するために、ルーマ成分の残差サンプル値を予測子成分として使用し得る。図2の例では、スイッチ101は、予測処理ユニット100によって生成された残差信号が予測子色成分のためのものであるか、又は予測された色成分のためのものであるかに基づいて、残差信号が差分ユニット102に与えられるかどうかを制御する。一例として、スイッチ101は、ルーマ成分のためのルーマ残差信号を与えるが、代わりに、別の色成分のための予測子生成器122からの予測子残差信号を与え得る。例えば、ルーマ残差は、Cr及び/又はCb色成分の残差のための残差予測子として使用され得る。図2の例に示されているように、予測補償器110は、予測子色成分と予測された色成分の両方のための再構成された残差信号を受信し得る。更に、図2の例では、スイッチ109は、予測子色成分のための再構成された残差信号を予測パラメータ計算器120に与えるが、予測された色成分のための信号伝達された再構成された残差を予測パラメータ計算器120に与えない。
[0090]予測パラメータ計算器120は、本開示の他の例において説明した予測パラメータa及びbなど、予測パラメータを決定するために、再構成された残差信号を処理し得る。予測子生成器122は、予測パラメータa及びbに基づいて予測子サンプル値(即ち、ax+b)を決定し得る。差分ユニット102は、予測子生成器122によって決定された対応する予測子サンプル値から残差信号中の残差サンプルの値を減算することによって、予測された色成分のための最終残差信号を決定し得る。
[0091]図3は、本開示で説明する技法を実装し得る例示的なビデオデコーダ30を示すブロック図である。図3は、説明の目的で与えられており、本開示おいて広く例示され、説明される技法を限定するものではない。説明の目的で、本開示では、HEVCコード化のコンテキストにおいてビデオデコーダ30について説明する。但し、本開示の技法は他のコード化規格又は方法に適用可能であり得る。
[0092]図3の例では、ビデオデコーダ30は、エントロピー復号ユニット150と、予測子生成器152と、逆量子化/逆変換処理ユニット154と、再構成ユニット156と、予測補償ユニット158と、デブロックフィルタユニット160と、SAOフィルタユニット162と、メモリ164とを含む。他の例では、ビデオデコーダ30は、より多数の、より少数の、又は異なる機能構成要素を含み得る。
[0093]エントロピー復号ユニット150は、NAL単位を受信し得、シンタックス要素を取得するためにNAL単位を構文解析(parse)し得る。エントロピー復号ユニット150は、NAL単位中のエントロピー符号化されたシンタックス要素をエントロピー復号し得る。予測子生成器152、逆量子化/逆変換処理ユニット154、再構成ユニット156、デブロックフィルタユニット160及びSAOフィルタユニット162は、ビットストリームから抽出されたシンタックス要素に基づいて、復号されたビデオデータを生成し得る。
[0094]ビットストリームのNAL単位はコード化スライスNAL単位を含み得る。ビットストリームを復号することの一部として、エントロピー復号ユニット150は、コード化スライスNAL単位からシンタックス要素を抽出し、エントロピー復号し得る。コード化スライスの各々は、スライスヘッダとスライスデータとを含み得る。スライスヘッダは、スライスに関するシンタックス要素を含んでいることがある。スライスヘッダ中のシンタックス要素は、スライスを含んでいるピクチャに関連付けられたPPSを識別するシンタックス要素を含み得る。
[0095]ビットストリームからシンタックス要素を復号することに加えて、ビデオデコーダ30はCUに対して再構成演算を実行し得る。CUに対して再構成演算を実行するために、ビデオデコーダ30はCUの各TUに対して再構成演算を実行し得る。CUの各TUに対して再構成演算を実行することによって、ビデオデコーダ30はCUの残差ブロックを再構成し得る。
[0096]CUのTUに対して再構成演算を実行することの一部として、逆量子化/逆変換処理ユニット154は、TUに関連付けられた係数ブロックを逆の量子化(inverse quantize)、即ち逆量子化(de-quantize)し得る。逆量子化/逆変換処理ユニット154は、量子化の程度を決定し、同様に、逆量子化/逆変換処理ユニット154が適用するための逆量子化の程度を決定するために、TUのCUに関連付けられたQP値を使用し得る。
[0097]図3の例では、スイッチ155は、予測子生成器152又は再構成ユニット156が、逆量子化/逆変換処理ユニット154によって生成された再構成された残差信号を受信するかどうかを制御する。特に、スイッチ155は、予測子色成分のための再構成された残差信号を予測子生成器152に与え、予測された色成分のための再構成された残差信号を再構成ユニット156に与える。予測子生成器152は、本開示中の他の場所で説明するように、予測子成分を決定し得る。即ち、予測子生成器152は、予測子色成分のサンプルに基づいて、異なる色成分の残差サンプルを決定し得る。再構成ユニット156は、予測子生成器152によって生成された予測子成分を、逆量子化/逆変換処理ユニット154によって生成された対応するサンプルに加算し得る。
[0098]逆量子化/逆変換処理ユニット154が係数ブロックを逆量子化した後、逆量子化/逆変換処理ユニット154は、TUに関連付けられた残差ブロックを生成するために係数ブロックに1つ又は複数の逆変換を適用し得る。例えば、逆量子化/逆変換処理ユニット154は、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT:Karhunen-Loeve transform)、逆回転変換、逆方向変換、又は別の逆変換を係数ブロックに適用し得る。
[0099]イントラ予測を使用してPUが符号化される場合、予測補償ユニット158は、PUのための予測ブロックを生成するためにイントラ予測を実行し得る。予測補償ユニット158は、空間的に隣接するPUの予測ブロックに基づいてPUのための予測ルーマブロック、予測Cbブロック及び予測Crブロックを生成するためにイントラ予測モードを使用し得る。予測補償ユニット158は、ビットストリームから取得された(例えば、復号された)1つ又は複数のシンタックス要素に基づいてPUのためのイントラ予測モードを決定し得る。
[0100]予測補償ユニット158は、ビットストリームから抽出されたシンタックス要素に基づいて第1の参照ピクチャリスト(RefPicList0)と第2の参照ピクチャリスト(RefPicList1)とを構成し得る。更に、PUがインター予測を使用して符号化される場合、予測補償ユニット158はPUのための動き情報を抽出し得る。予測補償ユニット158は、PUの動き情報に基づいて、PUのための参照ブロック(即ち、動きブロック)を決定し得る。予測補償ユニット158は、PUのための1つ又は複数の参照ブロックのサンプルに基づいて、PUのための予測ルーマブロック、予測Cbブロック及び予測Crブロックを生成し得る。
[0101]更に、予測補償ユニット158は、CUのコード化ブロック(例えば、ルーマコード化ブロック、Cbコード化ブロック及びCrコード化ブロック)を再構成するために、適用可能なとき、CUのTUの変換ブロック(例えば、ルーマ変換ブロック、Cb変換ブロック及びCr変換ブロック)、及びCUのPUの予測ブロック(例えば、ルーマブロック、Crブロック及びCbブロック)、即ち、イントラ予測データ又はインター予測データのいずれかを使用し得る。例えば、予測補償ユニット158は、CUのルーマコード化ブロック、Cbコード化ブロック及びCrコード化ブロックを再構成するために、ルーマ変換ブロック、Cb変換ブロック及びCr変換ブロックのサンプルを予測ルーマブロック、予測Cbブロック及び予測Crブロックの対応するサンプルに加算し得る。
[0102]デブロックフィルタユニット160は、CUのコード化ブロック(例えば、ルーマコード化ブロック、Cbコード化ブロック及びCrコード化ブロック)に関連付けられたブロック歪を低減するためにデブロッキング演算を実行し得る。SAOフィルタユニット162はCUのコード化ブロックに対してSAO演算を実行し得る。ビデオデコーダ30はCUのコード化ブロック(例えば、ルーマコード化ブロック、Cbコード化ブロック及びCrコード化ブロック)をメモリ164に記憶し得る。メモリ164は、後続の動き補償、イントラ予測、及び図1の表示装置32などの表示装置上での提示のために参照ピクチャを与え得る。例えば、ビデオデコーダ30は、メモリ162(即ち、復号ピクチャバッファ)中のルーマブロック、Cbブロック及びCrブロックに基づいて、他のCUのPUに対してイントラ予測演算又はインター予測演算を実行し得る。このようにして、ビデオデコーダ30は、ビットストリームから、係数ブロックの変換係数レベルを取得し、変換係数レベルを逆量子化し、変換ブロックを生成するために変換係数レベルに変換を適用し得る。更に、ビデオデコーダ30は、変換ブロックに少なくとも部分的に基づいて、コード化ブロックを生成し得る。ビデオデコーダ30は、表示のためにコード化ブロックを出力し得る。
[0103]図4は、本開示の1つ又は複数の技法による、ビデオエンコーダ20の例示的な動作を示すフローチャートである。図4は一例として提示されている。他の例としては、より多数の、より少数の、又は異なるアクションがあり得る。更に、図4は図2を参照しながら説明される。しかしながら、図4に示されている動作は、図2の例に示されている動作とは異なる環境において実行され得る。
[0104]図4の例では、ビデオエンコーダ20の予測処理ユニット100は、現在ブロックの各色成分(例えば、ルーマ、Cb、Crなど)のための予測ブロックを生成するためにインター予測を使用する(250)。例えば、現在ブロックはCUであり得、予測処理ユニット100は、CUの各PUのための予測ブロックを生成するためにインター予測を使用し得る。様々な例では、予測処理ユニット100は、予測ブロックを生成するために時間的インター予測及び/又はビュー間予測を使用し得る。
[0105]更に、予測処理ユニット100は現在ブロックのための残差信号を生成する(252)。現在ブロックのための残差信号は色成分の各々のための残差信号を含み得る。色成分のための残差信号は、各々が、サンプルの元の値と色成分のための予測ブロック中の対応するサンプルの値との間の差に等しい値を有する、残差サンプルを備え得る。例えば、現在ブロックはCUであり得、予測処理ユニット100は、CUのコード化ブロックの各それぞれのサンプルについて、対応する残差サンプルの値を決定し得る。この例では、対応する残差サンプルの値は、それぞれのサンプルの値−CUのPUの予測ブロック中の対応するサンプルの値に等しくなり得る。
[0106]色成分は、予測子色成分と、少なくとも1つの予測された色成分とを含み得る。幾つかの例では、ルーマ成分は予測子色成分であり、Cb及びCrは予測された色成分である。他の例では、クロマ色成分(例えば、Cb又はCr)は予測子色成分であり、ルーマ成分は予測された色成分である。ビデオエンコーダ20の変換/量子化処理ユニット104は、予測子色成分のための残差信号を変換し、量子化する(254)。例えば、現在ブロックはCUであり得、変換/量子化処理ユニット104は、予測子色成分のための残差信号を1つ又は複数の変換ブロックに区分し得る。この例では、変換ブロックの各々はCUのためのTUに対応する。更に、この例では、変換/量子化処理ユニット104は、変換係数ブロックを生成するために変換ブロックの各々に変換(例えば、離散コサイン変換)を適用し得る。更に、この例では、変換/量子化処理ユニット104は変換係数ブロック中の変換係数を量子化し得る。
[0107]更に、図4の例では、エントロピー符号化ユニット118は、予測子色成分のための、変換され、量子化された残差信号のためのシンタックス要素をエントロピー符号化する(256)。例えば、現在ブロックはCUであり得、エントロピー符号化ユニット118は、CUのTUに対応する変換係数ブロックの変換係数を表す特定のシンタックス要素にCABAC符号化を適用し得る。エントロピー符号化ユニット118は、ビットストリーム中に、予測子成分のための残差信号のためのエントロピー符号化されたシンタックス要素を含める(258)。ビットストリームは、現在ブロックを含むビデオデータの符号化表現を備え得る。
[0108]図4の例では、逆量子化/逆変換処理ユニット108は、予測子色成分のための、量子化され、変換された残差信号を逆量子化し、逆変換する(260)。このようにして、逆量子化/逆変換処理ユニット108は予測子色成分のための再構成された残差信号を生成し得る。例えば、現在ブロックはCUであり得、逆量子化/逆変換処理ユニット108は、CUのTUに対応する変換係数ブロックの変換係数を逆量子化し得る。更に、この例では、逆量子化/逆変換処理ユニット108は、逆量子化された変換係数ブロックに逆変換(例えば、逆離散コサイン変換)を適用し、それによってCUのTUのための変換ブロックを再構成し得る。この例では、予測子色成分のための再構成された残差信号は、再構成された変換ブロックを備え得る。
[0109]更に、図4の例では、予測パラメータ計算器120は1つ又は複数の予測パラメータを計算する(262)。幾つかの例では、予測パラメータ計算器120は、予測子成分のための再構成された残差信号に基づいて1つ又は複数の予測パラメータを計算し得る。
[0110]幾つかの例では、予測パラメータ計算器120は予測パラメータaを計算する。幾つかのそのような例では、予測パラメータaはCov(Yref,Cref)/Var(Yref)に等しく、ここで、Cov( )は共分散関数であり、Var( )は分散関数であり、Yref及びCrefは、それぞれ予測子成分のための動きブロック中の基準信号及び予測されるべき成分のための動きブロック中の基準信号である。他の例では、予測パラメータaはCov(Yres’,Cres)/Var(Yres’)に等しく、ここで、Cov( )は共分散関数であり、Var( )は分散関数であり、Yres’は、予測子成分のための現在ブロックの再構成された残差信号であり、Cresは、予測されるべき成分のための現在ブロック中の残差信号である。
[0111]更に、幾つかの例では、ビデオコーダは、x’=ax+bのように予測子サンプル値を決定し得る。幾つかのそのような例では、予測パラメータ計算器120は予測パラメータbを計算する。幾つかのそのような例では、予測パラメータ計算器120は、予測パラメータbがMean(Cref)−a Mean(Yref)に等しくなるように予測パラメータbを計算し得、ここで、Mean( )は平均関数であり、Yref及びCrefは、それぞれ予測子成分のための動きブロック中の基準信号及び予測されるべき成分のための動きブロック中の基準信号である。他の例では、予測パラメータ計算器120は、予測パラメータbがMean(Cres)−a Mean(Yres’)に等しくなるように予測パラメータbを計算し得、ここで、Mean( )は平均関数であり、Yres’は、予測子成分のための現在ブロックの再構成された残差信号であり、Cresは、予測されるべき成分のための現在ブロック中の残差信号である。
[0112]図4の例では、ビデオエンコーダ20は、現在ブロックの残差信号の各々について(例えば、ルーマ残差信号、Cb残差信号、及びCr残差信号について)アクション(268)〜(276)を実行し得る。従って、説明を簡単にするために、本開示では、ビデオエンコーダ20がアクション(268)〜(276)を現在実行している残差信号を現在の予測された色成分のための残差信号と呼ぶことがある。従って、図4の例では、ビデオエンコーダ20の予測子生成器122は、現在の予測された色成分のための残差信号の各残差サンプルのための予測子サンプルを決定する(268)。幾つかの例では、予測子生成器122は、x’がaxに等しくなるように予測子サンプルx’を決定し、ここで、aは、予測パラメータ計算器120によって計算された予測パラメータであり、xは、予測子色成分のための再構成された残差信号中の再構成された残差サンプルである。更に、幾つかの例では、予測子生成器122は、x’がax+bに等しくなるように予測子サンプルx’を決定し、ここで、a及びbは、予測パラメータ計算器120によって計算された予測パラメータであり、xは、予測子色成分のための再構成された残差信号中の再構成された残差サンプルである。幾つかの例では、xはx’と同一位置配置される。
[0113]更に、図4の例では、ビデオエンコーダ20の差分ユニット102は、現在の予測された色成分のための無相関化された残差サンプルの値を決定する(270)。差分ユニット102は、予測子生成器によって生成された予測子サンプルに少なくとも部分的に基づいて、現在の予測された色成分のための無相関化された残差サンプルの値を決定し得る。幾つかの例では、差分ユニット102は、無相関化された残差サンプルの値が、現在の予測された色成分のための残差信号中の残差サンプルの値と予測子生成器122によって生成された対応する予測子サンプルの値との間の差に等しくなるように、無相関化された残差サンプルの値を決定し得る。このようにして、差分ユニット102は、現在の予測された色成分のための無相関化された残差信号を生成し得る。現在の予測された色成分のための無相関化された残差信号は、差分ユニット102によって決定された無相関化されたサンプルを備え得る。
[0114]ビデオエンコーダ20の変換/量子化処理ユニット104は、現在の予測された色成分のための無相関化された残差信号を変換し、量子化する(272)。例えば、現在ブロックはCUであり得、変換/量子化処理ユニット104は、現在の予測された色成分のための無相関化された残差信号を1つ又は複数の変換ブロックに区分し得る。この例では、変換ブロックの各々はCUのためのTUに対応する。更に、この例では、変換/量子化処理ユニット104は、変換係数ブロックを生成するために変換ブロックの各々に変換(例えば、離散コサイン変換)を適用し得る。更に、この例では、変換/量子化処理ユニット104は変換係数ブロック中の変換係数を量子化し得る。
[0115]更に、図4の例では、エントロピー符号化ユニット118は、現在の予測された色成分のための、変換され、量子化された無相関化された残差信号のためのシンタックス要素をエントロピー符号化する(274)。例えば、現在ブロックはCUであり得、エントロピー符号化ユニット118は、CUのTUに対応する変換係数ブロックの変換係数を表す特定のシンタックス要素にCABAC符号化を適用し得る。エントロピー符号化ユニット118は、ビットストリーム中に、現在の予測された成分のための無相関化された残差信号のためのエントロピー符号化されたシンタックス要素を含める(276)。
[0116]図5は、本開示の1つ又は複数の技法による、ビデオデコーダ30の例示的な動作を示すフローチャートである。図5は一例として提示されている。他の例としては、より多数の、より少数の、又は異なるアクションがあり得る。更に、図5は図3を参照しながら説明される。しかしながら、図5に示されている動作は、図3の例に示されている動作とは異なる環境において実行され得る。
[0117]図5の例では、ビデオデコーダ30のエントロピー復号ユニット150は、現在ブロックのための残差信号のためのシンタックス要素をエントロピー復号する(300)。幾つかの例では、現在ブロックは、CU、PU、マクロブロック、マクロブロック区分、又は別のタイプのビデオブロックであり得る。現在ブロックのための残差信号は、予測子色成分のための残差信号と、1つ又は複数の予測された色成分のための1つ又は複数の無相関化された残差信号とを含み得る。現在ブロックのための残差信号は、現在ブロックの残差サンプルを表すデータを備え得る。例えば、幾つかの例では、現在ブロックの残差サンプルを表すデータは変換係数を備え得る。
[0118]更に、図5の例では、ビデオデコーダ30の逆量子化/逆変換処理ユニット154は、現在ブロックのための残差信号を逆量子化し、逆変換する(302)。このようにして、逆量子化/逆変換処理ユニット108は現在ブロックのための再構成された残差信号を生成し得る。例えば、現在ブロックはCUであり得、逆量子化/逆変換処理ユニット108は、CUのTUに対応する変換係数ブロックの変換係数を逆量子化し得る。更に、この例では、逆量子化/逆変換処理ユニット108は、逆量子化された変換係数ブロックに逆変換(例えば、逆離散コサイン変換)を適用し、それによってCUのTUのための変換ブロックを再構成し得る。この例では、色成分のための再構成された残差信号は、再構成された変換ブロックを備え得る。
[0119]ビデオデコーダ30は、予測された色成分の各々のための再構成された残差信号に関してアクション(304)及び(306)を実行し得る。従って、説明を簡単にするために、本開示では、ビデオデコーダ30がアクション(304)及び(306)を現在実行している再構成された残差信号を現在の予測された色成分のための再構成された残差信号と呼ぶことがある。従って、図5の例では、ビデオデコーダ30の予測子生成器152は、現在の予測された色成分のための再構成された残差信号の各残差サンプルのための予測子サンプルを決定する(304)。幾つかの例では、予測子生成器152は、x’がaxに等しくなるように予測子サンプルx’を決定し、ここで、aは予測パラメータであり、xは、予測子色成分のための再構成された残差信号中の再構成された残差サンプルである。更に、幾つかの例では、予測子生成器152は、x’がax+bに等しくなるように予測子サンプルx’を決定し、ここで、a及びbは予測パラメータであり、xは、予測子色成分のための再構成された残差信号中の再構成された残差サンプルである。幾つかの例では、xはx’と同一位置配置される。
[0120]更に、図5の例では、再構成ユニット156は、現在の予測された色成分のための残差サンプルの値を決定する(306)。再構成ユニット156は、予測子生成器152によって生成された予測子サンプルに少なくとも部分的に基づいて、現在の予測された色成分のための残差サンプルの値を決定し得る。幾つかの例では、再構成ユニット156は、残差サンプルの値が、現在の予測された色成分のための再構成された残差信号中の残差サンプルの値と予測子生成器152によって生成された対応する予測子サンプルの値との和に等しくなるように、残差サンプルの値を決定し得る。このようにして、差分ユニット102は、現在の予測された色成分のための再構成された残差信号を生成し得る。現在の予測された色成分のための再構成された残差信号は、再構成ユニット156によって決定されたサンプルを備え得る。
[0121]ビデオデコーダ30は、予測子色成分と予測された色成分とを含む、色成分の各々に関して図5のアクション(308)〜(318)を実行し得る。従って、説明を簡単にするために、本開示では、ビデオデコーダ30がアクション(308)〜(318)を実行している色成分を現在の色成分と呼ぶことがある。
[0122]図5の例では、ビデオデコーダ30の予測補償ユニット158は、現在の色成分のための1つ又は複数の予測ブロックを生成するためにインター予測を使用する(308)。例えば、現在ブロックがCUである場合、予測補償ユニット158は、CUのPUのための予測ブロックを生成するためにインター予測を使用し得る。この例では、予測ブロックは現在の色成分のサンプルを備え得る。幾つかの例では、予測補償ユニット158は、予測ブロックを生成するために時間的インター予測又はビュー間予測を使用し得る。図3の例に示したように、予測補償ユニット158は、予測ブロックを生成するためにインター予測を使用するとき、メモリ164に記憶されたビデオデータを使用し得る。
[0123]更に、図5の例では、予測補償ユニット158は、現在ブロックのための現在の色成分のサンプル値を再構成する(310)。例えば、予測補償ユニット158は、現在ブロックのサンプル値が、(例えば、イントラ予測又はインター予測を使用して生成された)予測ブロックのうちの1つ中の対応するサンプルと現在の色成分のための再構成された残差信号(例えば、予測された色成分のための再構成された残差信号)中の対応するサンプルとの和に等しくなるように、現在ブロックのサンプル値を再構成し得る。現在ブロックがCUである幾つかの例では、予測補償ユニット158は、CUのPUのための予測ブロック中の対応するサンプルとCUのTUの変換ブロック中の対応するサンプルとを加算することによって現在の色成分のためのコード化ブロック中のサンプルの値を決定し得る。
[0124]図5の例では、ビデオデコーダ30のデブロックフィルタユニット160は、現在ブロックのための現在の色成分の再構成されたサンプル値にデブロックフィルタを適用する(312)。更に、ビデオデコーダ30のSAOフィルタユニット162は、現在ブロックのための現在の色成分の再構成されたサンプル値にSAOフィルタを適用する(314)。本開示では、得られたデータを現在の色成分のための再構成された信号と呼ぶことがある。ビデオデコーダ30のメモリ164は、現在の色成分のための再構成された信号を記憶する(316)。更に、ビデオデコーダ30は、現在の色成分のための再構成された信号を出力する(318)。
[0125]図6は、本開示の1つ又は複数の技法による、ビデオエンコーダの例示的な動作を示すフローチャートである。図6は一例として提示されている。他の例としては、より多数の、より少数の、又は異なるアクションがあり得る。
[0126]図6の例では、ビデオエンコーダ20は、ビデオデータの符号化表現を備えるビットストリームを生成する(400)。ビットストリームを生成することの一部として、ビデオエンコーダ20は、動き予測の使用によって、第1の色成分(例えば、予測子色成分)のための残差信号と第2の色成分(例えば、予測された色成分)のための残差信号とを生成する(402)。例えば、ビデオエンコーダ20が、第1の色成分及び第2の色成分のための残差信号を生成するために動き予測を使用するとき、ビデオエンコーダ20は、単方向インター予測又は双方向インター予測を使用して第1の色成分の予測ブロックと第2の色成分の予測ブロックとを決定し得る。単方向インター予測及び双方向インター予測の例について、本開示中の他の場所で説明した。この例では、ビデオエンコーダ20は、第1の色成分のためのブロックのサンプルと第1の色成分のための予測ブロックのサンプルとの間の差として第1の色成分のための残差信号を決定し得る。本開示中の他の場所で説明したように、ビデオエンコーダ20は、(例えば、線形補間を使用して)第2の色成分の予測されたサンプル値を決定するために第1の色成分の再構成された残差サンプルを使用し得る。更に、ビデオエンコーダ20は、第2の色成分のためのブロックのサンプルと第2の色成分のための予測ブロックのサンプルとの間の差として第2の色成分のための残差信号を決定し得る。この例では、ビデオエンコーダ20は、第2の色成分の対応する予測されたサンプル値から第2の色成分のための残差信号のサンプルを減算し得る。
[0127] 更に、ビデオエンコーダ20は第1の色成分の残差信号を再構成する(404)。第1の色成分の再構成された残差信号は第1の色成分の再構成された残差サンプル値を含み得る。ビデオエンコーダ20は、第2の色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用する(406)。
[0128]図7は、本開示の1つ又は複数の技法による、ビデオデコーダの例示的な動作を示すフローチャートである。図7は一例として提示されている。他の例としては、より多数の、より少数の、又は異なるアクションがあり得る。
[0129]図7の例では、ビデオデコーダ30は、ビデオデータの符号化表現を含むビットストリームを復号する(450)。ビットストリームを復号することの一部として、ビデオデコーダ30は第1の色成分(例えば、予測子色成分)の残差信号を再構成する(452)。残差信号を再構成することは、逆量子化し、第1の色成分のための係数値に逆変換を適用して、残差信号を決定することを伴い得る。第1の色成分の再構成された残差信号は第1の色成分の再構成された残差サンプル値を含み得る。第1の色成分の残差信号は動き予測を使用して生成され得る。例えば、第1の色成分のための残差信号は、動き予測を使用してビデオエンコーダによって生成され、ビットストリーム中で信号伝達され得る。動き予測を使用して第1の色成分のための残差信号を生成するために、ビデオエンコーダは、単方向インター予測又は双方向インター予測を使用して第1の色成分の予測ブロックを決定し得る。単方向インター予測及び双方向インター予測の例について、本開示中の他の場所で説明した。この例では、ビデオエンコーダは、第1の色成分のためのブロックのサンプルと第1の色成分のための予測ブロックのサンプルとの間の差として第1の色成分のための残差信号を決定し得る。ビデオエンコーダは、第1の色成分のための残差信号を変換し、量子化し、ビットストリーム中で、得られたデータを信号伝達し得る。
[0130]図7の例では、ビデオデコーダ30は、第2の異なる色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用する(454)。例えば、ビデオデコーダ30が、第2の色成分の残差サンプル値を予測するために第1の色成分の再構成された残差サンプル値を使用するとき、ビデオデコーダ30は、(例えば、線形予測を使用して)第2の色成分の予測されたサンプル値を決定するために第1の色成分の再構成された残差サンプルを使用し得る。この例では、ビデオデコーダ30は、第2の色成分のための残差信号を再構成するために第2の色成分の予測されたサンプル値を第2の色成分の信号伝達された値に加算し得る。
[0131]以下の段落は本開示の追加の例を提供する。
[0132]例1.ビットストリームから、予測単位(PU)のための第1の残差ブロックとPUのための第2の残差ブロックとを表すシンタックス要素を取得することと、第1の残差ブロックが第1の色成分の残差サンプルを備え、第2の残差ブロックが第2の色成分の残差サンプルを備え、第2の色成分が第1の色成分とは異なる、PUのための動きベクトルに少なくとも部分的に基づいて、PUのための第1の動きブロックとPUのための第2の動きブロックとを決定することと、PUのための第1の動きブロックが第1の色成分のサンプルを備え、PUのための第2の動きブロックが第2の色成分のサンプルを備え、PUのための第1の残差ブロックとPUのための第1の動きブロックとに少なくとも部分的に基づいて、PUのための第1の再構成されたブロックを生成することと、第1の再構成されたブロックが第1の色成分のサンプルを備える、PUのための第2の残差ブロックと、PUのための第2の動きブロックと、PUのための第1の再構成されたブロックとに少なくとも部分的に基づいて、PUのための第2の再構成されたブロックを決定することと、PUのための第2の再構成されたブロックが第2の色成分のサンプルを備える、PUのための第1及び第2の再構成されたブロックに基づいてビデオを出力することとを備える、ビデオデータを復号する方法。
[0133]例2.PUのための第2の再構成されたブロックを決定することが、第2の残差ブロック中のサンプルと第2の動きブロック中のサンプルとに少なくとも部分的に基づいて、初期サンプルを決定することと、y’=y+x’のようにPUのための第2の再構成されたブロック中の最終サンプルを決定することとを備え、ここで、y’が最終サンプルであり、yが初期サンプルであり、x’=axであり、ここで、xが第1の残差ブロック中の残差サンプルであり、aがCov(Yref,Cref)/Var(Yref)に等しく、ここで、Cov( )が共分散であり、Var( )が分散であり、Yrefが第1の動きブロック中のサンプルであり、Crefが第2の動きブロック中のサンプルである、例1に記載の方法。
[0134]例3.PUのための第2の再構成されたブロックを決定することが、第2の残差ブロック中のサンプルと第2の動きブロック中のサンプルとに少なくとも部分的に基づいて、初期サンプルを決定することと、y’=y+x’のようにPUのための第2の再構成されたブロック中の最終サンプルを決定することとを備え、ここで、y’が最終サンプルであり、yが初期サンプルであり、x’=ax+bであり、ここで、xが第1の残差ブロック中の残差サンプルであり、aがCov(Yres,Cres)/Var(Yres)に等しく、bがMean(Cres)−a・Mean(Yres)に等しく、ここで、Cov( )が共分散であり、Var( )が分散であり、Yresが第1の残差サンプルであり、Cresが第2の残差サンプルである、例1に記載の方法。
[0135]例4.ビットストリームから、値a及びbを取得することを更に備える、例2又は例3に記載の方法。
[0136]例5.第1の色成分と第2の色成分とが、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つである、例1に記載の方法。
[0137]例6.例1〜例5のうちのいずれかを備える、ビデオデータを復号する方法。
[0138]例7.例1〜例5のうちのいずれかの方法を実行するように構成された1つ又は複数のプロセッサを備えるビデオ復号機器。
[0139]例8.例1〜例5のうちのいずれかの方法を実行するための手段を備えるビデオ復号機器。
[0140]例9.実行されたとき、例1〜例5のうちのいずれかの方法を実行するようにビデオデコーダを構成する命令を記憶したコンピュータ可読記憶媒体。
[0141]例10.PUのための動きベクトルを決定することと、PUのための動きベクトルに少なくとも部分的に基づいて、PUのための第1の動きブロックとPUのための第2の動きブロックとを決定することと、PUのための第1の動きブロックが第1の色成分のサンプルを備え、PUのための第2の動きブロックが第2の色成分のサンプルを備え、第2の色成分が第1の色成分とは異なる、PUのための第1の元のブロックとPUのための第1の動きブロックとに少なくとも部分的に基づいて、PUのための第1の残差ブロックを生成することと、PUのための第1の元のブロック及びPUのための第1の残差ブロックが第1の色成分のサンプルを備える、PUのための第2の元のブロックと、PUのための第2の動きブロックと、PUのための第1の残差ブロックとに少なくとも部分的に基づいて、PUのための第2の残差ブロックを決定することと、PUのための第2の元のブロック及びPUのための第2の残差ブロックが第2の色成分のサンプルを備える、PUのための第1の残差ブロックの符号化表現とPUのための第2の残差ブロックの符号化表現とを含むビットストリームを出力することとを備える、ビデオデータを符号化する方法。
[0142]例11.PUのための第2の残差ブロックを決定することが、第2の元のブロック中のサンプルと第2の動きブロック中の対応するサンプルとに少なくとも部分的に基づいて、初期残差サンプルを決定することと、y’=y−x’のようにPUのための第2の残差ブロック中の最終残差サンプルを決定することとを備え、ここで、y’が最終残差サンプルであり、yが初期残差サンプルであり、x’=axであり、ここで、xが第1の残差ブロック中のサンプルであり、aがCov(Yref,Cref)/Var(Yref)に等しく、ここにおいて、Cov( )が共分散であり、Var( )が分散であり、Yrefが第1の動きブロック中のサンプルであり、Crefが第2の動きブロック中のサンプルである、例10に記載の方法。
[0143]例12.PUのための第2の残差ブロックを決定することが、第2の残差ブロック中のサンプルと第2の動きブロック中のサンプルとに少なくとも部分的に基づいて、初期残差サンプルを決定することと、y’=y−x’のようにPUのための第2の残差ブロック中の最終残差サンプルを決定することとを備え、ここで、y’が最終残差サンプルであり、yが初期残差サンプルであり、x’=ax+bであり、ここで、xが第1の残差ブロック中の残差サンプルであり、aがCov(Yres,Cres)/Var(Yres)に等しく、bがMean(Cres)−a・Mean(Yres)に等しく、ここで、Cov( )が共分散であり、Var( )が分散であり、Yresが第1の残差サンプル中のサンプルであり、Crefが第2の残差サンプルである、例10に記載の方法。
[0144]例13.ビットストリームが値a及びbの符号化表現を備える、例11又は例12に記載の方法。
[0145]例14.第1の色成分と第2の色成分とが、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つである、例10に記載の方法。
[0146]例15.例10〜例14のうちのいずれかを備える、ビデオデータを復号する方法。
[0147]例16.例10〜例14のうちのいずれかの方法を実行するように構成された1つ又は複数のプロセッサを備えるビデオ復号機器。
[0148]例17.例10〜例14のうちのいずれかの方法を実行するための手段を備えるビデオ復号機器。
[0149]例18.実行されたとき、例10〜例14のうちのいずれかの方法を実行するようにビデオデコーダを構成する命令を記憶したコンピュータ可読記憶媒体。
[0150]1つ又は複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つ又は複数の命令又はコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得、又は、例えば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号又は搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コード及び/又はデータ構造を取り出すために1つ又は複数のコンピュータあるいは1つ又は複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0151]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROM又は他の光ディスクストレージ、磁気ディスクストレージ、又は他の磁気記憶装置、フラッシュメモリ、あるいは命令又はデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、無線、及びマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、又は他のリモート発信源から送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、又は赤外線、無線、及びマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。但し、コンピュータ可読記憶媒体及びデータ記憶媒体は、接続、搬送波、信号、又は他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)及びディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、及びBlu−rayディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
[0152]命令は、1つ又は複数のデジタル信号プロセッサ(DSP)などの1つ又は複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路又はディスクリート論理回路によって実行され得る。従って、本明細書で使用する「プロセッサ」という用語は、上記の構造、又は本明細書で説明した技法の実装に好適な他の構造のいずれかを指すことがある。更に、幾つかの態様では、本明細書で説明した機能は、符号化及び復号のために構成された専用のハードウェア及び/又はソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つ又は複数の回路又は論理要素中に十分に実装され得る。
[0153]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)又はICのセット(例えば、チップセット)を含む、多種多様な機器又は装置において実装され得る。本開示では、開示する技法を実行するように構成された機器の機能的態様を強調するために様々な構成要素、モジュール、又はユニットについて説明したが、それらの構成要素、モジュール、又はユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェア及び/又はファームウェアとともに、上記で説明した1つ又は複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、又は相互動作ハードウェアユニットの集合によって与えられ得る。
[0154]様々な例について説明した。これら及び他の例は以下の特許請求の範囲内に入る。

Claims (37)

  1. ビデオデータを復号する方法であって、前記方法は、
    前記ビデオデータの符号化表現を含むビットストリームを復号すること
    を備え、ここにおいて、前記ビットストリームを復号することは、
    第1の色成分の残差信号を再構成することと、ここにおいて、前記第1の色成分の前記残差信号が動き予測を使用して生成され、前記第1の色成分の前記再構成された残差信号が前記第1の色成分の再構成された残差サンプル値を含む、
    第2の異なる色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用することと
    を備える、方法。
  2. 前記第1の色成分と前記第2の色成分とが、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つである、請求項1に記載の方法。
  3. 前記第2の色成分の前記予測された残差サンプル値を、逆量子化し、係数ブロックに逆変換を適用することによって生成された対応するサンプルに加算することを更に備え、ここにおいて、前記ビットストリームが、前記係数ブロックの量子化された変換係数を示すエントロピー符号化されたシンタックス要素を含む、請求項1に記載の方法。
  4. 前記第1の色成分の前記残差信号を再構成することが、前記第1の色成分の前記残差信号を再構成するために逆量子化及び逆変換を使用することを備える、請求項1に記載の方法。
  5. 前記第2の色成分の前記残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用することが、前記第1の色成分の再構成された残差サンプル値からの線形予測を使用して前記第2の色成分の予測サンプル値を生成することを備える、請求項1に記載の方法。
  6. 前記線形予測を使用して前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=axに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが予測子色成分の前記再構成された残差サンプル値のうちの1つであり、aがCov(Yref,Cref)/Var(Yref)に等しく、Cov( )が共分散関数であり、Var( )が分散関数であり、Yrefが前記第1の色成分のための動きブロック中の基準信号であり、Crefが前記第2の色成分のための動きブロック中の基準信号である、請求項5に記載の方法。
  7. 前記方法が、前記ビットストリームから、パラメータの値を取得することを更に備え、
    前記線形予測を使用して前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=axに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが前記予測子色成分の前記再構成された残差サンプル値のうちの1つであり、aが前記パラメータである、請求項5に記載の方法。
  8. 線形予測を使用して前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=ax+bに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが前記第1の色成分の前記再構成された残差サンプル値のうちの1つであり、aがCov(Yref,Cref)/Var(Yref)に等しく、bがMean(Cref)−a・Mean(Yref)に等しく、ここで、Cov( )が共分散関数であり、Var( )が分散関数であり、Mean( )が平均関数であり、Yrefが前記第1の色成分のための動きブロック中の基準信号であり、Crefが前記第2の色成分のための動きブロック中の基準信号である、請求項5に記載の方法。
  9. 前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=ax+bに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが前記第1の色成分の前記再構成されたサンプル値のうちの1つであり、aがCov(Yres,Cres)/Var(Yres)に等しく、bがMean(Cres)−a・Mean(Yres)に等しく、ここで、Cov( )が共分散関数であり、Var( )が分散関数であり、Mean( )が平均関数であり、Yresが、前記第1の色成分の現在ブロックの再構成された残差信号であり、Cresが、前記第2の色成分のための前記現在ブロックの残差信号である、請求項1に記載の方法。
  10. 前記ビットストリームを復号することが、前記ビットストリームから、前記第2の色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプルを使用すべきかどうかを示すためのフラグを取得することを更に備える、請求項1に記載の方法。
  11. 前記フラグがシーケンスレベルでコード化される、請求項10に記載の方法。
  12. ビデオデータを符号化する方法であって、前記方法は、
    前記ビデオデータの符号化表現を備えるビットストリームを生成すること
    を備え、ここにおいて、前記ビットストリームを生成することは、
    動き予測の使用によって、第1の色成分のための残差信号を生成することと、
    前記第1の色成分の前記残差信号を再構成することと、前記第1の色成分の前記再構成された残差信号が前記第1の色成分の再構成された残差サンプル値を含む、
    第2の色成分のサンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用することと
    を備える、方法。
  13. 前記第1の色成分と前記第2の色成分とが、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つである、請求項12に記載の方法。
  14. 前記ビットストリームを生成することは、
    動き予測の使用によって、前記第2の色成分のための初期残差信号を生成することと、
    前記第2の色成分のための最終残差信号中の各サンプル値が、前記第2の色成分の前記予測されたサンプル値のうちの1つと前記第2の色成分の前記初期残差信号の対応するサンプルとの間の差に等しくなるように、前記第2の色成分のための前記最終残差信号を決定することと、
    前記第2の色成分のための前記最終残差信号を変換することによって係数ブロックを生成することと、
    前記ビットストリーム中に、前記係数ブロックの量子化された変換係数を示すエントロピー符号化されたデータを含めることと
    を備える、請求項12に記載の方法。
  15. 前記第1の色成分の前記残差信号を再構成することが、前記第1の色成分の前記残差信号を再構成するために逆量子化及び逆変換を使用することを備える、請求項12に記載の方法。
  16. 前記第2の色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用することが、前記第1の色成分の再構成された残差サンプル値からの線形予測を使用して前記第2の色成分の予測サンプル値を生成することを備える、請求項12に記載の方法。
  17. 前記線形予測を使用して前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=axに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが予測子色成分の前記再構成された残差サンプル値のうちの1つであり、aがCov(Yref,Cref)/Var(Yref)に等しく、ここで、Cov( )が共分散関数であり、Var( )が分散関数であり、Yrefが前記第1の色成分のための動きブロック中の基準信号であり、Crefが前記第2の色成分のための動きブロック中の基準信号である、請求項16に記載の方法。
  18. 前記方法が、前記ビットストリーム中に、パラメータの値を示すデータを含めることを更に備え、
    前記線形予測を使用して前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=axに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが前記予測子色成分の前記再構成された残差サンプル値のうちの1つであり、aが前記パラメータである、請求項16に記載の方法。
  19. 前記線形予測を使用して前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=ax+bに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが前記第1の色成分の前記再構成された残差サンプル値のうちの1つであり、aがCov(Yref,Cref)/Var(Yref)に等しく、bがMean(Cref)−a・Mean(Yref)に等しく、ここで、Cov( )が共分散関数であり、Var( )が分散関数であり、Mean( )が平均関数であり、Yrefが前記第1の色成分のための動きブロック中の基準信号であり、Crefが前記第2の色成分のための動きブロック中の基準信号である、請求項16に記載の方法。
  20. 前記第2の色成分の前記予測サンプル値を生成することは、前記予測サンプル値がx’=ax+bに等しくなるように前記予測サンプル値を決定することを備え、ここで、x’が前記予測サンプル値であり、xが前記第1の色成分の前記再構成されたサンプル値のうちの1つであり、aがCov(Yres,Cres)/Var(Yres)に等しく、bがMean(Cres)−a・Mean(Yres)に等しく、ここで、Cov( )が共分散関数であり、Var( )が分散関数であり、Mean( )が平均関数であり、Yresが、前記第1の色成分の現在ブロックの再構成された残差信号であり、Cresが、前記第2の色成分のための前記現在ブロックの残差信号である、請求項16に記載の方法。
  21. 前記ビットストリームを生成することが、前記ビットストリーム中で、前記第2の色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプルを使用すべきかどうかを示すためのフラグを信号伝達することを更に備える、請求項12に記載の方法。
  22. 前記フラグを信号伝達することが、シーケンスレベルで前記フラグをコード化することを備える、請求項21に記載の方法。
  23. ビデオデータを記憶するように構成されたデータ記憶媒体と、
    前記ビデオデータの符号化表現を備えるビットストリームを生成又は復号するように構成された1つ以上のプロセッサとを備え、ここにおいて、前記ビットストリームを生成又は復号することの一部として、前記1つ以上のプロセッサは、
    第1の色成分の残差信号を再構成することと、ここにおいて、前記第1の色成分の前記残差信号が動き予測を使用して生成され、前記第1の色成分の前記再構成された残差信号が前記第1の色成分の再構成された残差サンプル値を含む、
    第2の異なる色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用することと
    を行う、
    ビデオコード化機器。
  24. 前記第1の色成分と前記第2の色成分とが、ルーマ成分、Cbクロマ成分、及びCrクロマ成分のうちの異なる1つである、請求項23に記載のビデオコード化機器。
  25. 前記1つ以上のプロセッサは、前記第2の色成分の前記予測された残差サンプル値を、逆量子化し、係数ブロックに逆変換を適用することによって生成された対応するサンプルに加算するように構成され、ここにおいて、前記ビットストリームが、前記係数ブロックの量子化された変換係数を示すエントロピー符号化されたシンタックス要素を含む、請求項23に記載のビデオコード化機器。
  26. 前記1つ以上のプロセッサが、前記第1の色成分の前記残差信号を再構成するために逆量子化及び逆変換を使用するように構成された、請求項23に記載のビデオコード化機器。
  27. 前記1つ以上のプロセッサが、前記第1の色成分の再構成された残差サンプル値からの線形予測を使用して前記第2の色成分の予測サンプル値を生成するように構成された、請求項23に記載のビデオコード化機器。
  28. 前記1つ以上のプロセッサは、前記予測サンプル値がx’=axに等しくなるように前記予測サンプル値を決定するように構成され、ここで、x’が前記予測サンプル値であり、xが予測子色成分の前記再構成された残差サンプル値のうちの1つであり、aがCov(Yref,Cref)/Var(Yref)に等しく、Cov( )が共分散関数であり、Var( )が分散関数であり、Yrefが前記第1の色成分のための動きブロック中の基準信号であり、Crefが前記第2の色成分のための動きブロック中の基準信号である、請求項27に記載のビデオコード化機器。
  29. 前記1つ以上のプロセッサは、前記予測サンプル値がx’=axに等しくなるように前記予測サンプル値を決定するように構成され、ここで、x’が前記予測サンプル値であり、xが前記予測子色成分の前記再構成された残差サンプル値のうちの1つであり、aがパラメータであり、ここにおいて、前記ビットストリームが、前記パラメータの値を示すデータを含む、請求項27に記載のビデオコード化機器。
  30. 前記1つ以上のプロセッサが、前記ビットストリーム中に、aの前記値を示すデータを含めるように構成された、請求項28に記載のビデオコード化機器。
  31. 前記1つ以上のプロセッサは、前記予測サンプル値がx’=ax+bに等しくなるように前記予測サンプル値を決定するように構成され、ここで、x’が前記予測サンプル値であり、xが前記第1の色成分の前記再構成された残差サンプル値のうちの1つであり、aがCov(Yref,Cref)/Var(Yref)に等しく、bがMean(Cref)−a・Mean(Yref)に等しく、ここで、Cov( )が共分散関数であり、Var( )が分散関数であり、Mean( )が平均関数であり、Yrefが前記第1の色成分のための動きブロック中の基準信号であり、Crefが前記第2の色成分のための動きブロック中の基準信号である、請求項27に記載のビデオコード化機器。
  32. 前記1つ以上のプロセッサは、前記予測サンプル値がx’=ax+bに等しくなるように前記予測サンプル値を決定するように構成され、ここで、x’が前記予測サンプル値であり、xが前記第1の色成分の前記再構成されたサンプル値のうちの1つであり、aがCov(Yres,Cres)/Var(Yres)に等しく、bがMean(Cres)−a・Mean(Yres)に等しく、Cov( )が共分散関数であり、Var( )が分散関数であり、Mean( )が平均関数であり、Yresが、前記第1の色成分の現在ブロックの再構成された残差信号であり、Cresが、前記第2の色成分のための前記現在ブロックの残差信号である、請求項27に記載のビデオコード化機器。
  33. 前記1つ以上のプロセッサが、前記ビットストリームから、前記第2の色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプルを使用すべきかどうかを示すためのフラグを取得するように構成された、請求項23に記載のビデオコード化機器。
  34. 前記フラグがシーケンスレベルでコード化される、請求項33に記載のビデオコード化機器。
  35. 前記1つ以上のプロセッサが、前記ビットストリーム中で、前記第2の色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプルを使用すべきかどうかを示すためのフラグを信号伝達するように構成された、請求項23に記載のビデオコード化機器。
  36. 第1の色成分の残差信号を再構成するための手段と、ここにおいて、前記第1の色成分の前記残差信号が動き予測を使用して生成され、前記第1の色成分の前記再構成された残差信号が前記第1の色成分の再構成された残差サンプル値を含む、
    第2の異なる色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用するための手段と
    を備える、ビデオコード化機器。
  37. 実行されたとき、ビデオコード化機器に、
    第1の色成分の残差信号を再構成することと、ここにおいて、前記第1の色成分の前記残差信号が動き予測を使用して生成され、前記第1の色成分の前記再構成された残差信号が前記第1の色成分の再構成された残差サンプル値を含む、
    第2の異なる色成分の残差サンプル値を予測するために前記第1の色成分の前記再構成された残差サンプル値を使用することと
    を行わせる命令を記憶した非一時的コンピュータ可読データ記憶媒体。
JP2016515091A 2013-05-22 2014-05-22 色成分の間のサンプル予測を使用したビデオコード化 Pending JP2016526334A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361826396P 2013-05-22 2013-05-22
US61/826,396 2013-05-22
US14/283,855 US20140348240A1 (en) 2013-05-22 2014-05-21 Video coding using sample prediction among color components
US14/283,855 2014-05-21
PCT/US2014/039174 WO2014190171A1 (en) 2013-05-22 2014-05-22 Video coding using sample prediction among color components

Publications (1)

Publication Number Publication Date
JP2016526334A true JP2016526334A (ja) 2016-09-01

Family

ID=50977130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016515091A Pending JP2016526334A (ja) 2013-05-22 2014-05-22 色成分の間のサンプル予測を使用したビデオコード化

Country Status (8)

Country Link
US (1) US20140348240A1 (ja)
EP (1) EP3000231A1 (ja)
JP (1) JP2016526334A (ja)
KR (1) KR20160013890A (ja)
CN (1) CN105247866A (ja)
BR (1) BR112015029161A2 (ja)
TW (1) TWI559743B (ja)
WO (1) WO2014190171A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9076239B2 (en) * 2009-04-30 2015-07-07 Stmicroelectronics S.R.L. Method and systems for thumbnail generation, and corresponding computer program product
US9648330B2 (en) 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction
US9648332B2 (en) 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
WO2016115733A1 (en) * 2015-01-23 2016-07-28 Mediatek Singapore Pte. Ltd. Improvements for inter-component residual prediction
US9998742B2 (en) * 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
US10567803B2 (en) * 2017-04-12 2020-02-18 Qualcomm Incorporated Midpoint prediction error diffusion for display stream compression
WO2018236031A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10694205B2 (en) * 2017-12-18 2020-06-23 Google Llc Entropy coding of motion vectors using categories of transform blocks
US10491897B2 (en) * 2018-04-13 2019-11-26 Google Llc Spatially adaptive quantization-aware deblocking filter
CN113273203B (zh) * 2018-12-22 2024-03-12 北京字节跳动网络技术有限公司 两步交叉分量预测模式
WO2020156540A1 (en) 2019-02-02 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Buffer management for intra block copy in video coding
CN117119200A (zh) 2019-02-02 2023-11-24 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的缓冲区中的数据存储
CN117395439A (zh) 2019-03-01 2024-01-12 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的基于方向的预测
EP3915252A4 (en) 2019-03-04 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. IMPLEMENTATION OF ASPECTS IN AN INTRA BLOCK COPY IN VIDEO ENCODING
KR20200132762A (ko) * 2019-05-15 2020-11-25 현대자동차주식회사 색차블록을 복원하는 방법 및 영상 복호화 장치
EP3987789A4 (en) * 2019-06-20 2023-03-01 Beijing Dajia Internet Information Technology Co., Ltd. METHODS AND DEVICES FOR PREDICTION DEPENDENT RESIDUE SCALING FOR VIDEO CODING
WO2020256595A2 (en) * 2019-06-21 2020-12-24 Huawei Technologies Co., Ltd. Method and apparatus of still picture and video coding with shape-adaptive resampling of residual blocks
CA3146016C (en) 2019-07-06 2024-05-07 Beijing Bytedance Network Technology Co., Ltd. Virtual prediction buffer for intra block copy in video coding
AU2020312053B2 (en) 2019-07-10 2023-09-14 Beijing Bytedance Network Technology Co., Ltd. Sample identification for intra block copy in video coding
JP2022539887A (ja) 2019-07-11 2022-09-13 北京字節跳動網絡技術有限公司 映像符号化におけるイントラブロックコピーのためのビットストリーム適合性の制約
WO2021040574A1 (en) * 2019-08-31 2021-03-04 Huawei Technologies Co., Ltd. Method and apparatus of still picture and video coding with shape-adaptive resampling of residual blocks
WO2021062771A1 (zh) * 2019-09-30 2021-04-08 Oppo广东移动通信有限公司 颜色分量预测方法、编码器、解码器及计算机存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100624429B1 (ko) * 2003-07-16 2006-09-19 삼성전자주식회사 칼라 영상을 위한 비디오 부호화/복호화 장치 및 그 방법
AU2007231799B8 (en) * 2007-10-31 2011-04-21 Canon Kabushiki Kaisha High-performance video transcoding method
WO2012031107A1 (en) * 2010-09-03 2012-03-08 Dolby Laboratories Licensing Corporation Method and system for illumination compensation and transition for video coding and processing
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction

Also Published As

Publication number Publication date
TW201501512A (zh) 2015-01-01
BR112015029161A2 (pt) 2017-07-25
CN105247866A (zh) 2016-01-13
KR20160013890A (ko) 2016-02-05
US20140348240A1 (en) 2014-11-27
WO2014190171A1 (en) 2014-11-27
EP3000231A1 (en) 2016-03-30
TWI559743B (zh) 2016-11-21

Similar Documents

Publication Publication Date Title
KR102574560B1 (ko) 비디오 코딩을 위해 액세스하는 샘플을 갖는 선형 모델 예측 모드
KR102520295B1 (ko) 선형 모델 예측 모드를 위한 다운샘플링 프로세스
TWI559743B (zh) 使用顏色成分間取樣預測之視訊寫碼
KR101918873B1 (ko) 비디오 코딩에서 교차 구성 예측과 적응형 컬러 변환의 조화
JP6479651B2 (ja) 3次元ビデオコーディングのためのビュー合成モード
KR102305988B1 (ko) 팔레트-기반 비디오 코딩을 위한 컬러 인덱스 코딩
KR102210792B1 (ko) 잔차 차동 펄스 코드 변조 (dpcm) 확장들 및 변환 스킵, 회전 및 스캔들과의 조화
US9800857B2 (en) Inter-view residual prediction in multi-view or 3-dimensional video coding
US9350970B2 (en) Disparity vector derivation
US9615090B2 (en) Parsing syntax elements in three-dimensional video coding
EP3849182B1 (en) Restriction of prediction units in b slices to uni-directional inter prediction
CN110089116B (zh) 通过光照补偿和整数运动向量限制进行编码优化
US20150373325A1 (en) Single color palette mode in video coding
JP6407961B2 (ja) ビデオコーディングにおける視差ベクトルリファインメント
US20150016503A1 (en) Tiles and wavefront processing in multi-layer context
JP2016524408A (ja) 隣接ベースの視差ベクトル導出を用いた3dビデオコーディングのための、並列に導出された視差ベクトル
JP6370891B2 (ja) 深さブロックの視差に基づく高度な深さインターコーディング
JP2017532896A (ja) パレットインデックスのコーディングのためのパースの依存性の低減
KR101626695B1 (ko) 뷰 합성 참조 화상들에 대한 참조 화상 리스트 변경
JP2016526348A5 (ja)
US20160366439A1 (en) Palette copy extension