JP2016525303A - 変位ベクトルを使用する予測ブロックからのイントラ予測 - Google Patents

変位ベクトルを使用する予測ブロックからのイントラ予測 Download PDF

Info

Publication number
JP2016525303A
JP2016525303A JP2016521839A JP2016521839A JP2016525303A JP 2016525303 A JP2016525303 A JP 2016525303A JP 2016521839 A JP2016521839 A JP 2016521839A JP 2016521839 A JP2016521839 A JP 2016521839A JP 2016525303 A JP2016525303 A JP 2016525303A
Authority
JP
Japan
Prior art keywords
block
video data
video
current
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016521839A
Other languages
English (en)
Other versions
JP2016525303A5 (ja
JP6377734B2 (ja
Inventor
グオ、リウェイ
パン、チャオ
キム、ウォ−シク
プ、ウェイ
ソル・ロジャルス、ジョエル
ジョシ、ラジャン・ラクスマン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016525303A publication Critical patent/JP2016525303A/ja
Publication of JP2016525303A5 publication Critical patent/JP2016525303A5/ja
Application granted granted Critical
Publication of JP6377734B2 publication Critical patent/JP6377734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するモードを含むビデオデータをコーディングする技法は、ビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することを含み、ビデオデータの予測ブロックは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである。2次元ベクトルは、ビデオデータの予測ブロックを識別するためにビデオコーダによって使用され得、ビデオデータの現在のブロックに対する水平変位成分および垂直変位成分を含む。ビデオデータのブロックについての、同じピクチャ内のビデオデータの予測ブロックからのイントラ予測するためのモードは、イントラブロックコピーまたはイントラ動き補償と呼ばれることもある。

Description

[0001]本出願は、その各々の内容全体が参照により本明細書に組み込まれる、以下の米国仮出願、すなわち、
2013年6月21日に出願された米国仮出願第61/838,209号、
2013年7月17日に出願された米国仮出願第61/847,549号、
2013年8月16日に出願された米国仮出願第61/866,965号、
2013年8月26日に出願された米国仮出願第61/870,050号、
2013年9月27日に出願された米国仮出願第61/883,612号、
2013年10月4日に出願された米国仮出願第61/887,115号、
2013年10月21日に出願された米国仮出願第61/893,539号、
2013年10月25日に出願された米国仮出願第61/896,013号、および
2014年1月5日に出願された米国仮出願第61/923,698号の各々の利益を主張する。
[0002]本開示はビデオコーディングに関し、より詳細には、ビデオブロックの、他のビデオブロックに基づく予測に関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、携帯電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part10,Advanced Video Coding(AVC)、現在開発中のHigh Efficiency Video Coding(HEVC)規格によって定義された規格、およびそのような規格の拡張に記載されているもののような、ビデオ圧縮技法を実装する。これらのビデオデバイスは、そのようなビデオ圧縮技法を実装することによって、デジタルビデオ情報のより効率的な送信、受信、符号化、復号、および/または記憶を行い得る。
[0004]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を実行する。ブロックベースのビデオコーディングでは、ビデオスライス(すなわち、ビデオフレームまたはビデオフレームの一部分)がビデオブロックにパーティショニングされ得、これらのビデオブロックは、ツリーブロック、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもある。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス内のビデオブロックは、同じピクチャ中の隣接ブロック内の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005]空間的予測または時間的予測によって、コーディングされるべきブロックの予測ブロックが生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルに従って符号化され、残差データはコード化ブロックと予測ブロックとの間の差分を示す。イントラコード化ブロックは、イントラコーディングモードおよび残差データに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて残差変換係数をもたらすことができ、その残差変換係数が、次いで量子化され得る。最初に2次元アレイで構成される量子化された変換係数は、変換係数の1次元ベクトルを生成するために走査されてもよく、なお一層の圧縮を達成するためにエントロピーコーディングが適用されてもよい。
[0006]概して、本開示は、ビデオコーディングのためのイントラ予測を実行するための技法について説明する。より詳細には、本開示は、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータをコーディングするための技法について説明する。ビデオデータのブロックについての、同じピクチャ内のビデオデータの予測ブロックからのイントラ予測は、本明細書ではイントラブロックコピー(Intra Block Copy)(イントラBC)またはイントラ動き補償(Intra Motion Compensation)(イントラMC)と呼ばれることもある。
[0007]本開示のイントラBC技法またはイントラMC技法は、ビデオデータの現在のブロックに関するビデオデータの予測ブロックを識別することを含むことができ、ここにおいて、ビデオデータの予測ブロックは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである。ビデオデータの予測ブロックは、ピクチャ内の対象とする領域内のブロック、たとえば、ビデオデータの現在のブロックの上方、右上、左上、および/または左側の領域内のブロックであり得る。ビデオデータの予測ブロックが現在のビデオブロックの上方または左側のいずれかに限定されることはなく、したがって、現在のブロックに対する予測ブロックを識別するために使用されるベクトルは必ずしも1次元のベクトルではない。代わりに、ビデオデータの予測ブロックを識別または決定するために、ビデオコーダは、ビデオデータの現在のブロックに対する水平変位成分および垂直変位成分を含む2次元ベクトルを定義する1つまたは複数のシンタックス要素をコーディングし得る。2次元ベクトルは、ブロックベクトルまたは動きベクトルと呼ばれることもある。
[0008]本開示の技法は、ビデオデータの再構成された追加のブロックをビデオデータの現在のブロックに関する考えられる予測ブロックと見なし、たとえば、予測ブロックを現在のブロックの上方または左側に限定しないことによって、イントラMCと呼ばれることもあるイントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。いくつかの例では、本開示の技法は、デブロッキングフィルタ処理およびサンプル適応オフセット(SAO)フィルタ処理などのインループフィルタ処理なしで対象とするエリアを再構成されたサンプルを含む領域と定義することによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。いくつかの例では、本開示の技法は、ビデオコーダが現在の2次元ベクトルの予測2次元ベクトル、たとえば、ビデオデータの現在のブロックのブロックベクトルまたは動きベクトルを識別しコーディングするのを可能にすることによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。
[0009]一例では、同じピクチャ内のビデオデータの予測ブロックからビデオデータのブロックをイントラ予測するためのモードを含むビデオデータを復号する方法は、符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を受信することと、1つまたは複数のシンタックス要素を復号することとを備える。この方法は、2次元ベクトルの水平変位成分および垂直変位成分を定義する復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することであって、ビデオデータの予測ブロックはビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、決定することと、ビデオデータの予測ブロックおよび残差ブロックに基づいてビデオデータの現在のブロックを再構成することと、をさらに備える。
[0010]別の例では、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するモードを含むビデオデータを符号化する方法、この方法は、ビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択することを備える。この方法は、2次元ベクトルを決定することをさらに備え、ここにおいて、2次元ベクトルは、水平変位成分と垂直変位成分とを有し、水平変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の水平変位を表し、垂直変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の垂直変位を表す。この方法は、ビデオデータの現在のブロックおよびビデオデータの予測ブロックに基づいて残差ブロックを決定することと、符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびに残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとをさらに備える。
[0011]別の例において、デバイスは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータを復号するように構成されたビデオデコーダを備える。ビデオデコーダは、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を備える符号化ビデオビットストリームを記憶するように構成されたメモリと、1つまたは複数のプロセッサとを備える。1つまたは複数のプロセッサは、1つまたは複数のシンタックス要素を復号することと、2次元ベクトルの水平変位成分および垂直変位成分を定義する復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することであって、ビデオデータの予測ブロックがビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、決定することと、を行うように構成される。上記の1つまたは複数のプロセッサは、ビデオデータの予測ブロックおよび残差ブロックに基づいてビデオデータの現在のブロックを再構成するようにさらに構成される。
[0012]別の例において、デバイスは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータを符号化するように構成されたビデオエンコーダを備える。ビデオエンコーダは、符号化ビデオビットストリームを記憶するように構成されたメモリと1つまたは複数のプロセッサとを備える。1つまたは複数のプロセッサは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択するように構成される。上記の1つまたは複数のプロセッサは、2次元ベクトルを決定するようにさらに構成され、ここにおいて、2次元ベクトルは、水平変位成分と垂直変位成分とを有し、水平変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の水平変位を表し、垂直変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の垂直変位を表す。1つまたは複数のプロセッサは、ビデオデータの現在のブロックおよびビデオデータの予測ブロックに基づいて残差ブロックを決定することと、符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびに残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとを行うようにさらに構成される。
[0013]別の例において、デバイスは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータをコーディングするように構成されたビデオコーダを備える。ビデオデコーダは、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を含むビデオビットストリームをコーディングするための手段と、ビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定するための手段とを備える。2次元ベクトルの水平変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の水平変位を表し、2次元ベクトルの垂直変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の垂直変位を表す。ビデオデータの予測ブロックは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックであり、残差ブロックは、ビデオデータの現在のブロックおよびビデオデータの予測ブロックに基づいて決定される。
[0014]別の例において、非一時的コンピュータ可読記憶媒体には、同じピクチャ内のビデオデータの予測ブロックからビデオデータのブロックをイントラ予測するためのモードを含むビデオデータをコーディングするための命令が記憶され、命令は、実行されたときに、1つまたは複数のプロセッサに、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を含むビデオビットストリームをコーディングすることと、ビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することとを行わせる。2次元ベクトルの水平変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の水平変位を表し、2次元ベクトルの垂直変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の垂直変位を表す。ビデオデータの予測ブロックは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックであり、残差ブロックは、ビデオデータの現在のブロックおよびビデオデータの予測ブロックに基づいて決定される。
[0015]1つまたは複数の例の詳細が、添付の図面および以下の説明において述べられる。他の特徴、目的、および利点は、その説明および図面から、ならびに特許請求の範囲から明らかになるであろう。
[0016]本開示に記載される技法を利用することができる、例示的なビデオ符号化および復号システムを示すブロック図。 [0017]本開示の技法による、現在のピクチャ内のビデオデータの現在のブロックを予測するための現在のピクチャ内のビデオデータの例示的な予測ブロックを示す概念図。 [0018]ビデオデータの予測ブロックを選択することのできる対象とする領域を定義するための例示的な技法を示す概念図。 [0019]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0019]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0019]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0020]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されサンプル適応オフセット(SAO)フィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0020]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されサンプル適応オフセット(SAO)フィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0020]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されサンプル適応オフセット(SAO)フィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0021]隣接する最大コーディングユニットにおいてデブロックフィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図。 [0022]ビデオデータの現在のブロック、およびビデオデータの現在のブロックに関する候補予測ベクトルを導出することのできるビデオデータの隣接するブロックの一例の概念図。 [0023]本開示で説明する技法を実施し得る例示的なビデオエンコーダを示すブロック図。 [0024]本開示で説明する技法を実施し得る例示的なビデオデコーダを示すブロック図。 [0025]ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを符号化するための例示的な方法を示す流れ図。 [0026]ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを復号するための例示的な方法を示す流れ図。 [0027]ルーマビデオデータの対応するブロックの2次元ベクトルからクロマビデオデータのブロックに関する2次元ベクトルを導出することを含む例示的な方法を示す流れ図。 [0028]予測2次元ベクトルを決定することを含む、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを符号化する例示的な方法を示す流れ図。 [0029]予測2次元ベクトルを決定することを含む、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを復号する例示的な方法を示す流れ図。 [0030]ビデオデータの現在のブロックに関する予測2次元ベクトル候補を決定するための例示的な方法を示す流れ図。
詳細な説明
[0031]ビデオシーケンスは、概して、ピクチャのシーケンスとして表される。一般に、ブロックベースのコーディング技法は、個々のピクチャの各々をコーディングするために使用される。すなわち、各ピクチャはブロックに分割され、ブロックの各々は個別にコーディングされる。ビデオデータのブロックをコーディングすることは、概して、ブロックの予測値を形成することと、残差値(residual value)、すなわち、元のブロックと予測値との間の差分をコーディングすることとを伴う。詳細には、ビデオデータの元のブロックはピクセル値の行列を含み、予測値は予測されたピクセル値の行列を含む。残差値は、元のブロックのピクセル値と予測されたピクセル値との間のピクセルごとの差分に対応する。
[0032]ビデオデータのブロックのための予測技法は、概して、イントラ予測およびインター予測としてカテゴリー分類される。イントラ予測、または空間的予測は、概して、前にコーディングされたブロックの一部である隣接するピクセル値からブロックを予測することを含む。インター予測、または時間的予測は、概して、前にコーディングされたピクチャ(たとえば、フレームまたはスライス)のピクセル値からブロックを予測することを含む。
[0033]リモートデスクトップ、リモートゲーミング、ワイヤレスディスプレイ、自動車インフォテインメント、クラウドコンピューティングなどの多数のアプリケーションが日常的に使用されつつある。これらのアプリケーションにおけるビデオコンテンツは通常、自然のコンテンツ、テキスト、人工グラフィックス、およびその他のコンテンツの組合せである。テキスト領域および人工グラフィックス領域には、反復パターン(文字、アイコン、記号など)が存在することが多い。
[0034]ビデオデータのブロックについての、同じピクチャ内のビデオデータの予測ブロックからのイントラ予測は、イントラブロックコピー(イントラBC)またはイントラ動き補償(イントラMC)と呼ばれることもあり、ビデオコーダがそのような冗長性を解消しイントラフレームコーディング効率を向上させるのを可能にし得る技法である。いくつかのビデオコーディング技法では、ビデオコーダは、同じピクチャ内のビデオデータの現在のブロックの真上または真下あるいは現在のブロックに対して水平方向に一直線上にある前に再構成されたビデオデータのブロックを使用して、現在のビデオブロックを予測する。言い換えれば、ビデオデータのピクチャまたはフレームが2−Dグリッドに課された場合、ビデオデータの各ブロックは、x値およびy値の一意の範囲を占有する。したがって、いくつかのビデオコーダは、(現在のビデオブロックに対して垂直方向に一直線上にある)x値の同じ組または(現在のビデオブロックに対して水平方向に一直線上にある)y値の同じ組のみを共有する同じピクチャ内の以前にコーディングされたビデオデータのブロックに基づいてビデオデータの現在のブロックを予測することができる。
[0035]ビデオコーダが、ビデオデータの現在のブロックの真上またはすぐ左(すぐ右または真下)とは限らない同じフレーム、すなわち、同じピクチャ内のビデオデータの以前に再構成されたブロックから現在のビデオブロックを予測すると有利であることがある。ビデオコーダは、予測セット内により多くのビデオブロックを含めることによって、現在のビデオブロックのより正確な予測を実現することができ、それによってコーディング効率を高める。
[0036]概して、本開示では、イントラBCモードまたはイントラMCモードと呼ばれることもある、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータをコーディングするための技法について説明する。本開示のイントラBC技法またはイントラMC技法は、ビデオデータの現在のブロックに関するビデオデータの予測ブロックを識別することを含むことができ、ここにおいて、ビデオデータの予測ブロックは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである。ビデオデータの予測ブロックは、ピクチャ内の対象とする領域内のブロック、たとえば、ビデオデータの現在のブロックの上方、右上、左上、および/または左側の領域内のブロックであり得る。ビデオデータの予測ブロックが現在のビデオブロックの上方または左側のいずれかに限定されることはなく、したがって、現在のブロックに対する予測ブロックを識別するために使用されるベクトルは必ずしも1次元のベクトルではない。代わりに、ビデオデータの予測ブロックを識別または決定するために、ビデオコーダは、ビデオデータの現在のブロックに対する水平変位成分および垂直変位成分を含む2次元ベクトルを定義する1つまたは複数のシンタックス要素をコーディングし得る。2次元ベクトルは、ブロックベクトルまたは動きベクトルと呼ばれることもある。
[0037]本開示の技法は、ビデオデータの再構成された追加のブロックをビデオデータの現在のブロックに関する考えられる予測ブロックと見なし、たとえば、予測ブロックを現在のブロックの上方または左側に限定しないことによって、イントラBCまたはイントラMCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。いくつかの例では、本開示の技法は、デブロッキングフィルタ処理およびサンプル適応オフセット(SAO)フィルタ処理などのインループフィルタ処理なしで対象とする領域を再構成されたサンプルを含む領域と定義することによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。いくつかの例では、本開示の技法は、ビデオコーダが現在の2次元ベクトルの予測2次元ベクトル、たとえば、ビデオデータの現在のブロックのブロックベクトルまたは動きベクトルを識別しコーディングするのを可能にすることによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。
[0038]図1は、本明細書で説明する技法のうちの1つまたは複数を実装し得る1つの例示的なビデオ符号化および復号システムを示すブロック図である。本明細書で使用される「ビデオコーダ」という用語は、ビデオエンコーダとビデオデコーダの両方を総称的に指す。本開示では、「ビデオコーディング」または「コーディング」という用語は、ビデオ符号化またはビデオ復号を総称的に指し得る。
[0039]図1に示されているように、システム10は、宛先デバイス14によって復号されるべき符号化ビデオデータを与えるソースデバイス12を含む。具体的には、ソースデバイス12は、コンピュータ可読媒体16を介してビデオデータを宛先デバイス14に与える。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14はワイヤレス通信のために装備され得る。
[0040]宛先デバイス14は、コンピュータ可読媒体16を介して、復号されるべき符号化ビデオデータを受信し得る。コンピュータ可読媒体16は、符号化ビデオデータをソースデバイス12から宛先デバイス14に移動することが可能な、任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信することを可能にするための、通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワークなどのパケットベースのネットワーク、またはインターネットなどのグローバルネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を促進するために有用であり得る任意の他の機器を含み得る。
[0041]いくつかの例では、コンピュータ可読媒体16は記憶デバイスを備え、ソースデバイスは符号化ビデオデータを出力インターフェース22を介して記憶デバイスに出力することができる。同様に、符号化データは入力インターフェース28によって記憶デバイスからアクセスされ得る。記憶デバイスは、ハードドライブ、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または、符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。たとえば、ディスクスタンピング施設などの媒体生産施設のコンピューティングデバイスは、符号化ビデオデータをソースデバイス12から受信し、符号化ビデオデータを含むディスクを生産し得る。したがって、様々な例では、コンピュータ可読媒体16は、様々な形態の1つまたは複数のコンピュータ可読媒体を含むものと理解され得る。さらなる例では、記憶デバイスは、ソースデバイス12によって生成される符号化されたビデオを記憶し得る、ファイルサーバまたは別の中間的な記憶デバイスに相当し得る。宛先デバイス14は、記憶されているビデオデータに、記憶デバイスからストリーミングまたはダウンロードを介して、アクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14へ送信することができる、任意のタイプのサーバであり得る。例示的なファイルサーバは、ウェブサーバ(たとえば、ウェブサイトのための)、FTPサーバ、ネットワーク接続記憶(NAS)デバイス、または局所的なディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準的なデータ接続を通じて、符号化ビデオデータにアクセスし得る。これは、ワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または、ファイルサーバに記憶されている符号化ビデオデータにアクセスするのに適した、それらの両方の組合せを含み得る。記憶デバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0042]本開示の技法は、ワイヤレスのアプリケーションまたはセッティングに必ずしも限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH:dynamic adaptive streaming over HTTP)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例などの、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオプレイバック、ビデオブロードキャスティングおよび/またはビデオテレフォニーなどの適用例をサポートするために一方向または双方向のビデオ送信をサポートするように構成され得る。
[0043]図1は例にすぎず、本開示の技法は、符号化デバイスと復号デバイスとの間のデータ通信を必ずしも含むとは限らないビデオコーディング環境(たとえば、ビデオ符号化またはビデオ復号)に適用され得る。他の例では、データがローカルメモリから取り出されること、ネットワークを介してストリーミングされることなどが行われる。ビデオ符号化デバイスはデータを符号化し、メモリに記憶することができ、および/または、ビデオ復号デバイスはメモリからデータを取り出し、復号することができる。多くの例では、符号化および復号は、互いに通信しないが、メモリにデータを符号化し、および/またはメモリからデータを取り出して復号するだけであるデバイスによって実行される。
[0044]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または構成を含み得る。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、内蔵ディスプレイデバイス32を含むのではなく、外部ディスプレイデバイス32とインターフェースし得る。
[0045]図1の例示されたシステム10は、一例にすぎない。任意のデジタルビデオ符号化および/または復号デバイスが、本明細書で説明する技法を実行し得る。一般に、本開示の技法は、ビデオ符号化デバイスによって実行されるが、本技法は、また、通常「コーデック」と呼ばれるビデオエンコーダ/デコーダによって実行され得る。その上、本開示の技法は、また、ビデオプリプロセッサによって実行されることもできる。ソースデバイス12および宛先デバイス14は、ソースデバイス12が、コーディングされたビデオデータを宛先デバイス14への送信のためにその中で生成する、そのようなコーディングデバイスの単に例である。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化と、復号構成要素とを含むように、実質的に対称的な方式で動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオプレイバック、ビデオブロードキャスティング、またはビデオテレフォニーのための、ビデオデバイス12と14との間での一方向または二方向のビデオ送信をサポートし得る。
[0046]ソースデバイス12のビデオソース18は、ビデオカメラ、あらかじめキャプチャされたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオ供給インターフェースなどの、ビデオキャプチャデバイスを含み得る。さらなる代わりとして、ビデオソース18は、ソースビデオとしてコンピュータグラフィックスベースのデータ、または、ライブビデオ、アーカイブされたビデオ、およびコンピュータ生成のビデオの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き携帯電話またはビデオ付き携帯電話を形成し得る。しかしながら、上で言及されたように、本開示で説明される技法は、一般にビデオコーディングに適用可能であり、ワイヤレスおよび/または有線の用途に適用され得る。各々の場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータにより生成されたビデオは、ビデオエンコーダ20によって符号化され得る。次いで、符号化されたビデオ情報は、出力インターフェース22によってコンピュータ可読媒体16に出力され得る。いくつかの例では、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含む場合がある。
[0047]宛先デバイス14の入力インターフェース28は、情報をコンピュータ可読媒体16から受信する。いくつかの例では、入力インターフェース28は受信機および/またはモデムを含む。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義され、ビデオデコーダ30によって使用され、ブロックおよび他のコード化ユニット、たとえば、スライス、ピクチャ、ピクチャグループ(GOP)、またはビデオデータの特性および/または処理を記述する符号化ビデオデータおよびその他のシンタックス情報を含み得る符号化ビデオビットストリームを含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの様々なディスプレイデバイスのうちの任意のものを備え得る。
[0048]ビデオエンコーダ20およびビデオデコーダ30は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなどの、様々な適切なエンコーダ回路のいずれかとして実装され得る。本技法がソフトウェアに部分的に実装されるとき、デバイスは、ソフトウェアに対する命令を適切な非一時的コンピュータ可読媒体に記憶し、本開示の技法を実行するための1つまたは複数のプロセッサを使用してハードウェアにおいて命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダに含まれることができ、そのいずれかは、複合エンコーダ/デコーダ(コーデック)の一部として、それぞれのデバイスに統合され得る。図1には示されないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は各々、オーディオエンコーダおよびデコーダと統合されることができ、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するための、適切なMUX−DEMUXユニット、または他のハードウェアとソフトウェアとを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0049]本開示は、概して、ビデオデコーダ30などの別のデバイスにある情報を「シグナリング」するビデオエンコーダ20に言及する場合がある。「シグナリング」という用語は、概して、圧縮されたビデオデータを復号するために使用されるシンタックス要素および/または他のデータの通信を指す場合がある。そのような通信は、リアルタイムまたはほぼリアルタイムで行われる場合がある。代替として、そのような通信は、符号化時に符号化されたビットストリーム内でシンタックス要素をコンピュータ可読記憶媒体に記憶するときに行われる場合があるなどの、ある時間期間にわたって行われる場合があり、次いで、これらの要素は、この媒体に記憶された後の任意の時間に復号デバイスによって取り出される場合がある。
[0050]ビデオエンコーダ20およびビデオデコーダ30は、本開示では、1つまたは複数のビデオコーディング規格に従って動作するように構成されているように、例示のために記載されている。しかし、本開示の技法は、任意の特定のコーディング規格に限定されるとは限らず、様々な異なるコーディング規格に関して適用され得る。
[0051]ビデオエンコーダ20およびビデオデコーダ30は、任意の拡張、修正、または追加を含む、現在開発中の高効率ビデオコーディング(HEVC)規格などの、ビデオコーディング規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4、Part 10と呼ばれるITU−T H.264規格、アドバンストビデオコーディング(AVC)、またはそのような規格の拡張などの、他の独自の規格または業界規格に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオコーディング規格の他の例には、MPEG−2およびITU−T H.263がある。
[0052]他の独自の規格または業界規格の例には、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、および、スケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含む(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264、あるいはそのような規格の拡張、修正、または追加が含まれる。さらに、H.264/AVCへの3次元ビデオ(3DV:three-dimensional video)コーディング拡張、すなわちAVCベースの3DVを生成するための取組みが進行中である。言い換えれば、例示的なビデオコーディング規格には、ITU−T H.261、ISO/IEC MPEG−1 Visualと、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、およびスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含む(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264が含まれる。H.264規格は、ITU−T Study Groupによる2005年3月付のITU−T勧告H.264、Advanced Video Coding for generic audiovisual servicesに記載されており、本明細書ではH.264規格もしくはH.264仕様、またはH.264/AVC規格もしくは仕様と呼ばれることがある。ジョイントビデオチーム(JVT)はH.264/MPEG−4 AVCへの拡張に取り組み続けている。MVCの最近のジョイントドラフトは、「Advanced video coding for generic audiovisual services」、ITU−T勧告H.264、2010年3月に記載されている。
[0053]さらに、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)とISO/IECモーションピクチャエキスパートグループ(MPEG:Motion Picture Experts Group)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって開発された新開発のビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)がある。図1の例では、ビデオエンコーダ20およびビデオデコーダ30は、HEVCに従って動作し得る。2013年10月17日付けでhttp://phenix.int-evry.fr/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC-L1003-v34.zipから入手可能であり、以下では「JCTVC−L1003−v34」と呼ばれ、内容全体が参照により組み込まれている、Brossら、「High Efficiency Video Coding(HEVC) text specification draft 10(for FDIS & Last Call)、ITU-T SG16 WP3とISO/IEC JTC 1/SC 29/WG 11とのビデオコーディング共同研究部会(JCT−VC)、第12回会合:ジュネーブ、スイス、2013年1月14日〜23日文献JCTVC−L1003−v34が、HEVCの最近のドラフトである。JCTVC−L1003−v34において定義されたHEVCのバージョンは、HEVCバージョン1または「HEVCv1.」と呼ばれることがある。
http://phenix.int-evry.fr/jct/doc_end_user/current_document.php?id=8143から入手可能であり、内容全体が参照により組み込まれている、McCannら、「High Efficiency Video Coding(HEVC) Test Model 12(HM12)Encoder Description」文献JCTVC−N1002が、HEVCの最近のエンコーダ文献である。
[0054]3DサービスをサポートするHEVCの2つの拡張が現在、ITU-T Video Coding Experts Group(VCEG)およびISO/IEC Motion Picture Experts Group(MPEG)のJoint Collaboration Team on 3D Video Coding(JCT−3V)によって開発されている。すなわち、この2つの拡張はそれぞれ、MV−HEVCおよび3D−HEVCである。図1の例では、ビデオエンコーダ20およびビデオデコーダ30は、MV−HEVCおよび/または3D−HEVCに従って動作し得る。
[0055]MV−HEVCは、ブロックレベル設計を変更せずに複数の(テクスチャ)ビューのコーディングをサポートする。
http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/5_Vienna/wg11/JCT3V-E1004-v6.zipから入手可能であり、内容全体が参照により組み込まれている、Techら「MV-HEVC Draft Text 5」Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11、文献番号JCT3V−E1004−v6が、MV−HEVCの最近のドラフトである。
[0056]3D−HEVCは、マルチビュービデオプラス深度フォーマットをコーディングし、HEVCコーディングモジュールに加えて組み込まれた新しいコーディングツールを含む。新たに導入されたコーディングツールは、テクスチャコーディングと深度コーディングの両方に適用可能である。
http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/5_Vienna/wg11/JCT3V-E1001-v3.zipから入手可能であり、内容全体が参照により組み込まれている、Techら、「3D-JEVC Draft Text 1」、Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11、第5回会合:ウィーン、オーストリア、2013年7月27日〜8月2日、文献番号JCT3V−E1001−v3が、3D−HEVCの最近のドラフトである。3D−HEVC用の最近のソフトウェア3D−HTMは、以下のリンク、すなわち、[3D-HTM version 8.0]:https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM-8.0/からダウンロード可能である。
最近のソフトウェア文献、すなわち、内容全体が参照により組み込まれている、Zhangら、「3D-HEVC Test Model 5」、Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11、第5回会合:ウィーン、オーストリア、2013年7月27日〜8月2日、文献番号JCT3V−E1005が、http://phenix.it-sudparis.eu/jct2/doc_end_user/current_document.php?id=1360から入手可能である。
[0057]HEVC規格のさらなる開発および拡張にはHEVC範囲拡張が含まれる。HEVC範囲拡張の例には、参照により全体が本明細書に組み込まれており、http://phenix.int-evry.fr/jct/doc_end_user/current_document.php?id=8139から入手可能である、Flynnら「High Efficiency Video Coding (HEVC) Range Extensions text specification: Draft 4」ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のビデオコーディング共同研究部会(JCT−VC)文献JCTVC−N1005_v3第13回会合:仁川、韓国、2013年4月18日〜26日に記載されている。
[0058]HEVCおよび他のビデオコーディング仕様では、ビデオシーケンスは一般に一連のピクチャを含む。ピクチャは「フレーム」と呼ばれることもある。ピクチャは、SL、SCb、およびSCrと示される3つのサンプルアレイを含み得る。SLは、ルーマサンプルの2次元アレイ(すなわち、ブロック)である。SCbは、Cbクロミナンスサンプルの2次元アレイである。SCrは、Crクロミナンスサンプルの2次元アレイである。クロミナンスサンプルは、本明細書では「クロマ」サンプルとも呼ばれ得る。他の例では、ピクチャは、モノクロームであり得、ルーマサンプルのアレイのみを含み得る。
[0059]HEVCの標準化の取組みは、HEVCテストモデル(HM)と呼ばれるビデオコーディングデバイスの発展型モデルに基づく。HMは、たとえば、ITU−T H.264/AVCに従う既存のデバイスに対してビデオコーディングデバイスのいくつかの追加の機能を仮定する。たとえば、H.264は、9つのイントラ予測符号化モードを提供するが、HMは、33ものイントラ予測符号化モードを提供し得る。
[0060]概して、HMのワーキングモデルは、ビデオエンコーダ20が、ビデオフレームまたはピクチャを、最大コーディングユニット(LCU)またはツリーブロックとも呼ばれるコーディングツリーユニット(CTU)のシーケンスに分割し得ると表している。CTUの各々は、ルーマサンプルのコーディングツリーブロック(CTB)と、クロマサンプルの2つの対応するコーディングツリーブロックと、それらのコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造とを備える場合がある。別個のカラープレーンを備えるモノクロームピクチャまたはピクチャでは、CTUは、単一のコーディングツリーブロックと、単一のコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0061]ビットストリーム内のシンタックスデータは、CTUにとってのサイズを定義し得、CTUは、ピクセルの数の点で最大のコーディングユニットである。CTUは、サンプルのN×Nのブロックであり得る。HEVCのCTUは、H.264/AVCなど、他のビデオコーディング規格のマクロブロックに広い意味で類似し得る。しかしながら、CTUは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディングユニット(CU)を含み得る。
[0062]ビデオフレームまたはピクチャは、1つまたは複数のスライスへとパーティショニングされ(partitioned)得る。スライスは、コーディング順または走査順にいくつかの連続するCTUを含む。各CTUは、4分木に従って、コーディングユニット(CU)に分割(split)され得る。CUは、サンプルのN×Nのブロックであり得る。一般に、4分木データ構造は、CUあたり1つのノードを、ツリーブロックに対応するルートノードとともに含む。CUが4つのサブCUに分割される場合、CUに対応するノードは、4つのリーフノードを含み、その各々は、サブCUのうちの1つに対応する。CUまたはサブCUは、CUと呼ばれることもあり、ルーマサンプルアレイとCbサンプルアレイとCrサンプルアレイとを有するピクチャのルーマサンプルのコーディングブロックと、クロマサンプルの2つの対応するコーディングブロックと、それらのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備える場合がある。別個のカラープレーンを備えるモノクロームピクチャまたはピクチャでは、CUは、単一のコーディングブロックと、単一のコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0063]4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのためのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。CUがさらに分割されない場合、そのCUはリーフCUと呼ばれる。本開示では、元のリーフCUの明示的分割が存在しない場合でも、リーフCUの4つのサブCUをリーフCUとも呼ぶ。たとえば、16×16サイズのCUがさらに分割されない場合、この16×16CUが決して分割されなくても、4つの8×8サブCUをリーフCUとも呼ぶ。コード化ビットストリームに関連するシンタックスデータは、最大CU深度と呼ばれる、ツリーブロックが分割され得る最大回数を定めることができ、コーディングノードの最小サイズを定めることもできる。それに応じて、ビットストリームは最小コーディングユニット(SCU:smallest coding unit)を定義することもできる。
[0064]CUは、コーディングノードと、コーディングノードに関連付けられた予測ユニット(PU)および変換ユニット(TU)とを含む。CUのサイズは、コーディングノードのサイズに対応し、形状が正方形でなければならない。CUのサイズは、8×8ピクセルから最大64×64以上のピクセルをもつツリーブロックのサイズまでに及び得る。概して、ビデオエンコーダ20およびビデオデコーダ30は、1つのモード、たとえば、イントラ予測またはインター予測によって各CUをコーディングする。
[0065]各CUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。CUと関連したシンタックスデータは、たとえば、CUの1つまたは複数のPUへのパーティショニングを記述し得る。パーティショニングモードは、CUがスキップであるか、または、ダイレクトモードで符号化されるか、イントラ予測モードで符号化されるか、もしくはインター予測モードで符号化されるかの間で、異なり得る。PUは、形状が非正方形(たとえば、長方形)にパーティショニングされ得る。CUと関連したシンタックスデータは、また、たとえば、CUの1つまたは複数のTUへの、4分木に従うパーティショニングを記述し得る。TUは、形状において正方形または非正方形(たとえば、長方形)であり得る。
[0066]CUのPUおよびTUは、ピクチャのルーマサンプルの1つの予測ブロックと、クロマサンプルの2つの対応する予測ブロックと、予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。ビデオエンコーダ20は、CUの各PUのルーマ予測ブロック、Cb予測ブロック、およびCr予測ブロックのために、予測ルーマブロックと、予測Cbブロックと、予測Crブロックとを生成することができる。別個のカラープレーンを備えるモノクロームピクチャまたはピクチャでは、PUは、単一の予測ブロックと、単一の予測ブロックを予測するために使用されるシンタックス構造とを備える場合がある。
[0067]ビデオエンコーダ20およびビデオデコーダ30は、様々なサイズを有するPUをサポートし得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ20およびビデオデコーダ30は、2N×2NまたはN×NのPUサイズでのイントラ予測と、2N×2N、2N×N、N×2N、またはN×Nの対称PUサイズでのインター予測とをサポートすることができる。ビデオエンコーダ20およびビデオデコーダ30は、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズでのインター予測に関する非対称パーティショニングをもサポートし得る。非対称なパーティショニングでは、CUの一方向はパーティショニングされないが、他の方向は25%および75%にパーティショニングされる。25%のパーティションに対応するCUの部分は、「n」とそれに続く「Up」、「Down」、「Left」、または「Right」という指示によって示される。したがって、たとえば、「2N×nU」は、上部の2N×0.5NのPU、および下部の2N×1.5NのPUによって水平にパーティショニングされる2N×2NのCUを指す。HEVCでは、最小PUサイズは8x4および4x8である。
[0068]本開示では、「N×N」および「NかけるN(N by N)」は、垂直および水平の寸法の観点からビデオブロックのピクセル寸法を指すために、たとえば、16×16ピクセルまたは16かける16(16 by 16)ピクセルのように、互換的に使用され得る。概して、16×16ブロックは、垂直方向に16ピクセル(y=16)、および水平方向に16ピクセル(x=16)を有する。同様に、N×Nブロックは、概して、垂直方向にNピクセル、および水平方向にNピクセルを有し、ここでNは、非負の整数値を表す。ブロックのピクセルは、行および列に配列され得る。さらに、ブロックは、必ずしも、水平方向において垂直方向と同じ数のピクセルを有する必要はない。たとえば、ブロックは、NxMピクセルを備え得、ここで、Mは、必ずしもNに等しいとは限らない。
[0069]概して、PUは、対応するCUのすべてまたは一部分に対応する空間エリアを表し、そのPUの参照サンプルを取り出すためのデータを含み得る。その上、PUは、予測に関係するデータを含む。たとえば、PUがイントラモード符号化されるとき、PUに関するデータは、PUに対応する予測ブロックについてのイントラ予測モードを記述し得る。
[0070]別の例として、PUがインターモードで符号化されるとき、PUは、PUのための1つまたは複数の動きベクトルを定義するデータを含み得る。PUについての動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分と、動きベクトルの垂直成分と、動きベクトルの解像度(たとえば、1/4ピクセル精度または1/8ピクセル精度)とを記述することができる。PUは、参照ピクチャを含む参照ピクチャリストのインデックスなど、動きベクトルが指し示す参照ピクチャを識別するデータを含み得る。
[0071]インター予測は、単方向(すなわち、単予測(uni-prediction))でも双方向(すなわち、双予測(bi-prediction))でもあり得る。ビデオエンコーダ20およびビデオデコーダは、単予測または双予測を実行するために、現在のピクチャに関する第1の参照ピクチャリスト(RefPicList0)および第2の参照ピクチャリスト(RefPicList1)とを生成し得る。参照ピクチャリストの各々は1つまたは複数の参照ピクチャを含み得る。参照ピクチャリストが構築された後(すなわち、利用可能であれば、RefPicList0およびRefPicList1)、参照ピクチャリストに対する参照インデックスは、参照ピクチャリストに含まれる任意の参照ピクチャを識別するために使用され得る。
[0072]参照ピクチャは、時間的な、たとえば、表示、順序における前のピクチャ、将来のピクチャ、または前に符号化された2つ以上のピクチャからの予測の組合せであり得る。ビデオコーダ、たとえば、ビデオエンコーダ20およびビデオデコーダ30は、ピクチャ順序カウント(POC)を使用してピクチャの時間的順序を識別する。ビデオコーダは、またピクチャのPOC値を参照ピクチャリストの構成および動きベクトルのスケーリングに使用する。ビデオエンコーダ20またはビデオデコーダ30は、参照ピクチャメモリ、たとえば、参照ピクチャメモリ368(図8)および参照ピクチャメモリ396(図9)に参照ピクチャを記憶し得る。
[0073]本開示の技法に従ってイントラBCを使用して現在のビデオブロック、たとえば、PUがコーディングされるとき、そのブロックに関する2次元ベクトル(ブロックベクトル、動きベクトル、または変位ベクトルと呼ばれることもある)を定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度または1/8ピクセル精度)を表し得る。しかし、本開示の技法に従ってイントラBCを使用して予想されたPUのデータは、参照ブロックが現在のビデオブロックと同じフレームまたはピクチャ内に位置するので、動きベクトルが指し示す参照ピクチャを識別する必要がない。
[0074]ビデオエンコーダ20がCUの1つまたは複数のPUの予測ルーマブロックと、予測Cbブロックと、予測Crブロックとを生成した後、ビデオエンコーダ20は、CUのルーマ残差ブロックを生成することができる。CUのルーマ残差ブロック中の各サンプルは、CUのPUの予測ルーマブロック内のルーマサンプルとCUの元のルーマコーディングブロック中の対応するサンプルとの間の差を示す。さらに、ビデオエンコーダ20はCUのためのCb残差ブロックを生成し得る。CUのCb残差ブロック中の各サンプルは、CUのPUの予測Cbブロック内のCbサンプルとCUの元のCbコーディングブロック中の対応するサンプルとの間の差を示し得る。ビデオエンコーダ20はまた、CUのためのCr残差ブロックを生成し得る。CUのCr残差ブロック中の各サンプルは、CUのPUの予測Crブロック内のCrサンプルとCUの元のCrコーディングブロック中の対応するサンプルとの間の差を示し得る。
[0075]1つまたは複数のPUを有するリーフCUは、1つまたは複数の変換ユニット(TU)を含むこともできる。CUのTUは、ルーマサンプルの変換ブロックと、クロマサンプルの2つの対応する変換ブロックと、それらの変換ブロックサンプルを変換するために使用されるシンタックス構造とを備える場合がある。ビデオエンコーダ20は、量子化され得る変換係数を生成するためにTUに関連する残差ブロック内のピクセル差分値を変換し得る。たとえば、ビデオエンコーダ20は、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換などの変換を残差ビデオデータに適用し得る。
[0076]TUは、上記で説明したように、RQT(TU4分木構造とも呼ばれる)を使用して指定され得る。たとえば、分割フラグは、リーフCUが4つの変換ユニットに分割されるかどうかを、示し得る。次いで、各変換ユニットは、さらなるサブTUに、さらに分割され得る。TUがさらに分割されないとき、そのTUはリーフTUと呼ばれることがある。TUは、必ずしも、PUのサイズに限定されるとは限らない。したがって、TUはPUよりも大きいこともあり得、または小さいこともあり得る。イントラコーディングのために、PUは、同じCUに対して対応するリーフTUと並べられ得る。いくつかの例では、リーフTUの最大サイズは、対応するリーフCUのサイズに対応し得る。一般に、本開示は、別段の注記がない限り、CUおよびTUという用語を、それぞれ、リーフCUおよびリーフTUを指すために使用する。
[0077]本開示では、明細書で述べられるようにサンプルの任意の1つまたは複数のブロックと、サンプルの1つまたは複数のブロックのサンプルをコーディングするために使用されるシンタックス構造とを指すために、「ビデオユニット」、「ビデオブロック」、または「ビデオデータのブロック」という用語を使用し得る。ビデオブロックの例示的な種類は、HEVCのコンテキストにおけるCTU、CU、PU、またはTU、あるいは他の規格のコンテキストにおける類似のデータ構造(たとえば、H.264/AVCのマクロブロックまたはそのマクロブロックパーティション)を含み得る。
[0078]変換係数を生成するための任意の変換の後で、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、一般に、係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を実現するプロセスを指す。量子化プロセスは、係数の一部または全部に関連付けられたビット深度を低減させることができる。たとえば、nビットの値は、量子化中にmビットの値に端数を丸められることができ、ここで、nはmよりも大きい。
[0079]量子化の後で、ビデオエンコーダは、変換係数を走査し得、量子化変換係数を含む2次元の行列から1次元のベクトルを生成する。走査は、より高いエネルギー(したがってより低い周波数)の係数をアレイの前方に配置し、より低いエネルギー(したがってより高い周波数)の係数をアレイの後方に配置するように意図され得る。いくつかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化されたベクトルを生成するために、量子化変換係数を走査するための規定の走査順を利用し得る。他の例では、ビデオエンコーダ20は、適応走査を実行し得る。量子化変換係数を走査して1次元のベクトルを形成した後、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔パーティショニングエントロピー(PIPE)コーディングまたは別のエントロピー符号化の方法に従って、1次元のベクトルをエントロピー符号化し得る。ビデオエンコーダ20は、ビデオデータを復号する際にビデオデコーダ30が使用するための、符号化ビデオデータに関連付けられたシンタックス要素をエントロピー符号化することもできる。
[0080]CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルにコンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が0ではないかどうかに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに対する可変長コードを選択し得る。VLCの中の符号語は、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように、構成され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長符号語を使用するよりも、ビット節約を達成し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。
[0081]加えて、ビデオエンコーダ20は、たとえば、残差データを逆量子化し、逆変換することによって符号化ピクチャを復号し、残差データを予測データと組み合わせることができる。このようにして、ビデオエンコーダ20は、ビデオデコーダ30によって実施される復号プロセスをシミュレートし得る。したがって、ビデオエンコーダ20とビデオデコーダ30はどちらも、イントラピクチャ予測、インターピクチャ予測、またはイントラBC予測に使用される復号ビデオデータとして、実質的に同じ復号ビデオデータ、たとえば、ピクチャまたはピクチャから得たブロックにアクセスする。
[0082]ビデオエンコーダ20は、シンタックス要素を含む、コード化ピクチャおよび関連データの表現を形成するビットのシーケンスを含む符号化ビデオビットストリームを出力し得る。ビットストリームは、ネットワークアブストラクションレイヤ(NAL)ユニットのシーケンスを備える場合がある。NALユニットの各々は、NALユニットヘッダを含み得、ローバイトシーケンスペイロード(RBSP:raw byte sequence payload)をカプセル化し得る。NALユニットヘッダは、NALユニットタイプコードを示すシンタックス要素を含む場合がある。NALユニットのNALユニットヘッダによって指定されるNALユニットタイプコードは、NALユニットのタイプを示す。RBSPは、NALユニット内にカプセル化された整数個のバイトを含んでいるシンタックス構造を備え得る。いくつかの事例では、RBSPは0ビットを含む。
[0083]異なるタイプのNALユニットは、異なるタイプのRBSPをカプセル化することができる。たとえば、第1のタイプのNALユニットはパラメータセットのためのRBSPをカプセル化し得、第2のタイプのNALユニットはコード化スライスのためのRBSPをカプセル化し得、第3のタイプのNALユニットは補足エンハンスメント情報(SEI:supplemental enhancement information)のためのRBSPをカプセル化し得、以下同様である。(パラメータセットおよびSEIメッセージのためのRBSPとは対照的に)ビデオコーディングデータのためのRBSPをカプセル化するNALユニットは、ビデオコーディングレイヤ(VCL:video coding layer)NALユニットと呼ばれることがある。コード化スライスをカプセル化するNALユニットは、本明細書ではコード化スライスNALユニットと呼ばれることがある。コード化スライスのためのRBSPはスライスヘッダとスライスデータとを含み得る。
[0084]ビデオエンコーダ20は、符号化ビデオデータに加えて、ビデオデータの特定のブロックをどのように復号すべきか、またはそのブロックのグループ分けをビデオデコーダに通知するシンタックス要素を符号化ビデオビットストリームに含め得る。ビデオエンコーダ20は、たとえばそれが参照するビデオ構造の種類(たとえば、シーケンス、ピクチャ、スライス、ブロック)、およびその値が変更され得る頻度に応じて、シンタックス要素を様々なシンタックス構造に含め得る。たとえば、ビデオエンコーダ20は、シンタックス要素をビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)などのパラメータセットに含め得る。他の例として、ビデオエンコーダ20は、シンタックス要素をSEIメッセージおよびスライスヘッダに含め得る。
[0085]概して、ビデオデコーダ30は、ビデオエンコーダによって実行される符号化プロセスの逆である復号プロセスを実施し得る。たとえば、ビデオデコーダ30は、量子化されたビデオデータをエントロピー符号化するためにビデオエンコーダによって使用されるエントロピー符号化技法の逆を使用してエントロピー復号を実施し得る。ビデオデコーダ30は、ビデオエンコーダ20によって使用される量子化技法の逆を使用してビデオデータをさらに逆量子化することができ、量子化された変換係数を生成するためにビデオエンコーダ20によって使用された変換の逆を実施し得る。次いで、ビデオデコーダ30は、最終的な表示用のビデオブロックを生成するために、隣接参照ビデオデータ(イントラ予測)、別のピクチャからの予測ブロック(インター予測)または同じピクチャからの予測ブロック(イントラBC)に、得られた残差ブロックを適用し得る。ビデオデコーダ30は、ビデオデコーダ30によって受信されたビットストリーム中の符号化ビデオデータとともに、ビデオエンコーダ20によって提供されるシンタックス要素に基づいて、ビデオエンコーダ20によって実施される様々なプロセスの逆を実施するために構成され、命令され、制御され、または導かれ得る。
[0086]各ピクチャは、ルーマ成分および1つまたは複数のクロマ成分を備え得る。したがって、本明細書で説明するブロックベースの符号化動作および復号動作は、ルーマピクセル値またはクロマピクセル値を含むかあるいはルーマピクセル値またはクロマピクセル値に関連するブロック、たとえば、CU、PU、およびTUに同様に適用可能であり得る。
[0087]イントラMC(イントラBCとも呼ばれる)は、Budagaviら「AHG8:Video coding using Intra motion compensation」文献:JCTVC−M0350、ITU−T SG 16 WP 3およびISO/IECJTC1/SC 29/WG 11のビデオコーディング共同研究部会(JCT−VC)、第13回会合、仁川、韓国、2013年4月18日〜26日(以下では「JCT−VC M03050と呼ぶ」)において報告されたようにイントラピクチャ冗長性を解消し、イントラフレームコーディング効率を向上させるのを可能にする専用技法である。JCT−VC M0350は、その全体が参照により本明細書に組み込まれており、
http://phenix.int-evry.fr/jct/doc_end_user/current_document.php?id=7601からダウンロード可能である。JCT−VC M0350によれば、イントラMCは、(1)現在のビデオブロック、たとえば、CUから変位された予測信号の位置、たとえば、同じフレームまたはピクチャ内のブロックを示す1次元オフセットまたは変位ベクトル(ここではブロックベクトル、動きベクトル、または「MV」とも呼ばれる)を(2)残差信号とともにコーディングすることを含む。イントラMCを使用するCUまたはその他のブロックの場合、予測信号は、同じピクチャ内のすでに再構成された領域から得られる。
[0088]たとえば、JCT−VC M0350において提示されたような、イントラMCまたはイントラBCに関する既存の提案のいくつかの制限およびそれらの提案に関連するいくつかの問題がある。たとえば、JCT−VC M0350において提示されたイントラMC技法によれば、ビデオデータの予測ブロックは、ビデオデータの現在のブロックの真上またはすぐ左のいずれかでなくてはならず、すなわち、予測ブロックの探索範囲は、ビデオデータの現在のブロックの真上またはすぐ左のブロックのみを含む。したがって、JCT−VC M0350において提示されたイントラMC技法によれば、ビデオエンコーダは、1次元ブロックベクトルを指定する情報のみをビデオデコーダにシグナリングする。ブロックベクトルは、水平変位または垂直変位であり、ビデオエンコーダは、この方向をビデオデコーダにシグナリングするためのフラグを符号化する。
[0089]別の例として、JCT−VC M0350に提示されたイントラMC技法によれば、動きベクトルは現在のLCUまたはCTUの外側の位置を指し示すことができ、それによって、LCUレベルパイプライニングをサポートする必要があるときにシステム設計が複雑になることがある。たとえば、LCUレベルにおいてパラレルコーディングが実行されるとき、現在のLCUと同じピクチャ内の他のLCUは、現在のCUのコーディングの間再構成されない。したがって、そのようなLCU内のCUは、イントラMC予測に関する予測信号を提供するのには利用できない。さらに、JCT−VC M0350において提示されたイントラMC技法によれば、動きベクトルは、それほど有効ではない固定長コード(FLC)コーディングによって符号化される。
[0090]上述のように、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30が、1次元ベクトルによって識別される垂直方向または水平方向に隣接するブロックだけではなく、同じフレーム内すなわち、同じピクチャ内のビデオデータの以前に再構成されたブロックのより大きい組から現在のビデオブロックを予測すると有利であることがある。ビデオコーダは、予測セット内により多くのビデオブロックを含めることによって、現在のビデオブロックのより正確な予測を実現することができ、それによってコーディング効率を高める。いくつかの例では、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、対象とする領域を、利用可能な再構成されたサンプル、および場合によってはデブロッキングフィルタ処理およびサンプル適応オフセット(SAO)フィルタ処理などのインループフィルタ処理が実行されないサンプルを含むように定義することによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させるために本開示の技法を実施し得る。いくつかの例では、本開示の技法は、ビデオコーダが現在の2次元ベクトルの予測2次元ベクトル、たとえば、ビデオデータの現在のブロックのブロックベクトルまたは動きベクトルを識別しコーディングするのを可能にすることによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。さらに、いくつかの例において、ビデオエンコーダ20および/またはビデオデコーダ30は、ブロックサイズ、ブロック位置、または様々な他の因子に基づいて適応的であり得る様々なデータ符号化技法および復号技法を使用することによって、イントラBCを使用して同じピクチャ内の以前にコーディングされたビデオブロックに基づいて現在のビデオブロックを予測する効率および精度を向上させることができる。
[0091]図2は、本開示による、同じピクチャ内のビデオデータの予測ブロックからビデオデータのブロックをイントラ予測するためのモードに従い、たとえば、本開示の技法によるイントラBCモードに従って、現在のピクチャ103内のビデオデータ102の現在のブロックを予測するための例示的な技法を示す概念図である。図2は、現在のピクチャ103内のビデオデータ104の予測ブロックを示す。ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、予測ビデオブロック104を使用して、本開示の技法によるイントラBCモードに従って現在のビデオブロック102を予測し得る。
[0092]ビデオエンコーダ20は、現在のビデオブロック102を予測するための予測ビデオブロック104をビデオデータの以前に再構成されたブロックの組から選択する。ビデオエンコーダ20は、同じく符号化ビデオビットストリームに含まれるビデオデータを逆量子化し逆変換し、得られた残差ブロックにビデオデータの再構成ブロックを予測するのに使用される予測ブロックを加算することによってビデオデータのブロックを再構成する。図4の例では、ピクチャ103内の対象とする領域108は、「対象とするエリア」または「ラスタエリア」と呼ばれることもあり、前に再構成されたビデオブロックの組を含む。ビデオエンコーダ20は、以下でより詳細に説明するように、ピクチャ103内の対象とする領域108を様々な方法で定義し得る。ビデオエンコーダ20は、対象とする領域108内の様々なビデオブロックに基づいて現在のビデオブロック102を予測しコーディングする相対効率および相対精度の分析に基づいて対象とする領域108内のビデオブロックの中から現在のビデオブロック102を予測するための予測ビデオブロック104を選択し得る。
[0093]ビデオエンコーダ20は、現在のビデオブロック102に対する予測ビデオブロック104の位置または変位を表す2次元ベクトル106を決定する。2次元動きベクトル106は、それぞれ現在のビデオブロック102に対する予測ビデオブロック104の水平変位および垂直変位を表す水平変位成分112および垂直変位成分110を含む。ビデオエンコーダ20は、2次元動きベクトル106を識別または定義する、たとえば、水平変位成分112および垂直変位成分110を定義する1つまたは複数のシンタックス要素を符号化ビデオビットストリームに含め得る。ビデオデコーダ30は、2次元動きベクトル106を決定するために1つまたは複数のシンタックス要素を復号し、決定されたベクトルを使用して現在のビデオブロック102関する予測ビデオブロック104を識別し得る。
[0094]いくつかの例では、2次元動きベクトル106の解像度は、整数ピクセルであり得、たとえば、整数ピクセル解像度を有するように制約され得る。そのような例では、水平変位成分112および垂直変位成分110の解像度は整数ピクセルになる。そのような例では、ビデオエンコーダ20およびビデオデコーダ30が、現在のビデオブロック102に関する予測子(predictor)を決定するうえで予測ビデオブロック104のピクセル値を補間する必要はない。
[0095]他の例では、水平変位成分112と垂直変位成分110の一方または両方の解像度はサブピクセルであり得る。たとえば、成分112および114の一方は整数ピクセル解像度を有し得、他方の成分はサブピクセル解像度を有する。いくつかの例では、水平変位成分112と垂直変位成分110の両方の解像度がサブピクセルであり得るが、水平変位成分112と垂直変位成分110が異なる解像度を有し得る。
[0096]いくつかの例では、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、特定のレベル、たとえば、ブロックレベル、スライスレベル、またはピクチャレベルの適応に基づいて、水平変位成分112および垂直変位成分110の解像度を適応させ得る。たとえば、ビデオエンコーダ20は、水平変位成分112および垂直変位成分110の解像度が整数ピクセル解像度であるかそれとも整数ピクセル解像度ではないかを示すフラグをスライスレベルにおいて、たとえば、スライスヘッダ内でシグナリングし得る。フラグが、水平変位成分112および垂直変位成分110の解像度が整数ピクセル解像度ではないことを示す場合、ビデオデコーダ30は、解像度がサブピクセル解像度であると推定し得る。いくつかの例では、必ずしもフラグとは限らない、水平変位成分112および/または垂直変位成分110の集合的な解像度または個々の解像度を示す1つまたは複数のシンタックス要素が、ビデオデータのスライスまたは他のユニットごとに送信され得る。
[0097]さらに他の例では、フラグまたはシンタックス要素の代わりに、ビデオエンコーダ20は、解像度コンテキスト情報から得た水平変位成分112および/または垂直変位成分110に基づいて設定し得、ビデオデコーダ30は、解像度コンテキスト情報から水平変位成分112および/または垂直変位成分110の解像度を推定し得る。解像度コンテキスト情報には、例として、現在のビデオブロック102を含むピクチャまたはピクチャのシーケンスに関する色空間(たとえば、YUV、RGBなど)、特定のカラーフォーマット(たとえば、4:4:4、4:2:2、4:2:0など)、フレームサイズ、フレームレート、または量子化パラメータ(QP)を含め得る。少なくともいくつかの例では、ビデオコーダは、前にコーディングされたフレームまたはピクチャに関する情報に基づいて水平変位成分112および/または垂直変位成分110の解像度を決定し得る。このようにして、水平変位成分112の解像度および垂直変位成分110の解像度は、あらかじめ定義され、シグナリングされ、あるいは他の副次的情報(たとえば、解像度コンテキスト情報)から推定され、あるいはすでにコーディングされたフレームに基づき得る。
[0098]現在のビデオブロック102は、CUまたはCUのPUであり得る。いくつかの例では、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、イントラBCに従って予測されるCUをいくつかのPUに分割し得る。そのような例では、ビデオコーダは、CUのPUの各々に関するそれぞれの(たとえば、異なる)2次元ベクトル106を決定し得る。たとえば、ビデオコーダは、2Nx2N CUを2つの2NxN PU、2つのNx2N PU、または4つのNxN PUに分割し得る。他の例として、ビデオコーダは、2Nx2N CUを((N/2)xN+(3N/2)xN)PU、((3N/2)xN+(N/2)xN)PU、(Nx(N/2)+Nx(3N/2))PU、(Nx(3N/2)+Nx(N/2))PU、4つの(N/2)x2N PU、または4つの2Nx(N/2)PUに分割し得る。いくつかの例では、ビデオコーダは、2Nx2N PUを使用して2Nx2N CUを予測し得る。
[0099]現在のビデオブロック102は、ルーマビデオブロックであっても、またはルーマビデオブロックに対応するクロマビデオブロックであり得る。いくつかの例では、ビデオエンコーダ20は、ルーマビデオブロックに関する2次元ベクトル106を定義する1つまたは複数のシンタックス要素を符号化ビデオビットストリームに符号化するだけであり得る。そのような例では、ビデオデコーダ30は、ルーマブロックについてシグナリングされる2次元ベクトルに基づいてルーマブロックに対応する1つまたは複数のクロマブロックの各々に関する2次元ベクトル106を導出し得る。
[0100]ビデオコーダは、カラーフォーマット、たとえば、カラーサンプリングフォーマットまたはクロマサンプリングフォーマットに応じて、ルーマビデオブロックに対して対応するクロマビデオブロックをダウンサンプリングし得る。カラーフォーマット4:4:4はダウンサンプリングを含まず、すなわち、クロマブロックは水平方向および垂直方向においてルーマブロックと同じ数のサンプルを含む。カラーフォーマット4:2:2は、水平方向においてダウンサンプリングされ、すなわち、ルーマブロックに対して、クロマブロック内の水平方向におけるサンプルの数は2分の1である。カラーフォーマット4:2:0は、水平方向および垂直方向においてダウンサンプリングされ、すなわち、ルーマブロックに対して、クロマブロック内の水平方向および垂直方向におけるサンプルの数は2分の1である。
[0101]ビデオコーダが、クロマビデオブロックに関するベクトル106を対応するルーマブロックに関するベクトル106に基づいて決定する例では、ビデオコーダはルーマベクトルを修正することが必要になる場合がある。たとえば、ルーマベクトル106が、奇数のピクセルである整数解像度を水平変位成分112および/または垂直変位成分110に関して有し、カラーフォーマットが4:2:2または4:2:0である場合、変換後のルーマベクトルは、対応するクロマブロック内の整数ピクセル位置を指し示さない。そのような例では、ビデオコーダは、対応するクロマブロックを予測するためにルーマベクトルをクロマベクトルとして使用できるようにスケーリングし得る。いくつかの例では、ビデオエンコーダ20は、クロマブロックを予測するのに使用される変換後のルーマベクトル106が、再構成されていない予測クロマブロックまたはインループフィルタ処理された予測クロマブロックを指し示さないように、対象とする領域108を定義しても、あるいは変換後のベクトルをスケーリングし得る。
[0102]図3は、ビデオエンコーダ20がビデオデータの現在のブロックを予測するためのビデオデータの予測ブロックを選択することのできる、対象とする領域を定義するための例示的な技法を示す概念図である。図3に示されている例では、ビデオエンコーダ20は、ビデオデータ122の現在のブロックを予測し符号化している。ビデオエンコーダ20は、現在のビデオブロック122を予測するために対象とする領域128内のビデオデータ124の予測ブロックを選択する。ビデオエンコーダ20は、現在のビデオブロック122に対する予測ビデオブロック124の変位を示す水平変位成分132および垂直変位成分130を含む2次元ベクトル126を決定する。ビデオエンコーダ20は、2次元ベクトル126を定義する符号化ビデオビットストリーム内の1つまたは複数のシンタックス要素を符号化する。
[0103]いくつかの例では、ビデオエンコーダ20は、特にビデオデコーダ30における実施および処理上の複雑さを低減できるように、対象とする領域128を定義し、たとえば、高さ、幅、またはその他の寸法などの、対象とする領域のサイズを定める。ビデオエンコーダ20は、そうする際に、2次元ベクトル126のサイズを限定し、たとえば、垂直変位成分130および/または水平変位成分132のサイズを限定する。いくつかの例では、ビデオエンコーダ20は、ビデオエンコーダ20およびビデオデコーダ20によるビデオデータの並列処理を容易にするために対象とする領域128を限定する。いくつかの例では、ビデオエンコーダ20は、デブロッキングフィルタ処理およびサンプル適応オフセット(SAO)フィルタ処理などのインループフィルタ処理なしで、ならびにビデオコーダのメモリ要件を過度に課すことも、あるいはインループフィルタ処理の適用を遅延することもなしに、予測ビデオブロックの使用を容易にするために対象とする領域128を限定する。
[0104]図3に示されているように、現在のビデオブロック122は、現在のLCU 134内に位置する。図3は、現在のLCUの左に隣接する(左側の)LCU 136も示す。左LCU 136は、ピクチャのビデオブロックが一般に左上から右下へのラスタスキャン順序で符号化されるので図3に示されている。ピクチャのビデオブロックが異なる順序でコーディングされる例において、左LCU 136に関する以下の説明は、現在のLCU 134の異なる隣接LCUに当てはまり得る。
[0105]いくつかの例では、ビデオエンコーダ20は、取り出される(fetched)予測ビデオブロック124が現在のビデオブロック122と同じLCU内、すなわち、現在のLCU 134内に位置するように、対象とする領域128を限定し得る。対象とする領域128を現在のLCU 134に限定すると、ビデオコーダの処理ユニットは現在のLCUのブロックをコーディングする際に別のLCUからの情報を必要としないので、ビデオコーダによるLCUの並列処理を容易にすることができる。
[0106]対象とする領域128が現在のLCU 134に限定されるいくつかの例では、2次元ベクトル126は、現在のビデオブロック122が現在のLCU 134の最上ブロックである場合には水平ベクトルに限定され得、現在のビデオブロック122が現在のLCU 134の最左ブロックである場合には垂直ベクトルに限定され得る。そのような例では、ビデオエンコーダ20は、2次元ベクトル126の水平変位成分132を定義する1つまたは複数のシンタックス要素を符号化し得、現在のビデオブロック122が現在のLCU 134の最上ブロックである場合にはゼロになる2次元ベクトル126の垂直変位成分130を定義する1つまたは複数のシンタックス要素を符号化する必要はない。同様に、ビデオエンコーダ20は、2次元ベクトル126の垂直変位成分130を定義する1つまたは複数のシンタックス要素を符号化し得、現在のビデオブロック122が現在のLCU 134の最左ブロックである場合にはゼロになる2次元ベクトル126の水平変位成分132を定義する1つまたは複数のシンタックス要素を符号化する必要はない。同様に、対象とする領域128が現在のLCU 134に限定され、現在のビデオブロック122が現在のLCU 134の左上ユニットである場合、2次元ベクトル126の水平変位成分130と垂直変位成分132はどちらもゼロである必要がある。この状況が発生するいくつかの例において、ビデオエンコーダ20は、イントラBCを実行せず、2次元ベクトル126を示すシンタックス要素または現在のビデオブロック122がイントラBCに従って予測されるかどうかを示す任意のフラグなど、イントラBCに関する任意のシンタックス要素をシグナリングする必要がないことがある。
[0107]対象とする領域が現在のLCUに限定され、現在のビデオブロックが現在のLCU内の特定の位置内に位置するときにイントラBCに関するシグナリングを低減させるためのこれらの技法は、JCT−VC M0350において提案されたような1次元動きベクトルに限定されたイントラBC技法に適用され得る。たとえば、垂直動きベクトルが現在のLCU内に位置するように制限され、現在のユニットが最上ユニットである場合、動きが垂直方向であるかそれとも水平方向であるかをシグナリングする必要はない。
[0108]いくつかの例において、ビデオエンコーダ20は、対象とする領域128が現在のLCU 134内に位置し、再構成された領域の一部が1つまたは複数の隣接LCU内、たとえば、図3に示されているような左LCU 136内に位置するように制限し得る。このようにして、ビデオエンコーダ20は、現在のLCU 134内の再構成ブロックに加えて、図3に示されているように左LCU 136などの1つまたは複数の隣接LCUの再構成された領域内のブロックのみを参照できるように2次元ベクトル126を制限し得る。
[0109]いくつかの例において、ビデオエンコーダ20は、現在のLCU 134のサイズに基づいて対象とする領域128のサイズを限定する。たとえば、図3に示されているように、ビデオエンコーダ20は、対象とする領域128が垂直方向において現在のLCU 134および左LCU 136を越えて延びることのないように、現在のLCU 134の高さ(または垂直方向上限)に基づいて対象とする領域128の高さ138を限定し得る。LCU(またはCTB)のサイズは、ビデオエンコーダ20によって、たとえば、スライスヘッダ、パラメータセット、またはSEIメッセージを介して、符号化ビデオビットストリームにおいてビデオデコーダ30にシグナリングされ得、したがって、LCUサイズに基づく対象とする領域に対する制限も事実上ビデオデコーダ30にシグナリングされてよい。いくつかの例において、ビデオエンコーダ20は、整数個のピクセルに基づいて対象とする領域128の現在のビデオブロック122の左側にサイズ、たとえば高さ138または幅140を制限する。たとえば、ビデオエンコーダ20は現在のビデオブロック122の左側の幅140をLCU 134および136の幅に相当し得る整数個のピクセル、64個などに制限し得る。
[0110]ビデオエンコーダ20は、デブロッキングフィルタ処理およびサンプル適応オフセット(SAO)フィルタ処理などのインループフィルタ処理が行われていない再構成ビデオブロックを含むように対象とする領域128を制限し得る。このようにして、ビデオエンコーダ20は、現在のLCU 134に加えて、インループフィルタ処理が実行されなかった左LCU 136などの、隣接LCUの再構成されたエリアのブロックのみを参照できるようにイントラBCに関する2次元ベクトルを制限し得る。ビデオエンコーダ20は、対象とする領域128のサイズを大きくし得るが、そのような増大は、インループフィルタ処理および対象とする領域内のビデオブロックのさらなる処理を遅延させるか、またはインループフィルタ処理の前に追加のメモリにサンプルを記憶させておくことが必要になる可能性がある。したがって、ビデオエンコーダ20は、予測精度と効率とのバランスをとるように対象とする領域128をたとえば本明細書において説明するように限定し得る。
[0111]図4A〜図4Cは、隣接LCUにおいてデブロックフィルタ処理されたビデオデータのサンプルに対して対象とする領域128を定義するための境界を示す概念図である。HEVCによれば、ビデオコーダは、各8x8ブロックについてデブロックフィルタ処理を適用し得、適用されるときには、エッジに沿ったサンプルの3つの列のみが影響を受ける。したがって、いくつかの例において、ビデオエンコーダ20は、現在のLCUの外側を参照するように、対象とする領域を拡張し、2次元ブロックベクトルサイズを大きくし得るが、対象とする領域およびブロックベクトルサイズを、前にコーディングされた隣接するLCU内のインループフィルタ処理されていないエリアに限定し得る。
[0112]図4Aは、現在のLCU 150および左に隣接するLCU 152を示す。図4Aでは、左LCU 152内のデブロックフィルタ処理されたピクセル154が黒丸によって示されている。図4Aでは、左LCU 152のエッジに近接しておらず、したがって、水平デブロックフィルタ処理の影響を受けずまた垂直デブロックフィルタ処理の影響も受けないのでデブロックフィルタ処理されない非デブロックフィルタ処理ピクセル156が、グレーの丸として示されている。図4Aでは、左LCU 152のエッジに近接しているが、右LCUも下方LCUも利用できないのでまだデブロックフィルタ処理されていない非デブロックフィルタ処理ピクセル158が、白丸として示されている。線160は、対象とする領域の例示的な境界、および現在のLCU 150内のビデオデータのブロックを符号化する際にビデオエンコーダ20によって適用することのできる2次元ブロックベクトルサイズの限界を示す。
[0113]図4Bは、現在のLCU 161および左に隣接するLCU 162を示す。図4Bでは、左LCU 162内のデブロックフィルタ処理されたピクセル164が黒丸によって示されている。図4Bでは、左LCU 162のエッジに近接しておらず、したがって、水平デブロックフィルタ処理の影響を受けずまた垂直デブロックフィルタ処理の影響も受けないのでデブロックフィルタ処理されない非デブロックフィルタ処理ピクセル166が、グレーの丸として示されている。図4Bでは、左LCU 162のエッジに近接しているが、右LCUも下方LCUも利用できないのでまだデブロックフィルタ処理されていない非デブロックフィルタ処理ピクセル168が、白丸として示されている。
[0114]ビデオコーダは、水平デブロックフィルタ処理を実行し、その後デブロック垂直フィルタ処理を実行し得る。したがって、ビデオコーダは、下に隣接するLCUが利用可能になったときに左LCU 162の下部に沿ってピクセルを垂直方向にフィルタ処理する前に左LCU 162の左下部分内のピクセルを水平方向にフィルタ処理し得る。ビデオエンコーダ20は、そのような水平フィルタ処理を容易にするために、図4Bに示されている垂直線169などに基づいて、対象とする領域を左LCU 162内に限定して、これらのピクセルの水平フィルタ処理を可能にし得る。
[0115]図4Cは、現在のLCU 170および上に隣接するLCU 172を示す。図4Cでは、上に隣接するLCU 172内のデブロックフィルタ処理されたピクセル174が黒丸によって示されている。図4Cでは、上LCU 172のエッジに近接しておらず、したがって、水平デブロックフィルタ処理の影響を受けずまた垂直デブロックフィルタ処理の影響も受けないのでデブロックフィルタ処理されない非デブロックフィルタ処理ピクセル176が、グレーの丸として示されている。図4Cでは、まだデブロックフィルタ処理されていない非デブロックフィルタ処理ピクセル178が、白丸として示されている。
[0116]上に隣接するLCU 172の場合、ビデオエンコーダ20は、図4Cにおいて線180によって示されているように対象とする領域および2次元ブロックベクトルを限定しもよい。しかし、上に隣接するLCU 172の場合、線180によって示されている限界によって、線180の下方のエリア内のピクセルの水平デブロックフィルタ処理が遅延することがある。ビデオエンコーダ20は、このエリアにおける水平デブロックフィルタ処理を可能にするために、対象とする領域およびブロックベクトルの垂直方向限界を、図3に示されているように、現在のLCU内に位置するかまたは現在のLCUの上部境界を越えない限界として定義し得る。
[0117]図5A〜図5Cは、隣接するLCUにおいてデブロックフィルタ処理されサンプル適応オフセット(SAO)フィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図である。図5Aは、現在のLCU 190および左に隣接するLCU 192を示す。図5Aでは、左LCU 152内のデブロックフィルタ処理されたピクセル194が黒丸によって示されている。図5Aでは、デブロックフィルタ処理されない非デブロックフィルタ処理ピクセル196が、グレーの丸として示されている。図5Aでは、まだデブロックフィルタ処理されていない非デブロックフィルタ処理ピクセル198が、白丸として示されている。
[0118]さらに、図5Aでは、デブロックフィルタ処理されていないが、SAOフィルタ処理されているピクセル200がクロスハッチの丸として示されている。線202は、対象とする領域の例示的な境界、および現在のLCU 190内のビデオデータのブロックを符号化する際にビデオエンコーダ20によって適用することのできる2次元ブロックベクトルサイズの限界を示す。ビデオエンコーダ20は、線202によって示されているように、SAOフィルタ処理されたピクセル200を避けるように対象とする領域を制限し得る。したがって、線202、および対象とする領域の対応する境界は、図4Aの線160に対して移動され得る。
[0119]図5Bは、現在のLCU 210および左に隣接するLCU 212を示す。図5Bでは、左LCU 212内のデブロックフィルタ処理されたピクセル214が黒丸によって示されている。図5Bでは、デブロックフィルタ処理されない非デブロックフィルタ処理ピクセル216が、グレーの丸として示されている。図5Bでは、まだデブロックフィルタ処理されていない非デブロックフィルタ処理ピクセル218が、白丸として示されている。さらに、図5Bでは、デブロックフィルタ処理されていないが、SAOフィルタ処理されているピクセル220がクロスハッチの丸として示されている。
[0120]上述のように、ビデオコーダは、水平デブロックフィルタ処理およびそれに続くデブロック垂直フィルタ処理を実施してよい、たとえば下に隣接するLCUが利用可能になったときに左LCU 162の下部に沿ってピクセルを垂直方向にフィルタ処理する前に左LCU 212の左下部分内のピクセルを水平方向にフィルタ処理し得る。ビデオエンコーダ20は、そのような水平フィルタ処理を容易にするために、図5Bに示されている垂直線222などに基づいて、対象とする領域を左LCU 212内に限定して、これらのピクセルの水平フィルタ処理を可能にし得る。さらに、ビデオエンコーダ20は、線222によって示されているように、SAOフィルタ処理されたピクセル220を避けるように対象とする領域を制限し得る。したがって、線202、および対象とする領域の対応する境界は、図4Bの線169に対して移動され得る。
[0121]図5Cは、現在のLCU 230および上に隣接するLCU 232を示す。図5Cでは、上に隣接するLCU 232内のデブロックフィルタ処理されたピクセル234が黒丸によって示されている。図5Cでは、デブロックフィルタ処理されない非デブロックフィルタ処理ピクセル236が、グレーの丸として示されている。図5Cでは、まだデブロックフィルタ処理されていない非デブロックフィルタ処理ピクセル238が、白丸として示されている。さらに、図5Cでは、デブロックフィルタ処理されていないが、SAOフィルタ処理されているピクセル240がクロスハッチの丸として示されている。
[0122]上に隣接するLCU 232の場合、ビデオエンコーダ20は、対象とする領域および2次元ブロックベクトルを、図4Cにおける線180とは異なる位置にあり得る図5Cにおける線242によって示されているように、デブロックフィルタ処理されSAOフィルタ処理されたピクセルを避けるように制限し得る。しかし、上述のように、対象とする領域を上に隣接するLCU内に延ばすと、上に隣接するLCU内のピクセルの水平デブロックフィルタ処理が遅延することがある。ビデオエンコーダ20は、このエリアにおける水平デブロックフィルタ処理を可能にするために、対象とする領域およびブロックベクトルの垂直方向限界を、たとえば図3に示されているように、現在のLCU内に位置するかまたは現在のLCUの上部境界を越えない限界として定義し得る。
[0123]図6は、隣接する最大コーディングユニットにおいてデブロックフィルタ処理されたビデオデータのサンプルに対して対象とする領域を定義するための境界を示す概念図である。図6は、現在のLCU 250および左に隣接するLCU 252を示す。図6はまた、実線の丸によって、デブロックフィルタ処理されたピクセル254を示し、白丸によって、デブロックフィルタ処理されていないピクセル256を示す。
[0124]いくつかの例では、ビデオエンコーダ20は、線258の右側に位置する左LCU 252の一部のみを対象とする領域として使用できるように、対象とする領域および2次元ブロックベクトルの水平成分を限定し得る。左LCU 252の左境界の水平デブロッキングが影響を及ぼし得るのは左LCU 252内のピクセルの3つの最左列のみなので、現在のLCU 250のコーディングと左LCU 252の左境界のデブロッキングが同時に実行され得る。
[0125]2次元ブロックベクトルの文脈において説明したが、図3、図4A〜図4C、図5A〜図5C、および図6に関して説明する対象とする領域を定義するための技法は、たとえばJCT-VC M0350に記載された1次元ブロックベクトルを使用するイントラBCなどの、1次元ブロックベクトルを使用するイントラBCに適用され得る。たとえば、垂直動きベクトルを現在のLCUに制限する代わりに、1次元ブロックベクトルを使用するイントラBCを実行するときに、垂直動きベクトルを頂部に隣接するLCUから4つの追加の最下部線まで延ばすことが可能とされ得る。
[0126]ビデオエンコーダ20は、インループフィルタ処理されたビデオブロックを除外するように対象とする領域を定義するが、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、そのようなビデオブロックおよびイントラBCモードによってコーディングされた現在のビデオブロックを最終的にインループフィルタ処理し得る。いくつかの例において、ビデオコーダは、イントラモードによってコーディングされたビデオブロック、たとえばCUにも適用されるデブロッキングフィルタを、本明細書において説明するイントラBCモードを使用してコーディングされたビデオブロック、たとえば、CUに適用する。いくつかの例において、ビデオコーダは、インターモードによってコーディングされたビデオブロック、たとえばCUにも適用されるデブロッキングフィルタを、本明細書において説明するイントラBCモードを使用してコーディングされたビデオブロック、たとえば、CUに適用する。いくつかの例では、デブロッキングフィルタのイントラモードまたはインターモードからの使用または任意の他のデブロッキングフィルタのイントラBCモードでの使用は、たとえば、ユニットごと、スライスごと、ピクチャごと、またはシーケンスごとに選択され得る。
[0127]ビデオエンコーダ20は、補間フィルタのオン/オフおよび長さに基づいてビデオデータの現在のブロックに関する対象とする領域を定義し得る。概して、サブペル位置(たとえば、1/2)におけるピクセルに対する補間は、隣接する整数位置(たとえば、・・・−k,・・・−1,0,1,・・・k+1)におけるピクセルを必要とする。HEVCでは、ルーマピクセルの場合はk=3であり、クロマピクセルの場合はk=1である。
[0128]クロマピクセルの場合、ビデオエンコーダ20は、垂直方向に取り込まれた(vertically fetched)クロマピクセルが確実に対象とする領域内に位置し、たとえば、現在のLCUの垂直境界の下方に位置するように、最小垂直クロマ動きベクトル成分(たとえば、最大の負の垂直クロマ動きベクトル成分、またはピクチャ境界の頂部からの最高位置に対応する垂直クロマ動きベクトル成分)MVc_yを現在のLCUの行k(すなわち、第1の行が行0である)を指し示すように制限し得る。ビデオエンコーダ20は、最大クロマ動きベクトル(最小の負のクロマ動きベクトル、またはピクチャ境界の頂部からの最低位置に対応するクロマ動きベクトル)MVc_yを-CU_height_chroma-kに制限し得る。対象とする領域をそのように限定する理由は、MVc_y = -CU_height_chromaである場合、予測ブロックは現在のCUの真上に隣接するからである。したがって、MVc_y = -CU_height_chroma-0.5である場合、ビデオコーダは、現在のCUを予測している間は利用できない、現在のCU内のk個のピクセルを含む、隣接する整数位置を使用して予測ブロックを補間する必要がある。
[0129]同様に、水平方向において、取り込まれたクロマピクセルを対象とする領域、たとえば、現在のLCUおよび左LCU内に確実に位置させるために、MVc_xが1に制限され得る。最小値MVc_xは、左LCUの列k(第1の列が列0である)を指し示す。2.最大値MVc_x = -CU_width_chroma-k.
[0130]さらに、ビデオエンコーダ20は、水平方向において、取り込まれたクロマピクセルが、現在のLCUおよび左に隣接するLCUのN個の最右列を含む対象とする領域内に位置するように、対象とする領域を限定し得る。例として、Nは、カラーフォーマットが4:2:2または4:2:0である場合、クロマについては2であり、ルーマについては4であり、カラーフォーマットが4:4:4である場合、クロマとルーマの両方について4である。左に隣接するLCUのN個の最右列は、左LCUの列x、x+1、・・・x+N−1として指定され得る。いくつかの例において、ビデオエンコーダ20は、最小値MVc_xが左LCUの列x+kを指し示すようにMVc_kを限定し得る。左に隣接するLCUがK個の列のみを有する(K<=x+k)場合、最小値MVc_xは現在のLCUにおけるx+k−Kを指し示す。いくつかの例では、ビデオエンコーダ20は、最大値MVc_x = -CU_width_chroma-kになるようにMVc_xを限定し得る。
[0131]主としてクロマピクセルに関して説明したが、ビデオエンコーダ20が、ブロックベクトルまたは2次元ベクトルとも呼ばれる動きベクトルの水平成分および垂直成分の最大値および最小値を決定するためのこれらの技法は、ルーマピクセルに適用され得る。さらに、上述のように、いくつかの例において、ビデオエンコーダ20は、ルーマビデオブロックに関する2次元ベクトルを定義する1つまたは複数のシンタックス要素を符号化ビデオビットストリームに符号化するだけでよく、ビデオデコーダ30は、ルーマブロックについてシグナリングされた2次元ベクトルに基づいてルーマブロックに対応する1つまたは複数のクロマブロックの各々に関する2次元ベクトル106を導出すればよい。そのような例では、ビデオコーダは、ルーマベクトルをクロマベクトルとして使用できるように修正し、たとえば、スケーリングまたはダウンサンプリングすることが必要になる場合がある。いくつかの例では、ビデオエンコーダ20は、クロマブロックを予測するのに使用される変換後のルーマベクトルが、再構成されていない予測クロマブロックまたはインループフィルタ処理された予測クロマブロックを指し示さないように、対象とする領域108を定義し、ルーマブロックベクトルの水平成分および/または垂直成分の最大値および/または最小値を設定し、あるいは変換後のベクトルをスケーリングし得る。
[0132]利用できないピクセルまたはインループフィルタ処理されたピクセルを使用するのを避けるように対象とする領域を定義することに加えてまたはその代わりに、ビデオコーダはピクセルパディングを使用してブロックベクトルが対象とする領域の外側を指し示すのを可能にし得る。ピクセルパディングを使用すると、対象とする領域の外側のピクセルが必要である場合、ビデオコーダは、一例として、このピクセルを対象とする領域内に位置する最も近いピクセルの値で置き換え得る。たとえば、現在のLCUの最小値MVc_xが現在のLCUの左に隣接するLCUの列0を指し示すことができ、最大値MVc_x = -CU_width_chromaであると仮定すると、MVc_xがサブペル(すなわち、1/2)位置を指し示す場合、補間には、左に隣接するLCUの左に隣接するLCUからの参照ピクセルが必要である。たとえば、補間すべき位置が左に隣接するLCUにおける(x=0.5,y)である場合、(x=0.5,y)を補間するには(−k,y)、(−k+1,y)、(−1,y)が必要である。これらのピクセルは、現在のLCUの左に隣接するLCUの左に隣接するLCU内に位置し得る。そのような例において、ビデオコーダは、左に隣接するLCU内に位置する(0,y)におけるピクセル値を使用してこれらのピクセル値を置き換え得る。クロマピクセルに関して説明したが、ビデオコーダはこれらのピクセルパディング技法をルーマピクセルに適用し得る。
[0133]いくつかの例において、現在のビデオブロック、たとえばPUのイントラBCに関する2次元ベクトルを直接指定するシンタックス要素をコーディングするのではなく、現在のビデオブロックに関する残差2次元ベクトルを、ビデオコーダがコーディングすることができ、たとえば、ビデオエンコーダ20が符号化し、ビデオデコーダ30が復号することができる。ビデオエンコーダ20は、現在のビデオブロックの現在の2次元ベクトルに関する予測水平成分および予測垂直成分を有する予測2次元ベクトルを決定し得る。ビデオエンコーダ20は、現在の2次元ベクトルと予測2次元ベクトルとの間の差に基づいて残差水平成分と残差垂直成分とを有する残差2次元ベクトルを決定し得る。ビデオデコーダ30も、同じ予測2次元ベクトルを決定し、ビデオエンコーダ20は、決定された予測2次元ベクトルと復号された残差2次元ベクトルの和に基づいて現在の2次元ベクトルを決定し得る。言い換えれば、ビデオコーダは、現在のビデオブロックの現在の2次元ベクトルの水平および垂直成分Vi(iはxまたはyであり得る)に関するシンタックス要素をコーディングするのではなく、予測2次元ベクトルの水平および垂直成分PVi(iはxまたはyであり得る)を決定し、水平および垂直予測誤差Vdi(iはxまたはyであり得る)または残差2次元ベクトルのみをコーディングし得る。
[0134]ビデオエンコーダ20およびビデオデコーダ30は、予測2次元ベクトルを様々な方法で決定し得る。いくつかの例において、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、イントラBCに従ってブロックの最新の予測を行うのに使用された直前(last)の2次元ベクトルをメモリに記憶する変数を維持し得る。そのような例において、ビデオコーダは、この記憶された直前のイントラBCベクトルを現在のビデオブロック、たとえば、PUに関する予測2次元ベクトルとして直前のイントラBCブロックに使用し得る。
[0135]図7は、ビデオデータ260の現在のブロック、およびビデオデータの現在のブロックに関する候補予測ベクトルを導出することのできるビデオデータ262、264、266の隣接するブロックの一例の概念図である。いくつかの例において、ビデオコーダは、インター予測に関するマージモードまたは高度動きベクトル予測(AMVP)モードと同様に、イントラBCを使用して隣接するビデオブロック、たとえばPUを予測するのに使用される2次元ベクトルに基づいて現在のビデオブロック、たとえばPUに関する予測2次元ベクトルを決定し得る。図7に示されている隣接するブロックは、左に隣接するブロック262、上方に(頂部に)隣接するブロック264、および左上方に(頂部左に)隣接するブロック266を含む。図7に示されている隣接するブロックは一例である。他の例において、ビデオコーダは、インター予測に関するマージモードおよびAMVPモードに従って検討され得る任意の隣接ブロックのような、より多く、より少なく、ならびに/あるいは異なる隣接ブロックのベクトルを検討し得る。
[0136]予測子は、隣接ブロックのうちの選択された1つの隣接ブロックからの2次元動きベクトルの水平変位成分および/または垂直変位成分であり得る。いくつかの例において、予測子は常に、特定の隣接ユニットから得られ、たとえば、頂部に隣接するブロックまたは左に隣接するブロックである。いくつかの例において、隣接ブロックのうちのどれが現在のPUに関する予測2次元動きベクトルを与えるかは、PUのインデックスおよび/またはPU形状に基づいて決定される。いくつかの例において、予測子は、複数の隣接ユニットからの2次元動きベクトルの水平成分および/または垂直成分の関数(平均または中央値)であり得る。
[0137]概して、隣接ブロックが予測2次元ベクトルを与えることができない場合、予測2次元ベクトル(または候補予測2次元ベクトル)はゼロまたはデフォルト2次元ベクトルに設定され得る。いくつかの例において、隣接ブロックのベクトルは、隣接ビデオブロックがイントラBCに従って予測されたときには現在のビデオブロックに関する予測ベクトルとしてのみ利用可能である。言い換えれば、イントラMCモードによってコーディングされていない隣接ブロックは、現在のビデオブロックに関するブロックベクトル予測には利用できないと見なされ得る。たとえば、予測子が常に左に隣接するブロックから得られ、左に隣接するブロックがイントラMCモードによって予測されたものであるとき、左に隣接するブロックの2次元ベクトルは予測2次元ベクトルとして使用される。予測子が常に左に隣接するブロックから得られ、左に隣接するブロックがイントラMCモードによって予測されたものではないとき、ビデオコーダは、ゼロベクトルまたはデフォルトベクトルを現在のビデオブロックに関する予測2次元ベクトルとして使用し得る。
[0138]いくつかの例において、ビデオコーダは、隣接ビデオブロックの2次元ベクトルが、現在のビデオブロック、たとえばCUまたはPUと同じLCUまたは他のより大きいコーディングユニットまたは最大のコーディングユニット内に位置していない場合、現在のビデオブロックの2次元ベクトルの予測に利用できないと見なし得る。いくつかの例において、現在のビデオブロック、たとえばPUまたはCUに関する現在の2次元ベクトルが現在のCUまたはLCUの第1のものである場合、現在のビデオブロックに関する予測2次元ベクトルは、ゼロまたはデフォルトの2次元ベクトルに設定され得る。上に隣接するCUと現在のCUが同じLCU内に位置していない場合、上に隣接するCUが利用できないと見なされることがある。左に隣接するCUと現在のCUが同じLCU内に位置していない場合、左に隣接するCUが利用できないと見なされることもある。
[0139]いくつかの例において、インター予測に関するマージモードおよびAMVPモードと同様に、ビデオエンコーダ20およびビデオデコーダ30は、いくつかの隣接ブロックのブロックベクトルを含む現在のビデオブロックに関する候補予測ベクトルの組を構成し得る。そのような例において、現在のビデオブロックに関する予測2次元ベクトルを生成するのにどの候補が使用されるかをシグナリングするインデックスを、ビデオエンコーダ20が符号化し、ビデオコーダ30が復号し得る。いくつかの例において、ビデオコーダは、たとえば、それぞれに異なる隣接ブロックからのそれぞれに異なる候補ベクトルに基づいて予測2次元ベクトルのそれぞれ水平変位成分および垂直変位成分を決定し得る。そのような例において、ビデオコーダは、それぞれのインデックスを候補リスト水平変位成分および垂直変位成分にコーディングし得る。
[0140]一例として、イントラBCモードに従ってコーディングされた現在のCUの場合、ビデオコーダは、そのブロックのブロックベクトルをコーディングするために、左に隣接するCUおよび頂部に隣接するCUをチェックする。左に隣接するCUも頂部に隣接するCUも利用できない場合、たとえば、左に隣接するCUも頂部に隣接するCUもイントラBCに従ってコーディングされていない場合、ビデオコーダは、現在のCUの予測2次元ベクトルは(水平成分と垂直成分の両方について)ゼロベクトルであると決定し得る。隣接CUのうちの1つのみが利用できる場合、たとえば、隣接CUのうちの1つのみがイントラBCによってコーディングされている場合、ビデオコーダは、現在のCUの現在の2次元ベクトルの予測2次元ベクトルとして利用可能な隣接CUを予測するのに使用されたベクトルを使用する。どちらの隣接CUも利用できる場合、たとえば、どちらの隣接CUもイントラBCによってコーディングされており、それらの2次元ベクトルが同じである場合、この2次元ベクトルは予測2次元ベクトルとして使用される。どちらの隣接CUも利用可能であり、たとえば、どちらの隣接CUもイントラBCによってコーディングされており、それらのブロックベクトルが異なる場合、ビデオコーダは、頂部に隣接するCUからのブロックベクトルが現在のCUに関する予測2次元ベクトルとして使用されるかそれとも左に隣接するCUからのブロックベクトルが現在のCUに関する予測2次元ベクトルとして使用されるかを示すようにフラグまたは他のシンタックス要素をコーディングし得る。
[0141]別の例において、ビデオコーダは、(非制限的な例として)(−w,0)、(−2w,0)、(−8,0)、(0,0)、(0,8)、(0,−h)、(0,−2h)の組から得ることのできる2つ以上のデフォルトの動きベクトルを定義し得、ここにおいて、wおよびhは、現在のビデオブロック、たとえばCUの幅および高さであり、第1の成分が水平変位であり、第2の成分が垂直変位である。左に隣接するCUと上に隣接するCUがどちらも利用できる場合、ビデオコーダは、それらのベクトルを現在のCUに関する第1および第2の予測2次元ベクトルとして使用し得る。隣接CUの一方が利用できない場合、ビデオコーダは、デフォルトの予測ベクトルを使用して候補予測ベクトルのリスト内の利用できない予測ベクトルを置き換え得る。隣接CUの両方が利用できない場合、ビデオコーダは、同じであってもまたは異なっていてもよい2つのデフォルト予測ベクトルを使用して、候補予測ベクトルのリスト内の利用できない予測ベクトルを置き換え得る。利用できない予測ベクトルを候補リスト内のデフォルトベクトルで置き換えることの利点は、予測子間の選択用のフラグが符号化ビデオビットストリームに含められ、それによって、ビデオデコーダ30がこのフラグを条件付きで解析する必要がなくなることである。本明細書では例について、2つの隣接ブロックから導出される2つの予測ベクトルを含む候補リストに関して説明するが、他の例においてブロック/ベクトルが利用できる場合、ビデオコーダはより多くまたはより少ない隣接ブロックを検討し、より多くまたはより少ない予測2次元ベクトルを候補リストに含め得る。
[0142]いくつかの例において、第1のビデオブロックおよび各LCUにおけるイントラBCに使用される対応する2次元ベクトルについて、ビデオコーダは、他のブロックおよびLCUにおける関連するベクトルの場合とは異なる、予測2次元ベクトルを決定するための導出プロセスを使用し得る。たとえば、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、第1のビデオブロックに関する予測2次元ベクトルおよびLCU内のイントラBCに使用される対応する2次元ベクトルがデフォルトの2次元ベクトルであると決定し得る。デフォルトの2次元ベクトルは(−w,0)であり得、ここにおいて、wは現在のビデオブロック、たとえばCUの幅である。他の例において、デフォルトの2次元ベクトルは、(−2w,0)、(−8,0)、(0,0)、(0,8)、(0,−h)、(0,−2h)であり得、ここにおいて、wおよびhは、現在のビデオブロック、たとえばCUの幅および高さである。他の例において、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、2013年10月21日に出願され、参照により全体が組み込まれている米国仮出願第61/893794号に記載されているように第1のビデオブロックに関する予測2次元ベクトルおよびLCU内のイントラBCに使用される対応する2次元ベクトルを導出し得る。いくつかの例において、ビデオコーダは、LCUにおいてイントラBCを使用してコーディングされた第1のビデオブロックに関する予測2次元ベクトルを、LCUにおいて異なるサイズを有するかまたは異なる位置に位置するビデオブロック、たとえば、CUについて異なるように導出し得、あるいは言い換えれば、LCUにおいてイントラBCを使用してコーディングされた第1のビデオブロックに関する予測2次元ベクトルをビデオブロックサイズまたはLCU内の位置に基づいて異なるように導出し得る。
[0143]いくつかの例において、ビデオコーダは、現在のビデオブロックの2次元ベクトルの水平成分および垂直成分を決定するのに使用される1つまたは複数の方法を選択し得、フラグ、シンタックス要素に基づくことができ、あるいは他の情報に基づくことができる(特定の色空間(たとえば、YUV、RGBなど)、特定のカラーフォーマット(たとえば、4:2:0、4:4:4など)、フレームサイズ、フレームレート、または量子化パラメータ(QP)、あるいは前にコーディングされたフレームに基づく)。
[0144]いくつかの例において、ビデオエンコーダ20は、ビデオブロック、たとえばCUが、イントラMCモードまたはイントラBCモードと呼ばれることもある、現在のビデオブロックを同じピクチャ内の予測ビデオブロックに基づいて予測するためのモードを使用して符号化されているかどうかをビデオデコーダ30に示すようにフラグ、たとえば、IntraMC_flagまたはIntraBC_flagを符号化し得る。フラグは、値が、1つまたは複数のCU、あるいは他のブロックまたはユニットが、たとえば、本明細書において説明するようにイントラMCモードまたはイントラBCモードを使用して符号化されているかどうかを示す1ビットフラグであり得る。ビデオコーダは、各ビデオブロック、たとえばCUまたはPUに関するフラグの値をコーディングし得、あるいはたとえばスライス内またはフレームもしくはピクチャ内またはピクチャのシーケンス内の複数のビデオブロックの各々に対するフラグの値をコーディングし得る。ビデオコーダは、例として、スライスヘッダ、パラメータセット(たとえば、PPS)、またはSEIメッセージ内にフラグをコーディングし得る。
[0145]ビデオコーダは、フラグをバイパスモードでコーディングし得、あるいはコンテキストによってフラグを算術符号化、たとえば、CABAC符号化し得る。いくつかの例において、ビデオコーダは、隣接ビデオブロックに依存しない単一の固定コンテキストによってフラグを算術コーディング、たとえばCABAC符号化し得る。他の例において、ビデオコーダは、隣接ビデオブロックから導出されたコンテキストによってフラグを算術コーディング、たとえばCABAC符号化し得る。
[0146]図7を参照すると、ビデオコーダがCABACコンテキストを使用して現在のビデオブロック260に関するフラグをコーディングするとき、頂部(上方)に隣接するビデオブロック264、頂部左(左上方)に隣接するビデオブロック266、または左に隣接するビデオブロック262などの隣接ビデオブロックからコンテキストの値が導出されることができる。ビデオコーダは、頂部に隣接するビデオブロック264などの隣接ビデオブロックを、隣接ビデオブロックが現在のビデオブロックと同じLCU内に位置するときには現在のビデオブロックに関するコンテキストを導出するのに利用でき、隣接ビデオブロックが現在のLCUの外側に位置するときには利用できないと見なし得る。
[0147]一例として、現在のビデオブロックに関して、ビデオコーダはコンテキスト値=(top IntraMC_flag==0)?0:1+(left IntraMC_flag==0)?0:1を導出し得る。いくつかの例では、ビデオコーダは常に、隣接ビデオブロック262、264、266のうちの特定の隣接ビデオブロック、たとえば、左に隣接するビデオブロック262から現在のビデオブロック260に関するコンテキストを導出し得、現在のビデオブロックに関するコンテキスト値は(left IntraMC_flag==0)?0:1である。いくつかの例において、ビデオコーダは、ビデオブロック、たとえばCUのサイズに依存するコンテキスト値を使用してフラグをコーディングする。いくつかの例において、それぞれに異なるサイズを有するビデオブロックは、それぞれに異なるコンテキスト値を有する。言い換えれば、各ビデオブロックの、たとえばCUの、サイズは、それぞれの一意のコンテキスト値に関連付けられ得る。いくつかの例において、それぞれに異なる既定のサイズを有するいくつかのビデオブロック、たとえばCUは、同じコンテキスト値を共有し、他のサイズを有するビデオブロックは、1つまたは複数の異なるコンテキスト値を使用する。言い換えれば、ビデオコーダは、複数のコンテキスト値の各々を、考えられるビデオブロックの、たとえばCUの、サイズのそれぞれの組または範囲に関連付け得る。
[0148]いくつかの例において、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、単項コード(unary codes)に基づいてイントラBCに関する2次元ベクトルの水平変位成分および垂直変位成分(たとえば、図2における2次元ベクトル106の水平変位成分112および垂直変位成分110)をコーディングし得る。他の例では、ビデオコーダは、指数ゴロム(Golomb)コードまたはライス−ゴロム(Rice-Golomb)コードに基づいて水平変位成分および垂直変位成分をコーディングし得る。
[0149]いくつかの例において、水平変位成分および垂直変位成分は、現在のビデオブロックの上方の領域および左側の領域のみを示し得、ビデオコーダがこれらの値のサインビットを保持またはコーディングする必要はなくなることがある。いくつかの例において、ビデオコーダは、現在のビデオブロックの上方の領域および左側の領域が現在のビデオブロックに対して正の方向を表し得るように基準系を構成し得る。そのような例において、現在のビデオブロックの上方および/または左側のビデオブロックのみが候補予測ビデオブロックと見なされる場合、水平変位成分および垂直変位成分のすべての値が正(または負)の値を表し、現在のビデオブロックの上方および/または左側のビデオブロックを示すことをあらかじめ定義することができるので、ビデオコーダがサインビットを保持またはコーディングする必要はなくなることがある。
[0150]いくつかの例において、たとえば、上記において説明したように、対象とする領域の定義および/またはパイプライン制約に起因して、これらの2次元ベクトルの最大サイズ(または残差2次元ベクトルなどの1つまたは複数の2次元ベクトル間の差)が小さくなることがある。そのような例において、ビデオエンコーダ20は、切り捨てられた値を有するこれらの2次元動きベクトルを2値化し得る。いくつかの例において、ビデオエンコーダ20は、2次元ベクトルをエントロピー符号化する際、たとえば、2次元ベクトルの水平変位成分および垂直変位成分を符号化する際に、切り捨て単項(truncated unary)コード、切り捨て指数−ゴロム(truncated exponential-golomb)コード、または切り捨てゴロム−ライス(truncated golomb-rice)コードを使用し得る。
[0151]切り捨て値ビデオエンコーダ20は、本明細書において説明する様々な切り捨て符号化方式(truncated encoding schemes)のいずれにおいても使用し得、たとえば、LCUサイズに基づいて一定であることができる。いくつかの例において、切り捨て値(truncation value)は、水平変位成分と垂直変位成分について同じであり得る。他の例において、切り捨て値は、水平変位成分と垂直変位成分について異なるものであり得る。
[0152]例示的な例として、LCUのサイズが64、たとえば64x64であり、上記に図3に関して説明したように、2次元ベクトルの垂直成分がLCU内に位置するように制限される場合、切り捨ては、2次元ベクトルの水平成分については63に等しいものであり得、2次元ベクトルの垂直成分については63−MinCUSizeに等しいものであり得る。いくつかの例において、切り捨て値は、LCU内の現在のビデオブロックの位置に応じて適応的であり得る。たとえば、2次元ベクトルの垂直成分がLCU内に位置するように制限される場合、ビデオエンコーダは、ベクトル2値化を現在のビデオブロックの頂部の位置とLCUの頂部の位置との間の差に切り捨てることができる。
[0153]ビデオエンコーダ20は、バイパスモードを使用して2次元ベクトルの水平成分および垂直成分の2値化をエントロピー符号化し得、あるいはたとえばCABACコンテキストによって、2値化を算術符号化し得る。たとえば、ビデオエンコーダ20は、たとえば、図3に示されているように、予測ビデオブロックの探索を対象とする領域に制限し、2次元ベクトル(MV)の成分の分布はゼロを中心としていなくてもよい。たとえば、MV_xは、現在のビデオブロック、たとえばCUの(同じ行の)右側のピクセルが符号化/再構成されていないので負になる傾向がある。同様に、たとえば、MV_yは、現在のビデオブロック、たとえばCUの(同じ列の)下方のピクセルが符号化/再構成されていないので負になる傾向がある。
[0154]バイパスモードでは、0の確率と1の確率が等しくなることがある。符号について、このことは、バイパスモードでは、正または負になる確率が等しいことを意味する。2次元ベクトルの成分は、正または負になる確率が等しくないので、ビデオエンコーダ20は、コンテキスト、たとえば0.5以外の初期確率によって符号を算術符号化、たとえばCABAC符号化し得る。
[0155]ビデオエンコーダ20が2次元ベクトルの水平成分(MV_x)をどのように符号化し得るかについての一例は以下の通りである。MV_xに関して説明するが、この技法はまた、2次元ベクトルの垂直成分(MV_y)または現在のベクトルと予測ベクトルとの差を表す残差2次元ベクトルの水平成分または垂直成分、たとえばmvd_xおよびmvd_yの符号化に適用され得る。
[0156]MV_xは、符号値および2値化ストリング(abs(MV_x)の場合)b0 b1・・・によって表され得る。第1のbin b0は、abs(Mv_x)>0である(b0=1)かないか(b0=0)を示す。ビデオエンコーダ20は、コンテキストを有するCABACを使用して第1のbin b0を符号化し得る。Mv_xおよびMv_yのb0は、別個のコンテキストを有し得、あるいは同じコンテキストを共有し得る。いくつかの例において、イントラBCのMVコーディングにおけるi番目のbinは、インター動き補償の動きベクトルコーディングにおけるi番目のbinと同じコンテキストを共有する。いくつかの例において、イントラBCのMVコーディングにおけるi番目のbinとインター動き補償の動きベクトルコーディングにおけるi番目のbinはコンテキストを共有しない。
[0157]後続のbin b1b2・・・はabs(MV_x)−1の値を表し、ビデオエンコーダ20は、指数ゴロムコードをバイパスモードにおけるパラメータ3とともに使用してこれらのbinを符号化し得る。いくつかの例において、ビデオエンコーダ20は、指数ゴロムコードの他の順序、たとえば、1、2、4、5を使用する。いくつかの例において、b1は、abs(MV_x)=1であるか(b1=1)ないか(b1=0)を表す。いくつかの例において、ビデオエンコーダ20は、バイパスモードまたはCABACコンテキストによってb1を符号化し得る。
[0158]いくつかの例において、b2b3・・・はabs(MV_x)−2の値を表し、ビデオエンコーダ20は、バイパスモードにおいて、指数ゴロムコードをパラメータ3とともに使用して、または指数ゴロムコードの他の順序を使用してこれらのbinを符号化し得る。最後のbinは、MV_xの符号を示し得、ビデオエンコーダ20は、バイパスモードにおいてコンテキストなしでこのbinを符号化し得る。他の例において、ビデオエンコーダ20は、CABACを1つまたは複数のコンテキストとともに使用して符号化された符号binを符号化し得る。MV_xおよびMV_yの符号binは、別個のコンテキストを有し得、あるいは同じコンテキストを共有することも可能である。
[0159]いくつかの例において、ビデオコーダ、たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、イントラBCモードの適用、およびフラグ、ベクトル成分、または他のシンタックスの任意の関連するコーディングを、特定のサイズのビデオブロック、すなわち、特定のサイズ基準を満たすビデオブロックに限定し得る。サイズ基準は、最大ブロックサイズおよび/または最小ブロックサイズ(たとえば、IntraMC_MaxSizeおよびIntraMC_MinSize)の一方または両方であり得る。ビデオエンコーダ20は、たとえば、フラグまたは他のシンタックス要素を使用して、符号化ビデオビットストリームにおいて1つまたは複数のサイズ基準をビデオデコーダ30に示し得、あるいはビデオコーダは、特定の色空間(たとえば、YUV、RGBなど)、特定のカラーフォーマット(たとえば、4:2:0、4:4:4など)、フレームサイズ、フレームレート、量子化パラメータ(QP)などの他の情報に基づくか、または前にコーディングされたフレームに基づいて、サイズ基準を暗黙的に決定し得る。たとえば、小さいサイズに関するイントラBCは、システムのメモリ帯域幅要件に影響を与えることがあり、ビデオコーダは、イントラBCをサイズしきい値の上方のブロックに制限するように最小ブロックサイズ基準を適用し得る。
[0160]図8は、本開示において説明する技法を実施し得る例示的なビデオエンコーダを示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングとインターコーディングとを実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接するフレーム内またはピクチャ内のビデオの冗長性を低減または除去するために時間的予測またはビュー間予測に依拠する。イントラモード(Iモード)は、空間ベースのいくつかの圧縮モードのいずれかを指すことがある。単方向予測(Pモード)または双予測(Bモード)などのインターモードは、時間ベースのいくつかの圧縮モードのいずれかに含んでもよい。ビデオエンコーダ20は、本明細書において説明するように、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモード、たとえば、イントラBCモードまたはイントラMCモードを利用するように構成され得る。
[0161]図8の例では、ビデオエンコーダ20は、パーティショニングユニット335と、予測処理ユニット341と、対象領域メモリ364と、フィルタ処理ユニット366と、参照ピクチャメモリ368と、加算器350と、変換処理ユニット352と、量子化処理ユニット354と、エントロピー符号化ユニット356とを含む。予測処理ユニット341は、動き推定ユニット342と、動き補償ユニット344と、イントラ予測処理ユニット346と、イントラブロックコピー(イントラBC)ユニット348およびを含む。ビデオエンコーダ20は、ビデオブロック再構成に関して、逆量子化処理ユニット358と、逆変換処理ユニット360と、加算器362も含む。
[0162]様々な例では、ビデオエンコーダ20のユニットは、本開示の技法を実行する役割を担い得る。また、一部の例では、本開示の技術は、ビデオエンコーダ20のユニットの1つまたは複数の中で分割され得る。たとえば、イントラBCユニット348は、本開示の技法を単独で実行し得、あるいは動き推定ユニット342、動き補償ユニット344、イントラ予測処理ユニット346、対象領域メモリ364、およびエントロピー符号化ユニット356などの、ビデオエンコーダの他のユニットと組み合わせて実行し得る。
[0163]図8に示されているように、ビデオエンコーダ20はビデオデータを受信し、パーティショニングユニット335はデータをビデオブロックにパーティショニングする。このパーティショニングはまた、たとえば、LCUおよびCUの4分木構造に従う、スライス、タイル、または他のより大きいユニットへのパーティショニングならびにビデオブロックパーティショニングを含み得る。ビデオエンコーダ20は概して、符号化すべきビデオスライス内のビデオブロックを符号化する構成要素を示す。スライスは、複数のビデオブロック(場合によってはタイルと呼ばれるビデオブロックの組)に分割されてよい。
[0164]予測処理ユニット341は、誤差結果(たとえば、コーディングレートおよびひずみレベル)に基づいて現在のビデオブロックのために、複数のイントラコーディングモードのうちの1つ、複数のインターコーディングモードのうちの1つ、または本開示において説明する技法によるイントラBCモードなど、複数の可能なコーディングモードのうちの1つを選択し得る。予測処理ユニット341は、得られた予測ブロックを、残差ブロックデータを生成するために加算器250に供給し、たとえば参照ピクチャとして他のビデオブロックを予測する際に使用できる現在のブロックを再構成するために加算器262に供給し得る。
[0165]予測処理ユニット341内のイントラ予測ユニット346は、空間圧縮を行うために、コーディングされるべき現在のブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対する現在のビデオブロックのイントラ予測コーディングを実行し得る。予測処理ユニット341内の動き推定ユニット342および動き補償ユニット344は、たとえば、時間圧縮を行うために、1つまたは複数の参照ピクチャ中の1つまたは複数の予測ブロックに対して現在のビデオブロックのインター予測コーディングを実行する。
[0166]動き推定ユニット342は、ビデオシーケンスの所定のパターンに従ってビデオスライスのためのインター予測モードを決定するために構成され得る。動き推定ユニット342と動き補償ユニット344とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット342によって実施される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、参照ピクチャ内の予測ブロックに対する現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。同様に、本開示の技法に従ってイントラBCに使用される2次元ベクトルは、同じフレームまたはピクチャ内の予測ブロックに対する現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示す。イントラBCユニット348は、インター予測に関する動き推定ユニット342による動きベクトルの決定と同様にイントラBCコーディングに関する2次元ベクトル、たとえばブロックベクトルまたは動きベクトルを決定し得、あるいは動き推定ユニット342を利用して2次元ベクトルを決定し得る。
[0167]たとえば、インター予測またはイントラBC予測に関して動き推定ユニット342および/またはイントラBCユニットによって識別される予測ブロックは、絶対差分和(SAD)、2乗差分和(SSD)、または他の差分メトリックによって決定し得るピクセル差分に関して、コーディングすべきビデオブロックのPUに密に一致するブロックとして見出されるブロックである。いくつかの例において、ビデオエンコーダ20は、参照ピクチャメモリ366に記憶された参照ピクチャのサブ整数ピクセル位置または対象領域メモリ364に記憶された現在のピクチャの対象とする領域に関する値を計算することができる。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数のピクセル位置の値を補間し得る。したがって、動き推定ユニット342および/またはイントラBCユニット348は、完全なピクセル位置および分数のピクセル位置に対して予測ブロックの探索を実行し、分数のピクセル精度でベクトルを出力し得る。
[0168]動き推定ユニット342は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライス中のビデオブロックのPUに関する動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(List0もしくはRefPicList0)または第2の参照ピクチャリスト(List1もしくはRefPicList1)から選択され得、それらの参照ピクチャリストの各々は、参照ピクチャメモリ364に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット342は、計算された動きベクトルをエントロピー符号化ユニット356および動き補償ユニット346に送る。
[0169]動き補償ユニット344によって実施される動き補償は、動き推定によって決定された動きベクトルに基づいて予測ブロックを取り込むことまたは生成すること、場合によってはサブピクセル精度への補間を実施することを伴い得る。現在のビデオブロックのPUについての動きベクトルを受信すると、動き補償ユニット344は、動きベクトルが参照ピクチャリストのうち1つにおいて指す予測ブロックの位置を特定し得る。
[0170]いくつかの例において、イントラBCユニット348は、上記に動き推定ユニット342および動き補償ユニット344に関して説明したのと同様に2次元ベクトルを生成し予測ブロックを取り込むが、予測ブロックは現在のブロックと同じピクチャまたはフレーム内に位置する。他の例において、イントラBCユニット348は、動き推定ユニット342および動き補償ユニット344を全体的または部分的に使用して、本明細書において説明する技法に従ってイントラBC予測に関するそのような機能を実行し得る。いずれの場合も、イントラBCでは、予測ブロックは、ピクセル差分の観点で、コーディングされるべきブロックと密に一致することが見出されたブロックであり、ピクセル差分は、絶対差分和(SAD)、2乗差分和(SSD)、または他の差分メトリックによって決定され得、ブロックの識別は、サブ整数ピクセル位置に関する値の算出を含み得る。
[0171]予測ビデオブロックがイントラBC予測に従って同じピクチャから得られるか、それともインター予測に従って異なるピクチャから得られるかにかかわらず、ビデオエンコーダ20は、コーディング中の現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって残差ビデオブロックを形成し得る。ピクセル差分値は、ブロックの残差データを形成し、ルーマ差分構成要素とクロマ差分構成要素の両方を含み得る。加算器250は、この減算演算を実行する1つまたは複数の構成要素を表す。イントラBCユニット348および/または動き補償ユニット344はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30によって使用できるようにビデオブロックとビデオスライスとに関連付けられたシンタックス要素を生成し得る。シンタックス要素は、たとえば、予測ブロックを識別するのに使用されるベクトル、予測モードを示す任意のフラグ、または本開示の技法に関して説明する任意の他のシンタックスを定義するシンタックス要素を含み得る。
[0172]イントラ予測処理ユニット346は、上記で説明したように、動き推定ユニット342および動き補償ユニット344によって実行されるインター予測、またはイントラBCユニット348によって実行されるイントラBC予測の代替として、現在のブロックをイントラ予測し得る。特に、イントラ予測処理ユニット346は、現在のブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測処理ユニット346は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在のビデオブロックを符号化することができ、イントラ予測モジュール346(または、いくつかの例では、予測処理ユニット341)は、試験されたモードから使用するのに適切なイントラ予測モードを選択することができる。たとえば、イントラ予測処理ユニット346は、様々な試験されたイントラ予測モードにレートひずみ分析を使用してレートひずみ値を算出し、試験されたモードのうちで最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は概して、符号化されたブロックと符号化されたブロックを生成するために符号化された符号化されていない元のブロックとの間のひずみ(またはエラー)の量、ならびに符号化されたブロックを生成するために使用されたビットレート(すなわち、ビットの数)を決定する。イントラ予測処理ユニット346は、符号化された様々なブロックのひずみおよびレートから比を算出し、どのイントラ予測モードがブロックの最良のレートひずみ値を示すかを決定し得る。
[0173]いずれの場合も、ブロックのためのイントラ予測モードを選択した後に、イントラ予測処理ユニット346は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット356に与え得る。エントロピー符号化ユニット356は、本開示の技法に従って、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信されるビットストリームの中に構成データを含み得、構成データは、コンテキストの各々のために使用する、複数のイントラ予測モードのインデックステーブルおよび複数の修正されたイントラ予測モードのインデックステーブル(符号語マッピングテーブルとも呼ばれる)、様々なブロックに対する符号化コンテキストの定義、ならびに、最も起こりそうなイントラ予測モードの表示、イントラ予測モードのインデックステーブル、および修正されたイントラ予測モードのインデックステーブルを含み得る。
[0174]予測処理ユニット341がインター予測、イントラ予測、またはイントラBC予測を介して現在のビデオブロックの予測ブロックを生成した後、ビデオエンコーダ20は、現在のビデオブロックから、たとえば加算器350を介して予測ブロックを減算することによって残差ビデオブロックを形成する。残差ブロック中の残差ビデオデータは、1つまたは複数のTU中に含まれ、変換処理ユニット352に適用され得る。変換処理ユニット352は、離散コサイン変換(DCT:discrete cosine transform)または概念的に同様の変換などの変換を使用して、残差ビデオデータを残差変換係数に変換する。変換処理ユニット352は、残差ビデオデータをピクセル領域から周波数領域などの変換領域に変換し得る。
[0175]変換処理ユニット352は、得られた変換係数を量子化処理ユニット354に送り得る。量子化処理ユニット354は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化処理ユニット354は、次いで、量子化変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット356が走査を実行し得る。
[0176]量子化の後に、エントロピー符号化ユニット356は、量子化変換係数をエントロピー符号化する。たとえば、エントロピー符号化ユニット356は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔パーティショニングエントロピー(PIPE)コーディングまたは別のエントロピー符号化方法もしくは技法を実施し得る。エントロピー符号化ユニット356は、イントラBCモードによる予測に関して、ベクトル成分、フラグ、およびその他のシンタックス要素を含む、シンタックス要素の2値化および符号化のための本明細書において説明する技法のいずれかを実行し得る。エントロピー符号化ユニット356によるエントロピー符号化の後、符号化ビデオビットストリームは、ビデオデコーダ30に送信されるか、またはビデオデコーダ30によって後で送信するかまたは取り出せるようにアーカイブされ得る。
[0177]逆量子化処理ユニット358および逆変換処理ユニット360は、後で他のビデオブロックを予測するために参照ブロックとして使用できるようにピクセル領域において残差ブロックを再構成するために、それぞれ逆量子化および逆変換を適用する。動き補償ユニット344および/またはイントラBCユニット348は、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つの予測ブロックに残差ブロックを加算することによって、参照ブロックを計算し得る。動き補償ユニット344および/またはイントラBCユニット348はまた、サブ整数ピクセル値を動き推定において使用できるように計算するために、1つまたは複数の補間フィルタを再構成された残差ブロックに適用することもできる。
[0178]加算器362は、再構成された残差ブロックを、動き補償ユニット344および/またはイントラBCユニット348によって生成された動き補償予測ブロックに加算して、再構成ビデオブロックを生成する。対象領域メモリ364は、本明細書において説明するように、ビデオエンコーダ20、たとえばイントラBCユニット348によって現在のビデオブロックをイントラBCするための対象とする領域の定義に従って再構成ビデオブロックを記憶する。対象領域メモリ364は、フィルタ処理ユニット366によってインループフィルタ処理されていない再構成ビデオブロックを記憶し得る。加算器362は、再構成ビデオブロックを対象領域メモリ364と並列にフィルタ処理ユニット366に供給し得、あるいは対象領域メモリ364は、対象とする領域がもはやイントラBCには必要でなくなったときに再構成ビデオブロックをフィルタ処理ユニット366に解放し得る。いずれの場合も、イントラBCユニット348は、現在のビデオブロックを予測するために、対象領域メモリ364内の再構成ビデオブロックにおいて現在のビデオブロックと同じピクチャ内の予測ビデオブロックを探索し得る。
[0179]フィルタ処理ユニット366は、再構成ビデオブロックに対してインループフィルタ処理を実行し得る。インループフィルタ処理は、再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するためのデブロックフィルタ処理を含み得る。インループフィルタ処理は、また、再構成されたビデオを改善するためにSAOフィルタ処理を含み得る。再構成ブロックは、そのいくつかがインループフィルタ処理され得、参照ピクチャメモリ368に参照ピクチャとして記憶され得る。参照ピクチャは、後続のビデオフレームまたはピクチャ中のブロックをインター予測するために、動き推定ユニット342および動き補償ユニット344によって予測ブロックとして使用され得る再構成ブロックを含み得る。
[0180]このようにして、ビデオエンコーダ20は、たとえば、イントラBCモードに従ってビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための本開示の例示的な技法を実施するように構成され得る。たとえば、ビデオエンコーダ20は、別の例では、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを符号化する方法を実行するように構成されたビデオエンコーダの例であり得、この方法は、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択することを備える。この方法は、2次元ベクトルを決定することをさらに備え、ここにおいて、2次元ベクトルは、水平変位成分と垂直変位成分とを有し、水平変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の水平変位を表し、垂直変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の垂直変位を表す。この方法は、ビデオデータの現在のブロックおよびビデオデータの予測ブロックに基づいて残差ブロックを決定することと、符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびに残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとをさらに備える。
[0181]ビデオエンコーダ20はまた、符号化ビデオビットストリームを記憶するように構成されたメモリと1つまたは複数のプロセッサとを備えるビデオエンコーダの例であり得る。1つまたは複数のプロセッサは、ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択するように構成される。上記の1つまたは複数のプロセッサは、2次元ベクトルを決定するようにさらに構成され、ここにおいて、2次元ベクトルは、水平変位成分と垂直変位成分とを有し、水平変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の水平変位を表し、垂直変位成分は、ビデオデータの予測ブロックとビデオデータの現在のブロックとの間の垂直変位を表す。1つまたは複数のプロセッサは、ビデオデータの現在のブロックおよびビデオデータの予測ブロックに基づいて残差ブロックを決定することと、符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびに残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとを行うようにさらに構成される。
[0182]図9は、本開示において説明する技法を実施し得る例示的なビデオデコーダを示すブロック図である。図9の例では、ビデオデコーダ30は、エントロピー復号ユニット380と、予測処理ユニット381と、逆量子化処理ユニット386と、逆変換処理ユニット388と、加算器390と、対象領域メモリ392と、フィルタ処理ユニット394と、参照ピクチャメモリ396とを含む。予測処理ユニット381は、動き補償ユニット382と、イントラ予測処理ユニット384と、イントラブロックコピー(イントラBC)ユニット385とを含む。ビデオデコーダ30は、いくつかの例では、図8においてビデオエンコーダ20に関して説明した符号化パスを概ね反転させた復号パスを実行し得る。
[0183]様々な例では、ビデオデコーダ30のユニットは、本開示の技法を実行する役割を担い得る。また、一部の例では、本開示の技術は、ビデオデコーダ30のユニットの1つまたは複数の中で分割することができる。たとえば、イントラBCユニット385は、本開示の技法を単独で実行し得、あるいは動き補償ユニット382、イントラ予測処理ユニット384、対象領域メモリ392、およびエントロピー復号ニット380などの、ビデオデコーダ30の他のユニットと組み合わせて実行し得る。
[0184]復号プロセス中に、ビデオデコーダ30は、符号化ビデオスライスのビデオブロックおよび関連するシンタックス要素を表す符号化ビデオビットストリームを、ビデオエンコーダ20から受信する。ビデオデコーダ30のエントロピー復号ユニット380は、量子化された係数と、インター予測に関する動きベクトルと、イントラBC予測に関する2次元ベクトルと、本明細書において説明する他のシンタックス要素とを生成するために、ビットストリームをエントロピー復号する。エントロピー復号ユニット380は、イントラBCモードによる予測に関して、ベクトル成分、フラグ、およびその他のシンタックス要素を含む、シンタックス要素の2値化および符号化のための本明細書において説明する技法のいずれかを逆に実行し得る。エントロピー復号ユニット380は、予測処理ユニット381にベクトルおよび他のシンタックス要素を転送する。ビデオデコーダ30は、シーケンスレベル、ピクチャレベル、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信することができる。
[0185]ビデオスライスがイントラコード化された(I)スライスとしてコーディングされるとき、予測処理ユニット381のイントラ予測ユニット384は、シグナリングされたイントラ予測モードと、現在のフレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化された(すなわち、B、またはP)スライスとしてコーディングされるとき、予測処理ユニット381の動き補償ユニット382は、エントロピー復号ユニット280から受信された動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ396に記憶された参照ピクチャに基づいて、デフォルトの構成技法または任意の他の技法を使用して、参照フレームリスト、RefPicList0およびRefPicList1を構成し得る。ビデオブロックが本明細書において説明するイントラBCモードに従ってコーディングされるとき、予測処理ユニット381のイントラBCユニット385は、エントロピー復号ユニット380から受信された2次元ベクトルおよび他のシンタックス要素に基づいて、現在のビデオブロックに関する予測ブロックを生成する。予測ブロックは、ビデオエンコーダ20によって定められ対象領域メモリ392から取り出される現在のビデオブロックと同じピクチャ内の対象とする領域内に位置し得る。
[0186]動き補償ユニット382およびイントラBCユニット385は、ベクトルおよび他のシンタックス要素を解析することによって現在のビデオスライスのビデオブロックに関する予測情報を決定し、復号中の現在のビデオブロックのための予測ブロックを生成するために予測情報を使用する。たとえば、動き補償ユニット282は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラ予測またはインター予測)と、インター予測スライスタイプ(たとえば、BスライスまたはPスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数についての構成情報と、スライスの各インター符号化されたビデオブロックのための動きベクトルと、スライスの各インターコード化されたビデオブロックについてのインター予測ステータスと、現在のビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、受信されたシンタックス要素のいくつかを使用する。同様に、イントラBCユニット385は、現在のビデオブロックがイントラBCモードを使用して予測されたこと、ピクチャのどのビデオブロックが対象とする領域内に位置しており対象領域メモリに記憶されるべきであるかを示す対象領域メモリ392に関する構成情報、スライスのイントラBC予測された各ビデオブロックの2次元ベクトル、スライスのイントラBC予測された各ビデオブロックのイントラBC予測ステータス、および現在のビデオスライス内のビデオブロックを復号するための他の情報を決定するために、受信されたシンタックス要素のいくつか、たとえばフラグを使用し得る。
[0187]動き補償ユニット382およびイントラBCユニット385はまた、補間フィルタに基づいて補間を実行することもできる。動き補償ユニット382およびイントラBCユニット385は、予測ブロックのサブ整数ピクセルに関する補間された値を計算するために、ビデオブロックの符号化中にビデオエンコーダ20によって使用されたのと同様に、補間フィルタを使用し得る。この場合、動き補償ユニット382およびイントラBCユニット385は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、予測ブロックを生成するために補間フィルタを使用し得る。
[0188]逆量子化処理ユニット386は、ビットストリーム内に生成され、エントロピー復号ユニット380によって復号された、量子化変換係数を逆量子化(inverse quantize)、すなわち、量子化解除(dequantize)する。逆量子化プロセスは、ビデオエンコーダ20によって算出された量子化パラメータをビデオスライス中のビデオブロックごとに使用して、適用すべき量子化の程度を決定し、同様に、適用すべき逆量子化の程度を決定することを含み得る。逆変換処理ユニット388は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換処理を変換係数に適用する。
[0189]動き補償ユニット382またはイントラBCユニット385が、ベクトルおよび他のシンタックス要素に基づいて現在のビデオブロックのための予測ブロックを生成した後に、ビデオデコーダ30は、逆変換処理ユニット388からの残差ブロックを動き補償ユニット382およびイントラBCユニット385によって生成された対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器390は、再構成ビデオブロックを生成するためにこの加算演算を実行する1つの構成要素または複数の構成要素を表す。
[0190]対象領域メモリ392は、本明細書において説明するように、ビデオエンコーダ20によって現在のビデオブロックをイントラBCするための対象とする領域の定義に従って再構成ビデオブロックを記憶する。対象領域メモリ392は、フィルタ処理ユニット394によってインループフィルタ処理されていない再構成ビデオブロックを記憶し得る。加算器390は、再構成ビデオブロックを対象領域メモリ392と並列にフィルタ処理ユニット394に供給し得、あるいは対象領域メモリ392は、対象とする領域がもはやイントラBCには必要でなくなったときに再構成ビデオブロックをフィルタ処理ユニット394に解放し得る。いずれの場合も、イントラBCユニット385は、対象領域メモリ392から現在のビデオブロックに関する予測ビデオブロックを取り出す。
[0191]フィルタ処理ユニット394は、再構成ビデオブロックに対してインループフィルタ処理を実行し得る。インループフィルタ処理は、再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するためのデブロックフィルタ処理を含んでもよい。インループフィルタ処理は、再構成されたビデオを改善するためにSAOフィルタ処理を含んでもよい。再構成ブロックは、そのいくつかがインループフィルタ処理され得、参照ピクチャメモリ368に参照ピクチャとして記憶され得る。参照ピクチャは、後続のビデオフレームまたはピクチャ中のブロックをインター予測するために、動き補償ユニット382によって予測ブロックとして使用され得る再構成ブロックを含み得る。参照ピクチャメモリ396はまた、復号ビデオを図1のディスプレイデバイス32などのディスプレイデバイス上に後で提示できるように記憶する。
[0192]このようにして、ビデオデコーダ30は、ビデオデータの現在のブロックを同じピクチャ内のビデオデータの予測ブロックに基づいてイントラ予測するための本開示の例示的な技法を実施するように構成され得る。たとえば、ビデオデコーダ30は、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを復号する方法を実行するように構成されたビデオデコーダの例であり得、この方法は、符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を受信することと、1つまたは複数のシンタックス要素を復号することとを備える。この方法は、2次元ベクトルの水平変位成分および垂直変位成分を定義する復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することであって、ビデオデータの予測ブロックはビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、決定することと、ビデオデータの予測ブロックおよび残差ブロックに基づいてビデオデータの現在のブロックを再構成することと、をさらに備える。
[0193]ビデオデコーダ30はまた、ビデオデータを符号化する符号化ビデオビットストリームを記憶するように構成されたメモリと、1つまたは複数のプロセッサとを備える、ビデオデコーダの例であり得る。ビデオデコーダの1つまたは複数のプロセッサは、1つまたは複数のシンタックス要素を復号することと、2次元ベクトルの水平変位成分および垂直変位成分を定義する復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することであって、ビデオデータの予測ブロックはビデオデータの現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、決定することと、ビデオデータの予測ブロックおよび残差ブロックに基づいてビデオデータの現在のブロックを再構成することとを行うように構成され得る。
[0194]図10は、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモード、たとえばイントラBCモードを含むビデオデータを符号化するための例示的な方法を示す流れ図である。図10の例示的な方法は、イントラBCユニット348を含んでもよいビデオエンコーダ20などのビデオエンコーダによって実装され得る。
[0195]図10の例示的な方法によれば、ビデオエンコーダ20が、現在のビデオブロックの現在のピクチャ内の対象とする領域を定義する(400)。本明細書において説明するように、ビデオエンコーダ20は、対象とする領域を現在のLCUを含む領域として定義するか、または現在のLCUとインループフィルタ処理されていない再構成ビデオブロックを含む左に隣接するLCUの部分とを含む領域として定義し得る。いくつかの例において、ビデオエンコーダ20は、対象とする領域の高さまたは最上垂直位置が現在のLCUの垂直方向限界を越えないように対象とする領域を定義し得る。いくつかの例において、ビデオエンコーダ20は、対象とする領域を、整数個、たとえば64個のピクセルまたはLCU幅を水平方向に延長した領域として定義し得る。ビデオエンコーダ20は、対象とする領域を定義することによって、2次元ベクトルの水平変位成分および垂直変位成分の一方または両方を、たとえば最大しきい値より小さくなるかまたは最小しきい値よりも大きくなるように制限し得る。
[0196]ビデオエンコーダ20は、対象とする領域内から現在のビデオブロックに関する予測ブロックを選択する(402)。ビデオエンコーダ20は次いで、現在のビデオブロックから選択された予測ビデオブロックへの2次元ベクトル、たとえば、ブロックベクトルまたは動きベクトル(MV)を決定する(404)。ビデオエンコーダ20は、たとえば、現在のビデオブロックと選択された予測ビデオブロックとの間の差に基づいて、残差ブロックを決定する(406)。ビデオエンコーダ20は、2次元ベクトルを定義する符号化ビデオビットストリームおよび現在のビデオブロックを予測するための残差ブロック内の1つまたは複数のシンタックス要素を符号化する。
[0197]図11は、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモード、たとえばイントラBCモードを含むビデオデータを復号するための例示的な方法を示す流れ図である。図11の例示的な方法は、イントラBCユニット385を含んでもよいビデオデコーダ30などのビデオデコーダによって実行され得る。
[0198]図11の例示的な方法によれば、ビデオデコーダ30は、2次元ベクトルを定義する符号化ビデオビットストリームおよび現在のビデオブロックを予測する残差ブロックから1つまたは複数のシンタックス要素を復号する(410)。ビデオデコーダ30は、2次元ベクトルに基づいて現在のビデオブロックと同じピクチャ内の予測ブロックを決定する(412)。本明細書において説明するように、予測ブロックは、ビデオエンコーダ20によって定められ対象領域メモリ392内に記憶される対象とする領域内に位置し得る。ビデオデコーダ30は次いで、たとえば予測ビデオブロックと残差ブロックの和に基づいて、現在のビデオブロックを再構成することができる(414)。
[0199]図12は、ルーマビデオデータの対応するブロックの2次元ベクトルからクロマビデオデータのブロックに関する2次元ベクトルを導出することを含む例示的な方法を示す流れ図である。図12の例示的な方法は、イントラBCユニット348またはイントラBCユニット385などのイントラBCユニットを含んでもよい、ビデオエンコーダ20および/またはビデオデコーダ30などのビデオデコーダによって実行され得る。
[0200]図12の例示的な方法によれば、ビデオコーダは、イントラBCモードに従って予測される現在のルーマブロックに関する2次元ベクトルおよび残差ブロックを定義する1つまたは複数のシンタックス要素をコーディング、たとえば、符号化または復号する(420)。ビデオコーダは次いで、イントラBCモードに従ってルーマブロックに対応するクロマブロックを予測するためにそのクロマブロックに関する2次元ベクトルを導出し得る(422)。本明細書において説明するように、ビデオコーダは、ルーマブロックに関する2次元ベクトルがクロマ領域内の使用不能なサンプルを指し示すように、コーディングされたビデオのカラーフォーマット(たとえば、4:4:4、4:2:2、または4:2:0)に応じて、2次元ベクトルをスケーリングまたはダウンサンプリングし得る。ビデオコーダは、ルーマブロックに対応するクロマブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素をコーディングし得る(424)。ビデオコーダは、クロマブロックに関する別個の2次元ベクトルを示すシンタックス要素をコーディングする必要がない。
[0201]図13は、予測2次元ベクトルを決定することを含む、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを符号化する例示的な方法を示す流れ図である。図13の例示的な方法は、イントラBCユニット348を含んでもよいビデオエンコーダ20などのビデオエンコーダによって実施され得る。
[0202]図13の例示的な方法によれば、ビデオエンコーダ20は、現在のビデオブロックに関する、現在のブロックと同じピクチャ内の対象とする領域から選択された予測ブロックに基づいて2次元ベクトルを決定する(430)。ビデオエンコーダ20は、現在のビデオブロックが、現在のLCUにおいてイントラBCモードによって予測された第1のブロックであるかどうかを決定する(432)。現在のビデオブロックが第1のビデオブロックである場合(432のYES)、ビデオエンコーダ20は、現在のビデオブロックに関する予測2次元ベクトルはデフォルトの2次元ベクトルであると決定し得る(434)。本明細書において説明するように、デフォルトの2次元ベクトルの一例は(−w,0)であり、ここにおいて、wは現在のビデオブロックを備える現在のコーディングユニットの幅である。
[0203]現在のビデオブロックが、現在のLCUにおいてイントラBCモードによって予測された第1のビデオブロックではない場合(432のNO)、ビデオエンコーダ20は、イントラBCモードに従って直近に予測された(most-recently previously-predicted)ビデオブロックを予測するのに使用された直前の2次元ベクトルを決定し得る(436)。ビデオエンコーダ20は、現在のビデオブロックに関する予測ベクトルがイントラBCに使用されたこの直前の2次元ベクトルであると決定する(438)。ビデオエンコーダ20は、予測2次元ベクトル、たとえば、デフォルトベクトルまたは直前のベクトルに基づいて、現在のビデオブロックに関する残差2次元ベクトルを決定する(440)。ビデオエンコーダ20は次いで、たとえば、現在のビデオブロックに関して決定される2次元ベクトルではなく、符号化ビデオビットストリーム内の現在のビデオブロックに関する残差2次元ベクトルを定義する1つまたは複数のシンタックス要素を符号化し得る(442)。
[0204]図14は、予測2次元ベクトルを決定することを含む、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを復号する例示的な方法を示す流れ図である。図14の例示的な方法は、イントラBCユニット385を含み得るビデオデコーダ30などのビデオデコーダによって実行され得る。
[0205]図14の例示的な方法によれば、ビデオデコーダ30は、たとえば、ビデオエンコーダ20によって現在のビデオブロックに関して決定される2次元ベクトルではなく、符号化ビデオビットストリームから得た現在のビデオブロックに関する残差2次元ベクトルを定義する1つまたは複数のシンタックス要素を復号する(450)。ビデオデコーダ30は、現在のビデオブロックが、現在のLCUにおいてイントラBCモードによって予測された第1のブロックであるかどうかを決定する(452)。現在のビデオブロックが第1のビデオブロックである場合(452のYES)、ビデオデコーダ30は、現在のビデオブロックに関する予測2次元ベクトルがデフォルトの2次元ベクトルであると決定し得る(454)。
[0206]現在のビデオブロックが、現在のLCUにおいてイントラBCモードによって予測された第1のビデオブロックではない場合(452のNO)、ビデオデコーダ30は、イントラBCモードに従って直近に予測されたビデオブロックを予測するのに使用された直前の2次元ベクトルを決定し得る(456)。ビデオデコーダ30は、現在のビデオブロックに関する予測ベクトルがイントラBCに使用されたこの直前の2次元ベクトルであると決定する(458)。ビデオデコーダ30は、予測2次元ベクトル、たとえば、デフォルトベクトルまたは直前のベクトル、および残差2次元ベクトルに基づき、たとえば、予測2次元ベクトルと残差2次元ベクトルとの和に基づいて、現在のビデオブロックに関する現在の2次元ベクトルを決定し得る(460)。
[0207]図15は、ビデオデータの現在のブロックに関する予測2次元ベクトル候補を決定するための例示的な方法を示す流れ図である。図15の例示的な方法は、イントラBCユニット348またはイントラBCユニット385などのイントラBCユニットを含み得る、ビデオエンコーダ20および/またはビデオデコーダ30などのビデオデコーダによって実行され得る。
[0208]図15の例示的な方法によれば、ビデオコーダは、現在のビデオブロックの隣接ブロックの2次元ベクトルをチェックし(470)、ベクトルが利用可能であるかどうか、たとえば、隣接ブロックがイントラBCを使用してコーディングされたかどうかを決定する(472)。ベクトルが利用可能である場合(472のYES)、ビデオコーダは、現在のビデオブロックに関する予測ベクトル候補リストにベクトルを挿入し得る(474)。ベクトルが利用可能ではない場合(472のNO)、ビデオコーダは、現在のビデオブロックに関する予測候補リストにデフォルトのベクトルを挿入し得る(476)。
[0209]実施例に応じて、本明細書に記載される技法のうちの任意のものの特定の動作または事象は、異なるシーケンスで実行され得、全体的に追加、結合、または除外され得ることが、認識されるべきである(たとえば、ここに記載される動作または事象のすべてがこの技法の実施のために必要なわけではない)。その上、いくつかの例では、動作または事象は、たとえば、マルチスレッドの処理、割込み処理、または多数のプロセッサを用いて、連続的ではなく同時に実行され得る。
[0210]1つまたは複数の例では、述べられた機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実施され得る。ソフトウェアで実施される場合、諸機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体を介して記憶または伝送され得、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの、有形の媒体に相当するコンピュータ可読記憶媒体、またはコンピュータプログラムの、ある場所から別の場所への、たとえば、通信プロトコルによる転送を促進する任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、一般に、(1)非一時的である有形のコンピュータ可読記憶媒体または(2)信号もしくはキャリア波などの通信媒体に相当し得る。データ記憶媒体は、本開示で説明する技法の実装のために、命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含むことができる。
[0211]一例として、ただし限定するものではないが、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMもしくは他の光ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶デバイス、フラッシュメモリ、または命令もしくはデータ構造の形態で所望のプログラムコードを記憶するために使用可能であり、コンピュータによってアクセス可能な他の任意の媒体を備えることができる。さらに、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用してウェブサイト、サーバ、または他の遠隔ソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号または他の一時的媒体を含まず、その代わりに非一時的な有形記憶媒体に向けられていることを理解されたい。本明細書で、ディスク(diskおよびdisc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイ(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常は、磁気的にデータを再生し、ディスク(disc)は、レーザーで光学的にデータを再生する。前述の組合せもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0212]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の同等の統合されたもしくは離散的論理回路など、1つまたは複数のプロセッサによって実行することができる。したがって、本明細書で、「プロセッサ」という用語は、前述の構造体または本明細書に記載の技法の実装に適した任意の他の構造体のいずれかを示し得る。加えて、いくつかの態様では、本明細書に記載の機能は、符号化および復号のために構成された専用ハードウェアおよび/またはソフトウェアモジュール内で提供され得る、あるいは結合されたコーデックに組み込むことができる。また、本技法は、1つまたは複数の回路または論理要素で完全に実装することができる。
[0213]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置で実装することができる。様々な構成要素、モジュール、またはユニットが、開示される技法を実行するように構成されたデバイスの機能的態様を強調するために本開示で説明されるが、異なるハードウェアユニットによる実現を必ずしも必要としない。そうではなくて、前述のように、様々なユニットは、コーデックハードウェアユニットで結合され得る、または、適切なソフトウェアおよび/またはファームウェアとともに、前述のように1つまたは複数のプロセッサを含む、相互に動作するハードウェアユニットの一群によって提供され得る。
[0214]様々な例について説明した。前述およびその他の例は、次の特許請求の範囲の範囲内にある。
[0214]様々な例について説明した。前述およびその他の例は、次の特許請求の範囲の範囲内にある。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを復号する方法であって、
符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を受信することと、
前記1つまたは複数のシンタックス要素を復号することと、
前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する前記復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することと、ここにおいて、ビデオデータの前記予測ブロックがビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、
ビデオデータの前記予測ブロックおよび前記残差ブロックに基づいてビデオデータの前記現在のブロックを再構成することとを備える方法。
[C2]
前記2次元ベクトルの前記水平変位成分および前記垂直変位成分は整数ピクセル解像度を有するように制限される、上記C1に記載の方法。
[C3]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、上記C2に記載の方法。
[C4]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、上記C2に記載の方法。
[C5]
ビデオデータの前記予測ブロックは、前記ピクチャ内の対象とする領域内に位置する、上記C1に記載の方法。
[C6]
インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶することをさらに備え、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、上記C5に記載の方法。
[C7]
ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記最大コーディングユニットのサイズに基づいて定められる、上記C5に記載の方法。
[C8]
前記対象とする領域の前記高さは、前記最大コーディングユニットの高さに基づいて定められる、上記C7に記載の方法。
[C9]
前記対象とする領域の高さまたは幅の少なくとも一方は、整数個のサンプルに基づいて定められる、上記C5に記載の方法。
[C10]
前記対象とする領域の前記幅は、前記整数個のサンプルに基づいて定められる、上記C9に記載の方法。
[C11]
前記整数個のサンプルは64個である、上記C10に記載の方法。
[C12]
ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記対象とする領域が前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置するように制限される、上記C5に記載の方法。
[C13]
前記シンタックス要素を復号することは、前記対象とする領域のサイズに基づいて切り捨てられた値を用いて符号化されたシンタックス要素を復号することを備える、上記C5に記載の方法。
[C14]
前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する1つまたは複数のシンタックス要素を受信することは、前記符号化ビットストリームにおいて、残差2次元ベクトルの残差水平変位成分および残差垂直変位成分を定義する1つまたは複数のシンタックス要素を受信することを備え、前記方法は、
予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
前記残差2次元ベクトルおよび前記予測2次元ベクトルの前記水平変位成分および前記垂直変位成分に基づいて前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を決定することとをさらに備える、上記C1に記載の方法。
[C15]
前記予測2次元ベクトルを決定することは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを決定することを備える、上記C14に記載の方法。
[C16]
前記現在のビデオブロックは最大コーディングユニット内に位置し、前記予測2次元ベクトルを決定することは、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを備える、上記C14に記載の方法。
[C17]
前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、上記C16に記載の方法。
[C18]
前記予測2次元ベクトルを決定することは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを選択することを備える、上記C14に記載の方法。
[C19]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、上記C18に記載の方法。
[C20]
前記予測2次元ベクトルを決定することは、
前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数が、前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
前記利用可能でない以前に決定された1つまたは複数の2次元ベクトルをデフォルトの予測2次元ベクトルで置き換えることとを備える、上記C18に記載の方法。
[C21]
ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、上記C1に記載の方法。
[C22]
前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、上記C21に記載の方法。
[C23]
ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記方法は、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出することをさらに備える、上記C1に記載の方法。
[C24]
ビデオデータの前記現在のブロックのサイズを決定することをさらに備え、ここにおいて、1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックを再構成することは、前記1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することを備える、上記C1に記載の方法。
[C25]
前記サイズ基準は最小サイズを備える、上記C24に記載の方法。
[C26]
ビデオデータの前記現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを復号することをさらに備え、
ここにおいて、前記1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することは、前記1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータの前記現在のブロックがビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたことを示す前記フラグに応答して、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することを備え、
ここにおいて、前記フラグを復号することは、単一の固定コンテキストによって前記フラグを算術復号することを備える、上記C1に記載の方法。
[C27]
イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用することをさらに備える、上記C1に記載の方法。
[C28]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを符号化する方法であって、
ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択することと、
2次元ベクトルを決定することと、ここにおいて、前記2次元ベクトルは、水平変位成分と垂直変位成分とを有し、前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表す、
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて残差ブロックを決定することと、
符号化ビデオビットストリームにおいて、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分ならびに前記残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとを備える方法。
[C29]
ビデオデータの前記予測ブロックを選択することは、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を整数ピクセル解像度を有するように制限することを備える、上記C28に記載の方法。
[C30]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、上記C29に記載の方法。
[C31]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、上記C29に記載の方法。
[C32]
ビデオデータの前記予測ブロックを選択することは、
前記ピクチャ内の対象とする領域を定義することと、
前記対象とする領域内のビデオデータの予測ブロックを選択することとを備える、上記C28に記載の方法。
[C33]
インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶することをさらに備え、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、上記C32に記載の方法。
[C34]
ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記対象とする領域を定義することは、前記最大コーディングユニットのサイズに基づいて前記対象とする領域を定義することを備える、上記C32に記載の方法。
[C35]
前記最大コーディングユニットの前記サイズに基づいて前記対象とする領域を定義することは、前記最大コーディングユニットの高さに基づいて前記対象とする領域の高さを定めることを備える、上記C34に記載の方法。
[C36]
前記対象とする領域を定義することは、整数個のサンプルに基づいて前記対象とする領域の高さまたは幅の少なくとも一方を定めることを備える、上記C32に記載の方法。
[C37]
前記対象とする領域のサイズを整数個のサンプルに定めることは、整数個のサンプルに基づいて前記対象とする領域の幅を定めることを備える、上記C36に記載の方法。
[C38]
前記整数個のサンプルは64個である、上記C37に記載の方法。
[C39]
ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記対象とする領域を定義することは、前記対象とする領域を前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置するように定義することを備える、上記C32に記載の方法。
[C40]
前記シンタックス要素を符号化することは、前記対象とする領域のサイズに基づいて切り捨てられた値を有するシンタックス要素を符号化することを備える、上記C32に記載の方法。
[C41]
ビデオデータの前記現在のブロックとビデオデータの前記予測ブロックとの間の前記2次元ベクトルは現在の2次元ベクトルを備え、前記方法は、
予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
前記現在の2次元ベクトルおよび前記予測2次元ベクトルに基づいて残差水平変位成分および残差垂直変位成分を含む残差2次元ベクトルを決定することとをさらに備え、
ここにおいて、前記現在の2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する1つまたは複数のシンタックス要素を符号化することは、前記符号化ビデオビットストリームにおいて、前記残差2次元ベクトルを定義する1つまたは複数のシンタックス要素を符号化することを備える、上記C28に記載の方法。
[C42]
前記予測2次元ベクトルを決定することは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを決定することを備える、上記C41に記載の方法。
[C43]
前記現在のビデオブロックは最大コーディングユニット内に位置し、前記予測2次元ベクトルを決定することは、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを備える、上記C41に記載の方法。
[C44]
前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、上記C43に記載の方法。
[C45]
前記予測2次元ベクトルを決定することは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを選択することを備える、上記C41に記載の方法。
[C46]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、上記C45に記載の方法。
[C47]
前記予測2次元ベクトルを決定することは、
前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数は前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
前記利用可能でない、以前に決定された1つまたは複数の2次元ベクトルを、デフォルトの予測2次元ベクトルで置き換えることとを備える、上記C45に記載の方法。
[C48]
ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、上記C28に記載の方法。
[C49]
前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、上記C48に記載の方法。
[C50]
ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記方法は、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出することをさらに備える、上記C28に記載の方法。
[C51]
ビデオデータの前記現在のブロックのサイズを決定することをさらに備え、ここにおいて、予測ブロックを選択し、前記2次元ベクトルを決定し、前記残差ブロックを決定し、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従って前記1つまたは複数のシンタックス要素を符号化することは、前記予測ブロックを選択し、前記2次元ベクトルを決定し、前記残差ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従って前記1つまたは複数のシンタックス要素を符号化することを備える、上記C28に記載の方法。
[C52]
前記サイズ基準は最小サイズを備える、上記C51に記載の方法。
[C53]
ビデオデータの前記現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを符号化することをさらに備え、ここにおいて、前記フラグを符号化することは、単一の固定コンテキストによって前記フラグを算術符号化することを備える、上記C28に記載の方法。
[C54]
イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用することをさらに備える、上記C28に記載の方法。
[C55]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータを復号するように構成されたビデオデコーダを備えるデバイスであって、前記ビデオデコーダは、
2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を備える符号化ビデオビットストリームを記憶するように構成されたメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサは、
前記1つまたは複数のシンタックス要素を復号することと、
前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する前記復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することと、ここにおいて、ビデオデータの前記予測ブロックがビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、
ビデオデータの前記予測ブロックおよび前記残差ブロックに基づいてビデオデータの前記現在のブロックを再構成することと、を行うように構成される、デバイス。
[C56]
前記2次元ベクトルの前記水平変位成分および前記垂直変位成分は整数ピクセル解像度を有するように制限される、上記C55に記載のデバイス。
[C57]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、上記C56に記載のデバイス。
[C58]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、上記C56に記載のデバイス。
[C59]
ビデオデータの前記予測ブロックは、前記ピクチャ内の対象とする領域内に位置する、上記C55に記載のデバイス。
[C60]
前記1つまたは複数のプロセッサは、インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶するように構成され、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、上記C59に記載のデバイス。
[C61]
ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記最大コーディングユニットのサイズに基づいて定められる、上記C59に記載のデバイス。
[C62]
前記対象とする領域の前記高さは、前記最大コーディングユニットの高さに基づいて定められる、上記C61に記載のデバイス。
[C63]
前記対象とする領域の高さまたは幅の少なくとも一方は、整数個のサンプルに基づいて定められる、上記C59に記載のデバイス。
[C64]
前記対象とする領域の前記幅は、前記整数個のサンプルに基づいて定められる、上記C63に記載のデバイス。
[C65]
前記整数個のサンプルは64個である、上記C64に記載のデバイス。
[C66]
ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記対象とする領域が前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置するように制限される、上記C59に記載のデバイス。
[C67]
前記1つまたは複数のプロセッサは、前記対象とする領域のサイズに基づいて切り捨てられた値を用いてシンタックス要素が符号化されたときに前記シンタックス要素を復号するように構成される、上記C59に記載のデバイス。
[C68]
前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する1つまたは複数のシンタックス要素は、残差2次元ベクトルの残差水平変位成分および残差垂直変位成分を定義する1つまたは複数のシンタックス要素を備え、前記1つまたは複数のプロセッサは、
予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
前記残差および予測2次元ベクトルの前記水平変位成分および前記垂直変位成分に基づいて前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を決定することとを行うように構成される、上記C55に記載のデバイス。
[C69]
前記1つまたは複数のプロセッサは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを、前記予測2次元ベクトルであると決定するように構成される、上記C68に記載のデバイス。
[C70]
前記現在のビデオブロックは最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを行うように構成される、上記C68に記載のデバイス。
[C71]
前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、上記C70に記載のデバイス。
[C72]
前記1つまたは複数のプロセッサは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを前記予測2次元ベクトルとして選択するように構成される、上記C68に記載のデバイス。
[C73]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、上記C72に記載のデバイス。
[C74]
前記1つまたは複数のプロセッサは、
前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数は前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
前記利用可能でない、以前に決定された1つまたは複数の2次元ベクトルを、デフォルトの予測2次元ベクトルで置き換えることとを行うように構成される、上記C72に記載のデバイス。
[C75]
ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、上記C55に記載のデバイス。
[C76]
前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、上記C75に記載のデバイス。
[C77]
ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記1つまたは複数のプロセッサは、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出するように構成される、上記C55に記載のデバイス。
[C78]
前記1つまたは複数のプロセッサは、
ビデオデータの前記現在のブロックのサイズを決定することと、
前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することと、を行うように構成される、上記C55に記載のデバイス。
[C79]
前記サイズ基準は最小サイズを備える、上記C78に記載のデバイス。
[C80]
前記符号化ビデオビットストリームは、ビデオデータの現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを含み、前記1つまたは複数のプロセッサは、
単一の固定コンテキストによって前記フラグを算術復号することと、
前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータの前記現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたことを示す前記フラグに応答して、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することとを行うように構成される、上記C55に記載のデバイス。
[C81]
前記1つまたは複数のプロセッサは、イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用するように構成される、上記C55に記載のデバイス。
[C82]
前記デバイスは、
マイクロプロセッサと、
集積回路(IC)と、
前記ビデオデコーダを備えるワイヤレス通信デバイス
のうちの1つを備える、上記C55に記載のデバイス。
[C83]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータを符号化するように構成されたビデオエンコーダを備えるデバイスであって、前記ビデオエンコーダは
符号化ビデオビットストリームを記憶するように構成されたメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサは、
ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択することと、
2次元ベクトルを決定することと、ここにおいて、前記2次元ベクトルは、水平変位成分と垂直変位成分とを有し、前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表す、
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて残差ブロックを決定することと、
符号化ビデオビットストリームにおいて、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分ならびに前記残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとを行うように構成されるデバイス。
[C84]
前記1つまたは複数のプロセッサは、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を整数ピクセル解像度を有するように制限するように構成される、上記C83に記載のデバイス。
[C85]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、上記C84に記載のデバイス。
[C86]
ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、上記C84に記載のデバイス。
[C87]
前記1つまたは複数のプロセッサは、
前記ピクチャ内の対象とする領域を定義することと、
前記対象とする領域内のビデオデータの予測ブロックを選択することとを行うように構成される、上記C83に記載のデバイス。
[C88]
前記1つまたは複数のプロセッサは、インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶するように構成され、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、上記C87に記載のデバイス。
[C89]
ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、前記最大コーディングユニットのサイズに基づいて前記対象とする領域を定義するように構成される、上記C87に記載のデバイス。
[C90]
前記1つまたは複数のプロセッサは、前記最大コーディングユニットの高さに基づいて前記対象とする領域の高さを定めるように構成される、上記C89に記載のデバイス。
[C91]
前記1つまたは複数のプロセッサは、整数個のサンプルに基づいて前記対象とする領域の高さまたは幅の少なくとも一方を定めるように構成される、上記C87に記載のデバイス。
[C92]
前記1つまたは複数のプロセッサが、前記整数個のサンプルに基づいて前記対象とする領域の幅を定めるように構成される、上記C91に記載のデバイス。
[C93]
前記整数個のサンプルは64個である、上記C92に記載のデバイス。
[C94]
ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、前記対象とする領域を前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置する領域として定義するように構成される、上記C87に記載のデバイス。
[C95]
前記1つまたは複数のプロセッサは、前記対象とする領域のサイズに基づいて切り捨てられた値を有する前記シンタックス要素を符号化するように構成される、上記C87に記載のデバイス。
[C96]
ビデオデータの前記現在のブロックとビデオデータの前記予測ブロックとの間の前記2次元ベクトルは現在の2次元ベクトルを備え、前記1つまたは複数のプロセッサは、
予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
前記現在の2次元ベクトルおよび前記予測2次元ベクトルに基づいて残差水平変位成分および残差垂直変位成分を含む残差2次元ベクトルを決定することと、
前記符号化ビデオビットストリームにおいて、前記残差2次元ベクトルを定義する1つまたは複数のシンタックス要素を符号化することとを行うように構成される、上記C83に記載のデバイス。
[C97]
前記1つまたは複数のプロセッサは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを、前記予測2次元ベクトルとして決定するように構成される、上記C96に記載のデバイス。
[C98]
前記現在のビデオブロックは最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを行うように構成される、上記C96に記載のデバイス。
[C99]
前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、上記C98に記載のデバイス。
[C100]
前記1つまたは複数のプロセッサは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを前記予測2次元ベクトルとして選択するように構成される、上記C96に記載のデバイス。
[C101]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、上記C100に記載のデバイス。
[C102]
前記1つまたは複数のプロセッサは、
前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数は前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
前記利用可能でない、以前に決定された1つまたは複数の2次元ベクトルを、デフォルトの予測2次元ベクトルで置き換えることとを行うように構成される、上記C100に記載のデバイス。
[C103]
ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、上記C83に記載のデバイス。
[C104]
前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、上記C103に記載のデバイス。
[C105]
ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記1つまたは複数のプロセッサは、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出するように構成される、上記C83に記載のデバイス。
[C106]
前記1つまたは複数のプロセッサは、
ビデオデータの前記現在のブロックのサイズを決定することと、
前記予測ブロックを選択し、前記2次元ベクトルを決定し、前記残差ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従って前記1つまたは複数のシンタックス要素を符号化することとを行うように構成される、上記C83に記載のデバイス。
[C107]
前記サイズ基準は最小サイズを備える、上記C106に記載のデバイス。
[C108]
前記1つまたは複数のプロセッサは、ビデオデータの現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを単一の固定コンテキストによって算術符号化するように構成される、上記C83に記載のデバイス。
[C109]
前記1つまたは複数のプロセッサは、イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用するように構成される、上記C83に記載のデバイス。
[C110]
前記デバイスは、
マイクロプロセッサと、
集積回路(IC)と、
前記ビデオエンコーダを備えるワイヤレス通信デバイス
のうちの1つを備える、上記C83に記載のデバイス。
[C111]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータをコーディングするように構成されたビデオコーダを備えるデバイスであって、前記ビデオコーダは、
2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を含むビデオビットストリームをコーディングするための手段と、
ビデオデータの前記現在のブロックに関するビデオデータの予測ブロックを決定するための手段とを備え、
ここにおいて、前記2次元ベクトルの前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記2次元ベクトルの前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表し、
ビデオデータの前記予測ブロックは、ビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックであり、
前記残差ブロックは、ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて決定されるデバイス。
[C112]
ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータをコーディングするための命令が記憶された非一時的コンピュータ可読記憶媒体であって、前記命令は、実行されたときに、1つまたは複数のプロセッサに、
2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を含むビデオビットストリームをコーディングすることと、
ビデオデータの前記現在のブロックに関するビデオデータの予測ブロックを決定することとを行わせ、
ここにおいて、前記2次元ベクトルの前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記2次元ベクトルの前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表し、
ビデオデータの前記予測ブロックは、ビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックであり、
前記残差ブロックは、ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて決定される、非一時的コンピュータ可読記憶媒体。

Claims (112)

  1. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを復号する方法であって、
    符号化ビデオビットストリームにおいて、2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を受信することと、
    前記1つまたは複数のシンタックス要素を復号することと、
    前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する前記復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することと、ここにおいて、ビデオデータの前記予測ブロックがビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、
    ビデオデータの前記予測ブロックおよび前記残差ブロックに基づいてビデオデータの前記現在のブロックを再構成することとを備える方法。
  2. 前記2次元ベクトルの前記水平変位成分および前記垂直変位成分は整数ピクセル解像度を有するように制限される、請求項1に記載の方法。
  3. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、請求項2に記載の方法。
  4. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、請求項2に記載の方法。
  5. ビデオデータの前記予測ブロックは、前記ピクチャ内の対象とする領域内に位置する、請求項1に記載の方法。
  6. インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶することをさらに備え、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、請求項5に記載の方法。
  7. ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記最大コーディングユニットのサイズに基づいて定められる、請求項5に記載の方法。
  8. 前記対象とする領域の前記高さは、前記最大コーディングユニットの高さに基づいて定められる、請求項7に記載の方法。
  9. 前記対象とする領域の高さまたは幅の少なくとも一方は、整数個のサンプルに基づいて定められる、請求項5に記載の方法。
  10. 前記対象とする領域の前記幅は、前記整数個のサンプルに基づいて定められる、請求項9に記載の方法。
  11. 前記整数個のサンプルは64個である、請求項10に記載の方法。
  12. ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記対象とする領域が前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置するように制限される、請求項5に記載の方法。
  13. 前記シンタックス要素を復号することは、前記対象とする領域のサイズに基づいて切り捨てられた値を用いて符号化されたシンタックス要素を復号することを備える、請求項5に記載の方法。
  14. 前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する1つまたは複数のシンタックス要素を受信することは、前記符号化ビットストリームにおいて、残差2次元ベクトルの残差水平変位成分および残差垂直変位成分を定義する1つまたは複数のシンタックス要素を受信することを備え、前記方法は、
    予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
    前記残差2次元ベクトルおよび前記予測2次元ベクトルの前記水平変位成分および前記垂直変位成分に基づいて前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を決定することとをさらに備える、請求項1に記載の方法。
  15. 前記予測2次元ベクトルを決定することは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを決定することを備える、請求項14に記載の方法。
  16. 前記現在のビデオブロックは最大コーディングユニット内に位置し、前記予測2次元ベクトルを決定することは、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを備える、請求項14に記載の方法。
  17. 前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、請求項16に記載の方法。
  18. 前記予測2次元ベクトルを決定することは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを選択することを備える、請求項14に記載の方法。
  19. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、請求項18に記載の方法。
  20. 前記予測2次元ベクトルを決定することは、
    前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数が、前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
    前記利用可能でない以前に決定された1つまたは複数の2次元ベクトルをデフォルトの予測2次元ベクトルで置き換えることとを備える、請求項18に記載の方法。
  21. ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、請求項1に記載の方法。
  22. 前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、請求項21に記載の方法。
  23. ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記方法は、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出することをさらに備える、請求項1に記載の方法。
  24. ビデオデータの前記現在のブロックのサイズを決定することをさらに備え、ここにおいて、1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックを再構成することは、前記1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することを備える、請求項1に記載の方法。
  25. 前記サイズ基準は最小サイズを備える、請求項24に記載の方法。
  26. ビデオデータの前記現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを復号することをさらに備え、
    ここにおいて、前記1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することは、前記1つまたは複数のシンタックス要素を受信し、前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータの前記現在のブロックがビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたことを示す前記フラグに応答して、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することを備え、
    ここにおいて、前記フラグを復号することは、単一の固定コンテキストによって前記フラグを算術復号することを備える、請求項1に記載の方法。
  27. イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用することをさらに備える、請求項1に記載の方法。
  28. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータを符号化する方法であって、
    ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択することと、
    2次元ベクトルを決定することと、ここにおいて、前記2次元ベクトルは、水平変位成分と垂直変位成分とを有し、前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表す、
    ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて残差ブロックを決定することと、
    符号化ビデオビットストリームにおいて、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分ならびに前記残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとを備える方法。
  29. ビデオデータの前記予測ブロックを選択することは、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を整数ピクセル解像度を有するように制限することを備える、請求項28に記載の方法。
  30. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、請求項29に記載の方法。
  31. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、請求項29に記載の方法。
  32. ビデオデータの前記予測ブロックを選択することは、
    前記ピクチャ内の対象とする領域を定義することと、
    前記対象とする領域内のビデオデータの予測ブロックを選択することとを備える、請求項28に記載の方法。
  33. インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶することをさらに備え、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、請求項32に記載の方法。
  34. ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記対象とする領域を定義することは、前記最大コーディングユニットのサイズに基づいて前記対象とする領域を定義することを備える、請求項32に記載の方法。
  35. 前記最大コーディングユニットの前記サイズに基づいて前記対象とする領域を定義することは、前記最大コーディングユニットの高さに基づいて前記対象とする領域の高さを定めることを備える、請求項34に記載の方法。
  36. 前記対象とする領域を定義することは、整数個のサンプルに基づいて前記対象とする領域の高さまたは幅の少なくとも一方を定めることを備える、請求項32に記載の方法。
  37. 前記対象とする領域のサイズを整数個のサンプルに定めることは、整数個のサンプルに基づいて前記対象とする領域の幅を定めることを備える、請求項36に記載の方法。
  38. 前記整数個のサンプルは64個である、請求項37に記載の方法。
  39. ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記対象とする領域を定義することは、前記対象とする領域を前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置するように定義することを備える、請求項32に記載の方法。
  40. 前記シンタックス要素を符号化することは、前記対象とする領域のサイズに基づいて切り捨てられた値を有するシンタックス要素を符号化することを備える、請求項32に記載の方法。
  41. ビデオデータの前記現在のブロックとビデオデータの前記予測ブロックとの間の前記2次元ベクトルは現在の2次元ベクトルを備え、前記方法は、
    予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
    前記現在の2次元ベクトルおよび前記予測2次元ベクトルに基づいて残差水平変位成分および残差垂直変位成分を含む残差2次元ベクトルを決定することとをさらに備え、
    ここにおいて、前記現在の2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する1つまたは複数のシンタックス要素を符号化することは、前記符号化ビデオビットストリームにおいて、前記残差2次元ベクトルを定義する1つまたは複数のシンタックス要素を符号化することを備える、請求項28に記載の方法。
  42. 前記予測2次元ベクトルを決定することは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを決定することを備える、請求項41に記載の方法。
  43. 前記現在のビデオブロックは最大コーディングユニット内に位置し、前記予測2次元ベクトルを決定することは、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを備える、請求項41に記載の方法。
  44. 前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、請求項43に記載の方法。
  45. 前記予測2次元ベクトルを決定することは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを選択することを備える、請求項41に記載の方法。
  46. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、請求項45に記載の方法。
  47. 前記予測2次元ベクトルを決定することは、
    前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数は前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
    前記利用可能でない、以前に決定された1つまたは複数の2次元ベクトルを、デフォルトの予測2次元ベクトルで置き換えることとを備える、請求項45に記載の方法。
  48. ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、請求項28に記載の方法。
  49. 前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、請求項48に記載の方法。
  50. ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記方法は、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出することをさらに備える、請求項28に記載の方法。
  51. ビデオデータの前記現在のブロックのサイズを決定することをさらに備え、ここにおいて、予測ブロックを選択し、前記2次元ベクトルを決定し、前記残差ブロックを決定し、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従って前記1つまたは複数のシンタックス要素を符号化することは、前記予測ブロックを選択し、前記2次元ベクトルを決定し、前記残差ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従って前記1つまたは複数のシンタックス要素を符号化することを備える、請求項28に記載の方法。
  52. 前記サイズ基準は最小サイズを備える、請求項51に記載の方法。
  53. ビデオデータの前記現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを符号化することをさらに備え、ここにおいて、前記フラグを符号化することは、単一の固定コンテキストによって前記フラグを算術符号化することを備える、請求項28に記載の方法。
  54. イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用することをさらに備える、請求項28に記載の方法。
  55. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータを復号するように構成されたビデオデコーダを備えるデバイスであって、前記ビデオデコーダは、
    2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を備える符号化ビデオビットストリームを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサは、
    前記1つまたは複数のシンタックス要素を復号することと、
    前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する前記復号されたシンタックス要素に基づいてビデオデータの現在のブロックに関するビデオデータの予測ブロックを決定することと、ここにおいて、ビデオデータの前記予測ブロックがビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックである、
    ビデオデータの前記予測ブロックおよび前記残差ブロックに基づいてビデオデータの前記現在のブロックを再構成することと、を行うように構成される、デバイス。
  56. 前記2次元ベクトルの前記水平変位成分および前記垂直変位成分は整数ピクセル解像度を有するように制限される、請求項55に記載のデバイス。
  57. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、請求項56に記載のデバイス。
  58. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、請求項56に記載のデバイス。
  59. ビデオデータの前記予測ブロックは、前記ピクチャ内の対象とする領域内に位置する、請求項55に記載のデバイス。
  60. 前記1つまたは複数のプロセッサは、インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶するように構成され、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、請求項59に記載のデバイス。
  61. ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記最大コーディングユニットのサイズに基づいて定められる、請求項59に記載のデバイス。
  62. 前記対象とする領域の前記高さは、前記最大コーディングユニットの高さに基づいて定められる、請求項61に記載のデバイス。
  63. 前記対象とする領域の高さまたは幅の少なくとも一方は、整数個のサンプルに基づいて定められる、請求項59に記載のデバイス。
  64. 前記対象とする領域の前記幅は、前記整数個のサンプルに基づいて定められる、請求項63に記載のデバイス。
  65. 前記整数個のサンプルは64個である、請求項64に記載のデバイス。
  66. ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記対象とする領域の高さまたは幅の少なくとも一方は、前記対象とする領域が前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置するように制限される、請求項59に記載のデバイス。
  67. 前記1つまたは複数のプロセッサは、前記対象とする領域のサイズに基づいて切り捨てられた値を用いてシンタックス要素が符号化されたときに前記シンタックス要素を復号するように構成される、請求項59に記載のデバイス。
  68. 前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を定義する1つまたは複数のシンタックス要素は、残差2次元ベクトルの残差水平変位成分および残差垂直変位成分を定義する1つまたは複数のシンタックス要素を備え、前記1つまたは複数のプロセッサは、
    予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
    前記残差および予測2次元ベクトルの前記水平変位成分および前記垂直変位成分に基づいて前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を決定することとを行うように構成される、請求項55に記載のデバイス。
  69. 前記1つまたは複数のプロセッサは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを、前記予測2次元ベクトルであると決定するように構成される、請求項68に記載のデバイス。
  70. 前記現在のビデオブロックは最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを行うように構成される、請求項68に記載のデバイス。
  71. 前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、請求項70に記載のデバイス。
  72. 前記1つまたは複数のプロセッサは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを前記予測2次元ベクトルとして選択するように構成される、請求項68に記載のデバイス。
  73. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、請求項72に記載のデバイス。
  74. 前記1つまたは複数のプロセッサは、
    前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数は前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
    前記利用可能でない、以前に決定された1つまたは複数の2次元ベクトルを、デフォルトの予測2次元ベクトルで置き換えることとを行うように構成される、請求項72に記載のデバイス。
  75. ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、請求項55に記載のデバイス。
  76. 前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、請求項75に記載のデバイス。
  77. ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記1つまたは複数のプロセッサは、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出するように構成される、請求項55に記載のデバイス。
  78. 前記1つまたは複数のプロセッサは、
    ビデオデータの前記現在のブロックのサイズを決定することと、
    前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することと、を行うように構成される、請求項55に記載のデバイス。
  79. 前記サイズ基準は最小サイズを備える、請求項78に記載のデバイス。
  80. 前記符号化ビデオビットストリームは、ビデオデータの現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを含み、前記1つまたは複数のプロセッサは、
    単一の固定コンテキストによって前記フラグを算術復号することと、
    前記1つまたは複数のシンタックス要素を復号し、前記予測ブロックを決定し、ビデオデータの前記現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたことを示す前記フラグに応答して、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従ってビデオデータの前記現在のブロックを再構成することとを行うように構成される、請求項55に記載のデバイス。
  81. 前記1つまたは複数のプロセッサは、イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用するように構成される、請求項55に記載のデバイス。
  82. 前記デバイスは、
    マイクロプロセッサと、
    集積回路(IC)と、
    前記ビデオデコーダを備えるワイヤレス通信デバイス
    のうちの1つを備える、請求項55に記載のデバイス。
  83. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータを符号化するように構成されたビデオエンコーダを備えるデバイスであって、前記ビデオエンコーダは
    符号化ビデオビットストリームを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサは、
    ビデオデータの現在のブロックと同じピクチャ内のビデオデータの以前に符号化されたブロックの組からビデオデータの現在のブロックに関するビデオデータの予測ブロックを選択することと、
    2次元ベクトルを決定することと、ここにおいて、前記2次元ベクトルは、水平変位成分と垂直変位成分とを有し、前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表す、
    ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて残差ブロックを決定することと、
    符号化ビデオビットストリームにおいて、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分ならびに前記残差ブロックを定義する1つまたは複数のシンタックス要素を符号化することとを行うように構成されるデバイス。
  84. 前記1つまたは複数のプロセッサは、前記2次元ベクトルの前記水平変位成分および前記垂直変位成分を整数ピクセル解像度を有するように制限するように構成される、請求項83に記載のデバイス。
  85. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのルーマ成分のブロックを備える、請求項84に記載のデバイス。
  86. ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックは、前記ビデオデータのクロマ成分のブロックを備える、請求項84に記載のデバイス。
  87. 前記1つまたは複数のプロセッサは、
    前記ピクチャ内の対象とする領域を定義することと、
    前記対象とする領域内のビデオデータの予測ブロックを選択することとを行うように構成される、請求項83に記載のデバイス。
  88. 前記1つまたは複数のプロセッサは、インループフィルタ処理の前に前記対象とする領域のすべてのサンプルを記憶するように構成され、ここにおいて、ビデオデータの前記予測ブロックは、インループフィルタ処理の前の再構成サンプルを備える、請求項87に記載のデバイス。
  89. ビデオデータの前記現在のブロックは、最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、前記最大コーディングユニットのサイズに基づいて前記対象とする領域を定義するように構成される、請求項87に記載のデバイス。
  90. 前記1つまたは複数のプロセッサは、前記最大コーディングユニットの高さに基づいて前記対象とする領域の高さを定めるように構成される、請求項89に記載のデバイス。
  91. 前記1つまたは複数のプロセッサは、整数個のサンプルに基づいて前記対象とする領域の高さまたは幅の少なくとも一方を定めるように構成される、請求項87に記載のデバイス。
  92. 前記1つまたは複数のプロセッサが、前記整数個のサンプルに基づいて前記対象とする領域の幅を定めるように構成される、請求項91に記載のデバイス。
  93. 前記整数個のサンプルは64個である、請求項92に記載のデバイス。
  94. ビデオデータの前記現在のブロックは、現在の最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、前記対象とする領域を前記現在の最大コーディングユニットと前記現在の最大コーディングユニットの左に隣接する最大コーディングユニットとのうちの少なくとも一方内に位置する領域として定義するように構成される、請求項87に記載のデバイス。
  95. 前記1つまたは複数のプロセッサは、前記対象とする領域のサイズに基づいて切り捨てられた値を有する前記シンタックス要素を符号化するように構成される、請求項87に記載のデバイス。
  96. ビデオデータの前記現在のブロックとビデオデータの前記予測ブロックとの間の前記2次元ベクトルは現在の2次元ベクトルを備え、前記1つまたは複数のプロセッサは、
    予測水平変位成分および予測垂直変位成分を含む予測2次元ベクトルを決定することと、
    前記現在の2次元ベクトルおよび前記予測2次元ベクトルに基づいて残差水平変位成分および残差垂直変位成分を含む残差2次元ベクトルを決定することと、
    前記符号化ビデオビットストリームにおいて、前記残差2次元ベクトルを定義する1つまたは複数のシンタックス要素を符号化することとを行うように構成される、請求項83に記載のデバイス。
  97. 前記1つまたは複数のプロセッサは、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックから復号順序に従ってイントラ予測するためのモードに従って直近に再構成されたビデオデータのブロックに関するビデオデータの予測ブロックを決定するのに使用された直前の2次元ベクトルを、前記予測2次元ベクトルとして決定するように構成される、請求項96に記載のデバイス。
  98. 前記現在のビデオブロックは最大コーディングユニット内に位置し、前記1つまたは複数のプロセッサは、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の第1のビデオブロックであると決定することと、
    現在のビデオブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用される2次元ベクトルがそれについて決定される前記最大コーディングユニット内の前記第1のビデオブロックである、との前記決定に応答して、前記予測2次元ベクトルがデフォルトの予測2次元ベクトルであると決定することとを行うように構成される、請求項96に記載のデバイス。
  99. 前記デフォルトの予測2次元ベクトルは(−w,0)を備え、ここにおいて、wは、前記現在のビデオブロックを備える現在のコーディングユニットの幅を備える、請求項98に記載のデバイス。
  100. 前記1つまたは複数のプロセッサは、前記現在のビデオブロックの1つまたは複数の隣接ビデオブロックの以前に決定された1つまたは複数の2次元ベクトルのうちの1つを前記予測2次元ベクトルとして選択するように構成される、請求項96に記載のデバイス。
  101. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードに従ってビデオデータの現在のブロックと同じピクチャ内のビデオデータの予測ブロックを決定するのに使用されない隣接ブロックの以前に決定されたベクトルは、ビデオデータの前記現在のブロックに関する予測2次元ベクトルとして利用可能でない、請求項100に記載のデバイス。
  102. 前記1つまたは複数のプロセッサは、
    前記現在のビデオブロックの前記1つまたは複数の隣接ビデオブロックの前記以前に決定された2次元ベクトルのうちの1つまたは複数は前記現在のブロックに関する予測2次元ベクトルとして利用可能でないと決定することと、
    前記利用可能でない、以前に決定された1つまたは複数の2次元ベクトルを、デフォルトの予測2次元ベクトルで置き換えることとを行うように構成される、請求項100に記載のデバイス。
  103. ビデオデータの前記現在のブロックは、コーディングユニットの予測ユニットを備える、請求項83に記載のデバイス。
  104. 前記コーディングユニットのサイズは2Nx2Nであり、前記予測ユニットのサイズは、NxN、2Nx2N、2NxN、またはNx2Nのうちの1つである、請求項103に記載のデバイス。
  105. ビデオデータの前記現在のブロックは、前記ビデオデータのルーマ成分の現在のブロックを備え、前記2次元ベクトルは、前記ルーマ成分に関する2次元ベクトルを備え、前記1つまたは複数のプロセッサは、前記ルーマ成分に関する前記2次元ベクトルおよび前記ビデオデータに関するカラーサンプリングフォーマットに基づいて前記ルーマ成分の前記現在のブロックに対応する前記ビデオデータのクロマ成分のブロックに関する2次元ベクトルを導出するように構成される、請求項83に記載のデバイス。
  106. 前記1つまたは複数のプロセッサは、
    ビデオデータの前記現在のブロックのサイズを決定することと、
    前記予測ブロックを選択し、前記2次元ベクトルを決定し、前記残差ブロックを決定し、前記現在のブロックの前記サイズがサイズ基準を満たすときにのみビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードに従って前記1つまたは複数のシンタックス要素を符号化することとを行うように構成される、請求項83に記載のデバイス。
  107. 前記サイズ基準は最小サイズを備える、請求項106に記載のデバイス。
  108. 前記1つまたは複数のプロセッサは、ビデオデータの現在のブロックが、ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するための前記モードを使用して予測されたかどうかを示すフラグを単一の固定コンテキストによって算術符号化するように構成される、請求項83に記載のデバイス。
  109. 前記1つまたは複数のプロセッサは、イントラ予測モードデブロッキングフィルタをビデオデータの前記現在のブロックに適用するように構成される、請求項83に記載のデバイス。
  110. 前記デバイスは、
    マイクロプロセッサと、
    集積回路(IC)と、
    前記ビデオエンコーダを備えるワイヤレス通信デバイス
    のうちの1つを備える、請求項83に記載のデバイス。
  111. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを使用してビデオデータをコーディングするように構成されたビデオコーダを備えるデバイスであって、前記ビデオコーダは、
    2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を含むビデオビットストリームをコーディングするための手段と、
    ビデオデータの前記現在のブロックに関するビデオデータの予測ブロックを決定するための手段とを備え、
    ここにおいて、前記2次元ベクトルの前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記2次元ベクトルの前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表し、
    ビデオデータの前記予測ブロックは、ビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックであり、
    前記残差ブロックは、ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて決定されるデバイス。
  112. ビデオデータのブロックを同じピクチャ内のビデオデータの予測ブロックからイントラ予測するためのモードを含むビデオデータをコーディングするための命令が記憶された非一時的コンピュータ可読記憶媒体であって、前記命令は、実行されたときに、1つまたは複数のプロセッサに、
    2次元ベクトルの水平変位成分および垂直変位成分ならびにビデオデータの現在のブロックに関する残差ブロックを定義する1つまたは複数のシンタックス要素を含むビデオビットストリームをコーディングすることと、
    ビデオデータの前記現在のブロックに関するビデオデータの予測ブロックを決定することとを行わせ、
    ここにおいて、前記2次元ベクトルの前記水平変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の水平変位を表し、前記2次元ベクトルの前記垂直変位成分は、ビデオデータの前記予測ブロックとビデオデータの前記現在のブロックとの間の垂直変位を表し、
    ビデオデータの前記予測ブロックは、ビデオデータの前記現在のブロックと同じピクチャ内のビデオデータの再構成ブロックであり、
    前記残差ブロックは、ビデオデータの前記現在のブロックおよびビデオデータの前記予測ブロックに基づいて決定される、非一時的コンピュータ可読記憶媒体。
JP2016521839A 2013-06-21 2014-06-20 変位ベクトルを使用する予測ブロックからのイントラ予測 Active JP6377734B2 (ja)

Applications Claiming Priority (21)

Application Number Priority Date Filing Date Title
US201361838209P 2013-06-21 2013-06-21
US61/838,209 2013-06-21
US201361847549P 2013-07-17 2013-07-17
US61/847,549 2013-07-17
US201361866965P 2013-08-16 2013-08-16
US61/866,965 2013-08-16
US201361870050P 2013-08-26 2013-08-26
US61/870,050 2013-08-26
US201361883612P 2013-09-27 2013-09-27
US61/883,612 2013-09-27
US201361887115P 2013-10-04 2013-10-04
US61/887,115 2013-10-04
US201361893539P 2013-10-21 2013-10-21
US61/893,539 2013-10-21
US201361896013P 2013-10-25 2013-10-25
US61/896,013 2013-10-25
US201461923698P 2014-01-05 2014-01-05
US61/923,698 2014-01-05
US14/309,730 US10015515B2 (en) 2013-06-21 2014-06-19 Intra prediction from a predictive block
US14/309,730 2014-06-19
PCT/US2014/043397 WO2014205339A2 (en) 2013-06-21 2014-06-20 Intra prediction from a predictive block

Publications (3)

Publication Number Publication Date
JP2016525303A true JP2016525303A (ja) 2016-08-22
JP2016525303A5 JP2016525303A5 (ja) 2017-07-06
JP6377734B2 JP6377734B2 (ja) 2018-08-22

Family

ID=51210781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016521839A Active JP6377734B2 (ja) 2013-06-21 2014-06-20 変位ベクトルを使用する予測ブロックからのイントラ予測

Country Status (18)

Country Link
US (1) US10015515B2 (ja)
EP (1) EP3011743A2 (ja)
JP (1) JP6377734B2 (ja)
KR (1) KR102232099B1 (ja)
CN (1) CN105393536B (ja)
AU (1) AU2014281331B2 (ja)
BR (1) BR112015032150B8 (ja)
CA (1) CA2912447C (ja)
CL (1) CL2015003693A1 (ja)
HK (1) HK1216961A1 (ja)
IL (1) IL242529B (ja)
MX (1) MX362449B (ja)
MY (1) MY188617A (ja)
PH (1) PH12015502805A1 (ja)
RU (1) RU2679190C2 (ja)
SA (1) SA515370305B1 (ja)
SG (2) SG10201710379SA (ja)
WO (1) WO2014205339A2 (ja)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5914962B2 (ja) * 2010-04-09 2016-05-11 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
GB2502047B (en) * 2012-04-04 2019-06-05 Snell Advanced Media Ltd Video sequence processing
US20140056363A1 (en) * 2012-08-23 2014-02-27 Yedong He Method and system for deblock filtering coded macroblocks
US10313682B2 (en) 2013-08-26 2019-06-04 Qualcomm Incorporated Determining regions when performing intra block copying
GB2519514A (en) * 2013-10-11 2015-04-29 Canon Kk Method and apparatus for displacement vector component prediction in video coding and decoding
JP6359101B2 (ja) * 2013-10-14 2018-07-18 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオ及び画像の符号化及び復号のためのイントラブロックコピー予測モードの特徴
CN105659602B (zh) 2013-10-14 2019-10-08 微软技术许可有限责任公司 用于视频和图像编码的帧内块复制预测模式的编码器侧选项
EP3720132A1 (en) 2013-10-14 2020-10-07 Microsoft Technology Licensing LLC Features of color index map mode for video and image coding and decoding
CA3050482C (en) * 2013-11-14 2021-02-16 Hfi Innovation Inc. Method of video coding using prediction based on intra picture block copy
AU2014376061B8 (en) * 2014-01-03 2019-05-30 Microsoft Technology Licensing, Llc Block vector prediction in video and image coding/decoding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US9883197B2 (en) 2014-01-09 2018-01-30 Qualcomm Incorporated Intra prediction of chroma blocks using the same vector
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
CN106416243B (zh) * 2014-02-21 2019-05-03 联发科技(新加坡)私人有限公司 利用基于帧内图像区块复制预测的视频编码方法
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
KR102401946B1 (ko) 2014-03-04 2022-05-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 인트라 블록 카피 예측에서의 스킵 모드 및 블록 플립핑
US10432928B2 (en) 2014-03-21 2019-10-01 Qualcomm Incorporated Using a current picture as a reference for video coding
US20150277752A1 (en) * 2014-03-31 2015-10-01 Nuance Communications, Inc. Providing for text entry by a user of a computing device
JP6341756B2 (ja) * 2014-05-26 2018-06-13 キヤノン株式会社 画像処理装置、画像処理装置の制御方法
AU2014202921B2 (en) * 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
WO2015195942A1 (en) 2014-06-19 2015-12-23 Vid Scale, Inc. Methods and systems for intra block copy coding with block vector derivation
US10785486B2 (en) 2014-06-19 2020-09-22 Microsoft Technology Licensing, Llc Unified intra block copy and inter prediction modes
CN105392008B (zh) * 2014-08-22 2018-09-25 中兴通讯股份有限公司 一种预测编、解码方法和相应的编、解码器和电子设备
KR102008592B1 (ko) 2014-09-15 2019-08-07 에이치에프아이 이노베이션 인크. 비디오 코딩에서의 인트라 블록 복사를 위한 디블로킹 방법
KR102330740B1 (ko) 2014-09-30 2021-11-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 파면 병렬 프로세싱이 인에이블되는 경우의 인트라 픽쳐 예측 모드에 대한 규칙
US9832467B2 (en) 2014-10-07 2017-11-28 Qualcomm Incorporated Deblock filtering for intra block copying
US9854237B2 (en) 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
GB201421095D0 (en) * 2014-11-27 2015-01-14 British Broadcasting Corp HEVC Optimization techniques
US9591325B2 (en) * 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
SG11201706978TA (en) * 2015-03-02 2017-09-28 Hfi Innovation Inc Method and apparatus for intrabc mode with fractional-pel block vector resolution in video coding
WO2016148620A1 (en) * 2015-03-19 2016-09-22 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding an displacement vector
WO2016165623A1 (en) * 2015-04-13 2016-10-20 Mediatek Inc. Methods of constrained intra block copy for reducing worst case bandwidth in video coding
US10511834B2 (en) 2015-04-29 2019-12-17 Hfi Innovation Inc. Method and apparatus for Intra Block Copy reference list construction
US10200713B2 (en) 2015-05-11 2019-02-05 Qualcomm Incorporated Search region determination for inter coding within a particular picture of video data
US20160345018A1 (en) * 2015-05-19 2016-11-24 Microsoft Technology Licensing, Llc Video encoding and decoding
WO2016192677A1 (en) * 2015-06-03 2016-12-08 Mediatek Inc. Method and apparatus of error handling for video coding using intra block copy mode
WO2016196843A1 (en) * 2015-06-03 2016-12-08 Apple Inc. Techniques for resource conservation during performance of intra block copy prediction searches
CN107637057A (zh) 2015-06-03 2018-01-26 联发科技股份有限公司 图像和视频数据的调色板编解码方法
EP3306925B1 (en) * 2015-06-05 2019-09-18 Sony Corporation Image processing device and image processing method
KR102658290B1 (ko) 2015-06-08 2024-04-16 브이아이디 스케일, 인크. 스크린 콘텐츠 코딩을 위한 인트라 블록 카피 모드
WO2016197314A1 (en) 2015-06-09 2016-12-15 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
CN106254878B (zh) * 2015-06-14 2020-06-12 同济大学 一种图像编码及解码方法、图像处理设备
US10148977B2 (en) * 2015-06-16 2018-12-04 Futurewei Technologies, Inc. Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions
US11463689B2 (en) * 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding
US11477484B2 (en) * 2015-06-22 2022-10-18 Qualcomm Incorporated Video intra prediction using hybrid recursive filters
CN106470341B (zh) 2015-08-17 2020-10-02 恩智浦美国有限公司 媒体显示***
EP3342165B1 (en) * 2015-09-08 2021-11-10 MediaTek Inc. Method and system of decoded picture buffer for intra block copy mode
CN112565792B (zh) * 2015-10-19 2023-07-11 寰发股份有限公司 管理已解码图像缓存器的方法及装置
JP6438376B2 (ja) * 2015-11-06 2018-12-12 日本電信電話株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム
US10645362B2 (en) * 2016-04-11 2020-05-05 Gopro, Inc. Systems, methods and apparatus for compressing video content
RU2710667C1 (ru) * 2016-05-28 2019-12-30 МедиаТек Инк. Способ и устройство привязки к текущему изображению для кодирования видео
US10880564B2 (en) * 2016-10-01 2020-12-29 Qualcomm Incorporated Transform selection for video coding
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
EP3349459A1 (en) * 2017-01-11 2018-07-18 Thomson Licensing A method and a device for image encoding and decoding
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US10523964B2 (en) * 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images
US10798402B2 (en) * 2017-10-24 2020-10-06 Google Llc Same frame motion estimation and compensation
US11070847B2 (en) * 2017-12-05 2021-07-20 Qualcomm Incorporated Intra-prediction with far neighboring pixels
CN116405674A (zh) 2017-12-22 2023-07-07 数码士有限公司 视频信号处理方法和设备
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
US10638137B2 (en) 2018-03-07 2020-04-28 Tencent America LLC Method and apparatus for video coding
CN110324627B (zh) * 2018-03-30 2022-04-05 杭州海康威视数字技术股份有限公司 色度的帧内预测方法及装置
CN112335250A (zh) * 2018-06-28 2021-02-05 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备以及用于存储比特流的记录介质
US10904559B2 (en) * 2018-07-13 2021-01-26 Tencent America LLC Block vector prediction in intra block copy mode
US11265579B2 (en) * 2018-08-01 2022-03-01 Comcast Cable Communications, Llc Systems, methods, and apparatuses for video processing
KR20200016188A (ko) * 2018-08-06 2020-02-14 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11159789B2 (en) 2018-10-24 2021-10-26 City University Of Hong Kong Generative adversarial network based intra prediction for video coding
WO2020141813A2 (ko) * 2018-12-31 2020-07-09 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CA3127848C (en) 2019-02-02 2024-06-11 Beijing Bytedance Network Technology Co., Ltd. Buffer management for intra block copy in video coding
CN117119200A (zh) 2019-02-02 2023-11-24 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的缓冲区中的数据存储
FR3092719A1 (fr) 2019-02-07 2020-08-14 Orange Procédés et dispositifs de codage et de décodage d'un flux de données représentatif d'au moins une image.
CN113508597B (zh) 2019-03-01 2023-11-21 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的基于方向的预测
JP7284284B2 (ja) 2019-03-04 2023-05-30 北京字節跳動網絡技術有限公司 映像符号化におけるイントラブロックコピーの実装形態の態様
US11153563B2 (en) * 2019-03-12 2021-10-19 Qualcomm Incorporated Combined in-loop filters for video coding
WO2020185050A1 (ko) * 2019-03-14 2020-09-17 에스케이텔레콤 주식회사 인트라 블록 복사를 이용하는 영상 부호화 및 복호화
US11239988B2 (en) * 2019-04-22 2022-02-01 Texas Instruments Incorporated Methods and systems for synchronization of slave device with master device
CN113796072B (zh) 2019-05-08 2023-10-03 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
CN113853791B (zh) 2019-05-19 2023-11-14 字节跳动有限公司 数字视频中的变换旁路编解码残差块
JP7460661B2 (ja) 2019-06-06 2024-04-02 北京字節跳動網絡技術有限公司 映像符号化のための動き候補リストの構成
CN113950838A (zh) * 2019-06-06 2022-01-18 北京字节跳动网络技术有限公司 基于子块的帧内块复制
JP2022539468A (ja) 2019-07-06 2022-09-09 北京字節跳動網絡技術有限公司 映像符号化におけるイントラブロックコピーのための仮想予測バッファ
EP3977738A4 (en) 2019-07-07 2022-08-17 Beijing Bytedance Network Technology Co., Ltd. SIGNALING OF CHROMA RESIDUAL SCALE
CN114175633B (zh) 2019-07-10 2023-12-29 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的样点标识
CN114097221B (zh) 2019-07-11 2024-01-12 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的比特流一致性约束
CN114208165B (zh) 2019-08-10 2023-12-15 北京字节跳动网络技术有限公司 子图片解码中的缓冲器管理
CN114365488A (zh) * 2019-09-09 2022-04-15 北京字节跳动网络技术有限公司 视频编解码块的递归划分
WO2021063421A1 (en) 2019-10-02 2021-04-08 Beijing Bytedance Network Technology Co., Ltd. Syntax for subpicture signaling in a video bitstream
BR112022007408A2 (pt) 2019-10-18 2022-09-27 Beijing Bytedance Network Tech Co Ltd Método e aparelho de processamento de vídeo, e, meio legível por computador
WO2021143698A1 (en) * 2020-01-13 2021-07-22 Beijing Bytedance Network Technology Co., Ltd. Subpicture boundary filtering in video coding
DE102021117397A1 (de) * 2020-07-16 2022-01-20 Samsung Electronics Co., Ltd. Bildsensormodul, bildverarbeitungssystem und bildkomprimierverfahren
US11503336B2 (en) * 2020-12-07 2022-11-15 Tencent America LLC Method and apparatus for video coding
WO2023194104A1 (en) * 2022-04-07 2023-10-12 Interdigital Ce Patent Holdings, Sas Temporal intra mode prediction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525658A (ja) * 2007-04-19 2010-07-22 トムソン ライセンシング イントラ予測のための適応参照画像データ生成
JP2010219842A (ja) * 2009-03-17 2010-09-30 Panasonic Corp 符号量推定装置、符号量推定方法、符号量推定プログラムおよび、符号量推定集積回路
JP2010233263A (ja) * 2010-07-12 2010-10-14 Sony Corp 画像処理装置および方法、プログラム、並びに、記録媒体
JP2013059132A (ja) * 2012-12-28 2013-03-28 Sony Corp 画像処理装置および方法、並びに記録媒体
US20130101033A1 (en) * 2011-10-14 2013-04-25 Qualcomm Incorporated Coding non-symmetric distributions of data

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100255754B1 (ko) * 1997-08-30 2000-05-01 전주범 이진 형상 신호 부호화 방법
US6091777A (en) * 1997-09-18 2000-07-18 Cubic Video Technologies, Inc. Continuously adaptive digital video compression system and method for a web streamer
US5987180A (en) * 1997-09-26 1999-11-16 Sarnoff Corporation Multiple component compression encoder motion search method and apparatus
US6665344B1 (en) * 1998-06-29 2003-12-16 Zenith Electronics Corporation Downconverting decoder for interlaced pictures
US7110459B2 (en) * 2002-04-10 2006-09-19 Microsoft Corporation Approximate bicubic filter
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR100727969B1 (ko) 2005-08-27 2007-06-14 삼성전자주식회사 영상의 부호화 및 복호화 장치와, 그 방법, 및 이를수행하기 위한 프로그램이 기록된 기록 매체
WO2007093629A1 (en) 2006-02-17 2007-08-23 Thomson Licensing Process for coding images using intra prediction mode
US20080031333A1 (en) * 2006-08-02 2008-02-07 Xinghai Billy Li Motion compensation module and methods for use therewith
US8300698B2 (en) * 2006-10-23 2012-10-30 Qualcomm Incorporated Signalling of maximum dynamic range of inverse discrete cosine transform
US8259804B2 (en) * 2007-01-03 2012-09-04 International Business Machines Corporation Method and system for signal prediction in predictive coding
US8488672B2 (en) * 2007-04-17 2013-07-16 Qualcomm Incorporated Mode uniformity signaling for intra-coding
KR101408698B1 (ko) * 2007-07-31 2014-06-18 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
KR101441905B1 (ko) * 2009-11-18 2014-09-24 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
PT3301648T (pt) * 2010-04-13 2020-04-20 Ge Video Compression Llc Herança em matriz de amostras em subdivisão multitree
US8548062B2 (en) * 2010-07-16 2013-10-01 Sharp Laboratories Of America, Inc. System for low resolution power reduction with deblocking flag
ES2586946T3 (es) * 2010-07-30 2016-10-19 Deutsche Telekom Ag Método y aparato para evaluar la calidad de una secuencia de vídeo mediante la sincronización temporal del flujo de bits encriptado de un codificador de vídeo con la secuencia de vídeo procesada obtenida por un descodificador de vídeo exterior
US8923395B2 (en) * 2010-10-01 2014-12-30 Qualcomm Incorporated Video coding using intra-prediction
US9398292B2 (en) * 2011-01-12 2016-07-19 Siemens Aktiengesellschaft Compression and decompression of reference images in video coding device
KR101811090B1 (ko) * 2011-01-19 2017-12-20 르네사스 일렉트로닉스 가부시키가이샤 화상 부호화 장치 및 화상 복호 장치
KR20120088488A (ko) * 2011-01-31 2012-08-08 한국전자통신연구원 시간적 움직임 벡터 저장 방법 및 그 장치
US8711248B2 (en) * 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
GB2495990A (en) 2011-10-28 2013-05-01 Canon Kk Motion compensated image coding with omission of coding mode cost calculation for a motion predictor in a set.
WO2013077659A1 (ko) 2011-11-24 2013-05-30 에스케이텔레콤 주식회사 모션 벡터의 예측 부호화/복호화 방법 및 장치
US20150016533A1 (en) 2013-07-12 2015-01-15 Qualcomm Incorporated Intra motion compensation extensions
US9883197B2 (en) 2014-01-09 2018-01-30 Qualcomm Incorporated Intra prediction of chroma blocks using the same vector
US20150271515A1 (en) 2014-01-10 2015-09-24 Qualcomm Incorporated Block vector coding for intra block copy in video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525658A (ja) * 2007-04-19 2010-07-22 トムソン ライセンシング イントラ予測のための適応参照画像データ生成
JP2010219842A (ja) * 2009-03-17 2010-09-30 Panasonic Corp 符号量推定装置、符号量推定方法、符号量推定プログラムおよび、符号量推定集積回路
JP2010233263A (ja) * 2010-07-12 2010-10-14 Sony Corp 画像処理装置および方法、プログラム、並びに、記録媒体
US20130101033A1 (en) * 2011-10-14 2013-04-25 Qualcomm Incorporated Coding non-symmetric distributions of data
JP2013059132A (ja) * 2012-12-28 2013-03-28 Sony Corp 画像処理装置および方法、並びに記録媒体

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
CHAO PANG ET AL.: "AhG5: Fast encoder search and search region restriction for intra block copying", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-O0156-v3, JPN6018023874, October 2013 (2013-10-01), pages 1 - 5 *
CHAO PANG ET AL.: "Non-RCE3: Intra Motion Compensation with 2-D MVs", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0256-v3, JPN6018023871, July 2013 (2013-07-01), pages 1 - 12 *
GARY J. SULLIVAN ET AL.: "Overview of the High Efficiency Video Coding (HEVC) Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 22, no. 12, JPN6018006563, December 2012 (2012-12-01), pages 1649 - 1668, XP011487803, DOI: doi:10.1109/TCSVT.2012.2221191 *
GARY J. SULLIVAN, ET AL.: "Overview of the High Efficiency Video Coding (HEVC) Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, DECEMBER 2012, vol. Vol. 22, No. 12, JPN6018006563, 1 December 2012 (2012-12-01), pages pp.1649-1668. *
MADHUKAR BUDAGAVI AND DO-KYOUNG KWON: "AHG8: Video coding using Intra motion compensation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0350-v2, JPN6018023868, April 2013 (2013-04-01), pages 1 - 5 *
MADHUKAR BUDAGAVI, ET AL.: "AHG8: Video coding using Intra motion compensation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0350, JPN6018006558, 12 April 2013 (2013-04-12), pages pp.1-5. *
SIU-LEONG YU AND CHRISTOS CHRYSAFIS: "New Intra Prediction using Intra-Macroblock Motion Compensation", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JCT1/SC29/WG11 AND ITU-T SG16 Q.6), vol. JVT-C151, JPN6018006548, May 2002 (2002-05-01), pages 1 - 9 *
SIU-LEONG YU, ET AL.: "New Intra Prediction using Intra-Macroblock Motion Compensation", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JCT1/SC29/WG11 AND ITU-T SG16 Q.6) 3RD, vol. JVT-C151, JPN6018006548, 10 May 2002 (2002-05-10), pages pp.1-9. *
YUNYANG DAI, ET AL.: "Fast 2D Intra Prediction (2DIP) Mode Decision for Image and Video Coding", 16TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), 2009, JPN6018006552, 7 November 2009 (2009-11-07), pages pp.2825-2828. *
YUNYANG DAI, QI ZHANG AND C.-C. JAY KUO: "Fast 2D Intra Prediction (2DIP) Mode Decision for Image and Video Coding", 16TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), 2009, JPN6018006552, November 2009 (2009-11-01), pages 2825 - 2828, XP031628875 *

Also Published As

Publication number Publication date
PH12015502805B1 (en) 2016-03-14
AU2014281331A1 (en) 2016-02-11
KR20160023729A (ko) 2016-03-03
SG10201710379SA (en) 2018-01-30
CA2912447C (en) 2023-01-24
WO2014205339A3 (en) 2015-02-26
MX2015016778A (es) 2016-03-31
WO2014205339A2 (en) 2014-12-24
SA515370305B1 (ar) 2019-01-03
AU2014281331B2 (en) 2018-09-27
RU2015154500A3 (ja) 2018-05-30
PH12015502805A1 (en) 2016-03-14
BR112015032150B1 (pt) 2023-04-11
RU2015154500A (ru) 2017-07-26
IL242529B (en) 2020-08-31
US20140376634A1 (en) 2014-12-25
BR112015032150A2 (pt) 2017-07-25
EP3011743A2 (en) 2016-04-27
CN105393536A (zh) 2016-03-09
SG11201509469TA (en) 2016-01-28
RU2679190C2 (ru) 2019-02-06
MX362449B (es) 2019-01-18
CN105393536B (zh) 2019-06-28
KR102232099B1 (ko) 2021-03-24
CL2015003693A1 (es) 2017-04-17
MY188617A (en) 2021-12-22
CA2912447A1 (en) 2014-12-24
HK1216961A1 (zh) 2016-12-09
NZ715952A (en) 2021-03-26
JP6377734B2 (ja) 2018-08-22
BR112015032150B8 (pt) 2023-12-19
US10015515B2 (en) 2018-07-03

Similar Documents

Publication Publication Date Title
JP6377734B2 (ja) 変位ベクトルを使用する予測ブロックからのイントラ予測
CN112823517B (zh) 基于历史的运动矢量预测子的改进
EP3092802B1 (en) Intra prediction from a predictive block
JP6046246B2 (ja) 3dビデオコーディングのための深度マップのイントラコーディング
JP6580562B2 (ja) イントラ予測フィルタリングの無効化
KR102447297B1 (ko) 통합된 인트라 블록 복사 및 인터 예측
JP6672145B2 (ja) インター色成分残差予測
US9930341B2 (en) Block vector coding for intra block copying
JP6545667B2 (ja) Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計
JP6158420B2 (ja) 3d−hevcのための深度データの深度コーディングモードシグナリング
JP6254254B2 (ja) 3次元(3d)ビデオコーディング用の進化型マージモード
JP6445039B2 (ja) 3dビデオコーディングのための制限付き深度イントラモードコーディング
JP6133489B2 (ja) 3d−hevcのための深度データの深度コーディングモードシグナリング
JP5805850B2 (ja) ビデオコード化における動きベクトル予測
JP6227678B2 (ja) 3dビデオコーディングにおける導出視差ベクトル
WO2015142892A1 (en) Block vector predictor for intra block copying
US9426465B2 (en) Sub-PU level advanced residual prediction
NZ715952B2 (en) Intra prediction from a predictive block using displacement vectors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6377734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250