JP2019535198A - 補間フィルタを切り替えるシステムおよび方法 - Google Patents

補間フィルタを切り替えるシステムおよび方法 Download PDF

Info

Publication number
JP2019535198A
JP2019535198A JP2019518070A JP2019518070A JP2019535198A JP 2019535198 A JP2019535198 A JP 2019535198A JP 2019518070 A JP2019518070 A JP 2019518070A JP 2019518070 A JP2019518070 A JP 2019518070A JP 2019535198 A JP2019535198 A JP 2019535198A
Authority
JP
Japan
Prior art keywords
interpolation
filter
coding unit
subset
interpolation filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019518070A
Other languages
English (en)
Other versions
JP7317703B2 (ja
JP2019535198A5 (ja
Inventor
リ、ソンウォン
チェン、ウェイ−ジュン
ジャン、カイ
チェン、ジャンレ
カルチェビチ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2019535198A publication Critical patent/JP2019535198A/ja
Publication of JP2019535198A5 publication Critical patent/JP2019535198A5/ja
Priority to JP2023069383A priority Critical patent/JP2023100713A/ja
Application granted granted Critical
Publication of JP7317703B2 publication Critical patent/JP7317703B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Peptides Or Proteins (AREA)
  • Complex Calculations (AREA)

Abstract

ビデオデータの符号化またはビデオビットストリームの復号中に、補間フィルタを適応的に切り替えるためのシステム、方法、および装置が提供される。様々なインプリメンテーションでは、補間フィルタのセットが定義され、コーディングデバイスに利用可能にされ得る。コーディングデバイスは、所与のコーディングユニットのために補間フィルタを選択し得る。補間フィルタは、例えば、特に、コーディングユニットのコーディングレベルに基づいて選択され得る。いくつかの例では、選択された補間フィルタのシグナリングが、所与のコーディング状況のために補間フィルタのセットのサブセットを選択することによって、単純化され得る。その後、サブセットからの補間フィルタを示すインデックスが、シグナリングされ得る。代替として、デコーダが、ビットストリームによって提供されるデータから補間フィルタの識別を導出し得、このケースでは、インデックスは、ビットストリーム中で明示的にシグナリングされる必要はない。

Description

[0001]本願は、JEM(Joint Exploration Model)で開発されているコードを含む、アドバンストビデオコーデックのコンテキストにおいて、動き推定(ME)および動き補償(MC)プロセスにおいて使用されることになる補間フィルタを切り替えることに関する。例えば、提案された方法は、適応的なやり方で、複数の補間フィルタを採用することによって、インターレイヤ予測のパフォーマンスを改善する。
[0002]ビデオコーディング規格は、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、および(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264を含み、そのスケーラブルビデオコーディング(SVC)およびマルチビュービデオコーディング(MVC)拡張を含む。
[0003]加えて、そのレンジおよびスクリーンコンテンツコーディング拡張と、3Dビデオコーディング(3D−HEVC)スケーラブル拡張(SHVC)とおよびマルチビュー拡張(MV−HEVC)と、を含む、新しいビデオコーディング規格、すなわち高効率ビデオコーディング(HEVC)またはITU−T H.265が、ビデオコーディング共同研究部会(JCT−VC)、ならびにITU−Tビデオコーディングエキスパートグループ(VCEG)と、ISO/IECモーションピクチャエキスパートグループ(MPEG)との3Dビデオコーディング拡張開発共同研究部会(JCT−3V)によって、近年開発されてきた。
[0004]2016年に、MPEGとITU−T VCEGは、次世代のビデオコーディング規格についての新しいコーディングツールを調査するために、JVET(joint exploration video team)を設立した。参照ソフトウェアは、JEM(joint exploration model)と呼ばれる。
[0005]ビデオ圧縮技法は、入力ビデオ信号に固有の冗長性を低減または取り除くために、空間的および時間的予測を実行する。時間的冗長性(すなわち、隣接フレームにおける視覚的類似性)を低減させるために、動き推定が行われて、ビデオにおけるオブジェクトの動き(movement)を追跡する。動きベクトルは、ピクセル単位の距離で変位を示し得る。いくつかのケースでは、動きベクトルは、1/2ピクセル、1/4ピクセル、または1/16ピクセル距離など、整数ピクセル精度よりも高い精度を有し得る。より細かい精度は、ビデオコーダがより正確に動きフィールドを追跡し、したがって、より良い予測を得ることを可能にし得る。
[0006]少なくとも1つの例によると、ビデオデータを取得することを含む、ビデオデータを符号化する方法が提供される。方法は、コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに含み、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、ビデオデータ中の情報に基づいて決定される。方法は、コーディングユニットを符号化することをさらに含み、ここにおいて、コーディングユニットを符号化することは、コーディングユニットについての動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、補間フィルタは、補間フィルタのサブセットから選択される。方法は、符号化されたビデオビットストリームを生成することをさらに含み、ここにおいて、符号化されたビデオビットストリームは、符号化されたコーディングユニットを含む。
[0007]別の例では、ビデオデータを記憶するように構成されたメモリと、プロセッサとを含む装置が提供される。プロセッサは、ビデオデータを取得し得るように構成される。プロセッサは、コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定し得るように構成され、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、ビデオデータ中の情報に基づいて決定される。プロセッサは、コーディングユニットを符号化し得るように構成され、ここにおいて、処理を符号化することは、動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、補間フィルタは、補間フィルタのサブセットから選択される。プロセッサは、符号化されたビデオビットストリームを生成し得るように構成され、ここにおいて、符号化されたビデオビットストリームは、符号化されたコーディングユニットを含む。
[0008]別の例では、プロセッサによって実行されると、ビデオデータを取得することを含む方法を実行する命令を記憶したコンピュータ可読媒体が提供される。方法は、コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに含み、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、ビデオデータ中の情報に基づいて決定される。方法は、コーディングユニットを符号化することをさらに含み、ここにおいて、コーディングユニットを符号化することは、コーディングユニットについての動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、補間フィルタは、補間フィルタのセットから選択される。方法は、符号化されたビデオビットストリームを生成することをさらに含み、ここにおいて、符号化されたビデオビットストリームは、符号化されたコーディングユニットを含む。
[0009]別の例では、ビデオデータを取得するための手段を含む装置が提供される。装置は、コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定するための手段をさらに含み、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、ビデオデータ中の情報に基づいて決定される。装置は、コーディングユニットを符号化するための手段をさらに備え、ここにおいて、コーディングユニットを符号化することは、コーディングユニットについての動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、補間フィルタは、補間フィルタのサブセットから選択される。装置は、符号化されたビデオビットストリームを生成するための手段をさらに備え、ここにおいて、符号化されたビデオビットストリームは、符号化されたコーディングユニットを含む。
[0010]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、コーディングユニットのコーディングレベルに基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0011]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、コーディングユニットのための予測モードに基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0012]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、動き情報に基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0013]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、コーディングユニットをコーディングするために使用されるコーディングツールに基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0014]いくつかの態様では、補間フィルタは、以前にコーディングされたブロックから選択される。いくつかの態様では、補間フィルタは、コーディングユニットの隣接ブロックから選択される。
[0015]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタを第2の補間フィルタとマージすることをさらに備え、ここにおいて、結果として得られるマージされた補間フィルタは、動き推定のために使用される。
[0016]いくつかの態様では、補間フィルタは、第2の補間フィルタに関連付けられ、ここにおいて、補間フィルタは、整数ピクセル位置のためのものであり、ここにおいて、第2の補間フィルタは、分数ピクセル位置のためのものである。
[0017]いくつかの態様では、補間フィルタと第2の補間フィルタは、異なるカットオフ周波数(cut-off frequencies)を有する。
[0018]いくつかの態様では、符号化されたビデオビットストリームは、補間フィルタを識別する値を含む。
[0019]いくつかの態様では、補間フィルタのセットは、符号化されたビデオビットストリームとともにシグナリングされず、ここにおいて、補間フィルタの識別は、符号化されたビデオビットストリームから暗示され得る。
[0020]いくつかの態様では、上記で説明されたような装置は、ピクチャをキャプチャするためのカメラを含み得る。
[0021]少なくとも1つの例によると、符号化されたビデオビットストリームを取得することを含む、ビデオデータを復号する方法が提供される。方法は、符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定することをさらに含む。方法は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに含み、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、符号化されたビデオビットストリーム中の情報に基づいて決定される。方法は、補間フィルタのサブセットから補間フィルタを決定することをさらに含む。方法は、コーディングユニットを再構成するために、参照フレームおよび補間フィルタを使用することをさらに含む。
[0022]別の例では、ビデオデータを記憶するように構成されたメモリと、プロセッサとを含む装置が提供される。プロセッサは、符号化されたビデオビットストリームを取得し得るように構成される。プロセッサは、符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定し得るように構成される。プロセッサは、補間フィルタのセットから補間フィルタのサブセットを決定するようにさらに構成され、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、符号化されたビデオビットストリーム中の情報に基づいて決定される。プロセッサは、補間フィルタのサブセットから補間フィルタを決定し得るように構成される。プロセッサは、コーディングユニットを再構成するために、参照フレームおよび補間フィルタを使用し得るように構成される。
[0023]別の例では、プロセッサによって実行されると、符号化されたビデオビットストリームを取得することを含む方法を実行する命令を記憶したコンピュータ可読媒体が提供される。方法は、符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定することをさらに含む。方法は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに含み、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、符号化されたビデオビットストリーム中の情報に基づいて決定される。方法は、補間フィルタのセットから補間フィルタを決定することをさらに含む。方法は、コーディングユニットを再構成するために、参照フレームおよび補間フィルタを使用することをさらに含む。
[0024]別の例では、符号化されたビデオビットストリームを取得するための手段を含む装置が提供される。装置は、符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定するための手段をさらに備える。装置は、補間フィルタのセットから補間フィルタのサブセットを決定するための手段をさらに含み、ここにおいて、補間フィルタのサブセットは、コーディングユニットに関連付けられた、符号化されたビデオビットストリーム中の情報に基づいて決定される。装置は、補間フィルタのサブセットから補間フィルタを決定するための手段をさらに備える。装置は、コーディングユニットを再構成するために、参照フレームおよび補間フィルタを使用するための手段をさらに備える。
[0025]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、コーディングユニットのコーディングレベルに基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0026]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、コーディングユニットのための予測モードに基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0027]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、動き情報に基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0028]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタのセットから補間フィルタのサブセットを決定することをさらに備え、ここにおいて、補間フィルタのサブセットは、コーディングユニットをコーディングするために使用されるコーディングツールに基づいて決定され、ここにおいて、補間フィルタは、補間フィルタのサブセットから決定される。
[0029]いくつかの態様では、補間フィルタは、以前にコーディングされたブロックから選択される。いくつかの態様では、補間フィルタは、隣接ブロックから選択される。
[0030]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、補間フィルタを第2の補間フィルタとマージすることをさらに備え、ここにおいて、結果として得られるマージされた補間フィルタは、予測ユニットを再構成するために使用される。
[0031]いくつかの態様では、補間フィルタは、第2の補間フィルタに関連付けられ、ここにおいて、補間フィルタは、整数ピクセル位置のためのものであり、ここにおいて、第2の補間フィルタは、分数ピクセル位置のためのものである。いくつかの態様では、補間フィルタと第2の補間フィルタは、異なるカットオフ周波数を有する。
[0032]いくつかの態様では、符号化されたビデオビットストリームは、補間フィルタを識別する値を含む。
[0033]いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、符号化されたビデオビットストリームを使用して、補間フィルタの識別を導出することをさらに備える。
[0034]いくつかの態様では、上記で説明されたような装置は、ピクチャをキャプチャするためのカメラを含み得る。いくつかの態様では、装置は、ビデオデータを表示するためのディスプレイを含み得る。
[0035]本発明の例示的な実施形態が、以下の図面を参照して、以下で詳細に説明される。
[0036]図1は、符号化デバイスおよび復号デバイスの例を例示するブロック図である。 [0037]図2は、現在のフレームからの現在のブロックについての符号化プロセスの例を例示する。 [0038]図3は、分数ピクセル位置の例を例示する。 [0039]図4は、符号化プロセスの動き推定ステップの例を例示する。 [0040]図5は、復号プロセスの動き推定ステップの例を例示する。 [0041]図6は、3つの例となるフィルタ、F0、F1、およびF2の周波数応答を例示するグラフである。 [0042]図7は、符号化プロセス中に補間フィルタを切り替えるためのプロセスの例を例示する。 [0043]図8は、復号プロセスにおいて補間フィルタを切り替えるためのプロセスの例である。 [0044]図9は、例となる符号化デバイスを例示するブロック図である。 [0045]図10は、例となるビデオ復号デバイスを例示するブロック図である。
詳細な説明
[0046]本開示のある特定の態様および実施形態が、以下で提供される。当業者に明らかであるように、これらの態様および実施形態のうちのいくつかは、独立に適用され得、また、それらのうちのいくつかは、組合せにおいて適用され得る。以下の説明では、説明を目的として、特定の詳細が本発明の実施形態の完全な理解を提供するために示される。しかしながら、様々な実施形態が、これらの特定の詳細なしで実施され得ることは、明らかであろう。図面および説明は、限定的であるようには意図されない。
[0047]次に続く説明は、例示的な実施形態のみを提供しており、本開示の範囲、適用可能性、または構成を限定するようには意図されない。むしろ、例示的な実施形態の次に続く説明は、例示的な実施形態をインプリメントすることを可能にする説明を当業者に提供するであろう。様々な変更が、添付の特許請求の範囲に示されるような本発明の趣旨および範囲から逸脱することなく、要素の配置および機能において行われ得ることが理解されるべきである。
[0048]特定の詳細は、実施形態の完全な理解を提供するために、以下の説明において与えられる。しかしながら、当業者であれば、実施形態が、これらの特定の詳細なしで実施され得ることを理解するであろう。例えば、回路、システム、ネットワーク、プロセス、および他の構成要素が、不要な詳細で実施形態を曖昧にしないために、ブロック図形式の構成要素として示され得る。他の事例では、周知の回路、プロセス、アルゴリズム、構造、および技法が、実施形態を曖昧にすることを避けるために、不要な詳細なしで示され得る。
[0049]また、個々の実施形態は、フローチャート、フロー図、データフロー図、構造図、またはブロック図として図示されるプロセスとして説明され得ることに留意されたい。フローチャートは、シーケンシャルプロセスとして動作を説明し得るが、動作の多くは、並行してまたは同時並行に実行され得る。加えて、動作の順序は再配置され得る。プロセスは、その動作が完了したときに終了するが、図面に含まれていない追加のステップを有し得る。プロセスは、方法、関数、プロシージャ、サブルーチン、サブプログラム、等に対応し得る。プロセスが関数に対応するとき、その終了は、この関数が呼び出し関数または主関数に戻ることに対応し得る。
[0050]「コンピュータ可読媒体」という用語は、それに限定されるものではないが、ポータブルまたは非ポータブル記憶デバイス、光記憶デバイス、および(1つまたは複数の)命令および/またはデータを記憶、包含、または搬送することが可能な様々な他の媒体を含む。コンピュータ可読媒体は、データが記憶されることができかつワイヤレスにまたはワイヤード接続を介して伝搬する搬送波および/または一時的な電子信号を含まない、非一時的な媒体を含み得る。非一時的な媒体の例は、それに限定されるものではないが、磁気ディスクまたはテープ、コンパクトディスク(CD)またはデジタル多目的ディスク(DVD)のような光記憶媒体、フラッシュメモリ、メモリまたはメモリデバイスを含み得る。コンピュータ可読媒体は、プロシージャ、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス、あるいは命令、データ構造、またはプログラムステートメントの任意の組合せを表し得るコードおよび/または機械実行可能命令を記憶し得る。コードセグメントは、情報、データ、引き数、パラメータ、またはメモリコンテンツを渡すことおよび/または受け取ることによって、別のコードセグメントまたはハードウェア回路に結合され得る。情報、引き数、パラメータ、データ、等は、メモリ共有、メッセージパッシング、トークンパッシング、ネットワーク送信、または同様のものを含む、任意の好適な手段を介して渡される、転送される、または送信され得る。
[0051]さらに、実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはこれらの任意の組合せによってインプリメントされ得る。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコードでインプリメントされるとき、必要なタスクを実行するためのプログラムコードまたはコードセグメント(例えば、コンピュータプログラム製品)は、コンピュータ可読または機械可読媒体中に記憶され得る。(1つまたは複数の)プロセッサが、必要なタスクを実行し得る。
[0052]より多くのデバイスおよびシステムが、デジタルビデオデータを消費する能力を消費者に提供するにつれて、効率的なビデオコーディング技法の必要性がより重要になる。ビデオコーディングは、デジタルビデオデータ中に存在する大量のデータを処理する(handle)のに必要な記憶および送信要件を低減させるために必要である。様々なビデオコーディング技法が、高いビデオ品質を維持しながら、ビデオデータをより低いビットレートを使用する形態へと圧縮するために使用され得る。ここで使用される場合、「コーディング」は、「符号化」または「復号」を指す。
[0053]図1は、符号化デバイス104および復号デバイス112を含む、ビデオコーディングシステム100の例を例示するブロック図である。符号化デバイス104は、ソースデバイスの一部であり得、復号デバイス112は、受信デバイスの一部であり得る。ソースデバイスおよび/または受信デバイスは、モバイルまたは固定の電話ハンドセット(例えば、スマートフォン、セルラ電話、または同様のもの)、デスクトップコンピュータ、ラップトップまたはノートブックコンピュータ、タブレットコンピュータ、セットトップボックス、テレビ、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーム機、ビデオストリーミングデバイス、インターネットプロトコル(IP)カメラなどの電子デバイス、またはその他任意の好適な電子デバイスを含み得る。いくつかの例では、ソースデバイスおよび受信デバイスは、ワイヤレス通信のための1つまたは複数のワイヤレストランシーバを含み得る。ここで説明されるコーディング技法は、(例えば、インターネットを介した)ストリーミングビデオ送信、テレビ放送または送信、データ記憶媒体上での記憶のためのデジタルビデオの符号化、データ記憶媒体上に記憶されたデジタルビデオの復号、または他のアプリケーションを含む、様々なマルチメディアアプリケーションにおけるビデオコーディングに適用可能である。いくつかの例では、システム100は、ビデオ会議、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、ゲーミング、および/またはビデオ電話通信などのアプリケーションをサポートするために、一方向または双方向のビデオ送信をサポートし得る。
[0054]符号化デバイス104(またはエンコーダ)は、符号化されたビデオビットストリームを生成するために、ビデオコーディング規格またはプロトコルを使用して、ビデオデータを符号化するために使用され得る。ビデオコーディング規格の例は、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、そのスケーラブルビデオコーディング(SVC)およびマルチビュービデオコーディング(MVC)拡張を含む(ISO/IEC MPEG−4 AVCとしても知られている)ITU−T H.264、および高効率ビデオコーディング(HEVC)またはITU−T H.265を含む。マルチレイヤビデオコーディングを扱うHEVCへの様々な拡張が存在し、レンジおよびスクリーンコンテンツコーディング拡張、3Dビデオコーディング(3D−HEVC)およびマルチビュー拡張(MV−HEVC)およびスケーラブル拡張(SHVC)を含む。HEVCおよびその拡張は、ビデオコーディング共同研究部会(JCT−VC)、ならびにITU−Tビデオコーディングエキスパートグループ(VCEG)と、ISO/IECモーションピクチャエキスパートグループ(MPEG)との3Dビデオコーディング拡張開発共同研究部会(JCT−3V)によって開発されてきた。MPEGとITU−T VCEGはまた、次世代のビデオコーディング規格のための新しいコーディングツールを調査するために、JVET(joint exploration video team)を設立した。参照ソフトウェアは、JEM(joint exploration model)と呼ばれる。
[0055]ここで説明される多くの例は、JEMモデル、HEVC規格、および/またはそれらの拡張を使用した例を提供する。しかしながら、ここで説明される技法およびシステムはまた、AVC、MPEG、それらの拡張などの他のコーディング規格、または現在存在している他の好適なコーディング規格または将来のコーディング規格に適用可能であり得る。したがって、ここで説明される技法およびシステムが、特定のビデオコーディング規格を参照して説明され得る一方で、当業者であれば、説明がその特定の規格にのみ適用されると解釈されるべきではないことを理解するであろう。
[0056]図1を参照すると、ビデオソース102が、符号化デバイス104にビデオデータを提供し得る。ビデオソース102は、ソースデバイスの一部であり得、またはソースデバイス以外のデバイスの一部であり得る。ビデオソース102は、ビデオキャプチャデバイス(例えば、ビデオカメラ、カメラフォン、ビデオフォン、または同様のもの)、記憶されたビデオを含むビデオアーカイブ、ビデオデータを提供するビデオサーバまたはコンテンツプロバイダ、ビデオサーバまたはコンテンツプロバイダからのビデオを受信するビデオフィードインターフェース、コンピュータグラフィックスビデオデータを生成するためのコンピュータグラフィックスシステム、このようなソースの組合せ、またはその他任意の好適なビデオソースを含み得る。
[0057]ビデオソース102からのビデオデータは、1つまたは複数の入力ピクチャまたはフレームを含み得る。ビデオのピクチャまたはフレームは、シーンの静止画像である。符号化デバイス104のエンコーダエンジン106(またはエンコーダ)は、符号化されたビデオビットストリームを生成するためにビデオデータを符号化する。いくつかの例では、符号化されたビデオビットストリーム(あるいは、「ビデオビットストリーム」または「ビットストリーム」)は、一連の1つまたは複数のコーディングされたビデオシーケンスである。コーディングされたビデオシーケンス(CVS)は、ある特定の特性を有し(with certain properties)かつベースレイヤにおけるランダムアクセスポイントピクチャを有するアクセスユニット(AU)から開始し、ある特定の特性を有しかつベースレイヤにおけるランダムアクセスポイントピクチャを有する次のAUまでの(およびそれを含まない)(up to and not including a next AU)一連のAUを含む。例えば、CVSを開始するランダムアクセスポイントピクチャのある特定の特性は、1に等しいRASLフラグ(例えば、NoRaslOutputFlag)を含み得る。そうでない場合、(0に等しいRASLフラグを有する)ランダムアクセスポイントピクチャは、CVSを開始しない。アクセスユニット(AU)は、1つまたは複数のコーディングされたピクチャと、同じ出力時間を共有するコーディングされたピクチャに対応する制御情報とを含む。ピクチャのコーディングされたスライスは、ネットワーク抽象化レイヤ(NAL)ユニットと呼ばれるデータユニットへとビットストリームレベルでカプセル化される。例えば、HEVCビデオビットストリームは、NALユニットを含む1つまたは複数のCVSを含み得る。NALユニットの各々は、NALユニットヘッダを有する。一例では、ヘッダは、(マルチレイヤ拡張を除き)H.264/AVCの場合は1バイト、およびHEVCの場合は2バイトである。NALユニットヘッダにおけるシンタックス要素は、指定されたビットを占め(take)、したがって、特に、トランスポートストリーム、リアルタイムトランスポート(RTP)プロトコル、ファイル形式などの、全ての種類のシステムおよびトランスポートレイヤに対して可視である。
[0058]ビデオコーディングレイヤ(VCL)NALユニットおよび非VCL NALユニットを含む、2つのクラスのNALユニットがHEVC規格に存在する。VCL NALユニットは、コーディングされたピクチャデータの(以下で説明される)1つのスライスまたはスライスセグメントを含み、非VCL NALユニットは、1つまたは複数のコーディングされたピクチャに関連する制御情報を含む。いくつかのケースでは、NALユニットは、パケットと呼ばれ得る。HEVC AUは、コーディングされたピクチャデータを含むVCL NALユニットと、コーディングされたピクチャデータに対応する非VCL NALユニット(もしあれば)とを含む。
[0059]NALユニットは、ビデオ中のピクチャのコーディングされた表現のような、ビデオデータのコーディングされた表現を形成するビットのシーケンス(例えば、符号化されたビデオビットストリーム、ビットストリームのCVS、または同様のもの)を含み得る。エンコーダエンジン106は、各ピクチャを複数のスライスに区分化することによって、ピクチャのコーディングされた表現を生成する。スライスは、他のスライスとは独立しており、それによって、スライス中の情報は、同じピクチャ内の他のスライスからのデータに依存することなくコーディングされる。スライスは、独立スライスセグメントと、もしあれば、以前のスライスセグメントに依存する1つまたは複数の従属スライスセグメントとを含む、1つまたは複数のスライスセグメントを含む。その後、スライスは、ルーマサンプルおよびクロマサンプルのコーディングツリーブロック(CTB)に区分化される。ルーマサンプルのCTBおよびクロマサンプルの1つまたは複数のCTBは、サンプルのためのシンタックスと共に、コーディングツリーユニット(CTU)と呼ばれる。CTUは、HEVC符号化のための基本処理ユニットである。CTUは、可変サイズの複数のコーディングユニット(CU)へと分割され得る。CUは、コーディングブロック(CB)と呼ばれるルーマおよびクロマサンプル配列を含む。
[0060]ルーマおよびクロマCBは、予測ブロック(PB)へとさらに分割され得る。PBは、(利用可能であるか、または使用のためにイネーブルにされるとき)インター予測またはイントラブロックコピー予測のために同じ動きパラメータを使用するルーマ成分またはクロマ成分のサンプルのブロックである。ルーマPBおよび1つまたは複数のクロマPBは、関連するシンタックスと共に、予測ユニット(PU)を形成する。インター予測の場合、動きパラメータのセット(例えば、1つまたは複数の動きベクトル、参照インデックス、または同様のもの)が、各PUについてビットストリーム中でシグナリングされ、ルーマPBおよび1つまたは複数のクロマPBのインター予測のために使用される。動きパラメータはまた、動き情報と呼ばれ得る。CBはまた、1つまたは複数の変換ブロック(TB)に区分化され得る。TBは、予測残差信号をコーディングするために同じ2次元変換が適用される、色成分のサンプルの正方形ブロックを表す。変換ユニット(TU)は、ルーマおよびクロマサンプルのTBと、対応するシンタックス要素とを表す。
[0061]CUのサイズは、コーディングモードのサイズに対応し、形状が正方形であり得る。例えば、CUのサイズは、8×8サンプル、16×16サンプル、32×32サンプル、64×64サンプル、または最大で対応するCTUのサイズまでのその他任意の好適なサイズであり得る。「N×N」という表現は、縦および横の寸法の観点から、ビデオブロックのピクセル寸法(例えば、8ピクセル×8ピクセル)を指すためにここで使用される。ブロック中のピクセルは、行および列に配置され得る。いくつかの例では、ブロックは、横方向に、縦方向と同じ数のピクセルを有していない場合がある。CUに関連付けられたシンタックスデータは、例えば、1つまたは複数のPUへのCUの区分化を説明し得る。区分化モードは、CUがイントラ予測モード符号化されたか、またはインター予測モード符号化されたかの間で異なり得る。PUは、形状が非正方形になるように区分化され得る。CUに関連付けられたシンタックスデータはまた、例えば、CTUによる、1つまたは複数のTUへのCUの区分化を説明し得る。TUは、形状が正方形または非正方形であり得る。
[0062]HEVC規格によると、変換は、変換ユニット(TU)を使用して実行され得る。TUは、異なるCUに対して異なり得る。TUは、所与のCU内のPUのサイズに基づいて、サイズ決定され得る。TUは、PUと同じサイズであるかそれより小さくなり得る。いくつかの例では、CUに対応する残差サンプルは、残差4分木(RQT:residual quad tree)として知られる4分木構造を使用して、より小さいユニットに細分され得る。RQTのリーフノードは、TUに対応し得る。TUに関連付けられたピクセル差分値は、変換係数を作成するために変換され得る。その後、変換係数は、エンコーダエンジン106によって量子化され得る。
[0063]いったんビデオデータのピクチャがCUに区分化されると、エンコーダエンジン106は、予測モードを使用して各PUを予測する。その後、予測ユニットまたは予測ブロックは、(以下で説明される)残差を得るために元のビデオデータから減算される。各CUについて、予測モードは、シンタックスデータを使用してビットストリームの内部でシグナリングされ得る。予測モードは、イントラ予測(またはイントラピクチャ予測)またはインター予測(またはインターピクチャ予測)を含み得る。イントラ予測は、ピクチャ内の空間的に隣接するサンプル間の相関を利用する。例えば、イントラ予測を使用して、各PUは、例えば、PUの平均値を求めるためのDC予測、平面をPUに合わせるための平面予測、隣接データから外挿するための方向予測、またはその他任意の好適なタイプの予測を使用して、同じピクチャ中の隣接画像データから予測される。インター予測は、画像サンプルのブロックについての動き補償予測を導出するために、ピクチャ間の時間的相関を使用する。例えば、インター予測を使用して、各PUは、(出力順序で現在のピクチャの前または後の)1つまたは複数の参照ピクチャ中の画像データからの動き補償予測を使用して予測される。ピクチャエリアを、インターピクチャ予測を使用してコーディングするか、またはイントラピクチャ予測を使用してコーディングするかの決定は、例えば、CUレベルで行われ得る。
[0064]いくつかの例では、ピクチャの1つまたは複数のスライスは、スライスタイプを割り当てられる。スライスタイプは、Iスライス、Pスライス、およびBスライスを含む。Iスライス(イントラフレーム、独立に復号可能)は、イントラ予測によってのみコーディングされるピクチャのスライスであり、したがって、Iスライスが、スライスの任意の予測ユニットまたは予測ブロックを予測するために、フレーム内のデータのみを必要とすることから、独立に復号可能である。Pスライス(片方向(uni-directional)予測フレーム)は、イントラ予測で、および片方向インター予測でコーディングされ得るピクチャのスライスである。Pスライス内の各予測ユニットまたは予測ブロックは、イントラ予測またはインター予測のいずれかでコーディングされる。インター予測が適用されるとき、予測ユニットまたは予測ブロックは、1つの参照ピクチャによってのみ予測され、したがって、参照サンプルは、1つのフレームの1つの参照領域のみからのものである。Bスライス(双方向予測フレーム)は、イントラ予測で、およびインター予測で(例えば、双予測(bi-prediction)または単予測(uni-prediction)のいずれかで)コーディングされ得るピクチャのスライスである。Bスライスの予測ユニットまたは予測ブロックは、2つの参照ピクチャから双方向に予測され得、ここで、各ピクチャは、1つの参照領域を与え(contributes)、2つの参照領域のサンプルセットは、双方向予測ブロックの予測信号を作成するために、(例えば、等しい重みで、または異なる重みで)重み付けされる。上記で説明されたように、1つのピクチャのスライスは、独立にコーディングされる。いくつかのケースでは、ピクチャは、単に1つのスライスとしてコーディングされ得る。
[0065]PUは、予測プロセスに関連するデータ(例えば、動きパラメータまたは他の好適なデータ)を含み得る。例えば、PUがイントラ予測を使用して符号化されるとき、PUは、PUのためのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインター予測を使用して符号化されるとき、PUは、PUのための動きベクトルを定義するデータを含み得る。PUのための動きベクトルを定義するデータは、例えば、動きベクトルの水平成分(Δx)、動きベクトルの垂直成分(Δy)、動きベクトルについての解像度(例えば、整数精度、4分の1ピクセル精度、または8分の1ピクセル精度)、動きベクトルが指し示す参照ピクチャ、参照インデックス、動きベクトルについての参照ピクチャリスト(例えば、リスト0、リスト1、またはリストC)、またはこれらの任意の組合せを記述し得る。
[0066]その後、符号化デバイス104は、変換および量子化を実行し得る。例えば、予測に続いて、エンコーダエンジン106は、PUに対応する残差値を計算し得る。残差値は、コーディングされているピクセルの現在のブロック(PU)と、現在のブロックを予測するために使用される予測ブロック(例えば、現在のブロックの予測されたバージョン)との間のピクセル差分値を備え得る。例えば、(例えば、インター予測またはイントラ予測を発行して)予測ブロックを生成した後、エンコーダエンジン106は、現在のブロックから予測ユニットによって作成される予測ブロックを減算することによって、残差ブロックを生成し得る。残差ブロックは、現在のブロックのピクセル値と、予測ブロックのピクセル値との間の差分を定量化するピクセル差分値のセットを含む。いくつかの例では、残差ブロックは、2次元ブロックフォーマット(例えば、ピクセル値の2次元行列または配列)で表され得る。このような例では、残差ブロックは、ピクセル値の2次元表現である。
[0067]予測が実行された後に残り得る任意の残差データは、ブロック変換を使用して変換され、これは、離散コサイン変換、離散サイン変換、整数変換、ウェーブレット変換、他の好適な変換関数(transform function)、またはこれらの任意の組合せに基づき得る。いくつかのケースでは、1つまたは複数のブロック変換(例えば、サイズ32×32、16×16、8×8、4×4、または同様のもの)が、各CU中の残差データに適用され得る。いくつかの例では、TUが、エンコーダエンジン106によってインプリメントされる変換および量子化プロセスのために使用され得る。1つまたは複数のPUを有する所与のCUがまた、1つまたは複数のTUを含み得る。以下でさらに詳細に説明されるように、残差値は、ブロック変換を使用して変換係数へと変換され得、その後、エントロピーコーディングのための直列化された変換係数(serialized transform coefficients)を作成するために、TUを使用して量子化および走査され得る。
[0068]いくつかの例では、CUのPUを使用するイントラ予測またはインター予測コーディングに続いて、エンコーダエンジン106は、CUのTUについての残差データを計算し得る。PUは、空間領域(またはピクセル領域)中のピクセルデータを備え得る。TUは、ブロック変換の適用後の変換領域中の係数を備え得る。前述されたように、残差データは、符号化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分値に対応し得る。エンコーダエンジン106は、CUについての残差データを含むTUを形成し得、その後、CUのための変換係数を作成するためにTUを変換し得る。
[0069]エンコーダエンジン106は、変換係数の量子化を実行し得る。量子化は、係数を表すために使用されるデータの量を低減させるために、変換係数を量子化することによって、さらなる圧縮を提供する。例えば、量子化は、係数の一部または全てに関連付けられたビット深度を低減させ得る。一例では、nビットの値を有する係数は、量子化中にmビットの値に切り捨てられ得るとともに、nは、mよりも大きい。
[0070]いったん量子化が実行されると、コーディングされたビデオビットストリームは、量子化された変換係数、予測情報(例えば、予測モード、動きベクトル、ブロックベクトル、または同様のもの)、区分化情報、および他のシンタックスデータのような、その他任意の好適なデータを含む。その後、コーディングされたビデオビットストリームの異なる要素は、エンコーダエンジン106によってエントロピー符号化され得る。いくつかの例では、エンコーダエンジン106は、エントロピー符号化され得る直列化されたベクトルを作成するために、予め定義された走査順序を利用して、量子化された変換係数を走査し得る。いくつかの例では、エンコーダエンジン106は、適応走査を実行し得る。ベクトル(例えば、1次元ベクトル)を形成するために、量子化された変換係数を走査した後、エンコーダエンジン106は、ベクトルをエントロピー符号化し得る。例えば、エンコーダエンジン106は、コンテキスト適応可変長コーディング、コンテキスト適応バイナリ算術コーディング、シンタックスベースコンテキスト適応バイナリ算術コーディング、確率間隔区分化エントロピーコーディング、または別の好適なエントロピー符号化技法を使用し得る。
[0071]前述されたように、HEVCビットストリームは、VCL NALユニットおよび非VCL NALユニットを含む、NALユニットのグループを含む。VCL NALユニットは、コーディングされたビデオビットストリームを形成するコーディングされたピクチャデータを含む。例えば、コーディングされたビデオビットストリームを形成するビットのシーケンスは、VCL NALユニット中で再送される。非VCL NALユニットは、他の情報に加えて、符号化されたビデオビットストリームに関連する高レベル情報を有するパラメータセットを含み得る。例えば、パラメータセットは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、およびピクチャパラメータセット(PPS)を含み得る。パラメータセットの目的の例は、ビットレート効率、エラー耐性、およびシステムレイヤインターフェースを提供することを含む。各スライスは、復号デバイス112がスライスを復号するために使用し得る情報にアクセスするために、単一のアクティブPPS、SPS、およびVPSを参照する。識別子(ID)は、VPS ID、SPS ID、およびPPS IDを含む各パラメータセットについてコーディングされ得る。SPSは、SPS IDおよびVPS IDを含む。PPSは、PPS IDおよびSPS IDを含む。各スライスヘッダは、PPS IDを含む。IDを使用して、アクティブパラメータセットは、所与のスライスのために識別され得る。
[0072]PPSは、所与のピクチャ中の全てのスライスに適用される情報を含む。このことから、ピクチャ中の全てのスライスは、同じPPSを参照する。異なるピクチャ中のスライスもまた、同じPPSを参照し得る。SPSは、同じコーディングされたビデオシーケンス(CVS)またはビットストリーム中の全てのピクチャに適用される情報を含む。前述されたように、コーディングされたビデオシーケンスは、(上記で説明された)ある特定の特性を有しかつベースレイヤにおけるランダムアクセスポイントピクチャ(例えば、瞬時復号参照(IDR:instantaneous decode reference)ピクチャまたはブロークンリンクアクセス(BLA:broken link access)ピクチャ、または他の適切なランダムアクセスポイントピクチャ)から開始し、(ビットストリームの終了または)ある特定の特性を有しかつベースレイヤにおけるランダムアクセスポイントピクチャを有する次のアクセスユニット(AU)までの(およびそれを含まない)、一連のAUである。SPS中の情報は、コーディングされたビデオシーケンス内のピクチャごとに変化しないことがあり得る。コーディングされたビデオシーケンス中のピクチャは、同じSPSを使用し得る。VPSは、コーディングされたビデオシーケンスまたはビットストリーム内の全てのレイヤに適用される情報を含む。VPSは、コーディングされたビデオシーケンス全体に適用されるシンタックス要素を有するシンタックス構造を含む。いくつかの例では、VPS、SPS、またはPPSは、符号化されたビットストリームとともに帯域内で送信され得る。いくつかの例では、VPS、SPS、またはPPSは、コーディングされたビデオデータを含むNALユニットとは別個の送信において帯域外で送信され得る。
[0073]ビデオビットストリームはまた、補足エンハンスメント情報(SEI)メッセージを含み得る。例えば、SEI NALユニットは、ビデオビットストリームの一部であり得る。いくつかのケースでは、SEIメッセージは、復号プロセスによって必要とされない情報を含み得る。例えば、SEIメッセージ中の情報は、デコーダがビットストリームのビデオピクチャを復号するのに必須でない場合があるが、デコーダは、ピクチャの表示または処理(例えば、復号された出力)を改善するために、この情報を使用し得る。SEIメッセージ中の情報は、埋め込まれたメタデータであり得る。1つの例示的な例では、SEIメッセージ中の情報は、コンテンツの視認性を改善するために、デコーダ側エンティティによって使用され得る。いくつかの事例では、ある特定のアプリケーション規格は、品質の改善が、アプリケーション規格に準拠する全てのデバイスにもたらされ得るように、ビットストリーム中のこのようなSEIメッセージの存在を規定し得る(例えば、多くの他の例に加えて、フレーム互換平面立体視3DTVビデオフォーマット(frame-compatible plano-stereoscopic 3DTV video format)のためのフレームパッキングSEIメッセージの搬送、ここで、SEIメッセージは、ビデオのフレームごとに搬送され、リカバリポイントSEIメッセージの処理、DVBにおけるパンスキャン走査矩形SEIメッセージの使用)。
[0074]符号化デバイス104の出力110は、受信デバイスの復号デバイス112に、通信リンク120を介して、符号化されたビデオデータを構成するNALユニットを送り得る。復号デバイス112の入力114は、NALユニットを受信し得る。通信リンク120は、ワイヤレスネットワーク、ワイヤードネットワーク、またはワイヤードネットワークとワイヤレスネットワークの組合せによって提供されるチャネルを含み得る。ワイヤレスネットワークは、任意のワイヤレスインターフェースまたは複数のワイヤレスインターフェースの組合せを含み得、また、任意の好適なワイヤレスネットワーク(例えば、インターネットまたは他のワイドエリアネットワーク、パケットベースネットワーク、WiFi(登録商標)、無線周波数(RF)、UWB、WiFi−Direct、セルラ、ロングタームエボリューション(LTE(登録商標))、WiMax(登録商標)、または同様のもの)を含み得る。ワイヤードネットワークは、任意のワイヤードインターフェース(例えば、ファイバー、イーサネット(登録商標)、電力線イーサネット、同軸ケーブルを通じたイーサネット、デジタル信号線(DSL)、または同様のもの)を含み得る。ワイヤードおよび/またはワイヤレスネットワークは、基地局、ルータ、アクセスポイント、ブリッジ、ゲートウェイ、スイッチ、または同様のものなどの、様々な機器を使用してインプリメントされ得る。符号化されたビデオデータは、ワイヤレス通信プロトコルのような通信規格に従って変調され、受信デバイスに送信され得る。
[0075]いくつかの例では、符号化デバイス104は、符号化されたビデオデータを記憶装置108に記憶し得る。出力110は、エンコーダエンジン106から、または記憶装置108から、符号化されたビデオデータを取り出し得る。記憶装置108は、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のうちの任意のものを含み得る。例えば、記憶装置108は、ハードドライブ、ストレージディスク、フラッシュメモリ、揮発性または不揮発性メモリ、または符号化されたビデオデータを記憶するためのその他任意の好適なデジタル記憶媒体を含み得る。
[0076]復号デバイス112の入力114は、符号化されたビデオビットストリームデータを受信し、デコーダエンジン116に、またはデコーダエンジン116による後の使用のために記憶装置118に、ビデオビットストリームデータを提供し得る。デコーダエンジン116は、(例えば、エントロピーデコーダを使用して)エントロピー復号し、符号化されたビデオデータを構成する1つまたは複数のコーディングされたビデオシーケンスの要素を抽出することによって、符号化されたビデオビットストリームデータを復号し得る。その後、デコーダエンジン116は、符号化されたビデオビットストリームデータの再スケーリング(rescale)を行い、それに対して逆変換を実行し得る。その後、残差データが、デコーダエンジン116の予測ステージに渡される。その後、デコーダエンジン116は、ピクセルのブロック(例えば、PU)を予測する。いくつかの例では、予測は、逆変換の出力(残差データ)に加算(added)される。
[0077]復号デバイス112は、復号されたビデオをビデオ宛先デバイスに出力し得、これは、復号されたビデオデータをコンテンツの消費者に表示するためのディスプレイまたは他の出力デバイスを含み得る。いくつかの態様では、ビデオ宛先デバイス122は、復号デバイス112を含む受信デバイスの一部であり得る。いくつかの態様では、ビデオ宛先デバイス122は、受信デバイス以外の別個のデバイスの一部であり得る。
[0078]いくつかの例では、ビデオ符号化デバイス104および/またはビデオ復号デバイス112は、それぞれ、オーディオ符号化デバイスおよびオーディオ復号デバイスと一体化され得る。ビデオ符号化デバイス104および/またはビデオ復号デバイス112はまた、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリートロジック、ソフトウェア、ハードウェア、ファームウェアまたはこれらの任意の組合せなどの、上記で説明されたコーディング技法をインプリメントするのに必要な他のハードウェアまたはソフトウェアを含み得る。ビデオ符号化デバイス104およびビデオ復号デバイス112は、それぞれのデバイスにおいて、複合エンコーダ/デコーダ(コーデック)の一部として一体化され得る。符号化デバイス104の特定の詳細の例が、図9を参照して以下で説明される。復号デバイス112の特定の詳細の例が、図10を参照して以下で説明される。
[0079]HEVC規格に対する拡張は、MV−HEVCと呼ばれる、マルチビュービデオコーディング拡張と、SHVCと呼ばれる、スケーラブルビデオコーディング拡張とを含む。MV−HEVCおよびSHVC拡張は、レイヤードコーディングの概念を共有するとともに、異なるレイヤが、符号化されたビデオビットストリーム中に含まれている。コーディングされたビデオシーケンス中の各レイヤは、一意のレイヤ識別子(ID)によってアドレス指定(addressed)される。レイヤIDは、NALユニットが関連付けられているレイヤを識別するために、NALユニットのヘッダ中に存在し得る。MV−HEVCでは、異なるレイヤは、通常、ビデオビットストリーム中の同じシーンの異なるビューを表す。SHVCでは、異なる空間解像度(またはピクチャ解像度)で、または異なる再構成忠実度でビデオビットストリームを表す異なるスケーラブルレイヤが提供される。スケーラブルレイヤは、(レイヤID=0を有する)ベースレイヤと、(レイヤID=1、2、...nを有する)1つまたは複数のエンハンスメントレイヤとを含み得る。ベースレイヤは、HEVCの第1のバージョンのプロファイルに準拠し得、ビットストリーム中の最下位の利用可能なレイヤを表す。エンハンスメントレイヤは、ベースレイヤと比較して、増大された空間解像度、時間解像度またはフレームレート、および/または再構成忠実度(または品質)を有する。エンハンスメントレイヤは、階層的に編成され、下位レイヤに依存することも(またはしないことも)あり得る。いくつかの例では、異なるレイヤは、単一標準コーデックを使用してコーディングされ得る(例えば、全てのレイヤが、HEVC、SHVC、または他のコーディング規格を使用して符号化される)。いくつかの例では、異なるレイヤは、多標準コーデックを使用してコーディングされ得る。例えば、ベースレイヤは、AVCを使用してコーディングされ得、一方、1つまたは複数のエンハンスメントレイヤは、HEVC規格に対するSHVCおよび/またはMV−HEVC拡張を使用してコーディングされ得る。
[0080]ビデオ圧縮技法は、入力ビデオ信号に固有の冗長性を低減または取り除くために、空間的および時間的予測を実行する。時間的冗長性(すなわち、隣接フレームにおける視覚的類似性)を低減させるために、動き推定が行われて、ビデオにおけるオブジェクトの動きを追跡する。動き推定は、現在のフレームからの所与のピクセルのブロックについて、1つの参照フレーム中の(または双予測の場合は2つの参照フレーム中の)最も良く一致する(例えば、最も類似した)ピクセルのブロックを識別するプロセスである。1つまたは複数の参照フレームが、1つまたは複数の参照インデックスを使用して、現在のブロックのために識別され得る。参照フレーム中のピクセルのブロックは、候補ブロック、予測子(predictor)、または予測ブロックと呼ばれ得る。ブロックのサイズは異なり得る。現在のフレームからの現在のブロックと、参照フレームからの候補ブロックとの間のオフセットは、動きベクトルによって特徴付けられ得、これは、変位の程度(degree of displacement)および変位の方向を示し得る。
[0081]動きベクトルは、ピクセル単位の距離で変位を示し得る。いくつかのケースでは、動きベクトルは、1/2ピクセル、1/4ピクセル、または1/16ピクセル距離など、整数ピクセル精度よりも高い精度を有し得る。より細かい精度は、ビデオコーダがより正確に動きフィールドを追跡し、したがって、より良い予測を得ることを可能にし得る。
[0082]ビデオコーダがフレームを再構成しており、分数ピクセル値を有する動きベクトルに遭遇したとき、ビデオコーダは、分数ピクセル値を生成するために補間を行い得る。例えば、および以下でさらに説明されるように、ビデオコーダは、1/2ピクセル、1/4ピクセル、または何らかの他の分数ピクセル位置についての補間されたピクセルを作成するために、利用可能なピクセルに補間フィルタを適用し得る。
[0083]多くのビデオコーデックは、固定補間フィルタを使用する。固定補間フィルタでは、エンコーダおよびデコーダの両方が、前もってフィルタ係数を提供され得、これら係数は、符号化されたビットストリームにおいて提供される必要がない。
[0084]しかしながら、動き推定および動き補償は、固定フィルタではなく、最適な補間フィルタを使用することによって、最適化され得る。所与の状況についての最良のフィルタは、高度にローカライズされおよびコンテンツ依存である傾向にある。したがって、最適なフィルタを使用することは、フィルタ係数がエンコーダからデコーダに送信される必要があるという点で、シグナリングオーバヘッドを著しく増大させ得、および/またはエンコーダの複雑さを増大させ得る。
[0085]様々なインプリメンテーションでは、異なる補間フィルタが、異なるコーディングユニットに適用され得、かつコーディングされたビットストリームのサイズに対する最小限の追加の増大で(with minimal additional increase)シグナリングされ得るシステムおよび方法が提供される。例えば、HEVCの場合、フィルタ候補の特定のセットは、コーディングユニットが、特に、シーケンスレベル、ピクチャレベル、コーディングツリーユニットレベル、コーディングユニットレベル、変換ユニットレベル、または予測ユニットレベルにあるとき、利用可能になり得る。加えて、JEMの場合、フィルタ候補の特定のセットは、特に、4分木プラス2分木(QTBT:quadtree plus binary tree)レベルにおいて利用可能になり得る。ここで、コーディングユニットは、ブロックとも呼ばれ得る。これらおよび他の例では、ビデオコーダは、ビデオを符号化またはビットストリームを復号しながら、複数の補間フィルタ間で切り替え得る。
[0086]様々なインプリメンテーションでは、異なる特性(例えば、他の特性の中でも特に、フィルタ長、カットオフ周波数、遷移帯域、またはリップルの量)をそれぞれ有する、N個のフィルタのセットが定義され得る。異なるコーディングレベルのブロックに対して、N個のフィルタのセットのサブセットが定義され得る。様々な基準を使用して、エンコーダは、フィルタのサブセットからフィルタを選択し得る。その後、選択されたフィルタは、明示的にまたは暗黙的に、デコーダにシグナリングまたは示され得る。所与のレベルで適用されるフィルタのサブセットは、他の基準の中でも特に、以前にコーディングされたブロック中のフィルタのヒット率などの、ある特定の基準に基づいて異なり得る。いくつかのインプリメンテーションでは、整数ピクセル位置またはクロマ成分のためのフィルタ選択がまた、同様のメカニズムを使用して、暗黙的にまたは暗黙的にシグナリングされ得る。
[0087]図2は、現在のフレームからの現在のブロック236についての符号化プロセス200の例を例示する。現在のブロック236はまた、コーディングユニットとも呼ばれ得る。現在のブロック236は、現在のフレーム全体よりも小さくなり得る。
[0088]この例では、符号化プロセス200は、最初に、現在のブロック236に対して動き推定242を行う。動き推定242は、利用可能な参照フレーム264の中から1つまたは複数の参照フレームを識別することを含み得る。参照フレームは、現在のフレームの時間的に前に、または後に発生するフレーム(a frame that occurs before, temporally, or after the current frame)を含み得る。動き推定242を行うことは、現在のブロック236に「最も良く」一致する領域を求めて、(1つまたは複数の)参照フレーム中の探索エリアを探索することを含み得る。最良の一致は、例えば、残差エネルギーを決定するために、現在のブロック236から候補領域を減算することによって、決定され得る。この例では、最低の残差エネルギーを有する候補領域が、最良の一致として選ばれ得る。
[0089]動き推定242は、動きベクトル243を作成することをさらに含み、これは、(1つまたは複数の)参照フレームに関連して(relative to)、現在のブロック236についての動きの程度および方向を推定する。ほとんどのケースでは、1つまたは複数の参照インデックスが、動きベクトルに関連付けられ、ここで、参照インデックスは、動きベクトルを決定するために使用された(1つまたは複数の)参照フレームを識別する。いくつかのケースでは、動き推定の後に、例えば、レート歪みモデルを使用して、最良の動きベクトルが選択され得る。
[0090]動き補償244は、最良の動きベクトルを使用して動き補償を実行することによって、予測ブロック245を生成することを含み得る。予測ブロック245は、最良の動きベクトルを使用することからの参照から選択されたブロックである。予測ブロック245は、残差ブロック251を作成するために、現在のブロック236から減算され得る。ブロック変換252が、残差ブロック251に適用され得る。結果として得られる変換係数は、量子化254を経て、量子化された係数255を作成し得る。エントロピーコーディング256が、ビットレートをさらに低減させ、符号化されたビットストリーム210を作成するために、量子化された係数255に適用され得る。
[0091]量子化された係数255はまた、逆量子化258に、そしてその後、逆変換260に入力され得る。逆量子化258および逆変換260は、ブロック変換252および量子化254ステップの逆であり、再構成された残差ブロック261を作成する。再構成された残差ブロック261は、再構成されたブロック253を作成するために、予測されたブロック245に加算され得る。再構成されたブロック253は、現在のブロック236とほぼ同じである。再構成されたビデオブロック253は、追加のブロックを符号化するために使用されることになる参照フレーム中に含まれ得る。
[0092]例示的なプロセス200は、主に時間的動き推定を説明する。他の例では、H.264/AVCおよびHEVC符号化プロセスなどの符号化プロセスがまた、イントラコーディングされたブロックを作成するために、空間的予測を行い得る。符号化プロセスは、図9を参照してより詳細に説明される。
[0093]前述されたように、現在のブロックについての最も良く一致する参照ブロックは、現在のブロックからフルピクセルオフセット、または分数ピクセルオフセットにあり得る。動き情報が、最良の一致が分数ピクセル位置にあることを示すとき、ビデオコーダは、参照ブロック中のピクセルから分数位置にあるピクセルを補間することによって、ブロックを再構成し得る。
[0094]図3は、分数ピクセル位置の例を例示する。図3の例では、幅3ピクセルおよび高さ3ピクセルである、参照フレームからのブロック300が例示される。整数ピクセル位置は、大文字とともに網掛けのブロックを使用して例示される(例えば、A0,0、A1,0、A0,1、A−1,0、A0,−1、A1,1、A1,−1、A−1,1、およびA−1,−1)。ここでサブピクセル位置とも呼ばれる1/4ピクセル位置が、小文字を使用して例示される(例えば、a0,0、b0,0、c0,0、等)。この例では、a〜rとラベル付けされた(明確さのために、「l」および「o」は省略されていることに留意されたい)、ピクセル位置あたり15個のサブピクセル位置が存在する。
[0095]様々な方法が、サブピクセル位置についてのサンプルを導出するために使用され得る。例えば、1/2ピクセル位置b0,0におけるサンプルは、位置A0,0およびA1,0におけるピクセルを平均することによって生成され得る。別の例として、位置A−1,0、A1,0、A0,0、および隣接ブロックからのA2,0におけるピクセルは、位置b0,0についてのサンプルを作成するために平均され得る。
[0096]HEVCでは、位置a0,0、b0,0、およびc0,0についての横のサブピクセルサンプル、ならびに位置d0,0、h0,0、およびn0,0についての縦のサブピクセルサンプルは、最も近い整数位置サンプルに8タップフィルタを適用することによって導出され得る。位置e0,0、i0,0、p0,0、f0,0、j0,0、q0,0、g0,0、k0,0、およびr0,0についてのサンプルは、位置a0,i、b0,iおよびc0,iにおけるサンプルに8タップフィルタを適用することによって導出され得、ここで、i=−3...4である。8タップルーマ補間フィルタの例が、表1に例示される。
Figure 2019535198
[0097]表1は、位相シフトあたり8つの係数を含み、各タップにつき1つである。各位相シフトは、1/4ピクセル位置に対応する。例えば、位相シフト1は、サブピクセル位置a0,0およびd0,0に対応し得、位相シフト2は、サブピクセル位置b0,0およびh0,0に対応し得、以下同様である。他の例では、より長いタップを有する(例えば、より多くの係数を有する)フィルタが適用され得る。より長いタップを有するフィルタは、8タップフィルタとは異なる特性を有し得、適用時により複雑な計算を必要とし得る。
[0098]JEMにおいて開発されているコーデックを含む、他のビデオコーデックでは、1/16サブピクセル動きベクトル解像度がイネーブルにされ得る。1/16サブピクセル位置では、16位相を有するフィルタが、補間のために使用され得る。16位相を有する例となるフィルタが、表2に提供される。しかしながら、JEMでは、固定された係数を有する8タップフィルタが使用される。
Figure 2019535198
[0099]図2を参照すると、コンテンツ適応バイナリ算術コーディング(CABAC)は、ビットストリーム中のシンタックス要素を符号化および復号するために、エントロピーコーディング256において使用され得る1つのシステムである。CABACは、要素のコンテキストを使用して、各シンタックス要素についての確率モデルを選択することによって;局所統計量(local statistics)に基づいて、確率推定値を適応すること(adapting)によって;および可変長コーディングの代わりに、算術コーディングを使用して、良好な圧縮パフォーマンスを達成し得る。
[0100]CABACは、バイナリ算術コーディングを使用し、これは、バイナリ決定(1または0)のみが符号化されることを意味する。非バイナリ値シンボル(例えば、変換係数または動きベクトル、あるいは2つ以上の可能な値を有する任意のシンボル)が、算術コーディングの前に「2値化される」、すなわちバイナリコードに変換される。その後、2値化されたシンボルの各ビットについて、コンテキストモデルが選択される。コンテキストモデルは、2値化されたシンボルの1つまたは複数のビンについての確率モデルである。コンテキストモデルは、直近にコーディングされたデータシンボルの統計量に基づいて、利用可能なモデルから選ばれる。コンテキストモデルは、各ビンが、「1」または「0」である確率を記憶する。その後、算術コーダが、選択された確率モデルに従って、各ビンを符号化する。その後、選択されたコンテキストモデルは、実際のコーディングされた値に基づいて更新される(例えば、ビン値が「1」であった場合、「1」の頻度カウントが増加される)。
[0101]例として、skip_flag_C[0]、skip_flag_C[1]、およびskip_flag_C[2]と名付けられた3つの候補コンテキストモデルが、シンタックス要素cu_skip_flagをコーディングするために使用され得る。3つの候補から適切なコンテキストを選ぶために、選択値xが、次のように計算され得る:

x=(cu_skip_flag[xNbL][yNbL] && availableL)+(cu_skip_flag[xNbA][yNbA] && availableA)

[0102]上記式について、使用すべきコンテキストモデルは、以下のように決定され得る:
[0103] (x0,y0)は、現在のピクチャの左上のサンプルに対する(relative to)、現在のルーマブロックの左上のルーマサンプルの位置を指定する。
[0104] 位置(xNbL,yNbL)は、(x0−1,y0)に設定され得、変数availableLは、現在のブロックのすぐ左に位置するブロックの利用可能性を示し得る。
[0105] 位置(xNbA,yNbA)は、(x0,y0−1)に等しく設定され得、変数availableAは、現在のブロックの真上に位置するコーディングブロックの利用可能性を指定し得る。
[0106] cu_skip_flag[xNbL][yNbL]およびcu_skip_flag[xNbA][yNbA]は、それぞれ、第1のブロック(ブロックL)および第2のブロック(ブロックA)についてのcu_skip_flagを表し得る。
[0107]上述されたように、HEVCおよびJEMによってインプリメントされるコーデックは、サブピクセル動きベクトルがイネーブルにされているとき、固定補間フィルタを使用する。補間フィルタは、任意の所与の状況に対して、最適ではないことがあり得る。例えば、より高いカットオフ周波数を有するフィルタは、コーディングユニットがより多くのディテール(detail)を有するときにより適切であり得、それによって、補間が行われるときにディテールが保存され得る。別の例として、より低いカットオフ周波数を有するフィルタは、処理ユニットがより少ないディテールを有するときにより適切であり得、それによって、コーディングユニットは、より少ないビットでコーディングされ得る。
[0108]動き推定および動き補償は、固定フィルタではなく、最適な補間フィルタを使用することによって、最適化され得る。所与の状況についての最良のフィルタは、高度にローカライズされおよびコンテンツ依存である傾向にある。したがって、最適なフィルタを使用することは、フィルタ係数がエンコーダからデコーダに送信される必要があるという点で、シグナリングオーバヘッドを著しく増大させ得、および/またはエンコーダの複雑さを増大させ得る。
[0109]様々なインプリメンテーションでは、ビデオコーダが、異なる予測ユニットについての動き推定および動き補償を行うときに、利用可能な複数の補間フィルタ間で切り替えるように構成され得る。いくつかのケースでは、インターレイヤ予測が、適応的なやり方で補間フィルタを選択することによって改善され得る。様々なインプリメンテーションでは、フィルタ長、カットオフ周波数、遷移帯域、リップルの量などの特性、および/または特性の組合せをそれぞれ有する、N個のフィルタのセットが定義され得る。
[0110]f400。また、フィルタのセット410が、図4に例示されており、これは、コーデックによる使用のために定義された全てのフィルタを表す。上述されたように、動き推定444ステップにおいて、参照フレーム464からの参照ブロックが決定される。参照ブロックは、外観という点で、コーディングユニット402に最も良く一致する(例えば、それに最も類似している)参照フレーム464の一部分である。この例では、コーディングユニット402は、シーケンス、ピクチャ、スライス、コーディングツリーユニット、コーディングユニット、変換ユニット、予測ユニット、またはビデオデータの何らかの他のブロックであり得る。参照ブロックを使用して、動き推定444は、コーディングユニット402についての動き情報406を決定し得る。動き情報406は、特に、参照フレームを識別するために使用され得るインデックスと、1つまたは複数の動きベクトルとを含み得る。
[0111]図4の例では、動き推定444ステップはまた、フィルタ選択基準414を決定し得る。フィルタ選択基準414は、特定のコーディングユニット402に適用可能であるフィルタのサブセット412(ここでは、フィルタ候補とも呼ばれる)を選択するために使用され得る。例えば、いくつかのインプリメンテーションでは、フィルタ選択基準414は、コーディングユニット402のコーディングレベル(例えば、シーケンスレベル、ピクチャレベル、スライスレベル、コーディングツリーユニットレベル、コーディングユニットレベル、変換ユニットレベル、予測ユニットレベル、等)であり得る。この例では、フィルタのサブセット412は、コーディングユニット402のコーディングレベルに基づいて選択され得る。例えば、サブセットにおける特定のフィルタおよびサブセットにおけるフィルタの数は、異なる処理レベルにわたって変化し得る。
[0112]様々なインプリメンテーションでは、動き推定444は、フィルタのサブセット412の中から最適な補間フィルタを選択し得る。例えば、動き推定444は、フィルタのサブセット412におけるフィルタのうちのどれが最良の圧縮を提供するかを決定するために、レート歪み最適化を使用し得る。様々な他の方法が、最適なフィルタを選択するために使用され得る。
[0113]様々なインプリメンテーションでは、選択されたフィルタは、フィルタインデックス408を使用して識別され得る。フィルタインデックス408は、フィルタのサブセット412の中から選ばれたフィルタを識別し得る。例えば、可能なインデックスは、(例示される例では、それぞれ、F1、F3、およびF9に対して)0、1、または2であり得、フィルタF1が選択されたとき、フィルタインデックス408は、「0」になり得る。いくつかのケースでは、フィルタインデックス408は、動き情報406とともに、出力ビットストリーム420中に含まれ得る。これらのインプリメンテーションでは、フィルタインデックス408は、ビットストリーム420中で明示的にシグナリングされると言える。
[0114]いくつかのケースでは、フィルタインデックス408は、暗黙的にシグナリングされ得、すなわち、フィルタインデックス408は、ビットストリーム420中に含まれず、代わりに、ビットストリーム420を復号するときに、デコーダによって導出され得る。例えば、いくつかのケースでは、フィルタ選択基準414は、1つのフィルタのみを含むフィルタのサブセット412をもたらす。別の例として、いくつかのケースでは、フィルタのサブセット412は、複数のフィルタを含み得るが、動き推定444は、デフォルトフィルタを使用することを決定する(例えば、時間的マージ候補については、フィルタF1が常に選択される)。他の例では、コーディングレベル、予測モード、および/または使用されているコーディングツールなどの、1つまたは複数のファクタ(factors)が、適切なフィルタを導出するために、デコーダによって使用され得る。
[0115]いくつかのインプリメンテーションでは、動き推定444は、以前にコーディングされたブロックから導出された統計量に基づいて、フィルタを選択し得る。例えば、以前にコーディングされたブロックにおいて、フィルタのサブセット412からのいくつかのフィルタは、乏しいパフォーマンスを有していることにより、一度も使用されたことがない可能性がある。この例では、動き推定444は、現在の特定のコーディングユニット402のためのフィルタを選択するときに、パフォーマンスの悪いフィルタを除去し得る。逆に、特定のフィルタが、以前にコーディングされたブロックにおいて非常に頻繁に使用されているとき、動き推定444は、特定のコーディングユニット402のためのフィルタを選択するときに、このフィルタを優先し得る。
[0116]いくつかのインプリメンテーションでは、動き推定444は、空間的に隣接するものまたは時間的に隣接するものなどの、隣接ブロックからフィルタを選択し得る。例えば、いくつかのケースでは、コーディングユニット402は、隣接ブロックから動きベクトルをコピーし得る。この例では、コーディングユニット402はまた、同じ隣接ブロックからフィルタインデックスを借り得る。別の例として、いくつかの隣接ブロックが同じフィルタを使用するとき、動き推定444は、コーディングユニット402が同じフィルタを使用すべきであると決定し得る。
[0117]いくつかのインプリメンテーションでは、フィルタ選択基準414は、様々なファクタに基づき得る。例えば、フィルタのサブセット412におけるフィルタは、現在のブロックのために使用される予測モード(例えば、インター予測、イントラ予測、等)、動きベクトルの解像度または異なるもの、使用されているコーディングツール(例えば、双方向オプティカルフロー)、および/またはオーバーラップブロック動き補償(overlapped block motion compensation)におけるピクセルに基づいて選択され得る。別の例として、フィルタのサブセット412におけるフィルタは、現在のブロックのサイズおよび/または形状、現在のフレームの解像度、現在のフレームと参照フレームとの間の距離間の距離、および/または参照ピクチャについての量子化パラメータ(QP)値に基づいて選択され得る。
[0118]例として、コーディングユニット402が、フレームまたはスライスなどのデータの大きいセットであるか、またはコーディングユニット402が、ディテールをほとんど有していないとき、フィルタのサブセット412におけるフィルタは、低いカットオフを有するフィルタであり得る。低いカットオフ周波数を有するフィルタは、ディテールを滑らかにする傾向があり、したがって、コーディングユニット402がディテールをほとんど有していないとき、低いカットオフ周波数を有するフィルタを使用することによってデータが失われることはない。別の例として、コーディングユニット402が、コーディングユニットなどのデータの小さいセットであるか、またはコーディングユニット402が、高度のディテール(high degree of detail)を有するとき、フィルタのサブセット412は、高いカットオフ周波数を有するフィルタを含み得る。高いカットオフ周波数を有するフィルタは、コーディングユニット402における高い周波数成分(high frequency components)を維持し得、したがって、ディテールを保存する。
[0119]いくつかのインプリメンテーションでは、追加のフィルタ候補が、フィルタのサブセット412からのフィルタをマージすることによって生成され得る。例えば、2つのフィルタ候補が与えられると、第1の候補フィルタからの偶数の位相シフトが、第2の候補からの奇数の位相シフトとマージされて、第3の候補が生成される。別の例として、第4の候補が、第1の候補からの奇数の位相シフトを、第2の候補からの偶数の位相シフトと組み合わせることによって構成され得る。
[0120]いくつかのインプリメンテーションでは、複数の補間フィルタが結合され得る。例えば、整数サンプルのための補間フィルタが、分数サンプルのための補間フィルタへとカウントされ得る。この例では、整数サンプルのためのフィルタは、分数サンプルのためのフィルタからの最小の非ゼロ位相シフトを有するフィルタのものよりも高いカットオフ周波数を有し得る。代替として、整数サンプルのためのフィルタは、分数サンプルのためのフィルタのものよりも低いカットオフ周波数を有し得る。
[0121]いくつかのインプリメンテーションでは、コーディングツールがまた、フィルタに関連付けられる。例えば、双方向オプティカルフローは、勾配フィルタを使用し得、フレームレートアップコンバージョンは、リファインメントフィルタ(refinement filter)を使用し得る。いくつかのインプリメンテーションでは、ツール固有のフィルタが、フィルタのサブセット412における各フィルタ候補に従って生成され得る。例えば、3つの補間フィルタ候補が与えられると、3つの勾配フィルタが、双方向オプティカルフローのために導出され得る。これらのインプリメンテーションでは、ツール固有のフィルタを導出することによって、ツール固有のフィルタは、出力ビットストリーム420中で記述される必要がない。
[0122]いくつかの例では、フィルタが整数ピクセル位置と分数ピクセル位置との両方に適用されるとき、整数ピクセル位置のためのフィルタが、最初に適用され得る。その後、フィルタされた整数サンプルが、さらなる補間のための入力として使用されて、分数ピクセルサンプルを導出し得る。
[0123]いくつかの例では、フィルタが整数ピクセル位置と分数ピクセル位置との両方に適用されるとき、整数ピクセル位置のためのフィルタは、関連する動きベクトルが整数の精度を有するときにのみ適用可能であり得る。これらの例では、分数ピクセルサンプルは、整数位置におけるフィルタされていないピクセルを入力として使用して導出され得る。
[0124]図5は、復号プロセス500の動き推定544ステップの例を例示する。また、フィルタのセット510が、図5に例示されており、これは、コーデックによる使用のために定義された全てのフィルタを表す。デコーダプロセス500では、動き推定544は、予測ユニット502を再構成または予測するために使用され得る。現在のフレーム中の予測ユニット502について、符号化されたビットストリーム520は、動き情報506を含み得る。動き情報506は、例えば、参照フレーム564に対するインデックスと、1つまたは複数の動きベクトルとを含み得る。動き情報506を使用して、動き推定544は、参照フレーム564中の参照ブロックを識別し、予測ユニット502を予測または生成し得る。
[0125]いくつかのインプリメンテーションでは、動き推定544はまた、フィルタ選択基準514を決定し得る。フィルタ選択基準514は、予測ユニット502に適用可能であるフィルタのサブセット512を選択するために使用され得る。例えば、フィルタ選択基準514は、予測ユニット502のコーディングレベル、予測モード、および/または使用されているコーディングツールに基づき得る。サブセットにおける特定のフィルタおよびサブセットにおけるフィルタの数は、ビットストリーム520が復号され、異なる状況に遭遇するにつれて変化し得る。
[0126]いくつかのケースでは、ビットストリーム520は、フィルタのサブセット512からフィルタを選択するために使用され得る明示的なフィルタインデックス508を含む。様々なインプリメンテーションでは、フィルタインデックス508は、動き情報506に関連付けられ得る。フィルタインデックス508がビットストリーム520中に含まれるとき、フィルタインデックス508は、明示的にシグナリングされると言える。フィルタインデックス508は、補間のために使用されるべきフィルタのサブセット512の中からのフィルタを識別し得る。例えば、可能なインデックスは、(例示される例では、それぞれ、F1、F3、およびF9に対して)0、1、または2であり得、フィルタF1が選択されたとき、フィルタインデックス508は、「0」になり得る。
[0127]いくつかのケースでは、デコーダプロセス500は、フィルタインデックス508を導出し得る。例えば、いくつかのケースでは、フィルタ選択基準514は、1つのフィルタのみを含むフィルタのサブセット512をもたらす。別の例として、いくつかのケースでは、フィルタのサブセット512は、複数のフィルタを含み得るが、動き推定544は、デフォルトフィルタを使用することを決定する(例えば、時間的マージ候補については、フィルタF1が常に選択される)。他の例では、コーディングレベル、予測モード、および/または使用されているコーディングツールなどの、1つまたは複数のファクタが、適切なフィルタを導出するために、デコーダによって使用され得る。デコーダは、エンコーダによって決定されたものと同じフィルタを使用すべきであるので、デコーダがフィルタの識別を決定論的に(deterministically)導出できないケースでは、フィルタの識別は、ビットストリーム520中でシグナリングされることになる。
[0128]様々な方法が、フィルタインデックスが暗黙的であるときに使用すべき補間フィルタを決定するために使用され得る。いくつかの例では、補間フィルタは、現在のブロックの前に符号化された他のブロックによって決定され得る。例えば、ある特定の条件を満たすブロックは、他のブロックのために選ばれたフィルタを推論または継承することによって、フィルタを決定し得る。例えば、現在の動きベクトルが、(例えば、空間的マージ候補、アフィンマージ候補、および他の候補でのケースのように)以前にコーディングされたブロックから導出されるとき、動きベクトルがそれから導出されているブロックのために選ばれた補間フィルタが、現在のブロックのために使用され得る。この例では、いったんデコーダが動きベクトルを決定すると、デコーダは、いかなる追加の情報も必要とせずに、現在のブロックのためのフィルタを導出し得るので、フィルタインデックスの明示的なシグナリングは、必要とされない場合がある。
[0129]いくつかの例では、ある特定のブロックのための補間フィルタは、所定のデフォルトフィルタを常に選ぶか、または時に選び得る。これらの例では、別のブロックからのフィルタの継承またはフィルタを探索することは、必要ではない。いくつかのケースでは、いったん決定されると、デフォルトフィルタは、全てのコーディングレベルで適用される。いくつかの例では、フィルタのサブセットは、特定のフィルタの選択に偏り得る。例えば、フィルタは、シーケンシャル順にテストされ得、特定のフィルタが、フレームレートアップコンバージョン、時間的動きベクトル予測(TMVP)、アドバンスト動きベクトル予測(AMVP)、またはゼロ動きベクトルマージ候補から動きベクトルを導出する、ブロックのための第1の候補として設定され得る。いくつかの例では、デフォルトフィルタは、フレームおよび/またはスライスにわたって変化し得る。例えば、以前の(1つまたは複数の)ピクチャおよび/または(1つまたは複数の)スライスにおいて最も頻繁に選ばれたフィルタが、現在のピクチャまたはスライスに属する全てのブロックのためのデフォルトフィルタとして設定され得る。デコーダがエンコーダからのいかなるサイド情報もなしに同じプロシージャを模倣し得るので、フィルタインデックスの明示的なシグナリングは、必要とされない場合がある。
[0130]フィルタインデックスは、そうでない場合、必要に応じて、ビットストリーム中に明示的に含まれ得る。いくつかの例では、「interpolation_filter_index」と呼ばれ得るシンタックス要素が、暗黙的にフィルタを選ぶことができないブロックのために選ばれた補間フィルタを示すために、エンコーダによってデコーダにシグナリングされ得る。シグナリングによってとは、interpolation_filter_indexが、デコーダによって読み取られるように、ビットストリーム中に含まれ得ることを意味する。
[0131]いくつかの例では、interpolation_filter_indexの値は、固定長コード、指数ゴロムコード、単項コード、または短縮された単項コードなどの、2値化コードを用いて2値化され得る。例えば、フィルタのサブセットにおいて3つのフィルタが存在するとき、短縮された単項コードが、interpolation_filter_indexを示すために使用され得る。この例では、2つのフラグ(例えば、FLAG0およびFLAG1)が、サブセットにおける3つのフィルタについての3つの可能なインデックス0、1、および2をコーディングするために使用され得る。例えば、3つのインデックスは、それぞれ、(0,N/A)、(1,0)、および(1,1)としてコーディングされ得る。この例では、1つのフラグ(FLAG0)のみが、interpolation_filter_index=0を示すために使用され得る。
[0132]いくつかの例では、ある特定のコンテキストモデルが、interpolation_filter_indexに関連付けられ得、それは、interpolation_filter_indexを符号化するときに使用され得る。例えば、X個のコンテキストモデルが、interpolation_filter_indexに関連付けられ得、例えば、interpolation_filter_index_C[0]、interpolation_filter_index_C[1]、...、interpolation_filter_index_C[X−1]と名付けられる。この例では、これらのコンテキストモデルの中からインデックスxを有するコンテキストモデル、interpolation_filter_index_C[x]が、現在のブロックについてのinterpolation_filter_indexをコーディングするためのコンテキストとして選ばれ得る。
[0133]いくつかの例では、interpolation_filter_indexが、2つのフラグ(例えば、FLAG0およびFLAG1)を使用して表され得るとき、各フラグに関連付けられたある特定の数のコンテキストモデルが存在し得る。例えば、FLAG0に関連付けられたY個のコンテキストモデルが存在し得、interpolation_filter_index_C[0]、interpolation_filter_index_C[1]、...、interpolation_filter_index_C[Y−1]と名付けられる。この例では、FLAG0が設定されるとき、インデックスxを有するコンテキストモデル、interpolation_filter_index_C[x]が、現在のブロックのinterpolation_filter_indexをコーディングするためのコンテキストとして選ばれ得る。この例では、FLAG1は、設定されていないか、または重要でない場合がある。別の例として、FLAG1に関連付けられたZ個のコンテキストモデルが存在し得、interpolation_filter_index_C[0]、interpolation_filter_index_C[1]、...、interpolation_filter_index_C[Z−1]と名付けられる。この例では、FLAG1が設定されるとき、インデックスxを有するコンテキストモデル、interpolation_filter_index_C[x]が、現在のブロックのinterpolation_filter_indexをコーディングするためのコンテキストとして選ばれる。この例では、FLAG0は、設定されていないか、または重要でない場合がある。
[0134]上記の例では、xは、様々な基準に基づいて選択され得る。例えば、xは、現在のブロックのサイズ、現在のブロックの形状、現在のフレームの解像度、インター予測方向、現在のブロックについての(1つまたは複数の)動きベクトル、現在のブロックについての動きベクトルの差分、現在のブロックのための参照フレーム、現在のブロックに対する隣接ブロックの(1つまたは複数の)interpolation_filter_index、何らかの他の基準、または基準の組合せに基づき得る。様々な例では、関数がxの値を生成するために使用され得、ここで、関数は、上記の例となる基準のうちの1つまたは複数を入力として受け取り得る。いくつかの例では、異なる関数が、異なるフレーム解像度のために使用され得る。
[0135]いくつかの例では、xが現在のブロックのサイズに基づくとき、しきい値Pが、xの値を決定するために使用され得る。例えば、現在のブロックのサイズがP未満であるとき、xは0になり得、それ以外の場合、xは1になり得る。しきい値Pは、整数であり得る。現在のブロックのサイズは、M×Nとして計算され得、ここで、MおよびNは、ピクセル単位での、現在のブロックの幅および高さである。
[0136]いくつかの例では、xが現在のブロックのサイズに基づくとき、xの値は、整数配列{a}から決定され得、ここで、配列は、昇順にソートされる。例えば、aK−1<=S<aのとき、xはKに等しくなり得、ここで、Sは、現在のブロックのサイズである。この例では、Sは、M×Nとして計算される、現在のブロック中のピクセルの数であり得、ここで、MおよびNは、ピクセル単位での、現在のブロックの幅および高さである。
[0137]いくつかの例では、xが現在のブロックの形状に基づくとき、xの値は、ブロックの高さと幅との間の関係から決定され得る。例えば、現在のブロックについての高さMおよび幅Nが与えられると、M<Nのとき、xは0に等しくなり得、M=Nのとき、xは1に等しくなり得、M>Nのとき、xは2に等しくなり得る。
[0138]いくつかの例では、xが現在のブロックの予測方向に基づくとき、xの値は、予測方向から決定され得る。例えば、現在のブロックが、単インター予測を用いてコーディングされるとき、xは0に等しくなり得、現在のブロックが、双インター予測を用いてコーディングされるとき、xは1に等しくなり得る。別の例として、xの値は、値InerDirに基づき得、ここで、現在のブロックが参照リスト0からの単インター予測を用いてコーディングされるとき、InterDirは1であり、現在のブロックが参照リスト1からの単インター予測を用いてコーディングされるとき、InterDirは2であり、現在のブロックが双インター予測を用いてコーディングされるとき、InterDirは3である。この例では、xは、InterDir−1に等しくなり得る。
[0139]いくつかの例では、xが隣接ブロックのinterpolation_filter_indexに基づくとき、xの値は、1つまたは複数の隣接ブロックのinterpolation_filter_indexから決定され得る。例えば、xの値は、関数f(left_idx,top_idx)によって決定され得、ここで、left_idxは、左の隣接ブロックのinterpolation_filter_indexであり、top_idxは、上の隣接ブロックのinterpolation_filter_indexである。関数fは、任意の関数であり得る。いくつかの例では、異なる関数が、異なるフレーム解像度のために使用され得る。代替または追加として、xの値は、a+bに等しくなり得、ここで、左の隣接ブロックのinterpolation_filter_indexが利用可能でありかつゼロよりも大きいとき、aは1に等しく(そうでない場合、aは0に等しい)、また、上の隣接ブロックのinterpolation_filter_indexが利用可能でありかつゼロよりも大きい場合、bは1に等しい(そうでない場合、bは0に等しい)。
[0140]いくつかの例では、ファクタの組合せが、xの値を決定するときに考慮され得る。例えば、現在のブロックのサイズは、隣接ブロックからinterpolation_filter_index値を選択するために使用され得る。例えば、xは、現在のピクチャのサイズがしきい値P未満であるとき、f(left_idx,top_idx)の結果に等しくなり得、ここで、Pは、整数であり、現在のブロックのサイズは、計算されたM×Nであり、ここで、MおよびNは、ピクセル単位での現在のブロックの幅および高さである。現在のブロックのサイズがP以上であるとき、xは、関数g(left_idx,top_idx)の出力に等しくなり得る。
[0141]補間フィルタを切り替える例となるアプリケーションが、ここで説明される。上述されたように、最良のフィルタが、異なる特性を有し得るN個のフィルタの中から、各ブロックのために選ばれ得る。最良のフィルタは、例えば、レート歪み最適化、または何らかの他の選択メカニズムを使用して選択され得る。
[0142]エンコーダの複雑さを低減させるために、最良のフィルタは、既にコーディングされているブロックから継承されるか、以前の決定から再利用されるか、または全ての利用可能なフィルタのパフォーマンスを評価することなく固定であるか、のいずれかであり得る。シグナリングオーバヘッドを低減させるために、フィルタの固定セットが前もって決定され、エンコーダは、フィルタ係数の代わりに、フィルタインデックスをデコーダにシグナリングし得る。
[0143]以下の例は、補間フィルタの切り替えのアプリケーションを実証するために、HM16.6ベースのJEM3.0を使用する。JEMは、国際電気通信連合ビデオコーディングエキスパートグループ(ITU−VCEG)および国際標準化機構/国際電気標準会議モーションピクチャエキスパートグループ(ISO/IEC MPEG)のプロジェクトである。JEMは、HEVCよりも良い圧縮能力を有するビデオコーディング技術を研究および潜在的に標準化するためのプラットフォームを提供する参照ソフトウェアである。
[0144]以下の例では、コーディングユニットは、JEM3.0上でインプリメントされるQTBT構造において定義されるブロックである。他の例では、コーディングユニットは、QTBTブロックの集合、CTU、スライス、ピクチャ、シーケンス、または別の好適なコーディングユニットなどの、より大きい構造であり得る。この例は、ルーマ成分のための補間フィルタのみを示しており、補間フィルタの切り替えは、クロマ成分のみならず、整数サンプルにも拡張され得ることに留意されたい。
[0145]この例では、補間フィルタの候補セットは、異なる特性を有する3つのフィルタ:1つの12タップフィルタ(F0)と、2つの8タップフィルタ(F1およびF2)とを含む。フィルタF0が、表3に例示され、フィルタF1が、表4に例示され、フィルタF2が、表5に例示される。この例では、フィルタ候補のセットは、異なるピクチャおよび/またはスライスにわたって変化しない。JEM3.0は、最大で1/16までの動きベクトル解像度をサポートするので、各フィルタ候補は、以下の表に示されるように、16個の異なる位相シフトで構成される。
Figure 2019535198
Figure 2019535198
Figure 2019535198
[0146]図6は、3つの例となるフィルタ、F0、F1、およびF2の周波数応答を例示するグラフである。各曲線は、各フィルタについて8つの同じ位相シフトに対応する。この例によって例示されるように、フィルタF0は、高いカットオフ周波数を有し、一方、フィルタF2は、低いカットオフ周波数を有する。フィルタF1は、極めてニュートラルなカットオフ周波数を有する。
[0147]この例を続けると、所与のコーディングユニットのために、フィルタF0、F1、およびF2のうちの1つが選ばれ得る。選択されたフィルタは、暗黙的または明示的にシグナリングされ得る。
[0148]この例では、デコーダが、エンコーダからのいかなるサイド情報もなしに、エンコーダがマージ動きベクトル候補を決定するために実行するのと同じプロシージャを模倣し得るので、フィルタインデックスの暗黙的なシグナリングが、マージモードのためにイネーブルにされる。例えば、コーディングユニットのための補間フィルタは、現在の動きの導出元のブロックからフィルタインデックスを継承するか、あるいは、この例では、フィルタF0である、デフォルトフィルタを選択するかのいずれかによって決定され得る。
[0149]この例を続けると、フィルタ継承は、現在の動きが、空間的マージ候補、組み合わされている2つの候補が同一のフィルタを使用するときの組み合わされたマージ候補、およびアフィンマージ候補から導出されるときに使用され得る。これらのケースの各々では、継承元のブロックのコンテンツが、フィルタの選択に影響を及ぼし得る。また、この例では、現在の動きベクトルが、フレームレートアップコンバージョンマージ候補または時間的マージ候補(例えば、TMVP、AMVP、STMVP、およびゼロ動きベクトル)候補から導出されるとき、デフォルトフィルタ、F0が選択される。これらのケースの各々では、ブロックにおけるディテールを保存するために、高いカットオフ周波数を有するフィルタが望ましくあり得る。
[0150]この例を続けると、フィルタインデックスの明示的なシグナリングは、AMVPモードのためにイネーブルである。JEM3.0では、2つの追加のレート−歪み最適化がエンコーダに含まれ、これは、3つの例となるフィルタ候補から最良のフィルタを選ぶために使用され得る。追加の最適化プロセスは、整数動きベクトルを再利用すること、または特定の構成において選ばれたフィルタを再利用することによって、追加のプロセスをスキップすることによって、単純化され得る。一例として、照度補償(IC)ツールの場合、照度補償がオフであるときに選ばれたフィルタは、照度補償がオンであるときのケースにおいて再利用され得る。これは、符号化の時間を低減させ得る。
[0151]この例を続けると、フィルタインデックスの明示的なシグナリングがイネーブルにされるとき、interpolation_filter_indexは、F0については「0」、F1については「10」、およびF2については「11」を使用して、2値化され得る。以下のように、2つのフラグFLAG0およびFLAG1が、interpolation_filter_indexをコーディングするために使用され得る:
[0152] FLAG0
[0153] if(FLAG0)
[0154] FLAG1
[0155]上記の例を続けると、2つのコンテキストが、各フラグのために提供され得る:FLAG0については、(FLAG0_ctx0,FLAG0_ctx1)、およびFLAG1については、(FLAG1_ctx0,FLAG1_ctx1)。例として、現在のブロックが単予測を用いてコーディングされるとき、FLAG0_ctx0は、FLAG0をコーディングするために使用され得、FLAG1_ctx0は、FLAG1をコーディングするために使用され得る。別の例として、現在のブロックが双予測を用いてコーディングされるとき、FLAG0_ctx1は、FLAG0をコーディングするために使用され得、FLAG1_ctx1は、FLAG1をコーディングするために使用され得る。
[0156]2つの補間候補、F0およびF2を符号化する別の例では、interpolation_filter_indexは、F0については「0」およびF1については「1」として2値化され得る。この例では、1つのフラグが、interpolation_filter_indexをコーディングするために使用され得る。各フラグは、関連するコンテキストFLAG0_ctx0およびFLAG0_ctx1を有し得る。現在のブロックのサイズが(この例の目的のために)256未満であるとき、FLAG0_ctx0が、FLAG0をコーディングするために使用され得る。そうでない場合、サイズが256以上であるとき、FLAG0_ctx1が、FLAG0をコーディングするために使用され得る。現在のブロックのサイズは、w×hとして計算され、ここで、wおよびhは、それぞれ、ピクセル単位で現在のブロックの幅および高さを表す。
[0157]図7は、符号化プロセス中に補間フィルタを切り替えるためのプロセス700の例を例示する。702において、プロセス700は、ビデオデータを取得することを含む。ビデオデータは、例えば、カメラのようなビデオキャプチャデバイスから取得され得る。代替または追加として、ビデオデータは、記憶された位置から読み取られ得る。
[0158]704において、プロセスは、コーディングユニットを符号化することを含み、ここにおいて、処理を符号化することは、コーディングユニットについての動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、補間フィルタは、補間フィルタのセットから選択される。いくつかのインプリメンテーションでは、補間フィルタは、補間フィルタのセットから選択された、補間フィルタのサブセットから選択される。いくつかのインプリメンテーションでは、補間フィルタのサブセットは、コーディングユニットのコーディングレベルに基づいて決定される。いくつかのインプリメンテーションでは、サブセットは、コーディングユニットの予測モードに基づいて決定される。いくつかのインプリメンテーションでは、サブセットは、動き推定の結果に基づいて決定される。いくつかのインプリメンテーションでは、サブセットは、コーディングユニットをコーディングするために使用されるコーディングツールに基づいて決定される。
[0159]いくつかのインプリメンテーションでは、補間フィルタは、以前にコーディングされたブロックから選択される。いくつかのインプリメンテーションでは、補間フィルタは、隣接ブロックから選択される。
[0160]いくつかのインプリメンテーションでは、補間フィルタは、別の補間フィルタとマージされ、結果として得られるマージされた補間フィルタは、動き推定のために使用される。
[0161]いくつかのインプリメンテーションでは、補間フィルタは、第2の補間フィルタに結合される。これらのインプリメンテーションでは、補間フィルタは、整数ピクセル位置のためのものであり得、第2の補間フィルタは、分数ピクセル位置のためのものであり得る。いくつかのインプリメンテーションでは、補間フィルタと第2の補間フィルタは、異なるカットオフ周波数を有し得る。
[0162]706において、プロセス700は、符号化されたビデオビットストリームを生成することを含み、ここにおいて、ビデオビットストリームは、符号化されたコーディングユニットを含む。いくつかのインプリメンテーションでは、符号化されたビデオビットストリームは、フィルタインデックスのような、選択された補間フィルタを識別する明示的な値を含み得る。いくつかのインプリメンテーションでは、補間フィルタを識別する値は、符号化されたビデオビットストリームから暗示され得る。
[0163]図8は、復号プロセスにおいて補間フィルタを切り替えるためのプロセス800の例である。802において、プロセス800は、符号化されたビデオビットストリームを取得することを含む。ビットストリームは、例えば、記憶位置についておよび/またはネットワークを介して取得され得る。
[0164]804において、プロセス800は、符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定することを含む。参照フレームは、現在のフレームに時間的に先行または後続し得る。参照フレームは、現在のフレームと同じフレームであり得る。
[0165]806において、プロセス800は、補間フィルタのセットから補間フィルタを決定することを含む。いくつかのインプリメンテーションでは、補間フィルタは、補間フィルタのセットからの補間フィルタのサブセットから選択され得る。いくつかのインプリメンテーションでは、補間フィルタのサブセットは、コーディングユニットのコーディングレベルに基づいて決定され得る。いくつかのインプリメンテーションでは、サブセットは、コーディングユニットのための予測モードに基づいて決定され得る。いくつかのインプリメンテーションでは、サブセットは、動き推定の結果に基づいて決定され得る。いくつかのインプリメンテーションでは、サブセットは、コーディングユニットをコーディングするために使用されるコーディングツールに基づいて決定され得る。
[0166]いくつかのインプリメンテーションでは、補間フィルタは、以前にコーディングされたブロックから選択され得る。いくつかのインプリメンテーションでは、補間フィルタは、隣接ブロックから選択され得る。
[0167]いくつかのインプリメンテーションでは、補間フィルタは、第2の補間フィルタとマージされ得、結果として得られるマージされた補間フィルタが、動き推定のために使用され得る。
[0168]いくつかのインプリメンテーションでは、補間フィルタは、第2の補間フィルタに結合され得る。これらのインプリメンテーションでは、補間フィルタは、整数ピクセル位置のためのものであり得、第2の補間フィルタは、分数ピクセル位置のためのものであり得る。いくつかのインプリメンテーションでは、補間フィルタと第2の補間フィルタは、異なるカットオフ周波数を有し得る。
[0169]いくつかのインプリメンテーションでは、符号化されたビデオビットストリームは、選択された補間フィルタを識別するフィルタインデックスのような、明示的な値を含む。いくつかのインプリメンテーションでは、プロセスは、ビットストリームからのデータを使用して、補間フィルタの識別を導出することを含む。
[0170]808において、プロセス800は、コーディングユニットを再構成するために、804で決定された参照フレームと、806において決定された補間フィルタとを使用することを含む。
[0171]ここで説明されるコーディング技法は、例となるビデオ符号化および復号システム(例えば、システム100)においてインプリメントされ得る。いくつかの例では、システムが、宛先デバイスによって後の時間に復号されることになる符号化されたビデオデータを提供するソースデバイスを含む。特に、ソースデバイスは、コンピュータ可読媒体を介して、宛先デバイスにビデオデータを提供する。ソースデバイスおよび宛先デバイスは、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビ、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイス、または同様のものを含む、幅広い範囲のデバイスのうちの任意のものを備え得る。いくつかのケースでは、ソースデバイスおよび宛先デバイスは、ワイヤレス通信のために装備され得る。
[0172]宛先デバイスは、コンピュータ可読媒体を介して、復号されることになる符号化されたビデオデータを受信し得る。コンピュータ可読媒体は、ソースデバイスから宛先デバイスに、符号化されたビデオデータを移動させることが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体は、ソースデバイスがリアルタイムで宛先デバイスに、符号化されたビデオデータを直接送信することを可能にする通信媒体を備え得る。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイスに送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線などの、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークなどの、パケットベースのネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイスから宛先デバイスへの通信を容易にするのに有用であり得るその他任意の機器を含み得る。
[0173]いくつかの例では、符号化されたデータは、出力インターフェースから記憶デバイスに出力され得る。同様に、符号化されたデータは、入力インターフェースによって、記憶デバイスからアクセスされ得る。記憶デバイスは、ハードドライブ、ブルーレイディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または不揮発性メモリ、または符号化されたビデオデータを記憶するためのその他任意の好適なデジタル記憶媒体などの、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のうちの任意のものを含み得る。さらなる例では、記憶デバイスは、ファイルサーバ、またはソースデバイスによって生成される符号化されたビデオを記憶し得る別の中間記憶デバイスに対応し得る。宛先デバイスは、ストリーミングまたはダウンロードを介して、記憶デバイスからの記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶し、宛先デバイスにその符号化されたビデオデータを送信することが可能な任意のタイプのサーバであり得る。例となるファイルサーバは、(例えば、ウェブサイト用の)ウェブサーバ、FTPサーバ、ネットワーク接続記憶(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイスは、インターネット接続を含む、任意の標準的なデータ接続を通じて、符号化されたビデオデータにアクセスし得る。これは、ワイヤレスチャネル(例えば、Wi−Fi接続)、ワイヤード接続(例えば、DSL、ケーブルモデム、等)、またはファイルサーバ上に記憶された符号化されたビデオデータにアクセスするのに好適な両方の組合せを含み得る。記憶デバイスからの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはこれらの組合せであり得る。
[0174]本開示の技法は、必ずしもワイヤレスアプリケーションまたは設定に限定されるとは限らない。本技法は、無線テレビ放送、ケーブルテレビ送信、衛星テレビ送信、HTTPを介した動的適応型ストリーミング(DASH)のようなインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されるデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他のアプリケーションなどの、様々なマルチメディアアプリケーションのうちの任意のものをサポートするビデオコーディングに適用され得る。いくつかの例では、システムは、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオ電話通信などのアプリケーションをサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0175]一例では、ソースデバイスは、ビデオソース、ビデオエンコーダ、および出力インターフェースを含む。宛先デバイスは、入力インターフェース、ビデオデコーダ、およびディスプレイデバイスを含み得る。ソースデバイスのビデオエンコーダは、ここで開示される技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または配置を含み得る。例えば、ソースデバイスは、外部カメラのような外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイスは、一体化されたディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0176]上記の例となるシステムは、単なる一例に過ぎない。並列にビデオデータを処理するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。概して、本開示の技法は、ビデオ符号化デバイスによって実行されるが、本技法はまた、典型的に「CODEC」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。さらに、本開示の技法はまた、ビデオプリプロセッサによって実行され得る。ソースデバイスおよび宛先デバイスは、ソースデバイスが宛先デバイスへの送信のためにコーディングされたビデオデータを生成するそのようなコーディングデバイスの例に過ぎない。いくつかの例では、ソースおよび宛先デバイスは、デバイスの各々がビデオ符号化および復号構成要素を含むような実質的に対称的な方法で動作し得る。したがって、例となるシステムは、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオ電話通信のために、ビデオデバイス間の一方向または双方向のビデオ送信をサポートし得る。
[0177]ビデオソースは、ビデオカメラのようなビデオキャプチャデバイス、以前にキャプチャされたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからのビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替として、ビデオソースは、ソースビデオとしてコンピュータグラフィックスベースのデータ、またはコンピュータにより生成されたビデオ、アーカイブされたビデオ、およびライブビデオの組合せを生成し得る。いくつかのケースでは、ビデオソースがビデオカメラである場合、ソースデバイスおよび宛先デバイスは、いわゆるカメラフォンまたはビデオフォンを形成し得る。しかしながら、上述されたように、本開示で説明される技法は、ビデオコーディング全般に適用可能であり得、ワイヤレスおよび/またはワイヤードアプリケーションに適用され得る。各ケースでは、キャプチャされた、予めキャプチャされた、またはコンピュータにより生成されたビデオは、ビデオエンコーダによって符号化され得る。その後、符号化されたビデオ情報は、コンピュータ可読媒体上に出力インターフェースによって出力され得る。
[0178]述べられたように、コンピュータ可読媒体は、ワイヤレスブロードキャストまたはワイヤードネットワーク送信のなどの一時的な媒体、またはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、または他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的な記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)は、例えば、ネットワーク送信を介して、宛先デバイスに符号化されたビデオデータを提供し、ソースデバイスから符号化されたビデオデータを受信し得る。同様に、ディスクスタンピング設備のような媒体製造設備のコンピューティングデバイスは、ソースデバイスから符号化されたビデオデータを受信し、符号化されたビデオデータを含むディスクを製造し得る。したがって、コンピュータ可読媒体は、様々な例において、様々な形態の1つまたは複数のコンピュータ可読媒体を含むことが理解され得る。
[0179]宛先デバイスの入力インターフェースは、コンピュータ可読媒体から情報を受信する。コンピュータ可読媒体の情報は、ブロックおよび他のコーディングされたユニット、例えば、ピクチャのグループ(GOP:group of pictures)の処理および/または特性を記述するシンタックス要素を含む、ビデオエンコーダによって定義されるシンタックス情報を含み得、これはまた、ビデオデコーダによって使用される。ディスプレイデバイスは、復号されたビデオデータをユーザに表示し得、ブラウン管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの、様々なディスプレイデバイスのうちの任意のものを備え得る。本発明の様々な実施形態が、説明されてきた。
[0180]符号化デバイス104および復号デバイス112の特定の詳細が、それぞれ図9および図10に示される。図9は、本開示で説明される技法のうちの1つまたは複数をインプリメントし得る、例となる符号化デバイス104を例示するブロック図である。符号化デバイス104は、例えば、ここで説明されたシンタックス構造(例えば、VPS、SPS、PPS、または他のシンタックス要素のシンタックス構造)を生成し得る。符号化デバイス104は、ビデオスライス内のビデオブロックのイントラ予測およびインター予測コーディングを実行し得る。前述されたように、イントラコーディングは、所与のビデオフレームまたはピクチャ内の空間的冗長性を低減または取り除くために、空間的予測に少なくとも部分的に依拠する。インターコーディングは、ビデオシーケンスの隣り合うまたは周囲のフレーム内の時間的冗長性を低減または取り除くために、時間的予測に少なくとも部分的に依拠する。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのうちの任意のものを指し得る。片方向予測(Pモード)または双予測(Bモード)などのインターモードは、いくつかの時間ベースの圧縮モードのうちの任意のものを指し得る。
[0181]符号化デバイス104は、区分化ユニット35、予測処理ユニット41、フィルタユニット63、ピクチャメモリ64、加算器50、変換処理ユニット52、量子化ユニット54、およびエントロピー符号化ユニット56を含む。予測処理ユニット41は、動き推定ユニット42、動き補償ユニット44、およびイントラ予測処理ユニット46を含む。ビデオブロック再構成のために、符号化デバイス104はまた、逆量子化ユニット58、逆変換処理ユニット60、および加算器62を含む。フィルタユニット63は、デブロッキングフィルタ、適応ループフィルタ(ALF)、およびサンプル適応オフセット(SAO)フィルタなどの1つまたは複数のループフィルタを表すように意図される。フィルタユニット63は、インループフィルタとして図9に示されているが、他の構成では、フィルタユニット63は、ポストループフィルタとしてインプリメントされ得る。後処理デバイス57が、符号化デバイス104によって生成される符号化されたビデオデータに対して追加の処理を実行し得る。本開示の技法は、いくつかの事例では、符号化デバイス104によってインプリメントされ得る。しかしながら、他の事例では、本開示の技法のうちの1つまたは複数は、後処理デバイス57によってインプリメントされ得る。
[0182]図9に示されているように、符号化デバイス104は、ビデオデータを受信し、区分化ユニット35は、データをビデオブロックに区分化する。区分化はまた、スライス、スライスセグメント、タイル、または他のより大きいユニットへの区分化のみならず、例えば、CUおよびLCUの4分木構造による、ビデオブロック区分化を含み得る。符号化デバイス104は、概して、符号化されるべきビデオスライス内のビデオブロックを符号化する構成要素を例示する。スライスは、複数のビデオブロックに(および、場合によっては、タイルと呼ばれるビデオブロックのセットに)分割され得る。予測処理ユニット41は、エラー結果(例えば、コーディングレートおよび歪みのレベル、または同様のもの)に基づいて、現在のビデオブロックのために、複数のイントラ予測コーディングモードのうちの1つまたは複数のインター予測コーディングモードのうちの1つなど、複数の可能なコーディングモードのうちの1つを選択し得る。予測処理ユニット41は、残差ブロックデータを生成するために加算器50に、および参照ピクチャとして使用するための符号化されたブロックを再構成するために加算器62に、結果として得られるイントラまたはインターコーディングされたブロックを提供し得る。
[0183]予測処理ユニット41内のイントラ予測処理ユニット46は、空間的圧縮を提供するために、コーディングされるべき現在のブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに関連して(relative to)、現在のビデオブロックのイントラ予測コーディングを実行し得る。予測処理ユニット41内の動き推定ユニット42および動き補償ユニット44は、時間的圧縮を提供するために、1つまたは複数の参照ピクチャ中の1つまたは複数の予測ブロックに関連して(relative to)、現在のビデオブロックのインター予測コーディングを実行する。
[0184]動き推定ユニット42は、ビデオシーケンスのための所定のパターンに従って、ビデオスライスのためのインター予測モードを決定するように構成され得る。所定のパターンは、Pスライス、Bスライス、またはGPBスライスとして、シーケンス中のビデオスライスを指定し得る。動き推定ユニット42および動き補償ユニット44は、高度に一体化され得るが、概念的な目的のために別個に例示されている。動き推定ユニット42によって実行される動き推定は、動きベクトルを生成するプロセスであり、これは、ビデオブロックに関する動きを推定する。動きベクトルは、例えば、参照ピクチャ内の予測ブロックに対する現在のビデオフレームまたはピクチャ内のビデオブロックの予測ユニット(PU)の変位を示し得る。
[0185]予測ブロックは、絶対差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって決定され得るピクセル差分の観点から、コーディングされるべきビデオブロックのPUと密接に一致することが見出されたブロックである。いくつかの例では、符号化デバイス104は、ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置についての値を計算し得る。例えば、符号化デバイス104は、参照ピクチャの4分の1ピクセル位置、8分の1ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置および分数ピクセル位置に対して動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0186]動き推定ユニット42は、PUの位置と、参照ピクチャの予測ブロックの位置とを比較することによって、インターコーディングされたスライス中のビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、その各々がピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得る。動き推定ユニット42は、計算された動きベクトルを、エントロピー符号化ユニット56および動き補償ユニット44に送る。
[0187]動き補償ユニット44によって実行される動き補償は、動き推定によって決定される動きベクトルに基づいて、予測ブロックをフェッチまたは生成することを伴い得、場合によっては、サブピクセル精度までの(to sub-pixel precision)補間を実行する。現在のビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストにおいて動きベクトルがそれを指し示す予測ブロックを位置特定し得る。符号化デバイス104は、コーディングされている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。ピクセル差分値は、ブロックについての残差データを形成し、ルーマおよびクロマ差分成分の両方を含み得る。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。動き補償ユニット44はまた、ビデオスライスのビデオブロックを復号する際に、復号デバイス112によって使用するための、ビデオブロックとビデオスライスとに関連付けられたシンタックス要素を生成し得る。
[0188]イントラ予測処理ユニット46は、上記で説明されたように、動き推定ユニット42および動き補償ユニット44によって実行されるインター予測の代替として、現在のブロックをイントラ予測し得る。具体的には、イントラ予測処理ユニット46は、現在のブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測処理ユニット46は、例えば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在のブロックを符号化し得、イントラ予測処理ユニット46は、テストされたモードから使用すべき適切なイントラ予測モードを選択し得る。例えば、イントラ予測処理ユニット46は、様々なテストされたイントラ予測モードに関する(for)レート−歪み分析を使用してレート−歪み値を計算し得、テストされたモードの中で最良のレート−歪み特性を有するイントラ予測モードを選択し得る。レート−歪み分析は、一般に、符号化されたブロックと、符号化されたブロックを作成するために符号化された元の符号化されていないブロックとの間の歪み(またはエラー)の量、ならびに、符号化されたブロックを作成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測処理ユニット46は、どのイントラ予測モードがブロックのための最良のレート−歪み値を示すかを決定するために、様々な符号化されたブロックに関するレートおよび歪みから比率(ratio)を計算し得る。
[0189]いずれのケースでも、ブロックのためのイントラ予測モードを選択した後、イントラ予測処理ユニット46は、エントロピー符号化ユニット56にブロックのための選択されたイントラ予測モードを示す情報を提供し得る。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。符号化デバイス104は、様々なブロックのための符号化コンテキストの定義のみならず、最確イントラ予測モード(most probable intra-prediction mode)のインジケーション、イントラ予測モードインデックステーブル、およびコンテキストの各々に対して使用すべき修正されたイントラ予測モードインデックステーブルを、送信されたビットストリーム構成データ中に含め得る。ビットストリーム構成データは、複数のイントラ予測モードインデックステーブルと、複数の修正されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)とを含み得る。
[0190]予測処理ユニット41が、インター予測またはイントラ予測のいずれかを介して、現在のビデオブロックのための予測ブロックを生成した後、符号化デバイス104は、現在のビデオブロックから予測ブロックを減算することによって、残差ビデオブロックを形成する。残差ブロックにおける残差ビデオデータは、1つまたは複数のTUに含まれ、変換処理ユニット52に適用され得る。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を使用して、残差変換係数に残差ビデオデータを変換する。変換処理ユニット52は、残差ビデオデータを、ピクセル領域から周波数領域などの変換領域に変換し得る。
[0191]変換処理ユニット52は、結果として得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減させるために、変換係数を量子化する。量子化プロセスは、係数の一部または全てに関連付けられたビット深度を低減させ得る。量子化の程度は、量子化パラメータを調整することによって修正され得る。いくつかの例では、量子化ユニット54は、その後、量子化された変換係数を含む行列の走査を実行し得る。代替として、エントロピー符号化ユニット56が走査を実行し得る。
[0192]量子化に続いて、エントロピー符号化ユニット56は、量子化された変換係数をエントロピー符号化する。例えば、エントロピー符号化ユニット56は、コンテキスト適応可変長コーディング(CAVLC)、コンテキスト適応バイナリ算術コーディング(CABAC)、シンタックスベースのコンテキスト適応バイナリ算術コーディング(SBAC)、確率間隔区分化エントロピー(PIPE)コーディング、または別のエントロピー符号化技法を実行し得る。エントロピー符号化ユニット56によるエントロピー符号化に続いて、符号化されたビットストリームは、復号デバイス112に送信されるか、または復号デバイス112による後の送信または取り出しのためにアーカイブされ得る。エントロピー符号化ユニット56はまた、コーディングされている現在のビデオスライスのための動きベクトルおよび他のシンタックス要素をエントロピー符号化し得る。
[0193]逆量子化ユニット58および逆変換処理ユニット60は、参照ピクチャの参照ブロックとして後に使用するためのピクセル領域における残差ブロックを再構成するために、それぞれ逆量子化および逆変換を適用する。動き補償ユニット44は、参照ピクチャリスト内の参照ピクチャのうちの1つの予測ブロックに残差ブロックを加算することによって、参照ブロックを計算し得る。動き補償ユニット44はまた、動き推定の際に使用するためのサブ整数ピクセル値を計算するために、再構成された残差ブロックに1つまたは複数の補間フィルタを適用し得る。加算器62は、ピクチャメモリ64中での記憶のための参照ブロックを作成するために、動き補償ユニット44によって作成された動き補償された予測ブロックに、再構成された残差ブロックを加算する。参照ブロックは、後続のビデオフレームまたはピクチャ中のブロックをインター予測するための参照ブロックとして、動き推定ユニット42および動き補償ユニット44によって使用され得る。
[0194]このようにして、図9の符号化デバイス104は、符号化されたビデオビットストリームについてのシンタックスを生成するように構成されたビデオエンコーダの例を表す。符号化デバイス104は、例えば、上記で説明されたように、VPS、SPS、およびPPSパラメータセットを生成し得る。符号化デバイス104は、上記で説明されたプロセスを含む、ここで説明された技法のうちの任意のものを実行し得る。本開示の技法は、概して、符号化デバイス104に関して説明されてきたが、上述されたように、本開示の技法のうちのいくつかはまた、後処理デバイス57によってインプリメントされ得る。
[0195]図10は、例となる復号デバイス112を例示するブロック図である。復号デバイス112は、エントロピー復号ユニット80、予測処理ユニット81、逆量子化ユニット86、逆変換処理ユニット88、加算器90、フィルタユニット91、およびピクチャメモリ92を含む。予測処理ユニット81は、動き補償ユニット82およびイントラ予測処理ユニット84を含む。復号デバイス112は、いくつかの例では、図10からの符号化デバイス104に関して説明された符号化パスとは概して逆の復号パスを実行し得る。
[0196]復号プロセス中、復号デバイス112は、符号化デバイス104によって送られた符号化されたビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化されたビデオビットストリームを受信する。いくつかの実施形態では、復号デバイス112は、符号化デバイス104から符号化されたビデオビットストリームを受信し得る。いくつかの実施形態では、復号デバイス112は、サーバ、媒体認識ネットワーク要素(MANE)、ビデオエディタ/スプライサ、または上記で説明された技法のうちの1つまたは複数をインプリメントするように構成された他のそのようなデバイスなどの、ネットワークエンティティ79から符号化されたビデオビットストリームを受信し得る。ネットワークエンティティ79は、符号化デバイス104を含むことも含まないこともあり得る。本開示で説明された技法のうちのいくつかは、ネットワークエンティティ79が、符号化されたビデオビットストリームを復号デバイス112に送信する前に、ネットワークエンティティ79によってインプリメントされ得る。いくつかのビデオ復号システムでは、ネットワークエンティティ79および復号デバイス112は、別個のデバイスの一部であり得、一方、他の事例では、ネットワークエンティティ79に関して説明される機能は、復号デバイス112を備える同じデバイスによって実行され得る。
[0197]復号デバイス112のエントロピー復号ユニット80は、量子化された係数、動きベクトル、および他のシンタックス要素を生成するために、ビットストリームをエントロピー復号する。エントロピー復号ユニット80は、予測処理ユニット81に動きベクトルおよび他のシンタックス要素を転送する。復号デバイス112は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。エントロピー復号ユニット80は、VPS、SPS、およびPPSなどの、または複数のパラメータセット中の固定長シンタックス要素と可変長シンタックス要素との両方を処理およびパースし得る。
[0198]ビデオスライスがイントラコーディングされた(I)スライスとしてコーディングされるとき、予測処理ユニット81のイントラ予測処理ユニット84は、シグナリングされたイントラ予測モードと、現在のフレームまたはピクチャの以前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックについての予測データを生成し得る。ビデオフレームがインターコーディングされた(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、予測処理ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された動きベクトルと他のシンタックス要素とに基づいて、現在のビデオスライスのビデオブロックについての予測ブロックを作成する。予測ブロックは、参照ピクチャリスト内の参照ピクチャのうちの1つから作成され得る。復号デバイス112は、ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、すなわち、リスト0およびリスト1を構成し得る。
[0199]動き補償ユニット82は、動きベクトルと他のシンタックス要素とをパースすることによって、現在のビデオスライスのビデオブロックについての予測情報を決定し、復号されている現在のビデオブロックについての予測ブロックを作成するために予測情報を使用する。例えば、動き補償ユニット82は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(例えば、イントラまたはインター予測)と、インター予測スライスタイプ(例えば、Bスライス、Pスライス、またはGPBスライス)と、スライスのための1つまたは複数の参照ピクチャリストのための構成情報と、スライスの各インター符号化されたビデオブロックのための動きベクトルと、スライスの各インターコーディングされたビデオブロックのためのインター予測ステータスと、現在のビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、パラメータセット中の1つまたは複数のシンタックス要素を使用し得る。
[0200]動き補償ユニット82はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット82は、参照ブロックのサブ整数ピクセルについての補間された値を計算するために、ビデオブロックの符号化中に符号化デバイス104によって使用されたような補間フィルタを使用し得る。このケースでは、動き補償ユニット82は、受信されたシンタックス要素から、符号化デバイス104によって使用された補間フィルタを決定し得、予測ブロックを作成するために、補間フィルタを使用し得る。
[0201]逆量子化ユニット86は、ビットストリーム中で提供され、かつエントロピー復号ユニット80によって復号された、量子化された変換係数を逆量子化、すなわち量子化解除する。逆量子化プロセスは、量子化の程度、および同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライス中の各ビデオブロックについて、符号化デバイス104によって計算された量子化パラメータの使用を含み得る。逆変換処理ユニット88は、ピクセル領域における残差ブロックを作成するために、変換係数に、逆変換(例えば、逆DCTまたは他の好適な逆変換)、逆整数変換、または概念的に同様の逆変換プロセスを適用する。
[0202]動き補償ユニット82が、動きベクトルと他のシンタックス要素とに基づいて、現在のビデオブロックのための予測ブロックを生成した後、復号デバイス112は、逆変換処理ユニット88からの残差ブロックを、動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器90は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、ループフィルタ(コーディングループ中またはコーディングループ後のいずれか)もまた、ピクセル遷移を平滑化するか、または別の方法でビデオ品質を改善するために使用され得る。フィルタユニット91は、デブロッキングフィルタ、適応ループフィルタ(ALF)、およびサンプル適応オフセット(SAO)フィルタなどの1つまたは複数のループフィルタを表すように意図される。フィルタユニット91は、インループフィルタとして図10に示されているが、他の構成では、フィルタユニット91は、ポストループフィルタとしてインプリメントされ得る。その後、所与のフレームまたはピクチャ中の復号されたビデオブロックは、後続の動き補償のために使用される参照ピクチャを記憶するピクチャメモリ92に記憶される。ピクチャメモリ92はまた、図1に示されるビデオ宛先デバイス122のようなディスプレイデバイス上での後の提示のために、復号されたビデオを記憶する。
[0203]前述の説明では、本願の態様は、その特定の実施形態を参照して説明されたが、当業者であれば、本発明はそれに限定されないことを認識するであろう。したがって、本願の例示的な実施形態が、ここで詳細に説明されてきた一方で、発明の概念は、他の方法で様々に具現化および用いられ得、添付の特許請求の範囲は、先行技術によって限定される場合を除き、そのような変形例を含むように解釈されるものと意図されていることが理解されるべきである。上記で説明された発明の様々な特徴および態様は、個々にまたは一緒に使用され得る。さらに、実施形態は、本明細書のより広い趣旨および範囲から逸脱することなく、ここで説明されたものを超えた任意の数の環境およびアプリケーションにおいて利用され得る。したがって、本明細書および図面は、限定的ではなく、例示的であると見なされるべきである。例示を目的として、方法は、特定の順序で説明された。代替の実施形態では、方法は、説明されたものとは異なる順序で実行され得ることが理解されるべきである。
[0204]構成要素が、ある特定の動作を実行する「ように構成される」ものとして説明されている場合、このような構成は、例えば、動作を実行するように電子回路または他のハードウェアを設計することによって、動作を実行するようにプログラム可能な電子回路(例えば、マイクロプロセッサ、または他の好適な電子回路)をプログラミングすることによって、またはこれらの任意の組合せで、達成され得る。
[0205]ここで開示された実施形態に関連して説明された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、ファームウェア、またはこれらの組合せとしてインプリメントされ得る。ハードウェアおよびソフトウェアのこの互換性を明確に例示するために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップが、概してそれらの機能の観点から上記で説明されてきた。このような機能が、ハードウェアとしてインプリメントされるか、あるいはソフトウェアとしてインプリメントされるかは、特定のアプリケーションおよびシステム全体に課せられる設計制約に依存する。当業者は、特定のアプリケーションごとに多様な方法において、説明された機能をインプリメントし得るが、このようなインプリメンテーションの決定は、本発明の範囲から逸脱を引き起こしていると解釈されるべきでない。
[0206]ここで説明された技法はまた、電子ハードウェア、コンピュータソフトウェア、ファームウェア、またはこれらの任意の組合せでインプリメントされ得る。このような技法は、汎用コンピュータ、ワイヤレス通信デバイスハンドセット、またはワイヤレス通信デバイスハンドセットおよび他のデバイスにおけるアプリケーションを含む複数の用途を有する集積回路デバイスなどの様々なデバイスのうちの任意のものでインプリメントされ得る。モジュールまたは構成要素として説明された任意の特徴は、集積論理デバイスにおいて共に、またはディスクリートではあるが相互動作可能な論理デバイスとして別々にインプリメントされ得る。ソフトウェアでインプリメントされる場合、本技法は、少なくとも部分的に、命令を含むプログラムコードを備えるコンピュータ可読データ記憶媒体によって実現され得、これら命令は、実行されると、上記で説明された方法のうちの1つまたは複数を実行する。コンピュータ可読データ記憶媒体は、コンピュータプログラム製品の一部を形成し得、それは、パッケージング材料を含み得る。コンピュータ可読媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)のようなランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、不揮発ランダムアクセスメモリ(NVRAM)、電気的に消去可能なプログラマブル読取専用メモリ(EEPROM(登録商標))、FLASHメモリ、磁気または光データ記憶媒体、および同様のものなどの、メモリまたはデータ記憶媒体を備え得る。本技法は、追加または代替として、少なくとも部分的に、伝搬された信号または波などの、コンピュータによってアクセス、読取、および/または実行されることができ、かつ、データ構造または命令の形式でプログラムコードを搬送または通信する、コンピュータ可読通信媒体によって実現され得る。
[0207]プログラムコードは、プロセッサによって実行され得、それは、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の同等の集積されたまたはディスクリートなロジック回路などの、1つまたは複数のプロセッサを含み得る。このようなプロセッサは、本開示において説明された技法のうちの任意のものを実行するように構成され得る。汎用プロセッサは、マイクロプロセッサであり得るが、代替として、このプロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシン(state machine)であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、例えば、DSPとマイクロプロセッサの組合せ、複数のマイクロプロセッサ、DSPコアと連携した1つまたは複数のマイクロプロセッサ、あるいはその他任意のこのような構成としてインプリメントされ得る。したがって、ここで使用される場合、「プロセッサ」という用語は、前述の構造の任意のもの、前述の構造の任意の組合せ、またはここで説明された技法のインプリメンテーションに好適なその他任意の構造または装置を指し得る。加えて、いくつかの態様では、ここで説明された機能は、符号化および復号のために構成された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供され得、または、複合ビデオエンコーダ−デコーダ(CODEC)に組み込まれ得る。

Claims (35)

  1. ビデオデータを符号化する方法であって、
    前記ビデオデータを取得することと、
    コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定することと、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記ビデオデータ中の情報に基づいて決定され、
    前記コーディングユニットを符号化することと、ここにおいて、前記コーディングユニットを符号化することは、前記コーディングユニットについての動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、前記補間フィルタは、前記補間フィルタのサブセットから選択され、
    符号化されたビデオビットストリームを生成することと、ここにおいて、前記符号化されたビデオビットストリームは、前記符号化されたコーディングユニットを含む、
    を備える方法。
  2. 前記補間フィルタのサブセットは、前記コーディングユニットのコーディングレベルに基づいて決定される、請求項1に記載の方法。
  3. 前記補間フィルタのサブセットは、前記コーディングユニットのための予測モードに基づいて決定される、請求項1に記載の方法。
  4. 前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた動き情報に基づいて決定される、請求項1に記載の方法。
  5. 前記補間フィルタのサブセットは、前記コーディングユニットをコーディングするために使用されるコーディングツールに基づいて決定される、請求項1に記載の方法。
  6. 前記補間フィルタのサブセットは、前記コーディングユニットのサイズに基づいて決定される、請求項1に記載の方法。
  7. 前記補間フィルタは、以前にコーディングされたブロックから選択される、請求項1に記載の方法。
  8. 前記補間フィルタは、前記コーディングユニットの隣接ブロックから選択される、請求項1に記載の方法。
  9. 前記補間フィルタを第2の補間フィルタとマージすること、ここにおいて、結果として得られるマージされた補間フィルタが、前記動き推定および前記動き補償のために使用される、
    をさらに備える、請求項1に記載の方法。
  10. 前記補間フィルタは、第2の補間フィルタに関連付けられ、前記補間フィルタは、整数ピクセル位置のためのものであり、前記第2の補間フィルタは、分数ピクセル位置のためのものである、請求項1に記載の方法。
  11. 前記補間フィルタと前記第2の補間フィルタは、異なるカットオフ周波数を有する、請求項10に記載の方法。
  12. 前記符号化されたビデオビットストリームは、前記補間フィルタを識別する値を含む、請求項1に記載の方法。
  13. 前記補間フィルタのセットは、前記符号化されたビデオビットストリームとともにシグナリングされず、前記補間フィルタの識別は、前記符号化されたビデオビットストリームから暗示され得る、請求項1に記載の方法。
  14. 装置であって、
    ビデオデータを記憶するように構成されたメモリと、
    前記ビデオデータを取得することと、
    コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定することと、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記ビデオデータ中の情報に基づいて決定され、
    前記コーディングユニットを符号化することと、ここにおいて、前記処理を符号化することは、動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、前記補間フィルタは、前記補間フィルタのサブセットから選択され、
    符号化されたビデオビットストリームを生成することと、ここにおいて、前記符号化されたビデオビットストリームは、前記符号化されたコーディングユニットを含む、
    を行うように構成されたプロセッサと
    を備える装置。
  15. 前記装置は、ピクチャをキャプチャするためのカメラを有するモバイルデバイスを備える、請求項14に記載の装置。
  16. 命令を記憶したコンピュータ可読媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
    ビデオデータを取得することと、
    コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定することと、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記ビデオデータ中の情報に基づいて決定され、
    前記コーディングユニットを符号化することと、ここにおいて、前記コーディングユニットを符号化することは、動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、前記補間フィルタは、前記補間フィルタのサブセットから選択され、
    符号化されたビデオビットストリームを生成することと、ここにおいて、前記符号化されたビデオビットストリームは、前記符号化されたコーディングユニットを含む、
    を含む動作を実行させる、コンピュータ可読媒体。
  17. ビデオデータを符号化するための装置であって、
    ビデオデータを取得するための手段と、
    コーディングユニットについて、補間フィルタのセットから補間フィルタのサブセットを決定するための手段と、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記ビデオデータ中の情報に基づいて決定され、
    前記コーディングユニットを符号化するための手段と、ここにおいて、前記コーディングユニットを符号化するための前記手段は、動き推定および動き補償のために補間フィルタを選択することを含み、ここにおいて、前記補間フィルタは、補間フィルタのセットから選択され、
    符号化されたビデオビットストリームを生成するための手段と、ここにおいて、前記符号化されたビデオビットストリームは、前記符号化されたコーディングユニットを含む、
    を備える装置。
  18. ビデオデータを復号するための方法であって、
    符号化されたビデオビットストリームを取得することと、
    前記符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定することと、
    補間フィルタのセットから補間フィルタのサブセットを決定することと、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記符号化されたビデオビットストリーム中の情報に基づいて決定され、
    前記補間フィルタのサブセットから補間フィルタを決定することと、
    前記コーディングユニットを再構成するために、前記参照フレームおよび前記補間フィルタを使用することと
    を備える方法。
  19. 前記補間フィルタのサブセットは、前記コーディングユニットのコーディングレベルに基づいて決定される、請求項18に記載の方法。
  20. 前記補間フィルタのサブセットは、前記コーディングユニットのための予測モードに基づいて決定される、請求項18に記載の方法。
  21. 前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた動き情報に基づいて決定される、請求項18に記載の方法。
  22. 前記補間フィルタのサブセットは、前記コーディングユニットをコーディングするために使用されるコーディングツールに基づいて決定される、請求項18に記載の方法。
  23. 前記補間フィルタのサブセットは、前記コーディングユニットのサイズに基づいて決定される、請求項18に記載の方法。
  24. 前記補間フィルタは、以前にコーディングされたブロックから選択される、請求項18に記載の方法。
  25. 前記補間フィルタは、隣接ブロックから選択される、請求項18に記載の方法。
  26. 前記補間フィルタを第2の補間フィルタとマージすること、ここにおいて、結果として得られるマージされた補間フィルタが、前記コーディングユニットを再構成するために使用される、
    をさらに備える、請求項18に記載の方法。
  27. 前記補間フィルタは、第2の補間フィルタに関連付けられ、前記補間フィルタは、整数ピクセル位置のためのものであり、前記第2の補間フィルタは、分数ピクセル位置のためのものである、請求項18に記載の方法。
  28. 前記補間フィルタと前記第2の補間フィルタは、異なるカットオフ周波数を有する、請求項27に記載の方法。
  29. 前記符号化されたビデオビットストリームは、前記補間フィルタを識別する値を含む、請求項18に記載の方法。
  30. 前記符号化されたビデオビットストリームを使用して、前記補間フィルタの識別を導出すること
    をさらに備える、請求項18に記載の方法。
  31. 装置であって、
    符号化されたビデオデータを記憶するように構成されたメモリと、

    符号化されたビデオビットストリームを取得することと、
    前記符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定することと、
    補間フィルタのセットから補間フィルタのサブセットを決定することと、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記符号化されたビデオビットストリーム中の情報に基づいて決定され、
    前記補間フィルタのサブセットから補間フィルタを決定することと、
    前記コーディングユニットを再構成するために、前記参照フレームおよび前記補間フィルタを使用することと
    を行うように構成されたプロセッサと
    を備える装置。
  32. 前記ビデオデータを表示するためのディスプレイ
    をさらに備える、請求項31に記載の装置。
  33. 前記装置は、ピクチャをキャプチャするためのカメラを有するモバイルデバイスを備える、請求項31に記載の装置。
  34. 命令を記憶したコンピュータ可読媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
    符号化されたビデオビットストリームを取得することと、
    前記符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定することと、
    補間フィルタのセットから補間フィルタのサブセットを決定することと、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記符号化されたビデオビットストリーム中の情報に基づいて決定され、
    前記補間フィルタのサブセットから補間フィルタを決定することと、
    前記コーディングユニットを再構成するために、前記参照フレームおよび前記補間フィルタを使用することと
    を含む動作を実行させる、コンピュータ可読媒体。
  35. ビデオデータを復号するための装置であって、
    符号化されたビデオビットストリームを取得するための手段と、
    前記符号化されたビデオビットストリームから現在のフレーム中のコーディングユニットのための参照フレームを決定するための手段と、
    補間フィルタのセットから補間フィルタのサブセットを決定するための手段と、ここにおいて、前記補間フィルタのサブセットは、前記コーディングユニットに関連付けられた、前記符号化されたビデオビットストリーム中の情報に基づいて決定され、
    前記補間フィルタのサブセットから補間フィルタを決定するための手段と、
    前記コーディングユニットを再構成するために、前記参照フレームおよび前記補間フィルタを使用するための手段と
    を備える装置。
JP2019518070A 2016-10-05 2017-10-05 補間フィルタを切り替えるシステムおよび方法 Active JP7317703B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023069383A JP2023100713A (ja) 2016-10-05 2023-04-20 補間フィルタを切り替えるシステムおよび方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662404749P 2016-10-05 2016-10-05
US62/404,749 2016-10-05
US15/724,155 2017-10-03
US15/724,155 US10341659B2 (en) 2016-10-05 2017-10-03 Systems and methods of switching interpolation filters
PCT/US2017/055390 WO2018067848A1 (en) 2016-10-05 2017-10-05 Systems and methods of switching interpolation filters

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023069383A Division JP2023100713A (ja) 2016-10-05 2023-04-20 補間フィルタを切り替えるシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2019535198A true JP2019535198A (ja) 2019-12-05
JP2019535198A5 JP2019535198A5 (ja) 2020-10-15
JP7317703B2 JP7317703B2 (ja) 2023-07-31

Family

ID=61759166

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019518070A Active JP7317703B2 (ja) 2016-10-05 2017-10-05 補間フィルタを切り替えるシステムおよび方法
JP2023069383A Pending JP2023100713A (ja) 2016-10-05 2023-04-20 補間フィルタを切り替えるシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023069383A Pending JP2023100713A (ja) 2016-10-05 2023-04-20 補間フィルタを切り替えるシステムおよび方法

Country Status (9)

Country Link
US (1) US10341659B2 (ja)
EP (1) EP3523966A1 (ja)
JP (2) JP7317703B2 (ja)
KR (1) KR102546383B1 (ja)
CN (2) CN116347075A (ja)
BR (1) BR112019006882A2 (ja)
SG (1) SG11201901631SA (ja)
TW (1) TWI775780B (ja)
WO (1) WO2018067848A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3078240A1 (en) * 2017-10-02 2019-04-11 Arris Enterprises Llc System and method for reducing blocking artifacts and providing improved coding efficiency
EP3468194A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Decoupled mode inference and prediction
US10582212B2 (en) * 2017-10-07 2020-03-03 Google Llc Warped reference motion vectors for video compression
US10841610B2 (en) * 2017-10-23 2020-11-17 Avago Technologies International Sales Pte. Limited Block size dependent interpolation filter selection and mapping
US11825117B2 (en) * 2018-01-15 2023-11-21 Samsung Electronics Co., Ltd. Encoding method and apparatus therefor, and decoding method and apparatus therefor
CN117376586A (zh) * 2018-09-07 2024-01-09 华为技术有限公司 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置
US11470308B2 (en) 2018-09-21 2022-10-11 Vid Scale, Inc. Complexity reduction and bit-width control for bi-directional optical flow
CN111010568B (zh) * 2018-10-06 2023-09-29 华为技术有限公司 插值滤波器的训练方法、装置及视频图像编解码方法、编解码器
WO2020094000A1 (en) * 2018-11-05 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Interpolation for inter prediction with refinement
SG11202106487VA (en) * 2018-12-21 2021-07-29 Huawei Tech Co Ltd Method and apparatus of interpolation filtering for predictive coding
EP3888363B1 (en) * 2018-12-28 2023-10-25 Huawei Technologies Co., Ltd. Method and apparatus of sharpening interpolation filtering for predictive coding
US11431987B2 (en) 2019-01-08 2022-08-30 Tencent America LLC Method and apparatus for memory bandwidth reduction for small inter blocks
EP3939262A4 (en) * 2019-03-11 2022-11-09 Alibaba Group Holding Limited METHOD, DEVICE AND SYSTEM FOR DETERMINING PREDICTION WEIGHT FOR MERGE MODE
US11178415B2 (en) * 2019-03-12 2021-11-16 Tencent America LLC Signaling of CU based interpolation filter selection
KR20210134392A (ko) * 2019-03-12 2021-11-09 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 하이브리드 비디오 코딩을 위한 인코더, 디코더, 방법, 비디오 비트 스트림 및 컴퓨터 프로그램
CN113647110B (zh) 2019-04-01 2022-11-08 北京字节跳动网络技术有限公司 帧间编码模式中的二分之一像素插值滤波器的指示
CN113661708B (zh) 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
KR102662024B1 (ko) 2019-04-19 2024-05-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 상이한 모션 벡터 정제의 그레디언트 계산
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
CN113711608B (zh) 2019-04-19 2023-09-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程的适用性
CN113812155B (zh) * 2019-05-11 2023-10-27 北京字节跳动网络技术有限公司 多种帧间编解码方法之间的交互
US11076169B2 (en) 2019-05-14 2021-07-27 Qualcomm Incorporated Switchable interpolation filtering (SIF) for video coding
US11109041B2 (en) * 2019-05-16 2021-08-31 Tencent America LLC Method and apparatus for video coding
WO2020244545A1 (en) * 2019-06-05 2020-12-10 Beijing Bytedance Network Technology Co., Ltd. Interaction between motion vector refinements and other coding tools
CA3148751A1 (en) * 2019-08-05 2021-02-11 Lg Electronics Inc. Video encoding/decoding method and apparatus using motion information candidate, and method for transmitting bitstream
JP7359942B2 (ja) 2019-08-20 2023-10-11 北京字節跳動網絡技術有限公司 映像処理における代替の補間フィルタの選択的使用
EP4018668A4 (en) * 2019-08-23 2023-06-21 Samsung Electronics Co., Ltd. INTRA PREDICTION METHOD AND DEVICE USING IT, ENCODING AND DECODE METHOD AND DEVICE USING IT BASED ON INTRA PREDICTION
US11375222B2 (en) * 2019-09-22 2022-06-28 Tencent America LLC Method and device for video encoding and decoding with interpolation filter flag being consistent with MMVD distances
CN113596464A (zh) * 2019-09-23 2021-11-02 杭州海康威视数字技术股份有限公司 编解码方法方法、装置及设备
WO2021056210A1 (zh) * 2019-09-24 2021-04-01 北京大学 视频编解码方法、装置和计算机可读存储介质
CN113259669B (zh) * 2021-03-25 2023-07-07 浙江大华技术股份有限公司 编码方法、装置、电子设备及计算机可读存储介质
CN113726406B (zh) * 2021-08-25 2022-06-21 中国电子科技集团公司第五十四研究所 一种基于分组编码的频点可变的多速率Ku通信发射装置
WO2023200381A1 (en) * 2022-04-12 2023-10-19 Telefonaktiebolaget Lm Ericsson (Publ) Enhanced interpolation filtering
CN116962706A (zh) * 2022-04-15 2023-10-27 华为技术有限公司 图像解码方法、编码方法及装置
WO2023241634A1 (en) * 2022-06-18 2023-12-21 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
WO2024080905A1 (en) * 2022-10-13 2024-04-18 Telefonaktiebolaget Lm Ericsson (Publ) Methods and apparatus for enhanced interpolation filtering

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219426A (ja) * 2002-01-23 2003-07-31 Sony Corp 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
JP2013524678A (ja) * 2010-04-05 2013-06-17 サムスン エレクトロニクス カンパニー リミテッド 変換及び逆変換に基づいた補間方法及び装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005532725A (ja) * 2002-07-09 2005-10-27 ノキア コーポレイション ビデオ符号化における内挿フィルタタイプの選択方法および選択システム
WO2006039382A2 (en) * 2004-09-29 2006-04-13 Thomson Research Funding Corporation Method and apparatus for reduced resolution update video coding and decoding
US9014280B2 (en) * 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
EP2048886A1 (en) * 2007-10-11 2009-04-15 Panasonic Corporation Coding of adaptive interpolation filter coefficients
US8831086B2 (en) * 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
US20090257499A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Advanced interpolation techniques for motion compensation in video coding
US9078007B2 (en) * 2008-10-03 2015-07-07 Qualcomm Incorporated Digital video coding with interpolation filters and offsets
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
WO2011003326A1 (en) * 2009-07-06 2011-01-13 Mediatek Singapore Pte. Ltd. Single pass adaptive interpolation filter
KR101457418B1 (ko) * 2009-10-23 2014-11-04 삼성전자주식회사 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
JP2011135184A (ja) * 2009-12-22 2011-07-07 Sony Corp 画像処理装置および方法、並びにプログラム
JP5439162B2 (ja) * 2009-12-25 2014-03-12 株式会社Kddi研究所 動画像符号化装置および動画像復号装置
US20110200108A1 (en) * 2010-02-18 2011-08-18 Qualcomm Incorporated Chrominance high precision motion filtering for motion interpolation
KR101750046B1 (ko) * 2010-04-05 2017-06-22 삼성전자주식회사 트리 구조에 따른 부호화 단위에 기반한 인루프 필터링을 수반하는 비디오 부호화 방법과 그 장치 및 복호화 방법과 그 장치
WO2011126284A2 (en) * 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using adaptive prediction filtering, method and apparatus for decoding video by using adaptive prediction filtering
US9154807B2 (en) * 2010-06-25 2015-10-06 Qualcomm Incorporated Inclusion of switched interpolation filter coefficients in a compressed bit-stream
US10045046B2 (en) * 2010-12-10 2018-08-07 Qualcomm Incorporated Adaptive support for interpolating values of sub-pixels for video coding
KR20120090740A (ko) * 2011-02-07 2012-08-17 (주)휴맥스 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법
JP5670226B2 (ja) * 2011-03-04 2015-02-18 Kddi株式会社 動画像符号化装置、動画像符号化方法、およびプログラム
US9313519B2 (en) * 2011-03-11 2016-04-12 Google Technology Holdings LLC Interpolation filter selection using prediction unit (PU) size
JP5649523B2 (ja) * 2011-06-27 2015-01-07 日本電信電話株式会社 映像符号化方法,装置,映像復号方法,装置およびそれらのプログラム
KR20130050149A (ko) * 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
US20130177084A1 (en) * 2012-01-10 2013-07-11 Qualcomm Incorporated Motion vector scaling in video coding
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US9420280B2 (en) * 2012-06-08 2016-08-16 Qualcomm Incorporated Adaptive upsampling filters
AU2013288859B2 (en) * 2012-07-09 2016-05-19 Vid Scale, Inc. Power aware video decoding and streaming
EP3117612A1 (en) * 2014-03-14 2017-01-18 VID SCALE, Inc. Systems and methods for rgb video coding enhancement
WO2016072722A1 (ko) * 2014-11-04 2016-05-12 삼성전자 주식회사 영상 특성을 반영한 보간 필터를 이용하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US11463689B2 (en) * 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219426A (ja) * 2002-01-23 2003-07-31 Sony Corp 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
JP2013524678A (ja) * 2010-04-05 2013-06-17 サムスン エレクトロニクス カンパニー リミテッド 変換及び逆変換に基づいた補間方法及び装置

Also Published As

Publication number Publication date
WO2018067848A1 (en) 2018-04-12
CN109792524A (zh) 2019-05-21
SG11201901631SA (en) 2019-04-29
KR20190059282A (ko) 2019-05-30
CN116347075A (zh) 2023-06-27
BR112019006882A2 (pt) 2019-06-25
TWI775780B (zh) 2022-09-01
JP2023100713A (ja) 2023-07-19
CN109792524B (zh) 2023-04-04
US10341659B2 (en) 2019-07-02
TW201826791A (zh) 2018-07-16
EP3523966A1 (en) 2019-08-14
KR102546383B1 (ko) 2023-06-22
US20180098066A1 (en) 2018-04-05
JP7317703B2 (ja) 2023-07-31

Similar Documents

Publication Publication Date Title
US10341659B2 (en) Systems and methods of switching interpolation filters
CN112823517B (zh) 基于历史的运动矢量预测子的改进
CN113196775B (zh) 用于当前图片参考(cpr)和帧内块复制(ibc)的虚拟搜索区
CN110383839B (zh) 仿射运动信息导出
CN107852498B (zh) 一种编码视频数据的方法、设备及计算机可读媒体
US20210014478A1 (en) Reference picture resampling with switchable filters
US11290743B2 (en) Interaction of illumination compensation with inter-prediction
EP3354022A1 (en) Methods and systems of improved video stream switching and random access
CA2952456A1 (en) Improved video coding using end of sequence network abstraction layer units
CN114982246A (zh) 环路滤波器的自适应舍入
US11356707B2 (en) Signaling filters for video processing
KR20230020413A (ko) 디코딩된 픽처 버퍼 (dpb) 동작들 및 액세스 유닛 구분자 (aud)
JP2023554269A (ja) 重複ブロック動き補償
KR20240087746A (ko) 그래디언트의 히스토그램 생성

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230420

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230719

R150 Certificate of patent or registration of utility model

Ref document number: 7317703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150