JP6707678B2 - 動き補償予測のための方法及び装置 - Google Patents

動き補償予測のための方法及び装置 Download PDF

Info

Publication number
JP6707678B2
JP6707678B2 JP2019002663A JP2019002663A JP6707678B2 JP 6707678 B2 JP6707678 B2 JP 6707678B2 JP 2019002663 A JP2019002663 A JP 2019002663A JP 2019002663 A JP2019002663 A JP 2019002663A JP 6707678 B2 JP6707678 B2 JP 6707678B2
Authority
JP
Japan
Prior art keywords
fractional
sample
bit depth
samples
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019002663A
Other languages
English (en)
Other versions
JP2019071661A (ja
Inventor
フランク, ジャン ボーセン,
フランク, ジャン ボーセン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2019071661A publication Critical patent/JP2019071661A/ja
Priority to JP2020088029A priority Critical patent/JP6900547B2/ja
Application granted granted Critical
Publication of JP6707678B2 publication Critical patent/JP6707678B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Description

関連出願
[0001]本特許文書は、全体が参照により本書に組み込まれる、2011年6月24日出願の米国特許仮出願第6501112号の出願日の利益を、米国特許法第119条(e)の下で請求する。
発明の背景
[0002]本発明は、フレーム間予測についての動き補償に関し、より詳細には、低い複雑性及び高い精度を達成する動き補償で使用される分数サンプル(fractional sample)補間に関する。
関連技術の説明
[0003]デジタルビデオは、デジタルビデオシーケンスの1つ1つのフレーム(例えば一連のフレーム)を非圧縮で表すために、大量のデータを必要とする。ほとんどの応用例では、帯域幅の制限により、コンピュータネットワーク全体にわたって非圧縮デジタルビデオを伝送することは不可能である。加えて、非圧縮デジタルビデオは、大量の記憶空間を必要とする。デジタルビデオは、通常、記憶要件を削減し帯域幅要件を削減するために、何らかの方法で符号化される。
[0004]デジタルビデオを符号化するための1つの技法は、フレーム間予測又はインター予測(inter−prediction)である。インター予測は、異なるフレーム間の時間冗長性を利用する。時間的に隣接するビデオフレームは、通常、ほぼ同じ状態を維持するピクセルブロックを含む。符号化プロセス中、動きベクトルは、1つのフレーム内のピクセルブロックの動きを、別のフレーム内の同様のピクセルブロックに関係付ける。したがってシステムは、ピクセルブロックを2回符号化する必要がなく、ピクセルブロックを1回符号化し、動きベクトルを与えて他方のピクセルブロックを予測する。
[0005]デジタルビデオを符号化するための別の技法は、フレーム間予測又はイントラ予測である。イントラ予測は、フレーム又はその一部を、他のフレーム内のピクセルを参照せずに符号化する。イントラ予測は、フレーム内のピクセルブロック間の空間冗長性を利用する。空間的に隣接するピクセルブロックは、一般に同様の属性を有するため、隣接ブロック間の空間的相関を参照することにより、符号化プロセスの効率は向上する。この相関は、隣接ブロック内で使用される予測モードに基づくターゲットブロックの予測によって利用され得る。
[0006]インター予測では、受け取られるピクチャが動き推定及び補償に基づいて予測される。ビデオ内の移動オブジェクトは、しばしばフレームからフレームへと現れ、オブジェクトのすべて又は一部が後続のフレーム内で再配置される。こうした再配置にもかかわらず、フレームシーケンス内での相関は高く、冗長性を生じさせる。この時間冗長性は、現行フレーム内のサンプルと参照フレーム内の同じオブジェクトの位置とを比較及び関係付けすることによって削減され得る。特に、動き推定中、現行フレーム又はその区画は、現行フレームよりも時間的に前又は後であり得る参照フレームと比較される。それぞれの参照フレームで設定された検索範囲内のピクセルパターンは、符号化される予定の現行フレーム内のピクセルパターンと最も一致するピクセルパターンを含む参照フレームが見つかるまで、現行フレーム内に示されたピクセルパターンと比較される。この比較結果に基づき、フレーム間変位ベクトル又は動きベクトルが推定される。推定された動きベクトルを使用して、動き補償は現行フレームの予測を導き出す。
[0007]参照ピクチャの解像度を上げるために、整数位置のサンプル、又は単に整数サンプルと呼ばれる、参照ピクチャ内のピクセルに補間を適用することによって、動きベクトルの正確さ及び符号化効率を上げることが可能である。補間とは、整数サンプルの値を使用して、各整数サンプル間に分数サンプルを生成することである。整数サンプル間に分数サンプルがより多く生成されるほど、参照ピクチャの解像度が高くなり、分数サンプル変位をより精密且つ正確に補償することができる。例えば、ピクセルの半分のみの変位である移動オブジェクトの動きを正確に補償するためには、少なくとも2分の1ピクセル(画素)補間が必要である。動き推定及び補償は、いくつかの異なるブロックサイズを使用して実行され得る。個々の動きベクトルは、4x4、4x8、8x4、8x8、8x16、16x8、又は16x16のピクセルを有する区画について決定され得る。小さな動き補償区画を提供することで、精細な動きの細部を処理する能力が向上する。
[0008]H.264/AVCは、2ステップ手法を取り、4分の1画素(quarter−pel)解像度までの動き補償を達成する。H.264/AVCにおいて、第1のステップは、6タップフィルタを使用し、周辺整数サンプルの値から2分の1画素解像度で中間値を生成する。第2のステップでは、整数サンプルの値及び中間値が平均化されるか、又は中間値同士で平均化され、4分の1画素位置で分数サンプルを、又は単に4分の1画素サンプルを生成する。Bスライスでは、2つの予測から2つの予測分数サンプルが更に平均化され得る。しかしながら、複数の平均化動作は、連続して行われると丸め誤差を招き、動き補償の正確さ及び効率に悪影響を与えることに留意されたい。Joint Collaborative Team on Video Coding(JCT−VC)の提案D321及びE242は、双方向平均化に関連付けられた丸め誤差問題に対処している。これらの文書は、2つの予測が加えられた後、双方向平均化の最終ステップで実施するように丸め動作が制限されることを提案している。
[0009]JCT−VC草案E603は、4分の1画素解像度を達成するための8タップフィルタの使用を開示している。E603では、8タップフィルタを最も近い整数サンプルに適用すること、及びフィルタリングされた結果を所定のビット深度まで切り捨てることによって、いくつかの4分の1画素サンプルが導出される。残りの4分の1画素サンプルは2つのプロセスを通じて導出される。第1のプロセスでは、中間値は8タップフィルタを最も近い整数サンプルに垂直方向に適用することによって導出される。第2のプロセスでは、8タップフィルタは中間値に水平方向に適用され、フィルタリングされた結果は所定のビット深度まで切り捨てられる。この2プロセス手法は、第2のプロセスにおける垂直フィルタリング及び水平フィルタリングに関する固定された順序が不要であるため、第2のプロセスにおける垂直フィルタリング及び水平フィルタリングの順序に関する信号を復号器に送信することが不要であることから、有利である。しかしながら、E603で考察された動き補償は、中間値を生成するための追加のフィルタリング動作の定義が必要である。特に高ビット深度のビデオデータの場合、中間値に適用されるフィルタリング動作は費用がかかり、かなり複雑な計算が必要である。
[0010]更に、E603で考察された動き補償では、計算される4分の1画素サンプルの正確さを補償するように中間値を切り捨てることはない。したがって、計算される値のビット単位の精度は、E603で考察される動き補償中、一定ではない。前述の第1のプロセスの終わりに、結果として生じるサンプル値の精度は、8タップフィルタの利得によって決定された量だけ上昇する。8タップフィルタを中間値に適用することにより、精度は、所定の精度まで切り捨てる前に、第1のプロセスと同じ量だけ再度上げられる。したがって、第2のステップの終わりに元のビット深度まで解像度を戻すために、第1のプロセスで必要な解像度の切り捨ての2倍の切り捨てが第2のプロセスで必要である。
前述の従来技術に鑑みて、本発明は、フレーム間予測に新規な動き補償動作を提供する。動き補償は、サンプルに分数サンプル補間を適用して分数サンプルを生成する。本発明による動き補償では、第1の分数サンプル補間がサンプルに第1の方向で適用され、分数サンプルの第1のセットを生成する。第2の分数サンプル補間が分数サンプルの第1のセットに第2の方向で適用され、分数サンプルの第2のセットを生成する。本発明において、分数サンプルの第1のセットは、サンプルの表現の精度とは無関係な精度で表される。
[0011]本発明の態様において、4分の1画素サンプルを生成するために、分数サンプル補間は、以下の係数の3つのセットのうちの1つを有する8タップFIRフィルタを適用する。
[−1、4,−10,58,17,−5,1,0]
[−1,4,−11,40,40,−11,4,−1]及び
[0,1,−5,17,58,−10,4,−1]
[0012]本発明の態様において、分数サンプル補間は、分数サンプルが所望の精度を有するように、フィルタリングされた結果のそれぞれを切り捨てることを含む。所望の精度は、第1及び第2の分数補間プロセス全体にわたって一定であり得る。
[0013]切り捨てプロセスは、切り捨てられた結果を負の無限大方向に丸めることを含み得る。これは、切り捨てプロセスの前に、フィルタリングされた結果に何れのオフセットも追加しないことによって達成される。
[0014]更に本発明の他の態様において、サンプルは、サンプルの元のビット深度に関係なく、サンプルに対して一定な第2のビット深度までスケーリングされ得る。第2のビット深度は、サンプルを表すために使用可能なビット数に等しく設定することができ、スケーリング係数は、サンプルを表すために使用可能なビット数からサンプルの元のビット深度を引いたものに等しく設定される。
[0015]更に本発明の他の態様において、スケーリングされたサンプルはオフセットが減算される。
[0016]
本発明が実装可能な例示のハードウェアアーキテクチャを示すブロック図である。[0017] 本発明が適用可能なビデオ符号器の一般的概念を示すブロック図である。[0018] 本発明が適用可能なビデオ復号器の一般的概念を示すブロック図である。[0019] 本発明の実施形態に従った符号器の機能モジュールを示すブロック図である。[0020] 本発明の実施形態に従った、ビデオ符号器によって実行される符号化プロセスを示すフローチャートである。[0021] 本発明の実施形態に従った、分数サンプル補間のプロセスを示すフローチャートである。[0022] 分数サンプル補間のためのフィルタリングを示す図である。[0023] 本発明の実施形態に従った、復号器の機能モジュールを示すブロック図である。[0024] 本発明の実施形態に従った、ビデオ復号器によって実行される復号プロセスを示すフローチャートである。
[0025]図1は、本発明が実装可能なコンピュータ100の例示のハードウェアアーキテクチャを示す。図1に示されるハードウェアアーキテクチャは、本発明の実施形態を実装するビデオ符号器及びビデオ復号器の両方において一般的であり得ることに留意されたい。コンピュータ100は、プロセッサ101、メモリ102、記憶デバイス105、及び、ローカルインターフェース107を介して通信可能に結合された1つ又は複数の入力及び/又は出力(I/O)デバイス106(又は周辺装置)を含む。ローカルインターフェース107は、当分野で知られているように、例えば1つ又は複数のバス或いは他の有線接続又は無線接続であり得るが、これらに限定されない。
[0026]プロセッサ101は、特にメモリ102に格納されたソフトウェアを実行するための、ハードウェアデバイスである。プロセッサ101は、任意の特別注文又は市販のプロセッサ、中央処理ユニット(CPU)、コンピュータ100に関連付けられたいくつかのプロセッサの中の補助プロセッサ、半導体ベースの(マイクロチップ又はチップセットの形の)マイクロプロセッサ、或いは、一般にソフトウェア命令を実行するための任意のデバイスであり得る。
[0027]メモリ102は、揮発性メモリ要素(例えばランダムアクセスメモリ(DRAM、SRAM、SDRAM等のRAM))及び不揮発性メモリ要素(例えばROM、ハードドライブ、テープ、CDROM等)のうちの任意の1つ又はそれらの組み合わせを含むことが可能な、コンピュータ読み取り可能媒体を備える。更に、メモリ102は、電子、磁気、光、及び/又は他のタイプの記憶媒体を組み込むことができる。コンピュータ読み取り可能媒体は、命令実行のシステム、装置、又はデバイスによるか又はそれらに関連して使用するためのプログラムを格納、通信、伝搬、又は移送する任意の手段であり得る。メモリ102は、様々な構成要素が互いに遠隔に位置付けられるが、プロセッサ101によるアクセスが可能な、分散アーキテクチャを有し得ることに留意されたい。
[0028]メモリ102内のソフトウェア103は、1つ又は複数の別々のプログラムを含むことができ、プログラムのそれぞれは、以下で説明するように、コンピュータ100の論理機能を実装するための実行可能命令の順序付けリストを含む。図1の例では、メモリ102内のソフトウェア103は、本発明によるコンピュータ100のビデオ符号化機能又はビデオ復号機能を定義する。加えて、必須ではないが、メモリ102はオペレーティングシステム(O/S)104を含むことが可能である。オペレーティングシステム104は、本来、コンピュータプログラムの実行を制御し、スケジューリング、入力出力制御、ファイル及びデータ管理、メモリ管理、並びに通信制御及び関連サービスを提供する。
[0029]コンピュータ100の記憶デバイス105は、固定記憶デバイス又は移動記憶デバイスを含む、多くの異なるタイプの記憶デバイスのうちの1つであり得る。例として、記憶デバイス105は、磁気テープ、ディスク、フラッシュメモリ、揮発性メモリ、又は異なる記憶デバイスであり得る。加えて、記憶デバイス105は、セキュアなデジタルメモリカード又は任意の他の取り外し可能記憶デバイス105であり得る。
[0030]I/Oデバイス106は、例えばタッチスクリーン、キーボード、マウス、スキャナ、マイクロフォン、又は他の入力デバイス等であるがこれらに限定されない、入力デバイスを含み得る。I/Oデバイス106は、例えばディスプレイ又は他の出力デバイス等であるがこれらに限定されない、出力デバイスも更に含み得る。I/Oデバイス106は、例えば、変調器/復調器(例えば、他のデバイス、システム、又はネットワークにアクセスするためのモデム)、無線周波数(RF)、無線若しくは他の送受信機、電話インターフェース、ブリッジ、ルータ、或いは入力及び出力として機能する他のデバイス等であるがこれらに限定されない、入力及び出力を介して通信するデバイスを、更に含み得る。
[0031]当業者であれば周知のように、ビデオ圧縮はビデオシーケンス内の冗長情報を除去することによって達成される。多くの異なるビデオ符号化標準が存在し、その例にはMPEG−1、MPEG−2、MPEG−4、H.261、H.263、及びH.264/AVCが含まれる。本発明は、任意の特定のビデオ符号化標準の適用において制限されるものと意図されていないことに留意されたい。しかしながら本発明は、参照により本明細書に組み込まれたH.264/AVC標準の例を使用して、以下で説明される。H.264/AVCは最新のビデオ符号化標準であり、MPEG−1、MPEG−2、H.261、及びH.263等の以前の符号化標準に比べて著しい性能改善を達成している。
[0032]H.264/AVCでは、ビデオの各フレーム又はピクチャを幾つかのスライスに分割することができる。次にスライスは、マクロブロックと呼ばれる16x16ピクセルのブロックに分割され、このブロックが、8x16、16x8、8x8、4x8、8x4、4x4までのピクセルのブロックに、更に分割され得る。H.264/AVCによってサポートされるスライスには5つのタイプがある。Iスライスでは、すべてのマクロブロックがイントラ予測を使用して符号化される。Pスライスでは、マクロブロックはイントラ予測又はインター予測を使用して符号化され得る。Pスライスは、マクロブロックごとに1つの動き補償予測(MCP)信号のみが使用可能である。Bスライスでは、マクロブロックはイントラ予測又はインター予測を使用して符号化され得る。予測ごとに2つのMCP信号が使用可能である。SPスライスは、異なるビデオストリーム間でPスライスを効率良く切り換えることができる。SIスライスは、ランダムアクセス又は誤り回復についてはSPスライスと完全に一致するが、イントラ予測のみを使用する。
[0033]図2は、本発明が適用可能なビデオ符号器の一般的概念を示す。図に示されたブロックは、メモリ102内のソフトウェア103を実行するプロセッサ101によって実現される機能モジュールを表す。ビデオフレームのピクチャ200は、ビデオ符号器201に送られる。ビデオ符号器はピクチャ200をマクロブロック200A単位で扱う。各マクロブロックはいくつかのピクセルのピクチャ200を含む。各マクロブロックで、変換係数への変換後、変換係数レベルへの量子化が実行される。更に、符号化ステップを、ピクセルデータに対して直接実行するのではなく、ピクセル値とピクセル値予測との間の相違に対して実行するように、イントラ予測又はインター予測が使用されることにより、より容易に圧縮される小さな値が達成される。
[0034]各スライスについて、符号器201は、それぞれのスライスのマクロブロックの符号化バージョンを形成するいくつかの構文要素を生成する。変換係数レベル又はスキップされる変換係数レベルを示す有意性マップ等の、変換係数の符号化に関する構文要素内のすべての残余データ要素は、残余データ構文要素と呼ばれる。これらの残余データ構文要素に加えて、符号器201によって生成される構文要素は、各マクロブロックがそれぞれどのように符号化され復号されるべきであるかに関する、制御情報を含む制御情報構文要素を含む。言い換えれば、構文要素は2つのカテゴリに分割することができる。第1のカテゴリである制御情報構文要素は、例えばマクロブロックタイプ、サブマクロブロックタイプ、及び、空間と時間の両方のタイプの予測モードに関する情報、並びにスライスベース及びマクロブロックベースの制御情報に関する要素を含む。第2のカテゴリでは、量子化された変換係数のブロック内部でのすべての有意係数の位置を示す有意性マップ、及び、量子化ステップに対応するレベル単位で表される有意係数の値等の、すべての残余データ要素が組み合わせられ、残余データ構文要素となる。
[0035]符号器201は、構文要素を符号化し、各スライスに対して算術符号語を生成する、エントロピー符号器を備える。スライスに対して算術符号語を生成する場合、エントロピー符号器は、ビデオ信号ビットストリーム内の構文要素のデータ値間での統計的依存を利用する。符号器201は、ピクチャ200のスライスに関する符号化されたビデオ信号を、図3に示されたビデオ復号器301へと出力する。
[0036]図3は、本発明が適用可能なビデオ復号器の一般的概念を示す。ここでも同様に、図に示されたブロックは、メモリ102内のソフトウェア103を実行するプロセッサ101によって実現される機能モジュールを表す。ビデオ復号器301は、復号化されたビデオ信号を受信し、第1にこの信号を構文要素へとエントロピー復号する。復号器301は、マクロブロックごとに、その後スライス順に、ピクチャ300内のピクセルのピクチャサンプル300Aを再構成するためにこの構文要素を使用する。
[0037]図4はビデオ符号器201の機能モジュールを示し、図4内では全体として参照番号400で示されている。これらの機能モジュールは、メモリ102内のソフトウェア103を実行するプロセッサ101によって実現される。入力ビデオピクチャは、クロミナンス(「chroma」)及び輝度(「luma」)等の、元の色の構成要素を表すサンプルポイントによって定義される、未処理の(非圧縮の)ビデオイメージのフレーム又はフィールドである。色相、彩度、及び色値等の他の構成要素も可能である。入力ビデオピクチャは、それぞれがピクチャカラーの16x16ピクセルのluma構成要素からなる正方形のピクチャ域を表すマクロブロックに分割される。入力ビデオピクチャは、それぞれがピクチャカラーの2つのchroma構成要素それぞれの8x8ピクセルを表すマクロブロックにも区分される。一般的な符号器動作では、入力されるマクロブロックは、インター予測又はイントラ予測を使用して時間的又は空間的に予測され得る。しかしながら、マクロブロック400がすべてPスライスタイプのマクロブロックであるか、又はすべてBスライスタイプのマクロブロックであるか、或いはその両方の混合であるかが、考察のために仮定され、インター予測のみが行われる。
[0038]図4に示されたビデオ符号器400は、現行ピクチャと現行ピクチャの予測との残余又は相違のみを伝送する。減算器410はこれらの残余を、入力信号ISとして符号化されることになる現行ピクチャのブロックを受信すること、及び、受信したブロックから予測信号PSによって示される予測ピクチャのブロックを減算することによって、取得する。図4に示されるように、ビデオ符号器400は、量子化された変換係数QCを出力するための変換/量子化ユニット420を含む。変換/量子化ユニット420は残余を空間ドメインから周波数ドメインへと変換し、変換された残余を量子化する。ビデオ符号器400は、量子化された変換係数QCのエントロピー符号化(可変長符号化)を実行し、ビットストリームBSを出力するための、エントロピー符号化ユニット490も含む。
[0039]ビデオ符号器400は、逆量子化/変換ユニット430及び加算器435を更に含む。逆量子化/変換ユニット430は、量子化された変換係数QCを残余信号RSに変換し直し、加算器435はこの残余信号RSに予測信号PSを加算して、復号されたピクチャを出力する。非ブロック化フィルタ437は復号されたピクチャからブロックアーティファクトを除去し、クリーニング済みの復号されたピクチャを参照メモリ440に格納する。
[0040]ビデオ符号器400は、動き補償/予測ユニット460及び動き推定ユニット470を更に含む。動き補償/予測ユニット460は、参照メモリ440から参照ピクチャを読み取り、4分の1画素位置で分数サンプルを生成するために補間を適用する。動き推定ユニット470も、参照メモリ440から参照ピクチャを読み取り、現行ピクチャと参照ピクチャとを比較することによって、現行ピクチャの動きベクトルMVを推定する。動きベクトルMVは、動き補償/予測ユニット460及びエントロピー符号化ユニット490へと出力される。ブロックは、4x4、4x8、8x4、8x8、8x16、16x8、又は16x16のピクセルを有する区画に分割され得る。動き推定ユニット470は、ブロック内のそれぞれの区画について動き推定を実行し、それぞれの区画に関する動きベクトルMVを出力する。動き補償/予測ユニット460は、参照ピクチャ内のそれぞれの区画を動きベクトルによって示される量だけ、示される方向に移動させ、予測ピクチャを導出して、この予測ピクチャが予測信号ISとして減算器410及び加算器435に送られる。
[0041]図5は、ビデオ符号器400によって実行される高レベルの符号化プロセスを示すフローチャートである。ステップ502で、動き補償/予測ユニット460は予測ブロックを生成する。ステップ504で、減算器410は予測ピクチャを現行ピクチャから減算し、残余を取得する。ステップ506で、変換/量子化ユニット420は残余を符号化する。
[0042]図6は、本発明の実施形態に従った、予測信号を生成するために動き補償/予測ユニット460によって実行される、動き補償のプロセスを示すフローチャートである。ステップ602で、動き補償/予測ユニット460は参照メモリ440から参照サンプルを読み取る。参照メモリ440は複数の参照ピクチャを格納する。H.264/AVCのセクション8.4.2及びそのサブセクションで考察しているように、参照メモリ440内に格納された参照ピクチャから取り出される参照サンプルの位置は、現行ピクチャ内の予測される領域の位置、その領域の動きベクトルMV、及び参照フレームインデックスを用いて決定され得る。
[0043]ステップ604で、参照サンプルの精度を上げるために、取り出された参照サンプルがスケーリングされる。スケーリング係数は、参照サンプルのビット深度及び参照サンプルを表すために使用可能なビット数を用いて決定され得る。参照サンプルの表現に使用可能な最大ビット数が16である場合、サンプルの表現に使用可能なビット数を14に制限して、動き補償中に発生する可能性のあるデータのオーバーフロー又はアンダーフローを防止するように、参照サンプルを表すために使用可能なビット数を決定することができる。サンプルを表すために使用可能なビット数が14の場合、8ビット幅の参照サンプルのスケーリング係数は6であり、取り出された参照サンプルは、そのビットを6ビットだけ左にシフトすることによってスケーリングされる。10ビット幅の参照サンプルのスケーリング係数は4とされ、取り出された参照サンプルは、そのビットを4ビットだけ左にシフトすることによってスケーリングされる。より一般的には、スケーリング係数は「参照サンプルを表すために使用可能なビット数」から「参照サンプルのビット深度」を減じることによって表し得る。ステップ604で実行されるスケーリングプロセスは、参照メモリ内に格納される参照サンプルをそのビット深度とは無関係な形で変換し、スケーリングプロセスに続くプロセスは、ビデオデータの元のビット深度とは無関係になるため、有利である。
[0044]オプションで、参照サンプルのスケーリング値からオフセットを減算することができる。例えばスケーリング済み参照サンプルを表すために符号付き14ビット表現が使用される場合、減算されることになるオフセットの値は8192(=213)となり得、スケーリング済み参照サンプルは−8192〜8192の範囲内となる。このオフセットを追加することは、サンプルを表すために必要なビット数を減らすために有益である。以下で説明する補間プロセスは符号付きサンプル値を扱うため、すべてのサンプル値の符号付き表現が好ましい。サンプルが14ビット表現までスケーリングされる上記の例で、オフセットが減算されない場合、オフセットの減算から取得される14ビット符号付き表現よりも費用のかかる、15ビットの符号付き表現を使用しなければならなくなる。参照サンプルは、参照メモリ内に格納される際にスケーリング及びオフセットできることに留意されたい。参照サンプルがスケーリング及びオフセットの後に参照メモリに格納される場合、ステップ604は不要である。
[0045]スケーリング済み参照サンプルの解像度は、その後、4分の1画素位置で分数サンプルを生成するために分数サンプル補間を使用して引き上げられる。図7は、分数サンプル動き補償のためのフィルタリングを示す図である。図7で、大文字Ai,jはスケーリング済み参照サンプルを示す。これらのサンプルは整数サンプルと呼ばれる。a0,0、b0,0、c0,0、d0,0、・・・及びr0,0等の小文字で示された他のサンプルは、4分の1画素位置での分数サンプルである。ステップ606で、以下の補間式により、4分の1画素サンプルa0,0、b0,0、又はc0,0が導出される。
0,0=(−A−3,0+4−2,0−10−1,0+580,0+171,0−52,0+A3,0)>>6
0,0=(−A−3,0+4−2,0−11−1,0+400,0+401,0−112,0+43,0−A4,0)>>6
0,0=(A−2,0−5−1,0+170,0+581,0−102,0+43,0−A4,0)>>6
動きベクトルの水平構成要素の分数部は、どのサンプルが導出されるかを決定する。例えば分数部が1/4である場合、a0,0が導出される。
[0046]補間動作のそれぞれが、8タップFIRフィルタを最も近い整数サンプルに適用すること、及びフィルタ利得をオフセットするためにフィルタリングされた結果を切り捨てることを含む。各フィルタの係数の合計が64(=2)に等しく設定される。したがって、切り捨て動作は、フィルタリングされた結果を64で割ること、又はフィルタリングされた結果を6だけ右にシフトすることを含む。上記の補間動作で、切り捨てられた結果が負の無限大方向に丸められることに留意されたい。フィルタリングされた結果にオフセットを追加することによって、切り捨てられた結果を最も近い整数方向に丸めることができる。しかしながら、負の無限大方向への丸めは、フィルタリングされた結果にオフセットを追加する必要がないため、有利である。オプションで、動きベクトルの水平構成要素によって指定される分数変位に応じて、1つのフィルタが選択的に適用される異なるタイプのフィルタを提供することができる。水平分数変位がゼロの場合、このステップは省略可能である。8ビット入力を伴う例において、ステップ606では6ビットの右シフト動作が存在し、ステップ604では6ビットの左シフト動作が存在することにも留意されたい。したがって、出力を変更することなく左シフト及び右シフトの動作が除去されるように、ステップ604及び606を組み合わせることができる。
[0047]ステップ608で、以下の補間式により、分数サンプルd0,0、h0,0、n0,0、e0,0、i0,0、p0,0、f0,0、j0,0、q0,0、g0,0、k0,0、又はr0,0が導出される。
0,0=(−A0,−3+40,−2−100,−1+580,0+170,1−50,2+A0,3)>>6
0,0=(−A0,−3+40,−2−110,−1+400,0+400,1−110,2+40,3−A0,4)>>6
0,0=(A0,−2−50,−1+170,−0+580,1−100,2+40,3−A0,4)>>6
0,0=(−a0,−3+40,−2−100,−1+580,0+170,1−50,2+a0,3)>>6
0,0=(−a0,−3+40,−2−110,−1+400,0+400,1−110,2+40,3−a0,4)>>6
0,0=(a0,−2−50,−1+170,0+580,1−100,2+40,3−a0,4)>>6
0,0=(−b0,−3+40,−2−100,−1+580,0+170,1−50,2+b0,3)>>6
0,0=(−b0,−3+40,−2−110,−1+400,0+400,1−110,2+40,3−b0,4)>>6
0,0=(b0,−2−50,−1+170,0+580,1−100,2+40,3−b0,4)>>6
0,0=(−c0,−3+40,−2−100,−1+580,0+170,1−50,2+c0,3)>>6
0,0=(−c0,−3+40,−2−110,−1+400,0+400,1−110,2+40,3−c0,4)>>6
0,0=(c0,−2−50,−1+170,0+580,1−100,2+40,3−c0,4)>>6
動きベクトルの水平及び垂直の構成要素の分数部は、どのサンプルが導出されるかを決定する。例えば水平分数部が1/4であり、垂直分数部が3/4である場合、p0,0が導出される。
[0048]上記の補間動作は、8タップFIRフィルタをサンプルA0,i、a0,i、b0,i、及びc0,iに垂直に適用することを含み、ここでi=−3・・4であり、フィルタリングされた結果を6分の1に切り捨てることを更に含む。本発明では、フィルタリングされたあらゆる結果が切り捨てられ、フィルタリングされた結果が、分数サンプルを算出するために切り捨てられていない中間値として使用されることはないことに留意されたい。したがって本発明では、サンプル値の精度は分数サンプル補間全体を通じて一定である。ステップ606及びステップ608は、どちらもサンプルの表現における精度を変更しない。
[0049]分数サンプル補間の上記実施形態では、垂直及び水平のフィルタリング動作で使用されるフィルタのセットはすべて8タップフィルタである。分数動き補間にはタップ数の異なるフィルタが使用できることに留意されたい。例えばサイズの小さなブロックにはタップの少ないフィルタを使用することが望ましい。タップの少ないフィルタを使用することで、参照メモリから取り出されるサンプル数が削減され、それによってメモリ帯域幅も削減できる。タップの少ないフィルタを使用することで、フィルタリング動作における乗算の回数も削減され、動き補償の効率が向上する。H.264/AVCは、動き補償のために、マクロブロック又はサブマクロブロックを1つ又は複数の区画に分割することが可能である。H.264/AVCでは、16x16サイズのマクロブロックを、それぞれが4x4、4x8、8x4、8x8、8x16、又は16x8のサイズを有する1つ又は複数の区画に分割することができる。したがって、異なる数のタップを備えるフィルタを準備し、区画の幅に従って選択的に適用することができる。例えば、8タップフィルタは8に等しいか又は8よりも大きい幅を有する区画に適用可能であり、4タップフィルタは8よりも小さい幅を有する区画に適用可能である。一実施形態では、こうした4タップフィルタは係数[−4 36 36 −4]を有する。JCT−VC草案E603は、符号化ユニット(CU)の概念を紹介している。NxNのサイズを有するCUは、NxN、NxN/2又はN/2xNのサイズを有する1つ又は複数の区画に分割可能である。CUの高さ又は幅がN又はN/2であるかどうかにかかわらず、異なるタップ数を備えるフィルタを選択的に適用可能である。
[0050]分数サンプル動き補償の上記の実施形態では、垂直分数サンプル補間(ステップ608)よりも水平分数サンプル補間(ステップ606)が先行する。符号器と復号器との間で予め順序に関する合意がある限り、この順序は交換可能であることに留意されたい。他の実施形態では、順序は符号器から復号器へと信号送信可能である。参照サンプルが8ビット幅の場合、水平及び垂直の補間の順序にかかわらず、順序計算の結果は同じとなる。その場合、符号器と復号器との間で順序に関する事前の合意は必要ない。
[0051]JCT−VC草案E603で考察された動き補償では、中間値が垂直に導出され水平に適用されるか、又は水平に導出され垂直に適用されるかにかかわらず、同じ分数サンプルが導出できる。これは、中間値が垂直に導出され水平に適用されるべきであるか、又は水平に導出され垂直に適用されるべきであるかに関して、符号器と復号器との間で事前の合意が不要であるという意味で、有益である。しかしながら、中間値は本発明におけるよりも高い精度を有し、第2のFIRフィルタをこれらの中間値に適用するコストは本発明の適用コストよりも高い。一般に、コストは精度に比例して上昇する。このコストは、精度が16ビット等の一般的なワードサイズを超えるソフトウェアでのコストよりもかなり高い可能性がある。こうした場合、精度は次の一般的なワードサイズに適合するよう、更に拡張される。例えば、精度が17ビットの中間値は32ビットに拡張されることになる。JCT−VC草案E603で考察されるようなより精度の高い中間値は、多大なコストの影響を有し、予測信号の正確さに関して著しい利点をもたらすことはない。
[0052]前述の本発明の実施形態では、水平及び垂直補間の順序は、符号器と復号器との間で固定される必要がある。しかしながら、水平及び垂直補間の順序を固定しても、符号器及び復号器にいかなるコストも発生させない。そればかりか、順序を固定することにより、動き補償は低い精度で動作可能であり、それでもなお十分に高い精度であって、乗算等の演算コストが引き下げられる。また、順序を固定することにより、分数サンプル補間全体を通じて計算精度が一定になる。したがってフィルタリング計算は、例えばサンプルの16ビット符号付き範囲及びフィルタ係数の8ビット符号付き範囲等の、サンプルと係数との間のすべての乗算が、固定ビット範囲内で実行可能であるという点で、簡略化され得る。すべての乗算が固定ビット範囲内で実行されるため、フィルタリング動作は、SIMDアーキテクチャ上で並行して効率良く実装され得る。
[0053]図6に戻ると、ステップ610で、導出されたサンプルに変換が適用される。こうした変換の例が、H.264/AVCのセクション8.4.2.3及びそのサブセクションで、重み付けされたサンプル予測プロセスとして説明されている。重み付けされたサンプル予測プロセスは、線形補間によって2つのサンプルセットを組み合わせる。変換は、フェードを含むシーンに関する符号化効率を向上させることができる。変換の結果として組み合わされたサンプルの値は、指定された範囲、例えば16ビット符号付き範囲内に収まるようにクリッピングされ得る。このような変換が不要な場合、ステップ610は省略可能であることに留意されたい。
[0054]次に、ステップ612で、動き補償について他の予測を生成する必要があるかどうかがチェックされる。例えば、双方向平均化が実行される場合、それらを平均化するために2つの予測を生成する必要がある。他の予測が必要であると決定された場合、プロセスはステップ602に戻る。ステップ614で、双方向予測を生成するために2つの予測が平均化される。双方向平均化が指示されない場合、ステップ614はスキップされる。
[0055]ステップ616で、生成された予測は有効な範囲まで縮小(スケーリング)及びクリッピングされる。ステップ616で実行される縮小動作は、ステップ604で実行されたスケーリング動作を取り消し、ステップ604でサンプルの左シフトに使用されたビットと同じ数のビットだけ、生成された予測を右シフトする。右シフト動作の前に丸めオフセットを追加し、縮小された値を最も近い整数方向に丸めることが好ましい。ステップ604でサンプルからオフセットが減算される場合、同じオフセットが予測に追加される。予測がクリッピングされる有効範囲は、典型的には{0...255}として定義され、ここで格納される参照サンプルは8ビット幅である。一般に、有効範囲はMビット幅の参照サンプルについて{0...2−1}として定義され得る。
[0056]本発明の実際の実装では、図6に示されるようにステップが別々に実行される必要はなく、いくつかのステップは組み合わせることができる。例えば、図6のステップでは別々に実行されたシフト動作を組み合わせることができる。その例として、ステップ614で実行された双方向平均化に含まれる右シフト動作と、ステップ616で実行された縮小に含まれる右シフト動作とを、組み合わせることができる。更に、例えば分数変位がなく、そのためFIRフィルタリングが不要な場合等、プロセスが簡略化可能な環境に対して、複数の機能又は回路を実装することができる。
[0057]図8はビデオ復号器301の機能モジュールを示し、図8では全体として参照番号800で示されている。これらの機能モジュールは、メモリ102内のソフトウェア103を実行するプロセッサ101によって実現される。図8では、エントロピー復号ユニット810が移動ピクチャ符号化装置400によって出力されたビットストリームBSを取得し、ビットストリームのエントロピー復号処理を実行する。次にエントロピー復号ユニット810は、量子化された変換係数QCを逆量子化/逆変換ユニット820に出力する。エントロピー復号ユニット810は、動きベクトルMVも動き補償/予測ユニット860に出力する。逆量子化/逆変換ユニット820は、逆量子化及び逆DCT変換の復号処理を量子化された変換係数QCで実行する。次に逆量子化/逆変換ユニット820は、残余信号RSを出力する。
[0058]加算器830は、動き補償ユニット860から取得された予測信号PSに残余信号RSを追加し、復号されたピクチャを非ブロック化フィルタ840に出力する。非ブロック化フィルタ840は、復号されたピクチャからブロックアーティファクトを消去し、これを参照メモリ850に格納する。復号されたピクチャはメモリ850から取り出され、出力信号OSとして出力される。
[0059]動き補償/予測ユニット860は、参照メモリ850に格納された参照ピクチャ内のサンプルを取り出し、図7に示されたような分数サンプル補間を実行する。この動き補償/予測ユニット860は、動きベクトルMVと分数サンプル補間が実行された参照ピクチャとに基づいて、予測を生成する。このようにして、動き補償/予測ユニット860は予測信号PSを加算器830に出力する。
[0060]図9は、ビデオ復号器800によって実行される高レベルの復号プロセスを示すフローチャートである。ステップ902で、動き補償/予測ユニット860は予測ブロックを生成する。ステップ904で、逆量子化/逆変換ユニット820は量子化された変換係数QCを復号し、残余信号RSを出力する。ステップ906で、加算器830は残余信号RSを予測信号PSに追加する。
[0061]当業者であれば、疑いなく前述の説明を読めば本発明の多くの変更及び修正が明らかとなるであろうが、例として表示及び説明された何れの特定の実施形態も、決して限定的であるものとみなされることを意図していないことを理解されよう。したがって、様々な実施形態の細部の参照は、それ自体で本発明に不可欠とみなされる特徴のみを示している特許請求の範囲を限定するものとは意図されない。

Claims (12)

  1. フレーム間予測の下で実行される動き補償のためのビデオ復号方法であって、
    参照ピクチャメモリから参照サンプルを取り出すステップと、
    第1の分数サンプル補間を前記取り出された参照サンプルに第1の方向で適用して、分数サンプルの第1のセットを生成するステップと、
    第2の分数サンプル補間を前記分数サンプルの第1のセットに第2の方向で適用して、分数サンプルの第2のセットを生成するステップと、
    を実装するためにビデオ復号器のプロセッサによって実行されるコンピュータ実行可能ステップを含み、
    前記参照サンプルは、第1のビット深度で表され、
    前記分数サンプルの第1のセットは、前記参照サンプルの第1のビット深度とは関係なく、一定である第2のビット深度で表され、
    前記分数サンプル補間が、
    [−1,4,−11,40,40,−11,4,−1]
    の係数を有する8タップFIRフィルタを適用して、4分の1画素サンプルを生成し、
    前記第2のビット深度は、前記分数サンプルを表現するために使用可能なビット数に等しく設定され、前記第1のビット深度から前記第2のビット深度への調整処理は、前記分数サンプルを表現するために使用可能なビット数から前記整数サンプルの第1のビット深度を引いたものに等しく設定される係数に基づく、
    方法。
  2. 前記分数サンプル補間が、前記分数サンプルが所望の精度を有するように、フィルタリングされた結果のそれぞれを切り捨てるステップを含む、請求項1に記載の方法。
  3. 前記第2のビット深度は、前記第1の分数サンプル補間及び前記第2の分数サンプル補間の補間プロセス全体にわたって一定である、請求項2に記載の方法。
  4. フィルタリングされた結果のそれぞれを切り捨てるステップが、切り捨てられた結果を負の無限大方向に丸めるステップを含む、請求項3に記載の方法。
  5. 前記参照サンプルの前記第1のビット深度は、8または10である、請求項1〜4のいずれか一項に記載の方法。
  6. 前記第2のビット深度は、14である、請求項1〜5のいずれか一項に記載の方法。
  7. フレーム間予測の下で実行される動き補償のためのビデオ復号装置であって、
    参照ピクチャメモリから参照サンプルを取り出す取り出し部と、
    第1の分数サンプル補間を前記取り出された参照サンプルに第1の方向で適用して、分数サンプルの第1のセットを生成する第1分数サンプル補間適用部と、
    第2の分数サンプル補間を前記分数サンプルの第1のセットに第2の方向で適用して、分数サンプルの第2のセットを生成する第2分数サンプル補間適用部と、
    を備え、
    前記参照サンプルは、第1のビット深度で表され、
    前記分数サンプルの第1のセットは、前記参照サンプルの第1のビット深度とは関係なく、一定である第2のビット深度で表され、
    前記分数サンプル補間が、
    [−1,4,−11,40,40,−11,4,−1]
    の係数を有する8タップFIRフィルタを適用して、4分の1画素サンプルを生成し、
    前記第2のビット深度は、前記分数サンプルを表現するために使用可能なビット数に等しく設定され、前記第1のビット深度から前記第2のビット深度への調整処理は、前記分数サンプルを表現するために使用可能なビット数から前記整数サンプルの第1のビット深度を引いたものに等しく設定される係数に基づく、
    ビデオ復号装置。
  8. 前記分数サンプル補間が、前記分数サンプルが所望の精度を有するように、フィルタリングされた結果のそれぞれを切り捨てることを含む、請求項7に記載のビデオ復号装置。
  9. 前記第2のビット深度は、前記第1の分数サンプル補間及び前記第2の分数サンプル補間の補間プロセス全体にわたって一定である、請求項8に記載のビデオ復号装置。
  10. フィルタリングされた結果のそれぞれを切り捨てることは、切り捨てられた結果を負の無限大方向に丸めることを含む、請求項8に記載のビデオ復号装置。
  11. 前記参照サンプルの前記第1のビット深度は、8または10である、請求項7〜10のいずれか一項に記載のビデオ復号装置。
  12. 前記第2のビット深度は、14である、請求項7〜11のいずれか一項に記載のビデオ復号装置。
JP2019002663A 2011-06-24 2019-01-10 動き補償予測のための方法及び装置 Active JP6707678B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020088029A JP6900547B2 (ja) 2011-06-24 2020-05-20 動き補償予測のための方法及び装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161501112P 2011-06-24 2011-06-24
US61/501,112 2011-06-24

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017251054A Division JP6467030B2 (ja) 2011-06-24 2017-12-27 動き補償予測のための方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020088029A Division JP6900547B2 (ja) 2011-06-24 2020-05-20 動き補償予測のための方法及び装置

Publications (2)

Publication Number Publication Date
JP2019071661A JP2019071661A (ja) 2019-05-09
JP6707678B2 true JP6707678B2 (ja) 2020-06-10

Family

ID=47422960

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2014517194A Active JP5625139B2 (ja) 2011-06-24 2012-06-22 動き補償予測のための方法及び装置
JP2014152268A Active JP5865965B2 (ja) 2011-06-24 2014-07-25 動き補償予測のための方法及び装置
JP2015177699A Active JP6101327B2 (ja) 2011-06-24 2015-09-09 動き補償予測のための方法及び装置
JP2016251782A Active JP6271697B2 (ja) 2011-06-24 2016-12-26 動き補償予測のための方法及び装置
JP2017251054A Active JP6467030B2 (ja) 2011-06-24 2017-12-27 動き補償予測のための方法
JP2019002663A Active JP6707678B2 (ja) 2011-06-24 2019-01-10 動き補償予測のための方法及び装置
JP2020088029A Active JP6900547B2 (ja) 2011-06-24 2020-05-20 動き補償予測のための方法及び装置

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2014517194A Active JP5625139B2 (ja) 2011-06-24 2012-06-22 動き補償予測のための方法及び装置
JP2014152268A Active JP5865965B2 (ja) 2011-06-24 2014-07-25 動き補償予測のための方法及び装置
JP2015177699A Active JP6101327B2 (ja) 2011-06-24 2015-09-09 動き補償予測のための方法及び装置
JP2016251782A Active JP6271697B2 (ja) 2011-06-24 2016-12-26 動き補償予測のための方法及び装置
JP2017251054A Active JP6467030B2 (ja) 2011-06-24 2017-12-27 動き補償予測のための方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020088029A Active JP6900547B2 (ja) 2011-06-24 2020-05-20 動き補償予測のための方法及び装置

Country Status (17)

Country Link
US (4) US9860532B2 (ja)
EP (6) EP3367687B1 (ja)
JP (7) JP5625139B2 (ja)
KR (5) KR101855975B1 (ja)
CN (5) CN106878734B (ja)
AU (6) AU2012272779B2 (ja)
BR (1) BR112013032716B1 (ja)
CA (5) CA2839704C (ja)
DK (1) DK3826307T3 (ja)
ES (6) ES2847955T3 (ja)
FI (1) FI3826307T3 (ja)
HU (4) HUE053980T2 (ja)
MX (3) MX337794B (ja)
PL (6) PL3826307T3 (ja)
PT (6) PT3367687T (ja)
RU (7) RU2559839C1 (ja)
WO (1) WO2012177961A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT3367687T (pt) 2011-06-24 2021-04-26 Ntt Docomo Inc Método e aparelho para a previsão da compensação de movimento
CA2976108C (en) * 2011-06-28 2020-06-30 Samsung Electronics Co., Ltd. Method for image interpolation using asymmetric interpolation filter and apparatus therefor
JP2016519854A (ja) 2013-04-05 2016-07-07 シャープ株式会社 色ビット深度スケーリングを用いたビデオ圧縮
CN104618680B (zh) * 2015-01-21 2017-09-05 北京瀚景锦河科技有限公司 一种视频分辨率的压缩方法
US10257524B2 (en) * 2015-07-01 2019-04-09 Mediatek Inc. Residual up-sampling apparatus for performing transform block up-sampling and residual down-sampling apparatus for performing transform block down-sampling
WO2019072368A1 (en) 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. LIMITED MEMORY ACCESS WINDOW FOR MOTION VECTOR REFINEMENT
CN112422976B (zh) * 2019-08-23 2024-04-16 北京大学 一种视频编码标准中的亮度分量运动补偿方法及视频编码方法
EP4011077A4 (en) 2019-09-13 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SAMPLE WEIGHTED BIDIRECTIONAL PREDICTION IN VIDEO CODING
WO2021061322A1 (en) * 2019-09-24 2021-04-01 Alibaba Group Holding Limited Motion compensation methods for video coding
EP4029250A4 (en) * 2019-09-30 2023-01-04 Huawei Technologies Co., Ltd. INTERPOLATION FILTER FOR INTER PREDICTION DEVICE AND VIDEO CODING METHOD
US11523112B2 (en) 2020-04-09 2022-12-06 Tencent America LLC Intra coding with L-type partitioning tree

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69835431T2 (de) * 1997-06-03 2007-06-06 Hitachi, Ltd. Bildkodier-und-dekodierverfahren und-vorrichtung
JPH1169345A (ja) * 1997-06-11 1999-03-09 Fujitsu Ltd フレーム間予測動画像符号化装置及び復号装置並びにフレーム間予測動画像符号化方法及び復号方法
KR100739281B1 (ko) * 2000-02-21 2007-07-12 주식회사 팬택앤큐리텔 움직임 추정 방법 및 장치
DE10022264A1 (de) 2000-05-08 2001-11-22 Micronas Munich Gmbh Videosignal-Decoder und Verfahren zur Beseitigung von Bildstörungen in einem Videobild
US6950469B2 (en) * 2001-09-17 2005-09-27 Nokia Corporation Method for sub-pixel value interpolation
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US7305034B2 (en) * 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
JP4161676B2 (ja) 2002-10-18 2008-10-08 ソニー株式会社 信号処理装置、その方法およびそのプログラム
US20040076333A1 (en) * 2002-10-22 2004-04-22 Huipin Zhang Adaptive interpolation filter system for motion compensated predictive video coding
WO2005104564A1 (ja) * 2004-04-21 2005-11-03 Matsushita Electric Industrial Co., Ltd. 動き補償装置
US8731054B2 (en) * 2004-05-04 2014-05-20 Qualcomm Incorporated Method and apparatus for weighted prediction in predictive frames
EP1617672A1 (en) * 2004-07-13 2006-01-18 Matsushita Electric Industrial Co., Ltd. Motion estimator/compensator including a 16-bit 1/8 pel interpolation filter
CA2584765A1 (en) * 2004-10-21 2006-05-04 Sony Electonics Inc. Supporting fidelity range extensions in advanced video codec file format
US8208564B2 (en) * 2005-06-24 2012-06-26 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation
CN101326752B (zh) 2005-12-08 2013-02-13 皇家飞利浦电子股份有限公司 用于具有自适应保护间隔的单载波块传输的***、设备和方法
KR100772390B1 (ko) * 2006-01-23 2007-11-01 삼성전자주식회사 방향 보간 방법 및 그 장치와, 그 보간 방법이 적용된부호화 및 복호화 방법과 그 장치 및 복호화 장치
US8705630B2 (en) * 2006-02-10 2014-04-22 Nvidia Corporation Adapting one type of encoder to another type of encoder
WO2007114368A1 (ja) 2006-03-30 2007-10-11 Kabushiki Kaisha Toshiba 画像符号化装置及び方法並びに画像復号化装置及び方法
JP5039142B2 (ja) * 2006-10-25 2012-10-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 品質スケーラブルな符号化方法
CN100551073C (zh) * 2006-12-05 2009-10-14 华为技术有限公司 编解码方法及装置、分像素插值处理方法及装置
EP2127391A2 (en) * 2007-01-09 2009-12-02 Nokia Corporation Adaptive interpolation filters for video coding
US9118927B2 (en) * 2007-06-13 2015-08-25 Nvidia Corporation Sub-pixel interpolation and its application in motion compensated encoding of a video signal
CN100568920C (zh) * 2007-07-24 2009-12-09 浙江大学 串行输入并行输出的视频图像亮度插值的方法和装置
US8819095B2 (en) * 2007-08-28 2014-08-26 Qualcomm Incorporated Fast computation of products by dyadic fractions with sign-symmetric rounding errors
CN100562114C (zh) * 2007-08-30 2009-11-18 上海交通大学 视频解码方法与解码装置
US8208560B2 (en) * 2007-10-15 2012-06-26 Intel Corporation Bit depth enhancement for scalable video coding
US8204333B2 (en) * 2007-10-15 2012-06-19 Intel Corporation Converting video and image signal bit depths
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) * 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US8831086B2 (en) * 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
ES2602100T3 (es) * 2008-04-16 2017-02-17 Ge Video Compression, Llc Escalabilidad de profundidad de bits
US9326004B2 (en) * 2008-06-03 2016-04-26 Broadcom Corporation Reduced memory mode video decode
JP5697301B2 (ja) * 2008-10-01 2015-04-08 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
JP5416271B2 (ja) * 2009-04-20 2014-02-12 ドルビー ラボラトリーズ ライセンシング コーポレイション 多層映像配信のための適応補間フィルタ
EP2442569A1 (en) 2009-06-09 2012-04-18 Sony Corporation Image processing device and method
JP2011061320A (ja) * 2009-09-07 2011-03-24 Sony Corp 動き補償装置、符号化装置、復号装置、これらにおける処理方法およびプログラム
CN101715125B (zh) * 2009-09-11 2011-09-28 中山大学 一种用于h.264视频编码的联合分数点运动估计和插值方法
WO2011086672A1 (ja) * 2010-01-13 2011-07-21 株式会社 東芝 動画像符号化装置および復号装置
CN101778280B (zh) * 2010-01-14 2011-09-28 山东大学 一种基于avs运动补偿亮度插值运算的电路及方法
JP5323252B2 (ja) 2010-03-30 2013-10-23 株式会社東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
GB201007351D0 (en) * 2010-04-30 2010-06-16 Imagination Tech Ltd Varying temporal interpolation in a motion compensated frame interpolation system
US9317896B2 (en) 2010-07-09 2016-04-19 Samsung Electronics Co., Ltd. Image interpolation method and apparatus
US9036706B2 (en) * 2011-06-22 2015-05-19 Google Inc. Fractional pixel interpolation filter for video compression
PT3367687T (pt) * 2011-06-24 2021-04-26 Ntt Docomo Inc Método e aparelho para a previsão da compensação de movimento

Also Published As

Publication number Publication date
JP2017098984A (ja) 2017-06-01
RU2739499C1 (ru) 2020-12-25
AU2019240711B2 (en) 2020-12-24
MX352293B (es) 2017-11-17
ES2683857T3 (es) 2018-09-28
HUE053960T2 (hu) 2021-08-30
CN103650490A (zh) 2014-03-19
EP3367686B1 (en) 2021-01-13
AU2012272779A1 (en) 2013-11-28
US20190098320A1 (en) 2019-03-28
PT3751856T (pt) 2023-08-17
PL3367687T3 (pl) 2021-08-02
AU2016256712B2 (en) 2018-04-26
US10171816B2 (en) 2019-01-01
PL3367686T3 (pl) 2021-06-28
PL2916549T3 (pl) 2018-10-31
ES2822248T3 (es) 2021-04-29
EP3367686A1 (en) 2018-08-29
RU2664389C1 (ru) 2018-08-17
EP3367687A1 (en) 2018-08-29
PT2916549T (pt) 2018-10-04
CN104967851A (zh) 2015-10-07
US20190098319A1 (en) 2019-03-28
MX2013014726A (es) 2014-02-27
RU2014102188A (ru) 2015-07-27
CN106162187A (zh) 2016-11-23
BR112013032716A2 (pt) 2017-01-24
EP2724540A1 (en) 2014-04-30
HUE064092T2 (hu) 2024-02-28
PL3751856T3 (pl) 2023-10-09
JP2014520488A (ja) 2014-08-21
KR20160079931A (ko) 2016-07-06
PL2724540T3 (pl) 2021-04-19
KR20180049218A (ko) 2018-05-10
KR101988409B1 (ko) 2019-06-12
HUE062673T2 (hu) 2023-12-28
RU2016113727A (ru) 2017-10-16
US20140119442A1 (en) 2014-05-01
EP2724540B1 (en) 2020-09-16
CA2839704C (en) 2018-05-01
ES2953082T3 (es) 2023-11-08
AU2012272779B2 (en) 2016-09-08
DK3826307T3 (da) 2023-11-06
AU2016256712A1 (en) 2016-11-24
JP2018082459A (ja) 2018-05-24
CN103650490B (zh) 2017-04-05
CA3083886A1 (en) 2012-12-27
JP2014222941A (ja) 2014-11-27
CA3158173A1 (en) 2012-12-27
CA3083886C (en) 2022-06-28
EP2916549B1 (en) 2018-07-18
KR20170070262A (ko) 2017-06-21
AU2018204505A1 (en) 2018-07-12
WO2012177961A1 (en) 2012-12-27
CA2997877A1 (en) 2012-12-27
KR101855975B1 (ko) 2018-05-09
JP5625139B2 (ja) 2014-11-12
JP2020145723A (ja) 2020-09-10
CA2904551A1 (en) 2012-12-27
JP6467030B2 (ja) 2019-02-06
ES2847955T3 (es) 2021-08-04
AU2018204503B2 (en) 2019-07-18
AU2020294315B2 (en) 2021-11-04
EP2724540A4 (en) 2014-11-05
US10721481B2 (en) 2020-07-21
BR112013032716B1 (pt) 2020-11-03
JP6101327B2 (ja) 2017-03-22
AU2019240711A1 (en) 2019-10-24
HUE053980T2 (hu) 2021-08-30
RU2584546C2 (ru) 2016-05-20
RU2683591C1 (ru) 2019-03-29
KR101748810B1 (ko) 2017-06-19
CA2839704A1 (en) 2012-12-27
RU2634703C2 (ru) 2017-11-03
JP6900547B2 (ja) 2021-07-07
RU2721004C1 (ru) 2020-05-15
PT3367686T (pt) 2021-02-08
RU2015113433A (ru) 2015-09-10
CN106878734B (zh) 2019-11-05
JP2016015761A (ja) 2016-01-28
FI3826307T3 (fi) 2023-10-18
EP2916549A1 (en) 2015-09-09
AU2018204503A1 (en) 2018-07-12
US10735746B2 (en) 2020-08-04
ES2869948T3 (es) 2021-10-26
JP5865965B2 (ja) 2016-02-17
AU2012272779A8 (en) 2013-12-12
AU2018204505B2 (en) 2019-07-18
EP3751856B1 (en) 2023-07-12
KR20140026557A (ko) 2014-03-05
PT3826307T (pt) 2023-10-19
CN104967851B (zh) 2018-06-29
EP3367687B1 (en) 2021-04-07
CN106162187B (zh) 2019-06-25
CA2997877C (en) 2020-08-04
MX337794B (es) 2016-03-18
EP3826307A1 (en) 2021-05-26
AU2020294315A1 (en) 2021-02-18
CN107105263B (zh) 2019-04-26
KR101662654B1 (ko) 2016-10-05
CA2904551C (en) 2018-05-01
CN106878734A (zh) 2017-06-20
EP3751856A1 (en) 2020-12-16
KR101747122B1 (ko) 2017-06-14
US9860532B2 (en) 2018-01-02
CN107105263A (zh) 2017-08-29
AU2019240711C1 (en) 2021-04-15
ES2963964T3 (es) 2024-04-03
PT2724540T (pt) 2020-10-19
PL3826307T3 (pl) 2024-01-29
EP2724540B8 (en) 2020-11-04
KR20160082268A (ko) 2016-07-08
JP2019071661A (ja) 2019-05-09
PT3367687T (pt) 2021-04-26
EP3826307B1 (en) 2023-10-04
US20180054622A1 (en) 2018-02-22
JP6271697B2 (ja) 2018-01-31
RU2559839C1 (ru) 2015-08-10

Similar Documents

Publication Publication Date Title
JP6707678B2 (ja) 動き補償予測のための方法及び装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200520

R150 Certificate of patent or registration of utility model

Ref document number: 6707678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250