JP6419170B2 - ビデオピクチャを符号化および復号する方法および装置 - Google Patents

ビデオピクチャを符号化および復号する方法および装置 Download PDF

Info

Publication number
JP6419170B2
JP6419170B2 JP2016520029A JP2016520029A JP6419170B2 JP 6419170 B2 JP6419170 B2 JP 6419170B2 JP 2016520029 A JP2016520029 A JP 2016520029A JP 2016520029 A JP2016520029 A JP 2016520029A JP 6419170 B2 JP6419170 B2 JP 6419170B2
Authority
JP
Japan
Prior art keywords
matching
picture
region
denoising
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016520029A
Other languages
English (en)
Other versions
JP2018513571A (ja
Inventor
マルティン ペッテション,
マルティン ペッテション,
ケネト アンデション,
ケネト アンデション,
ペール ウェナーストン,
ペール ウェナーストン,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル), テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2018513571A publication Critical patent/JP2018513571A/ja
Application granted granted Critical
Publication of JP6419170B2 publication Critical patent/JP6419170B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本明細書で開示される技術は、一般的にはデジタル画像処理の分野に関し、詳細にはビデオピクチャを符号化する方法、エンコーダ、ビデオピクチャを復号する方法、デコーダ、ならびに関連するコンピュータプログラムおよびコンピュータプログラム製品に関する。
高効率ビデオ符号化(HEVC)は、時間予測と空間予測の両方を利用する、標準化されたブロックベースのビデオコーデックである。空間予測は、現在のピクチャ内からのイントラ予測を使用して実現され、時間予測は、以前に復号された参照ピクチャからのブロックレベルのインター予測または双方向インター予測を使用して実現される。残差(または予測誤差)と呼ばれる、元のピクセルデータと予測されたピクセルデータとの間の差異は、周波数領域に変換され、たとえばコンテキスト適応型可変長符号化(CAVLC)またはコンテキスト適応型二値算術符号化(CABAC)を使用して量子化およびエントロピー符号化される。その後、残差は、モード選択や動きベクトル(すべてエントロピー符号化されている)などの必要な予測パラメータと共に、受け手側のデコーダに伝送される。変換された残差を量子化することで、ビデオのビットレートと品質との間のトレードオフが制御され得、その際に、量子化のレベルが量子化パラメータ(QP)により判断される。受け手側のデコーダは、エントロピー復号、逆量子化、および逆変換を実行して残差を取得する。次にデコーダは、ピクチャを再構築するために、イントラ予測またはインター予測に残差を追加する。
国際電気通信連合電気通信標準化部門(ITU−T)のビデオ符号化専門家グループ(VCEG)は、HEVCの後継の開発を近年になって開始した。最初の検証段階では、キーテクニカルエリア(KTA)と呼ばれる実験用ソフトウェアコーデックが使用されている。KTAは、HEVCの基準コーデックソフトウェアであるHEVCテストモデル(HM)に基づいている。
KTAソフトウェアで提案および包含されているツールの1つは、フレームレートアップコンバージョン(FRUC)である。FRUCツールは、動き情報をデコーダ側で導き出す動き予測ツールである。FRUCには、テンプレートマッチングとバイラテラルマッチングの2つの異なるモードがある。
図1は、テンプレートマッチングの原理を示す。テンプレートマッチングは、テンプレート画像にマッチする画像の小部分を見つけるデジタル画像処理技法である。現在のピクチャの現在のブロックBが復号されるため、検索画像(テンプレートA)が選択される。デコーダは、現在のピクチャ(Cur Picと図示)の現在のブロックBに隣接するテンプレート領域Aを、参照ピクチャ(Ref0と図示)の同じテンプレート領域Aとマッチさせることにより、動きベクトルを導き出す。最良にマッチするテンプレート領域を含む、参照ピクチャRef0の予測領域が、現在のブロックBの予測として選択される。
図2は、バイラテラルマッチングの原理を示す。バイラテラルマッチングでは、前のピクチャ(Ref0)および後のピクチャ(Ref1)からブロック(またはピクチャ)が予測される。参照ピクチャ(Ref0およびRef1)の2つのブロック間の現在のブロック(Cur blockと図示)に沿った連続的な動作軌道(図では点線で示されている)が推測されて、直線運動がモデル化される。現在のブロックと最良にマッチするブロックとの間の変位が、動きベクトルである。前のピクチャRef0と現在のピクチャCurPic(これらのピクチャは時間差TD0を有する)の間の動きベクトルがMV0で示されており、現在のピクチャCurPicと後のピクチャRef1(これらのピクチャは時間差TD1を有する)の間の動きベクトルがMV1で示されている。動きベクトルMV0およびMV1は、時間差TD0およびTD1に比例する。予測誤差を最小化する動作軌道に沿った動きベクトルが選択され、対応する参照予測ブロックが現在のピクチャCurPicの現在のブロックの予測を内挿(または外挿)するために使用される。
デジタルカメラまたは従来型のフィルムカメラでキャプチャされた自然画像は、画像センサのピクセル当たり光子数の低さや、カメラ内の埃など、さまざまなソースからノイズを拾う。さらに、ノイズにはいくつかの種類がある。たとえば、ごま塩ノイズは、ピクセルがその周囲のピクセルと強度または色の点で大きく異なることを特徴とする。これに対し、別の種類のノイズであるガウスノイズは、各ピクセルのノイズが、典型的には、元の値または意図された値に比べてわずかに変化するだけである。
ノイズが入った画像は、テンプレートマッチングとバイラテラルマッチングの両方で、予測精度を悪化させる可能性がある。これは、ピクセルのノイズがピクチャ間で変わる傾向があるからである。前処理工程でのビデオのノイズ除去は、この問題に対処する方法の1つであるが、一方のノイズ除去の量と、他方の細部のレベルとのバランスをとるのは難しい。ピクチャが同じ領域で過剰にノイズ除去され、実際の細部が取り除かれる恐れがある。
この問題に対処するもう1つの方法は、エンコーダ側でノイズ除去フィルタのフィルタ強度のレート歪みを決定し、フィルタ強度をビットストリームでシグナリングすることである。ただし、この方法では追加のビットが必要となり、圧縮効率に悪影響が出る。
よって、取り除くことができるノイズの量と、維持できる細部のレベルとの間にトレードオフが存在し、適切なバランスを見つけるのが困難である。
本教示の目的は、上述した問題に対処し、特にテンプレートマッチング法やバイラテラルマッチング法などのマッチング方法で、予測精度を向上させることである。
目的は、態様によると、ビデオピクチャをビデオビットストリームに符号化するエンコーダで実行される方法によって達成される。この方法は、参照ピクチャのノイズ除去バージョンを取得することと、マッチング手順を少なくとも1回実行することであり、マッチング手順が、参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、ノイズ除去バージョンの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることとを含むマッチング手順を実行することと、現在のピクチャのブロックを、そのブロックに対して、参照ピクチャの第1の参照領域に基づく第1の予測領域またはノイズ除去バージョンの第2の参照領域に基づく第2の予測領域を選択することにより符号化することであり、第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が選択される符号化することとを含む。
この方法の利点は、ノイズを除去するために、参照ピクチャの参照領域および/または現在のブロックのテンプレート領域にノイズ除去フィルタを適用してからマッチングを実行することで、テンプレートマッチングおよびバイラテラルマッチングの予測が向上することである。デコーダ側のマッチングの予測が向上すると、圧縮効率が向上することを意味する。なぜなら、エンコーダとデコーダの両方でマッチング検索が実行される場合に、余分なシグナリングが不要だからである。
目的は、態様によると、ビデオピクチャをビデオビットストリームに符号化するエンコーダ用のコンピュータプログラムにより達成される。このコンピュータプログラムは、エンコーダの少なくとも1つのプロセッサで実行されたときに、上述した方法をエンコーダに実行させるコンピュータプログラムコードを含む。
目的は、態様によると、上述したコンピュータプログラムと、そのコンピュータプログラムが格納されるコンピュータ可読手段とを備えるコンピュータプログラム製品により達成される。
目的は、態様によると、ビデオピクチャをビデオビットストリームに符号化するエンコーダにより達成される。このエンコーダは、参照ピクチャのノイズ除去バージョンを取得し、参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、ノイズ除去バージョンの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、現在のピクチャのブロックを、そのブロックに対して、参照ピクチャの第1の参照領域に基づく第1の予測領域またはノイズ除去バージョンの第2の参照領域に基づく第2の予測領域を選択することにより符号化し、第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が選択されるように構成される。
目的は、態様によると、ビデオビットストリームからビデオピクチャを復号するデコーダで実行される方法により達成される。この方法は、参照ピクチャのノイズ除去バージョンを取得することと、マッチング手順を少なくとも1回実行することであり、マッチング手順が、参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、ノイズ除去バージョンの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることとを含む、マッチング手順を実行することと、第2のピクチャのブロックを、このブロックに対して、参照ピクチャの第1の参照領域に基づく第1の予測領域またはノイズ除去バージョンの第2の参照領域に基づく第2の予測領域を選択することにより復号することであり、第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が選択される、復号することとを含む。
目的は、態様によると、ビデオビットストリームからビデオピクチャを復号するデコーダ用のコンピュータプログラムにより達成される。このコンピュータプログラムは、デコーダの少なくとも1つのプロセッサで実行されたときに、上述した方法をデコーダに実行させるコンピュータプログラムコードを含む。
目的は、態様によると、上述したコンピュータプログラムと、そのコンピュータプログラムが格納されるコンピュータ可読手段とを含むコンピュータプログラム製品により達成される。
目的は、態様によると、ビデオビットストリームからビデオピクチャを復号するデコーダにより達成される。このデコーダは、参照ピクチャのノイズ除去バージョンを取得し、参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、ノイズ除去バージョンの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、現在のピクチャのブロックを、そのブロックに対して、参照ピクチャの第1の参照領域に基づく第1の予測領域またはノイズ除去バージョンの第2の参照領域に基づく第2の予測領域を選択することにより復号し、第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が選択されるように構成される。
本教示のさらなる特徴および利点は、以下の説明および添付の図面を読むことで明らかとなる。
テンプレートマッチングの原理を示す図である。 バイラテラルマッチングの原理を示す図である。 本明細書で開示される実施形態を実装することができる環境を概略的に示す図である。 本教示の実施形態に係る、テンプレートマッチングのノイズ除去の例を示す図である。 本教示の実施形態に係る、テンプレートマッチングのノイズ除去の例を示す図である。 本教示の実施形態に係る、テンプレートマッチングのノイズ除去の例を示す図である。 本教示の実施形態に係る、バイラテラルマッチングのノイズ除去の例を示す図である。 本教示に係る、エンコーダでの方法のステップにわたるフローチャートである。 本教示に係る、デコーダでの方法のステップにわたるフローチャートである。 エンコーダと、本教示に係る実施形態を実装する手段とを概略的に示す図である。 デコーダと、本教示に係る実施形態を実装する手段とを概略的に示す図である。 本教示に係る実施形態を実装するための機能モジュール/ソフトウェアモジュールを含むエンコーダを示す図である。 本教示に係る実施形態を実装するための機能モジュール/ソフトウェアモジュールを含むデコーダを示す図である。
以下の説明では、十分な理解を提供するために、限定ではなく説明を目的として、特定のアーキテクチャ、インターフェイス、技法等の具体的な詳細事項が記載される。その他の場合は、不要な詳細事項によって説明があいまいにならないように、既知の装置、回路、および方法の詳細な説明を省略する。同一の符号は、説明全体を通じて、同一または類似の要素を指す。
ノイズ除去またはノイズ低減は、信号中のノイズを低減する処理である。ノイズを低減する方法はさまざまであり、その例を以下で最初に示す。
線形平滑化フィルタ:ローパス操作または平滑化操作を備える畳み込みフィルタを使用して、画像をぼかすことができる。一例として、各ピクセルとそのピクセルに隣接するピクセルとの調和を高めるガウスぼかしフィルタがある。
異方性拡散:この方法では、平滑化偏微分方程式を使用して画像が平滑化される。この1つのバージョンはガウスフィルタであるが、エッジをぼかすことなく画像がノイズ除去され得るようにエッジを検出するよう設計された拡散係数を使用する。
非局所的平均:もう1つのアプローチは、ピクチャのすべてのピクセルを非局所的に平均化することによるピクセルの平均化に基づく。ピクセルの重み付けの量は、そのピクセルの周囲の小領域およびノイズ除去するピクセルの周囲の小領域の類似度に基づき得る。
時間フィルタ:時間フィルタは、ピクセルを時間の経過にわたり平均化するために、ビデオで使用され得る。複数のピクチャのピクセルを平均化するときにゴーストを防ぐために、動き補正が適用され得る。
非線形フィルタ:非線形ノイズ除去フィルタの例として、隣接するピクセルの中央値をノイズ除去するピクセルの値として選択する、中央値フィルタがある。
語彙のメモとして、本明細書では「ピクチャ」という用語が使用される。ITU−Tの推奨(たとえば、H.265)では、ピクチャはフレームまたはフィールドを含み得るが、1つの符号化ビデオシーケンス(CVS)では、すべてのピクチャがフレームであるか、またはすべてのピクチャがフィールドであるかのいずれかであることが留意される。技術分野では、「フレーム」という用語は、「ピクチャ」という用語と同じ意味でしばしば使用されることが留意され得る。
簡単に言うと、本教示は、多様な実施形態で、バイラテラルマッチングやテンプレートマッチングなどのデコーダ側マッチングを使用するときの予測を向上させる。これは、(テンプレートまたはバイラテラル)マッチングが実行される前に参照領域にノイズ除去フィルタを適用することにより実現される。複数の異なるノイズ除去フィルタまたはフィルタ強度が、デコーダ側のマッチング手順でテストされ得る。
図3は、本明細書で開示される実施形態が実装され得る環境を概略的に示す。エンコーダ30は、入力ビデオストリーム100を、符号化されたビデオを含むビットストリーム200に符号化するために使用される。ビットストリーム200は、たとえば無線または有線の接続を使用して、デコーダ40に転送される。デコーダ40は、受け取ったビットストリーム200を読み込んで復号し、入力ビデオストリーム100に対応する出力ビデオストリーム300を作成する。符号化は損失を伴う可能性があり、よって出力ビデオストリーム300は入力ビデオストリーム100と同一ではない。知覚される品質の損失は、ビットストリーム200のビットレートに依存する。ビットレートが高い場合、エンコーダ30は、高品質な出力ビデオストリーム300を可能にするビットストリーム200を作成することができる。
ビデオの符号化/復号は、たとえば、高効率ビデオ符号化(HEVC)、動画専門家集団(MPEG)−4、H.263、H.264、およびMPEG−2のいずれか1つに基づき得る。ビットストリームを低いビットレート要件で提供することで、最終的な出力ビデオ300を高い品質で生成することができる。代替(または追加)で、ビットストリーム200に低い帯域幅が求められる。よって、符号化効率を向上させると有利である。
図4a、図4b、および図4cは、本教示の実施形態に係る、テンプレートマッチングのノイズ除去の例を示す。詳細には、図4a、図4b、および図4cは、ノイズ除去フィルタが参照ピクチャ7に適用される実施形態を示す。図4aは参照ピクチャ7を示し、図4bはノイズ除去されたときの参照ピクチャ7を示し(ノイズ除去された参照ピクチャの符号は7’)、図4cは現在のピクチャ6を示す。簡単に言うと、ノイズが混じった参照ピクチャ7がノイズ除去されて、ノイズ除去された参照ピクチャ7’ができあがる。参照ピクチャ7の参照テンプレート領域4と、ノイズ除去された参照ピクチャ7’の参照テンプレート領域4’とは、現在のピクチャ6のテンプレート領域3とそれぞれ比較される。
図4aでは、参照ピクチャ7は、比較的ノイズが多いものとして示されることを意図されている。参照ピクチャ7は、予測領域5に隣接する2つの参照テンプレート領域4を含む。参照テンプレート領域4は、符号化される現在のピクチャ6(図4c)のブロック2の予測を見つけるためのマッチング手順で使用され得る。なお、2つのテンプレート領域は、本明細書では異なる実施形態を純粋に説明および例示するために使用される。参照テンプレート領域4の数は、実際には、本明細書で使用されている2つとは異なる可能性がある。このことを、図4aは追加の参照テンプレート領域4_addにより示している。そのような追加の参照テンプレート領域は、予測領域5に隣接する任意の場所に位置し得る。
図4bでは、ノイズ除去された参照ピクチャ7’が示されている。ノイズ除去された参照ピクチャ7’は、参照ピクチャ7のノイズ除去バージョンである。ノイズ除去は、たとえば最初に言及したノイズ除去方法(線形平滑化フィルタ、異方性拡散等)のいずれかなどに従って任意の既知の態様で実行され得る。
参照ピクチャ7をノイズ除去した後、ノイズ除去された参照ピクチャ7’と参照ピクチャ7のどちらが最良のテンプレートマッチを示すかがテストされる。このために、たとえばテンプレートマッチング(図4a、図4b、図4cに図示するような)やバイラテラルマッチング(図5に図示するような)などのテンプレートマッチング手順を行うことができる。参照ピクチャ7の参照テンプレート領域4は、現在のピクチャ6のテンプレート領域3にマッチされる。ノイズ除去された参照ピクチャ7’の参照テンプレート領域4’も、現在のピクチャ6のテンプレート領域3にマッチされる。参照ピクチャ7の参照テンプレート領域4とノイズ除去された参照ピクチャ7’の参照テンプレート領域4’のどちらが現在のピクチャ6のテンプレート領域3に最良にマッチするかが判断される。最良にマッチする参照テンプレート4、4’に対応する予測領域5、5’が、現在のブロック2の予測として使用される。つまり、2つの参照ピクチャバージョンのうち、最良のテンプレートマッチを示す予測領域5、5’が、現在のブロック2の予測として使用される。マッチは、たとえば、テンプレートに対する差分絶対値和(SAD)が最小化されるか、または平均二乗誤差(MSE)が最小化されるときに、最良のマッチであると考えられ得る。サイズがm×nピクセルである長方形のブロックIと、サイズがm×nピクセルである長方形のブロックKとの間のMSEは、以下に基づいて計算され得る。
Figure 0006419170
図5は、バイラテラルマッチングのノイズ除去の例を示す。バイラテラルマッチングが使用されるこの実施形態では、前のピクチャRef0(符号11で図示)、詳細には表示順で現在のピクチャCurPic(符号13で図示)の前の任意のピクチャ11と、後のピクチャRef1(符号12で図示)、詳細には表示順で現在のピクチャ13の後の任意のピクチャ12とが、それらのノイズ除去バージョンである11’、12’を得るためにノイズ除去される。別の実施形態では、バイラテラルマッチングについて、参照ピクチャ11、12の両方は、表示順では現在のピクチャ13の後であるが、復号順では現在のピクチャ13の前である。さらに別の実施形態では、バイラテラルマッチングについて、参照ピクチャ11、12の両方は、表示順と復号順の両方で現在のピクチャ13の前である。よって現在のピクチャ13の現在のブロック16の予測は、これら2つの参照ピクチャ11、12から外挿され得る。一部の実施形態では、バイラテラルマッチングについて、2つの参照ピクチャ11、12のうちの1つのみがノイズ除去される。そのような実施形態は、ノイズ除去のレベルの制御が簡素化されるため、好ましくあり得る。両方の参照ピクチャをノイズ除去することも考えられるが、フィルタを選択するときに注意が必要である。強過ぎるフィルタを使用すると、両者の間の最良のマッチは依然として得られるが、内挿される第5の予測領域は、符号化されているブロックへのマッチが悪化する可能性がある。極端なケースでは、2つの参照ピクチャが、それぞれ単一の色のみからなるレベルまでノイズ除去される。
ノイズ除去フィルタの種類および/またはフィルタの強度は、マッチング手順で導き出され得る。最良のマッチが見つかると、現在のピクチャ13の現在のブロック16の予測が、参照ピクチャ11、12のそれらのマッチ領域14、15から導き出され得る。代替で、2つの参照ピクチャの一方(たとえば、前のピクチャ11)に適用されたものと同じノイズ除去フィルタが他方の参照ピクチャ(たとえば、後のピクチャ12)にも適用された後で、現在のブロック16の予測が、参照ピクチャのノイズ除去バージョン11’、12’のマッチ位置から導き出される。さらに別の代替で、ピクチャの細部(ノイズも含む)を予測用に可能な限り保持するため、最良の(自然な)マッチを確実に実現しつつ、現在のブロック16の予測を、2つの参照ピクチャのノイズ除去されていないバージョンである11、12のマッチ位置から導き出すこともできる。
以下では、さまざまな特徴および実施形態について説明するが、これらの特徴および実施形態は、テンプレートマッチングの使用に加えて、バイラテラルマッチングの使用とも組み合わせることができることが留意される。さらに、参照番号は、時間マッチングおよびバイラテラルマッチングが使用され得る実施形態についての図4a、図4b、図4c、および図5に関連する。
よって、これまでに説明した実施形態の変種であって、さらなる実施形態を示す変種では、ノイズ除去フィルタの2つ以上の異なる強度、代替でノイズ除去フィルタの2つ以上の種類が、参照ピクチャ7の3つ以上のバージョンのセットを作成するために適用される。このうち、1つのバージョンは、ノイズ除去されていないバージョンである(すなわち、テンプレートマッチング用の参照ピクチャ7、およびバイラテラルマッチング用の参照ピクチャ11、12)。最良のテンプレートマッチを示す、たとえば、最低のSADまたはMSEを示す、参照バージョン7、7’、11、11’、12、12’の予測領域5、5’;14、14’、15、15’が、テンプレートマッチングの場合は符号化されるブロック2の予測として選択され、バイラテラルマッチングの場合は符号化されるブロック16の予測の基盤として選択される。
参照ピクチャ7、11、12のフィルタリング(標本の整列)は、たとえば、参照領域5、14、15が完全なマッチでない(整列されていない)場合に有利であり得る。ノイズ除去フィルタ処理、およびテンプレートマッチングの一部として実行されるそのようなフィルタ処理は、場合によっては、ノイズを除去すると共にテンプレートマッチング用の所望の参照標本を作成する単一のフィルタに組み合され得る。
例示的なノイズ除去フィルタは、ローパスフィルタ、ガウスフィルタ等の線形平滑化フィルタ、異方性拡散、中央値フィルタ等の非線形フィルタ、時間フィルタ、および画像のすべてのピクセルの非局所的平均化を含む。
マッチング手順を高速化するために、標本のサブセットのみを、第1の粗検索時など、マッチング手順の一部のステップのみに使用することができる。さらなる単純化のために、粗検索で、ノイズ除去された/ノイズ除去されていない標本のすべての変異形を使用するか、または標本のサブセットのみを整数標本精度で使用して、参照標本のフィルタ処理を避けることもできる。その後、詳細検索で、参照標本をサブ標本精度で絞り込むことができる。ここでは、動きベクトルフィールドの概念を使用して、参照標本を現在のピクチャの標本に対して配置する方法を示す。
最良のテンプレートマッチが判断されると、ノイズ除去された(またはノイズ除去されていない)参照ピクチャ7、7’;11、11’、12、12’の予測領域が、現在のピクチャ6;13の現在のブロック2;16を予測するために使用される。
テンプレートマッチングによるノイズ除去を使用するときにエンコーダ側とデコーダ側の両方で予測ブロックが導き出され得る仕組みを記述する疑似コードを以下に示す。
for each block
for each denoising filter
apply denoising filter to reference picture
for each motion vector field
check match of template between current picture and denoised reference picture
if best match
store prediction block
上記疑似コードで、「for each denoising filter」は、いかなるノイズ除去フィルタを使用しない場合を含むものと解釈されるべきである。一部の明るいブロックなど、場合によっては、参照ピクチャがノイズをまったく含まないか、またはわずかしか含んでいないことがあり、よってノイズ除去フィルタを適用することで、ノイズ除去されていないバージョンを使用するときよりも予測が悪化する可能性がある。
テンプレートマッチングの代替の実施形態では、参照テンプレートと、現在のピクチャの対応する領域との両方に、ノイズ除去が適用される。
一部の実施形態では、参照テンプレート領域のみがノイズ除去される。テンプレートマッチングの場合(図4aおよび図4bを参照)、参照テンプレート領域4’のみがノイズ除去され、ピクチャ7’の残りの部分はノイズ除去されない。ノイズはピクチャごとに変化すると仮定できるため、より良い(自然な)マッチを検索するために、参照テンプレート領域のみにノイズ除去フィルタが適用されてからテンプレートマッチングが実行され得る。参照ピクチャのノイズ除去されていない予測領域が、予測に使用される。よってマッチングは、自然な動きが追跡される可能性を高めるために、ノイズ除去されたテンプレートを使用して行われる。予測のために、細部が、ノイズが入った部分を含めて、可能な限り維持される。
バイラテラルマッチングの場合(図5を参照)、マッチ領域14、15のみがノイズ除去され、対応するピクチャ11、12の残りの部分はノイズ除去されない。利点は、情報が予測で失われず、かつ強化された自然なマッチング精度が維持されることである。テンプレートマッチングがすべてのブロックに適用されないため、それらのブロックをノイズ除去する必要はない。これにより、処理が減少し、符号化/復号が高速化され、メモリ帯域幅が減少するなどの利点が得られる。
一部の実施形態では、上述した方法を(さまざまな実施形態で)実装するときのデコーダ側の複雑さを軽減するために、マッチングを実際の復号よりも低い解像度で実行すると有利であり得る。たとえば、参照ピクチャおよびテンプレート領域を両方向で1/2にダウンスケールして、マッチされるピクセルの数を75%減らすことができる。
他の実施形態では、上述した実施形態を実装するためのデコーダ側の複雑さを同じく軽減するために、検索戦略が使用され得る。たとえば、現在のピクチャとノイズ除去された参照ピクチャとの間で検索領域の最良のマッチ(最良のノイズ除去マッチと表される)を見つけるために、マッチングを2つの検索ステップで実行すると有益であり得る。第1の検索ステップで、再標本化された参照標本の粗い標本精度(たとえば、整数)の検索領域に対するN個の最良のマッチが選択される。第2のステップで、N個の最良のマッチが、再標本化された参照標本の最終的な標本精度(たとえば、クォーター標本)の検索領域を使用して絞り込まれる。第2のステップで最良のマッチを示すノイズ除去の予測が選択される。マッチは、たとえば、差分絶対値和(SAD)または重み付けされたSADを使用することにより判断され得る。重み付けされたSADを使用することで、最終的な標本から遠く離れている粗標本より、最終的な標本に近い粗標本に大きい重みを与えることが意図される。
代替の実施形態では、第1の検索がエンコーダとデコーダの両方で実行されて、N個の候補が与えられる。次に、第2の検索が、エンコーダでN個の候補すべてに対してのみ実行され、選択された候補が方法の使用時にデコーダにシグナリングされる。よってデコーダは、選択された候補に対して、参照標本の最終的な標本精度で第2の検索を実行するだけでよい。
テンプレートマッチング等のデコーダ側マッチングの考え方は、動きベクトルやフィルタ強度などの特定の情報をビットストリームでシグナリングする必要性をなくすというものである。しかし、テンプレートマッチングを使用するタイミングや、マッチング手順でテストするフィルタの組み合わせ(フィルタの種類/強度)の数などの情報をシグナリングすることが必要な場合がある。この情報は、シーケンスパラメータセット(SPS)等のシーケンスレベル、ピクチャパラメータセット(PPS)等のピクチャレベル、スライスレベル、またはブロックレベルでシグナリングされ得る。
一部の実施形態では、いくつかの予測領域候補がテンプレートマッチングから得られる。使用する予測領域候補のインデックスが、エンコーダからデコーダにビットストリームでシグナリングされる。開示されるテンプレートマッチング手順のエンコーダ側でのステップはデコーダ側でのステップに対応するため、同じ候補セットがデコーダ側で導き出される。よって、エンコーダでマッチングを行い、使用する候補をデコーダにシグナリングすることができる。これにより、デコーダ側での処理ニーズが軽減され、予測誤差も軽減され得る。
これまでに説明した特徴および実施形態は、既に示したように、異なる方法で組み合わせることができる。以下では、多様な組み合わせのさらなる例を示す。
図6は、本教示に係るエンコーダでの方法20のステップにわたるフローチャートを示す。方法20は、エンコーダ30でビデオピクチャをビデオビットストリームに符号化するために実行され得る。方法20は、参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得すること21を含む。ノイズ除去バージョンは、参照ピクチャ7;11、12の全体をノイズ除去したときに生成されるピクチャを含むか、または参照ピクチャ7;11、12の一部のみをノイズ除去したときに生成されるピクチャを含む場合があることに留意されたい。ノイズ除去バージョンの取得では、上述したように、任意の既知の手段が使用され得る。たとえば、ローパスフィルタ等のノイズ除去フィルタが、ノイズ除去バージョンを取得するために使用され得る。
方法20は、マッチング手順を少なくとも1回実行すること22を含み、このマッチング手順は、参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;13のマッチング領域3;16にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;16にマッチさせることとを含む。マッチング手順は、参照ピクチャの多様な参照マッチング領域と第2のピクチャとの間でマッチングの程度をテストするために、繰り返し実行され得、また典型的には繰り返し実行される。
方法20は、現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域4’;14’、15’に基づく第2の予測領域を選択することにより符号化すること23を含み、第2のピクチャ6;12、11の対応するマッチング領域3;16に対するマッチング誤差が最小である予測領域が選択される。
方法20は、複数の利点をもたらす。参照ピクチャのノイズ除去を実行してから(テンプレートまたはバイラテラル)マッチングを行うことで、予測が向上する。デコーダ側のマッチングで予測が向上すると、ひいては圧縮効率が向上することを意味する。なぜなら、エンコーダとデコーダの両方でマッチング検索が実行される場合に、余分なシグナリングが不要だからである。
方法は、いくつかのマッチング手順のいずれかを使用して実装され得る。マッチング手順は、たとえば、テンプレートマッチングまたはバイラテラルマッチングを含む。
テンプレートマッチングを実装する場合、方法20は、第1の参照ピクチャ7のノイズ除去バージョン7’を取得すること21を含む。その場合、参照ピクチャ7の参照マッチング領域4は、参照ピクチャ7の参照テンプレート領域を含む。つまり、テンプレートマッチングの語彙では、参照マッチング領域は参照テンプレート領域として知られている。ノイズ除去バージョン7’の参照マッチング領域4’は、ノイズ除去バージョン7’の参照テンプレート領域を含む。同様に、第2のピクチャ6のマッチング領域3は、現在のピクチャのテンプレート領域を含む。すなわち、第2のピクチャ6は、ブロックが予測される現在のピクチャである。さらに、テンプレートマッチングでは、予測領域5、5’は、参照ピクチャ7および参照ピクチャのノイズ除去バージョン7’のそれぞれの参照テンプレート領域4;4’に隣接している。
方法20は、マッチング手順を少なくとも1回実行すること22を含み、このマッチング手順は、参照ピクチャ7の参照テンプレート領域4を第2のピクチャ6のテンプレート領域3にマッチさせることと、ノイズ除去バージョン7’の参照テンプレート領域4’を第2のピクチャ6のテンプレート領域3にマッチさせることとを含む。マッチング手順は、参照ピクチャおよび参照ピクチャのノイズ除去バージョンの異なる参照マッチング領域の間でマッチングの程度をテストするために、繰り返し実行され得り、また典型的には繰り返し実行される。
方法20は、現在のピクチャ6のブロック2を、そのブロック2に対して、参照ピクチャ7の第1の参照領域5に基づく第1の予測領域またはノイズ除去バージョン7’の第2の参照領域5’に基づく第2の予測領域を選択することにより符号化すること23を含む。ここで、テンプレートマッチングの場合、予測領域が「基づく」とは、予測領域が参照ピクチャ7の予測領域5またはノイズ除去バージョン7’の第2の予測領域5’として選択されるという意味である。現在のピクチャ6の対応するテンプレート領域3に対するマッチング誤差が最小である予測領域が選択される。
バイラテラルマッチングを実装する場合、方法20は、参照ピクチャ11、12のノイズ除去バージョン11’、12’を取得すること21を含む。この実施形態では、第2のピクチャ12、11は、第2の取得された参照ピクチャ12、11、または第2の取得された参照ピクチャ12、11のノイズ除去バージョン12’、11’を含む。表示順で現在のピクチャ13の前のピクチャ11、または表示順で現在のピクチャ13の前のピクチャ11のノイズ除去バージョンが、表示順で現在のピクチャ13の後のピクチャ12、または表示順で現在のピクチャの後のピクチャ12のノイズ除去バージョンと比較され得る。
方法20は、バイラテラルマッチングを少なくとも1回実行すること22を含み、このバイラテラルマッチングは、参照ピクチャ11、12の参照マッチング領域14、15を第2のピクチャ12、11のマッチング領域15、14にマッチさせることと、ノイズ除去バージョン11’、12’の参照マッチング領域14’、15’を第2のピクチャ12、11のマッチング領域14、15にマッチさせることとを含む。ここでも、マッチング手順は、参照ピクチャの多様な参照マッチング領域と第2のピクチャとの間でマッチングの程度をテストするために、繰り返し実行され得り、また典型的には繰り返し実行される。
方法20は、現在のピクチャ13のブロック16を、そのブロック16に対して、第1の参照ピクチャ11、12の第1の参照領域14、15に基づく第1の予測領域またはノイズ除去バージョン11’、12’の第2の参照領域14’、15’に基づく第2の予測領域を選択することで符号化すること23を含む。ここで、バイラテラルマッチングの場合、予測領域が「基づく」とは、予測誤差を最小化する動作軌道に沿った動きベクトルが選択され、それらの対応する参照予測領域が現在のピクチャ13の現在のブロック16の予測を内挿するために使用されるという意味である。よって予測領域は、これらの対応する参照予測領域に基づく。第2のピクチャ12、11の対応するマッチング領域15に対するマッチング誤差が最小である予測領域が選択される。
バイラテラルマッチングでは、符号化すること23は、第1の参照ピクチャ11、12の第1の参照領域14、15に基づく第1の予測領域もしくはノイズ除去バージョン11’、12’の第2の参照領域14’、15’に基づく第2の予測領域、または第2の参照ピクチャ12、11の第3の予測領域15、14もしくは第2の参照ピクチャのノイズ除去バージョン12’、11’の第4の予測領域15’、14’を選択することと、選択された第1の予測領域14、15および選択された第3の予測領域15、14または選択された第2の予測領域14’、15’および選択された第4の予測領域15’、14’に基づいて第5の予測領域を導き出すこととを含む。第1、第2、第3、および第4の予測領域は、バイラテラルマッチングの場合、マッチング領域14、14’、15、15’と同じであり得る。第5の予測領域は、現在のフレーム13のブロック16の符号化23のために選択される。
さまざまな実施形態では、第1の参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得すること21は、参照マッチング領域4;14、15のみをノイズ除去することを含む。既に説明したように、このことは、必要な処理の減少、符号化/復号の高速化、メモリ帯域の減少などの利点をもたらし得る。
さまざまな実施形態では、方法20は、マッチング手順を符号化よりも低い解像度で実行すること22を含む。既に言及したように、これにより、マッチされるピクセルの数が大幅に減少し得る。
さまざまな実施形態では、マッチング手順を実行することは、第1の標本精度を使用して参照マッチング領域4、4’;14、14’、15、15’に対するマッチの第1のセットを取得することと、第2の標本精度を使用して第1のセットのマッチを絞り込むこととを含み、符号化すること23は、第2の標本精度が使用された第1のセットのマッチの中から予測領域を選択することを含む。
上記実施形態の変種では、方法20は、デコーダ50に対し、第2の標本精度が使用された第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングすることを含む。これは、たとえば、使用する候補をデコーダに知らせ、デコーダもまた第2の標本精度でマッチングを実行する必要性をなくすインデックスとして実装され得る。
さまざまな実施形態では、ノイズ除去バージョン7’;11’、12’を取得すること21は、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化から選択されるノイズ除去フィルタを使用することを含む。よって、従来使用され、容易に利用できるフィルタ実装が使用され得る。
図7は、本教示に係る、デコーダで実行される方法のステップのフローチャートを示す。図6を参照して説明したエンコーダでの方法20が、デコーダ50での以下の方法30に対応し、エンコーダでの方法に関連して上述した利点に対応する利点が、以下のデコーダの方法でも得られることに留意されたい。よって、これらの利点はここで反復せず、そのような利点については上述した対応する実施形態が参照される。
方法30は、参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得すること31を含む。
方法30は、マッチング手順を少なくとも1回実行すること32を含み、マッチング手順は、参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;13のマッチング領域3;16にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;16にマッチさせることとを含む。マッチング手順は、参照ピクチャの多様な参照マッチング領域と第2のピクチャとの間でマッチングの程度をテストするために、繰り返し実行され得り、および典型的には繰り返し実行される。
方法30は、現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、第1の参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより復号すること33を含み、第2のピクチャ6;12、11の対応する予測領域マッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択される。
方法は、いくつかのマッチング手順のいずれかを使用して実装され得る。マッチング手順は、たとえば、テンプレートマッチングまたはバイラテラルマッチングを含む。
テンプレートマッチングを実装する場合、方法30は、第1の参照ピクチャ7のノイズ除去バージョン7’を取得すること31を含む。その場合、参照ピクチャ7の参照マッチング領域4は、参照ピクチャ7の参照テンプレート領域を含む。つまり、テンプレートマッチングの語彙では、参照マッチング領域は参照テンプレート領域として知られている。ノイズ除去バージョン7’の参照マッチング領域4’は、ノイズ除去バージョン7’の参照テンプレート領域を含む。同様に、第2のピクチャ6のマッチング領域3は、現在のピクチャのテンプレート領域を含む。すなわち、第2のピクチャ6は、ブロックが予測される現在のピクチャである。さらに、テンプレートマッチングでは、予測領域5、5’は、参照ピクチャ7および参照ピクチャのノイズ除去バージョン7’のそれぞれの参照テンプレート領域4;4’に隣接している。
方法30は、マッチング手順を少なくとも1回実行すること32を含み、このマッチング手順は、参照ピクチャ7の参照テンプレート領域4を第2のピクチャ6;13のテンプレート領域3にマッチングさせることと、ノイズ除去バージョン7’の参照テンプレート領域4’を第2のピクチャ6;12、11のテンプレート領域3;16にマッチングさせることとを含む。マッチング手順は、参照ピクチャおよび参照ピクチャのノイズ除去バージョンの多様な参照マッチング領域の間でマッチングの程度をテストするために、繰り返し実行され得り、また典型的には繰り返し実行される。
方法30は、現在のピクチャ6のブロック2を、そのブロック2に対して、参照ピクチャ7のテンプレート領域5に基づく第1の予測領域またはノイズ除去バージョン7’の第2のテンプレート領域5’基づく第2の予測領域を選択することにより復号すること33を含む。テンプレートマッチングの場合、予測領域が「基づく」とは、予測領域が参照ピクチャ7のテンプレート領域5またはノイズ除去バージョン7’の第2のテンプレート領域5’として選択されるという意味である。現在のピクチャ6の対応するテンプレート領域3に対するマッチング誤差が最小である予測領域が選択される。
バイラテラルマッチングを実装する場合、方法30は、参照ピクチャ11、12のノイズ除去バージョン11’、12’を取得すること31を含む。この実施形態では、第2のピクチャ12、11は、第2の取得された参照ピクチャ12、11、または第2の取得された参照ピクチャ12、11のノイズ除去バージョン12’、11’を含む。現在のピクチャ13の前のピクチャ11または現在のピクチャ13の前のピクチャ11のノイズ除去バージョンが、現在のピクチャ13の後のピクチャ12または現在のピクチャの後のピクチャ12のノイズ除去バージョンと比較され得る。
方法30は、バイラテラルマッチングを少なくとも1回実行すること32を含み、このバイラテラルマッチングは、参照ピクチャ11、12の参照マッチング領域14、15を第2のピクチャ12、11のマッチング領域15、14にマッチさせることと、ノイズ除去バージョン11’、12’の参照マッチング領域14’、15’を第2のピクチャ12、11のマッチング領域14、15にマッチさせることとを含む。ここでも、マッチング手順は、参照ピクチャの多様な参照マッチング領域と第2のピクチャとの間でマッチングの程度をテストするために、繰り返し実行され得、また典型的には繰り返し実行される。
方法30は、現在のピクチャ13のブロック16を、そのブロック16に対して、第1の参照ピクチャ11、12の第1の参照領域14、15に基づく第1の予測領域またはノイズ除去バージョン11’、12’の第2の参照領域14’、15’に基づく第2の予測領域を選択することで復号すること33を含む。ここで、バイラテラルマッチングの場合、予測領域が「基づく」とは、予測誤差を最小化する動作軌道に沿った動きベクトルが選択され、それらの対応する参照予測領域が現在のピクチャ13の現在のブロック16の予測を内挿するために使用されるという意味である。よって予測領域は、これらの対応する参照予測領域に基づく。第2のピクチャ11、12の対応するマッチング領域15に対するマッチング誤差が最小である予測領域が選択される。
バイラテラルマッチングでは、復号すること33は、第1の参照ピクチャ11、12の第1の参照領域14、15に基づく第1の予測領域もしくはノイズ除去バージョン11’、12’の第2の参照領域14’、15’に基づく第2の予測領域、または第2の参照ピクチャ12、11の第3の予測領域15、14もしくは第2の参照ピクチャのノイズ除去バージョン12’、11’の第4の予測領域15’、14’を選択することと、選択された第1の予測領域14、15および選択された第3の予測領域15、14または選択された第2の予測領域14’、15’および選択された第4の予測領域15’、12’に基づいて第5の予測領域を導き出すことを含む。第1、第2、第3、および第4の予測領域は、バイラテラルマッチングの場合、マッチング領域14、14’、15、15’と同じであり得る。第5の予測領域は、現在のフレーム13のブロック16の復号33のために選択される。
さまざまな実施形態では、第1の参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得すること31は、参照マッチング領域4;14、15のみをノイズ除去することを含む。
さまざまな実施形態では、方法30は、マッチング手順を復号よりも低い解像度で実行すること32を含む。
さまざまな実施形態では、マッチング手順を実行することは、第1の標本精度を使用して参照マッチング領域4、4’;14、14’、16、16’に対するマッチの第1のセットを取得することと、第2の標本精度を使用して第1のセットのマッチを絞り込むこととを含み、復号すること33は、第2の標本精度が使用された第1のセットのマッチの中から予測領域を選択することを含む。
上記実施形態の変種では、方法30は、第2の標本精度が使用された第1のセットのマッチの中の使用するマッチ候補に関する情報をエンコーダ40から受け取ることを含む。これは、たとえば、使用する候補をデコーダに知らせ、デコーダもまたマッチングを実行する必要性をなくすインデックスとして実装され得る。
さまざまな実施形態では、ノイズ除去バージョン7’;11’、12’を取得すること31は、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化から選択されるノイズ除去フィルタを使用することを含む。
図8は、エンコーダ40と、本教示に係る実施形態を実装するための手段とを概略的に示す。エンコーダ40は、コンピュータプログラム製品であり得るメモリ42に格納されたソフトウェア命令を実行することができる、中央処理装置(CPU)、マルチプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路等の1つまたは複数の任意の組み合わせを含むプロセッサ41を備える。エンコーダ40のプロセッサ41は、たとえば図6に関連して説明したような、方法20のさまざまな実施形態のいずれかを実行するように構成され得る。
メモリ42は、読み書き可能メモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、磁気テープ、コンパクトディスク(CD)−ROM、デジタル多用途ディスク(DVD)、ブルーレイディスク等の任意の組み合わせであり得る。メモリ42は、たとえば磁気メモリ、光学式メモリ、ソリッドステートメモリ、さらにはリモートに設置されたメモリの任意の1つまたは組み合わせであり得る、永続型ストレージをさらに含み得る。
エンコーダ40は、他の装置との通信のためのインターフェイス44を備える。インターフェイス44は、たとえば、他の装置との通信のための、たとえばプロトコルスタック等を含み得、デコーダとの通信のためのインターフェイスをさらに含み得る。
エンコーダ40は、本教示に係るさまざまな実施形態を実装するために、参照番号45で概略的に示された追加の処理回路を備え得る。
エンコーダ40は、ビデオピクチャをビデオビットストリームに符号化するために提供される。エンコーダ40は、以下を行うように構成される。
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより符号化し、第2のピクチャ11、12の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択される。
エンコーダ40は、たとえば、1つまたは複数のプロセッサ41とメモリ42とを備えることで上記ステップを実行するように構成され得、メモリ42は、プロセッサ41により実行可能な命令を含み、それによってエンコーダ40は、上記ステップを実行するように動作可能である。
実施形態では、エンコーダ40は、参照マッチング領域4;14、15のみをノイズ除去することにより、参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得するように構成される。
実施形態では、エンコーダ40は、マッチング手順を符号化よりも低い解像度で実行するように構成される。
実施形態では、エンコーダ40は、第1の標本精度を使用して参照マッチング領域4、4’;14、14’、15、15’に対するマッチの第1のセットを取得することでマッチング手順を実行するように構成され、第2の標本精度を使用して第1のセットのマッチを絞り込むように構成され、第2の標本精度が使用された第1のセットのマッチの中から予測領域を選択することで符号化を行うように構成される。
上記実施形態の変種では、エンコーダ40は、デコーダ50に対し、第2の標本精度が使用された第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングするように構成される。
実施形態では、エンコーダ40は、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化から選択されるノイズ除去フィルタを使用して、ノイズ除去バージョン7’;11’、12’を取得するように構成される。
実施形態では、マッチング手順は、テンプレートマッチングを含み、
− 第1の参照ピクチャ7の参照マッチング領域4が、参照ピクチャ7の参照テンプレート領域を含み、
− ノイズ除去バージョン7’の参照マッチング領域4’が、ノイズ除去バージョン7’の参照テンプレート領域を含み、
− 第2のピクチャ6が、現在のピクチャを含み、
− 第2のピクチャ6のマッチング領域3が、現在のピクチャのテンプレート領域を含み、
− 予測領域5、5’が、参照ピクチャ7およびノイズ除去バージョン7’のそれぞれのテンプレート領域4;4’に隣接している。
実施形態では、第2のピクチャ12、11は、第2の取得された参照ピクチャ11、12、または第2の取得された参照ピクチャのノイズ除去バージョン11’、12’を含み、
− エンコーダ40は、ブロック16の符号化時に、
− 第2の参照ピクチャ12、11の第3の予測領域15、14、または第2の参照ピクチャ12、11のノイズ除去バージョン12’、11’の第4の予測領域15’、14’を選択し、
− 選択された第1の予測領域14、15および選択された第3の予測領域15、14または選択された第2の予測領域14’、15’および選択された第4の予測領域15’、14’に基づいて、第5の予測領域を導き出し、
− 現在のピクチャ13のブロック16の符号化のために第5の予測領域を選択するように構成される。
実施形態では、エンコーダは、ビデオピクチャをビデオビットストリームに符号化するために設けられる。エンコーダは、1つまたは複数のプロセッサとメモリとを含み、メモリは、プロセッサにより実行可能な命令を含み、それによってエンコーダは、
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより符号化し、第2のピクチャ6;14、15の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択されるように動作可能である。
本教示は、ビデオピクチャをビデオビットストリームに符号化するエンコーダ40用のコンピュータプログラム43をさらに包含する。コンピュータプログラム43は、エンコーダ40の少なくとも1つのプロセッサで実行されたときに、記載された実施形態のいずれか応じて方法20をエンコーダ40に実行させるコンピュータプログラムコードを含む。
本教示は、記載されたような方法の実施形態を実装するためのコンピュータプログラム43を含むコンピュータプログラム製品42と、コンピュータプログラム43が格納されたコンピュータ可読手段とをさらに包含する。よって、コンピュータプログラム製品またはメモリは、プロセッサ41により実行可能な命令を含む。そのような命令は、コンピュータプログラムに含まれるか、または1つもしくは複数のソフトウェアモジュールもしくは機能モジュールに含まれる。コンピュータプログラム製品42は、既に述べたように、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、磁気テープ、コンパクトディスク(CD)−ROM、デジタル多用途ディスク(DVD)、ブルーレイディスク等の任意の組み合わせであり得る。
図9は、デコーダ50と、本教示に係る実施形態を実装する手段とを概略的に示す。デコーダ50は、コンピュータプログラム製品であり得るメモリ52に格納されたソフトウェア命令を実行することができる、中央処理装置(CPU)、マルチプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路等の1つまたは複数の任意の組み合わせを含むプロセッサ51を備える。デコーダ50のプロセッサ51は、たとえば図7に関連して説明したような、方法30のさまざまな実施形態のいずれかを実行するように構成され得る。
メモリ52は、読み書き可能メモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、磁気テープ、コンパクトディスク(CD)−ROM、デジタル多用途ディスク(DVD)、ブルーレイディスク等の任意の組み合わせであり得る。メモリ52は、たとえば磁気メモリ、光学式メモリ、ソリッドステートメモリ、さらにはリモートに設置されたメモリの任意の1つまたは組み合わせであり得る、永続型ストレージをさらに含み得る。
デコーダ50は、他の装置との通信のためのインターフェイス54を備える。インターフェイス54は、たとえば、他の装置との通信のためのたとえばプロトコルスタック等を含み得、デコーダとの通信のためのインターフェイスをさらに含み得る。
デコーダ50は、本教示に係るさまざまな実施形態を実装するために、参照番号55で概略的に示された追加の処理回路を備え得る。
デコーダ50は、ビデオビットストリームからビデオピクチャを復号するために設けられる。デコーダ50は、以下を行うように構成される。
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより復号し、第2のピクチャ6;12、11の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択される。
デコーダ50は、たとえば、1つまたは複数のプロセッサ51とメモリ52とを備えることで上記ステップを実行するように構成され得、メモリ52は、プロセッサ51により実行可能な命令を含み、それによってデコーダ50は、上記ステップを実行するように動作可能である。
実施形態では、デコーダ50は、参照マッチング領域4;14、15のみをノイズ除去することにより、参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得するように構成される。
実施形態では、デコーダ50は、マッチング手順を復号よりも低い解像度で実行するように構成される。
さまざまな実施形態では、デコーダ50は、第1の標本精度を使用して参照マッチング領域4、4’;14、14’、15、15’に対するマッチの第1のセットを取得することでマッチング手順を実行するように構成され、第2の標本精度を使用して第1のセットのマッチを絞り込むように構成され、第2の標本精度が使用された第1のセットのマッチの中から予測領域を選択することで復号を行うように構成される。
実施形態では、デコーダ50は、エンコーダ40から、第2の標本精度が使用された第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取るように構成される。
実施形態では、デコーダ50は、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化から選択されるノイズ除去フィルタを使用して、ノイズ除去バージョン7’;11’、12’を取得するように構成される。
実施形態では、マッチング手順は、テンプレートマッチングを含み、
− 第1の参照ピクチャ7の参照マッチング領域4が、参照ピクチャ7の参照テンプレート領域を含み、
− ノイズ除去バージョン7’の参照マッチング領域4’が、ノイズ除去バージョン7’の参照テンプレート領域を含み、
− 第2のピクチャ6が、現在のピクチャを含み、
− 第2のピクチャ6のマッチング領域3が、現在のピクチャのテンプレート領域を含み、
− 予測領域5、5’が、参照ピクチャ7およびノイズ除去バージョン7’のそれぞれのテンプレート領域4;4’に隣接している。
実施形態では、マッチング手順はバイラテラルマッチングを含み、
− 第2のピクチャ12、11が、第2の取得された参照ピクチャ12、11、または第2の取得された参照ピクチャのノイズ除去バージョン12’、11’を含み、
− デコーダ50が、ブロック16の復号時に、
− 第2の参照ピクチャ12、11の第3の予測領域15、14、または第2の参照ピクチャ12、11のノイズ除去バージョン12’、11’の第4の予測領域15’、14’を選択し、
− 選択された第1の予測領域14、15および選択された第3の予測領域15、14または選択された第2の予測領域14’、15’および選択された第4の予測領域15’、14’に基づいて、第5の予測領域を導き出し、
− 現在のピクチャ13のブロック16の復号のために第5の予測領域を選択するように構成される。
実施形態では、デコーダは、ビデオビットストリームからビデオピクチャを復号するために設けられる。デコーダは、1つまたは複数のプロセッサとメモリとを含み、メモリは、プロセッサにより実行可能な命令を含み、それによってデコーダは、
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’の第2の予測領域を選択することにより復号し、第2のピクチャ6;12、11の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択されるように動作可能である。
本教示は、ビデオビットストリームからビデオピクチャを復号するデコーダ50用のコンピュータプログラム53をさらに包含する。コンピュータプログラム53は、デコーダ50の少なくとも1つのプロセッサで実行されたときに、記載された実施形態のいずれかに従って方法30をデコーダ50に実行させるコンピュータプログラムコードを含む。
本教示は、記載されたような方法の実施形態を実装するためのコンピュータプログラム53を含むコンピュータプログラム製品52と、コンピュータプログラム53が格納されたコンピュータ可読手段とをさらに包含する。よって、コンピュータプログラム製品またはメモリは、プロセッサ51により実行可能な命令を含む。そのような命令は、コンピュータプログラムに含まれるか、または1つもしくは複数のソフトウェアモジュールもしくは機能モジュールに含まれる。コンピュータプログラム製品52は、既に述べたように、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、磁気テープ、コンパクトディスク(CD)−ROM、デジタル多用途ディスク(DVD)、ブルーレイディスク等の任意の組み合わせであり得る。
図10は、本教示に係る実施形態を実装するための機能モジュール/ソフトウェアモジュールを含むエンコーダを示す。機能モジュールは、プロセッサで実行されるコンピュータプログラム等のソフトウェア命令を使用して、ならびに/または特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ、個別論理部品(discrete logical components)など、およびそれらの任意の組み合わせ等のハードウェアを使用して、実装することができる。上述した方法20の任意のステップを実行するようになされ得、詳細にはなされた、処理回路が提供され得る。
エンコーダは、ビデオピクチャをビデオビットストリームに符号化するために設けられる。エンコーダは、参照ピクチャのノイズ除去バージョンを取得するための第1のモジュール61を備える。そのような第1のモジュール61は、たとえば、参照ピクチャをノイズ除去するようになされた処理回路を備え得る。
エンコーダは、マッチング手順を少なくとも1回実行するための第2のモジュール62を備え、マッチング手順は、参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、ノイズ除去バージョンの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることとを含む。そのような第2のモジュール62は、たとえば、マッチング手順を実行するようになされた処理回路を備え得る。
エンコーダは、現在のピクチャのブロックを、そのブロックに対して、参照ピクチャの第1の参照領域に基づく第1の予測領域またはノイズ除去バージョンの第2の参照領域に基づく第2の予測領域を選択することにより符号化するための第3のモジュール63を備え、第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が選択される。そのような第3のモジュール63は、たとえば、ブロックを符号化するようになされた処理回路を備え得る。
なお、モジュール61、62、63の1つまたは複数は、ユニットで置換され得る。
図11は、本教示に係る実施形態を実装するための機能モジュール/ソフトウェアモジュールを含むデコーダを示す。機能モジュールは、プロセッサで実行されるコンピュータプログラム等のソフトウェア命令を使用して、ならびに/または特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ、個別論理部品など、およびそれらの任意の組み合わせ等のハードウェアを使用して、実装することができる。上述した方法30の任意のステップを実行するようになされ得り、詳細にはなされた、処理回路が提供され得る。
デコーダは、ビデオビットストリームからビデオピクチャを復号するために設けられる。デコーダは、参照ピクチャのノイズ除去バージョンを取得するための第1のモジュール71を備える。そのような第1のモジュール71は、たとえば、参照ピクチャをノイズ除去するようになされた処理回路を備え得る。
デコーダは、マッチング手順を少なくとも1回実行するための第2のモジュール72を備え、マッチング手順は、参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、ノイズ除去バージョンの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることとを含む。そのような第2のモジュール72は、たとえば、マッチング手順を実行するようになされた処理回路を備え得る。
デコーダは、現在のピクチャのブロックを、そのブロックに対して、参照ピクチャの第1の参照領域に基づく第1の予測領域またはノイズ除去バージョンの第2の参照領域に基づく第2の予測領域を選択することにより復号するための第3のモジュール73を備え、第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が選択される。そのような第3のモジュール73は、たとえば、ブロックを復号するようになされた処理回路を備え得る。
なお、モジュール71、72、73の1つまたは複数は、ユニットで置換され得る。
上述したエンコーダおよびデコーダは、上述した方法と異なる方法で実装され得る。たとえば、エンコーダおよびデコーダは、アプリケーションプログラムまたはアプリケーションソフトウェアの形式(一般に「アプリ」として知られている)でダウンロード可能な、プロセッサで実行されるダウンロード可能命令として実装され得る。エンコーダおよびデコーダは、たとえば、カメラ、タブレット、セットトップボックス、パーソナルコンピュータ、スマートフォン、または符号化および/もしくは復号が求められる任意の装置で実装(たとえば、ダウンロード)され得る。他の実施形態では、エンコーダおよびデコーダは、そのような装置のハードウェアまたはハードウェアおよびソフトウェアで実装される。
本明細書では、本発明について主にいくつかの実施形態を参照しながら説明した。ただし、当業者により理解されるように、本明細書で開示された特定の実施形態以外の他の実施形態も、添付の特許請求の範囲により定義されるように本発明の範囲内で等しく可能である。

Claims (36)

  1. ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)で実行される方法(20)であって、
    参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を取得すること(21)と、
    複数のマッチング手順を実行すること(22)であり、前記マッチング手順が、前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記複数のノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含む、マッチング手順を実行すること(22)と、
    現在のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記複数のノイズ除去バージョン(7’;11’、12’)の第2の参照領域のうちの1つ(5’;14’、15’)に基づく第2の予測領域を選択することにより符号化すること(23)であり、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択される、符号化すること(23)と
    を含む方法(20)。
  2. 前記参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を取得すること(21)が、前記参照マッチング領域(4;14、15)のみをノイズ除去することを含む、請求項1に記載の方法(20)。
  3. 前記マッチング手順を、前記符号化よりも低い解像度で実行すること(22)を含む、請求項1または2に記載の方法(20)。
  4. 前記マッチング手順を実行すること(22)が、第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することと、第2の標本精度を使用して前記第1のセットのマッチを絞り込むこととを含み、前記符号化すること(23)が、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することを含む、請求項1から3のいずれか一項に記載の方法(20)。
  5. デコーダ(50)に対し、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングすることを含む、請求項4に記載の方法(20)。
  6. ノイズ除去バージョン(7’;11’、12’)を取得すること(21)が、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することを含む、請求項1から5のいずれか一項に記載の方法(20)。
  7. 前記マッチング手順がテンプレートマッチングを含み、
    第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
    前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
    前記第2のピクチャ(6)が、前記現在のピクチャを含み、
    前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
    前記予測領域(3)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項1から6のいずれか一項に記載の方法(20)。
  8. 前記マッチング手順がバイラテラルマッチングを含み、
    前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャのノイズ除去バージョン(11’、12’)を含み、
    前記方法(20)が、前記ブロック(16)の前記符号化(23)中に、
    第2の参照ピクチャ(12、11)の第3の予測領域(15)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョンの第4の予測領域(15’)を選択することと、
    前記選択された第1の予測領域(14、15)および前記選択された第3の予測領域(15、14)または前記選択された第2の予測領域(14’、15’)および前記選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出すことと、
    現在のフレーム(13)の前記ブロック(16)の符号化(23)のために前記第5の予測領域を選択することと
    を含む、請求項1から6のいずれか一項に記載の方法(20)。
  9. ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)用のコンピュータプログラム(43)であって、前記エンコーダ(40)の少なくとも1つのプロセッサで実行されたときに、前記エンコーダ(40)に請求項1から8のいずれか一項に記載の方法(20)を実行させるコンピュータプログラムコードを含むコンピュータプログラム(43)。
  10. 請求項9に記載のコンピュータプログラム(43)が格納されるコンピュータ可読媒体
  11. ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)であって、
    参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を取得し、
    前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記複数のノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含む複数のマッチング手順を実行し、
    現在のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記複数のノイズ除去バージョン(7’;11’、12’)の第2の参照領域のうちの1つ(5’;14’、15’)に基づく第2の予測領域を選択することにより符号化し、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択されるように構成されたエンコーダ(40)。
  12. 前記参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を、前記参照マッチング領域(4;14、15)のみをノイズ除去することにより取得するように構成された、請求項11に記載のエンコーダ(40)。
  13. 前記マッチング手順を、前記符号化よりも低い解像度で実行するように構成された、請求項11または12に記載のエンコーダ(40)。
  14. 第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することにより前記マッチング手順を実行するように構成され、第2の標本精度を使用して前記第1のセットのマッチを絞り込むように構成され、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することにより符号化を実行するように構成された、請求項11から13のいずれか一項に記載のエンコーダ(40)。
  15. デコーダ(50)に対し、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングするように構成された、請求項14に記載のエンコーダ(40)。
  16. ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することにより、ノイズ除去バージョン(7’;11’、12’)を取得するように構成された、請求項11から15のいずれか一項に記載のエンコーダ(40)。
  17. 前記マッチング手順がテンプレートマッチングを含み、
    第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
    前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
    前記第2のピクチャ(6)が、前記現在のピクチャを含み、
    前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
    前記予測領域(5、5’)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項11から16のいずれか一項に記載のエンコーダ(40)。
  18. 前記マッチング手順がバイラテラルマッチングを含み、
    前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャのノイズ除去バージョン(11’、12’)を含み、
    前記エンコーダ(40)が、前記ブロック(16)の前記符号化中に、
    第2の参照ピクチャ(12、11)の第3の予測領域(15、14)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョンの第4の予測領域(15’、14’)を選択し、
    前記選択された第1の予測領域(14、15)および前記選択された第3の予測領域(15、14)または前記選択された第2の予測領域(14’、15’)および前記選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出し、
    現在のフレーム(13)の前記ブロック(16)の符号化(23)のために前記第5の予測領域を選択する
    ように構成された、請求項11から16のいずれか一項に記載のエンコーダ(40)。
  19. ビデオビットストリームからビデオピクチャを復号するデコーダ(50)で実行される方法(30)であって、
    参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を取得すること(31)と、
    複数のマッチング手順を実行すること(32)であり、前記マッチング手順が、前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記複数のノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含む、マッチング手順を実行すること(32)と、
    前記第2のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記複数のノイズ除去バージョン(7’;11’、12’)の第2の参照領域のうちの1つ(5’;14’、15’)に基づく第2の予測領域を選択することにより復号すること(33)であり、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択される、復号すること(33)と
    を含む方法(30)。
  20. 参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を取得すること(31)が、前記参照マッチング領域(4;14、15)のみをノイズ除去することを含む、請求項19に記載の方法(30)。
  21. 前記マッチング手順を、前記復号よりも低い解像度で実行すること(32)を含む、請求項19または20に記載の方法(30)。
  22. 前記マッチング手順を実行することが、第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することと、第2の標本精度を使用して前記第1のセットのマッチを絞り込むこととを含み、前記復号すること(33)が、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することを含む、請求項19から21のいずれか一項に記載の方法(30)。
  23. エンコーダ(40)から、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取ることを含む、請求項22に記載の方法(30)。
  24. ノイズ除去バージョン(7’;11’、12’)を取得すること(31)が、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することを含む、請求項19から23のいずれか一項に記載の方法(30)。
  25. 前記マッチング手順がテンプレートマッチングを含み、
    第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
    前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
    前記第2のピクチャ(6)が、前記現在のピクチャを含み、
    前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
    前記予測領域(5、5’)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項19から24のいずれか一項に記載の方法(30)。
  26. 前記マッチング手順がバイラテラルマッチングを含み、
    前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャのノイズ除去バージョン(11’、12’)を含み、
    前記方法(30)が、前記ブロック(16)の前記復号(33)中に、
    第2の参照ピクチャ(12、11)の第3の予測領域(15、14)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョン(12’、11 ’)の第4の予測領域(15’、14’)を選択することと、
    前記選択された第1の予測領域(14、15)および前記選択された第3の予測領域(15、14)または前記選択された第2の予測領域(14’、15’)および前記選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出すことと、
    現在のフレーム(13)の前記ブロック(16)の復号(33)のために前記第5の予測領域を選択することと
    を含む、請求項19から24のいずれか一項に記載の方法(30)。
  27. ビデオビットストリームからビデオピクチャを復号するデコーダ(50)用のコンピュータプログラム(53)であって、前記デコーダ(50)の少なくとも1つのプロセッサで実行されたときに、前記デコーダ(50)に請求項19から26のいずれか一項に記載の方法(30)を実行させるコンピュータプログラムコードを含むコンピュータプログラム(53)。
  28. 請求項27に記載のコンピュータプログラム(53)が格納されるコンピュータ可読媒体
  29. ビデオビットストリームからビデオピクチャを復号するデコーダ(50)であって、
    参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を取得し、
    前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記複数のノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含む複数のマッチング手順を実行し、
    現在のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記複数のノイズ除去バージョン(7’;11’、12’)の第2の参照領域のうちの1つ(5’;14’、15’)に基づく第2の予測領域を選択することにより復号し、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択されるように構成されたデコーダ(50)。
  30. 前記参照ピクチャ(7;11、12)の複数のノイズ除去バージョン(7’;11’、12’)を、前記参照マッチング領域(4;14、15)のみをノイズ除去することにより取得するように構成された、請求項29に記載のデコーダ(50)。
  31. 前記マッチング手順を、前記復号よりも低い解像度で実行するように構成された、請求項29または30に記載のデコーダ(50)。
  32. 第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することにより前記マッチング手順を実行するように構成され、第2の標本精度を使用して前記第1のセットのマッチを絞り込むように構成され、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することにより復号するように構成された、請求項29から31のいずれか一項に記載のデコーダ(50)。
  33. エンコーダ(40)から、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取るように構成された、請求項32に記載のデコーダ(50)。
  34. ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することにより、ノイズ除去バージョン(7’;11’、12’)を取得するように構成された、請求項29から33のいずれか一項に記載のデコーダ(50)。
  35. 前記マッチング手順がテンプレートマッチングを含み、
    第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
    前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
    前記第2のピクチャ(6)が、前記現在のピクチャを含み、
    前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
    前記予測領域(5、5’)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項29から34のいずれか一項に記載のデコーダ(50)。
  36. 前記マッチング手順がバイラテラルマッチングを含み、
    前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャ(12、11)のノイズ除去バージョン(12’、11’)を含み、
    前記デコーダ(50)が、前記ブロック(16)の前記復号中に、
    第2の参照ピクチャ(12、11)の第3の予測領域(15、14)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョン(12’、11’)の第4の予測領域(15’、14’)を選択し、
    選択された第1の予測領域(14、15)および選択された第3の予測領域(15、14)または選択された第2の予測領域(14’、15’)および選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出し、
    現在のフレーム(13)の前記ブロック(16)の復号のために前記第5の予測領域を選択する
    ように構成された、請求項29から34のいずれか一項に記載のデコーダ(50)。
JP2016520029A 2016-02-17 2016-02-17 ビデオピクチャを符号化および復号する方法および装置 Expired - Fee Related JP6419170B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SE2016/050123 WO2017142449A1 (en) 2016-02-17 2016-02-17 Methods and devices for encoding and decoding video pictures

Publications (2)

Publication Number Publication Date
JP2018513571A JP2018513571A (ja) 2018-05-24
JP6419170B2 true JP6419170B2 (ja) 2018-11-07

Family

ID=59625338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016520029A Expired - Fee Related JP6419170B2 (ja) 2016-02-17 2016-02-17 ビデオピクチャを符号化および復号する方法および装置

Country Status (4)

Country Link
US (1) US10390038B2 (ja)
EP (1) EP3417618A4 (ja)
JP (1) JP6419170B2 (ja)
WO (1) WO2017142449A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11773765B2 (en) 2014-12-29 2023-10-03 Douglas David Bunjes Internal combustion engine, combustion systems, and related methods and control methods and systems

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10368107B2 (en) * 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10555006B2 (en) * 2016-12-22 2020-02-04 Qualcomm Incorporated Deriving bilateral filter information based on a prediction mode in video coding
US10448014B2 (en) * 2017-05-23 2019-10-15 Intel Corporation Content adaptive motion compensated temporal filtering for denoising of noisy video for efficient coding
KR20210016581A (ko) * 2018-06-05 2021-02-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Ibc 및 atmvp 간의 상호 작용
CN113115046A (zh) 2018-06-21 2021-07-13 北京字节跳动网络技术有限公司 分量相关的子块分割
TWI739120B (zh) 2018-06-21 2021-09-11 大陸商北京字節跳動網絡技術有限公司 合併仿射模式與非合併仿射模式的統一拘束
CN108921799B (zh) * 2018-06-22 2021-07-23 西北工业大学 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
US10911768B2 (en) * 2018-07-11 2021-02-02 Tencent America LLC Constraint for template matching in decoder side motion derivation and refinement
CN110944193B (zh) 2018-09-24 2023-08-11 北京字节跳动网络技术有限公司 视频编码和解码中的加权双向预测
WO2020094151A1 (en) 2018-11-10 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Rounding in pairwise average candidate calculations

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4606069A (en) * 1983-06-10 1986-08-12 At&T Bell Laboratories Apparatus and method for compression of facsimile information by pattern matching
US6678426B1 (en) * 1997-05-13 2004-01-13 Hewlett-Packard Development Company, L.P. Programmable mapping of lower resolution digital data to a higher resolution for output on a lower resolution device
JPH11168727A (ja) * 1997-12-02 1999-06-22 Mitsubishi Electric Corp 動きベクトル検出装置
EP1094669B1 (en) * 1999-10-19 2008-06-04 Thomson Licensing Method of motion estimation for a digital input video signal
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
EP1886502A2 (en) 2005-04-13 2008-02-13 Universität Hannover Method and apparatus for enhanced video coding
JP2007043651A (ja) 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
JP4961161B2 (ja) * 2006-04-27 2012-06-27 株式会社日立ハイテクノロジーズ 検査装置
JP2010525658A (ja) * 2007-04-19 2010-07-22 トムソン ライセンシング イントラ予測のための適応参照画像データ生成
US20080316364A1 (en) 2007-06-25 2008-12-25 The Hong Kong University Of Science And Technology Rate distortion optimization for video denoising
JP4909859B2 (ja) * 2007-09-28 2012-04-04 株式会社日立ハイテクノロジーズ 検査装置及び検査方法
US20100290532A1 (en) * 2007-12-28 2010-11-18 Tomoyuki Yamamoto Moving image encoder and moving image decoder
US8483803B2 (en) * 2008-09-15 2013-07-09 Varian Medical Systems, Inc. Systems and methods for tracking and targeting object in a patient using imaging techniques
US20110176611A1 (en) 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
WO2011121942A1 (ja) * 2010-03-31 2011-10-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP5624672B2 (ja) * 2010-04-15 2014-11-12 カーディアック ペースメイカーズ, インコーポレイテッド 断続的神経刺激による過渡反応を使用する自律神経調節
CN103039075B (zh) * 2010-05-21 2015-11-25 Jvc建伍株式会社 图像编码装置、图像编码方法、以及图像解码装置、图像解码方法
WO2011145282A1 (ja) * 2010-05-21 2011-11-24 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法および画像符号化プログラム、ならびに画像復号装置、画像復号方法および画像復号プログラム
US8730318B2 (en) * 2010-07-29 2014-05-20 Hitachi-Ge Nuclear Energy, Ltd. Inspection apparatus and method for producing image for inspection
EP2656610A4 (en) 2010-12-21 2015-05-20 Intel Corp SYSTEM AND METHOD FOR EXTENDED DMVD PROCESSING
JP5291134B2 (ja) * 2011-03-09 2013-09-18 日本電信電話株式会社 映像符号化/復号方法,映像符号化/復号装置およびそのプログラム
JP6143430B2 (ja) 2012-05-08 2017-06-07 三菱プレシジョン株式会社 バイアス補正機能を備えた振動型ジャイロ
US10958927B2 (en) * 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11773765B2 (en) 2014-12-29 2023-10-03 Douglas David Bunjes Internal combustion engine, combustion systems, and related methods and control methods and systems

Also Published As

Publication number Publication date
US20180054628A1 (en) 2018-02-22
WO2017142449A1 (en) 2017-08-24
EP3417618A1 (en) 2018-12-26
EP3417618A4 (en) 2019-07-24
JP2018513571A (ja) 2018-05-24
US10390038B2 (en) 2019-08-20

Similar Documents

Publication Publication Date Title
JP6419170B2 (ja) ビデオピクチャを符号化および復号する方法および装置
JP6379186B2 (ja) ビデオピクチャを符号化および復号する方法および装置
JP6929907B2 (ja) 省略符号化を用いた映像符号化及び復号化装置及びその方法
JP5330647B2 (ja) 適応参照画像の発生
RU2683165C1 (ru) Внутреннее предсказание блочного копирования с асимметричными разделами и схемами поиска на стороне кодера, диапазоны поиска и подходы к разделению
JP5606625B2 (ja) ビデオ符号化のための高度な動きモデルを使った参照処理
TWI737137B (zh) 視訊編碼之非線性適應性迴圈濾波方法和裝置
KR20090039720A (ko) 적응적 참조 필터링을 위한 방법 및 장치
RU2684193C1 (ru) Устройство и способ для компенсации движения в видеоизображении
CN113632484A (zh) 用于双向光流的比特宽度控制的方法和设备
US9438920B2 (en) Picture encoding method, picture encoding apparatus, picture decoding method and picture decoding apparatus
JP7195348B2 (ja) ビデオコーディングにおけるフィルタリングのための装置および方法
KR20180056707A (ko) 비디오 움직임 보상 장치 및 방법
US20190253707A1 (en) Video coding method and apparatus utilizing adaptive interpolation filter
KR20090098214A (ko) 영상의 부호화, 복호화 방법 및 장치
US20140044167A1 (en) Video encoding apparatus and method using rate distortion optimization
JP2007329678A (ja) 輝度マスキング及び輝度補償を用いた超解像処理方法及び装置
KR102402671B1 (ko) 보간 필터의 연산 복잡도를 조절할 수 있는 영상 처리 장치, 영상 보간 방법 및 영상 부호화 방법
CN114175659A (zh) 用于双向光流的比特宽度控制的装置和方法
CN109906610B (zh) 使用滤波和子空间投影的视频编译的恢复
CN114430904A (zh) 利用环内子图像级可控噪声生成进行的视频压缩
JP2017103723A (ja) 符号化装置、復号装置、及びプログラム
JP2020150422A (ja) 動画像符号化装置、動画像復号装置及びプログラム
KR20230157975A (ko) 딥러닝 기반 yuv 비디오 압축을 위한 모션 흐름 코딩
JP2022019720A (ja) 画像復号装置、画像復号方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees