JP2021519039A - 動画の符号化並びに復号の方法、装置及びコンピュータプログラム - Google Patents

動画の符号化並びに復号の方法、装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2021519039A
JP2021519039A JP2020558911A JP2020558911A JP2021519039A JP 2021519039 A JP2021519039 A JP 2021519039A JP 2020558911 A JP2020558911 A JP 2020558911A JP 2020558911 A JP2020558911 A JP 2020558911A JP 2021519039 A JP2021519039 A JP 2021519039A
Authority
JP
Japan
Prior art keywords
block
video
decoder
prediction
spatially adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020558911A
Other languages
English (en)
Other versions
JP7085021B2 (ja
Inventor
リ,グォイチュン
シュイ,シアオジョォン
リ,シアン
リィウ,シャン
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2021519039A publication Critical patent/JP2021519039A/ja
Application granted granted Critical
Publication of JP7085021B2 publication Critical patent/JP7085021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本開示の各態様は、ビデオ復号化のための方法及び装置を提供する。いくつかの例では、ビデオ復号化のための装置は受信回路と処理回路を含む。処理回路は、符号化ビデオビットストリームの一部である現在のピクチャにおけるブロックの予測情報を復号化する。予測情報はインター予測モードを指示する。インター予測モードに応じて、処理回路は、候補動きベクトル予測子の候補リストをランキング順に構築し、前記候補動きベクトル予測子は、前記ブロックの空間的隣接領域における動き情報の統計に基づいてソートされる。そして、処理回路は、ランキング順に従う候補リストに基づき、動きベクトル予測子を決定し、決定された動きベクトル予測子に関連する動き情報に基づき、ブロックのサンプルを再構築する。

Description

本出願は、2018年12月17日にて提出されたアメリカ特許出願第16/222,626号である「METHOD AND APPARATUS FOR VIDEO CODING」の優先権を主張し、アメリカ特許出願第16/222,626号は2018年7月2日にて提出されたアメリカ仮出願第62/693,055号「METHODS FOR RANKING-BASED SPATIAL MERGE CANDIDATE LIST FOR INTERPICTURE PREDICTION」の優先権を主張し、これらの2つのアメリカ特許出願の全内容を参照により本明細書に組み込む。
本開示は、一般に動画の符号化及び復号に関する実施形態を説明する。
本明細書で提供される背景の説明は、全体として、本開示の背景を提示することを目的とする。この背景技術の部分で説明されている作業の程度について、現在名前が付けられている発明者の作業、及び出願時に先行技術として別途に限定されない説明は、本開示に対する従来技術として明示的又は黙示的に認められていない。
動き補償を伴うインターピクチャ予測を使用してビデオの符号化と復号化を実行することができる。非圧縮のデジタルビデオは一連のピクチャを含んでもよく、各ピクチャの空間次元は例えば1920×1080輝度サンプルと関連する色度サンプルである。当該一連のピクチャは、例えば、1秒あたり60のピクチャ又は60Hzの固定又は可変のピクチャレート(非公式にはフレームレートとも呼ばれる)を有してもよい。非圧縮のビデオには、高いビットレート要件を有する。例えば、1サンプルあたり8ビットの1080p604:2:0ビデオ(60Hzフレームレートでの1920×1080の輝度サンプル解像度)は、1.5Gbit/sに近い帯域幅が必要である。1時間のこのようなビデオは、600GBを超えるストレージスペースが必要である。
ビデオの符号化と復号化の1つの目的は、圧縮によって入力ビデオ信号の冗長性を減らすことである。圧縮は、以上で言及された帯域幅又はストレージスペースの要件を削減するのに役立つことができ、いくつかの場合に、2桁以上削減される。可逆圧縮、非可逆圧縮、又はそれらの組み合わせを使用することができる。可逆圧縮とは、圧縮された元の信号から元の信号の正確なレプリカを再構築できる技術を指す。非可逆圧縮を使用する場合、再構築された信号は元の信号と異なる可能性があるが、元の信号と再構築された信号の間の歪みは十分に小さいため、再構築された信号は予期のアプリケーションに役立つ。ビデオの場合、非可逆圧縮は広く適用される。許容される歪みの量はアプリケーションに依存し、例えば、特定のコンシューマストリームアプリケーションのユーザーは、テレビ投稿アプリケーションのユーザーよりも高い歪みを許容できる。達成可能な圧縮率は、許可/許容可能な歪みが大きいほど、圧縮率が高くなることを反映することができる。
動き補償は非可逆圧縮技術であってもよく、そして、以前に再構築されたピクチャ又はその一部(参照ピクチャ)からのサンプルデータブロックは、動きベクトル(以降、MVと呼ばれる)が指示する方向に空間的にシフトされた後、新しく再構築されたピクチャ又はピクチャの一部の予測に使用される技術を含み得る。いくつかの場合に、参照ピクチャは、現在に再構築されているピクチャと同じであってもよい。MVは、XとYの2つの次元、又は3つの次元を有してもよく、3番目の次元は使用中の参照ピクチャの指示(後者は間接的に時間次元になり得る)。
いくつかのビデオ圧縮技術では、他のMVからサンプルデータの特定の領域に適用するMVを予測し、例えば、再構築される領域に空間的に隣接するサンプルデータの別の領域に関し復号化順序で当該MVの前にあるMVから当該MVを予測してもよい。このようにして、MVを符号化するために必要なデータの量を大幅に減らすことができ、それによって冗長性がなくなり、圧縮が増加する。MV予測は効果的に機能することができ、例えば、これは、撮影装置からの入力ビデオ信号(ナチュラルビデオと呼ばれる)を符号化する場合に、単一のMVの適用可能な領域よりも大きい領域が、類似する方向に移動する統計的な可能性があるためであり、いくつかの場合に、隣接領域のMVから導出された類似する動きベクトルを予測に使用することができる。この結果、所定の領域に対して見つけたMVは周りのMVから予測されたMVと類似又は同じであり、また、エントロピー符号化後、MVを直接符号化する場合に使用されるビット数よりも少ないビット数で表すことができる。いくつかの場合に、MV予測は、元の信号(即ち、サンプルストリーム)から導出された信号(即ち、MV)の可逆圧縮の例であってもよい。他の場合に、MV予測自体は非可逆であってもよく、例えば、若干の周りのMVから予測器を算出する際の丸め誤差が原因である。
H.265/HEVC(ITU-T H.265勧告書、「高効率ビデオ符号化」、2016年12月)では、複数のMV予測メカニズムを説明した。H.265で提供される複数のMV予測メカニズムでは、本出願は、以下「空間的マージ」と呼ばれる技術を説明している。
図1を参照し、現在のブロック(101)は、動き検索プロセス中に符号器によって発見されたサンプルを含み、これにより、空間的にシフトされた同じサイズの前のブロックに基づき予測することができる。MVを直接符号化する代わりに、A0、A1とB0、B1、B2(102から106にそれぞれ対応する)として表記される5つの周りのサンプルのいずれかに関連するMVを使用して、1つ以上の参照ピクチャに関連するメタデータからMVを導出し、例えば、(復号化順序で)最新の参照ピクチャからMVを導出してもよい。H.265では、MV予測は、隣接ブロックも使用しているのと同じ参照ピクチャからの予測器を使用してもよい。
本開示の目的は、動画の符号化並びに復号の方法、装置及びコンピュータプログラムを提供することにある。
本開示の各態様は、ビデオ復号化のための方法及び装置を提供する。いくつかの例では、ビデオ復号化のための装置は受信回路と処理回路を含む。処理回路は符号化されたビデオビットストリームから、現在のピクチャにおけるブロックの予測情報を復号化し、当該予測情報はインター予測モードを指示する。インター予測モードに応じて、処理回路は候補動きベクトル予測子の候補リストをランキング順に構築し、前記候補動きベクトル予測子はブロックの空間的隣接領域における動き情報の統計に基づいてソートされる。そして、処理回路は、ランキング順に従う候補リストに基づき、動きベクトル予測子を決定し、決定された動きベクトル予測値に関連する動き情報に基づき、ブロックのサンプルを再構築する。
本発明の一態様によれば、処理回路は、空間的隣接領域における隣接ブロックをスキャンして、空間的隣接領域における動き情報の統計を収集する。
一実施形態において、処理回路は、空間的隣接領域における最小サイズのブロックをスキャンして、空間的隣接領域における動き情報の統計を収集する。
他の実施形態において、処理回路は、当該ブロックに隣接する最小サイズのブロックをスキャンして、空間的隣接領域における動き情報の統計を収集する。
他の実施形態において、処理回路は、ブロックの左隣の列に位置し、且つブロックの下にある第1の最小サイズのブロックをスキャンして、空間的隣接領域における動き情報の統計を収集し、ブロックの隣接する上の行に位置し、且つブロックの右にある第2の最小サイズのブロックをスキャンして、空間的隣接領域における動き情報の統計を収集する
他の実施形態において、処理回路は、ブロックの左隣の複数の列に位置し、且つブロックの下にある第1の最小サイズのブロックをスキャンして、空間的隣接領域における動き情報の統計を収集し、ブロックの隣接する上の複数の行に位置し、且つブロックの右にある第2の最小サイズのブロックをスキャンして、空間的隣接領域における動き情報の統計を収集する。
他の実施形態において、処理回路は、ブロックに隣接するグリッドユニットにおいて代表的な最小サイズのブロックをそれぞれスキャンして、空間的隣接領域における動き情報の統計を収集する。
他の実施形態において、処理回路は、第1のグリッドユニットにおいて第1の代表的な最小サイズのブロックをそれぞれスキャンして、空間的隣接領域における動き情報の統計を収集し、第1のグリッドユニットはブロックの左隣の列に位置し、且つブロックの下にあり、第2のグリッドユニットにおいて第2の代表的な最小サイズのブロックをそれぞれスキャンして、空間的隣接領域における動き情報の統計を収集し、第2のグリッドユニットはブロックの隣接する上の行に位置し、且つブロックの右にある。
他の実施形態において、処理回路は、第1のグリッドユニットにおいて第1の代表的な最小サイズのブロックをそれぞれスキャンして、空間的隣接領域における動き情報の統計結果を収集し、第1のグリッドユニットはブロックの左隣の複数の列に位置し、且つブロックの下にあり、第2のグリッドユニットにおいて第2の代表的な最小サイズのブロックをそれぞれスキャンして、空間的隣接領域における動き情報の統計結果を収集し、前記第2のグリッドユニットはブロックの隣接する上の複数の行に位置し、且つブロックの右にある。
本開示の態様によれば、処理回路は、統計に基づき、空間的隣接領域における動き情報のヒストグラムを構築し、ヒストグラムに基づき、複数の動きベクトル予測子を空間的隣接領域からランキング順にソートする。
一実施形態において、処理回路は、各動きベクトルに対応するビンを使用してヒストグラムを構築する。
他の実施形態において、処理回路は、動きベクトルの範囲に対応するビンを使用してヒストグラムを構築する。
一実施形態において、処理回路は、ランキング順のランキングに基づいて、ソートされた複数の動きベクトル予測子の一部を選択する。
一実施形態において、ブロックが幅の要件と高さの要件の少なくとも1つを満たしている場合、候補動きベクトル予測子の候補リストをランキング順に構築する。
本開示の各態様は、さらに、命令を記憶する非一時的コンピュータ可読媒体を提供し、当該命令は、ビデオを復号化するためにコンピュータによって実行される場合にビデオ符号化のための方法をコンピュータに実行させる。
開示された主題の他の特徴、性質及び様々な利点は以下の詳しい説明及び図面からより明確になる。
H.265による現在のブロック及びその周りの空間的マージ候補の概略図である。 実施形態による通信システム(200)の簡略ブロック図の概略図である。 実施形態による通信システム(300)の簡略ブロック図の概略図である。 実施形態による復号器の簡略ブロック図の概略図である。 実施形態による符号器の簡略ブロック図の概略図である。 他の実施形態による符号器のブロック図を示す。 他の実施形態による復号器のブロック図を示す。 いくつかの例における空間的及び時間的候補の例を示す。 本開示の実施形態による現在のブロック(910)の潜在的な空間的マージ候補の図を示す。 本開示の他の実施形態による現在のブロック(1010)の潜在的なマージ候補の図を示す。 本開示の他の実施形態による現在のブロック(1110)の潜在的なマージ候補の図を示す。 本開示の他の実施形態による現在のブロック(1210)の潜在的なマージ候補の図を示す。 本開示の他の実施形態による現在のブロック(1310)の潜在的なマージ候補の図を示す。 本開示の他の実施形態による現在のブロック(1410)の潜在的なマージ候補の図を示す。 本開示の実施形態による処理(1500)を概説するフローチャートを示す。 実施形態によるコンピュータシステムの概略図である。
図2は、本開示の実施形態による通信システム(200)の簡略ブロック図を示す。通信システム(200)は、ネットワーク(250)を介して互いに通信する複数の端末装置を含む。例えば、通信システム(200)は、ネットワーク(250)を介して相互接続された第1対の端末デバイス(210)と(220)を含む。図2に示す例において、第1対の端末デバイス(210)と(320)は一方向のデータ伝送を実行する。例えば、端末デバイス(210)は、ビデオデータ(例えば、端末デバイス(210)によってキャプチャされたビデオピクチャストリーム)を符号化して、ネットワーク(250)を介して他の端末(220)に伝送することができる。符号化されたビデオデータは1つ以上の符号化されたビデオビットストリームの形で伝送できる。端末デバイス(220)は、ネットワーク(250)から符号化されたビデオデータを受信し、符号化されたデータを復号化して、ビデオピクチャを復元し、復元されたビデオデータに基づき、ビデオピクチャを表示してもよい。一方向のデータ伝送は、媒体サービスアプリケーションなどでは一般的である。
他の実施形態では、通信システム(200)は、例えばビデオ会議中に発生する可能性がある符号化されたビデオデータの双方向伝送を実行する第2対の端末デバイス(230)と(240)含む。双方向データ伝送について、例において、端末デバイス(230)と(240)のそれぞれは、ビデオデータ(例えば、端末デバイスによってキャプチャされたビデオピクチャストリーム)を符号化して、ネットワーク(250)を介して端末デバイス(230)と(240)のうちの他方の端末デバイスに伝送することができる。端末デバイス(220)と(240)のそれぞれは、また、端末デバイス(220)と(240)のうちの他方の端末デバイスによって送信された符号化されたビデオデータを受信し、符号化されたデータを復号化してビデオピクチャを復元し、復元されたビデオデータに基づき、ビデオ画像をアクセス可能な表示デバイスに表示してもよい。
図2に示す例において、端末デバイス(210)、(220)、(230)及び(240)は、サーバ、パーソナルコンピュータ及びスマートフォンとして示され得るが、本開示の原理はこれに限定されていない。本開示の実施形態はラップトップコンピュータ、タブレット、メディアプレイヤー及び/又は専用のビデオ会議機器に適用される。ネットワーク(250)は端末デバイス(210)、(220)、(220)及び(240)の間で符号化されたビデオデータを伝送する任意の数のネットワークを示し、例えば、有線及び/又は無線通信ネットワークを含む。通信ネットワーク(250)は、回線交換及び/又はパケット交換チャネルにおいてデータを交換し得る。代表的なネットワークは通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又はインターネットを含む。本出願で検討される目的からすると、ネットワーク(250)のアーキテクチャとトポロジーは、以下に本明細書で説明されない限り、本開示の動作にとって重要ではない場合がある。
開示された主題の適用例として、図3は、ストリーミング環境におけるビデオ符号器と復号器の配置を示し、開示された主題は、ビデオ会議、デジタルテレビを含むビデオをサポートする他のアプリケーションに等価的に適用され、CD、DVD、メモリースティックなどを含むデジタルメデイアに圧縮ビデオなどを記憶してもよい。
ストリーミングシステムはキャプチャサブシステム(313)を含んでもよく、当該キャプチャサブシステムは、例えば非圧縮のビデオピクチャストリーム(302)を構築するために、例えば、デジタル撮影装置などのビデオソース(301)を含んでもよい。例において、ビデオピクチャストリーム(302)はデジタル撮影装置によって撮影されたサンプルを含む。ビデオピクチャストリーム(302)は、符号化されたビデオデータ(304)(又は符号化されたビデオビットストリーム)と比較してデータ量が多いことを強調するために太い線として描かれ、ビデオピクチャストリーム(302)は、ビデオソース(301)に結合されるビデオ符号器(303)の電子機器(320)によって処理されることができる。ビデオ符号器(303)は、以下でより詳細に説明する開示された主題の各態様を実現又は実施するために、ハードウェア、ソフトウェア、又はそれらの組み合わせを含むことができる。符号化されたビデオデータ(304)(符号化されたビデオビットストリーム(304))は、ビデオピクチャスレリーム(302)と比較してデータ量が少ないことを強調するために細い線として描かれ、符号化されたビデオデータ(304)(符号化されたビデオビットストリーム(304))は、将来の使用のために、ストリーミングサーバ(305)に記憶され得る。1つ以上のストリーミングクライアントサブシステム、例えば、図3におけるクライアントサブシステム(306)と(308)は、ストリーミングサーバ(305)にアクセスして、符号化されたビデオデータ(303)のレプリカ(307)と(309)を検索し得る。クライアントサブシステム(306)は、例えば、電子機器(330)におけるビデオ復号器(310)を含んでもよい。ビデオ復号器(310)は、符号化されたビデオデータの着信レプリカ(307)を復号化し、ディスプレイ(312)(例えば、スクリーン)又は他のレンダリングデバイス(図示せず)でレンダリングできる発信ビデオピクチャストリーム(311)を作成する。一部のストリーミングシステムでは、あるビデオ符号化/圧縮規格に基づき、符号化されたビデオビットストリーム(304)、(307)、(309)(例えば、ビデオビットストリーム)を符号化してもよい。これらの規格の例には、ITU-T H.265勧告書を含む。一例として、開発中のビデオ符号化規格は非公式に多用途ビデオ符号化又はVVCと呼ばれる。開示された主題は、VVCのコンテキストに使用されてもよい。
電子機器(320)と(330)は、他の構成要素(図示せず)を含むことができることに留意されたい。例えば、電子機器(320)はビデオ復号器(図示せず)を含んでもよく、電子機器(330)はビデオ符号器(図示せず)を含んでもよい。
図4は、本開示の実施形態によるビデオ復号器(410)のブロック図である。ビデオ復号器(410)は電子機器(430)に含まれ得る。電子機器(430)は受信器(431)(例えば、受信回路)を含み得る。ビデオ復号器(410)は図3に示す例におけるビデオ復号器(310)の代わりに使用されてもよい。
受信器(431)は、ビデオ復号器(410)によって復号化される1つ以上の符号化されたビデオシーケンスを受信してもよく、同じ実施例又は別の実施例では、一度に1つの符号化されたビデオシーケンスを受信し、各符号化されたビデオシーケンスの復号化は他の符号化されたビデオシーケンスから独立している。チャネル(401)から符号化されたビデオシーケンスを受信することができ、チャネル(401)は、符号化されたビデオデータを記憶する記憶装置へのハードウェア/ソフトウェアリンクであってもよい。受信機(431)は、符号化されたビデオデータ及び例えば、それぞれの使用エンティティ(図示せず)に転送され得る符号化されたオーディオデータ及び/又は補助データストリームなどの他のデータを受信してもよい。受信機(431)は、符号化されたビデオシーケンスを他のデータから分離することができる。ネットワークジッタを防止するために、バッファメモリ(415)は、受信機(431)とエントロピー復号器/パーサ(420)(以降、「パーサ」と呼ばれる)との間に結合され得る。いくつかのアプリケーションでは、バッファメモリ(415)はビデオ復号器(410)の一部である。他のアプリケーションでは、バッファメモリ(415)はビデオ復号器(410)(図示せず)の外部にあってもよい。他のいくつかのアプリケーションでは、ビデオ復号器(410)の外部には、ネットワークジッタを防止するために、バッファメモリ(図示せず)があってもよく、さらに例えばビデオ復号器(410)の内部に、再生タイミングを処理するために、別のバッファメモリ(415)があり得る。受信機(431)が十分な帯域幅と制御可能性を有する記憶/転送デバイス、又は等時性リアルタイムネットワークからデータを受信する場合に、バッファメモリ(415)は必要とされないか、又は小さくなり得る。例えばインターネットなどのベストパケットネットワークで使用するために、バッファメモリ(415)が必要となる場合があり、バッファメモリ(415)は比較的大きく、自己適応サイズを有利に有することができ、そして、少なくとも部分的にオペレーティングシステム又はビデオ復号器(410)の外部にある同様の構成要素(図示せず)で実現されてもよい。
ビデオ復号器(410)は、符号化されたビデオシーケンスに基づきシンボル(421)を再構築するために、パーサ(420)を含み得る。これらのシンボルのカテゴリには、ビデオ復号器(410)の動作を管理するための情報と、レンダリングデバイス(412)(例えば表示スクリーン)のようなレンダリングデバイスを制御するための情報とを含んでもよく、当該レンダリングデバイス(412)は、図4に示すように、電子機器(430)の構成部分ではなく、電子機器(430)に結合されることができる。(1つ以上の)レンダリングデバイスのための制御情報は、補助拡張情報(SEIメッセージ)又はビデオユーザビリティ情報(VUI)パラメータセットフラグメント(図示せず)の形であってもよい。パーサ(420)は、受信された符号化されたビデオシーケンスに対して解析/エントロピー復号化を行うことができる。符号化されたビデオシーケンスの符号化は、ビデオ符号化技術又は規格に従うことができ、可変長符号化、エルフマン符号化、文脈依存の有無にかかわらない算術符号化などを含む様々な原理に従うことができる。パーサ(420)は、グループに対応する少なくとも1つのパラメーターに基づいて、符号化されたビデオシーケンスから、ビデオ復号器におけるピクセルのサブグループのうちの少なくとも1つに対するサブグループパラメータセットを抽出することができる。サブグループは、ピクチャのグループ(GOP)、ピクチャ、タイル、スライス、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含んでもよい。パーサ(420)は、また、符号化されたビデオシーケンス情報から、例えば、変換係数、量子化器パラメーター値、動きベクトルなどを抽出してもよい。
パーサ(420)は、バッファメモリ(415)から受信されたビデオシーケンスに対してエントロピー復号化/解析操作を実行することで、シンボル(421)を構築することができる。
符号化されたビデオピクチャ又は他の部分のタイプ(例えば、インターピクチャとイントラピクチャ、インターブロックとイントラブロック)及び他の要因に依存し、シンボル(421)の再構築は、複数の異なるユニットに関してもよい。関するユニット及び関与形態は、パーサ(420)が符号化されたビデオシーケンスから解析したサブグループ制御情報によって制御されてもよい。簡潔のために、パーサ(420)と以下の複数のユニットとの間のそのようなサブグループ制御情報の流れについて説明しない。
既に言及された機能ブロックに加えて、ビデオ復号器(410)は概念的には、以下に説明する複数の機能ユニットに細分化することができる。商業的な制約の下で運行する実際の実現形態では、これらのユニットの多くは互いに密接に相互作用し、少なくとも部分的に互いに統合することができる。しかしながら、開示された主題を説明する目的のために、概念的には、以下の機能ユニットに細分化されることは適切である。
第1のユニットは、スケーラ/逆変換ユニット(451)である。当該スケーラ/逆変換ユニット(441)はパーサ(420)から(1つ以上の)シンボル(421)である量子化変換係数及び制御情報を受信し、使用する変換方法、ブロックサイズ、量子化係数、量子化スケーリングマトリックスなどを含む。スケーラ/逆変換ユニット(451)は、サンプル値を含むブロックを出力でき、これらのブロックはアグリゲータ(455)に入力され得る。
いくつかの場合に、スケーラ/逆変換ユニット(451)の出力サンプルは、イントラ符号化ブロック、即ち、以前に再構築されたピクチャからの予測情報を使用しないが、現在のピクチャの以前に再構築された部分からの予測情報を使用できるブロックに属してもよい。このような予測情報は、イントラピクチャ予測ユニット(452)によって提供され得る。いくつかの場合に、イントラピクチャ予測ユニット(452)は現在のピクチャバッファ(458)から抽出された、周囲が既に再構築された情報を使用して、再構築しているブロックと同じサイズ及び形状のブロックを生成する。現在のピクチャバッファ(458)は、例えば、部分的に再構築された現在のピクチャ及び/又は完全に再構築された現在のピクチャをバッファリングする。いくつかの場合に、アグリゲータ(455)は各サンプルに基づいて、イントラ予測ユニット(452)によって生成される予測情報を、スケーラ/逆変換ユニット(451)から提供される出力サンプル情報に追加する。
他の場合に、スケーラ/逆変換ユニット(451)の出力サンプルはインター符号化及び潜在動き補償ブロックに属してもよい。このような場合に、動き補償予測ユニット(453)は、参照ピクチャメモリ(457)にアクセスして、予測のためのサンプルを抽出してもよい。当該ブロックに属するシンボル(421)に基づき、抽出されたサンプルに対して動き補償を行った後に、これらのサンプルは、アグリゲータ(455)によってスケーラ/逆変換ユニット(451)の出力(この場合に、残差サンプル又は残差信号と呼ばれる)に追加されることで、出力サンプル情報を生成することができる。動き補償ユニット(453)がサンプルを抽出するための参照ピクチャメモリ(457)におけるアドレスは、動きベクトルによって制御されてもよく、動きベクトルは、シンボル(421)の形で動き補償ユニット(453)に使用されることができ、シンボル(421)は、例えば、X、Y、及び参照ピクチャ成分を有してもよい。動き補償には、サブサンプルの正確な動きベクトルが使用されている際に参照ピクチャメモリ(457)から抽出されたサンプル値の補間、動きベクトル予測メカニズムなどを含んでもよい。
アグリゲータ(455)の出力サンプルは、ループフィルタユニット(456)において様々なループフィルタリング技術にって処理され得る。ビデオ圧縮技術は、ループ内フィルタ技術を含んでもよく、当該ループ内フィルタ技術は、符号化されたビデオシーケンス(符号化されたビデオビットストリームとも呼ばれる)に含まれ且つパーサ(420)からのシンボル(421)としてループフィルタユニット(456)に使用可能なパラメータによって制御され、しかしながら、ビデオ圧縮技術は、符号化されたピクチャ又は符号化されたビデオシーケンスの(復号化順序で)前の部分を復号化する期間に得られたメタ情報に応じてもよいし、以前に再構築されループフィルタリング処理されたサンプル値に応じてもよい。
ループフィルタユニット(456)の出力はサンプルストリームであってもよく、サンプルストリームは、将来のインターピクチャ予測で使用されるために、レンダリングデバイス(412)に出力され、参照ピクチャメモリ(457)に記憶されることができる。
一部の符号化されたピクチャは、完全に再構築されたら、参照ピクチャとして将来の予測に使用することができる。例えば、現在のピクチャに対応する符号化されたピクチャは完全に再構築され、且つ符号化されたピクチャが(例えば、パーサ(420)によって)参照ピクチャとして識別されると、現在のピクチャバッファ(458)は参照ピクチャメモリ(457)の一部になることができ、そして、その後の符号化されたピクチャの再構築を開始する前に、新しい現在のピクチャバッファを再割り当てることができる。
ビデオ復号器(410)は、例えばITU-T H.265勧告書における所定のビデ圧縮技術のような規格に基づき復号化動作を実行してもよい。符号化されたビデオシーケンスがビデオ圧縮技術又は規格の構文及びビデオ圧縮技術又は規格に記録されるプロファイルの両方に準拠する意味で、符号化されたビデオシーケンスは、使用されているビデ圧縮技術又は規格で指定される構文に準拠することができる。具体的に、プロファイルは、ビデ圧縮技術又は規格で利用可能な全てのツールから、あるツールをプロファイルのみで使用され得るツールとして選択してもよい。コンプライアンスについて、符号化されたビデオシーケンスの複雑さがビデ圧縮技術又は規格のレベルで限定される範囲内にあることも要求する。いくつかの場合に、レベルは、最大ピクチャのサイズ、最大フレームレート、最大再構築サンプルレート(例えば1秒あたりメガサンプルを単位として測定する)、最大参照ピクチャサイズなどを制限する。いくつかの場合に、レベルによって設置される制限は、仮想参照復号器(HRD)の仕様及び符号化されたビデオシーケンスにおける信号で示されるHRDバッファの管理するメタデータによってさらに制限されてもよい。
実施形態において、受信器(431)は、符号化されたビデオとともに、追加の(冗長な)データを受信してもよい。追加のデータは(1つ以上の)符号化されたビデオシーケンスの一部として含まれてもよい。追加のデータは、ビデオ復号器(410)がデータを正確に復号化し、及び/又は元のビデオデータをより正確に再構築するために使用されてもよい。追加のデータは、例えば、時間、空間、又は信号対雑音比(SNR)拡張層、冗長スライス、冗長ピクチャ、前方誤り訂正符号などの形であってもよい。
図5は、本開示の実施形態によるビデオ符号器(503)のブロック図を示す。ビデオ符号器(503)は電子機器(520)に含まれる。電子機器(520)は送信機(540)(例えば、送信回路)を含む。ビデオ符号器(503)は図3に示す例におけるビデオ符号器(303)の代わりに使用される。
ビデオ符号器(503)は、ビデオソース(501)(図5に示す例における電子機器(520)の一部ではない)からビデオサンプルを受信してもよく、当該ビデオソース(501)は、ビデオ符号器(503)によって符号化されようとする(1つ以上の)ビデオ画像をキャプチャすることができる。別の例では、ビデオソース(501)は、電子機器(520)の一部である。
ビデオソース(501)は、ビデオ符号器(503)によって符号化されようとするデジタルビデオサンプルストリームの形であるソースビデオシーケンスを提供してもよく、当該デジタルビデオサンプルストリームは、任意の適切なビット深さ(例えば、8ビット、10ビット、12ビット…)、任意の色空間(例えば、BT.601YCrCB、RGB…)及び任意の適切なサンプリング構成(例えば、YCrCb 4:2:0、YCrCb 4:4:4)を有してもよい。メディアサービスシステムでは、ビデオソース(501)は、以前に準備されたビデオを記憶する記憶装置であってもよい。ビデオ会議システムでは、ビデオソース(501)は、ローカル画像情報をビデオシーケンスとしてキャプチャする撮影装置であってもよい。ビデオデータは、順番に見る際に動きが付与される複数の個別のピクチャとして提供されてもよい。ピクチャ自体は空間ピクセルアレイとして編成されてもよく、なお、使用されているサンプリング構成、色空間などに依存し、各ピクセルは、1つ以上のサンプルを含んでもよい。当業者は、ピクセルとサンプルとの間の関係を容易に理解することができる。以下の説明では、サンプルを中心に説明する。
実施形態によれば、ビデオ符号器(503)は、リアルタイムで、又はアプリケーションによって要求される他の任意の時間制約の下で、ソースビデオシーケンスのピクチャを、符号化されたビデオシーケンス(543)に符号化して圧縮してもよい。適切な符号化速度で実行することはコントローラ(550)の機能の1つである。いくつかの場合に、コントローラ(550)は、以下で説明する他の機能ユニットを制御し、これらのユニットに機能的に結合される。簡略化のために、結合は図示されていない。コントローラ(550)によって設置されるパラメータは、レート制御関連パラメータ(ピクチャスキップ、量子化器、レート歪み最適化技術のλ値…)、ピクチャサイズ、ピクチャグループ(GOP)レイアウト、最大動きベクトル検索範囲などを含んでもよい。コントローラ(550)は、あるシステム設計に対して最適化されたビデオ符号器(503)に属する他の適切な機能を有するように配置されていることができる。
いくつかの実施例において、ビデオ符号器(503)は、符号化ループで動作するように配置されている。非常に簡略化した説明として、例において、符号化ループは、ソース符号器(530)(例えば、符号化しようとする入力ピクチャ及び(1つ以上の)参照ピクチャに基づいてシンボルストリームのようなシンボルを作成することを担当する)、ビデオ符号器(503)に組み込まれた(ローカルの)復号器(533)を含んでもよい。復号器(533)は、(リモート)復号器がサンプルデータを作成する方法と同様にサンプルを作成するためのシンボルを再構築する(シンボルと符号化されたビデオビットストリームとの間の圧縮は開示された主題で考慮されるビデオ圧縮技術では無損失であるため)。再構築されたサンプルストリーム(サンプルデータ)を参照ピクチャメモリ(534)に入力する。シンボルストリームの復号化によって、復号器の位置(ローカル又はリモート)に関係がないビットが正確である結果が得られるため、参照ピクチャメモリ(534)のコンテンツもローカル符号器とリモート符号器との間でビットが正確である。つまり、符号器の予測部分が「見る」参照ピクチャサンプルと、復号器が復号化中に予測を使用する際に「見る」サンプル値とは全く同じである。当該参照ピクチャの同期性(及び、例えば、チャネル誤差のため同期性を維持できない場合に生じるドリフト)という基本的な原理は、いくつかの関連技術でも使用される。
「ローカル」復号器(533)の動作は、図4を結合しながら以上で詳細に説明した「リモート」復号器(例えばビデオ復号器(410))の動作と同じであってもよい。しかし、さらに、簡単に図4を参照し、シンボルは、利用可能であり、且つ、エントロピー符号器(545)及びパーサ(420)はシンボルを、符号化されたビデオシーケンスに無損失で符号化/復号化できる場合に、バッファメモリ(415)及びパーサ(420)を含めるビデオ復号器(510)のエントロピー復号化部分は、ローカル復号器(533)で完全に実現されない場合がある。
この時点で、復号器に存在する解析/エントロピー復号化以外の任意の復号器技術も、必然的に基本的に同じ機能形式で対応する符号器に存在することが観察されることができる。そのため、開示された主題は、復号器の動作に着目する。符号器技術は包括的に説明された復号器技術の逆であるため、符号器技術の説明を簡略化することができる。より詳しい説明は、特定の領域のみで必要であり、以下で提供される。
動作中に、いくつかの例において、ソース符号器(530)は、動き補償予測符号化を実行してもよく、動き補償予測符号化は、ビデオシーケンスからの「参照ピクチャ」として指定された1つ以上の以前に符号化されたピクチャを参照することで入力ピクチャに対して予測符号化を行う。このようにして、符号化エンジン(532)は入力ピクチャのピクセルブロックと、入力ピクチャの(1つ以上の)予測参照の(1つ以上の)参照ピクチャとして選択され得るピクセルブロックとの間の差異を符号化してもよい。
ローカルビデオ復号器(533)は、ソース符号器(530)によって作成されるシンボルに基づいて、参照ピクチャとして指定され得るピクチャの符号化されたビデオデータを復号化してもよい。符号化エンジン(532)の動作は、有利には、可逆処理であり得る。符号化されたビデオデータがビデオ復号器(図5、図示せず)で復号化され得る場合、再構築されたビデオシーケンスは、通常、多少の誤差を伴うソースビデオシーケンスのレプリカであり得る。ローカルビデオ復号器(533)は、参照ピクチャに対してビデオ復号器によって実行され得る復号化処理を複製し、再構築された参照ピクチャを参照ピクチャバッファ(534)に記憶してもよい。このようにして、符号器(503)は、再構築された参照ピクチャのレプリカをローカルに記憶することができ、当該レプリカは、リモートビデオ復号器によって得られる再構築された参照ピクチャと共通のコンテンツを有する(伝送誤差がない)。
予測器(535)は、符号化エンジン(532)に対して予測検索を実行することができる。つまり、符号化されようとする新しいピクチャについて、予測器(535)は、参照ピクチャメモリ(534)において、新しいピクチャの適切な予測参照として使用され得るサンプルデータ(候補参照ピクセルブロックとする)又は、例えば、参照ピクチャの動きベクトル、ブロック形状などの特定のメタデータを検索してもよい。予測器(535)は、適切な予測参照が見つけられるように、サンプルブロックに基づいて、ピクセルブロックごとに動作することができる。いくつかの場合に、例えば、予測器(535)によって得られた検索結果によって決定されるように、入力ピクチャは、参照ピクチャメモリ(534)に記憶された複数の参照ピクチャから得られた予測参照を有してもよい
コントローラ(550)は、例えば、ビデオデータを符号化するためのパラメータとサブグループパラメータの設置を含むビデオ符号器(530)の符号化動作を管理することができる。
上記の全ての機能ユニットの出力はエントロピー符号器(545)においてエントロピー符号化されてもよい。エントロピー符号器(545)は、例えばハフマン符号化、可変長符号化、算術符号化などの当業者に知られている技術に基づき、各機能ユニットによって生成されたシンボルに対して可逆圧縮を行うことによって、シンボルを、符号化されたビデオシーケンスに変換する。
送信機(540)は、通信チャネル(560)を介した伝送の準備をするように、エントロピー符号器(545)によって作成された符号化されたビデオシーケンスをバッファリングすることができ、前記通信チャネルは、符号化されたビデオデータを記憶する記憶装置へのハードウェア/ソフトウェアリンクであってもよい。送信機(540)は、ビデオ符号器(503)からの符号化されたビデオデータを、伝送しようとする他のデータ、例えば、符号化されたオーディオデータ及び/又は補助データストリーム(ソースは図示せず)とともにマージしてもよい。
コントローラ(550)は、符号器(503)の動作を管理することができる。コントローラ(550)は、符号化中に、各符号化されたピクチャに、対応するピクチャに適用され得る符号化技術に影響する可能性がある特定の符号化されたピクチャタイプを指定することができる。例えば、通常、ピクチャを、以下のフレームタイプのうちの1つとして指定することができる。
イントラピクチャ(Iピクチャ)は、シーケンス内の任意の他のピクチャを予測ソースとして使用せずに符号化及び復号化できるピクチャであってもよい。一部のビデオビデオコーデックは、例えば、独立復号器リフレッシュ(「IDR」)ピクチャを含む異なるタイプのイントラピクチャを許容する。当業者は、Iピクチャのそれらの変形及び対応する適用と特徴を知っている。
予測ピクチャ(Pピクチャ)は、イントラ予測又はインター予測(多くとも1つの動きベクトル及び参照インデックスを使用して各ブロックのサンプル値を予測する)を使用して符号化及び復号化を行うピクチャであってもよい。
双方向予測ピクチャ(Bピクチャ)は、イントラ予測又はインター予測(多くとも2つの動きベクトルと参照インデックスを使用して各ブロックのサンプル値を予測する)を使用して符号化と復号化を行うピクチャであってもよい。同様に、複数の予測ピクチャは、単一のブロックの再構築に2つを超える参照ピクチャと関連するメタデータを使用できる。
ソースピクチャは一般的に、空間的に複数のサンプルブロックに細分化され(例えば、各ピクチャが4×4、8×8、4×8又は16×16のサンプルブロックを持つ)、ブロックごとに符号化してもよい。これらのブロックは、他の(符号化された)ブロックを参照して予測的に符号化されてもよく、当該他のブロックは、ブロックの対応するピクチャに適用される符号化割り当てによって決定される。例えば、Iピクチャのブロックについて、非予測的に符号化されてもよく、又は、同じピクチャの符号化されたブロックを参照して予測的に符号化(空間的予測又はイントラ予測)されてもよい。Pピクチャのピクセルブロックは、1つの以前に符号化された参照ピクチャを参照して空間的予測又は時間的予測を介して予測的に符号化されてもよい。Bピクチャのブロックは、1つ又は2つの以前に符号化された参照ピクチャを参照して空間的予測又は時間的予測を介して非予測的に符号化されてもよい。
ビデオ符号器(503)は、例えばITU-T H.265勧告書の所定のビデオ符号化技術又は規格に基づき、符号化操作を実行することができる。ビデオ符号器(503)は、その動作中に、入力ビデオシーケンスにおける時間的及び空間的冗長性を利用した予測符号化動作を含む様々な圧縮動作を実行することができる。従って、符号化されたビデオデータは、使用されているビデオ符号化技術又は規格によって指定された構文に準拠し得る。
実施形態において、送信機(540)は、符号化されたビデオとともに、追加のデータを伝送してもよい。ソース符号器(530)は、このようなデータを、符号化されたビデオシーケンスの一部として含んでもよい。追加のデータは、時間的/空間的/SNR拡張層、例えば冗長なピクチャ、スライスのような他の形の冗長データ、SEIメッセージ、VUIパラメータセットフラグメントなどを含んでもよい。
ビデオは、時系列で複数のソースピクチャ(ビデオピクチャ)としてキャプチャされてもよい。イントラピクチャ予測(通常、イントラ予測と簡略化される)は、所定のピクチャにおける空間的関連性を利用し、インターピクチャ予測はピクチャ間の(時間的又は他の)関連性を利用する。例おいて、符号化/復号化中の特定のピクチャ(現在のピクチャと呼ばれる)はブロックに分割される。現在のピクチャにおけるブロックは、ビデオにおける、以前に符号化されまだバッファリングされている参照ピクチャにおける参照ブロックと類似している場合に、動きベクトルと呼ばれるベクトルによって現在のピクチャにおけるブロックを符号化してもよい。動きベクトルは参照ピクチャにおける参照ブロックを指し、また、複数の参照ピクチャを使用する場合に、動きベクトルは、参照ピクチャを認識する第3の次元を有してもよい。
いくつかの実施例において、双方向予測技術は、インターピクチャ予測に使用されてもよい。双方向予測技術によれば、例えば、ビデオにおける現在のピクチャよりも復号化順序で先行する(ただし、それぞれ表示順序で過去及び将来にあり得る)第1の参照ピクチャ及び第2の参照ピクチャである2つの参照ピクチャを使用する。第1の参照ピクチャにおける第1の参照ブロックを指す第1の動きベクトル、第2の参照ピクチャにおける第2の参照ブロックをを指す第2の動きベクトルによって、現在のピクチャにおけるブロックを符号化してもよい。第1の参照ブロックと第2の参照ブロックとの組み合わせによって当該ブロックを予測してもよい。
また、マージモード技術は、符号化の効率を向上させるために、インターピクチャ予測に使用することができる。
本開示のいくつかの実施形態によれば、例えばインターピクチャ予測及びイントラピクチャ予測のような予測はブロックごとに実行される。例えば、HEVC規格に基づき、ビデオピクチャシーケンスにおけるピクチャは、圧縮のために、符号化ツリーユニット(CTU)に分割され、ピクチャにおけるCTUは、例えば、64×64ピクセル、32×32ピクセル又は16×16ピクセルなどの同じサイズを持っている。一般に、CTUは、3つの符号化ツリーブロック(CTB)、即ち、1つの輝度CTBと2つの色度CTBを含む。各CTUは、1つ以上の符号化ユニット(CU)に再帰的に四分木で分割されてもよい。例えば、64×64ピクセルのCTUを1つの64×64ピクセルのCU、又は、4つの32×32ピクセルのCU、又は16個の16×16ピクセルのCUに分割してもよい。例において、各CUを分析して、当該CUに使用される予測タイプ、例えば、インター予測タイプ又はイントラ予測タイプを決定する。時間的及び/又は空間的予測可能性に依存し、CUは1つ以上の予測ユニット(PU)に分割される。通常、各PUは輝度予測ブロック(PB)及び2つの色度PBを含む。実施形態において、符号化(符号化/復号化)中の予測動作は予測ブロックごとに実行される。輝度予測ブロックを予測ブロックとして使用する例において、予測ブロックはピクセル値(例えば、輝度値)の行列、例えば、8×8ピクセル、16×16ピクセル、8×16ピクセル、16×8ピクセルなどを含む。
図6は、本開示の他の実施形態によるビデオ符号器(603)の図を示す。ビデオ符号器(603)は、ビデオピクチャシーケンスにおける現在のビデオピクチャ内のサンプル値の処理ブロック(例えば、予測ブロック)を受信し、処理ブロックを符号化されたビデオシーケンスの一部である符号化されたピクチャに符号化するように配置されている。例において、ビデオ符号器(603)は、図3に示す例におけるビデオ符号器(303)の代わりに使用される。
HEVCの例では、ビデオ符号器(603)は、例えば8×8サンプルの予測ブロックなどである処理ブロックに使用されるサンプル値の行列を受信する。ビデオ符号器(603)は、例えばレート歪み最適化を使用して、イントラモード、インターモード又は双方向予測モードのいずれを使用して好適に前記処理ブロックを符号化するかを決定する。イントラモードで処理ブロックを符号化する場合に、ビデオ符号器(603)は、イントラ予測技術を使用して、処理ブロックを、符号化されたピクチャに符号化してもよく、インターモード又は双方向予測モードで処理ブロックを符号化する場合に、ビデオ符号器(603)は、インター予測又は双方向予測技術をそれぞれ使用して、処理ブロックを符号化されたピクチャに符号化してもよい。いくつかのビデオ符号化技術では、マージモードはインターピクチャ予測サブモードであってもよく、なお、予測器の外部の符号化された動きベクトル成分を使用せずに、1つ以上の動きベクトル予測子(Motion vector predictor(動きベクトル予測器とも言う))から動きベクトルを取得する。いくつかの他のビデオ符号化技術では、主題ブロックに適用される動きベクトル成分が存在し得る。例において、ビデオ符号器(603)は、例えば、処理ブロックのモードを決定するためのモード決定モジュール(図示せず)などの他のコンポーネントを含む。
図6に示す例において、ビデオ符号器(603)は、図6に示すように、一体に結合されたインター符号器(630)、イントラ符号器(622)、残差計算器(623)、スイッチ(626)、残差符号器(624)、汎用コントローラ(621)及びエントロピー符号器(625)を含む。
インター符号器(630)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、当該ブロックと参照ピクチャにおける1つ以上の参照ブロック(例えば、前のピクチャ及び後のピクチャにおけるブロック)とを比較し、インター予測情報(例えば、動きベクトル、マージモード情報、インター符号化技術による冗長情報の説明)を生成し、インター予測情報に基づいて、任意の適切な技術を使用してインター予測結果(例えば、予測ブロック)を算出するように配置されている。いくつかの例では、参照ピクチャは、符号化されたビデオ情報に基づいて復号化された復号化済み参照ピクチャである。
イントラ符号器(622)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、いくつかの場合に、当該ブロックと、同じピクチャにおける既に符号化されたブロックとを比較し、変換後に量子化係数を生成し、いくつかの場合に、(例えば、1つ以上のイントラ符号化技術のイントラ予測方向情報に基づき)イントラ予測情報も生成するように配置されている。イントラ符号器(622)は、イントラ予測情報と同じピクチャにおける参照ブロックにも基づいてイントラ予測結果(例えば、予測ブロック)を算出する。
汎用コントローラ(621)は、汎用制御データを決定し、当該汎用制御データに基づいて、ビデオ符号器(603)の他のコンポーネントを制御するように配置されている。例において、汎用コントローラ(621)は、ブロックのモードを決定し、当該モードに基づいて制御信号をスイッチ(626)に提供する。例えば、モードがイントラモードである場合に、汎用コントローラ(621)は、残差計算器(623)の使用のためのイントラモード結果を選択するようにスイッチ(626)を制御するとともに、イントラ予測情報を選択してイントラ予測情報をビットストリームに含めるようにエントロピー符号器(625)を制御し、モードがインターモードである場合に、汎用コントローラ(621)は、残差計算器(623)の使用のためのインター予測結果を選択するようにスイッチ(626)制御するとともに、インター予測情報を選択しインター予測情報をビットストリームに含めるようにエントロピー符号器(625)を制御する。
残差計算器(623)は、受信したブロックと、イントラ符号器(622)又はインター符号器(630)から選択した予測結果との差(残差データ)を算出するように配置されている。残差符号器(624)は、残差データに基づいて、残差データを符号化することで変換係数を生成するように動作するように配置されている。例において、残差符号器(624)は、残差データを空間領域から周波数領域に変換し、変換係数を生成するように配置されている。次に、変換係数は、量子化処理されて、量子化された変換係数を取得する。各実施形態において、ビデオ符号器(603)は残差復号器(628)をさらに含む。残差復号器(628)は、逆変換を実行し、復号化された残差データを生成するように配置されている。復号化された残差データは、イントラ符号器(622)及びインター符号器(630)によって適切に使用されてもよい。例えば、インター符号器(630)は、復号化された残差データとインター予測情報に基づいて、復号化されたブロックを生成してもよく、イントラ符号器(622)は、復号化された残差データとイントラ予測情報に基づいて、復号化されたブロックを生成してもよい。いくつかの例では、復号化されたブロックを適切に処理して、復号化されたピクチャを生成し、前記復号化されたピクチャは、メモリ回路(図示せず)にバッファリングし、参照ピクチャとして使用できる。
エントロピー符号器(625)は、符号化されたブロックが含まれるようにビットストリームをフォーマットするように配置されている。エントロピー符号器(625)は、例えばHEVC規格のような適切な規格に従う様々な情報を含むように配置されている。例において、エントロピー符号器(625)は、汎用制御データ、選択された予測情報(例えば、イントラ予測情報又はインター予測情報)、残差情報及び他の適切な情報をビットストリームに含めるように配置されている。開示された主題によれば、インターモード又は双方向予測モードのマージサブモードでブロックを符号化する場合に残差情報がないことに留意されたい。
図7は、本開示の他の実施形態によるビデオ復号器(710)の図を示す。ビデオ復号器(710)は、符号化されたビデオシーケンスの一部である符号化されたピクチャを受信し、符号化されたピクチャを復号化することで、再構築されたピクチャを生成するように配置されている。例において、ビデオ復号器(710)は、図3に示す例におけるビデオ復号器(310)の代わりに使用される。
図7に示す例において、ビデオ復号器(710)は、図7に示すように、一体に結合されたエントロピー復号器(771)、インター復号器(780)、残差復号器(773)、再構築モジュール(774)及びイントラ復号器(772)を含む。
エントロピー復号器(771)は、符号化されたピクチャに基づき、特定のシンボルを再構築するように配置されてもよく、これらのシンボルは、符号化されたピクチャを構成する構文要素を表す。そのようなシンボルは、例えば、ブロックを符号化するためのモード(例えば、イントラモード、インターモード、双方向予測モード、インターモードと双方向予測モードとのマージサブモード又は別のサブモード)、イントラ復号器(772)又はインター復号器(780)の予測に使用される特定のサンプル又はメタデータとして認識され得る予測情報(例えば、イントラ予測情報又はインター予測情報)、例えば量子化変換係数の形である残差情報などを含んでもよい。例において、予測モードがインター又は双方向予測モードである場合に、インター予測情報をインター復号器(780)に提供し、予測タイプがイントラ予測タイプである場合に、イントラ予測情報をイントラ復号器(772)に提供する。残差情報は逆量子化され、残差復号器(773)に提供されてもよい。
インター復号器(780)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように配置されている。
イントラ復号器(772)はイントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように配置されている。
残差復号器(773)は、逆量子化を実行して逆量子化変換係数を抽出し、逆量子化変換係数を処理して残差を周波数領域から空間領域に変換するように配置されている。残差復号器(773)は、特定の制御情報(量子化パラメータQPを含む)も必要とする場合があり、その情報はエントロピー復号器(771)から提供されてもよい(データパスは、少量の制御情報のみであるため、図示されていない)。
再構築モジュール(774)は、空間領域において、残差復号器(773)から出力される残差と(場合によってインター予測モジュール又はイントラ予測モジュールによって出力される)予測結果を組み合わせて、再構築されたブロックを形成するように配置され、再構築されたブロックは再構築されたピクチャの一部であってもよく、再構築されたピクチャは、再構築されたビデオの一部であってもよい。視覚的品質を改善するために、デブロッキング操作などの他の適切な操作を実行できることに留意されたい。
任意の適切な技術を使用してビデオ符号器(303)、ビデオ符号器(503)、ビデオ符号器(603)、及びビデオ復号器(310)、ビデオ復号器(410)、ビデオ復号器(710)を実現し得ることに留意されたい。実施形態において、1つ以上の集積回路を使用してビデオ符号器(303)、ビデオ符号器(503)、ビデオ符号器(603)、及びビデオ復号器(310)、ビデオ復号器(410)、ビデオ復号器(710)を実現してもよい。他の実施形態において、ソフトウェア命令を実行する1つ以上のプロセッサーを使用してビデオ符号器(303)、ビデオ符号器(503)、ビデオ符号器(603)、及びビデオ復号器(310)、ビデオ復号器(410)、ビデオ復号器(710)を実現してもよい。
本開示の態様は、インターピクチャ予測のためのランキングに基づく空間的マージ候補リストを構築するための技術を提供する。
一般に、前記差分信号を動きベクトル予測子(例えば、高度な動きベクトル予測又はAMVPモード)に通知するために、明示的な方法でブロックの動きベクトルを符号化するか、又は、1つの以前に符号化又は生成された動きベクトルに従って完全に指示するために、暗黙的な方法でブロック的動きベクトルを符号化する。後者はマージモードと呼ばれ、その動き情報を使用して現在のブロックを以前に符号化されたブロックにマージすることを意味する。
AMVPモードとマージモードの両方は復号化中に候補リストを構築する。
図8は、いくつかの例における空間及び時間的候補の例を示す。
インター予測におけるマージモードについて、候補リストにおけるマージ候補は、主に、現在のブロックからの空間又は時間的隣接ブロックの動き情報をチェックすることで形成される。図8に示す例において、候補ブロックAl、B1、B0、A0及びB2を順次にチェックする。候補ブロックのいずれかが有効な候補ブロックである場合、例えば、動きベクトルで符号化される場合、有効な候補ブロックの動き情報をマージ候補リストに追加することができる。一部の剪定動作を実行することで、重複する候補が再びリストに追加されないことが確保される。候補ブロックA1、B1、B0、A0及びB2は、現在のブロックのコーナーに隣接しており、コーナー候補と呼ばれる。
空間的候補の後に、時間的候補もリスト(マージ候補リスト)にチェックインされる。いくつかの例では、指定された参照ピクチャにおける現在のブロックの共同位置ブロックを見つける。共同位置ブロックのC0位置(現在のブロックの右下隅)にある動き情報は、時間的マージ候補として使用される。当該位置のブロックはインターモードで符号化されないか、又は利用不可である場合に、代わりに、Cl位置(共同位置ブロックの中心の右下隅の外側にある)を使用する。
HEVCにおける高度な動きベクトル予測(AMVP)モードは、空間的及び時間的隣接ブロックの動き情報を使用して現在のブロックの動き情報を予測するとともに、予測残差をさらに符号化することである。空間的及び時間的隣接候補の例も図8に示される。
いくつかの実施形態では、AMVPモードにおいて、2候補動きベクトル予測子リストを形成する。例えば、当該リストは、第1の候補予測器と第2の候補予測器を含む。第1の候補予測器は、空間A0、Alの位置の順序で、左端からの1番目の利用可能な動きベクトルからのものである。第2の候補予測器は、空間B0、Bl及びB2の位置の順序で、上端からの2番目の利用可能な動きベクトルからのものである。チェックされる左端又は上端の位置から有効な動きベクトルが見つからない場合に、リストに候補を埋めない。2つの候補が利用可能で、且つ同じである場合に、リストに1つの候補のみを保留する。リストがいっぱいでない(2つの異なる候補がある)場合、C0位置からの(スケーリング後の)時間的共同位置の動きベクトルは別の候補として使用される。C0位置の動き情報が利用不可である場合に、代わりに位置Clを使用する。
いくつかの例では、まだ十分な動きベクトル予測子候補がない場合、ゼロ動きベクトルを使用してリストを埋める。
関連技術では、マージリスト又はAMVP予測器リストにおける候補の順序は、予め定義されたモード、例えば、(1つ以上の)左の候補(例えば、A0及びAl)−>(1つ以上の)トップの候補(例えば、B0、Bl、B2)−>(1つ以上の)時間的候補(例えば、C0及びCl)−>…に基づく。ただし、空間的/時間的隣接ブロックと現在のブロックとの間の実際の関連性はコンテンツによって変化する。現在のブロックと最も類似した動き情報を有する隣接位置は、常にマージリスト又はAMVP予測器リストにおけるトップの候補であるとは限らない。
本開示の一態様は、マージモード又はAMVPモードにおけるMV予測器リストをさらに改善するための技術を提供する。いくつかの実施形態において、隣接ブロックと現在のブロックとの間の関連性に基づき、MV候補リストを並べ替える。以下の説明では、マージモードを使用して、MV候補リストを並べ替えるための技術を説明するが、前記技術はAMVPモードでも同様に使用できる。
具体的に、いくつかの例では、開示された方法は、評価対象となるマージ候補箇所が何であるかを認識し、マージ候補箇所でのマージ候補の統計を決定することができる。また、開示された方法は評価されたマージ候補の統計のランキングに基づいてマージ候補リストを生成してもよい。
一例において、大きなブロックや長い辺を持つブロックについて、ブロックの長い辺に沿って、より多くの潜在的なマージ候補を得ることができる。また、全ての利用可能な空間的隣接ブロックにおいて、複数の候補が同じ動き情報を持つことができる。本開示の一態様によれば、追加の空間的候補が利用可能である場合に、開示されたマージ候補導出方法は、候補リストに追加の空間的候補(例えば、A0、A1、B0、B1及びB2以外の空間的候補)を含むことができる。ソートに基づく方法を利用して条件付きで候補リストを構築し剪定することができる。
開示された方法が、マージ候補と見なされる空間的隣接ブロックの範囲を拡張することができる。様々な技術を使用して潜在的なマージ候補を選択してもよい。また、マージ候補リストの構築方法は、特定の条件に基づいて、元のマージ候補リストの構築方法と提案されたランキングに基づくマージ候補リスト構築との間で切り替えることができる。
本開示の実施形態によれば、追加の空間的マージ候補はマージ候補リストに含まれてもよい。例えば、空間的マージ候補A0〜A1及びB0〜B2に加えて、新しい空間的マージ候補は条件付きでマージ候補リストに含まれてもよい。いくつかの例では、空間的マージ候補を追加する前の、空間的マージ候補A0〜A1及びB0〜B2に基づくマージ候補リストは元のマージ候補リストと呼ばれる。
いくつかの実施形態において、ブロックエッジでの空間的マージ候補の統計を取得する。例えば、マージ候補リストを構築する前に、空間的隣接ブロックをスキャンし、全て又は選択された利用可能な空間的マージ候補の統計を収集する。次に、同じ動き情報を持つ隣接ブロックのカウントに基づいて、動き情報のヒストグラムを構築する。
図9は、本開示の実施形態による現在のブロック(910)の潜在的な空間的マージ候補の図を示す。いくつかの例では、現在のブロックの左端及び上端に隣接するインター予測情報を含む、最小ブロックサイズを持つ全ての空間的隣接ブロック(例えば、4×4輝度サンプルなどの最小動き補償ブロック)をスキャンする(例えば、動き情報をチェックする)。図9に示す例において、現在のブロック(910)の左端に隣接する複数の第1の最小サイズのブロック(例えば、L1、L2、L3、…、Ln、…として示される)をスキャンする。また、現在のブロック(910)の上端に隣接する複数の第2の最小サイズのブロック(例えば、Tl、T2、T3、…、Tm、…として示される)をスキャンする。さらに、左下の隣接ブロック(例えば、図9ではL0として示され、図8のA0に対応する)、右上の隣接ブロック(例えば、図9ではT0として示され、図8のB0に対応する)及び左上の隣接ブロック(例えば、図9ではTLとして示され、図8のB2に対応する)をスキャンする。図9に示す例において、灰色の領域(920)は、スキャンされる最小ブロックサイズを持つ全ての空間的隣接ブロックを含み、なお、いくつかの例では、灰色の領域(920)はスキャン範囲(920)と呼ばれる。
図10は、本開示の他の実施形態による現在のブロック(1010)の潜在的なマージ候補の図を示す。図10に示す例において、潜在的なマージ候補は、現在のブロック(1010)に隣接する空間的候補であってもよく、また、左下及び右上の位置を超えて拡張されてもよい。いくつかの例では、図10における灰色の領域は現在のブロック(1010)の空間的隣接ブロックのスキャン範囲(1020)である。空間的隣接ブロックのスキャン範囲(1020)は、現在のブロック(1010)に隣接する全ての最小サイズ(例えば、4×4輝度サンプル)のブロック、左下の隣接ブロックの下のN個の最小サイズのブロック、及び右上の隣接ブロックの右側のM個の最小サイズのブロックを含む。MとNは正の整数であり、そして、同じ整数であってもよいし、異なる整数であってもよい。
図11は、本開示の他の実施形態による現在のブロック(1110)の潜在的なマージ候補の図を示す。図11に示す例において、潜在的なマージ候補は複数の層の空間的候補を含む。いくつかの例では、図11における灰色の領域は現在のブロック(1110)の空間的隣接ブロックのスキャン範囲(1120)である。空間的隣接ブロックのスキャン範囲(1120)は最小サイズのブロックの複数の層、例えば、層1、層2及び層3に拡張される。層の順序は、現在のブロック(1110)に隣接する層(例えば、層1)から、現在のブロック(1110)から最も離れる層(例えば、層3)までである。第1の層(例えば、層1)は、最小ブロックサイズを持つ全ての空間的隣接ブロックを含み、前記空間的隣接ブロックは現在のブロックの左端及び上端に隣接するインター予測情報を含む。また、第1の層(例えば、層1)には、左下の隣接ブロック、右上の隣接ブロック及び左上の隣接ブロックが含まれる。他の各層には、前の層に隣接する全ての最小サイズのブロックが含まれる。例えば、第2の層(例えば、層2)には、第1の層におけるブロックに隣接する全ての最小サイズのブロックが含まれ、第3の層(例えば層3)には、第2の層におけるブロックに隣接する全て最小サイズのブロックが含まれる。
図12は、本開示の他の実施形態による現在のブロック(1210)の潜在的なマージ候補の図を示す。図12に示す例において、潜在的なマージ候補は複数の層の空間的候補を含む。いくつかの例では、図12における灰色の領域は、現在のブロック(1210)の空間的隣接ブロックのスキャン範囲(1220)である。空間的隣接ブロックのスキャン範囲(1220)は、最小サイズのブロックの複数の層、例えば層1、層2及び層3に拡張される。層の順序は現在のブロック(1210)に隣接する層(例えば、層1)から、現在のブロック(1210)から最も離れている層(例えば、層3)までである。第1の層(例えば、層1)には、最小ブロックサイズを持つ全ての空間的隣接ブロックを含み、前記空間的隣接ブロックは、現在のブロックの左端及び上端に隣接するインター予測情報を含む。また、第1の層(例えば、層1)には、左下の隣接ブロックと左下の隣接ブロックの下のN個の候補、右上の隣接ブロック及び右上の隣接ブロックの右側のM個の候補、及び左上の隣接ブロックが含まれる。他の各層には、前の層に隣接する全ての最小サイズのブロックが含まれる。例えば、第2の層(例えば層2)には、第1の層におけるブロックに隣接する全ての最小サイズのブロックが含まれ、第3の層(例えば層3)には、第2の層におけるブロックに隣接する全ての最小サイズのブロックが含まれる。
図13は、本開示の他の実施形態による現在のブロック(1310)の潜在的なマージ候補の図を示す。スキャン範囲(1320)は灰色の領域で示される。グリッドサイズ(例えば、垂直方向の検索グリッドの高さと水平方向の検索グリッドの幅)に基づき、スキャン(検索とも呼ばれる)処理を実行する。グリッドサイズは最小ブロックサイズ以上である。グリッドサイズが最小ブロックサイズに等しい場合に、スキャン処理は、図9及び図10に示す例と同様であり、これは、スキャン範囲が拡張されるかどうかに依存する。いくつかの例では、グリッドサイズが最小ブロックサイズよりも大きい場合に、グリッドユニットごとに、グリッドユニットに対して最小ブロックサイズの代表的なブロックをマージ候補として選択する。
図14は、本開示の他の実施形態による現在のブロック(1410)の潜在的なマージ候補の図を示す。スキャン範囲(1420)は灰色の領域で示される。スキャン範囲(1420)は複数の層の空間的隣接ブロックを含む。グリッドサイズ(例えば、垂直方向の検索グリッドの高さと水平方向の検索グリッドの幅)に基づき、スキャン(検索とも呼ばれる)処理を実行する。グリッドサイズはブロックサイズ以上である。グリッドサイズが最小ブロックサイズに等しい場合、スキャン処理は図11と図12に示す例と同様であり、これは、スキャン範囲が拡張されるかどうかに依存する。いくつかの例では、グリッドサイズが最小ブロックサイズよりも大きい場合、グリッドユニットごとに、グリッドユニットに対して最小ブロックサイズの代表的なブロックをマージ候補として選択する。
いくつかの実施形態において、グリッドサイズが使用され、且つグリッドサイズの幅又は高さが最小ブロックサイズよりも大きい場合に、最小ブロックサイズを持つマージ候補ブロックは、グリッド内の特定の箇所に位置し得る。実施形態において、グリッドユニットが現在のブロックの左側に位置する場合に、各最小サイズのマージ候補ブロックはグリッドユニットの右下隅に位置する。他の実施形態において、グリッドユニットが現在のブロックの左側に位置する場合に、各最小サイズのマージ候補ブロックはグリッドユニットの右上隅に位置する。
実施形態において、グリッドユニットが現在のブロックの上側に位置する場合に、各最小サイズのマージ候補ブロックはグリッドユニットの左下隅に位置する。他の実施形態において、グリッドユニットが現在のブロックの上側に位置する場合に、各最小サイズのマージ候補ブロックはグリッドユニットの右下隅に位置する。
他の実施形態において、候補ブロックが現在のブロックの左側に位置し、且つ、左下の隣接ブロックの上に位置する場合に(図13のA0のように)、最小サイズのマージ候補ブロックはグリッドユニットの右下隅に位置する。候補ブロックが左下の隣接ブロックと同じ行又は下に位置する場合に(図13のA0で示される)、最小サイズのマージ候補ブロックはグリッドユニットの右上隅に位置する。
他の実施形態において、候補ブロックが現在のブロックの上に位置する場合に、候補ブロックが右上の隣接ブロックの左にあるときに(図13のB0で示される)、最小サイズのマージ候補ブロックはグリッドユニットの右下隅に位置する。候補ブロックが右上の隣接ブロックと同じ列又は右上の隣接ブロックの右に位置する場合に(図13のB0で示される)、最小サイズのマージ候補ブロックはグリッドユニットの左下隅に位置する。
他の実施形態において、隣接する最小サイズのブロックをスキャンするときに、複数の最小ブロックが、同じ動き情報を有する同じ隣接(予測)ブロック(例えば、予測ユニット)に属する場合に、統計では1つのブロックのみをカウントする。
本開示の一態様によれば、現在のブロックのスキャン範囲をスキャンして隣接ブロックの動き情報を取得する。スキャン処理後に、隣接ブロックの動き情報のヒストグラムを生成する。
実施形態において、各個別の的動き情報について、1つのヒストグラム間隔(ビンとも呼ばれる)を利用してヒストグラムを構築する。そのため、例において、ビンの数は個別の動きベクトルの数に対応する。
他の実施形態において、狭い範囲の動き情報について、1つのヒストグラム間隔(ビン(bin)とも呼ばれる)を利用してヒストグラムを構築する。例えば、2つの候補の動きベクトル値が1ピクセル未満のみ異なる場合と、2つの候補が同じと見なすことができ、1つのビンにカウントされる。各ビンにおける動き範囲情報は、この例で使用される値に限定されないことに留意されたい。ヒストグラムを構築するための動き情報範囲に基づくビニング処理は、非可逆的剪定処理としても機能する。
動き情報ヒストグラムを生成するする場合に、ゼロ以外のカウントを持つビンにソート処理を適用する。実施形態において、スキャン範囲における各個別の動き情報のカウントに基づいて、動き情報候補を降順にソートする。他の実施形態において、各個別の動き情報のカウントに基づいて、動き情報候補を昇順にソートする。
本開示の態様によれば、ヒストグラムによる候補のランキングに基づいてマージ候補リストを構築する。いくつかの実施形態において、一旦、候補がソートされると、N個の第1の候補(Nは正の整数であり、且つN≦マージ候補の最大数)は、ソートされた順でマージ候補リストに追加されてもよい。
実施形態において、Nはマージ候補の最大数に等しい。生成されたマージ候補リストは最終的なマージ候補リストである。
他の実施形態において、Nはマージ候補の最大数よりも小さい。他の適切な候補は、マージ候補リストの残りのエントリに追加されてもよい。例えば、時間的マージ候補はマージ候補リストに追加されてもよい。他の例において、例えば、組み合わせられた双方向予測マージ候補又はゼロ値マージ候補の人工マージ候補を、マージ候補リストに追加してもよい。
他の実施形態において、ソートされたリストにおけるN個の第1の候補は、候補の総数がマージ候補の最大数に等しくなるまで、例えば、時間的マージ候補、組み合わせられた双方向予測マージ候補及びゼロ値マージ候補である他のマージ候補とともに***されてもよい。
本開示の態様によれば、特定の条件が満たされる場合に、ランキングに基づくマージ候補リストを構築する。特定の条件が満たされない場合に、ビデオ符号化処理は、元のマージ候補リストに切り替えることができる。元のマージ候補リストとランキングに基づくマージ候補リストとの間で行われる特定の条件に基づく切り替えは、元のマージ候補リストとランキングに基づくマージ候補リストとの間の条件付き切り替えと呼ばれる。
条件付き切り替えは、現在のブロックのサイズ(例えば、ブロックの幅、ブロックの高さ)に基づいている。例において、現在のブロックの幅及び高さの両方が閾値(例えば、8ピクセル)よりも小さい場合に(例えば、HEVC規格によって制限される)元のマージ候補リストを構築し、使用する。現在のブロックの幅又は高さが閾値(例えば、8ピクセル)よりも大きい場合に、ランキングに基づくマージ候補リストを構築し、それをビデオ符号化/復号化に使用する。閾値は、この例で使用される値に限定されないことに留意されたい。閾値は、最大ブロックの幅又は高さよりも小さい任意の幅又は高さであってもよい。
実施形態において、ランキングに基づくマージ候補のみを構築し、使用する。
他の実施形態において、元のマージ候補リストを構築するか、又は、ランキングに基づくマージ候補リストを構築するために、条件付き切り替えを使用して、ある条件を満たすかどうかを判定する。
図15は、本開示の実施形態による処理(1500)を概説するフローチャートを示す。処理(1500)は、イントラモードで符号化されるブロックを再構築するために使用されてもよく、これにより、再構築中のブロックに対して予測ブロックを生成する。様々な実施形態において、処理(1500)は、例えば、端末装置(210)、(220)、(230)及び(240)における処理回路、ビデオ符号器(303)の機能を実行する処理回路、ビデオ復号器(310)の機能を実行する処理回路、ビデオ復号器(410)の機能を実行する処理回路、イントラ予測モジュール(452)の機能を実行する処理回路、ビデオ符号器(503)の機能を実行する処理回路、予測器(535)の機能を実行する処理回路、イントラ符号器(622)の機能を実行する処理回路、イントラ復号器(772)の機能を実行する処理回路などによって実行される。いくつかの実施形態において、処理(1500)はソフトウェア命令によって実現されるため、処理回路がソフトウェア命令を実行する場合、処理回路は処理(1500)を実行する。処理は(S1501)から開始し、(S1510)に進む。
(S1510)において、符号化されたビデオビットストリームから現在のピクチャにおけるブロックの予測情報を復号化する。予測情報は、例えば、マージモード、スキップモードなどの、動きベクトル予測子に基づきブロックの動きベクトルを決定するインター予測モードを指示する。
(S1520)において、インター予測モードに応じて候補リストを構築する。候補リストは、ランキング順でソートされた複数の動きベクトル予測子を含む。ブロックの空間的隣接領域における動き情報の統計に基づいて、動きベクトル予測子を、ランキング順にソートし、例えば、図9から図14に開示されたことを参照する。
(S1530)において、ランキング順に従う候補リストに基づき、動きベクトル予測子を決定する。
(S1540)において、動きベクトル予測子に基づき、ブロックのサンプルを再構築する。次に、処理は、(S1599)に進み、終了する。
上記の技術は、コンピュータ可読命令によってコンピュータソフトウェアとして実現され、1つ以上のコンピュータ可読媒体に物理的に記憶される。例えば、図16は開示された主題のいくつかの実施形態を実現するのに適したコンピュータシステム(1600)を示した。
コンピュータソフトウェアは、任意の適切なマシンコード又はコンピュータ言語によって符号化することができ、コンピュータソフトウェアは、アセンブル、コンパイル、リンクなどのメカニズムを介して、命令を含むコードを作成することができ、当該命令は、1つ以上のコンピュータ中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)などによって直接的に実行されるか、又は解釈、マイクロコード実行などによって実行されることができる。
命令は、例えばパーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲーム機器、モノのインターネット機器などを含む、様々なタイプのコンピュータ又はそれらのコンポーネントで実行されることができる。
図16に示すコンピュータシステム(1600)に使用されるコンポーネントは本質的に例示であり、本開示の実施形態を実現するためのコンピュータソフトウェアの使用範囲又は機能に制限を加えることを意図するものではない。コンポーネントの配置はコンピュータシステム(1600)の例示的な実施例に示されるコンポーネントのいずれか又はそれらの組み合わせに関する依存性又は要件を有するものとして解釈されるべきではない。
コンピュータシステム(1600)は、いくつかのヒューマンマシンインタフェース入力デバイスを含み得る。このようなヒューマンマシンインタフェース入力デバイスは、例えば、触覚入力(例えば、キーストローク、スワイプ、データグローブの移動)、オーディオ入力(例えば、音声、拍手)、視覚入力(例えば、姿勢)、嗅覚入力(図示せず)による1つ以上の人間のユーザの入力に応じてもよい。ヒューマンマシンインタフェースデバイスは、ヒューマンマシンインタフェースデバイスは、例えば、オーディオ(例えば、音声、音楽、環境音)、ピクチャ(例えば、スキャンした画像、静的画像撮影装置から取得された写真画像)、ビデオ(例えば、2次元ビデオ、ステレオビデオを含む3次元ビデオ)などの、人間の意識的な入力に必ずしも直接関連しない特定のメディアをキャプチャするために使用されてもよい。
ヒューマンマシンインタフェース入力デバイスには、キーボード(1601)、マウス(1602)、トラックパッド(1603)、タッチスクリーン(1610)、データグローブ(図示せず)、ジョイスティック(1605)、マイク(1606)、スキャナー(1607)、撮影装置(1608)のうちの1つ以上(それぞれが1つのみ図示される)を含んでもよい。
コンピュータシステム(1600)はさらに、いくつかのヒューマンマシンインタフェース出力デバイスを含んでもよい。このようなヒューマンマシンインタフェース出力デバイスは、例えば、触覚出力、音、光、及び嗅覚/味覚を通じて、1つ以上の人間のユーザの感覚を刺激することができる。このようなヒューマンマシンインタフェース出力デバイスには、触覚出力デバイス(例えば、タッチスクリーン(1610)、データグローブ(図示せず)、又はジョイスティック(1605)による触覚フィードバックデバイスであり、入力デバイスとして機能しない触覚フィードバックデバイスであってもよい)、オーディオ出力デバイス(例えば、スピーカー(1609)、ヘッドフォン(図示せず))、視覚出力デバイス(例えば、スクリーン(1610)であり、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含み、各スクリーンはタッチスクリーン入力機能がある場合とない場合、触覚フィードバック機能がある場合とない場合があり、そのうちのいくつかは、ステレオ画像出力のような形態で、2次元の視覚出力又は3次元以上の出力を出力できる場合がある)、仮想現実眼鏡(図示せず)、ホログラフィックディスプレイとスモークタンク(図示せず)、及びプリンター(図示せず)を含んでもよい。
コンピュータシステム1600は、人間ユーザがアクセス可能な記憶装置及びそれらの関連する媒体、例えばCD/DVDを有するCD/DVD ROM/RW(1620)などの媒体(1621)、サムドライブ(1622)、リムーバブルハードドライブ又はソリッドステートドライブ(1623)、レガシー磁気媒体(例えば、磁気テープやフロッピーディスク(図示せず))、専用ROM/ASIC/PLDに基づくデバイス(例えば、セキュリティドングル(図示せず))などを含んでもよい。
当業者はまた、ここで開示される主題に関連して使用される「コンピュータ可読媒体」という用語は、伝送媒体、搬送波、又は他の一時的な信号が含まれていないことを理解すべきである。
コンピュータシステム(1600)は、1つ以上の通信ネットワークへのインタフェースを含んでもよい。ネットワークは、例えば、無線ネットワーク、有線ネットワーク、光ネットワークであってもよい。ネットワークは、ローカルネットワーク、ワイドエリアネットワーク、メトロポリタンエリアネットワーク、車載及び工業用ネットワーク、リアルタイムネットワーク、遅延耐性ネットワークなどであってもよい。ネットワークの例には、例えば、ローカルエリヤネットワーク(例えば、イーサネット、無線LAN)、セルラーネットワーク(GSM、3G、4G、5G、LTEなどを含む)、テレビ有線又は無線ワイドエリアデジタルネットワーク(有線テレビ、衛星テレビ、及び地上波放送テレビを含む)、車載及び工業用ネットワーク(CANバス(CANBus)を含む)などであってもよい。一部のネットワークは一般に、特定の汎用データポート又は周辺バス(1649)(例えば、コンピュータシステム(1600)のUSBポート)に接続される外部ネットワークインタフェースアダプターを必要とし、他のネットワークは一般的に、下記(例えば、PCコンピュータシステムへのイーサネットインタフェース、又はスマートフォンコンピュータシステムへのセルラーネットワークインタフェース)がシステムバスに接続されることで、コンピュータシステム(1600)のコアに統合される。これらのネットワークのうちのいずれかを介して、コンピュータシステム(1600)は他のエンティティと通信することができる。このような通信は、一方向受信のみ(例えば、放送テレビ)、一方向送信のみ(例えば、あるCANバスデバイスへのCANバス)、又は双方向(例えば、ローカルエリア又はワイドエリアデジタルネットワークを使用して他のコンピュータシステムに達する)あってもよい。上記のようなこれらのネットワークとネットワークインタフェースのそれぞれに、特定のプロトコル及びプロトコルスタックを使用することができる。
上記のヒューマンマシンインタフェースデバイス、人間がアクセス可能な記憶装置、及びネットワークインタフェースは、コンピュータシステム(1600)のコア(1640)に取り付けることができる。
コア(1640)には、1つ以上の中央処理装置(CPU)(1641)、グラフィックス処理装置(GPU)(1642)、フィールドプログラマブルゲートアレイ(FPGA)(1643)の形の専用なプログラマブル処理ユニット、特定のタスクに使用されるハードウェアアクセラレータ(1644)などを含んでもよい。これらのデバイスは、読み取り専用メモリ(ROM)(1645)、ランダムアクセスメモリ(RAM)(1646)、内部大容量ストレージ(1647)(例えばユーザがアクセスできない内部ハードドライブ、SSDなど)とともに、システムバス(1648)を介して接続されてもよい。一部のコンピュータシステムでは、システムバス(1648)に1つ以上の物理プラグの形でアクセスして、追加のCPU、GPUなどによる拡張を可能にすることができる。周辺機器は、コアのシステムバス(1648)に直接的、又は周辺バス(1649)を介して接続することができる。周辺バスのアーキテクチャは、PCI、USBなどを含む。
CPU(1641)、GPU(1642)、FPGA(1643)、及びアクセラレータ(1644)は、組み合わせて上記のコンピュータコードを構成することができる特定の命令を実行してもよい。当該コンピュータコードは、ROM(1645)又はRAM(1646)に記憶されてもよい。一時的なデータもRAM(1646)に記憶されてもよく、永続的なデータは、例えば内部大容量記憶装置1647に記憶されてもよい。バッファメモリを使用することで、記憶装置のうちのいずれかへの高速ストレージと検索を実現することができ、当該バッファメモリは、1つ以上のCPU(1641)、GPU(1642)、大容量記憶装置(1647)、ROM(1645)、RAM(1646)などと密接に関連することができる。
コンピュータ可読媒体は、コンピュータが実現する様々な動作を実行するためのコンピュータコードをその上に有してもよい。媒体とコンピュータコードとは、本開示の目的のために、特別に設計及び構築される媒体とコンピュータコードであってもよいし、又はそれらは、コンピュータソフトウェアの当業者によって知られ且つ利用可能なタイプのものであってもよい。
限定ではなく例示として、アーキテクチャを有するコンピュータシステム(1600)、特にコア(1640)は、(1つ以上の)プロセッサ(CPU、GPU、FPGA、アクセラレータなどを含む)が1つ以上の有形コンピュータ可読媒体に実装されるソフトウェアを実行することで提供される機能を提供することができる。このようなコンピュータ可読媒体は、以上に紹介されたユーザがアクセス可能な大容量記憶装置に関する媒体、及び例えばコア内部大容量記憶装置(1647)又はROM(1645)などのコア(1640)のいくつかの非一時的な記憶装置であってもよい。本開示の様々な実施例を実現するためのソフトウェアはこのようなデバイスに記憶され、コア(1640)によって実行されてもよい。特定のニーズに応じて、コンピュータ可読媒体には1つ以上の記憶装置又はチップが含まれてもよい。ソフトウェアは、コア(1640)、特にそのうちのプロセッサ(CPU、GPU、FPGAなどを含む)に、本明細書で説明される特定の処理又は特定の処理の特定の部分を実行させ、RAM(1646)に記憶されるデータ構造を限定することと、及びソフトウェアによって限定された処理に基づきこのようなデータ構造を修正することが含まれる。さらに又は代わりとして、コンピュータシステムは、ロジックハードワイヤードによって提供される、又は、他の方式で回路(例えば、アクセラレータ(1644)に具現化される機能を提供することができ、当該回路は、ソフトウェアの代わりとして、又はソフトウェアとともに動作することで、本明細書で説明される特定の処理又は特定の処理の特定部分を実行できる。適切な場合、ソフトウェアに対する言及にはロジックが含まれ、逆に、ロジックに対する言及にはソフトウェアが含まれてもよい。適切な場合、コンピュータ可読媒体に対する言及には、実行のためのソフトウェアが記憶される回路(例えば、集積回路(IC))、実行のためのロジックを具現化する回路、又はそれらの両方が含まれてもよい。本開示は、ハードウェアとソフトウェアとの任意の適切な組み合わせを含む。
この開示は、いくつかの例示的な実施例を説明したが、本開示の範囲内に含まれる変更、置換、及び様々な代替均等物が存在する。従って、本明細書では明示的に示されていないか、又は記載されていないが、本開示の原理を具現化し、従って本開示の精神及び範囲内にある多数のシステム及び方法を当業者が考案できることが認識される。
付録A:頭字語
JEM:共同探査モデル
VVC:多用途ビデオ符号化
BMS:基準設置
MV:動きベクトル
HEVC:高効率ビデオ符号化
SEI:補助拡張情報
VUI:ビデオユーザビリティ情報
GOP:ピクチャグループ
TU:変換ユニット
PU:予測ユニット
CTU:符号化ツリーユニット
CTB:符号化ツリーブロック
PB:予測ブロック
HRD:仮想参照復号器
SNR:信号対雑音比
CPU:中央処理ユニット
GPU:グラフィックス処理ユニット
CRT:陰極線管
LCD:液晶ディスプレイ
OLED:有機発光ダイオード
CD:コンパクトディスク
DVD:デジタルビデオディスク
ROM:読み取り専用メモリ
RAM:ランダムアクセスメモリ
ASIC:特定用途向け集積回路
PLD:プログラマブルロジックデバイス
LAN:ローカルネットワーク
GSM:モバイル通信のグローバルシステム
LTE:長期的な進化
CANBus:コントローラエリアネットワークバス
USB:ユニバーサルシリアルバス
PCI:周辺コンポーネント相互接続
FPGA:フィールドプログラマブルゲートアレイ
SSD:ソリッドステートドライブ
IC:集積回路
CU:符号化ユニット

Claims (16)

  1. デコーダが実行するビデオ復号の方法であって、
    前記デコーダが、
    符号化されたビデオビットストリームから、現在のピクチャにおけるブロックの予測情報を復号するステップであって、前記予測情報がインター予測モードを示すものである、ステップと、
    前記インター予測モードに応じて、候補動きベクトル予測子の候補リストを、前記ブロックの空間的隣接領域における動き情報の統計に基づいてソートされたランキング順に構築するステップと、
    前記ランキング順に従う前記候補リストから、動きベクトル予測子を決定するステップと、
    決定した前記動きベクトル予測子に関連付けられる動き情報に基づき、前記ブロックの少なくとも1つのサンプルを再構築するステップと、
    を含む、方法。
  2. 前記デコーダが、前記空間的隣接領域における隣接ブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップをさらに含む、請求項1に記載の方法。
  3. 前記デコーダが、前記空間的隣接領域における最小サイズのブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップをさらに含む、請求項2に記載の方法。
  4. 前記デコーダが、前記ブロックに隣接する最小サイズのブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップをさらに含む、請求項2に記載の方法。
  5. 前記デコーダが、
    前記ブロックの隣接する左の列に位置し、且つ前記ブロックの下にある、第1の最小サイズのブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    前記ブロックの隣接する上の行に位置し、且つ前記ブロックの右にある、第2の最小サイズのブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    をさらに含む、請求項2に記載の方法。
  6. 前記デコーダが、
    前記ブロックの隣接する左の複数の列に位置し、且つ前記ブロックの下にある、第1の最小サイズのブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    前記ブロックの隣接する上の複数の行に位置し、且つ前記ブロックの右にある、第2の最小サイズのブロックをスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    をさらに含む、請求項2に記載の方法。
  7. 前記デコーダが、前記ブロックに隣接するグリッドユニットにおいて代表的な最小サイズのブロックをそれぞれスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップをさらに含む、請求項2に記載の方法。
  8. 前記デコーダが、
    前記ブロックの隣接する左の列に位置し、且つ前記ブロックの下にある第1のグリッドユニットにおいて第1の代表的な最小サイズのブロックをそれぞれスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    前記ブロックの隣接する上の行に位置し、且つ前記ブロックの右にある第2のグリッドユニットにおいて第2の代表的な最小サイズのブロックをそれぞれスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    をさらに含む、請求項2に記載の方法。
  9. 前記デコーダが、
    前記ブロックの隣接する左の複数の列に位置し、且つ前記ブロックの下にある第1のグリッドユニットにおいて第1の代表的な最小サイズのブロックをそれぞれスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    前記ブロックの隣接する上の複数の行に位置し、且つ前記ブロックの右にある第2のグリッドユニットにおいて第2の代表的な最小サイズのブロックをそれぞれスキャンし、前記空間的隣接領域における前記動き情報の統計を収集するステップと、
    をさらに含む、請求項2に記載の方法。
  10. 前記デコーダが、
    前記統計に基づき、前記空間的隣接領域における前記動き情報のヒストグラムを構築するステップと、
    前記ヒストグラムに基づき、複数の動きベクトル予測子を前記空間的隣接領域から前記ランキング順にソートするステップと、
    をさらに含む、請求項2に記載の方法。
  11. 前記デコーダが、各々の動きベクトルに対応するビンにより、前記ヒストグラムを構築するステップをさらに含む、請求項10に記載の方法。
  12. 前記デコーダが、複数の動きベクトルの範囲に対応するビンにより、前記ヒストグラムを構築するステップをさらに含む、請求項10に記載の方法。
  13. 前記デコーダが、ソートされた前記動きベクトル予測子の一部を前記ランキング順に選択するステップをさらに含む、請求項10に記載の方法。
  14. 前記デコーダが、前記ブロックが幅の要件と高さの要件との少なくとも1つを満す場合、前記候補動きベクトル予測子の候補リストを前記ランキング順に構築するステップをさらに含む、請求項1に記載の方法。
  15. 処理回路を含む、ビデオ復号のための装置であって、
    前記処理回路は、請求項1乃至14の何れか一項に記載の方法を実行するように構成される、装置。
  16. コンピュータに、請求項1乃至14の何れか一項に記載の方法を実行させるためのプログラム。
JP2020558911A 2018-07-02 2019-06-26 動画の符号化並びに復号の方法、装置及びコンピュータプログラム Active JP7085021B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862693055P 2018-07-02 2018-07-02
US62/693,055 2018-07-02
US16/222,626 2018-12-17
US16/222,626 US10531090B1 (en) 2018-07-02 2018-12-17 Method and apparatus for video coding
PCT/US2019/039252 WO2020009872A1 (en) 2018-07-02 2019-06-26 Method and apparatus for video coding

Publications (2)

Publication Number Publication Date
JP2021519039A true JP2021519039A (ja) 2021-08-05
JP7085021B2 JP7085021B2 (ja) 2022-06-15

Family

ID=69008522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558911A Active JP7085021B2 (ja) 2018-07-02 2019-06-26 動画の符号化並びに復号の方法、装置及びコンピュータプログラム

Country Status (6)

Country Link
US (2) US10531090B1 (ja)
EP (1) EP3818702A4 (ja)
JP (1) JP7085021B2 (ja)
KR (1) KR102480934B1 (ja)
CN (1) CN111903126B (ja)
WO (1) WO2020009872A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10880354B2 (en) 2018-11-28 2020-12-29 Netflix, Inc. Techniques for encoding a media title while constraining quality variations
US10841356B2 (en) 2018-11-28 2020-11-17 Netflix, Inc. Techniques for encoding a media title while constraining bitrate variations
CN113994698B (zh) * 2019-06-04 2023-11-24 北京字节跳动网络技术有限公司 有条件地实施运动候选列表构建过程
EP3963890A4 (en) 2019-06-04 2022-11-02 Beijing Bytedance Network Technology Co., Ltd. BUILDING A LIST OF MOVEMENT CANDIDATES USING NEIGHBOR BLOCK INFORMATION
CN114128295B (zh) 2019-07-14 2024-04-12 北京字节跳动网络技术有限公司 视频编解码中几何分割模式候选列表的构建
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
CN113709484B (zh) * 2020-03-26 2022-12-23 杭州海康威视数字技术股份有限公司 解码方法、编码方法、装置、设备及机器可读存储介质
US11418810B2 (en) * 2020-09-21 2022-08-16 Tencent America LLC Methods of inter picture motion prediction for multi-view video compression
WO2023131125A1 (en) * 2022-01-04 2023-07-13 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
US20230217013A1 (en) * 2022-01-04 2023-07-06 FG Innovation Company Limited Device and method for decoding video data
WO2024010309A1 (ko) * 2022-07-06 2024-01-11 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017197126A1 (en) * 2016-05-13 2017-11-16 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8155195B2 (en) * 2006-04-07 2012-04-10 Microsoft Corporation Switching distortion metrics during motion estimation
US8144766B2 (en) * 2008-07-16 2012-03-27 Sony Corporation Simple next search position selection for motion estimation iterative search
JP5343089B2 (ja) * 2008-12-03 2013-11-13 出光興産株式会社 インデノフルオレンジオン誘導体、有機エレクトロルミネッセンス素子用材料及び有機エレクトロルミネッセンス素子
WO2011146451A1 (en) * 2010-05-20 2011-11-24 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
FI4164224T3 (fi) * 2011-06-28 2024-05-07 Lg Electronics Inc Videodekoodauslaitteisto ja videokoodauslaitteisto
KR101960034B1 (ko) * 2011-09-09 2019-03-19 엘지전자 주식회사 인터 예측 방법 및 그 장치
WO2017043734A1 (ko) * 2015-09-07 2017-03-16 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017197126A1 (en) * 2016-05-13 2017-11-16 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JICHENG AN ET AL., ENHANCED MERGE MODE BASED ON JEM7.0, JPN6021044235, 15 April 2018 (2018-04-15), ISSN: 0004636469 *

Also Published As

Publication number Publication date
US20200084450A1 (en) 2020-03-12
CN111903126B (zh) 2022-04-19
WO2020009872A1 (en) 2020-01-09
EP3818702A1 (en) 2021-05-12
KR102480934B1 (ko) 2022-12-23
KR20200128582A (ko) 2020-11-13
CN111903126A (zh) 2020-11-06
EP3818702A4 (en) 2022-04-27
US20200007864A1 (en) 2020-01-02
JP7085021B2 (ja) 2022-06-15
US10531090B1 (en) 2020-01-07

Similar Documents

Publication Publication Date Title
JP7085021B2 (ja) 動画の符号化並びに復号の方法、装置及びコンピュータプログラム
KR102635957B1 (ko) 비디오 코딩을 위한 방법 및 장치
KR20230025029A (ko) 병렬 처리로 히스토리 기반 모션 벡터 예측을 위한 방법 및 장치
JP7096896B2 (ja) ビデオ符号化のための方法及び装置
CN112806009B (zh) 一种生成合并候选列表的方法和相关装置
JP2021524176A (ja) ビデオ符号化のための方法、機器及びコンピュータ・プログラム
CN113330749A (zh) 用于变换跳过模式和块差分脉冲编码调制的改进的残差编解码
JP2022515031A (ja) ビデオコーディングのための方法、機器及びコンピュータ・プログラム
JP7270644B2 (ja) ビデオ復号化のための方法、装置及びコンピュータプログラム
JP7080434B2 (ja) サブブロックの動きベクトル予測の方法、並びにその装置及びコンピュータプログラム
CN113424541A (zh) 用于变换跳过模式和块差分脉冲编码调制的残差编解码
KR20200125733A (ko) 비디오 코딩을 위한 방법 및 장치
JP2022510354A (ja) ビデオ符号化における隣接ブロックの利用可能性のための方法および装置
CN112840657B (zh) 用于视频解码的方法、装置、设备和可读介质
JP2022512109A (ja) ビデオ復号及び符号化の方法、装置並びにプログラム
JP2022522683A (ja) ビデオコーディングのための方法並びにその、装置およびコンピュータプログラム
JP7357679B2 (ja) 改善された最確モードリスト生成方法
JP7419506B2 (ja) 映像コーディングのための方法及び装置
JP7189370B2 (ja) Cuに基づく補間フィルタ選択のシグナリング
CN113728628B (zh) 合并候选搜索方法和设备
JP7061680B2 (ja) ビデオ符号化において縮減された前のラインバッファを使用するインター予測の方法及び装置
JP2021517394A5 (ja)
KR20230108334A (ko) Mpm 리스트 구축의 개선
JP2022523616A (ja) ビデオ復号の方法、装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220603

R150 Certificate of patent or registration of utility model

Ref document number: 7085021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150