JP2023162214A - コーディングブロックの三角形パーティションのインター予測のための装置および方法 - Google Patents

コーディングブロックの三角形パーティションのインター予測のための装置および方法 Download PDF

Info

Publication number
JP2023162214A
JP2023162214A JP2023127359A JP2023127359A JP2023162214A JP 2023162214 A JP2023162214 A JP 2023162214A JP 2023127359 A JP2023127359 A JP 2023127359A JP 2023127359 A JP2023127359 A JP 2023127359A JP 2023162214 A JP2023162214 A JP 2023162214A
Authority
JP
Japan
Prior art keywords
predicted
prediction
candidate list
pic
ref
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023127359A
Other languages
English (en)
Inventor
ブレイザー、マックス
Blaeser Max
ツァオ、ツィジェ
Zhijie Zhao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2023162214A publication Critical patent/JP2023162214A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】コーディングブロックについて動きベクトル(MV)を導出するビデオ符号化及び復号する装置並びに方法を提供する。【解決手段】方法は、コーディングブロックが、幾何パーティションマージモードについて有効である場合、近傍のコーディング単位から1または複数の空間的マージ候補を導出することを含むマージ候補リストを2つの幾何パーティションにパーティション化し、空間的マージ候補を導出した後に、1又は複数の時間的動きベクトル予測(MVP)を直接的に又は直ちに導出し、1又は複数の片予測MV及び/又は1又は複数双予測MVを含むマージ候補リストに基づいて、マージ候補リスト又は片方向MV選択規則に基づく片予測MVを、それぞれの幾何パーティションの動きベクトルとして導出し、コーディングブロックの幾何パーティションを、幾何パーティションの予測値を取得するために、少なくとも片予測MVに基づいて予測する。【選択図】図11

Description

[関連出願の相互参照]
本特許出願は、2018年10月8日に出願された米国仮特許出願第62/742,921号に対する優先権の利益を主張するものである。上述の特許出願は参照によって全体が本明細書に組み込まれる。
一般に、本発明は、ビデオコーディングの分野に関する。より具体的には、本発明は、三角形予測単位など、三角形マージモードなど、三角形/幾何予測単位のための動きベクトル予測および記憶など、ビデオコーディングブロックのインター予測のために三角形パーティション化を使用して、ビデオ信号のビデオコーディングブロックを符号化および復号する装置および方法に関する。
H.264/AVC(「Advanced Video Coding」)またはHEVC(「High Efficiency Video Coding」)などの現在のビデオコーディング方式において、インター予測画像(フレームとも称される)における動き情報は、構成可能なサイズの長方形ビデオコーディングブロックにパーティション化される。H.264/AVCでは、動きは最大サイズが16×16画素である対称的なビデオコーディングブロック(いわゆるマクロブロック)にパーティション化され、これは更に最小4×4画素まで細分化され得るが、HEVCは、マクロブロックを最大サイズ64×64画素のコーディングツリー単位(CTU)で置き換える。CTUは、より大きいマクロブロックであるだけでなく、クアッドツリー(QT)分解方式で、より小さいコーディング単位(CU)にパーティション化されることができ、それは更に最小サイズ8×8画素まで細分化されることができる。更に、H.264/AVCと比較して、HEVCは追加的にコーディング単位(CU)を予測単位(PU)へ非対称的ブロックパーティション化(AMP)することをサポートする。
各CTUの分解およびパーティション化の決定は、符号化プロセス中に実行され、レート歪み最適化基準に基づく。AMPは既に、改善されたコーディング効率を提供しているが、ビデオシーケンスにおける動くオブジェクトの境界に沿ってコーディング効率における問題が生じ得る。
特に、オブジェクトの境界が厳密に縦方向または横方向でない場合、オブジェクト境界に沿った細かいクアッドツリー分解およびブロックパーティション化が生じ得る。境界に沿った複数のブロックは、同様の動き情報を含むことが予想されるので、冗長性がもたらされ、コーディング効率が減少する。
メモリ帯域幅要件を低減しながらコーディング効率を改善する、ビデオコーディングブロックのインター予測のための三角形パーティション化または対角ベースパーティション化に基づくビデオコーディング(すなわち、符号化および/または復号)のデバイスおよび方法の必要性が存在する。
本発明の目的は、コーディング効率を改善するように、ビデオコーディングブロックのインター予測のための三角形パーティション化または対角ベースパーティション化に基づくビデオコーディングデバイスおよび方法を提供することである。保護の範囲は、特許請求の範囲で定められる。
上述の目的および他の目的が独立請求項の主題により達成される。従属請求項、明細書および図から、更なる実装形式が明らかになる。
本発明の実施形態は、独立請求項の特徴および従属請求項の特徴による実施形態の更に有利な実装によって定義される。
本明細書において用いられる場合、ビデオ信号またはビデオシーケンスは、動画を示す後続のフレームのセットである。言い換えれば、ビデオ信号またはビデオシーケンスは、複数のフレーム(画像またはイメージとも称される)から成る。
本明細書において使用される場合、セグメンテーションとは、画像または画像領域、特にビデオコーディングブロックを、2以上のセグメントまたはパーティションにパーティション化するプロセスである。ここでは三角形パーティションを紹介する。これは、対角または反対角方向のいずれかで、CUを2つの三角形予測単位に分割する。2つの三角形予測単位を使用して、CUを対角または反対角方向のいずれかで分割できる。
本明細書において用いられる場合、コーディングツリー単位(CTU)は、フレームの一部(例えば、64×64個の画素)を含む、予め定義されたサイズのビデオシーケンスのコーディング構造のルートを示す。CTUは、複数のCUにパーティション化できる。
本明細書において使用される場合、コーディング単位(CU)は、CTUに属するフレームの一部を含む、予め定義されたサイズのビデオシーケンスの基本的なコーディング構造を示す。CUは、更なるCUへパーティション化され得る。
本明細書において用いられる場合、予測単位(PU)は、CUをパーティション化した結果であるコーディング構造を示す。
本明細書に記載されるデバイスおよび方法は、ビデオコーディング用途におけるインター予測に有用である、長方形ブロックパーティション化と併せて使用される、セグメンテーションベースのブロックパーティション化のための動き情報を表すために使用され得る。
本明細書において記載されるデバイスおよび方法は、自然のビデオシーケンスの時間的冗長性を利用するべく、画像間のインター予測に使用され得る。
このシナリオにおいて、2つの三角形予測単位を使用して、CUを対角または反対角方向のいずれかに分割できる。CUにおける各三角形予測単位は、動き候補リストから導出され得る自身の動きベクトルおよび1または複数の参照フレームインデックス(第1参照インデックスおよび/または第2参照インデックスなど)を有する。
本開示の全体的なアイデアは、以下のように要約できる。双予測動きベクトルは、三角形/幾何パーティションの少なくとも1つの4×4サブブロックについて、動きベクトル記憶が可能となるが、片方向動き補償のみが実行される。
前述の目的および他の目的は、独立請求項の主題により実現される。更なる実装形態が、従属請求項、明細書および図から明らかである。
本開示の態様によれば、コーディングブロック(またはイメージブロック)について動きベクトル(MV)を導出するための方法が提供され、方法は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成する段階を備え、マージ候補リストを生成する段階は少なくとも、
近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、
空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階と、
少なくともマージ候補リストに基づいて、それぞれの三角形パーティションの動きベクトルとして片予測MVを導出する段階と
を含む。
「コーディングブロック」および「イメージブロック」という表現は、本出願全体を通して交換できることが理解できる。
例において、空間的マージ候補は、図8に図示されるように、HEVCと同様の方式で導出される。空間的マージ候補は、A、A、B、B、およびBと称される。最大で4つのマージ候補が、図8に示される位置に配置される候補から選択される。導出の順序は、A、B、B、AおよびBである。位置A、B、B、AのいずれかのCUが利用可能でない(例えば、別のスライスまたはタイルに属することに起因して)、または、イントラコーディングされるときのみ、位置Bが考慮される。位置Aの候補がマージ候補リストMCLに追加された後、残りの候補の追加が、同一の動き情報を有する候補がMCLリストから除外されることを確実にする冗長チェックを受け、その結果、コーディング効率が改善される。
時間的動きベクトル予測(MVP)は、図9において「6」または「7」で示されるような、コロケート参照画像に属する同一位置のCUに基づいて導出され、導出されたMVPとなる。
2つの三角形パーティション、例えば、PUおよびPUは、図6に示されるように、対角または反対角に沿ったビデオコーディングブロックのパーティション化の結果であり得る。ブロックPUおよびPUは次に、左下および右上の三角形部分、および、ビデオブロックの左上および右下の三角形部分をそれぞれ指し得る。ビデオブロックおよびビデオコーディングブロックという用語は同義語として使用される。「三角形パーティション(triangle partition)」、「三角形ブロック(triangle block)」、「三角形ブロック(triangular block)」、および「三角形パーティション(triangular partitio)」という用語は、同義語として使用される。
ビデオコーディングブロックは、4×4の画素ブロックを含む、より小さいブロック単位に分割され得る。画素という用語はまた、サンプルを指し得る。従って、ビデオブロックの2つの三角形ブロックPUおよびPUの各々は、図7に示されるような複数の4×4ブロック単位を含み得る。
ビデオブロックの対角または反対角上の4×4ブロック単位のサンプルは、三角形パーティションの1つに属する。三角形パーティション(すなわち、三角形ブロック)の各々を予測した後に、適応型の重みを用いたブレンド処理を使用して、対角または反対角の端に沿ったサンプル値が調節される。代替的に、ブレンド処理は、(反)対角の周囲の拡張された範囲にわたって実行され得る。
本開示の態様によれば、片予測MVは、三角形マージモードについての片予測MV選択規則およびマージ候補リストに基づいて導出される。
本開示の態様によれば、マージ候補リストは、1または複数の片予測MVおよび/または1または複数の双予測MVを含む。
本開示の態様によれば、三角形マージモードについての片予測MV選択規則は、マージ候補リストの双予測MVの第1MVまたは第2MVが片予測MVとして選択されることを示す。
本開示の態様によれば、第1MVは第1の参照画像リスト(REF_PIC_LIST0)に対応し、第2MVは第2参照画像リスト(REF_PIC_LIST1)に対応する。
本開示の態様によれば、コーディングブロックについてのマージ候補リストを生成する方法が提供され、方法は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成する段階を備え、マージ候補リストを生成する段階は少なくとも、
近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、
空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階と、
1または複数の空間的マージ候補および導出された1または複数の時間的MVPをマージ候補リストに追加する段階と
を含み、1または複数の空間的マージ候補および/または1または複数の時間的MVPは、片予測MVまたは双予測MVを含む。
代替的に、空間的マージ候補を導出した後に、最大で1つの時間的動きベクトル予測(MVP)が直接的に、および直ちに導出され得、導出された時間的MVPのうち最大で1つが、マージ候補リストに追加され得る。これは、候補6および7のそれぞれを通じて図9において例示される。
図9に示されるように、時間的候補の位置は、候補6および7の間で選択される。位置6のCUが利用可能でない場合、イントラコーディングされ、または、CTUの現在の行の外にあり、位置7が使用される。そうでなければ、位置6が時間的MVP(すなわち、時間的マージ候補)の導出において使用される。
本開示の態様によれば、コーディングブロックの現在の三角形パーティションのインター予測の方法が提供され、方法は、
コーディングブロックが三角形マージモードについて有効である場合、コーディングブロックについてのマージ候補リストを生成する段階であって、マージ候補リストを生成する段階は少なくとも、近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階とを含む、段階と、
少なくともマージ候補リストに基づいて、現在の三角形パーティションの動きベクトルとして片予測MVを導出する段階と、
少なくとも片予測MVに基づいて、現在の三角形パーティションの予測を実行して、現在の三角形パーティションの予測値を取得する段階と
を備える。
本開示の態様によれば、サブブロックベースの時間的マージ候補の導出は、マージ候補リストの生成から除外される。
本開示の態様によれば、片予測MV選択規則は、
REF_PIC_LIST0からの第1MVおよびREF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが、片予測MVとして使用されること、または、
第1MVの参照画像インデックスが、現在の画像への第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、第1MVは片予測MVとして使用されること、または、
REF_PIC_LIST1からの第2MVが、第1MVへの時間的距離より小さい現在の画像への時間的距離を有する参照画像に関する場合、第2MVは片予測MVとして使用されること、または、
現在の画像への時間的距離が第1MVおよび第2MVの両方について等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVが片予測MVとして使用されること
のいずれか1つである。
本開示の態様によれば、コーディングブロックについて動きベクトル(MV)を導出するための装置が提供され、装置は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、マージ候補リストを生成する間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または直ちに導出される、候補リスト生成ユニットと、
少なくともマージ候補リストに基づいて、それぞれの三角形パーティションの動きベクトルとして片予測MVを導出するよう構成されるインター予測処理ユニットと
を備える。
本開示の態様によれば、コーディングブロックについてのマージ候補リストを生成するための装置が提供され、装置は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、マージ候補リストの生成の間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または、直ちに導出され、1または複数の空間的マージ候補および導出された1または複数の時間的MVPはマージ候補リストに追加される、候補リスト生成ユニットを備え、
1または複数の空間的マージ候補および/または1または複数の時間的MVPは、片予測MVまたは双予測MVを含む。
本開示の態様によれば、コーディングブロックの現在の三角形パーティションのインター予測のための装置が提供され、装置は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、マージ候補リストの生成の間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または直ちに導出される、候補リスト生成ユニットと、
少なくともマージ候補リストに基づいてそれぞれの三角形パーティションの動きベクトルとして片予測MVを導出し、少なくとも片予測MVに基づいて現在の三角形パーティションの予測を実行して、現在の三角形パーティションの予測値を取得するよう構成されるインター予測処理ユニットと
を備える。
本開示の態様によれば、片予測MV選択規則は、
REF_PIC_LIST0からの第1MVおよびREF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが、片予測MVとして使用されること、または、
第1MVの参照画像インデックスが、現在の画像への第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、第1MVは片予測MVとして使用されること、または、
REF_PIC_LIST1からの第2MVが、第1MVへの時間的距離より小さい現在の画像への時間的距離を有する参照画像に関する場合、第2MVは片予測MVとして使用されること、または、
現在の画像への時間的距離が第1MVおよび第2MVの両方について等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVが片予測MVとして使用されること
のいずれか1つである。
本開示の態様によれば、符号化ビデオ信号の現在のフレームのビデオコーディングブロックを復号するための復号装置(200)が提供され、復号装置(200)は、
残差ビデオコーディングブロックを提供するために、ビデオコーディングブロックを復号するよう構成される復号ユニット(205、207)と、
三角形マージモードについてのビデオコーディングブロックの三角形パーティションについて導出される片予測動きベクトル(MV)に基づいて予測ビデオコーディングブロックを生成することであって、双予測動きベクトル(MV)が三角形マージモードについて少なくとも1つの4×4サブブロックの動きベクトル記憶について可能である、こと、および、
片方向動き補償を実行すること
を行うよう構成されるインター予測ユニット(215)と、
フィルタリングされた予測ビデオコーディングブロックおよび残差ビデオコーディングブロックに基づいてビデオコーディングブロックを再構築するよう構成される再構築ユニット(209)と
を備える。
少なくとも1つの4×4サブブロックは、2つの三角形パーティションにパーティション化された現在のコーディングブロックの(反)対角線に沿って配置される4×4サブブロックの1つであり得る。
本開示の態様によれば、ビデオ信号の現在のフレームの、2つの三角形パーティションにパーティション化されるコーディングブロックの三角形マージモードについての片方向動き補償を実行するための装置が提供され、
装置は、
2つの三角形パーティションの各々について、三角形マージモードについての片予測MV選択規則およびマージ候補リストに基づいて、片予測動きベクトル(MV)を導出すること、
対応する片予測MVを使用して、2つの三角形パーティションの各々の動き補償を実行すること、および、
2つの動き補償三角形パーティションに基づいて予測コーディングブロックを取得すること
を行うよう構成される処理回路を備える。
動き補償についての三角形ブロックの各々について片方向MVのみを使用することは、三角形パーティション化されたビデオコーディングブロックについて、低い計算コストで効率的に動き補償を実行するという利点を提供し得る。言い換えれば、コーディング効率が改善される。同時に、動き補償についてのメモリ帯域幅は低いままである。これは、三角形モードにおいて、ビデオコーディングブロックがパーティション化される2つの三角形ブロックの各々が、片方向MVによって動き補償されることに起因する。言い換えれば、ビデオコーディングブロックは、あたかもビデオコーディングブロックについての双予測MVが使用されたかのように、動き補償される。
本開示の態様によれば、マージ候補リストは、片予測動きベクトル(MV)候補および/または双予測動きベクトル(MV)候補を含み、双予測MV候補は第1MVおよび第2MVを含む。
本開示の態様によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
REF_PIC_LIST0からの第1MV、および、REF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが片予測MVとして導出されることを含む。
両方のMVが同一の参照画像を指すときに第1および第2MVを平均化することによって双予測MVから片方向MVを導出することは、三角形ブロックについての動き補償をより正確に実行するという利点を提供し得る。
本開示の態様によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
第1MVの参照画像インデックスが、現在の画像への第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、REF_PIC_LIST0からの第1MVが、片予測MVとして導出されること、または、
第2MVが、第1MVの時間的距離より小さい現在の画像への時間的距離(TD1)を有する参照画像に関する場合、REF_PIC_LIST1からの第2MVが片予測MVとして導出されること
を含む。
実装例において、片予測MVが導出され得るマージ候補リストからの双予測MVも格納され得る。これは、更なる後処理に必要であり得る、特定の三角形ブロックについて格納される双予測MVの高速アクセスの利点を提供し得る。従って、三角形ブロックについてのコーディング効率は、それぞれの双予測MVの高速アクセスを介して更に改善され得る。
最小の時間的距離を有する1つのMVを使用することによって双予測MVから片予測MVを導出することは、動き補償をより正確に実行するという利点を提供し得る。これは、最小の時間的距離を有する双予測MVのMVが、参照画像とのより強い時間的相関性を有することに起因する。従って、動き補償における誤差は更に最小化され得る。
本開示の態様によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
現在の画像への第1MVおよび第2MVの時間的距離が等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVは、片予測MVとして導出されること
を含む。
例示的な一実施形態において、MVの大きさ「mag」は、2成分動きベクトルの成分mvおよびmvの二乗の和から計算され得る。
mag(MV)=mv +mv
ここで、MV=(mv,mv)である。
代替的に、大きさは、p‐ノルム(p>0)などの基準に従って決定され得る。p=2であるとき、p‐ノルムは共通のユークリッドノルムになる。本開示の動きベクトルを含む、1成分または多成分ベクトルの大きさを決定するのに好適な他のノルムが使用され得る。
最小の大きさを有するMVを使用することによって双予測MVから片予測MVを導出することは、第1および第2MVの時間的距離が同一である場合において、動き補償をより正確に実行するという利点を提供し得る。これは、参照画像へのMVの時間的距離に加えて、MVの大きさも、現在のビデオブロックについての動き情報の導出の指標であることに起因する。このことは、より小さい大きさを有するMVの動き情報が、三角形ブロックの動き補償より好適であり得ることを意味する。動き情報の差が、より大きい大きさを有するMVより小さいからである。従って、動き補償は非常に正確であり得る。
本開示の前述の態様において、双予測MVの第1および第2MVが、(i)同一の参照画像を指し、(ii)異なる時間的距離を有し、(iii)異なる大きさを有するかどうかに応じて、片予測MVは、指定された規則のいずれかによって別個に導出され得る。
(i)第1および第2MVが同一の参照画像を指すかどうかをチェックし、(ii)どの時間的距離が最小であるかをチェックし、続いて最後に、(iii)どの大きさが最小であるかをチェックするという順序に従って、双予測MVから片予測MVを導出することは、階層に従って双予測MVから段階的方式で片予測MVを導出するという利点を提供し得る。
この階層は、規則のいずれか(各々、「例えばif条件」の観点で指定される)がテストされ得る順序で決定され得る。ここで、上記階層は、(1)参照画像、(2)時間的距離および(3)大きさに基づき得る。従って、(1)から(3)の特定の順序は、双予測MVから高品質の片方向MVを導出するという利点を提供し得る。このことは、三角形ブロックについての動き補償が、そのような階層的に導出されたMVの使用しよって、より正確に実行され得ることを意味する。
本開示の態様によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
REF_PIC_LIST0からの第1MV、および、REF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが、片予測MVとして導出されること、または、
第1MVの参照画像インデックスが、現在の画像の第2MVの時間的距離(TD1)より小さい現在の画像の時間的距離(TD0)を有する参照画像に関する場合、第1MVは片予測MVとして導出されること、または、
REF_PIC_LIST1からの第2MVが、第1MVへの時間的距離より小さい現在の画像への時間的距離を有する参照画像に関する場合、第2MVは片予測MVとして導出されること、または、
現在の画像への時間的距離が、第1MVおよび第2MVの両方について等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVが、片予測MV候補として導出されること
を含む。
本開示の態様によれば、ビデオ信号の現在のフレームのコーディングブロックを符号化するための符号化装置(20)が提供され、符号化装置(20)は、
残差コーディングブロックを提供するための、コーディングブロックを符号化するよう構成される符号化ユニット(204、270)と、
前述の態様に記載の予測コーディングブロックを生成するよう構成されるインター予測ユニット(244)と、
予測コーディングブロック、および、残差コーディングブロックに基づいて、コーディングブロックを再構築するよう構成される再構築ユニット(214)と
を備える。
本開示の態様によれば、ビデオ信号の現在のフレームのコーディングブロックを復号するための復号装置(30)が提供され、復号装置(30)は、
残差コーディングブロックを提供するために、コーディングブロックを復号するよう構成される復号ユニット(304)と、
前述の態様のいずれか一 項に記載の、予測コーディングブロックを生成するよう構成されるインター予測ユニット(344)と、
予測コーディングブロック、および、残差コーディングブロックに基づいて、コーディングブロックを再構築するよう構成される再構築ユニット(314)と
を備える。
本開示の態様によれば、本開示の前述の態様のいずれか一項に記載の方法を実行するための処理回路を備えるエンコーダが提供される。
本開示の態様によれば、本開示の前述の態様のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダが提供される。
本開示の態様によれば、本開示の前述の態様のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム製品が提供される。
本開示の態様によれば、デコーダが提供され、デコーダは、
1または複数のプロセッサと、
プロセッサに連結され、プロセッサによる実行のためのプログラムを格納する非一時的コンピュータ可読記憶媒体であって、プログラムは、プロセッサによって実行されるとき、本開示の前述の態様のいずれか一項に記載の方法を実行するようデコーダを構成する、非一時的コンピュータ可読記憶媒体と
を備える。
本開示の態様によれば、エンコーダが提供され、エンコーダは、
1または複数のプロセッサと、
プロセッサに連結され、プロセッサによる実行のためのプログラムを格納する非一時的コンピュータ可読記憶媒体であって、プログラムは、プロセッサによって実行されるとき、本開示の前述の態様のいずれか一項に記載の方法を実行するようエンコーダを構成する、非一時的コンピュータ可読記憶媒体と
を備える。
本開示の前述の態様のいずれかによるデコーダおよびエンコーダは、計算の複雑性および記憶要件を増加させることなく、より正確にビデオ符号化および復号を行うという利点を提供し得る。これは特に、本開示の前述の態様のいずれかによる片予測MVの導出を利用するインター予測に当てはまる。
方法の段階の関連する本開示の前述の態様のいずれかによる、双予測MVから導出される片方向MVを使用して動き補償を実行する方法は、装置に関連する対応する態様と同一の利点を提供し得る。
ある態様によれば、本発明は、プロセッサおよびメモリを含む、ビデオストリームを復号するための装置に関する。メモリは、前述の方法の態様のいずれか1つによる方法をプロセッサに実行させる命令を格納する。
ある態様によれば、本発明は、プロセッサおよびメモリを含む、ビデオストリームを符号化するための装置に関する。メモリは、前述の方法の態様のいずれか1つによる方法をプロセッサに実行させる命令を格納する。
ある態様によれば、実行されるときに、1または複数のプロセッサにビデオデータをコーディングさせる命令を格納するコンピュータ可読記憶媒体が提案される。命令は1または複数のプロセッサに、前述の態様のいずれか1つ、または、前述の態様のいずれか1つの任意の可能な実施形態による方法を実行させる。
ある態様によれば、本発明は、コンピュータ上で実行されるとき、前述の態様のいずれか1つ、または、前述の態様のいずれか1つの任意の可能な実施形態による方法を実行するためのプログラムコードを含むコンピュータプログラムに関する。
1または複数の実施形態の詳細は、添付図面および以下の説明に記載されている。他の特徴、目的、および利点が、本明細書、図面、および特許請求の範囲から明らかになるであろう。本発明は、ハードウェアおよび/またはソフトウェアで実装されてよい。
明確にすることを目的に、前述の実施形態のうちのいずれか1つは、本開示の範囲内の新たな実施形態を作成するために、その他の前述の実施形態のうちの任意の1または複数と組み合わされてよい。
これらの特徴および他の特徴は、添付図面および特許請求の範囲と併せて用いられる以下の詳細な説明によって明確に理解されるであろう。
本発明の更なる実施形態は、以下の図を参照して説明される。以下において、本発明の実施形態は、添付の図および図面を参照してより詳細に説明される。
本発明の実施形態を実装するように構成されるビデオコーディングシステムの例を示すブロック図である。 本発明の実施形態を実装するように構成されるビデオコーディングシステムの別の例を示すブロック図である。 本発明の実施形態を実装するように構成されるビデオエンコーダの例を示すブロック図である。 本発明の実施形態を実装するように構成されるビデオデコーダの例示的な構造を示すブロック図である。 符号化装置または復号装置の例を図示するブロック図である。 符号化装置または復号装置の別の例を図示するブロック図である。 インター画像予測のための三角形ブロックパーティション化を図示する概略図を示す。 三角形パーティションのための動きベクトル記憶の曖昧性を図示する概略図を示す。 マージリスト導出についてチェックされた空間的位置を図示する概略図を示す。 三角形パーティションについてのJVET-L0124をにおいて指定される空間的および時間的MV位置を図示する概略図を示す。 三角形パーティションについてのJVET-L0124において提案される動きベクトル記憶を図示する概略図を示す。 動きベクトル導出のための方法のフローチャートを示す。 マージ候補リスト生成のための方法のフローチャートを示す。 インター予測についての方法のフローチャートを示す。 マージリスト生成、マージ候補選択、および、片予測MV導出を組み合わせた段階のフローチャートを示す。 一定の規則による三角形パーティション(PU)についての動きベクトル記憶を図示する概略図を示す。 一定の規則による三角形パーティション(PU)についての動きベクトル記憶を図示する概略図を示す。 実際の予測に使用される双予測動きベクトル(赤)と、記憶のみに使用される双予測動きベクトル(黒)との間の差異の視覚化を図示する概略図を示す。 MV導出装置の概略図を示す。 MCL生成装置の概略図を示す。 インター予測装置の概略図を示す。 復号装置の概略図を示す。 インター予測装置についての概略図を示す。 コンテンツ配信サービスを提供するコンテンツ供給システムの構造の例を示すブロック図である。 端末デバイスの例の構造を示すブロック図である。 様々な図において、同一の参照符号は、同一であるか、または少なくとも機能的に同等の特徴について用いられる。
本発明を詳細に説明するべく、以下の用語、略語、および表記が使用される。
HEVC 高効率ビデオコーディング
CU コーディング単位
CTU コーディングツリー単位
PU 予測単位
PB 予測ブロック
MV 動きベクトル
POC 画像順序カウント
以下の説明では、本開示の一部を形成する添付図面が参照される。添付図面には、例として、本発明が提起され得る特定の態様が示される。他の態様が利用され得ること、および本発明の範囲から逸脱することなく構造的または論理的な変更が行われ得ることが理解される。従って、以下の詳細な説明は、制限的な意味で解釈されるべきではなく、本発明の範囲は、添付の特許請求の範囲によって定義される。
例えば、説明される方法に関連する開示も、当該方法を実行するように構成される対応するデバイスまたはシステムについて当てはまり得ること、そしてその逆も同様であることが理解される。例えば、特定の方法の段階が説明される場合、対応するデバイスは、説明される方法の段階を実行するためのユニットを、そのようなユニットが明確に説明されないか、または図示されない場合でも、含み得る。更に、本明細書において説明される様々な例示的な態様の特徴は、特に別段の記載がない限り、互いに組み合わされ得ることが理解される。
例えば、1または複数の特定の方法の段階が説明されている場合、対応するデバイスは、記載された1または複数の方法の段階を実行するために1または複数のユニット、例えば機能ユニットを含むことができ(例えば、1または複数の段階を実行する1つのユニット、またはそれぞれが複数の段階の1または複数を実行する複数のユニット)、そのような1または複数のユニットが図に明示的に説明または図示されていない場合であっても同様である。他方、例えば、特定の装置が1または複数のユニット、例えば機能ユニットに基づいて説明される場合、対応する方法は、1または複数のユニットの機能を実行するための1つの段階を含み得(例えば、1または複数のユニットの機能を実行する1つの段階、または複数のユニットの1または複数の機能をそれぞれ実行する複数の段階)、そのような1または複数の段階が図に明示的に説明または図示されていない場合であっても同様である。更に、特に断りのない限り、本明細書で説明する様々な例示的な実施形態および/または態様の特徴を互いに組み合わせることができることが理解される。
ビデオコーディングは典型的には、ビデオまたはビデオシーケンスを形成する一連の画像の処理を意味する。画像という用語の代わりに、「フレーム」または「イメージ」という用語が、ビデオコーディングの分野での同義語として使用されてもよい。ビデオコーディング(または一般的にコーディング)は、2つの部分、すなわちビデオ符号化とビデオ復号で構成される。ビデオ符号化は送信元側で実行され、典型的には、元のビデオ画像の処理(例えば、圧縮によって)を含み、ビデオ画像を表すために必要なデータ量を削減する(より効率的な記憶および/または送信のため)。ビデオ復号は送信先側で実行され、典型的には、ビデオ画像を再構築するためにエンコーダと比較して逆の処理を含む。ビデオ画像(または一般的に画像)の「コーディング」に言及する実施形態は、ビデオ画像またはそれぞれのビデオシーケンスの「符号化」または「復号」に関するものと理解されるべきである。符号化部分と復号部分の組み合わせは、コーデック(コーディングおよび復号)とも称される。
無損失ビデオコーディングの場合、元のビデオ画像を再構築でき、すなわち、再構築されたビデオ画像は元のビデオ画像と同じ品質である(保存中または伝送中に伝送損失またはその他のデータ損失がないと仮定して)。不可逆ビデオコーディングの場合、例えば量子化などの更なる圧縮が実行され、デコーダで完全に再構築できないビデオ画像を表すデータ量が削減され、すなわち、再構築されたビデオ画像の品質は、元のビデオ画像の品質と比較して低くなったり悪くなったりする。
複数のビデオコーディング標準は、「不可逆ハイブリッドビデオコーデック」のグループに属している(すなわち、サンプル領域での空間的および時間的予測と、変換領域で量子化を適用するための2D変換コーディングを組み合わせる)。ビデオシーケンスの各画像は、典型的には、非重複ブロックのセットへとパーティション化され、典型的には、コーディングはブロックレベルで実行される。換言すれば、エンコーダでは、ビデオは典型的には、ブロック(ビデオブロック)レベルで処理、すなわち、符号化され、例えば、空間的(イントラ画像)予測および/または時間的(インター画像)予測を使用して予測ブロックを生成し、現在ブロック(現在処理中/処理予定のブロック)から予測ブロックを減算して残差ブロックを取得し、残差ブロックを変換し、変換領域残差ブロックを量子化して、送信するデータ量を削減(圧縮)し、デコーダは、エンコーダと比較して逆の処理を符号化または圧縮されたブロックに適用して、現在ブロックを再構築して表示する。更に、エンコーダがデコーダの処理ループを繰り返すことにより、両方が同一の予測(例えば、イントラ予測およびインター予測)および/または再構築物を、次のブロックを処理するために、すなわちコーディングするために生成することになる。
ビデオコーディングシステム10の以下の実施形態において、ビデオエンコーダ20およびビデオデコーダ30は図1Aから図3に基づいて説明される。
図1Aは、本願の技法を利用し得るコーディングシステム10、例えばビデオコーディングシステム10(または略してコーディングシステム10)の例を図示する概略ブロック図である。ビデオコーディングシステム10のビデオエンコーダ20(または略してエンコーダ20)およびビデオデコーダ30(または略してデコーダ30)は、本願において説明される様々な例による技法を実行するよう構成され得るデバイスの例を表す。
図1Aに示されるように、コーディングシステム10は、例えば、符号化された画像データ21を復号するために送信先デバイス14へ、符号化された画像データ21を提供するよう構成される送信元デバイス12を含む。
送信元デバイス12はエンコーダ20を含み、追加的に、すなわち、任意で、画像ソース16、プリプロセッサ(または前処理ユニット)18、例えば、画像プリプロセッサ18、および、通信インタフェースまたは通信ユニット22を含み得る。
画像ソース16は、任意の種類の画像キャプチャデバイス、例えば、現実世界の画像を取り込むためのカメラ、および/または、任意の種類の画像生成デバイス、例えば、コンピュータアニメーション画像を生成するためのコンピュータグラフィックスプロセッサ、または、現実世界の画像、コンピュータ生成画像(例えば画面コンテンツ、仮想現実(VR)画像)、および/または、それらの任意の組み合わせ(例えば、拡張現実(AR)画像)を取得および/または提供するための任意の種類の他のデバイスを含み得る、またはそれらであり得る。画像ソースは、上述の画像のいずれかを格納する任意の種類のメモリまたはストレージであり得る。
プリプロセッサ18および前処理ユニット18によって実行される処理とは異なり、画像または画像データ17は、未処理画像または未処理画像データ17とも称され得る。
プリプロセッサ18は、(未処理)画像データ17を受信し、画像データ17に対して前処理を実行して、前処理された画像19または前処理された画像データ19を取得するよう構成される。プリプロセッサ18によって実行される前処理は、例えば、トリミング、色フォーマット変換(例えば、RGBからYCbCr)、色補正、またはノイズ除去を含み得る。前処理ユニット18は任意のコンポーネントであり得ると理解できる。
ビデオエンコーダ20は、前処理された画像データ19を受信して、符号化された画像データ21を提供するよう構成される(更なる詳細は、例えば図2に基づいて下で説明される)。
送信元デバイス12の通信インタフェース22は、符号化された画像データ21を受信し、符号化された画像データ21(または、任意の更に処理されたそのバージョン)を、記憶または直接再構築のために、通信チャネル13を介して別のデバイス、例えば、送信先デバイス14または任意の他のデバイスへ送信するよう構成され得る。
送信先デバイス14は、デコーダ30(例えばビデオデコーダ30)を含み、追加的に、すなわち任意選択的に、通信インタフェースまたは通信ユニット28、ポストプロセッサ32(または後処理ユニット32)およびディスプレイデバイス34を含み得る。
送信先デバイス14の通信インタフェース28は、例えば、直接的に送信元デバイス12から、または、任意の他のソース、例えば、ストレージデバイス、例えば、符号化された画像データのストレージデバイスから、符号化された画像データ21(または、その任意の更に処理されたバージョン)を受信し、符号化された画像データ21をデコーダ30へ提供するよう構成される。
通信インタフェース22および通信インタフェース28は、送信元デバイス12と送信先デバイス14との間の直接通信リンク、例えば、直接的な有線または無線接続を介して、または、任意の種類のネットワーク、例えば、有線もしくは無線ネットワーク、または、それらの任意の組み合わせ、または、任意の種類のプライベートおよびパブリックネットワーク、または、任意の種類のそれらの組み合わせを介して、符号化された画像データ21または符号化されたデータ13を送信または受信するよう構成され得る。
通信インタフェース22は例えば、符号化された画像データ21を適切なフォーマット、例えばパケットにパッケージ化し、および/または、通信リンクまたは通信ネットワークを介した伝送のために任意の種類の伝送符号化または処理を使用して、符号化された画像データを処理するよう構成され得る。
通信インタフェース22に相当するものを形成する通信インタフェース28は、例えば、送信されたデータを受信し、任意の種類の対応する送信復号または処理、および/または、パッケージ解除を使用することにより、送信データを処理して、符号化された画像データ21を取得するよう構成され得る。
通信インタフェース22および通信インタフェース28は両方とも、送信元デバイス12から送信先デバイス14を指している、図1Aにおける通信チャネル13についての矢印によって示されるような単方向通信インタフェース、または、双方向通信インタフェースとして構成され得、例えば、メッセージを送信および受信し、例えば、接続を設定し、通信リンクおよび/またはデータ送信、例えば、符号化された画像データ送信に関連する任意の他の情報を確認および交換するよう構成され得る。
デコーダ30は、符号化された画像データ21を受信し、復号された画像データ31または復号された画像31を提供するよう構成される(更なる詳細は、例えば図3または図5に基づいて以下で説明される)。
送信先デバイス14のポストプロセッサ32は、復号された画像データ31(再構築された画像データとも称される)、例えば、復号された画像31を後処理して、後処理された画像データ33、例えば、後処理された画像33を取得するよう構成される。後処理ユニット32により行われる後処理は、例えば、復号された画像データ31を、例えば、ディスプレイデバイス34による表示のために準備する目的で、例えば、色フォーマット変換(例えば、YCbCrからRGBへの変換)、色補正、トリミング、もしくは再サンプリング、または任意の他の処理を含んでよい。
送信先デバイス14のディスプレイデバイス34は、画像を例えばユーザまたは視聴者に表示するための後処理された画像データ33を受信するよう構成される。ディスプレイデバイス34は、再構築された画像を表示するための任意の種類のディスプレイ、例えば、一体型または外部ディスプレイまたはモニタであってもよく、またはこれを含んでもよい。ディスプレイは、例えば、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、プラズマディスプレイ、プロジェクタ、マイクロLEDディスプレイ、液晶オンシリコン(LCoS)、デジタル光プロセッサ(DLP)、または任意の種類の他のディスプレイを含んでよい。
図1Aは送信元デバイス12および送信先デバイス14を別個のデバイスとして示しているが、デバイスの実施形態はまた、両方または両方の機能、送信元デバイス12または対応する機能、および、送信先デバイス14または対応する機能を含み得る。そのような実施形態では、送信元デバイス12または対応する機能および送信先デバイス14または対応する機能は、同じハードウェアおよび/またはソフトウェアを用いて、または別個のハードウェアおよび/またはソフトウェアまたはこれらの任意の組み合わせで実装されてよい。
説明に基づいて当業者には明らかとなるように、図1Aに示されるような、異なるユニットの機能、または、送信元デバイス12および/または送信先デバイス14内の機能の存在および(厳密な)分割は、実際のデバイスと用途に応じて変動し得る。
エンコーダ20(例えばビデオエンコーダ20)およびデコーダ30(例えばビデオデコーダ30)の各々は、1または複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリートロジックハードウェア、または、それらの任意の組み合わせなど、図1Bに示されるような任意の様々な好適な回路として実装され得る。これらの技法がソフトウェアで部分的に実装される場合、デバイスがそのソフトウェア用の命令を好適な非一時的コンピュータ可読記憶媒体に格納してよく、1または複数のプロセッサを用いるハードウェアで命令を実行して、本開示の技法を実行してよい。前述のいずれか(ハードウェア、ソフトウェア、ハードウェアおよびソフトウェアの組み合わせなどを含む)は、1または複数のプロセッサであるとみなされ得る。ビデオエンコーダ20およびビデオデコーダ30のそれぞれは、1または複数のエンコーダまたはデコーダに含まれてよく、そのうちのいずれかはそれぞれのデバイスに一体型エンコーダ/デコーダ(コーデック)の一部として組み込まれてもよい。
送信元デバイス12および送信先デバイス14は、任意の種類のハンドヘルドまたは固定デバイス、例えばノートブックまたはラップトップコンピュータ、携帯電話、スマートフォン、タブレットまたはタブレットコンピュータ、カメラ、デスクトップコンピュータ、セットトップボックス、テレビ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイス(コンテンツサービスサーバ、または、コンテンツ配信サーバなど)、放送受信デバイス、放送送信デバイス、または同様のものなどを含む幅広い範囲のデバイスのいずれかを含み得、任意の種類のオペレーティングシステムを使用しても、または使用しなくてもよい。いくつかの場合、送信元デバイス12および送信先デバイス14は無線通信のための装備を有し得る。従って、送信元デバイス12および送信先デバイス14は無線通信デバイスであり得る。
いくつかの場合において、図1Aにおいて図示されるビデオコーディングシステム10は単に例であり、本願の技法は、符号化デバイスと復号デバイスとの間の任意のデータ通信を必ずしも含まないビデオコーディング設定(例えば、ビデオ符号化またはビデオ復号)に適用され得る。他の例において、データがローカルメモリから取得され、ネットワークなどを介してストリーミングされる。ビデオ符号化デバイスは、データを符号化してメモリに格納し得、および/または、ビデオ復号デバイスは、データをメモリから取得して復号し得る。いくつかの例において、符号化および復号は、互いに通信することなく単純にデータをメモリに符号化し、および/または、メモリからデータを取得および復号するデバイスによって実行される。
図1Bは、例示的な実施形態による、図2のエンコーダ20および/または図3のデコーダ30を含む別の例示的なビデオコーディングシステム40の説明図である。システム40は、本願において説明される様々な例による技法を実装できる。図示された実装において、ビデオコーディングシステム40は、イメージングデバイス41、ビデオエンコーダ100、ビデオデコーダ30(および/または処理ユニット46の論理回路47を介して実装されるビデオコーダ)、アンテナ42、1または複数のプロセッサ43、1または複数メモリストア44、および/または、ディスプレイデバイス45を含み得る。
図示されるように、イメージングデバイス41、アンテナ42、処理ユニット46、論理回路47、ビデオエンコーダ20、ビデオデコーダ30、プロセッサ43、メモリストア44、および/または、ディスプレイデバイス45は、互いに通信可能であり得る。説明されるように、ビデオエンコーダ20およびビデオデコーダ30の両方を用いて図示されるが、ビデオコーディングシステム40は、様々な例において、ビデオエンコーダ20のみ、または、ビデオデコーダ30のみを含み得る。
示されるように、いくつかの例において、ビデオコーディングシステム40はアンテナ42を含み得る。アンテナ42は、例えば、ビデオデータの符号化されたビットストリームを送信または受信するよう構成され得る。更に、いくつかの例において、ビデオコーディングシステム40はディスプレイデバイス45を含み得る。ディスプレイデバイス45は、ビデオデータを提示するよう構成され得る。示されるように、いくつかの例において、論理回路47は処理ユニット46を介して実装され得る。処理ユニット46は、特定用途向け集積回路(ASIC)ロジック、グラフィックスプロセッサ、汎用プロセッサ等を含み得る。また、ビデオコーディングシステム40は、任意選択のプロセッサ43も含み得、任意選択のプロセッサ43は、同様に、特定用途向け集積回路(ASIC)ロジック、グラフィックスプロセッサ、汎用プロセッサ等を含み得る。いくつかの例において、論理回路47は、ハードウェア、またはビデオコーディング専用ハードウェア等で実装されてよく、プロセッサ43は、汎用ソフトウェア、またはオペレーティングシステム等で実装されてよい。加えて、メモリストア44は、揮発性メモリ(例えば、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)など)、または不揮発性メモリ(例えば、フラッシュメモリなど)等、任意のタイプのメモリであってもよい。非限定的な例において、メモリストア44は、キャッシュメモリにより実装され得る。いくつかの例において、論理回路47は、メモリストア44(例えば、イメージバッファの実装用)にアクセスし得る。他の例において、論理回路47および/または処理ユニット46は、イメージバッファ等を実装するメモリストア(例えば、キャッシュ等)を含み得る。
いくつかの例において、論理回路を介して実装されるビデオエンコーダ20は、(例えば、処理ユニット46またはメモリストア44のいずれかを介する)イメージバッファおよびグラフィックス処理ユニット(例えば、処理ユニット46を介する)を含み得る。グラフィックス処理ユニットはイメージバッファに通信可能に連結され得る。図2に関して記載された様々なモジュールおよび/または本明細書に記載された他の任意のエンコーダシステムまたはサブシステムを具現化すべく、グラフィックス処理ユニットは、論理回路47を介して実装されるビデオエンコーダ20を含み得る。論理回路は、本明細書において説明されるような様々な動作を実行するよう構成され得る。
ビデオデコーダ30は、図3のデコーダ30に関して説明されるような様々なモジュール、および/または、本明細書において説明される任意の他のデコーダシステムまたはサブシステムを具現化するために、論理回路47を介して実装されるのと同様の方式で実装され得る。いくつかの例において、論理回路を介して実装されるビデオデコーダ30は、イメージバッファ(例えば、処理ユニット46またはメモリストア44のいずれかを介する)およびグラフィックス処理ユニット(例えば処理ユニット46を介する)を含み得る。グラフィックス処理ユニットはイメージバッファに通信可能に連結され得る。図3に関し記載された様々なモジュールおよび/または本明細書に記載された他の任意のデコーダシステムまたはサブシステムを具現化すべく、グラフィックス処理ユニットは、論理回路47を介して実装されるビデオデコーダ30を含み得る。
いくつかの例において、ビデオコーディングシステム40のアンテナ42は、ビデオデータの符号化されたビットストリームを受信するように構成されてよい。説明されるように、符号化されたビットストリームは、コーディングパーティションに関連するデータ(例えば、変換係数または量子化変換係数、(説明されるような)任意選択のインジケータ、および/または、コーディングパーティションを定義するデータ)など、本明細書において説明されるようなビデオフレームの符号化に関連するデータ、インジケータ、インデックス値、またはモード選択データなどを含み得る。ビデオコーディングシステム40は、アンテナ42に連結され、かつ、符号化されたビットストリームを復号するよう構成されたビデオデコーダ30も含んでよい。ディスプレイデバイス45は、ビデオフレームを提示するように構成される。
説明の便宜上、本発明の実施形態は、本明細書において、例えば、高効率ビデオコーディング(HEVC)またはバーサタイルビデオコーディング(VVC)の参照ソフトウェア、ITU-T Video Coding Experts Group(VCEG)およびISO/IEC Motion Picture Experts Group(MPEG)のJoint Collaboration Team on Video Coding(JCT-VC)によって開発された次世代ビデオコーディング規格を参照して説明される。当業者であれば、本発明の実施形態がHEVCまたはVVCに限定されないことを理解するであろう。
エンコーダおよび符号化方法
図2は、本願の技法を実装するよう構成される例示的なビデオエンコーダ20の概略ブロック図を示す。図2の例において、ビデオエンコーダ20は、入力部201(または入力インタフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、および逆変換処理ユニット212、再構築ユニット214、ループフィルタユニット220、復号画像バッファ(DPB)230、モード選択ユニット260、エントロピー符号化ユニット270、および、出力部272(または出力インタフェース272)を含む。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、およびパーティション化ユニット262を含み得る。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニットを含んでよい(図示せず)。図2に示すビデオエンコーダ20は、ハイブリッドビデオエンコーダまたはハイブリッドビデオコーデックによるビデオエンコーダとも称されることがある。
残差計算ユニット204、変換処理ユニット206、量子化ユニット208、モード選択ユニット260は、エンコーダ20の順方向信号経路を形成していると表現され得、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、バッファ216、ループフィルタ220、復号画像バッファ(DPB)230、インター予測ユニット244、およびイントラ予測ユニット254は、ビデオエンコーダ20の逆方向信号経路を形成していると表現され得、ここで、ビデオエンコーダ20の逆方向信号経路は、デコーダの信号経路に対応する(図3のビデオデコーダ30を参照)。逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタ220、復号画像バッファ(DPB)230、インター予測ユニット244、およびイントラ予測ユニット254はまた、ビデオエンコーダ20の「内蔵デコーダ」を形成していると表現される。
画像および画像パーティション化(画像およびブロック)
エンコーダ20は、例えば、入力部201を介して、画像17(または画像データ17)、例えば、ビデオまたはビデオシーケンスを形成する一連の画像のうちの画像を受信するよう構成され得る。受信された画像または画像データはまた、前処理された画像19(または前処理された画像データ19)であり得る。簡潔にするために、以下の説明は画像17に関する。画像17はまた、(特に、ビデオコーディングにおいて、同一のビデオシーケンス、すなわち、現在の画像も含むビデオシーケンスのうちの現在の画像を他の画像、例えば、以前に符号化された、および/または、復号された画像から区別するために)現在の画像、または、コーディングされる画像とも称され得る。
(デジタル)画像は、強度値を持つサンプルの2次元アレイまたはマトリクスであるか、またはそれとみなされ得る。アレイ内のサンプルは、画素(画像要素の短縮形)またはペルとも称され得る。アレイまたは画像の横方向および縦方向(または軸)のサンプル数は、画像のサイズおよび/または解像度を定義する。色を表現するために、典型的には3つの色成分が使用され、すなわち、画像が表され得るか、または3つのサンプルアレイを含み得る。RBG形式または色空間では、画像は対応する赤、緑、および青のサンプルアレイを含む。しかしながら、ビデオコーディングでは、各画素は典型的には、ルミナンス/クロミナンス形式または色空間で表され、例えば、Y(代わりにLが使用されることもある)で示されるルミナンス成分と、CbおよびCrで示される2つのクロミナンス成分で構成されるYCbCrなどで表される。ルミナンス(または短縮してルマ(luma))成分Yは、輝度または(例えば、グレースケール画像でのような)グレーレベルの強度を表し、2つのクロミナンス(または短縮してクロマ(chroma))成分であるCbおよびCrは、色度または色情報成分を表す。従って、YCbCr形式の画像は、ルミナンスサンプル値(Y)のルミナンスサンプルアレイ、およびクロミナンス値(CbおよびCr)の2つのクロミナンスサンプルアレイを含む。RGB形式の画像は、YCbCr形式に転換または変換することができ、その逆も同様であり、このプロセスは、色変換または転換とも称される。画像が単色の場合、画像はルミナンスサンプルアレイのみで構成され得る。従って、画像は例えば、単色フォーマットのルマサンプルのアレイ、または、4:2:0、4:2:2、および、4:4:4の色フォーマットであるルマサンプルのアレイ、および、クロマサンプルの2つの対応するアレイであり得る。
ビデオエンコーダ20の実施形態は、画像17を複数の(典型的には非重複の)画像ブロック203にパーティション化するよう構成される画像パーティション化ユニット(図2において図示されない)を含み得る。これらのブロックは、ルートブロック、マクロブロック(H.264/AVC)またはコーディングツリーブロック(CTB)またはコーディングツリー単位(CTU)(H.265/HEVCおよびVVC)とも称され得る。画像パーティション化ユニットは、ブロックサイズを定義するビデオシーケンスおよび対応するグリッドのすべての画像に同じブロックサイズを使用するか、または、画像間もしくはサブセット間もしくは画像グループ間でブロックサイズを変更し、各画像を対応するブロックにパーティション化するように構成され得る。
更なる実施形態において、ビデオエンコーダは、画像17のブロック203(例えば、画像17を形成する1つ、複数、またはすべてのブロック)を直接的に受信するよう構成され得る。画像ブロック203はまた、現在の画像ブロック、または、コーディングされる画像ブロックとも称され得る。
画像17と同様に、画像ブロック203もまた、画像17よりも小さい寸法であるが、強度値(サンプル値)を有するサンプルの2次元アレイまたはマトリクスであるか、またはそれとみなすことができる。換言すれば、ブロック203は、例えば、1つのサンプルアレイ(例えば、単色画像17の場合はルマアレイ、または、カラー画像の場合はルマもしくはクロマアレイ)、または、3つのサンプルアレイ(例えば、カラー画像17の場合はルマおよび2つのクロマアレイ)、または、適用される色フォーマットに応じて、任意の他の数および/または種類のアレイを含み得る。ブロック203の横方向および縦方向(または軸)のサンプルの数は、ブロック203のサイズを定義する。従って、ブロックは例えば、M×N(M列×N行)のアレイのサンプル、または、M×Nのアレイの変換係数であり得る。
図2に示されるようなビデオエンコーダ20の実施形態は、ブロックごとに画像17を符号化するよう構成され得る。例えば、符号化および予測はブロック203ごとに実行される。
残差計算
残差計算ユニット204は、例えば、予測ブロック265のサンプル値を画像ブロック203のサンプル値から減算して、サンプルごとに(画素ごとに)サンプル領域における残差ブロック205を取得することによって、画像ブロック203および予測ブロック265(予測ブロック265についての更なる詳細は後述される)に基づいて残差ブロック205(残差205とも称される)を計算するよう構成され得る。
変換
変換処理ユニット206は、残差ブロック205のサンプル値に対して、変換、例えば離散余弦変換(DCT)または離散正弦変換(DST)を適用して、変換領域における変換係数207を取得するよう構成され得る。変換係数207はまた、変換残差係数とも称され、変換領域における残差ブロック205を表し得る。
変換処理ユニット206は、H.265/HEVCについて指定された変換など、DCT/DSTの整数近似を適用するよう構成され得る。正規直交DCT変換と比較すると、そのような整数近似は典型的には、特定の係数によってスケーリングされる。順変換と逆変換によって処理される残差ブロックのノルムを保存するべく、変換プロセスの一部として追加のスケーリング係数が適用される。スケーリング係数は、典型的には、シフト演算の2のべき乗であるスケーリング係数、変換係数のビット深度、精度と実装コストのトレードオフ等などの特定の制約に基づいて選択される。例えば特定のスケーリング係数は、例えば逆変換処理ユニット212(および、例えば、ビデオデコーダ30における逆変換処理ユニット312による対応する逆変換)による逆変換について指定され、例えばエンコーダ20において変換処理ユニット206による順方向変換についての対応するスケーリング係数は、それに応じて指定され得る。
ビデオエンコーダ20(それぞれ変換処理ユニット206)の実施形態は、変換パラメータ、例えば、変換または複数の変換のタイプを、例えば直接的に、または、エントロピー符号化ユニット270を介して符号化もしくは圧縮して出力するよう構成され得る。その結果、例えば、ビデオデコーダ30は、復号のための変換パラメータを受信および使用し得る。
量子化
量子化ユニット208は、例えばスカラ量子化またはベクトル量子化を適用することによって、変換係数207を量子化して、量子化された係数209を取得するよう構成され得る。量子化された係数209はまた、量子化された変換係数209、または量子化された残差係数209とも称され得る。
量子化プロセスは、変換係数207のいくつかまたはすべてに関連するビット深度を低減し得る。例えば、nビット変換係数は、量子化中にmビット変換係数に切り捨てられ得る(nはmより大きい)。量子化の程度は、量子化パラメータ(QP)を調節することによって修正され得る。例えば、スカラ量子化の場合、より細かいまたはより粗い量子化を達成するために、異なるスケーリングが適用されてもよい。より小さい量子化ステップサイズは、より細かい量子化に対応し、より大きい量子化ステップサイズは、より粗い量子化に対応する。適用可能な量子化ステップサイズは、量子化パラメータ(QP)によって示され得る。量子化パラメータは、例えば、適用可能な量子化ステップサイズの予め定義されたセットへのインデックスであり得る。例えば、小さな量子化パラメータは細かい量子化(小さな量子化ステップサイズ)に対応し得、大きな量子化パラメータは粗い量子化(大きな量子化ステップサイズ)に対応し得るか、または逆も同様である。量子化は、量子化ステップサイズによる除算を含み得、例えば、逆量子化ユニット210による対応するおよび/または逆の逆量子化は、量子化ステップサイズによる乗算を含み得る。いくつかの規格、例えばHEVCによる実施形態は、量子化パラメータを使用して量子化ステップサイズを決定するよう構成され得る。概して、量子化ステップサイズは、除算を含む数式の固定小数点近似を使用する量子化パラメータに基づいて算出できる。残差ブロックのノルムを復元するために、量子化と逆量子化に追加のスケーリング係数を導入でき、これは、量子化ステップサイズと量子化パラメータの数式の固定小数点近似で使用されるスケーリングに起因して変更され得る。一実装例では、逆変換のスケーリングと逆量子化を組み合わせることができる。代替的に、カスタマイズされた量子化テーブルが使用され得、例えば、ビットストリームで、エンコーダからデコーダへシグナリングされ得る。量子化は不可逆演算であり、損失は量子化ステップサイズの増加に伴って増加する。
ビデオエンコーダ20(それぞれ量子化ユニット208)の実施形態は、量子化パラメータ(QP)を、例えば、直接的に、もしくは、エントロピー符号化ユニット270を介して符号化して出力するよう構成され得る。その結果、例えばビデオデコーダ30は、復号のための量子化パラメータを受信および適用し得る。
逆量子化
逆量子化ユニット210は、量子化ユニット208の逆量子化を量子化係数に適用して、例えば、量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用された量子化スキームの逆を適用することによって、逆量子化係数211を取得するように構成される。逆量子化係数211は、逆量子化残差係数211とも称され得、典型的には、量子化による損失に起因して変換係数と同一ではないが、変換係数207に対応する。
逆変換
逆変換処理ユニット212は、変換処理ユニット206によって適用される変換の逆変換、例えば、逆離散余弦変換(DCT)または逆離散正弦変換(DST)または他の逆変換を適用して、サンプル領域において再構築残差ブロック213(または対応する逆量子化係数213)を取得するよう構成される。再構築残差ブロック213は、変換ブロック213とも称され得る。
再構築
再構築ユニット214(例えば加算器または加算器214)は、変換ブロック213(すなわち、再構築残差ブロック213)を予測ブロック265に追加して、例えば、サンプルごとに、再構築残差ブロック213のサンプル値および予測ブロック265のサンプル値を加算することによって、サンプル領域において再構築ブロック215を取得するよう構成される。
フィルタリング
ループフィルタユニット220(または略して「ループフィルタ」220)は、再構築ブロック215をフィルタリングして、フィルタリングされたブロック221を取得するように、または、一般的に、再構築サンプルをフィルタリングして、フィルタリングされたサンプルを取得するよう構成される。ループフィルタユニットは例えば、画素遷移を平滑化するように、またはそうでなければ、ビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応型オフセット(SAO)フィルタ、または、1または複数の他のフィルタ、例えば、バイラテラルフィルタ、適応型ループフィルタ(ALF)、シャープ処理、平滑化フィルタもしくは協調フィルタ、または、それらの任意の組み合わせなどの1または複数のループフィルタを含み得る。ループフィルタユニット220が、ループフィルタ内にあるものとして図2に示されているが、他の構成では、ループフィルタユニット220はポストループフィルタとして実装されてもよい。フィルタリングされたブロック221は、フィルタリングされた再構築ブロック221とも称され得る。ループフィルタユニット220が、再構築されたコーディングブロックに対してフィルタリング操作を実行した後に、復号画像バッファ230は、再構築されたコーディングブロックを格納し得る。
ビデオエンコーダ20(それぞれループフィルタユニット220)の実施形態は、ループフィルタパラメータ(サンプル適応型オフセット情報など)を、例えば、直接的に、または、エントロピー符号化ユニット270を介して符号化して出力するよう構成され得る。その結果、例えばデコーダ30は、同一のループフィルタパラメータまたはそれぞれのループフィルタを復号のために受信および適用し得る。
復号画像バッファ
復号画像バッファ(DPB)230は、ビデオエンコーダ20によってビデオデータを符号化するために、参照画像、または一般的に参照画像データを格納するメモリであり得る。DPB230は、同期DRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM(登録商標))、または、他のタイプのメモリデバイスを含む、ダイナミックランダムアクセスメモリ(DRAM)などの様々なメモリデバイスのいずれかによって形成され得る。復号画像バッファ(DPB)230は、1または複数のフィルタリングされたブロック221を格納するよう構成され得る。復号画像バッファ230は、同じ現在の画像または異なる画像の、例えば、以前に再構築された画像の、他の以前にフィルタリングされたブロック、例えば、以前に再構築およびフィルタリングされたブロック221を記憶するように更に構成され得、例えば、インター予測のために、完全に以前に再構築された、すなわち、復号画像(および対応する参照ブロックおよびサンプル)および/または部分的に再構築された現在の画像(および対応する参照ブロックおよびサンプル)を提供し得る。復号画像バッファ(DPB)230はまた、例えば、再構築ブロック215がループフィルタユニット220によってフィルタリングされていない場合、1または複数のフィルタリングされていない再構築ブロック215、または一般的に、フィルタリングされていない再構築サンプル、または、再構築ブロックもしくはサンプルの任意の他の更に処理されたバージョンを格納するよう構成され得る。
モード選択(パーティション化および予測)
モード選択ユニット260は、パーティション化ユニット262、インター予測ユニット244およびイントラ予測ユニット254を含み、元の画像データ、例えば、元のブロック203(現在の画像17の現在ブロック203)、および、再構築された画像データ、例えば、同一(現在)の画像および/または1または複数の以前に復号された画像のフィルタリングされた、および/またはフィルタリングされていない再構築サンプルまたはブロックを、例えば、復号画像バッファ230または他のバッファ(例えば、ラインバッファ、図示せず)から受信または取得するよう構成される。再構築された画像データは、予測ブロック265または予測子265を取得するために、予測、例えば、インター予測またはイントラ予測のための参照画像データとして使用される。
モード選択ユニット260は、現在ブロック予測モード(パーティション化を含まない)および予測モード(例えばイントラまたはインター予測モード)についてパーティション化を決定または選択し、残差ブロック205の計算および再構築ブロック215の再構築のために使用される対応する予測ブロック265を生成するよう構成され得る。
モード選択ユニット260の実施形態は、最良の一致、換言すれば、最小残差(最小残差とは、伝送または記憶のための圧縮率が高いことを意味する)、または、最小シグナリングオーバーヘッド(最小シグナリングオーバーヘッドとは、伝送または記憶のための圧縮率が高いことを意味する)を提供する、または、両方を考慮もしくはバランスするパーティション化および予測モードを(例えば、モード選択ユニット260によってサポートされる、または、それについて利用可能であるものから)選択するよう構成され得る。モード選択ユニット260は、レート歪み最適化(RDO)に基づいて、パーティション化および予測モードを決定する、すなわち、最小のレート歪みを提供する予測モードを選択するよう構成され得る。この文脈における、「最良」、「最小」、「最適」などの用語は必ずしも、全体的な「最良」、「最小」、「最適」などを指すものではなく、閾値を上回る、もしくは下回る値、または、「準最適な選択」につながる可能性があるが、複雑性および処理時間を低減する他の制約のような、終了または選択基準の達成も指し得る。
換言すれば、パーティション化ユニット262は、例えば、クアッドツリーパーティション化(QT)、バイナリパーティション化(BT)、または、トリプルツリーパーティション化(TT)、または、それらの任意の組み合わせを反復的に使用して、ブロック203を(再度ブロックを形式する)より小さいブロックパーティションまたはサブブロックにパーティション化し、例えばブロックパーティションまたはサブブロックの各々について予測を実行するよう構成され得る。ここで、モード選択は、パーティション化ブロック203のツリー構造の選択を含み、予測モードはブロックパーティションまたはサブブロックの各々に適用される。
以下では、ビデオエンコーダ20の例によって実行される(例えば、パーティション化ユニット260による)パーティション化および(インター予測ユニット244およびイントラ予測ユニット254による)予測処理がより詳細に説明される。
パーティション化
パーティション化ユニット262は、現在ブロック203をより小さいパーティション、例えば、正方形または長方形サイズのより小さいブロックにパーティション化(または分割)し得る。これらのより小さいブロック(サブブロックとも称され得る)は更に、一層小さいパーティションにパーティション化され得る。これはまた、ツリーパーティション化、または、階層的ツリーパーティション化とも称される。ここで、ルートブロックは、例えばルートツリーレベル0(階層レベル0、深度0)において、再帰的にパーティション化、例えば、次に低いツリーレベルの2以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノードにパーティション化され得、ここで、これらのブロックは、例えば終了基準が達成されたこと、例えば最大ツリー深度または最小ブロックサイズに到達したという理由でパーティション化が終了するまで、次に低いレベル、例えば、ツリーレベル2(階層レベル2、深度2)などの2以上のブロックに再度パーティション化され得る。更にパーティション化されないブロックは、ツリーのリーフブロックまたはリーフノードとも称される。2つのパーティションへのパーティション化を使用するツリーは、バイナリツリー(BT)と称され、3つのパーティションへのパーティション化を使用するツリーは、ターナリツリー(TT)と称され、4つのパーティションへのパーティション化を使用するツリーは、クアッドツリー(QT)と称される。
上述のように、本明細書において使用される「ブロック」という用語は、画像の部分、特に、正方形または長方形の部分であり得る。例えば、HEVCおよびVVCを参照すると、ブロックは、コーディングツリー単位(CTU)、コーディング単位(CU)、予測単位(PU)、および変換単位(TU)であり得る、または、それに対応し得る、および/または、対応するブロック、例えば、コーディングツリーブロック(CTB)、コーディングブロック(CB)、変換ブロック(TB)、または、予測ブロック(PB)に対応し得る。
例えば、コーディングツリー単位(CTU)は、ルマサンプルのCTB、3つのサンプルアレイを有する画像のクロマサンプルの2つの対応するCTB、または、単色画像、もしくは、サンプルをコーディングするために使用された3つの別個の色平面およびシンタックス構造を使用してコーディングされた画像のサンプルのCTBであり得る、または、それを含み得る。それに対応して、コーディングツリーブロック(CTB)は、コンポーネントのCTBへの分割がパーティション化であるような、ある値NについてのN×Nブロックのサンプルであり得る。コーディング単位(CU)は、ルマサンプルのコーディングブロック、3つのサンプルアレイを有する画像のクロマサンプルの2つの対応するコーディングブロック、または、単色画像、もしくは、サンプルをコーディングするために使用された3つの別個の色平面およびシンタックス構造を使用してコーディングされた画像のサンプルのコーディングブロックであり得る、または、それを含み得る。それに対応して、コーディングブロック(CB)は、コーディングブロックへのCTBの分割がパーティション化であるような、ある値MおよびNについてのM×Nブロックのサンプルであり得る。
例えばHEVCによる実施形態において、コーディングツリーとして示されるクアッドツリー構造を使用することによって、コーディングツリー単位(CTU)は、CUに分割され得る。インター画像(時間的)予測またはイントラ画像(空間的)予測を用いて画像領域をコーディングするかどうかという決定は、CUレベルで行われる。各CUは更に、PU分割タイプに従って、1つ、2つ、または4つのPUに分割することができる。1つのPUの内部では、同じ予測処理が適用され、関連情報はPUベースでデコーダに送信される。PU分割タイプに基づいて予測処理を適用することによって残差ブロックを取得した後に、CUは、CUについてのコーディングツリーと同様の別のクアッドツリー構造に従って、変換単位(TU)にパーティション化できる。
例えば、バーサタイルビデオコーディング(VVC)と称される、現在開発されている最新のビデオコーディング規格による実施形態において、クアッドツリーおよびバイナリツリー(QTBT)パーティション化が、コーディングブロックをパーティション化するために使用される。QTBTブロック構造において、CUは、正方形または長方形の形状のいずれかを有し得る。例えば、コーディングツリー単位(CTU)はまず、クアッドツリー構造によってパーティション化される。クアッドツリーリーフノードは更に、バイナリツリーまたはターナリ(またはトリプル)ツリー構造によってパーティション化される。パーティション化ツリーリーフノードは、コーディング単位(CU)と称され、そのセグメンテーションは、任意の更なるパーティション化を伴うことなく、予測および変換処理に使用される。このことは、QTBTコーディングブロック構造において、CU、PU、およびTUが、同一のブロックサイズを有することを意味する。並行して、複数のパーティション化、例えば、QTBTブロック構造と共にトリプルツリーパーティション化を使用することも提案された。
一例において、ビデオエンコーダ20のモード選択ユニット260は、本明細書に説明されるパーティション化技法の任意の組み合わせを実行するよう構成され得る。
上記のように、ビデオエンコーダ20は、(予め定められた)予測モードのセットから最良または最適な予測モードを決定または選択するように構成される。予測モードのセットは、例えば、イントラ予測モードおよび/またはインター予測モードを含み得る。
イントラ予測
イントラ予測モードのセットは、35個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無指向性モード、または、例えば、HEVCにおいて規定されるような指向性モードを含み得る、または、67個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無指向性モード、または、例えば、VVCについて規定されるような指向性モードを含み得る。
イントラ予測ユニット254は、同一の現在の画像の近傍ブロックの再構築サンプルを使用して、イントラ予測モードのセットのイントラ予測モードに従ってイントラ予測ブロック265を生成するよう構成される。
イントラ予測ユニット254(または一般的にはモード選択ユニット260)は更に、イントラ予測パラメータ(または、一般的に、ブロックについての選択されたイントラ予測モードを示す情報)を、符号化された画像データ21に含めるために、シンタックス要素266の形式でエントロピー符号化ユニット270に出力するよう構成される。その結果、例えば、ビデオデコーダ30は、復号のために予測パラメータを受信および使用し得る。
インター予測
インター予測モードのセット(または可能性のある)、例えば、参照画像全体か一部のみであるか、例えば、参照画像の現在ブロックの領域の周囲の検索ウィンドウ領域は、最も一致する参照ブロックを検索するために使用されるかどうか、および/または、例えば画素補間が適用されるかどうか、例えば、1/2/半ペルおよび/または1/4ペル補間かは、利用可能な参照画像(すなわち、以前に少なくとも部分的に復号された、例えば、DBP230に記憶された画像)および他のインター予測パラメータに依存する。上記の予測モードに加えて、スキップモードおよび/または直接モードが適用されてもよい。
インター予測ユニット244は、動き推定(ME)ユニットおよび動き補償(MC)ユニット(両方とも図2において図示せず)を含み得る。動き推定ユニットは、画像ブロック203(現在の画像17の現在の画像ブロック203)および復号された画像231、または、少なくとも1つ、もしくは複数の以前に再構築されたブロック、例えば、1または複数の他の/異なる以前に復号された画像231の再構築されたブロックを動き推定のために受信または取得するよう構成され得る。例えば、ビデオシーケンスは、現在の画像、および、以前に復号された画像231を含み得る、または、換言すれば、現在の画像および以前に復号された画像231は、ビデオシーケンスを形成する一連の画像の一部であり得る、または、それを形成し得る。
エンコーダ20は例えば、複数の他の画像のうち同一または異なる画像の複数の参照ブロックから参照ブロックを選択し、参照画像(または参照画像インデックス)および/または参照ブロックの位置(x、y座標)と現在ブロックの位置との間のオフセット(空間的オフセット)をインター予測パラメータとして動き推定ユニットに提供するよう構成され得る。このオフセットは、動きベクトル(MV)とも称される。
動き補償ユニットは、インター予測パラメータを取得、例えば受信し、インター予測パラメータに基づいて、または、それを使用して、インター予測を実行して、インター予測ブロック265を取得するよう構成される。動き補償ユニットによって実行される動き補償は、動き推定によって決定される動き/ブロックベクトルに基づいて予測ブロックをフェッチまたは生成することを含み得、副画素の精度で補間を実行する可能性がある。補間フィルタリングは、追加の画素サンプルを既知の画素サンプルから生成し得、従って、画像ブロックをコーディングするために使用され得る候補予測ブロックの数を増加させる可能性がある。動き補償ユニットは、現在の画像ブロックのPUについての動きベクトルを受信すると、参照画像リストの1つおいて動きベクトルが指す予測ブロックを見つけ得る。
動き補償ユニットはまた、ビデオスライスの画像ブロックの復号において、ビデオデコーダ30による使用のために、ブロックおよびビデオスライスに関連するシンタックス要素を生成し得る。
エントロピーコーディング
エントロピー符号化ユニット270は、例えば、エントロピー符号化アルゴリズムまたは方式(例えば、可変長コーディング(VLC)方式、コンテキスト適応型VLC方式(CAVLC)、算術コーディング方式、二値化、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースのコンテキスト適応型バイナリ算術コーディング(SBAC)、確率区間パーティション化エントロピー(PIPE)コーディング、または、別のエントロピー符号化方法もしくは技法)またはバイパス(圧縮なし)を量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または、他のシンタックス要素に対して適用し、例えば符号化されたビットストリーム21の形式で、出力部272を介して出力できる符号化された画像データ21を取得するよう構成され、その結果、例えば、ビデオデコーダ30は、復号のためにパラメータを受信および使用し得る。符号化されたビットストリーム21は、ビデオデコーダ30へ送信され得る、または、ビデオデコーダ30による後の送信もしくは取得のためにメモリに格納され得る。
ビデオエンコーダ20の他の構造のバリエーションが、ビデオストリームを符号化するために使用できる。例えば、非変換ベースのエンコーダ20は、特定のブロックまたはフレームのための変換処理ユニット206を伴うことなく、残差信号を直接的に量子化できる。別の実装において、エンコーダ20は、単一ユニットに組み合わされた量子化ユニット208および逆量子化ユニット210を有し得る。
デコーダおよび復号方法
図3は、本願の技法を実装するよう構成されるビデオデコーダ30の例を示す。ビデオデコーダ30は、例えばエンコーダ20によって符号化された、符号化された画像データ21(例えば、符号化されたビットストリーム21)を受信して、復号された画像331を取得するよう構成される。符号化された画像データまたはビットストリームは、符号化された画像データを復号するための情報、例えば、符号化されたビデオスライスおよび関連するシンタックス要素の画像ブロックを表すデータを含む。
図3の例において、デコーダ30は、エントロピー復号ユニット304、逆量子化ユニット310、逆変換処理ユニット312、再構築ユニット314(例えば加算器314)、ループフィルタ320、復号画像バッファ(DBP)330、インター予測ユニット344およびイントラ予測ユニット354を含む。インター予測ユニット344は、動き補償ユニットであり得る、またはそれを含み得る。ビデオデコーダ30は、いくつかの例では、図2のビデオエンコーダ100に関して説明された符号化経路に対して一般に逆の復号経路を実行してよい。
エンコーダ20に関して説明されるように、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタ220、復号画像バッファ(DPB)230、インター予測ユニット344、およびイントラ予測ユニット354はまた、ビデオエンコーダ20の「内蔵デコーダ」を形成するとも表現される。従って、逆量子化ユニット310は、逆量子化ユニット110と機能が同一であり得、逆変換処理ユニット312は、逆変換処理ユニット212と機能が同一であり得、再構築ユニット314は、再構築ユニット214と機能が同一であり得、ループフィルタ320は、ループフィルタ220と機能が同一であり得、復号画像バッファ330は、復号画像バッファ230と機能が同一であり得る。従って、ビデオ20エンコーダのそれぞれのユニットおよび機能について提供される説明は、ビデオデコーダ30のそれぞれのユニットおよび機能に対応して適用される。
エントロピー復号
エントロピー復号ユニット304は、ビットストリーム21(または一般的に符号化された画像データ21)を解析し、符号化された画像データ21に例えばエントロピー復号を実行して、例えば量子化された係数309および/または復号されたコーディングパラメータ(図3において図示せず)、例えば、任意またはすべてのインター予測パラメータ(例えば参照画像インデックスおよび動きベクトル)、イントラ予測パラメータ(例えばイントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素を取得するよう構成される。エントロピー復号ユニット304は、エンコーダ20のエントロピー符号化ユニット270に関連して説明される符号化方式に対応する復号アルゴリズムまたは方式を適用するよう構成され得る。エントロピー復号ユニット304は更に、インター予測パラメータ、イントラ予測パラメータ、および/または、他のシンタックス要素をモード選択ユニット360に、他のパラメータをデコーダ30の他のユニットに提供するよう構成され得る。ビデオデコーダ30は、ビデオスライスレベルで、および/または、ビデオブロックレベルでシンタックス要素を受信し得る。
逆量子化
逆量子化ユニット310は、量子化パラメータ(QP)(または一般的に、逆量子化に関連する情報)および量子化された係数を、符号化された画像データ21から(例えば、エントロピー復号ユニット304により、例えば解析および/または復号することによって)受信し、量子化パラメータに基づいて、復号された量子化された係数309に対して逆量子化を適用し、変換係数311とも称され得る逆量子化係数311を取得するよう構成され得る。逆量子化プロセスは、量子化の程度、および、同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライスにおける各ビデオブロックについてビデオエンコーダ20によって決定される量子化パラメータの使用を含み得る。
逆変換
逆変換処理ユニット312は、変換係数311とも称される逆量子化係数311を受信し、サンプル領域における再構築残差ブロック213を取得するべく、変換を逆量子化係数311に適用するよう構成され得る。再構築残差ブロック213は、変換ブロック313とも称され得る。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、または、概念的に同様の逆変換プロセスであり得る。逆変換処理ユニット312は更に、変換パラメータまたは対応する情報を、符号化された画像データ21から(例えばエントロピー復号ユニット304による、例えば解析および/または復号によって)受信し、逆量子化係数311に適用される変換を決定するよう構成され得る。
再構築
再構築ユニット314(例えば、加算器または加算器314)は、再構築残差ブロック313を予測ブロック365に追加して、例えば、再構築残差ブロック313のサンプル値および予測ブロック365のサンプル値を加算することによって、サンプル領域における再構築ブロック315を取得するよう構成され得る。
フィルタリング
(コーディングループ中、または、コーディングループ後のいずれかの)ループフィルタユニット320は、再構築ブロック315をフィルタリングして、フィルタリングされたブロック321を取得し、例えば、画素遷移を平滑化する、またはそうでなければ、ビデオ品質を改善するよう構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応型オフセット(SAO)フィルタ、または、1または複数の他のフィルタ、例えば、バイラテラルフィルタ、適応型ループフィルタ(ALF)、シャープ処理、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせなど、1または複数のループフィルタを含み得る。ループフィルタユニット320が、ループフィルタ内にあるものとして図3に示されているが、他の構成では、ループフィルタユニット320はポストループフィルタとして実装されてもよい。
復号画像バッファ
画像の復号されたビデオブロック321は次に、他の画像のための後の動き補償、および/または、それぞれの表示の出力のために、参照画像として、復号された画像331を格納する復号画像バッファ330に格納される。
デコーダ30は、ユーザへの提示または視聴のために、例えば出力部312を介して、復号された画像311を出力するよう構成される。
予測
インター予測ユニット344は、インター予測ユニット244(特に動き補償ユニット)と同一であり得、イントラ予測ユニット354は、インター予測ユニット254と機能が同一であり得、パーティション化および/または予測パラメータ、または、符号化された画像データ21から受信したそれぞれの情報に基づいて(例えば、エントロピー復号ユニット304による、例えば、解析および/または復号によって)、分割またはパーティション化の決定、ならびに、予測を実行する。モード選択ユニット360は、再構築された画像、ブロック、またはそれぞれのサンプル(フィルタリングされた、またはフィルタリングされていない)に基づいて、ブロックごとに予測(イントラまたはインター予測)を実行し、予測ブロック365を取得するよう構成され得る。
ビデオスライスがイントラコーディング(I)スライスとしてコーディングされているとき、モード選択ユニット360のイントラ予測ユニット354は、シグナリングされたイントラ予測モード、および、現在の画像の以前に復号されたブロックからのデータに基づいて、現在のビデオスライスの画像ブロックについての予測ブロック365を生成するよう構成される。ビデオ画像がインターコーディング(すなわち、BまたはP)スライスとしてコーディングされるとき、モード選択ユニット360のインター予測ユニット344(例えば動き補償ユニット)は、エントロピー復号ユニット304から受信された動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックについての予測ブロック365を生成するよう構成される。インター予測では、予測ブロックは、参照画像リストのうちの1つに含まれる参照画像のうちの1つから生成されてよい。ビデオデコーダ30は、リスト0およびリスト1という参照フレームリストを、デフォルトの構築技法を用いて、DPB330に格納された参照画像に基づいて構築してよい。
モード選択ユニット360は、動きベクトルおよび他のシンタックス要素を解析することによって、現在のビデオスライスのビデオブロックについての予測情報を決定するよう構成され、予測情報を使用して、復号される現在のビデオブロックについての予測ブロックを生成する。例えば、モード選択ユニット360は、受信されたシンタックス要素の一部を使用して、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(例えば、イントラまたはインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス、またはGPBスライス)、スライスについての参照画像リストのうち1または複数の構築情報、スライスのインター符号化されたビデオブロックの各々についての動きベクトル、スライスのインターコーディングされたビデオブロックの各々についてのインター予測ステータス、および、現在のビデオスライスにおけるビデオブロックを復号するための他の情報を決定する。
ビデオデコーダ30の他のバリエーションが、符号化された画像データ21を復号するために使用できる。例えば、デコーダ30は、ループフィルタリングユニット320を用いずに、出力ビデオストリームを生成することができる。例えば、非変換ベースのデコーダ30が、特定のブロックまたはフレーム用の逆変換処理ユニット312を用いずに、残差信号を直接的に逆量子化することができる。別の実装例では、ビデオデコーダ30は、逆量子化ユニット310および逆変換処理ユニット312を単一ユニットに組み合わせることができる。
図4は、本開示の実施形態によるビデオコーディングデバイス400の概略図である。ビデオコーディングデバイス400は、本明細書に説明されるように、開示された実施形態を実装するのに好適である。実施形態において、ビデオコーディングデバイス400は、図1Aのビデオデコーダ30などのデコーダ、または、図1Aのビデオエンコーダ20などのエンコーダであり得る。
ビデオコーディングデバイス400は、データを受信するための入口ポート410(または入力ポート410)および受信機ユニット(Rx)420、データを処理するためのプロセッサ、論理ユニット、または中央演算処理装置(CPU)430、データを送信するための送信機ユニット(Tx)440および出口ポート450(または出力ポート450)、および、データを格納するためのメモリ460を含む。ビデオコーディングデバイス400は、入口ポート410、受信機ユニット420、送信機ユニット440、および出口ポート450に連結された、光信号または電気信号の出口または入口用の、光/電気(OE)変換コンポーネントおよび電気/光(EO)変換コンポーネントも含んでよい。
プロセッサ430はハードウェアおよびソフトウェアによって実装される。プロセッサ430は、1または複数のCPUチップ、コア(例えば、マルチコアプロセッサ)、FPGA、ASIC、およびDSPとして実装され得る。プロセッサ430は、入口ポート410、受信機ユニット420、送信機ユニット440、出口ポート450、およびメモリ460と通信する。プロセッサ430はコーディングモジュール470を含む。コーディングモジュール470は、上記の開示された実施形態を実装する。例えば、コーディングモジュール470は、様々なコーディング操作を実装、処理、準備または提供する。従って、コーディングモジュール470を含めることにより、ビデオコーディングデバイス400の機能の大幅な改善が提供され、ビデオコーディングデバイス400の異なる状態への変換をもたらす。代替的に、コーディングモジュール470は、メモリ460に格納されプロセッサ430によって実行される命令として実装される。
メモリ460は、1または複数のディスク、テープドライブ、および、ソリッドステートドライブを含み得、実行のためにプログラムが選択されたときに当該プログラムを格納するために、および、プログラム実行中に読み込まれる命令およびデータを格納するために、オーバーフローデータストレージデバイスとして使用され得る。メモリ460は例えば、揮発性および/または非揮発性であり得、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、三値連想メモリ(TCAM)、および/または、スタティックランダムアクセスメモリ(SRAM)であり得る。
図5は、例示的な実施形態による、図1Aの送信元デバイス12および送信先デバイス14のいずれかまたは両方として使用され得る装置500の簡略化されたブロック図である。装置500は、上記の本願の技法を実装できる。装置500は、複数のコンピューティングデバイスを含むコンピューティングシステムの形態、または、単一のコンピューティングデバイスの形態、例えば、携帯電話、タブレットコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、およびデスクトップコンピュータなどであり得る。
装置500におけるプロセッサ502は中央演算処理装置であり得る。代替的に、プロセッサ502は、既存の、または、今後開発される、情報を操作または処理することが可能な任意の他のタイプのデバイス、または、複数のデバイスであり得る。開示される実装は、示されるような単一のプロセッサ、例えばプロセッサ502を用いて実施できるが、1つより多くのプロセッサを使用して、速度および効率における利点を達成できる。
装置500におけるメモリ504は、実装においてリードオンリーメモリ(ROM)デバイス、またはランダムアクセスメモリ(RAM)デバイスであり得る。任意の他の好適なタイプのストレージデバイスをメモリ504として使用できる。メモリ504は、バス512を使用してプロセッサ502によってアクセスされるコードおよびデータ506を含み得る。メモリ504は更に、オペレーティングシステム508およびアプリケーションプログラム510を含み得、アプリケーションプログラム510は、本明細書に説明される方法をプロセッサ502に実行させる少なくとも1つのプログラムを含む。例えば、アプリケーションプログラム510は、本明細書に説明される方法を実行するビデオコーディングアプリケーションを更に含むアプリケーション1~Nを含み得る。装置500はまた、例えばモバイルコンピューティングデバイスと共に使用されるメモリカードであり得る二次ストレージ514の形態で、追加のメモリを含み得る。ビデオ通信セッションは、多くの量の情報を含み得るので、その全体または一部は二次ストレージ514に格納され、必要に応じて処理のためにメモリ504にロードされ得る。
装置500はまた、ディスプレイ518など、1または複数の出力デバイスを含み得る。一例において、ディスプレイ518は、タッチ入力を検知するよう動作可能なタッチ感応要素とディスプレイを組み合わせたタッチ感応ディスプレイであり得る。ディスプレイ518は、バス512を介してプロセッサ502に連結され得る。ディスプレイ518に加えて、または、代替的に、ユーザが装置500をプログラムする、または、そうでなければ使用することを可能にする他の出力デバイスが提供され得る。出力デバイスがディスプレイである、または、それを含むとき、ディスプレイは、液晶ディスプレイ(LCD)、陰極線管(CRT)ディスプレイ、プラズマディスプレイ、または、有機LED(OLED)ディスプレイなどの発光ダイオード(LED)ディスプレイを含む様々な方式で実装できる。
装置500はまた、イメージ検知デバイス520、例えばカメラ、または、装置500を操作するユーザのイメージなどのイメージを検知できる既存または今後開発される任意の他のイメージ検知デバイス520を含み得る、または、それと通信し得る。イメージ検知デバイス520は、装置500を操作するユーザの方を向くように配置され得る。例において、イメージ検知デバイス520の位置および光軸は、ディスプレイ518に直接的に隣接し、ディスプレイ518を見ることができるエリアを視野が含むように構成できる。
装置500はまた、音検知デバイス522、例えばマイク、または、装置500の近くの音を検知できる、既存または今後開発される任意の他の音検知デバイスを含み得る、またはそれと通信し得る。音検知デバイス522は、装置500を操作するユーザの方を向くように配置され得、ユーザが装置500を操作している間に、音、例えば、ユーザによる発話または他の発声を受信するように構成され得る。
図5は、装置500のプロセッサ502およびメモリ504が単一ユニットに統合されているものとして示しているが、他の構成を利用できる。プロセッサ502の動作は、直接的に連結され得る、または、ローカルエリアもしくは他のネットワークにわたる複数のマシン(各マシンは、1または複数のプロセッサを有する)に分散できる。メモリ504は、ネットワークベースのメモリ、または、装置500の動作を実行する複数のマシンにおけるメモリなど、複数のマシンに分散され得る。ここでは単一バスとして示されているが、装置500のバス512は、複数のバスから構成され得る。更に、二次ストレージ514は、装置500の他のコンポーネントに直接的に連結され得る、または、ネットワークを介してアクセスされ得、メモリカードなどの単一の統合ユニット、または、複数のメモリカードなどの複数のユニットを含み得る。従って、装置500は、広範な構成で実装され得る。
図2に示される実施形態において、符号化装置20(またはエンコーダ20)は、第1三角形セグメントおよび第2三角形セグメントを含む2以上の三角形セグメントにビデオコーディングブロックをパーティション化するよう構成されるパーティション化ユニット262を含む。
更に、符号化装置20はインター予測ユニット244を含む。復号装置30はインター予測ユニット344を含む。一般に、インター予測ユニット244は、選択された参照画像、動きベクトル、モード決定および他の情報を含む動きデータを選択するために、動き推定、動き補償を実行するよう構成され得る。一般に、インター予測ユニット344は、動き補償を実行するよう構成され得る。一例において、CUにおける各三角形予測単位は、自身の片予測または双予測動きベクトル、および、動き候補リストから導出される1または複数の参照フレームインデックスを有する。一例において、三角形パーティション化は、動き補償予測のみに適用される。このことは、変換および量子化プロセスが、2つの三角形を共に組み合わせることによって形成されるCU全体に適用されることを意味する。詳細は後述する。
以下では、三角形パーティション化、および、双予測動きベクトルからの片予測動きベクトルの導出の詳細を説明する。結果は、イメージブロックの2つの三角形ブロックから、予測コーディングブロック(動き補償を含む)を取得することである。
三角形/幾何ブロックパーティション化は、動き補償を実行するとき、メモリ帯域幅要件に対してより大きい影響を有し得ることが知られている。典型的には、三角形/幾何パーティション(PUまたはPUと称される、図6を参照)に関連する動きベクトルは、従来のビデオコーディングにおける通常のインター予測ブロックについて実行されるのと同一の方式で、参照画像からサンプルの長方形ブロックをフェッチするために使用される。次に、典型的には、長方形ブロックに関連するサンプルごとのマスクによって、現在の三角形/幾何パーティションに関するサンプルのみが維持され、現在の三角形/幾何パーティションの外側にあるものは破棄される。その結果、三角形/幾何パーティションの両方が双予測を使用している場合、4つの動き補償段階が実行される必要がある。
従って、三角形/幾何パーティションは、片予測のみを実行することに制限されると主張される。このことは、あたかもブロック全体が双予測方式で予測されるかのようにビデオコーディングブロックが扱われることを意味する。この制限は、三角形/幾何インター予測モードのコーディング効率を減少させるだけでなく、予測のために三角形パーティションの動き情報を使用する空間的または時間的近傍ブロックについての悪影響も有し得る。
以下の実施形態は、動きベクトルを導出する、および/または、マージ候補リストを生成する、および/または、三角形マージモードのために片予測動きベクトルを使用する三角形ブロックについてのインター予測および/または動き補償を実行するための方法および装置を提供し、ここで、ビデオコーディングブロックは、2つの三角形ブロックパーティションにパーティション化される。
図6は、インター予測のために意図された正方形ビデオコーディングブロックの例を示す。代替的に、ビデオブロックは長方形であり得る。図6に示されるように、対角または反対角に沿って、ビデオコーディングブロックをパーティション化する結果として、ビデオブロックは、例えば、PUおよびPUなど、2つの三角形ブロックに分割される。ブロックPUおよびPUは次に、左下および右上の三角形部分、および、ビデオブロックの左上および右下の三角形部分をそれぞれ指し得る。ビデオブロックおよびビデオコーディングブロックという用語は、同義語として使用される。
候補リストの生成は、従来技術における周知の技法、または新しい方式に従って実行され、以下で更に説明され得る。
三角形パーティションに関連する動きベクトルは、将来参照するために4×4のルマサンプルベースのグリッドに格納され得る。ここで、図7に示される曖昧性の問題が生じる。すなわち、対角によってスライシングされた4×4ブロック(すなわち、4×4の画素/サンプルブロック)は、PUまたはPUのいずれに関連し得る。しかしながら、動きベクトルを格納するべく、デコーダは、どの動きベクトルが、4×4のグリッド上のどの位置に格納されるかを一意に決定できる必要がある。
現在のVTM/BMSソフトウェアにおいて、マージモードのための片予測制限は、以下の方式で達成される(以下JVET-K1001。JVET-K1001:第1に、候補リスト生成プロセスが、JVET-K1001のセクション8.3.2.2において指定されるように呼び出される。
1.空間的MV候補が導出される
2.サブブロックベースの時間的MV候補が導出される
3.時間的MV候補が導出される
結果として生じる候補の中間順序は、A、B、B、A、SbCol、Bであり、Colは図8に示される。
マージ候補リスト生成を完了させるために、更に2つの段階が実行される。
4.組み合わされた双予測候補が導出される。
5.リストを充填するためにゼロ動きベクトルが追加される
マージリスト生成の後、片予測制限が現在ブロックに適用されるかどうかがチェックされる。これは、三角形/幾何インター予測の場合、常に当てはまる。次に、全体のマージリストをスキャンして、以下の方式でREF_PIC_LIST1動きベクトルを無効にすることによって、片予測制限が適用される。
JVET-L0124は、マージリスト候補の異なる生成方式を使用することに留意されたい。ここで、片予測マージリストは、図9に示される候補を使用して生成される。
次に、動きベクトル記憶のために、現在ブロック中の各4×4ブロックの位置に応じて、片予測MVまたは双予測MVのいずれが図10に示されるように格納される。
双予測候補はこのように対角上で格納されるが、非常に少ない近傍の位置についてのみ利用可能になる。更に、「双」として示される動きベクトルは、Mv1およびMv2の何らかの種類の組み合わせであることに留意されたい。
典型的には、片予測制限が、小さい長方形ブロック(≦8×8のルマサンプル)について課される。しかしながら、三角形パーティション化されたブロックなど、より大きいブロックについて片予測制限が課される場合、これは、片予測動きベクトルを参照する近傍ブロックのコーディング効率を減少させ得ると考えられる。それらの近傍ブロックが双予測動きベクトルも参照し得る場合、有益である。
双予測動きベクトルが、三角形/幾何パーティションの少なくとも1つの4×4サブブロック(三角形パーティションの方向(対角または反対角)に沿って配置される4×4サブブロック、または、すべての4×4サブブロックなど)についての動きベクトル記憶について可能であるが、片方向動き補償のみが実行される。
三角形パーティションについて上記されたような双予測マージ候補を制限するプロセスを適用しないことが提案される。むしろ、サブブロックベースのMV候補を生成しないことを除いては、JVET-K1001(従来技術、VVCの開発において変化する可能性がある)において指定されるのと同一の方式でマージ候補リスト(MCL)生成を実行することが示唆される。
第1実施形態によれば、コーディングブロックについて動きベクトル(MV)を導出するための方法が提供され、方法は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成する段階を備え、
マージ候補リストを生成する段階は少なくとも、
近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、
空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階と、
少なくともマージ候補リストに基づいて、それぞれの三角形パーティションの動きベクトルとして片予測MVを導出する段階と
を含む。
実施形態によれば、片予測MVは、三角形マージモードについての片予測MV選択規則およびマージ候補リストに基づいて導出される。
実施形態によれば、マージ候補リストは、1または複数の片予測MVおよび/または1または複数の双予測MVを含む。
実施形態によれば、三角形マージモードについての片予測MV選択規則は、マージ候補リストの双予測MVの第1MVまたは第2MVが片予測MVとして選択されることを示す。
実施形態によれば、第1MVは、第1の参照画像リスト(REF_PIC_LIST0)に対応し、第2MVは第2参照画像リスト(REF_PIC_LIST1)に対応する。
図11はMV導出のフローチャートを示す。段階1101において、三角形マージモードについて有効であるコーディングブロックについて、1または複数の空間的マージ候補が近傍のコーディング単位から導出される。段階1102において、1または複数の時間的動きベクトル予測は直接的に、または直ちに導出される。段階1103において、それぞれの三角形パーティションの動きベクトルである片予測MVが、少なくともマージ候補リストに基づいて導出される。
第2の実施形態によれば、コーディングブロックについてのマージ候補リストを生成する方法が提供され、方法は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成する段階を備え、
マージ候補リストを生成する段階は少なくとも、
近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、
空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階と、
1または複数の空間的マージ候補および導出された1または複数の時間的MVPをマージ候補リストに追加する段階と
を含み、1または複数の空間的マージ候補および/または1または複数の時間的MVPは、片予測MVまたは双予測MVを含む。
図12は、マージ候補リスト生成のフローチャートを示す。段階1201において、三角形マージモードについて有効であるコーディングブロックについて、1または複数の空間的マージ候補が近傍のコーディング単位から導出される。段階1202において、1または複数の時間的動きベクトル予測が、直接的または直ちに導出される。段階1203において、1または複数の空間的マージ候補および導出された1または複数の時間的MVPがマージ候補リストに追加される。
第3実施形態によれば、コーディングブロックの現在の三角形パーティションのインター予測のための方法が提供され、方法は、
コーディングブロックが三角形マージモードについて有効である場合、コーディングブロックについてのマージ候補リストを生成する段階であって、マージ候補リストを生成する段階は少なくとも、近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階とを含む、段階と、
少なくともマージ候補リストに基づいて、現在の三角形パーティションの動きベクトルとして片予測MVを導出する段階と、
少なくとも片予測MVに基づいて、現在の三角形パーティションの予測を実行して、現在の三角形パーティションの予測値を取得する段階と
を備える。
図13は、マージ候補リスト生成のフローチャートを示す。段階1301において、2つの三角形パーティションにパーティション化され、かつ、三角形マージモードについて有効であるコーディングブロックについて、1または複数の空間的マージ候補が近傍のコーディング単位から導出される。段階1302において、1または複数の時間的動きベクトル予測が直接的に、または直ちに導出される。段階1303において、片予測MVは、少なくともマージ候補リストに基づいて、現在の三角形パーティションの動きベクトルとして導出される。段階1304において、現在の三角形パーティションの予測値を取得するために、現在の三角形パーティションの予測は、少なくとも片予測MVに基づいて実行される。
実施形態によれば、サブブロックベースの時間的マージ候補の導出は、マージ候補リストの生成から除外される。
実施形態によれば、片予測MV選択規則は、
REF_PIC_LIST0からの第1MVおよびREF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが、片予測MVとして使用されること、または、
第1MVの参照画像インデックスが、現在の画像への第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、第1MVは片予測MVとして使用されること、または、
REF_PIC_LIST1からの第2MVが、第1MVへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、第2MVは片予測MVとして使用されること、または、
現在の画像への時間的距離が第1MVおよび第2MVの両方について等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVが片予測MVとして使用されること
のいずれか1つである。完全性のために、導出の順序は以下の通りである。
1.空間的MV候補が導出される
2.時間的MV候補が導出される
3.組み合わされた双予測候補が導出される
4.リストを充填するためにゼロ動きベクトルが追加される
従って、結果として生じるマージ候補リストは、片予測または双予測候補から構成され得る。マージリスト生成のプロセスはまた、上で指定されたプロセスと異なり得ることに留意されたい。
図14は、前述の実施形態の方法を含む全体的なフローチャートを示す。段階1401において、前述の実施形態に従ってマージ候補リストが生成される。段階1402において、マージ候補がマージ候補リストから選択される。選択された候補は双予測候補であり得る。段階1403において双予測候補から片予測候補が導出される。 これらの段階は、ビデオコーデックのエンコーダおよびデコーダに関することに留意されたい。
片予測候補導出
ここで、双予測候補が、マージインデックスによって、以前に生成されたマージリストから現在の三角形または幾何パーティションについてシグナリングされる場合、片予測候補導出プロセスが呼び出される。
プロセスへの入力は、双予測動きベクトルであり、このことは実際に、2つの異なる参照画像に関し得る、2つの動きベクトルが存在することを意味する。以下では、HEVC/JEM/VVCからの用語が使用される。第1動きベクトルは、REF_PIC_LIST0と名付けられる第1の参照画像リストからの参照画像に関し得、第2動きベクトルは、REF_PIC_LIST1と名付けられる第2参照画像リストからの第2の参照画像に関し得る。
両方の参照画像リストが複数の参照画像を含み得るので、参照画像を選択するために参照画像インデックス(refPicIdx0およびrefPicIdx1)が使用される。現在の三角形予測単位について片方向動き補償を実行できるように、プロセスの出力は、単一動きベクトルおよび参照画像インデックスである。
選択された双予測MVから片方向MVが導出され得る様々な方式は以下のように要約される。
1.片方向動きベクトルが、以下の基準に従って第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される。
a.REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方が同一の参照画像に関する場合、平均動きベクトルを計算する。
b.そうでなければ、REF_PIC_LIST0動きベクトルの参照画像インデックスが、REF_PIC_LIST1動きベクトルより小さい、現在の画像への時間的距離(HEVCにおけるPOC距離)を有する参照画像に関する場合、REF_PIC_LIST0動きベクトルを使用する。そうでなければ、REF_PIC_LIST1動きベクトルが、REF_PIC_LIST0動きベクトルへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST1動きベクトルを使用する。
c.そうでなければ、現在の画像への時間的距離が、REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方について等しい場合、より小さい大きさを有する動きベクトルを使用する。大きさは、数式(1)に従って、各動きベクトルのx成分およびy成分から推定できる。
mag(MV)=mv +mv (1)
2.双予測候補のどの動きベクトル(REF_PIC_LIST0またはREF_PIC_LIST1)が、refpiclist_indicator_flagと称される追加フラグによって使用されるかがシグナリングされる。フラグがゼロである場合、REF_PIC_LIST0ベクトルが使用される。そうでなければ、REF_PIC_LIST1ベクトルが使用される。
マージ候補が双予測候補である(mergeCandidateIsBiによって決定される)場合、およびその場合のみ、ならびに、ブロック幅+ブロック高さが予め定められた閾値cbBiSizeLimitより大きい場合、マージインデックス(merge_triangle_idx)がコーディングされた後に追加フラグがコーディングされる。このシグナリングは、以下の例示される方式(JVET-L0124による従来技術、新しい追加は黄色で示される)で実行できる。
上の例において、MVの大きさ「mag」は、数式(1)に示されるように、2成分動きベクトルの成分mvおよびmvの二乗の和から計算され、MV=(mv,mv)である。
代替的に、大きさは、p‐ノルム(p>0)などの基準に従って決定され得る。p=2であるとき、p‐ノルムは、共通のユークリッドノルムになる。本開示の動きベクトルを含む、1成分または多成分ベクトルの大きさを決定するのに好適な他のノルムが使用され得る。コーディング単位シンタックスの例が以下のコードの抜粋によって提供される。
方法1または方法2のどちらが使用されるかは以下の方式で決定され得る。
シーケンスパラメータセットにおいて、すべての三角形予測モードブロックが方法1または方法2を使用することが構成される。
ブロックサイズから、方法1または方法2のどちらが使用されるかが決定される。方法1は、例えば、16×16のルマサンプルに等しいか、またはより小さいブロックに使用され得る。そうでなければ、方法2が使用され得る。
動きベクトル記憶
マージインデックスによって示された、元の修正されていない双予測候補は、動きベクトル記憶において使用される。
これは図15において図示される。導出された片予測動きベクトルは、動き補償のみに使用される。記憶のために、修正されていない双予測MV候補(すなわち、MCLから選択される)が維持され、将来の参照のために動きフィールドに入れられる。
実際の記憶のために、従来技術などのように、対角を横断する4×4のサブブロックについて平均を算出することなく、むしろ、対角を横断する4×4ブロックを第1または第2パーティション(すなわち、2つの三角形ブロックPUおよびPU)のいずれかに割り当て、この明確な割り当てに従って動き情報を格納することが更に提案される。これは図16に例示される。MVおよびMVは、片または双予測動きベクトルに関し得ること留意されたい。
図8に示される1つの可能な一定の規則は、対角によってスライシングされた4×4ブロックをパーティションPUに常に割り当てる。
図16に示される別の可能な一定の規則は、対角によってスライシングされる4×4ブロックをパーティションPUに常に割り当てる。
更に、別の可能な解決手段において、追加の条件から、対角4×4ブロックがPUまたはPUに割り当てられるかどうかを推定できる。この決定は例えば、以下に基づいて行われ得る。
MVおよびMVの特性(大きさ、参照画像インデックス)
現在の三角形パーティション化されたブロックのブロックサイズ
図17は、片予測候補導出および動きベクトル記憶の結果を例示する。動きベクトル(点線)が実際の動き補償に使用され、動きベクトル(実線)が記憶のみに使用される。
PU(ダークグレー)については、第2参照画像の時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する動きベクトルが選択されたことに留意されたい。PUについては、両方の参照画像の絶対的な時間的距離は等しい、すなわち、TD0=TD1である。従って、上で説明されたオプション1.cに従って、より小さい大きさを有する動きベクトルが動き補償のために選択された。MVが参照する、現在の画像と参照画像との間の時間的距離はまた、POC距離と称される。
第4実施形態によれば、コーディングブロックについて動きベクトル(MV)を導出するための装置が提供され、上記装置は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、マージ候補リストを生成する間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または直ちに導出される、候補リスト生成ユニットと、
少なくともマージ候補リストに基づいて、それぞれの三角形パーティションの動きベクトルとして片予測MVを導出するよう構成されるインター予測処理ユニットと
を備える。
図18は、候補リスト生成ユニット1810およびインター予測処理ユニット1820を含むMV導出装置1800を示す。例において、装置1800は、図2におけるインター予測ユニット244に対応し得る。別の例において、装置1800は図3におけるインター予測ユニット344に対応し得る。
第5実施形態によれば、コーディングブロックについてのマージ候補リストを生成するための装置が提供され、装置は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、マージ候補リストを生成する間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または、直ちに導出され、1または複数の空間的マージ候補および導出された1または複数の時間的MVPはマージ候補リストに追加される、候補リスト生成ユニットを備え、
1または複数の空間的マージ候補および/または1または複数の時間的MVPは、片予測MVまたは双予測MVを含む装置。
図19は、候補リスト生成ユニット1910を含むマージ候補リスト(MCL)生成装置1900を示す。MCL生成装置1900は、コーディングブロックを入力として使用し、コーディングブロックの1および/または2つの三角形パーティションについてのマージ候補リストMCLを出力として提供する。例において、装置1900は、図2におけるインター予測ユニット244に対応し得る。別の例において、装置1900は、図3におけるインター予測ユニット344に対応し得る。
第6実施形態によれば、コーディングブロックの現在の三角形パーティションのインター予測のための装置が提供され、装置は、
コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化されたコーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、マージ候補リストの生成の間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または直ちに導出される、候補リスト生成ユニットと、
少なくともマージ候補リストに基づいてそれぞれの三角形パーティションの動きベクトルとして片予測MVを導出し、少なくとも片予測MVに基づいて現在の三角形パーティションの予測を実行して、現在の三角形パーティションの予測値を取得するよう構成されるインター予測処理ユニットと
を備える。
図20は、候補リスト生成ユニット2010およびインター予測処理ユニット2020を含むインター予測装置2000を示す。例において、装置2000は、図2におけるインター予測ユニット244に対応し得る。別の例において、装置2000は、図3におけるインター予測ユニット344に対応し得る。
実施形態によれば、片予測MV選択規則は、
REF_PIC_LIST0からの第1MVおよびREF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが、片予測MVとして使用されること、または、
第1MVの参照画像インデックスが、現在の画像への第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、第1MVは片予測MVとして使用されること、または、
REF_PIC_LIST1からの第2MVが、第1MVへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、第2MVは片予測MVとして使用されること、または、
現在の画像への時間的距離が第1MVおよび第2MVの両方について等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVが片予測MVとして使用されること
のいずれか1つである。片予測MV選択規則は、上の代替的な設計に限定されるものではなく、他の実装設計も考慮され得ることが理解できる。三角形マージモードについての片予測MV選択規則は、マージ候補リストの第1MVまたは第2MV双予測MVがどのように片予測MVとして選択されるかを示す。
実施形態によれば、符号化ビデオ信号の現在のフレームのビデオコーディングブロックを復号するための復号装置(200)が提供され、復号装置(200)は、
残差ビデオコーディングブロックを提供するために、ビデオコーディングブロックを復号するよう構成される復号ユニット(205、207)と、
三角形マージモードについてのビデオコーディングブロックの三角形パーティションについて導出される片予測動きベクトル(MV)に基づいて予測ビデオコーディングブロックを生成することであって、双予測動きベクトル(MV)が三角形マージモードについて少なくとも1つの4×4サブブロックの動きベクトル記憶について可能である、こと、および、
片方向動き補償を実行すること
を行うよう構成されるインター予測ユニット(215)と、
フィルタリングされた予測ビデオコーディングブロックおよび残差ビデオコーディングブロックに基づいてビデオコーディングブロックを再構築するよう構成される再構築ユニット(209)と
を備える。
図21は、復号ユニット205、インター予測ユニット215および再構築ユニット209を含む復号装置200を示す。例において、復号装置200は図3におけるデコーダに対応し得る。
本開示の態様によれば、ビデオ信号の現在のフレームの、2つの三角形パーティションにパーティション化されるコーディングブロックの三角形マージモードについての片方向(または片予測)動き補償を実行するための装置が提供され、
装置は、
2つの三角形パーティションの各々について、三角形マージモードについての片予測MV選択規則およびマージ候補リストに基づいて、片予測動きベクトル(MV)を導出すること、
対応する片予測MVを使用して、2つの三角形パーティションの各々の動き補償を実行すること、および、
2つの動き補償三角形パーティションに基づいて予測コーディングブロックを取得すること
を行うよう構成される処理回路を備える。
図22は、動き補償装置2200を示す。例において、装置2200は、図2におけるインター予測ユニット244に対応し得る。別の例において、装置2200は、図3におけるインター予測ユニット344に対応し得る。
実施形態によれば、マージ候補リストは、片予測動きベクトル(MV)候補および/または双予測動きベクトル(MV)候補を含み、双予測MV候補は第1MVおよび第2MVを含む。
実施形態によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
REF_PIC_LIST0からの第1MV、および、REF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが片予測MVとして導出されることを含む。
実施形態によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
第1MVの参照画像インデックスが、現在の画像への第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、REF_PIC_LIST0からの第1MVが、片予測MVとして導出されること、または、
第2MVが、第1MVの時間的距離より小さい現在の画像への時間的距離(TD1)を有する参照画像に関する場合、REF_PIC_LIST1からの第2MVが片予測MVとして導出されること
を含む。
実施形態によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
現在の画像への第1MVおよび第2MVの時間的距離が等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVは、片予測MVとして導出されること
を含む。
実施形態によれば、三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、片予測MVの導出は、
REF_PIC_LIST0からの第1MV、および、REF_PIC_LIST1からの第2MVの両方が同一の参照画像に関する場合、第1MVおよび第2MVに基づく平均動きベクトルが、片予測MVとして導出されること、または、
第1MVの参照画像インデックスが、現在の画像の第2MVの時間的距離(TD1)より小さい現在の画像の時間的距離(TD0)を有する参照画像に関する場合、第1MVは片予測MVとして導出されること、または、
REF_PIC_LIST1からの第2MVが、第1MVへの時間的距離より小さい現在の画像への時間的距離を有する参照画像に関する場合、第2MVは片予測MVとして導出されること、または、
現在の画像への時間的距離が、第1MVおよび第2MVの両方について等しい場合、REF_PIC_LIST0からの第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの第2MVが、片予測MV候補として導出されること
を含む。
実施形態によれば、ビデオ信号の現在のフレームのコーディングブロックを符号化するための符号化装置(20)が提供され、符号化装置(20)は、
残差コーディングブロックを提供するための、コーディングブロックを符号化するよう構成される符号化ユニット(204、270)と、
前述の実施形態のいずれかに記載の予測コーディングブロックを生成するよう構成されるインター予測ユニット(244)と、
予測コーディングブロック、および、残差コーディングブロックに基づいて、コーディングブロックを再構築するよう構成される再構築ユニット(214)と
を備える。それぞれの符号化装置が図2に示される。
実施形態によれば、ビデオ信号の現在のフレームのコーディングブロックを復号するための復号装置(30)が提供され、復号装置(30)は、
残差コーディングブロックを提供するために、コーディングブロックを復号するよう構成される復号ユニット(304)と、
前述の実施形態のいずれかに記載の予測コーディングブロックを生成するよう構成されるインター予測ユニット(344)と、
予測コーディングブロック、および、残差コーディングブロックに基づいて、コーディングブロックを再構築するよう構成される再構築ユニット(314)と
を備える。それぞれの復号装置が図3に示される。
実施形態によれば、前述の実施形態のいずれか1つによる方法を実行するための処理回路を備えるエンコーダが提供される。
実施形態によれば、前述の実施形態のいずれか1つによる方法を実行するための処理回路を備えるデコーダが提供される。
実施形態によれば、前述の実施形態のいずれか1つによる方法を実行するためのプログラムコードを含むコンピュータプログラム製品が提供される。
実施形態によれば、デコーダが提供され、デコーダは、
1または複数のプロセッサと、
プロセッサに連結され、プロセッサによる実行のためのプログラムを格納する非一時的コンピュータ可読記憶媒体であって、プログラムは、プロセッサによって実行されるとき、前述の実施形態のいずれか一項に記載の方法を実行するようデコーダを構成する、非一時的コンピュータ可読記憶媒体と
を備える。
実施形態によれば、エンコーダが提供され、エンコーダは、1または複数のプロセッサと、
プロセッサに連結され、プロセッサによる実行のためのプログラムを格納する非一時的コンピュータ可読記憶媒体であって、プログラムは、プロセッサによって実行されるとき、前述の実施形態のいずれか一項に記載の方法を実行するようエンコーダを構成する、非一時的コンピュータ可読記憶媒体と
を備える。
以下では、上述した実施形態に示されるような符号化方法および復号方法の適用、ならびに、それらを使用するシステムの説明を提供する。
図23は、コンテンツ配信サービスを実現するためのコンテンツ供給システム3100を示すブロック図である。このコンテンツ供給システム3100は、キャプチャデバイス3102、端末デバイス3106を含み、任意で、ディスプレイ3126を含む。キャプチャデバイス3102は、通信リンク3104を介して端末デバイス3106と通信する。通信リンクは、上述した通信チャネル13を含んでよい。通信リンク3104は、限定されるものではないが、WIFI(登録商標)、イーサネット(登録商標)、ケーブル、無線(3G/4G/5G)、USBまたはこれらの任意の種類の組み合わせなどを含む。
キャプチャデバイス3102は、データを生成し、上記の実施形態に示されるような符号化方法により、データを符号化してよい。代わりに、キャプチャデバイス3102は、データをストリーミングサーバ(図には示されていない)に配信してよく、サーバは、データを符号化して、符号化されたデータを端末デバイス3106に送信する。キャプチャデバイス3102は、限定されるものではないが、カメラ、スマートフォンまたはパッド、コンピュータまたはラップトップ、ビデオ会議システム、PDA(登録商標)、車載デバイスまたはこれらのいずれかの組み合わせなどを含む。例えば、上述したように、キャプチャデバイス3102は送信元デバイス12を含んでよい。データがビデオを含む場合、キャプチャデバイス3102に含まれるビデオエンコーダ20は、ビデオ符号化処理を実際に実行してよい。データがオーディオ(すなわち、音声)を含む場合、キャプチャデバイス3102に含まれるオーディオエンコーダは、オーディオ符号化処理を実際に実行してよい。いくつかの実際のシナリオについて、キャプチャデバイス3102は、これらを一緒に多重化することにより、符号化されたビデオおよびオーディオデータを配信する。他の実際のシナリオについて、例えば、ビデオ会議システムにおいて、符号化されたオーディオデータおよび符号化されたビデオデータは多重化されない。キャプチャデバイス3102は、符号化されたオーディオデータおよび符号化されたビデオデータを別個に端末デバイス3106に配信する。
コンテンツ供給システム3100において、端末デバイス310は、符号化されたデータを受信および再生する。端末デバイス3106は、データ受信および復元機能を有するデバイス、例えば、上述した符号化されたデータを復号することが可能なスマートフォンまたはパッド3108、コンピュータまたはラップトップ3110、ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)3112、TV3114、セットトップボックス(STB)3116、ビデオ会議システム3118、ビデオ監視システム3120、パーソナルデジタルアシスタント(PDA)3122、車載デバイス3124またはこれらのいずれかの組み合わせなどであってよい。例えば、上述したように、端末デバイス3106は送信先デバイス14を含んでよい。符号化されたデータがビデオを含む場合、端末デバイスに含まれるビデオデコーダ30は、ビデオ復号を実行することを優先させる。符号化されたデータがオーディオを含む場合、端末デバイスに含まれるオーディオデコーダは、オーディオ復号処理を実行することを優先させる。
ディスプレイを有する端末デバイス、例えば、スマートフォンまたはパッド3108、コンピュータまたはラップトップ3110、ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)3112、TV3114、パーソナルデジタルアシスタント(PDA)3122または車載デバイス3124について、端末デバイスは、復号されたデータをそのディスプレイに入力できる。ディスプレイを搭載していない端末デバイス、例えば、STB3116、ビデオ会議システム3118またはビデオ監視システム3120について、外部ディスプレイ3126は、復号されたデータを受信および示すために、内部でコンタクトされる。
このシステム内の各デバイスが符号化または復号を実行する場合、上述した実施形態に示されるように、画像符号化デバイスまたは画像復号デバイスが用いられ得る。
図24は、端末デバイス3106の例の構造を示す略図である。端末デバイス3106がキャプチャデバイス3102からストリームを受信した後に、プロトコル処理ユニット3202は、ストリームの伝送プロトコルを解析する。プロトコルは、限定されるものではないが、リアルタイムストリーミングプロトコル(RTSP)、ハイパーテキストトランスファープロトコル(HTTP)、HTTPライブストリーミングプロトコル(HLS)、MPEG-DASH、リアルタイムトランスポートプロトコル(RTP)、リアルタイムメッセージングプロトコル(RTMP)、または、これらの任意の種類の組み合わせなどを含む。
プロトコル処理ユニット3202がストリームを処理した後に、ストリームファイルが生成される。当該ファイルは、逆多重化ユニット3204に出力される。逆多重化ユニット3204は、多重化されたデータを符号化されたオーディオデータおよび符号化されたビデオデータに分離できる。上述したように、いくつかの実際のシナリオにつて、例えば、ビデオ会議システムでは、符号化されたオーディオデータおよび符号化されたビデオデータは多重化されていない。この状況において、符号化されたデータは、逆多重化ユニット3204を介することなく、ビデオデコーダ3206およびオーディオデコーダ3208へ送信される。
逆多重化処理を介して、ビデオエレメンタリストリーム(ES)、オーディオESおよび任意で字幕が生成される。上述した実施形態において説明したように、ビデオデコーダ30を含むビデオデコーダ3206は、上述した実施形態に示されるような復号方法により、ビデオESを復号してビデオフレームを生成し、このデータを同期ユニット3212に入力する。オーディオデコーダ3208は、オーディオESを復号してオーディオフレームを生成し、このデータを同期ユニット3212に入力する。代替的に、ビデオフレームは、同期ユニット3212にフィードする前に、バッファ(図24において図示せず)に格納され得る。同様に、オーディオフレームは、同期ユニット3212にフィードされる前に、バッファ(図24において図示せず)に格納され得る。
同期ユニット3212は、ビデオフレームおよびオーディオフレームを同期させて、ビデオ/オーディオをビデオ/オーディオディスプレイ3214に供給する。例えば、同期ユニット3212は、ビデオおよびオーディオ情報の提示を同期させる。情報は、コーディングされたオーディオおよびビジュアルデータの提示に関するタイムスタンプ、および、データストリームそのものの配信に関するタイムスタンプを用いてシンタックスでコーディングしてよい。
ストリームに字幕が含まれている場合、字幕デコーダ3210は、字幕を復号し、それをビデオフレームおよびオーディオフレームと同期させ、ビデオ/オーディオ/字幕をビデオ/オーディオ/字幕ディスプレイ3216に供給する。
本発明は、上述したシステムに限定されるものではなく、上述した実施形態における画像符号化デバイスまたは画像復号デバイスのいずれが、他のシステム、例えば、自動車システムに組み込まれ得る。
本発明の実施形態は主にビデオコーディングに基づいて説明されたが、コーディングシステム10、エンコーダ20およびデコーダ30(および対応するシステム10)の実施形態、および、本明細書に記載される他の実施形態はまた、静止画像処理またはコーディング、すなわち、ビデオコーディングのように、任意の先行する画像または連続する画像から独立した個々の画像の処理またはコーディングのために構成され得ることに留意されたい。一般的に、画像処理コーディングが単一画像17に限定される場合、インター予測ユニット244(エンコーダ)および344(デコーダ)のみが利用可能でないことがあり得る。ビデオエンコーダ20およびビデオデコーダ30のすべての他の機能(ツールまたは技術とも称される)は、更なる画像処理、例えば、残差計算204/304、変換206、量子化208、逆量子化210/310、(逆)変換212/312、パーティション化262/362、イントラ予測254/354.および/または、ループフィルタリング220、320、ならびに、エントロピーコーディング270およびエントロピー復号304のために等しく使用され得る。
例えば、エンコーダ20およびデコーダ30の実施形態、ならびに、例えば、エンコーダ20およびデコーダ30に関連して本明細書において説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせにおいて実装され得る。ソフトウェアにおいて実装される場合、機能は、コンピュータ可読媒体に格納され得る、または、通信媒体を介して、1または複数の命令またはコードとして送信され、ハードウェアベースの処理ユニットによって実行される。コンピュータ可読媒体は、データ記憶媒体など有形の媒体に対応するコンピュータ可読記憶媒体、または、例えば通信プロトコルに従ってコンピュータプログラムをある場所から別の場所へ転送することを容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は一般に、(1)非一時的である有形コンピュータ可読記憶媒体、または、(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示において説明される技法の実装のための命令、コードおよび/またはデータ構造体を取得するべく1または複数のコンピュータ、または、1または複数のプロセッサがアクセスできる任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD‐ROM、または、他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、または、命令もしくはデータ構造体の形式で所望のプログラムコードを格納するために使用でき、コンピュータによってアクセスできる任意の他の媒体を含み得る。また、任意の接続は、適切にコンピュータ可読媒体と称される。例えば、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL)または、赤外線、無線、およびマイクロ波などの無線技術を使用して、命令がウェブサイト、サーバ、または、他のリモートソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または、赤外線、無線、およびマイクロ波などの無線技術は、媒体の定義に含まれる。しかしながら、そのコンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または、他の一時的媒体を含まず、代わりに、非一時的、有形の記憶媒体を指すことを理解すべきである。本明細書において使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザディスク、光ディスク、デジタルバーサタイルディスク(DVD)、フロッピーディスク、およびブルーレイ(登録商標)ディスクを含み、ディスク(disk)は通常、磁気的にデータを再生し、ディスク(disc)はレーザを用いて光学的にデータを再生する。上の組み合わせも、コンピュータ可読媒体の範囲に含まれるべきである。
命令は、1または複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または、他の同等な統合もしくはディスクリート論理回路などの1または複数のプロセッサによって実行され得る。従って、「プロセッサ」という用語は、本明細書において使用される場合、前述の構造、または、本明細書において説明される技法の実装に好適な任意の他の構造のいずれかを指し得る。加えて、いくつかの態様において、本明細書において説明される機能は、符号化および復号について構成される専用ハードウェアおよび/またはソフトウェアモジュール内で提供され得る、または、組み合わされたコーデックに組み込まれ得る。また、当該技法は、1または複数の回路、または論理要素において完全に実装され得る。
本開示の技法は、無線ハンドセット、集積回路(IC)またはICのセット(例えばチップセット)を含む広範のデバイスまたは装置において実装され得る。様々なコンポーネントモジュール、またはユニットは、本開示において、開示の技法を実行するよう構成されるデバイスの機能的側面を強調するように説明されているが、異なるハードウェアユニットによる実現を必ずしも要求するものではない。むしろ、上記のように、様々なユニットは、コーデックハードウェアユニットにおいて組み合わされ得る、または、好適なソフトウェアおよび/またはファームウェアと連携して、上記のような1または複数のプロセッサを含む相互運用ハードウェアユニットの集合によって提供され得る。
本開示の特定の特徴または態様が、いくつかの実装形態または実施形態のうちの1つのみに関連して開示された可能性もあり得るが、そのような特徴または態様は、任意の所与の用途または特定の用途にとって望ましく有利になり得るように、他の実装または実施形態の1または複数の他の特徴または態様と組み合わされてよい。更に、「含む」、「有する」、「備える」という用語、または、それらの他の変形が、詳細な説明または請求項のいずれかにおいて使用される限りにおいて、そのような用語は、「含む(comprise)」という用語と同様の方式で、包括的(inclusive)であることが意図されている。また、「例示的」、「例えば」および「例」という用語は、最良または最適な意味ではなく、単に例であることが意図されている。「連結」および「接続」という用語は、派生語と共に使用され得る。これらの用語は、2つの要素が、物理的または電気的に直接接触しているか、または互いに直接接触していないかにかかわらず、互いに協働または相互作用することを示すために用いられている可能性があり得ることが理解されるべきである。
特定の態様が本明細書において図示および説明されてきたが、当業者であれば、様々な代替的な実装および/または同等の実装が、本開示の範囲から逸脱することなく、図示および説明された特定の態様の代わりになり得ることを理解されよう。本願は、本明細書において述べられた特定の態様のあらゆる適応形態または変形形態を包含することを意図している。
以下の特許請求の範囲における要素は、対応する符号と共に特定の順序で記載されているが、特許請求の範囲の記載にそれらの要素のいくつかまたはすべてを特定の順序で実装することについての別段の示唆がない限り、それらの要素がその特定の順序で実装されるよう限定されることが必ずしも意図されているわけではない。
上記の教示に照らして、多くの代替形態、修正形態および変形形態が当業者には明らかになろう。当業者であれば、本明細書において説明されたものの外にも本発明の多数の用途が存在することを容易に認識するのは当然である。本発明は、1または複数の特定の実施形態を参照して説明されてきたが、当業者であれば、多くの変更が、本発明の範囲から逸脱することなく行われ得ることを認識する。従って、本発明は、添付の特許請求の範囲およびそれらの均等物の範囲内で、本明細書において具体的に説明された以外の態様で実施され得ることが理解されるべきである。
要約すると、本開示はビデオ符号化および復号に関する。その目的で、装置および方法は、コーディングブロックについての動きベクトル(MV)を導出する。特に、コーディングブロックが三角形マージモードマージについて有効であるとき、コーディングブロックについての候補リストは2つの三角形パーティションにパーティション化される。マージ候補リスト生成は、近傍のコーディング単位から1または複数の空間的マージ候補を導出することを含む。空間的マージ候補が導出された後に、直接的に、または直ちに、1または複数の時間的動きベクトル予測(MVP)が導出される。次に、1または複数の片予測MVおよび/または1または複数の双予測MVを含むマージ候補リストに基づいて、片予測MVがそれぞれの三角形パーティションの動きベクトルとして導出される。片方向MVの導出は、マージ候補または片方向MV選択規則に基づいている。コーディングブロックの三角形パーティションは次に、三角形パーティションの予測値を取得するために、少なくとも片予測MVに基づいて予測される。
本発明の更なる実施形態は、以下において提供される。次の項で用いる番号付けは、必ずしも前の項で用いた番号付けに従う必要はないことに留意されたい。
実施形態1
符号化ビデオ信号の現在のフレームのビデオコーディングブロックを復号するための復号装置(200)であって、
残差ビデオコーディングブロックを提供するためのビデオコーディングブロックを復号するよう構成される復号ユニット(205)と、
予測ビデオコーディングブロックを生成するよう構成されるインター予測ユニット(215)であって、双予測動きベクトルは、三角形パーティションのすべての4×4サブブロックについて、動きベクトル記憶が可能であり、片方向動き補償が実行される、インター予測ユニット(215)と、
フィルタリングされた予測ビデオコーディングブロックおよび残差ビデオコーディングブロックに基づいてビデオコーディングブロックを再構築するよう構成される再構築ユニット(209)と
を備える復号装置(200)。
実施形態2
符号化されたビデオ信号の現在のフレームのビデオコーディングブロックを復号するための復号装置(200)であって、
残差ビデオコーディングブロックを提供するためにビデオコーディングブロックを復号するよう構成される復号ユニット(205)と、
三角形ブロック(三角形予測単位など)について導出される片方向動きベクトルに基づいて、予測ビデオコーディングブロックを生成するよう構成され、片方向動き補償が実行される、インター予測ユニット(215)と、
フィルタリングされた予測ビデオコーディングブロックおよび残差ビデオコーディングブロックに基づいて、ビデオコーディングブロックを再構築するよう構成される再構築ユニット(209)と
を備える復号装置(200)。
実施形態3
三角形ブロック(三角形予測単位など)について、以下の基準に従って、片方向動きベクトルが第1(REF_PIC_LIST0)および第2((REF_PIC_LIST1)動きベクトル)から導出される、実施形態2の復号装置(200)。
a.REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方が、同一の参照画像に関する場合、平均動きベクトルを計算する。
実施形態4
三角形ブロック(三角形予測単位など)について、以下の基準に従って、片方向動きベクトルが第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される、実施形態2の復号装置(200)。
a.そうでなければ、REF_PIC_LIST0動きベクトルの参照画像インデックスが、REF_PIC_LIST1動きベクトルより小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST0動きベクトルを使用する。そうでなければ、REF_PIC_LIST1動きベクトルが、REF_PIC_LIST0動きベクトルへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST1動きベクトルを使用する。
実施形態5
三角形ブロック(三角形予測単位など)について、以下の基準に従って、片方向動きベクトルが第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される、実施形態2の復号装置(200)。
a.そうでなければ、現在の画像への時間的距離が、REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方について等しい場合、より小さい大きさを有する動きベクトルを使用する。
実施形態6
三角形ブロック(三角形予測単位など)について、以下の基準のいずれか1つに従って、片方向動きベクトルが第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される、実施形態2の復号装置(200)。
a.REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方が、同一の参照画像に関する場合、平均動きベクトルを計算する。または、
b.そうでなければ、REF_PIC_LIST0動きベクトルの参照画像インデックスが、REF_PIC_LIST1動きベクトルより小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST0動きベクトルを使用する。そうでなければ、REF_PIC_LIST1動きベクトルが、REF_PIC_LIST0動きベクトルへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST1動きベクトルを使用する。 または、
c.そうでなければ、現在の画像への時間的距離がREF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方について等しい場合、より小さい大きさを有する動きベクトルを使用する。
実施形態7
以下を含む、三角形ブロック(三角形予測単位など)について片方向動きベクトルを導出する方法。
片方向動きベクトルが、以下の基準に従って、第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される。
a.REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方が、同一の参照画像に関する場合、平均動きベクトルを計算する。
実施形態8
以下を含む、三角形ブロック(三角形予測単位など)について片方向動きベクトルを導出する方法。
片方向動きベクトルが、以下の基準に従って、第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される。
a.そうでなければ、REF_PIC_LIST0動きベクトルの参照画像インデックスが、REF_PIC_LIST1動きベクトルより小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST0動きベクトルを使用する。そうでなければ、REF_PIC_LIST1動きベクトルが、REF_PIC_LIST0動きベクトルへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST1動きベクトルを使用する。
実施形態9
以下を含む、三角形ブロック(三角形予測単位など)について片方向動きベクトルを導出する方法。
片方向動きベクトルが、以下の基準に従って、第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される。
a.そうでなければ、現在の画像への時間的距離がREF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方について等しい場合、より小さい大きさを有する動きベクトルを使用する。
実施形態10
以下を含む、三角形ブロック(三角形予測単位など)について片方向動きベクトルを導出する方法。
片方向動きベクトルが、以下の基準のいずれか1つに従って、第1(REF_PIC_LIST0)および第2(REF_PIC_LIST1)動きベクトルから導出される。
a.REF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方が、同一の参照画像に関する場合、平均動きベクトルを計算する。または、
b.そうでなければ、REF_PIC_LIST0動きベクトルの参照画像インデックスが、REF_PIC_LIST1動きベクトルより小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST0動きベクトルを使用する。そうでなければ、REF_PIC_LIST1動きベクトルが、REF_PIC_LIST0動きベクトルへの時間的距離より小さい、現在の画像への時間的距離を有する参照画像に関する場合、REF_PIC_LIST1動きベクトルを使用する。または、
c.そうでなければ、現在の画像への時間的距離がREF_PIC_LIST0およびREF_PIC_LIST1動きベクトルの両方について等しい場合、より小さい大きさを有する動きベクトルを使用する。
実施形態11
実施形態7から10のいずれか1つによる方法を実行するための処理回路を備えるエンコーダ。
実施形態12
実施形態7から10のいずれか1つによる方法を実行するための処理回路を備えるデコーダ。
実施形態13
実施形態7から10のいずれか1つによる方法を実行するためのプログラムコードを備えるコンピュータプログラム製品。
実施形態14
デコーダであって、
1または複数のプロセッサと、
プロセッサに連結され、プロセッサによって実行されるプログラムを格納する非一時的コンピュータ可読記憶媒体と
そ備え、プログラムは、プロセッサによって実行されるとき、実施形態7から10のいずれか1つによる方法を実行するようデコーダを構成する、
デコーダ。
実施形態15
エンコーダであって、
1または複数のプロセッサと、
プロセッサに連結され、プロセッサによって実行されるプログラムを格納する非一時的コンピュータ可読記憶媒体と
そ備え、プログラムは、プロセッサによって実行されるとき、実施形態7から10のいずれか1つによる方法を実行するようエンコーダを構成する、
エンコーダ。
参照符号リスト
図1A
10 ビデオコーディングシステム
12 送信元デバイス
13 通信チャネル
14 送信先デバイス
16 画像ソース
17 画像データ
18 プリプロセッサ
19 前処理された画像データ
20 ビデオエンコーダ
21 符号化された画像データ
22 通信インタフェース
28 通信インタフェース
30 ビデオデコーダ
31 復号画像データ
32 ポストプロセッサ
33 後処理された画像データ
34 ディスプレイデバイス
図1B
40 ビデオコーディングシステム
41 イメージングデバイス
42 アンテナ
43 プロセッサ
44 メモリストア
45 ディスプレイデバイス
46 処理回路
20 ビデオエンコーダ
30 ビデオデコーダ
図2
17 画像(データ)
19 前処理された画像(データ)
20 エンコーダ
21 符号化された画像データ
201 入力部(インタフェース)
204 残差計算(ユニットまたは段階)
206 変換処理ユニット
208 量子化ユニット
210 逆量子化ユニット
212 逆変換処理ユニット
214 再構築ユニット
220 ループフィルタユニット
230 復号画像バッファ(DPB)
260 モード選択ユニット
270 エントロピー符号化ユニット
272 出力部(インタフェース)
244 インター予測ユニット
254 イントラ予測ユニット
262 パーティション化ユニット
203 画像ブロック
205 残差ブロック
213 再構築残差ブロック
215 再構築ブロック
221 フィルタリングブロック
231 復号画像
265 予測ブロック
266 シンタックス要素
207 変換係数
209 量子化係数
211 逆量子化係数
図3
21 符号化された画像データ
30 ビデオデコーダ
304 エントロピー復号ユニット
309 量子化係数
310 逆量子化ユニット
311 逆量子化係数
312 逆変換処理ユニット
313 再構築残差ブロック
314 再構築ユニット
315 再構築ブロック
320 ループフィルタ
321 フィルタリングブロック
330 復号画像バッファDBP
331 復号された画像
360 モード適用ユニット
365 予測ブロック
366 シンタックス要素
344 インター予測ユニット
354 イントラ予測ユニット
図4
400 ビデオコーディングデバイス
410 入口ポート/入力ポート
420 受信機ユニットRx
430 プロセッサ
440 送信機ユニットTx
450 出口ポート/出力ポート
460 メモリ
470 コーディングモジュール
図5
500 送信元デバイスまたは送信先デバイス
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
518 ディスプレイ
[他の可能な請求項]
(項目1)
コーディングブロックについて動きベクトル(MV)を導出するための方法であって、
上記コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化された上記コーディングブロックについてのマージ候補リストを生成する段階を備え、上記マージ候補リストを生成する上記段階は少なくとも、
近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、
上記空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階と、
少なくとも上記マージ候補リストに基づいて、それぞれの上記三角形パーティションの動きベクトルとして片予測MVを導出する段階と
を含む、方法。
(項目2)
上記片予測MVは、上記三角形マージモードについての片予測MV選択規則、および、上記マージ候補リストに基づいて導出される、項目1に記載の方法。
(項目3)
上記マージ候補リストは、1または複数の片予測MVおよび/または1または複数の双予測MVを含む、項目2に記載の方法。
(項目4)
上記三角形マージモードについての上記片予測MV選択規則は、上記マージ候補リストの双予測MVの第1MVまたは第2MVが片予測MVとして選択されることを示す、項目2または3に記載の方法。
(項目5)
上記第1MVは、第1の参照画像リスト(REF_PIC_LIST0)に対応し、上記第2MVは第2参照画像リスト(REF_PIC_LIST1)に対応する、項目4に記載の方法。
(項目6)
コーディングブロックについてのマージ候補リストを生成する方法であって、
上記コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化された上記コーディングブロックについて上記マージ候補リストを生成する段階を備え、上記マージ候補リストを生成する上記段階は少なくとも、
近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、
上記空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階と、
上記1または複数の空間的マージ候補および導出された上記1または複数の時間的MVPを上記マージ候補リストに追加する段階と
を含み、上記1または複数の空間的マージ候補および/または上記1または複数の時間的MVPは、片予測MVまたは双予測MVを含む、
方法。
(項目7)
コーディングブロックの現在の三角形パーティションのインター予測の方法であって、
上記コーディングブロックが三角形マージモードについて有効である場合、上記コーディングブロックについてのマージ候補リストを生成する段階であって、上記マージ候補リストを生成する上記段階は少なくとも、近傍のコーディング単位から1または複数の空間的マージ候補を導出する段階と、上記空間的マージ候補を導出した後に、1または複数の時間的動きベクトル予測(MVP)を直接的に、または直ちに導出する段階とを含む、段階と、
少なくとも上記マージ候補リストに基づいて、上記現在の三角形パーティションの動きベクトルとして片予測MVを導出する段階と、
少なくとも上記片予測MVに基づいて、上記現在の三角形パーティションの予測を実行して、上記現在の三角形パーティションの予測値を取得する段階と
を備える、
方法。
(項目8)
サブブロックベースの時間的マージ候補の導出は、上記マージ候補リストを生成する上記段階から除外される、項目7に記載の方法。
(項目9)
上記マージ候補リストは、1または複数の片予測MVおよび/または1または複数の双予測MVを含む、項目7または8に記載の方法。
(項目10)
上記片予測MVを導出する上記段階は、上記三角形マージモードについての片予測MV選択規則、および、上記マージ候補リストに基づく、項目7から9のいずれか一項に記載の方法。
(項目11)
上記三角形パーティションモードについての上記片予測MV選択規則は、生成された上記候補リストの双予測MVの第1MVまたは第2MVが片予測MVとして選択されることを示す、項目10に記載の方法。
(項目12)
上記第1MVは、第1の参照画像リスト(REF_PIC_LIST0)に対応し、上記第2MVは第2参照画像リスト(REF_PIC_LIST1)に対応する、項目11に記載の方法。
(項目13)
上記片予測MV選択規則は、
上記REF_PIC_LIST0からの上記第1MVおよび上記REF_PIC_LIST1からの上記第2MVの両方が同一の参照画像に関する場合、上記第1MVおよび上記第2MVに基づく平均動きベクトルが、上記片予測MVとして使用されること、または、
上記第1MVの参照画像インデックスが、現在の画像への上記第2MVの時間的距離(TD1)より小さい現在の画像への時間的距離(TD0)を有する参照画像に関する場合、上記第1MVは上記片予測MVとして使用されること、または、
上記REF_PIC_LIST1からの上記第2MVが、上記第1MVへの時間的距離より小さい、上記現在の画像への上記時間的距離を有する参照画像に関する場合、上記第2MVは上記片予測MVとして使用されること、または、
上記現在の画像への上記時間的距離が上記第1MVおよび上記第2MVの両方について等しい場合、上記REF_PIC_LIST0からの上記第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの上記第2MVが上記片予測MVとして使用されること
のいずれか1つである、項目10から12のいずれか一項に記載の方法。
(項目14)
コーディングブロックについて動きベクトル(MV)を導出するための装置であって、
上記コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化された上記コーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、上記マージ候補リストを生成する間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、上記空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または直ちに導出される、候補リスト生成ユニットと、
少なくとも上記マージ候補リストに基づいて、それぞれの上記三角形パーティションの動きベクトルとして片予測MVを導出するよう構成されるインター予測処理ユニットと
を備える装置。
(項目15)
上記片予測MVは、上記三角形マージモードについての片予測MV選択規則、および、上記マージ候補リストに基づいて導出される、項目14に記載の装置。
(項目16)
上記マージ候補リストは、1または複数の片予測MV、および/または、1または複数の双予測MVを含む、項目15に記載の装置。
(項目17)
上記三角形マージモードについての上記片予測MV選択規則は、上記マージ候補リストの双予測MVの第1MVまたは第2MVが片予測MVとして選択されることを示す、項目15または16に記載の装置。
(項目18)
上記第1MVは第1の参照画像リスト(REF_PIC_LIST0)に対応し、上記第2MVは第2参照画像リスト(REF_PIC_LIST1)に対応する、項目17に記載の装置。
(項目19)
コーディングブロックについてのマージ候補リストを生成するための装置であって、
上記コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化された上記コーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、上記マージ候補リストの上記生成の間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、上記空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または、直ちに導出され、上記1または複数の空間的マージ候補および導出された上記1または複数の時間的MVPは上記マージ候補リストに追加される、候補リスト生成ユニットを備え、
上記1または複数の空間的マージ候補および/または上記1または複数の時間的MVPは、片予測MVまたは双予測MVを含む、
装置。
(項目20)
コーディングブロックの現在の三角形パーティションのインター予測のための装置であって、
上記コーディングブロックが三角形マージモードについて有効である場合、2つの三角形パーティションにパーティション化された上記コーディングブロックについてのマージ候補リストを生成するよう構成される候補リスト生成ユニットであって、上記マージ候補リストの上記生成の間に、1または複数の空間的マージ候補が近傍のコーディング単位から導出され、上記空間的マージ候補が導出された後に1または複数の時間的動きベクトル予測(MVP)が直接的に、または直ちに導出される、候補リスト生成ユニットと、
少なくとも上記マージ候補リストに基づいてそれぞれの上記三角形パーティションの動きベクトルとして片予測MVを導出し、少なくとも上記片予測MVに基づいて上記現在の三角形パーティションの予測を実行して、上記現在の三角形パーティションの予測値を取得するよう構成されるインター予測処理ユニットと
を備える装置。
(項目21)
サブブロックベースの時間的マージ候補の導出は、上記マージ候補リストの上記生成から除外される、項目20に記載の装置。
(項目22)
上記マージ候補リストは、1または複数の片予測MVおよび/または1または複数の双予測MVを含む、項目20または21に記載の装置。
(項目23)
上記片予測MVの上記導出は、上記三角形マージモードについての片予測MV選択規則および上記マージ候補リストに基づく、項目20から22のいずれか一項に記載の装置。
(項目24)
上記三角形パーティションモードについての上記片予測MV選択規則は、生成された上記候補リストの双予測MVの第1MVまたは第2MVが片予測MVとして選択されることを示す、項目23に記載の装置。
(項目25)
上記第1MVは、第1の参照画像リスト(REF_PIC_LIST0)に対応し、上記第2MVは第2参照画像リスト(REF_PIC_LIST1)に対応する、項目24に記載の装置。
(項目26)
上記片予測MV選択規則は、
上記REF_PIC_LIST0からの上記第1MVおよび上記REF_PIC_LIST1からの上記第2MVの両方が同一の参照画像に関する場合、上記第1MVおよび上記第2MVに基づく平均動きベクトルが、上記片予測MVとして使用されること、または、
上記第1MVの参照画像インデックスが、現在の画像への上記第2MVの時間的距離(TD1)より小さい現在の画像への上記時間的距離(TD0)を有する参照画像に関する場合、上記第1MVは上記片予測MVとして使用されること、または、
上記REF_PIC_LIST1からの上記第2MVが、上記第1MVへの時間的距離より小さい、上記現在の画像への上記時間的距離を有する参照画像に関する場合、上記第2MVは上記片予測MVとして使用されること、または、
上記現在の画像への上記時間的距離が上記第1MVおよび上記第2MVの両方について等しい場合、上記REF_PIC_LIST0からの上記第1MV、または、より小さい大きさを有する上記REF_PIC_LIST1からの上記第2MVが上記片予測MVとして使用されること
のいずれか1つである、項目23から25のいずれか一項に記載の装置。
(項目27)
符号化ビデオ信号の現在のフレームのビデオコーディングブロックを復号するための復号装置(200)であって、上記復号装置(200)は、
残差ビデオコーディングブロックを提供するために、上記ビデオコーディングブロックを復号するよう構成される復号ユニット(205)と、
三角形マージモードについての上記ビデオコーディングブロックの三角形パーティションについて導出される片予測動きベクトル(MV)に基づいて予測ビデオコーディングブロックを生成することであって、双予測動きベクトル(MV)が上記三角形マージモードについて少なくとも1つの4×4サブブロックの動きベクトル記憶について可能である、こと、および、
片方向動き補償を実行すること
を行うよう構成されるインター予測ユニット(215)と、
フィルタリングされた上記予測ビデオコーディングブロックおよび上記残差ビデオコーディングブロックに基づいて上記ビデオコーディングブロックを再構築するよう構成される再構築ユニット(209)と
を備える復号装置。
(項目28)
ビデオ信号の現在のフレームの、2つの三角形パーティションにパーティション化されるコーディングブロックの三角形マージモードについての片方向動き補償を実行するための装置であって、
上記装置は、
上記2つの三角形パーティションの各々について、上記三角形マージモードについての片予測MV選択規則およびマージ候補リストに基づいて、片予測動きベクトル(MV)を導出すること、
対応する上記片予測MVを使用して、上記2つの三角形パーティションの各々の動き補償を実行すること、および、
動き補償された上記2つの三角形パーティションに基づいて予測コーディングブロックを取得すること
を行うよう構成される処理回路を備える、装置。
(項目29)
上記マージ候補リストは、片予測動きベクトル(MV)候補および/または双予測動きベクトル(MV)候補を含み、双予測MV候補は第1MVおよび第2MVを含む、項目28に記載の装置。
(項目30)
上記第1MVは、第1の参照画像リスト(REF_PIC_LIST0)に対応し、上記第2MVは、第2参照画像リスト(REF_PIC_LIST1)に対応する、項目29に記載の装置。
(項目31)
上記三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、上記片予測MVの上記導出は、
上記REF_PIC_LIST0からの上記第1MV、および、上記REF_PIC_LIST1からの上記第2MVの両方が同一の参照画像に関する場合、上記第1MVおよび上記第2MVに基づく平均動きベクトルが上記片予測MVとして導出されることを含む、項目28から30に記載の装置。
(項目32)
上記三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、上記片予測MVの上記導出は、
上記第1MVの参照画像インデックスが、上記現在の画像への上記第2MVの時間的距離(TD1)より小さい上記現在の画像への時間的距離(TD0)を有する参照画像に関する場合、上記REF_PIC_LIST0からの上記第1MVが、上記片予測MVとして導出されること、または、
上記第2MVが、上記第1MVの時間的距離より小さい上記現在の画像への上記時間的距離(TD1)を有する参照画像に関する場合、上記REF_PIC_LIST1からの上記第2MVが上記片予測MVとして導出されること
を含む、項目28から30に記載の装置。
(項目33)
上記三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、上記片予測MVの上記導出は、
上記現在の画像への上記第1MVおよび上記第2MVの時間的距離が等しい場合、上記REF_PIC_LIST0からの上記第1MV、または、より小さい大きさを有する上記REF_PIC_LIST1からの上記第2MVが、上記片予測MVとして導出されること
を含む、項目28から30に記載の装置。
(項目34)
上記三角形マージモードについての片予測MV選択規則、および、マージ候補リストに基づく、上記片予測MVの上記導出は、
上記REF_PIC_LIST0からの上記第1MV、および、上記REF_PIC_LIST1からの上記第2MVの両方が同一の参照画像に関する場合、上記第1MVおよび上記第2MVに基づく平均動きベクトルが、上記片予測MVとして導出されること、または、
上記第1MVの参照画像インデックスが、現在の画像の上記第2MVの時間的距離(TD1)より小さい上記現在の画像の上記時間的距離(TD0)を有する参照画像に関する場合、上記第1MVは上記片予測MVとして導出されること、または、
上記REF_PIC_LIST1からの上記第2MVが、上記第1MVへの時間的距離より小さい上記現在の画像への上記時間的距離を有する参照画像に関する場合、上記第2MVは上記片予測MVとして導出されること、または、
上記現在の画像への上記時間的距離が、上記第1MVおよび上記第2MVの両方について等しい場合、上記REF_PIC_LIST0からの上記第1MV、または、より小さい大きさを有するREF_PIC_LIST1からの上記第2MVが、上記片予測MV候補として導出されること
を含む、項目28から30に記載の装置。
(項目35)
ビデオ信号の現在のフレームのコーディングブロックを符号化するための符号化装置(20)であって、
残差コーディングブロックを提供するために、上記コーディングブロックを符号化するよう構成される符号化ユニット(204、270)と、
項目14から26のいずれか一項に記載の予測コーディングブロックを生成するよう構成されるインター予測ユニット(244)と、
上記予測コーディングブロック、および、上記残差コーディングブロックに基づいて、上記コーディングブロックを再構築するよう構成される再構築ユニット(214)と
を備える符号化装置(20)。
(項目36)
ビデオ信号の現在のフレームのコーディングブロックを復号するための復号装置(30)であって、
残差コーディングブロックを提供するために、上記コーディングブロックを復号するよう構成される復号ユニット(304)と、
項目14から26のいずれか一項に記載の予測コーディングブロックを生成するよう構成されるインター予測ユニット(344)と、
上記予測コーディングブロック、および、上記残差コーディングブロックに基づいて、上記コーディングブロックを再構築するよう構成される再構築ユニット(314)と
を備える復号装置(30)。
(項目37)
項目1から13のいずれか一項に記載の方法を実行するための処理回路を備えるエンコーダ。
(項目38)
項目1から13のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダ。
(項目39)
項目1から13のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
(項目40)
デコーダであって、
1または複数のプロセッサと、
上記プロセッサに連結され、上記プロセッサによる実行のためのプログラムを格納する非一時的コンピュータ可読記憶媒体であって、上記プログラムは、上記プロセッサによって実行されるとき、項目1から13のいずれか一項に記載の方法を実行するよう上記デコーダを構成する、非一時的コンピュータ可読記憶媒体と
を備えるデコーダ。
(項目41)
エンコーダであって、
1または複数のプロセッサと、
上記プロセッサに連結され、上記プロセッサによる実行のためのプログラムを格納する非一時的コンピュータ可読記憶媒体であって、上記プログラムは、上記プロセッサによって実行されるとき、項目1から13のいずれか一項に記載の方法を実行するよう上記エンコーダを構成する、非一時的コンピュータ可読記憶媒体と
を備えるエンコーダ。

Claims (11)

  1. 2つの幾何パーティションにパーティション化されたコーディングブロックの現在の幾何パーティションのインター予測のための方法であって、前記方法は、デコーディングデバイスにおいて使用されるためのものであり、
    幾何パーティションマージモードについて有効にされた前記コーディングブロックのために、前記コーディングブロックについての単一のマージ候補リストを生成する段階であって、ここで、前記単一のマージ候補リストを生成する前記段階は、
    近傍のコーディングユニットから1または複数の空間的マージ候補を導出する段階と、
    前記空間的マージ候補を導出する段階の後に、直接的または直ちに1または複数の時間的動きベクトル予測(MVP)を導出する段階と、
    前記1または複数の空間的マージ候補および1または複数の時間的MVPを前記単一のマージ候補リストに加える段階であって、ここで、前記1または複数の空間的マージ候補および/または前記1または複数の時間的MVPは、双予測動きベクトル(MV)を含む、
    前記現在の幾何パーティションについて、マージインデックス(merge_triangle_idx)にしたがって、前記単一のマージ候補リストから単一のマージ候補を選択する段階であって、ここで、前記単一のマージ候補は、第1参照画像リスト(REF_PIC_LIST0)に対応する第1MVと、第2参照画像リスト(REF_PIC_LIST1)に対応する第2MVとを有する選択された双予測MVである、
    片予測MV選択規則に基づいて、前記選択された双予測MVから前記現在の幾何パーティションの動きベクトルとして片予測動きベクトル(MV)を導出する段階、および
    前記片予測MVに基づいて、前記現在の幾何パーティションの予測を実行して、前記現在の幾何パーティションにおける予測値を取得する段階を備え、
    前記幾何パーティションマージモードについての前記片予測MV選択規則は、前記単一のマージ候補リストの前記選択された双予測MVのうち前記第1MVまたは前記第2MVが前記片予測MVとして選択されることを示し、
    前記マージ候補リストは、1または複数の片予測MVおよび1または複数の双予測MVを含み、前記1または複数の双予測MVは、前記選択された双予測MVを含む、
    方法。
  2. サブブロックベースの時間的マージ候補の導出は、前記マージ候補リストの前記生成から除外される、請求項1に記載の方法。
  3. 前記片予測MV選択規則は、以下のいずれか1つである:
    前記第1MVの参照画像インデックスが、現在の画像TD0への時間的距離が前記現在の画像TD1への前記第2MVの前記時間的距離より小さい参照画像に関する場合、前記第1MVは、前記片予測MVとして使用される、
    前記REF_PIC_LIST1からの前記第2MVが、前記現在の画像への時間的距離が前記第1MVへの前記時間的距離より小さい参照画像に関する場合、前記第2MVは、前記片予測MVとして使用される、
    前記現在の画像への前記時間的距離が前記第1MVおよび前記第2MVの両方について等しい場合、前記REF_PIC_LIST0からのより小さい大きさを有する前記第1MVは、前記片予測MVとして使用される、または
    前記現在の画像への前記時間的距離が前記第1MVおよび前記第2MVの両方について等しい場合、前記REF_PIC_LIST1からのより小さい大きさを有する前記第2MVは、前記片予測MVとして使用される、
    請求項1または2に記載の方法。
  4. 2つの幾何パーティションにパーティション化されたコーディングブロックの現在の幾何パーティションのインター予測のためのデコーディング装置であって、前記デコーディング装置は、
    命令を含むメモリと、
    前記メモリと通信し、前記命令の実行に際して、
    幾何パーティションマージモードについて有効化された前記コーディングブロックについての単一のマージ候補リストを生成し、前記マージ候補リストの前記生成は、
    近傍のコーディングユニットから1または複数の空間的マージ候補を導出すること、
    前記空間的マージ候補の導出の後に、直接的または直ちに、1または複数の時間的動きベクトル予測(MVP)を導出すること、および
    前記1または複数の空間的マージ候補と、前記1または複数の時間的MVPとを前記マージ候補リストに追加すること、ここで前記1または複数の空間的マージ候補および/または前記1または複数の時間的MVPは、双予測動きベクトル(MV)を含む、
    を含む、
    前記現在の幾何パーティションについて、マージインデックス(merge_triangle_idx)にしたがって、前記単一のマージ候補リストから単一のマージ候補を選択し、ここで、前記単一のマージ候補は、第1参照画像リスト(REF_PIC_LIST0)に対応する第1MVおよび第2参照画像リスト(REF_PIC_LIST1)に対応する第2MVを有する選択された双予測MVである、
    前記幾何パーティションマージモードについての片予測MV選択規則に基づいて、双予測動きベクトル(MV)を、前記選択された双予測MVから前記現在の幾何パーティションの動きベクトルとして導出し、
    前記片予測MVに基づいて、前記現在の幾何パーティションの予測を実行して、前記現在の幾何パーティションの予測値を取得する、プロセッサと、
    を備え、
    前記幾何パーティションマージモードについての前記片予測MV選択規則は、前記単一のマージ候補リストの前記選択された双予測MVのうち前記第1MVまたは前記第2MVが、前記片予測MVとして選択されることを示し、
    前記マージ候補リストは、1または複数の片予測MVと、1または複数の双予測MVとを含み、前記1または複数の双予測MVは、前記選択された双予測MVを含む、
    デコーディング装置。
  5. サブブロックベースの時間的マージ候補の導出は、前記マージ候補リストの前記生成から除外される、請求項4に記載のデコーディング装置。
  6. 前記片予測MV選択規則は、以下のいずれか1つである:
    前記第1MVの参照画像インデックスが、現在の画像TD0への時間的距離が前記現在の画像TD1への前記第2MVの前記時間的距離より小さい参照画像に関する場合、前記第1MVは、前記片予測MVとして使用される、
    前記REF_PIC_LIST1からの前記第2MVが、前記現在の画像への時間的距離が前記第1MVへの前記時間的距離より小さい参照画像に関する場合、前記第2MVは、前記片予測MVとして使用される、
    前記現在の画像への前記時間的距離が前記第1MVおよび前記第2MVの両方について等しい場合、前記REF_PIC_LIST0からのより小さい大きさを有する前記第1MVは、前記片予測MVとして使用される、または
    前記現在の画像への前記時間的距離が前記第1MVおよび前記第2MVの両方について等しい場合、前記REF_PIC_LIST1からのより小さい大きさを有する前記第2MVは、前記片予測MVとして使用される、
    請求項4または5に記載のデコーディング装置。
  7. 2つの幾何パーティションにパーティション化されたコーディングブロックの現在の幾何パーティションのインター予測のための命令を格納する非一時的コンピュータ可読媒体であって、前記命令が1または複数のプロセッサにより実行された場合、前記1または複数のプロセッサに、
    幾何パーティションマージモードについて有効化された前記コーディングブロックについて、単一のマージ候補リストを生成する動作であって、前記マージ候補リストの前記生成は、
    近傍のコーディングユニットから1または複数の空間的マージ候補を導出すること、
    前記空間的マージ候補の導出の後に、直接的または直ちに、1または複数の時間的動きベクトル予測(MVP)を導出すること、および
    前記1または複数の空間的マージ候補と、前記1または複数の時間的MVPとを前記マージ候補リストに追加すること、ここで前記1または複数の空間的マージ候補および/または前記1または複数の時間的MVPは、双予測動きベクトル(MV)を含む、
    を含む、
    前記現在の幾何パーティションについて、マージインデックス(merge_triangle_idx)にしたがって、前記単一のマージ候補リストから単一のマージ候補を選択する動作、ここで、前記単一のマージ候補は、第1参照画像リスト(REF_PIC_LIST0)に対応する第1MVおよび第2参照画像リスト(REF_PIC_LIST1)に対応する第2MVを有する選択された双予測MVであり、
    前記幾何パーティションマージモードについての片予測MV選択規則に基づいて、双予測動きベクトル(MV)を、前記選択された双予測MVから前記現在の幾何パーティションの動きベクトルとして導出する動作、および
    前記片予測MVに基づいて、前記現在の幾何パーティションの予測を実行して、前記現在の幾何パーティションの予測値を取得する動作
    を実行させ、
    前記幾何パーティションマージモードについての前記片予測MV選択規則は、前記単一のマージ候補リストの前記選択された双予測MVのうちMV前記第1MVまたは前記第2MVが、前記片予測MVとして選択されることを示し、
    前記マージ候補リストは、1または複数の片予測MVと、1または複数の双予測MVとを含み、前記1または複数の双予測MVは、前記選択された双予測MVを含む、
    非一時的コンピュータ可読媒体。
  8. サブブロックベースの時間的マージ候補の導出は、前記マージ候補リストの前記生成から除外される、請求項7に記載の非一時的コンピュータ可読媒体。
  9. 前記片予測MV選択規則は、以下のいずれか1つである:
    前記第1MVの参照画像インデックスが、現在の画像TD0への時間的距離が前記現在の画像TD1への前記第2MVの前記時間的距離より小さい参照画像に関する場合、前記第1MVは、前記片予測MVとして使用される、
    前記REF_PIC_LIST1からの前記第2MVが、前記現在の画像への時間的距離が前記第1MVへの前記時間的距離より小さい参照画像に関する場合、前記第2MVは、前記片予測MVとして使用される、
    前記現在の画像への前記時間的距離が前記第1MVおよび前記第2MVの両方について等しい場合、前記REF_PIC_LIST0からのより小さい大きさを有する前記第1MVは、前記片予測MVとして使用される、または
    前記現在の画像への前記時間的距離が前記第1MVおよび前記第2MVの両方について等しい場合、前記REF_PIC_LIST1からのより小さい大きさを有する前記第2MVは、前記片予測MVとして使用される、
    請求項7または8に記載の非一時的コンピュータ可読媒体。
  10. 請求項1から3のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダ。
  11. コンピュータに、請求項1から3のいずれか一項に記載の方法を実行させる、プログラム。
JP2023127359A 2018-10-08 2023-08-03 コーディングブロックの三角形パーティションのインター予測のための装置および方法 Pending JP2023162214A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862742921P 2018-10-08 2018-10-08
US62/742,921 2018-10-08
PCT/CN2019/109991 WO2020073896A1 (en) 2018-10-08 2019-10-08 Apparatuses and methods for inter prediction of a triangle partition of a coding block
JP2021518928A JP7328328B2 (ja) 2018-10-08 2019-10-08 コーディングブロックの三角形パーティションのインター予測のための装置および方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021518928A Division JP7328328B2 (ja) 2018-10-08 2019-10-08 コーディングブロックの三角形パーティションのインター予測のための装置および方法

Publications (1)

Publication Number Publication Date
JP2023162214A true JP2023162214A (ja) 2023-11-08

Family

ID=70164775

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021518928A Active JP7328328B2 (ja) 2018-10-08 2019-10-08 コーディングブロックの三角形パーティションのインター予測のための装置および方法
JP2023127359A Pending JP2023162214A (ja) 2018-10-08 2023-08-03 コーディングブロックの三角形パーティションのインター予測のための装置および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021518928A Active JP7328328B2 (ja) 2018-10-08 2019-10-08 コーディングブロックの三角形パーティションのインター予測のための装置および方法

Country Status (7)

Country Link
US (1) US20210227247A1 (ja)
EP (1) EP3850846A4 (ja)
JP (2) JP7328328B2 (ja)
KR (1) KR20210068537A (ja)
CN (4) CN112823518B (ja)
MX (1) MX2021004020A (ja)
WO (1) WO2020073896A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020094073A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Ordered motion candidate list generation using geometric partitioning mode
CN113852815B (zh) * 2018-12-25 2022-12-27 北京达佳互联信息技术有限公司 利用三角形形状预测单元的视频编码方法、设备及介质
RU2767973C1 (ru) * 2019-03-08 2022-03-22 ДжейВиСиКЕНВУД Корпорейшн Устройство для кодирования видео, способ кодирования видео, устройство для декодирования видео и способ декодирования видео
CN116527931A (zh) * 2019-03-08 2023-08-01 知识产权之桥一号有限责任公司 图像编码装置、图像编码方法以及图像解码装置、图像解码方法
AR118250A1 (es) * 2019-03-08 2021-09-22 Jvckenwood Corp Dispositivos, métodos y programas de codificación y decodificación de imágenes en movimiento
CN113924774A (zh) * 2019-05-10 2022-01-11 北京达佳互联信息技术有限公司 用于利用三角形预测进行视频编解码的方法和装置
CN113163209B (zh) * 2019-06-24 2022-11-25 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
WO2020263467A1 (en) 2019-06-24 2020-12-30 Alibaba Group Holding Limited Method and apparatus for motion field storage in video coding
JP7372450B2 (ja) 2019-09-01 2023-10-31 北京字節跳動網絡技術有限公司 ビデオコーディングにおける予測重みの調整
CN114556915B (zh) * 2019-10-10 2023-11-10 北京字节跳动网络技术有限公司 几何分割模式中被编解码的块的去块
WO2021072375A1 (en) * 2019-10-10 2021-04-15 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatuses for video coding using triangle partition
US11496755B2 (en) * 2019-12-28 2022-11-08 Tencent America LLC Method and apparatus for video coding
US11375221B2 (en) * 2020-02-12 2022-06-28 Tencent America LLC Method and apparatus for cross-component filtering
CN111741297B (zh) * 2020-06-12 2024-02-20 浙江大华技术股份有限公司 帧间预测方法、视频编码方法及其相关装置
WO2022177380A1 (ko) * 2021-02-18 2022-08-25 현대자동차주식회사 인터 예측 기반의 비디오 부호화 및 복호화
CN113422966B (zh) * 2021-05-27 2024-05-24 绍兴市北大信息技术科创中心 一种多模型cnn环路滤波方法
WO2023224279A1 (ko) * 2022-05-16 2023-11-23 현대자동차주식회사 기하학적 움직임 예측을 사용하는 비디오 코딩을 위한 방법 및 장치

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1122421C (zh) * 1995-08-04 2003-09-24 株式会社大宇电子 用于图象信号编码***的运动矢量估算方法和设备
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
JP2012109720A (ja) * 2010-11-16 2012-06-07 Panasonic Corp 画像変換装置、画像再生装置及び画像変換方法
US9066102B2 (en) * 2010-11-17 2015-06-23 Qualcomm Incorporated Reference picture list construction for generalized P/B frames in video coding
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
WO2012097377A1 (en) * 2011-01-14 2012-07-19 General Instrument Corporation Joint spatial and temporal block merge mode for hevc
WO2012108181A1 (en) * 2011-02-08 2012-08-16 Panasonic Corporation Methods and apparatuses for encoding and decoding video using multiple reference pictures
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
US8934552B2 (en) * 2011-03-31 2015-01-13 Qualcomm Incorporated Combined reference picture list construction and mapping
US9866859B2 (en) * 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
PL2728878T3 (pl) * 2011-06-30 2020-06-15 Sun Patent Trust Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
CN103828373B (zh) * 2011-10-05 2018-02-16 太阳专利托管公司 图像解码方法以及图像解码装置
CN104137547B (zh) * 2011-11-21 2018-02-23 谷歌技术控股有限责任公司 用于时间预测的共位图片的隐式确定以及组合隐式和显式确定
US9426463B2 (en) * 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
JP2013251752A (ja) 2012-05-31 2013-12-12 Toshiba Corp 電子機器及び復号方法
US9807407B2 (en) * 2013-12-02 2017-10-31 Qualcomm Incorporated Reference picture selection
US9838710B2 (en) * 2014-12-23 2017-12-05 Intel Corporation Motion estimation for arbitrary shapes
EP3251350B1 (en) * 2015-01-29 2023-04-19 VID SCALE, Inc. Intra-block copy searching
US20180176596A1 (en) * 2015-06-05 2018-06-21 Intellectual Discovery Co., Ltd. Image encoding and decoding method and image decoding device
WO2017076221A1 (en) * 2015-11-05 2017-05-11 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding
WO2017086747A1 (ko) * 2015-11-20 2017-05-26 한국전자통신연구원 기하 변환 픽처를 이용한 영상의 부호화/복호화 방법 및 장치
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
EP3301914A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for encoding and decoding a large field of view video
WO2018071666A1 (en) * 2016-10-12 2018-04-19 Arris Enterprises Llc Coding schemes for virtual reality (vr) sequences
EP3571839B1 (en) * 2017-02-06 2020-10-28 Huawei Technologies Co., Ltd. Video encoder and decoder for predictive partitioning
US10757420B2 (en) * 2017-06-23 2020-08-25 Qualcomm Incorporated Combination of inter-prediction and intra-prediction in video coding
US10687077B2 (en) * 2017-06-26 2020-06-16 Qualcomm Incorporated Motion information propagation in video coding
US10785494B2 (en) * 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
US10652571B2 (en) * 2018-01-25 2020-05-12 Qualcomm Incorporated Advanced motion vector prediction speedups for video coding
US10863175B2 (en) * 2018-03-01 2020-12-08 Panasonic Intellectual Property Corporation Of America Encoder, and decoder, encoding method, decoding method
US11128871B2 (en) * 2018-04-25 2021-09-21 Panasonic Intellectual Property Corporation Of America Encoder for adaptively determining information related to splitting based on characteristics of neighboring samples
US11477474B2 (en) * 2018-06-08 2022-10-18 Mediatek Inc. Methods and apparatus for multi-hypothesis mode reference and constraints
CN117676163A (zh) * 2018-07-06 2024-03-08 寰发股份有限公司 解码器的视频解码方法及装置
US11051036B2 (en) * 2018-07-14 2021-06-29 Mediatek Inc. Method and apparatus of constrained overlapped block motion compensation in video coding
MX2021000265A (es) * 2018-07-17 2021-03-25 Panasonic Ip Corp America Prediccion de vectores de movimiento para codificacion de video.
US11057617B2 (en) * 2018-08-03 2021-07-06 Tencent America LLC Method and apparatus for video coding
CN112640466A (zh) * 2018-09-07 2021-04-09 松下电器(美国)知识产权公司 用于视频编码的***和方法
US11012687B2 (en) * 2018-10-01 2021-05-18 Tencent America LLC Method and apparatus for video coding
KR102608615B1 (ko) 2018-11-02 2023-12-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보 저장을 위한 표 유지
US10893298B2 (en) * 2018-12-12 2021-01-12 Tencent America LLC Method and apparatus for video coding
US11122272B2 (en) * 2018-12-26 2021-09-14 Mediatek Inc. Triangle prediction with applied-block settings and motion storage settings

Also Published As

Publication number Publication date
EP3850846A1 (en) 2021-07-21
US20210227247A1 (en) 2021-07-22
JP2022514161A (ja) 2022-02-10
EP3850846A4 (en) 2021-12-15
CN117615125A (zh) 2024-02-27
CN117596398A (zh) 2024-02-23
KR20210068537A (ko) 2021-06-09
JP7328328B2 (ja) 2023-08-16
CN112823518B (zh) 2023-10-20
WO2020073896A1 (en) 2020-04-16
CN117692651A (zh) 2024-03-12
CN112823518A (zh) 2021-05-18
MX2021004020A (es) 2021-06-30

Similar Documents

Publication Publication Date Title
JP7328328B2 (ja) コーディングブロックの三角形パーティションのインター予測のための装置および方法
JP7106744B2 (ja) ルーマおよびクロマ成分についてibc専用バッファおよびデフォルト値リフレッシュを使用するエンコーダ、デコーダおよび対応する方法
KR20210072064A (ko) 인터 예측 방법 및 장치
US11438578B2 (en) Video picture prediction method and apparatus
US11895292B2 (en) Encoder, decoder and corresponding methods of boundary strength derivation of deblocking filter
US11909959B2 (en) Encoder, a decoder and corresponding methods for merge mode
KR20210141712A (ko) Ibc 병합 리스트를 사용하는 인코더, 디코더 및 대응 방법들
US20220021883A1 (en) Chroma sample weight derivation for geometric partition mode
KR20230135185A (ko) 서브 블록 파티셔닝 모드를 위한 인코더, 디코더 및 대응 방법
US20240205387A1 (en) Encoder, decoder and corresponding methods of boundary strength derivation of deblocking filter
WO2021134393A1 (en) Method and apparatus of deblocking filtering between boundaries of blocks predicted using weighted prediction and non-rectangular merge modes
JP2024083360A (ja) マージモードのためのエンコーダ、デコーダ、および対応する方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230901