JP2022506162A - 動き情報の位置依存記憶装置 - Google Patents
動き情報の位置依存記憶装置 Download PDFInfo
- Publication number
- JP2022506162A JP2022506162A JP2021523359A JP2021523359A JP2022506162A JP 2022506162 A JP2022506162 A JP 2022506162A JP 2021523359 A JP2021523359 A JP 2021523359A JP 2021523359 A JP2021523359 A JP 2021523359A JP 2022506162 A JP2022506162 A JP 2022506162A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- motion information
- candidate
- list
- candidates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 1008
- 230000001419 dependent effect Effects 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 425
- 238000006243 chemical reaction Methods 0.000 claims abstract description 73
- 238000003672 processing method Methods 0.000 claims abstract description 58
- 239000013598 vector Substances 0.000 claims description 235
- 238000012545 processing Methods 0.000 claims description 107
- 230000008569 process Effects 0.000 claims description 56
- 230000002123 temporal effect Effects 0.000 claims description 47
- 230000015654 memory Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 24
- 238000012935 Averaging Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000005192 partition Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 abstract description 17
- 238000010586 diagram Methods 0.000 abstract description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 52
- 238000003780 insertion Methods 0.000 description 29
- 230000037431 insertion Effects 0.000 description 29
- 238000009795 derivation Methods 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 21
- 238000010276 construction Methods 0.000 description 11
- 238000013138 pruning Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 9
- 230000009977 dual effect Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 7
- 101001036283 Xenopus laevis DNA-binding protein inhibitor ID-3-A Proteins 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 6
- 230000002146 bilateral effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100328886 Caenorhabditis elegans col-2 gene Proteins 0.000 description 1
- 235000001537 Ribes X gardonianum Nutrition 0.000 description 1
- 235000001535 Ribes X utile Nutrition 0.000 description 1
- 235000016919 Ribes petraeum Nutrition 0.000 description 1
- 244000281247 Ribes rubrum Species 0.000 description 1
- 235000002355 Ribes spicatum Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2018年11月6日出願の国際特許出願PCT/CN2018/114057号、2019年5月17日出願の国際特許出願PCT/CN2019/087372号、2019年6月5日出願の国際特許出願PCT/CN2019/090127、および2019年6月20日出願の国際特許出願PCT/CN2019/092151号の優先権および利益を適時に主張することを目的とする。米国法に基づくすべての目的のために、上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
・ステップ1:初期候補導出
oステップ1.1:空間的候補導出
oステップ1.2:空間的候補の冗長性チェック
oステップ1.3:時間的候補導出
・ステップ2:追加候補挿入
oステップ2.1:双予測候補の作成
oステップ2.2:動きゼロ候補の挿入
・空間的スケーリングなし
-(1)同じ参照ピクチャリスト、および同じ参照ピクチャインデックス(同じPOC)
-(2)異なる参照ピクチャリストであるが、同じ参照ピクチャ(同じPOC)
・空間的スケーリング
-(3)同じ参照ピクチャリストであるが、異なる参照ピクチャ(異なるPOC)
-(4)異なる参照ピクチャリスト、および異なる参照ピクチャ(異なるPOC)
・通常の1/4輝度サンプルMVD解像度を有するCUのRDチェック中、現在のCUの動き情報(整数輝度サンプル精度)が記憶される。整数輝度サンプルおよび4輝度サンプルのMVD解像度を有する同じCUのRDチェック中に、記憶された動き情報(丸められた後)は、更なる小範囲動きベクトル改良の開始点として使用されるので、時間がかかる動き推定処理が3回重複しない。
・4輝度サンプルMVD解像度を有するCUのRDチェックを条件付きで呼び出す。CUの場合、整数輝度サンプルMVD解像度のRDコストが1/4輝度サンプルMVD解像度のそれよりもはるかに大きい場合、CUのための4輝度サンプルMVD解像度のRDチェックはスキップされる。
1)A1、B1、B0、A0、B2、Col、Col2から正規の動き候補を、プルーニング操作を実行せずに得る(図14のブロック1-7に対応)。
2)変数numCurrMergeCand=0を設定する
3)A1、B1、B0、A0、B2、Col、Col2、から導出された各正規の動き候補で、numCurrMergeCandが5未満のものに対し、正規の動き候補が単一予測である(List0またはList1のいずれかから)場合、であり、numCurrMergeCandを1だけ増加させたTPM候補としてマージリストに直接加えられる。このようなTPM候補を、「もともと単一予測されている候補」と命名する。
フルプルーニングを適用する。
4)A1,B1,B0,B0,A0,B2,Col,Col2から導出され、numCurrMergeCandが5未満である各動き候補について、正規の動き候補が双予測である場合には、リスト0からの動き情報を新たなTPM候補としてTPMマージリストに追加し(つまり、リスト0からの単一予測となるように修正し)、numCurrMergeCandを1だけ増加させる。このようなTPM候補を、「短縮List0予測候補」と呼ぶ。
フルプルーニングを適用する。
5)A1,B1,B0,B0,A0,B2,Col,Col2から導出され、numCurrMergeCandが5未満である各動き候補について、正規の動き候補が双予測である場合には、リスト1からの動き情報をTPMマージリストに追加し(つまり、リスト1からの単一予測となるように修正し)、numCurrMergeCandを1だけ増加させる。このようなTPM候補を「短縮List1-予測候補」と呼ぶ。
フルプルーニングを適用する。
6)A1、B1、B0、A0、B2、Col、Col2、から導出され、numCurrMergeCandが5未満である各動き候補について、正規の動き候補が双予測である場合、
-List0参照ピクチャスライスQPがList1参照ピクチャスライスQPよりも小さい場合、List1の動き情報をまずList0参照ピクチャにスケーリングし、2つのMVの平均(一方はオリジナルList0からのもので、他方はList1からのスケーリングされたMV)をTPMマージリストに加える。このような候補を、List0動き候補からの平均単一予測と呼び、numCurrMergeCandを1だけ増加させる。
-そうでない場合、List0の動き情報をまずList1参照ピクチャにスケーリングし、2つのMVの平均(一方はオリジナルList1からのものであり、他方はList0からのスケーリングされたMV)をTPMマージリストに加える。このようなTPM候補を、List1動き候補からの平均単一予測と呼ばれ、numCurrMergeCandを1だけ増加させる。
フルプルーニングを適用する。
7)numCurrMergeCandが5未満である場合、ゼロ動きベクトル候補を加える。
・第1の重み係数群は、{7/8,6/8,4/8,2/8,1/8}および{7/8,4/8,1/8}をそれぞれ輝度およびクロミナンスサンプルに用いる。
・第2の重み係数群は、{7/8,6/8,5/8,4/8,3/8,2/8,1/8}および{6/8,4/8,2/8}をそれぞれ輝度および色差サンプルに用いる。
1)Mv1およびMv2が異なる方向(L0またはL1)の動きベクトルを有する場合、Mv1およびMv2を単に組み合わせることで、双予測動きベクトルが形成される。
2)Mv1とMv2の両方が同じL0(またはL1)方向から来ている場合、
-Mv2の参照ピクチャがL1(またはL0)参照ピクチャリストにおけるピクチャと同じである場合、Mv2はそのピクチャにスケーリングされる。Mv1とスケーリングされたMv2とを組み合わせ、双予測動きベクトルを形成する。
-Mv1の参照ピクチャがL1(またはL0)参照ピクチャリストにおけるピクチャと同じである場合、Mv1はそのピクチャにスケーリングされる。スケーリングされたMv1およびMv2を組み合わせ、双予測動きベクトルを形成する。
-そうでない場合、重み付け領域のためにMv1のみが記憶される。
+((Above block A available && A is coded with TPM?)1:0);
const uint8_t g_TriangleCombination[TRIANGLE_MAX_NUM_CANDS][3]={
{0,1,0},{1,0,1},{1,0,2},{0,0,1},{0,2,0},
{1,0,3},{1,0,4},{1,1,0},{0,3,0},{0,4,0},
{0,0,2},{0,1,2},{1,1,2},{0,0,4},{0,0,3},
{0,1,3},{0,1,4},{1,1,4},{1,1,3},{1,2,1},
{1,2,0},{0,2,1},{0,4,3},{1,3,0},{1,3,2},
{1,3,4},{1,4,0},{1,3,1},{1,2,3},{1,4,1},
{0,4,1},{0,2,3},{1,4,2},{0,3,2},{1,4,3},
{0,3,1},{0,2,4},{1,2,4},{0,4,2},{0,3,4}};
1.前述のorder-0 exp-Golombコードを使用して[x/2k]を符号化する。次に、
2.x mod 2kをバイナリでエンコードする。
通常のマージ候補リストは、動きベクトルを余分にプルーニングすることなく、三角形分割マージ予測に再利用される。通常のマージ候補リストにおける各マージ候補について、そのL0またはL1動きベクトルのうちの1つのみを三角形予測に用いる。また、L0対L1の動きベクトルを選択する順番は、そのマージインデックスパリティに基づく。この方式によれば、通常のマージリストをそのまま使用してもよい。
・現在のピクチャとその参照ピクチャとの間に明瞭な照度変化がない場合、LICはピクチャ全体に対して無効にされる。この状況を識別するために、エンコーダにおいて、現在のピクチャおよび現在のピクチャのすべての参照ピクチャのヒストグラムを計算する。現在のピクチャと現在のピクチャのすべての参照ピクチャとの間のヒストグラム差が所与の閾値よりも小さい場合、現在のピクチャに対してLICを無効化し、そうでない場合、現在のピクチャに対してLICを有効化する。
モデルは、Δに対してローカルテイラー展開の第1の線形項のみを用いる。
1)単一予測マージリストの設計は、参照ピクチャリストに依存しており、すなわち、参照ピクチャリスト0から参照ピクチャに関連付けられたMVの優先度が高くなるように設計されている。すなわち、すべての単一予測の正規の動き候補から導出されたTPM候補を、すべての双予測の正規の動き候補から導出されたTPM候補の前に挿入する。しかしながら、一般的に、空間的に近傍のブロックの位置は、mv情報の類似性の点でより強い相関を有する。
2)2つの分割は異なるTPM候補インデックスを選択することができるが、2つの分割は現在のブロックの近傍のブロックとの間に異なる相関を有する可能性があるため、両方の分割に対して同じマージ候補リストを利用することは最適ではない。
3)TPM候補の最大数は5に固定され、少なくともソフトウェア設計には使い勝手が悪い。
4)重み係数群は、あらゆる種類のブロックに対して予め規定される。
5)4×4レベルに動き情報を記憶し、メモリ容量を増加させる。それらをどのように圧縮するかは研究すべき問題である。
6)TPM動き情報は、2つの復号化されたマージインデックスのパリティに依存する。偶数値インデックスを有する候補の場合、まずそのL0動きベクトルを選択し、三角形予測に使用する。それが利用可能でない場合、そのL1動きベクトルが代わりに使用される。奇数値インデックスを有する候補の場合、まず、そのL1動きベクトルを選択し、これを三角形予測に使用する。それが利用可能でない場合、そのL0動きベクトルが代わりに使用される。従って、2つの候補が同じ参照ピクチャリストからのものであることが可能である。
1.すべての双予測正規の動き候補から導出されたTPM候補の前に、すべての単方向予測の正規の動き候補から導出されたTPM候補を常に挿入するのではなく、予測方向を優先基準として、まずどのTPM候補を追加するかを判定することが提案される。
a.一例において、リストXからの単一予測を伴うすべての正規の動き候補を、リストYからの単一予測を伴うものの前にTPM候補として候補リストに挿入する。
b.一例において、双予測の正規の動き候補から導出されたすべてのTPM候補(例えば、短縮List0-予測候補、短縮List1-予測候補)にはより高い優先順位が与えられ、すなわち、単一予測正規の動き候補から導出されたものの前にTPM候補を挿入することができる。
c.一例において、この順序は、双予測の正規の動き候補のListXから導出されたすべてのTPM候補(例えば、短縮ListX-予測候補)、双予測の正規の動き候補のListYから導出されたすべてのTPM候補(例えば、短縮ListY-予測候補)、単一予測の正規の動き候補から導出されたすべてのTPM候補(例えば、元々は単一予測候補)として定義される。
d.一例において、1つの双予測の正規の動き候補から導出されたTPM候補を、別の双予測の正規の動き候補から導出されたTPM候補の前にリストに加えてもよい。
e.一例において、1つの双予測の正規の動き候補から導出されたTPM候補を、別の双予測の正規の動き候補から導出されたTPM候補とインターリーブ方式で加算してもよい。
i.正規の動き候補CA、CBが2つであり、TPM候補が4つである場合、それぞれCA、CBから導出された短縮List0/1-予測候補を含む。リストへの追加順序は、以下のように定義されてもよい。CAから導出された短縮List0-予測候補、CBから導出された短縮List1-予測候補、CAから導出された短縮List1-予測候補、CBから導出された短縮List0-予測候補。
ii.代替的に、2つの正規の動き候補CA、CB、および4つのTPM候補がある場合、それぞれCA、CBから導出された短縮List0/1-予測候補を含む。リストへの追加順序は、以下のように定義されてもよい。CAから導出された短縮List1-予測候補、CBから導出された短縮List0-予測候補、CAから導出された短縮List0-予測候補、CBから導出された短縮List1-予測候補。
2.すべての単方向予測正規の動き候補から導出されたTPM候補を、すべての双予測正規の動き候補から導出されたTPM候補の前に常に挿入するのではなく、正規の動き候補に関連付けられた符号化モード情報を優先基準として、まずどのTPM候補を追加するかを判定することが提案される。
a.符号化された情報は、AMVPまたはマージモードを含んでもよい。
i.一例において、1つの正規の動き候補CAがブロックAから導出され、別の1つのCBがブロックBから導出され、ブロックAがAMVPモードで符号化され、Bがマージモードで符号化される場合、CAから導出されたTPM候補を、CBから導出されたものの前にリストに加えてもよい。代替的に、CBから導出されたTPM候補を、CAから導出されたTPM候補の前にリストに加えてもよい。
b.符号化された情報は、参照インデックスおよび/またはPOC差を含んでもよい。
i.一例において、1つのTPM候補C’Aが別のTPM候補C’Bに比べて小さい参照インデックスに関連付けられている場合、C’AをC’Bの前にリストに追加してもよい。
ii.一例において、1つのTPM候補C’Aが、別のTPM候補C’Bと比較して、参照ピクチャと現在のピクチャとの間のより小さいPOC距離に関連付けられている場合、C’Aは、C’Bの前にリストに追加してもよい。
c.符号化された情報は、参照ピクチャのピクチャ/スライス/タイルグループ量子化パラメータ(QP)および/または参照ピクチャの時間層インデックスを含んでもよい。
i.一例において、1つのTPM候補C’Aが、別のTPM C’Bと比較して小さいQPを有する参照ピクチャに関連付けられている場合、C’Aは、C’Bの前にリストに追加してもよい。
3.すべての単方向予測正規の動き候補から導出されたTPM候補を、すべての双予測正規の動き候補から導出されたTPM候補の前に常に挿入するのではなく、動き候補が導出された位置を優先基準として、まずどのTPM候補を追加するかを判定することが提案されている。
a.一例において、1つの正規の動き候補CAがブロックAから導出され、Aの後に別のCBがブロックBから導出され、Bがチェックされた場合、CAから導出されたTPM動き候補を、CBから導出されたものの前にリストに加えてもよい(例えば、CAが単一予測である場合、直接継承するか、またはそれぞれがCAに関連付けられた単一予測方向からコピーされた2つのTPM候補)。
b.代替的に、位置および参照ピクチャリスト(または予測方向)の両方を優先基準として使用してもよい。例えば、1つの正規の動き候補CAがブロックAから導出され、別のCBがブロックBから導出され、Aの後にBがチェックされた場合、リストXのCAから導出されたTPM動き候補をリストに加えた後、リストXのCBから導出されたTPM動き候補をリストに加えてもよい。リストYのCAから導出されたTPM動き候補をリストYのCBから導出されたものに加えてもよく、Xが0または1に等しく、Yが(1-X)に等しい。
4.短縮List0-予測候補の前に、すべての短縮List1-予測候補を加えることが提案される。
a.代替的に、例えば、利用可能なTPM動き候補に基づいて、短縮List0-予測候補および短縮List1-予測候補の順番を適応的に変更してもよい。
i.一例において、第1のTPM動き候補が、List1からの単一予測を伴う、本来1つの予測された候補である場合、短縮List0-予測候補の前に、トランケートされたList1-予測候補を追加してもよい。
ii.代替的に、元々未予測の候補がList1よりも多い場合、短縮List0-予測候補の前に短縮List1-予測候補を追加してもよい。
b.代替的に、1つの双予測動き候補から導出されたすべてのTPM候補(例えば、1つの短縮List0-予測候補および1つの短縮List0-予測候補)を、別の双予測動き候補から導出されたすべてのTPM候補の前にリストに追加してもよい。
i.代替的に、1つの動き候補から導出されたTPM候補について、それらを加える順番は、リストにおける利用可能なTPM動き候補の情報にさらに依存してもよく、例えば、4.aである。
5.1つの正規の動き候補から導出されたList0およびList1の動き候補からの複数の平均単一予測を、両方ともTPM動き候補リストに加えてもよい。
a.代替的に、それらのうちの1つのみを追加してもよく、どの1つを追加するかは、リストにおける利用可能なTPM候補の情報、例えば、4.aに依存する。
b.代替的に、2つの予測リストの参照ピクチャインデックスに基づいて、いずれか一方のみを加えるようにしてもよい。より小さい参照ピクチャインデックスに関連付けられた動きベクトルは保持され、最終予測方向がこのような参照ピクチャに関連付けられる。
c.代替的に、これらのうちの1つのみを追加してもよく、いずれを追加するかは、2つの予測リストにおける参照ピクチャと現在のピクチャとの間のPOC距離に依存する。より小さなPOC距離に関連付けられた動きベクトルが保持され、最終的な予測方向がこのような参照ピクチャに関連付けられる。
d.一例において、List0の動き候補からのすべての平均化された単一予測を、List1の動き候補からのすべての平均化された単一予測の前に挿入してもよい。代替的に、List1の動き候補からのすべての平均化された単一予測を、List0の動き候補からのすべての平均化された単一予測の前に挿入してもよい。
6.単一予測の正規の動き候補を使用して平均単一予測TPM候補を導出できるようにすることが提案される。
a.リストLXからの単一予測正規の動き候補を使用して、例えば、双予測正規の動き候補またはリストXからの他の単一予測正規の動き候補を使用して、リストLXの平均化単一予測候補を生成してもよい。
b.リストLXからの単一予測正規の動き候補をまずLY(Y=1-X)にスケーリングし、このスケーリングした動きベクトルを使用して、リストLYの平均化単一予測候補を生成してもよく、例えば、双予測正規の動き候補またはリストXからの他の単一予測正規の動き候補を用いる。
7.また、利用可能なTPM動き候補から導出された仮想TPM動き候補をTPM候補リストに加えてもよい。
a.一例において、特定のステップの後(例えば、短縮List1予測候補を生成した後)、マージリストに追加された仮想候補から仮想候補から導出されてもよい。
b.一例において、仮想候補は、元の単一予測候補のみから導出されてもよい。
c.一例において、仮想候補は、元の単一予測候補および短縮List1予測候補のみから導出されてもよい。
d.一例において、仮想候補は、ある参照ピクチャインデックス(即ち、0に等しい)を有する候補、および/または参照ピクチャと現在のピクチャとの間にある範囲のPOC距離を有する候補、または1つの参照ピクチャリストから導出されてもよい。
e.一例において、仮想候補は、第1のK個のTPM動き候補のみから導出されてもよく、例えば、Kを1に設定する。
i.例えば、2つのTPM動き候補のMVを平均化し、仮想候補を得ることができる。
f.動きベクトルがCmvであり、参照インデックスがCrefidxであるTPM動き候補に対して、以下の方法を使用して仮想ベクトルを導出してもよい。
i.Cmvの水平または垂直成分にオフセットを加え、同じCrefidxを用いる。
ii.Cmvの水平成分および垂直成分の両方にオフセットを加え、同じCrefidxを使用する。
iii.Crefidxが指していない他の参照ピクチャにCmvをスケーリングする。スケーリングされた動きベクトルとCmvをスケーリングした参照ピクチャのインデックスとを使用して、新しいTPM動き候補とする。
g.仮想TPM候補を追加するとき、プルーニングは適用されないことがある。
i.代替的に、仮想TPM候補を生成したものを除いた候補に対してプルーニングを適用してもよい。
8.TPM候補の挿入順序(優先順位基準)は、シーケンスからシーケンスへ、ピクチャからピクチャへ、スライスからスライスへ、タイルグループからタイルグループへ、ブロックからブロックへ等々と変更されてもよい。
a.一例において、それは、ブロックサイズ/ブロック形状/分割パターンに依存し得る。
b.代替的に、この順序は、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CUにおいて、エンコーダからデコーダに信号通知されてもよい。
9.ジオメトリ分割ごとに、すべての分割に1つのリストを使用する代わりに、1つの別個の動き候補リストを構築してもよい。
a.一例において、1つの分割の場合、その関連付けられた候補リストは、リストXから予測された動き候補のみを含み、他の分割の場合、その関連付けられた候補リストは、リストYから予測された動き候補のみを含み、YはXに等しくない。
b.一例において、異なる空間的ブロックおよび/または時間的ブロックにアクセスして、マージリストに追加されるべき動き候補を導出してもよい。
c.一例において、1つのジオメトリ分割における空間的ブロックおよび/または時間的ブロックの位置は、分割の位置に依存してもよい。
d.一例において、1つのジオメトリ分割における空間的ブロックおよび/または時間的ブロックの位置は、分割方式(左上から右下へ(45度)または右上から左下へ(135度))に依存してもよい。
e.一例において、135度の分割パターン(図13A~13Bに示す)においては、PU1のマージリストを構築するために、より上のブロックをチェックしてもよい。上記ブロック(灰色でマークされている)のいくつかの例を図29に示す。
f.一例において、135度の分割パターン(図13A~13Bに示す)においては、PU2のマージリストを構築するために、より多くの左側のブロックをチェックしてもよい。左ブロック(灰色でマークされている)のいくつかの例を図29に示す。
g.一例において、45°の分割パターン(図13A~13Bに示す)においては、PU1のマージリストを構築するために、より左側のブロックおよびより上側のブロックをチェックしてもよい。左上のブロック(灰色でマークされている)のいくつかの例を図29に示す。
h.一例において、45°の分割パターン(図13A~13Bに示す)においては、PU2のマージリストを構築するために、より多くの時間的ブロックをチェックしてもよい。
i.一例において、TPMリストのインデックスは、分割ごとに信号通知される。
10.複数のTPMリストを構築し、すべての分割で共有することができ、各分割はそれらのうちの1つを選択することができる(例えば、各分割は、複数のTPMリストから同じTPMリストを選択することができる)。
a.一例において、TPMリストのインデックスは、最初に信号通知されてもよい。次いで、TPM候補のインデックスをさらに信号通知することができる。
b.別の例において、TPMリストのインデックスとTPM候補のインデックスとは、結合して符号化されてもよい。
11.マージ/AMVPのための最大許容TPM候補は、SPS/VPS/PPS/ピクチャヘッダ/スライスヘッダ/タイルグループヘッダ/LCUの行/グループにおいて信号通知される。
a.代替的に、最大許容TPM動き候補は、非TPM符号化ブロックに使用されるもの、例えば、非TPMマージ候補リストサイズ、またはサブブロックマージ候補リストサイズに設定される。
b.最大数は、信号通知される時に、単項符号化または切り捨て単項符号化によって2値化される。
c.最大数を直接信号通知する代わりに、(M-最大数)を信号通知してもよく、例えば、M=5または6である。
d.1つのビットフラグを、TPM候補の最大数が正規の動き候補/サブブロック動き候補の最大数と同じであるかどうかを示すように信号通知することができる。
12.重み係数群の選択は、現在のブロックの幅および/または高さに依存してもよい。
a.一例において、幅と高さの比が閾値よりも大きい場合、特定の重み係数群(例えば、群1)を選択してもよい。
b.一例において、高さと幅との比が閾値よりも大きい場合、特定の重み係数群(例えば、群1)を選択してもよい。
c.複数の重み係数群のセットを予め規定しておき、ブロックの幅および/または高さが異なる場合、そのうちの1つまたは2つから1つの重み係数群を選択してもよい。
13.サンプルの位置に基づいて、重み係数をオンザフライで変更してもよい。
a.一例において、この角度は、2つの分割を区別するエッジの角度に依存してもよい。
b.一例において、重み係数は、サンプルの位置の関数として定義されてもよい。
c.一例において、1つのTPM符号化ブロックの最終予測ブロックは、
(f(x,y)*P1(x,y)+(2M-f(x,y))*P2(x,y)+offset)>>Mと設定される。P1,P2は、(x,y)に位置するサンプルの2つの予測値であり、Mは整数値であり、オフセットは(1<<(M-1))に設定でき、f(x,y)は、第1の予測値に適用された重みを戻す係数である。
14.重み付け領域に位置するブロックに対して、メモリ帯域幅を低減するために、4×4レベルの代わりに8×8レベルで動き補償を行う。
a.代替的に、重み付け領域に位置するブロックに対して、メモリ帯域幅を低減するために、4×4レベルの代わりに8×4または4×8レベルで動き補償を行う。
b.代替的に、8×4または4×8に基づく動き補償が許可される場合、8×4または4×8の選択は、以下に依存し得る。
i.ブロックの幅および/または高さ
ii.分割パターン(例えば、45度または135度)。
15.TPM符号化ブロックを復号化した後、1つまたは複数のHMVPテーブルを更新してもよい。
a.一例において、他の分割の動き情報を除く1つの分割の動き情報に基づいて、1つまたは複数のHMVPテーブルを更新してもよい。
b.一例において、記憶された動き情報に基づいて、重み付けられていない領域を除いた重み付け領域/または重み付けられていない領域から重み付けられた領域を除いた重み付け領域のために、1つまたは複数のHMVPテーブルを更新してもよい。
c.一例において、TPM符号化ブロックスフ動き情報の導出に用いられるマージ候補リストにおける1つのマージ候補に基づいて、1つまたは複数のHMVPテーブルを更新してもよい。
i.一例において、1つのマージ候補は、復号化されたマージインデックスのマージインデックス(例えば、merge_triangle_idx0またはmerge_triangle_idx1)に関連付けられる。
ii.一例において、1つのマージ候補は、kに等しいマージインデックス(例えば、k=0)に関連付けられる。
16.1つの分割のための三角形動き情報の導出処理は、例えば他の分割の予測方向に基づいて、他の分割からの復号化された動き情報に依存してもよい。
d.一例において、merge_triangle_idx0に等しいインデックスを有する1つの復号化された候補のLXとして表される第1の参照ピクチャリストが(例えば、merge_triangle_idx0のパリティおよびLXの可用性に基づいて)選択される。第2の復号化された候補インデックスのパリティにかかわらず、第2の候補のLY(Y=1-X)として示される第2の参照ピクチャリストに関連付けられた動き情報が利用可能である場合、それを三角形分割の動き情報として選択する。以下の説明において、参照ピクチャリストLXまたはLYに関連付けられた動き情報を、LX動き情報またはLY動き情報とも呼ぶ。
i.代替的に、merge_triangle_idx1を有する第2の候補のLY(Y=1-X)動き情報が利用可能でない場合、第2の候補のLX動き情報を代わりに使用してもよい。
ii.代替的に、merge_triangle_idx1を有する第2の候補のLY(Y=1-X)動き情報が利用可能でない場合、第2の候補のLX動き情報を使用してLYの動き情報を導出してもよい。そして、導出されたLY動き情報をTPM符号化に使用してもよい。
1)一例において、この導出処理は、LXにおける参照ピクチャを参照し、LYにおける参照ピクチャを参照する動きベクトルのスケーリングを含んでもよい。
e.一例において、merge_triangle_idx1に等しいインデックスを有する1つの復号化された候補のLXとして表される第1の参照ピクチャリストが選択される(例えば、merge_triangle_idx1のパリティおよびLXの可用性に基づいて)。第2の復号化された候補インデックスのパリティにかかわらず、LY(Y=1-X)動き情報が利用可能である場合、それを三角形分割の動き情報として選択する。
i.代替的に、merge_triangle_idx0を有する候補のLY(Y=1-X)動き情報が利用可能でない場合、LX動き情報を代わりに使用してもよい。
ii.代替的に、merge_triangle_idx0を有する候補のLY(Y=1-X)動き情報が利用できない場合、merge_triangle_idx0を有する候補のLX動き情報を使用してLYの動き情報を導出してもよい。そして、導出されたLY動き情報をTPM符号化に使用してもよい。
1)一例において、この導出処理は、LXにおける参照ピクチャを参照し、LYにおける参照ピクチャを参照する動きベクトルのスケーリングを含んでもよい。
17.複数の三角形分割に対して同じ参照ピクチャリストからの動き情報を使用することは許されない。
f.一例において、1つの適合ビットストリームは、2つの三角形分割が異なる参照ピクチャリストから予測されることを満たすべきである。
g.代替的に、マージインデックスのパリティから動き情報を導出する処理は、例えば、黒丸15に開示される方法を使用して、2つの異なるリストから2つの分割を予測することを常に出力してもよい。
18.動き情報をどのように記憶するか、および/または重み付け領域および/または非重み付け領域のために記憶されるべき動き情報をどのように導出するかは、参照ピクチャリストにおける三角形分割および/または参照ピクチャの動き情報を導出するために利用される三角形分割および/またはマージ候補リストの分割方向および/またはデコードされたマージインデックスに依存してもよい(例えば、全ての参照ピクチャは現在のピクチャと比較してPOC値が小さいまたは大きくない)。
a.一例において、1つの分割のために選択された復号化マージインデックスに関連付けられたマージ候補の動き情報を記憶してもよい。
i.一例において、選択された復号マージインデックスは、復号マージ候補インデックスの1つ、例えば、merge_triangle_idx0またはmerge_triangle_idx1に設定されてもよい。
ii.一例において、選択された復号化マージインデックスは、変数kに設定される。
1)一例において、kは0に設定される。
2)一例において、k番目のマージ候補のすべての情報を継承して記憶してもよい。
3)一例において、k番目のマージ候補の部分情報を継承し、残りの情報を記憶する前に修正してもよい。
(a)一例において、k番目のマージ候補の一般化双予測(GBi)に用いられる重み係数の表示は、継承されなくてもよい。代替的に、TPMが記憶した動き情報に特定のGBi重み付けインデックスを割り当ててもよい(例えば、0)。
(b)一例において、k番目のマージ候補の動きベクトル精度の表示は、継承されなくてもよい。
iii.代替的に、選択された復号化マージインデックスは、分割方向に依存してもよい。
iv.一例において、選択された復号化されたマージインデックスに等しいインデックスを有するマージ候補が双予測である場合、双予測動き情報を記憶してもよい。
v.一例において、選択された復号化されたマージインデックスに等しいインデックスを有するマージ候補が単一予測である場合、単一予測の動き情報を記憶してもよい。
1)代替的に、双予測動き情報を記憶してもよく、記憶された動き情報はマージ候補から導出されてもよい。
vi.代替的に、2つの分割の動き情報に関する関数を記憶してもよい。
1)例えば、2つの分割の動きベクトルの平均を記憶してもよい。
b.一例において、MvInfo1およびMvInfo2が2つの分割の動き情報を示すとすると、MvInfoAにおけるLXからLY(Y=1-X)(Aが1または2)に1つの予測方向を修正することで、仮想双予測動き情報を記憶してもよい。
i.一例において、MvInfoAの動きベクトルおよび参照インデックスは、不変に維持される。
ii.一例において、MvInfoAの参照インデックスは不変に維持され、MvInfoAの動きベクトルは反対の値に設定される。
iii.双予測動き情報は、修正MvInfoAおよび未修正MvInfoB(B=3-Aと共に)を含んでもよい。
iv.一例において、このような修正は、MvInfo1およびMvInfo2の両方が1つの同じ予測方向から来たものである場合にのみ適用されてもよい。
c.一例において、MvInfo1およびMvInfo2が2つの分割の動き情報を示すとすると、動き情報をどのように記憶するかは、現在のピクチャと比較してすべての参照ピクチャのPOC値が小さいか否かを示す低遅延チェックフラグに依存しうる。
i.一例において、以下が順に適用される。
MvInfo1とMvInfo2が異なる参照ピクチャリストである場合、MvInof0とMvInfo1を組み合わせ、双予測動き情報として記憶してもよい。
ii.MvInfo1とMvInfo2が同じLX(X=0または1)方向にある場合、以下が適用されてもよい。
低遅延チェックフラグが真であれば(例えば、全ての参照ピクチャが現在のピクチャに比べてPOC値が小さいか、または大きくない)、予測方向リストをLXからLYに設定してMvInfoA(例えば、A=2)を修正してもよく(Y=1~X)、修正されたMvInfoAと修正されていないMvInfoC(C=3~A)を組み合わせて仮想的な双予測動き情報を形成して記憶する。
そうでない場合、MvInfoB(例えば、B=2)が記憶される。すなわち、単一予測の動き情報が記憶される。
iii.一例において、MvInfo1は、図13AのPU1および図13BのPU1と関連付けられ、MvInfo2は、図13AのPU2および図13BのPU2に関連付けられる。
d.一例において、上記方法は、1つのブロック内の特定のサブブロックの動き情報の記憶に適用されてもよい。
i.一例において、特定のサブブロックは、重み付け領域におけるサブブロックであってもよい。
ii.一例において、特定のサブブロックは、ブロックにおける対角線または反対角線を含むサブブロックであってもよい。
iii.一例において、特定のサブブロックは、ブロックの右下隅にあるサブブロックであってもよい。
iv.一例において、特定のサブブロックは、ブロックの右列または下行にあるサブブロックであってもよい。
v.代替的に、上記方法は、1つのブロック内のすべてのサブブロックの動き情報の記憶に適用されてもよい。
19.TPMモードの場合、ブロック内のあるサブ領域の動き情報は、このサブ領域の再構成のための動き補償処理で使用されるものとは異なっていてもよい。
a.一例において、重み付け領域に位置するMxNサブ領域(例えば、三角形予測モードの現在の符号化ユニットにおける4x4)の場合、動き補償は、双予測として行われてもよいが、双予測のList0またはList1からの1つの動き情報のセットのみが記憶されてもよい。
i.代替的に、重み付け領域に位置するMxNサブ領域(例えば、三角形予測モードの現在の符号化ユニットにおける4×4)の場合、動き補償は、双予測として行われてもよいが、リストXからの単一予測情報のみを記憶してもよく、記憶された情報は、動き補償処理で利用されるリストXからの動き情報とは異なる。
ii.代替的に、重み付け領域に位置するMxNサブ領域(例えば、三角形予測モードの現在の符号化ユニットにおける4×4)の場合、動き補償は、双予測として行われてもよいが、動き補償処理において利用されるものとは異なる(例えば、異なるMVおよび/または異なる参照ピクチャ)双予測情報が記憶されてもよい。
b.一例において、非重み付けエリアに位置するMxNサブ領域(例えば、三角形予測モードの現在の符号化ユニットにおける4x4)の場合、動き補償は、単一予測として行われてもよいが、双予測動き情報が記憶されてもよい。
i.代替的に、非重み付け領域に位置するMxN個のサブ領域(例えば、三角形予測モードの現在の符号化ユニットにおいて4×4)の場合、動き補償は、単一予測として行われてもよいが、単一予測の動き情報が記憶されてもよく、動き補償処理において利用されるものとは異なってもよい。
c.記憶された動き情報は、他のブロックの符号化に利用されてもよい(例えば、近傍のブロックのマージ/AMVPモードにおける空間的動き候補として)。
d.記憶された動き情報は、異なるピクチャにおける将来のブロックを符号化するために利用されてもよい(例えば、時間的動きベクトル候補を導出するために用いられる)。
e.記憶された動き情報は、デブロッキングまたはALF等のインループ処理に利用されてもよい。
f.一例において、ブロック内の第1のサブ領域の動き情報は、第1のサブ領域の再構成の動き補償処理に用いられるものと異なってもよく、一方、ブロック内の第2のサブ領域の動き情報は、第2のサブ領域の再構成の動き補償処理に用いられるものと同じであってもよく、第1のサブ領域と第2のサブ領域とは、三角形予測モードにおいて同じ符号化ユニットであってもよい。
20.重み付け領域に位置するか否かにかかわらず、ブロック全体に対して同じ動き情報のセットを記憶することが提案される。MvInfo1およびMvInfo2が、2つの分割の動き情報をそれぞれ示す(例えば、復号化された/導出された2つのマージ候補インデックスに基づいて)。
a.一例において、単一予測の動き情報(例えば、2つの分割のうちの1つの分割から継承する、または2つの分割の動き情報から導出される)が記憶されてもよい。
i.一例において、MvInfo1は、ブロック全体に対して記憶されてもよい。
1.一例において、MvInfo1は、ブロック内のすべてのサブ領域に対して記憶されてもよい。
ii.一例において、MvInfo2は、ブロック全体に対して記憶されてもよい。
1.一例において、MvInfo1は、ブロック内のすべてのサブ領域に対して記憶されてもよい。
iii.一例において、どの分割の動き情報を記憶するかは、現在のピクチャとの間のPOC距離に依存してもよい。
1.例えば、MvInfo1が参照する現在のピクチャと参照ピクチャとの間のPOC距離の絶対値が、MvInfo2が参照する現在のピクチャと参照ピクチャとの間の値よりも小さい場合、MvInfo1を記憶してもよい。
iv.一例において、どの分割の動き情報を記憶するかは、参照ピクチャのQPに依存しうる。
1.例えば、MvInfo1は、MvInfo1が参照する参照ピクチャのQPが、MvInfo2が参照する参照ピクチャの値よりも小さいことを記憶してもよい。
v.一例において、どの分割の動き情報を記憶するかは、参照ピクチャの参照インデックスに依存してもよい。
1.例えば、MvInfo1は、MvInfo1が参照する参照ピクチャのQPが、MvInfo2が参照する参照ピクチャの値よりも小さいことを記憶してもよい。
2.例えば、MvInfo1が参照する参照ピクチャの参照インデックスが、MvInfo2が参照する参照ピクチャの値よりも小さい場合、MvInfo1を記憶してもよい。
vi.一例において、どの分割の動き情報を記憶するかは、1つの分割に関連付けられたマージインデックスに依存してもよい。
1.例えば、MvInfo1から導出された関連付けられたマージインデックスがMvInfo2から導出されたものよりも小さい場合、MvInfo1を記憶してもよい。
2.例えば、merge_triangle_idx0がmerge_triangle_idx1より小さい場合、merge_triangle_idx0から導出された動き情報を記憶してもよい。
vii.一例において、MvInfo1およびMvInfo2から導出された第3の動き情報のセット(MvInfo3と表される)が記憶されてもよい。
1.一例において、MvInfo3のMVは、MvInof1およびMvInfo2の2つのMVの平均として導出されてもよく、またはMvnof1およびMvInfo2の一方のMVからのスケーリングされたまたはマッピングされた動きベクトルとして導出され、他方のMVを平均してMvInfo3のMVを生成してもよい。
2.一例において、MvInfo3の参照ピクチャは、MvInof1およびMvInfo2の2つの参照ピクチャのうちの1つであってもよい。
viii.一例において、MvInfoX(Xは0または1)における1つの動きベクトルを、MvInfoY(Yは1-X)における参照ピクチャに対してスケーリングし、次に、それを使用して記憶されるべき動き情報を導出してもよい。
1.一例において、スケーリングされたMvInfo1およびMvInfo2は、黒丸viiに規定されるような、記憶されるべき動き情報を導出するために用いられてもよい。
ix.上記方法は、重み付け領域に位置するサブ領域にのみ適用可能である。
1.代替的に、上記方法は、重み付けされていない領域に位置するサブ領域にのみ適用可能であってもよい。
2.代替的に、上記方法は、重み付け領域に位置する特定のサブ領域にのみ適用可能であってもよい。
a.例えば、重み付け領域に位置する右上および/または左下のサブ領域に適用されてもよい。
b.例えば、重み付け領域に位置する左上および/または右下のサブ領域に適用されてもよい。
c.どのサブ領域を適用するかは、分割方向に依存してもよい。
b.一例において、MvInfo1およびMvInfo2から双予測動きベクトルを導出し、記憶する。
i.MvInfo1およびMvInfo2が異なる方向(L0またはL1)の動きベクトルを有する場合、MvInfo1およびMvInfo2を簡単に組み合わせて双予測動きベクトルを形成する。
ii.MvInfo1とMvInfo2の両方が同じLX(X=0または1)方向から来ている場合、
1.LXのために記憶されたMVは、MvInfo1およびMvInfo2の1つの動きベクトルから、またはそれらの2つから(例えば、平均化によって)導出されてもよい。
2.MvInfo1またはMvInfo2という参照ピクチャがLY(Y=1-X)に含まれている場合、MvInfo1とMvInfo2とを簡単に組み合わせ、双予測動きベクトルを形成し、予測方向の1つをLYに設定する。
3.1つの動きベクトルをLY(Y=1-X)における参照ピクチャにスケーリングし、スケーリングされたMVおよび他のMVを組み合わせて双予測動きベクトルを形成することができる。一例において、スケーリングされたMVが参照するLYにおけるオブジェクト参照ピクチャは、予め規定されてもよく(例えば、参照ピクチャインデックスが0に等しい)、または信号通知されてもよい。
4.1つの動きベクトルをLY(Y=1-X)における参照ピクチャにマッピングし、マッピングされたMVおよび他のMVを組み合わせて双予測動きベクトルを形成することができる。一例において、マッピングされたMVが参照するLYにおけるオブジェクト参照ピクチャは、予め規定されてもよく(例えば、参照ピクチャインデックスが0に等しい)、または信号通知されてもよい。一例において、マッピング処理は、スケーリングせずに行われてもよい。例えば、マッピングされたMVは、元のMVと等しいかまたは反対であってもよい。
i.上記方法は、重み付け領域に位置するサブ領域にのみ適用可能である。
1)代替的に、上記方法は、重み付けられていない領域に位置するサブ領域にのみ適用可能であってもよい。
2)代替的に、上記方法は、重み付け領域に位置する特定のサブ領域にのみ適用可能であってもよい。
(a)例えば、重み付け領域に位置する右上および/または左下のサブ領域に適用されてもよい。
(b)例えば、重み付け領域に位置する左上および/または右下のサブ領域に適用されてもよい。
(c)どのサブ領域を適用するかは、分割方向に依存してもよい。
c.単一または双予測動き情報を記憶するかまたは双予測動き情報を記憶するかは、2つの分割の復号化された動き情報に依存し得る。
i.一例において、MvInfo1およびMvInfo2の両方が同じLX参照リストに含まれている場合、単一予測の動き情報を記憶してもよい。
ii.一例において、MvInfo1およびMvInfo2が異なる参照リスト(L0からの1つおよびL1からの他の1つ)からのものである場合、双予測動き情報を記憶してもよい。
iii.一例において、MvInfo1およびMvInfo2の両方が同じLX参照リストに含まれているが、MvInfo1またはMvInfo2が参照する参照ピクチャのうち少なくとも1つが他の参照リストLY(Y=1-X)に含まれている場合、双予測動き情報を記憶してもよい。
d.代替的に、動き情報の記憶は、依然として、1つのサブブロックが重み付け領域に位置するかどうかに基づいて行われる。重み付け領域に位置するものについて、記憶された動き情報は、以下の規則に従って導出される。
i.一例において、MvInfo1およびMvInfo2が同じLX(X=0または1)方向からのものである場合、
1.MvInfo1またはMvInfo2のいずれか一方の参照ピクチャがLY(Y=1-X)に含まれている場合、MvInfo1およびMvInfo2を簡単に結合して双予測動きベクトルを形成し、予測方向の1つをLYに設定する。
2.1つの動きベクトルをLY(Y=1-X)における参照ピクチャにスケーリングし、スケーリングされたMVおよび他のMVを組み合わせて双予測動きベクトルを形成することができる。一例において、スケーリングされたMVが参照するLYにおけるオブジェクト参照ピクチャは、予め規定されてもよく(例えば、参照ピクチャインデックスが0に等しい)、または信号通知されてもよい。
3.1つの動きベクトルをLY(Y=1-X)における参照ピクチャにマッピングし、マッピングされたMVおよび他のMVを組み合わせて双予測動きベクトルを形成することができる。一例において、マッピングされたMVが参照するLYにおけるオブジェクト参照ピクチャは、予め規定されてもよく(例えば、参照ピクチャインデックスが0に等しい)、または信号通知されてもよい。一例において、マッピング処理は、スケーリングせずに行われてもよい。例えば、マッピングされたMVは、元のMVと等しいかまたは反対であってもよい。
ii.一例において、MvInfo1およびMvInfo2が同じLX(X=0または1)方向からのものである場合、MvInfo1またはMvInfo2のいずれかが記憶される。すなわち、単一予測動きベクトルを記憶する。
iii.一例において、MvInfo1およびMvInfo2が同じLX(X=0または1)方向からのものである場合、一方の動きベクトルを他方の参照ピクチャに対してスケーリングし、スケーリングされた動きベクトルと他方の動きベクトルとの平均または重み付け平均を記憶してもよい。
iv.一例において、MvInfo1およびMvInfo2が同じLX(X=0または1)方向からのものであり、2つの動きベクトルの平均または重み付け平均を記憶してもよい場合、参照ピクチャは、MvInof1およびMvInfo2の2つの参照ピクチャのうちの1つであってもよい。
v.一例において、ブロック全体のために記憶された動き情報は、各サブブロックにおける動き情報から導出されてもよい。例えば、すべてのまたは一部のサブブロックにおけるMVを重み付け加算し、ブロック全体の記憶されたMVを導出する。
vi.上記の例では、異なるサブ領域は、異なる動き情報を記憶してもよい。
vii.上記の例では、重み付けエリアにおけるサブ領域は、ユニ予測動き情報または双予測動き情報を記憶してもよい。
e.代替的に、動き情報の記憶は、依然としてサブブロックの位置に基づく。しかしながら、各サブブロックに対して、単一予測の動き情報のみが記憶されてもよい。
i.一例において、重み付け領域におけるサブ領域の動き情報は、MvInfo1および/またはMvInfo2に継承されてもよいし、またはMvInfo1および/またはMvInfo2から導出されてもよく、MvInfo2が記憶されてもよい。
f.一例において、記憶された動き情報は、一部のモジュールにおいてのみ使用される。
i.一例において、記憶された動き情報は、時間的動き予測に用いられる。
ii.代替的に、記憶された動き情報は、空間的動き予測に用いられる。
iii.代替的に、記憶された動き情報は、フィルタリング(例えば、デブロッキング)処理に用いられる。
g.一例において、記憶された動き情報は、ブロックの動き補償処理において用いられてもよい。
h.一例において、記憶された動き情報に基づいて、1つまたは複数のHMVPテーブルを更新してもよい。
21.動き情報の記憶は、MxNブロック単位(MおよびNは、同時に4に等しいことができた)に基づくことが提案される。各MxNブロックは、同じ動き情報を共有する。
a.一例において、MおよびNは8に設定される。
b.一例において、MxNブロックの場合、その一部が重み付け領域に属する場合、その一部は非重み付け領域に属し、このようなブロックは、動きベクトル記憶装置のための重み付け領域の規則に従う。
c.代替的に、MxNブロックの場合、その第1の部分が重み付け領域に属するが、その第2の部分が非重み付け領域に属する場合、このようなブロックは、非重み付け領域の規則に従い、動き情報を記憶してもよい。
22.同じ参照ピクチャから2つの分割に対してTPMを予測することを有効にするかまたは無効にするかは、2つの分割の動きベクトルが十分に異なるような条件下にあることができる。
a.一例において、2つの分割の参照サンプルは重複してはならない。
b.一例において、abs(MV0[0]-MV1[0])はTHよりも小さく、MV0およびMV1は、2つの分割の動きベクトルであり、MVX[0]およびMVX[1]は、それぞれMVXの水平および垂直成分である。関数abs(x)はxの絶対値を返す。
c.一例において、abs(MV0[1]-MV1[1])は、THよりも小さい。
d.一例において、abs(MV0[0]-MV1[0])+abs(MV0[1]-MV1[1])は、THよりも小さい。
e.一例において、Max(abs(MV0[0]-MV1[0]),abs(MV0[1]-MV1[1])は、THよりも小さくなければならず、関数Max(x,y)は、xおよびyのうちの大きい方を返す。
f.1つの適合ビットストリームは、1つのブロックに対してTPMが有効にされた場合、1つ以上の前述の黒丸が真であることを満たす。
23.開示される方法において、記憶された動き情報は、現在のピクチャまたは他の復号対象のピクチャにおける、後続の復号対象のブロックの動き情報を予測するために用いられてもよい。
a.記憶された動き情報は、以下を含んでもよい。
vii.動きベクトル
viii.参照インデックス
ix.単一予測または双予測の表示
x.インター予測方向の表示
xi.一般化双予測(GBi)の表示
xii.動きベクトルの解像度
xiii.アフィン予測の表示
5.1 実施形態#1
三角形マージモードにおける動きベクトル記憶処理
現在の符号化ブロックにおける水平および垂直方向の4×4ブロックの数を指定する変数numSbXおよびnumSbYは、numSbX=cbWidth>>2およびnumSbY=cbHeight>>2に等しい。
cbWidthおよびcbHeighは、輝度サンプルにおける現在の符号化ブロックの幅および高さを特定する。
変数minSbは、min(numSbX,numSbY)-1に等しく設定される。
変数cbRatioは、以下のように導出される。
cbRatio=(cbWidth>cbHeight)?(cbWidth/cbHeight):(cbHeight/cbWidth)
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-変数xIdxおよびyIdxは、以下のように導出される。
xIdx=(cbWidth>cbHeight)?(xSbIdx/cbRatio):xSbIdx
yIdx=(cbWidth>cbHeight)?ySbIdx:(ySbIdx/cbRatio)
-変数sTypeは、以下のように導出される。
-triangleDirが0に等しい場合、以下が適用される。
sType=(xIdx==yIdx)?2:((xIdx>yIdx)?0:1)
-そうでない場合(triangleDir=1)、以下が適用される。
sType=(xIdx+yIdx==minSb)?2:((xIdx+yIdx<minSb)?0:1)
triangleDirは、分割の方向を指定する。
図30A~30Cに示すように、sType=0はP1領域に対応し、sType=1はP2領域に対応し、sType=2は重み付け領域に対応する。
P1領域の動き情報を(Mv1,refIdx1)とし、P2領域の動き情報を(Mv2,refIdx2)とする。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しい場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しいかまたはsTypeが2に等しい場合、且つMv1およびMv2の両方が同じ参照リストからのものであり、且つ現在のブロックが後方参照ピクチャを有するスライス内に位置する(slice.getCheckLDC()が偽である)場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.2 実施形態#2
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しい場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しい場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.3 実施形態#3
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しい場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しいかまたはsTypeが2に等しく、且つMv1およびMv2の両方が同じ参照リストからのものである場合、4x4サブブロックの動き情報は(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
-Mv1とMv2が異なる参照リストからのものである場合
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.4 実施形態#4
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しいかまたはsTypeが2に等しい場合、且つMv1およびMv2の両方が同じ参照リストからのものであり、且つ現在のブロックが後方参照ピクチャを有するスライス内に位置する(slice.getCheckLDC()が偽である)場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しい場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.5 実施形態#5
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しいか、またはsTypeが2に等しい場合、且つMv1およびMv2の両方が同じ参照リストからのものである場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しい場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
-Mv1とMv2が異なる参照リストからのものである場合
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.6 実施形態#6
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しい場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しい場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
-Mv1とMv2が異なる参照リストからのものである場合
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
-そうでない場合、4×4サブブロックの動き情報は、((Mv1+Mv2)/2,refIdx1)である。
5.7 実施形態#7
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しい場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しい場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、4×4サブブロックの動き情報は、merge_triangle_idx0に対応する元のマージ候補の動きである。
5.8 実施形態#8
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-sTypeの値によって、以下の割り当てが行われる。
-sTypeが0に等しいか、またはsTypeが2に等しい場合、およびMv1とMv2の両方が同じ参照リストからのものであり、且つtriangleDirが0に等しく、ySbIdx<numSbY-1,4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、sTypeが1に等しいかまたはsTypeが2に等しく、且つMv1およびMv2の両方が同じ参照リストからのものであり、且つ(triangleDirが0に等しく、ySbIdx=numSbY-1またはtriangleDirが1に等しい)である場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合(sTypeが2に等しい)、以下が適用される。
-Mv1とMv2が異なる参照リストからのものである場合
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.9 実施形態#9
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-Mv1とMv2の両方が同じ参照リストからのものであり、且つ現在のブロックが後方参照ピクチャを有するスライス内に位置する(slice.getCheckLDC()が偽である)場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.10 実施形態#10
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.11 実施形態#11
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-Mv1とMv2の両方が同じ参照リストからのものである場合、4x4サブブロックの動き情報は、(Mv2,refIdx2)である。
-そうでない場合、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.12 実施形態#12
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-Mv1とMv2の両方が同じ参照リストからのものであり、且つ現在のブロックが後方参照ピクチャを有するスライス内に位置する(slice.getCheckLDC()が偽である)場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうでない場合、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.13 実施形態#13
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-Mv1とMv2の両方が同じ参照リストからのものである場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうでない場合、以下が適用される。
-Mv1とMv2が異なる参照リストからのものである場合
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
5.14 実施形態#14
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-Mv1とMv2が異なる参照リストからのものである場合
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
-そうでない場合、4×4サブブロックの動き情報は、((Mv1+Mv2)/2,refIdx1)である。
5.15 実施形態#15
xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1であるサブブロックインデックス(xSbIdx,ySbIdx)の各4x4サブブロックごとに、4×4サブブロックの動き情報は、merge_triangle_idx0に対応する元のマージ候補の動きである。
5.16 実施形態#16
サブブロックインデックス(xSbIdx,ySbIdx)で、xSbIdx=0..numSbX-1、およびySbIdx=0..numSbY-1の各4x4サブブロックについて、以下が適用される。
-Mv1とMv2の両方が同じ参照リストからのものであり、且つtriangleDirが0に等しく、ySbIdx<numSbY-1の場合、4x4サブブロックの動き情報は、(Mv1,refIdx1)である。
-そうではなく、Mv1およびMv2の両方が同じ参照リストからのものである(triangleDirが0に等しく、ySbIdx=numSbY-1またはtriangleDirが1に等しい)場合、4x4サブブロックの動き情報は(Mv2,refIdx2)である。
-そうでない場合、以下が適用される。
refIdxL0=(predListFlagA==0)?refIdx1:refIdx2
refIdxL1=(predListFlagA==0)?refIdx2:refIdx1
mvL0=(predListFlagA==0)?Mv1:Mv2
mvL1=(predListFlagA==0)?Mv2:Mv1
predListFlagAは、P1領域の予測リストフラグである。
A1.優先規則に基づいて、現在の映像ブロックとこの映像のビットストリーム表現との間で変換を行うために、動き候補を動き候補リストに挿入する順序を決定し、現在のブロックをジオメトリ分割モード使用して符号化することと、この決定およびこの動き候補リストに基づいて、この変換を行うことと、を含む、映像処理方法。
A2.優先規則は、動き候補のうちの少なくとも1つの動き候補の予測方向に基づく、案A1に記載の方法。
A3.挿入する順序は、リストYからの単一予測を伴う任意の正規の動き候補を挿入する前に、リストXからの単一予測を伴う正規の動き候補を挿入することを含む、案A2に記載の方法。
A4.挿入する順序は、単一予測を有する任意の動き候補を挿入する前に、双予測を有する動き候補を挿入することを含む、案A2に記載の方法。
A5.挿入する順序は、双予測を伴う正規の動き候補から導出されたリストXの動き候補、双予測を伴う正規の動き候補から導出されたリストXの動き候補、単一予測を伴う正規の動き候補の順で定義され、X=0またはX=1である、案A2に記載の方法。
A6.挿入する順序は、第1の正規の動き候補から導出された動き候補を双予測挿入することと、その後に第2の正規の動き候補から導出された動き候補を双予測挿入することと、を含み、現在のブロックの挿入する順序は、非ジオメトリ分割モードを使用して符号化された映像ブロックの挿入する順序と同一である、A2に記載の方法。
A7.挿入する順序は、第1の双予測正規の動き候補から導出された動き候補と、第2の双予測正規の動き候補から導出された動き候補とをインターリーブ方式で挿入することを含む、案A2に記載の方法。
A8.インターリーブ方式は、CAから導出された短縮List0予測候補、CBから導出された短縮List1予測候補、CAから導出された短縮List1予測候補、およびCBから導出された短縮List0予測候補を挿入することを含み、CAおよびCBは2つの正規の動き候補である、案A7に記載の方法。
A9.インターリーブ方式は、CAから導出されたList1で短縮List1予測候補、CBから導出された短縮List0予測候補、CAから導出された短縮list1予測候補、およびCBから導出された短縮List1を挿入することを含み、CAおよびCBは2つの正規の動き候補である、案A7に記載の方法。
A10.正規の動き候補は、非ジオメトリ分割モードを使用して符号化された映像のブロックに対して導出された動き候補である、案A1~A9のいずれか1案に記載の方法。
A11.優先規則は、正規の動き候補に関連付けられた符号化モード情報に基づく、案A1に記載の方法。
A12.符号化モード情報は、マージモードまたは高度動きベクトル予測(AMVP)モードを使用する符号化を含む、案A11に記載の方法。
A13.挿入する順序は、マージモードで符号化ブロックから導出された動き候補を挿入する前に、AMVPモードで符号化ブロックから導出された動き候補を挿入することを含む、案A12に記載の方法。
A14.挿入する順序は、AMVPモードで符号化ブロックから導出された動き候補を挿入する前に、マージモードで符号化ブロックから導出された動き候補を挿入することを含む、案A12に記載の方法。
A15.符号化モード情報は、参照インデックスまたはピクチャオーダカウント(POC)差を含む、案A11に記載の方法。
A16.挿入する順序は、第1の参照インデックスに関連付けられた動き候補を挿入することと、その後に、第1の参照インデックスよりも大きい第2の参照インデックスに関連付けられた動き候補を挿入することとを含む、案A15に記載の方法。
A17.挿入する順序は、第1のPOC差に関連付けられた動き候補を挿入することと、その後に、第1のPOC差よりも大きい第2のPOC差参照インデックスに関連付けられた動き候補を挿入することとを含む、案A15に記載の方法。
A18.符号化モード情報は、現在のブロックを含むピクチャ、スライスまたはタイルグループに関連付けられた参照ピクチャの量子化パラメータ(QP)または時間層インデックスを含む、案A11に記載の方法。
A19.挿入する順序は、第1のQPに関連付けられた動き候補を挿入することと、その後に、第1のQPよりも大きい第2のQPに関連付けられた動き候補を挿入することとを含む、案A18に記載の方法。
A20.挿入する順序は、すべての短縮List1-predicted候補を、いずれかの短縮List0-predicted候補の前に挿入することを含む、案A1に記載の方法。
A21.挿入する順序は、利用可能な幾何学的動き候補に基づいて、1つ以上の短縮List0予測候補および1つ以上の短縮List1予測候補を挿入することを含む、案A1に記載の方法。
A22.挿入する順序は、利用可能な幾何学的動き候補に基づいて、双予測を伴う第1の動き候補を挿入した後、双予測を伴う第2の動き候補を挿入することを含む、案A1に記載の方法。
A23.現在の映像ブロックと該映像のビットストリーム表現との間で変換を行うための動き候補リストに、1つの正規の動き候補から導出された、List0とList1からの1つ以上の平均化された単一予測動き候補を挿入することを含み、現在のブロックは、ジオメトリ分割モードを使用して符号化する、挿入することと、この動き候補リストに基づいて、この変換を行うことと、を含む、映像処理方法。
A24.動き候補リストへの挿入のために、1つ以上の平均化された単一予測動き候補から1つの平均化された単一予測動き候補を選択することをさらに含む、案A23に記載の方法。
A25.選択することは、動き候補リストにおける利用可能な幾何学的動き候補に基づく、案A24に記載の方法。
A26.選択することは、List0およびList1の参照ピクチャインデックスに基づく、案A24に記載の方法。
A27.選択することは、List0およびList1のための参照ピクチャと現在のピクチャとの間のピクチャオーダカウント(POC)距離に基づく、案A24に記載の方法。
A28.List1からの任意の平均化された単一予測動き候補を挿入する前に、List0からのすべての平均化された単一予測動き候補を挿入する、案A23に記載の方法。
A29.List0からの任意の平均化された単一予測動き候補を挿入する前に、List1からのすべての平均化された単一予測動き候補を挿入する、案A23に記載の方法。
A30.現在の映像ブロックと該映像のビットストリーム表現との間で変換を行うための動き候補リストに、単一予測を伴う正規の動き候補から導出された、単一予測を伴う1つ以上の平均化動き候補を挿入することを含み、現在のブロックは、ジオメトリ分割モード使用して符号化することと、この動き候補リストに基づいて、この変換を行うことと、を含む、映像処理方法。
A31.リストLXからの単一予測を伴う平均化動き候補が、リストLXからの単一予測を伴う正規の動き候補から導出され、X=0またはX=1である、案A30に記載の方法。
A32.リストLYからの単一予測を伴う平均動き候補が、スケーリングされた正規の動き候補から導出され、リストLXからの正規の動き候補がリストLYにスケーリングされて、スケーリングされた正規の動き候補を生成し、X=0またはX=1であり、Y=1-Xである、案A30に記載の方法。
A33.現在の映像ブロックと映像のビットストリーム表現との間で変換を行うための動き候補リストに、利用可能な動き候補から導出された1つ以上の仮想動き候補を挿入することであって、現在のブロックは、ジオメトリ分割モードを使用して符号化されている、挿入することと、動き候補リストに基づいて、この変換を行うことと、を含む、映像処理方法。
A34.1つ以上の仮想動き候補は、まず、動き候補リストにおける動き候補の短縮リストを生成することによって導出される、案A33に記載の方法。
A35.1つ以上の仮想動き候補は、単一予測を有する動き候補のみに基づいて導出される、案A33に記載の方法。
A36.1つ以上の仮想動き候補が、単一予測された動き候補と、リスト1から予測された動き候補の短縮リストとにのみ基づいて導出される、案A33の方法。
A37.所定の参照ピクチャインデックスを有するか、またはピクチャオーダカウント(POC)距離が一定の範囲内にある動き候補に基づいて、1つ以上の仮想動き候補を導出する、案A33に記載の方法。
A38.プルーニング操作を適用せずに、1つ以上の仮想動き候補を導出する、案A33に記載の方法。
A39.案A1~A38のいずれか1案に記載の方法において、現在のブロックは、分割パターンに基づいて複数の分割に分割される。
A40.複数の分割のうちの少なくとも1つの分割が、非正方形であり、かつ非長方形である、案A1~A39のいずれかに記載の方法。
A41.ジオメトリ分割モードは、三角形分割モードを含む、案A1~A39のいずれか1案に記載の方法
A42.変換は、ビットストリーム表現から現在のブロックを生成する、案A1~A41のいずれか1案に記載の方法。
A43.変換は、現在のブロックからビットストリーム表現を生成する、案A1~A41のいずれか1案に記載の方法。
A44.処理装置と、命令を搭載した非一時的メモリとを含む、映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、解決策A1~A43のいずれか1案に記載の方法を実装させる映像システムにおける装置。
A45.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、案A1~A43のいずれか1案に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
B1.ジオメトリ分割モードを使用して符号化された映像の現在のブロックと映像のビットストリーム表現との間で変換を行うための動き候補リストへの動き候補の挿入する順序について、優先規則に基づいて決定することであって、優先規則が、動き候補の動き候補が導出された位置、または動き候補に関連付けられた1つ以上の参照ピクチャリストに基づくものである、決定することと、決定および動き候補リストに基づいて、変換を行うことを含む、映像処理方法。
B2.第1の動き候補CAがブロックAから導出されたものである場合、第2の動き候補CBがブロックBから導出され、ブロックAの後にブロックBがチェックされる、挿入する順序は、CAから導出された動き候補を動き候補リストに挿入した後に、CBから導出された動き候補を挿入することを含む、案B1に記載の映像処理方法。
B3.正規の動き候補リストの構築処理において、ブロックAの後のブロックBをチェックすることをさらに含む、案B2に記載の方法。
B4.挿入する順序は、CAから導出されたリストXからの予測を有する動き候補を挿入した後、CBから導出されたリストXからの予測を有する動き候補を挿入することをさらに含み、X=0またはX=1である案B2の方法。
B5.挿入する順序は、CAから導出されたリストYからの予測を有する動き候補を挿入した後、CBから導出されたリストYからの予測を有する動き候補を挿入することをさらに含み、X=0またはX=1であり、Y=(1-X)である、案B2に記載の方法。
B6.挿入する順序は、CAから導出されたリストYからの予測を有する動き候補を挿入した後、CBから導出されたリストXからの予測を有する動き候補を挿入することをさらに含み、X=0またはX=1であり、Y=(1-X)である、案B2に記載の方法。
B7.現在のブロックを分割パターンに基づいて複数の分割に分割する、案B1~B6のいずれか1つに記載の方法。
B8.ジオメトリ分割モードは、三角形分割モードを含む、案B1~B6のいずれか1案に記載の方法。
B9.現在のブロックが、非正方形および非長方形である少なくとも1つの分割を有する複数の分割に分割される、案B1~B6のいずれかに記載の方法。
B10.変換は、ビットストリーム表現から現在のブロックを生成する、案B1~B9のいずれか1案に記載の方法。
B11.変換は、現在のブロックからビットストリーム表現を生成する、案B1~B9のいずれか1案に記載の方法。
B12.処理装置と、命令を搭載した非一時的メモリとを備え、映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、案B1~B11のいずれか1案に記載の方法を実装させることを特徴とする装置。
B13.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、コンピュータプログラム製品は、案B1~B11のいずれか1案に記載の方法を実行するためのプログラムコードを含む。
C1.現在の映像ブロックと映像のビットストリーム表現との間で変換するために、動き候補を動き候補リストに挿入する順序を優先規則に基づいて決定することであって、現在のブロックは、ジオメトリ分割モードを使用して符号化され、順番または挿入は、シーケンス間、ピクチャ間、スライス間、タイルグループ間、または現在のブロックから映像の次のブロックに亘って変更可能である。そして、決定および動き候補リストに基づいて、この変換を行うことを含む、映像処理方法。
C2.挿入する順序は、現在のブロック、または現在のブロックを含むシーケンス、ピクチャ、スライス若しくはタイルグループに基づく、案C1に記載の方法。
C3.優先規則は、現在のブロックのサイズ、形状または分割パターンのうちの少なくとも1つに基づく、案C2に記載の方法。
C4.挿入する順序は、シーケンスパラメータセット(SPS)、映像パラメータセット(VPS)、ピクチャパラメータセット(PPS)、スライスヘッダ、タイルグループヘッダ、タイル、符号化ツリーユニット(CTU)、またはビットストリーム表現における符号化ユニット(CU)において、エンコーダからデコーダに信号通知される、案C1~C3のいずれか1案に記載の方法。
C5.ジオメトリ分割モードを使用して符号化された現在の映像ブロックを複数の分割に分割することと、複数の分割の各々に対応する複数の動き候補リストを構築することと、複数の動き候補リストに基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む映像処理方法。
C6.複数の分割のうちの第1の分割のための複数の動き候補リストのうちの第1のリストは、リストXから予測された動き候補のみを含み、複数の分割のうちの第2の分割のための複数の動き候補リストのうちの第2のリストは、リストYから予測された動き候補のみを含み、X=0またはX=1であり、Y=(1-X)である、案C5に記載の方法。
C7.複数の動き候補リストに挿入される1つ以上の動き候補は、異なる空間的ブロックまたは時間的ブロックに関連付けられた動き情報に基づく、案C5に記載の方法。
C8.複数の分割の第1の分割のための1つ以上の動き候補を導出するために使用される異なる空間的または時間的ブロックの位置は、現在のブロックにおける複数の分割の第1の分割または第2の分割の位置に基づく、案C7に記載の方法。
C9.複数の分割の第1の分割または第2の分割のための1つ以上の動き候補を導出するために使用される異なる空間的または時間的ブロックの位置は、現在のブロックの分割パターンに基づく、案C7に記載の方法。
C10.分割パターンは、それぞれ45°の分割パターンまたは135°の分割パターンで表される、右上隅から左下隅へ、または左上隅から右下隅への分割を含む、案C9に記載の方法。
C11.分割パターンは、135度の分割パターンを含み、方法は、現在のブロックの右上隅を含む分割について、より多くのブロックをチェックすることをさらに含む、案C10に記載の方法。
C12.分割パターンは、135度の分割パターンを含み、方法は、現在のブロックの左下隅を含む区画について、より多くの左ブロックをチェックすることをさらに含む、案C10に記載の方法。
C13.複数の分割に対応する複数の動き候補リストの各々のためのインデックスを信号通知する、案C5に記載の方法。
C14.複数の動き候補リストの各々のためのインデックスを含むビットストリーム表現は、変換のために構文解析される、案C5に記載の方法。
C15.ジオメトリ分割モードを使用して符号化された現在の映像ブロックを複数の分割に分割することと、複数の動き候補リストを構築することであって、複数の分割の各々は、複数の動き候補リストのうち同じ動き候補リストを選択するように構成される、構築することと、選択された同じ動き候補リストに基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む映像処理方法。
C16.ビットストリーム表現は、複数の動き候補リストの第1の動き候補リストのインデックスを含む、案C15に記載の方法。
C17.ビットストリーム表現は、第1の動き候補リストからの動き候補のインデックスをさらに含み、動き候補のインデックスは、第1の動き候補リストのインデックスの後に信号通知される、案C16に記載の方法。
C18.ビットストリーム表現は、第1の動き候補リストのインデックスに続く、第1の動き候補リストからの動き候補のインデックスをさらに含み、ビットストリーム表現は、変換のために構文解析される、案C16に記載の方法。
C19.第1の動き候補リストのインデックスを、ビットストリーム表現における第1の動き候補リストからの動き候補のインデックスと結合して符号化する、案C15に記載の方法。
C20.第1の動き候補リストからの動き候補のインデックスと結合して符号化された第1の動き候補リストのインデックスを含むビットストリームを、変換のために構文解析する、案C15に記載の方法。
C21.少なくとも1つの分割パターンに基づいて、現在のブロックを複数の区画に分割する、案C1~C20のいずれか1つに記載の方法。
C22.ジオメトリ分割モードは三角形分割モードを含む、案C1~C21のいずれか1案に記載の方法。
C23.現在のブロックを、少なくとも1つの区画が非正方形かつ非長方形である複数の区画に分割する、案C1~C21のいずれかに記載の方法。
C24.変換は、ビットストリーム表現から現在のブロックを生成する、案C1~C23のいずれか1案に記載の方法。
C25.変換は、現在のブロックからビットストリーム表現を生成する、案C1~C23のいずれか1案に記載の方法。
C26.処理装置と、命令を搭載した非一時的メモリとを含む映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、案C1~C25のいずれか1案に記載の方法を実装させることを特徴とする装置。
C27.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、コンピュータプログラム製品は、案C1~C25のいずれか1案に記載の方法を実行するためのプログラムコードを含む。
D1.ビデオユニットにおける現在の映像ブロックと映像のビットストリーム表現との間で変換を行うことを含み、ビットストリーム表現は、映像領域において有効にされるジオメトリ分割モードのための動き候補リストにおける許容される動き候補の最大数を示すフィールドを含む、映像処理方法。
D2.フィールドは、ビットストリーム表現における許容される動き候補の最大数の表示の明確な信号通知を含む、案D1に記載の方法。
D3.フィールドは、許容される動き候補の最大数が、非ジオメトリ分割モードを使用して符号化される別のブロックの動き候補リストにおける許容される動き候補の最大数に等しいことを暗黙的に示す、案D1に記載の方法。
D4.案D1~D3のいずれか1つに記載の方法において、現在のブロックは、マージモードまたは高度動きベクトル予測(AMVP)モードを使用してさらに符号化される。
D5.映像ユニットは、シーケンス、映像、ピクチャ、スライス、タイルグループ、最大符号化ユニット(LCU)行、または最大符号化ユニット(LCU)のグループを含む、案D1~D3のいずれかに記載の方法。
D6.フィールドにおける許容される動き候補の最大数の表示は、シーケンスパラメータセット(SPS)、映像パラメータセット(VPS)、ピクチャパラメータセット(PPS)、ピクチャヘッダ、スライスヘッダ、タイルグループヘッダ、最大符号化ユニット(LCU)行または最大符号化ユニット(LCU)群において信号通知される、案D1~D3のいずれかに記載の方法。
D7.フィールドにおける許容される動き候補の最大数の表示が、単項符号化または短縮単項符号化で2値化される、案D1~D6のいずれかに記載の方法。
D8.フィールドにおける許容される動き候補の最大数の表示を明確に信号通知することは、Mと許容される動き候補の最大数との間の差を信号通知することを含み、Mは整数である、案D2に記載の方法。
D9.ジオメトリ分割モードを使用して符号化された1つのブロックのための許容される動き候補の最大数は、Mから構文解析されたインジケータを引いたものに設定される、案D8に記載の方法。
D10.M=5またはM=6である、案D8または9に記載の方法。
D11.フィールドにおける許容される動き候補の最大数の表示を含むビットストリーム表現は、変換のために構文解析される、案D1~D8のいずれか1案に記載の方法。
D12.ビットストリーム表現は、1つのビットフラグを含み、この1つのビットフラグは、ジオメトリ分割モードを使用して符号化された映像のブロックに対して許可される動き候補の最大数が、許可される正規の動き候補またはサブブロック動き候補の最大数と同じであることを示す、案D1に記載の方法。
D13.1つのビットフラグを含むビットストリーム表現は、変換のために構文解析される、案D12に記載の方法。
D14.現在のブロックは、分割パターンに基づいて複数の分割に分割される、案D1~D13のいずれか1案に記載の方法。
D15.ジオメトリ分割モードは、三角形分割モードを含む案D1~D14のいずれか1案に記載の方法。
D16.現在のブロックを、複数の分割に分割し、複数の分割のうちの少なくとも1つの分割は、非正方形であり、かつ非長方形である、案D1~D14のいずれかに記載の方法。
D17.変換は、ビットストリーム表現から現在のブロックを生成する、案D1~D16のいずれか1案に記載の方法。
D18.変換は、現在のブロックからビットストリーム表現を生成する、案D1~D16のいずれか1案に記載の方法。
D19.処理装置と、命令を搭載した非一時的メモリとを含む、映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、案D1~D18のいずれかいずれか1案に記載の方法を実装させることを特徴とする装置。
D20.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、コンピュータプログラム製品は、案D1~D18のいずれかいずれか1案に記載の方法を実行するためのプログラムコードを含む。
E1.映像処理方法。ジオメトリ分割モードを使用して複数の分割に分割される現在の映像ブロックに対して、複数の重み係数群から重み係数群を選択することであって、重み係数群は、現在のブロックの少なくとも1つの幅または高さに基づいて選択される、選択することと、現在のブロックと映像のビットストリーム表現との間の変換の一部として、重み係数群を、複数の分割のうちの少なくとも2つの共通の境界に沿ったサンプルに適用することと、を含む。
E2.選択することは、幅と高さとの間の比が閾値よりも大きいことに基づく、案E1に記載の方法。
E3.選択することは、高さと幅との間の比が閾値よりも大きいことに基づく、案E1に記載の方法。
E4.複数の重み係数群は、現在のブロックの幅または高さに基づいて予め規定される、案E1に記載の方法。
E5.複数の重み係数群から1つまたは2つの重み係数群を選択する、案E4に記載の方法。
E6.ジオメトリ分割モードを使用して、複数の分割に分割された現在の映像ブロック内のサンプルについて、複数の分割のうちの少なくとも2つの共通の境界の角度に基づいて、少なくとも1つの重み係数を判定することと、少なくとも1つの重み係数に基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む映像処理方法。
E7.判定することは、サンプルの位置にさらに基づいている、案E6に記載の方法。
E8.少なくとも1つの重み係数に基づいて、現在のブロックにおけるサンプルの最終予測値を2つの予測値の重み付け和として導出する、案E1~7のいずれか1案に記載の方法。
E9.現在のブロックの最終予測ブロックが、(f(x,y)×P1(x,y)+(2M-f(x,y))×P2(x,y)+offset)>>Mであり、P1(x,y)およびP2(x,y)は、それぞれ、座標(x,y)を有するサンプルの第1の予測値および第2の予測値であり、Mおよびオフセットは整数であり、f(x,y)は、第1の予測値に適用された重みを戻す、案E8に記載の方法。
E10.offset=(1<<(M-1)である、案E9に記載の方法。
E11.現在のブロックは、分割パターンに基づいて複数の分割に分割される、案E1~E10のいずれか1案に記載の方法。
E12.ジオメトリ分割モードは、三角形分割モードを含む、案E1~E11のいずれか1案に記載の方法。
E13.ジオメトリ分割モードは、1つのブロックを2つの区画に分割することを含む、案E12に記載の方法。
E12.現在のブロックが、複数の区画に分割され、複数の区画のうちの少なくとも1つの区画は、非正方形であり、かつ非長方形である、案E1~E10のいずれかに記載の方法。
E13.変換は、ビットストリーム表現から現在のブロックを生成する、案E1~E12のいずれか1案に記載の方法。
E14.変換は、現在のブロックからビットストリーム表現を生成する、案E1~E12のいずれか1案に記載の方法。
E15.処理装置と、命令を搭載した非一時的メモリとを含む、映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、案E1~E14のいずれかいずれか1案に記載の方法を実装させることを特徴とする装置。
E16.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、コンピュータプログラム製品は、案E1~E14のいずれかいずれか1案に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
F1.ジオメトリ分割モードを使用して、複数の分割に分割された現在の映像ブロックに対して、複数の分割のうち少なくとも2つの共通の境界に沿った、サンプルサイズが4×4のサンプルサイズとは異なるサンプルに対する動き補償処理を行うことと、動き補償処理に基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む映像処理方法。
F2.変換に必要なメモリ帯域幅を低減するために、8×8個のサンプルサイズで動き補償処理を行う、案F1に記載の方法。
F3.動き補償処理は、8×4個のサンプルサイズまたは4×8個のサンプルサイズで行われ、変換に必要なメモリ帯域幅を低減することを特徴とする案F1に記載の方法。
F4.サンプルサイズは、現在のブロックの高さまたは幅に基づく、案F3に記載の方法。
F5.サンプルサイズが、現在のブロックの複数の区画のための分割パターンに基づく、案F3に記載の方法。
F6.分割パターンは、それぞれ45°の分割パターンまたは135°の分割パターンで表される、右上隅から左下隅へ、または左上隅から右下隅への分割を含む、案F5に記載の方法。
F7.ジオメトリ分割モードを使用して、現在の映像ブロックを複数の分割に分割することと、複数の分割に関連付けられた動き情報から導出された、現在のブロックにおけるK×L領域のための1つの動き情報のセットを記憶することと、複数の分割のうちの少なくとも1つに関連付けられた少なくとも1つの動き情報のセットを使用して、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む、映像処理方法。
F8.MVInfoiがi番目の分割の動き情報を表し、i=1およびi=2であり、MVInfo1が第1の参照ピクチャリストLXおよびMVInfo2からのものであると判定されると、1つの動き情報のセットは、MVInfo1とMVInfo2との組み合わせに基づいて、現在のブロックの双予測および関連する動き情報を含み、X=0またはX=1であり、Y=(1-X)である、案F7に記載の方法。
F9.MVInfoiが、i番目の分割の動き情報を表し、i=1およびi=2であり、MVInfo1およびMVInfo2の両方が参照リストLXからのものであると判定された場合、MVInfojに基づいて、現在のブロックのための1つの動き情報単一予測および関連する動き情報のセットであり、j=1またはj=2であり、X=0またはX=1である、案F7に記載の方法。
F10.動きベクトルとMVInfo1およびMVInfo2の参照ピクチャインデックスとを組み合わせることによって、双予測を含む1つの動き情報のセットを導出する、案F8に記載の方法。
F11.単一予測を含む1つの動き情報のセットは、MVInfo1に基づく、案F9に記載の方法。
F12.単一予測を含む1つの動き情報のセットは、MVInfo2に基づく、案F9に記載の方法。
F13.MVInfo1は、右上隅のサンプルを覆う分割に関連する動き情報のセットを含み、MVInfo2は、右上隅のサンプルと左下隅のサンプルとが2つの異なる分割にあると判定された場合、左下隅のサンプルを覆う分割に関連付けられた動き情報のセットを含む、案F1~F12のいずれか1案に記載の方法。
F14.現在のブロックの分割方向が左上隅から右下隅である、案F13に記載の方法。
F15.MVInfo1は、左上隅のサンプルを覆う分割に関連する動き情報のセットを含み、MVInfo2は、左上隅のサンプルと右下隅のサンプルとが2つの異なる分割にあると判定された場合、右下隅のサンプルを覆う分割に関連付けられた動き情報のセットを含む、案F1~F12のいずれか1案に記載の方法。
F16.現在のブロックの分割方向が右上隅から左下隅である、案F15に記載の方法。
F17.記憶された1つの動き情報のセットが、映像の後続のブロックの時間的動き予測、空間的動き予測、または現在のブロックのフィルタリング処理のうちの1つに使用される、案F7に記載の方法。
F18.記憶された1つの動き情報のセットが、異なるピクチャにおける他のブロックの処理に用いられる、案F7に記載の方法。
F19.フィルタリング処理は、デブロッキングまたは適応ループフィルタリング(ALF)を含む、案F17に記載の方法。
F20.MVInfoiおよびMVInfojが、それぞれi番目の分割およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が、参照ピクチャリストLXからのものであり、X=0またはX=1であり、1つの動き情報のセットは、MVInfoiと、MVInfojを参照ピクチャリストLYにスケーリングすることによって生成されるスケーリングされた動きベクトルとを組み合わせることに基づいており、Y=(1-X)である、案7に記載の方法。
F21.Xの値が予め判定されるか、またはビットストリーム表現で信号通知される、案F20に記載の方法。
F22.MVInfoiおよびMVInfojが、それぞれi番目の分割およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が、参照ピクチャリストLXからのものであり、X=0またはX=1であり、1つの動き情報のセットは、MVInfoiと、MVInfojを参照ピクチャリストLYにマッピングすることによって生成されるマッピングされた動きベクトルとを組み合わせることに基づいており、Y=(1-X)である、案F7に記載の方法。
F23.1つの動き情報のセットは、双予測動きベクトルを含む、案F22に記載の方法。
F24.MVInfojをリストLYにおける参照ピクチャにマッピングすることは、スケーリング演算を除外する、案F22に記載の方法。
F25.1つの動き情報のセットを記憶することは、複数の分割に関連付けられた復号化された動き情報に基づく、案F7に記載の方法。
F26.MVInfoiおよびMVInfojが、それぞれi番目の分割およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojは、いずれも同じ参照ピクチャリストLXからのものであり、X=0またはX=1であり、1つの動き情報のセットが単一予測の動き情報を含む、案F25に記載の方法。
F27.MVInfoiおよびMVInfojが、i番目の分割およびj番目の分割の動き情報をそれぞれ表し、MVInfoiが、参照ピクチャリストLXおよびMVInfojからのものであり、X=0またはX=1であり、Y=(1-X)であり、1つの動き情報のセットが双予測動き情報を含む、案F25に記載の方法。
F28.MVInfoiおよびMVInfojが、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が参照ピクチャリストLXからのものであり、X=0またはX=1であり、参照ピクチャリストLYがMVInfoiまたはMVInfojを含み、Y=(1-X)であり、1つの動き情報のセットが双予測動き情報を含む、案F25に記載の方法。
F29.1つの動き情報のセットを記憶することは、複数の分割のうちの少なくとも2つの共通の境界に沿って位置する現在のブロックのサブ領域に基づく、案F7に記載の方法。
F30.異なるサブ領域が異なる動き情報を記憶する、案F29に記載の方法。
F31.サブ領域は、単一予測または双予測動き情報を記憶する、案F29に記載の方法。
F32.単一の動き情報のセットを記憶することは、現在のブロックにおける1つのサブブロックの位置に基づいており、このサブブロックは、単一予測動き情報のみを記憶する、案F7に記載の方法。
F33.現在のブロックに適用される動き補償処理において1つの動き情報のセットを使用する、案F1~F32のいずれかに記載の方法。
F34.MVInfoiおよびMVInfojが、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が参照ピクチャリストLXからのものであり、X=0またはX=1であり、1つの動き情報のセットが、(a)MVInfoi、(b)MVInfojまたは(c)MVInfoiおよびMVInfojを平均することから導出された参照ピクチャリストLXのための双予測動きベクトルを含む、案F7に記載の方法。
F35.MVInfoiおよびMVInfojが、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が参照ピクチャリストLXからのものであり、X=0またはX=1であり、且つ1つの動き情報のセットがMVInfoiおよびMVInfojの平均または重み付け平均を含み、且つ1つの動き情報のセットに関連付けられた参照ピクチャがMVInfoiの参照ピクチャまたはMVInfojの参照ピクチャのいずれかを含む、案F7に記載の方法。
F36.K×L領域が、複数の分割のうちの少なくとも2つの分割間の共通の境界に少なくとも1つのサンプルを含む、案F1~F35のいずれかに記載の方法。
F37.ジオメトリ分割モードは三角形分割モードを含む、案F1~F36のいずれか1案に記載の方法。
F38.複数の分割の少なくとも1つの分割が、非正方形であり、かつ非長方形である、案F1~F36のいずれか1つに記載の方法。
F39.変換は、ビットストリーム表現から現在のブロックを生成する、案F1~F38のいずれか1案に記載の方法。
F40.変換は、現在のブロックからビットストリーム表現を生成する、案F1~F38のいずれか1案に記載の方法。
F41.処理装置と、命令を搭載した非一時的メモリとを含む、映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、案F1~F40のいずれか1案に記載の方法を実装させることを特徴とする装置。
F42.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、コンピュータプログラム製品は、案F1~F40のいずれか1案に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
G1.現在の映像ブロックを複数の分割に分割することと、ジオメトリ分割モードを使用して符号化された現在のブロックと映像のビットストリーム表現との間で変換を行うこととを含み、現在のブロックのM×N個のブロック単位ごとに1つの動き情報のセットが記憶され、この1つの動き情報のセットは、複数の分割の各々に関連付けられた動き情報から導出されたものであり、MまたはNが4に等しくなく、M×N個のブロック単位における各サンプルが同じ動き情報を共有する、映像処理方法。
G2.M=8であり、N=8である、案G1に記載の方法。
G3.M×Nブロックユニットの第1の部分は、複数の区画のうちの少なくとも2つの共通の境界上にある第1のサンプルセットを備え、M×Nブロックユニットの第2の部分は、複数の分割のうちの少なくとも2つの分割のうちの1つの内部にある第2のサンプルセットを含む、案G1に記載の方法。
G4.MVInfoiがi番目の分割の動き情報を表し、i=1およびi=2であり、MVInfo1が第1の参照ピクチャリストLXからのものであり、MVInfo2がLYからのものであると判定されると、同じ動き情報が、複数の分割のMVInfoiに基づいて、現在のブロックの双予測および関連する動き情報を含み、X=0またはX=1であり、Y=(1-X)である、案G3に記載の方法。
G5.MVInfoiが、i番目の分割の動き情報を表し、i=1およびi=2であり、MVInfo1およびMVInfo2の両方が参照ピクチャリストLXからのものであると判定されると、同じ動き情報が、MVInfojに基づいて、現在のブロックのための単一予測および関連する動き情報を含み、j=1またはj=2であり、X=0またはX=1である、案G3に記載の方法。
G6.MVInfoiがi番目の分割の動き情報を表し、i=1、i=2であり、同じ動き情報が、MVInfojに基づいて、現在のブロックのための単一予測および関連する動き情報を含み、j=1またはj=2である、案G3に記載の方法。
G7.現在の映像ブロックを複数の分割に分割することと、現在のブロックと映像のビットストリーム表現との間の変換の一部として、記憶されるべき第1のサブ領域に関連付けられた第2の動き情報とは異なる第1の動き情報に基づいて、現在のブロックの第1のサブ領域に対して動き補償処理を行うこととを含む、映像処理方法。
G8.第1のサブ領域は、複数の分割のうちの少なくとも2つの共通の境界上にM×N個のサンプルセットを含み、動き補償処理は、双予測を含み、かつ双予測のList0またはList1からの1つの動き情報のセットのみが記憶される、案G7に記載の方法。
G9.1つの動き情報のセットは、マージモードまたは高度動きベクトル予測(AMVP)モードを使用して符号化される近傍のブロックの空間的動き候補を導出するために使用される、案G8に記載の方法。
G10.1つの動き情報のセットは、現在のブロックを含む現在のピクチャと異なるピクチャにおける後続のブロックの時間的動き候補を導出するために用いられる、案G8に記載の方法。
G11.1つの動き情報のセットは、現在のブロックのインループ処理に使用される、案G8に記載の方法。
G12.インループ処理は、デブロッキングまたは適応ループフィルタリングを含む、案G11に記載の方法。
G13.第2のサブ領域に関連付けられた第3の動き情報に基づいて、現在のブロックの第2のサブ領域に対する動き補償処理、および、第1のサブ領域と第2のサブ領域とが、複数の分割を含む同じ符号化ユニット(CU)内にある、案G7に記載の方法。
G14.ジオメトリ分割モードを使用して、現在の映像ブロックを複数の分割に分割することと、複数の分割に関連付けられた分割方向または復号化されたマージインデックスまたはマージ候補リストに基づいて、第1のサンプルセットおよび第2のサンプルセットの動き情報を記憶することであって、第1のサンプルのセットは、複数の分割の少なくとも2つの共通の境界上にあり、第2のサンプルのセットは、複数の分割の少なくとも2つのうちの1つの内部にある、記憶することと、記憶された動き情報に基づいて、現在のブロックと映像のビットストリーム表現との間で変換、または映像の後続のブロックとビットストリーム表現との間で変換を行うこととを含む、映像処理方法。
G15.記憶された動き情報は、選択された復号化マージインデックスに関連付けられた複数の分割のうちの1つの分割に関連付けられた動き情報に対応する、案G14に記載の方法。
G16.記憶された動き情報は、選択されたマージインデックスセットが変数kである動き候補リストにおける動き候補に対応する、案G14に記載の方法。
G17.k=0である、案G16に記載の方法。
G18.記憶された動き情報は、1つのマージ候補リストにおけるk番目のマージ候補の動き情報に対応する、案G16に記載の方法。
G19.選択された復号化マージインデックスは、分割方向に基づく、案G15に記載の方法。
G20.選択された復号化マージインデックスに等しいインデックスを有するマージ候補が双予測に基づくものであると判定されると、記憶された動き情報が双予測動き情報を含む、案G15に記載の方法。
G21.選択されたデコードされたマージインデックスに等しいインデックスを有するマージ候補が単一予測に基づくものであると判定されると、記憶された動き情報が単一予測の動き情報を含む、案G15に記載の方法。
G22.第1のサブ領域は、複数の分割のうちの少なくとも2つの共通の境界上にM×N個のサンプルを含み、動き補償処理は、双予測を含み、かつ双予測のList0またはList1からの1つの動き情報のセットのみを記憶する、案G6に記載の方法。
G23.第1のサブ領域は、複数の分割のうちの少なくとも2つの共通の境界上にM×N個のサンプルを含み、動き補償処理は、双予測を含み、ListXからの単一予測情報のみが記憶され、X=0およびX=1である、案G6に記載の方法。
G24.第1のサブ領域は、複数の分割のうちの少なくとも2つの共通の境界上にM×N個のサンプルを含み、動き補償処理は、単一予測を含み、第2の動き情報は、記憶されるListXからの単一予測情報を含み、X=0およびX=1である、案G6に記載の方法。
G25.現在の映像ブロックを複数の分割に分割することと、複数の分割のうちの少なくとも2つの分割の動き情報に基づく仮想双予測動き情報を記憶することと、仮想双予測動き情報に基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む映像処理方法。
G26.MvInfo1およびMvInfo2が、それぞれ第1の分割および第2の分割の動き情報であり、仮想双予測動き情報は、MvInfoAの予測方向をListXからListYに修正することに基づくものであり、A=1またはA=2であり、X=0またはX=1であり、Y=(1-X)である、案G25に記載の方法。
G27.MvInfoAの動きベクトルおよび参照インデックスが不変に維持される、案G26に記載の方法。
G28.MvInfoAの参照インデックスは変更されず、MvInfoAの動きベクトルは反対の値に設定される、案G26に記載の方法。
G29.MvInfo1およびMvInfo2が同じ予測方向からのものである、案G26~G28のいずれか1つに記載の方法。
G30.現在の映像ブロックを複数の分割に分割することと、低遅延チェックフラグに基づいて、複数の分割の第1の分割(MvInfo1)の動き情報および複数の分割の第2の分割(MvInfo2)の動き情報を記憶することであって、低遅延チェックフラグは、現在のブロックを構成する現在のピクチャのPOC値以下のピクチャオーダカウント(POC)値を有するすべての参照ピクチャを示す、記憶することと、記憶した動き情報に基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことと、を含む、映像処理方法。
G31.MvInfo1とMvInfo2が異なる予測方向からのものであり、動き情報を記憶することは、MvInfo1とMvInfo2を組み合わせて生成された双予測動き情報を記憶することを含む、案G30に記載の方法。
G32.MvInfo1およびMvInfo2が同じ予測方向(ListX)からのものであり、X=0またはX=1であり、MvInfo2の双予測リストをListXからListYに設定することで、MvInfo2を修正することをさらに含み、Y=(1-X)であり、動き情報を記憶することは、MvInfo1と修正されたMvInfo2とを結合することによって生成される双予測動作を記憶することを含む、案G30に記載の方法。
G33.動き情報を記憶することは、現在のブロックのサブブロックの動き情報を記憶することを含む、案G25~G32のいずれか1案に記載の方法。
G34.サブブロックは、複数の分割のうちの少なくとも2つの共通の境界上のサンプルを含む、案G33に記載の方法。
G35.サブブロックは、現在のブロックにおける対角線または反対角線を含む、案G33に記載の方法。
G36.サブブロックは、現在のブロックの右下隅にある、案G33に記載の方法。
G37.サブブロックは、現在のブロックの右列または下行にある、案G33に記載の方法。
G38.複数の分割の少なくとも1つの分割が、非正方形であり、かつ非長方形である、案G1~G37のいずれか1案に記載の方法。
G39.変換は、ビットストリーム表現から現在のブロックを生成する、案G1~G38のいずれか1案に記載の方法。
G40.変換は、現在のブロックからビットストリーム表現を生成する、案G1~G38のいずれか1案に記載の方法。
G41.処理装置と、命令を搭載した非一時的メモリとを含む、映像システムにおける装置であって、処理装置が実行する命令は、処理装置に、案G1~G40のいずれか1案に記載の方法を実装させることを特徴とする装置。
G42.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、コンピュータプログラム製品は、案G1~G40のいずれか1案に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
Claims (42)
- 映像処理方法であって、
ジオメトリ分割モードを使用して複数の分割に分割される現在の映像ブロックに向けて、4×4個のサンプルサイズとは異なるサンプルサイズを有する前記複数の分割のうちの少なくとも2つの共通の境界に沿ったサンプル上で動き補償処理を行うことと、
前記動き補償処理に基づいて、現在のブロックと映像のビットストリーム表現との間で変換を行うことを含む、方法。 - 前記動き補償処理は、前記変換に必要なメモリ帯域幅を低減するために、8×8個のサンプルサイズで行われる請求項1に記載の方法。
- 前記動き補償処理は、前記変換に必要なメモリ帯域幅を低減するために、8×4個のサンプルサイズまたは4×8個のサンプルサイズで行われる請求項1に記載の方法。
- 前記サンプルサイズは、前記現在のブロックの高さまたは幅に基づく、請求項3に記載の方法。
- 前記サンプルサイズが、前記現在のブロックの前記複数の分割のための分割パターンに基づく、請求項3に記載の方法。
- 前記分割パターンは、それぞれ45°の分割パターンまたは135°の分割パターンで表される、右上隅から左下隅へ、または左上隅から右下隅への分割を含む、請求項5に記載の方法。
- 映像処理方法であって、
ジオメトリ分割モードを使用して現在の映像ブロックを複数の分割に分割することと、
前記複数の分割に関連付けられた動き情報から導出された、前記現在のブロック内のK×L領域のための1つの動き情報のセットを記憶することと、
前記複数の分割のうち少なくとも1つの分割に関連付けられた少なくとも1つの動き情報のセットを使用して、前記現在のブロックと前記映像のビットストリーム表現との間で変換を行うことを含む、映像処理方法。 - MVInfoiがi番目の分割の動き情報を表し、i=1およびi=2であり、MVInfo1が第1の参照ピクチャリストLXおよびMVInfo2からのものであると判定されると、前記1つの動き情報のセットは、MVInfo1とMVInfo2との組み合わせに基づいて、前記現在のブロックの双予測および関連する動き情報を含み、ここで、X=0またはX=1であり、Y=(1-X)である、請求項7に記載の方法。
- MVInfoiが、i番目の分割の動き情報を表し、i=1およびi=2であり、MVInfo1およびMVInfo2の両方が参照リストLXからのものであると判定された場合、MVInfojに基づいて、前記現在のブロックのための前記1つの動き情報単一予測および関連する動き情報のセットであり、j=1またはj=2であり、X=0またはX=1である、請求項7に記載の方法。
- 動きベクトルとMVInfo1およびMVInfo2の参照ピクチャインデックスとを組み合わせることによって、双予測を含む前記1つの動き情報のセットを導出する、請求項8に記載の方法。
- 単一予測を含む前記1つの動き情報のセットは、MVInfo1に基づく、請求項9に記載の方法。
- 単一予測を含む前記1つの動き情報のセットは、MVInfo2に基づく、請求項9に記載の方法。
- MVInfo1は、右上隅のサンプルを覆う分割に関連する動き情報のセットを含み、MVInfo2は、右上隅のサンプルと左下隅のサンプルとが2つの異なる分割にあると判定された場合、左下隅のサンプルを覆う分割に関連付けられた動き情報のセットを含む、請求項1~12のいずれか1項に記載の方法。
- 前記現在のブロックの分割方向が左上隅から右下隅である、請求項13に記載の方法。
- MVInfo1は、左上隅のサンプルを覆う分割に関連する動き情報のセットを含み、MVInfo2は、前記左上隅のサンプルと前記右下隅のサンプルとが2つの異なる分割にあると判定された場合、右下隅のサンプルを覆う分割に関連付けられた動き情報のセットを含む、請求項1~12のいずれか1項に記載の方法。
- 前記現在のブロックの分割方向が右上隅から左下隅である、請求項15に記載の方法。
- 前記記憶された1つの動き情報のセットが、前記映像の後続のブロックの時間的動き予測、空間的動き予測、または前記現在のブロックのフィルタリング処理のうちの1つに使用される、請求項7に記載の方法。
- 記憶された1つの動き情報のセットが、異なるピクチャにおける他のブロックの処理に用いられる、請求項7に記載の方法。
- 前記フィルタリング処理は、デブロッキングまたは適応ループフィルタリング(ALF)を含む、請求項17に記載の方法。
- MVInfoiおよびMVInfojが、それぞれi番目の分割およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が、参照ピクチャリストLXからのものであり、X=0またはX=1であり、前記1つの動き情報のセットは、MVInfoiと、MVInfojを参照ピクチャリストLYにスケーリングすることによって生成されるスケーリングされた動きベクトルとを組み合わせることに基づいており、Y=(1-X)である、請求項7に記載の方法。
- Xの値が予め判定されるか、またはビットストリーム表現で信号通知される、請求項20に記載の方法。
- MVInfoiおよびMVInfojが、それぞれi番目の分割およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が、参照ピクチャリストLXからのものであり、X=0またはX=1であり、前記1つの動き情報のセットは、MVInfoiと、MVInfojを参照ピクチャリストLYにマッピングすることによって生成されるマッピングされた動きベクトルとを組み合わせることに基づいており、Y=(1-X)である、請求項7に記載の方法。
- 1つの動き情報のセットは、双予測動きベクトルを含む、請求項22に記載の方法。
- MVInfojをリストLYにおける前記参照ピクチャにマッピングすることは、スケーリング演算を除外する、請求項22に記載の方法。
- 前記1つの動き情報のセットを記憶することは、前記複数の分割に関連付けられた復号化された動き情報に基づく、請求項7に記載の方法。
- MVInfoiおよびMVInfojは、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojは、いずれも同じ参照ピクチャリストLXに由来し、X=0またはX=1であり、前記1つの動き情報のセットは、単一予測の動き情報を含む、請求項25に記載の方法。
- MVInfoiおよびMVInfojが、i番目の分割およびj番目の分割の動き情報をそれぞれ表し、MVInfoiが、参照ピクチャリストLXおよびMVInfojからのものであり、X=0またはX=1であり、Y=(1-X)であり、前記1つの動き情報のセットが双予測動き情報を含む、請求項25に記載の方法。
- MVInfoiおよびMVInfojが、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が参照ピクチャリストLXからのものであり、X=0またはX=1であり、参照ピクチャリストLYがMVInfoiまたはMVInfojを含み、Y=(1-X)であり、前記1つの動き情報のセットが双予測動き情報を含む、請求項25に記載の方法。
- 1つの動き情報のセットを記憶することは、前記複数の分割のうちの少なくとも2つの共通の境界に沿って位置する前記現在のブロックのサブ領域に基づく、請求項7に記載の方法。
- 異なるサブ領域が異なる動き情報を記憶する、請求項29に記載の方法。
- サブ領域は、単一予測または双予測動き情報を記憶する、請求項29に記載の方法。
- 単一の動き情報のセットを記憶することは、前記現在のブロックにおける1つのサブブロックの位置に基づいており、前記サブブロックは、単一予測動き情報のみを記憶する、請求項7に記載の方法。
- 前記現在のブロックに適用される動き補償処理において前記1つの動き情報のセットを使用する、請求項1~32のいずれか1項に記載の方法。
- MVInfoiおよびMVInfojが、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が参照ピクチャリストLXからのものであり、X=0またはX=1であり、前記1つの動き情報のセットが、(a)MVInfoi、(b)MVInfojまたは(c)MVInfoiおよびMVInfojを平均することから導出された前記参照ピクチャリストLXのための双予測動きベクトルを含む、請求項7に記載の方法。
- MVInfoiおよびMVInfojが、それぞれi番目およびj番目の分割の動き情報を表し、MVInfoiおよびMVInfojの両方が参照ピクチャリストLXからのものであり、X=0またはX=1であり、且つ前記1つの動き情報のセットがMVInfoiおよびMVInfojの平均または重み付け平均を含み、且つ前記1つの動き情報のセットに関連付けられた前記参照ピクチャがMVInfoiの参照ピクチャまたはMVInfojの参照ピクチャのいずれかを含む、請求項7に記載の方法。
- K×L領域が、前記複数の分割のうちの少なくとも2つの分割間の共通の境界に少なくとも1つのサンプルを含む、請求項1~35のいずれか1項に記載の方法。
- ジオメトリ分割モードは、三角形分割モードを含む、請求項1~36のいずれか1項に記載の方法。
- 複数の分割の少なくとも1つの分割が、非正方形であり、かつ非長方形である、請求項1~36のいずれか1項に記載の方法。
- 前記変換は、前記現在の映像ブロックから前記ビットストリーム表現を生成する、請求項1~38のいずれか1項に記載の方法。
- 前記変換は、前記ビットストリーム表現から前記現在の映像ブロックを生成する、請求項1~38のいずれか1項に記載の方法。
- 処理装置と、前記処理装置に命令が記憶された非一時的メモリとを含む、映像システムにおける装置であって、前記命令が処理装置によって実装されることにより、前記処理装置に、請求項1~40のいずれか1項に記載の方法を実装させる装置。
- 非一時的なコンピュータ可読媒体に記憶された前記コンピュータプログラム製品であって、請求項1~40のいずれか1項に記載の前記方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023126471A JP2023159148A (ja) | 2018-11-06 | 2023-08-02 | 動き情報の位置依存記憶装置 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018114057 | 2018-11-06 | ||
CNPCT/CN2018/114057 | 2018-11-06 | ||
CNPCT/CN2019/087372 | 2019-05-17 | ||
CN2019087372 | 2019-05-17 | ||
CN2019090127 | 2019-06-05 | ||
CNPCT/CN2019/090127 | 2019-06-05 | ||
CN2019092151 | 2019-06-20 | ||
CNPCT/CN2019/092151 | 2019-06-20 | ||
PCT/CN2019/116078 WO2020094078A1 (en) | 2018-11-06 | 2019-11-06 | Position dependent storage of motion information |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023126471A Division JP2023159148A (ja) | 2018-11-06 | 2023-08-02 | 動き情報の位置依存記憶装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022506162A true JP2022506162A (ja) | 2022-01-17 |
Family
ID=70610822
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523359A Pending JP2022506162A (ja) | 2018-11-06 | 2019-11-06 | 動き情報の位置依存記憶装置 |
JP2023126471A Pending JP2023159148A (ja) | 2018-11-06 | 2023-08-02 | 動き情報の位置依存記憶装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023126471A Pending JP2023159148A (ja) | 2018-11-06 | 2023-08-02 | 動き情報の位置依存記憶装置 |
Country Status (6)
Country | Link |
---|---|
US (4) | US11265541B2 (ja) |
EP (1) | EP3847814A1 (ja) |
JP (2) | JP2022506162A (ja) |
KR (1) | KR20210084479A (ja) |
CN (8) | CN111418205B (ja) |
WO (7) | WO2020094075A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022506269A (ja) * | 2018-11-08 | 2022-01-17 | オッポ広東移動通信有限公司 | ビデオ信号符号化/復号方法及びその機器 |
WO2023199653A1 (ja) * | 2022-04-12 | 2023-10-19 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
WO2023199652A1 (ja) * | 2022-04-12 | 2023-10-19 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10721487B2 (en) * | 2012-04-17 | 2020-07-21 | Texas Instruments Incorporated | Converting a bi-predicted merging candidate in a merging candidate list for a prediction unit of a picture |
MX2020001886A (es) | 2017-08-22 | 2020-03-24 | Panasonic Ip Corp America | Codificador de imagen, descodificador de imagen, metodo de codificacion de imagen y metodo de descodificacion de imagen. |
JP7460617B2 (ja) | 2018-06-29 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | Lut更新条件 |
KR20240007299A (ko) | 2018-06-29 | 2024-01-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 룩업 테이블의 업데이트: fifo, 제약된 fifo |
TWI743506B (zh) | 2018-06-29 | 2021-10-21 | 大陸商北京字節跳動網絡技術有限公司 | 來自多個查找表(lut)的選擇 |
KR20240005240A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
WO2020003284A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
WO2020003282A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Managing motion vector predictors for video coding |
CA3101730A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
WO2020008350A1 (en) | 2018-07-02 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Luts with intra prediction modes and intra mode prediction from non-adjacent blocks |
JP7223111B2 (ja) * | 2018-07-02 | 2023-02-15 | 華為技術有限公司 | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
WO2020050283A1 (en) * | 2018-09-07 | 2020-03-12 | Panasonic Intellectual Property Corporation Of America | System and method for video coding |
TWI820211B (zh) | 2018-09-12 | 2023-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 取決於總數減去k的開始檢查hmvp候選的條件 |
CN111147855A (zh) | 2018-11-02 | 2020-05-12 | 北京字节跳动网络技术有限公司 | 几何分割预测模式与其他工具之间的协调 |
WO2020094054A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Condition dependent inter prediction with geometric partitioning |
CN111418205B (zh) | 2018-11-06 | 2024-06-21 | 北京字节跳动网络技术有限公司 | 用于帧间预测的运动候选 |
CN113170184A (zh) * | 2018-11-22 | 2021-07-23 | 北京字节跳动网络技术有限公司 | 默认运动候选的配置方法 |
WO2020114405A1 (en) | 2018-12-03 | 2020-06-11 | Beijing Bytedance Network Technology Co., Ltd. | Indication method of maximum number of candidates |
US20220070475A1 (en) * | 2018-12-18 | 2022-03-03 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and apparatus, and recording media storing bitstream |
US11122272B2 (en) * | 2018-12-26 | 2021-09-14 | Mediatek Inc. | Triangle prediction with applied-block settings and motion storage settings |
WO2020135465A1 (en) | 2018-12-28 | 2020-07-02 | Beijing Bytedance Network Technology Co., Ltd. | Modified history based motion prediction |
WO2020140862A1 (en) | 2018-12-30 | 2020-07-09 | Beijing Bytedance Network Technology Co., Ltd. | Conditional application of inter prediction with geometric partitioning in video processing |
US11032574B2 (en) | 2018-12-31 | 2021-06-08 | Tencent America LLC | Method and apparatus for video coding |
KR102431071B1 (ko) * | 2018-12-31 | 2022-08-09 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 비디오 코딩에서 움직임 병합 모드의 시그널링을 위한 시스템 및 방법 |
JP2022515725A (ja) * | 2019-01-02 | 2022-02-22 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 候補mvリストの構築方法、プログラム、及び電子デバイス |
KR20240010576A (ko) | 2019-01-10 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
KR102641302B1 (ko) * | 2019-03-08 | 2024-02-27 | 가부시키가이샤 제이브이씨 켄우드 | 동화상 부호화 장치, 동화상 부호화 방법 및, 동화상 부호화 프로그램, 동화상 복호 장치, 동화상 복호 방법, 동화상 복호 프로그램 및 비트 스트림 |
EP4243417A3 (en) * | 2019-03-11 | 2023-11-15 | Alibaba Group Holding Limited | Method, device, and system for determining prediction weight for merge mode |
DK3915254T3 (da) * | 2019-03-12 | 2024-01-08 | Beijing Dajia Internet Information Tech Co Ltd | Videokodning til forudberegning af geometrisk inter-partition |
CN113615193B (zh) | 2019-03-22 | 2024-06-25 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
WO2020198172A1 (en) * | 2019-03-23 | 2020-10-01 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatus of video coding for triangle prediction |
JP7425808B2 (ja) | 2019-06-04 | 2024-01-31 | 北京字節跳動網絡技術有限公司 | 動き候補リスト構築プロセスの条件付き実行 |
WO2020244571A1 (en) | 2019-06-04 | 2020-12-10 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction using neighboring block information |
CN113994699B (zh) | 2019-06-06 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 视频编解码的运动候选列表构建 |
BR112021025536A2 (pt) * | 2019-06-19 | 2022-02-01 | Lg Electronics Inc | Método e dispositivo para codificação de imagem com base em interpredição |
EP3977740A4 (en) * | 2019-06-24 | 2022-07-06 | Alibaba Group Holding Limited | METHOD AND DEVICE FOR MOTION FIELD STORAGE IN VIDEO CODING |
CN114175636B (zh) | 2019-07-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 自适应参数集中的自适应环路滤波的指示 |
KR20220036939A (ko) | 2019-07-26 | 2022-03-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩 모드의 블록 크기 종속적 사용 |
WO2021057996A1 (en) | 2019-09-28 | 2021-04-01 | Beijing Bytedance Network Technology Co., Ltd. | Geometric partitioning mode in video coding |
CN114556926B (zh) | 2019-10-10 | 2024-07-05 | 北京字节跳动网络技术有限公司 | 几何分割模式中的运动矢量处理 |
US11533498B2 (en) * | 2019-11-21 | 2022-12-20 | Tencent America LLC | Geometric partitioning mode in video coding |
EP4049451A4 (en) | 2019-11-30 | 2022-12-28 | Beijing Bytedance Network Technology Co., Ltd. | SIMPLIFIED INTERIM PREDICTION WITH GEOMETRIC BREAKDOWN |
WO2021129694A1 (en) | 2019-12-24 | 2021-07-01 | Beijing Bytedance Network Technology Co., Ltd. | High level syntax for inter prediction with geometric partitioning |
US11496755B2 (en) * | 2019-12-28 | 2022-11-08 | Tencent America LLC | Method and apparatus for video coding |
EP4158891A4 (en) * | 2020-05-29 | 2024-02-21 | Beijing Dajia Internet Information Technology Co., Ltd. | METHODS AND APPARATUS FOR VIDEO CODING USING GEOMETRIC PARTITION |
WO2021247906A1 (en) * | 2020-06-03 | 2021-12-09 | Beijing Dajia Internet Information Technology Co., Ltd. | Geometric partition mode with motion vector refinement |
CN112055203B (zh) * | 2020-08-22 | 2024-04-12 | 浙江大华技术股份有限公司 | 帧间预测方法、视频编码方法及其相关装置 |
CN117529920A (zh) * | 2021-04-09 | 2024-02-06 | 抖音视界有限公司 | 用于视频处理的方法、设备和介质 |
KR20230157507A (ko) * | 2021-04-09 | 2023-11-16 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 명시적 모션 시그널링을 갖는 기하학적 파티션 모드 |
US11722658B2 (en) * | 2021-06-25 | 2023-08-08 | Tencent America LLC | Method and apparatus for video coding |
JP2024524402A (ja) * | 2021-06-28 | 2024-07-05 | ベイジン、ターチア、インターネット、インフォメーション、テクノロジー、カンパニー、リミテッド | 動きベクトル改良による幾何区画モードのための方法およびデバイス |
CN118020300A (zh) * | 2021-07-15 | 2024-05-10 | 抖音视界有限公司 | 用于视频处理的方法、装置和介质 |
CN117813820A (zh) * | 2021-07-15 | 2024-04-02 | 抖音视界有限公司 | 用于视频处理的方法、装置和介质 |
US20230108504A1 (en) * | 2021-10-04 | 2023-04-06 | Tencent America LLC | On geometric partition mode with intra and inter prediction |
US20230199213A1 (en) * | 2021-12-17 | 2023-06-22 | Tencent America LLC | Template-matching based adaptive motion vector resolution by using an adaptive order of motion vector resolutions |
WO2023143119A1 (en) * | 2022-01-28 | 2023-08-03 | Mediatek Inc. | Method and apparatus for geometry partition mode mv assignment in video coding system |
WO2023158765A1 (en) * | 2022-02-16 | 2023-08-24 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for geometric partitioning mode split modes reordering with pre-defined modes order |
WO2023224279A1 (ko) * | 2022-05-16 | 2023-11-23 | 현대자동차주식회사 | 기하학적 움직임 예측을 사용하는 비디오 코딩을 위한 방법 및 장치 |
WO2024123035A1 (ko) * | 2022-12-06 | 2024-06-13 | 현대자동차주식회사 | 기하학적 분할모드를 이용한 비디오 부호화/복호화 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020061147A1 (en) * | 2018-09-21 | 2020-03-26 | Interdigital Vc Holdings, Inc. | Method and apparatus for video encoding and decoding using bi-prediction |
WO2020073896A1 (en) * | 2018-10-08 | 2020-04-16 | Huawei Technologies Co., Ltd. | Apparatuses and methods for inter prediction of a triangle partition of a coding block |
Family Cites Families (112)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2798120B2 (ja) * | 1995-08-04 | 1998-09-17 | 日本電気株式会社 | 動き補償フレーム間予測方法及び動き補償フレーム間予測装置 |
CN100546386C (zh) * | 2001-11-27 | 2009-09-30 | 三星电子株式会社 | 编码和解码坐标内插符的关键值数据的方法和装置 |
BRPI0715507A2 (pt) * | 2006-08-02 | 2013-06-18 | Thomson Licensinc S A | mÉtodos e aparelhos para particionamento geomÉtrico adaptativo para decodificaÇço de vÍdeo |
WO2008127568A2 (en) * | 2007-04-12 | 2008-10-23 | Thomson Licensing | Methods and apparatus for fast geometric mode decision in a video encoder |
JP5036643B2 (ja) * | 2007-07-18 | 2012-09-26 | 株式会社リコー | 情報処理装置、情報処理方法、及びプログラム |
JP2011501508A (ja) * | 2007-10-12 | 2011-01-06 | トムソン ライセンシング | 幾何学分割された双方向予測モードパーティションのビデオエンコーディング及びデコーディングのための方法及び装置 |
US8295593B2 (en) * | 2009-01-07 | 2012-10-23 | Seiko Epson Corporation | Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics |
EP3678374A1 (fr) * | 2009-07-03 | 2020-07-08 | Orange | Prédiction d'un vecteur mouvement d'une partition d'image courante de forme géometrique ou de taille différente de celle d'au moins une partition d'image de référence voisine, codage et decodage utilisant une telle prediction |
JP5844263B2 (ja) * | 2009-10-05 | 2016-01-13 | ビーマル イメージング リミテッドBeamr Imaging Ltd. | デジタル画像を再圧縮するための装置および方法 |
KR101853811B1 (ko) * | 2010-01-15 | 2018-05-03 | 삼성전자주식회사 | 예측 부호화를 위해 가변적인 파티션을 이용하는 비디오 부호화 방법 및 장치, 예측 부호화를 위해 가변적인 파티션을 이용하는 비디오 복호화 방법 및 장치 |
WO2011095259A1 (en) | 2010-02-05 | 2011-08-11 | Telefonaktiebolaget L M Ericsson (Publ) | Selecting predicted motion vector candidates |
US8879632B2 (en) * | 2010-02-18 | 2014-11-04 | Qualcomm Incorporated | Fixed point implementation for geometric motion partitioning |
US9609342B2 (en) * | 2010-02-19 | 2017-03-28 | Skype | Compression for frames of a video signal using selected candidate blocks |
US8681873B2 (en) * | 2010-02-19 | 2014-03-25 | Skype | Data compression for video |
KR101752418B1 (ko) * | 2010-04-09 | 2017-06-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR102158700B1 (ko) | 2010-05-04 | 2020-09-22 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
JP5686018B2 (ja) * | 2010-05-21 | 2015-03-18 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法および画像符号化プログラム |
CN107071437B (zh) * | 2010-07-02 | 2019-10-25 | 数码士有限公司 | 用于帧内预测的解码图像的方法 |
KR20120016991A (ko) * | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US20120147961A1 (en) * | 2010-12-09 | 2012-06-14 | Qualcomm Incorporated | Use of motion vectors in evaluating geometric partitioning modes |
US9807424B2 (en) * | 2011-01-10 | 2017-10-31 | Qualcomm Incorporated | Adaptive selection of region size for identification of samples in a transition zone for overlapped block motion compensation |
KR20120090740A (ko) * | 2011-02-07 | 2012-08-17 | (주)휴맥스 | 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법 |
ES2861773T3 (es) * | 2011-05-31 | 2021-10-06 | Jvc Kenwood Corp | Dispositivo de decodificación de imágenes en movimiento, procedimiento de decodificación de imágenes en movimiento y programa de decodificación de imágenes en movimiento |
AU2015203680B2 (en) * | 2011-06-14 | 2016-09-15 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
CN106803956B (zh) * | 2011-06-14 | 2020-05-01 | 三星电子株式会社 | 对图像进行解码的方法 |
JP2013012846A (ja) * | 2011-06-28 | 2013-01-17 | Sony Corp | 画像処理装置及び画像処理方法 |
KR101729429B1 (ko) | 2011-06-30 | 2017-04-21 | 가부시키가이샤 제이브이씨 켄우드 | 화상 인코딩 장치, 화상 인코딩 방법, 화상 인코딩 프로그램, 화상 디코딩 장치, 화상 디코딩 방법 및 화상 디코딩 프로그램 |
MX2014000159A (es) * | 2011-07-02 | 2014-02-19 | Samsung Electronics Co Ltd | Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada. |
CN102355675A (zh) * | 2011-08-04 | 2012-02-15 | 无锡儒安科技有限公司 | 一种代码分发协议中减少干扰冲突的方法 |
JP2013038748A (ja) * | 2011-08-11 | 2013-02-21 | Jvc Kenwood Corp | 動画像復号装置、動画像復号方法及び動画像復号プログラム |
JP5887764B2 (ja) | 2011-08-29 | 2016-03-16 | 株式会社Jvcケンウッド | 動き補償フレーム生成装置及び方法 |
US9736489B2 (en) * | 2011-09-17 | 2017-08-15 | Qualcomm Incorporated | Motion vector determination for video coding |
US20130114717A1 (en) * | 2011-11-07 | 2013-05-09 | Qualcomm Incorporated | Generating additional merge candidates |
RU2710303C2 (ru) * | 2011-11-08 | 2019-12-25 | Кт Корпорейшен | Способ декодирования видеосигнала |
US9883203B2 (en) * | 2011-11-18 | 2018-01-30 | Qualcomm Incorporated | Adaptive overlapped block motion compensation |
US20130188715A1 (en) * | 2012-01-09 | 2013-07-25 | Qualcomm Incorporated | Device and methods for merge list reordering in video coding |
CN102547290B (zh) * | 2012-01-20 | 2013-12-18 | 厦门大学 | 一种基于几何分割的视频图像解编码方法 |
US9426463B2 (en) * | 2012-02-08 | 2016-08-23 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
US9264710B2 (en) * | 2012-07-06 | 2016-02-16 | Texas Instruments Incorporated | Method and system for video picture intra-prediction estimation |
US9325990B2 (en) * | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
US9699450B2 (en) * | 2012-10-04 | 2017-07-04 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
CN102946536B (zh) * | 2012-10-09 | 2015-09-30 | 华为技术有限公司 | 候选矢量列表构建的方法及装置 |
TWI653877B (zh) * | 2012-10-12 | 2019-03-11 | 韓國電子通信研究院 | 視訊編碼及解碼方法及使用該方法之裝置 |
WO2014081261A1 (ko) * | 2012-11-23 | 2014-05-30 | 인텔렉추얼 디스커버리 주식회사 | 움직임 정보 병합을 이용한 비디오 부호화/복호화 방법 및 장치 |
US9277200B2 (en) | 2013-01-17 | 2016-03-01 | Qualcomm Incorporated | Disabling inter-view prediction for reference picture list in video coding |
US20140307780A1 (en) * | 2013-04-11 | 2014-10-16 | Mitsubishi Electric Research Laboratories, Inc. | Method for Video Coding Using Blocks Partitioned According to Edge Orientations |
GB2516824A (en) * | 2013-07-23 | 2015-02-11 | Nokia Corp | An apparatus, a method and a computer program for video coding and decoding |
US10244253B2 (en) * | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
WO2015057947A1 (en) * | 2013-10-17 | 2015-04-23 | Huawei Technologies Co., Ltd. | Improved reference pixel selection and filtering for intra coding of depth map |
WO2015062002A1 (en) | 2013-10-31 | 2015-05-07 | Mediatek Singapore Pte. Ltd. | Methods for sub-pu level prediction |
CN103561276B (zh) | 2013-11-07 | 2017-01-04 | 北京大学 | 一种图像视频编解码方法 |
KR101382367B1 (ko) | 2013-11-13 | 2014-04-09 | 주식회사 아나패스 | 움직임 추정 방법 및 이를 이용한 영상 처리 장치 |
EP3078196B1 (en) * | 2013-12-06 | 2023-04-05 | MediaTek Inc. | Method and apparatus for motion boundary processing |
US9854270B2 (en) | 2013-12-19 | 2017-12-26 | Qualcomm Incorporated | Device and method for scalable coding of video information |
WO2015100731A1 (en) * | 2014-01-03 | 2015-07-09 | Mediatek Singapore Pte. Ltd. | Methods for determining the prediction partitions |
US9294765B2 (en) * | 2014-01-07 | 2016-03-22 | Vixs Systems, Inc. | Video encoder with intra-prediction pre-processing and methods for use therewith |
CN106233334B (zh) * | 2014-03-20 | 2020-03-10 | 华为技术有限公司 | 一种将视频块分割模式和视频编码块关联的装置和方法 |
US10327002B2 (en) | 2014-06-19 | 2019-06-18 | Qualcomm Incorporated | Systems and methods for intra-block copy |
US9161029B1 (en) * | 2014-07-03 | 2015-10-13 | Interra Systems, Inc. | Systems and methods for detecting defective pixels in a video sequence |
WO2016034058A1 (en) * | 2014-09-01 | 2016-03-10 | Mediatek Inc. | Method of intra picture block copy for screen content and video coding |
WO2016052977A1 (ko) * | 2014-10-01 | 2016-04-07 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
CN111031323B (zh) * | 2014-11-27 | 2023-11-28 | 株式会社Kt | 视频信号处理方法 |
SG11201703551VA (en) * | 2014-12-09 | 2017-05-30 | Mediatek Inc | Method of motion vector predictor or merge candidate derivation in video coding |
US11477477B2 (en) * | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
WO2016138513A1 (en) * | 2015-02-27 | 2016-09-01 | Arris Enterprises, Inc. | Modification of unification of intra block copy and inter signaling related syntax and semantics |
US10958927B2 (en) | 2015-03-27 | 2021-03-23 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
WO2016161974A1 (en) | 2015-04-08 | 2016-10-13 | Mediatek Inc. | Methods for palette mode context coding and binarization in video coding |
US10356416B2 (en) * | 2015-06-09 | 2019-07-16 | Qualcomm Incorporated | Systems and methods of determining illumination compensation status for video coding |
KR20180008445A (ko) * | 2015-06-10 | 2018-01-24 | 삼성전자주식회사 | 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치 |
US10271064B2 (en) | 2015-06-11 | 2019-04-23 | Qualcomm Incorporated | Sub-prediction unit motion vector prediction using spatial and/or temporal motion information |
EP3357245A4 (en) * | 2015-11-05 | 2019-03-13 | MediaTek Inc. | METHOD AND DEVICE OF INTERPRESSATION USING AN AVERAGE MOTION VECTOR FOR VIDEO CODING |
CN108886619A (zh) * | 2016-01-07 | 2018-11-23 | 联发科技股份有限公司 | 用于视频编解码***的仿射合并模式预测的方法及装置 |
WO2017131475A1 (ko) * | 2016-01-27 | 2017-08-03 | 한국전자통신연구원 | 예측을 사용하는 비디오의 부호화 및 복호화를 위한 방법 및 장치 |
US20170244964A1 (en) * | 2016-02-23 | 2017-08-24 | Mediatek Inc. | Method and Apparatus of Flexible Block Partition for Video Coding |
US10805607B2 (en) * | 2016-04-29 | 2020-10-13 | Industry Academy Cooperation Foundation Of Sejong University | Video signal encoding/decoding method and apparatus |
US10142652B2 (en) * | 2016-05-05 | 2018-11-27 | Google Llc | Entropy coding motion vector residuals obtained using reference motion vectors |
US10560718B2 (en) * | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
US10560712B2 (en) * | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
CN116708785A (zh) | 2016-07-12 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
US20180041778A1 (en) | 2016-08-02 | 2018-02-08 | Qualcomm Incorporated | Geometry transformation-based adaptive loop filtering |
US10326986B2 (en) * | 2016-08-15 | 2019-06-18 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
EP3507985A1 (en) | 2016-09-02 | 2019-07-10 | Vid Scale, Inc. | Method and system for signaling of 360-degree video information |
US10721489B2 (en) * | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
US10448010B2 (en) * | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
WO2018067952A1 (en) | 2016-10-07 | 2018-04-12 | Vid Scale, Inc. | Geometry conversion and frame packing associated with 360-degree videos |
US10430975B2 (en) * | 2016-11-17 | 2019-10-01 | Google Llc | Advanced k-D tree encoding for point clouds by most significant axis selection |
US20180184127A1 (en) * | 2016-12-22 | 2018-06-28 | Qualcomm Incorporated | Determining neighboring samples for bilateral filtering in video coding |
WO2018128239A1 (ko) * | 2017-01-03 | 2018-07-12 | 엘지전자 주식회사 | 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치 |
US10715827B2 (en) * | 2017-01-06 | 2020-07-14 | Mediatek Inc. | Multi-hypotheses merge mode |
US20180199057A1 (en) * | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
CN110249628B (zh) * | 2017-02-06 | 2021-08-20 | 华为技术有限公司 | 用于预测分区的视频编码器和解码器 |
US20180242024A1 (en) * | 2017-02-21 | 2018-08-23 | Mediatek Inc. | Methods and Apparatuses of Candidate Set Determination for Quad-tree Plus Binary-tree Splitting Blocks |
KR20180098158A (ko) * | 2017-02-24 | 2018-09-03 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
US10701390B2 (en) * | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
CN110476424B (zh) * | 2017-03-16 | 2022-03-04 | 联发科技股份有限公司 | 一种视频编解码方法及装置 |
WO2018172609A2 (en) * | 2017-03-21 | 2018-09-27 | Nokia Technologies Oy | Motion compensation in video encoding and decoding |
WO2019001733A1 (en) | 2017-06-30 | 2019-01-03 | Huawei Technologies Co., Ltd. | ENCODER, DECODER, COMPUTER PROGRAM, AND COMPUTER PROGRAM PRODUCT FOR PROCESSING A FRAME OF A VIDEO SEQUENCE |
CN110832863B (zh) | 2017-06-30 | 2023-01-06 | 华为技术有限公司 | 用于处理视频序列帧的编码器、解码器、计算机程序和计算机程序产品 |
WO2019078581A1 (ko) | 2017-10-16 | 2019-04-25 | 디지털인사이트주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN118214853A (zh) * | 2017-10-26 | 2024-06-18 | 英迪股份有限公司 | 用于基于非对称子块的图像编码/解码的方法及装置 |
WO2019151279A1 (ja) | 2018-01-30 | 2019-08-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN108335335B (zh) | 2018-02-11 | 2019-06-21 | 北京大学深圳研究生院 | 一种基于增强图变换的点云属性压缩方法 |
US10771781B2 (en) * | 2018-03-12 | 2020-09-08 | Electronics And Telecommunications Research Institute | Method and apparatus for deriving intra prediction mode |
CN118175330A (zh) | 2018-05-17 | 2024-06-11 | 松下电器(美国)知识产权公司 | 编码装置、编码方法、解码装置、解码方法和计算机可读取介质 |
US20190387251A1 (en) * | 2018-06-19 | 2019-12-19 | Mediatek Inc. | Methods and Apparatuses of Video Processing with Overlapped Block Motion Compensation in Video Coding Systems |
US11051036B2 (en) * | 2018-07-14 | 2021-06-29 | Mediatek Inc. | Method and apparatus of constrained overlapped block motion compensation in video coding |
CN110944170B (zh) | 2018-09-24 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 扩展Merge预测 |
US11284066B2 (en) | 2018-10-10 | 2022-03-22 | Tencent America LLC | Method and apparatus for intra block copy in intra-inter blending mode and triangle prediction unit mode |
CN111147855A (zh) | 2018-11-02 | 2020-05-12 | 北京字节跳动网络技术有限公司 | 几何分割预测模式与其他工具之间的协调 |
CN111418205B (zh) | 2018-11-06 | 2024-06-21 | 北京字节跳动网络技术有限公司 | 用于帧间预测的运动候选 |
CN113170184A (zh) | 2018-11-22 | 2021-07-23 | 北京字节跳动网络技术有限公司 | 默认运动候选的配置方法 |
-
2019
- 2019-11-06 CN CN201980004109.3A patent/CN111418205B/zh active Active
- 2019-11-06 KR KR1020217012826A patent/KR20210084479A/ko not_active Application Discontinuation
- 2019-11-06 JP JP2021523359A patent/JP2022506162A/ja active Pending
- 2019-11-06 CN CN202311733567.5A patent/CN117768658A/zh active Pending
- 2019-11-06 WO PCT/CN2019/116069 patent/WO2020094075A1/en active Application Filing
- 2019-11-06 WO PCT/CN2019/116080 patent/WO2020094079A1/en active Application Filing
- 2019-11-06 WO PCT/CN2019/116074 patent/WO2020094077A1/en active Application Filing
- 2019-11-06 WO PCT/CN2019/116073 patent/WO2020094076A1/en active Application Filing
- 2019-11-06 CN CN201980004128.6A patent/CN112219400B/zh active Active
- 2019-11-06 CN CN201980004130.3A patent/CN111418207B/zh active Active
- 2019-11-06 WO PCT/CN2019/116065 patent/WO2020094073A1/en active Application Filing
- 2019-11-06 CN CN201980004147.9A patent/CN111418210A/zh active Pending
- 2019-11-06 EP EP19882035.9A patent/EP3847814A1/en active Pending
- 2019-11-06 WO PCT/CN2019/116067 patent/WO2020094074A1/en active Application Filing
- 2019-11-06 WO PCT/CN2019/116078 patent/WO2020094078A1/en unknown
- 2019-11-06 CN CN201980004148.3A patent/CN111418211B/zh active Active
- 2019-11-06 CN CN201980004146.4A patent/CN111418208B/zh active Active
- 2019-11-06 CN CN201980004129.0A patent/CN111434110B/zh active Active
-
2020
- 2020-09-14 US US17/019,834 patent/US11265541B2/en active Active
- 2020-11-02 US US17/087,154 patent/US11431973B2/en active Active
-
2021
- 2021-04-29 US US17/244,533 patent/US11665344B2/en active Active
-
2023
- 2023-03-31 US US18/194,420 patent/US20230283777A1/en active Pending
- 2023-08-02 JP JP2023126471A patent/JP2023159148A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020061147A1 (en) * | 2018-09-21 | 2020-03-26 | Interdigital Vc Holdings, Inc. | Method and apparatus for video encoding and decoding using bi-prediction |
WO2020073896A1 (en) * | 2018-10-08 | 2020-04-16 | Huawei Technologies Co., Ltd. | Apparatuses and methods for inter prediction of a triangle partition of a coding block |
Non-Patent Citations (3)
Title |
---|
MAX BLASER JOHANNES SAUER: "CE10-related: Bi-directional motion vector storage for triangular prediction", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0581, JPN6022018006, January 2019 (2019-01-01), pages 1 - 4, ISSN: 0004889821 * |
NA ZHANG, ET AL.: "Non-CE4: Simplified motion field storage for TPM", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-O0265, JPN6022018008, June 2019 (2019-06-01), pages 1 - 4, ISSN: 0004889822 * |
RU-LING LIAO AND CHONG SOON LIM: "CE10.3.1.b: Triangular prediction unit mode", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-L0124-v2, JPN6022018007, October 2018 (2018-10-01), pages 1 - 8, ISSN: 0005029421 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022506269A (ja) * | 2018-11-08 | 2022-01-17 | オッポ広東移動通信有限公司 | ビデオ信号符号化/復号方法及びその機器 |
US11825085B2 (en) | 2018-11-08 | 2023-11-21 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method for encoding/decoding image signal and device therefor |
JP7416781B2 (ja) | 2018-11-08 | 2024-01-17 | オッポ広東移動通信有限公司 | ビデオ信号符号化/復号方法及びその機器 |
US11889077B2 (en) | 2018-11-08 | 2024-01-30 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method for encoding/decoding image signal and device therefor |
WO2023199653A1 (ja) * | 2022-04-12 | 2023-10-19 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
WO2023199652A1 (ja) * | 2022-04-12 | 2023-10-19 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111434110A (zh) | 2020-07-17 |
US11665344B2 (en) | 2023-05-30 |
US11265541B2 (en) | 2022-03-01 |
CN112219400A (zh) | 2021-01-12 |
WO2020094078A1 (en) | 2020-05-14 |
CN111418211A (zh) | 2020-07-14 |
KR20210084479A (ko) | 2021-07-07 |
US20210258575A1 (en) | 2021-08-19 |
CN111418210A (zh) | 2020-07-14 |
US20210006788A1 (en) | 2021-01-07 |
CN111418207A (zh) | 2020-07-14 |
WO2020094076A1 (en) | 2020-05-14 |
CN112219400B (zh) | 2024-03-26 |
CN111418207B (zh) | 2024-04-19 |
CN111418205A (zh) | 2020-07-14 |
WO2020094079A1 (en) | 2020-05-14 |
CN111418205B (zh) | 2024-06-21 |
WO2020094075A1 (en) | 2020-05-14 |
WO2020094074A1 (en) | 2020-05-14 |
US11431973B2 (en) | 2022-08-30 |
CN111418211B (zh) | 2024-02-27 |
EP3847814A4 (en) | 2021-07-14 |
CN111418208B (zh) | 2023-12-05 |
EP3847814A1 (en) | 2021-07-14 |
US20210051324A1 (en) | 2021-02-18 |
WO2020094073A1 (en) | 2020-05-14 |
CN111434110B (zh) | 2023-06-20 |
WO2020094077A1 (en) | 2020-05-14 |
JP2023159148A (ja) | 2023-10-31 |
CN117768658A (zh) | 2024-03-26 |
CN111418208A (zh) | 2020-07-14 |
US20230283777A1 (en) | 2023-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022506162A (ja) | 動き情報の位置依存記憶装置 | |
US11070820B2 (en) | Condition dependent inter prediction with geometric partitioning | |
KR102608615B1 (ko) | Hmvp 후보 저장을 위한 표 유지 | |
JP7263529B2 (ja) | デコーダ側精緻化ツールのサイズ選択アプリケーション | |
WO2020140862A1 (en) | Conditional application of inter prediction with geometric partitioning in video processing | |
WO2020143742A1 (en) | Simplified context modeling for context adaptive binary arithmetic coding | |
WO2020244546A1 (en) | Motion information derivation for inter prediction | |
WO2020233513A1 (en) | Motion information determination and storage for video processing | |
WO2020224639A1 (en) | Improvement on hmvp table |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230810 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230901 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230922 |