JP2018506908A - サブ予測ユニットベース高度時間動きベクトル予測 - Google Patents
サブ予測ユニットベース高度時間動きベクトル予測 Download PDFInfo
- Publication number
- JP2018506908A JP2018506908A JP2017538966A JP2017538966A JP2018506908A JP 2018506908 A JP2018506908 A JP 2018506908A JP 2017538966 A JP2017538966 A JP 2017538966A JP 2017538966 A JP2017538966 A JP 2017538966A JP 2018506908 A JP2018506908 A JP 2018506908A
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- block
- motion vector
- atmvp
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 484
- 230000002123 temporal effect Effects 0.000 title claims abstract description 187
- 238000000034 method Methods 0.000 claims description 145
- 238000003860 storage Methods 0.000 claims description 49
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 description 43
- 238000013139 quantization Methods 0.000 description 24
- 238000005192 partition Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 238000013138 pruning Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000009795 derivation Methods 0.000 description 9
- 238000000638 solvent extraction Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000001174 ascending effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 102100027397 Cilia- and flagella-associated protein 100 Human genes 0.000 description 1
- 102100022183 E3 ubiquitin-protein ligase MIB1 Human genes 0.000 description 1
- 101000725206 Homo sapiens Cilia- and flagella-associated protein 100 Proteins 0.000 description 1
- 101000973503 Homo sapiens E3 ubiquitin-protein ligase MIB1 Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
・1つの16×16MB区分
・2つの16×8MB区分
・2つの8×16MB区分
・4つの8×8MB区分
[0030]1つのMB中の異なるMB区分は、各方向について異なる参照インデックス値(RefPicList0またはRefPicList1)を有し得る。
・1つの8×8サブブロック
・2つの8×4サブブロック
・2つの4×8サブブロック
・4つの4×4サブブロック
[0033]各サブブロックは、各方向に異なる動きベクトルを有することができる。したがって、動きベクトルは、サブブロックよりも高いか等しいレベルにおいて存在する。
1.ATMVP候補はTMVPのような追加の候補として挿入され得るが、そのようなATMVP候補の位置、ならびにより高いコーディング効率を達成するためのTMVP候補との相互作用は、知られていない。
2.ATMVP候補の利用可能性をどのように定義すべきかは明らかでなく、それは、ATMVP候補が利用不可能であり、したがってATMVP候補に挿入され得るかどうかを決定するためにすべてのサブPUのすべての動きベクトルが検査されるべきである場合、極めて複雑であろう。
3.ATMVP候補を用いたプルーニングプロセスが必要とされ得るが、そのような候補を用いたプルーニングは複雑であり得る。
4.コーディング効率と複雑さとの間の最良のトレードオフを達成するための、ATMVP候補のための様々な他の設計詳細は、未知のままである。
a.空間候補およびTMVP候補が、ある順序でマージ候補リストに挿入されると仮定する。ATMVP候補は、それらの候補の任意の比較的固定された位置中に挿入され得る。
[0075]atmvp_sub_pu_sizeがSPS中に存在し得る。
[0088]変数mtSrcPOCを、TMVPにおいて使用されるコロケートされたピクチャのPOC値に設定し、tVをゼロベクトルに設定し、atmvpAvaFlagは0に設定される。
・現在スライスがBスライスである場合、両端値を含む、dir〜(1−dir)に等しいXについて、または、現在スライスがBスライスでない場合、ただ0に等しいXについて、以下が適用される。
・tVがMVLX[N]に等しく設定される、
・atmvpAvaFlagが1に設定される、
・このプロセスを終了する。
ピクチャのリストを、空のリストであるべきCanPicATMVPであるように設定する。
CanPicATMVP[0]が、mtSrcPOCに等しいPOC値をもつピクチャであるように設定される。
iが1に等しく設定される、
MotionSrcPicは、空のピクチャであり、以下で指定されているように更新され得る。
利用可能な参照ピクチャリストXの各々について、以下が適用される。
・現在スライスがBスライスである場合、両端値を含む、dir〜(1−dir)に等しいXについて、または、現在スライスがBスライスでない場合、ただ0に等しいXについて、以下が適用される。
・CanPicATMVP[i++]=RefPicListX[idx];
(CurrPosX,CurrPosY)を現在PUの左上ピクセル位置の座標とする。
両端値を含む、0〜iに等しいnについて、以下が適用される。
・他の場合(nが0に等しい)、tScaledVectorはtVに等しく設定される。
・centerPosY=CurrPosY+=((tScaledVector[1]+2)>>2);
・(centerPosX,centerPosY)を、中心サブPUの対応するブロックを識別する位置とし、現在PUサイズを、幅×高さとする。
(min(spuWidth, width)>>1);
・centerPosY+=CurrPosX+((height/spuHeight)>>1)*spuHeight+
(min(spuHeight, height)>>1);
・入力として、CanPicATMVP[n]に等しいピクチャmtnSrcPic、および(centerPosX,centerPosY)に等しい位置(posX,posY)をもつ、ならびに、出力として、サブPU動き利用可能フラグSubPuMtnAvaFlag、参照インデックスsColRefIdx0とsColRefIdx1とのペア、および動きベクトル、sColMV0、sColMV1のペアをもつ、動き情報を捕捉する動き情報フェッチングプロセスを呼び出す。
・tVがtScaledVectorであるように設定される
・このループを終了する。
このプロセスの入力は、ピクチャmtnSrcPicおよびそのピクチャを用いた位置(posX,posY)であり、このプロセスの出力は、動き利用可能フラグmtnAvaFlag、参照インデックスrefIdx0とrefIdx1とのペア、および動きベクトル、mv0、mv1のペアである。
(posX,posY)は、最初に、ピクチャmtnSrcPic内にあるようにクリッピングされる。
位置(posX,posY)を含んでいる、4×4(または動き情報を記憶している他の最も小さいサイズ)ブロックblkTが識別される。
mtnAvaFlagは0に等しく設定される。
blkTがイントラコーディングされず、それの動き情報が、blkTRefIdx0と、blkTRefIdx1と、blkTMv0と、blkTMv1とを含んでいる場合、以下が適用される。
・mvXがblkTMvXに等しく設定される
[0092]ATMVPのためのサブPU動きの生成:
SubPuMtnAvaFlagが1に等しい場合、以下のプロセスが呼び出される。
[以下、イタリック体のテキスト]
・tempPosX+=((tV[0’]+2)>>2);
・tempPosY+=((tV[l]+2)>>2);
・入力として、MotionSrcPicに等しいピクチャmtnSrcPic、および(tempPosX,tempPosY)に等しい位置(posX,posY)をもつ、ならびに、出力として、サブPU動き利用可能フラグcurrSubPuMtnAvaFlag、参照インデックスcurrSubRefIdx0とcurrSubRefIdx1とのペア、および動きベクトル、currSubMV0、currSubMV1のペアをもつ、動き情報を捕捉する動き情報フェッチングプロセスを呼び出す。
現在サブPUのための導出された参照インデックスおよび動きベクトルをcSpuRefIdxXおよびcSpuMVXとして示し、それらは以下のように導出される。
・cSpuMVXは、TMVPの場合と同様に、currSubMVXのスケーリングされたベクトルであるように設定される。
このATMVP候補のための(0または1に等しいXについての)動き情報の代表的セット、aRefIdxXおよびaMVXは、以下のように導出される:
・aRefIdxX=(cColRefIdxX>=0 ? 0:-1);
・aMVXは、TMVPの場合と同様に、cColMVXのスケーリングされたベクトルであるように設定される。
[以下、イタリック体のテキスト]
代替的に、動きフェッチングプロセスおよび動きスケーリングプロセスは、HEVCバージョン1のTMVPの場合と同じ(または同様)であり、すなわち、HEVCバージョン1のサブクローズ8.5.3.2.8:「コロケートされた動きベクトルのための導出プロセス」が、このサブセクション中のハイライトされたテキストに取って代わるために適用される。この場合、TMVP(サブクローズ8.5.3.2.8)の場合のような動きフェッチングプロセスおよび動きスケーリングプロセスが、(イタリック体のテキスト(なお、[以下、イタリック体のテキスト]と[以上、イタリック体のテキスト]とで囲まれた範囲にイタリック体で示されたテキストを示す。)によって示されるようなものを含む)上記で定義された動きフェッチングプロセスおよび動きスケーリングプロセスに取って代わる。
[以上、イタリック体のテキスト]
[0093]マージ候補リストへのATMVP候補の挿入:
[0094]SubPuMtnAvaFlagが1に等しいとき、ATMVP候補は、[以下、イタリック体のテキスト]A0(または代替的に[以上、イタリック体のテキスト]B0)候補がテストされ、場合によってはマージ候補リストに挿入された後、マージ候補に挿入される。
1.第1のステージにおけるベクトルは、現在PUの空間および時間隣接ブロックから導出され得る。
2.このプロセスは、すべての他のマージ候補のうちの1つのマージ候補をアクティブにすることとして達成され得る。
1.ベクトル導出の第1のステージはまた、ただゼロベクトルによって簡略化され得る。
2.ベクトル導出の第1のステージは、動きベクトルとそれの関連するピクチャとを一緒に識別することを含み得る。関連するピクチャを選択し、さらに、動きベクトルが第1ステージベクトルであると決める、様々な方法が提案されている。
3.上記のプロセス中の動き情報が利用不可能である場合、「第1ステージベクトル」は、置換のために使用される。
4.時間ネイバーから識別された動きベクトルは、TMVPにおける動きベクトルスケーリングと同様の方法で、現在サブPUのために使用されるようにスケーリングされなければならない。しかしながら、そのような動きベクトルがどの参照ピクチャにスケーリングされ得るかは、以下の方法のうちの1つを用いて設計され得る。
図10の例では、ビデオエンコーダ20がマージモードを使用して動き情報を符号化することを選んだと仮定される。概して、ビデオエンコーダ20(より詳細には、モード選択ユニット40)は、候補リスト中の候補のうちのどれが最良のレートひずみ特性を生じるかを決定し、ブロックを予測するために使用されるようにその候補を選択し得る。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を備える、方法。
[C2]
前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を備える、C1に記載の方法。
[C3]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定することを備える、C2に記載の方法。
[C4]
前記マージ候補リストを形成することは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成することを備える、C1に記載の方法。
[C5]
動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成することを備える、C4に記載の方法。
[C6]
動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成することを備える、C4に記載の方法。
[C7]
前記マージ候補リストを形成することは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を備える、C1に記載の方法。
[C8]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C7に記載の方法。
[C9]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C7に記載の方法。
[C10]
前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択することをさらに備える、C7に記載の方法。
[C11]
前記マージ候補リストを形成することは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を備える、C1に記載の方法。
[C12]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングする、C11に記載の方法。
[C13]
前記インデックスをコーディングすることは、前記インデックスを復号することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を備える、C1に記載の方法。
[C14]
前記インデックスをコーディングすることは、前記インデックスを符号化することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を備える、C1に記載の方法。
[C15]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
ビデオコーダと、を備え、前記ビデオコーダは、
前記ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行うように構成された、デバイス。
[C16]
前記マージ候補リストを形成するために、前記ビデオコーダは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行うように構成された、C15に記載のデバイス。
[C17]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するために、前記ビデオコーダは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するように構成された、C16に記載のデバイス。
[C18]
前記マージ候補リストを形成するために、前記ビデオコーダは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するように構成された、C15に記載のデバイス。
[C19]
動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するように構成された、C18に記載のデバイス。
[C20]
動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するように構成された、C18に記載のデバイス。
[C21]
前記マージ候補リストを形成するために、前記ビデオコーダは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行うように構成された、C15に記載のデバイス。
[C22]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C21に記載のデバイス。
[C23]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C21に記載のデバイス。
[C24]
前記ビデオコーダは、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するようにさらに構成された、C21に記載のデバイス。
[C25]
前記マージ候補リストを形成するために、前記ビデオコーダは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行うように構成された、C15に記載のデバイス。
[C26]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記ビデオコーダは、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定することと、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングすることとを行うように構成された、C25に記載のデバイス。
[C27]
前記ビデオコーダは、前記インデックスを復号するように構成されたビデオデコーダを備え、前記現在ブロックをコーディングするために、前記ビデオデコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行うように構成された、C15に記載のデバイス。
[C28]
前記ビデオコーダは、前記インデックスを符号化するように構成されたビデオエンコーダを備え、前記現在ブロックをコーディングするために、前記ビデオエンコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行うように構成された、C15に記載のデバイス。
[C29]
前記デバイスは、
集積回路、
マイクロプロセッサ、または
ワイヤレス通信デバイス、
のうちの少なくとも1つを備える、C15に記載のデバイス。
[C30]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成するための手段と、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングするための手段と、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングするための手段と、
を備える、デバイス。
[C31]
前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成するための手段と、
を備える、C30に記載のデバイス。
[C32]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための前記手段は、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するための手段を備える、C31に記載のデバイス。
[C33]
前記マージ候補リストを形成するための前記手段は、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するための手段を備える、C30に記載のデバイス。
[C34]
動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するための手段を備える、C33に記載のデバイス。
[C35]
動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するための手段を備える、C33に記載のデバイス。
[C36]
前記マージ候補リストを形成するための前記手段は、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加するための手段と、
前記第1のATMVP候補が利用可能でないとき、第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能でないとき、前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加するための手段と、
を備える、C30に記載のデバイス。
[C37]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C36に記載のデバイス。
[C38]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C36に記載のデバイス。
[C39]
前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するための手段をさらに備える、C36に記載のデバイス。
[C40]
前記マージ候補リストを形成するための前記手段は、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定するための手段と、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加するための手段と、
を備える、C30に記載のデバイス。
[C41]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングするための手段をさらに備える、C40に記載のデバイス。
[C42]
前記インデックスをコーディングするための前記手段は、前記インデックスを復号するための手段を備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックのための残差情報を復号するための手段と、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号するための手段と、
を備える、C30に記載のデバイス。
[C43]
前記インデックスをコーディングするための前記手段は、前記インデックスを符号化することを備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成するための手段と、
前記残差情報を符号化するための手段と、
を備える、C30に記載のデバイス。
[C44]
実行されたとき、プロセッサに、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C45]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C46]
前記プロセッサに、動き情報が前記対応するブロックのために利用可能であるかどうかを決定させる前記命令は、前記プロセッサに、前記対応するブロックの一部分がイントラ予測されるかどうかを決定させる命令を備える、C45に記載のコンピュータ可読記憶媒体。
[C47]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成させる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C48]
前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成させる命令を備える、C47に記載のコンピュータ可読記憶媒体。
[C49]
前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成させる命令を備える、C47に記載のコンピュータ可読記憶媒体。
[C50]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C51]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C50に記載のコンピュータ可読記憶媒体。
[C52]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C50に記載のコンピュータ可読記憶媒体。
[C53]
前記プロセッサに、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択させる命令をさらに備える、C50に記載のコンピュータ可読記憶媒体。
[C54]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C55]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記命令は、前記プロセッサに、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定させ、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングさせる、C54に記載のコンピュータ可読記憶媒体。
[C56]
前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記プロセッサに前記インデックスを復号させる命令を備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C57]
前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記インデックスを符号化することを備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
Claims (57)
- ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を備える、方法。 - 前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を備える、請求項1に記載の方法。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定することは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定することを備える、請求項2に記載の方法。
- 前記マージ候補リストを形成することは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成することを備える、請求項1に記載の方法。
- 動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成することを備える、請求項4に記載の方法。
- 動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成することを備える、請求項4に記載の方法。
- 前記マージ候補リストを形成することは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を備える、請求項1に記載の方法。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項7に記載の方法。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項7に記載の方法。
- 前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択することをさらに備える、請求項7に記載の方法。
- 前記マージ候補リストを形成することは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を備える、請求項1に記載の方法。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングする、請求項11に記載の方法。
- 前記インデックスをコーディングすることは、前記インデックスを復号することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を備える、請求項1に記載の方法。 - 前記インデックスをコーディングすることは、前記インデックスを符号化することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を備える、請求項1に記載の方法。 - ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
ビデオコーダと、を備え、前記ビデオコーダは、
前記ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行うように構成された、デバイス。 - 前記マージ候補リストを形成するために、前記ビデオコーダは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行うように構成された、請求項15に記載のデバイス。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定するために、前記ビデオコーダは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するように構成された、請求項16に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するように構成された、請求項15に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するように構成された、請求項18に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するように構成された、請求項18に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項21に記載のデバイス。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項21に記載のデバイス。
- 前記ビデオコーダは、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するようにさらに構成された、請求項21に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記ビデオコーダは、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定することと、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングすることとを行うように構成された、請求項25に記載のデバイス。
- 前記ビデオコーダは、前記インデックスを復号するように構成されたビデオデコーダを備え、前記現在ブロックをコーディングするために、前記ビデオデコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記ビデオコーダは、前記インデックスを符号化するように構成されたビデオエンコーダを備え、前記現在ブロックをコーディングするために、前記ビデオエンコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記デバイスは、
集積回路、
マイクロプロセッサ、または
ワイヤレス通信デバイス、
のうちの少なくとも1つを備える、請求項15に記載のデバイス。 - ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成するための手段と、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングするための手段と、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングするための手段と、
を備える、デバイス。 - 前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成するための手段と、
を備える、請求項30に記載のデバイス。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための前記手段は、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するための手段を備える、請求項31に記載のデバイス。
- 前記マージ候補リストを形成するための前記手段は、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するための手段を備える、請求項30に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するための手段を備える、請求項33に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するための手段を備える、請求項33に記載のデバイス。
- 前記マージ候補リストを形成するための前記手段は、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加するための手段と、
前記第1のATMVP候補が利用可能でないとき、第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能でないとき、前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加するための手段と、
を備える、請求項30に記載のデバイス。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項36に記載のデバイス。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項36に記載のデバイス。
- 前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するための手段をさらに備える、請求項36に記載のデバイス。
- 前記マージ候補リストを形成するための前記手段は、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定するための手段と、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加するための手段と、
を備える、請求項30に記載のデバイス。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングするための手段をさらに備える、請求項40に記載のデバイス。
- 前記インデックスをコーディングするための前記手段は、前記インデックスを復号するための手段を備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックのための残差情報を復号するための手段と、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号するための手段と、
を備える、請求項30に記載のデバイス。 - 前記インデックスをコーディングするための前記手段は、前記インデックスを符号化することを備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成するための手段と、
前記残差情報を符号化するための手段と、
を備える、請求項30に記載のデバイス。 - 実行されたとき、プロセッサに、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行わせる命令を記憶したコンピュータ可読記憶媒体。 - 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記プロセッサに、動き情報が前記対応するブロックのために利用可能であるかどうかを決定させる前記命令は、前記プロセッサに、前記対応するブロックの一部分がイントラ予測されるかどうかを決定させる命令を備える、請求項45に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成させる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成させる命令を備える、請求項47に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成させる命令を備える、請求項47に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項50に記載のコンピュータ可読記憶媒体。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項50に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択させる命令をさらに備える、請求項50に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記命令は、前記プロセッサに、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定させ、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングさせる、請求項54に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記プロセッサに前記インデックスを復号させる命令を備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記インデックスを符号化することを備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562107933P | 2015-01-26 | 2015-01-26 | |
US62/107,933 | 2015-01-26 | ||
US15/005,564 | 2016-01-25 | ||
US15/005,564 US11477477B2 (en) | 2015-01-26 | 2016-01-25 | Sub-prediction unit based advanced temporal motion vector prediction |
PCT/US2016/014875 WO2016123081A1 (en) | 2015-01-26 | 2016-01-26 | Sub-prediction unit based advanced temporal motion vector prediction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018506908A true JP2018506908A (ja) | 2018-03-08 |
JP2018506908A5 JP2018506908A5 (ja) | 2019-02-14 |
JP6636530B2 JP6636530B2 (ja) | 2020-01-29 |
Family
ID=56433539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017538966A Active JP6636530B2 (ja) | 2015-01-26 | 2016-01-26 | サブ予測ユニットベース高度時間動きベクトル予測 |
Country Status (13)
Country | Link |
---|---|
US (1) | US11477477B2 (ja) |
EP (1) | EP3251361B1 (ja) |
JP (1) | JP6636530B2 (ja) |
KR (1) | KR102102029B1 (ja) |
CN (1) | CN107211156B (ja) |
BR (1) | BR112017015890B1 (ja) |
CA (1) | CA2971636C (ja) |
EA (1) | EA035270B1 (ja) |
ES (1) | ES2755573T3 (ja) |
HU (1) | HUE047034T2 (ja) |
TN (1) | TN2017000288A1 (ja) |
TW (1) | TWI696382B (ja) |
WO (1) | WO2016123081A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
JP2021516006A (ja) * | 2018-07-02 | 2021-06-24 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2021517798A (ja) * | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2021530165A (ja) * | 2018-07-02 | 2021-11-04 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
JP2022532670A (ja) * | 2019-05-17 | 2022-07-15 | 華為技術有限公司 | インター予測方法および装置 |
WO2024078331A1 (en) * | 2022-10-14 | 2024-04-18 | Mediatek Inc. | Method and apparatus of subblock-based motion vector prediction with reordering and refinement in video coding |
Families Citing this family (115)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US10187653B2 (en) * | 2015-05-18 | 2019-01-22 | Avago Technologies International Sales Pte. Limited | Motor vector prediction using co-located prediction units |
US10623767B2 (en) * | 2015-10-19 | 2020-04-14 | Lg Electronics Inc. | Method for encoding/decoding image and device therefor |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
CN116708783A (zh) * | 2016-07-12 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
US10721489B2 (en) | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
US10477238B2 (en) | 2016-09-07 | 2019-11-12 | Qualcomm Incorporated | Sub-PU based bi-directional motion compensation in video coding |
US10812791B2 (en) * | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
WO2018061522A1 (ja) * | 2016-09-27 | 2018-04-05 | シャープ株式会社 | 動きベクトル生成装置、予測画像生成装置、動画像復号装置、および動画像符号化装置 |
KR102531386B1 (ko) * | 2016-10-04 | 2023-05-12 | 주식회사 비원영상기술연구소 | 영상 데이터 부호화/복호화 방법 및 장치 |
CN106507111B (zh) * | 2016-11-17 | 2019-11-15 | 上海兆芯集成电路有限公司 | 使用残差补偿的视频编码方法以及使用该方法的装置 |
US20210136400A1 (en) * | 2016-11-29 | 2021-05-06 | Mediatek Inc. | Method and apparatus of merge mode derivation for video coding |
DE112018002561B3 (de) | 2017-04-21 | 2022-01-05 | Zenimax Media Inc. | Systeme und Verfahren zur Spielereingabe-Bewegungskompensation in einem Client-Server-Videospiel |
TWI646823B (zh) * | 2017-04-27 | 2019-01-01 | 晨星半導體股份有限公司 | 視訊壓縮方法及視訊壓縮裝置 |
CN110546956B (zh) * | 2017-06-30 | 2021-12-28 | 华为技术有限公司 | 一种帧间预测的方法及装置 |
CN111567045A (zh) | 2017-10-10 | 2020-08-21 | 韩国电子通信研究院 | 使用帧间预测信息的方法和装置 |
WO2019074273A1 (ko) * | 2017-10-10 | 2019-04-18 | 한국전자통신연구원 | 인터 예측 정보를 사용하는 방법 및 장치 |
US10785494B2 (en) * | 2017-10-11 | 2020-09-22 | Qualcomm Incorporated | Low-complexity design for FRUC |
US20190116374A1 (en) * | 2017-10-17 | 2019-04-18 | Qualcomm Incorporated | Coding motion information of video data using coding structure-based candidate list construction |
EP3711299A1 (en) * | 2017-11-14 | 2020-09-23 | Qualcomm Incorporated | Unified merge candidate list usage |
TW201924349A (zh) * | 2017-11-17 | 2019-06-16 | 晨星半導體股份有限公司 | 與移動補償相關之影像處理裝置及影像處理方法 |
US10623746B2 (en) * | 2017-12-07 | 2020-04-14 | Tencent America LLC | Method and apparatus for video coding |
WO2020065520A2 (en) | 2018-09-24 | 2020-04-02 | Beijing Bytedance Network Technology Co., Ltd. | Extended merge prediction |
CN108347616B (zh) * | 2018-03-09 | 2020-02-14 | 中南大学 | 一种基于可选时域运动矢量预测的深度预测方法及装置 |
WO2019194502A1 (ko) * | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
WO2019199141A1 (ko) * | 2018-04-13 | 2019-10-17 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
US11297348B2 (en) * | 2018-04-13 | 2022-04-05 | Mediatek Inc. | Implicit transform settings for coding a block of pixels |
US10999604B2 (en) | 2018-04-13 | 2021-05-04 | Mediatek Inc. | Adaptive implicit transform setting |
US10397603B1 (en) * | 2018-05-08 | 2019-08-27 | Tencent America LLC | Method and apparatus for video coding |
KR20190134521A (ko) | 2018-05-24 | 2019-12-04 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
US11109025B2 (en) * | 2018-06-04 | 2021-08-31 | Tencent America LLC | Method and apparatus for sub-block based temporal motion vector prediction |
CN115550664B (zh) * | 2018-06-04 | 2023-08-22 | 华为技术有限公司 | 获取运动矢量的方法和装置 |
WO2019234598A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between ibc and stmvp |
KR20210022617A (ko) | 2018-06-21 | 2021-03-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 칼라 컴포넌트 간의 서브 블록 mv 상속 |
CN110636298B (zh) | 2018-06-21 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 对于Merge仿射模式和非Merge仿射模式的统一约束 |
CN112369032A (zh) | 2018-06-27 | 2021-02-12 | Vid拓展公司 | 用于降低解码器侧运动修正的译码等待时间的方法和装置 |
KR20240007298A (ko) | 2018-06-29 | 2024-01-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
GB2588531B (en) | 2018-06-29 | 2023-02-01 | Beijing Bytedance Network Tech Co Ltd | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
TWI752331B (zh) | 2018-06-29 | 2022-01-11 | 大陸商北京字節跳動網絡技術有限公司 | 當向Merge/AMVP添加HMVP候選時的部分/完全修剪 |
TWI728390B (zh) | 2018-06-29 | 2021-05-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表尺寸 |
EP3794824A1 (en) | 2018-06-29 | 2021-03-24 | Beijing Bytedance Network Technology Co. Ltd. | Conditions for updating luts |
KR102627814B1 (ko) * | 2018-06-29 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 룩업 테이블의 업데이트: fifo, 제약된 fifo |
CN114125450B (zh) | 2018-06-29 | 2023-11-17 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
CN114466197A (zh) | 2018-06-29 | 2022-05-10 | 北京字节跳动网络技术有限公司 | 用于查找表更新的编码的运动信息的选择 |
TWI719526B (zh) | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表的更新 |
CN112544077B (zh) * | 2018-07-16 | 2023-12-08 | Lg电子株式会社 | 用于子块单元中的时间运动信息预测的帧间预测方法及其装置 |
WO2020017892A1 (ko) * | 2018-07-17 | 2020-01-23 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 벡터 예측을 위한 방법 및 그 장치 |
CN112425172A (zh) | 2018-07-18 | 2021-02-26 | 北京达佳互联信息技术有限公司 | 使用基于历史的运动向量预测进行视频编码的方法和装置 |
KR20210115053A (ko) * | 2018-07-27 | 2021-09-24 | 삼성전자주식회사 | 서브 블록 기반으로 영상을 복호화하는 방법 및 장치, 부호화 방법 및 장치 |
CN117692632A (zh) * | 2018-07-31 | 2024-03-12 | 寰发股份有限公司 | 用于视频编解码的利用运动向量差的合并方法和装置 |
CN110868601B (zh) | 2018-08-28 | 2024-03-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
CN117336483A (zh) * | 2018-08-28 | 2024-01-02 | 华为技术有限公司 | 编码方法、解码方法以及编码装置、解码装置 |
CN113242432B (zh) * | 2018-08-29 | 2022-01-25 | 北京达佳互联信息技术有限公司 | 视频解码的方法、计算设备和存储介质 |
JP7157152B2 (ja) * | 2018-09-12 | 2022-10-19 | エルジー エレクトロニクス インコーポレイティド | 画像コーディングシステムにおけるサブブロック単位の動き予測に基づく画像デコーディング方法及び装置 |
TWI820211B (zh) * | 2018-09-12 | 2023-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 取決於總數減去k的開始檢查hmvp候選的條件 |
GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
WO2020061395A1 (en) * | 2018-09-21 | 2020-03-26 | Interdigital Vc Holdings, Inc. | Motion vector prediction in video encoding and decoding |
WO2020060344A1 (ko) * | 2018-09-21 | 2020-03-26 | 엘지전자 주식회사 | 영상 신호를 처리하기 위한 방법 및 장치 |
CN112806010A (zh) * | 2018-10-02 | 2021-05-14 | 交互数字Vc控股公司 | 使用预测子候选列表进行视频编码和解码的方法和装置 |
CN111010571B (zh) | 2018-10-08 | 2023-05-16 | 北京字节跳动网络技术有限公司 | 组合仿射Merge候选的生成和使用 |
US11051034B2 (en) * | 2018-10-08 | 2021-06-29 | Qualcomm Incorporated | History-based motion vector predictor |
WO2020076069A1 (ko) * | 2018-10-08 | 2020-04-16 | 엘지전자 주식회사 | Atmvp 후보를 기반으로 영상 코딩을 수행하는 장치 |
GB2578150C (en) | 2018-10-18 | 2022-05-18 | Canon Kk | Video coding and decoding |
GB2595054B (en) | 2018-10-18 | 2022-07-06 | Canon Kk | Video coding and decoding |
WO2020084475A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Utilization of refined motion vector |
WO2020084554A1 (en) * | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Searching based motion candidate derivation for sub-block motion vector prediction |
CN117768658A (zh) * | 2018-11-06 | 2024-03-26 | 北京字节跳动网络技术有限公司 | 依赖位置的对运动信息的存储 |
WO2020094149A1 (en) | 2018-11-10 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Rounding in triangular prediction mode |
EP3857879A4 (en) | 2018-11-12 | 2022-03-16 | Beijing Bytedance Network Technology Co., Ltd. | SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION |
JP7231729B2 (ja) * | 2018-11-13 | 2023-03-01 | 北京字節跳動網絡技術有限公司 | イントラブロックコピーのための履歴ベース動き候補リスト構築 |
CN113273208A (zh) * | 2018-11-14 | 2021-08-17 | 北京字节跳动网络技术有限公司 | 仿射预测模式的改进 |
KR20210091161A (ko) | 2018-11-20 | 2021-07-21 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 부분적 위치에 기반한 차분 계산 |
KR20240024335A (ko) * | 2018-11-22 | 2024-02-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브 블록 기반 인터 예측을 위한 조정 방법 |
CN113196772A (zh) | 2018-11-29 | 2021-07-30 | 北京字节跳动网络技术有限公司 | 块内拷贝模式和基于子块的运动矢量预测模式之间的交互 |
CN117880495A (zh) | 2018-12-03 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 候选的最大数量的指示方法 |
US11122288B2 (en) * | 2018-12-06 | 2021-09-14 | Qualcomm Incorporated | Spatio-temporal motion vector prediction patterns for video coding |
CN116668685A (zh) * | 2018-12-12 | 2023-08-29 | Lg电子株式会社 | 图像编解码设备执行的处理视频信号的方法和发送方法 |
WO2020130520A1 (ko) * | 2018-12-16 | 2020-06-25 | 엘지전자 주식회사 | 화면간 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치 |
KR20210103558A (ko) * | 2018-12-28 | 2021-08-23 | 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) | 움직임 벡터 예측자 리스트의 생성 |
JP2020108083A (ja) * | 2018-12-28 | 2020-07-09 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
CN113316936A (zh) * | 2018-12-29 | 2021-08-27 | Vid拓展公司 | 基于历史的运动向量预测 |
WO2020141886A1 (ko) * | 2019-01-02 | 2020-07-09 | 엘지전자 주식회사 | Sbtmvp 기반 인터 예측 방법 및 장치 |
WO2020140243A1 (zh) | 2019-01-03 | 2020-07-09 | 北京大学 | 视频图像处理方法与装置 |
CN111357288B (zh) * | 2019-01-03 | 2021-08-31 | 深圳市大疆创新科技有限公司 | 视频图像处理方法与装置 |
CN116866605A (zh) * | 2019-01-03 | 2023-10-10 | 北京大学 | 视频处理方法和装置 |
JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
KR102635518B1 (ko) | 2019-03-06 | 2024-02-07 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 변환된 단예측 후보의 사용 |
US20200288175A1 (en) * | 2019-03-06 | 2020-09-10 | Qualcomm Incorporated | Signaling of triangle merge mode indexes in video coding |
WO2020184461A1 (ja) * | 2019-03-08 | 2020-09-17 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
CN112969072B (zh) | 2019-03-11 | 2022-08-26 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
WO2020182147A1 (en) * | 2019-03-11 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Improvement on motion candidate list construction |
CN113615193B (zh) | 2019-03-22 | 2024-06-25 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
EP3954119A4 (en) * | 2019-05-21 | 2022-06-22 | Beijing Bytedance Network Technology Co., Ltd. | SYNTAX SIGNALING IN A SUBBLOCK MERGE MODE |
JP7346599B2 (ja) | 2019-06-04 | 2023-09-19 | 北京字節跳動網絡技術有限公司 | ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 |
JP7425808B2 (ja) | 2019-06-04 | 2024-01-31 | 北京字節跳動網絡技術有限公司 | 動き候補リスト構築プロセスの条件付き実行 |
KR102662603B1 (ko) | 2019-06-06 | 2024-04-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩을 위한 움직임 후보 리스트 구성 |
WO2020247761A1 (en) * | 2019-06-07 | 2020-12-10 | Beijing Dajia Internet Information Technology Co., Ltd. | Sub-block temporal motion vector prediction for video coding |
WO2020252422A1 (en) * | 2019-06-13 | 2020-12-17 | Beijing Dajia Internet Information Technology Co., Ltd. | Motion vector prediction for video coding |
WO2020251319A1 (ko) * | 2019-06-13 | 2020-12-17 | 엘지전자 주식회사 | Sbtmvp를 이용한 인터 예측 기반 영상 또는 비디오 코딩 |
CN112118447B (zh) * | 2019-06-19 | 2023-06-20 | 华为技术有限公司 | 融合候选运动信息列表的构建方法、装置及编解码器 |
KR20240036121A (ko) | 2019-06-24 | 2024-03-19 | 엘지전자 주식회사 | 영상 디코딩 방법 및 그 장치 |
CN114026871A (zh) * | 2019-06-24 | 2022-02-08 | 鸿颖创新有限公司 | 用于对视频数据编码的装置和方法 |
WO2021008514A1 (en) | 2019-07-14 | 2021-01-21 | Beijing Bytedance Network Technology Co., Ltd. | Indication of adaptive loop filtering in adaptation parameter set |
CN114208184A (zh) | 2019-08-13 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测中的运动精度 |
CN110740317B (zh) * | 2019-09-18 | 2021-10-15 | 浙江大华技术股份有限公司 | 子块运动预测、编码方法、编码器及存储装置 |
WO2021052507A1 (en) | 2019-09-22 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Sub-picture coding and decoding of video |
CN114450959A (zh) | 2019-09-28 | 2022-05-06 | 北京字节跳动网络技术有限公司 | 视频编解码中的几何分割模式 |
KR20220070530A (ko) * | 2019-10-10 | 2022-05-31 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 삼각형 분할을 이용한 비디오 코딩을 위한 방법 및 장치 |
CN110691253B (zh) * | 2019-10-17 | 2022-03-01 | 北京大学深圳研究生院 | 一种基于帧间预测的编解码方法及装置 |
CN114631317B (zh) | 2019-10-18 | 2024-03-15 | 北京字节跳动网络技术有限公司 | 子图片的参数集信令中的语法约束 |
WO2021133899A1 (en) * | 2019-12-24 | 2021-07-01 | Beijing Dajia Internet Information Technology Co., Ltd. | Motion estimation region for the merge candidates |
US11375231B2 (en) * | 2020-01-14 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
US20230104476A1 (en) * | 2021-10-05 | 2023-04-06 | Tencent America LLC | Grouping based adaptive reordering of merge candidate |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013067938A1 (en) * | 2011-11-07 | 2013-05-16 | LI, Yingjin | Method of constructing merge list |
WO2014055833A1 (en) * | 2012-10-04 | 2014-04-10 | Qualcomm Incorporated | Inter-view predicted motion vector for 3d video |
WO2015048459A1 (en) * | 2013-09-26 | 2015-04-02 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120287999A1 (en) | 2011-05-11 | 2012-11-15 | Microsoft Corporation | Syntax element prediction in error correction |
PL4009641T3 (pl) | 2011-09-09 | 2024-02-26 | Lg Electronics Inc. | Sposób dekodowania obrazu, sposób kodowania obrazu, sposób przesyłania danych dla informacji obrazu, odczytywalny komputerowo nośnik przechowujący strumień bitów obejmujący zakodowane informacje obrazu |
US9736489B2 (en) * | 2011-09-17 | 2017-08-15 | Qualcomm Incorporated | Motion vector determination for video coding |
US9571833B2 (en) | 2011-11-04 | 2017-02-14 | Nokia Technologies Oy | Method for coding and an apparatus |
US9729873B2 (en) | 2012-01-24 | 2017-08-08 | Qualcomm Incorporated | Video coding using parallel motion estimation |
US9325990B2 (en) | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
CN103841425B (zh) | 2012-10-08 | 2017-04-05 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
-
2016
- 2016-01-25 US US15/005,564 patent/US11477477B2/en active Active
- 2016-01-26 TN TNP/2017/000288A patent/TN2017000288A1/en unknown
- 2016-01-26 TW TW105102383A patent/TWI696382B/zh active
- 2016-01-26 WO PCT/US2016/014875 patent/WO2016123081A1/en active Application Filing
- 2016-01-26 BR BR112017015890-6A patent/BR112017015890B1/pt active IP Right Grant
- 2016-01-26 EA EA201791449A patent/EA035270B1/ru unknown
- 2016-01-26 EP EP16705364.4A patent/EP3251361B1/en active Active
- 2016-01-26 HU HUE16705364A patent/HUE047034T2/hu unknown
- 2016-01-26 JP JP2017538966A patent/JP6636530B2/ja active Active
- 2016-01-26 CN CN201680006068.8A patent/CN107211156B/zh active Active
- 2016-01-26 ES ES16705364T patent/ES2755573T3/es active Active
- 2016-01-26 KR KR1020177020567A patent/KR102102029B1/ko active IP Right Grant
- 2016-01-26 CA CA2971636A patent/CA2971636C/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013067938A1 (en) * | 2011-11-07 | 2013-05-16 | LI, Yingjin | Method of constructing merge list |
WO2014055833A1 (en) * | 2012-10-04 | 2014-04-10 | Qualcomm Incorporated | Inter-view predicted motion vector for 3d video |
WO2015048459A1 (en) * | 2013-09-26 | 2015-04-02 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
Non-Patent Citations (1)
Title |
---|
JIANLE CHEN ET AL.: "Algorithm Description of Joint Exploration Test Model 1", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 1ND MEETING: G, JPN6019044043, 24 February 2016 (2016-02-24), ISSN: 0004152131 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
JP7382332B2 (ja) | 2017-11-01 | 2023-11-16 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
US11949904B2 (en) | 2018-04-01 | 2024-04-02 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
JP2021517798A (ja) * | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
US11252432B2 (en) | 2018-04-01 | 2022-02-15 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
US11632565B2 (en) | 2018-04-01 | 2023-04-18 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
JP7223111B2 (ja) | 2018-07-02 | 2023-02-15 | 華為技術有限公司 | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
US11711524B2 (en) | 2018-07-02 | 2023-07-25 | Lg Electronics Inc. | Inter-prediction mode-based image processing method and device therefor |
JP2021530165A (ja) * | 2018-07-02 | 2021-11-04 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
JP2021516006A (ja) * | 2018-07-02 | 2021-06-24 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2022532670A (ja) * | 2019-05-17 | 2022-07-15 | 華為技術有限公司 | インター予測方法および装置 |
JP7318007B2 (ja) | 2019-05-17 | 2023-07-31 | 華為技術有限公司 | インター予測方法および装置 |
WO2024078331A1 (en) * | 2022-10-14 | 2024-04-18 | Mediatek Inc. | Method and apparatus of subblock-based motion vector prediction with reordering and refinement in video coding |
Also Published As
Publication number | Publication date |
---|---|
TN2017000288A1 (en) | 2019-01-16 |
EA201791449A1 (ru) | 2017-12-29 |
KR102102029B1 (ko) | 2020-04-17 |
CN107211156B (zh) | 2019-08-30 |
CA2971636C (en) | 2021-10-12 |
EA035270B1 (ru) | 2020-05-22 |
JP6636530B2 (ja) | 2020-01-29 |
KR20170108010A (ko) | 2017-09-26 |
US11477477B2 (en) | 2022-10-18 |
CN107211156A (zh) | 2017-09-26 |
WO2016123081A1 (en) | 2016-08-04 |
US20160219278A1 (en) | 2016-07-28 |
BR112017015890A2 (pt) | 2018-04-10 |
TWI696382B (zh) | 2020-06-11 |
EP3251361B1 (en) | 2019-08-14 |
TW201640893A (zh) | 2016-11-16 |
HUE047034T2 (hu) | 2020-04-28 |
EP3251361A1 (en) | 2017-12-06 |
BR112017015890B1 (pt) | 2023-10-17 |
CA2971636A1 (en) | 2016-08-04 |
ES2755573T3 (es) | 2020-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636530B2 (ja) | サブ予測ユニットベース高度時間動きベクトル予測 | |
JP6766079B2 (ja) | 空間および/または時間動き情報を使用するサブ予測ユニット動きベクトル予測 | |
JP7000565B2 (ja) | ビデオコーディングのためのアフィン予測動き情報をコーディングすること | |
CN109644272B (zh) | 用于建构候选列表的几何型优先级 | |
JP6585200B2 (ja) | ビデオコード化における視差ベクトル予測 | |
JP7229774B2 (ja) | ビデオコーディングのための動きベクトル予測のためのマージ候補 | |
JP6783788B2 (ja) | ビデオコーディングにおけるサブブロックの動き情報の導出 | |
JP2021182743A (ja) | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること | |
JP6215295B2 (ja) | Hevcおよびその拡張における動きベクトルのコーディングおよび双予測 | |
JP6615606B2 (ja) | 3d−hevcに関する視差ベクトル構築方法 | |
JP6258288B2 (ja) | 高効率ビデオコーディングのためのハイレベルシンタックスの拡張 | |
JP5805850B2 (ja) | ビデオコード化における動きベクトル予測 | |
JP6855242B2 (ja) | ビデオコーディングのためのディスパリティベクトルおよび/または高度残差予測 | |
JP2018522466A (ja) | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 | |
JP2018522464A (ja) | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 | |
JP2015515227A (ja) | ビデオコーディングのためのビュー間予測のための視差ベクトル生成 | |
JP2016506185A (ja) | ビデオコーディング拡張規格のための時間動きベクトル予測 | |
OA18314A (en) | Sub-prediction unit based advanced temporal motion vector prediction. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190104 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191018 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |