JP6881788B2 - 映像符号化方法、映像復号方法、および端末 - Google Patents
映像符号化方法、映像復号方法、および端末 Download PDFInfo
- Publication number
- JP6881788B2 JP6881788B2 JP2019515322A JP2019515322A JP6881788B2 JP 6881788 B2 JP6881788 B2 JP 6881788B2 JP 2019515322 A JP2019515322 A JP 2019515322A JP 2019515322 A JP2019515322 A JP 2019515322A JP 6881788 B2 JP6881788 B2 JP 6881788B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- current image
- motion
- image block
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 111
- 230000033001 locomotion Effects 0.000 claims description 1282
- 239000013598 vector Substances 0.000 claims description 865
- 230000002457 bidirectional effect Effects 0.000 claims description 49
- 229910052571 earthenware Inorganic materials 0.000 claims 2
- 230000005540 biological transmission Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000003860 storage Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000009286 beneficial effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012432 intermediate storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013475 authorization Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/533—Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
[項目1]
ビットストリームから、候補予測動き情報リストにおける現在の画像ブロックの予測動き情報のインデックスを取得する段階であって、上記予測動き情報は、参照画像情報および動きベクトル予測値を含み、上記候補予測動き情報リストにおける候補予測動き情報は、時間領域または空間領域における上記現在の画像ブロックの隣接ブロックの動き情報である、段階と、
上記インデックスに基づき、上記候補予測動き情報リストを照会し、発見された上記候補予測動き情報を上記予測動き情報として用いる段階と、
上記予測動き情報に基づき、動きベクトル差と上記動きベクトル予測値との間の対応関係を決定し、上記ビットストリームから上記動きベクトル差を取得する段階と、
上記対応関係に基づき、上記動きベクトル予測値と対応する上記動きベクトル差とを加算し、上記現在の画像ブロックの動きベクトルを取得する段階と
を備える
映像復号方法。
[項目2]
上記予測動き情報に基づき、動きベクトル差と上記動きベクトル予測値との間の対応関係を決定する上記段階は、
上記参照画像情報に基づき、上記現在の画像ブロックの予測モードを決定する段階であって、上記予測モードは、片方向予測または双方向予測を含む、段階と、
上記予測モードに基づき、動きベクトル差の個数を決定する段階と、
上記動きベクトル差の個数と上記予測動き情報とに基づき、上記動きベクトル差と上記動きベクトル予測値との間の上記対応関係を決定する段階とを含む、
項目1に記載の方法。
[項目3]
上記予測モードに基づき、動きベクトル差の個数を決定する上記段階は、
上記予測モードが上記片方向予測である場合、1つの動きベクトル差が存在すると決定する段階、または、
上記予測モードが上記双方向予測であり、かつ、上記参照画像情報が参照画像のピクチャ順序カウントを含む場合、上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定する段階、または、
上記予測モードが上記双方向予測である場合、上記現在の画像ブロックの上記ビットストリーム、上記ビットストリームのスライスレイヤヘッダ情報、上記ビットストリームの画像レイヤヘッダ情報、および上記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つから、上記動きベクトル差の個数を取得する段階を含む、
項目2に記載の方法。
[項目4]
上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定する上記段階は、
上記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、上記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが上記現在の画像ブロックの上記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定する段階、または、
上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きいか、もしくは上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定する段階を含む、
項目3に記載の方法。
[項目5]
上記予測モードが上記双方向予測である場合、上記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、上記動きベクトル差の個数と上記予測動き情報とに基づき、上記動きベクトル差と上記動きベクトル予測値との間の上記対応関係を決定する上記段階は、
2つの動きベクトル差が存在する場合、上記2つの動きベクトル差を、上記第1の動きベクトル予測値と上記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いる段階、または、
1つの動きベクトル差が存在する場合、上記動きベクトル差を上記第1の動きベクトル予測値に対応する動きベクトル差として用いて、上記第2の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を上記第2の動きベクトル予測値に対応する動きベクトル差として用いて、上記第1の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を上記第1の動きベクトル予測値および上記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いるか、もしくは、上記ビットストリームから、上記動きベクトル差が上記第1の動きベクトル予測値に対応していることを示すか、もしくは上記動きベクトル差が上記第2の動きベクトル予測値に対応していることを示す情報を取得し、取得された上記情報に基づき、上記動きベクトル差と上記動きベクトル予測値との間の対応関係を決定する段階を含む、
項目2から4のいずれか一項に記載の方法。
[項目6]
上記候補予測動き情報リストにおける候補予測動き情報の個数は、上記ビットストリームの上記スライスレイヤヘッダ情報、上記画像レイヤヘッダ情報、および上記シーケンスレイヤヘッダ情報のうち少なくとも1つから取得される、
項目1から5のいずれか一項に記載の方法。
[項目7]
上記候補予測動き情報リストにおける上記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
項目1から6のいずれか一項に記載の方法。
[項目8]
上記現在の画像ブロックは、上記ビットストリームに対応する現在の再構築されるべき画像ブロックの任意の予測単位である、
項目1から7のいずれか一項に記載の方法。
[項目9]
ビットストリームから、候補予測動き情報リストにおける現在の画像ブロックの予測動き情報のインデックスを取得するよう構成される第1の取得ユニットであって、上記予測動き情報は、参照画像情報および動きベクトル予測値を含み、上記候補予測動き情報リストにおける候補予測動き情報は、時間領域または空間領域における上記現在の画像ブロックの隣接ブロックの動き情報である、第1の取得ユニットと、
上記インデックスに基づき、上記候補予測動き情報リストを照会し、発見された上記候補予測動き情報を上記予測動き情報として用いるよう構成される照会ユニットと、
上記予測動き情報に基づき、動きベクトル差と上記動きベクトル予測値との間の対応関係を決定するよう構成される決定ユニットと、
上記ビットストリームから、上記動きベクトル差を取得するよう構成される第2の取得ユニットと、
上記対応関係に基づき、上記動きベクトル予測値と対応する上記動きベクトル差とを加算し、上記現在の画像ブロックの動きベクトルを取得するよう構成される演算ユニットと
を備える
映像復号端末。
[項目10]
上記決定ユニットは、
上記参照画像情報に基づき、上記現在の画像ブロックの予測モードを決定するよう構成される第1の決定サブユニットであって、上記予測モードは、片方向予測または双方向予測を含む、第1の決定サブユニットと、
上記予測モードに基づき、動きベクトル差の個数を決定するよう構成される第2の決定サブユニットと、
上記動きベクトル差の個数と上記予測動き情報とに基づき、上記動きベクトル差と上記動きベクトル予測値との間の上記対応関係を決定するよう構成される第3の決定サブユニットとを有する、
項目9に記載の端末。
[項目11]
上記第2の決定サブユニットは具体的に、
上記予測モードが上記片方向予測である場合、1つの動きベクトル差が存在すると決定するか、または、
上記予測モードが上記双方向予測であり、かつ、上記参照画像情報が参照画像のピクチャ順序カウントを含む場合、上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定するか、または、
上記予測モードが上記双方向予測である場合、上記現在の画像ブロックの上記ビットストリーム、上記ビットストリームのスライスレイヤヘッダ情報、上記ビットストリームの画像レイヤヘッダ情報、および上記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つから、上記動きベクトル差の個数を取得するよう構成される、
項目10に記載の端末。
[項目12]
上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定するとき、上記第2の決定サブユニットは具体的に、
上記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、上記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが上記現在の画像ブロックの上記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定するか、または、上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きい、もしくは、上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定するよう構成される、
項目11に記載の端末。
[項目13]
上記予測モードが上記双方向予測である場合、上記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、上記第3の決定サブユニットは具体的に、
2つの動きベクトル差が存在する場合、上記2つの動きベクトル差を、上記第1の動きベクトル予測値と上記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いるか、または、
1つの動きベクトル差が存在する場合、上記動きベクトル差を、上記第1の動きベクトル予測値に対応する動きベクトル差として用いて、上記第2の動きベクトル予測値に対応する動きベクトル差を0に設定する、もしくは、上記動きベクトル差を上記第2の動きベクトル予測値に対応する動きベクトル差として用いて、上記第1の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を、上記第1の動きベクトル予測値および上記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いるか、もしくは、上記ビットストリームから、上記動きベクトル差が上記第1の動きベクトル予測値に対応していることを示すか、もしくは上記動きベクトル差が上記第2の動きベクトル予測値に対応していることを示す情報を取得して、取得された上記情報に基づき、上記動きベクトル差と上記動きベクトル予測値との間の対応関係を決定するよう構成される、
項目10から12のいずれか一項に記載の端末。
[項目14]
上記候補予測動き情報リストにおける候補予測動き情報の個数は、上記ビットストリームの上記スライスレイヤヘッダ情報、上記画像レイヤヘッダ情報、および上記シーケンスレイヤヘッダ情報のうち少なくとも1つから取得される、
項目9から13のいずれか一項に記載の端末。
[項目15]
上記候補予測動き情報リストにおける上記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
項目9から14のいずれか一項に記載の端末。
[項目16]
上記現在の画像ブロックは、上記ビットストリームに対応する現在の再構築されるべき画像ブロックの任意の予測単位である、
項目9から15のいずれか一項に記載の端末。
[項目17]
現在の画像ブロックの候補予測動き情報リストを構築する段階であって、上記候補予測動き情報リストは、候補予測動き情報を含み、上記候補予測動き情報は、時間領域または空間領域における上記現在の画像ブロックの隣接ブロックの動き情報を含む、段階と、
動き推定中に取得された、上記現在の画像ブロックの動きベクトルに基づき、上記候補予測動き情報リストから、1つの候補予測動き情報を上記現在の画像ブロックの予測動き情報として選択し、上記候補予測動き情報リストにおける、選択された上記候補予測動き情報のインデックスを決定する段階であって、上記予測動き情報は、参照画像情報および動きベクトル予測値を含む、段階と、
上記予測動き情報に基づき、動きベクトル差と上記動きベクトル予測値との間の対応関係を決定する段階と、
上記対応関係と上記動きベクトルとに基づき、上記動きベクトル予測値に対応する動きベクトル差を取得する段階と、
上記インデックスおよび上記動きベクトル差をビットストリームに符号化する段階と
を備える
映像符号化方法。
[項目18]
上記予測動き情報に基づき、動きベクトル差と上記動きベクトル予測値との間の対応関係を決定する上記段階は、
上記参照画像情報に基づき、上記現在の画像ブロックの予測モードを決定する段階であって、上記予測モードは、片方向予測または双方向予測を含む、段階と、
上記予測モードに基づき、動きベクトル差の個数を決定する段階と、
上記動きベクトル差の個数と上記予測動き情報とに基づき、上記動きベクトル差と上記動きベクトル予測値との間の上記対応関係を決定する段階と
を含む、
項目17に記載の方法。
[項目19]
上記予測モードに基づき、動きベクトル差の個数を決定する上記段階は、
上記予測モードが上記片方向予測である場合、1つの動きベクトル差が存在すると決定する段階、または、
上記予測モードが上記双方向予測であり、かつ、上記参照画像情報が上記現在の画像ブロックの参照画像のピクチャ順序カウントを含む場合、上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定する段階、または、
上記予測モードが上記双方向予測である場合、動きベクトル差の予め設定された個数を、上記現在の画像ブロックの上記ビットストリーム、上記ビットストリームのスライスレイヤヘッダ情報、上記ビットストリームの画像レイヤヘッダ情報、および上記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つに符号化する段階を含む、
項目18に記載の方法。
[項目20]
上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定する上記段階は、
上記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、上記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが上記現在の画像ブロックの上記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定するか、または、上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きい、もしくは、上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定する段階を含む、
項目19に記載の方法。
[項目21]
上記予測モードが上記双方向予測である場合、上記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、上記動きベクトル差の個数と上記予測動き情報とに基づき、上記動きベクトル差と上記動きベクトル予測値との間の上記対応関係を決定する上記段階は、
2つの動きベクトル差が存在する場合、上記2つの動きベクトル差を、上記第1の動きベクトル予測値と上記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いる段階、または、
1つの動きベクトル差が存在する場合、上記動きベクトル差を上記第1の動きベクトル予測値に対応する動きベクトル差として用いて、上記第2の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を上記第2の動きベクトル予測値に対応する動きベクトル差として用いて、上記第1の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を、上記第1の動きベクトル予測値および上記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いるか、もしくは、予め設定された対応関係に基づき、上記動きベクトル差と、上記第1の動きベクトル予測値および上記第2の動きベクトル予測値の各々との間の対応関係を決定し、上記予め設定された対応関係を上記ビットストリームに符号化する段階を含む、
項目18から20のいずれか一項に記載の方法。
[項目22]
上記候補予測動き情報リストにおける候補予測動き情報の個数を、上記ビットストリームの上記スライスレイヤヘッダ情報、上記画像レイヤヘッダ情報、および上記シーケンスレイヤヘッダ情報のうち少なくとも1つに符号化する段階
を備える項目17から21のいずれか一項に記載の方法。
[項目23]
上記候補予測動き情報リストにおける上記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
項目17から22のいずれか一項に記載の方法。
[項目24]
上記現在の画像ブロックは、上記ビットストリームに対応する現在の符号化されるべき画像ブロックの任意の予測単位である、
項目17から23のいずれか一項に記載の方法。
[項目25]
現在の画像ブロックの候補予測動き情報リストを構築するよう構成されるリスト構築ユニットであって、上記候補予測動き情報リストは、候補予測動き情報を含み、上記候補予測動き情報は、時間領域または空間領域における上記現在の画像ブロックの隣接ブロックの動き情報を含む、リスト構築ユニットと、
動き推定中に取得された、上記現在の画像ブロックの動きベクトルに基づき、上記候補予測動き情報リストから、1つの候補予測動き情報を上記現在の画像ブロックの予測動き情報として選択するよう構成される選択ユニットであって、上記予測動き情報は、参照画像情報および動きベクトル予測値を含む、選択ユニットと、
上記候補予測動き情報リストにおける、選択された上記候補予測動き情報のインデックスを決定するよう構成される第1の決定ユニットと、
上記予測動き情報に基づき、動きベクトル差と上記動きベクトル予測値との間の対応関係を決定するよう構成される第2の決定ユニットと、
上記対応関係と上記動きベクトルとに基づき、上記動きベクトル予測値に対応する動きベクトル差を取得するよう構成される取得ユニットと、
上記インデックスと上記動きベクトル差とをビットストリームに符号化するよう構成される第1の符号化ユニットと
を備える
映像符号化端末。
[項目26]
上記第2の決定ユニットは、
上記参照画像情報に基づき、上記現在の画像ブロックの予測モードを決定するよう構成される第1の決定サブユニットであって、上記予測モードは、片方向予測または双方向予測を含む、第1の決定サブユニットと、
上記予測モードに基づき、動きベクトル差の個数を決定するよう構成される第2の決定サブユニットと、
上記動きベクトル差の個数と上記予測動き情報とに基づき、上記動きベクトル差と上記動きベクトル予測値との間の上記対応関係を決定するよう構成される第3の決定サブユニットとを有する、
項目25に記載の端末。
[項目27]
上記第2の決定サブユニットは具体的に、
上記予測モードが上記片方向予測である場合、1つの動きベクトル差が存在すると決定するか、または、
上記予測モードが上記双方向予測であり、かつ、上記参照画像情報が上記現在の画像ブロックの参照画像のピクチャ順序カウントを含む場合、上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定するか、または、
上記予測モードが上記双方向予測である場合、動きベクトル差の予め設定された個数を、上記現在の画像ブロックの上記ビットストリーム、上記ビットストリームのスライスレイヤヘッダ情報、上記ビットストリームの画像レイヤヘッダ情報、および上記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つに符号化するよう構成される、
項目26に記載の端末。
[項目28]
上記現在の画像ブロックの上記参照画像の上記ピクチャ順序カウントに基づき、上記動きベクトル差の個数を決定するとき、上記第2の決定サブユニットは具体的に、
上記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、上記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが上記現在の画像ブロックの上記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定するか、または、
上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより大きいか、もしくは上記現在の画像ブロックの各参照画像のピクチャ順序カウントが上記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定するよう構成される、
項目27に記載の端末。
[項目29]
上記予測モードが上記双方向予測である場合、上記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、上記第3の決定サブユニットは具体的に、
2つの動きベクトル差が存在する場合、上記2つの動きベクトル差を、上記第1の動きベクトル予測値と上記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いるか、または、
1つの動きベクトル差が存在する場合、上記動きベクトル差を上記第1の動きベクトル予測値に対応する動きベクトル差として用いて、上記第2の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を上記第2の動きベクトル予測値に対応する動きベクトル差として用いて、上記第1の動きベクトル予測値に対応する動きベクトル差を0に設定するか、もしくは、上記動きベクトル差を、上記第1の動きベクトル予測値および上記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いるか、もしくは、予め設定された対応関係に基づき、上記動きベクトル差と、上記第1の動きベクトル予測値および上記第2の動きベクトル予測値の各々との間の対応関係を決定し、上記予め設定された対応関係を上記ビットストリームに符号化するよう構成される、
項目26から28のいずれか一項に記載の端末。
[項目30]
上記端末はさらに、
上記候補予測動き情報リストにおける候補予測動き情報の個数を、上記ビットストリームの上記スライスレイヤヘッダ情報、上記画像レイヤヘッダ情報、および上記シーケンスレイヤヘッダ情報のうち少なくとも1つに符号化するよう構成される第2の符号化ユニットを備える、
項目25から29のいずれか一項に記載の端末。
[項目31]
上記候補予測動き情報リストにおける上記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
項目25から30のいずれか一項に記載の端末。
[項目32]
上記現在の画像ブロックは、上記ビットストリームに対応する現在の符号化されるべき画像ブロックの任意の予測単位である、
項目25から31のいずれか一項に記載の端末。
Claims (32)
- ビットストリームから、候補予測動き情報リストにおける現在の画像ブロックの予測動き情報のインデックスを取得する段階であって、前記予測動き情報は、参照画像情報および動きベクトル予測値を含み、前記候補予測動き情報リストにおける候補予測動き情報は、時間領域または空間領域における前記現在の画像ブロックの隣接ブロックの動き情報である、段階と、
前記インデックスに基づき、前記候補予測動き情報リストを照会し、発見された前記候補予測動き情報を前記予測動き情報として用いる段階と、
前記予測動き情報に基づき、動きベクトル差と動きベクトル予測値との間の対応関係を決定し、前記ビットストリームから前記動きベクトル差を取得する段階と、
前記対応関係に基づき、前記動きベクトル予測値を、対応する前記動きベクトル差を用いることによって補正し、前記現在の画像ブロックの動きベクトルを取得する段階と
を備え、
前記現在の画像ブロックの予測モードが双方向予測である場合、前記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、前記動きベクトル差は、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値によって再使用される
映像復号方法。 - 前記予測動き情報に基づき、動きベクトル差と動きベクトル予測値との間の対応関係を決定する前記段階は、
前記参照画像情報に基づき、前記現在の画像ブロックの前記予測モードを決定する段階であって、前記予測モードは、片方向予測または双方向予測を含む、段階と、
前記予測モードに基づき、動きベクトル差の個数を決定する段階と、
前記動きベクトル差の個数と前記予測動き情報とに基づき、前記動きベクトル差と前記動きベクトル予測値との間の前記対応関係を決定する段階とを含む、
請求項1に記載の映像復号方法。 - 前記予測モードに基づき、動きベクトル差の個数を決定する前記段階は、
前記予測モードが前記片方向予測である場合、1つの動きベクトル差が存在すると決定する段階、または、
前記予測モードが前記双方向予測であり、かつ、前記参照画像情報が参照画像のピクチャ順序カウントを含む場合、前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定する段階、または、
前記予測モードが前記双方向予測である場合、前記現在の画像ブロックの前記ビットストリーム、前記ビットストリームのスライスレイヤヘッダ情報、前記ビットストリームの画像レイヤヘッダ情報、および前記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つから、前記動きベクトル差の個数を取得する段階を含む、
請求項2に記載の映像復号方法。 - 前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定する前記段階は、
前記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、前記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが前記現在の画像ブロックの前記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定する段階、または、
前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きいか、もしくは前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定する段階を含む、
請求項3に記載の映像復号方法。 - 前記動きベクトル差の個数と前記予測動き情報とに基づき、前記動きベクトル差と前記動きベクトル予測値との間の前記対応関係を決定する前記段階は、
2つの動きベクトル差が存在する場合、前記2つの動きベクトル差を、前記第1の動きベクトル予測値と前記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いる段階、または、
1つの動きベクトル差が存在する場合、前記動きベクトル差を前記第1の動きベクトル予測値および前記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いる段階を含む、
請求項3または4に記載の映像復号方法。 - 前記候補予測動き情報リストにおける候補予測動き情報の個数は、前記ビットストリームの前記スライスレイヤヘッダ情報、前記画像レイヤヘッダ情報、および前記シーケンスレイヤヘッダ情報のうち少なくとも1つから取得される、
請求項3から5のいずれか一項に記載の映像復号方法。 - 前記候補予測動き情報リストにおける前記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
請求項6に記載の映像復号方法。 - 前記現在の画像ブロックは、前記ビットストリームに対応する現在の再構築されるべき画像ブロックの任意の予測単位である、
請求項1から7のいずれか一項に記載の映像復号方法。 - ビットストリームから、候補予測動き情報リストにおける現在の画像ブロックの予測動き情報のインデックスを取得するよう構成される第1の取得ユニットであって、前記予測動き情報は、参照画像情報および動きベクトル予測値を含み、前記候補予測動き情報リストにおける候補予測動き情報は、時間領域または空間領域における前記現在の画像ブロックの隣接ブロックの動き情報である、第1の取得ユニットと、
前記インデックスに基づき、前記候補予測動き情報リストを照会し、発見された前記候補予測動き情報を前記予測動き情報として用いるよう構成される照会ユニットと、
前記予測動き情報に基づき、動きベクトル差と動きベクトル予測値との間の対応関係を決定するよう構成される決定ユニットと、
前記ビットストリームから、前記動きベクトル差を取得するよう構成される第2の取得ユニットと、
前記対応関係に基づき、前記動きベクトル予測値を、対応する前記動きベクトル差を用いることによって補正し、前記現在の画像ブロックの動きベクトルを取得するよう構成される演算ユニットと
を備え、
前記現在の画像ブロックの予測モードが双方向予測である場合、前記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、前記動きベクトル差は、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値によって再使用される
映像復号端末。 - 前記決定ユニットは、
前記参照画像情報に基づき、前記現在の画像ブロックの前記予測モードを決定するよう構成される第1の決定サブユニットであって、前記予測モードは、片方向予測または双方向予測を含む、第1の決定サブユニットと、 前記予測モードに基づき、動きベクトル差の個数を決定するよう構成される第2の決定サブユニットと、
前記動きベクトル差の個数と前記予測動き情報とに基づき、前記動きベクトル差と前記動きベクトル予測値との間の前記対応関係を決定するよう構成される第3の決定サブユニットとを有する、
請求項9に記載の映像復号端末。 - 前記第2の決定サブユニットは、
前記予測モードが前記片方向予測である場合、1つの動きベクトル差が存在すると決定するか、または、
前記予測モードが前記双方向予測であり、かつ、前記参照画像情報が参照画像のピクチャ順序カウントを含む場合、前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定するか、または、
前記予測モードが前記双方向予測である場合、前記現在の画像ブロックの前記ビットストリーム、前記ビットストリームのスライスレイヤヘッダ情報、前記ビットストリームの画像レイヤヘッダ情報、および前記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つから、前記動きベクトル差の個数を取得するよう構成される、
請求項10に記載の映像復号端末。 - 前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定するとき、前記第2の決定サブユニットは、
前記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、前記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが前記現在の画像ブロックの前記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定するか、または、前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きい、もしくは、前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定するよう構成される、
請求項11に記載の映像復号端末。 - 前記第3の決定サブユニットは、
2つの動きベクトル差が存在する場合、前記2つの動きベクトル差を、前記第1の動きベクトル予測値と前記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いるか、または、
1つの動きベクトル差が存在する場合、前記動きベクトル差を、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いるよう構成される、
請求項11または12に記載の映像復号端末。 - 前記候補予測動き情報リストにおける候補予測動き情報の個数は、前記ビットストリームの前記スライスレイヤヘッダ情報、前記画像レイヤヘッダ情報、および前記シーケンスレイヤヘッダ情報のうち少なくとも1つから取得される、
請求項11から13のいずれか一項に記載の映像復号端末。 - 前記候補予測動き情報リストにおける前記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
請求項14に記載の映像復号端末。 - 前記現在の画像ブロックは、前記ビットストリームに対応する現在の再構築されるべき画像ブロックの任意の予測単位である、
請求項9から15のいずれか一項に記載の映像復号端末。 - 現在の画像ブロックの候補予測動き情報リストを構築する段階であって、前記候補予測動き情報リストは、候補予測動き情報を含み、前記候補予測動き情報は、時間領域または空間領域における前記現在の画像ブロックの隣接ブロックの動き情報を含む、段階と、
動き推定中に取得された、前記現在の画像ブロックの動きベクトルに基づき、前記候補予測動き情報リストから、1つの候補予測動き情報を前記現在の画像ブロックの予測動き情報として選択し、前記候補予測動き情報リストにおける、選択された前記候補予測動き情報のインデックスを決定する段階であって、前記予測動き情報は、参照画像情報および動きベクトル予測値を含む、段階と、
前記予測動き情報に基づき、動きベクトル差と動きベクトル予測値との間の対応関係を決定する段階と、
前記対応関係と前記動きベクトルとに基づき、前記動きベクトル予測値に対応する動きベクトル差を取得する段階と、
前記インデックスおよび前記動きベクトル差をビットストリームに符号化する段階と
を備え、
前記現在の画像ブロックの予測モードが双方向予測である場合、前記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、前記動きベクトル差は、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値によって再使用される
映像符号化方法。 - 前記予測動き情報に基づき、動きベクトル差と動きベクトル予測値との間の対応関係を決定する前記段階は、
前記参照画像情報に基づき、前記現在の画像ブロックの前記予測モードを決定する段階であって、前記予測モードは、片方向予測または双方向予測を含む、段階と、 前記予測モードに基づき、動きベクトル差の個数を決定する段階と、
前記動きベクトル差の個数と前記予測動き情報とに基づき、前記動きベクトル差と前記動きベクトル予測値との間の前記対応関係を決定する段階と
を含む、
請求項17に記載の映像符号化方法。 - 前記予測モードに基づき、動きベクトル差の個数を決定する前記段階は、
前記予測モードが前記片方向予測である場合、1つの動きベクトル差が存在すると決定する段階、または、
前記予測モードが前記双方向予測であり、かつ、前記参照画像情報が前記現在の画像ブロックの参照画像のピクチャ順序カウントを含む場合、前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定する段階、または、
前記予測モードが前記双方向予測である場合、動きベクトル差の予め設定された個数を、前記現在の画像ブロックの前記ビットストリーム、前記ビットストリームのスライスレイヤヘッダ情報、前記ビットストリームの画像レイヤヘッダ情報、および前記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つに符号化する段階を含む、
請求項18に記載の映像符号化方法。 - 前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定する前記段階は、
前記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、前記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが前記現在の画像ブロックの前記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定するか、または、前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きい、もしくは、前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定する段階を含む、
請求項19に記載の映像符号化方法。 - 前記動きベクトル差の個数と前記予測動き情報とに基づき、前記動きベクトル差と前記動きベクトル予測値との間の前記対応関係を決定する前記段階は、
2つの動きベクトル差が存在する場合、前記2つの動きベクトル差を、前記第1の動きベクトル予測値と前記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いる段階、または、
1つの動きベクトル差が存在する場合、前記動きベクトル差を、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いる段階を含む、
請求項19または20に記載の映像符号化方法。 - 前記候補予測動き情報リストにおける候補予測動き情報の個数を、前記ビットストリームの前記スライスレイヤヘッダ情報、前記画像レイヤヘッダ情報、および前記シーケンスレイヤヘッダ情報のうち少なくとも1つに符号化する段階
を備える請求項19から21のいずれか一項に記載の映像符号化方法。 - 前記候補予測動き情報リストにおける前記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
請求項22に記載の映像符号化方法。 - 前記現在の画像ブロックは、前記ビットストリームに対応する現在の符号化されるべき画像ブロックの任意の予測単位である、
請求項17から23のいずれか一項に記載の映像符号化方法。 - 現在の画像ブロックの候補予測動き情報リストを構築するよう構成されるリスト構築ユニットであって、前記候補予測動き情報リストは、候補予測動き情報を含み、前記候補予測動き情報は、時間領域または空間領域における前記現在の画像ブロックの隣接ブロックの動き情報を含む、リスト構築ユニットと、
動き推定中に取得された、前記現在の画像ブロックの動きベクトルに基づき、前記候補予測動き情報リストから、1つの候補予測動き情報を前記現在の画像ブロックの予測動き情報として選択するよう構成される選択ユニットであって、前記予測動き情報は、参照画像情報および動きベクトル予測値を含む、選択ユニットと、
前記候補予測動き情報リストにおける、選択された前記候補予測動き情報のインデックスを決定するよう構成される第1の決定ユニットと、
前記予測動き情報に基づき、動きベクトル差と動きベクトル予測値との間の対応関係を決定するよう構成される第2の決定ユニットと、
前記対応関係と前記動きベクトルとに基づき、前記動きベクトル予測値に対応する動きベクトル差を取得するよう構成される取得ユニットと、
前記インデックスと前記動きベクトル差とをビットストリームに符号化するよう構成される第1の符号化ユニットと
を備え、
前記現在の画像ブロックの予測モードが双方向予測である場合、前記予測動き情報は、第1の動きベクトル予測値および第2の動きベクトル予測値という2つの動きベクトル予測値を含み、前記動きベクトル差は、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値によって再使用される
映像符号化端末。 - 前記第2の決定ユニットは、
前記参照画像情報に基づき、前記現在の画像ブロックの前記予測モードを決定するよう構成される第1の決定サブユニットであって、前記予測モードは、片方向予測または双方向予測を含む、第1の決定サブユニットと、
前記予測モードに基づき、動きベクトル差の個数を決定するよう構成される第2の決定サブユニットと、
前記動きベクトル差の個数と前記予測動き情報とに基づき、前記動きベクトル差と前記動きベクトル予測値との間の前記対応関係を決定するよう構成される第3の決定サブユニットとを有する、
請求項25に記載の映像符号化端末。 - 前記第2の決定サブユニットは、
前記予測モードが前記片方向予測である場合、1つの動きベクトル差が存在すると決定するか、または、
前記予測モードが前記双方向予測であり、かつ、前記参照画像情報が前記現在の画像ブロックの参照画像のピクチャ順序カウントを含む場合、前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定するか、または、
前記予測モードが前記双方向予測である場合、動きベクトル差の予め設定された個数を、前記現在の画像ブロックの前記ビットストリーム、前記ビットストリームのスライスレイヤヘッダ情報、前記ビットストリームの画像レイヤヘッダ情報、および前記ビットストリームのシーケンスレイヤヘッダ情報のうち少なくとも1つに符号化するよう構成される、
請求項26に記載の映像符号化端末。 - 前記現在の画像ブロックの前記参照画像の前記ピクチャ順序カウントに基づき、前記動きベクトル差の個数を決定するとき、前記第2の決定サブユニットは、
前記現在の画像ブロックの第1の参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きく、かつ、前記現在の画像ブロックの第2の参照画像のピクチャ順序カウントが前記現在の画像ブロックの前記ピクチャ順序カウントより小さい場合、2つの動きベクトル差が存在すると決定するか、または、
前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより大きいか、もしくは前記現在の画像ブロックの各参照画像のピクチャ順序カウントが前記現在の画像ブロックのピクチャ順序カウントより小さい場合、1つの動きベクトル差が存在すると決定するよう構成される、
請求項27に記載の映像符号化端末。 - 前記第3の決定サブユニットは、
2つの動きベクトル差が存在する場合、前記2つの動きベクトル差を、前記第1の動きベクトル予測値と前記第2の動きベクトル予測値とに対応する動きベクトル差として別々に用いるか、または、
1つの動きベクトル差が存在する場合、前記動きベクトル差を、前記第1の動きベクトル予測値および前記第2の動きベクトル予測値の各々に対応する動きベクトル差として用いるよう構成される、
請求項27または28に記載の映像符号化端末。 - 前記映像符号化端末はさらに、
前記候補予測動き情報リストにおける候補予測動き情報の個数を、前記ビットストリームの前記スライスレイヤヘッダ情報、前記画像レイヤヘッダ情報、および前記シーケンスレイヤヘッダ情報のうち少なくとも1つに符号化するよう構成される第2の符号化ユニットを備える、
請求項27から29のいずれか一項に記載の映像符号化端末。 - 前記候補予測動き情報リストにおける前記候補予測動き情報の個数は、マージモードの動き情報リストにおける動き情報の個数より小さい、
請求項30に記載の映像符号化端末。 - 前記現在の画像ブロックは、前記ビットストリームに対応する現在の符号化されるべき画像ブロックの任意の予測単位である、
請求項25から31のいずれか一項に記載の映像符号化端末。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/101081 WO2018058526A1 (zh) | 2016-09-30 | 2016-09-30 | 视频编码方法、解码方法及终端 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020206827A Division JP7036893B2 (ja) | 2020-12-14 | 2020-12-14 | 映像符号化方法、映像復号方法、および端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019533347A JP2019533347A (ja) | 2019-11-14 |
JP6881788B2 true JP6881788B2 (ja) | 2021-06-02 |
Family
ID=61762362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019515322A Active JP6881788B2 (ja) | 2016-09-30 | 2016-09-30 | 映像符号化方法、映像復号方法、および端末 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10841589B2 (ja) |
EP (2) | EP3968633A1 (ja) |
JP (1) | JP6881788B2 (ja) |
KR (4) | KR102563706B1 (ja) |
CN (2) | CN112218073A (ja) |
ES (1) | ES2886431T3 (ja) |
MX (1) | MX2019003553A (ja) |
PT (1) | PT3509297T (ja) |
WO (1) | WO2018058526A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7388610B2 (ja) | 2020-12-14 | 2023-11-29 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 映像符号化方法、映像復号方法、および端末 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102563706B1 (ko) * | 2016-09-30 | 2023-08-03 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말 |
TWI731360B (zh) | 2018-06-29 | 2021-06-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表的使用條件 |
TWI728390B (zh) | 2018-06-29 | 2021-05-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表尺寸 |
EP3791586A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
SG11202012293RA (en) | 2018-06-29 | 2021-01-28 | Beijing Bytedance Network Technology Co Ltd | Update of look up table: fifo, constrained fifo |
EP3791585A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
EP4322533A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Checking order of motion candidates in lut |
CN110662043B (zh) | 2018-06-29 | 2021-12-21 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
WO2020008349A1 (en) | 2018-07-02 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Merge index coding |
CN110868601B (zh) * | 2018-08-28 | 2024-03-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
MX2021002488A (es) * | 2018-09-04 | 2021-07-16 | Huawei Tech Co Ltd | Método de obtención de trama de referencia y aparato aplicado a la interpredicción bidireccional. |
WO2020053800A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | How many hmvp candidates to be checked |
CN111263166B (zh) * | 2018-11-30 | 2022-10-11 | 华为技术有限公司 | 一种视频图像预测方法及装置 |
WO2020108168A1 (zh) * | 2018-11-30 | 2020-06-04 | 华为技术有限公司 | 一种视频图像预测方法及装置 |
KR20200081201A (ko) * | 2018-12-27 | 2020-07-07 | 에스케이텔레콤 주식회사 | 양방향 예측 방법 및 영상 복호화 장치 |
CN118175308A (zh) | 2018-12-27 | 2024-06-11 | Sk电信有限公司 | 双向预测设备、视频编码设备及比特流传输设备 |
CN111357288B (zh) * | 2019-01-03 | 2021-08-31 | 深圳市大疆创新科技有限公司 | 视频图像处理方法与装置 |
CN116996683A (zh) | 2019-01-03 | 2023-11-03 | 北京大学 | 视频图像处理方法与装置 |
JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
EP3975560A4 (en) * | 2019-06-13 | 2023-03-08 | LG Electronics Inc. | IMAGE/VIDEO CODING METHOD AND DEVICE BASED ON MOTION VECTOR PREDICTION |
JP7331153B2 (ja) * | 2019-06-14 | 2023-08-22 | エルジー エレクトロニクス インコーポレイティド | 動きベクトル差分を利用した映像コーディング方法および装置 |
WO2023085704A1 (ko) * | 2021-11-09 | 2023-05-19 | 삼성전자 주식회사 | 비디오 복호화 방법, 비디오 복호화 장치, 비디오 부호화 방법, 및 비디오 부호화 장치 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101137065A (zh) * | 2006-09-01 | 2008-03-05 | 华为技术有限公司 | 图像编码方法、解码方法、编码器、解码器、编解码方法及编解码器 |
MX2012010863A (es) * | 2010-04-01 | 2012-10-15 | Sony Corp | Dispositivo y metodo de procesamiento de imagenes. |
KR20120016991A (ko) * | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
JPWO2012090495A1 (ja) * | 2010-12-27 | 2014-06-05 | パナソニック株式会社 | 画像符号化方法および画像復号方法 |
CN106060563B (zh) * | 2011-01-07 | 2019-06-21 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
KR101484171B1 (ko) | 2011-01-21 | 2015-01-23 | 에스케이 텔레콤주식회사 | 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법 |
EP3879833A1 (en) * | 2011-05-31 | 2021-09-15 | JVCKENWOOD Corporation | Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program |
US9300975B2 (en) | 2011-09-11 | 2016-03-29 | Texas Instruments Incorporated | Concurrent access shared buffer in a video encoder |
US9736489B2 (en) * | 2011-09-17 | 2017-08-15 | Qualcomm Incorporated | Motion vector determination for video coding |
RU2577181C2 (ru) * | 2011-10-21 | 2016-03-10 | Нокиа Текнолоджиз Ой | Способ и устройство для кодирования видеосигналов |
JP5485969B2 (ja) | 2011-11-07 | 2014-05-07 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム |
TWI580264B (zh) * | 2011-11-10 | 2017-04-21 | Sony Corp | Image processing apparatus and method |
JP2013132046A (ja) * | 2011-11-21 | 2013-07-04 | Jvc Kenwood Corp | 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法、及び受信プログラム |
WO2013108689A1 (ja) * | 2012-01-19 | 2013-07-25 | ソニー株式会社 | 画像処理装置および方法 |
US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US9699450B2 (en) * | 2012-10-04 | 2017-07-04 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
US9967592B2 (en) * | 2014-01-11 | 2018-05-08 | Qualcomm Incorporated | Block-based advanced residual prediction for 3D video coding |
EP3111641A4 (en) * | 2014-04-01 | 2017-11-08 | MediaTek Inc. | Method of motion information coding |
US10412407B2 (en) * | 2015-11-05 | 2019-09-10 | Mediatek Inc. | Method and apparatus of inter prediction using average motion vector for video coding |
US11356693B2 (en) * | 2016-09-29 | 2022-06-07 | Qualcomm Incorporated | Motion vector coding for video coding |
KR102563706B1 (ko) * | 2016-09-30 | 2023-08-03 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말 |
-
2016
- 2016-09-30 KR KR1020227033306A patent/KR102563706B1/ko active IP Right Grant
- 2016-09-30 CN CN202010916417.8A patent/CN112218073A/zh active Pending
- 2016-09-30 KR KR1020217042007A patent/KR102448635B1/ko active IP Right Grant
- 2016-09-30 EP EP21172622.9A patent/EP3968633A1/en active Pending
- 2016-09-30 EP EP16917276.4A patent/EP3509297B1/en active Active
- 2016-09-30 ES ES16917276T patent/ES2886431T3/es active Active
- 2016-09-30 JP JP2019515322A patent/JP6881788B2/ja active Active
- 2016-09-30 MX MX2019003553A patent/MX2019003553A/es unknown
- 2016-09-30 CN CN201680089072.5A patent/CN109691098A/zh active Pending
- 2016-09-30 KR KR1020197010627A patent/KR102228298B1/ko active IP Right Grant
- 2016-09-30 KR KR1020217007230A patent/KR102343668B1/ko active IP Right Grant
- 2016-09-30 WO PCT/CN2016/101081 patent/WO2018058526A1/zh unknown
- 2016-09-30 PT PT169172764T patent/PT3509297T/pt unknown
-
2019
- 2019-04-01 US US16/371,514 patent/US10841589B2/en active Active
-
2020
- 2020-10-07 US US17/064,719 patent/US11558623B2/en active Active
-
2023
- 2023-01-16 US US18/154,961 patent/US20230276055A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7388610B2 (ja) | 2020-12-14 | 2023-11-29 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 映像符号化方法、映像復号方法、および端末 |
Also Published As
Publication number | Publication date |
---|---|
BR112019006146A2 (pt) | 2019-06-18 |
KR20210158425A (ko) | 2021-12-30 |
WO2018058526A1 (zh) | 2018-04-05 |
EP3509297A4 (en) | 2019-07-10 |
CN112218073A (zh) | 2021-01-12 |
US20210021836A1 (en) | 2021-01-21 |
US11558623B2 (en) | 2023-01-17 |
KR20220133336A (ko) | 2022-10-04 |
EP3509297B1 (en) | 2021-06-23 |
US20230276055A1 (en) | 2023-08-31 |
US10841589B2 (en) | 2020-11-17 |
EP3968633A1 (en) | 2022-03-16 |
JP2019533347A (ja) | 2019-11-14 |
KR20210030505A (ko) | 2021-03-17 |
MX2019003553A (es) | 2019-08-12 |
KR102343668B1 (ko) | 2021-12-24 |
PT3509297T (pt) | 2021-08-10 |
KR102563706B1 (ko) | 2023-08-03 |
KR20190049849A (ko) | 2019-05-09 |
EP3509297A1 (en) | 2019-07-10 |
KR102228298B1 (ko) | 2021-03-15 |
ES2886431T3 (es) | 2021-12-20 |
CN109691098A (zh) | 2019-04-26 |
US20190230363A1 (en) | 2019-07-25 |
KR102448635B1 (ko) | 2022-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6881788B2 (ja) | 映像符号化方法、映像復号方法、および端末 | |
US11039144B2 (en) | Method and apparatus for image coding and decoding through inter-prediction | |
US20240022748A1 (en) | Picture Encoding and Decoding Method and Apparatus for Video Sequence | |
JP7388610B2 (ja) | 映像符号化方法、映像復号方法、および端末 | |
JP6968228B2 (ja) | インター予測を介する画像符号化および復号のための方法および装置 | |
BR112019006146B1 (pt) | Método de codificação de vídeo, método de decodificação de vídeo, e terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6881788 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |