JP2022507985A - ピクチャのブロックのイントラ予測の方法 - Google Patents
ピクチャのブロックのイントラ予測の方法 Download PDFInfo
- Publication number
- JP2022507985A JP2022507985A JP2021529421A JP2021529421A JP2022507985A JP 2022507985 A JP2022507985 A JP 2022507985A JP 2021529421 A JP2021529421 A JP 2021529421A JP 2021529421 A JP2021529421 A JP 2021529421A JP 2022507985 A JP2022507985 A JP 2022507985A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- block
- intra
- prediction
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000523 sample Substances 0.000 claims abstract description 388
- 238000000034 method Methods 0.000 claims abstract description 152
- 239000013074 reference sample Substances 0.000 claims abstract description 75
- 238000012545 processing Methods 0.000 claims description 84
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013139 quantization Methods 0.000 description 65
- 238000005192 partition Methods 0.000 description 54
- 238000006243 chemical reaction Methods 0.000 description 52
- 230000008569 process Effects 0.000 description 36
- 238000004891 communication Methods 0.000 description 28
- 230000006854 communication Effects 0.000 description 28
- 230000009466 transformation Effects 0.000 description 26
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 23
- 230000006870 function Effects 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000001914 filtration Methods 0.000 description 12
- 230000006835 compression Effects 0.000 description 11
- 238000007906 compression Methods 0.000 description 11
- 238000000638 solvent extraction Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 10
- 241000023320 Luma <angiosperm> Species 0.000 description 9
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 9
- 238000007792 addition Methods 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000002441 reversible effect Effects 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000003491 array Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- ZBOYJODMIAUJHH-SANMLTNESA-N (2s)-1-[[2,6-dimethoxy-4-[(2-methyl-3-phenylphenyl)methoxy]phenyl]methyl]piperidine-2-carboxylic acid Chemical compound C=1C(OC)=C(CN2[C@@H](CCCC2)C(O)=O)C(OC)=CC=1OCC(C=1C)=CC=CC=1C1=CC=CC=C1 ZBOYJODMIAUJHH-SANMLTNESA-N 0.000 description 1
- 101150114515 CTBS gene Proteins 0.000 description 1
- 101150039623 Clip1 gene Proteins 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- BTCSSZJGUNDROE-UHFFFAOYSA-N gamma-aminobutyric acid Chemical compound NCCCC(O)=O BTCSSZJGUNDROE-UHFFFAOYSA-N 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
DCイントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するステップと、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるステップと、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるステップと、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するステップと、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、方法が提供される。
イントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するステップ(S100)と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるステップと、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるステップと、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するステップと、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数であり、
前記第1ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードはDCイントラ予測モードであり、前記第2ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードは平面イントラ予測モードである、方法が提供される。
前記垂直重み係数はwT=(2<<(p-1))>>((y<<1)>>nScale)であり、yは前記サンプルの垂直座標であり、
nScaleはスケールパラメータである。
P(x,y)は前記予測サンプル値であり、
Rx,-1、R-1,yは、前記予測サンプルの上及び左に位置する最も近い参照サンプルの値を表し、
wLは水平重み係数であり、
wTは垂直重み係数である。
上述のいずれか1つのステップを実行することにより、正規化予測サンプル値を取得するステップと、
前記正規化予測サンプル値に残差値を加算して、再構成サンプル値を生じるステップと、
を含む方法が提供される。
DCイントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、エンコーダ装置が提供される。
イントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、エンコーダ装置が提供される。前記第1ブロックのサンプルについて前記予測サンプル値を取得するために使用される前記イントラ予測モードはDCイントラ予測モードであり、前記第2ブロックのサンプルについて前記予測サンプル値を取得するために使用されるイントラ予測モードは平面イントラ予測モードである。
DCイントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、デコーダ装置が提供される。
イントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、デコーダ装置が提供される。前記第1ブロックのサンプルについて前記予測サンプル値を取得するために使用される前記イントラ予測モードはDCイントラ予測モードであり、前記第2ブロックのサンプルについて前記予測サンプル値を取得するために使用されるイントラ予測モードは平面イントラ予測モードである。
前記ブロックのサンプルについて、DCイントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、予測装置が提供される。
前記第1ブロック及び前記第2ブロックのサンプルについて、イントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、予測装置が提供される。前記第1ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードはDCイントラ予測モードであり、前記第2ブロックについて前記予測サンプル値を取得するために使用されるイントラ予測モードは平面イントラ予測モードである。
DCイントラ予測モードを用いるイントラ予測により1つ以上の参照サンプル値から予測サンプル値P(x,y)を取得するステップと、
前記予測サンプル値P(x,y)に基づき及び参照サンプル値R(x,-1)及びR(-1,y)に基づき、結果予測サンプル値P’(x,y)を生成するステップであって、
P’(x,y)=(wL×R(-1,y)+wT×R_(x,-1)+(64-wL-wT)×P(x,y)+32))>>6であり、
前記参照サンプル値R(x,-1)は、前記ブロックの上に位置するサンプル(x,-1)の値であり、前記参照サンプル値R(-1,y)は、前記ブロックの左に位置するサンプル(-1,y)の値であり、wLは水平重み係数であり、wTは垂直重み係数である、ステップと、を含む。
図2は、本願の技術を実施するよう構成される例示的なビデオエンコーダ20の概略的ブロック図を示す。図2の例では、ビデオエンコーダ20は、入力201(又は入力インタフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210及び逆変換処理ユニット212、再構成ユニット214、ループフィルタユニット220、復号ピクチャバッファ(decoded picture buffer (DPB))230、モード選択ユニット260、エントロピー符号化ユニット270、出力272(又は出力インタフェース272)を含む。モード選択ユニット260は、インター予測ユニット244、イントラ予測処理ユニット254、及びパーティションユニット262を含んでよい。インター予測ユニット244は、動き推定ユニット及び動き補償ユニット(図示しない)を含んでよい。図2に示すビデオエンコーダ20は、ハイブリッドビデオエンコーダ又はハイブリッドビデオコーデックに従うビデオエンコーダとも呼ばれてよい。
エンコーダ20は、例えば入力201により、ピクチャ17(又はピクチャデータ17)、例えばビデオ又はビデオシーケンスを形成するピクチャのシーケンスのピクチャを受信するよう構成されてよい。受信したピクチャ又はピクチャデータは、前処理済みピクチャ19(又は前処理済みピクチャデータ19)であってもよい。簡単のために、以下の説明はピクチャ17を参照する。ピクチャ17は、(特に、ビデオコーディングでは、現在ピクチャを他のピクチャ、例えば同じビデオシーケンス、つまり現在ピクチャも含むビデオシーケンスの前に符号化された及び/又は復号されたピクチャと区別するために)現在ピクチャ又は被コーディングピクチャとも呼ばれてよい。
残差計算ユニット204は、残差ブロック205(残差205とも呼ばれる)を、ピクチャブロック203及び予測ブロック265(予測ブロック265に関する更なる詳細は後に提供される)に基づき、例えば予測ブロック265のサンプル値をピクチャブロック203のサンプル値からサンプル毎に(ピクセル毎に)減算してサンプルドメインにおける残差ブロック205を取得することにより、計算するよう構成されてよい。
変換処理ユニット206は、変換、例えば離散コサイン変換(discrete cosine transform (DCT))又は離散サイン変換(discrete sine transform (DST))を残差ブロック205のサンプル値に対して適用して、変換ドメインにおける変換係数207を取得するよう構成されてよい。変換係数207は、変換残差係数とも呼ばれ、変換ドメインにおける残差ブロック205を表してよい。
量子化ユニット208は、変換係数207を量子化して、例えばスカラー量子化又はベクトル量子化を適用することにより、量子化済み係数209を取得するよう構成されてよい。量子化済み係数209は、量子化済み変換係数209又は量子化済み残差係数209とも呼ばれてよい。
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基づき又はそれを用いて、量子化ユニット208により適用された量子化方式の逆を適用することにより、量子化された係数に対して量子化ユニット208の逆量子化を適用して、逆量子化された係数211を取得するよう構成される。逆量子化された係数211は、逆量子化された残差係数211とも呼ばれ、標準的には量子化による損失のために変換係数と同じではないが、変換係数207に対応してよい。
逆変換処理ユニット212は、変換処理ユニット206により適用された変換の逆変換、例えば逆離散コサイン変換(inverse discrete cosine transform (DCT))又は逆離散サイン変換(inverse discrete sine transform (DST))又は他の逆変換を適用して、サンプルドメインにおける再構成残差ブロック213(又は対応する逆量子化済み係数213)を取得するよう構成される。再構成残差ブロック213は、変換ブロック213とも呼ばれてよい。
再構成ユニット214(例えば、加算器又はアナログ加算器214)は、変換ブロック213(つまり再構成残差ブロック213)を予測ブロック265に加算して、例えば再構成残差ブロック213のサンプル値と予測ブロック265のサンプル値とをサンプル毎に加算することにより、サンプルドメインにおける再構成ブロック215を取得するよう構成される。
ループフィルタユニット220(又は略して「ループフィルタ」220)は、再構成ブロック215をフィルタリングして、フィルタリング済みブロック221を取得するよう、又は通常、再構成サンプルをフィルタリングしてフィルタリング済みサンプルを取得するよう構成される。ループフィルタユニットは、例えば、ピクセル遷移を円滑化し、又はその他の場合にはビデオ品質を向上するよう構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(sample-adaptive offset (SAO))フィルタ又は1つ以上の他のフィルタ、例えば双方向フィルタ、適応ループフィルタ(adaptive loop filter (ALF))、先鋭化、円滑化フィルタ若しくは共同フィルタ、又はそれらの任意の組合せのような1つ以上のループフィルタを含んでよい。ループフィルタユニット220はインループフィルタであるとして図2に示されるが、他の構成では、ループフィルタユニット220は後置きループフィルタとして実装されてよい。フィルタリング済みブロック221は、フィルタリング済み再構成ブロック221と呼ばれてもよい。復号ピクチャバッファ230は、ループフィルタユニット220がフィルタリング動作を再構成コーディングブロックに対して実行した後に、再構成コーディングブロックを格納してよい。
復号ピクチャバッファ(decoded picture buffer (DPB))230は、ビデオエンコーダ20によるビデオデータの符号化のために、参照ピクチャ又は一般的に参照ピクチャデータを格納するメモリであってよい。DPB230は、同期RAM(synchronous DRAM (SDRAM))を含む動的ランダムアクセスメモリ(dynamic random access memory (DRAM))、磁気抵抗RAM(magnetoresistive RAM (MRAM))、抵抗RAM(resistive RAM (RRAM))、又は他の種類のメモリ装置のような、種々のメモリ装置のうちのいずれかにより形成されてよい。復号ピクチャバッファ(decoded picture buffer (DPB))230は、1つ以上のフィルタリング済みブロック221を格納するよう構成されてよい。復号ピクチャバッファ230は、同じ現在ピクチャの又は異なるピクチャ、例えば前の再構成ピクチャの他の前のフィルタリング済みブロック、例えば前の再構成及びフィルタリング済みブロック221を格納するよう更に構成されてよく、完全な前に再構成された、つまり復号されたピクチャ(及び対応する参照ブロック及びサンプル)、及び/又は部分的に再構成された現在ピクチャ(及び対応する参照ブロック及びサンプル)を、例えばインター予測のために提供してよい。復号ピクチャバッファ(decoded picture buffer (DPB))230は、1つ以上のフィルタリングされていない再構成ブロック215、又は一般的には、例えば再構成ブロック215がループフィルタユニット220によりフィルタリングされない場合には、フィルタリングされていない再構成サンプルを、又は再構成ブロック又はサンプルの任意の他の更に処理されたバージョンを格納するよう構成されてもよい。
モード選択ユニット260は、パーティションユニット262、インター予測ユニット244、及びイントラ予測ユニット254を含み、元のピクチャデータ、例えば元のブロック203(現在ピクチャ17の現在ブロック203)、及び再構成ピクチャデータ、例えば同じ(現在)ピクチャの及び/又は1つ又は複数の前の復号ピクチャからの、例えば復号ピクチャバッファ230若しくは他のバッファ(例えば、図示されないラインバッファ)からのフィルタリング済み及び/又はフィルタリングされていない再構成サンプル又はブロック、を受信し又は取得するよう構成される。再構成ピクチャデータは、予測ブロック265又は予測子265を取得するために、予測、例えばインター予測又はイントラ予測のために参照ピクチャデータとして使用される。
パーティションユニット262は、現在ブロック203を更に小さいパーティション、例えば正方形又は長方形サイズのより小さいブロックにパーティションして(又は分割して)よい。これらの更に小さいブロック(これは、サブブロックとも呼ばれてよい)は、一層小さいパーティションに更にパーティションされてよい。これは、木パーティション又は階層木パーティションとも呼ばれる。ここで、例えばルート木レベル0(階層レベル0、深さ0)にあるルートブロックは、再帰的にパーティションされて、例えば、次のより下の木レベルにある2つ以上のブロック、例えば木レベル1(階層レベル1、深さ1)にあるノードにパーティションされてよい。ここで、例えば終了基準が充足された、例えば最大木深さ又は最小ブロックサイズに達したために、例えばパーティションが終了するまで、これらのブロックは、再び、次のより下のレベル、例えば木レベル2(階層レベル2、深さ2)の2つ以上のブロックにパーティションされてよい、等である。更にパーティションされないブロックは、木のリーフブロック又はリーフノードとも呼ばれる。2個のパーティションへのパーティションを用いる木は、2分木(binary-tree (BT))と呼ばれ、3個のパーティションへのパーティションを用いる木は3分木(ternary-tree (TT))と呼ばれ、4個のパーティションへのパーティションを用いる木は4分木(quad-tree (QT))と呼ばれる。
イントラ予測モードのセットは、35個の異なるイントラ予測モード、例えばDC(又は平均)モード及び平面モードのような無指向性モード、又は例えばHEVCで定義されたような指向性モードを含んでよく、又は67個の異なるイントラ予測モード、例えばDC(又は平均)モード及び平面モードのような無指向性モード、又は例えばVVCのために定義されたような指向性モードを含んでよい。
インター予測モード(又は可能なもの)のセットは、利用可能な参照ピクチャ(つまり、例えばDBP230に格納された、前の少なくとも部分的に復号されたピクチャ)及び他のインター予測パラメータに、例えば、参照ピクチャの全体又は部分のみが、例えば参照ピクチャの現在ブロックの領域周辺の検索ウインドウ領域が最良の適合する参照ブロックを検索するために使用されるか、及び/又は、例えば、ピクセル補間、例えばハーフ/セミペル及び/又は4分の1ペル補間が適用されるか否かに依存する。
エントロピー符号化ユニット270は、例えばエントロピー符号化アルゴリズム又は方式(例えば、可変長コーディング(variable length coding (VLC))方式、コンテキスト適応型VLC方式(context adaptive VLC (CAVLC))、算術コーディング方式、二値化、コンテキスト適応型バイナリ算術コーディング(context adaptive binary arithmetic coding (CABAC))、シンタックスに基づくコンテキスト適応型バイナリ算術コーディング(syntax-based context-adaptive binary arithmetic coding (SBAC))、確率区間パーティショニングエントロピー(probability interval partitioning entropy (PIPE))コーディング又は別のエントロピー符号化方法若しくは技術)を、量子化済み残差係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ及び/又は他のシンタックス要素に、適用して又はバイパスして(圧縮しない)、出力272により例えば符号化ビットストリーム21の形式で出力され得る符号化ピクチャデータ21を取得するよう構成される。その結果、例えば、ビデオデコーダ30は、復号のためにパラメータを受信し使用してよい。符号化ビットストリーム21は、ビデオデコーダ30へと伝送され、又はビデオデコーダ30による後の伝送又は読み出しのためにメモリに格納されてよい。
図3は、本願の技術を実施するよう構成されるビデオデコーダ30の例を示す。ビデオデコーダ30は、復号ピクチャ331を取得するために、例えばエンコーダ20により符号化された符号化ピクチャデータ21(例えば、符号化ビットストリーム21)を受信するよう構成される。符号化ピクチャデータ又はビットストリームは、符号化ピクチャデータを復号するための情報、例えば符号化ビデオスライスのピクチャブロックを示すデータ及び関連するシンタックス要素を含む。
エントロピー復号ユニット304は、ビットストリーム21(又は一般的に符号化ピクチャデータ21)をパースし、例えば符号化ピクチャデータ21にエントロピー復号を実行して、例えば量子化済み係数309及び/又は復号コーディングパラメータ(図3に示されない)、例えばインター予測パラメータ(例えば、参照ピクチャインデックス及び動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モード又はインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、及び/又は他のシンタックス要素、のうちのいずれか又は全部を取得するよう構成される。エントロピー復号ユニット304は、エンコーダ20のエントロピー符号化ユニット270に関して説明したような符号化方式に対応する復号アルゴリズム又は方式を適用するよう構成されてよい。エントロピー復号ユニット304は、インター予測パラメータ、イントラ予測パラメータ、及び/又は他のシンタックス要素をモード適用ユニット360に、及び他のパラメータをデコーダ30の他のユニットに提供するよう更に構成されてよい。ビデオデコーダ30は、ビデオスライスレベル及び/又はビデオブロックレベルのシンタックス要素を受信してよい。
逆量子化ユニット310は、量子化パラメータ(quantization parameter (QP))(又は一般的に逆量子化に関する情報)及び量子化済み係数を、符号化ピクチャデータ21から(例えばエントロピー復号ユニット304により例えばパース及び/又は復号することにより)受信し、及び量子化パラメータに基づき逆量子化を復号量子化済み係数309に適用して、変換係数311とも呼ばれてよい逆量子化済み係数311を取得するよう構成されてよい。逆量子化処理は、ビデオスライス内の各ビデオブロックに対して、ビデオエンコーダ20により決定された量子化パラメータを使用して、量子化の程度、及び同様に適用されるべき逆量子化の程度を決定することを含んでよい。
逆変換処理ユニット312は、変換係数311とも呼ばれる逆量子化済み係数311を受信し、サンプルドメインにおいて再構成残差ブロック213を取得するために逆量子化済み係数311に変換を適用するよう構成されてよい。再構成残差ブロック213は、変換ブロック313とも呼ばれてよい。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、又は概念的に同様の逆変換処理であってよい。逆変換処理ユニット312は、変換パラメータ又は対応する情報を、符号化ピクチャデータ21から(例えばエントロピー復号ユニット304により例えばパース及び/又は復号することにより)受信して、逆量子化済み係数311に適用されるべき変換を決定するよう更に構成されてよい。
再構成ユニット314(例えば、加算器又はアナログ加算器314)は、再構成残差ブロック313を予測ブロック365に加算して、例えば再構成残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することにより、サンプルドメインにおける再構成ブロック315を取得するよう構成されてよい。
ループフィルタユニット320(コーディングループ内にある又はコーディングループの後にある)は、再構成ブロック315をフィルタリングしてフィルタリング済みブロック321を取得し、例えばピクセル遷移を円滑化するよう又はその他の場合にビデオ品質を向上するよう構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(sample-adaptive offset (SAO))フィルタ又は1つ以上の他のフィルタ、例えば双方向フィルタ、適応ループフィルタ(adaptive loop filter (ALF))、先鋭化、円滑化フィルタ若しくは共同フィルタ、又はそれらの任意の組合せのような1つ以上のループフィルタを含んでよい。ループフィルタユニット320はインループフィルタであるとして図3に示されるが、他の構成では、ループフィルタユニット320は後置きループフィルタとして実装されてよい。
ピクチャの復号ビデオブロック321は、次に、他のピクチャのための後の動き補償のための参照ピクチャとして及び/又はそれぞれディスプレイ出力のために復号ピクチャ331を格納する復号ピクチャバッファ330に格納される。
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同一であってよく、イントラ予測ユニット354は、インター予測ユニット254と機能的に同一であってよく、パーティション及び/又は予測パラメータ又は符号化ピクチャデータ21から(例えばエントロピー復号ユニット304により例えばパース及び/又は復号することにより)受信したそれぞれの情報に基づき、分割又はパーティション決定及び予測を実行する。モード選択ユニット360は、再構成ピクチャ、ブロック、又はそれぞれの(フィルタリング済み又は未フィルタリング)サンプルに基づき、ブロック毎に予測(イントラ又はインター予測)を実行して、予測ブロック365を取得するよう構成されてよい。
ビデオコーディングの近年の発展において、予測のためのより高度な技術及び方式が出現している。
ifactが0に等しくない、つまり予測がp1,refの中の完全なサンプル位置に正確に当てはまらない場合、p1,refの中の2つの近隣サンプル位置の間の線形重み付けは次のように実行される。
ここで、0≦x、y<Ncである。留意すべきことに、iidx及びifactの値はyにのみ依存し、従って、(垂直予測モードでは)行毎に1回計算する必要があるだけである。
この式で、「>>」はビット毎の右シフト演算を示す。
ここで、Rx,-1、R-1,yは、現在サンプル(x,y)の上及び左に位置する参照サンプルを表し、R-1,-1は現在ブロックの左上角に位置する参照サンプルを表す。P(x,y)は、上述のように平面、DC、又はHOR/VERイントラ予測モードを適用するとき、予測サンプルの値を示す。関数clip1Cmpは以下のように設定される。
BitDepthYは、ルマサンプルのビット深さである。
ここで、minCは、成分ID Cについて現在スライスの中で使用される下限のクリッピング境界である。
maxCは、成分ID Cについて現在スライスの中で使用される上限のクリッピング境界である。
Cは色成分である(例えば、ルマではY、クロマではCb及びCr)。
「x>>y 」は、x×yの2進数の2の補数整数表現の算術右シフトである。この関数は、yの非負整数値についてのみ定義される。右シフトの結果としての最上位ビット(most significant bit (MSB))へとシフトされたビットは、シフト演算の前のxのMSBに等しい値を有する。
平面モードではwTL=0であり、水平モードではwTL=wTであり、水平モードではwTL=wLである。例として、図13に、1個の4×4ブロックの内側の(0,0)及び(1,0)位置のDCモードPDPC重み(wL,wT,wTL)が示される。この図から、例えば式(1)に定義されるようなクリッピング演算が必須であることが分かる。しかしながら、従来のPDPC実装は、クリッピング手順の結果がbitDepthY又はbitDepthCにより定められる範囲から外れ得る以下の例で説明される潜在的な欠陥を有する。
上述の例から分かるように、負値「-4×100+32=-368」は、算術ビットシフトを用いて右シフトされている。実装に依存して、負値の算術右ビットシフトは、(例えば、C/C++プログラミング言語の場合に)異なる出力を生じ得る。従って、負値を右へシフトすることの結果は正符号及び特定の実装ではゼロではない大きさを有し得るので、Clip1Cmp()の出力が常に0であることが保証されないことがある。
隣接右上対角モードの場合は、図14Cに示される。隣接右上対角モードのPDPC重みは、
同様に、隣接左下対角モードの場合は図14Dに示される。隣接左下対角モードのPDPC重みは、
最後の2つの場合の参照サンプル座標は、角度モードイントラ予測のために既に使用された表を用いて計算される。分数参照サンプル座標が計算される場合、参照サンプルの線形補間が使用される。
Floor(x)は、x以下の最大整数である。
Log2(x)は、2を底とするxの対数である。
intraPredAngleは、表4で指定された角度パラメータである。
A=C?B:Dは、三項代入演算であり、条件Cが真の場合、AはBに等しく設定される。或いは、条件Cが偽の場合、AはDに等しく設定される。
INTRA_PLANARは、平面イントラ予測モード()である。
INTRA_DCは、DCイントラ予測モードである。
INTRA_ANGULARXXは、方向イントラ予測モードのうちの1つであり、XXは、図10B又は10Cに示されるその番号及び対応する方向を示す。
・イントラ予測モードpredModeIntra、
・変換ブロック幅を指定する変数nTbW、
・変換ブロック高さを指定する変数nTbH、
・参照サンプル幅を指定する変数refW、
・参照サンプル高さを指定する変数refH、
・予測サンプル:
・近隣サンプル:
・現在ブロックの色成分を指定する変数cIdx。
・cIdxが0に等しい場合、clip1CmpはClip1Yに等しく設定される。
・その他の場合、clip1CmpはClip1Cに等しく設定される。
は、以下のように導出される。
変更された予測サンプルの値
は、以下のように導出される。
上述の式1の割り当てで、簡易PDPCは、線形補間の代わりに最近接近隣補間を使用してよい:
同様に、上述の式2の割り当てで、簡易PDPCも最近接近隣補間を使用し得る:
従って、エンコーダ及びデコーダ側の両方で、方法は、入力データとして以下を使用する:
・指向性イントラ予測モード(図10B及び図10Cに示されるpredModeIntraとして更に示される)、
・ブロックサイズパラメータnTbS、これは、(log2(nTbW)+Log2(nTbH))>>1に等しく設定され、ここで、nTbW及びnTbHは、それぞれ予測ブロックの幅及び高さを示し、「>>」は右シフト演算を示す。
表4 intraPredAngleをpredModeIntraから導出するための例示的なLUT
この処理への入力は:
・変換ブロック幅を指定する変数nTbW、
・変換ブロック高さを指定する変数nTbH、
・近隣サンプル:
この処理の出力は、以下の予測サンプルである:
予測サンプルの値
は、以下のように導出される。
・無指向性イントラ予測モジュール。
ここで、Rx,-1、R-1,yは、それぞれ、現在サンプル(x,y)の上方(上)及び左に位置する参照サンプルを表す。P(x,y)は、DCイントラ予測モードを用いて予測される予測サンプルの値を示す。上述の式では、加重予測サンプルは、(64-wL-wT)×P(x,y)により表され、加算値はwL×R-1,y+wT×Rx,-1+32により表される。正規化は、ビット毎の右シフト演算>>6により表される。しかしながら、本開示は、加算値の特定の定義、6ビットのシフト演算に限定されない。
この実装形式では、正規化は、右シフト演算子>>6により実現される。本開示は、以上で与えられた特定の計算に限定されず、数学的に等価な計算が実行されてよい。
例として、図17に、1個の4×4ブロックの内側の(0,0)及び(1,0)位置のDCモードPDPC重み(wL,wT)が示される。この例では、重みwL及びwTの値は、座標(0,0)にある予測サンプルについて、32である。更に、例では、座標(1,0)にある予測サンプルについて、重みwLの値は8であり、重みwTの値は32である。図13に示す座標(0,0)及び(1,0)にある予測サンプルについての重みと比べて、左上参照サンプルは使用されず、このサンプル(左上参照サンプル)についての重みは指定されないことに気づき得る。しかしながら、本開示は、記載のDCモードPDPC重み計算手順に限定されず、該DCモードPDPC重みは異なる方法で又は異なる式を適用することにより決定されてよい。
この処理への入力は:
・イントラ予測モードpredModeIntra、
・変換ブロック幅を指定する変数nTbW、
・変換ブロック高さを指定する変数nTbH、
・参照サンプル幅を指定する変数refW、
・参照サンプル高さを指定する変数refH、
・予測サンプル:
・近隣サンプル:
・現在ブロックの色成分を指定する変数cIdx。
・cIdxが0に等しい場合、clip1CmpはClip1Yに等しく設定される。
・その他の場合、clip1CmpはClip1Cに等しく設定される。
参照サンプル配列
は、以下のように導出される:
変数
は、以下のように導出される。
図18は、上述の方法を示す。破線により、従来のPDPCにおいて実行されるが、係数wTLが使用されないために必要ないので必ずしも提案される方法では実行されない、クリッピングのステップが示される。
上述の2つの式(8-82)及び(8-83)から、predV[x][y]がpredV[x][y]と同じ列に位置する参照サンプルp[x][-1]を使用すること、及びpredH[x][y]がpredH[x][y]と同じ行に位置する参照サンプルp[-1][y]を使用することが分かる。更に、左シフト演算は、最終ステップとして実行され、従って、それらが再利用されている中間の計算に影響を与えないので、スキップできる。
・水平モード(モード18)の場合の加算値は、以下のように計算され得る:
・垂直モード(モード50)の場合の加算値は、以下のように計算され得る:
・DCモード(モード1)の場合の加算値は、Vy+Vxのように計算され得る。ここで、Dx及びDyは前述の2つの場合のように設定される。つまり、DyがwT[y]に等しく設定され、及びDxがwL[y]に等しく設定される。
この処理への入力は:
・イントラ予測モードpredModeIntra、
・変換ブロック幅を指定する変数nTbW、
・変換ブロック高さを指定する変数nTbH、
・参照サンプル幅を指定する変数refW、
・参照サンプル高さを指定する変数refH、
・予測サンプル:
・近隣サンプル:
この処理の出力は、以下の変更された予測サンプルである。
変数nScaleは、以下のように導出される。
参照サンプル配列mainRef[x]及びsideRef[y]、ここでx=0...refW-1及びy=0...refH-1は、以下のように導出される:
変数refL[x][y]、refT[x][y]、wT[y]、及びwL[x]、ここでx=0...nTbW-1、y=0...nTbH-1は、以下のように導出される:
変更された予測サンプルの値
は、以下のように導出される。
以上では、関数Clip1は、例えば更に上述したような(clip1Cmp)のように定義されてよい。
前記ブロックの複数のサンプルからの各サンプルについて、
DCイントラ予測モード、平面イントラ予測モード、及び角度イントラ予測モードのうちの1つを用いてイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するステップと、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるステップと、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるステップと、
前記非正規化予測サンプル値の整数表現の算術右シフトにより、前記非正規化予測サンプル値を正規化して、正規化予測サンプル値を生じるステップと、
を含む方法が提供される。
pは前記サンプル重み係数の精度であり、
wLは水平重み係数であり、
wTは垂直重み係数である。
ここで、
P^(x,y)は前記正規化予測サンプル値であり、
P(x,y)は前記予測サンプル値であり、
Rx,-1,R-1,yは前記予測サンプルの上及び左に位置する最も近い参照サンプルの値を表し、
wLは水平重み係数であり、
wTは垂直重み係数である。
JEM-Joint Exploration Model (the software codebase for future video coding exploration)
JVET-Joint Video Experts Team
LUT-Look-Up Table
PDPC-Position-dependent prediction combination
PPS-Picture parameter set
QT-Quad Tree
QTBT-Quad Tree plus Binary Tree
RDO-Rate-distortion Optimization
ROM-Read-Only Memory
SPS-Sequence parameter set
VTM-VVC Test Model
VVC-Versatile Video Coding, the standardization project developed by JVET.
CTU/CTB-Coding Tree Unit/Coding Tree Block
CU/CB-Coding Unit/Coding Block
PU/PB-Prediction Unit/Prediction Block
TU/TB-Transform Unit/Transform Block
HEVC-High Efficiency Video Coding
Claims (18)
- ピクチャのブロックのイントラ予測の方法であって、前記ブロックのサンプルについて、
DCイントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するステップと、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるステップと、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるステップと、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するステップと、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、方法。 - ピクチャの第1ブロック及び第2ブロックのイントラ予測の方法であって、前記第1ブロックのサンプルについて、及び前記第2ブロックのサンプルについて、
イントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するステップと、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるステップと、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるステップと、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するステップと、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数であり、
前記第1ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードはDCイントラ予測モードであり、前記第2ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードは平面イントラ予測モードである、方法。 - 平面イントラ予測メカニズムが前記加算値を計算するために使用される、請求項1又は2に記載の方法。
- 前記サンプル重み係数は(64-wL-wT)である、請求項1~3のいずれか一項に記載の方法。
- 前記加算値は、前記参照サンプルのうちの1つ以上に依存する被加数を含む1つ以上の被加数の和である、請求項1~4のいずれか一項に記載の方法。
- 1つ以上の参照サンプルに依存する前記被加数は、wL×R-1,y+wT×Rx,-1であり、Rx,-1及びR-1,yは、前記予測サンプルの上及び左に位置する最も近い参照サンプルの値を表す、請求項5に記載の方法。
- 前記水平重み係数wL及び/又は前記垂直重み係数wTは2のべき乗である、請求項1~6のいずれか一項に記載の方法。
- 前記水平重み係数はwL=(2<<(p-1))>>((x<<1)>>nScale)であり、xは前記サンプルの水平座標であり、
前記垂直重み係数はwT=(2<<(p-1))>>((y<<1)>>nScale)であり、yは前記サンプルの垂直座標であり、
nScaleはスケールパラメータである、請求項1~7のいずれか一項に記載の方法。 - 前記スケールパラメータnScaleは前記ブロックのサイズから導出される、請求項8に記載の方法。
- 前記スケールパラメータnScaleは((Log2(nTbW)+Log2(nTbH)-2)>>2)として決定され、nTbWは前記ブロックの幅であり、nTbHは前記ブロックの高さである、請求項8に記載の方法。
- 正規化予測サンプル値は前記予測サンプル値から計算され、(wL×R-1,y+wT×Rx,-1+(64-wL-wT)×P(x,y)+32)>>6を計算することを含み、
P(x,y)は前記予測サンプル値であり、
Rx,-1、R-1,yは、前記予測サンプルの上及び左に位置する最も近い参照サンプルの値を表し、
wLは前記水平重み係数であり、
wTは前記垂直重み係数である、
請求項1~10のいずれか一項に記載の方法。 - ピクチャの符号化又は復号の方法であって、
請求項1~11のいずれか一項に記載の方法のステップを実行することにより、正規化予測サンプル値を取得するステップと、
前記正規化予測サンプル値に残差値を加算して、再構成サンプル値を生じるステップと、
を含む方法。 - 請求項1~12のいずれか一項に記載の方法を実行するよう構成される処理回路を含む、ピクチャの符号化又は復号のための装置。
- 前記処理回路は、1つ以上のプロセッサと、前記1つ以上のプロセッサに接続された非一時的コンピュータ可読媒体と、を含み、前記非一時的コンピュータ可読媒体は、前記1つ以上のプロセッサにより実行されると、前記装置に請求項1~13のいずれか一項に記載の方法を実行させるプログラムコードを運ぶ、請求項13に記載の装置。
- コンピュータ装置により実行されると、前記コンピュータ装置に請求項1~12のいずれか一項に記載の方法を実行させるプログラムコードを運ぶ非一時的コンピュータ可読媒体。
- 請求項1~12のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム。
- ピクチャのブロックのイントラ予測のための予測装置であって、
前記ブロックのサンプルについて、DCイントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数である、予測装置。 - ピクチャの第1ブロック及び第2ブロックのイントラ予測のための予測装置であって、
前記第1ブロックのサンプル又は前記第2ブロックのサンプルについて、イントラ予測モードを用いるイントラ予測により、1つ以上の参照サンプル値から予測サンプル値を取得するよう構成される取得器と、
前記予測サンプル値をサンプル重み係数により乗算して、加重予測サンプル値を生じるよう構成される乗算器と、
前記加重予測サンプル値に加算値を加算して、非正規化予測サンプル値を生じるよう構成される加算器と、
前記非正規化予測サンプル値の整数表現の算術右シフトにより前記非正規化予測サンプル値を正規化するよう構成される正規化器と、
を含み、
前記サンプル重み係数は、((2<<p)-wL-wT)であり、
pは前記サンプル重み係数のパラメータであり、
wLは水平重み係数であり、
wTは垂直重み係数であり、
前記第1ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードはDCイントラ予測モードであり、前記第2ブロックについて前記予測サンプル値を取得するために使用される前記イントラ予測モードは平面イントラ予測モードである、予測装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023206545A JP2024019425A (ja) | 2018-11-26 | 2023-12-07 | ピクチャのブロックのイントラ予測の方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862771451P | 2018-11-26 | 2018-11-26 | |
US62/771,451 | 2018-11-26 | ||
PCT/RU2019/050227 WO2020111982A1 (en) | 2018-11-26 | 2019-11-26 | Method of intra predicting a block of a picture |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023206545A Division JP2024019425A (ja) | 2018-11-26 | 2023-12-07 | ピクチャのブロックのイントラ予測の方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022507985A true JP2022507985A (ja) | 2022-01-18 |
JP7401542B2 JP7401542B2 (ja) | 2023-12-19 |
Family
ID=70853105
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021529421A Active JP7401542B2 (ja) | 2018-11-26 | 2019-11-26 | ピクチャのブロックのイントラ予測の方法 |
JP2023206545A Pending JP2024019425A (ja) | 2018-11-26 | 2023-12-07 | ピクチャのブロックのイントラ予測の方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023206545A Pending JP2024019425A (ja) | 2018-11-26 | 2023-12-07 | ピクチャのブロックのイントラ予測の方法 |
Country Status (11)
Country | Link |
---|---|
US (2) | US11553174B2 (ja) |
EP (2) | EP3874747A4 (ja) |
JP (2) | JP7401542B2 (ja) |
KR (1) | KR102661224B1 (ja) |
CN (4) | CN115695784A (ja) |
AU (1) | AU2019390215B2 (ja) |
BR (1) | BR112021010123A2 (ja) |
CA (1) | CA3121219A1 (ja) |
MX (1) | MX2021006089A (ja) |
SG (1) | SG11202105452VA (ja) |
WO (1) | WO2020111982A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3861749A1 (en) * | 2018-10-01 | 2021-08-11 | InterDigital VC Holdings, Inc. | Directions for wide angle intra prediction |
WO2020118287A1 (en) * | 2018-12-07 | 2020-06-11 | Interdigital Vc Holdings, Inc. | Managing coding tools combinations and restrictions |
JP2022537173A (ja) | 2019-06-20 | 2022-08-24 | インターデジタル ブイシー ホールディングス フランス,エスアーエス | 位置依存イントラ予測コンビネーションを用いたピクチャ符号化及び復号の方法及びデバイス |
WO2020263646A1 (en) * | 2019-06-24 | 2020-12-30 | Interdigital Vc Holdings, Inc. | Method and apparatus for signaling decoding data using high level syntax elements |
EP3987800A4 (en) * | 2019-06-24 | 2023-03-29 | Sharp Kabushiki Kaisha | SYSTEMS AND METHODS FOR PERFORMING INTRA PREDICTION CODING IN VIDEO CODING |
TW202118300A (zh) * | 2019-09-24 | 2021-05-01 | 法商內數位Vc控股法國公司 | 同質語法 |
US20220103825A1 (en) * | 2020-09-30 | 2022-03-31 | Qualcomm Incorporated | Constraining operational bit depth of adaptive loop filtering for coding of video data at different bit depth |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5158003B2 (ja) * | 2009-04-14 | 2013-03-06 | ソニー株式会社 | 画像符号化装置と画像符号化方法およびコンピュータ・プログラム |
TR201807094T4 (tr) * | 2010-08-17 | 2018-06-21 | M&K Holdings Inc | Bi̇r i̇ç tahmi̇n modunu geri̇ yüklemek i̇çi̇n yöntem |
WO2012088211A1 (en) * | 2010-12-21 | 2012-06-28 | Docomo Communications Laboratories Usa Inc. | Enhanced intra-prediction coding using planar representations |
WO2017035831A1 (en) * | 2015-09-06 | 2017-03-09 | Mediatek Inc. | Adaptive inter prediction |
US10425648B2 (en) * | 2015-09-29 | 2019-09-24 | Qualcomm Incorporated | Video intra-prediction using position-dependent prediction combination for video coding |
US20190068967A1 (en) | 2016-02-03 | 2019-02-28 | Sharp Kabushiki Kaisha | Predicted-image generation device, video decoding device, and video coding device |
KR101899101B1 (ko) * | 2016-06-01 | 2018-09-14 | 서울대학교 산학협력단 | 인공 신경망 기반 예측 모델 생성 장치 및 방법 |
CN107071417B (zh) * | 2017-04-10 | 2019-07-02 | 电子科技大学 | 一种用于视频编码的帧内预测方法 |
US10638126B2 (en) * | 2017-05-05 | 2020-04-28 | Qualcomm Incorporated | Intra reference filter for video coding |
US10965941B2 (en) * | 2017-10-09 | 2021-03-30 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
US11611757B2 (en) * | 2018-04-02 | 2023-03-21 | Qualcomm Incorproated | Position dependent intra prediction combination extended with angular modes |
US10911765B2 (en) * | 2018-08-01 | 2021-02-02 | Tencent America LLC | Method and apparatus for video coding |
CN118214860A (zh) * | 2018-10-12 | 2024-06-18 | 英迪股份有限公司 | 图像解码和编码方法、数字存储介质、发送比特流的方法 |
CA3117933C (en) | 2018-11-08 | 2023-05-23 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image signal encoding/decoding method and apparatus therefor |
US11652984B2 (en) * | 2018-11-16 | 2023-05-16 | Qualcomm Incorporated | Position-dependent intra-inter prediction combination in video coding |
-
2019
- 2019-11-26 KR KR1020217018921A patent/KR102661224B1/ko active IP Right Grant
- 2019-11-26 CA CA3121219A patent/CA3121219A1/en active Pending
- 2019-11-26 SG SG11202105452VA patent/SG11202105452VA/en unknown
- 2019-11-26 CN CN202211400009.2A patent/CN115695784A/zh active Pending
- 2019-11-26 EP EP19889611.0A patent/EP3874747A4/en not_active Ceased
- 2019-11-26 CN CN202211397165.8A patent/CN115695783A/zh active Pending
- 2019-11-26 BR BR112021010123-3A patent/BR112021010123A2/pt unknown
- 2019-11-26 EP EP23218563.7A patent/EP4358511A1/en active Pending
- 2019-11-26 MX MX2021006089A patent/MX2021006089A/es unknown
- 2019-11-26 JP JP2021529421A patent/JP7401542B2/ja active Active
- 2019-11-26 AU AU2019390215A patent/AU2019390215B2/en active Active
- 2019-11-26 CN CN201980067060.6A patent/CN112889281B/zh active Active
- 2019-11-26 WO PCT/RU2019/050227 patent/WO2020111982A1/en unknown
- 2019-11-26 CN CN202211399786.XA patent/CN116132667A/zh active Pending
-
2021
- 2021-05-24 US US17/328,352 patent/US11553174B2/en active Active
-
2022
- 2022-12-05 US US18/075,225 patent/US20230107125A1/en active Pending
-
2023
- 2023-12-07 JP JP2023206545A patent/JP2024019425A/ja active Pending
Non-Patent Citations (2)
Title |
---|
XIN ZHAO, ET AL.: "EE1 related: Simplification and extension of PDPC", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-H0057_r1, JPN6022041753, 18 October 2017 (2017-10-18), ISSN: 0004893811 * |
Y. CHEN, ET AL.: "Description of SDR, HDR and 360° video coding technology proposal by Qualcomm and Technicolor - low", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-J0021, JPN6022041754, 14 April 2018 (2018-04-14), pages 12 - 13, ISSN: 0004893812 * |
Also Published As
Publication number | Publication date |
---|---|
CN112889281A (zh) | 2021-06-01 |
KR102661224B1 (ko) | 2024-04-26 |
CA3121219A1 (en) | 2020-06-04 |
EP3874747A1 (en) | 2021-09-08 |
US11553174B2 (en) | 2023-01-10 |
CN115695783A (zh) | 2023-02-03 |
EP4358511A1 (en) | 2024-04-24 |
JP7401542B2 (ja) | 2023-12-19 |
CN115695784A (zh) | 2023-02-03 |
CN116132667A (zh) | 2023-05-16 |
US20230107125A1 (en) | 2023-04-06 |
BR112021010123A2 (pt) | 2021-08-24 |
US20210281835A1 (en) | 2021-09-09 |
CN112889281B (zh) | 2022-11-18 |
WO2020111982A1 (en) | 2020-06-04 |
SG11202105452VA (en) | 2021-06-29 |
EP3874747A4 (en) | 2021-12-29 |
KR20210090700A (ko) | 2021-07-20 |
AU2019390215B2 (en) | 2023-04-06 |
AU2019390215A1 (en) | 2021-06-17 |
JP2024019425A (ja) | 2024-02-09 |
MX2021006089A (es) | 2021-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11070799B2 (en) | Encoder, decoder and corresponding methods for intra prediction | |
JP7401542B2 (ja) | ピクチャのブロックのイントラ予測の方法 | |
JP7508645B2 (ja) | モードおよびサイズに依存したブロックレベル制限の方法および装置 | |
KR20230170817A (ko) | 비디오 디코딩 방법 및 비디오 디코더 | |
US11589055B2 (en) | Method and apparatus of mode- and size-dependent block-level restrictions for position dependent prediction combination | |
KR20210126771A (ko) | 인트라 예측 모드에 관련된 인코더, 디코더 및 대응하는 방법들 | |
US11758137B2 (en) | Encoder, decoder and corresponding methods using DCT2 enabled high level flag | |
US20240015304A1 (en) | Method and apparatus for intra prediction | |
KR102631517B1 (ko) | 픽처 분할 방법 및 장치 | |
KR20220024900A (ko) | 비선형 적응 루프 필터의 클리핑 레벨 | |
US11438629B2 (en) | Method and apparatus for hierarchical signaling of enabling and disabling prediction mechanisms for video coding | |
WO2021054868A1 (en) | Method and apparatus for intra prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7401542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |