JP6724046B2 - イントラ予測およびイントラモードコーディング - Google Patents
イントラ予測およびイントラモードコーディング Download PDFInfo
- Publication number
- JP6724046B2 JP6724046B2 JP2017564703A JP2017564703A JP6724046B2 JP 6724046 B2 JP6724046 B2 JP 6724046B2 JP 2017564703 A JP2017564703 A JP 2017564703A JP 2017564703 A JP2017564703 A JP 2017564703A JP 6724046 B2 JP6724046 B2 JP 6724046B2
- Authority
- JP
- Japan
- Prior art keywords
- intra prediction
- prediction mode
- block
- mpm
- intra
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 212
- 238000003860 storage Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000009795 derivation Methods 0.000 claims description 13
- 239000000523 sample Substances 0.000 description 112
- 241000023320 Luma <angiosperm> Species 0.000 description 67
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 67
- 238000012545 processing Methods 0.000 description 67
- 230000008569 process Effects 0.000 description 60
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 22
- 238000013139 quantization Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000006835 compression Effects 0.000 description 11
- 238000007906 compression Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 11
- 230000011664 signaling Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000013074 reference sample Substances 0.000 description 8
- 238000003491 array Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 101150039623 Clip1 gene Proteins 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 241000985610 Forpus Species 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012432 intermediate storage Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)である。
1. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
2. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。
3. x=0...2であるcandModeList[x]が次のように導出される。
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
- それ以外の場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
candModeList[1]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定される。
- prev_intra_luma_pred_flag[xPb][yPb]が1としてシグナリングされる場合、すなわち3つのMPMのうちの1つが現在のPUをコーディングするために選択される場合、どのMPMが現在のPUをコーディングするために選択されるかを示す、インデックスmpm_idx(0、1、または2に等しいことがある)がさらにシグナリングされる。mpm_idxは、切捨て単項符号を使用してバイナリ化され、コンテキストモデリングを使用せずにバイパスコーディングされる。
- それ以外の場合(prev_intra_luma_pred_flag[xPb][yPb]が0としてシグナリングされる)、すなわち非MPMが現在のPUのために使用される場合、どの非MPMが現在のPUのために選択されるかを示す、インデックスrem_intra_luma_pred_mode[xPb][yPb]がさらにシグナリングされる。rem_intra_luma_pred_mode[xPb][yPb]の値は0、1、...、31であることがあり、固定長(5ビット)のバイナリ化がバイパスコーディングとともに使用される。
pxy=(1-α)・L+α・R
ここでpxyはそれぞれのサンプルの計算された値であり、LおよびRは2つの再構築された隣接サンプルの値であり、αは決定された小数位置である。
このプロセスへの入力は、シンタックス要素rem_intra_luma_pred_modeのバイナリ化に対する要求である。
このプロセスの出力は、シンタックス要素のバイナリ化である。
- rem_intra_luma_pred_modeが28に等しい場合、バイナリ化文字列は「111」である。
- それ以外の場合、バイナリ化は5つのビンを有する固定長符号である。
9.3.4.x.x シンタックス要素mpm_idxのためのctxIncの導出プロセス
このプロセスへの入力は、左の隣接ブロックのイントラモードcandIntraPredModeAおよび上の隣接ブロックのイントラモードcandIntraPredModeBである。
このプロセスの出力は変数ctxIncである。
変数csbfCtxが、現在の場所(xS, yS)、走査順序におけるシンタックス要素coded_sub_block_flagの2つの以前に復号されたビン、および変換ブロックサイズlog2TrafoSizeを使用して、次のように導出される。
- candIntraPredModeAがcandIntraPredModeBに等しいとき、ctxIncは次のように導出される
ctxInc=candIntraPredModeA>1?0:1
- それ以外の場合
ctxInc=(candIntraPredModeA && candIntraPredModeB)?2:3</ins>
8.4.2 ルーマイントラ予測モードの導出プロセス
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)、<ins>予測ブロックサイズnPbs</ins>である。
このプロセスにおいて、ルーマイントラ予測モードIntraPredModeY[xPb][yPb]が導出される。
Table 8-1(表4)は、イントラ予測モードの値および関連する名称を規定する。
IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
4. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
5. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
<ins>
- candIntraPredModeXがINTRA_DCとして初期化される。
- イントラモード使用のカウントを0として初期化する: cntIntraPredModeX[i]=0, i=0, 1, …, 34
- イントラモード使用の最大カウントを0として初期化する: cntMaxIntraPredModeX=0
- x=0..nPbS - 1に対して、以下が適用される。
- (xCurr, yCurr)=(X==A)?(xNbA+x, yNbA)?(xNbA, yNbA +x)
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- availableXがTRUEに等しく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しい場合、以下が適用される。
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]++
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]>cntMaxIntraPredModeXである場合、以下が適用される。
- cntMaxIntraPredModeX=cntIntraPredModeX[CuPredMode[xCurr][yCurr]];
- candIntraPredModeX=CuPredMode[xCurr][yCurr] </ins>
<dlt>
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。</dlt>
6. x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
- <ins>idxPlanarが0として設定され、idxDCが1として設定される;</ins>
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
<ins>candModeList[3]=INTRA_ANGULAR10 (8-17)
candModeList[4]=INTRA_ANGULAR2 (8-17)
candModeList[5]=INTRA_ANGULAR18 (8-17)</ins>
- それ以外の場合、x=0...5であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
<dlt>candModeList[2]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)</dlt>
<ins>candModeList[1]=INTRA_PLANAR (8-20)
candModeList[2]=2+((candIntraPredModeA-1)%32) (8-19)
candModeList[3]=2+((candIntraPredModeA+29)%32) (8-20)
candModeList[4]=2+((candModeList[2]-1)%32) (8-20)
candModeList[5]=INTRA_DC (8-20)
idxPlanar=1
idxDC=5</ins>
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、<ins>以下が適用される。
- maxDir=max(candModeList[0], candModeList[1] )
- minDir=min(candModeList[0], candModeList[1] )
- idxPlanar=2
- candModeList[0]とcandModeList[1]のいずれかがINTRA_DCに等しい場合、以下が適用される。
candModeList[3]=2+((maxDir+29)%32) (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
candModeList[5]=2+((candModeList[4]-1)%32) (8-22)
idxDC=(candModeList[0]==INTRA_DC)?0:1
- それ以外の場合、
candModeList[3]=INTRA_DC (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
- candModeList[4]がminDirに等しい場合、candModeList[4]++
candModeList[5]=2+((candModeList[4]+29)%32) (8-22)
- candModeList[5]がmaxDirに等しい場合、candModeList[5]--
- candModeList[5]がcandModeList[4]に等しい場合、candModeList[5]=minDir+1
idxDC=3</ins>
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、<ins>以下が適用される。
candModeList[3]=2+((candIntraPredModeA+29)%32)
candModeList[4]=2+((candIntraPredModeA-1)%32)
candModeList[5]=2+((candModeList[4]-1)%32)
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=2</ins>
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定され、以下が適用される。
<ins>candModeList[3]=INTRA_ANGULAR10
candModeList[4]=INTRA_ANGULAR2
candModeList[5]=INTRA_ANGULAR18
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=1-idxPlanar</ins>
7. IntraPredModeY[xPb][yPb]は以下の手順を適用することによって導出される。
- prev_intra_luma_pred_flag[xPb][yPb]が1に等しい場合、IntraPredModeY[xPb][yPb]はcandModeList[mpm_idx]に等しく設定される。
- それ以外の場合、IntraPredModeY[xPb][yPb]は以下の順序付けられたステップを適用することによって導出される。
1) x=0...<dlt>2</dlt><ins>5</ins>であるアレイcandModeList[x]は以下の順序付けられたステップとして修正される。<ins>
i. candModeList[idxPlanar]=candModeList[0]
ii. candModeList[idxDC]=candModeList[1]
iii. candModeList[0]=INTRA_PLANAR
iv. candModeList[1]=INTRA_DC</ins>
v. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[ dlt>1</dlt><ins>3</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>]) (8-23)
vi. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[<dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-24)
vii. <ins>candModeList[2]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[2], candModeList[5])=Swap(candModeList[2], candModeList[5])</ins>
viii. candModeList[<dlt>1</dlt><ins>3</ins>]がcandModeList[ dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-25)
ix. <ins>candModeList[3]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[3], candModeList[5])=Swap(candModeList[3], candModeList[5])
candModeList[4]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[4], candModeList[5])=Swap(candModeList[4], candModeList[5])</ins>
2) IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
i. IntraPredModeY[xPb][yPb]がrem_intra_luma_pred_mode[xPb][yPb]に等しく設定される。
両端を含めて0から<dlt>2</dlt><ins>5</ins>に等しいiに対して、IntraPredModeY[xPb][yPb]がcandModeList[i]以上であるとき、IntraPredModeY[xPb][yPb]の値は1だけインクリメントされる。
2+((candIntraPredModeA-1)%32)、
2+((candIntraPredModeA+29)%32)、および
2+((candModeList[2]-1)%32)
上の式において、%は剰余演算を示す。
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
本開示の図9である図8-2は、33個すべてのイントラ角度を示しており、Table 8-4(表5)は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
c. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
Table 8-5(表8)はさらに、predModeIntraと逆角度パラメータinvAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
......
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
Table 8-3 - 様々な変換ブロックサイズに対するintraHorVerDistThres[nTbS]の規定
...
<ins>x.x.x イントラ補間フィルタ係数初期化プロセス</ins>
このプロセスの出力は、アレイfilterCubic[sFrac][pos]である。sFracのアレイインデックスは0から31にわたる小数位置を指定し、posはpos番目のサンプルのフィルタ係数を指定する。アレイfilterCubicおよびfilterGaussianが次のように導出される。
<ins>filterCubic[32][4]={
{
{ 0, 256, 0, 0 }, // 0
{ -3, 252, 8, -1 }, // 1
{ -5, 247, 17, -3 }, // 2
{ -7, 242, 25, -4 }, // 3
{ -9, 236, 34, -5 }, // 4
{ -10, 230, 43, -7 }, // 5
{ -12, 224, 52, -8 }, // 6
{ -13, 217, 61, -9 }, // 7
{ -14, 210, 70, -10 }, // 8
{ -15, 203, 79, -11 }, // 9
{ -16, 195, 89, -12 }, // 10
{ -16, 187, 98, -13 }, // 11
{ -16, 179, 107, -14 }, // 12
{ -16, 170, 116, -14 }, // 13
{ -17, 162, 126, -15 }, // 14
{ -16, 153, 135, -16 }, // 15
{ -16, 144, 144, -16 }, // 16
},
};
sigma=0.9
for(i=0; i<17; i++)
{
for(c=0; c<4; c++ )
{
filterGaussian [b][i][c]=(256.0*exp(-((c-delta)/sigma)2)/sum+0.5);
}
}
for(i=17; i<32; i++)
{
for(c=0; c<4; c++ )
{
filterCubic[b][i][c]=filterCubic[b][32-i][3-c];
filterGaussian[b][i][c]=filterGaussian[b][32-i][3-c];
}
}
</ins>
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
...
x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
</dlt>predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)</dlt>
<ins>p=0,...,3に対して、pF[p]=(cIdx==0&&nTbS<=8)?filterCubic[iFact][p]:filterGaussian[iFact][p]
P[1]=ref[x+iIdx+1]
P[2]=ref[x+iIdx2]
P[0]=(x==0)?ref[x+iIdx+1]:ref[x+iIdx]
P[3]=(x==nTbS-1)?ref[x+iIdx2]:ref[x+iIdx+3]
predSamples[x][y]=
(pF[0]*P[0]+pF[1]*P[1]+pF[2]*P[2]+pF[3]*P[3]+128)>>8 (8-52)</ins>
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
d. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
e. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
f. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
12 ソースデバイス
14 宛先デバイス
16 チャネル
18 ビデオソース
20 ビデオエンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ
32 ディスプレイデバイス
40 画像ブロック
42 矢印
50 右上の再構築されたサンプル
52 左下の再構築されたサンプル
54 再構築されたサンプル
56 再構築されたサンプル
100 予測処理ユニット
101 ビデオデータメモリ
102 残差生成ユニット
104 変換処理ユニット
106 量子化ユニット
108 逆量子化ユニット
110 逆変換処理ユニット
112 再構築ユニット
114 フィルタユニット
116 復号ピクチャバッファ
118 エントロピー符号化ユニット
120 インター予測処理ユニット
122 MEユニット
124 MCユニット
126 イントラ予測処理ユニット
150 エントロピー復号ユニット
151 ビデオデータメモリ
152 予測処理ユニット
154 逆量子化ユニット
156 逆変換処理ユニット
158 再構築ユニット
160 フィルタユニット
162 復号ピクチャバッファ
164 動き補償ユニット
166 イントラ予測処理ユニット
Claims (9)
- ビデオデータの現在のブロックを復号する方法であって、
複数のイントラ予測モードの中からビデオデータの前記現在のブロックのイントラ予測のためのM個の最確モード(MPM)を導出するステップであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出するステップが、
(i)前記左の隣接列の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、最小の予測単位サイズの単位でカウントするステップ、
前記左の隣接列の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記左の隣接列の代表的なイントラ予測モードを定義するステップ、および、
前記左の隣接列の前記MPMとして、前記左の隣接列の前記定義された代表的なイントラ予測モードを使用するステップ、または、
(ii)前記上の隣接行の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、前記最小の予測単位サイズの単位でカウントするステップ、
前記上の隣接行の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記上の隣接行の代表的なイントラ予測モードを定義するステップ、および、
前記上の隣接行の前記MPMとして、前記上の隣接行の前記定義された代表的なイントラ予測モードを使用するステップ
のうちの少なくとも1つを備える、ステップと、
ビデオデータの前記現在のブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を復号するステップと、
前記最確モードインデックスまたは前記非最確モードインデックスのうちの前記示されるものを復号するステップであって、前記最確モードインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、ステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記現在のブロックを再構築するステップとを備える、方法。 - ビデオデータの前記現在のブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記現在のブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
ビデオデータの前記現在のブロックを再構築するステップが、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成するステップと、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築するステップと
を備える、請求項1に記載の方法。 - ビデオデータの現在のブロックを符号化する方法であって、
複数のイントラ予測モードの中からビデオデータの前記現在のブロックのイントラ予測のためのM個の最確モード(MPM)を導出するステップであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出するステップが、
(i)前記左の隣接列の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、最小の予測単位サイズの単位でカウントするステップ、
前記左の隣接列の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記左の隣接列の代表的なイントラ予測モードを定義するステップ、および、
前記左の隣接列の前記MPMとして、前記左の隣接列の前記定義された代表的なイントラ予測モードを使用するステップ、または、
(ii)前記上の隣接行の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、前記最小の予測単位サイズの単位でカウントするステップ、
前記上の隣接行の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記上の隣接行の代表的なイントラ予測モードを定義するステップ、および、
前記上の隣接行の前記MPMとして、前記上の隣接行の前記定義された代表的なイントラ予測モードを使用するステップ
のうちの少なくとも1つを備える、ステップと、
ビデオデータの前記現在のブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を符号化するステップと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものを符号化するステップであって、前記MPMインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、ステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記現在のブロックを符号化するステップとを備える、方法。 - ビデオデータの前記現在のブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記現在のブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記選択されたイントラ予測モードに基づいてビデオデータの前記現在のブロックを符号化するステップが、
前記PUの前記選択されたイントラ予測モードに基づいて、前記PUの予測ブロックを生成するステップと、
前記現在のCUと前記予測ブロックとの間のピクセル差分を表す残差データを生成するステップとを備える、請求書3に記載の方法。 - ビデオデータの現在のブロックを復号するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
複数のイントラ予測モードの中からビデオデータの前記現在のブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出することの一部として、前記1つまたは複数のプロセッサが、
(i)前記左の隣接列の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、最小の予測単位サイズの単位でカウントすること、
前記左の隣接列の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記左の隣接列の代表的なイントラ予測モードを定義すること、および、
前記左の隣接列の前記MPMとして、前記左の隣接列の前記定義された代表的なイントラ予測モードを使用すること、または、
(ii)前記上の隣接行の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、前記最小の予測単位サイズの単位でカウントすること、
前記上の隣接行の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記上の隣接行の代表的なイントラ予測モードを定義すること、および、
前記上の隣接行の前記MPMとして、前記上の隣接行の前記定義された代表的なイントラ予測モードを使用すること
のうちの少なくとも1つを実行するように構成される、導出することと、
ビデオデータの前記現在のブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を復号することと、
前記最確モードインデックスまたは前記非最確モードインデックスのうちの前記示されるものを復号することであって、前記最確モードインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、復号することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記現在のブロックを再構築することと
を行うように構成される、デバイス。 - ビデオデータの前記現在のブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記現在のブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記1つまたは複数のプロセッサが、ビデオデータの前記現在のブロックを再構築することの一部として、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成し、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築する
ように構成される、請求項5に記載のデバイス。 - ビデオデータの現在のブロックを符号化するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
複数のイントラ予測モードの中からビデオデータの前記現在のブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出することの一部として、前記1つまたは複数のプロセッサが、
(i)前記左の隣接列の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、最小の予測単位サイズの単位でカウントすること、
前記左の隣接列の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記左の隣接列の代表的なイントラ予測モードを定義すること、および、
前記左の隣接列の前記MPMとして、前記左の隣接列の前記定義された代表的なイントラ予測モードを使用すること、または、
(ii)前記上の隣接行の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、前記最小の予測単位サイズの単位でカウントすること、
前記上の隣接行の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記上の隣接行の代表的なイントラ予測モードを定義すること、および、
前記上の隣接行の前記MPMとして、前記上の隣接行の前記定義された代表的なイントラ予測モードを使用すること
のうちの少なくとも1つを実行するように構成される、導出することと、
ビデオデータの前記現在のブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を符号化することと、
前記最確モードインデックスまたは前記非最確モードインデックスのうちの前記示されるものを符号化することであって、前記最確モードインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、符号化することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記現在のブロックを符号化することと
を行うように構成される、デバイス。 - ビデオデータの前記現在のブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記現在のブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記1つまたは複数のプロセッサが、ビデオデータの前記現在のブロックを再構築することの一部として、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成し、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築する
ように構成される、請求項7に記載のデバイス。 - 命令を記憶するコンピュータ可読記憶媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
複数のイントラ予測モードの中からビデオデータの現在のブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記1つまたは複数のプロセッサに前記M個の最確モードを導出させることの一部として、前記命令が、前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
(i)前記左の隣接列の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、最小の予測単位サイズの単位でカウントすること、
前記左の隣接列の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記左の隣接列の代表的なイントラ予測モードを定義すること、および、
前記左の隣接列の前記MPMとして、前記左の隣接列の前記定義された代表的なイントラ予測モードを使用すること、または、
(ii)前記上の隣接行の中の複数の隣接ブロックにおいて使用されるイントラ予測モードを、前記最小の予測単位サイズの単位でカウントすること、
前記上の隣接行の中の前記複数の隣接ブロックにおいて使用される前記イントラ予測モードの最も頻繁なものとして、前記上の隣接行の代表的なイントラ予測モードを定義すること、および、
前記上の隣接行の前記MPMとして、前記上の隣接行の前記定義された代表的なイントラ予測モードを使用すること
のうちの少なくとも1つを実行させる、導出することと、
ビデオデータの現在のブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素をコーディングすることと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものをコーディングすることであって、前記MPMインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、コーディングすることと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記現在のブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562181744P | 2015-06-18 | 2015-06-18 | |
US62/181,744 | 2015-06-18 | ||
US201562192310P | 2015-07-14 | 2015-07-14 | |
US62/192,310 | 2015-07-14 | ||
US15/184,051 US10841593B2 (en) | 2015-06-18 | 2016-06-16 | Intra prediction and intra mode coding |
US15/184,051 | 2016-06-16 | ||
PCT/US2016/038132 WO2016205684A1 (en) | 2015-06-18 | 2016-06-17 | Intra prediction and intra mode coding |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523371A JP2018523371A (ja) | 2018-08-16 |
JP2018523371A5 JP2018523371A5 (ja) | 2019-07-04 |
JP6724046B2 true JP6724046B2 (ja) | 2020-07-15 |
Family
ID=56404291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564703A Active JP6724046B2 (ja) | 2015-06-18 | 2016-06-17 | イントラ予測およびイントラモードコーディング |
Country Status (10)
Country | Link |
---|---|
US (1) | US10841593B2 (ja) |
EP (1) | EP3311571B1 (ja) |
JP (1) | JP6724046B2 (ja) |
KR (1) | KR102194113B1 (ja) |
CN (1) | CN107750457B (ja) |
AU (1) | AU2016278963A1 (ja) |
ES (1) | ES2794619T3 (ja) |
HU (1) | HUE049215T2 (ja) |
TW (1) | TW201717629A (ja) |
WO (1) | WO2016205684A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10142627B2 (en) | 2015-06-18 | 2018-11-27 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11233990B2 (en) * | 2016-02-08 | 2022-01-25 | Sharp Kabushiki Kaisha | Systems and methods for intra prediction coding |
CN113810702A (zh) * | 2016-04-29 | 2021-12-17 | 世宗大学校产学协力团 | 用于对图像信号进行编码和解码的方法和装置 |
CN110115035B (zh) * | 2016-12-23 | 2022-12-06 | 华为技术有限公司 | 一种用于通知定向帧内预测模式集合中的扩展定向帧内预测模式的编码装置 |
CN110546957A (zh) * | 2017-06-22 | 2019-12-06 | 华为技术有限公司 | 一种帧内预测的方法及装置 |
EP3422716A1 (en) * | 2017-06-26 | 2019-01-02 | Thomson Licensing | Method and apparatus for most probable mode (mpm) sorting and signaling in video encoding and decoding |
JP7147145B2 (ja) * | 2017-09-26 | 2022-10-05 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
JP7043616B2 (ja) * | 2017-10-24 | 2022-03-29 | ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド | ビデオ信号処理方法及び装置 |
US10965942B2 (en) * | 2017-11-17 | 2021-03-30 | FG Innovation Company Limited | Device and method for coding video data based on adjusted intra mode list |
CN110049339B (zh) * | 2018-01-16 | 2023-02-17 | 腾讯科技(深圳)有限公司 | 图像编码中的预测方向选取方法、装置和存储介质 |
WO2019194441A1 (ko) * | 2018-04-02 | 2019-10-10 | 엘지전자 주식회사 | 적응적으로 도출되는 mpm 리스트에 기반한 영상 코딩 방법 및 그 장치 |
KR102479494B1 (ko) * | 2018-06-11 | 2022-12-20 | 삼성전자주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US11277644B2 (en) * | 2018-07-02 | 2022-03-15 | Qualcomm Incorporated | Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching |
WO2020042853A1 (en) * | 2018-08-29 | 2020-03-05 | Huawei Technologies Co., Ltd. | Method and apparatus for intra prediction |
EP3844964A4 (en) | 2018-09-19 | 2021-11-03 | Huawei Technologies Co., Ltd. | METHOD AND DEVICE FOR PREDICTING THE MOST LIKELY INTRA-MODES |
CN117651133A (zh) * | 2018-09-21 | 2024-03-05 | 华为技术有限公司 | 基于邻块的帧内预测模式推导 |
WO2020071873A1 (ko) * | 2018-10-05 | 2020-04-09 | 엘지전자 주식회사 | Mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 그 장치 |
WO2020071871A1 (ko) * | 2018-10-05 | 2020-04-09 | 엘지전자 주식회사 | 영상 서비스 처리 방법 및 그 장치 |
CN117221530A (zh) * | 2018-10-09 | 2023-12-12 | Lg 电子株式会社 | 使用mpm列表的基于帧内预测的图像编译方法及其设备 |
CN112385234B (zh) * | 2018-10-09 | 2024-04-09 | 华为技术有限公司 | 图像和视频译码的设备和方法 |
CN116347072A (zh) | 2018-10-12 | 2023-06-27 | Oppo广东移动通信有限公司 | 视频信号的编码方法和解码方法及其装置 |
US11303885B2 (en) | 2018-10-25 | 2022-04-12 | Qualcomm Incorporated | Wide-angle intra prediction smoothing and interpolation |
WO2020094054A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Condition dependent inter prediction with geometric partitioning |
US11032551B2 (en) * | 2018-12-04 | 2021-06-08 | Tencent America LLC | Simplified most probable mode list generation scheme |
CN113170166B (zh) | 2018-12-30 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 具有几何分割的帧间预测在视频处理中有条件的应用 |
WO2020143742A1 (en) * | 2019-01-10 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Simplified context modeling for context adaptive binary arithmetic coding |
CN111435993B (zh) * | 2019-01-14 | 2022-08-26 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
KR20210100741A (ko) * | 2019-02-21 | 2021-08-17 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측을 사용하는 영상 디코딩 방법 및 그 장치 |
CN113678453B (zh) | 2019-04-12 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测的上下文确定 |
JP7403555B2 (ja) | 2019-04-16 | 2023-12-22 | 北京字節跳動網絡技術有限公司 | イントラコーディングモードにおけるマトリクスの導出 |
US20220201286A1 (en) * | 2019-04-25 | 2022-06-23 | Mediatek Inc. | Method and Apparatus of Encoding or Decoding with Mode Dependent Intra Smoothing Filter in Intra Prediction |
EP3949391A4 (en) | 2019-05-01 | 2022-05-25 | Beijing Bytedance Network Technology Co., Ltd. | MATRIX-BASED INTRAPREDICTION USING FILTRATION |
CN117097912A (zh) * | 2019-05-01 | 2023-11-21 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测的上下文编码 |
CN113812160B (zh) * | 2019-05-09 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 用于屏幕内容编解码的最大可能模式列表构建 |
KR20220011127A (ko) | 2019-05-22 | 2022-01-27 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 업샘플링을 이용한 행렬 기반 인트라 예측 |
WO2020239018A1 (en) | 2019-05-31 | 2020-12-03 | Beijing Bytedance Network Technology Co., Ltd. | Restricted upsampling process in matrix-based intra prediction |
CN113950836B (zh) | 2019-06-05 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测的上下文确定 |
KR20220019243A (ko) * | 2019-07-08 | 2022-02-16 | 엘지전자 주식회사 | 인루프 필터링 기반 비디오 또는 영상 코딩 |
CN110519605A (zh) * | 2019-07-23 | 2019-11-29 | 西安万像电子科技有限公司 | 帧内预测模式的编码方法、装置及存储介质 |
WO2021032113A1 (en) | 2019-08-19 | 2021-02-25 | Beijing Bytedance Network Technology Co., Ltd. | Updating for counter-based intra prediction mode |
KR20220082847A (ko) | 2019-10-28 | 2022-06-17 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 색상 성분에 기초한 신택스 시그널링 및 파싱 |
EP4070552A1 (en) * | 2019-12-05 | 2022-10-12 | InterDigital VC Holdings France, SAS | Intra sub partitions for video encoding and decoding combined with multiple transform selection, matrix weighted intra prediction or multi-reference-line intra prediction |
WO2021134759A1 (en) * | 2020-01-02 | 2021-07-08 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods of symmetric mode dependent intra smoothing when wide angle intra prediction is activated |
US11611770B2 (en) * | 2020-10-14 | 2023-03-21 | Tencent America LLC | Method and apparatus for video coding |
JP2024520116A (ja) * | 2021-06-07 | 2024-05-21 | ヒョンダイ モーター カンパニー | イントラ予測方法及び記録媒体 |
WO2023014164A1 (ko) * | 2021-08-05 | 2023-02-09 | 현대자동차주식회사 | 비디오 부호화/복호화 방법 및 장치 |
WO2024071523A1 (ko) * | 2022-09-26 | 2024-04-04 | 현대자동차주식회사 | 개선된 크로스 컴포넌트 선형 모델 예측을 이용하는 비디오 코딩을 위한 방법 및 장치 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006081156A (ja) | 2004-08-13 | 2006-03-23 | Fuji Photo Film Co Ltd | 画像処理装置および方法並びにプログラム |
WO2009004985A1 (ja) | 2007-06-29 | 2009-01-08 | Sharp Kabushiki Kaisha | 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、プログラム、および記録媒体 |
US8750378B2 (en) | 2008-09-23 | 2014-06-10 | Qualcomm Incorporated | Offset calculation in switched interpolation filters |
JP5169978B2 (ja) | 2009-04-24 | 2013-03-27 | ソニー株式会社 | 画像処理装置および方法 |
JP5581688B2 (ja) | 2009-12-24 | 2014-09-03 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
WO2011083573A1 (ja) | 2010-01-07 | 2011-07-14 | 株式会社 東芝 | 動画像符号化装置及び動画像復号化装置 |
KR101791242B1 (ko) | 2010-04-16 | 2017-10-30 | 에스케이텔레콤 주식회사 | 영상 부호화/복호화 장치 및 방법 |
EP2945382B1 (en) | 2010-04-23 | 2017-06-07 | M&K Holdings Inc. | Apparatus for encoding an image |
US9094658B2 (en) | 2010-05-10 | 2015-07-28 | Mediatek Inc. | Method and apparatus of adaptive loop filtering |
US8902978B2 (en) | 2010-05-30 | 2014-12-02 | Lg Electronics Inc. | Enhanced intra prediction mode signaling |
US9008175B2 (en) | 2010-10-01 | 2015-04-14 | Qualcomm Incorporated | Intra smoothing filter for video coding |
US20120106640A1 (en) | 2010-10-31 | 2012-05-03 | Broadcom Corporation | Decoding side intra-prediction derivation for video coding |
KR102483459B1 (ko) | 2010-11-25 | 2022-12-30 | 엘지전자 주식회사 | 영상 정보의 시그널링 방법 및 이를 이용한 영상 정보의 복호화 방법 |
US20120183041A1 (en) | 2011-01-14 | 2012-07-19 | Sony Corporation | Interpolation filter for intra prediction of hevc |
KR101383775B1 (ko) | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
WO2012173315A1 (ko) | 2011-06-17 | 2012-12-20 | 엘지전자 주식회사 | 인트라 예측 모드 부호화/복호화 방법 및 장치 |
EP3624451A1 (en) | 2011-06-17 | 2020-03-18 | HFI Innovation Inc. | Method and apparatus for coding of intra prediction mode |
KR20120140181A (ko) | 2011-06-20 | 2012-12-28 | 한국전자통신연구원 | 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치 |
MY165859A (en) | 2011-06-28 | 2018-05-18 | Samsung Electronics Co Ltd | Method and apparatus for image encoding and decoding using intra prediction |
RU2619706C2 (ru) | 2011-06-28 | 2017-05-17 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для кодирования видео, а также способ и устройство для декодирования видео, сопровождаемого внутренним прогнозированием |
CN103636220B (zh) | 2011-06-28 | 2017-10-13 | 寰发股份有限公司 | 编码/解码帧内预测模式的方法及装置 |
JP2013012995A (ja) | 2011-06-30 | 2013-01-17 | Sony Corp | 画像処理装置および方法 |
CN102857750B (zh) | 2011-07-01 | 2015-05-06 | 华为技术有限公司 | 帧内预测编解码处理方法、装置和*** |
JP2013058939A (ja) | 2011-09-08 | 2013-03-28 | Sharp Corp | 画像復号装置、および画像符号化装置 |
WO2013039676A1 (en) | 2011-09-13 | 2013-03-21 | Mediatek Singapore Pte. Ltd. | Method and apparatus for intra mode coding in hevc |
EP2764694A4 (en) | 2011-10-07 | 2015-11-25 | Pantech Co Ltd | METHODS AND APPARATUSES FOR INTRA PREDICTION MODE CODING AND DECODING USING INTRA CANDIDATE PREDICTION MODES |
JP2013090120A (ja) | 2011-10-18 | 2013-05-13 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム |
US9036704B2 (en) | 2011-10-24 | 2015-05-19 | Infobridge Pte. Ltd. | Image decoding method using intra prediction mode |
US20130107949A1 (en) | 2011-10-26 | 2013-05-02 | Intellectual Discovery Co., Ltd. | Scalable video coding method and apparatus using intra prediction mode |
KR20130049522A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
US9154796B2 (en) * | 2011-11-04 | 2015-10-06 | Qualcomm Incorporated | Intra-mode video coding |
KR101654446B1 (ko) | 2012-01-13 | 2016-09-05 | 샤프 가부시키가이샤 | 화상 복호 장치, 화상 부호화 장치 및 부호화 데이터의 데이터 구조 |
US9538172B2 (en) | 2012-04-11 | 2017-01-03 | Qualcomm Incorporated | Grouping bypass coded syntax elements in video coding |
KR20140129423A (ko) | 2013-04-29 | 2014-11-07 | 인텔렉추얼디스커버리 주식회사 | 인트라 예측 방법 및 장치 |
CN103248892A (zh) | 2013-05-07 | 2013-08-14 | 北京大学 | 一种帧内预测方法及装置 |
WO2015000168A1 (en) | 2013-07-05 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | A simplified dc prediction method in intra prediction |
CN106464908A (zh) | 2014-06-20 | 2017-02-22 | 三星电子株式会社 | 用于传输深度图像的预测模式以供层间视频编码和解码的方法和装置 |
KR101700410B1 (ko) | 2015-02-10 | 2017-01-26 | 주식회사 아리스케일 | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 |
CN104702962B (zh) | 2015-03-03 | 2019-04-16 | 华为技术有限公司 | 帧内编解码方法、编码器和解码器 |
WO2016159631A1 (ko) | 2015-03-29 | 2016-10-06 | 엘지전자(주) | 비디오 신호의 인코딩/디코딩 방법 및 장치 |
US20160373770A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10142627B2 (en) | 2015-06-18 | 2018-11-27 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373782A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373742A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10194170B2 (en) | 2015-11-20 | 2019-01-29 | Mediatek Inc. | Method and apparatus for video coding using filter coefficients determined based on pixel projection phase |
US10382781B2 (en) | 2016-09-28 | 2019-08-13 | Qualcomm Incorporated | Interpolation filters for intra prediction in video coding |
-
2016
- 2016-06-16 US US15/184,051 patent/US10841593B2/en active Active
- 2016-06-17 TW TW105119227A patent/TW201717629A/zh unknown
- 2016-06-17 AU AU2016278963A patent/AU2016278963A1/en not_active Abandoned
- 2016-06-17 EP EP16736954.5A patent/EP3311571B1/en active Active
- 2016-06-17 JP JP2017564703A patent/JP6724046B2/ja active Active
- 2016-06-17 KR KR1020177036158A patent/KR102194113B1/ko active IP Right Grant
- 2016-06-17 HU HUE16736954A patent/HUE049215T2/hu unknown
- 2016-06-17 CN CN201680034523.5A patent/CN107750457B/zh active Active
- 2016-06-17 WO PCT/US2016/038132 patent/WO2016205684A1/en active Application Filing
- 2016-06-17 ES ES16736954T patent/ES2794619T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
CN107750457A (zh) | 2018-03-02 |
US20160373769A1 (en) | 2016-12-22 |
US10841593B2 (en) | 2020-11-17 |
CN107750457B (zh) | 2020-08-21 |
EP3311571A1 (en) | 2018-04-25 |
AU2016278963A1 (en) | 2017-11-30 |
ES2794619T3 (es) | 2020-11-18 |
JP2018523371A (ja) | 2018-08-16 |
TW201717629A (zh) | 2017-05-16 |
KR20180019563A (ko) | 2018-02-26 |
HUE049215T2 (hu) | 2020-09-28 |
WO2016205684A1 (en) | 2016-12-22 |
EP3311571B1 (en) | 2020-02-26 |
KR102194113B1 (ko) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724046B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP7033179B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6885883B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6770001B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6777657B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6543736B2 (ja) | イントラ予測およびイントラモードコーディング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190530 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190530 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200403 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6724046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |