JP7482218B2 - ビデオコーディングにおける予測タイプシグナリング - Google Patents
ビデオコーディングにおける予測タイプシグナリング Download PDFInfo
- Publication number
- JP7482218B2 JP7482218B2 JP2022521586A JP2022521586A JP7482218B2 JP 7482218 B2 JP7482218 B2 JP 7482218B2 JP 2022521586 A JP2022521586 A JP 2022521586A JP 2022521586 A JP2022521586 A JP 2022521586A JP 7482218 B2 JP7482218 B2 JP 7482218B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- picture
- block
- sample
- bitstream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011664 signaling Effects 0.000 title description 7
- 238000000034 method Methods 0.000 claims description 207
- 238000006243 chemical reaction Methods 0.000 claims description 49
- 238000012545 processing Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 9
- 239000000523 sample Substances 0.000 description 199
- 230000033001 locomotion Effects 0.000 description 187
- 239000013598 vector Substances 0.000 description 97
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical group COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 87
- 241000023320 Luma <angiosperm> Species 0.000 description 84
- 230000008569 process Effects 0.000 description 55
- 239000013074 reference sample Substances 0.000 description 53
- 229920000069 polyphenylene sulfide Polymers 0.000 description 24
- 230000003287 optical effect Effects 0.000 description 21
- 230000003044 adaptive effect Effects 0.000 description 20
- 230000006978 adaptation Effects 0.000 description 18
- 238000001914 filtration Methods 0.000 description 18
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 14
- 238000009795 derivation Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 238000012952 Resampling Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 230000002457 bidirectional effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 239000011449 brick Substances 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 238000000638 solvent extraction Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000003672 processing method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000002156 mixing Methods 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 101150067185 ppsA gene Proteins 0.000 description 3
- 101150010264 ppsB gene Proteins 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101000683586 Clostridium acetobutylicum (strain ATCC 824 / DSM 792 / JCM 1419 / LMG 5710 / VKM B-1787) Reverse rubrerythrin-1 Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
ビデオコーディング標準は、主に、周知のITU-TおよびISO/IEC標準の開発を通じて発展してきた。ITU-TはH.261とH.263を作成し、ISO/IECはMPEG-1とMPEG-4 Visualを作成し、2つの組織はH.262/MPEG-2 VideoおよびH.264/MPEG-4 AVC(Advanced Video Coding)標準とH.265/HEVC標準を共同で作成した。H.262から、ビデオコーディング標準は、時間的予測にトランスフォームコーディングを加えたものが利用されるハイブリッドビデオコーディング構造に基づいている。HEVCを越えた将来のビデオコーディング技術を探求するため、2015年にVCEGとMPEGによって共同でJVET(Joint Video Exploration Team)が設立された。それ以来、JVETによって多くの新しい方法が採用され、JEM(Joint Exploration Model)と名付けられた基準ソフトウェアに入れられた。2018年4月には、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)とのJVET(Joint Video Expert Team)が発足され、HEVCに対して50%のビットレート低減を目指すVVC標準に取り組んだ。
2.1. 適応解像度変更(ARC)
AVCおよびHEVCは、IDRまたはイントラランダムアクセスポイント(IRAP)ピクチャを導入しなければならないというわけではなく、解像度を変更する能力を有さず、そのような能力は、適応解像度変更(ARC)と呼ばれることがある。ARC特徴から恩恵を受けるユースケースやアプリケーションシナリオは、以下のようなものがある。
このモードは、予測のために使用する前に参照ピクチャをワープ(warp)するアルゴリズムを記載する。これは、予測されるピクチャとは異なるソースフォーマットを有する参照ピクチャを再サンプリングするのに有用であり得る。また、参照ピクチャの形状、サイズ、および位置をワープすることによって、全体的な動き推定、または回転動きの推定に有用であり得る。構文は、再サンプリングアルゴリズムと同様に、使用されるワープパラメータを含む。参照ピクチャ再サンプリングモードの最も単純な動作レベルは、FIRフィルタのみをアップサンプリングおよびダウンサンプリングプロセスに適用する必要があるため、暗黙の4再サンプリングファクタである。この場合、新しいピクチャ(ピクチャヘッダにおいて示されている)のサイズが以前のピクチャのサイズと異なるときに、その使用が理解されるので、追加のシグナリングオーバヘッドは必要とされない。
VVCにおける適合ウィンドウは、矩形を定義する。適合ウィンドウ内のサンプルは関心ピクチャに属する。適合ウィンドウ外のサンプルは、出力のときに破棄されてもよい。
subpics_present_flagが1に等しいときに、pic_width_in_luma_samplesの値は、pic_width_max_in_luma_samplesと等しいものとする。
pic_height_in_luma_samplesは、輝度サンプルの単位でPPSを参照する復号された各ピクチャの高さを指定する。pic_height_in_luma_samplesは、0に等しくないものとし、Max(8,MinCbSizeY)の整数倍数であるものとし、pic_height_max_in_luma_samples以下であるものとする。
subpics_present_flagが1に等しいときに、pic_height_in_luma_samplesの値は、pic_height_max_in_luma_samplesと等しいものとする。
refPicWidthInLumaSamplesとrefPicHeightInLumaSamplesは、それぞれ、このPPSを参照する現在のピクチャの参照ピクチャのpic_width_in_luma_samplesとpic_height_in_luma_samplesとする。
以下の条件が満たされることがビットストリーム適合性の要件である。
[外1]
1に等しいconformance_window_flagは、適合クロッピングウィンドウオフセットパラメータがSPSの次に続くことを示す。0に等しいconformance_window_flagは、適合クロッピングウィンドウオフセットパラメータが存在しないことを示す。
conf_win_left_offset、conf_win_right_offset、conf_win_top_offset、およびconf_win_bottom_offsetは、復号プロセスから出力されるCVS内のピクチャのサンプルを、出力のためのピクチャ座標で指定された矩形領域に関して指定する。conformance_window_flagが0に等しいときに、conf_win_left_offset、conf_win_right_offset、conf_win_top_offset、およびconf_win_bottom_offsetの値は0に等しいと推論される。
適合クロッピングウィンドウは、SubWidthC*conf_win_left_offset~pic_width_in_luma_samples-(SubWidthC*conf_win_right_offset+1)(両端含む)の水平ピクチャ座標、およびSubHeightC*conf_win_top_offset~pic_height_in_luma_samples-(SubHeightC*conf_win_bottom_offset+1)(両端含む)までの垂直ピクチャ座標を含む。
SubWidthC*(conf_win_left_offset+conf_win_right_offset)の値は、pic_width_in_luma_samplesより小さいものとし、SubHeightC*(conf_win_top_offset+conf_win_bottom_offset)の値は、pic_height_in_luma_samplesより小さいものとする。
変数PicOutputWidthLおよび変数PicOutputHeightLは、以下のように導出される。
[外2]
すべての内部復号プロセスは、クロッピングされていないピクチャサイズに適用される。ppsAとppsBは、同じSPSを参照する任意の2つのPPSとする。ppsAとppsBがそれぞれ同じ値のpic_width_in_luma_samplesとpic_height_in_luma_samplesを有するときに、ppsAとppsBが、それぞれ同じ値のconf_win_left_offset、conf_win_right_offset、conf_win_top_offset、およびconf_win_bottom_offsetを有するものとすることがビットストリーム適合性の要件である。
いくつかの実施態様において、ARCは、参照ピクチャ再サンプリング(RPR)としても知られる。RPRでは、共位置にあるピクチャが現在のピクチャと異なる解像度を有する場合、TMVPは無効にされる。さらに、参照ピクチャが現在のピクチャとは異なる解像度を有するときに、双方向オプティカルフロー(BDOF)と復号器側動きベクトル洗練化(DMVR)は無効にされる。
8.5.6.3. 分数サンプル補間プロセス
8.5.6.3.1 概要
このプロセスへの入力は、以下のようである。
- 現在のピクチャの左上のサンプルに対する現在のコーディングサブブロックの左上のサンプルを指定する輝度位置(xSb,ySb)
- 現在のコーディングサブブロックの幅を指定する変数sbWidth
- 現在のコーディングサブブロックの高さを指定する変数sbHeight
- 動きベクトルオフセットmvOffset
- 洗練された動きベクトルrefMvLX
- 選択した参照ピクチャサンプルアレイrefPicLX
- ハーフサンプル補間フィルタ指数hpelIfIdx
- 双方向のオプティカルフローフラグbdofFlag
- 現在のブロックの色コンポーネントインデックスを指定する変数cIdx
この処理の出力は、以下のようである。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)アレイpredSamplesLX
予測ブロック境界拡張サイズbrdExtSizeは、以下のように導出される。
変数fRefHeightは、輝度サンプルにおける参照ピクチャのPicOutputHeightLに等しくセットされる。
動きベクトルmvLXは、(refMvLX-mvOffset)に等しくセットされる。
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタとその固定小数点表現は、以下のように定義される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)は、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しくセットされる。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)に対して、対応する予測輝度サンプル値predSamplesLX[xL][yL]は、以下のように導出される。
- (refxSbL,refySbL)と(refxL,refyL)を、1/16サンプル単位で与えられた動きベクトル(refMvLX[0],refMvLX[1])によって指し示される輝度位置とする。変数refxSbL、refxL、refySbL、およびrefyLは、以下のように導出される。
- xLは0に等しい。
- xLはsbWidth+1に等しい。
- xLは0に等しい。
- yLはsbHeight+1に等しい。
- それ以外の場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL-(brdExtSize>0?1:0),yIntL-(brdExtSize>0?1:0))、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)を入力として、8.5.6.3.2項に指定されている輝度サンプル8タップ補間フィルタリングプロセスを呼び出すことによって導出される。
- それ以外の場合(cIdxが0に等しくない場合)、以下が適用される。
- (xIntC,yIntC)をフルサンプル単位で与えられる色差位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられるオフセットとする。これらの変数は、参照サンプルアレイrefPicLX内の一般分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntC,ySbIntC)は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しくセットされる。
- 予測色差サンプルアレイpredSamplesLX内の各色差サンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)に対して、対応する予測色差サンプル値predSamplesLX[xC][yC]は、以下のように導出される。
- (refxSbC,refySbC)と(refxC,refyC)を、1/32サンプル単位で与えられた動きベクトル(mvLX[0],mvLX[1])によって指し示される色差位置とする。変数refxSbC、refySbC、refxCおよびrefyCは、以下のように導出される。
8.5.6.3.2 輝度サンプル補間フィルタリングプロセス
このプロセスへの入力は、以下のようである。
- フルサンプル単位における輝度位置(xIntL,yIntL)
- 分数サンプル単位における輝度位置(xFracL,yFracL)
- 参照ピクチャの左上のサンプルに対する参照サンプルパディングのための境界ブロックの左上のサンプルを指定する、フルサンプル単位における輝度位置(xSbIntL,ySbIntL)
- 輝度参照サンプルアレイrefPicLXL
- ハーフサンプル補間フィルタ指数hpelIfIdx
- 現在のサブブロックの幅を指定する変数sbWidth
- 現在のサブブロックの高さを指定する変数sbHeight
- 現在のピクチャの左上のサンプルに対する現在のサブブロックの左上のサンプルを指定する輝度位置(xSb,ySb)
このプロセスの出力は、予測輝度サンプル値predSampleLXLである。
変数shift1、shift2およびshift3は、以下のように導出される。
- 変数shift1は、Min(4,BitDepthY-8)に等しくセットされ、変数shift2は、6に等しくセットされ、変数shift3は、Max(2,14-BitDepthY)に等しくセットされる。
- 変数picWは、pic_width_in_luma_samplesに等しくセットされ、変数picHは、pic_height_in_luma_samplesに等しくセットされる。
xFracLまたはyFracLに等しい各1/16分数サンプル位置pに対する輝度補間フィルタ係数fL[p]は、以下のように導出される。
- MotionModelIdc[xSb][ySb]が0よりも大きく、sbWidthとsbHeightが両方とも4に等しい場合、輝度補間フィルタ係数fL[p]は、表2において指定される。
- それ以外の場合、輝度補間フィルタ係数fL[p]は、hpelIfIdxに依存して表1において指定される。
フルサンプル単位における輝度位置(xInti,yInti)は、i=0..7に対して、以下のように導出される。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
- xFracLとyFracLの両方が0に等しい場合、predSampleLXLの値は、以下のように導出される。
- サンプルアレイtemp[n](n=0..7)は、以下のように導出される。
このプロセスへの入力は、以下のようである。
- フルサンプル単位における輝度位置(xIntL,yIntL)
- 輝度参照サンプルアレイrefPicLXL
このプロセスの出力は、予測輝度サンプル値predSampleLXLである。
変数shiftは、Max(2,14-BitDepthY)に等しくセットされる。
変数picWは、pic_width_in_luma_samplesに等しくセットされ、変数picHは、pic_height_in_luma_samplesに等しくセットされる。
フルサンプル単位おける輝度位置(xInt,yInt)は、以下のように導出される。
このプロセスへの入力は、以下のようである。
- フルサンプル単位における色差位置(xIntC,yIntC)
- 分数サンプル単位における色差位置(xFracC,yFracC)
- 参照ピクチャの左上のサンプルに対する参照サンプルパディングのための境界ブロックの左上のサンプルを指定する、フルサンプル単位における色差位置(xSbIntC,ySbIntC)
- 現在のサブブロックの幅を指定する変数sbWidth
- 現在のサブブロックの高さを指定する変数sbHeight
- 色差参照サンプルアレイrefPicLXC
このプロセスの出力は、予測色差サンプル値predSampleLXCである。
変数shift1、shift2およびshift3は、以下のように導出される。
- 変数shift1は、Min(4,BitDepthC-8)に等しくセットされ、変数shift2は、6に等しくセットされ、変数shift3は、Max(2,14-BitDepthC)に等しくセットされる。
- 変数picWCは、pic_width_in_luma_samples/SubWidthCに等しくセットされ、変数picHCは、pic_height_in_luma_samples/SubHeightCに等しくセットされる。
xFracCまたはyFracCに等しい各1/32分数サンプル位置pに対する色差補間フィルタ係数fC[p]は、表3において指定される。
変数xOffsetは、(sps_ref_wraparound_offset_minus1+1)*MinCbSizeY)/SubWidthCに等しくセットされる。
フルサンプル単位における色差位置(xInti,yInti)は、i=0..3に対して、以下のように導出される。
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
- xFracCとyFracCの両方が0に等しい場合、predSampleLXCの値は、以下のように導出される。
- サンプルアレイtemp[n](n=0..3)は、以下のように導出される。
本明細書に開示される技法は、サブブロックベースのアフィン動き補償予測をオプティカルフローで洗練する方法を含む。サブブロックベースのアフィン動き補償が実行された後、予測サンプルは、オプティカルフローによる予測洗練化(PROF)と呼ばれる、オプティカルフロー方程式によって導出された差分を加えることによって洗練される。提案した方法は、メモリアクセス帯域幅を増加させることなく、ピクセインター予測を達成することができる。
ステップ1)サブブロックベースのアフィン動き補償が実行されて、サブブロック予測I(i,j)を生成する。
ステップ2)サブブロック予測の空間勾配gx(i,j)およびgy(i,j)が、3タップフィルタ[-1,0,1]を使用して各サンプル位置で計算される。
ステップ3)輝度予測精度(ΔIで示される)がオプティカルフロー方程式によって計算される。
ステップ4)最後に、輝度予測洗練化がサブブロック予測I(i,j)に追加される。最終的な予測I’は、次の方程式として生成される。
いくつかの実施態様において、ピクチャヘッダは、以下の特性を有するように設計される。
ピクチャタイプは、以下を定義するために使用されてもよい(網羅的なリストではない)。
a. ピクチャはIDRピクチャである。
b. ピクチャはCRAピクチャである。
c. ピクチャはGDRピクチャである。
d. ピクチャは、非IRAP、非GDRピクチャであり、Iスライスのみを含む。
e. ピクチャは非IRAP、非GDRピクチャであり、PスライスおよびIスライスのみを含んでもよい。
f. ピクチャは非IRAP、非GDRピクチャであり、Bスライス、Pスライス、および/またはIスライスのうちのいずれかを含む。
存在するときに、slice_lmcs_aps_idの値はピクチャのすべてのスライスに対して同じであるものとする。
存在するときに、slice_scaling_list_aps_idの値はピクチャのすべてのスライスに対して同じであるものとする。したがって、これらの構文要素の各々は、ピクチャヘッダに移動させることができ、不必要な冗長ビットを回避する。
a. six_minus_max_num_merge_cand
b. five_minus_max_num_subblock_merge_cand
c. slice_fpel_mmvd_enabled_flag
d. slice_disable_bdof_dmvr_flag
e. max_num_merge_cand_minus_max_num_triangle_cand
f. slice_six_minus_max_num_ibc_merge_cand
a. partition_constraints_override_flag
b. slice_log2_diff_min_qt_min_cb_luma
c. slice_max_mtt_hierarchy_depth_luma
d. slice_log2_diff_max_bt_min_qt_luma
e. slice_log2_diff_max_tt_min_qt_luma
f. slice_log2_diff_min_qt_min_cb_chroma
g. slice_max_mtt_hierarchy_depth_chroma
h. slice_log2_diff_max_bt_min_qt_chroma
i. slice_log2_diff_max_tt_min_qt_chroma
a. mvd_l1_zero_flag
a. dep_quant_enabled_flag
b. sign_data_hiding_enabled_flag
DMVRおよびBIOは、動きベクトルを洗練化する際に元の信号を伴わず、不正確な動き情報を有するコーディングブロックをもたらすことがある。また、DMVRおよびBIOは、動き洗練化後の分数動きベクトルを用いるが、画面ビデオは、通常、整数動きベクトルを有し、これは、現在の動き情報をより不正確にし、コーディング性能を悪くする。
1.RPRでは、補間フィルタがブロック内の隣接するサンプルに対して異なることがあり、これはSIMD(単一命令複数データ)実装においては望ましくない。
2.境界領域はRPRを考慮しない。
3.「適合クロッピングウィンドウオフセットパラメータは、出力時にのみ適用される。内部復号プロセスは、すべて、クロッピングされていないピクチャサイズに適用される」ことに留意する。しかし、これらのパラメータは、RPRが適用されるときに、復号プロセスにおいて使用されてもよい。
4.参照サンプル位置を導出するときに、RPRは、2つの適合ウィンドウ間の比のみを考慮する。しかし、2つの適合ウィンドウの間の左上のオフセットの差も考慮されるべきである。
5.参照ピクチャの幅/高さと現在のピクチャの幅/高さの比はVVCで制約される。しかし、参照ピクチャの適合ウィンドウの幅/高さと現在のピクチャの適合ウィンドウのものとの比は制約されない。
6.すべての構文要素がピクチャヘッダにおいて正しく処理されているわけではない。
7.現在のVVCにおいて、TPM、GEO予測モードでは、ビデオシーケンスの色差サンプル位置タイプに関係なく色差混合重みが導出される。例えば、TPM/GEOにおいて、色差重みが輝度重みから導出される場合、輝度重みが、色差信号のサンプリングと一致するようにダウンサンプリングされる必要があることがある。色差ダウンサンプリングは、通常、ITU-R BT.601またはITU-R BT.709コンテナで広く使用されている色差サンプル位置タイプ0を想定して適用される。しかし、異なる色差サンプル位置タイプが使用される場合、これは、色差サンプルとダウンサンプリングされた輝度サンプルとの間に不整合をもたらす可能性があり、コーディング性能を低下させることがある。
以下に記載される詳細な実施形態は、一般的な概念を説明するための例として考慮されるべきである。これらの実施形態は、狭く解釈されるべきではない。さらに、これらの実施形態は、任意に組み合わせることができる。
RPRにおける動き補償
1. 参照ピクチャの解像度が現在のピクチャと異なるときに、または参照ピクチャの幅および/または高さが現在のピクチャのものよりも大きいときに、現在のブロックのサンプルのグループ(少なくとも2つのサンプル)に対する予測値が、同じ水平および/または垂直補間フィルタを用いて生成され得る。
a. 一例では、グループは、ブロックの領域内のすべてのサンプルを含んでもよい。
i. 例えば、ブロックは、互いに重複しないS個のMxN矩形に分割されてもよい。各MxN矩形はグループである。図2に示す例では、16×16ブロックは、各々がグループである16個の4×4矩形に分割することができる。
ii. 例えば、N個のサンプルを有する行がグループである。Nは、ブロック幅以下の整数である。一例では、Nは、4もしくは8、またはブロック幅である。
iii. 例えば、N個のサンプルを有する列がグループである。Nは、ブロック高さ以下の整数である。一例では、Nは、4もしくは8、またはブロック高さである。
iv. Mおよび/またはNは、例えば、ブロック寸法/コーディングされた情報に基づいて、予め定義されるか、またはオンザフライで導出されていてもよいし、シグナリングされてもよい。
b. 一例では、グループ内のサンプルは、同じMV(共有されたMVとして示される)を有してもよい。
c. 一例では、グループ内のサンプルは、同じ水平コンポーネント(共有された水平コンポーネントとして示される)を有するMVを有してもよい。
d. 一例では、グループ内のサンプルは、同じ垂直コンポーネント(共有された垂直コンポーネントとして示される)を有するMVを有してもよい。
e. 一例では、グループ内のサンプルは、水平コンポーネントの同じ分数部(共有された分数水平コンポーネントとして示される)を有するMVを有してもよい。
i. 例えば、第1のサンプルに対するMVが(MV1x,MV1y)であり、第2のサンプルに対するMVが(MV2x,MV2y)であるとすると、MV1x&(2M-1)はMV2x&(2M-1)に等しい(Mは、MV精度を示す)ことが満たされるべきである。
例えば、M=4である。
f. 一例では、グループ内のサンプルは、同じ垂直コンポーネントの分数部(共有された分数垂直コンポーネントとして示される)を有するMVを有してもよい。
i. 例えば、第1のサンプルに対するMVが(MV1x,MV1y)であり、第2のサンプルに対するMVが(MV2x,MV2y)であるとすると、MV1y&(2M-1)はMV2y&(2M-1)に等しい(Mは、MV精度を示す)ことが満たされるべきである。例えば、M=4である。
g. 一例では、予測されるグループ内のサンプルに対して、MVbによって示される動きベクトルは、まず、現在のピクチャの解像度と参照ピクチャの解像度(例えば、JVET-O2001-v14における8.5.6.3.1において導出される(refxL,refyL))に従って導出されてもよい。次いで、MVbは、上記の箇条書きのような要件を満たすためにMV’にさらに修正されてもよく(例えば、丸められる/切り詰められる/クリッピングされる)、MV’は、サンプルに対する予測サンプルを導出するために使用されるだろう。
i. 一例では、MV’は、MVbと同じ整数部を有し、MV’の小数部は、共有された分数水平および/または垂直コンポーネントにセットされる。
ii. 一例では、MV’は、共有された分数水平および/または垂直コンポーネントを有し、かつMVbに最も近いものにセットされる。
h. 共有された動きベクトル(および/または共有された水平コンポーネントおよび/または共有される垂直コンポーネントおよび/または共有された分数垂直コンポーネントおよび/または共有された分数の垂直コンポーネント)は、グループ内の特定のサンプルの動きベクトル(および/または水平コンポーネントおよび/または垂直コンポーネントおよび/または分数垂直コンポーネントおよび/または分数垂直コンポーネント)にセットされてもよい。
i. 例えば、特定のサンプルは、図3Aに示される「A」、「B」、「C」および「D」のような、矩形のグループのコーナーにあってもよい。
ii. 例えば、特定のサンプルは、図3Aに示される「E」、「F」、「G」および「H」のような、矩形のグループの中心にあってもよい。
iii. 例えば、特定のサンプルは、図3Bおよび3Cに示される「A」および「D」のような行形状または列形状のグループの端にあってもよい。
iv. 例えば、特定のサンプルは、図3Bおよび3Cに示される「B」および「C」のような行形状または列形状のグループの中央にあってもよい。
v. 一例では、特定のサンプルの動きベクトルは、箇条書きgで言及されたMVbであってもよい。
i. 共有された動きベクトル(および/または共有された水平コンポーネントおよび/または共有される垂直コンポーネントおよび/または共有された分数垂直コンポーネントおよび/または共有された分数の垂直コンポーネント)は、このグループ内のすべてのサンプルに比較して異なる位置に位置する仮想サンプルの動きベクトル(および/または水平コンポーネントおよび/または垂直コンポーネントおよび/または分数垂直コンポーネントおよび/または分数垂直コンポーネント)にセットされてもよい。
i. 一例では、仮想サンプルはグループ内にはないが、グループ内のすべてのサンプルをカバーする領域に位置する。
1) 代替的には、仮想サンプルは、グループ内のすべてのサンプルをカバーする領域外に位置し、例えば、領域の右下の位置の隣に位置する。
ii. 一例では、仮想サンプルのMVは、実際のサンプルと同じ方法で、異なる位置で導出される。
iii. 図3A~3Cの「V」は、仮想サンプルの3つの例を示す。
j. 共有されたMV(および/または共有された水平コンポーネントおよび/または共有される垂直コンポーネントおよび/または共有された分数垂直コンポーネントおよび/または共有された分数の垂直コンポーネント)は、複数のサンプルおよび/または仮想サンプルのMV(および/または水平コンポーネントおよび/または垂直コンポーネントおよび/または分数垂直コンポーネントおよび/または分数垂直コンポーネント)の関数にセットされてもよい。
i. 例えば、共有されたMV(および/または共有された水平コンポーネントおよび/または共有された垂直コンポーネントおよび/または共有された分数垂直コンポーネント、および/または共有された分数垂直コンポーネント)は、グループ内のサンプル、または図3Aのサンプル「E」、「F」、「G」、「H」、もしくは図3Aのサンプル「E」、「H」、もしくは図3Aのサンプル「A」、「B」、「C」、「D」、もしくは図3Aのサンプル「A」、「D」、もしくは図3Bのサンプル「B」、「C」、図3Bの「A」、「D」、もしくは図3Cのサンプル「B」、「C」、もしくは図3Cのサンプル「A」、「D」の全部または一部のMV(および/または水平コンポーネントおよび/または分数垂直コンポーネントおよび/または分数垂直コンポーネント)の平均にセットされてもよい。
2. 参照ピクチャの解像度が現在のピクチャと異なるとき、または参照ピクチャの幅および/または高さが現在のピクチャのものよりも大きいときに、整数MVのみが、現在のブロックの予測ブロックを導出するために動き補償プロセスを実行することが許容されることが提案される。
a. 一例では、予測されるサンプルに対する復号された動きベクトルは、使用される前に整数MVに丸められる。
b. 一例では、予測されるサンプルに対する復号された動きベクトルは、復号された動きベクトルに最も近い整数MVに丸められる。
c. 一例では、予測されるサンプルに対する復号された動きベクトルは、水平方向において復号された動きベクトルに最も近い整数MVに丸められる。
d. 一例では、予測されるサンプルに対する復号された動きベクトルは、垂直方向において復号された動きベクトルに最も近い整数MVに丸められる。
3. 現在のブロック内のサンプルに対する動き補償プロセスで使用される運動ベクトル(例えば、上記の箇条書きで言及された共有されたMV/共有された水平または垂直もしくは分数コンポーネント/MV’)は、復号されたピクチャバッファに記憶されるか現在の/異なるピクチャ内の後続のブロックの動きベクトル予測のために利用されてもよい。
a. 代替的には、現在のブロック内のサンプルに対する動き補償プロセスで使用される運動ベクトル(例えば、上記の箇条書きで言及された共有されたMV/共有された水平または垂直もしくは分数コンポーネント/MV’)は、現在の/異なるピクチャ内の後続のブロックの動きベクトル予測のために利用されることが許容されなくてもよい。
i. 一例では、復号された動きベクトル(例えば、上記の項目におけるMVb)は、現在/異なるピクチャにおける後続ブロックの動きベクトル予測のために利用されてもよい。
b. 一例では、現在のブロック内のサンプルに対する動き補償プロセスで使用される動きベクトルは、フィルタリングプロセス(例えば、デブロッキングフィルタ/SAO/ALF)で使用されてもよい。
i. 代替的には、復号された動きベクトル(例えば、上記の項目におけるMVb)は、フィルタリングプロセスにおいて利用されてもよい。
c. 一例では、このようなMVはサブブロックレベルで導出されてもよく、各サブブロックに対して記憶されてもよい。
4. 参照ピクチャの解像度が現在のピクチャと異なるかどうか、または参照ピクチャの幅および/または高さが現在のピクチャのものより大きいかどうかに依存して、現在のブロックの予測ブロックを導出するために動き補償プロセスで使用される補間フィルタが選択されてもよいことが提案される。
a. 一例では、より少ないタップを有する補間フィルタは、条件Aが満たされる場合に適用されてもよく、条件Aは、現在のピクチャおよび/または参照ピクチャの寸法に依存する。
i. 一例では、条件Aは、参照ピクチャの解像度が現在のピクチャと異なることである。
ii. 一例では、条件Aは、参照ピクチャの幅および/または高さが現在のピクチャのものよりも大きい。
iii. 一例では、条件Aは、W1>a*W2および/またはH1>b*H2であり、(W1,H1)は、参照ピクチャの幅と高さを表し、(W2,H2)は、現在のピクチャの幅と高さを表し、aとbは、2つのファクタ、例えば、a=b=1.5である。
iv. 一例では、条件Aはまた、双方向予測が使用されるかどうかに依存してもよい。
v. 一例では、1タップフィルタが適用される。言い変えれば、フィルタリングなしの整数ピクセルが補間結果として出力される。
vi. 一例では、参照ピクチャの解像度が現在のピクチャと異なるときに、バイリニアフィルタが適用される。
vii. 一例では、参照ピクチャの解像度が現在のピクチャと異なるとき、または参照ピクチャの幅および/または高さが現在のピクチャのものより大きい場合に、4タップフィルタまたは6タップフィルタが適用される。
1) 6タップフィルタはまた、アフィン動き補償のために使用されてもよい。
2) 4タップフィルタはまた、色差サンプルのための補間のために使用されてもよい。
b. 一例では、パディングサンプルは、参照ピクチャの解像度が現在のピクチャと異なる場合、または参照ピクチャの幅および/または高さが現在のピクチャのものより大きいときに、補間を実行するために使用される。
c. 箇条書き4に開示された方法を適用するかどうか、および/またはどのように適用するかは、色コンポーネントに依存してもよい。
i. 例えば、方法は輝度コンポーネントについてのみ適用される。
d. 箇条書き4で開示された方法を適用するかどうか、および/またはどのように適用するかは、補間フィルタリングの方向に依存してもよい。
i. 例えば、方法は水平フィルタリングについてのみ適用される。
ii. 例えば、方法は垂直フィルタリングについてのみ適用される。
5. 参照ピクチャの解像度が現在のピクチャと異なるとき、または参照ピクチャの幅および/または高さが現在のピクチャのものより大きいときに、予測ブロック生成のための2段階プロセスを適用することを提案する。
a. 第1の段階では、現在のピクチャおよび参照ピクチャの幅および/または高さに依存して、参照ピクチャ内の領域のアップサンプリングまたはダウンサンプリングによって仮想参照ブロックが生成される。
b. 第2の段階では、現在のピクチャおよび参照ピクチャの幅および/または高さとは無関係に、補間フィルタリングを適用することにより、仮想参照ブロックから予測サンプルが生成される。
6. いくつかの実施形態において、参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)の計算は、現在のピクチャおよび参照ピクチャの幅および/または高さに依存して導出され得ることを提案する。
a. 一例では、フルサンプル単位の輝度位置は、以下のように修正される。
b. 一例では、フルサンプル単位の色差位置は、以下のように修正される。
7. 現在のピクチャと同じ参照ピクチャ解像度に基づくブロックに対する動きベクトルを記憶/使用する代わりに、解像度差を考慮した実際の動きベクトルを使用することを提案する。
a. 代替的には、さらに、予測ブロックを生成するために動きベクトルを使用するときに、現在のピクチャおよび参照ピクチャ(例えば、(refxL,refyL))の解像度に従って動きベクトルをさらに変更する必要はない。
RPRと他のコーディングツールとの相互作用
8. フィルタリング処理(例えば、デブロッキングフィルタ)を適用するかどうか、および/またはどのように適用するかは、参照ピクチャの解像度および/または現在のピクチャの解像度に依存してもよい。
a. 一例では、デブロッキングフィルタにおける境界強度(BS)セッティングは、動きベクトル差に加えて解像度差を考慮してもよい。
i. 一例では、現在のピクチャおよび参照ピクチャの解像度に従ったスケーリングされた動きベクトル差を使用して、境界強度を決定してもよい。
b. 一例において、ブロックAとブロックBとの間の境界に対するデブロッキングフィルタの強度は、ブロックAの少なくとも1つの参照ピクチャの解像度が、2つのブロックに対して同じ解像度が利用される場合と比較して、ブロックBの少なくとも1つの参照ピクチャの解像度と異なる(またはより小さいか、もしくはより大きい)場合、異なるようにセット(例えば、増減)されてもよい。
c. 一例では、ブロックAの少なくとも1つの参照ピクチャの解像度がブロックBの少なくとも1つの参照ピクチャの解像度と異なる(またはより小さいか、もしくはより大きい)場合、ブロックAとブロックBの間の境界がフィルタリングされるようにマークされる(例えば、BSが2にセットされる)。
d. 一例において、ブロックAおよび/またはブロックBの少なくとも1つの参照ピクチャの解像度が、参照ピクチャおよび現在のピクチャに同じ解像度が利用される場合と比較して、現在のピクチャの解像度と異なる((またはより小さいか、もしくはより大きい)場合、ブロックAとブロックBとの間の境界に対するデブロッキングフィルタの強度は、異なるようにセット(例えば、増減)されてもよい。
e. 一例では、2つのブロックのうちの少なくとも1つのブロックの少なくとも1つの参照ピクチャが現在のピクチャのものと異なる解像度を有する場合、2つのブロックの間の境界がフィルタリングされるようにマークされる(例えば、BSが2にセットされる)。
9. サブピクチャが存在するときに、適合ビットストリームは、参照ピクチャが現在のピクチャと同じ解像度を有さなければならないことを満たすべきとしてもよい。
a. 代替的には、参照ピクチャが現在のピクチャと異なる解像度を有するときに、現在のピクチャにサブピクチャが存在しないはずである。
b. 代替的には、現在のピクチャ内のサブピクチャに対して、現在のピクチャとして解像度が異なる参照ピクチャを使用することが許容されない。
i. 代替的には、さらに、参照ピクチャ管理は、異なる解像度を有するそれらの参照ピクチャを除外するように呼び出されてもよい。
10. 一例では、サブピクチャ(例えば、1つのピクチャを複数のサブピクチャにスプリットする方法)は、異なる解像度を有するピクチャに対して別々に定義されてもよい。
一例では、参照ピクチャが現在のピクチャとは異なる解像度を有する場合、参照ピクチャ内の対応するサブピクチャは、現在のピクチャのサブピクチャをスケーリングおよび/またはオフセットすることによって導出されてもよい。
11. PROF(オプティカルフローによる予測洗練化)は、参照ピクチャの解像度が現在のピクチャの解像度と異なるときに有効にされてもよい。
a. 一例において、MV(MVgとして示される)の1つのセットが、サンプルのグループに対して生成されてもよく、箇条書き1に記載されるように、動き補償のために使用されてもよい。一方、MV(MVpとして示される)が、各サンプルに対して導出されてもよく、MVpとMVgとの間の差(例えば、PROFで使用されるΔvに対応する)は、勾配(例えば、動き補償ブロックの空間勾配)と共に、予測洗練化を導出するために使用されてもよい。
b. 一例では、MVpは、MVgとは異なる精度を有してもよい。例えば、MVpは、1/Nペル(N>0)精度を有し、N=32,64などであってもよい。
c. 一例では、MVgは、内部MV精度(例えば、1/16ペル)とは異なる精度であってもよい。
d. 一例では、予測洗練化が、予測ブロックに追加されて、洗練された予測ブロックを生成する。
e. 一例では、このような方法は、各予測方向に適用されてもよい。
f. 一例では、このような方法は、一方向予測の場合にのみ適用されてもよい。
g. 一例では、このような方法は、一方向予測または双方向予測に適用されてもよい。
h. 一例では、このような方法は、参照ピクチャが現在のピクチャとは異なる解像度を有するときにのみ適用されてもよい。
12. 参照ピクチャの解像度が現在のピクチャのものと異なるときに、動き補償プロセスを実行して、現在のブロックの予測ブロックを導出するためにブロック/サブブロックに対して1つのMVのみが利用され得ることが提案される。
a. 一例において、ブロック/サブブロックに対する唯一のMVは、ブロック/サブブロック内の各サンプルに関連するすべてのMVの関数(例えば、平均)として定義されてもよい。
b. 一例において、ブロック/サブブロックに対する唯一のMVは、ブロック/サブブロック内の選択されたサンプル(例えば、中心サンプル)に関連する選択されたMVとして定義されてもよい。
c. 一例では、4×4ブロックまたはサブブロック(例えば、4×1)に対して、1つのMVのみが利用されてもよい。
d. 一例では、ブロックベースの動きベクトルに起因する精度損失を補償するために、BIOがさらに適用されてもよい。
13. 参照ピクチャの幅および/または高さが現在のピクチャのものと異なるときに、任意のブロックベースの動きベクトルをシグナリングしない遅延モードが適用されてもよい。
a. 一例では、動きベクトルがシグナリングされなくてもよく、動き補償プロセスは、静止画像の純粋な解像度変更の場合を近似するものである。
b. 一例では、ピクチャ/タイル/ブリック/CTUレベルでの動きベクトルのみがシグナリングされてもよく、関係するブロックは、解像度が変更されるときに動きベクトルを使用してもよい。
14. PROFは、アフィン予測モードおよび/または非アフィン予測モードでコーディングされたブロックに対して、参照ピクチャの幅および/または高さが現在のピクチャのものと異なるときに、近似的な動き補償に適用されてもよい。
a. 一例では、PROFは、参照ピクチャの幅および/または高さと現在のピクチャのものが異なるときに有効されてもよい。
b. 一例では、アフィン動きのセットは、示された動きと解像度のスケーリングを組み合わせることによって生成され、PROFによって使用されてもよい。
15. インターウィーブド予測(例えば、JVET-K0102で提案されているような)は、参照ピクチャの幅および/または高さが現在のピクチャのものと異なるときに、近似的な動き補償に適用されてもよい。
a. 一例では、解像度変更(ズーミング)がアフィン動きとして表わされ、インターウィーブド動き予測が適用されてもよい。
16. LMCSおよび/または色差残差スケーリングは、現在のピクチャの幅および/または高さが同じIRAP期間におけるIRAPピクチャのものと異なるときに、無効にされてもよい。
a. 一例では、LMCSが無効にされているときに、slice_lmcs_enabled_flag、slice_lmcs_aps_id、およびslice_chroma_residual_scale_flagなどのスライスレベルフラグは、シグナリングされず、0であると推論されてもよい。
b. 一例では、色差残差スケーリングが無効にされているときに、slice_chroma_residual_scale_flagなどのスライスレベルフラグは、シグナリングされず、0であると推論されてもよい。
RPRについての制約
17. RPRは、ブロック寸法制約を有するコーディングブロックに適用されてもよい。
a. 一例では、Mをブロック幅、Nをブロック高さとして、M×Nコーディングブロックに対して、M*N<TまたはM*N<=T(T=256など)であるときに、RPRは使用されなくてもよい。
b. 一例では、M<K(またはM<=K)(K=16など)および/またはN<L(またはN<=L)(L=16など)であるときに、RPRは使用されなくてもよい。
18. ビットストリーム適合性は、アクティブ参照ピクチャ(またはその適合ウィンドウ)の幅および/または高さと現在のピクチャ(またはその適合ウィンドウ)のものとの間の比を制限するために追加されてもよい。refPicWとrefPicHが参照ピクチャの幅と高さを示し、curPicWとcurPicHが現在のピクチャの幅と高さを示すとする。
a. 一例では、(refPicW÷curPicW)が整数に等しいときに、参照ピクチャはアクティブ参照ピクチャとしてマークされてもよい。
i. 代替的には、(refPicW÷curPicW)が分数に等しいときに、参照ピクチャは利用可能ではないとマークされてもよい。
b. 一例では、(refPicW÷curPicW)が(X*n)に等しいときに、XはX=1/2などの分数を表し、nはn=1,2,3,4...,などの整数を表し、参照ピクチャは、アクティブ参照ピクチャとしてマークされてもよい。
i. 一例では、(refPicW÷curPicW)が(X*n)と等しくないときに、参照ピクチャは、利用可能ではないとしてマークされてもよい。
19. M×Nブロックに対するコーディングツール(例えば、双方向予測/ホール三角形予測モード(TPM)/TPMにおける混合プロセス)を有効にするかどうか、および/またはどのように有効にするかは、参照ピクチャ(またはそれらの適合ウィンドウ)の解像度、および/または現在のピクチャ(またはその適合ウィンドウ)のものに依存してもよい。
a. 一例では、M*N<TまたはM*N<=T(T=64など)である。
b. 一例では、M<K(またはM<=K)(K=16など)および/またはN<L(またはN<=L)(L=16など)である。
c. 一例では、少なくとも1つの参照ピクチャの幅/高さが現在のピクチャと異なるときに、コーディングツールは許容されない。
i. 一例では、ブロックの少なくとも1つの参照ピクチャの幅/高さが現在のピクチャのものより大きいときに、コーディングツールは許容されない。
d. 一例では、ブロックの各参照ピクチャの幅/高さが現在のピクチャのものと異なるときに、コーディングツールは許容されない。
i. 一例では、各参照ピクチャの幅/高さが現在のピクチャのものより大きいときに、コーディングツールは許容されない。
e. 代替的には、さらに、コーディングツールが許容されないときに、動き補償は、一方向予測として1つのMVで行うことができる。
適合ウィンドウ関係
20. 適合クロッピングウィンドウオフセットパラメータ(例えば、conf_win_left_offset)は、1ペルではなく、Nペル精度でシグナリングされ、Nは、1より大きい正の整数である。
a. 一例では、実際のオフセットは、シグナリングされたオフセットにNを乗じたものとして導出されてもよい。
b. 一例では、Nは4または8にセットされる。
21. 適合クロッピングウィンドウオフセットパラメータを出力のみ適用するだけではないことを提案する。特定の内部復号プロセスは、クロッピングされたピクチャサイズ(すなわち、ピクチャ内の適合ウィンドウの解像度)に依存してもよい。
22. 第1のビデオユニットおよび第2のビデオユニットにおける(pic_width_in_luma_samples,pic_height_in_luma_samples)として示されるピクチャの幅および/または高さが同じであるときに、第1のビデオユニット(例えば、PPS)および第2のビデオユニットにおける適合クロッピングウィンドウオフセットパラメータが異なってもよいことを提案する。
23. 第1のビデオユニットと第2のビデオユニットにおける(pic_width_in_luma_samples,pic_height_in_luma_samples)として示されるピクチャの幅および/または高さが異なるときに、第1のビデオユニット(例えば、PPS)および第2のビデオユニットにおける適合クロッピングウィンドウオフセットパラメータが、適合ビットストリームにおいて同じであるべきことを提案する。
a. 第1のビデオユニットと第2のビデオユニットにおける(pic_width_in_luma_samples,pic_height_in_luma_samples)として示されるピクチャの幅および/または高さが同じであるかどうかにかかわらず、第1のビデオユニット(例えば、PPS)および第2のビデオユニットにおける適合クロッピングウィンドウオフセットパラメータが、適合ビットストリームにおいて同じであるべきことを提案する。
24. 第1のビデオユニット(例えば、PPS)において定義された適合ウィンドウの幅と高さが、それぞれW1とH1として示されているとする。第2のビデオユニット(例えば、PPS)において定義された適合ウィンドウの幅と高さが、それぞれW2とH2として示される。第1のビデオユニット(例えば、PPS)において定義された適合ウィンドウの左上の位置が、X1およびY1として示される。第2のビデオユニット(例えば、PPS)において定義された適合ウィンドウの左上の位置が、X2とY2として示される。第1のビデオユニット(例えば、PPS)において定義されたコーディング/復号されたピクチャの幅および高さ(例えば、pic_width_in_luma_samplesおよびpic_height_in_luma_samples)は、それぞれPW1およびPH1として示される。第2のビデオユニット(例えば、PPS)において定義されたコーディング/復号されたピクチャの幅および高さは、PW2およびPH2として示される。
a. 一例では、W1/W2は、適合ビットストリームにおいてX1/X2に等しいべきである。
i. 代替的には、W1/X1は、適合ビットストリームにおいてW2/X2に等しいべきである。
ii. 代替的には、W1*X2は、適合ビットストリームにおいてW2*X1に等しいべきである。
b. 一例では、H1/H2は、適合ビットストリームにおいてY1/Y2に等しいべきである。
i. 代替的には、H1/Y1は、適合ビットストリームにおいてH2/Y2に等しいべきである。
ii. 代替的には、H1*Y2は、適合ビットストリームにおいてH2*Y1に等しいべきである。
c. 一例では、PW1/PW2は、適合ビットストリームにおいてX1/X2に等しいべきである。
i. 代替的には、PW1/X1は、適合ビットストリームにおいてPW2/X2に等しいべきである。
ii. 代替的には、PW1*X2は、適合ビットストリームにおいてPW2*X1に等しいべきである。
d. 一例では、PH1/PH2は、適合ビットストリームにおいてY1/Y2に等しいべきである。
i. 代替的には、PH1/Y1は、適合ビットストリームにおいてPH2/Y2に等しいべきである。
ii. 代替的には、PH1*Y2は、適合ビットストリームにおいてPH2*Y1に等しいべきである。
e. 一例では、PW1/PW2は、適合ビットストリームにおいてW1/W2に等しいべきである。
i. 代替的には、PW1/W1は、適合ビットストリームにおいてPW2/W2に等しいべきである。
ii. 代替的には、PW1*W2は、適合ビットストリームにおいてPW2*W1に等しいべきである。
f. 一例では、PH1/PH2は、適合ビットストリームにおいてH1/H2に等しいべきである。
i. 代替的には、PH1/H1は、適合ビットストリームにおいてPH2/H2に等しいべきである。
ii. 代替的には、PH1*H2は、適合ビットストリームにおいてPH2*H1に等しいべきである。
g. 適合ビットストリームにおいて、PW1がPW2より大きい場合、W1はW2より大きくなければならない。
h. 適合ビットストリームにおいて、PW1がPW2より小さい場合、W1はW2より大きくなければならない。
i. 適合ビットストリームにおいて、(PW1-PW2)*(W1-W2)は0以上でなければならない。
j. 適合ビットストリームにおいて、PH1がPH2より大きい場合、H1はH2より大きくなければならない。
k. 適合ビットストリームにおいて、PH1がPH2より小さい場合、H1はH2より大きくなければならない。
l. 適合ビットストリームにおいて、(PH1-PH2)*(H1-H2)は0以上でなければならない。
m. 適合ビットストリームにおいて、PW1>=PW2である場合、W1/W2はPW1/PW2以下(またはより小さく)なければならない。
n. 適合ビットストリームにおいて、PH1>=PH2である場合、H1/H2はPH1/PH2以下(またはより小さく)なければならない。
25. 現在のピクチャの適合ウィンドウの幅と高さが、それぞれW1とH1として示されるとする。参照ピクチャの適合ウィンドウの幅と高さは、それぞれW’とH’として示される。次いで、下記の少なくとも1つの制約に適合ビットストリームが従うべきである。
a. W*pw>=W’であり、pwは、2などの整数である。
b. W*pw>W’であり、pwは、2などの整数である。
c. W*pw’>=W’であり、pw’は、8などの整数である。
d. W*pw’>W’であり、pw’は、8などの整数である。
e. H*ph>=H’であり、phは、2などの整数である。
f. H*ph>H’であり、phは、2などの整数である。
g. H*ph’>=H’であり、ph’は、8などの整数である。
h. H*ph’>Hであり、ph’は、8などの整数である。
i. 一例では、pwはpw’に等しい。
j. 一例では、phはph’に等しい。
k. 一例では、pwはphに等しい。
l. 一例では、pw’はph’に等しい。
m. 一例では、WとHがそれぞれ現在のピクチャの幅と高さを表すときに、上記のサブ箇条書きが、適合ビットストリームによって満たされることが必要とされてもよい。W’とH’は、参照ピクチャの幅と高さを表す。
26.適合ウィンドウパラメータが部分的にシグナリングされることが提案される。
a. 一例では、ピクチャの適合ウィンドウの左上のサンプルは、ピクチャのサンプルと同じである。
b. 例えば、VVCにおいて定義されているconf_win_left_offsetは、シグナリングされず、0であると推論される。
c. 例えば、VVCにおいて定義されているconf_win_top_offsetは、シグナリングされず、0であると推論される。
27. 一例では、参照サンプルの位置(例えば、VVCにおいて定義された(refxL,refyL))の導出は、現在のピクチャおよび/または参照ピクチャの適合ウィンドウの左上の位置(例えば、VVCにおいて定義された(conf_win_left_offset,conf_win_top_offset))に依存してもよい。図4は、VVCにおいて導出されるサンプル位置(a)および提案された方法において導出されるサンプル位置(b)の例を示す。破線の矩形は適合ウィンドウを表す。
a. 一例では、依存性は、現在のピクチャの幅および/または高さと参照ピクチャのものとが異なるときにのみ存在する。
b. 一例では、参照サンプルの水平位置(例えば、VVCにおいて定義されたrefxL)の導出は、現在のピクチャおよび/または参照ピクチャの適合ウィンドウの左位置(例えば、VVCにおいて定義されたconf_win_left_offset)に依存してもよい。
i. 一例では、現在のピクチャにおける適合ウィンドウの左上の位置に対する現在のサンプルの水平位置(xSb’として示される)が計算され、参照サンプルの位置を導出するために使用される。
1) 例えば、xSb’=xSb-(conf_win_left_offset<<Prec)が計算され、参照サンプルの位置を導出するために使用され、xSbは、現在のピクチャにおける現在のサンプルの水平位置を表す。conf_win_left_offsetは、現在のピクチャの適合ウィンドウにおける左上のサンプルの水平位置を表す。Precは、xSbおよびxSb’の精度を表し、(xSb>>Prec)は現在のピクチャに対する現在のサンプルの実際の水平座標を示してもよい。例えば、Prec=0またはPrec=4である。
ii. 一例では、参照ピクチャにおける適合ウィンドウの左上の位置に対する参照サンプルの水平位置(Rx’として示される)が計算される。
1) Rx’の計算は、xSb’、および/または動きベクトル、および/または再サンプリング比に依存してもよい。
iii. 一例では、参照ピクチャにおける参照サンプルの水平位置(Rxとして示される)は、Rx’に依存して計算される。
1) 例えば、Rx=Rx’+(conf_win_left_offset_ref<<Prec)が計算され、conf_win_left_offset_refは、参照ピクチャの適合ウィンドウにおける左上のサンプルの水平位置を表す。Precは、RxとRx’の精度を提示する。例えば、Prec=0またはPrec=4である。
iv. 一例では、Rxは、xSb’、および/または動きベクトル、および/または再サンプリング比に依存して直接計算されてもよい。言い換えれば、Rx’とRxの導出の2つのステップが1つのステップの計算に組み合わせられる。
v. 現在のピクチャおよび/または参照ピクチャの適合ウィンドウの左位置(例えば、VVCにおいて定義されたconf_win_left_offset)を使用するかどうか、および/またはどのように使用するかは、色コンポーネントおよび/または色フォーマットに依存してもよい。
1) 例えば、conf_win_left_offsetは、conf_win_left_offset=conf_win_left_offset*SubWidthCとして修正されてもよく、SubWidthCは、色コンポーネントの水平サンプリングステップを定義する。例えば、SubWidthCは、輝度コンポーネントに対して1に等しい。色フォーマットが4:2:0または4:2:2であるときに、SubWidthCは色差コンポーネントに対して2に等しい。
2) 例えば、conf_win_left_offsetは、conf_win_left_offset=conf_win_left_offset/SubWidthCとして修正されてもよく、SubWidthCは、色コンポーネントの水平サンプリングステップを定義する。例えば、SubWidthCは、輝度コンポーネントに対して1に等しい。色フォーマットが4:2:0または4:2:2であるときに、SubWidthCは色差コンポーネントに対して2に等しい。
c. 一例では、参照サンプルの垂直位置(例えば、VVCにおいて定義されたrefyL)の導出は、現在のピクチャおよび/または参照ピクチャの適合ウィンドウの上位置(例えば、VVCにおいて定義されたconf_win_top_offset)に依存してもよい。
i. 一例では、現在のピクチャにおける適合ウィンドウの左上の位置に対する現在のサンプルの垂直位置(ySb’として示される)が計算され、参照サンプルの位置を導出するために使用される。
1) 例えば、ySb’=ySb-(conf_win_top_offset<<Prec)が計算され、参照サンプルの位置を導出するために使用され、ySbは、現在のピクチャにおける現在のサンプルの垂直位置を表す。conf_win_top_offsetは、現在のピクチャの適合ウィンドウの左上のサンプルの垂直位置を表す。Precは、ySbとySb’の精度を表す。例えば、Prec=0またはPrec=4である。
ii. 一例では、参照ピクチャにおける適合ウィンドウの左上の位置に対する参照サンプルの垂直位置(Ry’として示される)が計算される。
1) Ry’の計算は、ySb’、および/または動きベクトル、および/または再サンプリング比に依存してもよい。
iii. 一例では、参照ピクチャにおける参照サンプルの垂直位置(Rxとして示される)は、Ry’に依存して計算される。
1) 例えば、Ry=Ry’+(conf_win_top_offset_ref<<Prec)が計算され、conf_win_top_offset_refは、参照ピクチャの適合ウィンドウにおける左上のサンプルの垂直位置を表す。Precは、RyとRy’の精度を提示する。例えば、Prec=0またはPrec=4である。
iv. 一例では、Ryは、ySb’、および/または動きベクトル、および/または再サンプリング比に依存して直接計算されてもよい。言い換えれば、Ry’とRyの導出の2つのステップが1つのステップの計算に組み合わせられる。
v. 現在のピクチャおよび/または参照ピクチャの適合ウィンドウの上位置(例えば、VVCにおいて定義されたconf_win_top_offset)を使用するかどうか、および/またはどのように使用するかは、色コンポーネントおよび/または色フォーマットに依存してもよい。
1) 例えば、conf_win_top_offsetは、conf_win_top_offset=conf_win_top_offset*SubHeightCとして修正されてもよく、SubHeightCは、色コンポーネントの垂直サンプリングステップを定義する。例えば、SubHeightCは輝度コンポーネントに対して1に等しい。SubHeightCは、色フォーマットが4:2:0であるときに、色差コンポーネントに対して2に等しい。
2) 例えば、conf_win_top_offsetは、conf_win_top_offset=conf_win_top_offset/SubHeightCとして修正されてもよく、SubHeightCは、色コンポーネントの垂直サンプリングステップを定義する。例えば、SubHeightCは、輝度コンポーネントに対して1に等しい。色フォーマットが4:2:0であるときに、SubHeightCは色差コンポーネントに対して2に等しい。
28. 参照サンプルの水平座標の整数部が[minW,maxW]にクリッピングされ得ることを提案する。参照ピクチャの適合ウィンドウの幅と高さが、それぞれW1とH1として示されるとする。参照ピクチャの適合ウィンドウの幅と高さが、W’とH’として示される。参照ピクチャ内の適合ウィンドウの左上の位置が、(X0,Y0)として示される。
a. 一例では、minWは0に等しい。
b. 一例では、minWはX0に等しい。
c. 一例では、maxWはW-1に等しい。
d. 一例では、maxWはW’-1に等しい。
e. 一例では、maxWはX0+W’-1に等しい。
f. 一例では、minWおよび/またはmaxWは、色フォーマットおよび/または色コンポーネントに基づいて修正されてもよい。
i. 例えば、minWはminW*SubCに修正される。
ii. 例えば、minWはminW/SubCに修正される。
iii. 例えば、maxWはmaxW*SubCに修正される。
iv. 例えば、maxWはmaxW/SubCに修正される。
v. 一例では、SubCは輝度コンポーネントに対して1に等しい。
vi. 一例では、色フォーマットが4:2:0であるときに、SubCは色差コンポーネントに対して2に等しい。
vii. 一例では、色フォーマットが4:2:2であるときに、SubCは色差コンポーネントに対して2に等しい。
viii. 一例では、色フォーマットが4:4:4であるときに、SubCは色差コンポーネントに対して1に等しい。
g. 一例では、クリッピングを行うかどうか、および/または、どのようにするかは、現在のピクチャ(またはその中の適合ウィンドウ)の寸法および参照ピクチャ(またはその中の適合ウィンドウ)の寸法に依存してもよい。
i. 一例では、クリッピングは現在のピクチャ(またはその中の適合ウィンドウ)の寸法と参照ピクチャ(またはその中の適合ウィンドウ)の寸法が異なるときにのみ行われる。
29.参照サンプルの垂直座標の整数部が[minH,maxH]にクリッピングされ得ることを提案する。参照ピクチャの適合ウィンドウの幅と高さが、それぞれW1とH1として示されるとする。参照ピクチャの適合ウィンドウの幅と高さが、W’とH’として示される。参照ピクチャ内の適合ウィンドウの左上の位置が、(X0,Y0)として示される。
a. 一例では、minHは0に等しい。
b. 一例では、minHはY0に等しい。
c. 一例では、maxHはH-1に等しい。
d. 一例では、maxHはH’-1に等しい。
e. 一例では、maxHはY0+H’-1に等しい。
f. 一例では、minHおよび/またはmaxHは、色フォーマットおよび/または色コンポーネントに基づいて修正されてもよい。
i. 例えば、minHはminH*SubCに修正される。
ii. 例えば、minHはminH/SubCに修正される。
iii. 例えば、maxHはmaxH*SubCに修正される。
iv. 例えば、maxHはmaxH/SubCに修正される。
v. 一例では、SubCは輝度コンポーネントに対して1に等しい。
vi. 一例では、色フォーマットが4:2:0であるときに、SubCは色差コンポーネントに対して2に等しい。
vii. 一例では、色フォーマットが4:2:2であるときに、SubCは色差コンポーネントに対して2に等しい。
viii. 一例では、色フォーマットが4:4:4であるときに、SubCは色差コンポーネントに対して1に等しい。
g. 一例では、クリッピングを行うかどうか、および/または、どのようにするかは、現在のピクチャ(またはその中の適合ウィンドウ)の寸法および参照ピクチャ(またはその中の適合ウィンドウ)の寸法に依存してもよい。
i. 一例では、クリッピングは現在のピクチャ(またはその中の適合ウィンドウ)の寸法と参照ピクチャ(またはその中の適合ウィンドウ)の寸法が異なるときにのみ行われる。
以下の議論では、第1の構文要素は、2つの構文要素が同等の機能を有するが、異なるビデオユニット(例えば、VPS/SPS/PPS/スライスヘッダ/ピクチャヘッダなど)でシグナリングされ得る場合、第2の構文要素に「対応する」と主張される。
30. 構文要素が第1のビデオユニット(例えば、ピクチャヘッダまたはPPS)においてシグナリングされてもよく、対応する構文要素がより高いレベル(例えば、SPS)またはより低いレベル(例えば、スライスヘッダ)で第2のビデオユニットにおいてシグナリングされないことが提案される。
a. 代替的には、第1の構文要素が第1のビデオユニット(例えば、ピクチャヘッダまたはPPS)においてシグナリングされてもよく、対応する第2の構文要素がより低いレベル(例えば、スライスヘッダ)で第2のビデオユニットにおいてシグナリングされてもよい。
i. 代替的には、第2の構文要素がその後にシグナリングされるかどうかを通知するために、インジケータが第2のビデオユニットにおいてシグナリングされてもよい。
ii. 一例では、第2のビデオユニットに関連するスライス(スライスヘッダなど)は、第2の構文要素がシグナリングされる場合、第1の構文要素ではなく、第2の構文要素の表示に従ってもよい。
iii. 第1のビデオユニットに関連する任意のスライス(または他のビデオユニット)において第2の構文要素がシグナリングされるかどうかを通知するために、第1の構成要素に関連するインジケータが第1のビデオユニットにおいてシグナリングされてもよい。
b. 代替的には、第1の構文要素がより高いレベル(VPS/SPS/PPSなど)で第1のビデオユニットにおいてシグナリングされてもよく、対応する第2の構文要素が第2のビデオユニット(ピクチャヘッダなど)においてシグナリングされてもよい。
i. 代替的には、第2の構文要素がその後にシグナリングされるかどうかを通知するために、インジケータがシグナリングされてもよい。
ii. 一例では、第2のビデオユニットに関連する(スライスにパーティショニングされてもよい)ピクチャは、第2の構文要素がシグナリングされる場合、第1の構文要素ではなく、第2の構文要素の指示に従ってもよい。
c. ピクチャヘッダにおける第1の構文要素は、2.6項で指定されているスライスヘッダにおける第2の構文要素(slice_temporal_mvp_enabled_flag、cabac_init_flag、six_minus_max_num_merge_cand、five_minus_max_num_subblock_merge_cand、slice_fpel_mmvd_enabled_flag、slice_disable_bdof_dmvr_flag、max_num_merge_cand_minus_max_num_triangle_cand、slice_fpel_mmvd_enabled_flag、slice_six_minus_max_num_ibc_merge_cand、slice_joint_cbcr_sign_flag、slice_qp_delta、...などであるが、これらに限定されない)と同等の機能を有するが、ピクチャのすべてのスライスを制御してもよい。
d. 2.6項で指定されているSPSにおける第1の構文要素は、ピクチャヘッダにおける第2の構文要素(sps_bdof_dmvr_slice_present_flag、sps_mmvd_enabled_flag、sps_isp_enabled_flag、sps_mrl_enabled_flag、sps_mip_enabled_flag、sps_cclm_enabled_flag、sps_mts_enabled_flag....などであるが、これらに限定されない)と同等の機能を有するが、(スライスにパーティショニングされ得る)関連するピクチャのみ制御してもよい。
e. 2.7項で指定されているPPSの第1の構文要素は、ピクチャヘッダにおける第2の構文要素(entropy_coding_sync_enabled_flag、entry_point_offsets_present_flagcabac_init_present_flag、rpl1_idx_present_flag...などであるが、これらに限定されない)と同等の機能を有するが、(スライスにパーティショニングされ得る)関連するピクチャのみを制御してもよい。
31. ピクチャヘッダにおいてシグナリングされた構文要素は、SPS/VPS/DPSにおいてシグナリングされた、または導出された他の構文要素と切り離される。
32. DMVRとBDOFの有効/無効の表示は、同じフラグ(例えば、pic_disable_bdof_dmvr_flag)によって制御されるのではなく、ピクチャヘッダにおいて別々にシグナリングされてもよい。
33. PROF/クロスコンポーネントALF/幾何学的パーティショニングによるインター予測(GEO)の有効/無効の表示が、ピクチャヘッダにおいてシグナリングされてもよい。
a. 代替的には、ピクチャヘッダにおけるPROFを有効/無効にする表示は、SPSにおけるPROF有効フラグに従って条件付きでシグナリングされてもよい。
b. 代替的には、ピクチャヘッダにおけるクロスコンポーネントALF(CCALF)を有効/無効にする表示は、SPSにおけるCCALF有効フラグに従って条件付きでシグナリングされてもよい。
c. 代替的には、ピクチャヘッダにおけるGEOを有効/無効にする表示は、SPSにおけるGEO有効フラグに従って条件付きでシグナリングされてもよい。
d. 代替的には、さらに、スライスヘッダにおけるPROF/クロスコンポーネントALF/幾何学的パーティショニングによるインター予測(GEO)の有効/無効の表示は、SPSの代わりにピクチャヘッダにおいてシグナリングされたそれらの構文要素に従って条件付きでシグナリングされてもよい。
34. 同じピクチャにおけるスライス/レンガ/タイル(またはピクチャより小さい他のビデオユニット)の予測タイプの表示は、ピクチャヘッダにおいてシグナリングされてもよい。
a. 一例では、すべてのスライスレンガ/タイル(または、ピクチャより小さい他のビデオユニット)がすべてイントラコーディングされているか(例えば、すべてIスライス)どうかの表示が、ピクチャヘッダにおいてシグナリングされてもよい。
i. 代替的には、さらに、ピクチャ内のすべてのスライスがIスライスであることを表示が教示する場合、スライスタイプがスライスヘッダにおいてシグナリングされなくてもよい。
b. 代替的には、スライス/レンガ/タイル(または、ピクチャよりも小さい他のビデオユニット)のうちの少なくとも1つがイントラコーディングされていない(例えば、少なくとも1つの非Iスライス)かどうかの表示が、ピクチャヘッダにおいてシグナリングされてもよい。
c. 代替的には、すべてのスライス/レンガ/タイル(または、ピクチャより小さい他のビデオユニット)がすべて同じ予測タイプ(例えば、I/P/Bスライス)であるかどうかの表示が、ピクチャヘッダにおいてシグナリングされてもよい。
i. 代替的には、さらに、スライスタイプは、スライスヘッダにおいてシグナリングされなくてもよい。
ii. 代替的には、さらに、特定の予測タイプに対して許容されるツールの表示(例えば、DMVR/BDOF/TPM/GEOはBスライスに対してのみ許容され、デュアルツリーはIスライスに対してのみ許容される)は、予測タイプの表示に従って条件付きでシグナリングされてもよい。
d. 代替的には、さらに、有効/無効ツールの表示のシグナリングは、上記のサブ箇条書きで言及された予測タイプの表示に依存してもよい。
i. 代替的には、さらに、有効/無効ツールの表示は、上記のサブ箇条書きで言及された予測タイプの指示に従って導出されてもよい。
35.本開示(箇条書き1~箇条書き29)において、用語「適合ウィンドウ」は、「スケーリングウィンドウ」などの他の用語によって置き換えられてもよい。スケーリングウィンドウは、適合ウィンドウとは異なってシグナリングされてもよく、RPRに対する参照サンプル位置を導出するために使用されるスケーリング比および/または左上オフセットを導出するために使用される。
a. 一例では、スケーリングウィンドウは、適合ウィンドウによって制約されてもよい。例えば、適合ビットストリームでは、スケーリングウィンドウは適合ウィンドウによって含まれなければならない。
36. transform-skip-codedブロックに対して許容された最大ブロックサイズをシグナリングするかどうか、および/またはどのようにシグナリングするかは、transform-codedブロックの最大ブロックサイズに依存してもよい。
a. 代替的には、transform-skip-codedブロックに対する最大ブロックサイズは、適合ビットストリームにおいてtransform-codedブロックに対する最大ブロックサイズより大きくすることはできない。
37.JCCR(Joint Cb-Cr Residue)コーディングを有効にする表示(sps_joint_cbcr_enabled_flagなど)をシグナリングするかどうか、およびどのようにシグナリングするかは、色フォーマット(4:0:0、4:2:0など)に依存してもよい。
a. 例えば、色フォーマットが4:0:0である場合、JCCR(Joint Cb-Cr Residue)を有効にする表示がシグナリングされなくてもよい。例示的な構文設計は、以下の通りである。
38.色差サンプルに対する混合重み導出のために使用されるダウンサンプリングフィルタのタイプは、ビデオユニットレベル(SPS/VPS/PPS/PPS/ピクチャヘッダ/サブピクチャ/スライス/スライスヘッダ/タイル/ブリック/CTU/VPDUレベルなど)でシグナリングされてもよい。
a. 一例では、コンテンツの異なる色差フォーマットタイプを切り替えるために、高レベルフラグがシグナリングされてもよい。
i. 一例では、色差フォーマットタイプ0と色差フォーマットタイプ2との間を切り替えるために、高レベルフラグがシグナリングされてもよい。
ii. 一例では、TPM/GEO予測モードにおいて左上のダウンサンプリングされた輝度重みが左上の輝度重みと共位置にあるかどうか(すなわち、クロミナンスのサンプルの位置タイプ0)を指定するために、フラグがシグナリングされてもよい。
iii. 一例では、TPM/GEO予測モードにおいて左上のダウンサンプリングされた輝度サンプルが左上の輝度サンプルと水平に共位置にあるが、左上の輝度サンプルに対して0.5単位の輝度サンプルだけ垂直方向にシフトされるどうか(すなわち、クロミナンスサンプル位置タイプ2)を指定するために、フラグがシグナリングされてもよい。
b. 一例では、ダウンサンプリングフィルタのタイプは、4:2:0色差フォーマットおよび/または4:2:2色差フォーマットに対してシグナリングされてもよい。
c. 一例では、フラグは、TPM/GEO予測のために使用される色差ダウンサンプリングフィルタのタイプを指定するために、シグナリングされてもよい。
i. 一例では、フラグは、TPM/GEO予測モードにおける色差重み導出のためにダウンサンプリングフィルタAを使用するかダウンサンプリングフィルタBを使用するかについてシグナリングされてもよい。
39. 色差サンプルに対する混合重み導出のために使用されるダウンサンプリングフィルタのタイプは、ビデオユニットレベル(SPS/VPS/PPS/PPS/ピクチャヘッダ/サブピクチャ/スライス/スライスヘッダ/タイル/ブリック/CTU/VPDUレベルなど)で導出されてもよい。
a. 一例では、ルックアップテーブルを定義して、コンテンツの色差サブサンプリングフィルタタイプと色差フォーマットタイプとの間の対応関係を指定してもよい。
40. 特定のダウンサンプリングフィルタは、異なる色差サンプル位置タイプの場合にTPM/GEO予測モードに使用されてもよい。
a. 一例では、TPM/GEOの色差重みは、特定の色差のサンプル位置タイプ(例えば、色差サンプル位置タイプ0)の場合に、共位置の左上の輝度重みからサブサンプリングされてもよい。
b. 一例では、特定の色差サンプル位置タイプ(例えば、色差サンプル位置タイプ0または2)の場合に、特定のXタップフィルタ(Xは、X=6または5のような定数)が、TPM/GEO予測モードにおける色差重みサブサンプリングのために使用されてもよい。
41.ビデオユニット(例えば、SPS、PPS、ピクチャヘッダ、スライスヘッダなど)において、最初の構文要素(フラグなど)は、すべてのブロック(スライス/ピクチャ)に対してMTS(Multiple Transform Selection)が無効にされるかどうかを示すためにシグナリングされてもよい。
a. イントラコーディングブロック(スライス/ピクチャ)についてMTSを適用する方法を示す第2の構文要素(MTS/disable MTS/inclicit MTS/explicit MTSなど)は、第1の構文要素に条件付きでシグナリングされる。例えば、第2の構文要素は、第1の構文要素がすべてのブロック(スライス/ピクチャ)に対してMTSが無効にされないことを示すときにのみにシグナリングされる。
b. インターコーディングブロック(スライス/ピクチャ)についてMTSを適用する方法を示す第3の構文要素(MTS/disable MTS/inclicit MTS/explicit MTSなど)は、第1の構文要素に条件付きでシグナリングされる。例えば、第3の構文要素は、第1の構文要素がすべてのブロック(スライス/ピクチャ)に対してMTSが無効にされないことを示すときにのみにシグナリングされる。
c. 例示的な構文設計は、以下の通りである。
例示的な構文設計は、以下の通りである。
以下では、テキスト変更は、下線の付いた太字のイタリック体のフォントで示される。
conf_win_left_offset、conf_win_right_offset、conf_win_top_offset、およびconf_win_bottom_offsetは、復号プロセスから出力されるCVS内のピクチャのサンプルを、出力のためのピクチャ座標で指定された矩形領域に関して指定する。conformance_window_flagが0に等しいときに、conf_win_left_offset、conf_win_right_offset、conf_win_top_offset、conf_win_bottom_offsetの値は0に等しいと推論される。適合クロッピングウィンドウは、SubWidthC*conf_win_left_offset~pic_width_in_luma_samples-(SubWidthC*conf_win_right_offset+1)(両端含む)の水平ピクチャ座標、およびSubHeightC*conf_win_top_offset~pic_height_in_luma_samples-(SubHeightC*conf_win_bottom_offset+1SubHeightC*conf_win_bottom_offset+1)(両端含む)までの垂直ピクチャ座標を含む。SubWidthC*(conf_win_left_offset+conf_win_right_offset)の値は、pic_width_in_luma_samplesより小さいものとし、SubHeightC*(conf_win_top_offset+conf_win_bottom_offset)の値は、pic_height_in_luma_samplesより小さいものとする。変数PicOutputWidthLおよび変数PicOutputHeightLは、以下のように導出される。
[外3]
8.5.6.3.1 概要
...
変数fRefWidthは、輝度サンプルにおける参照ピクチャのPicOutputWidthLに等しくセットされる。
変数fRefHeightは、輝度サンプルにおける参照ピクチャのPicOutputHeightLに等しくセットされる。
[外4]
動きベクトルmvLXは、(refMvLX-mvOffset)に等しくセットされる。
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタとその固定小数点表現は、以下のように定義される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)は、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しくセットされる。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)に対して、対応する予測輝度サンプル値predSamplesLX[xL][yL]は、以下のように導出される。
- (refxSbL,refySbL)と(refxL,refyL)を、1/16サンプル単位で与えられた動きベクトル(refMvLX[0],refMvLX[1])によって指し示される輝度位置とする。変数refxSbL、refxL、refySbL、およびrefyLは、以下のように導出される。
- xLは0に等しい。
- xLはsbWidth+1に等しい。
- xLは0に等しい。
- yLはsbHeight+1に等しい。
- それ以外の場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL-(brdExtSize>0?1:0),yIntL-(brdExtSize>0?1:0))、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)を入力として、8.5.6.3.2項に指定されている輝度サンプル8タップ補間フィルタリングプロセスを呼び出すことによって導出される。
- それ以外の場合(cIdxが0に等しい場合)、以下が適用される。
- (xIntC,yIntC)をフルサンプル単位で与えられる色差位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられるオフセットとする。これらの変数は、参照サンプルアレイrefPicLX内の一般分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntC,ySbIntC)は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しくセットされる。
- 予測色差サンプルアレイpredSamplesLX内の各色差サンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)に対して、対応する予測色差サンプル値predSamplesLX[xC][yC]は、以下のように導出される。
- (refxSbC,refySbC)と(refxC,refyC)を、1/32サンプル単位で与えられた動きベクトル(mvLX[0],mvLX[1])によって指し示される色差位置とする。変数refxSbC、refySbC、refxCおよびrefyCは、以下のように導出される。
8.5.6.3.1 概要
...
変数fRefWidthは、輝度サンプルにおける参照ピクチャのPicOutputWidthLに等しくセットされる。
変数fRefHeightは、輝度サンプルにおける参照ピクチャのPicOutputHeightLに等しくセットされる。
[外5]
動きベクトルmvLXは、(refMvLX-mvOffset)に等しくセットされる。
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタとその固定小数点表現は、以下のように定義される。
これらの変数は、参照サンプルアレイrefPicLX内の分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)は、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しくセットされる。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)に対して、対応する予測輝度サンプル値predSamplesLX[xL][yL]は、以下のように導出される。
- (refxSbL,refySbL)と(refxL,refyL)を、1/16サンプル単位で与えられた動きベクトル(refMvLX[0],refMvLX[1])によって指し示される輝度位置とする。変数refxSbL、refxL、refySbL、およびrefyLは、以下のように導出される。
- xLは0に等しい。
- xLはsbWidth+1に等しい。
- xLは0に等しい。
- yLはsbHeight+1に等しい。
- それ以外の場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL-(brdExtSize>0?1:0),yIntL-(brdExtSize>0?1:0))、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)を入力として、8.5.6.3.2項に指定されている輝度サンプル8タップ補間フィルタリングプロセスを呼び出すことによって導出される。
- それ以外の場合(cIdxが0に等しい場合)、以下が適用される。
- (xIntC,yIntC)をフルサンプル単位で与えられる色差位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられるオフセットとする。これらの変数は、参照サンプルアレイrefPicLX内の一般分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntC,ySbIntC)は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しくセットされる。
- 予測色差サンプルアレイpredSamplesLX内の各色差サンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)に対して、対応する予測色差サンプル値predSamplesLX[xC][yC]は、以下のように導出される。
- (refxSbC,refySbC)と(refxC,refyC)を、1/32サンプル単位で与えられた動きベクトル(mvLX[0],mvLX[1])によって指し示される色差位置とする。変数refxSbC、refySbC、refxCおよびrefyCは、以下のように導出される。
8.5.6.3.1 概要
...
変数fRefWidthは、輝度サンプルにおける参照ピクチャのPicOutputWidthLに等しくセットされる。
変数fRefHeightは、輝度サンプルにおける参照ピクチャのPicOutputHeightLに等しくセットされる。
[外6]
動きベクトルmvLXは、(refMvLX-mvOffset)に等しくセットされる。
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタとその固定小数点表現は、以下のように定義される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)は、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しくセットされる。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)に対して、対応する予測輝度サンプル値predSamplesLX[xL][yL]は、以下のように導出される。
- (refxSbL,refySbL)と(refxL,refyL)を、1/16サンプル単位で与えられた動きベクトル(refMvLX[0],refMvLX[1])によって指し示される輝度位置とする。変数refxSbL、refxL、refySbL、およびrefyLは、以下のように導出される。
- xLは0に等しい。
- xLはsbWidth+1に等しい。
- xLは0に等しい。
- yLはsbHeight+1に等しい。
- それ以外の場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL-(brdExtSize>0?1:0),yIntL-(brdExtSize>0?1:0))、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)を入力として、8.5.6.3.2項に指定されている輝度サンプル8タップ補間フィルタリングプロセスを呼び出すことによって導出される。
- それ以外の場合(cIdxが0に等しい場合)、以下が適用される。
- (xIntC,yIntC)をフルサンプル単位で与えられる色差位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられるオフセットとする。これらの変数は、参照サンプルアレイrefPicLX内の一般分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntC,ySbIntC)は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しくセットされる。
- 予測色差サンプルアレイpredSamplesLX内の各色差サンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)に対して、対応する予測色差サンプル値predSamplesLX[xC][yC]は、以下のように導出される。
- (refxSbC,refySbC)と(refxC,refyC)を、1/32サンプル単位で与えられた動きベクトル(mvLX[0],mvLX[1])によって指し示される色差位置とする。変数refxSbC、refySbC、refxCおよびrefyCは、以下のように導出される。
8.5.6.3.1 概要
このプロセスへの入力は、以下のようである。
- 現在のピクチャの左上のサンプルに対する現在のコーディングサブブロックの左上のサンプルを指定する輝度位置(xSb,ySb)
- 現在のコーディングサブブロックの幅を指定する変数sbWidth
- 現在のコーディングサブブロックの高さを指定する変数sbHeight
- 動きベクトルオフセットmvOffset
- 洗練された動きベクトルrefMvLX
- 選択した参照ピクチャサンプルアレイrefPicLX
- ハーフサンプル補間フィルタ指数hpelIfIdx
- 双方向のオプティカルフローフラグbdofFlag
- 現在のブロックの色コンポーネントインデックスを指定する変数cIdx
この処理の出力は、以下のようである。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)アレイpredSamplesLX
予測ブロック境界拡張サイズbrdExtSizeは、以下のように導出される。
変数fRefHeightは、輝度サンプルにおける参照ピクチャのPicOutputHeightLに等しくセットされる。
動きベクトルmvLXは、(refMvLX-mvOffset)に等しくセットされる。
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタとその固定小数点表現は、以下のように定義される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)は、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しくセットされる。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)に対して、対応する予測輝度サンプル値predSamplesLX[xL][yL]は、以下のように導出される。
- (refxSbL,refySbL)と(refxL,refyL)を、1/16サンプル単位で与えられた動きベクトル(refMvLX[0],refMvLX[1])によって指し示される輝度位置とする。変数refxSbL、refxL、refySbL、およびrefyLは、以下のように導出される。
- xLは0に等しい。
- xLはsbWidth+1に等しい。
- xLは0に等しい。
- yLはsbHeight+1に等しい。
- それ以外の場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL-(brdExtSize>0?1:0)、yIntL-(brdExtSize>0?1:0))、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)を入力として、8.5.6.3.2項に指定されている輝度サンプル8タップ補間フィルタリングプロセスを呼び出すことによって導出される。
- それ以外の場合(cIdxが0に等しくない場合)、以下が適用される。
- (xIntC,yIntC)をフルサンプル単位で与えられる色差位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられるオフセットとする。これらの変数は、参照サンプルアレイrefPicLX内の一般分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntC,ySbIntC)は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しくセットされる。
- 予測色差サンプルアレイpredSamplesLX内の各色差サンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)に対して、対応する予測色差サンプル値predSamplesLX[xC][yC]は、以下のように導出される。
- (refxSbC,refySbC)と(refxC,refyC)を、1/32サンプル単位で与えられた動きベクトル(mvLX[0],mvLX[1])によって指し示される色差位置とする。変数refxSbC、refySbC、refxCおよびrefyCは、以下のように導出される。
[外7]
、8.5.6.3.4項に指定されているプロセスを呼び出すことによって導出される。
8.5.6.3.1 概要
このプロセスへの入力は、以下のようである。
- 現在のピクチャの左上のサンプルに対する現在のコーディングサブブロックの左上のサンプルを指定する輝度位置(xSb,ySb)
- 現在のコーディングサブブロックの幅を指定する変数sbWidth
- 現在のコーディングサブブロックの高さを指定する変数sbHeight
- 動きベクトルオフセットmvOffset
- 洗練された動きベクトルrefMvLX
- 選択した参照ピクチャサンプルアレイrefPicLX
- ハーフサンプル補間フィルタ指数hpelIfIdx
- 双方向のオプティカルフローフラグbdofFlag
- 現在のブロックの色コンポーネントインデックスを指定する変数cIdx
この処理の出力は、以下のようである。
- 予測サンプル値の(sbWidth+brdExtSize)x(sbHeight+brdExtSize)アレイpredSamplesLX
予測ブロック境界拡張サイズbrdExtSizeは、以下のように導出される。
変数fRefHeightは、輝度サンプルにおける参照ピクチャのPicOutputHeightLに等しくセットされる。
[外8]
動きベクトルmvLXは、(refMvLX-mvOffset)に等しくセットされる。
- cIdxが0に等しい場合、以下が適用される。
- スケーリングファクタとその固定小数点表現は、以下のように定義される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntL,ySbIntL)は、(xSb+(mvLX[0]>>4),ySb+(mvLX[1]>>4))に等しくセットされる。
- 予測輝度サンプルアレイpredSamplesLX内の各輝度サンプル位置(xL=0..sbWidth-1+brdExtSize,yL=0..sbHeight-1+brdExtSize)に対して、対応する予測輝度サンプル値predSamplesLX[xL][yL]は、以下のように導出される。
- (refxSbL,refySbL)と(refxL,refyL)を、1/16サンプル単位で与えられた動きベクトル(refMvLX[0],refMvLX[1])によって指し示される輝度位置とする。変数refxSbL、refxL、refySbL、およびrefyLは、以下のように導出される。
- xLは0に等しい。
- xLはsbWidth+1に等しい。
- xLは0に等しい。
- yLはsbHeight+1に等しい。
- それ以外の場合、予測輝度サンプル値predSamplesLX[xL][yL]は、(xIntL-(brdExtSize>0?1:0),yIntL-(brdExtSize>0?1:0))、(xFracL,yFracL)、(xSbIntL,ySbIntL)、refPicLX、hpelIfIdx、sbWidth、sbHeight、および(xSb,ySb)を入力として、8.5.6.3.2項に指定されている輝度サンプル8タップ補間フィルタリングプロセスを呼び出すことによって導出される。
- それ以外の場合(cIdxが0に等しい場合)、以下が適用される。
- (xIntC,yIntC)をフルサンプル単位で与えられる色差位置とし、(xFracC,yFracC)を1/32サンプル単位で与えられるオフセットとする。これらの変数は、参照サンプルアレイrefPicLX内の一般分数サンプル位置を指定するためにこの項でのみ使用される。
- 参照サンプルパディングのための境界ブロックの左上の座標(xSbIntC,ySbIntC)は、((xSb/SubWidthC)+(mvLX[0]>>5),(ySb/SubHeightC)+(mvLX[1]>>5))に等しくセットされる。
- 予測色差サンプルアレイpredSamplesLX内の各色差サンプル位置(xC=0..sbWidth-1,yC=0..sbHeight-1)に対して、対応する予測色差サンプル値predSamplesLX[xC][yC]は、以下のように導出される。
- (refxSbC,refySbC)と(refxC,refyC)を、1/32サンプル単位で与えられた動きベクトル(mvLX[0],mvLX[1])によって指し示される色差位置とする。
変数refxSbC、refySbC、refxCおよびrefyCは、以下のように導出される。
図5は、ビデオ処理装置500のブロック図である。装置500は、本明細書に記載される方法のうちの1つ以上を実装するために使用されてもよい。装置500は、スマートフォン、タブレット、コンピュータ、モノのインターネット(IoT)受信機などで具体化されてもよい。装置500は、1つ以上のプロセッサ502、1つ以上のメモリ504、およびビデオ処理ハードウェア506を含んでもよい。プロセッサ502は、本文書に記載される1つ以上の方法を実装するように構成されてもよい。メモリ(複数のメモリ)504は、本明細書に記載される方法および技法を実装するために使用されるデータおよびコードを記憶するために使用されてもよい。ビデオ処理ハードウェア506は、ハードウェア回路において、本文書に記載されるいくつかの技法を実装するために使用されてもよく、部分的にまたは完全にプロセッサ502の一部であってもよい(例えば、グラフィックプロセッサコアGPUまたは他の信号処理回路)。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、参照ピクチャの解像度および/またはサイズが現在のビデオブロックの解像度および/またはサイズと異なる場合、同じ補間フィルタが、現在のビデオブロックを使用して予測される隣接または非隣接サンプルのグループに適用される、方法。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、参照ピクチャの解像度および/またはサイズが現在のビデオブロックの解像度および/またはサイズと異なる場合、現在のビデオブロックを使用して予測されるブロックは、現在のブロックに関係する整数値動き情報を使用することのみが許容される、方法。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、参照ピクチャの解像度および/またはサイズが現在のビデオブロックの解像度および/またはサイズと異なる場合、補間フィルタが、現在のビデオブロックを使用して予測されるブロックを導出するために適用され、補間フィルタが、規則に基づいて選択される、方法。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、参照ピクチャの解像度および/またはサイズが現在のビデオブロックの解像度および/またはサイズと異なる場合、デブロッキングフィルタを選択的に適用し、デブロッキングフィルタの強度が、現在のビデオブロックの解像度および/またはサイズに対する参照ピクチャの解像度および/またはサイズに関係する規則に従ってセットされる、方法。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、現在のビデオブロックのサブピクチャが存在する場合、適合ビットストリームは、現在のビデオブロックの解像度および/またはサイズに対する参照ピクチャの解像度および/またはサイズに関係する規則を満たす、方法。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、現在のビデオブロックの参照ピクチャが、現在のビデオブロックの寸法に基づく規則に従って再サンプリングされる、方法。
現在のビデオブロックと現在のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、現在のビデオブロックに対するコーディングツールの使用が、現在のビデオブロックの解像度/サイズに対する現在のビデオブロックの参照ピクチャの解像度/サイズに依存して選択的に有効または無効にされる、方法。
複数のビデオブロックと複数のビデオブロックのコーディングされた表現との間の変換を実行することを含み、変換の際、第1の適合ウィンドウが第1のビデオブロックに対して定義され、第2の適合ウィンドウが第2のビデオブロックに対して定義され、第1の適合ウィンドウの第2の適合ウィンドウに対する幅および/または高さの比が、少なくとも適合ビットストリームに基づく規則に従っている、方法。
Claims (7)
- ビデオデータを処理する方法であって、
ビデオユニットを含むビデオピクチャを含むビデオと、前記ビデオのビットストリームとの間の変換に対して、1つ以上の構文要素に基づいて、前記ビデオピクチャ内のビデオユニットのうちの少なくとも1つの予測タイプを決定することと、
前記決定に基づいて前記変換を実行することと、を含み、
前記1つ以上の構文要素が、前記ビットストリームにおいてピクチャヘッダに含まれ、
前記ビデオユニットが、スライスであり、
前記1つ以上の構文要素は、前記ビデオピクチャのすべてのスライスの予測タイプが第1の予測タイプでコーディングされるかどうかを示す第1の構文要素を含み、
スライスのタイプを示す構文要素は、前記ビデオピクチャのすべてのスライスがIスライスであることを前記第1の構文要素が示すときに、前記ビットストリームにおいてスライスヘッダに含まれない、方法。 - 前記第1の予測タイプがイントラ予測である、請求項1に記載の方法。
- 前記変換は、前記ビデオを前記ビットストリームに符号化することを含む、請求項1または2に記載の方法。
- 前記変換は、前記ビットストリームから前記ビデオを復号することを含む、請求項1または2に記載の方法。
- プロセッサと、ビデオデータを処理するための命令をその上に有する非一時的なメモリとを含む、装置であって、前記命令は、前記プロセッサによって実行されると、前記命令は、前記プロセッサに、
ビデオユニットを含むビデオピクチャを含むビデオと、前記ビデオのビットストリームとの間の変換に対して、1つ以上の構文要素に基づいて、前記ビデオピクチャ内のビデオユニットのうちの少なくとも1つの予測タイプを決定することと、
前記決定に基づいて前記変換を実行することと、を行わせ、
前記1つ以上の構文要素が、前記ビットストリームにおいてピクチャヘッダに含まれ、
前記ビデオユニットが、スライスであり、
前記1つ以上の構文要素は、前記ビデオピクチャのすべてのスライスの予測タイプが第1の予測タイプでコーディングされるかどうかを示す第1の構文要素を含み、
スライスのタイプを示す構文要素は、前記ビデオピクチャのすべてのスライスがIスライスであることを前記第1の構文要素が示すときに、前記ビットストリームにおいてスライスヘッダに含まれない、装置。 - 命令を記憶する非一時的なコンピュータ可読記憶媒体であって、前記命令は、プロセッサに、
ビデオユニットを含むビデオピクチャを含むビデオと、前記ビデオのビットストリームとの間の変換に対して、1つ以上の構文要素に基づいて、前記ビデオピクチャ内のビデオユニットのうちの少なくとも1つの予測タイプを決定することと、
前記決定に基づいて前記変換を実行することと、を行わせ、
前記1つ以上の構文要素が、前記ビットストリームにおいてピクチャヘッダに含まれ、
前記ビデオユニットが、スライスであり、
前記1つ以上の構文要素は、前記ビデオピクチャのすべてのスライスの予測タイプが第1の予測タイプでコーディングされるかどうかを示す第1の構文要素を含み、
スライスのタイプを示す構文要素は、前記ビデオピクチャのすべてのスライスがIスライスであることを前記第1の構文要素が示すときに、前記ビットストリームにおいてスライスヘッダに含まれない、記憶媒体。 - ビデオのビットストリームを記憶するための方法であって、
ビデオユニットを含むビデオピクチャを含む前記ビデオに対して、1つ以上の構文要素に基づいて、前記ビデオピクチャ内の前記ビデオユニットのうちの少なくとも1つの予測タイプを決定することと、
前記決定に基づいて前記ビットストリームを生成することと、
前記ビットストリームを非一時的なコンピュータ可読記録媒体に記憶することと、を含み、
前記1つ以上の構文要素が、前記ビットストリームにおいてピクチャヘッダに含まれ、
前記ビデオユニットが、スライスであり、
前記1つ以上の構文要素は、前記ビデオピクチャのすべてのスライスの予測タイプが第1の予測タイプでコーディングされるかどうかを示す第1の構文要素を含み、
スライスのタイプを示す構文要素は、前記ビデオピクチャのすべてのスライスがIスライスであることを前記第1の構文要素が示すときに、前記ビットストリームにおいてスライスヘッダに含まれない、方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023204308A JP2024015158A (ja) | 2019-10-12 | 2023-12-04 | ビデオコーディングにおける予測タイプシグナリング |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019110902 | 2019-10-12 | ||
CNPCT/CN2019/110902 | 2019-10-12 | ||
PCT/CN2020/120289 WO2021068956A1 (en) | 2019-10-12 | 2020-10-12 | Prediction type signaling in video coding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023204308A Division JP2024015158A (ja) | 2019-10-12 | 2023-12-04 | ビデオコーディングにおける予測タイプシグナリング |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022552512A JP2022552512A (ja) | 2022-12-16 |
JP7482218B2 true JP7482218B2 (ja) | 2024-05-13 |
Family
ID=75436736
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521586A Active JP7482218B2 (ja) | 2019-10-12 | 2020-10-12 | ビデオコーディングにおける予測タイプシグナリング |
JP2022521587A Active JP7391203B2 (ja) | 2019-10-12 | 2020-10-12 | ビデオコーディングツールを洗練する使用およびシグナリング |
JP2023204308A Pending JP2024015158A (ja) | 2019-10-12 | 2023-12-04 | ビデオコーディングにおける予測タイプシグナリング |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521587A Active JP7391203B2 (ja) | 2019-10-12 | 2020-10-12 | ビデオコーディングツールを洗練する使用およびシグナリング |
JP2023204308A Pending JP2024015158A (ja) | 2019-10-12 | 2023-12-04 | ビデオコーディングにおける予測タイプシグナリング |
Country Status (6)
Country | Link |
---|---|
US (3) | US11743504B2 (ja) |
EP (2) | EP4029262A4 (ja) |
JP (3) | JP7482218B2 (ja) |
KR (2) | KR20220074870A (ja) |
CN (3) | CN117499640A (ja) |
WO (2) | WO2021068956A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4018659A4 (en) | 2019-09-19 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | SCALE WINDOW IN VIDEO CODING |
MX2022002916A (es) | 2019-09-19 | 2022-04-06 | Beijing Bytedance Network Tech Co Ltd | Derivacion de posiciones de muestra de referencia en codificacion de video. |
JP7391199B2 (ja) | 2019-10-05 | 2023-12-04 | 北京字節跳動網絡技術有限公司 | 映像コーディングツールのレベルベースシグナリング |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
KR20220073740A (ko) | 2019-10-13 | 2022-06-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 레퍼런스 픽처 리샘플링 및 비디오 코딩 툴 사이의 상호 작용 |
WO2021091253A1 (ko) * | 2019-11-05 | 2021-05-14 | 엘지전자 주식회사 | 슬라이스 타입 기반 영상/비디오 코딩 방법 및 장치 |
BR112022011431A2 (pt) * | 2019-12-12 | 2022-08-30 | Lg Electronics Inc | Método e dispositivo para sinalizar informações de vídeo aplicáveis no nível de gravura ou nível de fatia |
KR20220113379A (ko) | 2019-12-27 | 2022-08-12 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 픽처 헤더의 슬라이스 유형의 시그널링 |
WO2023158212A1 (ko) * | 2022-02-15 | 2023-08-24 | 엘지전자 주식회사 | 영상 부호화/복호화 방법, 비트스트림을 전송하는 방법 및 비트스트림을 저장한 기록 매체 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020096755A1 (en) | 2018-11-08 | 2020-05-14 | Interdigital Vc Holdings, Inc. | Quantization for video encoding or decoding based on the surface of a block |
WO2021026363A1 (en) | 2019-08-06 | 2021-02-11 | Op Solutions, Llc | Implicit signaling of adaptive resolution management based on frame type |
Family Cites Families (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7627037B2 (en) | 2004-02-27 | 2009-12-01 | Microsoft Corporation | Barbell lifting for multi-layer wavelet coding |
CN101309409A (zh) | 2008-02-22 | 2008-11-19 | 华为技术有限公司 | 一种解码方法和装置 |
US20110310976A1 (en) | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Joint Coding of Partition Information in Video Coding |
US9215473B2 (en) | 2011-01-26 | 2015-12-15 | Qualcomm Incorporated | Sub-slices in video coding |
CN103096047B (zh) * | 2011-11-01 | 2018-06-19 | 中兴通讯股份有限公司 | 一种分片层参数集解码及编码方法和装置 |
ES2571863T3 (es) | 2012-01-17 | 2016-05-27 | ERICSSON TELEFON AB L M (publ) | Gestión de listas de imágenes de referencia |
WO2013128010A2 (en) | 2012-03-02 | 2013-09-06 | Canon Kabushiki Kaisha | Method and devices for encoding a sequence of images into a scalable video bit-stream, and decoding a corresponding scalable video bit-stream |
CN104169971B (zh) | 2012-03-15 | 2020-08-25 | 英特尔公司 | 使用非线性缩放和自适应源块大小的分层运动估计 |
KR102096566B1 (ko) | 2012-04-13 | 2020-04-02 | 지이 비디오 컴프레션, 엘엘씨 | 저지연 화상 코딩 |
US9294777B2 (en) | 2012-12-30 | 2016-03-22 | Qualcomm Incorporated | Progressive refinement with temporal scalability support in video coding |
CN104885454B (zh) | 2013-01-04 | 2017-09-15 | 维迪奥股份有限公司 | 用于视频解码的方法、装置以及*** |
AU2013381041A1 (en) * | 2013-03-05 | 2015-08-06 | Halliburton Energy Services Inc. | System, method and computer program product for photometric system design and environmental ruggedization |
US9521425B2 (en) | 2013-03-19 | 2016-12-13 | Qualcomm Incorporated | Disparity vector derivation in 3D video coding for skip and direct modes |
JP2016519854A (ja) | 2013-04-05 | 2016-07-07 | シャープ株式会社 | 色ビット深度スケーリングを用いたビデオ圧縮 |
EP2984831A4 (en) | 2013-04-08 | 2016-12-07 | Nokia Technologies Oy | METHOD AND TECHNICAL APPARATUS FOR VIDEO CODING AND DECODING |
US9813723B2 (en) | 2013-05-03 | 2017-11-07 | Qualcomm Incorporated | Conditionally invoking a resampling process in SHVC |
KR20140138538A (ko) | 2013-05-24 | 2014-12-04 | 주식회사 케이티 | 복수의 레이어를 지원하는 비디오 코딩 방법 및 장치 |
US9762927B2 (en) | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9906804B2 (en) | 2014-01-16 | 2018-02-27 | Qualcomm Incorporated | Reference layer sample position derivation for scalable video coding |
US20150264348A1 (en) | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Dictionary coding of video content |
US10158884B2 (en) | 2014-03-19 | 2018-12-18 | Qualcomm Incorporated | Simplified merge list construction process for 3D-HEVC |
US9641851B2 (en) | 2014-04-18 | 2017-05-02 | Qualcomm Incorporated | Conformance window information in multi-layer coding |
WO2015168581A1 (en) | 2014-05-01 | 2015-11-05 | Arris Enterprises, Inc. | Reference layer and scaled reference layer offsets for scalable video coding |
US20150373362A1 (en) | 2014-06-19 | 2015-12-24 | Qualcomm Incorporated | Deblocking filter design for intra block copy |
US10200700B2 (en) * | 2014-06-20 | 2019-02-05 | Qualcomm Incorporated | Cross-component prediction in video coding |
US10455249B2 (en) | 2015-03-20 | 2019-10-22 | Qualcomm Incorporated | Downsampling process for linear model prediction mode |
US9736335B2 (en) | 2015-04-15 | 2017-08-15 | Apple Inc. | Techniques for advanced chroma processing |
US10638140B2 (en) | 2015-05-29 | 2020-04-28 | Qualcomm Incorporated | Slice level intra block copy and other video coding improvements |
US9955186B2 (en) * | 2016-01-11 | 2018-04-24 | Qualcomm Incorporated | Block size decision for video coding |
CN108781294B (zh) * | 2016-02-05 | 2021-08-31 | 联发科技股份有限公司 | 视频数据的运动补偿方法及装置 |
US10397443B2 (en) | 2016-03-01 | 2019-08-27 | Qualcomm Incorporated | Methods and systems for generating color remapping information supplemental enhancement information messages for video |
WO2017173593A1 (en) | 2016-04-06 | 2017-10-12 | Mediatek Singapore Pte. Ltd. | Separate coding secondary transform syntax elements for different color components |
WO2017188566A1 (ko) | 2016-04-25 | 2017-11-02 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측 방법 및 장치 |
US10652575B2 (en) | 2016-09-15 | 2020-05-12 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
EP3306938A1 (en) | 2016-10-05 | 2018-04-11 | Thomson Licensing | Method and apparatus for binary-tree split mode coding |
KR20180042098A (ko) * | 2016-10-17 | 2018-04-25 | 에스케이텔레콤 주식회사 | 영상 부호화 또는 복호화하기 위한 장치 및 방법 |
KR20180043149A (ko) * | 2016-10-19 | 2018-04-27 | 에스케이텔레콤 주식회사 | 영상 부호화 또는 복호화하기 위한 장치 및 방법 |
US20180192071A1 (en) * | 2017-01-05 | 2018-07-05 | Mediatek Inc. | Decoder-side motion vector restoration for video coding |
US10715827B2 (en) | 2017-01-06 | 2020-07-14 | Mediatek Inc. | Multi-hypotheses merge mode |
US10701366B2 (en) * | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US10362332B2 (en) * | 2017-03-14 | 2019-07-23 | Google Llc | Multi-level compound prediction |
US10805641B2 (en) * | 2017-06-15 | 2020-10-13 | Qualcomm Incorporated | Intra filtering applied together with transform processing in video coding |
WO2019009618A1 (ko) | 2017-07-04 | 2019-01-10 | 삼성전자 주식회사 | 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
GB2564466B (en) | 2017-07-13 | 2020-01-08 | Advanced Risc Mach Ltd | Storing YUV texture data in a cache in a graphics processing system |
US11290716B2 (en) | 2017-08-03 | 2022-03-29 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks in an inter prediction slice of video data |
CN107483934B (zh) | 2017-08-17 | 2019-12-10 | 西安万像电子科技有限公司 | 编解码方法、装置和*** |
US10785494B2 (en) | 2017-10-11 | 2020-09-22 | Qualcomm Incorporated | Low-complexity design for FRUC |
US20190306502A1 (en) | 2018-04-02 | 2019-10-03 | Qualcomm Incorporated | System and method for improved adaptive loop filtering |
CN117294837A (zh) | 2018-04-02 | 2023-12-26 | 深圳市大疆创新科技有限公司 | 用于图像处理的方法和图像处理装置 |
WO2019195643A1 (en) | 2018-04-06 | 2019-10-10 | Vid Scale, Inc. | A bi-directional optical flow method with simplified gradient derivation |
CN108511625B (zh) | 2018-04-17 | 2020-03-06 | 京东方科技集团股份有限公司 | 一种封装盖板、显示装置 |
US10779002B2 (en) | 2018-04-17 | 2020-09-15 | Qualcomm Incorporated | Limitation of the MVP derivation based on decoder-side motion vector derivation |
CN111684796B (zh) | 2018-05-16 | 2024-04-09 | 华为技术有限公司 | 一种视频编解码方法和装置 |
WO2019230670A1 (en) | 2018-05-31 | 2019-12-05 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks in an inter prediction slice of video data |
WO2019234578A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Asymmetric weighted bi-predictive merges |
AU2019295574B2 (en) | 2018-06-27 | 2023-01-12 | Vid Scale, Inc. | Methods and apparatus for reducing the coding latency of decoder-side motion refinement |
TWI719519B (zh) | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 對於dmvr的塊尺寸限制 |
CN116320413A (zh) | 2018-07-02 | 2023-06-23 | Lg电子株式会社 | 对视频信号进行编解码的设备和发送图像的数据的设备 |
CN116095312A (zh) | 2018-08-04 | 2023-05-09 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置和计算机可读介质 |
JP7450611B2 (ja) | 2018-10-02 | 2024-03-15 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | 一般化された双予測および重み付き予測 |
WO2020070612A1 (en) | 2018-10-06 | 2020-04-09 | Beijing Bytedance Network Technology Co., Ltd. | Improvement for temporal gradient calculating in bio |
CN112913240A (zh) | 2018-10-22 | 2021-06-04 | 北京字节跳动网络技术有限公司 | 解码器侧运动矢量推导和其他编解码工具之间的并置 |
WO2020084476A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block based prediction |
WO2020084461A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on coding information |
WO2020084474A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Gradient computation in bi-directional optical flow |
JP7231727B2 (ja) | 2018-11-05 | 2023-03-01 | 北京字節跳動網絡技術有限公司 | 精緻化を伴うインター予測のための補間 |
JP7460616B2 (ja) | 2018-11-08 | 2024-04-04 | オッポ広東移動通信有限公司 | ビデオエンコーディング/デコーディング方法、ビデオエンコーダ、ビデオデコーダ、ビデオエンコーディング装置、ビデオデコーディング装置及びコンピュータ可読記憶媒体 |
CN113170097B (zh) | 2018-11-20 | 2024-04-09 | 北京字节跳动网络技术有限公司 | 视频编解码模式的编解码和解码 |
KR20240010542A (ko) * | 2018-12-17 | 2024-01-23 | 삼성전자주식회사 | 예측 모드를 시그널링하는 비디오 신호 처리 방법 및 장치 |
CN113366841A (zh) | 2019-02-01 | 2021-09-07 | 北京字节跳动网络技术有限公司 | 配置用于视频编解码的依赖于亮度的色度残差缩放 |
WO2020164543A1 (en) | 2019-02-13 | 2020-08-20 | Beijing Bytedance Network Technology Co., Ltd. | Motion prediction based on shared merge list |
CN113424525B (zh) | 2019-02-14 | 2023-11-10 | 北京字节跳动网络技术有限公司 | 解码器侧细化工具的尺寸选择性应用 |
CN116366840A (zh) | 2019-02-26 | 2023-06-30 | 苹果公司 | 用于对视频信号进行编码/解码的方法及其设备 |
WO2020177684A1 (en) | 2019-03-03 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Enabling dmvr based on the information in the picture header |
WO2020177665A1 (en) | 2019-03-05 | 2020-09-10 | Mediatek Inc. | Methods and apparatuses of video processing for bi-directional prediction with motion refinement in video coding systems |
KR20220147731A (ko) | 2019-03-11 | 2022-11-03 | 엘지전자 주식회사 | Ibc 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
EP3939311A1 (en) | 2019-03-11 | 2022-01-19 | Vid Scale, Inc. | Methods and apparatus for sub-picture adaptive resolution change |
WO2020185879A1 (en) | 2019-03-11 | 2020-09-17 | Dolby Laboratories Licensing Corporation | Video coding using reference picture resampling supporting region of interest |
WO2020185022A1 (ko) | 2019-03-12 | 2020-09-17 | 주식회사 엑스리스 | 영상 신호 부호화/복호화 방법 및 이를 위한 장치 |
CN113661708B (zh) | 2019-04-02 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 基于双向光流的视频编解码和解码 |
JP7307192B2 (ja) | 2019-04-02 | 2023-07-11 | 北京字節跳動網絡技術有限公司 | デコーダ側の動きベクトルの導出 |
KR102662024B1 (ko) | 2019-04-19 | 2024-05-21 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 상이한 모션 벡터 정제의 그레디언트 계산 |
WO2020211866A1 (en) | 2019-04-19 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Applicability of prediction refinement with optical flow process |
CN113711609B (zh) | 2019-04-19 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程中的增量运动矢量 |
US11233988B2 (en) | 2019-05-17 | 2022-01-25 | Qualcomm Incorporated | Reference picture resampling and inter-coding tools for video coding |
US11134275B2 (en) | 2019-06-04 | 2021-09-28 | Tencent America LLC | Method and apparatus for performing primary transform based on filtering of blocks |
US11252410B2 (en) | 2019-06-11 | 2022-02-15 | Tencent America LLC | Method and apparatus for video coding |
JP7471328B2 (ja) * | 2019-06-21 | 2024-04-19 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | エンコーダ、デコーダ、および対応する方法 |
US20220272378A1 (en) | 2019-06-23 | 2022-08-25 | Sharp Kabushiki Kaisha | Systems and methods for performing an adaptive resolution change in video coding |
CN114208202A (zh) | 2019-08-06 | 2022-03-18 | 杜比实验室特许公司 | 画布尺寸可伸缩的视频编码 |
JP2022544164A (ja) | 2019-08-06 | 2022-10-17 | オーピー ソリューションズ, エルエルシー | フレームタイプに基づく適応分解能管理の暗示的信号伝達 |
EP3987795A4 (en) | 2019-08-15 | 2023-02-08 | Alibaba Group Holding Limited | BLOCK PARTITION METHODS FOR VIDEO CODING |
US11659201B2 (en) | 2019-08-16 | 2023-05-23 | Qualcomm Incorporated | Systems and methods for generating scaling ratios and full resolution pictures |
EP4018670A4 (en) | 2019-08-22 | 2023-08-16 | Sharp Kabushiki Kaisha | SYSTEMS AND METHODS FOR SIGNALING IMAGE INFORMATION IN VIDEO CODING |
US11356684B2 (en) | 2019-08-30 | 2022-06-07 | Alibaba Group Holding Limited | Method and system for signaling chroma quantization parameter table |
US11647215B2 (en) | 2019-09-12 | 2023-05-09 | Alibaba Group Holding Limited | Method and apparatus for signaling video coding information |
US11641475B2 (en) | 2019-09-12 | 2023-05-02 | Alibaba Group Holding Limited | Method and apparatus for encoding or decoding video |
US11303909B2 (en) | 2019-09-18 | 2022-04-12 | Qualcomm Incorporated | Scaling ratio and output full resolution picture in video coding |
MX2022002916A (es) | 2019-09-19 | 2022-04-06 | Beijing Bytedance Network Tech Co Ltd | Derivacion de posiciones de muestra de referencia en codificacion de video. |
WO2021054676A1 (ko) | 2019-09-19 | 2021-03-25 | 엘지전자 주식회사 | Prof를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
EP4018659A4 (en) | 2019-09-19 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | SCALE WINDOW IN VIDEO CODING |
JP7391199B2 (ja) | 2019-10-05 | 2023-12-04 | 北京字節跳動網絡技術有限公司 | 映像コーディングツールのレベルベースシグナリング |
WO2021071183A1 (ko) | 2019-10-06 | 2021-04-15 | 현대자동차주식회사 | 현재블록의 변환계수들을 역변환하는 방법 및 장치 |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
KR20220073740A (ko) | 2019-10-13 | 2022-06-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 레퍼런스 픽처 리샘플링 및 비디오 코딩 툴 사이의 상호 작용 |
US11758193B2 (en) | 2019-11-04 | 2023-09-12 | Hfi Innovation Inc. | Signaling high-level information in video and image coding |
JP2023500732A (ja) | 2019-11-11 | 2023-01-10 | エルジー エレクトロニクス インコーポレイティド | 変換に基づく映像コーディング方法及びその装置 |
GB2590634A (en) | 2019-12-20 | 2021-07-07 | Canon Kk | High Level syntax for video coding and decoding |
US20210195179A1 (en) | 2019-12-23 | 2021-06-24 | Qualcomm Incorporated | Picture header signaling for video coding |
US11503342B2 (en) | 2020-06-10 | 2022-11-15 | Sharp Kabushiki Kaisha | Systems and methods for signaling sequence parameter information in video coding |
WO2022035687A1 (en) | 2020-08-13 | 2022-02-17 | Beijing Dajia Internet Information Technology Co., Ltd. | Chroma coding enhancement in cross-component sample adaptive offset |
-
2020
- 2020-10-12 WO PCT/CN2020/120289 patent/WO2021068956A1/en unknown
- 2020-10-12 CN CN202311515257.6A patent/CN117499640A/zh active Pending
- 2020-10-12 KR KR1020227009730A patent/KR20220074870A/ko not_active Application Discontinuation
- 2020-10-12 JP JP2022521586A patent/JP7482218B2/ja active Active
- 2020-10-12 EP EP20874792.3A patent/EP4029262A4/en active Pending
- 2020-10-12 JP JP2022521587A patent/JP7391203B2/ja active Active
- 2020-10-12 EP EP20874449.0A patent/EP4042678A4/en active Pending
- 2020-10-12 WO PCT/CN2020/120288 patent/WO2021068955A1/en active Application Filing
- 2020-10-12 CN CN202080071644.3A patent/CN114556934A/zh active Pending
- 2020-10-12 KR KR1020227009729A patent/KR102637881B1/ko active IP Right Grant
- 2020-10-12 CN CN202080071694.1A patent/CN114556918A/zh active Pending
-
2022
- 2022-04-12 US US17/718,880 patent/US11743504B2/en active Active
- 2022-04-12 US US17/718,785 patent/US11711547B2/en active Active
-
2023
- 2023-07-27 US US18/360,608 patent/US20230370644A1/en active Pending
- 2023-12-04 JP JP2023204308A patent/JP2024015158A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020096755A1 (en) | 2018-11-08 | 2020-05-14 | Interdigital Vc Holdings, Inc. | Quantization for video encoding or decoding based on the surface of a block |
WO2021026363A1 (en) | 2019-08-06 | 2021-02-11 | Op Solutions, Llc | Implicit signaling of adaptive resolution management based on frame type |
Non-Patent Citations (2)
Title |
---|
BROSS, Benjamin et al.,Versatile Video Coding (Draft 8),JVET-Q2001 (version 2),ITU,2020年01月18日,pp.56-58,[online],[retrieved on 2023-10-12],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/17_Brussels/wg11/JVET-Q2001-v2.zip>,JVET-Q2001-v2.docx |
WAN, Wade et al.,AHG17: Picture Header,JVET-P0239 (version 2),ITU,2019年10月01日,pp.1-8,[online],[retrieved on 2023-03-28],Retrieved from the Internet: <https://jvet-experts.org/doc_end_user/documents/16_Gneva/wg11/JVET-P0239-v2.zip> |
Also Published As
Publication number | Publication date |
---|---|
KR102637881B1 (ko) | 2024-02-19 |
JP2022552513A (ja) | 2022-12-16 |
KR20220075324A (ko) | 2022-06-08 |
US20220264137A1 (en) | 2022-08-18 |
US20230370644A1 (en) | 2023-11-16 |
CN114556934A (zh) | 2022-05-27 |
WO2021068955A1 (en) | 2021-04-15 |
JP2024015158A (ja) | 2024-02-01 |
US11743504B2 (en) | 2023-08-29 |
US11711547B2 (en) | 2023-07-25 |
US20220256197A1 (en) | 2022-08-11 |
JP7391203B2 (ja) | 2023-12-04 |
JP2022552512A (ja) | 2022-12-16 |
CN114556918A (zh) | 2022-05-27 |
EP4029262A4 (en) | 2022-11-30 |
EP4042678A1 (en) | 2022-08-17 |
WO2021068956A1 (en) | 2021-04-15 |
EP4029262A1 (en) | 2022-07-20 |
EP4042678A4 (en) | 2023-01-18 |
KR20220074870A (ko) | 2022-06-03 |
CN117499640A (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7414980B2 (ja) | 参照ピクチャリサンプリングと映像コーディングツールとの間の相互作用 | |
JP7482218B2 (ja) | ビデオコーディングにおける予測タイプシグナリング | |
JP7324940B2 (ja) | ビデオコーディングにおけるスケーリングウインドウ | |
JP7391199B2 (ja) | 映像コーディングツールのレベルベースシグナリング | |
JP7328445B2 (ja) | ビデオコーディングにおける参照サンプル位置の導出 | |
JP2024060057A (ja) | ビデオピクチャヘッダ内でのスライスタイプのシグナリング | |
CN114556937B (en) | Downsampling filter type for chroma blend mask generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220606 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7482218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |