CN117395396A - 色度残差缩放的信令通知 - Google Patents

色度残差缩放的信令通知 Download PDF

Info

Publication number
CN117395396A
CN117395396A CN202311354527.XA CN202311354527A CN117395396A CN 117395396 A CN117395396 A CN 117395396A CN 202311354527 A CN202311354527 A CN 202311354527A CN 117395396 A CN117395396 A CN 117395396A
Authority
CN
China
Prior art keywords
video
block
chroma
neighboring
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311354527.XA
Other languages
English (en)
Inventor
邓智玭
张莉
刘鸿彬
张凯
许继征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of CN117395396A publication Critical patent/CN117395396A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种用于视觉媒体处理方法包括:执行视觉媒体数据的当前视频单元与当前视频单元的比特流表示之间的转换,其中,根据格式规则配置该比特流表示;并且其中,该格式规则规定视频段的级别,在该视频段级别上,将指示为了对当前视频单元编解码而对色度残差进行缩放所依据的缩放因数的一个或多个语法元素选择性地包括到该比特流表示当中。

Description

色度残差缩放的信令通知
相关申请的交叉引用
本申请是申请日为2020年7月7日、申请号为202080049914.0的发明专利申请的分案申请,申请号为202080049914.0的发明专利申请是于2020年7月7日提交的国际专利申请号PCT/CN2020/100573进入中国国家阶段的申请,其要求2019年7月7日提交的国际专利申请号PCT/CN2019/094964的优先权。以上申请的全部公开内容通过引用而并入,作为本申请的公开的一部分。
技术领域
本专利文档涉及视频和图像编解码/解码技术、设备和***。
背景技术
尽管视频压缩取得了进步,但是数字视频仍在互联网和其他数字通信网络上占据最大带宽使用量。随着能够接收和显示视频的连接用户设备数量的增加,预计数字视频使用的带宽需求将持续增长。
发明内容
描述了与数字视频编解码有关的设备、***和方法,并且具体地,描述了与跨分量线性模型(cross-component linear model,CCLM)预测模式的简化线性模型推导有关的设备、***和方法。所描述的方法可以应用于现有的视频编解码标准(例如,高效视频编解码(high efficiency video coding,HEVC))以及将来的视频编解码标准(例如,多功能视频编解码(versatile video coding,VVC))或编解码器。
在一个代表性方面,所公开的技术可以用于提供一种用于视觉媒体处理的方法。该方法包括:执行视觉媒体数据的当前视频单元与当前视频单元的比特流表示之间的转换,其中,根据格式规则配置该比特流表示;并且其中,该格式规则规定视频段的级别,在该视频段级别上,将指示为了对当前视频单元编解码而对色度残差进行缩放所依据的缩放因数的一个或多个语法元素选择性地包括到该比特流表示当中。
在一个代表性方面中,可以使用所公开的技术提供一种用于视觉媒体处理的方法。该方法包括:执行包括一个或多个视频区域的视觉媒体数据和该视觉媒体数据的比特流表示之间的转换,该一个或多个视频区域包括一个或多个视频块,其中,该比特流表示符合格式规则,其中,该格式规则规定视频区域内的一个或多个视频块在该转换的亮度相关的色度残差缩放步骤中具有相同色度缩放因数。
在一个代表性方面中,可以使用所公开的技术提供一种用于视觉媒体处理的方法。该方法包括:执行视觉媒体数据的当前视频单元与视觉媒体数据的比特流表示之间的转换,其中,该比特流表示符合格式规则,该格式规则规定将该比特流表示中的指示与当前视频单元的转换的色度残差缩放步骤相关联的缩放因数的一个或多个语法元素预测编解码到该比特流表示当中。
在又一代表性方面,上述方法被体现为处理器可执行代码的形式并存储于计算机可读程序介质中。
在又一代表性方面,公开了一种被配置为或可操作用于执行上述方法的设备。该设备可以包括被编程为实施这种方法的处理器。
在又一个示例方面,公开了一种包括被配置为实施上述方法的处理器的视频编码和/或解码装置。
在又一个示例方面,公开了一种计算机可读介质。该计算机可读介质存储体现上述方法之一的处理器可执行代码。
在附图、说明书和权利要求书中更详细地描述了所公开技术的以上和其他方面和特征。
附图说明
图1示出了HEVC中的角度帧内预测模式的示例。
图2示出了非HEVC当中的方向性模式的示例。
图3示出了与CCLM模式结合的示例。
图4示出了具有色度缩放架构的亮度映射的示例。
图5示出了不同颜色格式当中的亮度块和色度块的示例。
图6示出了相同颜色格式当中的亮度块和色度块的示例。
图7示出了覆盖多种格式的共位亮度块的示例。
图8示出了处于较大亮度块内的亮度块的示例。
图9示出了处于较大亮度块内并且处于边界框内的亮度块的示例。
图10是用于实施本文档中描述的视觉媒体解码技术或视觉媒体编码技术的硬件平台的示例的框图。
图11示出了根据所公开技术的用于跨分量预测的线性模型推导的示例方法的流程图。
图12是可以实施所公开的技术的示例视频处理***的框图。
图13是视觉媒体处理的示例方法的流程图。
图14是视觉媒体处理的示例方法的流程图。
图15是视觉媒体处理的示例方法的流程图。
具体实施方式
2.1 HEVC的简要回顾
2.1.1 HEVC/H.265中的帧内预测
帧内预测涉及使用在所考虑的颜色通道中先前重建的样点生成给定TB(变换块)的样点。对亮度通道和色度通道单独信令通知帧内预测模式,其中,色度通道帧内预测模式可选地通过“DM_CHROMA”模式而依赖于亮度通道帧内预测模式。尽管帧内预测模式是在PB(预测块)级上信令通知的,但是根据CU的残差四叉树层次结构在TB级上应用帧内预测过程,由此允许一个TB的编解码对CU内的下一TB的编解码存在影响,并因此降低与被用作参考值的样点的距离。
HEVC包括35种帧内预测模式-DC模式、平面模式和33种定向或“角度”帧内预测模式。图1中示出了33种角度帧内预测模式。
对于与色度颜色通道相关联的PB而言,帧内预测模式被指定为平面、DC、水平、垂直、“DM_CHROMA”模式或者有时的对角线模式“34”。
请注意,对于色度格式4:2:2和4:2:0,色度PB可以与两个或四个(分别)亮度PB重叠;在这种情况下,DM_CHROMA的亮度方向取自这些亮度PB的左上方。
DM_CHROMA模式指示对色度颜色通道PB应用亮度颜色通道PB的帧内预测模式。由于这是相对常用的,因而intra_chroma_pred_mode的最可能模式编解码方案偏向于支持选择这一模式。
2.2多功能视频编解码(VVC)算法描述
2.2.1 VVC编解码架构
为了探索HEVC以外的未来视频编解码技术,VCEG和MPEG于2015年联合成立了联合视频探索团队(Joint Video Exploration Team,JVET)。JVET会议每季度同期举办一次,并且新型编解码标准的目标是相较于HEVC,比特率降低50%。该新型编解码标准在2018年4月的JVET会议中被正式命名为多功能视频编解码(VVC),并且当时发布了第一版VVC测试模型(VTM)。随着促进VVC标准化的持续努力,在每次JVET会议中都有新的编解码技术被VVC标准采纳。于是,每次会议之后都会更新VVC工作草案和测试模型VTM。现在,VVC项目致力于在2020年7月的会议中实现技术完成(FDIS)。
由于在大多数先前标准中,VVC具有基于块的混合编解码架构,将图片间和图片内预测和变换编解码与熵编解码相结合。图片分割结构将输入视频划分成被称为编解码树单元(coding tree unit,CTU)的块。使用具有嵌套多类型树的四叉树结构将CTU划分成编解码单元(coding unit,CU),其中,叶编解码单元(CU)定义了共享相同预测模式(例如,帧内或帧间)的区域。在本文档中,术语“单元”定义了图像的覆盖所有颜色分量的区域;术语“块”用于定义覆盖特定颜色分量(例如,亮度)的区域,并且在考虑色度采样格式(例如,4:2:0)时可以存在空间位置的差异。
2.2.2 VVC中的双重/单独树分割
亮度分量和色度分量可以具有针对I条带的单独分割树。单独树分割处于64x64块级别下,而非CTU级别。在VTM软件中,存在用以控制双重树开启和关闭的SPS(sequenceparameter set,序列参数集)标志。
2.2.3 VVC中的帧内预测
2.2.3.1 67种帧内预测模式
为了捕获自然视频中存在的任意边缘方向,VTM4中的定向帧内模式的数量从33(如HEVC中使用的)扩展到65。不在HEVC中的新定向模式在图2中被描绘为虚线箭头,平面和DC模式保持相同。这些较密集的方向性帧内预测模式适用于所有块尺寸并且适用于亮度帧内预测和色度帧内预测两者。
2.2.3.2跨分量线性模型预测(CCLM)
为了减小跨分量冗余,在VTM4中使用跨分量线性模型(CCLM)预测模式,对于该模式,通过使用如下线性模型,基于相同CU的重构亮度样点来预测色度样点:
predC(i,j)=α·recL'(i,j)+β
其中,predC(i,j)表示CU中的预测色度样点,并且recL(i,j)表示相同CU中的降采样重建亮度样点。线性模型参数α和β是由来自两个样点及其对应的色度样点的亮度值和色度值之间的关系推导的,这两个样点是该降采样邻近亮度样点的集合内的具有最小样点值和最大样点值的亮度样点。线性模型参数α和β是根据以下等式获得的。
β=Yb-α·Xb
其中,Ya和Xa表示具有最大亮度样点值的亮度样点的亮度值和色度值。并且Xb和Yb分别表示具有最小亮度样点值的亮度样点的亮度值和色度值。图3示出了CCLM模式中涉及的左侧和上侧样点以及当前块的样点的位置的示例。
采用查找表实施用以计算参数α的除法运算。为了减少存储表格所需的存储器,通过指数计数制表示diff值(最大值和最小值之间的差)和参数α。例如,采用4比特有效部分和指数近似表示diff。因此,1/diff的表格被简化为如下的该有效位数的16个值的16个元素:
DivTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0}
这样做的好处在于既降低了计算的复杂性,又降低了存储必要表格所需的存储器大小。
除了能够采用上侧模板和左侧模板一起计算线性模型系数之外,还能够在另外2种LM模式(被称为LM_A和LM_L模式)当中择一地使用上侧模板和左侧模板。
在LM_A模式中,仅采用上侧模板计算线性模型系数。为了获得更多样点,将上侧模板扩展至(W+H)。在LM_L模式中,仅采用左侧模板计算线性模型系数。为了获得更多样点,将左侧模板扩展至(H+W)。
对于非正方形块而言,将上侧模板扩展至W+W,将左侧模板扩展至H+H。
为了匹配4:2:0视频序列的色度样点位置,对亮度样点应用两种类型的降采样滤波器,从而在水平方向和垂直方向两者上都取得2比1的降采样比。通过SPS级标志指定降采样滤波器的选择。两种将降采样滤波器如下文所述,它们分别对应于“类型0”和“类型2”内容。
注意,当上部参考线处于CTU边界上时,仅使用一条亮度线(帧内预测中的一般线缓冲区)产生降采样亮度样点。
这种参数计算是作为解码过程的部分执行的,而非仅作为编码器搜索操作执行。因此,不使用语法向解码器传达α值和β值。
对于色度帧内模式编解码而言,对色度帧内模式编解码允许总共8个帧内模式。这些模式包括五个传统帧内模式和三个跨分量线性模型模式(CCLM、LM_A和LM_L)。色度模式编解码直接取决于对应亮度块的帧内预测模式。由于在I条带中启用针对亮度分量和色度分量的单独块分割结构,因此一个色度块可以对应于多个亮度块。因此,对于色度DM模式,直接继承覆盖当前色度块的中心位置的对应亮度块的帧内预测模式。
2.2.3.2.1对应的修改后的工作草案(JVET-N0271)
下文的规范基于JVET-M1001的修改后的工作草案和JVET-N0271中的采纳方案。通过粗体和下划线示出了所采纳的JVET-N0220的修改。
语法表
序列参数集RBSP语法
语义
等于0指定禁用从亮度分量到色度分量的跨分量线性模型帧内预测。sps_cclm_enabled_flag等于1指定启用从亮度分量到色度分量的跨分量线性模型帧内预测。
解码过程
在INTRA_LT_CCLM、INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的8.4.4.2.8规范中
这一过程的输入是:
–帧内预测模式predModeIntra,
–当前变换块的左上方样点相对于当前图片的左上方样点的样点位置(xTbC,yTbC),
–指定变换块宽度的变量nTbW,
–指定变换块高度的变量nTbH,
–色度邻近样点p[x][y],其中x=-1,y=0..2*nTbH–1并且x=0..2*nTbW–1,y=-1。
这一过程的输出是预测样点predSamples[x][y],其中x=0..nTbW–1,y=0..nTbH-1。
当前亮度位置(xTbY,yTbY)推导如下:
(xTbY,yTbY)=(xTbC<<1,yTbC<<1) (8-156)
变量availL、availT和availTL推导如下:
–在当前色度位置(xCurr,yCurr)被设置为等于(xTbC,yTbC)以及邻近色度位置(xTbC-1,yTbC)作为输入的情况下,调用条款 中规定的块的左侧邻近样点的可用性推导过程,并且该输出被分配给availL。
–在当前色度位置(xCurr,yCurr)被设置为等于(xTbC,yTbC)以及邻近色度位置(xTbC,YTbC-1)作为输入的情况下,调用条款 中规定的块的上方邻近样点的可用性推导过程,并且输出被分配给availT。
–在当前色度位置(xCurr,yCurr)被设置为等于(xTbC,yTbC)以及邻近色度位置(XTbC-1,YTbC-1)作为输入的情况下,调用条款 中规定的块的左上方邻近样点的可用性推导过程,并且输出被分配给availTL。
–可用的右上方邻近色度样点的数量numTopRight推导如下:
–变量numTopRight被设置为等于0,并且availTR被设置为等于TRUE。
–当predModeIntra等于INTRA_T_CCLM时,对于x=nTbW..2*nTbW-1,以下适用,直到availTR等于FALSE或x等于2*nTbW-1:
–在当前色度位置(xCurr,yCurr)被设置为等于(xTbC,yTbC)以及邻近色度位置(xTbC+x,yTbC-1)作为输入的情况下,调用条款中规定的块的可用性推导过程,并且输出被分配给availableTR
–当availableTR等于TRUE时,numTopRight增加1。
–可用的左下方邻近色度样点的数量numLeftBelow推导如下:
–变量numLeftBelow被设置为等于0,并且availLB被设置为等于TRUE。
–当predModeIntra等于INTRA_L_CCLM时,对于y=nTbH..2*nTbH-1,以下适用,直到availLB等于FALSE或y等于2*nTbH-1:
–在当前色度位置(xCurr,yCurr)被设置为等于(xTbC,yTbC)以及邻近色度位置(xTbC-1,yTbC+y)作为输入的情况下,调用条款中规定的块的可用性推导过程,并且输出被分配给availableLB
–当availableLB等于TRUE时,numLeftBelow增加1。
上方和右上方的可用邻近色度样点的数量numTopSamp以及左方和左下方的可用邻近色度样点的数量nLeftSamp推导如下:
–如果predModeIntra等于INTRA_LT_CCLM,则以下适用:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
–否则,以下适用:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。 (8-161)
预测样点predSamples[x][y],其中x=0..nTbW–1,y=0..nTbH–1,推导如下:
–如果numSampL和numSampT都等于0,则以下适用:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
–否则,以下有序步骤适用:
1.共位亮度样点pY[x][y](其中,x=0..nTbW*2–1,y=0..nTbH*2–1)被设置为等于位置(xTbY+x,yTbY+y)处的去方块滤波过程之前的重构亮度样点。
2.邻近亮度样点pY[x][y]推导如下:
–当numSampL大于0时,邻近左侧亮度样点pY[x][y](其中,x=-1..-3,y=0..2*numSampL-1)被设置为等于位置(xTbY+x,yTbY+y)处的去方块滤波过程之前的重构亮度样点。
–当numSampT大于0时,邻近上方亮度样点pY[x][y](其中,x=0..2*numSampT-1,y=-1,-2)被设置为等于位置(xTbY+x,yTbY+y)处的去方块滤波过程之前的重构亮度样点。
–当availTL等于TRUE时,邻近左上方亮度样点pY[x][y](其中,x=-1,y=-1,-2)被设置为等于位置(xTbY+x,yTbY+y)处的去方块滤波过程之前的重构亮度样点。
3.降采样后的共位亮度样点pDsY[x][y],其中,x=0..nTbW-1,y=0..nTbH–1,推导如下:
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–pDsY[x][y](其中,x=1..nTbW-1,y=1..nTbH-1)推导如下:
pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3 (8-163)
–如果availL等于TRUE,则pDsY[0][y],其中,y=1..nTbH–1,推导如下:
–否则,pDsY[0][y](其中,y=1..nTbH-1)推导如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
–如果availT等于TURE,则pDsY[x][0],其中,x=1..nTbW–1,推导如下:
–否则,pDsY[x][0],其中,x=1..nTbW–1,推导如下:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
–如果availL等于TURE并且availT等于TURE,则pDsY[0][0]推导如下:
–否则,如果availL等于TURE并且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
–否则,如果availL等于FALSE并且availT等于TURE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
–否则(availL等于FALSE并且availT等于FALSE),pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
–否则,以下适用:
–pDsY[x][y],其中,x=1..nTbW-1,y=0..nTbH–1,推导如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
–如果availL等于TURE,则pDsY[0][y],其中,y=0..nTbH–1,推导如下:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[0][2*y]+2*pY[0][2*y+1]+pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
–否则,pDsY[0][y],其中,y=0..nTbH–1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4.当numSampL大于0时, 并且/>降采样后的邻近左侧亮度样点/>其中,/>推导如下:
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–否则:
–否则,以下适用:
5.当numSampT大于0时, 并且降采样后的邻近上方亮度样点/>指定如下:
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–如果x>0:
–如果bCTUboundary等于FALSE,则以下适用:
–否则(bCTUboundary等于TRUE),以下适用:
–如果availTL等于TRUE,并且bCTUboundary等于
FALSE,则以下适用:
–否则,如果availTL等于TRUE,并且bCTUboundary等于TRUE,则以下适用:
–否则,如果availTL等于FALSE,并且bCTUboundary等于FALSE,则以下适用:
–否则(availTL等于FALSE,并且bCTUboundary等于TRUE),以下适用:
–否则,以下适用:
–如果bCTUboundary等于FALSE,则以下适用:
–否则(bCTUboundary等于TRUE),以下适用:
–如果availTL等于TRUE,并且bCTUboundary等于FALSE,则以下适用:
–否则,如果availTL等于TRUE,并且bCTUboundary等于TRUE,则以下适用:
–否则,如果availTL等于FALSE,并且bCTUboundary等于FALSE,则以下适用:
–否则(availTL等于FALSE,并且bCTUboundary等于TRUE),以下适用:
6.变量minY、maxY、minC和maxC推导如下:/>
7.变量a、b和k推导如下:
–如果numSampL等于0,并且numSampT等于0,则以下适用:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
–否则,以下适用:
diff=maxY–minY (8-211)
–如果diff不等于0,则以下适用:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)其中,divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0}(8-221)
–否则(diff等于0),以下适用:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],其中,x=0..nTbW-1,y=0..
nTbH–1,推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
2.2.3.3杂项帧内预测方面
VTM4包括很多不同于HEVC的帧内编解码工具,例如,以下特征已被包括到VVC测试模型3中加于块树结构之上。
·67种帧内模式连同宽角度模式扩展
·块尺寸和模式相关4抽头插值滤波器
·位置相关帧内预测组合(position dependent intra predictioncombination,PDPC)
·跨分量线性模型帧内预测
·多参考线帧内预测
·帧内子分割
2.2.4 VVC中的帧间预测
2.2.4.1组合帧间和帧内预测(combined inter and intra prediction,CIIP)
在VTM4中,当在merge模式下对CU编解码时,并且如果CU含有至少64个亮度样点(也就是说,CU宽度乘以CU高度等于或者大于64),那么信令通知附加的标志,以指示是否对当前CU应用组合帧间/帧内预测(CIIP)。
为了形成CIIP预测,首先由两个附加语法元素推导出帧内预测模式。可以采用多达四种可能的帧内预测模式:DC、平面、水平或垂直。之后,使用常规的帧内和帧间解码过程推导帧间预测和帧内预测信号。最后,执行对帧间和帧内预测信号的加权求均值,以获得CIIP预测。
2.2.4.2杂项帧间预测方面
VTM4包括很多不同于HEVC的帧间编解码工具,例如,以下特征包括到了VVC测试模型3当中加于块树结构之上。
·仿射运动帧间预测
·基于子块的时域运动矢量预测
·自适应运动矢量分辨率
·用于时域运动预测的基于8x8块的运动压缩
·针对亮度分量采用8抽头插值滤波器以及针对色度分量采用4抽头插值滤波器的高分辨率(1/16像素)运动矢量存储和运动补偿
·三角形分割
·组合帧内和帧间预测
·采用MVD的Merge(MMVD)
·对称MVD编解码
·双向光流
·解码器侧运动矢量细化
·双向预测加权求均值
2.2.5环路滤波器
在VTM4中总共有三个环路滤波器。除了去方块滤波器和SAO(HEVC中的两个环路滤波器)之外,在VTM4中还应用自适应环路滤波器(ALF)。VTM4中的滤波过程的顺序是去方块滤波器、SAO和ALF。
在VTM4中,SAO和去方块滤波过程与HEVC中的那些过程几乎相同。
在VTM4中,添加了被称为“带有色度缩放的亮度映射”的新过程(这一过程先前被称为自适应环路整形器)。在去方块之前执行这一新过程。
2.2.6带有色度缩放的亮度映射(LMCS,又名环路整形)
在VTM4中,添加了被称为带有色度缩放的亮度映射(LMCS)的编解码工具作为环路滤波器之前的新处理块。LMCS具有两个主要构成部分:1)基于自适应分段线性模型的亮度分量的环路映射;2)对于色度分量,应用亮度相关的色度残差缩放。图4示出了来自解码器视角的LMCS架构。图4中的虚线阴影块指示在映射域中何处应用该处理;并且这些包括逆量化、逆变换、亮度帧内预测以及将亮度预测与亮度残差加到一起。图4中的无阴影块指示在原始(即,未映射)域中何处应用该处理;并且这些包括诸如去方块、ALF和SAO的环路滤波器、运动补偿预测、色度帧内预测、将色度预测与色度残差加到一起以及将解码图片作为参考图片存储。图4中的交叉影线阴影块是新的LMCS功能块,包括亮度信号的正向映射和逆向映射以及亮度相关的色度缩放过程。像VVC中大部分其他工具一样,可以使用SPS标志在序列级上启用/禁用LMCS。
2.2.6.1采用分段线性模型的亮度映射
亮度分量的环路映射通过对跨输入信号的动态范围的码字进行重新分布而对该动态范围加以调整,从而提高压缩效率。亮度映射利用了正向映射函数FwdMap和对应的逆映射函数InvMap。使用具有16个相等片段的分段线性模型信令通知FwdMap函数。不必对InvMap函数信令通知,相反其由FwdMap函数推导。
在片组级上信令通知亮度映射模型。首先信令通知存在标志。如果在当前片组中存在亮度映射模型,则信令通知对应的分段线性模型参数。分段线性模型将输入信号的动态范围分割成16个相等片段,并且对于每一片段,使用分配给该片段的码字的数量表示其线性映射参数。以10比特输入为示例。默认情况下,16个片段的每个具有分配给它的64个码字。使用信令通知的码字数量计算缩放因数,并且相应地,对于该片段,调整映射函数。在片组级上,信令通知另一LMCS启用标志,以指示是否对当前片组应用如图4所示的LMCS过程。
FwdMap分段线性模型的每一第i片段(i=0…15)由两个输入轴点InputPivot[]和两个输出(映射后)轴点MappedPivot[]定义。
如下计算InputPivot[]和MappedPivot[](假定10比特视频):
1)OrgCW=64
2)对于i=0:16,InputPivot[i]=i*OrgCW
3)对于i=0:16,如下计算MappedPivot[i]:
MappedPivot[0]=0;
for(i=0;i<16;i++)
MappedPivot[i+1]=MappedPivot[i]+SignalledCW[i]
其中,SignalledCW[i]是第i片段的信令通知码字数量。
如图4所示,对于帧间编解码块,在映射域内执行运动补偿预测。换言之,在基于DPB中的参考信号计算出运动补偿预测块Ypred之后,应用FwdMap函数,从而将原始域内的亮度预测块映射至映射域Y′pred=FwdMap(Ypred)。对于帧内编解码块,不应用FwdMap函数,因为帧内预测是在映射域内执行的。在计算了重建块Yr之后,应用InvMap函数,从而将映射域内的重建亮度值转换回原始域内的重建亮度值。对帧内和帧间编解码亮度块均应用InvMap函数。
可以采用查找表(LUT)或者采用即时计算来实施亮度映射过程(正向映射和/或逆向映射)。如果采用LUT,那么可以预先计算并且预先存储FwdMapLUT和InvMapLUT,以供在片组级上使用,并且可以简单地将正向映射和逆向映射分别实施为FwdMap(Ypred)=FwdMapLUT[Ypred]和InvMap(Yr)=InvMapLUT[Yr]。可替换地,可以使用即时计算。以正向映射函数FwdMap为例。为了断定亮度样点属于哪一片段,使样点值向右移位6比特(其对应于16个相等片段)。之后,检索并且即时应用该片段的线性模型参数,以计算出映射后的亮度值。令i为片段索引,a1、a2分别为InputPivot[i]和InputPivot[i+1],并且b1、b2分别为MappedPivot[i]和MappedPivot[i+1]。如下估算FwdMap函数:
FwdMap(Ypred)=((b2-b1)/(a2-a1))*(Ypred-a1)+b1
可以按照类似的方式计算InvMap函数,只是在断定样点值所属的片段时需要应用条件性检查,而非简单地向右移位,因为映射域内的片段不是相等尺寸的。
2.2.6.2亮度相关的色度残差缩放
色度残差缩放被设计为补偿亮度信号与其对应的色度信号之间的相互作用。在片组级上也会信令通知是否启用色度残差缩放。如果启用亮度映射并且如果不对当前片组应用双重树分割(又称为单独色度树),那么信令通知附加标志,以指示是否启用亮度相关的色度残差缩放。在不使用亮度映射时,或者当在当前片组中使用双重树分割时,禁用亮度相关的色度残差缩放。此外,对于其面积小于或者等于4的色度块始终禁用亮度相关的色度残差缩放。
色度残差缩放取决于对应亮度预测块的平均值(对于帧内编解码块和帧间编解码块两者)。将avgY′表示成亮度预测块的平均值。按照下述步骤计算CScaleInv的值:
1)基于InvMap函数找到avgY′所属的分段线性模型的索引YIdx
2)CScaleInv=cScaleInv[YIdx],其中,cScaleInv[]是预先计算的16片段LUT。
如果当前块被编解码成帧内、CIIP或帧内块复制(IBC,又名当前图片引用或CPR)模式,那么将avgY′计算为帧内预测亮度值、CIIP预测亮度值或IBC预测亮度值的平均值;否则将avgY′计算为正向映射帧间预测亮度值的平均值(图4中的Y′pred)。与在样点基础上执行的亮度映射不同,对于整个色度块,CScaleInv为常数值。借助于CScaleInv,如下应用色度残差缩放:
编码器侧:CResScale=CRes*CScale=CRes/CScaleInv
解码器侧:CRes=CResScale/CScale=CResScale*CScaleInv
2.2.6.3 JVET-M1001_v7中的对应工作草案,连同JVET-N0220中的采纳方案
下文的规范基于JVET-M1001的修改后的工作草案和JVET-N0220中的采纳方案。通过粗体和下划线示出了所采纳的JVET-N0220中的修改。
语法表
在7.3.2.1序列参数集RBSP语法中
在7.3.4.1一般片组标头语法中
在7.3.4.4带有色度缩放的亮度映射数据语法中
/>
语义
在7.4.3.1序列参数集RBSP语义中
等于1指定在CVS中使用带有色度缩放的亮度映射。sps_lmcs_enabled_flag等于0指定在CVS中不使用带有色度缩放的亮度映射。
等于1指定在片组标头中存在lmcs_data()。tile_group_lmcs_model_present_flag等于0指定在片组标头中不存在lmcs_data()。在tile_group_lmcs_model_present_flag不存在时,推断其等于0。
等于1指定对当前片组启用带有色度缩放的亮度映射。tile_group_lmcs_enabled_flag等于0指定对当前片组不启用带有色度缩放的亮度映射。在tile_group_lmcs_enabled_flag不存在时,推断其等于0。
等于1指定对当前片组启用色度残差缩放。tile_group_chroma_residual_scale_flag等于0指定对当前片组不启用色度残差缩放。在tile_group_chroma_residual_scale_flag不存在时,推断其等于0。
在7.4.5.4带有色度缩放的亮度映射数据语义中
指定在带有色度缩放的亮度映射构建过程中使用的最小二进制索引。lmcs_min_bin_idx的值应当在0到15的范围内,包括0和15。
指示15与在带有色度缩放的亮度映射构建过程中使用的最大二进制索引LmcsMaxBinIdx之间的Δ值。lmcs_delta_max_bin_idx的值应当在0到15的范围内,包括0和15。将LmcsMaxBinIdx的值设置为等于15-lmcs_delta_max_bin_idx。LmcsMaxBinIdx的值应当大于或等于lmcs_min_bin_idx。
加1指定用于表示语法lmcs_delta_abs_cw[i]的比特的数量。lmcs_delta_cw_prec_minus1的值应当在0到BitDepthY-2的范围内,包括0和BitDepthY-2。
指定第i二进制位的绝对Δ码字值。
如下指定变量lmcsDeltaCW[i]的符号:
–如果lmcs_delta_sign_cw_flag[i]等于0,那么lmcsDeltaCW[i]为正值。
–否则(lmcs_delta_sign_cw_flag[i]不等于0),lmcsDeltaCW[i]为负值。
当lmcs_delta_sign_cw_flag[i]不存在时,那么推断其等于0。
如下推导变量OrgCW:
OrgCW=(1<<BitDepthY)/16 (7-70)
如下推导变量lmcsDeltaCW[i],其中,i=lmcs_min_bin_idx..LmcsMaxBinIdx:
lmcsDeltaCW[i]=(1-2*lmcs_delta_sign_cw_flag[i])*lmcs_delta_abs_cw[i](7-71)
如下推导变量lmcsCW[i]:
–对于i=0..lmcs_min_bin_idx-1,将lmcsCW[i]设置为等于0。
–对于i=lmcs_min_bin_idx..LmcsMaxBinIdx,以下内容适用:
lmcsCW[i]=OrgCW+lmcsDeltaCW[i] (7-72)
lmcsCW[i]的值应当在(OrgCW>>3)到(OrgCW<<3-1)的范围内,包括端点。
–对于i=LmcsMaxBinIdx+1..15,将lmcsCW[i]设置为等于0。
以下条件为真是比特流一致性的要求:
如下推导变量InputPivot[i],其中,i=0..16:
InputPivot[i]=i*OrgCW (7-74)
如下推导变量LmcsPivot[i](其中,i=0..16)以及变量ScaleCoeff[i]和InvScaleCoeff[i](其中,i=0..15):
如下推导变量ChromaScaleCoeff[i],其中,i=0…15:
如下推导变量ClipRange、LmcsMinVal和LmcsMaxVal:
ClipRange=((lmcs_min_bin_idx>0)&&(LmcsMaxBinIdx<15) (7-77)
LmcsMinVal=16<<(BitDepthY-8) (7-78)
LmcsMaxVal=235<<(BitDepthY-8) (7-79)
注意–仅当tile_group_lmcs_model_present_flag等于1时更新数组InputPivot[i]和LmcsPivot[i]、ScaleCoeff[i]以及InvScaleCoeff[i]、ChromaScaleCoeff[i]、ClipRange、LmcsMinVal和LmcsMaxVal。因而,例如,可以将lmcs模型与IRAP图片一起发送,但是对该IRAP图片禁用lmcs。
3.现有实施方式的缺点
LMCS/CCLM的当前设计可能具有以下问题:
1.在LMCS编解码工具中,通过共位亮度预测块的平均值推导色度残差缩放因数,其引起了在LMCS色度残差缩放中处理色度样点的延迟。
a)就单一/共享树而言,该延迟是由(a)等待整个亮度块的所有预测样点可用,和(b)对通过(a)获得的所有亮度预测样点求平均而导致的。
b)就双重/单独树而言,由于在I条带中启用了针对亮度分量和色度分量的单独块分割结构,因而延迟更加严重。因此,一个色度块可以对应于多个亮度块,并且一个4x4色度块可以对应于64x64亮度块。因此,最坏的情况是当前4x4色度块的色度残差缩放因数可能需要一直等到整个64x64亮度块中的所有预测样点都可用为止。简言之,双重/单独树中的延迟问题会严重得多。
2.在CCLM编解码工具中,用于帧内色度预测的CCLM模型计算取决于亮度块和色度块两者的左侧和上方参考样点。并且,色度块的CCLM预测取决于相同CU的共位亮度重建样点。这会在双重/单独树内导致高延迟。
·就双重/单独树而言,一个4x4色度块可以对应于64x64亮度块。因此,最坏的情况是当前色度块的CCLM过程可能需要一直等到对应的整个64x64亮度块被重建为止。这种延迟问题与双重/单独树中的LMCS色度缩放类似。
4.示例技术和实施例
为了解决这些问题,我们提出了几种方法,用以消除/减少/限制亮度相关色度残差缩放、CCLM和其他依赖于来自不同颜色分量的信息的编解码工具中的跨分量依赖性。
下文描述的详细实施例应被视为解释一般原理的示例。不应狭义地解释这些实施例。此外,这些实施例可以以任何方式组合。
注意,尽管下文描述的项目符号明确提及了LMCS/CCLM,但是这些方法也可以适用于其他依赖于来自不同颜色分量的信息的编解码工具。此外,可以分别通过“第一颜色分量”和“第二颜色分量”(诸如RBG颜色格式中的“G分量”和“B/R分量”)代替下文提及的术语“亮度”和“色度”。
在下文的讨论中,“共位样点/块”的定义与VVC工作草案JVET-M1001中的共位样点/块的定义一致。更具体而言,在4:2:0颜色格式中,假设色度块的左上样点处于位置(xTbC,yTbC)处,那么如下推导该左上样点的共位亮度块位置(xTbY,yTbY):(xTbY,yTbY)=(xTbC<<1,yTbC<<1)。如图5所示,当前色度块的左上样点位于色度图片中的(x=16,y=16)处,然后其共位亮度块的左上样点位于亮度图片中的(x=32,y=32)处,而不管亮度图片中的共位亮度块的块分割如何。作为另一示例,设想在相同颜色分量中,参考帧内的共位块的左上样点的位置应当与当前帧中的当前块的左上样点的位置相同,如图6所示,假设当前块的左上样点为当前帧中的(x,y),那么当前块的共位块的左上样点在参考帧内具有相同位置(x,y)。
在下文的讨论当中,“对应块”可以具有不同于当前块的位置。例如,在当前块与其在参考帧中的对应块之间可能存在运动移位。如图6所示,假设当前块在当前帧中位于(x,y)处并且其具有运动矢量(mvx,mvy),那么当前块的对应块可能在参考帧中位于(x+mvx,y+mvy)处。并且,对于IBC编解码块而言,共位亮度块(由零矢量所指)和对应亮度块(由非零BV所指)可以位于当前帧的不同地方。作为另一示例,当亮度块的分割与色度块的分割不一致时(在I条带的双重树分割当中),当前色度块的共位亮度块可以属于较大亮度块,这取决于覆盖该共位亮度块的左上样点的重叠亮度编解码块的分割尺寸。如图5所示,假设粗线矩形表示块的分割,使得64x64亮度块首先按照BT划分,之后64x64亮度块的右侧部分进一步按照TT划分,这样产生了尺寸分别等于32x16、32x32、32x16的三个亮度块。因此,看到当前色度块的共位亮度块的左上样点(x=32,y=32),它属于TT分割的中心32x32亮度块。在这种情况下,我们将覆盖共位亮度块的左上样点的对应亮度块称为“对应亮度块”。因此,在这一示例中,对应亮度块的左上样点位于(x=32,y=16)处。
在下文中,使用DMVD(解码器侧运动矢量推导)表示BDOF(又名BIO)或/和DMVR(解码侧运动矢量细化)或/和FRUC(帧速率上转换)或/和其他在解码器处细化运动矢量或/和预测样点值的方法。
LMCS的色度缩放延迟的去除和CCLM的模型计算1.提出了对于帧间编解码块,可以使用当前块在参考帧中的一个或多个参
考样点来推导LMCS模式中的色度残差缩放因数。
a)在一个示例中,可以直接使用参考亮度样点推导色度残差缩放因数。i.替代性地,可以首先对参考样点应用插值,并且可以使用经插值的样点推导色度残差缩放因数。
ii.替代性地,可以采用不同参考帧中的参考样点推导用于色度残差缩放因数推导的最终参考样点。
1)在一个示例中,对于双向预测编解码块,可以应用上述方法。
iii.在一个示例中,可以在参考样点用于推导色度残差缩放因数之前,将参考样点的强度转换至整形域。
iv.在一个示例中,可以使用参考样点的线性组合来推导色度残差缩放因数。
1)例如,可以采用a×S+b推导色度残差缩放因数,其中,S是参考样点,a和b是参数。在一个示例中,可以通过局部照明补偿(LIC)推导a和b。
b)在一个示例中,参考帧中的参考亮度样点的位置可以取决于当前块的(多个)运动矢量。
i.在一个示例中,参考样点属于参考亮度块,该参考亮度块处于参考图片内,并且具有与当前亮度块相同的宽度和高度。可以将参考图片中的参考亮度样点的位置计算为其对应亮度样点在当前图片中的位置加上运动矢量。
ii.在一个示例中,可以通过当前亮度块的左上(或中心或右下)样点的位置和当前块的运动矢量推导参考亮度样点(其被称为参考帧中的对应亮度样点)的位置。
1)在一个示例中,可以使用整数运动矢量来推导参考帧中的对应亮度样点。在一个示例中,可以对与一个块相关联的运动矢量进行朝向零的舍入,或者进行背离零的舍入,以推导出整数运动矢量。
2)替代性地,可以使用分数运动矢量来推导参考帧中的对应亮度样点,从而可能需要插值过程来推导分数参考样点。
iii.替代性地,可以通过当前亮度块的左上(或中心或右下)样点的位置推导参考亮度样点的位置。
iv.替代性地,可以挑选参考帧中的一些预定义位置上的多个对应亮度样点来计算色度残差缩放因数。
c)在一个示例中,可以采用多个参考亮度样点的中值或平均值来推导色度残差缩放因数。
d)在一个示例中,可以采用预定义参考帧中的参考亮度样点来推导色度残差缩放因数。
i.在一个示例中,预定义参考帧可以是其参考索引等于参考图片列表0的0的一个参考帧。
ii.替代性地,可以在序列/图片/片组/条带/片/CTU行/视频单元级中信令通知预定义参考帧的参考索引和/或参考图片列表。
iii.替代性地,可以推导多个参考帧中的参考亮度样点,并且可以采用平均值或者加权平均值得到色度残差缩放因数。
2.提出了在LMCS模式中是否以及如何由亮度样点推导色度残差缩放因数可以取决于当前块是否应用双向预测。
a)在一个示例中,针对每一预测方向单独推导色度残差缩放因数。
3.提出了在LMCS模式中是否以及如何由亮度样点推导色度残差缩放因数可以取决于当前块是否应用基于子块的预测。
a)在一个示例中,基于子块的预测是仿射预测;
b)在一个示例中,基于子块的预测是可选时域运动矢量预测(ATMVP)。
c)在一个示例中,针对每一子块单独推导色度残差缩放因数。
d)在一个示例中,针对整个块推导色度残差缩放因数,即使其是通过子块预测的。
i.在一个示例中,可以采用一个所选择的子块(或者左上子块)的运动矢量来识别当前块的参考样点,如项目符号1中所述。4.提出了用于推导色度残差缩放因数的亮度预测值可以是中间亮度预测值
而非最终亮度预测值。
a)在一个示例中,可以采用在双向光流(BDOF,又名BIO)的过程之前的亮度预测值来推导色度残差缩放因数。
b)在一个示例中,可以采用在解码器侧运动矢量细化(DMVR)的过程之前的亮度预测值来推导色度残差缩放因数。
c)在一个示例中,可以采用在LIC的过程之前的亮度预测值来推导色度残差缩放因数。
d)在一个示例中,可以采用预测细化光流(PROF)的过程之前的亮度预测值来推导色度残差缩放因数。
5.可以采用中间运动矢量来识别参考样点。
a)在一个示例中,可以采用在BDOF或/和DMVR或/和其他DMVD方法的过程之前的运动矢量来识别参考样点。
b)在一个示例中,可以采用在如JVET-N0236中提出的预测细化光流(PROF)的过程之前的运动矢量来识别参考样点。
6.当用帧间模式对当前块编解码时,上述方法可以是适用的。
7.提出了对于IBC编解码块,可以采用当前帧的参考块中的一个或多个参考样点来推导LMCS模式中的色度残差缩放因数。当该块是IBC编解码时,术语“运动矢量”还可以被称为“块矢量”,其中,将参考图片设置为当前图片。
a)在一个示例中,参考样点属于参考块,参考块处于当前图片内,并且具有与当前块相同的宽度和高度。可以将参考样点的位置计算为其对应样点的位置加上运动矢量。
b)在一个示例中,可以通过当前亮度块的左上(或中心,或右下)样点的位置加上运动矢量来推导参考亮度样点的位置。
c)替代性地,可以通过当前亮度块的左上(或中心,或右下)样点的位置加上当前块的块矢量来推导参考亮度样点的位置。
d)替代性地,可以挑选在当前亮度块的参考区域中的一些预定义位置处的多个对应亮度样点来计算色度残差缩放因数。
e)在一个示例中,可以用函数推导多个对应亮度样点,以推导色度残差缩放因数。
i.例如,可以计算多个对应亮度样点的中值或平均值来推导色度残差缩放因数。
f)在一个示例中,可以在参考样点用于推导色度残差缩放因数之前,将参考样点的强度转换至整形域。
i.替代性地,可以在参考样点用于推导色度残差缩放因数之前,将参考样点的强度转换至原始域。
8.提出了可以采用位于当前帧中的当前亮度块的所识别的(多个)位置上的一个或多个预测/重建样点来推导LMCS模式中的用于当前色度块的色度残差缩放因数。
a)在一个示例中,如果当前块是帧间编解码的,那么可以挑选位于当前亮度块的中心的亮度预测(或重建)样点来推导色度残差缩放因数。
b)在一个示例中,可以挑选第一MxN亮度预测(或重建)样点的平均值来推导色度残差缩放因数,其中,MxN可以小于共位亮度块尺寸widthxheight。
9.提出了用于计算CCLM模型的流程的全部或部分可以用于LMCS模式中的当前色度块的色度残差缩放因数推导。
a)在一个示例中,可以利用在CCLM模型参数推导过程中位于共位亮度块的所识别的邻近亮度样点的位置上的参考样点来推导色度残差缩放因数。
i.在一个示例中,可以直接采用那些参考样点。
ii.替代性地,可以对那些参考样点应用降采样,并且可以应用降采样后的参考样点。
b)在一个示例中,可以将为CCLM模型计算而选择的S个参考样点中的K个参考样点用于LMCS模式中的色度残差缩放因数推导。例如,K等于1,并且S等于4。
c)在一个示例中,可以将CCLM模式中的共位亮度块的参考样点的平均值/最小值/最大值用于LMCS模式中的色度残差缩放因数推导。
10.如何选择用于色度残差缩放因数的推导的样点可以取决于当前块的编解码信息。
a)编解码信息包括QP、编解码模式、POC、帧内预测模式、运动信息等。
b)在一个示例中,对于IBC编解码块或非IBC编解码块,选择样点的方式可以是不同的。
c)在一个示例中,选择样点的方式可以基于参考图片信息(例如,参考图片与当前图片之间的POC距离)而不同。
11.提出了色度残差缩放因数和/或CCLM的模型计算可以取决于覆盖共位亮度块的左上样点的对应亮度块的邻近样点。在本发明中,“编解码块”可以指代HEVC规范或者VVC工作草案中规定的视频编解码区域,诸如CU/TU/PU。
a)可以将“对应亮度编解码块”定义为覆盖共位亮度编解码块的左上位置的编解码块。
i.图5示出了一个示例,其中,对于双树情况中的帧内编解码色度块,色度分量的CTU分割可以不同于亮度分量的CTU分割。首先,检索覆盖当前色度块的共位亮度块的左上样点的“对应亮度编解码块”。之后,通过使用“对应亮度编解码块”的块尺寸信息,可以推导“对应亮度编解码块”的左上样点,覆盖共位亮度块的左上样点的“对应亮度编解码块”的左上亮度样点位于(x=32,y=16)处。
b)在一个示例中,可以需要块尺寸/分割/位置/坐标来推导覆盖共位亮度编解码块的左上样点的“对应亮度编解码块”的位置。
i.在一个示例中,可以对于指定颜色分量(例如,亮度分量)的每一块,存储块尺寸和/或块分割和/或块坐标。
ii.在一个示例中,“对应亮度编解码块”和当前块可以总是处于同一CTU或CTU行内,因此在线缓冲区内可以不存储块尺寸/分割/位置/坐标。
c)在一个示例中,可以采用不在“对应亮度编解码块”内的重建样点来推导色度残差缩放因数和/或CCLM的模型计算。
i.在一个示例中,可以采用与“对应亮度编解码块”毗邻的重建样点推导色度残差缩放因数和/或CCLM的模型计算。
1)在一个示例中,可以采用位于“对应亮度编解码块”的左方邻近列和/或上方邻近行处的N个样点来推导色度残差缩放因数和/或CCLM的模型计算,其中,N=1…2W+2H,W和H是“对应亮度编解码块”的宽度和高度。
a)假定“对应亮度编解码块”的左上样点是(xCb,yCb),那么在一个示例中,上方邻近亮度样点可以位于(xCb+W/2,yCb-1)或(xCb-1,yCb-1)处。在替代示例中,左侧邻近亮度样点可以位于(xCb+W-1,yCb-1)处。
b)在一个示例中,(多个)邻近样点的(多个)位置可以是固定的和/或具有预定义检查顺序。
2)在一个示例中,可以选择N个邻近样点中的一个样点来推导色度残差缩放因数和/或CCLM的模型计算。假设N=3,并且三个邻近样点的检查顺序为(xCb-1,yCb-H-1)、(xCb+W/2,yCb-1)、(xCb-1,yCb-1),那么可以选择检查列表中的第一可用邻近样点来推导色度残差缩放因数。
3)在一个示例中,可以采用位于“对应亮度编解码块”的左侧邻近列和/或上侧邻近行处的N个样点的中值或平均值来推导色度残差缩放因数和/或CCLM的模型计算,其中,N=1…2W+2H,W和H是“对应亮度编解码块”的宽度和高度。
d)在一个示例中,是否执行色度残差缩放可以取决于对应亮度块的“可用”邻近样点。
i.在一个示例中,邻近样点的“可用性”可以取决于当前块/子块的编码模式或/和邻近样点的编码模式。
1)在一个示例中,对于按照帧间模式编解码的块,可以认为按照帧内模式或/和IBC模式或/和CIIP模式或/和LIC模式编解码的邻近样点是“不可用的”。
2)在一个示例中,对于按照帧间模式编解码的块,可以认为采用扩散滤波器或/和双边滤波器或/和哈达玛(Hadamard)变换滤波器的邻近样点是“不可用的”。
ii.在一个示例中,邻近样点的“可用性”可以取决于当前图片/片/片组/VPDU(virtual pipeline data unit,虚拟流水线数据单元)/条带的宽度和/或高度。
1)在一个示例中,如果邻近块位于当前图片外,那么将其作为“不可用”来对待。
iii.在一个示例中,在没有“可用”邻近样点时,可以不允许色度残差缩放。
iv.在一个示例中,在“可用”邻近样点的数量小于K(K>=1)
时,可以不允许色度残差缩放。
v.替代性地,可以通过默认固定值、或填补、或替换来填充不可用的邻近样点,以使得总是可以应用色度残差缩放。
1)在一个示例中,如果邻近样点不可用,那么可以通过1<<(bitDepth-1)对其填充,其中,bitDepth指定亮度/色度分量的样点的比特深度。
2)替代性地,如果邻近样点不可用,那么可以通过由位于左侧/右侧/顶部/底部邻近的周围样点进行填补而对其进行填充。
3)替代性地,如果邻近样点不可用,那么可以由第一可用毗邻样点按照预定义检查顺序对其进行替代。
4)替代性地,如果邻近样点不可用,那么可以通过预定义的经滤波/映射的值(例如,1<<(bitDepth-1)的经滤波/映射的值,其中,bitDepth指定亮度/色度分量的样点的比特深度)对其填充。
a)在一个示例中,该滤波/映射过程可以是LMCS的正向映射的LUT索引。
e)在一个示例中,是否以及如何执行色度残差缩放可以取决于当前块的编解码模式和/或邻近块的编解码模式。
i.“当前块”可以指代当前色度块,或者其可以指代共位亮度块或覆盖共位色度块的至少一个样点的对应亮度块。“邻近块”(毗邻或非毗邻)可以指代与当前色度块邻近的色度块,或者它们可以指代与当前亮度块邻近的亮度块。
ii.在一个示例中,可以利用覆盖给定位置(例如,相对于当前块的左上坐标的(-1,-1))的一个亮度邻近块的编解码模式。
iii.在一个示例中,可以利用覆盖多个位置的多个邻近块的编解码模式,该多个位置诸如是相对于当前块的左上坐标的(x,-1)(例如,其中x为0到块宽度减1),和/或相对于当前块的左上坐标的(-1,y)(例如,其中y为-1到块高度减1)。
iv.在一个示例中,如果一个邻近块的重建需要访问当前条带/片组内的样点,例如,其是X编解码的,那么禁用色度残差缩放。
1)例如,模式X可以是帧内模式;
2)例如,模式X可以是CIIP模式;
3)例如,模式X可以是IBC模式;
4)在一个示例中,如果当前块是帧间编解码的而非CIIP编解码的并且与对应亮度块邻近的邻近块采用模式X编解码的,那么禁用色度残差缩放。
v.在一个示例中,如果一个邻近块的重建需要访问当前条带/片组内的样点,例如,其是X编解码的,那么可以采用默认值来推导色度残差缩放因数。
1)例如,模式X可以是帧内模式;
2)例如,模式X可以是CIIP模式;
3)例如,模式X可以是IBC模式;
4)在一个示例中,如果当前块是帧间编解码的而非CIIP编解码的,并且对应亮度块的邻近块是采用模式X编解码的,那么可以采用默认值来推导色度残差缩放因数。
5)在一个示例中,默认值可以取决于亮度样点/色度样点的比特深度。
6)在一个示例中,可以将默认值设置为1<<(bitDepth-1)的经滤波/映射的值,其中,bitDepth指定亮度/色度分量的样点的比特深度。在一个示例中,该滤波/映射过程可以是LMCS的正向映射的LUT索引。
f)在一个示例中,可以采用与“对应亮度编解码块”邻近的经滤波/
映射的重建样点来推导色度残差缩放因数和/或CCLM的模型计算。
i.在一个示例中,滤波/映射过程可以包括针对帧内块的参考平滑化滤波、诸如双边滤波器的后滤波、基于哈达玛变换的滤波器、整形器域的正向映射等。
12.提出了可以采用固定值来推导对于当前条带/片组内的各种数量的色度块(诸如CU或TU)的色度残差缩放因数。
a)在一个示例中,可以通过固定值推导对于N个色度块的色度残差缩放因数,其中,N为1到当前条带/片组内的色度块的总数。
b)在一个示例中,可以采用固定值找到该值所属的分段线性模型的索引,并且然后由所推导的分段索引计算色度残差缩放因数。在一个示例中,该固定值可以取决于亮度样点的内部比特深度。
c)在一个示例中,可以直接使用固定值来表示色度残差缩放因数。
d)在一个示例中,该固定值和/或固定色度残差缩放因数可以取决于图片/条带/片组类型(例如,I或P或B条带)和/或块的编解码模式(例如,帧内模式或帧间模式)。
e)在一个示例中,该固定值对于不同图片/条带/片组/片可以是不同的。
f)在一个示例中,在LMCS中可以直接采用固定色度残差缩放因数来对色度残差进行缩放。
i.在一个示例中,可以在诸如DPS/SPS/PPS(picture parameter se,图片参数集)/VPS/APS/条带标头/片组标头的视频单元中信令通知固定色度残差缩放因数。
ii.在一个示例中,用于图片/条带/片组/片的固定色度残差缩放因数可以取决于用于该图片/条带/片组/片内的亮度样点整形的映射函数(例如,分段线性函数)。
1)在一个示例中,固定色度残差缩放因数可以取决于如JVET-M1001-v7中定义的数组InvScaleCoeff[]和/或数组ScaleCoeff[]。
a)例如,图片/条带/片组/片的固定色度残差缩放因数所依赖的数组InvScaleCoeff[]和/或数组ScaleCoeff[]可以用于对该图片/条带/片组/片内的亮度样点整形。
2)在一个示例中,可以通过用于对亮度样点整形的分段线性函数的所有缩放系数当中的最小值/最大值/中值/平均值推导固定色度残差缩放因数。
a)例如,可以通过InvScaleCoeff[i]的最小值/最大值/中值/平均值推导固定色度残差缩放因数,其中,i为从最小索引(例如,JVET-M1001-v7中的lmcs_min_bin_idx)到最大索引(例如,JVET-M1001-v7中的LmcsMaxBinIdx)。
i.例如,该固定色度残差缩放因数可以等于InvScaleCoeff[i]的最小值/最大值/中值/平均值,其中,i为从最小索引(例如,JVET-M1001-v7中的lmcs_min_bin_idx)到最大索引(例如,JVET-M1001-v7中的LmcsMaxBinIdx)。
ii.替代性地,可以通过InvScaleCoeff[i]的最小值/最大值/中值/平均值推导该固定色度残差缩放因数,其中,i为从最小索引(例如,0)到最大索引(例如,15),并且如JVET-M1001-v7中所定义的lmcsCW[i]不等于0。
iii.在上文的示例中,可以将InvScaleCoeff[i]的中值计算为InvScaleCoeff[j],其中,j是有效索引,例如,j=(最小索引+最大索引)>>1或者j=(最小索引+最大索引+1)>>1或者j=(最大索引-最小索引)>>1。在一个示例中,InvScaleCoeff[]的最小索引可以是在JVET-M1001-v7中定义的lmcs_min_bin_idx或0,并且InvScaleCoeff[]的最大索引可以是在JVET-M1001-v7中定义的LmcsMaxBinIdx或Size-1,其中,Size表示数组InvScaleCoeff_sort[]的尺寸。
1.替代性地,可以首先按照升序或降序对数组InvScaleCoeff或其部分(例如,从JVET-M1001-v7中定义的InvScaleCoeff[lmcs_min_bin_idx]到InvScaleCoeff[LmcsMaxBinIdx])排序,以形成通过InvScaleCoeff_sort表示的已排序数组。在一个示例中,可以将固定色度残差缩放因数推导为InvScaleCoeff_sort[j],其中,j是有效索引,例如,j=(最小索引+最大索引)>>1或者j=(最小索引+最大索引+1)>>1。在一个示例中,InvScaleCoeff_sort[]的最小索引可以为0,并且InvScaleCoeff_sort[]的最大索引可以为Size-1,其中,Size表示数组InvScaleCoeff_sort[]的尺寸,例如,Size=16。
iv.在以上示例中,对于InvScaleCoeff[i]的最小值,可以将其计算为InvScaleCoeff[j],其中,j是有效索引,例如,j等于最小索引(例如,JVET-M1001-v7中定义的lmcs_min_bin_idx)或0。
1.替代性地,可以首先将数组InvScaleCoeff或其部分(例如,从JVET-M1001-v7中定义的InvScaleCoeff[lmcs_min_bin_idx]到InvScaleCoeff[LmcsMaxBinIdx])排序为具有升序或降序,以形成通过InvScaleCoeff_sort表示的已排序数组。在一个示例中,可以将固定色度残差缩放因数推导为InvScaleCoeff_sort[j],其中,j为有效索引,例如,j等于处于升序当中的InvScaleCoeff_sort[]数组的最小索引,或者j等于处于降序当中的InvScaleCoeff_sort[]数组的最大索引。在一个示例中,InvScaleCoeff_sort[]的最小索引可以为0,并且InvScaleCoeff_sort[]的最大索引可以为Size-1,其中,Size表示数组InvScaleCoeff_sort[]的尺寸,例如,Size=16。
v.在以上示例中,可以通过InvScaleCoeff[j]计算InvScaleCoeff[j]的最大值,其中,j是有效索引,例如,j可以是最大索引或15。
vi.替代性地,可以首先将数组InvScaleCoeff或其部分(例如,从JVET-M1001-v7中定义的InvScaleCoeff[lmcs_min_bin_idx]到InvScaleCoeff[LmcsMaxBinIdx])排序为具有升序或降序,以形成通过InvScaleCoeff_sort表示的已排序数组。在一个示例中,可以由InvScaleCoeff_sort[j]推导固定色度残差缩放因数,其中,j为有效索引,例如,j等于处于升序当中的InvScaleCoeff_sort[]数组的最大索引,或者j等于处于降序当中的InvScaleCoeff_sort[]数组的最小索引或0。在一个示例中,InvScaleCoeff_sort[]的最小索引可以为0,并且InvScaleCoeff_sort[]的最大索引可以为Size-1,其中,Size表示数组InvScaleCoeff_sort[]的尺寸,例如,Size=16。
g)在一个示例中,可以采用固定值来表示用以推导色度缩放因数的分段函数索引。
i.在一个示例中,可以在诸如DPS/SPS/PPS/VPS/APS/条带标头/片组标头的视频单元中信令通知固定值。
ii.在一个示例中,该固定值可以表示亮度样点强度,其可以用于识别分段函数索引,并且所识别的分段函数被进一步用于找到色度缩放因数。
1)在一个示例中,该固定值等于0,或(1<<lumaBitDepth)–1,或1<<(lumaBitDepth-1),其中,lumaBitDepth表示亮度样点的比特深度。
2)在一个示例中,如果该固定值处于分段函数的输入范围内,则识别分段函数。
3)在一个示例中,如果该固定值处于分段函数的输出范围内,则识别分段函数。
4)在一个示例中,该固定值可以是选定值(例如,最大值、最小值、中值),或者可以是根据整形域中的选定样点值(例如,两个值的平均值)推导的。
a)假定色度缩放因数等于InvScaleCoeff[idxYInv],其中,idxYInv是通过整形后的变量v推导的分段索引,idxYInv=getPWLIdxInv(v)。采用函数fFwdReshaper()将原始域变量k(即,k可以是原始域亮度样点值)转换成整形域变量v,即,v=fFwdReshaper(k)。假定minY是由JVET-M1001-v7中定义的lmcs_min_bin_idx指示的原始域范围中的最小亮度值,并且maxY是由JVET-M1001-v7中定义的LmcsMaxBinIdx指示的原始域范围内的最大亮度值。
i.例如,固定分段函数索引idxYInv可以等于getPWLIdxInv(fFwdReshaper[0])。
ii.例如,固定分段函数索引idxYInv可以等于getPWLIdxInv(fFwdReshaper[(1<<lumaBitDepth)–1])。
iii.例如,固定分段函数索引idxYInv可以等于getPWLIdxInv((fFwdReshaper[0]+fFwdReshaper[(1<<lumaBitDepth)-1]+offset)>>1),例如,offset=0或1。
iv.例如,固定分段函数索引idxYInv可以等于getPWLIdxInv(fFwdReshaper[minY])。
v.例如,固定分段函数索引idxYInv可以等于getPWLIdxInv(fFwdReshaper[maxY])。
vi.例如,固定分段函数索引idxYInv可以等于getPWLIdxInv((fFwdReshaper[minY]+fFwdReshaper[maxY]+offset)>>1),例如,offset=0或1。
iii.在一个示例中,该固定值可以表示固定分段函数索引,其可以用于找到色度缩放因数。
1)在一个示例中,该固定值可以等于在LMCS构建过程中使用的最小二进制索引(例如,lmcs_min_bin_idx)。
2)在一个示例中,该固定值可以等于在LMCS构建过程中使用的最大二进制索引(例如,LmcsMaxBinIdx)。
3)在一个示例中,该固定值可以等于在LMCS构建过程中使用的最大二进制索引和最小二进制索引的平均值。
h)在一个示例中,在诸如DPS/SPS/PPS/VPS/APS/条带标头/片组标头的视频单元当中可以不信令通知而是推导该固定值。
i.例如,可以根据在APS级上信令通知的lmcs数据(例如,VVC规范JVET-M1001-v7中定义的lmcs_data())和/或在SPS级上信令通知的比特深度(例如,亮度比特深度)推导固定色度缩放因数。
ii.例如,可以在APS级上推导固定色度缩放因数。
1)在一个示例中,可以在不同APS单元处推导不同色度缩放因数。
2)在一个示例中,色度缩放因数的数量可以取决于APS单元的最大数量,即,色度缩放因数的数量小于T,例如,T=32。
3)在一个示例中,可以从APS级内的所有可用色度缩放因数中选出一个条带/片/图片的固定色度缩放因数。
4)在一个示例中,在条带/片/图片级上决定固定色度缩放因数,并将其用于所有CU/PU/TU色度分量。
关于是否应用色度残差缩放和/或CCLM的限制13.提出了是否应用色度残差缩放或CCLM可以取决于对应和/或共位亮度
块的分割。
a)在一个示例中,启用还是禁用具有跨分量信息的工具可以取决于共位亮度(例如,Y或G分量)块内的CU/PU/TU的数量。
i.在一个示例中,如果共位亮度(例如,Y或G分量)块内的CU/PU/TU的数量超过了数量阈值,那么可以禁用这样的工具。
ii.替代性地,启用还是禁用具有跨分量信息的工具可以取决于分割树深度。
1)在一个示例中,如果共位亮度块内的CU的最大(或最小或平均或其他变型)四叉树深度超过了阈值,那么可以禁用这样的工具。
2)在一个示例中,如果共位亮度块内的CU的最大(或最小或平均或其他变型)BT和/或TT深度超过了阈值,那么可以禁用这样的工具。
iii.替代性地,此外,启用还是禁用具有跨分量信息的工具可以取决于色度块的块维度。
iv.替代性地,此外,启用还是禁用具有跨分量信息的工具可以取决于共位亮度是否跨多个VPDU/预定义区域尺寸。
v.上文的讨论中的阈值可以是固定数值,或者可以是信令通知的,或者可以取决于标准简表/级别/层次。
b)在一个示例中,如果当前色度块的共位亮度块是通过多重分割划分的(例如,在图7中),那么可以禁止色度残差缩放和/或CCLM。
i.替代性地,如果当前色度块的共位亮度块未划分(例如,处于一个CU/TU/PU内),那么可以应用色度残差缩放和/或CCLM。
c)在一个示例中,如果当前色度块的共位亮度块含有超过M个CU/PU/TU,那么可以禁止色度残差缩放和/或CCLM。
i.在一个示例中,M可以是大于1的整数。
ii.在一个示例中,M可以取决于是CCLM过程还是色度残差缩放过程。
iii.M可以是固定数值,或者可以是信令通知的,或者可以取决于标准简表/级别/层次。
d)可以将上文提及的处于共位亮度块内的CU解释为该共位亮度块内的所有CU。替代性地,可以将上文提及的处于共位亮度块内的CU解释为该共位亮度块内的部分CU,例如,沿共位亮度块的边界的CU。
e)可以将上文提及的处于共位亮度块内的CU解释为子CU或子块。
i.例如,可以在ATMVP中使用子CU或子块;
ii.例如,可以在仿射预测中使用子CU或子块;
iii.例如,可以在帧内子分割(ISP)模式中使用子CU或子块。
f)在一个示例中,如果覆盖共位亮度块的左上亮度样点的CU/PU/TU大于预定义亮度块尺寸,那么可以禁止色度残差缩放和/或CCLM。
i.图8描述了一个示例,共位亮度块为32x32,但是其处于尺寸等于64x64的对应亮度块内,因而如果预定义亮度块尺寸为32x64,那么在这种情况下禁止色度残差缩放和/或CCLM。
ii.替代性地,如果当前色度块的共位亮度块未划分,并且覆盖共位亮度块的左上亮度样点的对应亮度块完全包括在预定义边界框内,那么可以对当前色度块应用色度残差缩放和/或CCLM。边界框可以被定义为具有宽度W和高度H的矩形,通过WxH表示,如图9所示,其中,对应亮度块具有宽度32和高度64,并且边界框具有宽度40和高度70。
1)在一个示例中,可以根据CTU宽度和/或高度,或者根据CU宽度和/或高度,或者根据任意值来定义边界框的尺寸WxH。
g)在一个示例中,如果当前色度块的共位亮度块是通过多重分割划分的,那么仅采用共位亮度块的预定义分割内的预测样点(或重建样点)来推导LMCS模式中的色度残差缩放因数。
i.在一个示例中,采用共位亮度块的第一分割内的所有预测样点(或重建样点)的平均值推导LMCS模式中的色度残差缩放因数。
ii.替代性地,采用共位亮度块的第一分割内的左上预测样点(或重建样点)推导LMCS模式中的色度残差缩放因数。
iii.替代性地,采用共位亮度块的第一分割内的中心预测样点(或重建样点)推导LMCS模式中的色度残差缩放因数。
h)提出了是否以及如何应用跨分量工具(诸如CCLM和LMCS)可以取决于覆盖共位亮度块的至少一个样点的一个或多个亮度CU的(多个)编解码模式。
i.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用仿射模式编解码的,那么禁用跨分量工具。
ii.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用双向预测编解码的,那么禁用跨分量工具。
iii.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用BDOF编解码的,那么禁用跨分量工具。
iv.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用DMVR编解码的,那么禁用跨分量工具。
v.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用如JVET-N0217中提出的矩阵仿射预测模式编解码的,那么禁用跨分量工具。
vi.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用帧间模式编解码的,那么禁用跨分量工具。
vii.例如,如果覆盖共位亮度块的至少一个样点的一个或多个亮度CU是用ISP模式编解码的,那么禁用跨分量工具。
viii.在一个示例中,“覆盖共位亮度块的至少一个样点的一个或多个亮度CU”可以指代对应亮度块。
i)在禁止CCLM/LMCS时,可以跳过对CCLM/LMCS的使用的指示的信令通知。
j)在本公开中,CCLM可以指代CCLM的任何变型模式,包括LM模式、LM-T模式和LM-L模式。
14.提出了是否以及如何可以对色度块的部分执行应用跨分量工具(诸如CCLM和LMCS)。
a)在一个示例中,是否以及如何在色度子块级上应用诸如CCLM和LMCS的跨分量工具。
i.在一个示例中,将色度子块定义为色度CU内的2x2或4x4块。
ii.在一个示例中,对于色度子块,在当前色度CU的对应亮度编解码块覆盖该子块的对应块的所有样点时,可以应用CCLM。
iii.在一个示例中,对于色度子块,在当前色度CU的对应亮度编解码块未覆盖该对应块的所有样点时,不应用CCLM。
iv.在一个示例中,在将每一色度子块视为色度CU时,为每一色度子块推导CCLM或LMCS的参数。
v.在一个示例中,在对色度子块应用CCLM或LMCS时,可以采用共位块的样点。
15.提出了是否以及如何应用诸如CCLM的跨分量工具可以取决于块维度和/或分割信息和/或分割结构类型(例如,双重树或单一树)。
a)在一个示例中,对于色度双重树分割可以禁用CCLM。
b)在一个示例中,可以依据块维度而有条件地禁用CCLM。
i.在一个示例中,假定当前块维度为WB×HB,那么可以依据WB、HB和两个整数T1和T2之间的关系禁用以下CCLM。
1)在一个示例中,如果WB>=T1并且HB>=T2,那么可以禁用CCLM。例如,T1=T2=8。
2)在一个示例中,如果WB*HB>=T1,那么可以禁用CCLM。例如,T1=64。
3)在一个示例中,如果Min(WB,HB)>=T1,那么可以禁用CCLM。例如,T1=8。
4)在一个示例中,如果Max(WB,HB)>=T1,那么可以禁用CCLM。例如,T1=8。
5)在一个示例中,如果WB<=T1and HB<=T2,那么可以禁用CCLM。例如,T1=T2=16。
6)在一个示例中,如果WB*HB<=T1,那么可以禁用CCLM。例如,T1=4096。
7)在一个示例中,如果Min(WB,HB)<=T1,那么可以禁用CCLM。例如,T1=64。
8)在一个示例中,如果Max(WB,HB)<=T1,那么可以禁用CCLM。例如,T1=64。
c)在一个示例中,可以通过块维度和/或分割信息限制CCLM。
i.在一个示例中,对于具有维度WB×HB的色度块,如果满足以下条件中的一个或多个,那么禁用CCLM。例如,WB=HB=32。在下面的项目符号当中,共位亮度块维度可以是(sh×WB)×(sv×HB),其中,sh和sv是缩放因数。例如,在颜色格式为4:2:0时,sh=sv=2。
1)当前色度块处于具有水平划分的叶节点处,并且共位亮度块处于具有垂直划分的叶节点处。
a)在一个示例中,当前色度块是采用SPLIT_TT_HOR模式划分的,并且共位亮度块是采用SPLIT_TT_VER模式划分的。
b)在一个示例中,当前色度块是采用SPLIT_TT_HOR模式划分的,并且共位亮度块是采用SPLIT_BT_VER模式划分的。
c)在一个示例中,当前色度块是采用SPLIT_BT_HOR模式划分的,并且共位亮度块是采用SPLIT_TT_VER模式划分的。
d)在一个示例中,当前色度块是采用SPLIT_BT_HOR模式划分的,并且共位亮度块是采用SPLIT_BT_VER模式划分的。
2)当前色度块处于具有垂直划分的叶节点处,并且共位亮度块处于具有水平划分的叶节点处。
a)在一个示例中,当前色度块是采用SPLIT_TT_VER模式划分的,并且共位亮度块是采用SPLIT_TT_HOR模式划分的。
b)在一个示例中,当前色度块是采用SPLIT_TT_VER模式划分的,并且共位亮度块是采用SPLIT_BT_HOR模式划分的。
c)在一个示例中,当前色度块是采用SPLIT_BT_VER模式划分的,并且共位亮度块是采用SPLIT_TT_HOR模式划分的。
d)在一个示例中,当前色度块是采用SPLIT_BT_VER模式划分的,并且共位亮度块是采用SPLIT_BT_HOR模式划分的。
d)在一个示例中,如果对块禁用CCLM,那么可以不在该块中信令通知与CCLM有关的语法元素。
i.替代性地,如果对块禁用CCLM,那么可以信令通知与CCLM有关的语法元素,但是不应在一致性比特流中的该块当中使用CCLM模式。
ii.替代性地,如果对块禁用CCLM,那么可以信令通知与CCLM有关的语法元素。如果信令通知了CCLM模式,那么可以应用诸如平面或DC的默认模式。
LMCS模式中的色度残差缩放的适用性
16.提出了除了如JVET-M1001中规定的片组标头之外可以在其他语法级别上信令通知是否能够应用亮度相关的色度残差缩放。
a)例如,可以在序列级上(例如,在SPS中),在图片级上(例如,在PPS或图片标头中),在条带级上(例如,在条带标头中),在片级上,在CTU行级上,在CTU级上,在CU级上信令通知等于1规定对处于信令通知语法级以下的CU启用色度残差缩放。/>等于0规定对处于信令通知语法级以下的CU不启用色度残差缩放。在chroma_residual_scale_flag不存在时,推断其等于0。
b)在一个示例中,如果在分割节点级上限制色度残差缩放。那么对于被该分割节点覆盖的CU可以不信令通知并且可以将其推断为0。在一个示例中,分割节点可以是CTU(将CTU视为四叉树分割的根节点)。
c)在一个示例中,如果针对等于或小于32x32的色度块尺寸限制色度残差缩放,那么对于等于或者小于32x32的色度块尺寸可以不信令通知并且将其推断为0。
CCLM模式的适用性
17.提出了除了如JVET-M1001中规定的sps级之外可以在其他语法级别上信令通知是否能够应用CCLM模式。
a)例如,可以在图片级上(例如,在PPS或图片标头中),在条带级上(例如,在条带标头中),在片组级上(例如,在片组标头中),在片级上,在CTU行级上,在CTU级上,在CU级上对其做信令通知。
b)在一个示例中,如果不能应用CCLM,那么可以不信令通知并且可以将其推断为0。
i.在一个示例中,如果针对等于或小于8x8的色度块尺寸限制色度残差缩放,那么对于等于或者小于8x8的色度块尺寸可以不信令通知并且将其推断为0。
针对帧内模式和帧间模式的色度残差缩放因数推导的统一
18.可以在对亮度块编码/解码之后推导色度残差缩放因数,并且可以将其
存储并将其用于随后的编解码块。
a)在一个示例中,亮度块中的某些预测样点或/和中间预测样点或/和重建样点或/和环路滤波之前的重建样点(例如,在由去方块滤波器或/和SAO滤波器或/和双边滤波器或/和哈达玛变换滤波器或/和ALF滤波器处理之前)可以用于色度残差缩放因数的推导。
i.例如,亮度块的底部行或/和右侧列中的部分样点可以用于色度残差缩放因数的推导。
b)在单一树情况下,在对按照帧内模式或/和IBC模式或/和帧间模式编解码的块进行编码时,邻近块的所推导的色度残差缩放因数可以用于当前块的缩放因数的推导。
i.在一个示例中,可以按顺序检查某些邻近块,并且第一可用色度残差缩放因数可以用于当前块。
ii.在一个示例中,可以按顺序检查某些邻近块,并且可以基于前K个可用邻近色度残差缩放因数来推导缩放因数。
iii.在一个示例中,对于按照帧间模式或/和CIIP模式编解码的块,如果邻近块是按照帧内模式或/和IBC模式或/和CIIP模式编解码的,那么可以认为该邻近块的色度残差缩放因数“不可用”。
iv.在一个示例中,可以按照左侧(或左上)->上方(或右上)的顺序检查邻近块。
1)替代性地,可以按照上方(或者右上)->左侧(或左上)的顺序检查邻近块。
c)在单独树情况下,在对色度块编码时,可以首先识别对应亮度块。之后,可以将它(例如,该对应亮度块)的邻近块的所推导的色度残差缩放因数用于推导当前块的缩放因数。
i.在一个示例中,可以按顺序检查某些邻近块,并且可以将第一可用色度残差缩放因数用于当前块。
ii.在一个示例中,可以按顺序检查某些邻近块,并且可以基于前K个可用邻近色度残差缩放因数推导缩放因数。
d)可以按照预定义顺序检查邻近块。
i.在一个示例中,可以按照左侧(或左上)->上方(或右上)的顺序检查邻近块。
ii.在一个示例中,可以按照上方(或者右上)->左侧(或左上)的顺序检查邻近块。
iii.在一个示例中,可以按照左下->左侧->右上->上方->左上的顺序检查邻近块。
iv.在一个示例中,可以按照左侧->上方->右上->左下->左上的顺序检查邻近块。
e)在一个示例中,是否应用色度残差缩放可以取决于邻近块的“可用性”。
i.在一个示例中,在没有“可用的”邻近块时,可以不允许色度残差缩放。
ii.在一个示例中,在“可用的”邻近块的数量小于K(K>=1)时,可以不允许色度残差缩放。
iii.替代性地,在没有“可用的”邻近块时,可以通过默认值推导色度残差缩放因数。
1)在一个示例中,可以采用默认值1<<(BitDepth-1)推导色度残差缩放因数。
f)在一个示例中,可以存储当前色度块的色度残差缩放因数,并将其用于随后的编解码块。
g)在一个示例中,可以从线缓冲区去除色度残差缩放因数的存储。
i.在一个示例中,在当前块和待访问的邻近(毗邻或非毗邻)块处于不同区域内时,可以认为其色度残差缩放因数“不可用”,并且可以不采用其推导当前块的色度残差缩放因数。
1)区域可以是条带、片、片组、CTU行或CTU。
2)替代性地,在这样的情况下可以认为其色度残差缩放因数是默认值。
3)替代性地,在这样的情况下不能应用色度残差缩放。
h)在一个示例中,可以即时更新当前色度块的色度残差缩放因数,并且可以将其保存到用于随后块的缩放因数推导的历史表格当中。
i.可以按照FIFO(先进先出)方式更新历史表格。
ii.在对色度块解码/编码之后,可以推导色度残差缩放因数(例如,根据亮度值),并且可以将其存储到FIFO历史表格当中。
iii.在一个示例中,FIFO历史表格可以最多包括1个条目。在这种情况下,将最后解码块的推导色度残差缩放因数用于当前块。
iv.在一个示例中,在对图片和/或条带和/或片组和/或片和/或CTU行和/或CTU编码/解码之前刷新历史表格。
1)在一个示例中,在刷新历史表格时,可以将默认色度残差缩放因数放到历史表格当中。
2)在一个示例中,在刷新FIFO历史表格时,将历史表格设置为空。
用于色度残差缩放的新语法元素
19.提出了可以信令通知一个或多个新语法元素,以推导在色度残差缩放过程中使用的缩放因数。
a)在一个示例中,可以将这些语法元素添加至LMCS APS数据(例如,VVC规范中lmcs_data()),以用于LMCS编解码工具的色度残差缩放。
b)在一个示例中,可以将这些语法元素添加至SPS/条带标头/片组标头/PPS/图片标头/图块/CTU行/CTU/CU等。
i.如果在视频单元中信令通知这些语法元素,那么它们可以控制与该视频单元相关联的所有块中的缩放因数。例如,如果它们是在条带标头中信令通知的,那么它们可以控制该条带中的所有块当中的缩放因数。
1)替代性地,如果这些语法元素是在视频单元中信令通知的,那么它们可以控制与该视频单元相关联的一些块中的缩放因数。
ii.在一个示例中,可以在VPDU级上信令通知该语法元素。
iii.在一个示例中,可以针对具有VPDU级和CTU级之间的较小尺寸的单元信令通知该语法元素。
1)在一个示例中,假定CTU宽度为W,VPDU宽度为W′。将该单元设置为min(W<W′)。
iv.在一个示例中,当CU尺寸大于VPDU时,在一个级别(例如,VPDU)内信令通知该语法元素。否则,在另一个级别(例如,CU)内信令通知该语法元素。
c)在一个示例中,可以对新语法元素(例如,即lmcs_crs_fixed_bin_idx)编解码,以推导用于色度残差缩放的色度缩放因数。
i.在一个示例中,lmcs_crs_fixed_bin_idx可以用于呈现用于推导缩放因数的代表性亮度值。
ii.替代性地,lmcs_crs_fixed_bin_idx可以用于呈现用于推导缩放因数的索引,例如,该索引是针对查找表ChromaScaleCoeff的索引。
iii.替代性地,此外,lmcs_crs_fixed_bin_idx的值必须处于范围[k0,k1]内。在一个示例中,lmcs_crs_fixed_bin_idx的范围可以被设置为等于带有色度缩放的亮度映射构建过程中的最小(例如,lmcs_min_bin_idx)和/或最大二进制索引的范围,例如,[0,15]。
1)在一个示例中,lmcs_crs_fixed_bin_idx必须处于一致性比特流中的有效范围内。
2)在一个示例中,按照使得lmcs_crs_fixed_bin_idx必须处于有限范围内的方式对lmcs_crs_fixed_bin_idx编解码。
iv.替代性地,此外,可以采用固定长度、截断一元码、一元码、指数哥伦布(exp-golomb)编解码对lmcs_crs_fixed_bin_idx编解码。
v.替代性地,此外,可以对lmcs_crs_fixed_bin_idx预测编解码,例如,使用在带有色度缩放的亮度映射构建过程中使用的最小和最大二进制索引的平均值(例如,(lmcs_min_bin_idx+lmcs_max_bin_idx+offset)>>1),其中,将offset设置为0或1,以作为该预测。替代性地,可以采用lmcs_min_bin_idx或lmcs_max_bin_idx作为该预测。
vi.替代性地,此外,可以对lmcs_crs_fixed_bin_idx进行条件性编解码。
1)在一个示例中,在当前颜色格式不是4:0:0时。
2)在一个示例中,在禁用单独平面编解码时。
3)在一个示例中,在ChromaArrayType不等于0时。
4)在一个示例中,在启用色度残差缩放时。
d)在一个示例中,对于共享相同LMCS模型的所有色度残差缩放块,可以使用通过(多个)新语法元素推导的固定色度缩放因数。
i.在一个示例中,对一个IDR/CRA/IRAP图片计算一次由lmcs_crs_fixed_bin_idx索引的固定色度缩放因数,并且将其用于IDR/CRA/IRAP图片内的所有块。
ii.在一个示例中,一个IDR/CRA/IRAP图片计算一次由lmcs_crs_fixed_bin_idx索引的固定色度缩放因数,并且将其用于下一IDR/CRA/IRAP图片之前的帧间编解码图片中的所有块。
e)在一个示例中,可以信令通知或推导语法元素(例如,标志),以表示视频单元/区域内所有块(诸如CTU/VPDU/CU)是否共享相同缩放因数。
i.在一个示例中,视频单元/区域可以是序列/图片/条带/片/图块/CTU行/CTU/VPDU等。
ii.在一个示例中,可以在SPS/条带标头/片组标头/PPS/图片标头/图块/CTU行/CTU/VPDU级等当中信令通知该语法元素。
iii.在一个示例中,如果该语法元素指示视频单元/区域内的所有块(诸如CTU/VPDU/CU)不共享相同的缩放因数,那么可以信令通知或推导一个或多个额外语法元素,以指示一个或多个块的(多个)缩放因数。
f)在一个示例中,可以在视频区域级别(诸如序列/图片/条带/片/图块/CTU行/CTU/VPDU等)内信令通知或推导视频单元内共享相同缩放因数的CTU/VPDU/CU的数量(表示为T)。
i.在一个示例中,可以按照预测方式对视频单元内共享相同缩放因数的CTU/VPDU/CU的数量(表示为T)编解码,例如,可以对(T-1)而非T编解码;替代性地,可以转而对(视频单元中的CTU/VPDU/CU的数量–T)编解码。
ii.在一个示例中,可以在SPS/条带标头/片组标头/PPS/图片标头/图块/CTU行/CTU/VPDU级等当中信令通知视频单元内共享相同缩放因数的CTU/VPDU/CU的数量(表示为T)。
iii.在一个示例中,视频单元中的每T个连续CTU/VPDU/CU共享相同缩放因数。
1)如果在对第一CTU/VPDU/CU解码之后对第二CTU/VPDU/CU解码,那么将第一CTU/VPDU/CU和第二CTU/VPDU/CU定义为是连续的。
iv.在一个示例中,T可以等于当前视频单元中的CTU/VPDU/CU的数量。
v.在一个示例中,T可以处于范围[T1,T2]内,包括T1和T2。例如,T1等于1,并且T2等于当前视频单元中的CTU/VPDU/CU的数量。
1)在一个示例中,可以根据该范围信令通知T。例如,信令通知T-T1,并且T-T1的最大信令通知值为T2-T1。
2)在一个示例中,T必须处于从一致性比特流解析出的范围内。
vi.在一个示例中,可以按照预测方式对T编解码。
1)在一个示例中,可以通过固定数值预测T。
2)在一个示例中,可以使用其先前编解码单元/区域的信息按照预测方式对T编解码。
a)例如,可以根据第二视频单元内的共享相同缩放因数的CTU/VPDU/CU的数量(表示为T2)预测第一视频单元内的共享相同缩放因数的CTU/VPDU/CU的数量(表示为T1)。
vii.可以将T(可以是预测后的)二值化为一元/截断一元/固定长度/指数哥伦布/截断二元代码。
viii.可以采用无需任何上下文的旁路编解码或者使用一个或多个上下文的算术编解码对T(可以是预测后的)编解码。
ix.在一个示例中,可以由多个变量推导T,该多个变量可以是信令通知的。
1)例如,在T等于M×N时,可以信令通知M和N而非T。
a)也可以对M和/或N应用这一关于T的项目符号中的所公开方法。
g)在一个示例中,可以在SPS/条带标头/片组标头/PPS/图片标头/图块/CTU行/CTU/VPDU级等当中信令通知或推导视频单元中共享相同缩放因数的CTU/VPDU/CU的区域。
i.在一个示例中,如果视频单元按照光栅扫描顺序包括一定数量的CTU/VPDU/CU,那么可以通过第一CTU/VPDU/CU地址(或索引)和/或最后CTU/VPDU/CU地址(或索引)和/或CTU/VPDU/CU的数量表示视频单元内的共享相同缩放因数的CTU/VPDU/CU的区域。
1)在一个示例中,可以信令通知第一CTU/VPDU/CU地址(索引)和最后CTU/VPDU/CU索引。
2)在一个示例中,可以信令通知该第一CTU/VPDU/CU索引和共享相同缩放因数的CTU/VPDU/CU的数量。
ii.在一个示例中,如果视频单元包括共同形成图片内的矩形区域的一定数量的CTU/VPDU/CU,那么可以通过左上CTU/VPDU/CU地址(索引)和右下CTU/VPDU/CU地址(索引)表示视频单元内的共享相同缩放因数的CTU/VPDU/CU的区域。
1)在一个示例中,可以信令通知左上CTU/VPDU/CU地址(或索引)和右下CTU/VPDU/CU地址(或索引)。
2)在一个示例中,可以信令通知第一CTU/VPDU/CU地址(或索引)和最后CTU/VPDU/CU索引。
3)在一个示例中,可以信令通知该第一CTU/VPDU/CU地址(或索引)和共享相同缩放因数的CTU/VPDU/CU的数量。
iii.在一个示例中,可以将该区域定义为其宽度(表示为W)和高度(表示为H)。W可以指在该视频单元/区域内有W个CTU/VPDU/CU,并且H可以指在该视频单元/区域内有H个CTU/VPDU/CU。
1)在一个示例中,如果该区域的一个或多个部分处于当前图片或条带或片或图块之外,被编解码到共享相同色度缩放因数的区域内的CTU/VPDU/CU的数量可以少于W×H。
2)在一个示例中,W可以等于沿当前视频单元的宽度的CTU/VPDU/CU数量。
3)在一个示例中,H可以等于沿当前视频单元的高度的的CTU/VPDU/CU数量。
4)在一个示例中,W可以处于范围[W1,W2]内,包括W1和W2。例如,W1等于1,并且W2等于当前视频单元中的CTU行中的CTU的数量。
a)在一个示例中,可以根据该范围信令通知W。例如,信令通知W-W1,并且W-W1的最大信令通知值为W2-W1。
b)在一个示例中,W必须处于从一致性比特流解析出的范围内。
5)在一个示例中,H可以处于范围[H1,H2]内,包括H1和H2。例如,H1等于1,并且H2等于当前视频单元中的CTU列中的CTU的数量。
a)在一个示例中,可以根据该范围信令通知H。例如,信令通知H-H1,并且H-H1的最大信令通知值为H2-H1。
b)在一个示例中,H必须处于从一致性比特流解析出的范围内。
6)在一个示例中,可以按照预测方式对W或H编解码。
a)在一个示例中,可以通过固定数值预测W或H。
b)在一个示例中,可以使用其先前编解码单元/区域的信息按照预测方式对W或H编解码。
i.例如,可以根据共享相同缩放因数的第二区域的W或H预测共享相同缩放因数的第一区域的W或H。
7)可以将W或H(可以是预测后的)二值化为一元/截断一元/固定长度/指数哥伦布/截断二元代码。
8)可以采用无需任何上下文的旁路编解码或者使用一个或多个上下文的算术编解码对W或H(可以是预测后的)编解码。
iv.在一个示例中,可以顺序地对具有W×H个CTU/VPDU/CU的第一区域和具有W×H个CTU/VPDU/CU的第二区域解码。
v.在一个示例中,可以按照交替顺序对两个区域内的CTU解码。
–例如,解码顺序可以是第一区域内的第一行内的CTU。
–第二区域的第一行内的CTU。
–第一区域的第一行内的CTU。
–第二区域的第二行内的CTU。
–第一区域的第二行内的CTU。
20.可以在相继视频单元/区域之间对色度缩放因数的指示进行预测编解码。
a)在一个示例中,对于每一个要信令通知色度残差缩放信息的视频单元/区域,可以信令通知或推导语法元素(例如,标志),以指示其是否与其先前编解码视频单元/区域相同。
b)在一个示例中,可以信令通知当前视频单元与先前视频单元的色度缩放因数之间的差。
i.例如,可以信令通知一个或多个语法元素,以指示该差。
1)在一个示例中,可以信令通知两个语法元素,诸如绝对Δ和Δ符号标志,以表示该差。
a)在一个示例中,根据绝对Δ有条件地信令通知Δ符号标志。在一个示例中,如果绝对Δ等于0,那么不信令通知Δ符号标志。
ii.例如,如果不信令通知该差,那么将其推断为0,并且可以意味着信令通知的色度缩放因数与先前色度缩放因数相同。
21.本发明中的术语“缩放因数”可以指缩放因数索引或缩放因数值。“共享相同缩放因数”可以指“共享相同缩放因数索引”或者“共享相同缩放因数值”。
a)在一个示例中,块内的样点可以共享相同缩放因数索引,但是它们可以具有不同的缩放因数值。
b)在一个示例中,块内的样点可以共享相同缩放因数索引,并且它们可以具有相同的缩放因数值。
22.本发明中的视频单元/区域可以指序列/GOP(图片群组)/帧内周期/图片/
条带/片/图块/VPDU/CTU行/CTU群组/CTU/CU。
5.实施例
5.1实施例#1
下文讨论的示例实施例是针对章节4的项目11中的例示性方法的。
通过下划线和粗体文本示出了新添加的部分,并且通过双重方括号[[..]]和粗体示出了从VVC工作草案中删除的部分。修改以最新VVC工作草案(JVET-M1007-v7)和JVET-N220-v3中的最新采纳方案为基础。
8.7.5.4采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–否则(tile_group_chroma_residual_scale_flag等于1并且nCurrSw*nCurrSh大于4),以下内容适用:
–对于变量varScale的推导,以下有序步骤适用:
1.如下推导变量invAvgLuma:
通过在以invAvgLuma作为输入并且以idxYInv作为输出的情况下调用条款8.7.5.3.2中规定的分段函数索引的标识推导变量idxYInv。
2.如下推导变量varScale:
varScale=ChromaScaleCoeff[idxYInv] (8-1065)
–如下推导recSamples:
–如果tu_cbf_cIdx[xCurr][yCurr]等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),1<<BitDepthC-1,resSamples[i][j])
–否则(tu_cbf_cIdx[xCurr][yCurr]等于0),以下内容适用:
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]) (8-1067)
5.2实施例#2
以下实施例是针对本发明的描述的项目11中的方法的。
通过下划线和粗体示出了新添加的部分,并且通过双重方括号[[..]]和粗体文本示出了从VVC工作草案中删除的部分。修改以最新VVC工作草案(JVET-M1007-v7)和JVET-N220-v3中的最新采纳方案为基础。
如下列举了实施例#2和实施例#1之间的差异:
–检查多个邻近亮度样点,以推导色度残差缩放因数。
–在邻近亮度样点不可用时,或者在邻近亮度按照INTRA/CIIP/IBC模式编解码,而当前亮度按照INTER模式编解码时,#2使用色度残差缩放因数推导的默认值。
8.7.5.4采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
/>
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–如果tile_group_chroma_residual_scale_flag等于0或者nCurrSw*nCurrSh小于或等于4,那么以下内容适用:
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j]+resSamples[i][j])
(8-1063)
–否则(tile_group_chroma_residual_scale_flag等于1并且nCurrSw*nCurrSh大于4),以下内容适用:
–对于变量varScale的推导,以下有序步骤适用:
–如下推导变量invAvgLuma:
通过在以invAvgLuma作为输入并且以idxYInv作为输出的情况下调用条款8.7.5.3.2中规定的分段函数索引的标识来推导变量idxYInv。
如下推导变量varScale:
varScale=ChromaScaleCoeff[idxYInv] (8-1065)
–如下推导recSamples:
–如果tu_cbf_cIdx[xCurr][yCurr]等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),
1<<BitDepthC-1,resSamples[i][j])
–否则(tu_cbf_cIdx[xCurr][yCurr]等于0),以下内容适用:
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]) (8-1067)
5.3实施例#3
以下实施例是针对本发明的描述的项目12中的方法的。
通过粗斜体突出表示新添加的部分,并且通过双重方括号[[..]]和粗体文本突出表示从VVC工作草案删除的部分。修改以最新VVC工作草案(JVET-M1007-v7)和JVET-N220-v3中的最新采纳方案为基础。
8.7.5.4采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–如果slice_chroma_residual_scale_flag等于0或者nCurrSw*nCurrSh小于或等于4,那么以下内容适用:
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j]+resSamples[i][j]) (8-1063)
–否则(slice_chroma_residual_scale_flag等于1并且nCurrSw*nCurrSh大于4),以下内容适用:
–对于变量varScale的推导,以下有序步骤适用:
3.如下推导变量varScale:
–如下推导recSamples:
–如果tu_cbf_cIdx[xCurr][yCurr]等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),1<<BitDepthC-1,resSamples[i][j])
–否则(tu_cbf_cIdx[xCurr][yCurr]等于0),以下内容适用:
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]) (8-1067)
5.4实施例#4
以下实施例是针对本发明的描述的项目12中的方法的。
通过粗斜体突出表示新添加的部分,并且通过双重方括号[[..]]突出表示从VVC工作草案删除的部分。修改以最新VVC工作草案(JVET-M1007-v7)和JVET-N220-v3中的最新采纳方案为基础。
8.7.5.4采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–如果slice_chroma_residual_scale_flag等于0或者nCurrSw*nCurrSh小于或等于4,那么以下内容适用:
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j]+resSamples[i][j]) (8-1063)
–否则(slice_chroma_residual_scale_flag等于1并且nCurrSw*nCurrSh大于4),以下内容适用:
–对于变量varScale的推导,以下有序步骤适用:
1.如下推导变量invAvgLuma:
2.通过在以invAvgLuma作为输入并且以idxYInv作为输出的情况下调用条款8.7.5.3.2中规定的分段函数索引的标识推导变量idxYInv。
3.如下推导变量varScale:
varScale=ChromaScaleCoeff[idxYInv] (8-994)
–如下推导recSamples:
–如果tu_cbf_cIdx[xCurr][yCurr]等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),1<<BitDepthC-1,resSamples[i][j])
–否则(tu_cbf_cIdx[xCurr][yCurr]等于0),以下内容适用:
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]) (8-1067)
5.5实施例#5
以下实施例是针对本发明的描述的项目12中的方法的。
通过粗斜体突出表示新添加的部分,并且通过双重方括号[[..]]突出表示从VVC工作草案删除的部分。修改以最新VVC工作草案(JVET-M1007-v7)和JVET-N220-v3中的最新采纳方案为基础。
7.4.5.4带有色度缩放的亮度映射数据语义
如下推导变量ChromaScaleCoeff[i],其中,i=0…15:
8.7.5.4采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–如果slice_chroma_residual_scale_flag等于0或者nCurrSw*nCurrSh小于或等于4,那么以下内容适用:
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j]+resSamples[i][j]) (8-1063)
–否则(slice_chroma_residual_scale_flag等于1并且nCurrSw*nCurrSh大于4),以下内容适用:
–[[
–对于变量varScale的推导,以下有序步骤适用:
1.如下推导变量invAvgLuma:
2.通过在以invAvgLuma作为输入并且以idxYInv作为输出的情况下调用条款8.7.5.3.2中规定的分段函数索引的标识推导变量idxYInv。
3.如下推导变量varScale:
varScale=ChromaScaleCoeff[idxYInv] (8-994)
]]
–如下推导recSamples:
–如果tu_cbf_cIdx[xCurr][yCurr]等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),1<<BitDepthC-1,resSamples[i][j])
–否则(tu_cbf_cIdx[xCurr][yCurr]等于0),以下内容适用:
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]) (8-1067)
5.6实施例#6
以下实施例是针对前一章节中的列举的项目19中的方法的。
可以如下改变在JVET-N1001-v8中规定的工作草案(下划线或粗斜体用于突出表示,删除线用于删除)。
7.3.4.4带有色度缩放的亮度映射数据语法
/>
7.4.6.4带有色度缩放的亮度映射数据语义
指定在带有色度缩放的亮度映射构建过程中用以推 导色度缩放因数的二进制索引。/> 的值应当在0到15的范围内,包 括0和15。
如下推导变量ChromaScaleCoeff[i],其中,i=0…15:
如下推导变量varScale:
8.7.5.3采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前色度变换块的编解码块标志的变量tuCbfChroma,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–如果以下条件之一为真,那么将recSamples[xCurr+i][yCurr+j]设置为等于Clip1C(predSamples[i][j]+resSamples[i][j]):
–slice_chroma_residual_scale_flag等于0
–nCurrSw*nCurrSh小于或等于4
–tu_cbf_cb[xCurr][yCurr]等于0,并且tu_cbf_cr[xCurr][yCurr]等于0
–否则,以下内容适用:
–[[
–对于变量varScale的推导,以下有序步骤适用:
1.如下推导变量invAvgLuma:
2.通过在以被设置为等于invAvgLuma的变量lumaSample作为输入并且以idxYInv作为输出的情况下调用在条款8.8.2.3中规定的用于亮度样点的分段函数索引过程的标识来推导变量idxYInv。
3.如下推导变量varScale:
varScale=ChromaScaleCoeff[idxYInv]
]]
–如下推导recSamples:
–如果tuCbfChroma等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),(1<<BitDepthC)-1,resSamples[i][j])
(8-998)
–否则(tu_cbf等于0),则以下适用:
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j])
5.7实施例#7
以下实施例是针对本发明的描述的项目12中的方法的。
可以如下改变JVET-N1001-v8中规定的工作草案。
7.4.6.4带有色度缩放的亮度映射数据语义
如下推导变量ChromaScaleCoeff[i],其中,i=0…15:
如下推导变量varScale:
varScale=ChromaScaleCoeff[(lmcs_min_bin_idx+LmcsMaxBinIdx)>>1]
8.7.5.3采用针对色度样点的亮度相关色度残差缩放过程的图片重建
这一过程的输入为:
–当前变换块的左上样点相对于当前图片的左上样点的位置(xCurr,yCurr),
–指定变换块宽度的变量nCurrSw,
–指定变换块高度的变量nCurrSh,
–指定当前色度变换块的编解码块标志的变量tuCbfChroma,
–指定当前块的色度预测样点的(nCurrSw)x(nCurrSh)阵列predSamples,
–指定当前块的色度残差样点的(nCurrSw)x(nCurrSh)阵列resSamples。
这一过程的输出是重建的色度图片样点阵列recSamples。
对于i=0..nCurrSw-1,j=0..nCurrSh-1,如下推导重建色度图片样点recSamples:
–如果以下条件之一为真,那么将recSamples[xCurr+i][yCurr+j]设置为等于Clip1C(predSamples[i][j]+resSamples[i][j]):
–slice_chroma_residual_scale_flag等于0
–nCurrSw*nCurrSh小于或等于4
–tu_cbf_cb[xCurr][yCurr]等于0,并且tu_cbf_cr[xCurr][yCurr]等于0
–否则,以下内容适用:
–[[
–对于变量varScale的推导,以下有序步骤适用:
1.如下推导变量invAvgLuma:
2.通过在以被设置为等于invAvgLuma的变量lumaSample作为输入并且以idxYInv作为输出的情况下调用在条款8.8.2.3中指定的用于亮度样点的分段函数索引过程的标识推导变量idxYInv。
3.如下推导变量varScale:
varScale=ChromaScaleCoeff[idxYInv]
]]
–如下推导recSamples:
–如果tuCbfChroma等于1,那么以下内容适用:
resSamples[i][j]=Clip3(-(1<<BitDepthC),(1<<BitDepthC)-1,resSamples[i][j])
(8-998)
–否则(tu_cbf等于0),则以下适用:
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j])
6.所公开技术的示例实施方式
图10是视频处理装置1000的框图。装置1000可以用于实施本文描述的方法中的一个或多个。装置1000可以体现在智能手机、平板电脑、计算机、物联网(IoT)接收器等当中。装置1000可以包括一个或多个处理器1002、一个或多个存储器1004和视频处理硬件1006。(多个)处理器1002可以配置为实施本文中描述的一种或多种方法(包括,但不限于方法800和900)。(多个)存储器1004可以用于存储用于实施本文描述的方法和技术的数据和代码。视频处理硬件1006可用于在硬件电路***中实施本文档中描述的一些技术。
在一些实施例中,可以使用在关于图10描述的硬件平台上实施的装置来实施这些视频编解码方法。
图11示出了根据所公开技术的用于跨分量预测的线性模型推导的示例方法1100的流程图。方法1100包括在步骤1110中执行当前视频块与当前视频块的比特流表示之间的转换,其中,在转换期间,由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中,第一组颜色分量值可用于视频编解码步骤的线性模型当中。
可以利用以下基于条款的格式来描述一些实施例。
1.一种用于视频处理的方法,包括:
执行当前视频块与当前视频块的比特流表示之间的转换,其中,在转换期间,由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中,第一组颜色分量值可用于视频编解码步骤的线性模型中。
2.根据条款1所述的方法,其中,在将第一组颜色分量值用于视频编解码步骤的线性模型之前,对第一组颜色分量值进行插值。
3.根据条款1-2中的任何一项或多项所述的方法,其中,第一组颜色分量值的线性组合可被用作线性模型的参数。
4.根据条款1所述的方法,其中,至少部分地基于当前视频块的运动信息选择包括在一个或多个参考帧内的第一组颜色分量值的位置。
5.根据条款4所述的方法,其中,一个或多个参考帧内的亮度分量的位置是由当前视频块中的对应亮度分量值的位置和当前视频块的运动信息计算的。
6.根据条款5所述的方法,其中,对应亮度分量值的位置是当前视频块中的左上样点、中心样点或右下样点。
7.根据条款6所述的方法,其中,当前视频块的运动信息对应于整数运动矢量或分数运动矢量。
8.根据条款7所述的方法,其中,使用一个或多个参考帧中的分数亮度分量值推导分数运动矢量。
9.根据条款7所述的方法,其中,通过朝向零或背离零的舍入推导整数运动矢量。
10.根据条款1所述的方法,其中,包括在一个或多个参考帧内的第一组颜色分量值的位置是预定义位置。
11.根据条款1-10中的任何一项或多项所述的方法,其中,采用第一组颜色分量值的中值或平均值推导当前视频块的第二组颜色分量值。
12.根据条款1-11中的任何一项或多项所述的方法,其中,该一个或多个参考帧是预定义参考帧。
13.根据条款12所述的方法,其中,预定义参考帧包括具有参考图片列表的参考索引的帧。
14.根据条款13所述的方法,其中,参考索引为0,并且参考图片列表为0。
15.根据条款13所述的方法,其中,在与以下内容项中的一个或多个相关联的比特流表示中信令通知参考索引和/或参考图片列表:序列、图片、片、组、条带、片、编解码树单元行或视频块。
16.根据条款1所述的方法,其中,当前视频块的第二组颜色分量值是由包括在一个或多个参考帧内的第一组颜色分量值的数学中值或加权平均值推导的。
17.根据条款1所述的方法,其中,基于当前视频块是否是双向预测编解码块,选择性地由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值。
18.根据条款17所述的方法,其中,对于第一组颜色分量值的每个预测方向,单独推导当前视频块的第二组颜色分量值。
19.根据条款1所述的方法,其中,基于当前视频块是否与基于子块的预测相关联,选择性地由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值。
20.根据条款1所述的方法,其中,基于子块的预测对应于仿射预测或者可选时域运动矢量预测(ATMVP)。
21.根据条款19-20中的任何一项或多项所述的方法,其中,对于各个子块推导当前视频块的第二组颜色分量值。
22.根据条款19-21中的任何一项或多项所述的方法,其中,对于整个当前视频块推导当前视频块的第二组颜色分量值,而不管基于子块的预测如何。
23.根据条款19-22中的任何一项或多项所述的方法,其中,至少部分地基于当前视频块的子块的运动矢量选择包括在一个或多个参考帧内的第一组颜色分量值。
24.根据条款1-23中的任何一项或多项所述的方法,其中,包括在一个或多个参考帧内的第一组颜色分量值是中间颜色分量值。
25.根据条款1-24中的任何一项或多项所述的方法,其中,该视频编解码步骤处于另一视频编解码步骤之前。
26.根据条款25所述的方法,其中,至少部分地基于当前视频块或当前视频块的子块的中间运动矢量,选择包括在一个或多个参考帧内的第一组颜色分量值,并且其中,该中间运动矢量是在另一视频编解码步骤之前计算的。
27.根据条款24-26中的任何一项或多项所述的方法,其中,另一视频编解码步骤包括下述步骤之一或下述步骤的组合:双向光流(BDOF)步骤、解码器侧运动矢量细化(DMVR)步骤、预测细化光流(PROF)步骤。
28.根据条款1-27中的任何一项或多项所述的方法,其中,包括在一个或多个参考帧内的第一组颜色分量值对应于与对应亮度块相关联的MxN亮度分量值。
29.根据条款28所述的方法,其中,该对应亮度块是当前视频块的共位亮度块。
30.根据条款29所述的方法,其中,M和N的乘积小于当前视频块的共位亮度块的块宽度和块高度的乘积。
31.根据条款27-30中的任何一项或多项所述的方法,其中,包括在该一个或多个参考帧内的第一组颜色分量值对应于在该共位亮度块的邻近亮度样点的位置上识别的参考样点的至少部分。
32.根据条款1-31中的任何一项或多项所述的方法,其中,在将第一组颜色分量值用于视频编解码步骤的线性模型中之前,对第一组颜色分量值进行降采样。
33.根据条款1所述的方法,其中,至少部分地基于当前视频块的下述信息中的一个或多个来选择当前视频块的第二组颜色分量值:量化参数、编解码模式或图片顺序计数(POC)。
34.根据条款31所述的方法,其中,邻近亮度样点的位置使得共位亮度块的左上样点被覆盖。
35.根据条款28所述的方法,其中,包括在该一个或多个参考帧内的第一组颜色分量值对应于在对应亮度块之外的位置上识别的参考样点的至少部分。
36.根据条款28所述的方法,其中,基于对应亮度块的邻近样点的可用性,选择性地由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值。
37.根据条款28所述的方法,其中,对应亮度块的邻近样点的可用性是基于以下述内容项中的一个或多个:当前视频块的编解码模式的使用、对应亮度块的邻近样点的编解码模式的使用、对应亮度块的编解码模式的使用、一个或多个邻近视频块的编解码模式的使用、与对应亮度块的邻近样点相关联的滤波器的类型的使用或者对应亮度块的邻近样点相对于当前视频块或其子块的位置。
38.根据条款28所述的方法,还包括:
响应于对应亮度块的邻近样点的可用性的缺乏,采用其他样点替代、填充或填补不可用的样点。
39.根据条款28所述的方法,还包括:
对与对应亮度块邻近的样点应用平滑滤波器。
40.一种用于视频处理的方法,包括:
执行当前视频块与当前视频块的比特流表示之间的转换,其中,在转换期间,由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中,第一组颜色分量值可用于视频编解码步骤的线性模型中;以及
响应于确定包括在一个或多个参考帧内的第一组颜色分量值是当前视频块的共位亮度块,基于与当前视频块的共位亮度块相关联的一个或多个条件选择性地启用或禁用对当前视频块的第二组颜色分量值的推导。
41.根据条款40所述的方法,其中,与当前视频块的共位亮度块相关联的一个或多个条件包括:共位亮度块的分割尺寸、共位亮度块的编解码单元的数量达到阈值数量、共位亮度块的左上亮度样点达到阈值尺寸、共位亮度块的分割树深度、覆盖共位亮度块的左上亮度样点的对应亮度块、共位亮度块或当前视频块的维度或者覆盖共位亮度块的左上亮度样点并且还包括在预定义尺寸的边界框内的对应亮度块。
42.根据条款40所述的方法,其中,将指示选择性地启用或禁用推导的信息包括在比特流表示当中。
43.根据条款28所述的方法,其中,对应亮度块的邻近样点的可用性与根据预定义顺序检查邻近样点相关联。
44.根据条款41所述的方法,其中,共位亮度块和当前视频块与同一编解码树单元或编解码树单元的同一行相关联。
45.一种用于视频处理的方法,包括:
执行当前视频块与当前视频块的比特流表示之间的转换,其中,在转换期间,由包括在一个或多个参考帧内的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中,第一组颜色分量值可用于视频编解码步骤的线性模型中;以及
响应于确定满足当前视频块或者当前视频块的邻近视频块的一个或多个特性,选择性地启用或禁用对当前视频块的第二组颜色分量值的推导。
46.根据条款45所述的方法,其中,当前视频块或者当前视频块的邻近视频块的一个或多个特性对应于覆盖相对于当前视频块的空域位置的空域位置的邻近亮度块。
47.根据条款45所述的方法,其中,当前视频块或者当前视频块的邻近视频块的一个或多个特性对应于当前视频块的邻近视频块相对于当前视频块的空域位置的空域位置。
48.根据条款45所述的方法,还包括:
响应于确定邻近视频块的重建至少部分地基于当前视频块的编解码模式,禁用对当前视频块的第二组颜色分量值的推导。
49.根据条款45所述的方法,还包括:
响应于确定当前视频块是帧间编解码块而非组合帧间和帧内预测编解码块并且与当前视频块的对应亮度块邻近的块是帧内编解码块、组合帧间和帧内预测(CIIP)块或者帧内块复制(IBC)编解码块,禁用对当前视频块的第二组颜色分量值的推导。
50.根据条款45所述的方法,还包括:
响应于确定当前视频块是帧间编解码块而非组合帧间和帧内预测编解码块并且与当前视频块的对应亮度块邻近的块是帧内编解码块、组合帧间和帧内预测(CIIP)块或者帧内块复制(IBC)编解码块,启用对当前视频块的第二组颜色分量值的推导,其中,第一组颜色分量值是固定值。
51.据条款45所述的方法,其中,第一组颜色分量值是固定值。
52.根据条款51所述的方法,其中,固定值对应于视频编解码步骤的线性模型的分段索引。
53.根据条款1-52中的任何一项或多项所述的方法,其中,邻近样点可以与当前视频块毗邻或非毗邻。
54.根据条款1-52中的任何一项或多项所述的方法,其中,邻近样点可以与和当前视频块邻近的色度块相关联或者可以是与当前视频块邻近的色度块。
55.根据条款1-54中的任何一项或多项所述的方法,其中,当前视频块对应于色度块、共位亮度块或者覆盖共位色度块的左上亮度样点的对应亮度块。
56.根据条款1-54中的任何一项或多项所述的方法,其中,存储当前视频块的第二组颜色分量值,以供结合一个或多个其他视频块使用。
57.根据条款1-56中的任何一项或多项所述的方法,其中,该线性模型对应于跨分量线性模型(CCLM),并且该视频编解码步骤对应于带有色度缩放的亮度映射(LMCS)模式。
58.根据条款1-57中的任何一项或多项所述的方法,其中,当前视频块是帧间编解码块、双向预测编解码块、组合帧间和帧内预测(CIIP)块或者帧内块复制(IBC)编解码块。
59.根据条款1-58中的任何一项或多项所述的方法,其中,存储当前视频块的第二组颜色分量值,以供与比特流中的其他视频块相关联的使用。
60.根据条款59所述的方法,其中,将当前视频块的第二组颜色分量值存储到线缓冲区内,以供对其他视频块中包括的邻近视频块选择性地可用或不可用,其中,当前视频块和邻近视频块与不同条带、片、片组、编解码树单元或者编解码树单元行相关联。
61.根据条款60所述的方法,其中,当前视频块的第二组颜色分量值是固定值。
62.根据条款60所述的方法,其中,防止推导当前视频块的第二组颜色分量值。
63.根据条款59所述的方法,其中,防止对当前视频块的第二组颜色分量值的推导。
64.根据条款59所述的方法,其中,将当前视频块的第二组颜色分量值存储到表格中,以供对其他视频块中包括的邻近视频块选择性地可用或不可用。
65.根据条款64所述的方法,其中,动态更新当前视频块的第二组颜色分量值。
66.根据条款65所述的方法,其中,当前视频块的第二组颜色分量值与其他视频块中的前一视频块相同。
67.根据条款64所述的方法,其中,按照先进先出(FIFO)方式动态更新当前视频块的第二组颜色分量值。
68.根据条款1-67中的任何一项或多项所述的方法,其中,第一组颜色分量值对应于亮度样点值,并且第二组颜色分量值对应于色度缩放因数。
69.一种用于视频处理的方法,包括:为包括至少两个分量块的视频块和视频块的比特流表示之间的转换,基于规则确定跨分量编解码工具的适用性;以及选择性地使用跨分量编解码工具执行转换。
70.根据条款69所述的方法,其中,该规则基于当前视频块的维度。
71.根据条款69-70中的方法,其中,该规则基于当前视频块的分割信息。
72.根据条款69-71中的任何一项所述的方法,其中,该规则基于当前视频块的分割树结构。
73.根据条款72所述的方法,其中,该分割树结构是双重树或单一树中的一个。
74.根据条款72所述的方法,其中,该规则规定由于当前视频块是采用双重树分割树结构的色度块而禁用跨分量编解码工具。
75.根据条款69-74中的任何一项所述的方法,其中,该规则规定在比特流表示中省略对跨分量编解码工具的语法元素的信令通知。
在章节4中的项目15中描述了条款69-75的的附加示例和方面。
76.一种在视频***中的装置,包括处理器和其上具有指令的非暂态存储器,其中,该指令在被处理器执行时使得处理器实施根据条款1到75中的任一项所述的方法。
77.一种存储在非暂态计算机可读介质上的计算机程序产品,该计算机程序产品包括用于实施根据条款1到75中的任一项所述的方法的程序代码。
图12是示出示例视频处理***1200的框图,在该***中可以实施本文公开的各种技术。各种实施方式可以包括***1200的部分或全部部件。***1200可包括用于接收视频内容的输入1202。视频内容可以是按照原始或未压缩格式接收的,例如8比特或10比特多分量像素值,或者可以是按照压缩或编码格式接收的。输入1202可以表示网络接口、***总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(PON)等的有线接口,以及诸如Wi-Fi或蜂窝接口的无线接口。
***1200可以包括编解码部件1204,其可以实施本文档中所描述的各种编解码或编码方法。编解码部件1204可以降低从输入1202到编解码部件1204的输出的视频的平均比特率,以产生视频的编解码表示。因此,编解码技术有时被称为视频压缩或视频转码技术。编解码部件1204的输出可以被存储,也可以通过所连接的通信进行传输,如部件1206所示。输入1202处接收的视频的存储或传达比特流(或经编解码的)表示可由部件1208用于生成像素值或发送到显示接口1210的可显示视频。从比特流表示生成用户可观看视频的处理有时称为视频解压缩。此外,尽管某些视频处理操作被称为“编解码”操作或工具,但应当理解的是,编解码工具或操作被用于编码器处,并且逆转编解码结果的对应的解码工具或操作将由解码器执行。
***总线接口或显示接口的示例可以包括通用串行总线(USB)或高清晰度多媒体接口(HDMI)或Displayport等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等。本文档中描述的技术可体现在各种电子设备中,例如移动电话、笔记本电脑、智能手机或其他能够执行数字数据处理和/或视频显示的设备。
图13是视觉媒体处理的示例方法。将结合本文档的章节4中的示例19bii-iv讨论这一流程图的步骤。在步骤1302中,该过程执行视觉媒体数据的当前视频单元与当前视频单元的比特流表示之间的转换,其中,根据格式规则配置该比特流表示,并且其中,该格式规则规定视频段的级别,在该视频段级别上,将指示为了对当前视频单元编解码而对色度残差进行缩放所依据的缩放因数的一个或多个语法元素选择性地包括到该比特流表示中。
图14是视觉媒体处理的示例方法的流程图。将结合本文档的章节4中的示例19e讨论这一流程图的步骤。在步骤1402中,该过程执行包括一个或多个视频区域的视觉媒体数据和该视觉媒体数据的比特流表示之间的转换,该一个或多个视频区域包括一个或多个视频块,其中,该比特流表示符合格式规则,其中,该格式规则规定视频区域内的一个或多个视频块在该转换的亮度相关的色度残差缩放步骤中具有相同色度缩放因数。
图15是视觉媒体处理的示例方法的流程图。将结合本文档的章节4中的示例20讨论这一流程图的步骤。在步骤1502中,该过程执行视觉媒体数据的当前视频单元与视觉媒体数据的比特流表示之间的转换,其中,该比特流表示符合格式规则,该格式规则规定将该比特流表示中的指示与当前视频单元的转换的色度残差缩放步骤相关联的缩放因数的一个或多个语法元素预测编解码到该比特流表示中。
现在将以基于条款的格式提供本文档的一些实施例,并且可以优选将其结合到这些实施例中。
1.一种视觉媒体处理方法,包括:执行包括一个或多个视频区域的视觉媒体数据和该视觉媒体数据的比特流表示之间的转换,该一个或多个视频区域包括一个或多个视频块,其中,该比特流表示符合格式规则,其中,该格式规则规定视频区域内的一个或多个视频块在该转换的亮度相关的色度残差缩放步骤中具有相同色度缩放因数。
2.根据条款1所述的方法,其中,该视频区域是虚拟流水线数据单元(VPDU)。
3.根据条款1所述的方法,其中,该格式规则还规定通过语法元素指示或者在该转换中推导具有相同色度缩放因数的块的总数。
4.根据条款1-2中任一项所述的方法,其中,视频区域内的一个或多个块对应于该视频区域内的所有块。
5.根据条款1-4中的任何一项或多项所述的方法,其中,在转换中使用的比特流表示中的该语法元素包括在下述选项之一处:序列参数集(SPS)级和/或条带标头级和/或片组标头级和/或图片参数集(PPS)级和/或图片标头级和/或图块级和/或编解码树单元(CTU)行级和/或编解码树单元(CTU)级和/或编解码单元(CU)级和/或虚拟流水线数据单元(VPDU)级和/或块级。
6.据条款1-5中的任何一项或多项所述的方法,其中,响应于检测到该一个或多个视频区域中的至少两个块具有不同色度缩放因数,该格式规则还规定将附加语法元素包括到比特流表示中,其中,该附加语法元素用于推导该至少两个块的不同色度缩放因数。
7.根据条款1所述的方法,其中,响应于检测到视频区域内的一个或多个视频块在转换的亮度相关的色度残差缩放步骤中具有相同色度缩放因数,该格式规则还规定在该转换中使用的指示具有相同色度缩放因数的块的总数的语法元素的使用。
8.根据条款7所述的方法,其中,该格式规则还规定使用预测技术以将语法元素包括到比特流表示当中,使得语法元素的先前值用于推导语法元素的当前值。
9.根据条款8所述的方法,其中,该预测技术包括使用视频区域内的具有相同色度缩放因数的块的总数。
10.根据条款6-9中的任何一项或多项所述的方法,其中,包括在比特流表示中的语法元素与视频区域的级别相关联,并且其中,视频区域的级别包括下述选项之一:序列参数集(SPS)级和/或条带标头级和/或片组标头级和/或图片参数集(PPS)级和/或图片标头级和/或图块级和/或编解码树单元(CTU)行级和/或编解码树单元(CTU)级和/或编解码单元(CU)级和/或虚拟流水线数据单元(VPDU)级和/或块级。
11.根据条款1-10中的任何一项或多项所述的方法,其中,视频区域中的一个或多个块在视觉媒体数据中按照固定长度的连续间隔隔开,并且其中,如果在第一块之后对第二块解码,那么将第二块定义为与第一块连续。
12.根据条款7所述的方法,其中,具有相同色度缩放因数的块的总数等于该视频区域内的所有块。
13.根据条款7所述的方法,其中,具有相同色度缩放因数的块的总数落在被表示为[T1,T2]的预定义范围内,其中,T1和T2两者均包括在该预定义范围内。
14.根据条款13所述的方法,其中,T1等于1,并且T2等于该视频区域内的块的总数。
15.根据条款14所述的方法,其中,包括在比特流表示中的语法元素基于范围[T1,T2]。
16.根据条款15所述的方法,其中,包括在比特流表示中的语法元素对应于视频区域内的块的总数与T1的差,或者其中,该语法元素的最大值等于T1和T2的差。
17.根据条款13-16中的任何一项或多项所述的方法,其中,该格式规则还规定,对于符合该格式规则的比特流表示,该视频区域内的块的总数满足比特流一致性约束条件,其中,比特流一致性约束条件规定该视频区域内的块的总数落在预定义区间内。
18.根据条款7所述的方法,其中,该格式规则还规定使用预测技术将该语法元素包括到比特流表示当中,使得对于具有相同缩放因数的两个视频单元,采用在第一视频单元的转换中使用的语法元素推导在第二视频单元的转换中使用的语法元素。
19.根据条款7-18中的任何一项或多项所述的方法,其中,在应用编解码技术之后将该语法元素包括到比特流表示当中。
20.根据条款19所述的方法,其中,该编解码技术包括下述选项之一:一元代码、截断一元代码、固定长度代码、指数哥伦布代码或者截断二元代码。
21.根据条款19所述的方法,其中,该编解码技术包括下述选项之一:没有上下文的旁路编解码或者使用一个或多个上下文的算术编解码。
22.根据条款2或3所述的方法,其中,响应于检测到该视频区域内的多个视频块在转换的亮度相关的色度残差缩放步骤中具有相同色度缩放因数,该格式规则还规定指示该视频区域的语法元素的使用。
23.根据条款22所述的方法,其中,包括在该视频区域内的多个块是根据光栅扫描顺序排列的。
24.根据条款23所述的方法,其中,使用与该多个块中的第一个相关联的索引和/或与该多个块中的最后一个相关联的索引和/或该多个块的总计数来描述视频区域。
25.根据条款22-24中的任何一项或多项所述的方法,其中,该视频区域包括具有矩形形状的区域,并且其中,采用与左上块相关联的索引和与右下块相关联的索引描述该视频区域。
26.根据条款22-24中的任何一项或多项所述的方法,其中,该视频区域包括具有矩形形状的区域,并且其中,采用该具有矩形形状的区域的维度描述该视频区域。
27.根据条款22-26中的任何一项或多项所述的方法,其中,对应于该视频区域的索引作为语法元素包括在比特流表示中。
28.根据条款22-27中的任何一项或多项所述的方法,其中,该具有矩形形状的区域的维度包括宽度和/或高度,并且其中,该多个块的总计数小于该具有矩形形状的区域的宽度和高度的乘积。
29.根据条款28所述的方法,其中,该具有矩形形状的区域的宽度等于沿该具有矩形形状的区域的宽度方向排列的多个块的数量。
30.根据条款28所述的方法,其中,该具有矩形形状的区域的高度等于沿该具有矩形形状的区域的高度方向排列的多个块的数量。
31.根据条款26-27中的任何一项或多项所述的方法,其中,该具有矩形形状的区域的维度包括每个均落在被表示为[T1,T2]的预定义范围内的宽度和/或高度,其中,T1和T2两者均包括在该预定义范围内。
32.根据条款31所述的方法,其中,T1等于1,并且T2等于该视频区域内的CTU列中的CTU的总数。
33.根据条款31-32中的任何一项或多项所述的方法,其中,包括在所述比特流表示中的语法元素基于范围[T1,T2]。
34.根据条款33所述的方法,其中,包括在比特流表示中的语法元素对应于该具有矩形形状的区域的宽度与T1的差。
35.根据条款33所述的方法,其中,包括在比特流表示中的语法元素对应于该具有矩形形状的区域的高度与T1的差。
36.根据条款34-35中的任何一项或多项所述的方法,其中,该语法元素的最大值等于T1和T2的差。
37.根据条款31-36中的任何一项或多项所述的方法,其中,该格式规则还规定,对于符合该格式规则的比特流表示,该具有矩形形状的区域的维度包括每个均满足比特流一致性约束条件的宽度和/或高度,其中,比特流一致性约束条件规定,该具有矩形形状的区域的维度包括每个均落在预定义区间内的宽度和/或高度。
38.根据条款37所述的方法,其中,该格式规则还规定使用预测技术将该语法元素包括到比特流表示当中,以使用固定数值预测该语法元素。
39.根据条款37所述的方法,其中,该格式规则还规定使用预测技术将该语法元素包括到比特流表示当中,以使得对于具有相同缩放因数的两个具有矩形形状的视频区域,采用在第一区域的转换中使用的语法元素推导在第二区域的转换中使用的语法元素。
40.根据条款25-39中的任何一项或多项所述的方法,其中,在应用编解码技术之后将该语法元素包括到比特流表示当中。
41.根据条款40所述的方法,其中,该编解码技术包括下述选项之一:一元代码、截断一元代码、固定长度代码、指数哥伦布代码或者截断二元代码。
42.根据条款40所述的方法,其中,该编解码技术包括下述选项之一:没有上下文的旁路编解码或者使用一个或多个上下文的算术编解码。
43.根据条款37所述的方法,其中,在第一区域的转换之后顺序执行第二区域的转换。
44.根据条款39所述的方法,其中,编解码树单元(CTU)与第一区域和第二区域相关联,并且其中,第二区域中的CTU的转换与第一区域中的CTU的转换交替进行。
45.根据条款44所述的方法,其中,转换顺序包括:第一区域的第一行中的CTU、第二区域的第一行中的CTU、第一区域的第一行中的CTU、第二区域的第二行中的CTU以及第一区域的第二行中的CTU。
46.根据条款7所述的方法,其中,该语法元素的使用对应于将该语法元素包括到比特流表示中。
47.根据条款1-3所述的方法,其中,该格式规则还规定根据与该转换相关联的推导计算该具有相同色度缩放因数的块的总数。
48.根据条款46-47中的任何一项或多项所述的方法,其中,该具有相同色度缩放因数的块的总数处于视频区域的级别上。
49.根据条款48所述的方法,其中,与转换相关联的推导基于视频块的尺寸。
50.根据条款48所述的方法,其中,与转换相关联的推导落在取决于视频块的尺寸的最小值或最大值与预定义数值之间的范围内。
51.根据条款26所述的方法,其中,该视频区域的维度基于视频块的尺寸。
52.根据条款26所述的方法,其中,该视频区域的维度落在取决于视频块的尺寸的最小值或最大值与预定义数值之间。
53.根据条款50或52所述的方法,其中,该预定义数值为64。
54.一种视觉媒体处理方法,包括:执行视觉媒体数据的当前视频单元与当前视频单元的比特流表示之间的转换,其中,根据格式规则配置该比特流表示;并且其中,该格式规则规定视频段的级别,在该视频段级别上,将指示为了对当前视频单元编解码而对色度残差进行缩放所依据的缩放因数的一个或多个语法元素选择性地包括到该比特流表示中。
55.根据条款54所述的方法,其中,该格式规则规定该视频段对应于视觉媒体数据的虚拟流水线数据单元(VPDU)。
56.根据条款54所述的方法,其中,该格式规则规定,该视频段对应于虚拟流水线数据单元(VPDU)和编解码树单元(CTU)中的较小者。
57.根据条款56所述的方法,其中,在VPDU的宽度为W′并且CTU的宽度为W的情况下,那么该视频段的宽度等于W和W′中的最小值。
58.根据条款54所述的方法,其中,该格式规则规定,在当前视频单元的尺寸小于虚拟流水线数据单元(VPDU)的尺寸的情况下,那么在当前视频单元级上包括该一个或多个语法元素。
59.根据条款54所述的方法,其中,所述格式规则规定,在当前视频单元的尺寸大于虚拟流水线数据单元(VPDU)的尺寸的情况下,那么在VPDU级上包括该一个或多个语法元素。
60.根据条款54-59中的任何一项或多项所述的方法,其中,该格式规则规定,采用该一个或多个语法元素推导与该视频段的级别相关联的所有视频单元的缩放因数。
61.根据条款54-59中的任何一项或多项所述的方法,其中,该格式规则规定,采用该一个或多个语法元素推导与该视频段的级别相关联的视频单元的子集的缩放因数。
62.根据条款54-61中的任何一项或多项所述的方法,其中,该视频段的级别包括下述选项之一:序列参数集(SPS)级和/或条带标头级和/或片组标头级和/或图片参数集(PPS)级和/或图片标头级和/或图块级和/或编解码树单元(CTU)行级和/或编解码树单元(CTU)级和/或编解码单元(CU)级和/或虚拟流水线数据单元(VPDU)级和/或块级。
63.根据条款54-62中的任何一项或多项所述的方法,其中,该格式规则规定,在确定该视频段满足阈值尺寸条件时,将该一个或多个语法元素选择性地包括到比特流表示中。
64.根据条款54-63所述的方法,其中,该阈值尺寸条件基于编解码树单元(CTU)宽度和虚拟流水线数据单元(VPDU)宽度的比较。
65.一种用于视觉媒体处理的方法,包括:执行视觉媒体数据的当前视频单元与视觉媒体数据的比特流表示之间的转换,其中,该比特流表示符合格式规则,该格式规则规定将该比特流表示中的指示与当前视频单元的转换的色度残差缩放步骤相关联的缩放因数的一个或多个语法元素预测编解码到该比特流表示中。
66.根据条款65所述的方法,其中,该预测编解码包括:
将第二视频单元的缩放因数是否与先前转换的第一视频单元的缩放因数相同的指示包括到该比特流表示中。
67.根据条款65所述的方法,其中,该预测编解码包括:
将第二视频单元的缩放因数与先前转换的第一视频单元的缩放因数之间的编解码的差值的指示包括到该比特流表示当中。
68.根据条款67所述的方法,其中,该指示包括编解码差值的符号和/或编解码差值的绝对值。
69.根据条款67所述的方法,其中,在比特流表示中不包括编解码差值的情况下,推断第二视频单元的缩放因数与第一视频单元的缩放因数相同。
70.一种视频编码器装置,包括处理器,该处理器被配置为实施根据条款1-69中的任何一项或多项中所述的方法。
71.一种视频解码器装置,包括处理器,该处理器被配置为实施根据条款1-69中的任何一项或多项中所述的方法。
72.一种其上存储有代码的计算机可读介质,该代码体现为用于实施根据条款1-69中的任何一项或多项中所述的方法的处理器可读指令。
在本文档中,术语“视频处理”或“视觉媒体处理”可以指视频编码、视频解码、视频压缩或视频解压缩。例如,可以在从视频的像素表示到对应的比特流表示的转换或反之期间应用视频压缩算法。当前视频块的比特流表示可以(例如)对应于在比特流内位于一处或散布在不同地方的比特,如语法所定义。例如,可以在依据经变换和编解码的误差残差值并且还使用比特流中的标头和其他字段中的比特的情况下来编码宏块。此外,在转换期间,解码器可以在基于该确定了解某些字段可以存在或不存在的情况下解析比特流,如上文的解决方案所述。类似的,编码器可以判断是否包括某些语法字段并且通过在编解码表示中包括或者从编解码表示中排除这些语法字段而相应地生成编解码表示。将要认识到,可以将所公开的技术体现到视频编码器或解码器当中,从而使用包括基于子块的运动矢量细化的使用的技术提高压缩效率。
从前述内容可知,将要认识到,本文已经出于例示的目的描述了本文公开的技术的具体实施例,但可以做出各种修改而不脱离本发明的范围。相应地,本公开的技术除了受到所附权利要求限制外,不受其他限制。
本专利文档中描述的主题和功能操作的实施方式可以在各种***、数字电子电路,或者计算机软件、固件或硬件中实施,包括本说明书中所公开的结构及其结构等价方案或者它们当中的一者或多者的组合。本说明书中描述的主题的实施方式可以被实施成一个或多个计算机程序产品,即编码在有形且非暂态计算机可读介质上的计算机程序指令的一个或多个模块,以供数据处理装置执行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质组成或者它们当中的一者或多者的组合。术语“数据处理单元”或“数据处理装置”涵盖用于处理数据的所有装置、设备和机器,包括(例如)可编程处理器、计算机或多个处理器或计算机。除硬件外,该装置还可以包括为计算机程序创建执行环境的代码,例如,构成处理器固件的代码、协议栈、数据库管理***、操作***或者它们当中的一者或多者的组合。
计算机程序(也称为程序、软件、软件应用、脚本或代码)可以用任何形式的编程语言(包括编译语言或解释语言)编写,并且可以按照任何形式部署,包括作为独立程序或作为模块、部件、子例程或其他适合在计算环境中使用的单元。计算机程序不一定与文档***中的文档对应。程序可以存储在保存其他程序或数据的文档(例如,存储在标记语言文档中的一个或多个脚本)的部分中,专用于该程序的单个文档中,或者多个协调文档(例如,存储一个或多个模块、子程序或代码部分的文档)中。可以将计算机程序部署为在一个或多个计算机上执行,这一个或多个计算机位于一个站点上,或者跨越多个站点分布并通过通信网络互连。
本说明书中描述的过程和逻辑流可以通过由一个或多个可编程处理器执行一个或多个计算机程序来执行,从而通过对输入数据进行操作并生成输出来执行功能。这些过程和逻辑流也可以通过专用逻辑电路来执行,并且装置也可以被实施成专用逻辑电路,例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路)。
例如,适于执行计算机程序的处理器包括通用和专用微处理器,以及任何种类的数字计算机的任何一个或多个处理器。一般来讲,处理器将从只读存储器或随机存取存储器或这两者接收指令和数据。计算机的基本元件是执行指令的处理器以及存储指令和数据的一个或多个存储设备。通常,计算机还将包括一个或多个用于存储数据的大容量存储设备,例如,磁盘、磁光盘或光盘,或***作性地耦接为从一个或多个大容量存储设备接收数据或向其传输数据,或两者兼有。然而,计算机不一定具有这样的设备。适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括(例如)半导体存储设备,例如EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路来补充,或合并到专用逻辑电路中。
意在将说明书连同附图仅视为示范性的,其中示范性表示示例。如本文所用,“或”的使用意在包括“和/或”,除非上下文明确做出其他表述。
虽然本专利文档包括许多细节,但不应将其解释为对任何发明或权利要求范围的限制,而应解释为对特定发明的特定实施例的具体特征的描述。本专利文档在各单独实施例的语境下描述的某些特征也可以在单个实施例中组合实施。相反地,在单个实施例的语境下描述的各种特征也可单独地或者以任何合适的子组合的形式在多个实施例中实施。此外,虽然某些特征可能在上面被描述为以某些组合来起作用并且甚至最初也这样地来要求对其的权利保护,但是来自要求权利保护的组合的一个或多个特征在某些情况下可从该组合中去除,并且要求权利保护的组合可涉及子组合或子组合的变型。
类似地,虽然操作在附图中以特定次序示出,但不应将这种情况理解为需要以相继次序或所示的特定次来执行此类操作,或者需要执行所有所示的操作以实现期望的结果。此外,在本专利文档中描述的实施例当中对各种***部件的划分不应被理解为在所有实施例中都要求这样的划分。
仅描述了几种实施方式和示例,其他实施方式、增强和变化可以基于本专利文档中描述和说明的内容做出。

Claims (21)

1.一种处理视频数据的方法,包括:
在视频的当前色度视频块和所述视频的比特流之间的转换期间,确定缩放处理被应用于所述当前色度视频块的色度残差样点;以及
基于所述确定执行所述转换,
其中,在所述缩放处理中,在所述色度残差样点用于重建所述当前色度视频块之前,基于至少一个缩放因数来缩放所述色度残差样点;并且
其中,在所述缩放处理中,包括所述当前色度视频块的视频区域内的一个或多个色度视频块共享相同的至少一个缩放因数。
2.根据权利要求1所述的方法,其中,所述视频区域中的一个或多个色度视频块对应于所述视频区域中应用所述缩放处理的所有色度视频块。
3.根据权利要求1所述的方法,其中,所述视频区域是虚拟流水线数据单元。
4.根据权利要求1所述的方法,其中,所述至少一个缩放因数通过以下方式推导:
检查所述视频的视频单元的一个或多个邻近亮度块中的每一个的可用性,所述可用性是基于与所述当前色度视频块的左上角样点相对应的亮度样点来确定的;
基于所述一个或多个邻近亮度块中的每一个的可用性,确定是否检索所述视频单元的邻近亮度样点,其中所述邻近亮度样点位于与所述视频单元邻近的预定位置;以及
在所述一个或多个邻近亮度块中的至少一个邻近亮度块可用的情况下,基于通过平均操作使用所述邻近亮度样点计算的平均亮度变量来推导所述至少一个缩放因数。
5.根据权利要求4所述的方法,其中,所述邻近亮度样点包括所述视频单元的一个或多个左侧邻近样点列或一个或多个上方邻近样点行中的至少一个。
6.根据权利要求5所述的方法,其中,所述邻近亮度样点的总数量取决于所述视频区域的尺寸信息。
7.根据权利要求4所述的方法,其中,所述缩放处理基于分段线性模型,并且其中索引标识所述平均亮度变量所属的段,并且基于所述索引推导所述至少一个缩放因数。
8.根据权利要求4所述的方法,其中,响应于所述一个或多个邻近亮度块被确定为不可用,通过将所述平均亮度变量设置为等于默认值来推导所述至少一个缩放因数,并且
其中,所述默认值等于1<<(bitDepth-1),其中bitDepth是所述视频的比特深度。
9.根据权利要求1所述的方法,其中,在与所述当前色度视频块相关联的图片级别处有条件地包括指示启用或禁用图片级别以下的缩放处理的语法元素,并且
其中,响应于所述语法元素的值等于1,启用所述图片级别以下的缩放处理的应用,并且响应于所述语法元素的值等于0,禁用所述图片级别以下的缩放处理的应用。
10.根据权利要求1所述的方法,其中,所述转换包括将所述当前色度视频块编码到所述比特流中。
11.根据权利要求1所述的方法,其中,所述转换包括从所述比特流解码所述当前色度视频块。
12.一种处理视频数据的装置,包括处理器和其上具有指令的非暂时性存储器,其中,所述指令在由所述处理器执行时使得所述处理器:
在视频的当前色度视频块和所述视频的比特流之间的转换期间,确定缩放处理被应用于所述当前色度视频块的色度残差样点;以及
基于所述确定执行所述转换,
其中,在所述缩放处理中,在所述色度残差样点用于重建所述当前色度视频块之前,基于至少一个缩放因数来缩放所述色度残差样点;并且
其中,在所述缩放处理中,包括所述当前色度视频块的视频区域内的一个或多个色度视频块共享相同的至少一个缩放因数。
13.根据权利要求12所述的装置,其中,所述视频区域中的一个或多个色度视频块对应于所述视频区域中应用所述缩放处理的所有色度视频块;并且
其中,所述视频区域是虚拟流水线数据单元。
14.根据权利要求12所述的装置,其中,所述至少一个缩放因数通过以下方式推导:
检查所述视频的视频单元的一个或多个邻近亮度块中的每一个的可用性,所述可用性是基于与所述当前色度视频块的左上角样点相对应的亮度样点来确定的;
基于所述一个或多个邻近亮度块中的每一个的可用性,确定是否检索所述视频单元的邻近亮度样点,其中所述邻近亮度样点位于与所述视频单元邻近的预定位置;以及
在所述一个或多个邻近亮度块中的至少一个邻近亮度块可用的情况下,基于通过平均操作使用所述邻近亮度样点计算的平均亮度变量来推导所述至少一个缩放因数;
其中,所述邻近亮度样点包括所述视频单元的一个或多个左侧邻近样点列或一个或多个上方邻近样点行中的至少一个;
其中,所述邻近亮度样点的总数量取决于所述视频区域的尺寸信息;
其中,所述缩放处理基于分段线性模型,并且其中索引标识所述平均亮度变量所属的段,并且基于所述索引推导所述至少一个缩放因数;
其中,响应于所述一个或多个邻近亮度块被确定为不可用,通过将所述平均亮度变量设置为等于默认值来推导所述至少一个缩放因数;
其中,所述默认值等于1<<(bitDepth-1),其中bitDepth是所述视频的比特深度;
其中,在与所述当前色度视频块相关联的图片级别处有条件地包括指示启用或禁用图片级别以下的缩放处理的语法元素,并且
其中,响应于所述语法元素的值等于1,启用所述图片级别以下的缩放处理的应用,并且响应于所述语法元素的值等于0,禁用所述图片级别以下的缩放处理的应用。
15.一种存储指令的非暂时性计算机可读存储介质,所述指令使得处理器:
在视频的当前色度视频块和所述视频的比特流之间的转换期间,确定缩放处理被应用于所述当前色度视频块的色度残差样点;以及
基于所述确定执行所述转换,
其中,在所述缩放处理中,在所述色度残差样点用于重建所述当前色度视频块之前,基于至少一个缩放因数来缩放所述色度残差样点;并且
其中,在所述缩放处理中,包括所述当前色度视频块的视频区域内的一个或多个色度视频块共享相同的至少一个缩放因数。
16.根据权利要求15所述的非暂时性计算机可读存储介质,其中,所述视频区域中的一个或多个色度视频块对应于所述视频区域中应用所述缩放处理的所有色度视频块;并且
其中,所述视频区域是虚拟流水线数据单元。
17.根据权利要求15所述的非暂时性计算机可读存储介质,其中,所述至少一个缩放因数通过以下方式推导:
检查所述视频的视频单元的一个或多个邻近亮度块中的每一个的可用性,所述可用性是基于与所述当前色度视频块的左上角样点相对应的亮度样点来确定的;
基于所述一个或多个邻近亮度块中的每一个的可用性,确定是否检索所述视频单元的邻近亮度样点,其中所述邻近亮度样点位于与所述视频单元邻近的预定位置;以及
在所述一个或多个邻近亮度块中的至少一个邻近亮度块可用的情况下,基于通过平均操作使用所述邻近亮度样点计算的平均亮度变量来推导所述至少一个缩放因数;
其中,所述邻近亮度样点包括所述视频单元的一个或多个左侧邻近样点列或一个或多个上方邻近样点行中的至少一个;
其中,所述邻近亮度样点的总数量取决于所述视频区域的尺寸信息;
其中,所述缩放处理基于分段线性模型,并且其中索引标识所述平均亮度变量所属的段,并且基于所述索引推导所述至少一个缩放因数;
其中,响应于所述一个或多个邻近亮度块被确定为不可用,通过将所述平均亮度变量设置为等于默认值来推导所述至少一个缩放因数;
其中,所述默认值等于1<<(bitDepth-1),其中bitDepth是所述视频的比特深度;
其中,在与所述当前色度视频块相关联的图片级别处有条件地包括指示启用或禁用图片级别以下的缩放处理的语法元素,并且
其中,响应于所述语法元素的值等于1,启用所述图片级别以下的缩放处理的应用,并且响应于所述语法元素的值等于0,禁用所述图片级别以下的缩放处理的应用。
18.一种存储视频的比特流的非暂时性计算机可读存储介质,所述比特流由视频处理装置执行的方法生成,其中所述方法包括:
确定缩放处理被应用于所述视频的当前色度视频块的色度残差样点;以及
基于所述确定生成所述比特流,
其中,在所述缩放处理中,在所述色度残差样点用于重建所述当前色度视频块之前,基于至少一个缩放因数来缩放所述色度残差样点;并且
其中,在所述缩放处理中,包括所述当前色度视频块的视频区域内的一个或多个色度视频块共享相同的至少一个缩放因数。
19.根据权利要求18所述的非暂时性计算机可读存储介质,其中,所述视频区域中的一个或多个色度视频块对应于所述视频区域中应用所述缩放处理的所有色度视频块;并且
其中,所述视频区域是虚拟流水线数据单元。
20.根据权利要求18所述的非暂时性计算机可读存储介质,其中,所述至少一个缩放因数通过以下方式推导:
检查所述视频的视频单元的一个或多个邻近亮度块中的每一个的可用性,所述可用性是基于与所述当前色度视频块的左上角样点相对应的亮度样点来确定的;
基于所述一个或多个邻近亮度块中的每一个的可用性,确定是否检索所述视频单元的邻近亮度样点,其中所述邻近亮度样点位于与所述视频单元邻近的预定位置;以及
在所述一个或多个邻近亮度块中的至少一个邻近亮度块可用的情况下,基于通过平均操作使用所述邻近亮度样点计算的平均亮度变量来推导所述至少一个缩放因数;
其中,所述邻近亮度样点包括所述视频单元的一个或多个左侧邻近样点列或一个或多个上方邻近样点行中的至少一个;
其中,所述邻近亮度样点的总数量取决于所述视频区域的尺寸信息;
其中,所述缩放处理基于分段线性模型,并且其中索引标识所述平均亮度变量所属的段,并且基于所述索引推导所述至少一个缩放因数;
其中,响应于所述一个或多个邻近亮度块被确定为不可用,通过将所述平均亮度变量设置为等于默认值来推导所述至少一个缩放因数;
其中,所述默认值等于1<<(bitDepth-1),其中bitDepth是所述视频的比特深度;
其中,在与所述当前色度视频块相关联的图片级别处有条件地包括指示启用或禁用图片级别以下的缩放处理的语法元素,并且
其中,响应于所述语法元素的值等于1,启用所述图片级别以下的缩放处理的应用,并且响应于所述语法元素的值等于0,禁用所述图片级别以下的缩放处理的应用。
21.一种存储视频的比特流的方法,包括:
确定缩放处理被应用于所述视频的当前色度视频块的色度残差样点;
基于所述确定生成所述比特流;以及
将所述比特流存储在非暂时性计算机可读存储介质中,
其中,在所述缩放处理中,在所述色度残差样点用于重建所述当前色度视频块之前,基于至少一个缩放因数来缩放所述色度残差样点;并且
其中,在所述缩放处理中,包括所述当前色度视频块的视频区域内的一个或多个色度视频块共享相同的至少一个缩放因数。
CN202311354527.XA 2019-07-07 2020-07-07 色度残差缩放的信令通知 Pending CN117395396A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2019094964 2019-07-07
CNPCT/CN2019/094964 2019-07-07
CN202080049914.0A CN114128280B (zh) 2019-07-07 2020-07-07 色度残差缩放的信令通知
PCT/CN2020/100573 WO2021004445A1 (en) 2019-07-07 2020-07-07 Signaling of chroma residual scaling

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN202080049914.0A Division CN114128280B (zh) 2019-07-07 2020-07-07 色度残差缩放的信令通知

Publications (1)

Publication Number Publication Date
CN117395396A true CN117395396A (zh) 2024-01-12

Family

ID=74115055

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311354527.XA Pending CN117395396A (zh) 2019-07-07 2020-07-07 色度残差缩放的信令通知
CN202080049914.0A Active CN114128280B (zh) 2019-07-07 2020-07-07 色度残差缩放的信令通知

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202080049914.0A Active CN114128280B (zh) 2019-07-07 2020-07-07 色度残差缩放的信令通知

Country Status (6)

Country Link
US (2) US11533487B2 (zh)
EP (1) EP3977738A4 (zh)
JP (2) JP7460748B2 (zh)
KR (1) KR102660738B1 (zh)
CN (2) CN117395396A (zh)
WO (1) WO2021004445A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3918800A4 (en) 2019-03-08 2022-07-06 Beijing Bytedance Network Technology Co., Ltd. SIGNALING TRANSFORMATION INFORMATION IN VIDEO PROCESSING
EP3935834A4 (en) 2019-04-18 2022-08-17 Beijing Bytedance Network Technology Co., Ltd. LIMITATION ON THE APPLICABILITY OF A CROSS COMPONENT MODE
MX2021012674A (es) 2019-04-23 2021-11-12 Beijing Bytedance Network Tech Co Ltd Metodos para la reduccion de dependencia de componentes cruzados.
JP7407206B2 (ja) 2019-05-08 2023-12-28 北京字節跳動網絡技術有限公司 クロスコンポーネントコーディングの適用条件
JP7418478B2 (ja) 2019-06-22 2024-01-19 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのためのシンタックス要素
CN117395396A (zh) 2019-07-07 2024-01-12 北京字节跳动网络技术有限公司 色度残差缩放的信令通知
EP4011068A4 (en) * 2019-08-06 2023-08-09 OP Solutions, LLC IMPLICIT SIGNALING OF ADAPTIVE RESOLUTION MANAGEMENT BASED ON FRAME TYPE
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
JPWO2021100450A1 (zh) * 2019-11-21 2021-05-27
CN115176475A (zh) * 2019-12-31 2022-10-11 抖音视界有限公司 多参考线色度预测
US20210400257A1 (en) * 2020-06-18 2021-12-23 Lg Electronics Inc. Image encoding/decoding method and apparatus for signaling high level information for tool control based on colour representation format, and computer-readable recording medium strong bitstream
US20230396799A1 (en) * 2022-06-06 2023-12-07 Tencent America LLC Signaling method for scaling parameter in chroma from luma intra prediction mode
WO2024104086A1 (en) * 2022-11-18 2024-05-23 Mediatek Inc. Method and apparatus of inheriting shared cross-component linear model with history table in video coding system

Family Cites Families (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5281752B2 (ja) 2007-02-28 2013-09-04 日本無機株式会社 フィルタパック及びそれを用いたエアフィルタ
EP2051524A1 (en) * 2007-10-15 2009-04-22 Panasonic Corporation Image enhancement considering the prediction error
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
WO2011126272A2 (en) 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation
EP2557792A4 (en) 2010-04-09 2014-08-13 Mitsubishi Electric Corp VIDEO CODING DEVICE AND VIDEO CODING DEVICE
BR122020007669B1 (pt) 2010-04-13 2022-07-12 Ge Video Compression, Llc Codificação de uma amostragem espacial de um sinal de informação bidimensional usando subdivisão
HUE036401T2 (hu) 2010-09-30 2018-07-30 Samsung Electronics Co Ltd Eljárás képek interpolálására simító interpolációs szûrõt felhasználva
SG191347A1 (en) 2010-12-23 2013-07-31 Samsung Electronics Co Ltd Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
WO2012090504A1 (en) 2010-12-28 2012-07-05 Panasonic Corporation Methods and apparatuses for coding and decoding video stream
CN103688533B (zh) 2011-06-20 2015-12-23 联发科技(新加坡)私人有限公司 可减少行存储器的色度帧内预测方法及装置
KR20130058524A (ko) 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
JP5375938B2 (ja) 2011-12-14 2013-12-25 ソニー株式会社 復号装置及び方法
CN103227917B (zh) 2012-01-31 2016-12-14 华为技术有限公司 解码方法和装置
US9451258B2 (en) 2012-04-03 2016-09-20 Qualcomm Incorporated Chroma slice-level QP offset and deblocking
CN104471940B (zh) 2012-04-16 2017-12-15 联发科技(新加坡)私人有限公司 色度帧内预测方法及装置
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
CN115065823A (zh) 2012-07-02 2022-09-16 韩国电子通信研究院 视频编码/解码方法和非暂时性计算机可读记录介质
US9516309B2 (en) 2012-07-09 2016-12-06 Qualcomm Incorporated Adaptive difference domain spatial and temporal reference reconstruction and smoothing
US9350899B2 (en) 2012-09-14 2016-05-24 Qualcomm Incorporated Methods and device for efficient resampling and resizing of digital images
AU2012232992A1 (en) * 2012-09-28 2014-04-17 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the transform units of a coding unit
US9648319B2 (en) 2012-12-12 2017-05-09 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
GB2513111A (en) 2013-04-08 2014-10-22 Sony Corp Data encoding and decoding
US9503732B2 (en) 2013-04-10 2016-11-22 Arris Enterprises, Inc. Re-sampling with phase offset adjustment for luma and chroma to select filters in scalable video coding
US10015515B2 (en) 2013-06-21 2018-07-03 Qualcomm Incorporated Intra prediction from a predictive block
EP3598751B1 (en) 2013-06-28 2024-04-10 Velos Media International Limited Methods and devices for emulating low-fidelity coding in a high-fidelity coder
US9648330B2 (en) * 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction
EP3056004A2 (en) 2013-10-11 2016-08-17 VID SCALE, Inc. High level syntax for hevc extensions
US9648332B2 (en) 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
US10397607B2 (en) 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
WO2015100522A1 (en) 2013-12-30 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for inter-component residual prediction
US9930348B2 (en) 2014-03-14 2018-03-27 Qualcomm Incorporated Coefficient level coding in a video coding process
US10271052B2 (en) 2014-03-14 2019-04-23 Qualcomm Incorporated Universal color-space inverse transform coding
US20180176588A1 (en) 2014-03-14 2018-06-21 Samsung Electronics Co., Ltd. Scalable video encoding/decoding method and apparatus
US10142642B2 (en) 2014-06-04 2018-11-27 Qualcomm Incorporated Block adaptive color-space conversion coding
US10200700B2 (en) 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
US20150373350A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Temporal motion vector prediction (tmvp) indication in multi-layer codecs
EP3192261A1 (en) * 2014-09-12 2017-07-19 VID SCALE, Inc. Inter-component de-correlation for video coding
US9918105B2 (en) * 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
CN107079166A (zh) 2014-10-28 2017-08-18 联发科技(新加坡)私人有限公司 用于视频编码的引导交叉分量预测的方法
US9998742B2 (en) 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
WO2016132151A1 (en) 2015-02-19 2016-08-25 Magic Pony Technology Limited Enhancing visual data using strided convolutions
US10455249B2 (en) 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode
GB201603144D0 (en) 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
EP3281409B1 (en) 2015-04-06 2019-05-01 Dolby Laboratories Licensing Corporation In-loop block-based image reshaping in high dynamic range video coding
WO2016167538A1 (ko) 2015-04-12 2016-10-20 엘지전자(주) 비디오 신호의 인코딩, 디코딩 방법 및 그 장치
WO2016199409A1 (en) 2015-06-07 2016-12-15 Sharp Kabushiki Kaisha Systems and methods for optimizing video coding based on a luminance transfer function or video color component values
TWI764870B (zh) 2015-07-28 2022-05-21 法商內數位麥德遜專利控股有限公司 視訊訊號處理裝置及方法
EP3354032A1 (en) 2015-09-21 2018-08-01 VID SCALE, Inc. Inverse reshaping for high dynamic range video coding
US20170105014A1 (en) 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
US10045023B2 (en) 2015-10-09 2018-08-07 Telefonaktiebolaget Lm Ericsson (Publ) Cross component prediction in video coding
US20170150156A1 (en) 2015-11-25 2017-05-25 Qualcomm Incorporated Illumination compensation with non-square predictive blocks in video coding
US20190052878A1 (en) 2016-02-08 2019-02-14 Sharp Kabushiki Kaisha Systems and methods for transform coefficient coding
GB2548358A (en) 2016-03-15 2017-09-20 Nokia Technologies Oy A method, an apparatus and a computer program product for coding a 360-degree panoramic images and video
US10567759B2 (en) 2016-03-21 2020-02-18 Qualcomm Incorporated Using luma information for chroma prediction with separate luma-chroma framework in video coding
US10701375B2 (en) 2016-03-23 2020-06-30 Dolby Laboratories Licensing Corporation Encoding and decoding reversible production-quality single-layer video signals
DE112017001540B4 (de) 2016-03-25 2023-02-02 Panasonic Intellectual Property Management Co., Ltd. Verfahren und vorrichtungen zum codieren und decodieren von video unter verwendung signalabhängiger adaptiver quantisierung
JP6846442B2 (ja) 2016-05-19 2021-03-24 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ画像のためのクロマ再構成
WO2017201139A1 (en) 2016-05-19 2017-11-23 Dolby Laboratories Licensing Corporation Chroma reshaping for high dynamic range images
RU2710667C1 (ru) 2016-05-28 2019-12-30 МедиаТек Инк. Способ и устройство привязки к текущему изображению для кодирования видео
EP3453172B1 (en) 2016-05-28 2023-08-09 HFI Innovation Inc. Methods and apparatuses of video data processing with conditionally quantization parameter information signaling
US10484712B2 (en) 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
EP3488610A4 (en) * 2016-07-22 2019-07-17 Sharp Kabushiki Kaisha SYSTEMS AND METHOD FOR CODING VIDEO DATA BY ADAPTIVE COMPONENT CALING
US10390015B2 (en) 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
EP3510772B1 (en) 2016-09-09 2020-12-09 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
US10652575B2 (en) 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
JP2018056685A (ja) 2016-09-27 2018-04-05 株式会社ドワンゴ 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム
JP7356347B2 (ja) 2016-10-04 2023-10-04 エルエックス セミコン カンパニー, リミティド 画像復号方法、画像符号化方法、及び記録媒体
US10477240B2 (en) 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
WO2018116925A1 (ja) 2016-12-21 2018-06-28 シャープ株式会社 イントラ予測画像生成装置、画像復号装置、および画像符号化装置
JP2020031252A (ja) 2016-12-22 2020-02-27 シャープ株式会社 画像復号装置及び画像符号化装置
US20180199062A1 (en) 2017-01-11 2018-07-12 Qualcomm Incorporated Intra prediction techniques for video coding
US11025903B2 (en) 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US10694181B2 (en) 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
EP3386198A1 (en) 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
WO2018236031A1 (ko) 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING
EP3425911A1 (en) 2017-07-06 2019-01-09 Thomson Licensing A method and a device for picture encoding and decoding
US10778978B2 (en) 2017-08-21 2020-09-15 Qualcomm Incorporated System and method of cross-component dynamic range adjustment (CC-DRA) in video coding
JP7167923B2 (ja) 2017-09-15 2022-11-09 ソニーグループ株式会社 画像処理装置および方法
JP2021010046A (ja) 2017-10-06 2021-01-28 シャープ株式会社 画像符号化装置及び画像復号装置
US20190116376A1 (en) 2017-10-12 2019-04-18 Qualcomm Incorporated Motion vector predictors using affine motion model in video coding
AU2019222715B2 (en) 2018-02-14 2021-09-16 Dolby Laboratories Licensing Corporation Image reshaping in video coding using rate distortion optimization
WO2019194496A1 (ko) 2018-04-01 2019-10-10 엘지전자 주식회사 비디오 신호의 컬러 컴포넌트에 대한 병렬 처리 방법 및 이를 위한 장치
CN109005408B (zh) 2018-08-01 2020-05-29 北京奇艺世纪科技有限公司 一种帧内预测方法、装置及电子设备
CN116347109A (zh) 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
CN117478883A (zh) 2018-09-12 2024-01-30 北京字节跳动网络技术有限公司 交叉分量线性模型中的尺寸相关的下采样
CN111373754A (zh) 2018-10-23 2020-07-03 北京字节跳动网络技术有限公司 仿射编码的自适应控制点选择
WO2020094010A1 (en) 2018-11-05 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Prediction precision improvements video coding
KR20210089131A (ko) 2018-11-06 2021-07-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 위치 기반 인트라 예측
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
US20220086428A1 (en) 2018-12-31 2022-03-17 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus, and recording medium storing bitstream
WO2020156533A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Interactions between in-loop reshaping and palette mode
CN117499669A (zh) 2019-02-22 2024-02-02 华为技术有限公司 用于色度子块的仿射帧间预测的方法及装置
KR102628086B1 (ko) 2019-02-22 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인트라 예측을 위한 이웃 샘플 선택
BR112021015017B1 (pt) 2019-02-24 2022-07-26 Bytedance Inc. Método e aparelho para codificar dados de vídeo, e, mídia de armazenamento
EP3703366A1 (en) 2019-02-28 2020-09-02 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
US11991373B2 (en) 2019-02-28 2024-05-21 Interdigital Vc Holdings, Inc. Method and device for picture encoding and decoding
CN113545064B (zh) * 2019-03-04 2024-05-10 阿里巴巴集团控股有限公司 用于处理视频内容的方法和装置及计算机可读存储介质
CN113475072B (zh) 2019-03-04 2023-12-15 北京字节跳动网络技术有限公司 视频处理中滤波信息的信令
US20200288159A1 (en) * 2019-03-08 2020-09-10 Qualcomm Incorporated Combined residual coding in video coding
EP3918800A4 (en) 2019-03-08 2022-07-06 Beijing Bytedance Network Technology Co., Ltd. SIGNALING TRANSFORMATION INFORMATION IN VIDEO PROCESSING
US20200288126A1 (en) * 2019-03-08 2020-09-10 Qualcomm Incorporated Reshaping filter average calculation for video coding
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
WO2020192633A1 (en) 2019-03-25 2020-10-01 Mediatek Inc. Method and apparatus of the quantization matrix computation and representation for video coding
WO2020204413A1 (ko) 2019-04-03 2020-10-08 엘지전자 주식회사 복원 픽처를 수정하는 비디오 또는 영상 코딩
EP3935834A4 (en) 2019-04-18 2022-08-17 Beijing Bytedance Network Technology Co., Ltd. LIMITATION ON THE APPLICABILITY OF A CROSS COMPONENT MODE
CN117956188A (zh) 2019-04-20 2024-04-30 北京字节跳动网络技术有限公司 用于色度残差的联合编解码的语法元素的信令
MX2021012674A (es) 2019-04-23 2021-11-12 Beijing Bytedance Network Tech Co Ltd Metodos para la reduccion de dependencia de componentes cruzados.
CN111866510A (zh) 2019-04-30 2020-10-30 华为技术有限公司 视频序列的帧内预测方法及装置
JP7407206B2 (ja) 2019-05-08 2023-12-28 北京字節跳動網絡技術有限公司 クロスコンポーネントコーディングの適用条件
US11930191B2 (en) 2019-05-16 2024-03-12 Lg Electronics Inc. Luma mapping—and chroma scaling-based video or image coding
US11388406B2 (en) 2019-05-20 2022-07-12 Dolby Laboratories Licensing Corporation Piece-wise-linear mapping for in-loop reshaping in image coding
JP2021002780A (ja) 2019-06-21 2021-01-07 シャープ株式会社 動画像復号装置および動画像符号化装置
JP7418478B2 (ja) 2019-06-22 2024-01-19 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのためのシンタックス要素
CN117395396A (zh) 2019-07-07 2024-01-12 北京字节跳动网络技术有限公司 色度残差缩放的信令通知
JP2022539887A (ja) 2019-07-11 2022-09-13 北京字節跳動網絡技術有限公司 映像符号化におけるイントラブロックコピーのためのビットストリーム適合性の制約
US11601657B2 (en) 2020-04-02 2023-03-07 Qualcomm Incorporated LUMA mapping with chroma scaling (LMCS) in video coding
CN115668947A (zh) 2020-04-02 2023-01-31 Lg电子株式会社 用信号通知hls的图像编码/解码方法和设备及存储比特流的计算机可读记录介质
US11375212B2 (en) 2020-04-18 2022-06-28 Qualcomm Incorporated Flexible chroma processing for dynamic range adjustment
WO2021256107A1 (ja) 2020-06-15 2021-12-23 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
US20210400257A1 (en) 2020-06-18 2021-12-23 Lg Electronics Inc. Image encoding/decoding method and apparatus for signaling high level information for tool control based on colour representation format, and computer-readable recording medium strong bitstream
WO2022115698A1 (en) 2020-11-30 2022-06-02 Beijing Dajia Internet Information Technology Co., Ltd. Chroma coding enhancement in cross-component sample adaptive offset

Also Published As

Publication number Publication date
US20220124340A1 (en) 2022-04-21
CN114128280B (zh) 2023-11-14
CN114128280A (zh) 2022-03-01
US11956439B2 (en) 2024-04-09
JP2024019443A (ja) 2024-02-09
EP3977738A4 (en) 2022-08-17
KR20220029594A (ko) 2022-03-08
EP3977738A1 (en) 2022-04-06
JP2022540117A (ja) 2022-09-14
KR102660738B1 (ko) 2024-04-26
JP7460748B2 (ja) 2024-04-02
US11533487B2 (en) 2022-12-20
WO2021004445A1 (en) 2021-01-14
US20230096945A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
CN114128280B (zh) 色度残差缩放的信令通知
JP7418478B2 (ja) クロマ残差スケーリングのためのシンタックス要素
CN113796072B (zh) 跨分量编解码的适用性条件
AU2020260285B2 (en) Restriction on applicability of cross component mode
CN113711610B (zh) 降低跨分量依赖性的方法
CN113812150B (zh) 使用滤波的基于矩阵的帧内预测

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination