CN111919446B - 解码视频图片中的当前视频块的方法 - Google Patents

解码视频图片中的当前视频块的方法 Download PDF

Info

Publication number
CN111919446B
CN111919446B CN201980021976.8A CN201980021976A CN111919446B CN 111919446 B CN111919446 B CN 111919446B CN 201980021976 A CN201980021976 A CN 201980021976A CN 111919446 B CN111919446 B CN 111919446B
Authority
CN
China
Prior art keywords
video block
video
partition
luma
quantization parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980021976.8A
Other languages
English (en)
Other versions
CN111919446A (zh
Inventor
法兰克.博森
凯兰·穆凯什·米斯拉
克里斯托弗·安德鲁·塞格尔
赵杰
朱维佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FG Innovation Co Ltd
Sharp Corp
Original Assignee
FG Innovation Co Ltd
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FG Innovation Co Ltd, Sharp Corp filed Critical FG Innovation Co Ltd
Publication of CN111919446A publication Critical patent/CN111919446A/zh
Application granted granted Critical
Publication of CN111919446B publication Critical patent/CN111919446B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及解码视频图片中的当前视频块的技术。从多个分区方式中识别出被用来分割当前视频块的分区方式是第一树分区方式或第二树分区方式,其中第一树分区方式是亮度与色度分量使用同一个分区;和第二树分区方式是亮度与色度分量使用各自的分区;基于识别的分区方式,从多个候选推导中,选择一个推导来针对当前视频块计算第一量化参数;基于计算的第一量化参数的至少一部分,针对当前视频块计算第二量化参数;和使用计算的第二量化参数,解码所述当前视频块,其中:计算的第一量化参数和第二量化参数是针对特定颜色分量计算;当识别的分区方式是第一树分区方式或第二树分区方式时,选择的推导分别是被用来计算第一量化参数的第一推导或第二推导。

Description

解码视频图片中的当前视频块的方法
技术领域
本揭露涉及视频编码,并且更具体地涉及用于导出量化参数的技术。
背景技术
数字视频能力可以被并入多种设备中,包括数字电视、笔记本电脑或台式计算机、平板电脑、数字录音设备、数字媒体播放器、视频游戏设备、移动电话(包括所谓的智能手机、医疗成像设备等)。数字视频可以根据视频编码标准进行编码。视频编码标准可以包括视频压缩技术。视频编码标准的示例包括ISO/IEC MPEG-4Visual和ITU-T H.264(也称为ISO/IEC MPEG-4AVC)和高效视频编码(High-Efficiency Video Coding,HEVC)。HEVC被描述在2016年12月的高效视频编码(HEVC)ITU-T H.265建议书中,本文通过引用将其并入其中,并将其称为ITU-T H.265。目前正在考虑对ITU-T H.265进行扩展和改进,以开发下一代视频编码标准。例如,ITU-T视频编码专家组(Video Coding Experts Group,VCEG)和ISO/IEC运动图像专家组(Moving Picture Experts Group,MPEG)(统称为联合视频探索团队(Joint Video Exploration Team,JVET))正在研究未来视频编码技术标准化的潜在需求,其压缩能力大大超过了当前的HEVC标准。联合探索模型7(Joint Exploration Model,JEM7)、2017年7月意大利都灵的ISO/IEC JTC1/SC29/WG11文件:JVET-G1001的联合勘探试验模型7(Joint Exploration Test Model,JEM 7)的算法描述中,描述了在JVET协同测试模型研究中作为超过ITU H.265的能力的潜在增强视频编码技术的编码特征。本文通过引用将JEM 7的算法描述并入其中。应该注意的是,JEM 7的编码特征是在JEM参考软件中实现的。如本文所使用的,术语JEM可统称为包括JEM7中的算法和JEM参考软件的实作。
视频压缩技术使得针对存储和传输视频数据的数据需求被减少。视频压缩技术可以通过利用视频序列中的固有冗余来减少数据需求。视频压缩技术可以将视频序列再细分为连续较小的部分(即,一个视频序列内的多个帧组、一个帧组内的一个帧、一个帧内的多个切片、一个切片内的多个编码树单元(例如,多个宏块)、一个编码树单元中的多个编码块等)。帧内预测编码技术(即,图片内(空间))和帧间预测技术(即,图片间(时间))可用于生成要编码的视频数据单位与视频数据参考单位之间的差值。所述差值可以被称为残差数据。残差数据可以被编码为量化的变换系数。语法元素可与残差数据与参考编码单元(例如,帧内预测模式索引、运动矢量和块矢量)有关。残差数据和语法元素可以被熵编码。熵编码的残差数据和语法元素可以被包括在顺应性比特流中。
发明内容
在一个示例中,一种解码视频图片中的当前视频块的方法包括:从多个分区方式中识别出被用来分割所述当前视频块的分区方式,其中:所述从多个分区方式中识别出被用来分割所述当前视频块的分区方式的步骤进一步包括:确定针对所述当前视频块的所述分区方式是第一树分区方式或第二树分区方式;所述第一树分区方式针对所述当前视频块的亮度分量与色度分量中的两者使用同一个分区;和所述第二树分区方式针对所述当前视频块的所述亮度分量使用第一分区以及针对所述当前视频块的所述色度分量使用第二分区;基于所述识别的分区方式,从用于计算第一量化参数的多个候选推导中,选择一个推导来针对所述当前视频块计算所述第一量化参数;基于所述计算的第一量化参数的至少一部分,针对所述当前视频块计算第二量化参数;和使用所述计算的第二量化参数,解码所述当前视频块,其中:所述计算的第一量化参数和所述计算的第二量化参数是针对特定颜色分量被计算出来;当所述识别的分区方式是所述第一树分区方式时,所述选择的一个推导是被用来计算所述第一量化参数的第一推导;和当所述识别的分区方式是所述第二树分区方式时,所述选择的一个推导是被用来计算所述第一量化参数的第二推导。
附图说明
图1是根据本揭露的一个或多个技术说明根据四叉树二叉树划分来编码的一组图片的实例的概念图。
图2是根据本揭露的一个或多个技术说明四叉树二叉树的实例的概念图。
图3是根据本揭露的一个或多个技术说明视频分量四叉树二叉树分割的概念图。
图4是根据本揭露的一个或多个技术说明视频分量抽样格式的实例的概念图。
图5是根据本揭露的一个或多个技术说明针对视频数据的块的可能编码结构的概念图。
图6A是根据本揭露的一个或多个技术说明对视频数据的块进行编码的实例的概念图。
图6B是根据本揭露的一个或多个技术说明对视频数据的块进行编码的实例的概念图。
图7是根据本揭露的一个或多个技术说明视频分量分割的概念图。
图8是根据本揭露的一个或多个技术说明视频分量四叉树二叉树分割的概念图。
图9是根据本揭露的一个或多个技术说明视频分量分割的概念图。
图10是根据本揭露的一个或多个技术说明可经配置以编码和解码视频数据的***的实例的方框图。
图11是根据本揭露的一个或多个技术说明可经配置以编码视频数据的视频编码器的实例的方框图。
图12是根据本揭露的一个或多个技术说明视频分量分割和邻近视频块的概念图。
图13是根据本揭露的一个或多个技术说明视频分量分割和邻近视频块的概念图。
图14是根据本揭露的一个或多个技术说明视频分量分割和邻近视频块的概念图。
图15是根据本揭露的一个或多个技术说明视频分量分割和邻近视频块的概念图。
图16是根据本揭露的一个或多个技术说明四叉树二叉树的实例的概念图。
图17是根据本揭露的一个或多个技术说明视频分量分割和量化组的概念图。
图18是根据本揭露的一个或多个技术说明可经配置以解码视频数据的视频解码器的实例的方框图。
具体实施方式
总体来说,本揭露描述了用于对视频数据进行编码的各种技术。特别地,本揭露描述了用于导出量化参数的技术。应当注意,尽管本揭露的技术被描述为有关于ITU-TH.264,ITU-T H.265和JEM,但是本揭露的技术可广泛地应用于视频编码。例如,本文描述的编码技术可以被并入包括块结构、帧内预测技术、帧间预测技术、变换技术,滤波技术和/或熵编码技术以及ITU-T H.265和JEM所包含的以外的其他技术的视频***(包括基于未来视频编码标准的视频编码***)中。因此,对ITU-T H.264,ITU-T H.265和/或JEM的引用是出于描述目的,并且不应被解释为限制本文所述技术的范围。此外,应当注意,通过引用并入本文中的文件是出于描述的目的,并且不应被解释为相对于本文中使用的术语的限制或造成歧义。例如,在合并的参考文献提供的术语定义与另一个合并的参考文献和/或在本文中使用该术语不同的情况下,应以广泛包括每个相应定义的方式和/或以在替代方案中包括每个特定定义的方式,来解释该术语。
在一个示例中,一种用于对视频数据进行编码的设备包括一个或多个处理器,该处理器被配置为至少部分地基于与参考视频块相关联的量化参数、用于生成参考视频块的分区以及用于生成当前视频块的分区,以为当前视频块确定预测量化参数,以及至少部分地基于所确定的预测量化参数,为当前视频块生成量化参数。
在一个示例中,一种非暂时性计算机可读存储介质包括存储在其上的指令,该指令在被执行时使设备的一个或多个处理器至少部分地基于与参考视频块相关联的量化参数、用于生成参考视频块的分区以及用于生成当前视频块的分区,以为当前视频块确定预测量化参数,以及至少部分地基于所确定的预测量化参数,为当前视频块生成量化参数。
在一个示例中,一种装置包括:用于至少部分地基于与参考视频块相关联的量化参数、用于生成参考视频块的分区以及用于生成当前视频块的分区,以为当前视频块确定预测量化参数的部件,以及用于至少部分地基于所确定的预测量化参数来产生用于当前视频块的量化参数的部件。
一个或多个示例的细节在附图和以下描述中阐述。其他特征,目的和优点从说明书和附图以及从权利要求书来看是显而易见的。
视频内容通常包括由一系列帧(或图片)组成的视频序列。一系列帧也可以被称为图片组(group of pictures,GOP)。每个视频帧或图片可以包括多个切片或图块,其中切片或图块包括多个视频块。如本文所使用的,术语“视频块”通常可以指图片的区域,或者可以更具体地指可以被预测编码的样本值的最大阵列、其细分和/或对应的结构。此外,术语“当前视频块”可以指被编码或解码的图片的区域。视频块可以被定义为可以被预测编码的样本值的阵列。应当注意,在某些情况下,像素值可能被描述为包括视频数据各个分量的样本值,这些样本值也可以称为颜色分量(例如,亮度(luma,Y)和色度(chroma,Cb和Cr)分量或红色,绿色和蓝色分量)。应当注意,在某些情况下,术语“像素值”和“样本值”可互换使用。可以根据扫描模式(例如,光栅扫描)在图片内对视频块进行排序。视频编码器可以对视频块及其细分执行预测编码。视频块及其细分可被称为节点。
ITU-T H.264规定了一个包括16x16亮度样本的宏块。即,在ITU-T H.264中,图片被分割成宏块。ITU-T H.265规定了一种类似的编码树单元(Coding Tree Unit,CTU)结构(可以称为最大编码单元(largest coding unit,LCU))。在ITU-T H.265中,图片被分割成CTU。在ITU-T H.265中,对于图片,可以将CTU大小设置为包括16x16、32x32或64x64亮度样本。在ITU-T H.265中,CTU由视频数据各分量(例如亮度(Y)和色度(Cb和Cr))的各个编码树块(Coding Tree Blocks,CTB)组成。应当注意,具有亮度分量和两个相应的色度分量的视频可以被描述为具有两个通道,即亮度通道和色度通道。此外,在ITU-T H.265中,CTU可以根据四叉树(quadtree,QT)分区结构进行分区,这导致CTU的CTB被划分为编码块(CodingBlocks,CB)。即在ITU-T H.265中,CTU可能被划分为四叉树的叶节点。根据ITU-T H.265,一个亮度CB连同两个相应的色度CB以及相关的语法元素一起称为编码单元(coding unit,CU)。在ITU-T H.265中,CB最小可允许大小可以会被信号通知。在ITU-T H.265中,亮度CB的最小可允许大小为8x8个亮度样本。在ITU-T H.265中,使用帧内预测还是帧间预测对图像区域进行编码的决定是在CU级别产生的。
在ITU-T H.265中,CU与以CU为根的预测单元(prediction unit,PU)结构相关联。在ITU-T H.265中,PU结构允许将亮度和色度CB分开,以生成相应的参考样本。也就是说,在ITU-T H.265中,亮度和色度CB可以分为各自的亮度和色度预测块(prediction blocks,PB),其中PB包括多个抽样值的一个块,多个抽样值应用了相同的预测。在ITU-T H.265中,CB可以划分为1、2或4个PB。ITU-T H.265支持PB大小,从64x64样本到4x4样本。在ITU-TH.265中,方形PB用于帧内预测支持,其中CB可以形成PB或CB可以划分为四个方形PB(即,帧内预测PB类型包括MxM或M/2xM/2,其中M是正方形CB的高度和宽度)。在ITU-T H.265中,除了方形PB外,还支持矩形PB用于帧间预测,其中CB可以垂直或水平对半形成PB(即帧间预测PB类型包括MxM,M/2xM/2,M/2xM或MxM/2)。此外,应注意的是,在ITU-T H.265中,针对帧间预测,四个非对称PB分区是被支持,其中CB在CB(即,不对称分区包括M/4xM左,M/4xM右,MxM/4顶部和MxM/4底部)的高度(顶部或底部)或宽度(在左侧或右侧)的四分之一处被划分为两个PB。与PB相对应的帧内预测数据(例如,帧内预测模式语法元素)或帧间预测数据(例如,运动数据语法元素)用于产生PB的参考和/或预测样本值。
JEM具体说明了具有最大尺寸的256x256亮度样本的CTU。JEM具体说明四叉树加二叉树(quadtree plus binary tree,QTBT)块结构。在JEM中,QTBT结构使四叉树叶节点可以进一步由二叉树(binary tree,BT)结构进行分区。也就是说,在JEM中,二叉树结构使四叉树叶节点可以垂直或水平递归地分割。图1示出了将CTU(例如,具有256×256亮度样本的大小的CTU)划分为四叉树叶节点并且四叉树叶节点被进一步根据二叉树划分的示例。即,在图1中,虚线表示四叉树中的附加的二叉树分区。因此,JEM中的二叉树结构启用了正方形和矩形叶节点,其中每个叶节点都包含一个CB。如图1所示,包括在GOP中的图片可以包括切片,其中每个切片包括一系列CTU,并且可以根据QTBT结构来划分每个CTU。图1示出了针对包括在切片中一个CTU的QTBT划分的示例。图2是说明与图1中示出的QTBT分区示例相对应的QTBT的示例的概念图。
在JEM中,QTBT是通过发信号通知QT拆分标志和BT拆分模式语法元素的方式来被信号通知。当QT拆分标志具有1的值时,将指示QT拆分。当QT拆分标志具有0的值时,BT拆分模式语法元素将被发信号通知。当BT拆分模式语法元素具有0的值时(即,BT拆分模式编码树=0),则不指示二进制拆分。当BT拆分模式语法元素具有3的值时(即,BT分割模式编码树=11),表示垂直分割模式被指示。当BT拆分模式语法元素具有2的值时(即,BT分割模式编码树=10),表示水平分割模式被指示。此外,可以执行BT拆分,直到达到最大BT深度。因此,根据JEM,图2中示出的QTBT可以根据表1中提供的伪语法来做信号通知:
Figure GDA0003798684360000081
表1
如图2和表1所示,QT拆分标志语法元素和BT拆分模式语法元素与深度相关联,其中零深度对应于QTBT的根,而更高值的深度对应于根以外的后续深度。此外,在JEM中,亮度和色度通道可以具有不同的QTBT分区。即,在JEM中,可以通过发信号通知各自的QTBT来独立地划分亮度和色度通道。图3示出了根据用于亮度分量的QTBT和用于色度分量的独立QTBT而被划分的CTU的示例。如图3所示,当使用独立的QTBT来划分CTU时,亮度分量的CB不需要并且不必与色度分量的CB对齐。当前,在JEM中,为帧内预测切片可启用了独立的QTBT结构。应当注意,对于具有帧内类型的视频数据的切片(可以称为帧内预测切片)仅启用帧内预测模式,并且对于具有帧间类型的视频数据的切片(可以称为帧间预测切片),帧内预测模式和帧间预测模式都可被启用。
此外,应注意,JEM包括以下用于QTBT树信令的参数:
CTU大小:四叉树的根节点大小(例如256x256、128x128、64x64、32x32、16x16亮度样本);
MinQTSize:最小允许的四叉树叶节点大小(例如16x16、8x8亮度样本);
MaxBTSize:最大允许的二叉树根节点大小,即可以通过二进制分割来划分的叶四叉树节点的最大大小(例如64x64亮度样本);
MaxBTDepth:最大允许的二叉树深度,即可能发生二进制分割的最低级别,其中四叉树叶节点为根(例如3);
MinBTSize:最小允许的二叉树叶节点大小,即二叉叶节点的最小宽度或高度(例如4亮度样本)。
应当注意,在一些示例中,MinQTSize,MaxBTSize,MaxBTDepth和/或MinBTSize对于视频的不同分量可以是不同的。
在JEM中,CB用于预测而无需任何进一步的划分。即,在JEM中,CB可以是对其应用了相同预测的多个样本值的块。因此,JEM QTBT叶节点可以类似于ITU-T H.265中的PB。
视频抽样格式(也可以称为色度格式)可以相对于包括在CU中的亮度样本的数量来定义包括在CU中的色度样本的数量。例如,对于4:2:0抽样格式,亮度分量的抽样率是水平和垂直方向上色度分量的抽样率的两倍。结果,对于根据4:2:0格式来格式化的CU,亮度分量的样本的阵列的宽度和高度是色度分量的样本的每个阵列的两倍。图4是示出根据4:2:0样本格式格式化的编码单元的示例的概念图。图4示出了在CU内色度样本相对于亮度样本的相对位置。如上所述,CU通常根据水平和垂直亮度样本的数量来定义。因此,如图4所示,根据4:2:0样本格式格式化的16x16 CU包括16x16样本的亮度分量和8x8采样本的每个色度分量。此外,在图4所示的示例中,示出了针对与16x16 CU相邻的视频块的色度样本相对于亮度样本的相对位置。对于根据4:2:2格式格式化的CU,亮度分量的样本的阵列的宽度是每个色度分量的样本的阵列的宽度的两倍,但亮度分量的样本的阵列的高度是等于每个色度分量的样本的阵列的高度。此外,对于根据4:4:4格式格式化的CU,亮度分量的样本的阵列具有与每个色度分量的样本的阵列相同的宽度和高度。
如上所述,帧内预测数据或帧间预测数据用于产生块内样本值的参考样本值。包括在当前PB或另一类型的图片区域结构中的样本值与相关联的参考样本(例如,使用预测生成的参考样本)之间的差可以称为残差数据。残差数据可包括对应于视频数据的每个分量的差值的相应阵列。残差数据可能在像素域中。可将诸如离散余弦变换(discretecosine transform,DCT)、离散正弦变换(discrete sine transform,DST)、整数变换、小波变换或概念上类似的变换之类的变换应用于差值的阵列以生成变换系数。在某些情况下,变换过程可以包括旋转和/或执行一个或多个一维变换。应当注意,在ITU-T H.265中,CU与根在CU级别的变换单元(transform unit,TU)结构相关联。即,在ITU-T H.265中,为了生成变换系数的目的可以细分差值的阵列(例如,可以将四个8×8变换应用于残差值的16×16阵列)。对于视频数据的每个分量,这样的差值的细分可以被称为变换块(TransformBlocks,TBs)。应当注意,在ITU-T H.265中,TB不一定与PB对齐。图5示出了可用于编码特定CB的替代PB和TB组合的示例。此外,应注意,在ITU-T H.265中,TB可能具有以下大小4x4、8x8、16x16和32x32。
应当注意,在JEM中,对应于CB的残差值被用于生成变换系数而无需进一步划分。也就是说,在JEM中,QTBT叶节点可能类似于ITU-T H.265中的PB和TB。应当注意,在JEM中,可以应用核心变换和随后的次级变换(在视频编码器中)以生成变换系数。对于视频解码器,转换顺序相反。此外,在JEM中,是否应用二次变换来生成变换系数可以取决于预测模式。
量化处理可以直接对变换系数或残差样本值执行(例如在调色板编码量化的情况下)。量化通过限制到一组指定值的幅度来近似变换系数。量化实质上缩放变换系数,以便改变表示一组变换系数所需的数据量。量化可包括将变换系数(或将偏移值与变换系数相加的结果值)除以量化比例因子和任何相关的取整函数(例如,取整到最接近的整数)。量化的变换系数可以被称为系数水平值。逆量化(或“去量化”)可包括将系数水平值乘以量化比例因子,以及任何倒数取整或偏移加法运算。应当注意的是,如本文所使用的术语量化过程,在某些情况下可以指的是除以比例因子以生成水平值,并且在某些情况下可以与比例因子相乘以恢复变换系数。即,量化处理在某些情况下可以指量化,在某些情况下可以指逆量化。此外,应当注意,尽管在下面的一些示例中,针对与十进制表示法相关的算术运算描述了量化处理,但是这种描述仅用于说明性目的,而不应视为限制性的。例如,本文描述的技术可以使用二进制操作等在设备中实现。例如,这里描述的乘法和除法运算可以使用移位运算等来实现。
关于在此使用的方程式,可以使用以下算术运算符:
+加法
-减法
*乘法,包括矩阵乘法
xy求幂。指定为x的y次方。在其他上下文中,此类表示法用于上标,而不用于解释为幂。
/朝0截断的结果的整数除法。例如,7/4和-7/-4被截断为1,而-7/4和7/-4被截断为-1。
÷用于表示数学方程式中的除法,其中不进行截断或取整。
Figure GDA0003798684360000121
用于表示数学方程式中的除法,其中不进行截断或取整。
x%y模数。x除以y的余数,仅针对x>=0且y>0的整数x和y定义。
此外,可以使用以下逻辑运算符:
x&&y x和y的布尔逻辑“与”
x||y x和y的布尔逻辑“或”
!布尔逻辑“非”
x?y:z如果x为TRUE或不等于0,则求值为y;否则,求值为z。
此外,可以使用以下关系运算符:
>大于
>=大于或等于
<小于
<=小于或等于
==等于
!=不等于
此外,可以使用以下按位运算符:
&按位“与”。当对整数参数进行运算时,对整数值的二进制补码表示形式进行操作。当对包含的位数少于另一个参数的二进制参数进行运算时,可通过添加更多等于0的有效位来扩展较短的参数。
|按位“或”。当对整数参数进行运算时,对整数值的二进制补码表示形式进行操作。当对包含的位数少于另一个参数的二进制参数进行运算时,可通过添加更多等于0的有效位来扩展较短的参数。
^按位“异或”。当对整数参数进行运算时,对整数值的二进制补码表示形式进行操作。当对包含的位数少于另一个参数的二进制参数进行运算时,可通过添加更多等于0的有效位来扩展较短的参数。
x>>y x以y二进制的算术右移的二进制补码表示形式。此函数仅定义于y为非负整数值。由于右移而移位到最高有效位(most significant bits,MSBs)的位的值等于移位操作之前的x的MSB。
x<<y x以y二进制的算术左移的二进制补码表示形式。此函数仅定义于y为非负整数值。由于左移而移位到最低有效位(least significant bits,LSBs)的位的值等于0。
此外,可以使用以下数学函数:
Log2(x)x以2为底的对数;
Figure GDA0003798684360000131
Figure GDA0003798684360000132
图6A至图6B是示出对视频数据的块进行编码的示例的概念图。参照图6A,通过从视频数据的当前块中减去一组预测值来生成残差,对残差执行变换,并量化该变换系数以生成水平值,来对视频数据的当前块(例如,与视频分量相对应的CB)进行编码。参照图6B,通过对水平值执行逆量化,执行逆变换并将一组预测值添加到所得残差,来对视频数据的当前块进行解码。应该注意的是,在图6A-6B的示例中,重构块的样本值不同于被编码的当前视频块的样本值。以这种方式,编码可以说是有损的。然而,样本值的差异对于重建的视频的观看者可以被认为是可接受的或不可感知的。
此外,如图6A至图6B所示,使用比例因子的阵列来生成系数水平值。在ITU-TH.265中,通过选择比例矩阵并将比例矩阵中的每个元素乘以量化比例因子,来生成比例因子的阵列。在ITU-T H.265中,部分基于预测模式和颜色分量来选择比例矩阵,其中以下尺寸的比例矩阵被定义:4x4、8x8、16x16和32x32。应当注意,在一些示例中,比例矩阵可以为每个元素提供相同的值(即,根据单个值缩放所有系数)。在ITU-T H.265中,量化比例因子的值可以由量化参数(quantization parameter,QP)确定。在ITU-T H.265中,对于8位的位深度,QP可以采用从0到51的52个值,并且对于QP的1的变化通常对应于量化比例因子的变化约12%。应该注意的是,在更一般的情况下,在ITU-T H.265中,来源比特深度的QP值的有效范围是-6*(比特深度-8)至+51(含)。因此,例如,在位深度为10位的情况下,QP可以采用从-12到51的64个值,在反量化过程中可以将其映射为0到63的值。
此外,在ITU-T H.265中,可以使用预测量化参数值(可以称为预测QP值或QP预测值)和选择性信号通知的量化参数增量值(可以称为QP增量值或增量QP值),来导出用于一组变换系数的QP值。在ITU-T H.265中,可以为每个CU更新量化参数,并且可以为每个亮度和色度通道导出各自的量化参数。在ITU-T H.265中,对于当前CU,将为CU继承一个预测的QP值(即,在切片级别发送的QP或来自先前CU的QP),并且可以选择发送增量QP值以用于CU中的每个TU。对于亮度通道,每个亮度TB的QP是预测QP值和任何被发送增量QP值之和。此外,对于ITU-T H.265中的大多数配置(Profiles),对于当前CU的色度通道,色度QP是为对于亮度通道所确定的QP和在切片标头中用信号通知的色度QP偏移和/或在图像参数集(picture parameter set,PPS)中用信号通知的色度QP偏移的函数。
如上所述,在ITU-T H.265中,可以为CU内的每个TU选择性的信号通知增量QP值。特别是,在ITU-T H.265中,量化组大小用于确定是否可以为特定TU信号通知增量QP。例如,视频编码器可以选择64x64的CTU大小和32x32的量化组大小。在这种情况下,如果CTU被划分为具有各自的32x32 TU的四个32x32 CU,则可以为每个TU信号通知增量QP。但是,如果将四个32x32CU进一步划分为较小的TU(例如8x8、16x16),则仅对每个32x32 CU区域中的第一个8x8 TU信号通知增量QP。应该注意的是,在ITU-T H.265中,TU结构使每个亮度和色度通道的TB对齐。即,在ITU-T H.265中,用于分量(例如,色度分量)的TB直接对应于另一分量的TB。在ITU-T H.265,差值在PPS中用信号通知(即,语法元素diff_cu_qp_delta_depth)以指示亮度CTB大小和量化组大小之间的差。例如,如果CTB大小为64x64,而量化组大小为16x16,则差值(以对数表示)被信号通知以指示量化组大小。应该注意的是,在ITU-TH.265中,量化组始终为平方。
如上所述,量化可包括以量化比例因子对变换系数的除法和任何相关的舍入函数(例如,舍入到最接近的整数)。在某些情况下,量化可能导致零的水平值,例如对于相对高的量化参数。非零水平值可被描述为重要的。在ITU-TH.265中,可以为每个分量发信号通知一个已编码的块标志(coded block flag,cbf),以指示一个变换块是否包括一个或多个不等于0的变换系数水平(例如,已编码的块标志,cbf_luma、cbf_cb和cbf_cr)。此外,在ITU-TH.265中,如果对应于根的块不包含有效系数,cbf可能被信号通知在根(root_cbf)处,以指示cbf_luma、cbf_cb和cbf_cr的存在。在ITU-T H.265中,增量QP值的信号通知以cbf_luma、cbf_cb或cbf_cr(cbfChroma的逻辑表达式cbf_cb或cbf_cr)之一为条件,该值表示对于一个分量的一个或多个变换系数水平不等于0(即,当TU包含有效水平值时,可能会信号通知增量QP值)。即,如表2的伪语法的示例中所提,指示增量QP值delta_qp()的语法可以存在于TU单元语法中。
表2
Figure GDA0003798684360000151
关于delta_q()语法,ITU-T H.265包括表3所示的以下语法:
表3
cu_qp_delta_enabled_flag在ITU-T H.265中的定义如下:
等于1的cu_qp_delta_enabled_flag指定...转换单元语法中可能存在cu_qp_delta_abs...等于0的cu_qp_delta_enabled_flag指定...转换单元语法中不存在cu_qp_delta_abs...
语法元素cu_qp_delta_abs和cu_qp_delta_sign_flag在下面进一步详细描述。当量化组的第一个非零TU被信号通知且delta_qp值被接收到时,IsCuQpDeltaCoded也被设置为1。在新的量化组开始时,IsCuQpDeltaCoded被设置为0。新量化组的开始是基于量化组大小来确定。例如,如果量化组大小与CTU大小相同,则在CTU开始时,IsCuQpDeltaCoded被设置为0。
定义ITU-T H.265中针对在x×y数组中的每个元素的反量化过程可以总结如下:
Figure GDA0003798684360000161
其中
d[x][y]是结果的变换系数;
TransCoefflevel是系数水平值;
m[x][y]是比例矩阵;
levelScale[k]={40,45,51,57,64,72}其中k=0.5;
qP是量化参数;
bdShift=BitDepth+log2(nTbs)+10;
BitDepth是相应分量的位深度;以及
nTbs指定相应的转换块的大小。
应当注意,在某些情况下(例如,对于DCT),在d[0][0]处的变换系数可以被称为DC变换系数,并且阵列中的其他变换系数可以被称为AC变换系数。
如上所述,在ITU-T H.265中,对于亮度分量,每个亮度TB的QP是预测QP值和任何被信号通知的增量QP值之和。特别地,对于当前CU,视频解码器可基于从相邻CU的QP值导出的预测来导出亮度QP的值。也就是说,在ITU-T H.265中,亮度QP Qp’Y的推导如下:
Qp'Y=QpY+QpBdOffsetY
其中
QpY((qPY_PRED+CuQpDeltaVal+52+2*QpBdOffsetY)%(52+QpBdOffsetY))–QpBdOffsetY
其中
qPY_PRED=(qPY_A+qPY_B+1)>>1;
其中
在大多数情况下,qPY_A设置为等于当前CU左侧的编码单元的QpY
在大多数情况下,qPY_B设置为等于当前CU上方编码单元的QpY
其中
CuQpDeltaVal=cu_qp_delta_abs*(1-2*cu_qp_delta_sign_flag);
其中
cu_qp_delta_abs是一个语法元素,有条件地包含在位流中的转换单元级别,它指定当前编码单元的亮度量化参数与其预测之间的差值CuQpDeltaVal的绝对值。
cu_qp_delta_sign_flag是一个语法元素,有条件地包含在位流中的转换单元级别,它指定CuQpDeltaVal的符号,如下所示:
-如果cu_qp_delta_sign_flag等于0,则对应的CuQpDeltaVal具有正值。
-否则(cu_qp_delta_sign_flag等于1),相应的CuQpDeltaVal具有负值。
其中
QpBdOffsetY=6*bit_depth_luma_minus8;
其中
bit_depth_luma_minus8是包含在序列级别的比特流中的语法元素,它指定亮度量化参数范围偏移QpBdOffsetY的值,并且应在0到8的范围内(包括0和8)。
应当注意,在某些情况下,例如,当相邻块不可用时,可以将qPY_A和qPY_B设置为等于变量qPY_PREV。在ITU-T H.265中,qPY_PREV被设置为等于解码顺序中前一个量化组中最后一个编码单元的QpY,或者被设置为SliceQpY,SliceQpY是根据在比特流处中在切片标头发信号通知的语法元素slice_qp_delta来确定的。
其中,
slice_qp_delta指定用于切片中的编码块的QpY的初始值,直到被编码单位层中的CuQpDeltaVal的值修改为止。切片的QpY量化参数的初始值SliceQPY推导如下:
SliceQpY=26+init_qp_minus26+slice_qp_delta
SliceQpY的值应在-QpBdOffsetY到+51(含)范围内。
如上所述,当前,在JEM中,针对帧内预测切片对亮度和色度通道进行独立的QTBT划分被实现,并且QTBT叶节点可以类似于ITU-T H.265中的TB。在JEM中,在未启用独立QTBT分区的情况下(即,帧间切片),以类似ITU-T H.265的方式,在CU单元语法中存在指示增量QP值的语法,如上面针对表2的伪语法示例所述。在JEM中,在启用独立QTBT结构的情况下(即,对于帧内切片),当亮度和色度通道具有单独的分区树时,QP值为针对亮度和色度分量独立发出信号通知。具体而言,两组指示delta QP的语法(即,亮度的delta_qp()和色度的delta_qp())分别将cBfLuma和cbfChroma独立作为条件。即,对于每个独立的QTBT分区,如表4A和表4B的伪语法的示例中所提供的,delta_qp()可能存在。
Figure GDA0003798684360000191
表4A
Figure GDA0003798684360000192
表4B
再次参考图6A,量化的变换系数被编码为比特流。量化的变换系数和语法元素(例如,指示视频块的编码结构的语法元素)可以根据熵编码技术进行熵编码。熵编码技术的示例包括上下文自适应可变长度编码(content adaptive variable length coding,CAVLC)、上下文自适应二进制算术编码(context adaptive binary arithmetic coding,CABAC)、概率区间划分熵编码(probability interval partitioning entropy coding,PIPE)等。熵编码的量化变换系数和对应的熵编码的语法元素可以形成可用于在视频解码器处重建视频数据的顺应性比特流。熵编码过程可包含对语法元素执行二进制化。二进制化是指将语法值转换为一系列一个或多个位的过程。这些位可以称为“bins”。二进制化是无损过程,并且可以包括以下编码技术中的一种或组合:固定长度编码、一元编码、截断一元编码、截断Rice编码、Golomb编码、k阶指数Golomb编码和Golomb-Rice编码。例如,二进制化可以包括使用8位固定长度二进制化技术将语法元素的5的整数值表示为00000101,或者使用一元编码二进制化技术将5的整数值表示为11110。如本文所用,术语固定长度编码、一元编码、截断一元编码、截断Rice编码、Golomb编码、k阶指数Golomb编码和Golomb-Rice编码中的每一个都可以指这些技术的一般实现和/或这些编码技术的更多具体实现。例如,Golomb-Rice编码实现可以具体根据视频编码标准(例如,ITU-T H.265)来定义。熵编码过程还包括使用无损数据压缩算法来对bin值进行编码。在CABAC的示例中,对于特定bin,上下文模型可以从与bin相关联的一组可用上下文模型中选择。在一些示例中,可以基于先前的bin和/或先前的语法元素的值来选择上下文模型。上下文模型可以识别具有特定值的bin的概率。例如,上下文模型可以指示编码0值bin的概率为0.7,而编码1值bin的概率为0.3。应该注意的是,在某些情况下,对0值的bin进行编码的概率和对1值的bin进行编码的概率可能相加不等于1。选择可用的上下文模型后,CABAC熵编码器可以根据确定的上下文模型算术编码bin。上下文模型可以基于编码bin的值来更新。上下文模型可以基于与上下文一起存储的关联变量来更新,例如,适应窗口大小,使用上下文编码的bin的数量。应当注意,根据ITU-T H.265,CABAC熵编码器可以实现,使得可以在不使用明确分配的上下文模型的情况下使用算术编码对一些语法元素进行熵编码。这种编码可作为旁路编码。
如上所述,帧内预测数据或帧间预测数据可以将图片的区域(例如,PB或CB)与对应的参考样本相关联。对于帧内预测编码,帧内预测模式可以指定图片内参考样本的位置。在ITU-T H.265中,被定义的可能的帧内预测模式包括平面(即,表面拟合)预测模式(predMode:0),DC(即,平面总体平均)预测模式(predMode:1)和33角预测模式(predMode:2-34)。在JEM中,被定义的可能的帧内预测模式包括平面预测模式(predMode:0),DC预测模式(predMode:1)和65个角度预测模式(predMode:2-66)。应当注意,平面和DC预测模式可以被称为非方向性预测模式,而角度预测模式可以被称为方向性预测模式。应当注意,不管被定义的可能的预测模式的数量,本文描述的技术通常可以适用。
对于帧间预测编码,运动矢量(motion vector,MV)识别要编码的视频块的图片以外的图片中的参考样本,从而利用视频中的时间冗余。例如,可以从位于先前编码的帧中的参考块来预测当前视频块,并且可以使用运动矢量来指示参考块的位置。运动矢量和相关数据可以描述例如运动矢量的水平分量、运动矢量的垂直分量、运动矢量的分辨率(例如:四分之一像素精度、二分之一像素精度、一个像素精度、两像素精度、四像素精度)、预测方向和/或参考图片索引值。此外,诸如ITU-T H.265的编码标准可以支持运动矢量预测。运动矢量预测使得能够使用相邻块的运动矢量来指定运动矢量。运动矢量预测的示例包括高级运动矢量预测(advanced motion vector prediction,AMVP)、时间运动矢量预测(temporal motion vector prediction,TMVP)、所谓的“合并”模式以及“跳过”和“直接”运动推断。此外,JEM支持高级时间运动矢量预测(advanced temporal motion vectorprediction,ATMVP)和时空运动矢量预测(Spatial-temporal motion vectorprediction,STMVP)。
如上所述,在JEM中,亮度和色度通道可以使用独立的QTBT独立地分割。在某些情况下,启用CTU分区可能是有用的,这使亮度和色度通道具有高达CU级别的共同分区结构,并且可以进一步分割亮度和色度通道中的一个或两个。例如,2017年12月14日提交的共同指定的美国临时专利申请第62/598,956号描述的使用直到CU级的共分区结构的技术,如果CU条件吻合,则可以进一步分区每个亮度和色度通道。例如,如果CU是包括帧间预测切片的帧内预测CU,则CU可以被进一步划分为了产生与另外的分区相对应的预测。图7示出了对于CTU的示例,亮度和色度通道具有直到CU级别的共同分区结构,并且CU(即,CUFP)的每个亮度和色度通道被进一步划分。应当注意,参照图7,为了简化说明,仅将CTU中的一个CU示出为被进一步划分。在图7所示的示例中,每个示出的CB可以是对其应用了相同预测的样本值的块。即,图7所示的CB可能类似于ITU-T H.265中的PB。然而,应该注意的是,图7中的CB是不限于ITU-T H.265定义的PB形状(即CB可能具有QTBT分区产生的形状)。
参照图7,CUFP的亮度通道根据四分割被进一步分割,并且CUFP的色度通道根据垂直分割被进一步分割。图8是示出与图7中示出的示例QTBT分区相对应的QTBT的示例的概念图。参照图8,一旦到达与共同分区相关联的CU,就可以为亮度通道和色度通道中的每一个进行QTBT的信号通知。表5示出了伪语法的示例,该伪语法可以用于用信号通知针对图8所示示例的亮度和色度通道的共享QTBT和独立QTBT。应当注意,关于表5,出于说明的目的,FI_Part标记仅示出了可以基于进一步的独立分区的条件(例如,预测模式等)。应当注意,在表5中,如上面关于表1所述,QT标志=0,指示没有QT分割;QT标志=1表示QT分割;BT标志=0,表示没有BT分割;BT标志=1,表示垂直BT分割;BT标志=2,表示水平BT分割。此外,表5所示的示例中的信号通知基于所谓的z扫描。
Figure GDA0003798684360000231
Figure GDA0003798684360000241
表5
如表5所示,在达到编码单元(BT split=0)时,进一步独立的划分条件被确定。如果条件为false,则编码单元不再发生分区信号通知。如果条件为true,则为亮度通道进行QTBT的信号通知,为色度通道进行QTBT的信号通知。
表6示出了针对编码单元发生的信号通知的一般情况。在一些示例中,进一步的划分可以对于亮度信道或色度信道之一失效。在这样的示例中,可以将表6中的coding_tree_unit_luma()或coding_tree_unit_chroma()中的任何一个替换为coding_block_luma()或coding_block_chroma()。
Figure GDA0003798684360000242
表6
此外,可以使用各种技术来确定是否以及如何将亮度和/或色度通道在CU上继续进一步划分。因此,在表6中,coding_tree_unit_luma()和coding_tree_unit_chroma()可以提供实现各种类型的分区的语义。在一个示例中,可以根据单独的分区树或共享的分区树,将亮度和色度通道在CU上继续进一步划分。图7示出了根据单独的分区树,亮度和色度通道在CU上继续进一步划分的示例。图9示出了根据共享分区树,亮度和色度通道在CU上继续进一步划分的示例。在一个示例中,标记可以指示亮度和色度通道是否根据单独的分区树或共享分区树被进一步划分。表7举例说明了一个示例,其中标志(即separate_tree_flag)指示亮度和色度通道是否根据分区的分区树(即coding_tree_unit_luma()和coding_tree_unit_chroma())或共享分区树(即coding_tree_unit_shared())被进一步划分,其中encoding_tree_unit_shared()提供了支持各种分区方式的语义。
Figure GDA0003798684360000251
表7
如上所述,在JEM中,QTBT叶节点可以类似于ITU-T H.265中的TB。因此,如图7所示,根据如上所述的JEM,QP值将在CU级别导出。因此,JEM中描述的技术可能不太理想。例如,JEM中描述的用于导出QP值的技术可能不适用于以下情况:亮度和色度通道具有达到CU级别的通用分区结构,并且亮度和色度通道中的一个或两个都可以为了产生预测的目的而被进一步分区。
图10是根据本揭露的一或多个技术说明可经配置以编码(即,编码和/或解码)视频数据的***的实例的方框图。***100表示可以使用根据本揭露的一或多个技术描述的分区技术来执行视频编码的***的示例。如图8所示,***100包括来源设备102,通信介质110和目的地设备120。如图8所示的示例中,来源设备102可以包括被配置为对视频数据进行编码并且将已编码的视频数据发送至通信介质110的任何设备。目的地设备120可以包括被配置为经由通信介质110来接收已编码的视频数据并解码已编码的视频数据的任何设备。来源设备102和/或目标设备120可以包括为有线和/或无线通信而配备的计算设备,并且可以包括机顶盒、数字录像机、电视、台式计算机、笔记本电脑或平板电脑、游戏机、包括如“智能”电话、蜂窝电话、个人游戏设备的移动设备、和医学成像设备。
通信介质110可以包括无线和有线通信介质和/或存储设备的任何组合。通信介质110可以包括同轴电缆、光纤电缆、双绞线电缆、无线发射器和接收器、路由器、交换机、转发器、基站或任何其他可用于促进各种设备和站点之间的通信的设备。通信介质110可以包括一个或多个网络。例如,通信介质110可以包括被配置为使得能够访问诸如因特网之类的万维网的网络。网络可以根据一个或多个电信协议的组合进行操作。电信协议可以包括专有方面和/或可以包括标准化电信协议。标准化电信协议的示例包括数字视频广播(DigitalVideo Broadcasting,DVB)标准、高级电视***委员会(Advanced Television SystemsCommittee,ATSC)标准、集成服务数字广播(Integrated Services DigitalBroadcasting,ISDB)标准、电缆数据服务接口规范(Data Over Cable Service InterfaceSpecification,DOCSIS)标准、全球***移动通信(Global System MobileCommunications,GSM)标准、码分多址(code division multiple access,CDMA)标准、第三代合作伙伴计划(3rd Generation Partnership Project,3GPP)标准、欧洲电信标准协会(European Telecommunications Standards Institute,ETSI)标准、互联网协议(Internet Protocol,IP)标准、无线应用协议(Wireless Application Protocol,WAP)标准以及电气电子学会工程师(Institute of Electrical and Electronics Engineers,IEEE)标准。
存储设备可以包括能够存储数据的任何类型的设备或存储介质。存储介质可以包括有形或非暂时性计算机可读介质。计算机可读介质可以包括光盘、闪存、磁存储器或任何其他合适的数字存储介质。在一些示例中,存储设备或其部分可以被描述为非易失性存储器,并且在其他示例中,存储设备的部分可以被描述为易失性存储器。易失性存储器的示例可以包括随机存取存储器(random access memories,RAM)、动态随机存取存储器(dynamicrandom access memories,DRAM)和静态随机存取存储器(static random accessmemories,SRAM)。非易失性存储器的示例可以包括磁性硬盘、光盘、软盘、闪存或电可编程存储器(electrically programmable memories,EPROM)或电可擦除可编程(electricallyerasable and programmable memories,EEPROM)存储器的形式。存储设备可以包括存储卡(例如,安全数字(Secure Digital,SD)存储卡)、内部/外部硬盘驱动器和/或内部/外部固态驱动器。数据可以根据定义的文件格式存储在存储设备上。
再次参考图10,来源设备102包括***104、视频编码器106和接口108。***104可以包括被配置为采集和/或存储视频数据的任何设备。例如,***104可以包括摄像机和可操作地耦合到摄像机的存储设备。视频编码器106可以包括被配置为接收视频数据并生成表示视频数据的顺应性比特流的任何设备。顺应性比特流可以指视频解码器可以从其接收和重建视频数据的比特流。顺应性比特流的各方面可以根据视频编码标准来定义。当产生顺应性比特流时,视频编码器106可压缩视频数据。压缩可能是有损的(可识别的或不可识别的)或无损的。接口108可以包括被配置为接收顺应性视频比特流并将顺应性视频比特流发送和/或存储到通信介质的任何设备。接口108可以包括诸如以太网卡之类的网络接口卡,并且可以包括可以发送和/或接收信息的光收发器、射频收发器或任何其他类型的设备。此外,接口108可以包括计算机***接口,该计算机***接口可以使顺应性视频比特流能够被存储在存储设备上。例如,接口108可以包括支持***组件互连(PeripheralComponent Interconnect,PCI)和***组件互连快速(Peripheral ComponentInterconnect Express,PCIe)总线协议、专有总线协议、通用串行总线(Universal SerialBus,USB)协议、I2C或用于互连对等设备的任何其他逻辑和物理结构的芯片组。
再次参考图10,目的地设备120包括接口122、视频解码器124和显示器126。接口122可以包括被配置为从通信介质接收顺应性视频比特流的任何设备。接口108可以包括例如以太网卡的网络接口卡,并且可以包括光收发器、射频收发器或可以接收和/或发送信息的任何其他类型的设备。此外,接口122可以包括计算机***接口,使得能够从存储设备中取回顺应性视频比特流。例如,接口122可以包括支持PCI和PCIe总线协议、专有总线协议、USB协议、I2C或可以用于互连对等设备的任何其他逻辑和物理结构的芯片组。视频解码器124可以包括被配置为接收顺应性视频比特流和/或其可接受的变体并从其重建视频数据的任何设备。显示器126可以包括被配置为显示视频数据的任何设备。显示器126可以包括诸如液晶显示器(liquid crystal display,LCD)、等离子显示器、有机发光二极管(organic light emitting diode,OLED)显示器或另一种类型的显示器之类的多种显示设备之一。显示器126可以包括高清晰度显示器或超高清晰度显示器。应当注意,尽管在图8所示的示例中,视频解码器124被描述为向显示器126输出数据,视频解码器124可以被配置为向各种类型的设备和/或其子元件输出视频数据。例如,如本文所述,视频解码器124可以被配置为将视频数据输出到任何通信介质。
图11是说明可实施本文中所描述的用于对视频数据进行编码的技术的视频编码器200的示例的方框图。应当注意,尽管示例视频编码器200被图示为具有不同的功能块,但是这图示是出于描述的目的,并且不将视频编码器200和/或其子元件限制为特定的硬件或软件架构。视频编码器200的功能可以使用硬件、固件和/或软件实施方式的任何组合来实现。在一实例中,视频编码器200可经配置以根据本文描述的技术来编码视频数据。视频编码器200可以执行图片区域的帧内预测编码和帧间预测编码,并且因此可以被称为混合视频编码器。在图11所示的示例中,视频编码器200接收来源视频块。在一些示例中,来源视频块可包括已经根据编码结构划分的图片的区域。例如,来源视频数据可包括宏块、CTUs、CBs、其细分和/或另一等效编码单元。在一些示例中,视频编码器200可经配置以执行来源视频块的另外的细分。应当注意,不管来源视频数据在编码之前和/或编码期间如何划分,本文中描述的一些技术可以通常适用于视频编码。在图11所示的示例中,视频编码器200包括求和器202、变换系数生成器204、系数量化单元206、逆量化/变换处理单元208、求和器210、帧内预测处理单元212、帧间预测处理单元214、滤波器单元216和熵编码单元218。
如图11所示,视频编码器200接收来源视频块并输出比特流。视频编码器200可通过从来源视频块减去预测视频块来产生残差数据。求和器202表示被配置为执行该减法运算的元件。在一示例中,视频块的减法发生在像素域中。变换系数生成器204将诸如离散余弦变换(discrete cosine transform,DCT)、离散正弦变换(discrete sine transform,DST)或概念上类似变换的变换应用于残差块或其细分(例如,四个8×8变换可应用在16x16数组的残差值),以生成一组残差变换系数。变换系数生成器204可以被配置为执行包括在离散三角变换的家族中的变换的任何和所有组合。如上所述,在ITU-T H.265中,TB限制为以下大小4x4、8x8、16x16和32x32。在一示例中,变换系数生成器204可经配置以根据具有4×4、8×8、16×16和32×32的大小的数组来执行变换。在一个示例中,变换系数生成器204可以进一步被配置为根据具有其他维度的数组来执行变换。特别是在某些情况下,对差异值的矩形数组执行转换可能会有用的。在一示例中,变换系数生成器204可经配置以根据以下数组大小来执行变换:2×2、2×4N、4M×2和/或4M×4N。在一个示例中,二维(2-dimensional,2D)MxN逆变换可以在一维(1-dimensional,1D)N点逆变换之后作为1D M点逆变换来实施。在一个示例中,2D逆变换可以在1D N点水平变换之后作为1D N点垂直变换来实施。在一个示例中,2D逆变换可以在1D N点垂直变换之后作为1D N点水平变换来实施。变换系数生成器204可将变换系数输出到系数量化单元206。
系数量化单元206可以被配置为执行变换系数的量化。如上所述,量化程度可以通过调整量化参数来修改。系数量化单元206可进一步经配置以确定量化参数和输出QP数据(例如,用于确定量化组大小和/或增量QP值的数据),QP数据可由视频解码器用以在视频解码期间重建量化参数以执行逆量化。应当注意,在其他示例中,一个或多个附加或替代参数可以使用来确定量化的水平(例如,比例因子)。本文描述的技术通常可适用于确定与视频数据的一个分量相对应的变换系数的量化水平,所述量化水平可基于与视频数据的另一分量相对应的变换系数的量化水平来确定。
如上所述,用于在JEM中导出QP值的技术可能不理想。根据本文描述的技术,系数量化单元206可进一步被配置,以在亮度和色度通道可以具有达到特定水平的共同分区结构以及亮度和色度通道之一或两者能够根据单独的或共享的分区结构来进一步分区(例如,出于生成预测的目的)的情况下,确定视频块的量化参数。参照图7和图9,根据本文描述的技术,所示的CB可以是对其应用了相同预测的样本值的块。此外,所示的CU可以对应于变换量化组。也就是说,为了变换和/或量化的目的,残差可以与所示的CU对准。因此,CU可以对于亮度和色度通道中的每一个,具有对应的QP值。
图12示出了用于当前CU的左邻居CU,上邻居CU,最后编码的CU和时间邻居CU的示例。图12对应于以上描述关于表5的示例分区。因此,相邻CU可以基于空间和/或时间样本位置(包括在一个或多个参考图片中)来定义,并且最后编码的CU可以根据视频编码语义(例如,根据扫描顺序(例如,z扫描))参考先前编码的视频块。此外,如上所述,每个CU对于亮度和色度通道中的每个可以具有对应的QP值。在一个示例中,针对当前视频块的QP值的推导可包括基于以下一项或多项来推导QP值:相邻空间或时间视频块的QP值和/或最后编码的QP值。如以下进一步详细描述的,时间视频块可以使用空间位置偏移(例如,运动矢量)来并置或确定。
图13示出了示例,其中最后编码的CU和相邻CU使用单独的树来进一步划分亮度和色度通道。在一个示例中,根据本文的技术,当最后编码的块使用单独的树来进一步划分亮度和色度通道时,用于导出当前CU的QP值的最后编码的QP值lastCodedQP可以基于最后编码的CU的亮度QP值lastCodedLumaQP和/或最后编码的CU的色度QP值lastCodedChromaQP。例如,lastCodedQP可以根据以下方程式之一得出:
Figure GDA0003798684360000311
在一个示例中,根据本文的技术,当相邻CU使用单独的树来进一步划分亮度和色度通道时,用于导出当前CU的QP值的相邻QP值neighborQP可以基于相邻CU的亮度QP值neighborLumaQP和/或相邻CU的色度QP值neighborChromaQP来导出。例如,neighborQP可以根据以下等式之一导出:
Figure GDA0003798684360000312
图14示出了示例,其中最后的编码CU、相邻CU和当前CU使用单独的树来进一步划分亮度和色度通道。在一个示例中,根据本文的技术,当最后编码块和当前CU使用单独的树来进一步划分亮度和色度通道时,对于当前块的亮度和色度通道中的每个用于导出当前CU的QP值的最后编码的QP值lastCodedQP可以基于最后编码的CU的亮度QP值lastCodedLumaQP和/或最后编码的CU的色度QP值lastCodedChromaQP来导出。例如,当前块的每个亮度和色度通道的lastCodedQP可以根据以下等式之一来导出:
对于亮度和色度通道两者的lastCodedQP=lastCodedLumaQP;
对于亮度通道的lastCodedQP=lastCodedLumaQP;以及
对于色度通道的lastCodedQP=lastCodedChromaQP;
对于亮度和色度通道两者的lastCodedQP=
(lastCodedLumaQP+lastCodedChromaQP+1)>>1;
对于亮度和色度通道两者的lastCodedQP=max(lastCodedLumaQP,lastCodedChromaQP);或
对于亮度和色度通道两者的lastCodedQP=min(lastCodedLumaQP,lastCodedChromaQP)。
在一个示例中,根据本文中的技术,当相邻视频块和当前CU使用单独的树来进一步划分亮度和色度通道时,对于当前块的亮度和色度通道中的每个用于导出当前CU的QP值的相邻的QP值neighborQP可以基于相邻CU的亮度QP值neighborLumaQP和/或相邻CU的色度QP值neighborChromaQP来导出。例如,neighborQP可以根据以下等式之一导出:
对于亮度和色度通道两者的neighborQP=neighborLumaQP;
对于亮度通道的neighborQP=neighborLumaQP;以及
对于色度通道的neighborQP=neighborChromaQP;
对于亮度和色度通道两者的neighborQP=
(neighborLumaQP+neighborChromaQP+1)>>1;
对于亮度和色度通道两者的neighborQP=max(neighborLumaQP,neighborChromaQP);或
对于亮度和色度通道两者的neighborQP=min(neighborLumaQP,neighborChromaQP)。
图15示出了示例,其中最后的编码CU和相邻CU使用共享分区来进一步划分亮度和色度通道,而当前CU使用单独的树来进一步划分亮度和色度通道。在一个示例中,根据本文的技术,当最后的编码块使用共享分区来进一步划分亮度和色度通道并且当前CU使用单独的树来进一步划分亮度和色度通道时,对于当前块的亮度和色度通道中的每个用于导出当前CU的QP值的最后编码的QP值lastCodedQP可以基于最后编码的CU的亮度QP值lastCodedLumaQP和/或最后编码的CU的色度QP值lastCodedChromaQP来导出。例如,当前块的每个亮度和色度通道的lastCodedQP可以根据以下等式之一来导出:
对于亮度和色度通道两者的lastCodedQP=lastCodedLumaQP;
对于亮度通道的lastCodedQP=lastCodedLumaQP;以及
对于色度通道的lastCodedQP=lastCodedChromaQP;
对于亮度和色度通道两者的lastCodedQP=(lastCodedLumaQP+lastCodedChromaQP+1)>>1;
对于亮度和色度通道两者的lastCodedQP=max(lastCodedLumaQP,lastCodedChromaQP);或
对于亮度和色度通道两者的lastCodedQP=min(lastCodedLumaQP,lastCodedChromaQP)。
在一个示例中,根据本文中的技术,当相邻视频块使用共享分区来进一步划分亮度和色度通道并且当前CU使用单独的树来进一步划分亮度和色度通道时,对于当前块的亮度和色度通道中的每个用于导出当前CU的QP值的相邻的QP值neighborQP可以基于相邻CU的亮度QP值neighborLumaQP和/或相邻CU的色度QP值neighborChromaQP来导出。例如,neighborQP可以根据以下等式之一导出:
对于亮度和色度通道两者的neighborQP=neighborLumaQP;
对于亮度通道的neighborQP=neighborLumaQP;以及
对于色度通道的neighborQP=neighborChromaQP;
对于亮度和色度通道两者的neighborQP=(neighborLumaQP+neighborChromaQP+1)>>1;
对于亮度和色度通道两者的neighborQP=max(neighborLumaQP,neighborChromaQP);或
对于亮度和色度通道两者的neighborQP=min(neighborLumaQP,neighborChromaQP)。
可以根据在此描述的各种技术,当前CU的QP值基于lastCodedQP或neighborQP来导出。即,导出的lastCodedQP或neighborQP值可以用作预测QP值。例如,在某些情况下,对于亮度通道,可以在上式中用lastCodedQP或neighborQP代替qPY_PRED。即,当前CU的QP值可以通过将增量值添加到lastCodedQP或neighborQP来导出。此外,在一些示例中,当前CU的色度QP可以基于当前CU的亮度QP来导出。例如,以与上述类似的方式,色度QP值可以使用一个或多个色度QP偏移量来导出。一个或多个色度偏移可以在各个位置(例如,参数集(例如,PPS),切片标头等)用信号通知。应当注意,在某些情况下(例如,高动态范围视频),相应的亮度样本值的属性(例如:相应的解码的亮度样本值的DC值、相应的解码的亮度样本值的方差值、用于相应的亮度样本值的预测的DC值,用于相应的亮度样本值的预测的方差值)可以用于确定色度块的QP预测。此外,在一些示例中,用于当前CU的色度QP可以独立于亮度QP导出。即,例如,可以针对亮度通道和色度通道中的每个导出各自的预测QP值。
应当注意,在某些情况下,在最后的编码CU和相邻CU使用共享分区来进一步划分亮度和色度通道而当前CU使用单独的树来进一步划分亮度和色度通道的示例中,在不使用lastCodedQP或neighborQP的情况下,推导预测QP可以是有用的。也就是说,在某些情况下,lastCodedQP或neighborQP在这种情况下可能无法充当良好的预测因子。即,信号通知的增量QP值可能相对较大。在一个示例中,根据本文描述的技术,在最后的编码CU和相邻CU使用共享分区来进一步划分亮度和色度通道并且当前CU使用单独的树来进一步划分亮度和色度通道的情况下,系数量化单元206可以被配置为根据基于方差的技术来计算亮度通道和/或色度通道的预测QP值。
在一个示例中,根据本文的技术,可以根据以下过程来得出预测QP:
qP_PRED0=qP_L+qP_A-qP_AL;
qP_PRED1=max(qP_PRED0,min(qP_L,qP_A));
qP_PREDF=max(qP_PRED1,min(qP_L,qP_A)).
其中,
在大多数情况下(例如,取决于可用性),将qP_L设置为等于当前CU左侧的位置的编码单元的QP值;
在大多数情况下,将qP_A设置为等于当前CU上方位置的编码单元的QP值;及
在大多数情况下,qP_AL设置为等于当前CU左上方位置的编码单元的QP值;及
应该注意的是,根据上述过程推导预测性QP通常平均会产生较小的增量QP值,并增加增量QP为零的可能性,并进一步压缩QP数据的信号通知。
在一个示例中,根据本文的技术,CU的QP值可以如下计算:
QP=QP_Rate+dQP_Visual;
QP_Rate=lastCodedQPRate+delta_QPRate
dQP_Visual=dQP_VisualPRED+delta_dQPVisual
其中
lastCodedQPRate是先前编码的CU的QP_Rate值;当没有先前编码的CU时(例如在切片的开始处),lastCodedQPRate采用在切片标头中用信号通知的sliceQP值;
delta_QPRate是当前CU的QP_Rate与lastCodedQPRate之间的差;
dQP_VisualPRED是一个预测dQP_Visual值,它是使用the qP_PRED0、qP_PRED1和qP_PREDF计算得出的,其中qP_L、qP_A和qP_AL设置为相应相邻CU的dQP_Visual值;和
delta_dQPVisual是当前CU的dQP_Visual与dQP_VisualPRED之间的差。
以这种方式,当前CU的QP值可以通过用信号通知当前速率分量QP值与预测速率分量QP值之间的差值;以及信号通知当前视觉分量QP值与预测视觉分量QP值之间的差值来指示,其中,预测速率分量QP值基于先前编码的CU的速率分量QP值。其中,视觉分量QP值基于一个或多个相邻CU的视觉分量QP值。
应当注意,在一些示例中,可以基于以下等式确定dQP_VisualPRED
dQP_VisualPRED=dQPSV
其中
dQPSV可以根据视频的数据参考块的平均亮度值和相应函数(包括一个或多个查找表)来确定;
例如,视频数据的参考块的平均亮度值可以被索引为dQPSV值。对于视频数据的当前块,视频的参考块可以包括例如(一)一个或多个并置的块、(二)形成运动补偿预测的块和/或(三)一个或多个空间相邻的块。
在一个示例中,针对当前CU的QP值是否可以根据QP_Rate和/或dQP_Visual来确定可根据包括在参数集或切片标头中的一组标志来确定。即,QP_Rate和dQP_Visual可以独立地被打开/关闭,并且可以以不同的空间粒度被编码,以由包括在参数集中的索引所确定。应当注意的是,当QP_Rate或dQP_Visual之一为“关闭”时,对应的增量QP值被假定为0。因此,如果QP_Rate被关闭,则推论QP_Rate的值对于在切片中每个CU都等于sliceQP。如果dQP_Visual被关闭,则对于切片中的每个CU dQP_Visual的值可以推断等于0。在某些情况下,对QP_Rate使用粗糙的空间粒度,对dQP_Visual使用精细的空间粒度可能会有用的。
Ribas-Corbera,J.等人在1997年6月于美国俄勒冈州波特兰市的ITU-T视频编码专家组第一次会议(ITU-T SG16 Q.15研究期间1997-2000)的文稿Q15-A-20《低延迟视频通信的速率控制》描述了一种根据优化的比特分配策略针对帧内的宏块适应来QP的速率控制技术,其文稿通过引用并入本文,并称为Ribas-Corbera。如下所述,用于推导预测QP技术的基于方差的技术可以基于Ribas-Corbera。应当注意,如上所述,ITU-T H.265规定了一种CTU结构,其类似于先前视频编码标准中的16×16宏块。应当注意,在某些情况下,宏块可以对应于量化组。因此,如下面进一步详细描述的,在Ribas-Corbera中描述的技术可以应用于具有除16x16之外的尺寸的CU。Ribas-Corbera描述了第i个宏块的量化步长Qi是基于优化的量化步长Qi*来计算。应当注意,Ribas-Corbera是基于QP=2*Qi的视频编码标准。在ITU-T H.265中,大多数配置文件的Qi=2(QP-4)/6。特别地,Ribas-Corbera描述了对于具有N个宏块且B是分配用于对该图像进行编码的比特总数的图像,Qi是基于下方指示的优化的量化步长Qi*来计算:
Figure GDA0003798684360000381
其中
A是宏块中的样本数;
B是分配给图像编码的总比特数B;
N是图片中宏块的数量;
σ是第i个宏块中预测与原始亮度和色度样本之间差异的经验标准差;
Figure GDA0003798684360000382
Figure GDA0003798684360000383
其中B’LC,i是用于编码第i个宏块的亮度和色度的比特数,B’i是用于编码第i个宏块的DCT系数的位的实际比特数。
从Ribas-Corbera中的优化量化参数,可以得出方差和量化步长之间的关系,如下所示:
让B’LC,i=B/N和B’i=B’LC,j-b’i,其中b’i是第i个marcoblock中与DCT系数不相关的比特数(例如,用于编码预测模式的比特数等)。
此外,设b’i=b/N,其中b是图片中与DCT系数不相关的比特数。
将这些表达式替换为Ki-1和Ci-1的表达式:
Figure GDA0003798684360000384
Figure GDA0003798684360000385
进一步将针对Ki-1和Ci-1的上述表达式替换为针对表达式Qi*的表达式,
并简化产出:
Figure GDA0003798684360000391
对于ITU-T H.265,量化步长Qi的表达式可推导为:
Figure GDA0003798684360000392
在上面的方程式中求解
Figure GDA0003798684360000393
会得出:
Figure GDA0003798684360000394
此外,在上面的等式中,QPi-1可以用如上所述的qPY_A代替,因此,根据此处描述的技术,视频编码器200可以配置为基于以下等式确定
Figure GDA0003798684360000395
Figure GDA0003798684360000396
应当注意,在上式中,
-术语
Figure GDA0003798684360000397
用于说明以下事实:QP仅影响DCT系数的比特率(或类似地,QP影响变换过程的结果的比特率,例如2-D DST、其他2-D变换、1-D变换、一次和二次变换或不进行任何变换(影响残差),并且可以使用先前编码的帧进行估计和/或设置为常数。
-
Figure GDA0003798684360000398
的值可以由解码器通过计算先前CU的已解码亮度和色度系数值的方差来估算。
-
Figure GDA0003798684360000399
的值估计为图片中先前解码的CU的亮度和色度系数值的标准差的平均值。
i的值可以使用对于第i个CU中解码后的亮度和色度系数值的估计的经验标准差来估计。应当注意,为了解码其亮度和色度系数,必须知道与第i个CU相关联的QP值。由于第i个CU的QP值不是先验的,因此可以替代地使用其值的估计。在一个示例中,与第i个CU相关联的QP可以被估计为与在图片中第i个CU之前已被解码的所有CU的相关联的QP的算术平均值。图片中的第一CU的QP可以估计为图片QP值。
因此,根据本文所述的技术,视频编码器200可经配置以基于以下方程式确定qPY_PRED
Figure GDA0003798684360000401
其中,
Figure GDA0003798684360000402
是当前CU中预测值与原始亮度和色度值之间的差异的估计经验标准偏差;
SDavg_P是图片中先前解码的CU的亮度和色度系数值的标准偏差的平均值;
Vari-1先前CU的解码亮度和色度系数值的方差;和
C是预定常数。
以这种方式,系数量化单元206被配置为基于σi*乘SDavg_P的乘积是否大于Vari-1来调整先前编码的CU的QP值,从而确定当前CU的qPY_PRED,在这种情况下,当前CU的qPY_PRED被调整为大于先前编码的CU的QP。
应该注意的是,关于上面的等式中
Figure GDA0003798684360000403
的值,比例因子3是从理论推导而得出来的。在一些示例中,使用可以凭经验得出的不同常数可能是有利的。也就是说,在一些示例中,可以使用3以外的比例因子。
应当注意,关于C,b/B的值是基于视频编码标准而受到约束。即,视频编码标准具有理论上的最小值和最大值b/B。此外,QP的值会影响b/B的值,因为对于高QP值而言,较少的比特会用于编码DCT系数,从而增加b/B。b/B的理论最大值为1,因为QP可能足够高,以使所有系数水平等于零(即,零个比特会用于编码系数值)。b/B的理论最小值取决于视频编码标准。b/B的典型值取决于目标比特率。例如,在高质量视频的典型情况下,b/B约为0.3,C等于0.77。为了描述本文中描述的技术的目的,在编码图片中,b/B可以描述为通常在0.25至0.75的范围内,因此,C通常在0.5714至0.8的范围内。
因为准确的预测导致较低的残差,而不准确的预测导致较高的残差,所以应当注意的是,在上式中((σi *SDavg_P)/Vari-1)值指示当前CU的相对预测精度。也就是说,Vari-1是前一个CU的预测精度的指示,如果σi相对较大,则表明当前CU的预测精度相对较差,(σi *SDavg_P)可能大于Vari-1。当(σi *SDavg_P)大于Vari-1时,
Figure GDA0003798684360000411
通常为正,qPYPRED相较于qPY_A有所增加。同样,当(σi *SDavg_P)小于Vari-1时,
Figure GDA0003798684360000412
通常小于零,qPYPRED相较于qPY_A有所减小。应当注意,图片的良好预测的区域可以对应于图片的视觉上重要的区域(例如,面部),而图片的不良预测的区域可以对应于图片的视觉上不重要的区域(例如,高纹理区域,例如如树的叶子)。以这种方式,系数量化单元206被配置为通过基于当前CU的相对预测质量来调整先前编码的CU的QP值来确定当前CU的qPY_PRED,其中,如果CU是相对较差的被预测,则量化增加。如果CU是相对较好的被预测,则量化降低。
如上所述,在JEM中,对应于CB的残值用于生成变换系数而无需进一步划分,即,在JEM中,QTBT叶节点可能类似于ITU-T H.265中的TU,因此,在JEM中的QP值是在CU级别上推导的。根据本文描述的技术,QP值可以在不同于CU级别的深度处推导。参照图7中所示的示例,在根据本文描述的技术的一个示例中,QP值可以为指定深度导出并以指定深度用信号通知。图16示出了示例QTBT,其中QP值可以针对每个深度1节点导出。即,QP1、QP2、QP3和QP4可以针对每个深度1节点导出,并且深度超过深度1节点的叶节点形成变换系数组。表8示出了伪语法的示例,该伪语法可以用于发信号通知亮度和色度通道的共享QTBT和独立的QTBT,并且对于图16所示的示例在深度1节点处进一步发信号通知QP值。应当注意,图16中的树和表8中的伪语法是根据z扫描得出的。
Figure GDA0003798684360000431
Figure GDA0003798684360000441
表8
如上所述,QP值可以针对指定深度导出并在指定深度处用信号通知。在一个示例中,如果量化组是在深度为3的节点处定义的,则高于该深度的变换单元(或变换分区树的CU或叶)也会信号通知QP值。因此,一般而言,深度小于或等于可针对其QP值做信号通知的最大深度值的树中的任何叶或节点,可包括被信号通知的QP值。此外,低于可针对其QP值做信号通知的最高深度值的所有叶/节点,可以从其父母/祖先节点继承QP值。
如上所述,根据本文描述的技术,出于预测的目的,可根据单独的分区树或共享分区树将亮度和色度通道进一步分割到CU之外。在一个示例中,当亮度和色度通道根据共享分区树进一步分割到CU之外时,针对亮度和色度通道的QP值可以基于在母深度处的信号通知的QP值来导出。并且,当亮度和色度通道根据单独分区树将进一步分割到CU之外时,针对每个亮度和色度通道的QP值可以基于在单独的树的根部的信号通知的QP值来导出(即,由视频编码器发信号通知并由视频解码器接收)。在某些情况下,一个通用的QP值可以为亮度和色度通道得出。表9示出了伪语法的示例,其可以用于为具有单独的分区树的每个亮度和色度通道发信号通知QP值。
Figure GDA0003798684360000451
表9
在一实例中,根据本文描述的技术,变换量化组可导出以用于预测目的的独立分区。即,例如,变换量化组可以基于预定/信号通知的块大小来设置,并且QP值可以为与分区无关的每个块发信号通知。应当注意,在某些情况下,图片边界处的QP块可以具有不同的大小(例如,部分QP块可以在边界处形成)。图17示出了针对独立于所示例的划分的每个块做信号通知的QP值的示例。即,在图17中,QP值针对CU基于并置的QP值导出。应该注意的是,在某些情况下,如图17所示,关于左下矩形CU,一个CU可包括多个并置的QP值。以这种方式,一组规则可以被定义以导出用于这种CU的QP值。例如,并置的QP值可以被定义为与CU的左上样本并置的QP值。即,在该示例中,样本在块中的空间位置用于确定要用于块的QP。在一个示例中,在根据单独树进一步划分亮度和色度通道的情况下,亮度和色度通道可以视为一个量化组,并且亮度和色度通道可以分配给相同的并置QP。在一个示例中,在根据单独树进一步划分亮度和色度通道的情况下,QP信号可能同时取决于cbfLuma和cbfChroma,并且isCuQpDeltaCoded仅在亮度和色度量化组中设置一次,例如,如图2所示。
再次参考图11,量化的变换系数被输出到逆量化/变换处理单元208。逆量化/变换处理单元208可以被配置为应用逆量化和逆变换以生成重建的残差数据。如图11所示,在求和器210中,重建的残差数据可以被添加到预测视频块。以这种方式,编码的视频块可以被重建,并且所得的重建的视频块可以使用来针对给定的预测、变换和/或量化来评估编码质量。视频编码器200可经配置以执行多个编码过程(例如,在改变预测、变换参数和量化参数中的一者或多者时执行编码)。比特流或其他***参数的率失真可以基于对重建的视频块的评估来优化。此外,重建的视频块可以存储并用作预测后续块的参考。
如上所述,视频块可以使用帧内预测来进行编码。帧内预测处理单元212可以被配置为针对要编码的视频块选择帧内预测模式。帧内预测处理单元212可以被配置为评估帧和/或其区域,并确定帧内预测模式以用于编码当前块的。如图11所示,帧内预测处理单元212将帧内预测数据(例如,语法元素)输出到熵编码单元218和变换系数生成器204。如上所述,对残差数据执行的变换可以取决于模式。如上所述,可能的帧内预测模式可以包括平面预测模式、DC预测模式和角度预测模式。此外,在一些示例中,针对色度分量的预测可以从针对亮度预测模式的帧内预测来推断。帧间预测处理单元214可以被配置为针对当前视频块执行帧间预测编码。帧间预测处理单元214可以被配置为接收来源视频块并计算视频块的PU的运动矢量。运动矢量可指示当前视频帧内的视频块的PU(或类似编码结构)相对于参考帧内的预测性块的位移。帧间预测编码可以使用一个或多个参考图片。此外,运动预测可以是单预测的(使用一个运动矢量)或双预测的(使用两个运动矢量)。帧间预测处理单元214可以被配置为通过计算例如绝对差之和(sum of absolute difference,SAD)、平方差之和(sum of square difference,SSD)或其他差值度量来确定的像素差以选择预测块。如上所述,运动矢量可以根据运动矢量预测来确定和指定。如上所述,帧间预测处理单元214可以被配置为执行运动矢量预测。帧间预测处理单元214可以被配置为使用运动预测数据来生成预测块。例如,帧间预测处理单元214可以在帧缓冲器(图11中未示出)内定位出预测视频块。应当注意,帧间预测处理单元214还可以被配置为将一个或多个插值滤波器应用于重建的残差块,以计算用于运动估计的子整数像素值。帧间预测处理单元214可以将用于计算的运动矢量的运动预测数据输出到熵编码单元218。参照图11,帧间预测处理单元214可以经由滤波器单元216接收重建的视频块。滤波器单元216可以被配置为执行解块和/或采样自适应偏移(Sample Adaptive Offset,SAO)滤波。去块化是指使重建的视频块的边界进行平滑的过程(例如,使边界对于观看者来说不太容易察觉)。SAO滤波是一种非线性幅度映射,可用于通过将偏移量添加到重建的视频数据来改善重建的情况。
再次参考图11,熵编码单元218接收量化的变换系数和预测语法数据(即,帧内预测数据,运动预测数据,QP数据等)。应当注意,在一些示例中,系数量化单元206可以在系数被输出到熵编码单元218之前,执行包括量化的变换系数的矩阵的扫描。在其他示例中,熵编码单元218可以执行扫描。熵编码单元218可以被配置为根据本文描述的一种或多种技术来执行熵编码。熵编码单元218可经配置以输出顺应性比特流。即,视频解码器可从其接收并再现视频数据的比特流。
以这种方式,视频编码器200代表设备的示例,其被配置为基于与参考视频块相关联的量化参数、用于生成参考视频块分区以及用于生成当前视频块的分区中的至少一部分,来确定针对当前视频块的预测量化参数,以及基于所确定的预测量化参数中的至少一部分,来生成针对当前视频块的量化参数。
图18是说明视频解码器的实例的方框图,所述视频解码器可经配置以根据本揭露的一种或多种技术来解码视频数据。在一示例中,视频解码器300可以被配置为基于上述一种或多种技术来重建视频数据。即,视频解码器300可以以与上述视频编码器200相反的方式操作。视频解码器300可以被配置为执行帧内预测解码和帧间预测解码,并且因此可以被称为混合解码器。在图18所示的示例中,视频解码器300包括熵解码单元302、逆量化单元304、逆变换处理单元306、帧内预测处理单元308、帧间预测处理单元310、求和器312、滤波器单元314和参考缓冲器316。视频解码器300可以被配置为与视频编码***一致的方式对视频数据进行解码,该视频编码***可以实现视频编码标准的一个或多个方面。应当注意,尽管示例视频解码器300被图示为具有不同的功能块,但是这种图示是出于描述的目的,并且不将视频解码器300和/或其子元件限制为特定的硬件或软件架构。视频解码器300的功能可以使用硬件、固件和/或软件实施方式的任何组合来实现。
如图18所示,熵解码单元302接收熵编码的比特流。熵解码单元302可以被配置为根据与熵编码处理相对应的处理来从比特流解码量化的语法元素和量化的系数。熵解码单元302可以被配置为根据上述任何熵编码技术来执行熵解码。熵解码单元302可以以与视频编码标准一致的方式解析编码的比特流。视频解码器300可经配置以解析经编码的比特流,其中经编码的比特流是基于上述技术所产生。即,例如,视频解码器300可以被配置为以重建视频数据的目的,基于上述一种或多种技术来确定生成和/或用信号通知的分区结构。例如,视频解码器300可以被配置为解析语法元素和/或评估视频数据的属性以便确定分区。
再次参考图18,逆量化单元304从熵解码单元302接收量化的变换系数(即,水平值)和量化参数数据。量化参数数据可以包括以上所描述的增量QP值和/或量化组大小值等的任何和所有组合。视频解码器300和/或逆量化单元304可以被配置为基于由视频编码器发信号通知的值和/或通过视频属性和/或编码参数来确定用于逆量化的QP值。即,逆量化单元304可以以与上述系数量化单元206相反的方式操作。例如,逆量化单元304可以被配置为根据上述技术来推断预定值)、允许的量化组大小等。逆量化单元304可以被配置为应用逆量化。逆变换处理单元306可以被配置为执行逆变换以生成重建的残差数据。逆量化单元304和逆变换处理单元306分别执行的技术可以类似于上述逆量化/变换处理单元208执行的技术。逆变换处理单元306可以被配置为将逆DCT、逆DST、逆整数变换,不可分离的二次变换(Non-Separable Secondary Transform,NSST)或概念上类似的逆变换过程应用于变换系数,以便在像素域中产生残差块。此外,如上所述,是否执行特定变换(或特定变换的类型)可以取决于帧内预测模式。如图18所示,重建的残差数据可提供给求和器312。求和器312可将重建的残差数据添加到预测视频块并生成重建的视频数据。预测视频块可以根据预测视频技术(即,帧内预测和帧间预测)来确定。在一示例中,视频解码器300和滤波器单元314可经配置以确定QP值并将其用于后滤波(例如,解块)。在一示例中,使用QP的视频解码器300其他功能块可基于所接收的信号通知来确定QP并将其用于解码。
帧内预测处理单元308可以被配置为接收帧内预测语法元素并且从参考缓冲器316中取得预测视频块。参考缓冲器316可以包括被配置为存储视频数据的一个或多个帧的存储设备。帧内预测语法元素可以标识帧内预测模式,例如上述的帧内预测模式。在一示例中,帧内预测处理单元308可根据本文所述的帧内预测编码技术中的一种或多种来重建视频块。帧间预测处理单元310可以接收帧间预测语法元素,并生成运动矢量以标识存储在参考缓冲器316中的一个或多个参考帧中的预测块。帧间预测处理单元310可能基于插值滤波器执行插值来产生运动补偿块。用于以子像素精度进行运动估计的内插滤波器的标识符可以包括在语法元素中。帧间预测处理单元310可以使用插值滤波器来计算参考块的子整数像素的插值。滤波器单元314可以被配置为对重建的视频数据执行滤波。例如,滤波器单元314可以被配置为执行如以上关于滤波器单元216所描述的去块和/或SAO滤波。此外,应当注意,在一些示例中,滤波器单元314可以被配置为执行专有的任意滤波器。(例如,视觉增强)。如图18所示,重建的视频块可以被视频解码器300输出。以这种方式,视频解码器300可以被配置为根据在此描述的一种或多种技术来生成重建的视频数据。以这种方式,视频解码器300代表设备的示例,其被配置为基于与参考视频块相关联的量化参数和用于生成参考视频块的分区中的至少一部分,来确定针对当前视频块的预测量化参数,并且基于所确定的预测量化参数中的至少一部分,来生成针对当前视频块的量化参数。
在一个或多个示例中,所描述的功能可以以硬件、软件、固件或其任意组合来实现。如果以软件实现,则功能可以作为一个或多个指令或代码存储在计算机可读介质上或在计算机可读介质上传输,并由基于硬件的处理单元执行。计算机可读介质可以包括计算机可读存储介质或者通信介质,计算机可读存储介质对应于诸如数据存储介质的有形介质,通信介质包括例如根据通信协议来促进将计算机程序从一个地方转移到另一个地方的任何介质。以这种方式,计算机可读介质通常可以对应于(1)非暂时性的有形计算机可读存储介质或者(2)诸如信号或载波的通信介质。数据存储介质可以是由一台或多台计算机或一个或多个处理器访问以检索指令、代码和/或数据结构以实现本揭露中描述的技术的任何可用介质。计算机程序产品可以包括计算机可读介质。
作为示例而非限制,此类计算机可读存储介质可以包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁性存储设备、闪存或任何其他可以用来以指令或数据结构的形式存储所需的程序代码,并且可以由计算机访问的介质。而且,任何连接都可适当地称为计算机可读介质。例如,如果指令使用同轴电缆、光纤电缆、双绞线、数字用户线(digital subscriber line,DSL)或无线技术(例如红外、无线电和微波)从网站、服务器或其他远程源发送,则同轴电缆、光纤电缆、双绞线、DSL或诸如红外、无线电和微波之类的无线技术都包括在介质的定义中。然而,应当理解,计算机可读存储介质和数据存储介质不包括连接、载波、信号或其他瞬时介质,而是针对非瞬时的有形存储介质。本文所使用的磁盘和光盘包括光盘(compact disc,CD)、激光光盘、光盘、数字多功能光盘(digitalversatile disc,DVD)、软盘和蓝光光盘,其中磁盘通常以磁性方式复制数据,而光盘则通过激光光学方式复制数据。上述的组合也应包括在计算机可读介质的范围内。
指令可由一个或多个处理器执行,例如一个或多个数字信号处理器(digitalsignal processors,DSP)、通用微处理器、专用集成电路(application specificintegrated circuits,ASIC)、现场可编程逻辑阵列(field programmable logic arrays,FPGA)或其他等效的集成或离散逻辑电路。因此,如本文所使用的,术语“处理器”可以指任何前述结构或适合于实现本文描述的技术的任何其他结构。另外,在一些方面,本文描述的功能可以在被配置用于编码和解码的专用硬件和/或软件模块内提供,或结合在组合编解码器中。同样,该技术可以在一个或多个电路或逻辑元件中完全实现。
本揭露的技术可以在包括无线手持机、集成电路(integrated circuit,IC)或一组IC(例如,芯片组)的多种设备或装置中实现。各种元件、模块或单元被描述在本揭露中,以强调经配置以执行所揭示技术的装置的功能方面,但不一定需要由不同硬件单元来实现。相对,如上所述,各种单元可以组合在编解码器硬件单元中,或者由互操作性的硬件单元的集合提供,包括与合适的软件和/或固件结合的如上所述的一个或多个处理器。
此外,在上述各实施方式中使用的基站装置和终端装置的各功能块或各种特征可以通过通常为集成电路或多个集成电路的电路来实现或执行。设计为执行本说明书中描述的功能的电路可以包括通用处理器、数字信号处理器(digital signal processor,DSP)、专用或通用应用集成电路(application specific or general application integratedcircuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或其他可编程逻辑器件、离散门或晶体管逻辑或离散硬件元件或其组合。通用处理器可以是微处理器,或者该处理器可以是常规处理器、控制器、微控制器或状态机。上述通用处理器或每个电路可以由数字电路配置或可以由模拟电路配置。此外,当由于半导体技术的进步而当前出现将一个集成电路取代多个集成电路的技术时,该集成电路也能够使用该技术。
各种示例已经被描述了。这些和其他示例在所附权利要求的范围内。
<交叉引用>
根据35 U.S.C§119,本非临时申请请求2018年4月2日的临时申请第62/651457号的优先权。其全部内容在此通过引用合并于此。

Claims (7)

1.一种解码视频图片中的当前视频块的方法,所述方法包括:
从多个分区方式中识别出被用来分割所述当前视频块的分区方式,其中:
所述从多个分区方式中识别出被用来分割所述当前视频块的分区方式的步骤进一步包括:确定针对所述当前视频块的所述分区方式是第一树分区方式或第二树分区方式;
所述第一树分区方式针对所述当前视频块的亮度分量与色度分量中的两者使用同一个分区;和
所述第二树分区方式针对所述当前视频块的所述亮度分量使用第一分区以及针对所述当前视频块的所述色度分量使用第二分区;
基于所述识别的分区方式,从用于计算第一量化参数的多个候选推导中,选择一个推导来针对所述当前视频块计算所述第一量化参数;
基于所述计算的第一量化参数的至少一部分,针对所述当前视频块计算第二量化参数;和
使用所述计算的第二量化参数,解码所述当前视频块,其中:
所述计算的第一量化参数和所述计算的第二量化参数是针对特定颜色分量被计算出来;
当所述识别的分区方式是所述第一树分区方式时,所述选择的一个推导是被用来计算所述第一量化参数的第一推导;和
当所述识别的分区方式是所述第二树分区方式时,所述选择的一个推导是被用来计算所述第一量化参数的第二推导。
2.如权利要求1所述的方法,其特征在于:
当所述识别的分区方式是针对所述当前视频块的所述第一树分区方式以及针对用于编码所述当前视频块的参考视频块的所述第一树分区方式时,所述选择的一个推导为所述第一推导;和
当所述识别的分区方式是针对所述当前视频块的所述第二树分区方式以及针对所述参考视频块的所述第二树分区方式时,所述选择的一个推导为所述第二推导。
3.如权利要求2所述的方法,其特征在于,所述参考视频块是相邻编码视频块。
4.如权利要求3所述的方法,其特征在于,所述相邻编码视频块是(i)在包括相邻视频块与所述当前视频块的当前图片中位于所述当前视频块的左边的视频块以及(ii)在所述当前图片中位于所述当前视频块的上边的视频块中的一个。
5.如权利要求2所述的方法,其特征在于,所述参考视频块是包括相邻视频块与所述当前视频块的当前图片中的最后编码视频块。
6.如权利要求1所述的方法,其特征在于,所述第一推导使用了没有被所述第二推导使用的至少一个等式。
7.如权利要求1所述的方法,其特征在于,所述第一量化参数是预测量化参数。
CN201980021976.8A 2018-04-02 2019-04-01 解码视频图片中的当前视频块的方法 Active CN111919446B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862651457P 2018-04-02 2018-04-02
US62/651457 2018-04-02
PCT/JP2019/014543 WO2019194147A1 (en) 2018-04-02 2019-04-01 Systems and methods for deriving quantization parameters for video blocks in video coding

Publications (2)

Publication Number Publication Date
CN111919446A CN111919446A (zh) 2020-11-10
CN111919446B true CN111919446B (zh) 2022-10-28

Family

ID=68101344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980021976.8A Active CN111919446B (zh) 2018-04-02 2019-04-01 解码视频图片中的当前视频块的方法

Country Status (4)

Country Link
US (2) US11689722B2 (zh)
EP (1) EP3777172A4 (zh)
CN (1) CN111919446B (zh)
WO (1) WO2019194147A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019194147A1 (en) 2018-04-02 2019-10-10 Sharp Kabushiki Kaisha Systems and methods for deriving quantization parameters for video blocks in video coding
US11259023B2 (en) * 2018-04-12 2022-02-22 Qualcomm Incorporated Harmonization of transform-based quantization and dynamic range adjustment scale derivation in video coding
WO2020048466A1 (en) * 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Relation between partition constraint elements
CN113796086B (zh) * 2019-04-25 2023-06-06 寰发股份有限公司 编码或解码视频数据的方法和装置
WO2020236038A1 (en) * 2019-05-21 2020-11-26 Huawei Technologies Co., Ltd. Method and apparatus of cross-component prediction
WO2021023258A1 (en) 2019-08-06 2021-02-11 Beijing Bytedance Network Technology Co., Ltd. Video region partition based on color format
EP4008106A4 (en) 2019-09-02 2022-11-09 Beijing Bytedance Network Technology Co., Ltd. PARTITION OF A VIDEO ZONE ACCORDING TO A COLOR FORMAT
MX2022003122A (es) 2019-09-21 2022-04-06 Beijing Bytedance Network Tech Co Ltd Modo intra basado para croma de restriccion de tama?o.
EP4087252A4 (en) * 2019-12-31 2023-01-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. TRANSFORMATION METHOD, ENCODER, DECODER AND STORAGE MEDIUM

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
KR101822214B1 (ko) 2010-06-10 2018-01-25 톰슨 라이센싱 복수의 이웃 양자화 파라미터들로부터 양자화 파라미터 예측 변수들을 결정하기 위한 방법들 및 장치
US9363509B2 (en) 2011-03-03 2016-06-07 Electronics And Telecommunications Research Institute Method for determining color difference component quantization parameter and device using the method
TW201332374A (zh) 2011-12-13 2013-08-01 Jvc Kenwood Corp 動態影像編碼裝置、動態影像編碼方法及動態影像編碼程式、以及動態影像解碼裝置、動態影像解碼方法及動態影像解碼程式
TWI603611B (zh) * 2011-12-21 2017-10-21 Jvc Kenwood Corp Motion picture encoding apparatus, motion picture encoding method, and recording medium for moving picture encoding program
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US20140079135A1 (en) 2012-09-14 2014-03-20 Qualcomm Incoporated Performing quantization to facilitate deblocking filtering
US9438849B2 (en) 2012-10-17 2016-09-06 Dolby Laboratories Licensing Corporation Systems and methods for transmitting video frames
US9294766B2 (en) * 2013-09-09 2016-03-22 Apple Inc. Chroma quantization in video coding
US10136141B2 (en) 2014-06-11 2018-11-20 Qualcomm Incorporated Determining quantization parameter (QP) values and delta QP values for palette coded blocks in video coding
US20150373327A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Block adaptive color-space conversion coding
US10212444B2 (en) 2016-01-15 2019-02-19 Qualcomm Incorporated Multi-type-tree framework for video coding
US10455228B2 (en) 2016-03-21 2019-10-22 Qualcomm Incorporated Determining prediction parameters for non-square blocks in video coding
US10542296B2 (en) 2016-05-10 2020-01-21 Dolby Laboratories Licensing Corporation Chroma reshaping of HDR video signals
EP4199515A1 (en) 2016-05-27 2023-06-21 SHARP Kabushiki Kaisha Systems and methods for varying quantization parameters
CN109196862B (zh) * 2016-05-28 2021-01-22 联发科技股份有限公司 视频数据处理方法、装置及相应可读存储介质
US10448056B2 (en) * 2016-07-15 2019-10-15 Qualcomm Incorporated Signaling of quantization information in non-quadtree-only partitioned video coding
CN113411576B (zh) * 2016-07-22 2024-01-12 夏普株式会社 使用自适应分量缩放对视频数据进行编码的***和方法
CN117560488A (zh) * 2017-07-06 2024-02-13 Lx 半导体科技有限公司 图像编码/解码方法、发送方法和数字存储介质
WO2019121164A1 (en) * 2017-12-18 2019-06-27 Telefonaktiebolaget Lm Ericsson (Publ) De-blocking for video coding
WO2019194147A1 (en) 2018-04-02 2019-10-10 Sharp Kabushiki Kaisha Systems and methods for deriving quantization parameters for video blocks in video coding

Also Published As

Publication number Publication date
US20230100134A1 (en) 2023-03-30
EP3777172A4 (en) 2022-01-19
US11805254B2 (en) 2023-10-31
CN111919446A (zh) 2020-11-10
US11689722B2 (en) 2023-06-27
US20210152830A1 (en) 2021-05-20
WO2019194147A1 (en) 2019-10-10
EP3777172A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
CN110999291B (zh) 用于划分视频数据的帧间预测片段中的视频块的***和方法
CN111919446B (zh) 解码视频图片中的当前视频块的方法
CN109196863B (zh) 用于改变量化参数的***和方法
US11259021B2 (en) Systems and methods for partitioning video blocks at a boundary of a picture for video coding
CN110313179B (zh) 用于按比例缩放变换系数水平值的***和方法
US11470359B2 (en) Systems and methods for partitioning video blocks at a boundary of a picture for video coding
WO2019151257A1 (en) Systems and methods for deriving quantization parameters for video blocks in video coding
KR20200022013A (ko) 비디오 코딩을 위한 비디오 블록들로 픽처의 기하학적 적응성 블록 분할을 위한 시스템들 및 방법들
US11778182B2 (en) Device for decoding video data, device for encoding video data, and method for decoding video data
WO2020129950A1 (en) Systems and methods for performing inter prediction in video coding
CN112997501B (zh) 导出用于对视频数据进行解码的预测亮度样本值的方法
US12010301B2 (en) Systems and methods for performing intra prediction coding in video coding
JP7448549B2 (ja) ビデオ符号化におけるビデオブロックのための量子化パラメータを導出するシステム及び方法
WO2020262176A1 (en) Systems and methods for deriving quantization parameters for video blocks in video coding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant