CN116366836A - 视频编解码***中多重假设预测的方法和装置 - Google Patents

视频编解码***中多重假设预测的方法和装置 Download PDF

Info

Publication number
CN116366836A
CN116366836A CN202211702799.XA CN202211702799A CN116366836A CN 116366836 A CN116366836 A CN 116366836A CN 202211702799 A CN202211702799 A CN 202211702799A CN 116366836 A CN116366836 A CN 116366836A
Authority
CN
China
Prior art keywords
prediction
candidate
current block
combined
weights
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211702799.XA
Other languages
English (en)
Inventor
江嫚书
徐志玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of CN116366836A publication Critical patent/CN116366836A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

公开了一种用于预测编解码的方法和装置。根据该方法,确定组合预测成员,其中每个组合预测成员包括使用从权重集中选择的目标权重的第一预测候选和第二预测候选的权重和。确定与组合预测成员相关联的边界匹配成本,其中,针对具有目标权重的组合预测成员,通过使用基于具有目标权重的组合预测成员的当前块的预测样本和当前块的相邻重建样本来确定每个边界匹配成本。然后使用基于至少一个边界匹配成本决定的最终组合预测来编码或解码当前块。

Description

视频编解码***中多重假设预测的方法和装置
交叉引用
本申请享有2021年12月29日提交的申请号为63/294,424的美国临时专利申请之优先权,该先前申请在此全文引用。
技术领域
本发明涉及视频编解码***。特别地,本发明涉及多重假设的预测编解码。
背景技术
通用视频编码(VVC)是由ITU-T视频编码专家组(VCEG)的联合视频专家组(JVET)和ISO/IEC运动图像专家组(MPEG)共同制定的最新国际视频编解码标准。该标准已作为ISO标准发布:ISO/IEC 23090-3:2021,信息技术-沉浸式媒体的编码表示-第3部分:通用视频编码,2021年2月发布。VVC是在其前身HEVC(High Efficiency Video Coding)基础上,通过添加更多的编解码工具来提高编解码效率,还可以处理各种类型的视频源,包括3维(3D)视频信号。
图1A说明了包含循环处理的示例性自适应帧间/帧内视频编码***。对于帧内预测110,预测数据是根据当前图片中先前编码的视频数据导出的。对于帧间预测112,在编码器侧执行运动估计(ME)并且基于ME的结果执行运动补偿(MC)以提供从其他画面和运动数据导出的预测数据。开关114选择帧内预测110或帧间预测112并且所选择的预测数据被提供给加法器116以形成预测误差,也称为残差。预测误差然后由变换(T)118和随后的量化(Q)120处理。变换和量化的残差然后由熵编码器122编码以包括在对应于压缩视频数据的视频比特流中。与变换系数相关联的比特流然后与辅助信息(例如与帧内预测和帧间预测相关联的运动和编码模式)以及其他信息(例如与应用于底层图像区域的环路滤波器相关联的参数)一起打包。与帧内预测110、帧间预测112和环内滤波器130相关联的辅助信息被提供给熵编码器122,如图1A所示。当使用帧间预测模式时,也必须在编码器端重建一个或多个参考图片。因此,经变换和量化的残差由逆量化(IQ)124和逆变换(IT)126处理以恢复残差。然后在重建(REC)128处将残差加回到预测数据136以重建视频数据。重建的视频数据可以存储在参考图片缓冲器134中并用于预测其他帧。
如图1A所示,输入的视频数据在编码***中经过一系列处理。由于一系列处理,来自REC128的重建视频数据可能会受到各种损害。因此,环路滤波器130经常在重构视频数据被存储在参考图片缓冲器134中之前应用于重构视频数据以提高视频质量。例如,可以使用去块滤波器(DF)、样本自适应偏移(SAO)和自适应环路滤波器(ALF)。可能需要将环路滤波器信息合并到比特流中,以便解码器可以正确地恢复所需的信息。因此,环路滤波器信息也被提供给熵编码器122以合并到比特流中。在图1A中,环路滤波器130在重构样本被存储在参考图片缓冲器134中之前被应用于重构视频。图1A中的***旨在说明典型视频编码器的示例性结构。它可能对应于高效视频编码(HEVC)***、VP8、VP9、H.264或VVC。
如图1B所示,解码器可以使用与编码器相似或相同的功能块,除了变换118和量化120之外,因为解码器只需要逆量化124和逆变换126。代替熵编码器122,解码器使用熵解码器140将视频比特流解码为量化的变换系数和所需的编码信息(例如ILPF信息、帧内预测信息和帧间预测信息)。解码器侧的帧内预测150不需要执行模式搜索。相反,解码器仅需要根据从熵解码器140接收的帧内预测信息生成帧内预测。此外,对于帧间预测,解码器仅需要根据从熵解码器140接收的帧间预测信息执行运动补偿(MC 152)而无需运动估计。
根据VVC,类似于HEVC,输入图片被划分为称为CTU(编码树单元)的非重迭方形块区域。每个CTU都可以划分为一个或多个较小尺寸的编码单元(CU)。生成的CU分区可以是正方形或矩形。此外,VVC将CTU划分为预测单元(PU),作为应用预测过程的单元,例如帧间预测、帧内预测等。
VVC标准合并了各种新的编码工具以进一步提高超过HEVC标准的编码效率。在各种新的编码工具中,与本发明相关的一些编码工具综述如下。
帧间预测概述
根据JVET-T2002第3.4节,(Jianle Chen等人,“通用视频编码和测试模型11(VTM11)的算法描述”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29的联合视频专家组(JVET),第20次会议,电话会议,2020年10月7–16日,档案:JVET-T2002),针对每一帧间预测CU,运动参数包含运动向量、参考图片索引以及参考图片列表使用标识,以及需要的额外信息VVC的新编码功能用于帧间预测样本生成。可以以显式或隐式方式用信号通知运动参数。当CU以跳过(skip)模式编码时,CU与一个PU相关联并且没有显着的残差系数,没有编码的运动向量增量或参考图片索引。指定合并模式,当前CU的运动参数是从相邻CU获得的,包括空间和时间候选,以及VVC中引入的附加调度。合并模式可以应用于任何帧间预测的CU,而不仅仅是跳过模式。合并模式的替代方案是运动参数的显式传输,其中运动向量、每个参考图片列表的相应参考图片索引和参考图片列表使用标识以及其他所需信息按每个CU显式发送。
除了HEVC中的帧间编码功能外,VVC还包括许多新的和改进的帧间预测编码工具,如下所列:
–扩展合并预测(Extended merge prediction)
–与MVD(MMVD)的合并模式(Merge mode with MVD(MMVD))
–对称MVD(SMVD)信令(Symmetric MVD(SMVD)signalling)
–仿射运动补偿预测(Affine motion compensated prediction)
–基于子块的时间运动向量预测(SbTMVP)(Subblock-based temporal motionvector prediction(SbTMVP))
–自适应运动向量分辨率(AMVR)(Adaptive motion vector resolution(AMVR))
–运动场存储:1/16亮度样本MV存储和8x8运动场压缩
–CU级权重双向预测(BCW)(Bi-prediction with CU-level weight(BCW))
–双向光流(BDOF)(Bi-directional optical flow(BDOF))
–解码器侧运动向量细化(DMVR)(Decoder side motion vector refinement(DMVR))
–几何分区模式(GPM)Geometric partitioning mode(GPM)
–组合帧间和帧内预测(CIIP)(Combined inter and intra prediction(CIIP))
下面的描述提供了在VVC中指定的那些帧间预测方法的细节。
扩展合并预测
在VVC中,合并候选列表是通过依次包括以下五类候选来构建的:
1)来自空间相邻CU的空间MVP
2)来自并置CU的时间MVP
3)来自FIFO表的基于历史的MVP
4)成对平均MVP
5)零MV。
合并列表的大小在序列参数集(SPS)报头中用信号通知并且合并列表的最大允许大小是6。对于在合并模式中编码的每个CU,使用截断一元二值化对最佳合并候选的索引进行编码(TU)。合并索引的第一个二进制字符串(以下简称为bin)使用上下文编码,旁路编码用于其余bin。
本环节提供了每个类别的合并候选的推导过程。与在HEVC中所做的一样,VVC还支持为一定大小的区域内的所有CU并行推导合并候选列表(或称为合并候选列表)。
空间候选推导
除了交换前两个合并候选的位置之外,VVC中空间合并候选的导出与HEVC中的相同。在位于图2所示位置的候选中选择当前CU 210的最多四个合并候选(B0、A0、B1和A1)。导出的顺序是B0、A0、B1、A1和B2。位置B2仅在位置B0、A0、B1、A1的一个或多个相邻CU不可用(例如,属于另一个切片或瓦片)或被帧内编码时才被考虑。添加位置A1的候选后,对剩余候选的添加进行冗余校验,保证具有相同运动信息的候选被排除在列表之外,从而提高编码效率。为了降低计算复杂度,在提到的冗余检查中并未考虑所有可能的候选对。相反,仅考虑图3中用箭头链接的对,并且仅当用于冗余检查的相应候选不具有相同运动信息时才将候选添加到列表中。
时间候选推导
在该步骤中,仅将一个候选添加到列表中。具体地,在针对当前CU 410的该时间合并候选的推导中,基于属于如图4所示的并置参考图片(collocated reference picture)的并置CU 420推导缩放运动向量(scaled motion vector)。用于推导并置CU的参考图片列表(reference picture list)和参考图片的索引(reference index)在切片标头中明确以信号发送。如图4中的虚线所示,获得时间合并候选的缩放运动向量430,其使用POC(图片顺序计数,Picture Order Count)距离tb和td从并置CU的运动向量440缩放,其中tb定义为当前图片的参考图片与当前图片的POC差,td定义为并置(co-located)图片的参考图片与并置图片的POC差。时间合并候选的参考图片索引设置为等于零。
时间候选的位置在候选C0和C1之间选择,如图5所示。如果位置C0的CU不可用、被帧内编码或在当前CTU行之外,则使用位置C1。否则,位置C0用于推导时间合并候选。
基于历史的合并候选推导
基于历史的MVP(HMVP)合并候选被添加到空间MVP和TMVP之后的合并列表。在该方法中,先前编码块的运动信息存储在表中并用作当前CU的MVP。在编码/解码过程中维护具有多个HMVP候选的表。当遇到新的CTU行时,该表将被重置(清空)。每当存在非子块帧间编码CU时,相关联的运动信息将作为新的HMVP候选添加到表的最后一个条目。
HMVP表大小S被设置为6,这指示最多5个基于历史的MVP(HMVP)候选可以被添加到表中。当向表中***新的运动候选时,使用受约束的先进先出(FIFO)规则,其中首先应用冗余检查以查找表中是否存在相同的HMVP。如果找到,相同的HMVP被从表中移除并且之后的所有HMVP候选被向前移动,并且相同的HMVP被***到表的最后条目。
HMVP候选可以用于合并候选列表构建过程。依次检查表中最新的几个HMVP候选,并在TMVP候选之后***到候选列表中。冗余检查应用于HMVP候选至空间或时间合并候选。
为了减少冗余校验操作的数量,引入以下简化:
1.表中的最后两个条目分别针对A1和B1空间候选进行冗余检查。
2.一旦可用合并候选的总数达到最大允许合并候选的数量-1,HMVP的合并候选列表构造过程终止。
成对平均合并候选推导
通过使用前两个合并候选对现有合并候选列表中的预定义候选对进行平均来生成成对平均候选。第一个合并候选定义为p0Cand,第二个合并候选可以分别定义为p1Cand。根据p0Cand和p1Cand的运动向量的可用性分别针对每个参考列表计算平均运动向量。如果两个运动向量在一个列表中都可用,则即使这两个运动向量指向不同的参考图片,也对其进行平均,并将其参考图片设置为p0C和p0C之一;如果只有一个运动向量可用,则直接使用一个;如果没有可用的运动向量,则保持此列表无效。此外,如果p0Cand和p1Cand的半像素插值滤波器索引不同,则将其设置为0。
当添加成对平均合并候选后合并列表未满时,将零个MVP***最后直到遇到最大合并候选数。
合并估计区域
合并估计区域(MER)允许独立推导同一合并估计区域(MER)中的CU的合并候选列表。在当前CU的合并候选列表的生成中不包括与当前CU在相同MER内的候选块。此外,仅当(xCb+cbWidth)>>Log2ParMrgLevel大于xCb>>Log2ParMrgLevel和(yCb+cbHeight)>>Log2ParMrgLevel大于(yCb>>Log2ParMrgLevel),其中(xCb,yCb)是图片中当前CU的左上角亮度样本位置,(cbWidth,cbHeight)是CU大小。MER大小在编码器端选择,并在序列参数集(SPS)中作为log2_parallel_merge_level_minus2发出信号。
具有MVD的合并模式(MMVD)
除了其中隐式导出的运动信息被直接用于当前CU的预测样本生成的合并模式之外,在VVC中引入了具有运动向量差(MMVD)的合并模式。在发送常规合并标识后立即发出MMVD标识,以指定MMVD模式是否用于CU。
在MMVD中,在选择了合并候选(本发明中被称为基本合并候选)之后,通过用信号发送的MVD信息对其进行进一步细化。进一步的信息包括合并候选标识、用于指定运动幅度的索引和用于指示运动方向的索引。在MMVD模式下,合并列表中的前两个候选中的一个被选择用作MV基础。发出MMVD候选标识以指定在第一和第二合并候选之间使用哪一个。
距离索引指定运动幅度信息并且指示从L0参考块610和L1参考块620的起点(612和622)的预定义偏移。如图6所示,偏移被添加到起始MV的水平分量或垂直分量,其中不同样式的小圆圈对应于距中心的不同偏移量。距离索引和预定义偏移量的关系在表1中指定。
表1–距离索引与预定义偏移量的关系
Figure SMS_1
方向指数表示MVD相对于起始点的方向。方向索引可以表示如表2所示的四个方向。需要注意的是,MVD符号的含义可以根据起始MV的信息而变化。当起始MV是非预测MV或双预测MV,两个列表都指向当前图片的同一侧(即两个参考的POC均大于当前图片的POC,或均小于当前图片的POC),表2中的符号指定添加到起始MV的MV偏移量的符号。当起始MV是双向预测MV,两个MV指向当前图片的不同侧(即一个参考的POC大于当前图片的POC,另一个参考的POC小于当前图片的POC),并且列表0(可简称为list 0或L0)中POC的差异大于列表1(可简称为list 1或L1)中的POC,表2中的符号指定添加到起始MV的列表0的MV分量的MV偏移量的符号和列表1的MV的符号有相反的值。否则,如果列表1中的POC之差大于列表0,则表2中的符号指定添加到起始MV的列表1MV分量的MV偏移量的符号与列表0MV的符号具有相反的值。
MVD是根据每个方向上的POC的差异来缩放的。如果两个列表中POC的差异相同,则不需要缩放。否则,如果列表0中的POC差异大于列表1中的差异,则通过将L0的POC差异定义为td并将L1的POC差异定义为tb来缩放列表1的MVD,如图5所示。如果L1的POC差异大于L0,则列表0的MVD以相同的方式缩放。如果起始MV是单向预测的,则将MVD添加到可用MV。
表2–方向索引指定的MV偏移符号
方向索引 00 01 10 11
X轴 + - N/A N/A
Y轴 N/A N/A + -
仿射运动补偿预测
在HEVC中,仅平移运动模型被应用于运动补偿预测(MCP)。而在现实世界中,有很多种运动,例如放大/缩小、旋转、透视运动和其他不规则运动。在VVC中,应用基于块的仿射变换运动补偿预测。如图所示。在图7A-B中,块710的仿射运动域由图7A中的两个控制点(4参数)的运动信息或图7B中的三个控制点运动向量(6参数)描述。
对于4参数仿射运动模型,块中样本位置(x,y)处的运动向量被导出为:
Figure SMS_2
对于6参数仿射运动模型,块中样本位置(x,y)处的运动向量被导出为:
Figure SMS_3
其中(mv0x,mv0y)为左上角控制点的运动向量,(mv1x,mv1y)为右上角控制点的运动向量,(mv2x,mv2y)为底部-左角控制点的运动向量。
为了简化运动补偿预测,应用基于块的仿射变换预测。为了导出每个4×4亮度子块的运动向量,每个子块的中心样本的运动向量,如图8所示,根据上述等式计算,并四舍五入到1/16分数精度。然后,应用运动补偿插值滤波器以生成具有导出的运动向量的每个子块的预测。色度分量的子块大小也设置为4×4。4×4色度子块的MV计算为并置8x8亮度区域中左上角和右下角亮度子块的MV的平均值。
对于平移运动帧间预测,也有两种仿射运动帧间预测模式:仿射合并模式和仿射AMVP模式。
仿射合并预测(AF_MERGE)
AF_MERGE模式可以应用于宽度和高度都大于或等于8的CU。在该模式下,基于空间相邻CU的运动信息生成当前CU的CPMV(控制点MV)。最多可以有五个CPMVP(CPMV预测)候选,并且用信号发送一个索引以指示要用于当前CU的那个。下面三种类型的CPVM候选被用来构成仿射合并候选列表:
–从相邻CU的CPMV推断出的继承仿射合并候选
–使用相邻CU的平移MV派生的构造仿射合并候选CPMVP
–零MV
在VVC中,最多有两个继承的仿射候选,它们来自相邻块的仿射运动模型,一个来自左相邻CU,一个来自上方相邻CU。候选块与图2所示相同。对于左预测子,扫描顺序为A0->A1,对于上预测子,扫描顺序为B0->B1->B2。仅选择每一方的第一个继承候选。在两个继承的候选之间不执行修剪检查(pruning check)。识别相邻的仿射CU时,其控制点运动向量用于导出当前CU的仿射合并列表中的CPMVP候选。如图9所示,如果当前块910的左下相邻块A以仿射模式编码,则获得CU 920的左上角、右上角和包含块A的左下角的运动向量v2、v3和v4。当块A采用4参数仿射模型编码时,根据v2、v3计算当前CU的两个CPMV(即v0和v1)。在块A采用6参数仿射模型编码的情况下,根据v2、v3、v4计算当前CU的三个CPMV。
构造仿射候选是指通过结合每个控制点的相邻平移运动信息来构造候选。如图10所示,控制点的运动信息是从当前块1010的指定空间邻居和时间邻居导出的。CPMVk(k=1、2、3、4)表示第k个控制点。对于CPMV1,检查B2->B3->A2块并使用第一个可用块的MV。对于CPMV2,检查B1->B0块,对于CPMV3,检查A1->A0块。如果TMVP可用,则将其用作CPMV4。
在获得四个控制点的MV后,基于运动信息构建仿射合并候选。以下控制点MV的组合用于按顺序构建:
{CPMV1,CPMV2,CPMV3},{CPMV1,CPMV2,CPMV4},{CPMV1,CPMV3,CPMV4},
{CPMV2,CPMV3,CPMV4},{CPMV1,CPMV2},{CPMV1,CPMV3}
3个CPMV的组合构造了6参数仿射合并候选并且2个CPMV的组合构造了4参数仿射合并候选。为了避免运动缩放过程,如果控制点的参考索引不同,则丢弃控制点MV的相关组合。
检查继承的仿射合并候选和构造的仿射合并候选后,如果列表仍未满,则将零个MV***到列表的末尾。
仿射AMVP预测
仿射AMVP模式可以应用于宽度和高度都大于或等于16的CU。CU级的仿射标识在比特流中用信号发送以指示是否使用仿射AMVP模式,然后另一个标识用信号发送以指示是使用4参数仿射还是6参数仿射。在这种模式下,当前CU的CPMV与其预测变量CPMVP的差异在比特流中用信号表示。仿射AVMP候选列表大小为2,由以下四种CPVM候选依次生成:
–从相邻CU的CPMV推断出的继承仿射AMVP候选
–构建的仿射AMVP候选CPMVP使用相邻CU的平移MV导出
–来自相邻CU的平移MV
–零MV
继承仿射AMVP候选的检查顺序与继承仿射合并候选的检查顺序相同。唯一的区别是,对于AVMP候选,仅考虑与当前块具有相同参考图片的仿射CU。将继承的仿射运动预测***候选列表时,不应用裁剪过程。
构造的AMVP候选是从图10中所示的指定空间邻居导出的。使用与仿射合并候选构造中相同的检查顺序此外,还检查相邻块的参考图片索引。在检查顺序中,使用帧间编码并具有与当前CU中相同的参考图片的第一个块。当当前CU使用4参数仿射模式编码,并且mv0和mv1都可用时,将它们作为一个候选添加到仿射AMVP列表中。当当前CU使用6参数仿射模式编码,并且所有三个CPMV都可用时,它们将作为一个候选添加到仿射AMVP列表中。否则,将构建的AMVP候选设置为不可用。
如果***有效继承的仿射AMVP候选和构造的AMVP候选后,仿射AMVP候选列表的数量仍然小于2,则会添加mv0,mv1与mv2作为平移MV以便在可用时预测当前CU的所有控制点MV。最后,如果仿射AMVP列表仍未满,则使用零MV来填充它。
仿射运动信息存储
在VVC中,仿射CU的CPMV存储在单独的缓冲区中。存储的CPMV仅用于在仿射合并模式和仿射AMVP模式下为最近编码的CU生成继承的CPMVP。从CPMV导出的子块MV用于运动补偿、平移MV的合并/AMVP列表的MV导出和去块。
为了避免额外的CPMV的图片行缓冲区,从上述CTU的CU继承的仿射运动数据被区别对待,以从正常的相邻CU继承。如果用于仿射运动数据继承的候选CU在上述CTU行中,则行缓冲区中的左下和右下子块MV而不是CPMV用于仿射MVP推导。这样,CPMV仅存储在本地缓冲区中。如果候选CU是6参数仿射编码,则仿射模型退化为4参数模型。如图11所示,沿着顶部CTU边界,CU的左下和右下子块运动向量用于底部CTU中CU的仿射继承。在图11中,第1110行和第1112行表示原点(0,0)在左上角的图片的x和y坐标。图例1120显示了各种运动向量的含义,其中箭头1122表示局部缓冲区中用于仿射继承的CPMV,箭头1124表示用于局部缓冲区中的MC/合并/跳过MVP/去块/TMVP和仿射的子块向量行缓冲器中的继承,箭头1126代表MC/合并/跳过MVP/去块/TMVP的子块向量。
自适应运动向量分辨率(AMVR)
在HEVC中,当切片标头中的use_integer_mv_flag等于0时,(CU的运动向量和预测运动向量之间的)运动向量差(MVD)以四分之一亮度样本为单位用信号发送。在VVC中,引入了CU级自适应运动向量分辨率(AMVR)方案。AMVR允许CU的MVD以不同的精度进行编码。根据当前CU的模式(普通AMVP模式或仿射AVMP模式),当前CU的MVD可以自适应地选择如下:
–正常AMVP模式:四分之一亮度样本、半亮度样本、整数亮度样本或四亮度样本。
–仿射AMVP模式:四分之一亮度样本、整数亮度样本或1/16亮度样本。
如果当前CU具有至少一个非零MVD分量,则有条件地用信号通知CU级MVD分辨率指示。如果所有MVD分量(即,参考列表L0和参考列表L1的水平和垂直MVD)均为零,则推断出四分之一亮度样本MVD分辨率。
对于具有至少一个非零MVD分量的CU,用信号发送第一标识以指示四分之一亮度样本MVD精度是否用于CU。如果第一个标识为0,则不需要进一步的信号传输,并且四分之一亮度样本MVD精度用于当前CU。否则,发出第二个标识以指示将半亮度样本或其他MVD精度(整数或四亮度样本)用于正常的AMVP CU。在半亮度样本的情况下,半亮度样本位置使用6抽头插值滤波器而不是默认的8抽头插值滤波器。否则,用信号发送第三个标识以指示是将整数亮度样本还是四亮度样本MVD精度用于正常AMVP CU。在仿射AMVP CU的情况下,第二个标识用于指示是否使用整数亮度样本或1/16亮度样本MVD精度。为了确保重建的MV具有预期的精度(四分之一亮度样本、半亮度样本、整数亮度样本或四亮度样本),CU的运动向量预测因子将四舍五入为相同的、与MVD相加之前的MVD精度。运动向量预测值向零舍入(即,负运动向量预测值向正无穷大舍入,正运动向量预测值向负无穷大舍入)。
编码器使用RD检查确定当前CU的运动向量分辨率。为了避免总是对每个MVD分辨率执行四次CU级RD检查,除四分之一亮度样本之外的MVD精度的RD检查仅在VTM11中有条件地调用。对于正常的AVMP模式,首先计算四分之一亮度样本MVD精度和整数亮度样本MV精度的RD成本。然后,将整数亮度样本MVD精度的RD成本与四分之一亮度样本MVD精度的RD成本进行比较,以决定是否有必要进一步检查四亮度样本MVD精度的RD成本。当四分之一亮度样本MVD精度的RD成本远小于整数亮度样本MVD精度的RD成本时,将跳过四亮度样本MVD精度的RD检查。然后,如果整数亮度样本MVD精度的RD成本明显大于先前测试的MVD精度的最佳RD成本,则跳过半亮度样本MVD精度的检查。对于仿射AMVP模式,如果在检查仿射合并/跳过模式、合并/跳过模式、四分之一亮度样本MVD精度正常的AMVP模式和四分之一亮度样本MVD精度的率失真成本后未选择仿射帧间模式、仿射AMVP模式,则不检查1/16亮度样本MV精度和1像素MV精度仿射帧间模式。此外,在四分之一亮度样本MV精度仿射帧间模式中获得的仿射参数被用作1/16亮度样本和四分之一亮度样本MV精度仿射帧间模式的起始搜索点。
具有CU级权重的双向预测(BCW)
在HEVC中,双预测信号Pbi-pred是通过对从两个不同参考图片和/或使用两个不同运动向量获得的两个预测信号P0与P1进行平均而生成的。在VVC中,双预测模式被扩展到简单的平均之外,以允许对两个预测信号进行加权平均。
Pbi-pred=((8-w)*P0+w*P1+4)>>3 (3)
加权平均双向预测允许五个权重,w∈{-2,3,4,5,10}。对于每个双向预测的CU,权重w由以下两种方式之一确定:1)对于非合并CU,权重索引在运动向量差异之后发出信号;2)对于合并CU,权重索引是根据合并候选索引从相邻块中推断出来的。BCW仅适用于具有256个或更多亮度样本的CU(即,CU宽度乘以CU高度大于或等于256)。对于低延迟图片,使用所有5个权重。对于非低延迟图片,仅使用3个权重(w∈{3,4,5})。在编码器处,应用快速搜索算法来查找权重索引,而不会显着增加编码器的复杂性。这些算法总结如下。详细信息在VTM软体和文件JVET-L0646中公开(Yu-Chi Su等人,“CE4相关:广义双向预测改进结合了JVET-L0197和JVET-L0296”,联合视频专家组(JVET)of ITU-T SG 16WP 3与ISO/IEC JTC1/SC 29,第十二次会议:澳门,2018年10月3-12,档案:JVET-L0646)。
当与AMVR结合时,如果当前图片是低延迟图片,则仅针对1像素和4像素运动向量精度有条件地检查不等权重。
当与仿射相结合时,当且仅当选择仿射模式作为当前最佳模式时,才会对不等权重执行仿射ME。
当双向预测中的两个参考图片相同时,仅有条件地检查不相等的权重。
当满足某些条件时不搜索不等权重,这取决于当前图片与其参考图片之间的POC距离、编码QP和时间级别。
BCW权重索引使用一个上下文编码的bin和旁路编码的bin进行编码。第一个上下文编码的bin指示是否使用相等的权重;如果使用了不等权重,则使用旁路编码向附加箱(box)信号,以指示使用了哪个不等权重。
权重预测(WP)是一种受H.264/AVC和HEVC标准支持的编码工具,可有效地对具有衰落的视频内容进行编码。对WP的支持也被添加到VVC标准中。WP允许为每个参考图片列表L0和L1中的每个参考图片发送权重参数(权重和偏移)。然后,在运动补偿期间,应用相应参考图片的权重和偏移。WP和BCW专为不同类型的视频内容而设计。为了避免WP和BCW之间的交互,这会使VVC解码器设计复杂化,如果CU使用WP,则不通知BCW权重索引,并且权重w被推断为4(即应用相等的权重)。对于合并CU,权重索引是根据合并候选索引从相邻块中推断出来的。这可以应用于普通合并模式和继承仿射合并模式。对于构造的仿射合并模式,仿射运动信息是基于最多3个块的运动信息构造的。使用构造的仿射合并模式的CU的BCW索引被简单地设置为等于第一个控制点MV的BCW索引。
在VVC中,CIIP和BCW不能联合申请一个CU。当一个CU使用CIIP模式编码时,当前CU的BCW索引设置为2,即对于相等权重w=4。相等权重暗示BCW指数的默认值。
组合帧间和帧内预测(CIIP)
在VVC中,当CU以合并模式编码时,如果CU包含至少64个亮度(luma)样本(即CU宽度乘以CU高度等于或大于64),并且如果CU宽度和CU高度都小于128个亮度样本,一个额外的标识被发送以指示组合帧间/帧内预测(CIIP)模式是否应用于当前CU。正如其名称所示,CIIP预测将帧间预测信号与帧内预测信号组合在一起。CIIP模式Pinter中的帧间预测信号是使用应用于常规合并模式的相同帧间预测过程导出的;并且帧内预测信号Pintra是在具有平面模式的常规帧内预测过程之后导出的。然后,使用权重平均组合帧内和帧间预测信号,其中权重值wt根据当前CU 1210的顶部和左侧相邻块(如图12所示)的编码模式计算如下:
如果顶部邻居可用且帧内编码,则将isIntraTop设置为1,否则将isIntraTop设置为0;
如果左邻居可用且帧内编码,则将isIntraLeft设置为1,否则将isIntraLeft设置为0;
如果(isIntraLeft+isIntraTop)等于2,则wt设置为3;
否则,如果(isIntraLeft+isIntraTop)等于1,则wt设置为2;
否则,将wt设置为1。
CIIP预测形成如下:
PCIIP=((4-wt))*Pinter+wt*Pintra+2)>>2 (4)
CCLM(跨组件线性模型)
CCLM模式(有时缩写为LM模式)背后的主要思想是彩色图片的颜色分量(例如Y/Cb/Cr、YUV和RGB)之间通常存在某种相关性。这些颜色在本公开中可以称为第一颜色、第二颜色和第三颜色。CCLM技术通过线性模型从并置的重建亮度样本预测块的色度分量来利用相关性,线性模型的参数源自与块相邻的已重建亮度和色度样本。
在VVC中,CCLM模式通过从重建的亮度样本中预测色度样本来利用通道间依赖性。该预测是使用以下形式的线性模型进行的P(i,j)=a·rec′L(i,j)+b (5)
这里,P(i,j)表示CU中的预测色度样本,而rec′L(i,j)表示同一CU的重建亮度样本,这些样本针对非4:4:4彩色格式的情况进行了下采样。模型参数a和b是基于编码器和解码器端重建的相邻亮度和色度样本导出的,没有显式信令。
VVC中指定了三种CCLM模式,即CCLM_LT、CCLM_L和CCLM_T。这三种模式在用于模型参数推导的参考样本的位置方面有所不同。仅来自顶部边界的样本涉及CCLM_T模式,仅来自左边界的样本涉及CCLM_L模式。在CCLM_LT模式下,使用来自顶部边界和左侧边界的样本。
总体而言,CCLM模式的预测过程包括三个步骤:
1)亮度块及其相邻重建样本的下采样以匹配相应色度块的大小,
2)基于重建的相邻样本的模型参数推导,以及
3)应用模型方程(1)生成色度帧内预测样本。
亮度分量的下采样:为了匹配4:2:0或4:2:2彩色格式视频序列的色度样本位置,可以对亮度样本应用两种类型的下采样滤波器,它们都具有水平和垂直方向上的2比1下采样率。这两个滤波器分别对应于“类型-0(type-0)”和“类型-2(type-2)”4:2:0色度格式内容,分别由
Figure SMS_4
基于SPS级标识信息,二维6阶(即f2)或5阶(即f1)滤波器应用于当前块内的亮度样本及其相邻亮度样本。SPS-级指的是序列参数集级别(Sequence Parameter Setlevel)。如果当前块的上方行是CTU边界,则会发生异常。在这种情况下,一维滤波器[1,2,1]/4应用于上述相邻亮度样本,以避免在CTU边界上方使用多个亮度队列。
模型参数推导过程:来自等式(5)的模型参数a和b基于编码器和解码器端重建的相邻亮度和色度样本导出,以避免需要任何信令开销。在最初采用的CCLM模式版本中,线性最小均方误差(LMMSE)估计器用于参数的推导。然而,在最终设计中,只涉及四个样本以降低计算复杂度。图13显示了M×N色度块1310、相应的2M×2N亮度块1320及其“类型0”内容的相邻样本(显示为实心圆和三角形)的相对样本位置。
在图13的示例中,显示了在CCLM_LT模式中使用的四个样本,它们用三角形标记。它们位于上边界M/4和M·3/4的位置,以及左边界N/4和N·3/4的位置。在CCLM_T和CCLM_L模式下,上边界和左边界被扩展到(M+N)个样本的大小,用于模型参数推导的四个样本位于(M+N)/8、(M+N)·3/8、(M+N)·5/8和(M+N)·7/8。
一旦选择了四个样本,就使用四个比较操作来确定其中两个最小和两个最大的亮度样本值。令Xl表示两个最大亮度样本值的平均值,令Xs表示两个最小亮度样本值的平均值。类似地,让Yl和Ys表示相应色度样本值的平均值。然后,根据以下等式获得线性模型参数:
Figure SMS_5
b=Ys-a·Xs. (7)
在这个等式中,计算参数a的除法运算是通过查找表实现的。为了减少存储该表所需的内存,diff值,即最大值和最小值之间的差值,以及参数a用指数表示法表示。这里,diff的值用4位有效部分和指数近似。因此,diff的表仅包含16个元素。这样做的好处是既降低了计算的复杂性,又减少了存储表所需的内存大小。
MMLM概览
顾名思义,原始的CCLM模式采用一个线性模型来预测整个CU的亮度样本的色度样本,而在MMLM(多模型CCLM)中,可以有两个模型。在MMLM中,将当前块的相邻亮度样本和相邻色度样本分为两组,每组作为训练集推导线性模型(即针对特定组推导特定的α和β)。此外,当前亮度块的样本也基于与相邻亮度样本的分类相同的规则进行分类。
阈值(Threshold)为相邻重建亮度样本的平均值。Rec′L[x,y]<=Threshold的相邻样本被分类为第1组;而Rec′L[x,y]>Threshold的相邻样本被分类为第2组。
相应地,色度的预测是使用线性模型获得的:
Figure SMS_6
色度帧内模式编码
对于色度帧内模式编码,总共允许8种帧内模式用于色度帧内模式编码。这些模式包括五种传统帧内模式和三种跨组件线性模型模式(CCLM、LM_A和LM_L)。色度模式信令和推导过程如表3所示。色度模式编码直接取决于相应亮度块的帧内预测模式。由于在I切片中启用了用于亮度和色度分量的单独块划分结构,所以一个色度块可以对应于多个亮度块。因此,对于色度(Chroma)导出(DM,derived mode)模式,直接继承覆盖当前色度块中心位置的对应亮度块的帧内预测模式。
表3.启用CCLM时从亮度模式推导色度预测模式
Figure SMS_7
/>
Figure SMS_8
如表4所示,无论sps_cclm_enabled_flag的值如何,都使用单个二值化表。
表4.色度预测模式统一二值化表
Figure SMS_9
第一个bin表示它是常规模式(即0)还是LM模式(即1)。如果它是LM模式,则下一个bin指示它是LM_CHROMA(即0)还是不是(即1)。如果不是LM_CHROMA,则下一个bin指示它是LM_L(即0)还是LM_A(即1)。对于这种情况,当sps_cclm_enabled_flag为0时,可以在熵编码之前忽略对应intra_chroma_pred_mode的二值化表的第一个bin。或者,换句话说,第一个bin被推断为0,因此未被编码。此单个二值化表用于sps_cclm_enabled_flag等于0和1的情况。前两个bin使用其自己的上下文模型进行上下文编码,其余bin进行旁路编码。
多假设预测(MHP)
在多假设帧间预测模式(JVET-M0425)中,除了传统的双预测信号之外,还发出一个或多个附加运动补偿预测信号。最终的整体预测信号是通过样本权重迭加获得的。利用双预测信号pbi和第一附加帧间预测信号/假设h3,得到的结果预测信号p3如下:
p3=(1-α)pbi+αh3 (8)
根据以下映射(表5),权重因子α由新语法元素add_hyp_weight_idx指定:
表5.将α映射到add_hyp_weight_idx
add_hyp_weight_idx α
0 1/4
1 -1/8
与上文类似,可以使用一个以上的附加预测信号。得到的整体预测信号与每个附加预测信号一起迭代累积。
pn+1=(1-αn+1)pnn+1hn+1 (9)
作为最后的pn(即,具有最大索引n的pn)获得所得的整体预测信号。例如,最多可以使用两个额外的预测信号(即,n限制为2)。
每个附加预测假设的运动参数可以通过指定参考索引、运动向量预测值索引和运动向量差来显式地用信号发送,或者通过指定合并索引来隐式地用信号发送。一个单独的多假设合并标识区分这两种信号模式。
对于帧间AMVP模式,只有在双向预测模式下选择BCW中的非等权重时才应用MHP。VVC的MHP的详细信息可以在JVET-W2025中找到(Muhammed Coban等人,“增强压缩模型2(ECM 2)的算法描述”,ITU-T SG 16WP 3的联合视频专家组(JVET)和ISO/IEC JTC 1/SC29,第23次会议,电话会议,2021年7月7-16日,文件:JVET-W2025)。
MHP和BDOF的组合是可能的,但是BDOF仅应用于预测信号的双预测信号部分(即,普通的前两个假设)。
发明内容
公开了一种用于预测编解码的方法和装置。根据该方法,接收与当前块相关联的输入数据,其中输入数据包括在编码器侧待编码的当前块的像素数据或在解码器侧与待解码的当前块相关联的编码数据。确定组合预测成员,其中每个组合预测成员包括来自使用从权重集选择的目标权重的预测候选组的第一预测候选和第二预测候选的权重和。确定与组合预测成员相关联的边界匹配成本,其中,针对具有目标权重的组合预测成员,通过使用基于具有目标权重的组合预测成员的当前块的预测样本和当前块的相邻重建样本来确定每个边界匹配成本。然后使用基于至少一个边界匹配成本决定的最终组合预测来编码或解码当前块。
在一个实施例中,根据与具有目标权重的组合预测成员关联的边界匹配成本来分配权重索引的权重值,其中边界匹配成本较小分配较小的权重值,较大的边界匹配成本分配较大的权重值。
在一个实施例中,与最终组合预测相关联的权重索引在编码器侧和解码器侧隐含地确定。隐式确定的权重索引对应于具有导致最小边界匹配成本的目标权重的组合预测成员。
在一个实施例中,第一预测候选和第二预测候选来自预测候选组,并且当前块的预测候选组包括第一双预测候选和第二双预测候选,并且第一预测候选对应于第一双向预测候选,第二预测候选对应于第二双向预测候选。
在一个实施例中,第一预测候选对应于现有预测并且第二预测候选来自包括一个或多个预测假设的预测候选组。在一个实施例中,所述一个或多个预测假设包括至少两个预测假设,并且通过将第一预测候选设置为先前的最终组合预测并将第二预测候选设置为预测候选组下一个预测假设来更新最终组合预测。在一个实施例中,从权重集中选择的目标权重是根据边界匹配成本隐含地确定的。
在一个实施例中,当前块的预测样本对应于当前块的预测块的子集。例如,当前块的预测块的子集可以包括预测块的上方行n1行和左侧列m1列,并且当前块的相邻重构样本包括当前块上方的n2行和左侧的m2列,其中n1、m1、n2和m2为大于或等于0的整数。在一个例子中,n1和m1等于2,n2和m2等于2。在另一个例子中,n1和m1等于2,并且n2和m2等于1。在一个实施例中,用于n1、m1、n2和m2的一个或多个句法在CU、CB、PU、PB、TU、TB、CTU、CTB、切片级别、图片级别、SPS(序列参数集)级别、PPS(图片参数集)级别或其组合处用信号发送或解析。
根据另一种方法,接收与当前块相关联的输入数据,其中输入数据包括在编码器侧待编码的当前块的像素数据或与在解码器侧待解码的当前块相关联的编码数据。确定与现有预测相关联的预测成员,其中每个预测成员对应于现有预测和来自一组组合预测候选的一个目标组合预测候选的一个权重和,并且其中每个组合预测候选对应于一个目标运动向量与一个目标权重的组合,该目标权重是用于组合现有预测和所述一个目标组合预测候选的,所述一个目标运动候选来自一组m个运动候选并且所述一个目标权重来自一组n个权重,m和n是正整数。确定与预测成员相关联的边界匹配成本,其中针对所述每个预测成员的每个边界匹配成本是通过基于所述每个预测成员的当前块的预测样本和当前块的相邻重构样本来确定的。使用基于至少一个边界匹配成本决定的最终预测来编码或解码当前块。
附图说明
图1A图示了包含循环处理的示例性自适应帧间/帧内视频编码***。
图1B图示了图1A中的编码器的相应解码器。
图2图示了用于导出VVC的空间合并候选的相邻块。
图3图示了考虑用于VVC中的冗余校验的可能候选对。
图4图示了时间候选推导的示例,其中根据POC(图片顺序计数)距离推导缩放的运动向量。
图5图示了在候选C0和C1之间选择的时间候选的位置。
图6图示了根据具有MVD的合并模式(MMVD)在水平和垂直方向上距起始MV的距离偏移。
图7A示出了由两个控制点(4参数)的运动信息描述的块的仿射运动场的示例。
图7B图示了由三个控制点运动向量(6参数)的运动信息描述的块的仿射运动场的示例。
图8图示了基于块的仿射变换预测的示例,其中每个4×4亮度子块的运动向量是从控制点MV导出的。
图9图示了基于相邻块的控制点MV推导继承仿射候选的示例。
图10示出了通过组合来自空间邻居和时间的每个控制点的平移运动信息来构建仿射候选的示例。
图11图示了用于运动信息继承的仿射运动信息存储的示例。
图12图示了根据顶部和左侧相邻块的编码模式的用于组合帧间和帧内预测(CIIP)的权重值推导的示例。
图13图示了使用相邻色度样本和相邻亮度样本的CCLM(交叉分量线性模型)的模型参数推导的示例。
图14图示了用于导出候选模式的边界匹配成本的边界样本和相邻样本的示例。
图15示出了示例性多重预测假设,其中多重预测假设包括现有假设以及预测h1和预测h2的两个假设。
图16图示了根据本发明实施例的利用多个预测假设的示例性视频编码***的流程图。
图17图示了根据本发明实施例的利用多个预测假设的另一个示例性视频编码***的流程图。
具体实施方式
很容易理解,本发明的组件,如本文附图中一般描述和图示的,可以以多种不同的配置布置和设计。因此,如附图中所表示的本发明的***和方法的实施例的以下更详细的描述并不旨在限制所要求保护的本发明的范围,而仅代表本发明的选定实施例。在整个说明书中对“一个实施例”、“一实施例”或类似语言的引用意味着结合该实施例描述的特定特征、结构或特性可以包括在本发明的至少一个实施例中。因此,在整个说明书的各个地方出现的短语“在一个实施例中”或“在一实施例中”不一定都指代相同的实施例。
此外,所描述的特征、结构或特性可以在一个或多个实施例中以任何合适的方式组合。然而,相关领域的技术人员将认识到,本发明可以在没有一个或多个具体细节的情况下,或使用其他方法、组件等来实践。在其他情况下,未示出或未示出众所周知的结构或操作。详细描述以避免模糊本发明的方面。通过参考附图将最好地理解本发明的所示实施例,其中相同的部件自始至终由相同的数字表示。以下描述仅作为示例,并且简单地说明了与如本文所要求保护的本发明一致的设备和方法的某些选定实施例。
随着视频编解码的改进,开发了更多的编解码工具。然而,新编解码工具的编码增益不是相加的。可能的原因是
-考虑到语法开销,并非所有新的编解码模式都可以成为块的候选模式。
-随着块的候选模式的增加,需要更长的码字来指示来自多个候选模式的编解码模式。
以合并模式为例。与HEVC相比,建议将新的合并候选(例如成对平均合并候选、HMVP合并候选等)添加到合并候选列表中。如前所述,最佳合并候选的索引被编码/解码以指示为当前块选择的合并候选。然而,
-合并候选列表中的合并候选数量限制为预先定义的数量,因此并非所有合并候选都可以添加到合并候选列表中。
-如果合并候选列表中合并候选的数量增加,则最佳合并候选索引的码字长度变长。
因此,提出了一种方案来自适应地重新排序候选模式。一般规则如下所示。
-计算每个候选模式的成本,可以(但不限于)合并候选模式和/或可以扩展到任何其他工具的候选模式
-接下来,根据成本决定这些候选模式的优先顺序。
在一个实施例中,那些具有较小成本的候选模式获得较高的优先级。
在另一个实施例中,那些具有较小成本的候选模式获得较低的优先级。
-接下来,候选模式根据优先顺序重新排序。
值较小的索引表示优先级较高的候选模式。
换句话说,索引是指重新排序后的候选模式。
最初,索引的值是指候选模式的索引。
应用建议的重新排序方案后,索引的值指的是候选模式的重新排序索引。
在另一个实施例中,对于具有较高优先级的那些候选模式,较短的码字被用于编码/解码。在另一个实施例中,对于优先级最高的候选模式,隐式设置为当前块的编码模式。在本发明中,确定优先顺序的方案包括边界匹配。对于每个候选模式,计算边界匹配成本。优先顺序取决于这些候选模式的边界匹配成本。
候选模式的边界匹配成本
候选模式的边界匹配成本是指从候选模式生成的当前预测(图14中显示为粗框的当前块1410内的预测样本)和相邻重建(一个或多个相邻块内的重建样本)之间的不连续性测量(包括顶部边界匹配和/或左边界匹配)。举例来说,候选模式的边界匹配成本代表当前预测与相邻重构之间的不连续性。上边界匹配是指当前顶部预测样本与相邻顶部重构样本1420之间的比较,左边界匹配是指当前左预测样本与相邻左重构样本1430之间的比较。
在一个实施例中,使用当前预测的预定义子集来计算边界匹配成本。使用当前块内上边界的n1行和/或当前块内左边界的m1列,其中n1和m1为大于或等于0的整数。此外,使用顶部相邻重建的n2行和/或左相邻重建的m2列,其中n2和m2是大于或等于0的整数。
这里是计算n1=2、m1=2、n2=2和m2=2的边界匹配成本的示例。
Figure SMS_10
在上述等式中,权重(a、b、c、d、e、f、g、h、i、j、k、l)可以是任意正整数,例如a=2、b=1、c=1,d=2,e=1,f=1,g=2,h=1,i=1,j=2,k=1,l=1。
这是计算n1=2、m1=2、n2=1和m2=1的边界匹配成本的另一个例子。
Figure SMS_11
在上述等式中,权重(a,b,c,g,h,i)可以是任意正整数,例如a=2、b=1、c=1、g=2、h=1、i=1。
这是计算n1=2、m1=1、n2=2和m2=2的边界匹配成本的另一个例子。
Figure SMS_12
在上述等式中,权重(d,e,f,j,k,l)可以是任意正整数,例如d=2、e=1、f=1、j=2、k=1、l=1。
这是计算n1=1、m1=1、n2=1和m2=1的边界匹配成本的另一个例子。
Figure SMS_13
在上述等式中,权重(a,c,g,i)可以是任意正整数,例如a=1、c=1、g=1、i=1。
这是计算n1=2、m1=1、n2=2和m2=1的边界匹配成本的另一个例子。
Figure SMS_14
在上述等式中,权重(a,b,c,d,e,f,g,i)可以是任意正整数,例如a=2、b=1、c=1、d=2、e=1、f=1、g=1、i=1。
这是计算n1=1、m1=2、n2=1和m2=2的边界匹配成本的另一个例子。
Figure SMS_15
在上述等式中,权重(a,c,g,h,i,j,k,l)可以是任意正整数,例如a=1、c=1、g=2、h=1、i=1、j=2、k=1、l=1。
以下用于n1和m1的示例也可以应用于n2和m2。
再例如,nl可以是任何正整数,例如1、2、3、4等。
又例如,m1可以是任何正整数,例如1、2、3、4等。
又例如,n1和/或m1随块宽度、高度或面积而变化。
根据一个示例,对于较大的块(例如面积>阈值),使用较大的m1。
阈值=64、128或256。
当面积>阈值时,m1增加到2。(最初,m1为1。)
当面积>阈值时,m1增加到4。(最初,m1为1或2。)
根据另一个示例,对于更高的块(例如高度>阈值*宽度),使用更大的m1和/或使用更小的n1。
阈值=1、2或4。
当高度>阈值*宽度时,m1增加到2。(原来m1是1。)
当高度>阈值*宽度时,m1增加到4。(原来m1是1或2。)
根据另一个例子,对于更大的块(例如面积>阈值),使用更大的n1。
阈值=64、128或256。
当面积>阈值时,n1增加到2。(最初,n1为1。)
当面积>阈值时,n1增加到4。(最初,n1为1或2。)
根据另一个示例,对于更宽的块(例如宽度>阈值*高度),使用更大的n1和/或使用更小的m1。
阈值=1、2或4。
当宽度>阈值*高度时,n1增加到2。(原来n1是1。)
当宽度>阈值*高度时,n1增加到4。(原来n1是1或2。)
对于另一个例子,nl和/或ml可以在标准中定义或者取决于来自CU/CB、PU/PB、TU/TB、CTU/CTB、切片级别、图片级别、SPS(序列参数集)级别和/或PPS(图片参数集)级别的语法的信令/解析。
在另一实施例中,当当前块位于CTU行内的顶部边界时,不使用顶部边界匹配和/或仅使用左边界匹配。(不使用跨CTU行的相邻重建样本。)
在另一实施例中,当当前块位于CTU内的左边界时,不使用左边界匹配和/或仅使用上边界匹配。
在另一个实施例中,当当前块较高时(例如高度>阈值*宽度),仅使用左边界匹配。
在另一个实施例中,当当前块更宽时(例如宽度>阈值*高度),仅使用顶部边界匹配。
在另一实施例中,左上相邻重建样本可用于边界匹配。例如,边界匹配成本加上以下项:
|reco-1,-1-pred0,0|.
合并候选作为候选模式
所提出的方案可用于重新排序合并候选。本来,最佳合并候选的索引是指合并候选在合并候选列表中的顺序。对于所提出的方案,最佳合并候选的索引(index_best_merge)是指基于边界匹配成本的优先级顺序。
例如,假设合并候选列表由{cand0,cand1,cand2,cand3,cand4,cand5}组成。这些预测候选在本公开中被称为预测候选组。
原案:
index_best_merge 0指的是cand0
index_best_merge 1指的是cand1
index_best_merge 2指的是cand2
……
建议的:
计算每个合并候选的边界匹配成本{cost_cand0,cost_cand1,cost_cand2,…}
cost_cand0是cand0的边界匹配成本
cost_cand1是cand1的边界匹配成本
cost_cand2是cand2的边界匹配成本
……
根据边界匹配成本重新排序{cand0,cand1,cand2,…}
在一个例子中,
如果cost_cand0>cost_cand1>cost_cand2>cost_cand3>cost_cand4>cost_cand5,则重新排序的合并候选形成为{cand5,cand4,cand3,cand2,cand1,cand0}。
重新排序后,
index_best_merge 0指的是cand5(具有最小成本的合并候选用最短的码字发出信号。)
index_best_merge 1指的是cand4
index_best_merge 2指的是cand3
……
否则,如果cost_cand0<cost_cand1<cost_cand2<cost_cand3<cost_cand4<cost_cand5,则合并候选的顺序与原始顺序保持一致。
在另一个例子中,
如果cost_cand0<cost_cand1<cost_cand2<cost_cand3<cost_cand4<cost_cand5,则重新排序的合并候选形成为{cand5,cand4,cand3,cand2,cand1,cand0}。
重新排序后,
index_best_merge 0指的是cand5(具有最大成本的合并候选用最短的码字发出信号。)
index_best_merge 1指的是cand4
index_best_merge 2指的是cand3
……
否则,如果cost_cand0>cost_cand1>cost_cand2>cost_cand3>cost_cand4>cost_cand5,合并候选的顺序与原来的保持一致。
在另一个实施例中,具有较小值的index_best_merge被编码为较短的码字长度。例如,index_best_merge是用截断的一元码字编码的。
在另一个实施例中,重新排序被应用于合并候选列表的子集。
-例如子集指的是原来的前n个候选cand0,cand1,cand2。那么index_best_merge0/1/2指的是基于边界匹配的优先顺序,index_best_merge 3/4/5指的是原来的cand3、cand4和cand5。
-再比如,子集指的是原来的最后n个候选cand3,cand4,cand5。那么index_best_merge 3/4/5指的是基于边界匹配的优先顺序,index_best_merge 0/1/2指的是原来的cand0、cand1和cand2。
-又例如,子集指的是空间合并候选。
在另一个实施例中,最佳合并候选被推断为所有合并候选中具有最小边界匹配成本的合并候选。因此,index_best_merge不需要由编码器/解码器发出信号/解析,可以推断为0。
在另一个实施例中,最佳合并候选被推断为所有合并候选中具有最大边界匹配成本的合并候选。因此,index_best_merge不需要由编码器/解码器发出信号/解析,可以推断为0。
在另一实施例中,本节中的合并候选是指包括以下一个或多个候选的合并候选:
1)来自空间相邻CU的空间MVP
2)来自并置CU的时间MVP
3)来自FIFO表的基于历史的MVP
4)成对平均MVP
5)零MV。
在另一个实施例中,该部分中的合并候选是指CIIP的合并候选。当前块内的预测样本是根据CIIP过程生成的。
在另一个实施例中,本节中的合并候选是指子块合并候选的合并候选,例如仿射合并候选。当前块内的预测样本是根据仿射过程生成的。
BCW作为候选模式
所提出的方案可用于对BCW候选重新排序以改进bcw_idx的句法。这两个双向预测候选在本公开中被称为预测候选组。下面是VVC标准中BCW的语法表。
Figure SMS_16
bcw_idx[x0][y0]指定具有CU权重的双向预测的权重索引。数组索引x0,y0指定所考虑的编码块的左上角亮度样本相对于图片的左上角亮度样本的位置(x0,y0)。
BCW作为候选模式的示例如下所示:
-计算每个BCW候选权重的边界匹配成本
-在一个实施例中,在根据成本重新排序之后,
bcw_idx等于0表示BCW候选权重最小,bcw_idx等于4表示BCW候选权重最大。
在另一种方式中,bcw_idx是隐含的,并且使用BCW候选权重(具有最小成本)。
-在另一个实施例中,在根据成本重新排序之后,
bcw_idx等于0表示BCW候选权重最大,bcw_idx等于4表示BCW候选权重最小。
在另一种方式中,bcw_idx是隐式的,并且使用BCW候选权重(具有最大成本)。
在BCW作为候选模式的实施例中,针对用于选择最终组合预测的一组可能权重评估边界匹配成本。与每个组合BCW预测相关联的预测(即,选定的权重)被称为组合预测成员。组合预测成员的总数对应于权重的总数。bcw_idx被信号化/解析或隐式引用以用于最终组合预测。有序的边界匹配成本应该导致bcw_idx的更有效表示,即更低的比特率。
MHP作为候选模式
对于应用了MHP的块,一个或多个预测假设(即,预测信号)与现有的预测假设组合以形成当前块的最终(结果)预测。换句话说,最终预测是用预测信号的每个附加假设迭代累积的。累积的例子如下所示。
pn+1=(1-αn+1)pnn+1hn+1
得到的预测信号作为最后的pn(即,索引n最大的pn)。p0是当前块的第一个(现有)预测。在MHP作为候选模式的情况下,最初将现有预测和预测假设的权重和形成为组合预测。当存在两个或多个预测假设时(即,n>1),当前组合预测被形成为先前组合预测和下一个预测假设的权重和。例如,如果将MHP应用于合并候选,则p0由现有合并索引指示。附加预测表示为h,并将通过权重α与先前累积的预测进一步组合。
因此,对于预测的每个附加假设,权重索引被发送/解析以指示权重和/或对于预测的每个假设,帧间索引被发送/解析以指示运动候选(用于生成该假设的预测样本)。MHP的语法开销在某些情况下会成为一个问题。例如,当预测的附加假设数量增加时,MHP的语法开销会变大。又如,当预测的每个附加假设的候选权重个数增加时,MHP的语法开销会变大。因此,为了使MHP权重的信号和/或运动候选的信号更有效,需要提出的重新排序方案。
在一个实施例中,为每个额外的预测假设计算每个MHP候选权重的边界匹配成本。对于具有预测假设的两个候选权重的情况,建议过程的示例如下所示:
步骤0:对于预测的附加假设,计算cost_w0和cost_w1分别作为第一和第二候选权重的成本。
步骤1:对于预测假设,候选权重根据成本重新排序。
在一个子实施例中,具有较小成本的候选权重获得较高的优先级。
如果cost_w0>cost_w1,权重索引0指的是w1,权重索引1指的是w0。
否则,不使用重新排序,权重索引0和1指的是原始的w0和w1。
在另一个子实施例中,具有较大成本的候选权重获得较高的优先级。
如果cost_w0<cost_w1,则权重索引0指代w1,权重索引1指代w0。
否则,不使用重新排序,权重索引0和1指的是原始的w0和w1。
在另一个子实施例中,将成本最小的候选权重用于当前的附加预测假设。在这种情况下推断当前附加预测假设的权重指数。
在另一个子实施例中,每个假设或假设的任何子集的权重是根据成本隐式设置的。权重可以是成本的缩放值或成本的乘法逆的缩放值。例如,如果成本等于2,则成本的乘法倒数等于1/2。
在另一个子实施例中,将代价最大的候选权重用于当前的附加预测假设。在这种情况下推断当前附加预测假设的权重指数。
对每个额外的预测假设重复步骤0和1,并获得每个额外的预测假设的每个权重索引的含义。
在另一个实施例中,为每个MHP运动候选计算边界匹配成本。下面的子实施例以MHP为合并方式为例。MHP可以应用于其他帧间模式,例如帧间AMVP和/或仿射,并且当使用帧间AMVP或仿射时,以下示例中的“合并”将替换为该帧间模式的命名。
在一个子实施例中,计算每个运动候选的边界匹配成本。例如,候选模式包括cand0到cand4。最初,索引0(较短的码字)指的是cand0,索引4(较长的码字)指的是cand4。使用所提出的方法,索引的含义遵循优先级。如果优先顺序(基于边界匹配成本)指定cand4具有最高优先级,则索引0映射到cand4。
在另一个子实施例中,计算每个运动候选的边界匹配成本。例如,候选模式包括cand0到cand4。最初,索引0(较短的码字)指的是cand0,索引4(较长的码字)指的是cand4。使用所提出的方法,索引的含义遵循优先级。如果优先级顺序(基于边界匹配成本)指定cand4具有最高优先级,则不发送/解析索引,并且将所选运动候选推断为具有最高优先级的运动候选。
在另一个子实施例中,对于每个假设,运动候选的当前预测(用于计算边界匹配成本)是由该运动候选产生的运动补偿结果。
结合上述两个子实施例的示例如下所示。例如,如果加法假设的数量等于2,则使用具有较高优先级的前三个运动候选来形成当前MHP块的结果预测。又例如,如果添加假设的个数等于2,则保留现有假设,使用优先级较高的两个运动候选来形成附加假设的预测,得到的预测由现有的假设和附加假设形成。
在另一个子实施例中,运动候选的当前预测(用于计算边界匹配成本)是组合预测(即,来自运动候选的预测和现有预测(p0)的权重平均)。权重由信号/解析的权重索引指示。
在另一个子实施例中,对于每个假设,运动候选的当前预测(用于计算边界匹配成本)是组合预测(来自运动候选的预测和先前累积的预测的权重平均)。权重由信号/解析的权重索引指示。图15中示出了示例,其中预测p0 1510对应于现有假设,预测h11520和预测h21530对应于附加假设。当应用所提出的方法对h2的运动候选信号重新排序时,h2有4个运动候选(包括cand0到cand3)。
–candn的成本计算为p0预测、h1预测和candn预测的权重平均值
–那是,
o对于h2,候选0的当前预测=(p0预测、h1预测、候选0的预测)的权重平均值
o对于h2,候选1的当前预测=(p0预测、h1预测、候选1的预测)的权重平均值
o……
–当应用所提出的方法来重新排序hl的运动候选的信令并且hl有4个运动候选(包括cand0到cand3)时,
o对于h1,候选0的当前预测=(p0的预测,候选0的预测)的权重平均值
o对于h1,候选1的当前预测=(p0的预测,候选1的预测)的权重平均值
o……
在另一个实施例中,为每个预测假设的每个MHP组合(运动候选和权重)计算边界匹配成本。以下子实施例以合并模式的MHP为例,MHP可以应用于其他帧间模式,例如帧间AMVP和/或仿射。当使用帧间AMVP或仿射时,以下示例中的「合并」将替换为该帧间模式的命名。
在一个子实施例中,一个组合是指运动候选和权重。如果有m个运动候选和每个运动候选的n个权重,则组合数为m*n。
在另一个子实施例中,组合的当前预测(用于计算边界匹配成本)是组合预测(来自运动候选的预测和现有预测(p0)的权重平均)。该方法联合确定合并索引和表示预测附加假设的权重。例如,具有最高优先级的组合是选择的MHP组合。不需要发信号/解析合并索引和权重来指示额外的预测假设。在另一个示例中,用信号发送/解析联合索引以确定MHP组合。本子实施例中可以固定添加假设的个数。
在另一个实施例中,为每个MHP运动候选计算边界匹配成本。下面以合并模式的MHP为例,MHP可以应用于其他帧间模式,例如帧间AMVP和/或仿射。当使用帧间AMVP或仿射时,下文中的“合并”将替换为该帧间模式的命名。因此,
–推断合并索引(用于指示每个假设的运动候选)。
o例如,根据合并候选列表中合并候选的顺序
为假设0合并cand0,为假设1合并cand1,...
o再比如,取决于成本。
首先使用成本较小的合并候选。
o再比如,根据预定义的合并候选数
如果假设数为4,则使用合并候选列表中的4个合并候选作为每个假设的运动候选
√使用前4个合并候选,或者
√使用合并候选列表中的任意4个合并候选。
–权重(用于组合预测假设)根据成本是隐含的。
–MHP预测由(权重0)*(假设0)+(权重1)*(假设1)+(权重2)*(假设2)+...
在一个子实施例中,使用固定数量的预测假设。换句话说,混合固定数量的假设并使用匹配成本隐式地推导权重。
在另一个子实施例中,具有较高优先级的运动候选(或假设)的权重大于具有较低优先级的运动候选的权重。
在另一个子实施例中,运动候选的当前预测(用于计算边界匹配成本)是由该运动候选产生的运动补偿结果。
在另一个子实施例中,合并候选列表中的前n个运动候选用于生成预测的假设。使用此提议的方法,不会为MHP发出合并索引信号。
在另一个子实施例中,合并候选列表中的所有运动候选被用于生成预测的假设。权重可以决定运动候选是否有用。如果其权重为零,则实际上不使用该运动候选。使用此提议的方法,不会为MHP发出合并索引信号。
在另一个子实施例中,具有较高优先级的运动候选的权重大于具有较低优先级的运动候选的权重。
例如,权重遵循不同运动候选的成本比率。如果有两个运动候选且cost_cand0=2*cost_cand1,则weight_cand0=2*weight_cand1或weight_cand0=1/2*weight_cand1。
对于另一个例子,每个运动候选的成本首先被归一化到区间[MIN_VALUE,MAX_VALUE]。MAX_VALUE是预定义的,例如预测假设的数量。MIN_VALUE是预定义的,例如0。例如,(MAX_VALUE-归一化代价)可以是运动候选的权重或者归一化代价可以是运动候选的权重。
对于另一个示例,权重是成本的缩放值或成本的乘法逆的缩放值。例如,如果成本等于2,则成本的乘法倒数等于1/2。
-缩放值表示缩放因子*原始值。
-如果比例因子=1,则无比例。
在另一个子实施例中,权重和合并索引对于所提出的方法是隐含的。
该方法的当前预测的生成可以参考本发明中提出的任何其他方法。
在另一个实施例中,所提出的方案被应用于所有附加预测假设的子集。换句话说,对所有附加预测假设的子集重复上述步骤0和1。例如,只有与现有预测假设相结合的第一个附加预测假设的候选权重才用所提出的方案重新排序。
在一个子实施例中,该子集是在标准中预定义的。
在另一个子实施例中,子集取决于当前块的宽度、高度或面积。例如,对于块面积大于(或小于)阈值的块,该子集包括更多的预测假设。
在另一个子实施例中,来自子集的重新排序结果可以被重新用于剩余的附加预测假设。例如,
-基于第一个预测假设的重新排序结果,权重索引0和1分别指代w1和w0。
-对于以下预测假设,权重索引0和1也分别指代w1和w0。
在另一个实施例中,所提出的方案被应用于所有候选权重的子集以用于额外的预测假设。换句话说,对于附加预测假设的所有候选权重的子集,重复上述步骤0和1。以候选权重数(对于预测的附加假设)等于4为例。
-对于额外的预测假设,只有前两个(或最后一个)候选权重使用建议的方案重新排序。
在一个子实施例中,该子集是在标准中预定义的。
在另一个子实施例中,子集取决于当前块的宽度、高度或面积。例如,对于块面积大于(或小于)阈值的块,该子集包括更多的候选权重。
在另一实施例中,预测假设可以是来自单预测或双预测运动补偿结果的预测信号。
可以统一针对不同工具(不限于以下示例中的那些工具)所提出的重新排序方案。例如,为MHP、LM、BCW、MMVD和/或合并候选提出的重新排序方案与计算边界匹配成本的相同规则统一。
可以根据隐式规则(例如块宽度、高度或面积)或根据显式规则(例如关于块、切片、图片、SPS或PPS级别的句法)启用和/或禁用本发明中提出的方法).例如,当块区域小于阈值时,应用建议的重新排序。
本发明中的术语“块”可以指代TU/TB、CU/CB、PU/PB或CTU/CTB。
本发明中的术语“LM”可以被视为一种CCLM/MMLM模式或CCLM的任何其他扩展/变体(例如本发明中提出的CCLM扩展/变体)。跨组件工具(例如,本发明中提出的CCLM扩展/变体)。这里的变化意味着当块指示指的是使用交叉分量模式之一(例如CCLM_LT、MMLM_LT、CCLM_L、CCLM_T、MMLM_L、MMLM_T和/或帧内预测模式时,可以选择一些可选模式,这不是一种当前块的传统DC、平面和角度模式)。下面显示了一个将卷积交叉组件模式(CCCM)作为可选模式的示例。当此可选模式应用于当前块时,使用模型的交叉分量信息(包括非线性项)来生成色度预测。可选模式可能遵循CCLM的模板选择,因此CCCM系列包括CCCM_LT CCCM_L和/或CCCM_T。
本发明中提出的方法(用于CCLM)可以用于任何其他LM模式。
可以应用本发明中提出的方法的任何组合。
任何前述提出的方法都可以在编码器和/或解码器中实现。例如,所提出的任何方法都可以在编码器的帧内/帧间编码模块(例如图1A中的帧间预测112)、运动补偿模块(例如图1B中的MC 152)、合并解码器的候选推导模块。或者,所提出的方法中的任何一个都可以实现为耦合到编码器的帧内/帧间编码模块和/或运动补偿模块、解码器的合并候选推导模块的电路。
图16图示了根据本发明实施例的利用多个预测假设的示例性视频编解码***的流程图。流程图中所示的步骤可以实现为可在编码器侧的一个或多个处理器(例如,一个或多个CPU)上执行的程序代码。流程图中所示的步骤也可以基于硬件来实现,诸如被布置为执行流程图中的步骤的一个或多个电子设备或处理器。根据该方法,在步骤1610中接收与当前块相关联的输入数据,其中输入数据包括在编码器侧待编码的当前块的像素数据或在解码器侧待解码的与当前块相关联的编码数据。在步骤1620中确定组合预测成员,其中每个组合预测成员包括使用从权重集中选择的目标权重的第一预测候选和第二预测候选的权重和。在步骤1630中确定与组合预测成员相关联的边界匹配成本,其中通过使用基于具有目标权重的组合预测成员的当前块的预测样本和相邻重建样本,为具有目标权重的组合预测成员确定每个边界匹配成本。在步骤1640中使用基于至少一个边界匹配成本决定的最终组合预测对当前块进行编码或解码。
图17图示了根据本发明实施例的利用多个预测假设的另一个示例性视频编码***的流程图。根据该方法,在步骤1710中接收与当前块相关联的输入数据,其中输入数据包括在编码器侧待编码的当前块的像素数据或在解码器侧待解码的与当前块相关联的编码数据。在步骤1720中确定与现有预测相关联的预测成员,其中每个预测成员对应于现有预测和来自一组组合预测候选的一个目标组合预测候选的一个权重和,并且其中每个组合预测候选对应于一个目标运动候选和一个目标权重的组合,用于组合现有预测和所述一个目标组合预测候选,所述一个目标运动候选来自一组m个运动候选并且所述一个目标权重来自一组n个权重,并且m、n为正整数。在步骤1730中确定与预测成员相关联的边界匹配成本,其中对于所述每个预测成员的每个边界匹配成本是通过使用基于所述每个预测成员的当前块的预测样本和当前块的相邻重构样本来确定的。在步骤1740中使用基于至少一个边界匹配成本决定的最终预测对当前块进行编码或解码。
所示流程图旨在说明根据本发明的视频编码的示例。在不脱离本发明的精神的情况下,本领域的技术人员可以修改每个步骤、重新安排步骤、拆分步骤或组合步骤来实施本发明。在本公开中,已经使用特定语法和语义来说明示例以实现本发明的实施例。在不脱离本发明的精神的情况下,技术人员可以通过用等同的句法和语义替换句法和语义来实施本发明。
提供以上描述是为了使本领域普通技术人员能够实践在特定应用及其要求的上下文中提供的本发明。对所描述的实施例的各种修改对于本领域技术人员而言将是显而易见的,并且本文定义的一般原理可以应用于其他实施例。因此,本发明并不旨在限于所示出和描述的特定实施例,而是符合与本文公开的原理和新颖特征一致的最宽范围。在以上详细描述中,举例说明了各种具体细节以提供对本发明的透彻理解。然而,本领域的技术人员将理解可以实施本发明。
如上所述的本发明的实施例可以以各种硬件、软件代码或两者的组合来实现。例如,本发明的一个实施例可以是集成到视频压缩芯片中的一个或多个电路或者集成到视频压缩软件中的程序代码以执行这里描述的处理。本发明的实施例还可以是要在数字信号处理器(DSP)上执行以执行这里描述的处理的程序代码。本发明还可以涉及由计算机处理器、数字信号处理器、微处理器或现场可编程门阵列(FPGA)执行的许多功能。这些处理器可以被配置为通过执行定义由本发明体现的特定方法的机器可读软件代码或固件代码来执行根据本发明的特定任务。软件代码或固件代码可以以不同的编程语言和不同的格式或风格来开发。也可以为不同的目标平台编译软件代码。然而,软件代码的不同代码格式、风格和语言以及配置代码以执行根据本发明的任务的其他方式都不会脱离本发明的精神和范围。
在不脱离其精神或基本特征的情况下,本发明可以以其他特定形式体现。所描述的示例在所有方面都应被视为说明性而非限制性的。因此,本发明的范围由所附权利要求而不是由前述描述来指示。落入权利要求等同物的含义和范围内的所有变化都应包含在其范围内。

Claims (19)

1.一种预测编解码方法,该方法包括:
接收与当前块相关联的输入数据,其中,该输入数据包括编码器侧待编码的该当前块的像素数据或解码器侧与当前待解码块相关联的编码数据;
确定组合预测成员,其中每个组合预测成员包括使用从权重集中选择的目标权重的第一预测候选和第二预测候选的权重和;
确定与该组合预测成员相关联的边界匹配成本,其中,通过使用基于具有该目标权重的组合预测成员的该当前块的预测样本、以及该当前块的相邻重建样本,为具有该目标权重的该组合预测成员确定每个边界匹配成本;以及
使用基于至少一个边界匹配成本决定的最终组合预测对该当前块进行编码或解码。
2.根据权利要求1所述的预测编解码方法,其特征在于,权重索引用于指示从该权重集中选择的该目标权重。
3.根据权利要求2所述的预测编解码方法,其特征在于,根据与具有目标权重的组合预测成员相关联的边界匹配成本来分配权重索引的权重值,并且其中,对于较小的边界匹配成本,分配较小的权重值,并且对较大的边界匹配成本分配较大的权重值。
4.根据权利要求2所述的预测编解码方法,其特征在于,与最终组合预测相关联的权重索引在编码器侧在比特流中用信号发送或在解码器侧从比特流解析。
5.根据权利要求2所述的预测编解码方法,其特征在于,与最终组合预测相关联的权重索引是在编码器侧和解码器侧隐式确定的。
6.根据权利要求5所述的预测编解码方法,其特征在于,隐式确定的权重索引对应于具有导致最小边界匹配成本的目标权重的组合预测成员。
7.根据权利要求1所述的预测编解码方法,其特征在于,该第一预测候选和该第二预测候选来自预测候选组,并且该当前块的预测候选组包括第一双向预测候选和第二双向预测候选,并且其中,该第一预测候选对应于该第一双向预测候选,该第二预测候选对应于该第二双向预测候选。
8.根据权利要求1所述的预测编解码方法,其特征在于,该第一预测候选对应于现有预测,并且该第二预测候选来自包括一个或多个预测假设的预测候选组。
9.根据权利要求8所述的预测编解码方法,其特征在于,所述一个或多个预测假设包括至少两个预测假设,并且通过将该第一预测候选设置为先前的最终组合预测并将该第二预测候选设置为预测候选组中的下一个预测假设。
10.根据权利要求9所述的预测编解码方法,其特征在于,根据边界匹配成本隐含地确定从权重集中选择的目标权重。
11.根据权利要求1所述的预测编解码方法,其特征在于,该当前块的预测样本对应于当前块的预测块的子集。
12.根据权利要求11所述的预测编解码方法,其特征在于,该当前块的预测块的子集包括预测块的n1个上方行和m1个左侧行,并且该当前块的相邻重构样本包括当前块上方的n2行和m2个当前块左侧的行,其中n1、m1、n2和m2为大于等于0的整数。
13.根据权利要求12所述的预测编解码方法,其特征在于,n1和m1等于2,并且n2和m2等于2。
14.根据权利要求12所述的预测编解码方法,其特征在于,n1和m1等于2,并且n2和m2等于1。
15.根据权利要求12所述的预测编解码方法,其特征在于,在CU、CB、PU、PB、TU、TB、CTU、CTB、片级、图片级、序列参数集(SPS)级别、图片参数集(PPS)级别或它们的组合用信号通知或解析用于n1、m1、n2和m2的一个或多个句法。
16.一种用于预测编解码的装置,该装置包括一个或多个电子设备或处理器,被布置成:
接收与当前块相关联的输入数据,其中,该输入数据包括编码器侧待编码的该当前块的像素数据或解码器侧与当前待解码块相关联的编码数据;
确定组合预测成员,其中每个组合预测成员包括使用从权重集中选择的目标权重的第一预测候选和第二预测候选的权重和;
确定与该组合预测成员相关联的边界匹配成本,其中,通过使用基于具有目标权重的组合预测成员的当前块的预测样本以及该当前块的相邻重建样本,为具有该目标权重的该组合预测成员确定每个边界匹配成本;和
使用基于至少一个边界匹配成本决定的最终组合预测来编码或解码该当前块。
17.一种预测编解码方法,该方法包括:
接收与当前块相关联的输入数据,其中,该输入数据包括编码器侧待编码的该当前块的像素数据或解码器侧与当前待解码块相关联的编码数据;
确定与现有预测相关联的预测成员,其中每个预测成员对应于现有预测和来自一组组合预测候选的一个目标组合预测候选的一个加权和,并且其中每个组合预测候选对应于一个目标运动候选以及目标权重的组合,用于组合该现有预测和所述一个目标组合预测候选,所述一个目标运动候选来自一组m个运动候选并且所述一个目标权重来自一组n个权重,并且m和n是正的整数;
确定与预测成员相关联的边界匹配成本,其中对于所述每个预测成员,每个边界匹配成本是通过使用基于所述每个预测成员的当前块的预测样本和当前块的相邻重建样本来确定的;和
使用基于至少一个边界匹配成本决定的最终预测对该当前块进行编码或解码。
18.根据权利要求17所述的编解码方法,其特征在于,与所述一个目标运动候选和最终预测的所述一个目标权重相关联的联合权重和运动候选索引在编码器侧的比特流中用信号发送或者在解码器侧从比特流解析。
19.根据权利要求17所述的编解码方法,其特征在于,隐式地确定与所述最终预测的所述一个目标运动候选和所述一个目标权重相关联的联合权重和运动候选索引。
CN202211702799.XA 2021-12-29 2022-12-27 视频编解码***中多重假设预测的方法和装置 Pending CN116366836A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163294424P 2021-12-29 2021-12-29
US63/294,424 2021-12-29
US18/060,633 2022-12-01
US18/060,633 US20230209060A1 (en) 2021-12-29 2022-12-01 Method and Apparatus for Multiple Hypothesis Prediction in Video Coding System

Publications (1)

Publication Number Publication Date
CN116366836A true CN116366836A (zh) 2023-06-30

Family

ID=86896405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211702799.XA Pending CN116366836A (zh) 2021-12-29 2022-12-27 视频编解码***中多重假设预测的方法和装置

Country Status (3)

Country Link
US (1) US20230209060A1 (zh)
CN (1) CN116366836A (zh)
TW (1) TWI830558B (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10701366B2 (en) * 2017-02-21 2020-06-30 Qualcomm Incorporated Deriving motion vector information at a video decoder
WO2020035054A1 (en) * 2018-08-17 2020-02-20 Mediatek Inc. Methods and apparatuses of video processing with bi-direction predicition in video coding systems

Also Published As

Publication number Publication date
TW202327360A (zh) 2023-07-01
US20230209060A1 (en) 2023-06-29
TWI830558B (zh) 2024-01-21

Similar Documents

Publication Publication Date Title
US10999595B2 (en) Method and apparatus of motion vector prediction or merge candidate derivation for video coding
JP7124228B2 (ja) 映像符号化における動きマージモードのシグナリングのためのシステム、方法および非一時的コンピュータ可読記憶媒体
CN116915982B (zh) 用于视频解码的方法、电子设备、存储介质和程序产品
JP7446339B2 (ja) 幾何学的分割モードコーディングを用いた動き候補リスト
CN114467308B (zh) 视频处理中的参考图片重采样
JP2022541012A (ja) ビデオコーディングにおける変換ブロック・サイズ制約
CN113994682A (zh) 具有默认参数的基于历史的运动矢量预测
CN117337564A (zh) 用于视频处理的方法、装置和介质
TWI830558B (zh) 視頻編解碼系統中多重假設預測的方法和裝置
US20230209042A1 (en) Method and Apparatus for Coding Mode Selection in Video Coding System
CN113273208A (zh) 仿射预测模式的改进
WO2023241637A1 (en) Method and apparatus for cross component prediction with blending in video coding systems
WO2023198142A1 (en) Method and apparatus for implicit cross-component prediction in video coding system
WO2024017188A1 (en) Method and apparatus for blending prediction in video coding system
WO2024104420A1 (en) Improvements for illumination compensation in video coding
WO2023207646A1 (en) Method and apparatus for blending prediction in video coding system
WO2024074094A1 (en) Inter prediction in video coding
WO2024037649A1 (en) Extension of local illumination compensation
WO2024074134A1 (en) Affine motion based prediction in video coding
WO2024083115A1 (en) Method and apparatus for blending intra and inter prediction in video coding system
WO2023131298A1 (en) Boundary matching for video coding
WO2021000883A1 (en) Storage of motion information in history-based motion vector prediction table
CN118285098A (zh) 用于视频处理的方法、装置和介质
CN114424530A (zh) 跳过模式信令通知

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination