CN112235572B - 视频解码方法和装置以及计算机设备和存储介质 - Google Patents

视频解码方法和装置以及计算机设备和存储介质 Download PDF

Info

Publication number
CN112235572B
CN112235572B CN202010607488.XA CN202010607488A CN112235572B CN 112235572 B CN112235572 B CN 112235572B CN 202010607488 A CN202010607488 A CN 202010607488A CN 112235572 B CN112235572 B CN 112235572B
Authority
CN
China
Prior art keywords
prediction
inter
mode
intra
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010607488.XA
Other languages
English (en)
Other versions
CN112235572A (zh
Inventor
李贵春
赵亮
赵欣
李翔
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN112235572A publication Critical patent/CN112235572A/zh
Application granted granted Critical
Publication of CN112235572B publication Critical patent/CN112235572B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请实施例公开了视频解码方法和装置以及计算机设备和存储介质。该方法包括:从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具;并且根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本。

Description

视频解码方法和装置以及计算机设备和存储介质
引用并入
本申请要求于2019年6月30日提交的第62/869,006号美国临时申请以及于2020年6月24日提交的第16/910,808号美国正式申请的优先权,其全部内容通过引用并入本文中。
技术领域
本申请涉及视频编解码的技术领域。具体地,本申请涉及视频解码方法和装置以及计算机设备和存储介质。
背景技术
本文所提供的背景描述旨在陈述本申请的研究范围。就本背景部分所述,以及在提交申请时可能不符合现有技术条件所述的各个方面,当前已署名的发明人的工作,既不明确也不隐含地承认为本申请的现有技术。
视频编码和解码的一个目的可以是通过压缩减少输入视频信号中的冗余。压缩能够帮助降低上述的带宽或存储空间需求,在某些情况下减少两个数量级或更多。无损压缩和有损压缩,以及这两者的组合都可被采用。无损压缩指的是可从压缩的原始信号重建原始信号的精确副本的技术。当使用有损压缩时,重建的信号可能与原始信号不相同,但是原始信号和重建的信号之间的失真足够小以使重建的信号可用于预定应用。在视频中广泛地采用有损压缩。可被容忍的失真量取决于应用;例如,与电视发行应用的用户相比,某些消费者流媒体应用的用户可以容忍较高的失真。可实现的压缩比可反映出较高容许的/可容忍的失真能够产生较高的压缩比。
视频编码器和解码器能够利用例如包括运动补偿、变换、量化和熵编码的若干大类中的技术。
视频编解码器技术可包括被称为帧内编码的技术。在帧内编码中,不参考来自先前重建的参考图片的样本或其它数据表示样本值。在一些视频编解码器中,图片在空间上被细分为样本块。当以帧内模式对所有样本块进行编码时,该图片可以是帧内编码图片。帧内编码图片及其派生,例如独立解码器刷新图片,可被用于重置解码器状态,并且因此可被用作已编码视频比特流和视频会话中的第一图片,或者用作静止图像。可对帧内编码块的样本进行变换,并且可在熵编码之前对变换系数进行量化。帧内预测可以是在预变换域中最小化样本值的技术。在一些情况下,在变换之后的DC值越小,并且AC系数越小,给定量化步长所需的用于表示熵编码之后的块的比特就越少。
诸如从例如MPEG-2生成编码技术已知的传统的帧内编码不使用帧内预测。然而,一些较新的视频压缩技术包括如下技术,其尝试从例如在空间上邻近的且按解码顺序在前的数据块的在编码/解码期间获取的周围样本数据和/或元数据进行。这样的技术此后被称作“帧内预测”技术。请注意,在至少一些情况下,帧内预测仅使用来自重建的当前图片的参考数据而不使用来自参考图片的参考数据。
帧内预测可有许多不同的形式。当在给定视频编码技术中可使用多于一个这样的技术时,可以以帧内预测模式对使用中的技术进行编码。在某些情况下,模式可具有子模式和/或参数,并且那些能够被单独地编码或者被包括在模式码字中。对给定模式/子模式/参数组合使用哪个码字可对通过帧内预测的编码效率增益具有影响,因此熵编码技术能够用于将码字转换为比特流。
带有运动补偿的帧间图片预测可被用于视频编码和解码。未压缩的数字视频可以包括一连串的图片,每个图片具有例如1920×1080个亮度样本和相关联的色度样本的空间维度。该一连串的图片可以具有固定的或可变的图片速率(非正式地也被称为帧速率),例如每秒60个图片或60Hz。未压缩的视频具有显著的比特率需求。例如,每样本8比特的1080p60 4:2:0视频(在60Hz帧速率的1920×1080亮度样本分辨率)需要接近于1.5Gbit/s带宽。一小时这样的视频需要超过600千兆的存储空间。
运动补偿可以是有损压缩技术并且可以涉及如下技术,其中来自先前重建的图片或该图片(参考图片)的一部分的样本数据的块在运动矢量(以下称为MV)所指示的方向上被空间移位之后,用于预测最近重建的图片或图片的一部分。在一些情况下,参考图片可以与当前正在重建的图片相同。MV可以具有二个维度X和Y,或三个维度,第三个维度是使用中的参考图片的指示(间接地,后者可以是时间维度)。
在一些视频压缩技术中,可以从其它MV(例如与重建区域空间相邻的样本数据的另一个区域有关的、并且按解码顺序在可适用于样本数据的某区域的MV之前的那些MV)预测可适用于样本数据的某区域的MV。这样做可以大幅减少编码MV所需要的数据量,从而去除冗余并且提高压缩。MV预测可以有效地工作,例如因为当对来源于照相机的输入视频信号(被称为自然视频)进行编码时,存在与单个MV可适用的区域相比更大的区域在类似的方向上移动的统计可能性,并且因此在某些情况下可使用来源于邻近区域的MV的类似的运动矢量来预测。这导致对于给定区域发现的MV将与从周围MV预测的MV类似或相同,并且反过来在熵编码之后,可以与对MV直接进行编码所使用的比特数量相比更小数量的比特来表示。在一些情况下,MV预测可以是从原始信号(即:样本流)推导出的信号(即:MV)的无损压缩的示例。在其它情况下,例如由于从若干周围MV计算预测值时的舍入误差,MV预测本身可能是有损的。
当诸如组合式帧内/帧间预测(CIIP)模式和帧间位置相关预测组合(帧间PDPC)模式的模式对帧内预测和帧间预测进行组合时,该模式具有比常规的帧间预测更高的复杂度。因此,降低了视频解码效率。
发明内容
本申请实施例提供了一种视频解码方法,包括:
从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;
确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具;并且
根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本。
本申请实施例提供了一种视频解码装置,包括:
解码模块,用于从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;
确定模块,用于确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具;和
重建模块,用于根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本。
本申请实施例提供了一种计算机设备,所述计算机设备包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有至少一条指令,所述至少一条指令由所述至少一个处理器加载并执行以实现本申请任一实施例所述的方法。
本申请实施例提供了一种存储指令的非暂时性计算机可读介质,所述指令包括至少一个指令,当由至少一个处理器执行时,所述指令使所述至少一个处理器执行本申请任一实施例所述的方法。
本申请的实施例提供了用于限制CIIP模式和/或帧间PDPC模式的计算复杂度的技术方案,提高了视频解码效率。
附图说明
根据以下详细描述和附图,所公开的主题的另外的特征、性质和各种优点将更加显而易见,在附图中:
图1是根据实施例的通信***的简化框图的示意图。
图2是根据另一实施例的通信***的简化框图的示意图。
图3是根据实施例的解码器的简化框图的示意图。
图4是根据实施例的编码器的简化框图的示意图。
图5示出了根据另一实施例的编码器的框图。
图6示出了根据另一实施例的解码器的框图。
图7示出了高效视频编码(HEVC)中使用的示例性帧内预测方向和帧内预测模式的图示。
图8示出了在一些示例(例如,VVC)中的示例性帧内预测方向和帧内预测模式的图示。
图9A至图9B示出了位置相关预测组合的权重示例。
图10示出了说明根据一些实施例的双向光流的示例。
图11示出了基于双边模板匹配的解码器侧运动矢量修正(decoder side motionvector refinement,DMVR)的示例。
图12示出了当前编码单元和当前编码单元的参考块的相邻样本的图。
图13示出了从帧内预测模式到相应变换集的示例性映射。
图14示出了根据本申请的实施例的使用16×64变换核心的示例。
图15示出了根据本申请的实施例的使用16×48变换核心的示例。
图16示出了简化的二次变换矩阵(R×N矩阵)。
图17A至图17B示出了用于图示简化的二次变换的示例的图。
图18示出了在示例中用于变换集选择的表。
图19示出了概述根据本申请的一些实施例的方法示例的流程图。
图20是根据实施例的计算机***的示意图。
具体实施方式
图1是根据本申请公开的实施例的通信***(100)的简化框图。通信***(100)包括多个终端装置,所述终端装置可通过例如网络(150)彼此通信。举例来说,通信***(100)包括通过网络(150)互连的第一终端装置(110)和第二终端装置(120)。在图1的实施例中,第一终端装置(110)和第二终端装置(120)执行单向数据传输。举例来说,第一终端装置(110)可对视频数据(例如由终端装置(110)采集的视频图片流)进行编码以通过网络(150)传输到第二端装置(120)。已编码的视频数据以至少一个已编码视频码流形式传输。第二终端装置(120)可从网络(150)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信***(100)包括执行已编码视频数据的双向传输的第三终端装置(130)和第四终端装置(140),所述双向传输可例如在视频会议期间发生。对于双向数据传输,第三终端装置(130)和第四终端装置(140)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码,以通过网络(150)传输到第三终端装置(130)和第四终端装置(140)中的另一终端装置。第三终端装置(130)和第四终端装置(140)中的每个终端装置还可接收由第三终端装置(130)和第四终端装置(140)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图1的实施例中,第一终端装置(110)、第二终端装置(120)、第三终端装置(130)和第四终端装置(140)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(150)表示在第一终端装置(110)、第二终端装置(120)、第三终端装置(130)和第四终端装置(140)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(150)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本申请的目的,除非在下文中有所解释,否则网络(150)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图2示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输***可包括采集子***(213),所述采集子***可包括数码相机等视频源(201),所述视频源创建未压缩的视频图片流(202)。在实施例中,视频图片流(202)包括由数码相机拍摄的样本。相较于已编码的视频数据(204)(或已编码的视频码流),视频图片流(202)被描绘为粗线以强调高数据量的视频图片流,视频图片流(202)可由电子装置(220)处理,所述电子装置(220)包括耦接到视频源(201)的视频编码器(203)。视频编码器(203)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(202),已编码的视频数据(204)(或已编码的视频码流(204))被描绘为细线以强调较低数据量的已编码的视频数据(204)(或已编码的视频码流(204)),其可存储在流式传输服务器(205)上以供将来使用。至少一个流式传输客户端子***,例如图2中的客户端子***(206)和客户端子***(208),可访问流式传输服务器(205)以检索已编码的视频数据(204)的副本(207)和副本(209)。客户端子***(206)可包括例如电子装置(230)中的视频解码器(210)。视频解码器(210)对已编码的视频数据的传入副本(207)进行解码,且产生可在显示器(212)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(211)。在一些流式传输***中,可根据某些视频编码/压缩标准对已编码的视频数据(204)、视频数据(207)和视频数据(209)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(220)和电子装置(230)可包括其它组件(未示出)。举例来说,电子装置(220)可包括视频解码器(未示出),且电子装置(230)还可包括视频编码器(未示出)。
图3是根据本申请公开的实施例的视频解码器(310)的框图。视频解码器(310)可设置在电子装置(330)中。电子装置(330)可包括接收器(331)(例如接收电路)。视频解码器(310)可用于代替图2实施例中的视频解码器(210)。
接收器(331)可接收将由视频解码器(310)解码的至少一个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(301)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(331)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(331)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(315)可耦接在接收器(331)与熵解码器/解析器(320)(此后称为“解析器(320)”)之间。在某些应用中,缓冲存储器(315)是视频解码器(310)的一部分。在其它情况下,所述缓冲存储器(315)可设置在视频解码器(310)外部(未标示)。而在其它情况下,视频解码器(310)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(310)的内部可配置另一缓冲存储器(315)以例如处理播出定时。而当接收器(331)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(315),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(315),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作***或视频解码器(310)外部的类似元件(未标示)中。
视频解码器(310)可包括解析器(320)以根据已编码视频序列重建符号(321)。这些符号的类别包括用于管理视频解码器(310)的操作的信息,以及用以控制显示装置(312)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(330)的组成部分,但可耦接到电子装置(330),如图3中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(320)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(320)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(320)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(320)可对从缓冲存储器(315)接收的视频序列执行熵解码/解析操作,从而创建符号(321)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(321)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(320)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(320)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(310)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(351)。缩放器/逆变换单元(351)从解析器(320)接收作为符号(321)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(351)可输出包括样本值的块,所述样本值可输入到聚合器(355)中。
在一些情况下,缩放器/逆变换单元(351)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(352)提供。在一些情况下,帧内图片预测单元(352)采用从当前图片缓冲器(358)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(358)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(355)基于每个样本,将帧内预测单元(352)生成的预测信息添加到由缩放器/逆变换单元(351)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(351)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(353)可访问参考图片存储器(357)以提取用于预测的样本。在根据符号(321)对提取的样本进行运动补偿之后,这些样本可由聚合器(355)添加到缩放器/逆变换单元(351)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(353)从参考图片存储器(357)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(321)的形式而供运动补偿预测单元(353)使用,所述符号(321)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(357)提取的样本值的内插、运动矢量预测机制等等。
聚合器(355)的输出样本可在环路滤波器单元(356)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(320)的符号(321)可用于环路滤波器单元(356)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(356)的输出可以是样本流,所述样本流可输出到显示装置(312)以及存储在参考图片存储器(357),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(320))被识别为参考图片,则当前图片缓冲器(358)可变为参考图片存储器(357)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(310)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(331)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(310)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图4是根据本申请公开的实施例的视频编码器(403)的框图。视频编码器(403)设置于电子装置(420)中。电子装置(420)包括传输器(440)(例如传输电路)。视频编码器(403)可用于代替图2实施例中的视频编码器(203)。
视频编码器(403)可从视频源(401)(并非图4实施例中的电子装置(420)的一部分)接收视频样本,所述视频源可采集将由视频编码器(403)编码的视频图像。在另一实施例中,视频源(401)是电子装置(420)的一部分。
视频源(401)可提供将由视频编码器(403)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb4:2:0、Y CrCb 4:4:4)。在媒体服务***中,视频源(401)可以是存储先前已准备的视频的存储装置。在视频会议***中,视频源(401)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括至少一个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(403)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(443)。施行适当的编码速度是控制器(450)的一个功能。在一些实施例中,控制器(450)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(450)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(450)可用于具有其它合适的功能,这些功能涉及针对某一***设计优化的视频编码器(403)。
在一些实施例中,视频编码器(403)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(430)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(403)中的(本地)解码器(433)。解码器(433)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(434)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(434)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(433)的操作可与例如已在上文结合图3详细描述视频解码器(310)的“远程”解码器相同。然而,另外简要参考图3,当符号可用且熵编码器(445)和解析器(320)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(315)和解析器(320)在内的视频解码器(310)的熵解码部分,可能无法完全在本地解码器(433)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(430)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的至少一个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(432)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(433)可基于源编码器(430)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(432)的操作可为有损过程。当已编码视频数据可在视频解码器(图4中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(433)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(434)中。以此方式,视频编码器(403)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(435)可针对编码引擎(432)执行预测搜索。即,对于将要编码的新图片,预测器(435)可在参考图片存储器(434)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(435)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(435)获得的搜索结果,可确定输入图片可具有从参考图片存储器(434)中存储的多个参考图片取得的预测参考。
控制器(450)可管理源编码器(430)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(445)中对所有上述功能单元的输出进行熵编码。熵编码器(445)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(440)可缓冲由熵编码器(445)创建的已编码视频序列,从而为通过通信信道(460)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(440)可将来自视频编码器(403)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(450)可管理视频编码器(403)的操作。在编码期间,控制器(450)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(403)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(403)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(440)可在传输已编码的视频时传输附加数据。源编码器(430)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为至少一个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为至少一个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图5是根据本申请公开的另一实施例的视频编码器(503)的图。视频编码器(503)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(503)用于代替图2实施例中的视频编码器(203)。
在HEVC实施例中,视频编码器(503)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(503)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(503)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(503)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从至少一个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(503)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图5的实施例中,视频编码器(503)包括如图5所示的耦接到一起的帧间编码器(530)、帧内编码器(522)、残差计算器(523)、开关(526)、残差编码器(524)、通用控制器(521)和熵编码器(525)。
帧间编码器(530)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的至少一个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(522)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据至少一个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(522)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(521)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(503)的其它组件。在实施例中,通用控制器(521)确定块的模式,且基于所述模式将控制信号提供到开关(526)。举例来说,当所述模式是帧内模式时,通用控制器(521)控制开关(526)以选择供残差计算器(523)使用的帧内模式结果,且控制熵编码器(525)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(521)控制开关(526)以选择供残差计算器(523)使用的帧间预测结果,且控制熵编码器(525)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(523)用于计算所接收的块与选自帧内编码器(522)或帧间编码器(530)的预测结果之间的差(残差数据)。残差编码器(524)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(524)用于将残差数据从时域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(503)还包括残差解码器(528)。残差解码器(528)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(522)和帧间编码器(530)使用。举例来说,帧间编码器(530)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(522)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(525)用于将码流格式化以产生已编码的块。熵编码器(525)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(525)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图6是根据本申请公开的另一实施例的视频解码器(610)的图。视频解码器(610)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(610)用于代替图2实施例中的视频解码器(210)。
在图6实施例中,视频解码器(610)包括如图6中所示耦接到一起的熵解码器(671)、帧间解码器(680)、残差解码器(673)、重建模块(674)和帧内解码器(672)。
熵解码器(671)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(672)或帧间解码器(680)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(680);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(672)。残差信息可经由逆量化并提供到残差解码器(673)。
帧间解码器(680)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(672)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(673)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(673)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(671)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(674)用于在空间域中组合由残差解码器(673)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(203)、视频编码器(403)和视频编码器(503)以及视频解码器(210)、视频解码器(310)和视频解码器(610)。在实施例中,可使用至少一个集成电路来实施视频编码器(203)、视频编码器(403)和视频编码器(503)以及视频解码器(210)、视频解码器(310)和视频解码器(610)。在另一实施例中,可使用执行软件指令的至少一个处理器来实施视频编码器(203)、视频编码器(403)和视频编码器(503)以及视频解码器(210)、视频解码器(310)和视频解码器(610)。
本申请的各实施例提供了将组合式帧内/帧间预测(combined intra/interprediction,CIIP)与帧间位置相关预测组合(inter position dependent predictioncombination,帧间PDPC)一起使用的技术。
帧间预测和帧内预测可以单独使用或组合使用。
在各种实施例中,对于帧间预测CU,包括运动矢量、参考图片索引、参考图片列表使用索引和/或其它附加信息的运动参数可被用于帧间预测样本生成。帧间预测可以包括单向预测、双向预测等。在单向预测中,可以使用参考图片列表(例如,第一参考图片列表或列表0(L0),或者第二参考图片列表或列表1(L1))。在双向预测中,可以使用L0和L1两者。参考图片列表使用索引可以指示参考图片列表包括L0、L1或L0和L1。
可以以显式方式或隐式方式发信号通知运动参数。当利用跳过模式对CU进行编码时,CU可以与一个PU相关联,并且可以不包括有效残差系数(例如,残差系数为零),不包括已编码运动矢量差(MVD)或不包括参考图片索引。
可以使用合并模式,在合并模式中可以从相邻CU获得当前CU的运动参数,相邻CU包括空间和时间合并候选,以及可选的其它合并候选。合并模式可被应用于帧间预测CU,且可被用于跳过模式。可替代地,可以显式地发送或用信号通知运动参数。例如,可以为每个CU明确地用信号通知运动矢量、每个参考图片列表的对应参考图片索引、参考图片列表使用标志、以及其它信息。
在一些实施例中,使用以下帧间预测编解码工具中的至少一个:(1)扩展合并预测,(2)具有运动矢量差(MMVD)的合并模式,(3)具有对称MVD信令的高级运动矢量预测(AMVP)模式,(4)仿射运动补偿预测,(5)基于子块的时间运动矢量预测(SbTMVP),(6)自适应运动矢量分辨率(AMVR),(7)运动场存储:第1/16亮度样本MV存储和8×8运动场压缩,(8)具有加权平均的双向预测(BWA),(9)双向光流(BDOF),(10)解码器侧运动矢量修正(DMVR),(11)三角形分区预测,以及(12)组合式帧内/帧间预测(CIIP)。
图7示出了HEVC中使用的示例性帧内预测方向和帧内预测模式的图示。在HEVC中,总共有35个帧内预测模式(模式0到模式34)。模式0和模式1是非定向模式,其中模式0是平面模式,并且模式1是DC直流模式。模式2至模式34是定向模式,其中模式10是水平模式,模式26是垂直模式,并且模式2、模式18和模式34是对角模式。在一些示例中,由三个最可能模式(MPM)和32个剩余模式用信号通知帧内预测模式。
图8示出了在一些示例(如VVC)中的示例性帧内预测方向和帧内预测模式的图示。总共有87个帧内预测模式(模式-10至模式76),其中模式18是水平模式,模式50是垂直模式,并且模式2、模式34和模式66是对角模式。模式-1至模式-10和模式67至模式76被称为广角帧内预测(WAIP)模式。
根据本申请的实施例,位置相关预测组合(PDPC)在边界参考样本上使用滤波技术,并且将已滤波的参考样本与预测进行组合。预测可以是帧内预测或帧间预测。在本申请中,PDPC是指将已滤波的参考样本与帧内预测进行组合,而帧间PDPC是指将已滤波的参考样本与帧间预测进行组合。
在一些实施例中,在没有信令的情况下将PDPC应用于以下帧内模式:平面、DC、WAIP模式,水平、垂直、左下角模式(例如,VVC中的模式2)及其8个相邻角模式(例如,VVC中的模式3至模式10),以及右上角模式(例如,VVC中的模式66)及其8个相邻角模式(例如,VVC中的模式58至模式65)。
在示例中,根据等式1,使用帧内预测模式(DC、平面、角度)和参考样本的线性组合来预测位于位置(x,y)处的预测样本pred’[x][y]:
pred'[x][y]=(wL×R(-1,y)+wT×R(x,-1)-wTL×R(-1,-1)+(64-wL-wT+wTL)×pred[x][y]+32)>>6 (等式1)
其中,pred[x][y]是帧内预测值,R(x,-1)、R(-1,y)分别表示位于当前样本(x,y)的上部和左侧的(未经滤波的)参考样本,R(-1,-1)表示位于当前块的左上角的参考样本,并且wT、wL和wTL代表权重。对于DC模式,通过等式2至等式5计算权重,width代表当前块的宽度,并且height代表当前块的高度:
wT=32>>((y<<1)>>nScale) (等式2)
wL=32>>((x<<1)>>nScale) (等式3)
wTL=+(wL>>4)+(wT>>4) (等式4)
nScale=(log2(width)+log2(height)-2)>>2 (等式5)
其中,wT代表位于具有相同水平坐标的上述参考线中的参考样本的加权因子,wL代表位于具有相同垂直坐标的左参考线中的参考样本的加权因子,以及wTL代表当前块的左上参考样本的加权因子,nScale规定了加权因子沿着轴减小的快速程度(wL从左到右减小或者wT从上到下减小),即加权因子递减率,并且其在当前设计中沿着x轴(从左到右)和y轴(从上到下)是相同的。并且,32代表相邻样本的初始加权因子,该初始加权因子也是分配给当前CB中的左上样本的上(左或左上)加权,且PDPC过程中的相邻样本的加权因子应等于或小于该初始加权因子。
对于平面模式,wTL=0;而对于水平模式,wTL=wT;且对于垂直模式,wTL=wL。可以利用加法运算和移位运算来计算PDPC权重。pred’[x][y]的值可以使用等式1在单个步骤中计算。
图9A示出DC模式中(0,0)处的预测样本的权重。在图9A的示例中,当前块是4×4块,宽度是4,高度也是4,因此nScale是0。那么,wT是32,wL是32,并且-wTL是-4。
图9B示出DC模式中(1,0)处的预测样本的权重。在图9B的示例中,当前块是4×4块,宽度是4,高度也是4,因此nScale是0。那么,wT是32,wL是8,并且-wTL是-2。
在一些示例中,当将PDPC应用于DC、平面、水平和垂直帧内模式时,不需要额外的边界滤波器,诸如HEVC DC模式边界滤波器或水平/垂直模式边缘滤波器。例如,PDPC将未经滤波的边界参考样本和HEVC型帧内预测与已滤波的边界参考样本进行组合。
更一般地,在一些示例中,对PDPC过程的输入包括:
由predModeIntra表示的帧内预测模式;
由nTbW表示的当前块的宽度;
由nTbH表示的当前块的高度;
由refW表示的参考样本的宽度;
由refH表示的参考样本的高度;
通过HEVC型帧内预测的预测的样本,其由predSamples[x][y]表示,其中x=0..nTbW-1并且y=0..nTbH–1;
未经滤波的参考(也被称为相邻)样本p[x][y],其中x=-1,y=-1..refH-1,并且x=0..refW-1,y=-1;以及
由cIdx表示的当前块的颜色分量。
进一步地,PDPC过程的输出是修改的预测的样本predSamples’[x][y],其中x=0..nTbW-1,y=0..nTbH-1。
然后,通过与等式5类似的等式6来计算缩放因子nScale:
((Log2(nTbW)+Log2(nTbH)-2)>>2) (等式6)
进一步地,将x=0..refW的参考样本阵列mainRef[x]定义为在当前块之上的未经滤波的参考样本的阵列,并且将y=0..refH的另一参考样本阵列sideRef[y]定义为在当前块左侧的未经滤波的参考样本的阵列,并且可以根据等式7和等式8从未经滤波的参考样本中导出:
mainRef[x]=p[x][-1] (等式7)
sideRef[y]=p[-1][y] (等式8)
对于当前块中的每个位置(x,y),PDPC计算使用被表示为refT[x][y]的在顶部的参考样本、被表示为refL[x][y]的在左侧的参考样本、以及在角p[-1,-1]的参考样本。在一些示例中,通过等式9计算修改的预测的样本,并且根据指示颜色分量的cIdx变量来适当地裁剪结果:
predSamples’[x][y]=(wL×refL(x,y)+wT×refT(x,y)-wTL×p(-1,-1)+(64-wL-wT+wTL)×predSamples[x][y]+32)>>6 (等式9)
可以基于帧内预测模式predModelIntra来确定参考样本refT[x][y]、refL[x][y]和权重wL、wT和wTL。
在示例中,当帧内预测模式predModeIntra等于INTRA_PLANAR(例如表示为,0、平面模式、模式0)、INTRA_DC(例如表示为,1、DC模式、模式1)、INTRA_ANGULAR18(例如表示为,18、水平模式、在67帧内预测模式的情况下的模式18)或INTRA_ANGULAR50(例如表示为,50、垂直模式、在67帧内预测模式的情况下的模式50)时,参考样本refT[x][y]、refL[x][y]和权重wL、wT和wTL可以根据等式10至等式14来确定:
refL[x][y]=p[-1][x] (等式10)
refT[x][y]=p[x][-1] (等式11)
wT[x]=32>>((x<<1)>>nScale (等式12)
wL[x]=32>>((x<<1)>>nScale (等式13)
wTL[x][y]=(predModeIntra==INTRA_DC)?((wL[x]>>4)+(wT[y]>>4)):0 (等式14)
在另一示例中,当帧内预测模式predModeIntra等于INTRA_ANGULAR2(例如表示为,2、在67帧内预测模式的情况下的模式2)或INTRA_ANGULAR66(例如表示为,66、在66帧内预测模式的情况下的模式66)时,参考样本refT[x][y]、refL[x][y]和权重wL、wT和wTL可以根据等式15至等式19来确定:
refL[x][y]=p[-1][x+y+1] (等式15)
refT[x][y]=p[x+y+1][-1] (等式16)
wT[y]=32>>((y<<1)>>nScale) (等式17)
wL[x]=32>>((x<<1)>>nScale )(等式18)
wTL[x][y]=0 (等式19)
在另一示例中,当帧内预测模式predModeIntra小于或等于INTRA_ANGULAR10(例如,10、在67帧内预测模式的情况下的模式10)时,对于位置(x,y),基于作为帧内预测模式predModeIntra的函数的变量invAngle来导出变量dXPos[y]、dXFrac[y]、dXInt[y]和dX[y]。在示例中,可以基于为每个帧内预测模式存储对应的invAngle值的查找表来确定invAngle,然后基于变量dXPos[y]、dXFrac[y]、dXInt[y]和dX[y]来确定参考样本refT[x][y]、refL[x][y]以及权重wL、wT和wTL。
例如,根据等式20至等式23来确定变量dXPos[y]、dXFrac[y]、dXInt[y]和dX[y]:
dXPos[y]=((y+1)×invAngle+2)>>2 (等式20)
dXFrac[y]=dXPos[y]&63 (等式21)
dXInt[y]=dXPos[y]>>6 (等式22)
dX[y]=x+dXInt[y] (等式23)
然后,根据等式24至等式28来确定参考样本refT[x][y]、refL[x][y]和权重wL、wT和wTL:
refL[x][y]=0 (等式24)
refT[x][y]=(dX[y]<refW-1)?((644-dXFrac[y])×mainRef[dX[y]]+dXFrac[y]×mainRef[dX[y]+1]+32)>>6:0 (等式25)
wT[y]=(dX[y]<refW-1)?32>>((y<<1)>>nScale):0 (等式26)
wL[x]=0 (等式27)
wTL[x][y]=0 (等式28)
在另一示例中,当帧内预测模式predModeIntra大于或等于INTRA_ANGULAR58(例如表示为,58、在67帧内预测模式的情况下的模式58)时,基于作为帧内预测模式predModeIntra的函数的变量invAngle导出变量dYPos[x]、dYFrac[x]、dYInt[x]和dY[x]。在示例中,可以基于为每个帧内预测模式存储对应invAngle值的查找表来确定invAngle,然后基于变量dYPos[x]、dYFrac[x]、dYInt[x]和dY[x]来确定参考样本refT[x][y]、refL[x][y]以及权重wL、wT和wTL。
例如,根据等式29至等式33来确定变量dYPos[x]、dYFrac[x]、dYInt[x]和dY[x]:
dYPos[x]=((x+1)×invAngle+2)>>2 (等式29)
dYFrac[x]=dYPos[x]&63 (等式30)
dYInt[x]=dYPos[x]>>6 (等式31)
dY[x]=x+dYInt[x] (等式32)
然后,根据等式33至等式37来确定参考样本refT[x][y]、refL[x][y]和权重wL、wT和wTL:
refL[x][y]=(dY[x]<refH-1)?((64-dYFrac[x])×sideRef[dY[x]]+dYFrac[x×sideRef[dY[x]+1]+32)>>6:0 (等式33)
refT[x][y]=0 (等式34)
wT[y]=0 (等式35)
wL[x]=(dY[x]<refH-1)?32>>((x<<1)>>nScale):0 (等式36)
wTL[x][y]=0 (等式37)
在一些示例中,当变量predModeIntra在11至57之间并且不是18和50之一时,则refL[x][y]、refT[x][y]、wT[y]、wL[y]和wTL[x][y]都被设置为等于0。然后,如下导出已滤波的样本filtSamples[x][y]的值,其中x=0..nTbW-1,y=0..nTbH-1:
filtSamples[x][y]=clip1Cmp((refL[x][y]×wL+refT[x][y]×wT-p[-1][-1]×wTL[x][y]+(64-wL[x]-wT[y]+wTL[x][y])×predSamples[x][y]+32)>>6) (等式38)
应注意,一些PDPC过程包括增加计算复杂度的非整数(例如,浮点)运算。在一些实施例中,PDPC过程包括用于平面模式(模式0)、DC模式(模式1)、垂直模式(例如,在67帧内预测模式的情况下的模式50)、水平模式(例如,在67帧内预测模式的情况下的模式18)和对角模式(例如,在67帧内预测模式的情况下的模式2、模式66和模式34)的相对简单的计算,并且PDPC过程包括用于其它模式的相对复杂的计算。
在一些实施例中,PDPC技术可以类似地应用于帧间预测(或帧间编码CU的重建样本),并且在帧间预测中使用PDPC技术被称为帧间PDPC。在示例中,发信号通知被称为interPDPC标志的标志以指示是否应用帧间PDPC模式。当interPDPC为真时,使用帧间PDPC,PDPC滤波过程被应用于帧间预测样本(或帧间编码CU的重建样本)。请注意,帧间PDPC使用帧间预测技术和帧内预测技术,并且帧间PDPC也被称为加权帧内帧间预测(WIIP)模式。在示例中,等式1可以被适当地修改以用于帧间PDPC模式滤波。例如,pred[x][y]被修改以代表在帧间PDPC模式中的帧间预测值。
在一些实施例中,对于帧内编码块的色度分量,编码器在包括平面模式(模式索引0)、DC模式(模式索引1)、水平模式(模式索引18)、垂直模式(模式索引50)、对角模式(模式索引66)以及用于相关联的亮度分量的帧内预测模式的直接副本(即DM模式)的五个模式中选择最佳色度预测模式。色度的帧内预测方向和帧内预测模式编号之间的映射如表1所示。
表1—色度的帧内预测方向和帧内预测模式之间的映射
Figure BDA0002559692510000221
为了避免重复模式,在一些实施例中,根据相关联的亮度分量的帧内预测模式来分配除DM之外的四个模式。当色度分量的帧内预测模式编号为4时,将亮度分量的帧内预测方向用于色度分量的帧内预测样本生成。当色度分量的帧内预测模式编号不是4并且它与亮度分量的帧内预测模式编号相同时,将帧内预测方向66用于色度分量的帧内预测样本生成。
根据本申请的一些方面,帧间图片预测(也被称为帧间预测)包括合并模式和跳过模式。
在用于帧间图片预测的合并模式中,块的运动数据(例如,运动矢量)是被推断的而不是被明确地用信号通知的。在示例中,首先构建候选运动参数的合并候选列表,然后用信号通知标识要使用的候选的索引。
在一些实施例中,合并候选列表包括非子CU合并候选列表和子CU合并候选列表。基于空间相邻运动矢量,位置相同的时间运动矢量和基于历史的运动矢量来构建非子CU合并候选。子CU合并候选列表包括仿射合并候选和ATMVP合并候选。子CU合并候选被用于导出当前CU的多个MV,并且当前CU中的样本的不同部分可具有不同运动矢量。
在跳过模式中,块的运动数据是被推断的而不是被明确地用信号通知的,并且预测残差为零,即没有传输变换系数。在帧间图片预测条带中的每个CU的开始处,发信号通知skip_flag。skip_flag指示合并模式被用于导出运动数据,并且在已编码视频码流中不存在残差数据。
根据本申请的一些实施例,帧内预测和帧间预测可通过编解码技术被适当地组合。组合帧内预测和帧间预测的编解码技术之一被称为组合式帧内/帧间预测(CIIP),其也被称为多假设帧内帧间预测。CIIP将一个帧内预测和一个合并索引预测进行组合。在示例中,当CU处于合并模式时,发信号通知用于帧内模式的特定标志。当特定标志为真时,可以从帧内候选列表中选择帧内模式。对于亮度分量,从包括DC模式、平面模式、水平模式和垂直模式的4个帧内预测模式中导出帧内候选列表,并且根据块形状,帧内模式候选列表的大小可以是3或4。在示例中,当CU宽度大于CU高度的两倍时,从帧内模式候选列表中去除水平模式,并且当CU高度大于CU宽度的两倍时,从帧内模式候选列表中去除垂直模式。在一些实施例中,基于由帧内模式索引选择的帧内预测模式来执行帧内预测,并且基于合并索引来执行帧间预测。使用加权平均来组合帧内预测和帧间预测。在一些示例中,对于色度分量,总是在没有额外信令的情况下应用DM。
在一些实施例中,可以适当地确定用于将帧内预测和帧间预测进行组合的权重。在示例中,当选择DC或平面模式或者编码块(CB)宽度或高度小于4时,对帧间预测和帧内预测应用相等的权重。在另一示例中,对于CB宽度和CB高度大于或等于4的CB,当选择水平/垂直模式时,首先将CB垂直/水平地分割成四个等面积区域。每个区域具有权重集,被表示为(w_intrai,w_interi),其中,i是从1到4。在示例中,第一权重集(w_intra1,w_inter1)=(6,2),第二权重集(w_intra2,w_inter2)=(5,3),第三权重集(w_intra3,w_inter3)=(3,5),以及第四权重集(w_intra4,w_inter4)=(2,6)可以被应用于对应的区域。例如,第一权重集(w_intra1,w_inter1)用于最接近参考样本的区域,并且第四权重集(w_intra4,w_inter4)用于最远离参考样本的区域。然后,可以通过对两个加权预测求和并右移3位来计算组合预测。
此外,当相邻CB被帧内编码时,可以为随后的相邻CB的帧内模式编码保存用于预测器的帧内假设的帧内预测模式。
在一些实施例中,使用被称为具有CU级权重的双向预测(BCW)的技术。BCW技术也被称为广义双向预测(GBi)。在诸如HEVC的示例中,通过对从两个不同的参考图片获得的两个预测信号进行平均和/或使用两个不同的运动矢量来生成双向预测信号。在另一示例中,例如在VVC工作草案和VTM中,通过BWA,双向预测模式被扩展到超过简单的平均以允许两个预测信号的加权平均。在示例中,例如在VVC草案中,GBi(广义双向预测)也被称为具有CU级权重的双向预测(BCW)。在BWA/GBi/BCW模式中,在CU中执行CU级加权预测。例如,当为CU启用BWA/GBi/BCW模式时,可以通过BCW索引为该CU发信号通知加权。例如,使用等式39生成双向预测Pbi-pred
Pbi-pred=((8-w)×P0+w×P1+4)>>3 (等式39)
其中,P0和P1分别表示使用L0和L1中的参考图片的运动补偿预测,w表示使用L1中的参考图片并且在示例中以1/8精度表示的预测的加权参数。
在BWA/GBi/BCW实施方式示例中,在加权平均双向预测中允许五个权重,w∈{-2,3,4,5,10}。对于每个双向预测CU,以第一种方法和第二种方法之一确定权重w。在第一种方法中,对于非合并CU,在运动矢量差之后发信号通知权重索引。在第二种方法中,对于合并CU,基于合并候选索引从相邻块推断权重索引。在一些示例中,加权平均双向预测仅应用于具有256个或多于256个亮度样本(即,CU宽度乘以CU高度大于或等于256)的CU。对于低延迟图片,可以使用所有的5个权重。对于非低延迟图片,在示例中仅使用3个权重(w∈{3,4,5})。
在一些实施例中,对于来自空间候选的帧间合并模式和模型继承仿射合并模式,权重选择(BCW索引)是从合并候选继承的。对于其它合并类型,诸如时间合并候选、HMVP候选、SbTMVP候选、基于构建控制点的仿射合并候选、成对平均合并候选等,BCW索引不被继承,并且可使用默认权重1/2(或4/8)。
在一些示例中,例如AVC、HEVC、VVC等,提供加权预测(WP)作为所支持的编解码工具。在示例中,当源材料经受亮度变化时,例如,当使用衰落或交叉衰落时,WP可以被用于改善帧间预测的性能。
在一些示例中,基于WP,帧间预测信号P例如根据等式40被线性加权预测信号P’(具有权重w和偏移o)代替以用于单向预测:
单向预测:P'=w×P+o (等式40)
对于双向预测,帧间预测信号P0用于参考L0,权重w0和偏移o0用于参考L0,并且帧间预测信号P1用于参考L1,权重w1和偏移o1用于参考L0,则可以根据等式41计算线性加权预测信号P':
双向预测:P'=(w0×P0+o0+w1×P1+o1)/2 (等式41)
可应用的权重和偏移由编码器选择,并且在码流内从编码器传送到解码器。L0和L1后缀分别定义参考图片列表的List0和List1。与内插滤波器一样,在对预测信号进行平均之前,比特深度被保持在14比特精度(在HEVC版本1中)。
在一些实施例中,WP允许为参考图片列表L0和L1中的每一个中的每个参考图片发信号通知加权参数(权重和偏移)。然后,在运动补偿期间,应用对应的参考图片的权重和偏移。WP和BCW被设计用于不同类型的视频内容。为了避免会使VVC解码器设计复杂化的WP和BCW之间的交互,如果CU使用WP,则不会用信号通知BWA权重索引,并且w被推断为4(即,应用相等的权重)。
根据本申请的一些实施例,在帧间预测中使用被称为双向光流(BDOF)模式的运动修正技术。在一些示例中,BDOF也被称为BIO。BDOF可被用于在4×4子块级别上修正CU的双向预测信号。当CU满足某些条件时,BDOF可以被应用于CU。在示例中,这些条件包括:(i)CU的高度不是4,且CU的大小不是4×8,(ii)CU不是使用仿射模式或ATMVP合并模式编码的,(iii)CU是使用―真”双向预测模式编码的,例如,在显示顺序中,两个参考图片中的一个参考图片在当前图片之前,而另一个参考图片在当前图片之后。在一些示例中,BDOF仅被应用于亮度分量。在示例中,这些条件包括:(i)CU是使用―真”双向预测模式编码的,例如,在显示顺序中,两个参考图片中的一个参考图片在当前图片之前,而另一个参考图片在当前图片之后,(ii)从两个参考图片到当前图片的距离(即,POC差)是相同的,(iii)两个参考图片是短期参考图片,(iv)CU不是使用仿射模式或ATMVP合并模式编码的,(v)CU具有多于64个亮度样本,(vi)CU高度和CU宽度大于或等于8个亮度样本,(vii)BCW权重索引指示相等的权重,(viii)不针对当前CU启用加权预测(WP),以及(ix)不针对当前CU使用CIIP模式。
在实施例中,BDOF模式仅被应用于亮度分量。BDOF模式中的运动修正基于光流概念,该光流概念假设对象的运动是平滑的。对于每个4×4子块(例如,图10中的CU(1010)中的子块(1020)),通过最小化L0与L1预测样本之间的差异来计算运动修正量(Δmvx,Δmvy)。然后,使用运动修正量来调整4×4子块(例如,子块(1020))中的双向预测样本值。在BDOF过程中应用以下步骤。
首先,通过直接计算两个相邻样本之间的差来计算两个预测信号的水平梯度和垂直梯度
Figure BDA0002559692510000261
Figure BDA0002559692510000262
例如,
Figure BDA0002559692510000263
其中,I(k)(i,j)是列表k(k=0,1)中的预测信号的坐标(i,j)处的样本值,并且基于亮度比特深度bitDepth计算参数shift1。在示例中,shift1=max(6,bitDepth-6)。在一些示例中,shift 1等于2和(14-bitDepth)的最大值。在示例中,等式42中的计算可适用于等式43-44中的计算:
Figure BDA0002559692510000264
Figure BDA0002559692510000265
在示例中,如下计算梯度S1、S2、S3、S5和S6的自相关和互相关:
Figure BDA0002559692510000266
其中
Figure BDA0002559692510000267
并且Ω是围绕4×4子块(例如,子块(1020))的6×6窗口(例如,(1040)),并且值na和nb被分别设置为等于min(5,bitDepth-7)和min(8,bitDepth-4)。
在示例中,如下使用等式47计算梯度S1、S2、S3、S5和S6的自相关和互相关:
Figure BDA0002559692510000268
其中,Ω是围绕4×4子块(例如,子块(1020))的6×6窗口(例如,(1040)),并且值na和nb被分别设置为等于min(1,bitDepth-11)和min(4,bitDepth-8)。
可以使用自相关和互相关基于以下等式来导出运动修正量或MVR(Δmvx,Δmvy):
Figure BDA0002559692510000271
Figure BDA0002559692510000272
其中,
Figure BDA0002559692510000273
Figure BDA0002559692510000274
是向下取整函数,并且
Figure BDA0002559692510000275
在示例中,th′BIO=2max(5,BD-7)。在示例中,th′BIO=213-BD
基于运动修正量和梯度,可以为4×4子块中的每个样本计算以下调整量(或预测修正量)b(x,y):
Figure BDA0002559692510000276
在示例中,上面等式50中的计算可适用于以下等式51中的计算:
Figure BDA0002559692510000277
其中,函数‘rnd‘表示舍入运算。
可以通过如下调整双向预测样本来计算CU的BDOF样本:
predBDOF(x,y)=(I(0)(x,y)+I(1)(x,y)+b(x,y)+ooffset)>>shift (等式52)
在实施例中,选择值使得BDOF处理中的乘数不超过15比特,并且BDOF处理中的中间参数的最大位宽保持在32比特以内。
在示例中,为了导出梯度值,将生成当前CU边界之外的列表k(k=0,1)中的预测样本I(k)(i,j)。
图10示出了图示根据一些实施例的BDOF的示例。参考图10,(例如,在VVC中的)BDOF可以使用CU(1010)的边界周围的扩展行/列。为了控制生成边界外预测样本(例如,对样本的预测(1030)或预测样本(1030))的计算复杂度,可以通过直接在附近的整数位置处取得参考样本(例如,使用对坐标的向下取整运算)而无需内插来生成扩展区域(图10中的图案区域)中的预测样本。在示例中,使用8抽头运动补偿内插滤波器(也被称为8抽头内插滤波器)来生成CU(1010)(白色位置)内的预测样本。在图10所示的示例中,CU(1010)包括8×8样本。在示例中,扩展样本值仅被用于梯度计算中。梯度计算可以使用等式42或等式43-等式44,如上文所述。
参考图10,对于BDOF过程中的其余步骤(例如,等式45-等式47),如果使用CU边界外的预测样本和梯度值,则可以基于对应的最近的相邻预测样本和梯度值来填充(例如,重复的)CU边界外的预测样本和梯度值,如图10中的箭头所示。例如,(1030)处的预测样本和梯度值可以基于(1021)处的对应预测样本和梯度值填充。
在实施例中,当CU的宽度和/或高度大于16个亮度样本时,可以将CU分割成宽度和/或高度等于16个亮度样本的子块,并且在BDOF过程中可以将子块边界视为CU边界。例如,BDOF过程的最大单元大小限于16×16个样本。在示例中,对于子块,可以跳过BDOF过程。在示例中,当初始L0和L1预测样本之间的SAD小于阈值时,不对子块应用BDOF过程。所述阈值可被设置为等于(8×W×(H>>1)),其中,W指示子块宽度且H指示子块高度。为了避免SAD计算的额外复杂度,在DMVR过程中计算的初始L0和L1预测样本之间的SAD在这里可以被重复使用。
如果为当前CU(例如,块)启用BCW,例如BCW权重索引指示不相等的权重,则可以为当前CU禁用BDOF模式。类似地,如果为当前CU(例如,块)启用WP模式,例如,对于当前CU的两个参考图片中的任何一个,luma_weight_lx_flag为1,则可以为当前CU禁用BDOF模式。当利用对称MVD模式或CIIP模式对当前CU(例如,块)进行编码时,可以为当前CU禁用BDOF模式。
根据本申请的实施例,MV修正(MVR)可被限制为例如+2N或–2N的形式,并且因此乘法运算可由移位运算来代替,以降低计算复杂度并提高编码效率。N可以是任何合适的整数。
根据本申请的实施例,解码器侧运动矢量修正(DMVR)是解码器侧运动矢量推导(DMVD)技术中的一种,并且被用于基于起始点来改进/修正MV。
在一些示例中,可以应用基于双边匹配的解码器侧运动矢量修正以增加合并模式的运动矢量的精度。在双向预测操作中,在参考图片列表L0和参考图片列表L1中的初始MV周围搜索修正的MV。双边匹配方法计算参考图片列表L0和列表L1中的两个候选块之间的失真。
在示例中,在双向预测操作的情况下,对于一个块区域的预测,可以使用来自第一参考图片候选列表L0的MV0和来自第二参考图片候选列表L1的MV1来分别形成两个预测块。在DMVR方法中,通过双边模板匹配过程进一步修正双向预测的两个运动矢量MV0和MV1。在解码器中应用双边模板匹配以在双边模板与参考图片中的重建样本之间执行基于失真的搜索,从而在不传输额外的运动信息的情况下获得修正的MV。
图11示出了基于双边模板匹配的DMVR的示例。在示例中,如图11中所示,双边模板(1140)被生成以作为分别来自第一参考图片候选列表L0的初始MV0和第二参考图片候选列表L1的MV1的两个预测块(1120)和(1130)的加权组合(即,平均)。模板匹配操作包括计算所生成的模板(1140)与参考图片Ref0和Ref1中的样本区域(在初始预测块周围)之间的成本测量。对于两个参考图片Ref0和Ref1中的每一个,产生最小模板成本的MV被认为是该列表的更新的MV,以代替原始的MV。例如,MV0'代替MV0,并且MV1'代替MV1。在一些示例中,针对每个列表搜索九个MV候选。该九个MV候选包括原始的MV和8个周围的MV,其中一个亮度样本在水平方向或垂直方向上偏移到原始的MV,或在这两个方向上都偏移到原始的MV。最后,两个新的MV(即,图11中所示的MV0′和MV1′)被用于生成当前块的最终双向预测结果。绝对差之和(SAD)可以被用作成本测量。
在一些示例中,将DMVR应用于以某些模式要求编码的CU。例如,(1)将DMVR应用于具有双向预测MV的CU级合并模式中的CU;(2)相对于当前图片,一个参考图片在过去,而另一参考图片在未来;(3)从两个参考图片到当前图片的距离(即,图片顺序计数(POC)差)相同;以及(4)CU具有多于64个亮度样本,且CU高度多于8个亮度样本。
由DMVR过程导出的修正的MV被用于生成帧间预测样本,并且还被用在未来图片编码的时间运动矢量预测中。而原始的MV被用在去块过程中,并且还被用在未来CU编码的空间运动矢量预测中。
在一些实施例中,基于所接收的码流中的信号,确定一对合并候选并将其用作DMVR过程的输入。例如,该对合并候选被表示为初始运动矢量(MV0、MV1)。在一些示例中,由DMVR搜索的搜索点遵循运动矢量差镜像条件。换句话说,由一对候选运动矢量(MV0'、MV1')表示的由DMVR检查的点遵循等式53和等式54:
MV0′=MV0+MVdiff (等式53)
MV1′=MV1+MVdiff (等式54)
其中,MVdiff表示参考图片中的一者中的候选运动矢量与初始运动矢量之间的运动矢量差。
在一些实施例中,可以在视频编解码中使用被称为局部亮度补偿(LIC)的技术。LIC基于用于亮度变化的线性模型,使用诸如由(a)表示的缩放因子和由(b)表示的偏移的参数。可以对每个帧间模式编码的编码单元(CU)自适应地启用或禁用LIC。
在实施例中,当将LIC应用于CU时,可以基于当前CU的相邻样本和相邻样本的对应的参考样本使用最小平方误差方法来导出缩放因子(a)和偏移(b)。
图12示出了当前CU和当前CU的参考块的相邻样本的图。在图12的示例中,对当前CU和参考块的相邻样本进行子采样,例如使用2:1子采样。在示例中,当前CU的子采样(2:1子采样)的相邻样本的对应样本可由参考图片中的当前CU或子CU的运动信息识别。可以导出亮度补偿(IC)参数(例如,缩放因子和偏移),并将其分别应用于每个预测方向。
在示例中,当用合并模式对当前CU进行编码时,以类似于合并模式中的运动信息复制的方式从相邻块复制LIC标志。在另一示例中,为CU发信号通知LIC标志以指示是否应用LIC。
在一些实施例中,当为图片启用LIC时,执行额外的CU级速率失真(RD)检查,以确定是否将LIC应用于CU。当为CU启用LIC时,对于基于整数像素的运动搜索和基于分数像素的运动搜索,可以分别使用均值去除的绝对差之和(MR-SAD)和均值去除的绝对哈达玛(Hadamard)变换差之和(MR-SATD)代替SAD和SATD。
在一些实施例中,可以使用不可分离二次变换(NSST)技术。在实施例中,不可分离二次变换可以是模式相关的。在一些示例中,NSST可以在编码器侧在正核心(主)变换和量化之间执行,以及在解码器侧在去量化和逆核心(主)变换之间执行。例如,为了保持低复杂度,在主变换(或核心变换)之后将NSST应用于低频系数。当变换系数块的宽度(W)和高度(H)两者均大于或等于8时,对变换系数块的左上8×8区域应用8×8NSST。否则,当变换系数块的宽度W或高度H为4时,应用4×4NSST,并且在变换系数块的左上min(8,W)×min(8,H)区域执行4×4NSST。在示例中,上述变换选择方法被应用于亮度分量和色度分量两者。
具体地,在实施例中,使用4×4输入块作为示例来如下描述NSST的矩阵乘法实施方式。4×4输入块X如等式55所示:
Figure BDA0002559692510000311
然后,输入块X可以被表示为等式56中的矢量
Figure BDA0002559692510000312
其中:
Figure BDA0002559692510000313
在一些实施例中,不可分离变换被计算为
Figure BDA0002559692510000314
其中,
Figure BDA0002559692510000315
表示变换系数矢量,并且T表示16×16变换矩阵(变换核)。随后,使用用于输入块X的扫描顺序(例如,水平扫描顺序、垂直扫描顺序或对角扫描顺序)将16×1变换系数矢量
Figure BDA0002559692510000316
重新组织为4×4块。可以将具有更小的索引的系数与更小的扫描索引一起放置在4×4系数块中。在一些实施例中,可以使用具有蝶形实施方式的超立方体-吉文斯(Hypercube-Givens)变换(HyGT)来代替上述矩阵乘法,以降低NSST的复杂度。
在一些实施方式示例中,35×3不可分离二次变换可用于4×4块大小和8×8块大小两者,其中,35是与帧内预测模式相关联的变换集的数目,并且3是用于每个帧内预测模式的NSST候选的数目。
图13示出从帧内预测模式到相应变换集的示例性映射(1300)。根据从帧内预测模式到变换集索引的映射(1300),由对应的亮度/色度帧内预测模式指定应用于亮度/色度变换系数的变换集。对于对应于对角预测方向的大于34的帧内预测模式,在编码器/解码器处,在NSST之前/之后分别对变换系数块进行转置。
对于每个变换集,选择的NSST候选可以进一步由明确地用信号通知的CU级NSST索引来指定。在变换系数之后,在用于每个帧内编码CU的码流中发信号通知CU级NSST索引,并且将截断一元二进制化用于CU级NSST索引。例如,对于平面或DC模式(平面和DC模式被称为非角度预测模式),截断值为2,而对于角度帧内预测模式,截断值为3。在示例中,仅在CU中存在一个以上非零系数时发信号通知CU级NSST索引。默认值为零并且没有发信号通知默认值,这指示NSST没有被应用到CU。值1至3中的每一个指示将从变换集中应用哪个NSST候选。
在一些实施例中,不将NSST应用于以变换跳过模式编码的块。当为CU发信号通知CU级NSST索引且该CU级NSST索引不等于零时,不将NSST用于在CU中以变换跳过模式编码的块。当以变换跳过模式对具有所有分量的块的CU进行编码或者非变换跳过模式CB的非零系数的数量小于2时,不为CU发信号通知CU级NSST索引。
在一些实施例中,NSST可以被适当地修改。NSST的变体被称为简化二次变换(RST),RST是不可分离二次变换的另一种设计。在一些示例中,RST可以被称为低频不可分离二次变换(LFNST)。RST是NSST的变体,并且使用变换零输出方案。
在示例中(例如,在JVET-N0193中),应用4个变换集,并且每个变换集包括三个RST变换核心,其大小可以是16×48(或16×64)(应用于高度和宽度两者都大于或等于8的变换系数块)或16×16(应用于高度或宽度等于4的变换系数块)。为了符号上的方便,16×48(或16×64)变换被表示为RST8×8,并且16×16变换被表示为RST4×4。
图14示出了根据本申请的实施例的使用16×64变换核心的示例。例如,在编码器侧,16×64变换被应用于变换系数块的左上8×8区域的部分(1410),并且结果是16个系数。因此,在解码器侧,逆RST被应用在左上4×4区域的包括16个系数的部分(1420)上。
图15示出了根据本申请的实施例的使用16×48变换核心的示例。例如,在编码器侧,16×48变换被应用于左上灰色区域的部分(1510),该左上灰色区域包括变换系数块的4×4块中的3个,并且结果是16个系数。因此,在解码器侧,逆RST被应用在左上4×4区域的包括16个系数的部分(1520)。
通常,简化变换(RT)的主要思想是将N维矢量映射到不同空间中的R维矢量,其中,R/N(R<N)是简化因子。
图16示出了RST矩阵,其是R×N矩阵。RST矩阵包括作为N维空间的R个基部的变换的R行。RT的逆变换矩阵是正变换的转置。
例如,可以应用简化因子为4(1/4大小)的RST8×8。对于传统的8×8不可分离变换矩阵大小,需要应用64×64变换矩阵。对于简化变换RST8×8,使用16×64直接矩阵。换句话说,在解码器侧使用64×16逆RST矩阵以在8×8左上区域中生产核心(主)变换系数。正RST8×8使用16×64(或对于8×8块为8×64)矩阵,使得简化变换仅在给定的8×8区域内的左上4×4区域中产生非零系数。换句话说,当应用RST时,除了左上的4×4区域之外的8×8区域将仅具有零系数。对于RST4×4,应用16×16(或对于4×4块为8×16)直接矩阵乘法。
在一些实施例中,例如对于RST8×8,为了进一步减小变换矩阵大小,代替使用整个左上8×8系数作为用于计算二次变换的输入,使用左上三个4×4系数作为用于计算二次变换的输入。
图17A示出了16×16块(例如,主变换之后的系数块)。在示例中,可以使用16×64变换矩阵将RST8×8应用于左上8×8区域(在对角条纹中)。
图17B示出了16×16块(例如,主变换之后的系数块)。在示例中,可以使用16×48变换矩阵将RST8×8应用于对角条纹中的左上区域。
在一些实施例中,当满足某些条件时,诸如要求块大小大于或等于给定阈值的第一条件(例如,W≥4&&H≥4)以及要求变换跳过模式标志等于零的第二条件,逆RST被有条件地应用。
在一些示例中,当变换系数块的宽度(W)和高度(H)两者都大于4时,则RST8×8被应用于变换系数块的左上8×8区域。否则,RST4×4被应用于变换系数块的左上min(8,W)×min(8,H)区域。
在一些实施例中,使用RST索引。当RST索引等于0时,不应用RST。当RST索引不为零时,应用RST,并基于RST索引选择核。
在一些实施例中,RST被应用于帧内条带和帧间条带两者中的帧内CU,以及被应用于亮度和色度。在示例中,当启用双树时,分别发信号通知用于亮度和色度的RST索引。对于帧间条带(双树被禁用),发信号通知单个RST索引并将其用于亮度和色度。当选择ISP模式时,禁用RST,并且不发信号通知RST索引。
在一些实施例中,从四个变换集中选择RST矩阵,并且每个集包括两个变换。基于帧内预测模式确定变换集的选择。
当指示三个交叉分量线性模型(CCLM)模式之一时,选择变换集0。否则,根据表进行变换集选择。
图18示出了在示例中用于变换集选择的表。在图18的示例中,IntraPredMode的范围是[-14,83],并且被用于广角帧内预测。对应于InPredMode的变换模式索引是用于广角帧内预测的已变换的模式索引。
以VVC Draft v5中采用的RST设计为示例,RST利用4×2 16×16变换矩阵(RST4×4)和4×2 16×48变换矩阵(RST8×8),并且变换矩阵中的每个元素用8比特的整数表示。因此,总共4×2×(256+768)=8K字节的存储器被用于存储变换矩阵。
根据本申请的实施例,当诸如CIIP模式和帧间PDPC模式的模式对帧内预测和帧间预测进行组合时,该模式可具有比常规帧间预测更高的复杂度。本申请的一些实施例提供了用于限制CIIP模式和/或帧间PDPC模式的计算复杂度的技术。
所提出的方法可被单独使用或以任何顺序组合使用。此外,方法(或实施例)、编码器和解码器中的每一者可由处理电路(例如,至少一个处理器或至少一个集成电路)实现。在一个示例中,至少一个处理器执行存储在非暂时性计算机可读介质中的程序。在下文中,术语块可以被解释为预测块、编码块或编码单元(即,CU)。
与CIIP模式相关联的技术和与帧间PDPC模式相关联的技术被分别描述。
在一些实施例中,某些编解码工具的应用取决于是否使用CIIP模式。例如,当CIIP模式被用于当前块时,在当前块上禁用某些编解码工具,或者在当前块上应用某些编解码工具。
在实施例中,当CIIP模式被用于当前块时,可以在由当前块上的CIIP使用的帧间预测部分上禁用具有不相等加权的加权双向预测。在一些示例中,具有相等加权的加权双向预测是默认的双向预测。为了在当前模式上使用CIIP,对于CIIP的帧间预测部分禁用具有不相等加权的加权双向预测,使用相等加权的默认的双向预测可以被用于帧间预测部分。
在另一实施例中,当CIIP模式被用于当前块时,具有不相等加权的加权双向预测可被用于CIIP的帧间预测部分。然而,用于将CIIP的帧内预测部分和帧间预测部分进行组合的加权取决于具有不相等加权的加权双向预测是否被用于帧间预测部分。例如,当具有不相等加权的加权双向预测被用于帧间预测部分时,使用第一组加权将CIIP的帧内预测部分和帧间预测部分进行组合;当具有不相等加权的加权双向预测不被用于帧间预测部分时,使用第二组加权将CIIP的帧内预测部分和帧间预测部分进行组合。第一组加权不同于第二组加权。
在另一实施例中,当CIIP模式被用于当前块时,在当前块上的CIIP的帧间预测部分上禁用加权预测。
在另一实施例中,当CIIP模式被用于当前块时,二次变换或LFNST可被用于当前块的编解码。在示例中,用于CIIP模式的变换集与用于平面或DC帧内预测模式的变换集相同。在另一示例中,当CIIP模式被用于当前块时,可以使用二次变换且仅应用与平面和/或DC模式相关联的变换核。变换中的限制可以降低总复杂度。
在另一实施例中,当CIIP模式被用于当前块时,在由当前块上的CIIP使用的帧间预测部分上禁用LIC。
类似地,某些编解码工具的应用取决于是否使用帧间PDPC模式。在一些实施例中,当在当前块上使用帧间PDPC模式时,在当前块上禁用某些编解码工具。在其它实施例中,当在当前块上使用帧间PDPC模式时,在当前块上可以应用某些编解码工具。
在实施例中,当帧间PDPC模式被用于当前块时,可以使用二次变换,并且用于CIIP模式的变换集与平面或DC帧内预测模式相同。变换中的限制可以降低总复杂度。
在另一实施例中,当帧间PDPC模式被用于当前块时,可以在CIIP的帧间预测部分中禁用DMVR。
在另一实施例中,当帧间PDPC模式被用于当前块时,可以禁用BCW或者使用默认的相等加权。
在另一实施例中,当帧间PDPC模式被用于当前块时,可以在由当前块上的帧间PDPC使用的帧间预测上禁用具有不相等加权的加权双向预测。
在另一实施例中,当帧间PDPC模式被用于当前块时,可以在由当前块上的帧间PDPC使用的帧间预测上禁用加权预测。
在另一实施例中,当帧间PDPC被用于当前块时,在由当前块上的帧间PDPC使用的帧间预测部分上禁用LIC。
根据本申请的实施例,可以使用CIIP标志来用信号通知CIIP模式,并且可以使用帧间PDPC标志来用信号通知帧间PDPC模式。在一些实施例中,可以使用相同的上下文模型对CIIP标志和帧间PDPC标志进行编解码。在示例中,使用上下文自适应二进制算术编码(CABAC)的上下文被用于对CIIP标志和帧间PDPC标志进行编解码。然后,响应于CIIP标志和帧间PDPC标志的编解码来更新上下文。
图19示出了概述根据本申请的实施例的方法(1900)的流程图。可以在块的重建中使用方法(1900),以便为重建中的块生成预测块。在各种实施例中,方法(1900)由处理电路执行,诸如终端设备(110)、(120)、(130)和(140)中的处理电路、执行视频编码器(203)的功能的处理电路、执行视频解码器(210)的功能的处理电路、执行视频解码器(310)的功能的处理电路、执行视频编码器(403)的功能的处理电路,等等。在一些实施例中,方法(1900)用软件指令实现,因此当处理电路执行软件指令时,处理电路执行方法(1900)。该方法开始于(S1901)并进行到(S1910)。
在(S1910)处,对来自已编码视频码流的当前图片中的当前块的预测信息进行解码。预测信息指示将基于当前图片中的第一参考样本的帧内预测和基于当前图片的参考图片中的第二参考样本的帧间预测进行组合的预测模式。在一些实施例中,预测模式是CIIP模式和帧间PDPC模式中的一者。在示例中,CIIP模式标志被解码。在另一示例中,帧间PDPC模式标志被解码。在实施例中,响应于CIIP模式标志和帧间PDPC模式标志中的任何一个来更新相同的上下文。
在(S1920)处,确定与将帧内预测和帧间预测进行组合的预测模式相关联的编解码工具。在一些实施例中,禁用某些代码工具以用于预测模式,并且选择某些工具以用于预测模式。在一些实施例中,编解码工具的选择和取消选择可降低预测模式的复杂度。
在实施例中,禁用在帧间预测中使用的加权预测。
在另一实施例中,禁用在帧间预测中使用的具有不相等加权的加权双向预测。
在另一实施例中,可以在帧间预测中执行具有相等加权的加权双向预测。
在另一实施例中,禁用在帧间预测中使用的局部亮度补偿(LIC)。
在另一实施例中,在去量化和主变换之间执行诸如RST、LFNST等的二次变换。在一些示例中,确定与平面帧内预测模式和DC帧内预测模式之一相关联的变换集。进一步地,从变换集中选择与平面帧内预测模式和DC帧内预测模式之一相关联的变换核,以用于二次变换。
在实施例中,当预测模式是帧间PDPC模式时,禁用在帧间预测中使用的DMVR。
在(S1930)处,根据所确定的与预测模式相关联的编解码工具来重建当前块的样本。然后,该方法进行到(S1999)并终止。
本申请实施例提供了一种视频解码方法,包括:
从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;
确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具;并且
根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本。
本申请实施例提供了一种视频解码装置,包括:
解码模块,用于从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;
确定模块,用于确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具;和
重建模块,用于根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本。
本申请实施例提供了一种计算机设备,所述计算机设备包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有至少一条指令,所述至少一条指令由所述至少一个处理器加载并执行以实现本申请任一实施例所述的方法。
本申请实施例提供了一种存储指令的非暂时性计算机可读介质,所述指令包括至少一个指令,当由至少一个处理器执行时,所述指令使所述至少一个处理器执行本申请任一实施例所述的方法。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在至少一个计算机可读介质中。例如,图20示出了适于实现所公开主题的某些实施例的计算机***(2000)。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由至少一个计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图20所示的用于计算机***(2000)的组件本质上是示例性的,并且不旨在对实现本申请的实施例的计算机软件的使用范围或功能提出任何限制。也不应将组件的配置解释为对计算机***(2000)的示范性实施例中所说明的组件中的任一者或组合具有任何依赖性或要求。
计算机***(2000)可以包括某些人机界面输入设备。所述人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出)对至少一个人类用户的输入做出响应。所述人机界面设备还可用于捕捉不必直接与人类有意识输入相关的某些媒体,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的至少一个(仅描绘其中一个):键盘(2001)、鼠标(2002)、触控板(2003)、触摸屏(2010)、数据手套(未示出)、操纵杆(2005)、麦克风(2006)、扫描仪(2007)、照相机(2008)。
计算机***(2000)还可以包括某些人机界面输出设备。所述人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激至少一个人类用户的感觉。所述人机界面输出设备可包括触觉输出设备(例如通过触摸屏(2010)、数据手套(未示出)或操纵杆(2005)的触觉反馈,但也可有不是输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(2009)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(2010),其中每个都有或没有触摸屏输入功能、触觉反馈功能——其中一些可通过如立体画面输出等手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机***(2000)还可以包括人类可访问的存储设备及其相关联介质,如包括具有CD/DVD的CD/DVD ROM/RW(2020)等介质(2021)的光学介质、拇指驱动器(2022)、可移动硬盘驱动器或固态驱动器(2023)、如磁带和软盘(未示出)的传统磁介质、如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合本申请的主题使用的术语―计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机***(2000)还可以包括到至少一个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、***、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要连接到某些通用数据端口或***总线(2049)(例如,计算机***(2000)的USB端口)的外部网络接口适配器;其它***通常通过连接到如下所述的***总线集成到计算机***(2000)的内核(例如,以太网接口集成到PC计算机***或蜂窝网络接口集成到智能电话计算机***)。通过使用这些网络中的任何一个,计算机***(2000)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机***。上述的每个网络和网络接口可使用某些协议和协议栈。
前述的人机界面设备、人类可访问存储设备和网络接口可以连接到计算机***(2000)的内核(2040)。
内核(2040)可包括至少一个中央处理单元(CPU)(2041)、图形处理单元(GPU)(2042)、以现场可编程门阵列(FPGA)(2043)形式存在的专用可编程处理单元、用于特定任务的硬件加速器(2044)等。上述设备以及只读存储器(ROM)(2045)、随机存取存储器(2046)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、SSD等)(2047)等可通过***总线(2048)进行连接。在某些计算机***中,可以以至少一个物理插头的形式访问***总线(2048),以便通过额外的中央处理单元、图形处理单元等进行扩展。***装置可直接附接到内核的***总线(2048),或通过***总线(2049)进行连接。***总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(2041)、GPU(2042)、FPGA(2043)和加速器(2044)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(2045)或RAM(2046)中。过渡数据也可以存储在RAM(2046)中,而永久数据可以存储在例如内部大容量存储器(2047)中。通过使用高速缓存可实现对任何存储器设备的快速存储和检索,高速缓存可与至少一个CPU(2041)、GPU(2042)、大容量存储器(2047)、ROM(2045)、RAM(2046)等紧密关联。
所述计算机可读介质上可具有用于执行各种计算机实现操作的计算机代码。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为示例而非限制,具有体系结构(2000)的计算机***,特别是内核(2040),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供功能,执行包含在至少一个有形的计算机可读介质中的软件。这种计算机可读介质可以是与如上所述的用户可访问的大容量存储器相关联的介质,以及具有非瞬时性质的内核(2040)的特定存储器,诸如内核内部大容量存储器(2047)或ROM(2045)。实现本申请的各种实施例的软件可以存储在这种设备中并且由内核(2040)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得内核(2040)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(2046)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机***可以提供逻辑硬连线或以其他方式包含在电路(例如,加速器(2044))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录A:首字母缩写
JEM:联合探索模式
VVC:通用视频编码
BMS:基准集
MV:运动矢量
HEVC:高效视频编码
SEI:补充增强信息
VUI:视频可用性信息
GOP:图片组
TU:变换单元
PU:预测单元
CTU:编码树单元
CTB:编码树块
PB:预测块
HRD:假设参考解码器
SNR:信噪比
CPU:中央处理单元
GPU:图形处理单元
CRT:阴极射线管
LCD:液晶显示器
OLED:有机发光二极管
CD:光盘
DVD:数字视频盘
ROM:只读存储器
RAM:随机存取存储器
ASIC:专用集成电路
PLD:可编程逻辑器件
LAN:局域网
GSM:全球移动通信***
LTE:长期演进
CANBus:控制器局域网总线
USB:通用串行总线
PCI:***设备互连
FPGA:现场可编程门阵列
SSD:固态驱动器
IC:集成电路
CU:编码单元
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、置换和各种替代属于本申请的范围内。因此应理解,本领域技术人员能够设计多种***和方法,所述***和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (5)

1.一种视频解码方法,其特征在于,该方法包括:
从已编码视频码流中解码当前图片中的当前块的位于块级别的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;
确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具,所述预测模式是组合式帧内/帧间预测CIIP模式和帧间位置相关预测组合PDPC模式,其中,所述帧间位置相关预测组合PDPC是指将已滤波的参考样本与帧间预测进行组合;
在所述预测模式下,对于所述组合式帧内/帧间预测CIIP的帧间预测部分,使用具有不相等加权的加权双向预测,以及使用二次变换且仅应用与平面和/或直流DC模式相关联的变换核;而对于所述帧间位置相关预测组合PDPC模式,在所述组合式帧内/帧间预测CIIP的帧间预测部分中禁用解码器侧运动矢量修正DMVR,并在由当前块上的帧间位置相关预测组合PDPC使用的帧间预测上禁用具有不相等加权的加权双向预测,以及由当前块上的帧间位置相关预测组合PDPC使用的帧间预测部分上禁用局部亮度补偿LIC;并且
根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本。
2.根据权利要求1所述的方法,其特征在于,进一步包括:
响应于已解码的CIIP模式标志和已解码的帧间PDPC模式标志,更新相同的上下文。
3.一种视频解码装置,其特征在于,包括:
解码模块,用于从已编码视频码流中解码当前图片中的当前块的位于块级别的预测信息,所述预测信息指示预测模式为帧内预测和帧间预测的组合,所述帧内预测基于所述当前图片中的至少第一参考样本进行确认,所述帧间预测基于所述当前图片的参考图片中的至少第二参考样本进行确认;
确定模块,用于确定与将所述帧内预测和所述帧间预测进行组合的所述预测模式相关联的编解码工具,所述预测模式是组合式帧内/帧间预测CIIP模式和帧间位置相关预测组合PDPC模式,其中,所述帧间位置相关预测组合PDPC是指将已滤波的参考样本与帧间预测进行组合;和
重建模块,用于根据所确定的与所述预测模式相关联的编解码工具,重建所述当前块的至少一个样本;
所述装置进一步用于:
在所述预测模式下,对于所述组合式帧内/帧间预测CIIP的帧间预测部分,使用具有不相等加权的加权双向预测,以及使用二次变换且仅应用与平面和/或直流DC模式相关联的变换核;而对于所述帧间位置相关预测组合PDPC模式,在所述组合式帧内/帧间预测CIIP的帧间预测部分中禁用解码器侧运动矢量修正DMVR,并在由当前块上的帧间位置相关预测组合PDPC使用的帧间预测上禁用具有不相等加权的加权双向预测,以及由当前块上的帧间位置相关预测组合PDPC使用的帧间预测部分上禁用局部亮度补偿LIC。
4.一种计算机设备,其特征在于,所述计算机设备包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有至少一条指令,所述至少一条指令由所述至少一个处理器加载并执行以实现如权利要求1至2中的任一项所述的方法。
5.一种存储指令的非暂时性计算机可读介质,其特征在于,所述指令包括至少一个指令,当由至少一个处理器执行时,所述指令使所述至少一个处理器执行如权利要求1至2中的任一项所述的方法。
CN202010607488.XA 2019-06-30 2020-06-29 视频解码方法和装置以及计算机设备和存储介质 Active CN112235572B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962869006P 2019-06-30 2019-06-30
US62/869,006 2019-06-30
US16/910,808 2020-06-24
US16/910,808 US11259016B2 (en) 2019-06-30 2020-06-24 Method and apparatus for video coding

Publications (2)

Publication Number Publication Date
CN112235572A CN112235572A (zh) 2021-01-15
CN112235572B true CN112235572B (zh) 2022-04-26

Family

ID=74044834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010607488.XA Active CN112235572B (zh) 2019-06-30 2020-06-29 视频解码方法和装置以及计算机设备和存储介质

Country Status (2)

Country Link
US (2) US11259016B2 (zh)
CN (1) CN112235572B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220295059A1 (en) * 2019-08-13 2022-09-15 Electronics And Telecommunications Research Institute Method, apparatus, and recording medium for encoding/decoding image by using partitioning
US11638019B2 (en) * 2020-07-29 2023-04-25 Alibaba Group Holding Limited Methods and systems for prediction from multiple cross-components
US11671616B2 (en) 2021-03-12 2023-06-06 Lemon Inc. Motion candidate derivation
US11936899B2 (en) * 2021-03-12 2024-03-19 Lemon Inc. Methods and systems for motion candidate derivation
US20230103505A1 (en) * 2021-10-01 2023-04-06 Tencent America LLC Secondary transforms for compound inter-intra prediction modes
US20230171405A1 (en) * 2021-11-30 2023-06-01 Tencent America LLC Scene transition detection based encoding methods for bcw
WO2023138627A1 (en) * 2022-01-21 2023-07-27 Mediatek Inc. Method and apparatus of cross-component linear model prediction with refined parameters in video coding system
CN114513659B (zh) * 2022-02-15 2023-04-11 北京百度网讯科技有限公司 确定图片预测模式的方法、装置、电子设备和介质
TW202349962A (zh) * 2022-04-29 2023-12-16 聯發科技股份有限公司 使用具有運動向量差的合併模式的視訊編解碼方法和裝置
US20240015319A1 (en) * 2022-07-11 2024-01-11 Tencent America LLC Partition, motion vector (mv) derivation of template-matching, and subblock mv derivation for subblock based mv predictor
WO2024061363A1 (en) * 2022-09-22 2024-03-28 Mediatek Inc. Method and apparatus for video coding
US20240137540A1 (en) * 2022-10-18 2024-04-25 Tencent America LLC Template matching refinement for affine motion
WO2024088340A1 (en) * 2022-10-26 2024-05-02 Mediatek Inc. Method and apparatus of inheriting multiple cross-component models in video coding system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101491107A (zh) * 2006-07-07 2009-07-22 艾利森电话股份有限公司 视频数据管理
CN109716772A (zh) * 2016-10-01 2019-05-03 高通股份有限公司 用于视频译码的变换选择

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1922889B (zh) * 2004-02-27 2011-07-20 汤姆逊许可公司 使用加权预测的误差隐蔽技术
US10602188B2 (en) * 2015-06-10 2020-03-24 Samsung Electronics Co., Ltd. Method and apparatus for encoding or decoding image using syntax signaling for adaptive weight prediction
CN108605138B (zh) * 2016-02-01 2022-08-09 Oppo广东移动通信有限公司 预测图像生成装置、运动图像解码装置、以及运动图像编码装置
EP3522533A4 (en) * 2016-09-30 2019-09-11 Sony Corporation IMAGE PROCESSING APPARATUS AND METHOD
US20180176582A1 (en) * 2016-12-21 2018-06-21 Qualcomm Incorporated Low-complexity sign prediction for video coding
KR20230127363A (ko) * 2018-03-27 2023-08-31 (주)휴맥스 모션 보상을 이용하는 비디오 신호 처리 방법 및 장치
US11368691B2 (en) * 2018-03-29 2022-06-21 Lg Electronics Inc. Method and device for designing low-complexity calculation DST7
CN116684594A (zh) * 2018-04-30 2023-09-01 寰发股份有限公司 照度补偿方法及相应的电子装置
US11652984B2 (en) * 2018-11-16 2023-05-16 Qualcomm Incorporated Position-dependent intra-inter prediction combination in video coding
US20200162737A1 (en) * 2018-11-16 2020-05-21 Qualcomm Incorporated Position-dependent intra-inter prediction combination in video coding
MX2021008449A (es) * 2019-01-15 2021-11-03 Rosedale Dynamics Llc Metodo y dispositivo de codificacion de imagen usando bandera de salto de transformacion.
US11206396B2 (en) * 2019-01-16 2021-12-21 Qualcomm Incorporated Local illumination compensation in video coding
US11184607B2 (en) * 2019-06-13 2021-11-23 Qualcomm Incorporated Same picture order count (POC) numbering for scalability support
WO2020263466A1 (en) * 2019-06-25 2020-12-30 Alibaba Group Holding Limited Method and system for motion refinement in video coding
US11336900B2 (en) * 2019-06-26 2022-05-17 Qualcomm Incorporated Combined inter and intra prediction mode for video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101491107A (zh) * 2006-07-07 2009-07-22 艾利森电话股份有限公司 视频数据管理
CN109716772A (zh) * 2016-10-01 2019-05-03 高通股份有限公司 用于视频译码的变换选择

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CE10-related: Simplification and improvement of combined intra-inter prediction mode;Liang Zhao等;《Joint Video Experts Team (JVET)of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0395》;20190327;全文 *
CE1-5.4: mutual exclusion of LIC and BPWA;Philippe Bordes等;《Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0283》;20190327;全文 *
CE4-related: Reduction of interactions between bi-prediction coding tools;Chun-Chia Chen等;《Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0086》;20190327;全文 *
Non-EE1: PDPC without a mode flag;Vadim Seregin等;《Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-G0107》;20170708;全文 *

Also Published As

Publication number Publication date
US20220141454A1 (en) 2022-05-05
US11949854B2 (en) 2024-04-02
US11259016B2 (en) 2022-02-22
US20200413047A1 (en) 2020-12-31
CN112235572A (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN112789850B (zh) 一种视频编解码方法、装置、设备和介质
CN112235572B (zh) 视频解码方法和装置以及计算机设备和存储介质
CN113287307B (zh) 视频解码的方法和装置、计算机设备及介质
CN111869212B (zh) 视频解码方法、装置和可读介质
CN110719488B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN112399183B (zh) 用于视频编解码的方法、装置和存储介质
CN112703730B (zh) 视频编解码的方法、设备和存储介质
CN112470474A (zh) 基于历史的仿射合并和运动矢量预测
CN112042200B (zh) 视频解码的方法和装置
CN112889269A (zh) 视频编解码方法及装置
CN113261298A (zh) 用于视频编码的方法和装置
CN110708541B (zh) 视频解码方法、视频解码器、设备和存储介质
CN110719469A (zh) 视频编解码方法、设备和存储介质
CN114710675A (zh) 视频解码的方法、装置及可读介质
CN110944202A (zh) 视频编解码方法、装置、计算机设备和存储介质
CN112235581B (zh) 视频解码方法、装置、存储介质及电子设备
CN113557728A (zh) 视频编解码方法和装置
CN112106371A (zh) 用于视频编码的方法和装置
CN113557724A (zh) 视频编解码的方法和装置
CN112640464A (zh) 采用空间和时间合并的运动矢量预测方法和装置
CN110730353A (zh) 视频解码方法和装置、计算机设备、存储介质
CN112135134B (zh) 视频解码方法、装置、计算机设备和存储介质
CN113519159A (zh) 视频编解码的方法和装置
CN110708557A (zh) 解码器中的视频解码方法和设备、计算机设备
CN111316639A (zh) 用于子块运动矢量预测的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant