CN113545083A - 视频编解码的方法和装置 - Google Patents

视频编解码的方法和装置 Download PDF

Info

Publication number
CN113545083A
CN113545083A CN202080019555.4A CN202080019555A CN113545083A CN 113545083 A CN113545083 A CN 113545083A CN 202080019555 A CN202080019555 A CN 202080019555A CN 113545083 A CN113545083 A CN 113545083A
Authority
CN
China
Prior art keywords
block
prediction
affine
motion vector
prof
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080019555.4A
Other languages
English (en)
Other versions
CN113545083B (zh
Inventor
李贵春
李翔
许晓中
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Priority to CN202311306386.4A priority Critical patent/CN117221537A/zh
Publication of CN113545083A publication Critical patent/CN113545083A/zh
Application granted granted Critical
Publication of CN113545083B publication Critical patent/CN113545083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种视频解码的装置包括处理电路。所述电路可以被配置为确定是否对仿射编码块应用使用光流的预测修正(PROF);以及当确定对所述仿射编码块应用所述PROF时,执行PROF过程。例如,在所述PROF过程中,可以在所述仿射编码块中的样本位置(i,j)处生成预测样本I(i,j)。可以在所述仿射编码块中的所述样本位置(i,j)处生成空间梯度g_x(i,j)和g_y(i,j)。可以基于所述空间梯度g_x(i,j)和g_y(i,j)生成预测修正ΔI(i,j)。可以将所述预测修正ΔI(i,j)添加到所述预测样本I(i,j),以生成修正的预测样本。可以根据解码器接收的语法元素为仿射预测启用PROF,也可以默认启用PROF。

Description

视频编解码的方法和装置
通过引用并入本文
本申请要求于2020年3月18日提交的、申请号为16/822,075、名称为“视频编解码的方法和装置”的美国专利申请的优先权,其要求于2019年3月18日提交的、申请号为62/820,196、名称为“仿射帧间预测修正方法”的美国临时申请、于2019年4月2日提交的、申请号为62/828,425、名称为“LIC信令和仿射修正”的美国临时申请、以及于2019年4月25日提交的、申请号为62/838,798、名称为“帧间预测修正方法”的美国临时申请的优先权。在先申请的公开内容通过引用整体并入本文。
技术领域
本公开描述总体上涉及视频编解码的实施例。
背景技术
本文所提供的背景描述旨在总体上呈现本公开的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本公开提交时作为现有技术,且从未明示或暗示其被承认为本公开的现有技术。
可以使用具有运动补偿的图片间预测来执行视频编码和解码。未压缩的数字视频可以包括一系列图片,每个图片具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列图片可以具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60张图片或60Hz。未压缩的视频具有很高的比特率要求。例如,每个样本8比特的1080p60 4:2:0视频(60Hz帧率下1920x1080亮度样本分辨率)要求接近1.5Gbit/s带宽。一小时这样的视频就需要超过600GB的存储空间。
视频编码和解码的一个目的是通过压缩减少输入视频信号的冗余。压缩可以帮助降低对上述带宽或存储空间的要求,在某些情况下可降低两个或更多数量级。无损压缩和有损压缩、以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
运动补偿可以是一种有损压缩技术,且可涉及如下技术:来自先前重建的图片或重建图片一部分(参考图片)的样本数据块在空间上按运动矢量(下文称为MV)指示的方向移位后,用于新重建的图片或图片部分的预测。在某些情况下,参考图片可与当前正在重建的图片相同。MV可具有两个维度X和Y,或者三个维度,其中第三个维度表示正在使用的参考图片(后者间接地可以是时间维度)。
在一些视频压缩技术中,应用于样本数据的某个区域的MV可根据其它MV来预测,例如根据与正在重建的区域空间相邻的样本数据的另一个区域相关的、且按解码顺序在该MV前面的那些MV。这样做可以大大减少编解码MV所需的数据量,从而消除冗余并增加压缩量。MV预测可以有效地进行,例如,因为在对从相机导出的输入视频信号(称为自然视频)进行编解码时,存在一种统计上的可能性,即面积大于单个MV适用区域的区域,会朝着类似的方向移动,因此,在某些情况下,可以使用从相邻区域的MV导出的相似运动矢量进行预测。这导致针对给定区域发现的MV与根据周围MV预测的MV相似或相同,并且在熵编解码之后,又可以用比直接编解码MV时使用的比特数更少的比特数来表示。在某些情况下,MV预测可以是对从原始信号(即样本流)导出的信号(即MV)进行无损压缩的示例。在其它情况下,例如由于根据几个周围MV计算预测值时产生的取整误差,MV预测本身可能是有损的。
H.265/HEVC(ITU-T H.265建议书,“高效视频编解码”,2016年12月)描述了各种MV预测机制。在H.265提供的多种MV预测机制中,本公开描述的是下文称为“空间合并”的技术。
参照图1,当前块(101)包括编码器在运动搜索过程中发现的样本,所述样本可以根据已在空间上移位的相同大小的先前块进行预测。不直接对MV进行编解码,而是使用与五个周围样本中的任何一个相关联的MV,从与一个或多个参考图片相关联的元数据中导出该MV,例如,从最近的(按解码顺序)参考图片中导出该MV。其中,五个周围样本分别用A0、A1和B0、B1、B2(分别为102到106)表示。在H.265中,MV预测可使用相邻块正在使用的同一参考图片的预测值。
发明内容
本公开的各方面提供了视频编码/解码的方法和装置。在一些示例中,一种视频解码的装置包括处理电路。所述电路可以被配置为确定是否对仿射编码块应用使用光流的预测修正(PROF);以及当确定对所述仿射编码块应用所述PROF时,执行PROF过程。
例如,在所述PROF过程中,可以在所述仿射编码块中的样本位置(i,j)处生成预测样本I(i,j)。可以在所述仿射编码块中的所述样本位置(i,j)处生成空间梯度g_x(i,j)和g_y(i,j)。可以基于所述空间梯度g_x(i,j)和g_y(i,j)生成预测修正ΔI(i,j)。可以将所述预测修正ΔI(i,j)添加到所述预测样本I(i,j),以生成修正的预测样本。
在示例中,在解码器处接收语法元素,所述语法元素指示是否为仿射预测启用所述PROF。在示例中,默认为仿射预测启用所述PROF。
在示例中,所述语法元素在序列级别、切片级别、图块级别、图块组级别或图片级别发信号通知。在示例中,基于所述仿射编码块的仿射模型的仿射参数的值,确定是否对所述仿射编码块应用所述PROF。在示例中,基于包括所述预测样本I(i,j)的第一子块的一个或多个第一预测样本和与所述第一子块相邻的第二子块的一个或多个第二预测样本,在所述样本位置(i,j)处生成所述空间梯度g_x(i,j)和g_y(i,j)。所述第一子块和所述第二子块是从所述仿射编码块划分出的。在示例中,对所述仿射编码块的子块执行帧间预测;以及基于所述整个仿射编码块的预测样本在样本位置处生成空间梯度。
在示例中,使用在所述仿射编码块的参考图片中的参考样本上生成的梯度滤波器,在所述样本位置(i,j)处生成所述空间梯度g_x(i,j)和g_y(i,j)。例如,所述生成的梯度滤波器可以通过第一梯度滤波器与插值滤波器的卷积生成。对所述仿射编码块的参考图片中的参考样本应用所述插值滤波器,生成所述仿射编码块的预测样本,随后对所述仿射编码块的所述生成的预测样本应用所述第一梯度滤波器,生成所述空间梯度g_x(i,j)和g_y(i,j)。
在示例中,基于所述接收的指示是否为仿射预测启用所述PROF的语法元素和指示是否启用局部亮度补偿(LIC)的信令,确定是否对所述仿射编码块应用所述PROF。在示例中,所述仿射编码块以仿射合并模式进行编码,所述仿射编码块的LIC标志值从所述仿射编码块的相邻块继承,所述相邻块用作所述仿射编码块的仿射模型继承或仿射模型构建的源。
在一些示例中,另一种视频解码的装置可以包括处理电路,被配置为确定当前块的中间运动矢量MVblock,所述中间运动矢量MVblock与所述当前块的插值滤波器支持的低精度相比具有高精度;对所述中间运动矢量MVblock进行舍入,以生成所述当前块的舍入运动矢量MVround,所述舍入运动矢量MVround具有所述当前块的插值滤波器支持的低精度;基于所述舍入运动矢量MVround和所述插值滤波器,生成所述当前块的预测块。可以根据下式确定预测修正偏移ΔI(i,j):
ΔI(i,j)=g_x(i,j)*Δv_x+g_y(i,j)*Δv_y,
其中,g_x(i,j)和g_y(i,j)分别是所述预测块的预测样本在位置(i,j)处沿x方向和y方向的梯度,Δv_x andΔv_y分别是所述中间运动矢量MVblock与所述舍入运动矢量MVround之间沿x方向和y方向的运动矢量差。将所述预测修正偏移ΔI(i,j)添加到所述预测块的预测样本,以生成修正的预测样本。
在示例中,所述当前块是使用时间运动矢量预测模式(TMVP)、基于子块的TMVP模式(SbTMVP)、具有运动矢量差的合并(MMVD)、仿射高级运动矢量预测(AMVP)或空间运动矢量预测模式编码的块或子块,其中所述中间运动矢量MVblock在运动矢量缩放操作中生成,或所述当前块使用具有所述高精度的运动矢量预测值进行编码。
在示例中,可以在序列参数集(SPS)、图片参数集(PPS)、切片头、图块组头中接收指示所述高精度的语法元素。在示例中,可以将具有高精度的所述中间运动矢量MVblock存储在存储器中。可以使用用于空间运动矢量预测的所述中间运动矢量MVblock,对包括所述当前块的当前图片中的另一块进行编码。
本公开的方面还提供了一种非易失性计算机可读介质,用于存储指令,当所述指令由用于视频解码的计算机执行时,使所述计算机执行所述视频解码的方法。
附图说明
根据以下详细描述和附图,所公开的主题的其他特征、性质和各种优点将进一步明确,其中:
图1是一个示例中的当前块及其周围的空间合并候选的示意图。
图2是根据实施例的通信***的简化框图的示意图。
图3是根据实施例的通信***的简化框图的示意图。
图4是根据实施例的解码器的简化框图的示意图。
图5是根据实施例的编码器的简化框图的示意图。
图6示出了根据另一实施例的编码器的框图。
图7示出了根据另一实施例的解码器的框图。
图8示出了根据实施例的候选位置,从该候选位置可以选择一组空间合并候选以构建扩展合并候选列表。
图9示出了根据实施例的用于冗余校验过程的扩展合并列表上的候选对。
图10示出了根据实施例的导出当前图片中的扩展合并列表上的时间合并候选的示例。
图11示出了根据实施例的候选位置,从该候选位置可以选择扩展合并列表上的时间合并候选。
图12示出了根据实施例的预测位置,在具有运动矢量差(MMVD)的合并模式中可以从该预测位置选择预测。
图13A示出了用于表示2参数仿射模型的两个控制点运动矢量(CPMV)。
图13B示出了用于表示3参数仿射模型的三个CPMV。
图14示出了为子块导出的运动矢量,所述子块是从以仿射预测模式编码的当前块划分的。
图15示出了用于导出继承的仿射合并候选的当前块的相邻块。
图16示出了用于导出构造的仿射合并候选的候选块位置。
图17A是根据一个实施例的空间相邻块的示意图,所述空间相邻块可用于基于空间相邻块的运动信息、使用基于子块的时间运动矢量预测(SbTMVP)方法来确定当前块的预测运动信息。
图17B是根据一个实施例的用于SbTMVP方法的所选空间相邻块的示意图。
图18是根据实施例的使用光流的预测修正(PROF)方法的示例的示意图。
图19示出了用于导出局部亮度补偿(LIC)参数的当前块1900的相邻样本1901和相应参考块1910的相邻样本的示例。
图20示出了局部亮度补偿(LIC)与双向预测一起使用时的示例。
图21示出了LIC与多假设帧内帧间一起使用时的示例。
图22示出了用于获取参考样本的第一方法的示例。
图23示出了用于获取参考样本的第二方法的示例。
图24示出了在子块的基础上获取参考样本的第三方法的示例。
图25示出了与双向光流(BDOF)中使用的CU(2510)相对应的扩展编码单元(CU)区域的示例。
图26示出了Sobel、Scharr、Prewitt和Roberts滤波器的内核的示例。
图27示出了根据本公开的实施例的概述过程(2700)的流程图。
图28示出了根据本公开的实施例的概述过程(2800)的另一个流程图。
图29是根据实施例的计算机***的示意图。
具体实施方式
I.用于视频编解码的编码器和解码器
图2示出了根据本公开实施例的通信***(200)的简化框图。通信***(200)包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信***(200)包括通过网络(250)互连的第一对终端装置(210)和(220)。在图2的实施例中,第一对终端装置(210)和(220)执行单向数据传输。举例来说,终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到另一终端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信***(200)包括执行已编码视频数据的双向传输的第二对终端装置(230)和(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,在一个示例中,终端装置(230)和(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码,以通过网络(250)传输到终端装置(230)和(240)中的另一终端装置。终端装置(230)和(240)中的每个终端装置还可接收由终端装置(230)和(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,终端装置(210)、(220)、(230)和(240)可为服务器、个人计算机和智能电话,但本公开的原理可不限于此。本公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210)、(220)、(230)和(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本公开的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本公开的操作来说可能是无关紧要的。
作为所公开的主题的实施例,图3示出了视频编码器和视频解码器在流式传输环境中的放置方式。所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输***可包括采集子***(313),所述采集子***可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子***,例如图3中的客户端子***(306)和客户端子***(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子***(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输***中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-TH.265。在实施例中,正在开发的视频编解码标准非正式地称为通用视频编解码(Versatile Video Coding,VVC),所公开的主题可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4示出了根据本公开实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作***或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的周围已重建的信息生成大小和形状与正在重建的块相同的块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5示出了根据本公开实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务***中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议***中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一***设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在公开的主题中所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,所公开的主题侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据诸如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、补充增强信息(SEI)消息、视觉可用性信息(VUI)参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(coding treeunit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(predictionblock,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6示出了根据本公开另一实施例的视频编码器(603)的示意图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从空间域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7示出了根据本公开另一实施例的视频解码器(710)的示意图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
II.帧间预测技术
在各种实施例中,对于帧间预测的CU,包括运动矢量、参考图片索引、参考图片列表使用索引以及可能的其它附加信息的运动参数可以用于帧间预测样本的生成。可以以显式方式或隐式方式发信号通知运动参数。当使用跳过模式对CU进行编码时,CU与一个PU相关联,并且没有明显的残差系数、已编码的运动矢量增量、或者与该CU相关联的参考图片索引。
当采用合并模式时,可以从相邻CU获得当前CU的运动参数,包括空间和时间合并候选以及可选地其它合并候选。合并模式可以应用于帧间预测的CU,并且可以用于跳过模式。合并模式的替代方案是运动参数的显式传输。例如,运动矢量、每个参考图片列表的各个参考图片索引、参考图片列表使用标志以及其它所需信息可以通过每个CU显式地用信号通知。
在一些实施例中,使用以下帧间预测编解码工具:
-扩展的合并预测
-具有运动矢量差的合并模式(MMVD)
-具有对称运动矢量差(MVD)信令的高级运动矢量预测(AMVP)模式
-仿射运动补偿预测
-基于子块的时间运动矢量预测(SbTMVP)
-自适应运动矢量分辨率(AMVR)
-具有加权平均的双向预测(BWA)
-双向光流(BDOF)
-解码器侧运动矢量修正(DMVR)
-三角形分区预测
-组合的帧间和帧内预测(CIIP)
1.扩展的合并预测
在一些实施例中,合并候选列表通过依次包括以下五种类型的候选来构建:
1)来自空间相邻CU的空间运动矢量预测值(SMVP);
2)来自同位CU的时间运动矢量预测值(TMVP);
3)来自先进先出(FIFO)表的基于历史的运动矢量预测值(HMVP);
4)成对平均运动矢量预测值(MVP);以及
5)零MV。
在一些实施例中,合并列表的大小在切片头中用信号通知,并且合并列表的最大允许大小为6。对于每个以合并模式编码的CU,使用截断一元(TU)二值化(truncated unarybinarization)对最佳合并候选的索引进行编码。合并索引的第一个二进制数(bin)使用上下文进行编码,而其它bin使用旁路编码(bypass coding)进行编码。
下面描述每一类合并候选的生成过程的示例。
1.1空间候选推导
在导出空间合并候选的过程中,从位于图8中的当前块(810)附近的位置A1、B1、B0、A0和B2处的候选中选择最多四个合并候选。推导顺序为A1、B1、B0、A0和B2。当位置A1、B1、B0、A0的任何CU不可用(例如,因为它属于另一个切片或图块)或者被帧内编码时,考虑位置B2。在添加位置A1处的候选之后,其余候选的添加要进行冗余校验,这确保了将具有相同运动信息的候选从列表中排除。因此,提高了编解码效率。为了降低计算复杂度,在提到的冗余校验中并未考虑所有可能的候选对。取而代之的是,考虑了图9中用箭头链接的对。当用于冗余校验的相应候选不具有相同的运动信息时,将该候选添加到列表中。
1.2时间候选推导
在实施例中,将一个时间候选添加到列表。具体地,在为当前图片(1001)中的当前块(1011)导出该时间合并候选的过程中,基于属于同位参考图片(1002)的同位CU(1012)导出缩放的运动矢量(1031),如图10所示。用于导出同位CU的参考图片列表在切片头中显式地用信号通知。使用图片顺序计数(POC)距离Tb和Td,从同位CU(1012)的运动矢量(1032)对用于时间合并候选的缩放的运动矢量(1031)进行缩放。将Tb定义为当前图片(1001)的当前参考图片(1003)和当前图片(1001)之间的POC差。将Td定义为同位图片(1002)的同位参考图片(1004)和同位图片(1002)之间的POC差。将时间合并候选的参考图片索引设置为等于零。
在图11所示的候选C0和C1之间选择时间候选的位置。如果位置C0处的CU不可用、被帧内编码或在CTU的当前行之外,则使用位置C1。否则,在时间合并候选的推导中使用位置C0。
1.3成对平均合并候选推导
在一些实施例中,成对平均候选通过对现有合并候选列表中的预定义候选对进行平均来生成。例如,预定义对被定义为{(0,1),(0,2),(1,2),(0,3),(1,3),(2,3)},其中数字表示合并候选列表的合并索引。为每个参考列表分别计算平均运动矢量。如果在一个列表中两个运动矢量都可用,则即使这两个运动矢量指向不同的参考图片,也对它们进行平均。如果只有一个运动矢量可用,则直接使用该运动矢量。如果没有运动矢量可用,则使该列表无效。
在实施例中,当在添加成对平均合并候选之后合并列表未满时,则在合并列表的末尾***零MVP,直到达到最大合并候选数量。
2.具有运动矢量差(MMVD)的合并模式
除了合并模式(其中隐式导出的运动信息直接用于当前CU的预测样本生成)之外,在一些实施例中使用MMVD。在发送跳过标志和合并标志之后立即发信号通知MMVD标志,以指定是否将MMVD模式用于CU。
在MMVD模式中,在选择合并候选之后,通过发信号通知的运动矢量差(MVD)信息进一步对该合并候选进行修正,以获得修正的运动信息。MVD信息包括合并候选标志、用于指定运动幅度的距离索引和用于指示运动方向的索引。
选择合并列表中的前两个候选中的一个作为MV基础(一个或多个起始MV)。发信号通知合并候选标志以指定使用哪一个候选。如图12所示,MV基础分别确定参考图片列表L0或L1中的参考图片(1202)或(1203)处的起始点(1211)或(1221)。
距离索引指定运动幅度信息,并且指示距起始点(1211)或(1221)的预定义偏移。如图12所示,该偏移被添加到指向位置(1211)或(1221)的起始MV(MV基础)的水平分量或垂直分量。表1规定了距离索引和预定义偏移的映射关系。
表1
Figure BDA0003251518960000151
方向索引表示MVD相对于起始点(1211)或(1221)的方向。方向索引可以表示如表2所示的四个方向中的一个。
表2
方向IDX 00 01 10 11
x轴 + 不适用(N/A) 不适用(N/A)
y轴 不适用(N/A) 不适用(N/A) +
应注意,MVD符号的含义可以根据起始MV的信息而变化。当一个或多个起始MV为都指向当前图片的同一侧的单向预测MV或双向预测MV时(即,两个参考图片的POC均大于当前图片的POC,或者均小于当前图片的POC),表2中的符号指定添加到起始MV的MV偏移的符号。当起始MV是双向预测MV且该两个MV指向当前图片的不同侧(即,一个参考图片的POC大于当前图片的POC,而另一个参考图片的POC小于当前图片的POC)时,表2中的符号指定添加到起始MV的L0 MV分量的MV偏移的符号,而L1 MV的符号具有相反的值。
基于基础MV、偏移和MVD符号,可以为当前CU确定最终的一个或多个MV。
3.仿射运动补偿预测
在一些示例中,将平移运动模型应用于运动补偿预测(MCP)。然而,平移运动模型可能不适用于建模其它类型的运动,例如,放大/缩小、旋转、透视运动和其它不规则运动)。在一些实施例中,应用基于块的仿射变换运动补偿预测。在图13A中,当使用4参数仿射模型时,块的仿射运动场通过两个控制点(CP)CP0和CP1的两个控制点运动矢量(CPMV)CPMV0和CPMV1来描述。在图13B中,当使用6参数仿射模型时,块的仿射运动场通过三个控制点(CP)CP0、CP1和CP2的三个控制点运动矢量(CPMV)CPMV0、CPMV1和CPMV3来描述。
对于4参数仿射运动模型,在块中的样本位置(x,y)处的运动矢量导出如下:
Figure BDA0003251518960000152
对于6参数仿射运动模型,在块中的样本位置(x,y)处的运动矢量导出如下:
Figure BDA0003251518960000153
在表达式(2.1)和(2.2)中,(mv0x,mv0y)是左上角控制点的运动矢量,(mv1x,mv1y)是右上角控制点的运动矢量,(mv2x,mv2y)是左下角控制点的运动矢量。另外,坐标(x,y)是关于各个块的左上角的,W和H表示各个块的宽度和高度。
为了简化运动补偿预测,在一些实施例中应用基于子块的仿射变换预测。例如,在图14中,使用4参数仿射运动模型,并且确定两个CPMV,
Figure BDA0003251518960000154
Figure BDA0003251518960000155
为了导出从当前块(1410)划分的每个4×4(样本)亮度子块(1402)的运动矢量,根据上述表达式(2.1)计算每个子块(1402)的中心样本的运动矢量(1401),并将其四舍五入到1/16分数精度。然后,应用运动补偿插值滤波器,以利用导出的运动矢量(1401)生成每个子块(1402)的预测。色度分量的子块大小设置为4×4。将4×4色度子块的MV计算为四个对应的4×4亮度子块的MV的平均值。
与平移运动帧间预测类似,在一些实施例中采用两种仿射运动帧间预测模式:仿射合并模式和仿射AMVP模式。
3.1仿射合并预测
在一些实施例中,可以将仿射合并模式应用于宽度和高度都大于或等于8的CU。基于空间相邻CU的运动信息生成当前CU的仿射合并候选。最多可以有五个仿射合并候选,并且发信号通知索引,以指示要用于当前CU的一个仿射合并候选。例如,使用以下三种类型的仿射合并候选来形成仿射合并候选列表:
(i)从相邻CU的CPMV推断出的继承的仿射合并候选;
(ii)使用相邻CU的平移MV导出的构造的仿射合并候选;以及
(iii)零MV
在一些实施例中,最多可以有两个继承的仿射候选,这两个继承的仿射候选是从相邻块的仿射运动模型导出的,其中一个是从左相邻CU导出的,另一个是从上相邻CU导出的。候选块,例如可以位于图8所示的位置。对于左预测值(predictor),扫描顺序是A0->A1,并且对于上预测值,扫描顺序是B0->B1->B2。从每一侧仅选择第一个继承的候选。在两个继承的候选之间不执行修剪检查。
当识别出相邻仿射CU时,该识别出的相邻仿射CU的CPMV被用于导出当前CU的仿射合并列表中的CPMVP候选。如图15所示,以仿射模式对当前CU(1510)的相邻左下块A进行编码,获得包含块A的CU(1520)的左上角、右上角和左下角的运动矢量
Figure BDA0003251518960000161
Figure BDA0003251518960000162
当使用4参数仿射模型对块A进行编码时,根据
Figure BDA0003251518960000165
Figure BDA0003251518960000164
计算当前CU(1510)的两个CPMV,
Figure BDA0003251518960000169
Figure BDA0003251518960000168
在使用6参数仿射模型对块A进行编码的情况下,根据
Figure BDA0003251518960000166
Figure BDA0003251518960000167
计算当前CU的三个CPMV(未示出)。
构造的仿射候选通过组合每个控制点的相邻平移运动信息来构造。控制点的运动信息从图16所示的指定的空间相邻块和时间相邻块导出。CPMVk(k=1,2,3,4)表示第k个控制点。对于CPMV1,依次检查B2->B3->A2块,并且使用第一个可用块的MV。对于CPMV2,检查B1->B0块,对于CPMV3,检查A1->A0块。如果块T处的TMVP可用,则可以将其用作CPMV4。
在获得四个控制点的MV之后,基于该运动信息构造仿射合并候选。使用控制点MV的以下组合顺序地构造:{CPMV1,CPMV2,CPMV3}、{CPMV1,CPMV2,CPMV4}、{CPMV1,CPMV3,CPMV4}、{CPMV2,CPMV3,CPMV4}、{CPMV1,CPMV2}、{CPMV1,CPMV3}。
3个CPMV的组合构造6参数仿射合并候选,2个CPMV的组合构造4参数仿射合并候选。为了避免运动缩放过程,如果控制点的参考索引不同,则丢弃控制点MV的相关组合。
在检查继承的仿射合并候选和构造的仿射合并候选之后,如果列表仍然未满,则将零MV***到合并候选列表的末尾。
3.2仿射AMVP预测
在一些实施例中,仿射AMVP模式可以用于宽度和高度都大于或等于16的CU。在比特流中发信号通知CU级别的仿射标志,以指示是否使用仿射AMVP模式,然后发信号通知另一标志,以指示使用4参数仿射还是6参数仿射。在比特流中发信号通知当前CU的CPMV与其预测值的CPMVP的差。仿射AMVP候选列表的大小为2,并且可以通过依次使用以下四种类型的CPMV候选来生成:
(i)从相邻CU的CPMV推断出的继承的仿射AMVP候选;
(ii)使用相邻CU的平移MV导出的构造的仿射AMVP候选;
(iii)来自相邻CU的平移MV;以及
(iv)零MV。
在示例中,继承的仿射AMVP候选的检查顺序与继承的仿射合并候选的检查顺序类似。根据实施例,区别是,对于AMVP候选,考虑具有与当前块中的参考图片相同的参考图片的仿射CU。当将继承的仿射运动预测值***到候选列表中时,不应用修剪过程。
构造的AMVP候选从图16所示的指定的空间相邻块导出。使用与仿射合并候选构造中相同的检查顺序。此外,还检查相邻块的参考图片索引。使用检查顺序中的第一个块,该第一个块是帧间编码的,并且具有与当前CU中相同的参考图片。当使用4参数仿射模型对当前CU进行编码并且CPMV0和CPMV1均可用时,将这些可用的CPMV作为一个候选添加到仿射AMVP候选列表中。当使用6参数仿射模型对当前CU进行编码并且所有三个CPMV(CPMV0、CPMV1和CPMV2)均可用时,将这些可用的CPMV作为一个候选添加到仿射AMVP候选列表中。否则,将构造的AMVP候选设置为不可用。
如果在检查继承的仿射AMVP候选和构造的仿射AMVP候选之后,仿射AMVP候选列表仍然小于2,则将添加与控制点相邻的平移运动矢量(在其可用时),以预测当前CU的所有控制点MV。最后,如果仿射AMVP候选列表仍然未满,则使用零MV来填充该仿射AMVP候选列表。
4.基于子块的时间运动矢量预测(SbTMVP)
图17A是根据一个实施例的空间相邻块的示意图,该空间相邻块可用于使用基于子块的时间MV预测(SbTMVP)方法来确定当前块(1711)的预测运动信息。图17A示出了当前块(1711)及其表示为A0、A1、B0和B1的空间相邻块(分别为1712、1713、1714和1715)。在一些示例中,空间相邻块A0、A1、B0和B1与当前块(1711)属于同一图片。
图17B是根据实施例的使用SbTMVP方法基于选定的空间相邻块(例如该非限制性示例中的块A1)确定当前块(1711)的子块的运动信息的示意图。在该示例中,当前块(1711)位于当前图片(1710)中,参考块(1761)位于参考图片(1760)中,并且可以基于由运动矢量(1722)指示的、当前块(1711)与参考块(1761)之间的运动移位(或位移)来识别。
在一些实施例中,类似于HEVC中的时间运动矢量预测(TMVP),SbTMVP将参考图片中的各种参考子块中的运动信息用于当前图片中的当前块。在一些实施例中,TMVP使用的相同参考图片可以用于SbTMVP。在一些实施例中,TMVP预测CU级别的运动信息,而SbTMVP预测子CU级别的运动信息。在一些实施例中,TMVP使用来自参考图片中的同位块的时间运动矢量,其具有与当前块的右下角或中心相邻的对应位置,并且SbTMVP使用来自参考块的时间运动矢量,其可以通过基于当前块的空间相邻块中的一个的运动矢量执行运动移位来识别。
例如,如图17A所示,可以在SbTMVP过程中顺序地检查相邻块A1、B1、B0和A0。一旦识别出第一空间相邻块(其运动矢量使用参考图片(1760)作为参考图片),例如块A1,其具有指向例如参考图片(1760)中的参考块AR1的运动矢量(1722),该运动矢量(1722)可以用于执行运动移位。如果空间相邻块A1、B1、B0和A0没有这样的运动矢量可用,则将运动移位设置为(0,0)。
在确定了运动移位之后,可以基于当前块(1711)的位置和所确定的运动移位来识别参考块(1761)。在图17B中,参考块(1761)可以进一步划分为具有参考运动信息MRa至MRp的16个子块。在一些示例中,参考块(1761)中的每个子块的参考运动信息可以基于覆盖该子块的中心样本的最小运动网格来确定。运动信息可以包括运动矢量和相应的参考索引。当前块(1711)可以进一步划分为16个子块,并且在一些示例中,当前块(1711)中的子块的运动信息MVa至MVp可以以类似于TMVP过程的方式通过时间缩放从参考运动信息MRa至MRp中导出。
SbTMVP过程中使用的子块大小可以是固定的(或以其它方式预定的)或者发信号通知。在一些示例中,SbTMVP过程中使用的子块大小可以是8×8个样本。在一些示例中,SbTMVP过程仅适用于宽度和高度等于或大于固定大小或发信号通知的大小(例如8个像素)的块。
在示例中,包含SbTVMP候选和仿射合并候选的组合的基于子块的合并列表用于基于子块的合并模式的信令。可以通过序列参数集(SPS)标志启用或禁用SbTVMP模式。在一些示例中,如果启用SbTMVP模式,则将SbTMVP候选添加为基于子块的合并候选的列表的第一个条目,并且其后是仿射合并候选。在一些实施例中,将基于子块的合并列表的最大允许大小设置为5。然而,在其它实施例中可以使用其它大小。
在一些实施例中,附加SbTMVP合并候选的编码逻辑与其它合并候选的编码逻辑相同。即,对于P切片或B切片中的每个块,可以执行附加的速率失真检查,以确定是否使用SbTMVP候选。
5.使用光流的预测修正(PROF)
仿射运动模型参数可用于导出CU中的每个像素的运动矢量。然而,由于执行基于像素的仿射预测的高复杂度和存储器存取带宽要求,在一些实施例中,实现了基于子块的仿射运动补偿方法。在一些实施例中,可以将当前块(例如,CU)划分为多个子块,每个子块具有4×4的大小,并且分配有从当前块的CPMV导出的子块MV。基于子块的仿射运动补偿是在提高编解码效率、复杂度和存储器存取带宽之间的一种折衷,交换条件是降低了预测精度。
在一些实施例中,可以实施使用光流的预测修正(PROF)方法,以改进基于子块的仿射运动补偿,以具有更精细的运动补偿粒度。根据PROF方法,在执行基于子块的仿射运动补偿之后,可以通过添加基于光流方程导出的一组调整值来修正预测样本(例如,亮度或色度)。
图18是根据实施例的PROF方法的示例的示意图。在图18所示的示例中,当前块(1810)被划分为四个子块(1812、1814、1816和1818)。子块(1812、1814、1816和1818)中的每一个具有4×4像素的大小。在子块(1812)的中心位置处的子块(1812)的子块MV(1820)可以根据当前块1810的CPMV(表示仿射模型)导出,并指向参考子块(1832)。可以根据参考子块(1832)来确定初始子块预测样本。
可以计算要应用于初始子块预测样本的修正值,如同每个预测样本位于由像素MV(例如,像素MV(1840))指示的位置(例如,样本(1812a)的位置(1832a))。例如,可以根据由CPMV表示的仿射模型来计算像素MV(1840)。可以相应地确定像素MV(1840)与子块MV(1820)之间的差(称为调整矢量)ΔV(1842)。随后,使用光流方法,可以基于调整矢量ΔV(1842)来确定对应于像素(1812a)的修正值。
在示例中,PROF方法可以从执行基于子块的仿射运动补偿开始,以生成初始子块预测(也可以称为初始预测子块)(例如,块(1832)),其包括由I(i,j)表示的样本,其中i和j是对应于当前子块中的位置(i,j)处的特定样本的坐标。接下来,可以使用例如3抽头滤波器[-1,0,1]根据下式来计算每个样本位置(i,j)处的初始子块预测的空间梯度gx(i,j)和gy(i,j),
gx(i,j)=I(i+1,j)-I(i-1,j) (等式3)
gy(i,j)=I(i,j+1)-i(i,j-1) (等式4)
子块预测可以在每一侧扩展一个像素用于梯度计算。在一些实施例中,为了降低存储器带宽和复杂度,可以从参考图片(例如,包括块(1832)的参考图片)中最近的整数像素位置复制扩展边界上的像素。因此,避免了对填充区域的额外插值。
之后,可以通过以下光流方程计算预测修正:
ΔI(i,j)gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j), (等式5)
其中,Δv(i,j)(例如,ΔV(1842))是由v(i,j)表示的样本位置(i,j)的像素MV(例如,像素MC(1840))与像素位置(i,j)所属的子块的子块MV(例如,子块MV 1820)之间的差。由于仿射模型参数和相对于子块中心的像素位置在子块与子块之间没有变化,因此可以为第一个子块计算Δv(i,j),并将其重复用于同一CU中的其它子块。在一些示例中,设x和y是Δv(i,j)相对于子块中心的水平和垂直位置,Δv(i,j)可以通过以下等式导出:
Figure BDA0003251518960000191
其中,Δvx(x,y)是Δv(i,j)的x分量,Δvy(x,y)是Δv(i,j)的y分量。
对于4参数仿射模型,
Figure BDA0003251518960000192
对于6参数仿射模型,
Figure BDA0003251518960000193
其中,(v0x,v0y)、(v1x,v1y)和(v2x,v2y)是左上、右上和左下控制点运动矢量,w和h是包括当前子块的当前块的宽度和高度。
最后,可以将预测修正ΔI(i,j)添加到初始子块预测样本I(i,j)中。可以使用以下等式生成根据PROF方法的最终修正预测样本I':
I′(i,j)=I(i,j)+ΔI(i,j). (等式9)
6.基于局部亮度补偿(LIC)的预测修正
6.1局部亮度补偿
局部亮度补偿(LIC)是在一些实施例中使用的块级别的编码模式。在一些示例中,LIC可以在编码单元(CU)级别打开和关闭。
LIC基于亮度变化的线性模型,使用缩放因子a和偏移b。可以根据下式生成基于传统帧间预测的LIC预测,
PredLIC=a·Pred+b, (等式10)
其中PredLIC表示LIC预测,Pred表示由运动矢量表示的传统帧间预测,a和b分别是缩放因子和偏移。
LIC模式的最终重建RecLIC可以导出如下,
ReCLIc=PredLIc+Res=a·Pred+b+Res, (等式11)
其中,Res是当前块的残差(在去量化和逆变换之后)。
当LIC模式应用于CU时,采用最小二乘误差法(least square errormethod),利用当前CU的相邻样本及其对应的参考样本根据下式导出参数a和b,
{a,b}=arg min{(Recx,y-Refx′,y′)} (等式12)
其中,Recx,y表示当前块的相邻重建样本,Refx′,y′是当前块的运动矢量指向的参考图片中的Recx,y的对应样本。
图19示出了用于导出LIC参数a和b的当前块(1900)的相邻样本(1901)和相应参考块(1910)的相邻样本的示例。如图所示,使用CU(1900)的二次采样(2∶1二次采样)的相邻样本(1901)和参考图片中对应的样本(1911)(由当前CU(1900)(或子CU)的运动信息识别)。在示例中,可以导出LIC参数并将其分别应用于每个预测方向。
当CU以合并模式进行编码时,可以以类似于合并模式中运动信息复制的方式,从相邻块的其中之一复制LIC标志;否则,可以为CU发信号通知LIC标志,以指示是否应用LIC。
当对图片启用LIC模式时,可以执行额外的CU级别率失真(RD)检查,以确定是否对CU应用LIC模式。在示例中,当对CU启用LIC时,对于整数像素运动搜索和分数像素运动搜索,分别使用移除均值的绝对差值和(MR-SAD,mean-removed sum of absolutedifference)以及移除均值的绝对阿达玛变换差值之和(MR-SATD,mean-removed sum ofabsolute Hadamard-transformed difference)来代替绝对差值和(sAD)和绝对阿达玛变换差值和(SATD)。
6.2单向亮度补偿
在一些实施例中采用了一种改进的LIC方法,称为单向亮度补偿。例如,在单向亮度补偿中,线性模型参数的推导可以保持不变。改进的LIC以CU为基础进行应用。改进的LIC不应用于基于子块的帧间预测(例如高级时间运动矢量预测(ATMVP)或仿射)、三角形分区、多假设帧内帧间和双向预测。
图20示出了LIC与双向预测一起使用时的示例。首先,可以分别获取在方向L0和L1的单向预测块(2001)-(2002)。然后,可以通过使用重建的相邻样本(2005)执行LIC来获得修正块(2003)-(2004)。最后,可以基于修正块(2003).(2004)执行加权平均,以生成双向预测块(2006)。
与图20相反,在改进的方法中,在一些示例中,LIC不应用于双向预测,这是因为当前块的重建相邻样本(2005)不需要在帧间流水线(pipeline)中执行帧间预测,因此其不可用于每个单向帧间预测,否则LIC需要应用于双向预测。此外,将LIC应用于双向预测引入了一个附加阶段,以在加权操作之前执行LIC过程。
图21示出了LIC与多假设帧内帧间一起使用时的示例。首先,可以生成帧间预测块(2101)和帧内预测块(2102)。可以执行LIC,以基于帧间预测块(2101)获得修正块(2103)。最后,可以通过对帧内编码块(2102)和修正块(2103)执行加权平均生成帧间-帧内混合块(2104)。
与图21相反,在一些示例中,因为LIC处理是在帧间预测之后和加权平均之前应用的,这将延迟帧内预测块和帧间预测块之间的加权,因此LIC处理不应用于多假设帧内帧间。
在合并模式中,除了MV和参考索引之外,LIC标志也可以作为运动信息的一部分被包括在内。例如,当构造合并候选列表时,LIC标志可以从合并候选的相邻块继承。在一些示例中,出于简化的目的,LIC标志不用于运动矢量修剪(pruning)。在示例中,LIC标志不存储在参考图片的运动矢量缓冲器中,因此,对于TMVP模式,可以将LIC标志设置为假(false)。在示例中,对于双向合并候选(例如成对平均候选和零运动候选),将LIC标志设置为false。在示例中,当未应用LIC工具时,不发信号通知LIC标志。
6.3应用LIC处理进行仿射预测
在一些实施例中,LIC可以扩展到仿射编码的CU。例如,线性模型参数的推导保持不变,并且可以使用几种方法来获取仿射编码的CU的参考样本。
图22示出了用于获取参考样本的第一方法的示例。当前图片(2210)中的当前CU(2201)可以是仿射编码块。在参考图片(2220)中示出了当前CU(2201)的同位CU(2202)和参考CU(2203)。仿射编码的CU(2201)的左上子块运动矢量(MV)(2231)可用于获取整个CU(2201)的参考样本。
图23示出了用于提取参考样本的第二方法的示例。当前图片(2310)中的当前CU(2301)可以是仿射编码块。在参考图片(2320)中示出了当前CU(2301)的同位CU(2302)和参考CU(2303)。仿射编码的CU(2301)的中心子块运动矢量(MV)(2331)可用于获取整个CU(2301)的参考样本。
图24示出了在子块的基础上获取参考样本的第三方法的示例。当前图片(2410)中的当前CU(2401)是仿射编码块。在参考图片(2420)中示出了当前CU(2401)的同位CU(2402)。如图所示,可以使用当前CU(2401)的左列和顶行中从MVa至MVg的子块MV来确定参考图片(2420)中从A Ref至G Ref的对应参考块。与那些参考块相邻的参考样本可用于导出线性模型参数。
7.基于双向光流(BDOF)的预测修正
在一些实施例中,采用双向光流(BDOF)工具。与JEM中采用的另一种方法(称为BIO)相比,BDOF是一种更简单的方法,需要更少的计算,特别是在乘法次数和乘数大小方面。
BDOF可用于在4×4子块级别上修正CU的双向预测信号。在示例中,当CU满足以下条件时,将BDOF应用于CU:(1)CU的高度不为4,并且CU的大小不为4×8;(2)不使用仿射模式或ATMVP合并模式对CU进行编码;(3)使用“真(true)”双向预测模式对CU进行编码,即,两个参考图片中的一个按照显示顺序在当前图片之前,而另一个按照显示顺序在当前图片之后。在示例中,BDOF仅应用于亮度分量。
BDOF模式基于光流概念,该光流概念假设对象的运动是平滑的。对于每个4×4子块,通过最小化L0和L1预测样本之间的差来计算运动修正(vx,vy)。然后,运动修正用于调整4×4子块中的双向预测样本值。在示例BDOF过程中应用以下步骤。
首先,通过直接计算两个相邻样本之间的差来计算两个预测信号的水平梯度
Figure BDA0003251518960000211
和垂直梯度
Figure BDA0003251518960000212
Figure BDA0003251518960000221
其中,I(k)(i,j)是列表k(k=0,1)中的预测信号的坐标(i,j)处的样本值,shift1是基于亮度位深度bitDepth计算的,为shift1=max(2,14-bitDepth)。
然后,梯度的自相关和互相关S1、S2、S3、S5和S6计算为:
Figure BDA0003251518960000222
其中,
Figure BDA0003251518960000223
其中,Ω是4×4子块周围的6×6窗口,na和nb的值分别被设置为min(5,bitDepth-7)和min(8,bitDepth-4)。
然后,使用互相关和自相关项通过以下等式导出运动修正(vx,vy):
Figure BDA0003251518960000224
其中,
Figure BDA0003251518960000225
th′BIO=213-BD,并且
Figure BDA0003251518960000227
是地板函数(floor function),
Figure BDA0003251518960000226
基于运动修正和梯度,为4×4子块中的每个样本计算以下调整:
Figure BDA0003251518960000231
最后,通过调整双向预测样本来如下计算CU的BDOF样本:
predBDOF(x,y)=(I(0)(x,y)+I(1)(x,y)+b(x,y)+ooffset)>>shift (等式18)
在示例中,选择这些值,以使BDOF过程中的乘数不超过15位,并且BDOF过程中的中间参数的最大位宽度(bit-width)保持在32位以内。
在一些示例中,为了导出梯度值,需要生成当前CU边界外的列表k(k=0,1)中的一些预测样本I(k)(i,j)。图25示出了与BDOF中使用的CU(2510)相对应的扩展CU区域的示例。如图所示,BDOF使用CU(2510)边界周围的一个扩展行/列。为了控制生成边界外预测样本的计算复杂度,通过直接采用附近整数位置处的参考样本(在坐标上使用floor()操作)而不进行插值,来生成扩展区域(非阴影位置)中的预测样本,并且使用普通8抽头运动补偿插值滤波器,以生成CU(2510)(阴影位置)内的预测样本。这些扩展样本值仅用于梯度计算。对于BDOF过程中的其余步骤,如果需要CU边界外的任何样本和梯度值,则根据其最近的邻居对它们进行填充(即,重复)。
III.用于仿射预测的PROF
1.PROF在仿射预测中的有条件应用
在一些实施例中,可以为仿射预测始终启用PROF,这会增加编码器或解码器的复杂度。相反,在一些其它实施例中,可以为仿射有条件地启用或禁用的PROF,以提高性能并降低编码器或解码器的复杂度。例如,可以基于仿射参数值有条件地将PROF应用于仿射编码块。
如上所述,仿射参数可以通过以下方式使用CPMV来计算。设x和y是从像素位置到当前CU中的子块中心的水平偏移和垂直偏移,可以通过以下等式导出调整MVΔv(x,y),
Figure BDA0003251518960000232
对于4参数仿射模型,
Figure BDA0003251518960000233
对于6参数仿射模型,
Figure BDA0003251518960000234
其中,(v0x,v0y),(v1x,v1y),(v2x,v2y)是当前CU的左上、右上和左下控制点运动矢量,w和h是当前CU的宽度和高度。
在一个实施例中,对于仿射编码块,当仿射参数a、b、c或d的最大绝对值(表示为max_parameter=max{|a|,|b|,|c|,|d|})高于或等于预定阈值时,不对仿射编码块应用用于仿射的PROF。否则,如果max_parameter低于阈值,则可以对仿射编码块应用PROF。
在另一实施例中,对于仿射编码块,当仿射参数a、b、c或d的最小绝对值(表示为min_parameter=min{|a|,|b|,|c|,|d|})低于或等于预定阈值时,不对仿射编码块应用用于仿射的PROF。否则,如果min_parameter高于阈值,则可以对仿射编码块应用PROF。
在另一实施例中,对于仿射编码块,当仿射参数a、b、c或d的绝对值在预定值范围内时,可以对仿射编码块应用用于仿射的PROF。否则,如果仿射参数的任何绝对值都不在预定范围内,则不对仿射编码块应用PROF。值范围可以表示为[M,N],其中M和N为正数。在一个示例中,M和N是预定义的,或者是在比特流中发信号通知的,例如,在序列参数集(SPS)、图片参数集(PPS)、图块组头、图块头、切片头等中发信号通知的。
在另一实施例中,对于仿射编码块,PROF的使用(启用或禁用)可以由例如标志(由prof_flag表示)来确定。该标志可以在块级别发信号通知。因此,当标志的值为真时,可以启用PROF。
在另一实施例中,语法元素可用于确定是否为仿射预测启用PROF。在示例中,该语法元素可以是高级语法元素。例如,该语法元素可以在序列级别、条带级别、图块级别、图块组级别、图片级别等发信号通知。
2.PROF的梯度计算
在一些实施例中,在PROF过程中,可以在子块的基础上执行梯度计算。例如,可以针对每个仿射子块(例如,针对用于仿射预测的每个4x4子块)执行帧间预测(包括帧间预测期间的插值运算)。然后,基于仿射子块的预测输出,使用3抽头滤波器[1 0-1]计算梯度。随后,还对子块进行修正。为了计算每个仿射子块的梯度,可以将仿射子块填充到更大的尺寸,例如,在每侧扩展1个像素。
2.1整个块的梯度计算
在一个实施例中,当所有仿射子块的帧间预测(插值)完成时,可以对整个编码块执行PROF中的梯度计算。这样,可以避免为梯度计算扩展每个子块。相反,整个编码块可以例如在用于梯度计算的每一侧扩展(填充)1个像素,这比扩展每个子块要简单。可以基于各个子块的梯度,对每个子块进行修正,其中各个子块的梯度是从基于整体块的计算中获得的。
对于整个块的填充,在各个实施例中可以使用以下方法:(1)通过使用相应子块的运动矢量进行插值来生成扩展边界上的像素。(2)从参考图片中最近的整数像素位置复制扩展边界上的像素。(3)从当前块的帧间预测输出的最接近的样本中复制扩展边界上的像素。
2.2从插值滤波器生成梯度滤波器
在一些实施例中,可以对用于仿射预测的插值滤波器和用于PROF梯度计算的梯度滤波器进行组合,以生成组合梯度滤波器。组合梯度滤波器可以直接用于当前编码块的参考图片中的样本,以生成相应的PROF梯度。这样,梯度计算过程可以与相应的插值过程并行执行,以加速PROF处理。
在一个实施例中,可以通过3抽头PROF梯度滤波器(例如,抽头为[1 0-1])和用于帧间预测的8抽头插值滤波器的卷积生成10抽头梯度滤波器。因此,可以使用该生成的10抽头梯度滤波器直接对参考样本执行梯度计算。
在另一实施例中,可以通过3抽头PROF梯度滤波器和用于帧间预测的8抽头插值滤波器的卷积生成10抽头梯度滤波器,然后通过从每侧移除一个系数将其截断为8抽头滤波器。因此,可以使用该生成的8抽头梯度滤波器直接对参考样本执行梯度计算。
在另一实施例中,可以通过3抽头PROF梯度滤波器和用于帧间预测的6抽头插值滤波器的卷积生成8抽头梯度滤波器。因此,可以使用该生成的8抽头梯度滤波器直接对参考样本执行梯度计算。
在另一实施例中,可以通过M抽头PROF梯度滤波器和用于帧间预测的L抽头插值滤波器的卷积生成N抽头梯度滤波器,然后将其截断为N抽头滤波器,其中N小于或等于M+L。因此,可以使用该生成的N抽头梯度滤波器直接对参考样本执行梯度计算。
IV.PROF与LIC之间的交互
1.PROF在仿射预测中基于LIC标志的有条件应用
当PROF和LIC都应用于仿射编码的CU时,与应用PROF或LIC中的一个相比,仿射编码CU的修正性能可能不会进一步提高,甚至变得更差。因此,在一些实施例中,当为仿射预测启用PROF时,可以考虑用启用还是禁用LIC来确定是否可以应用PROF。可以默认为仿射预测启用PROF,或者通过高级语法来启用PROF,例如在序列级别(例如,SPS)、图片级别(例如,PPS)、切片级别、图块级别、图块组级别、CTU级别等发信号通知。
在一个实施例中,当在给定的高级别(例如序列级别(例如,SPS)、图片级别(例如,PPS)、切片级别、图块/图块组级别等)发信号通知禁用LIC时,可以对仿射编码块启用PROF。
在另一实施例中,不管是否应用LIC,都可以对仿射编码块启用PROF。在一个示例中,在PROF之前应用LIC中的样本调整。在另一示例中,在PROF之后应用LIC中的样本调整。
在另一实施例中,当默认启用LIC工具或在高级别(例如序列级别(例如,SPS)、图片级别(例如,PPS)、切片级别、图块/图块组级别等)发信号通知启用LIC工具时,一些块具有发信号通知的LIC标志,其指示是否将LIC应用于各个块。在这样的场景中,在示例中,如果在具有仿射帧间预测的块的块级别发信号通知启用LIC,则推断对该块禁用PROF。否则,如果对仿射编码块禁用LIC,则推断对该块启用PROF。
2.仿射合并中的LIC标志继承
当以仿射合并模式对当前块进行编码时,可以以各种方式确定与当前块对应的LIC标志值。
在一个实施例中,对当前块使用继承的仿射合并。因此,当前块的LIC标志可以从用作仿射模型继承源的块的LIC标志继承。
在另一实施例中,对当前块使用构造的仿射合并。LIC标志可以从相邻块的第一个可用的源候选继承,该相邻块用于构建当前块的仿射控制点运动矢量CPMVk(k=1,2,3,4)。在示例中,当当前块使用图16的示例中所述的具有3个控制点运动矢量的构造仿射模型时,CPMV的组合是{CPMV1,CPMV2,CPMV3}。用于构建CPMV1的相邻块可用作LIC标志继承的源。在另一示例中,当当前块使用图16所述的具有2个控制点运动矢量的构造仿射模型时,CPMV的组合是{CPMV1,CPMV3}。用于构建CPMV1的相邻块可用作LIC标志继承的源。
在另一实施例中,对当前块使用构造的仿射合并。如果用于构建的仿射CPMV的至少2个源候选具有相同的LIC标志值,则该LIC标志值可以应用于当前块。否则,如果只有2个控制点用于构造的仿射合并,并且它们的LIC标志不同,则可以将LIC设置为对当前块禁用。
在另一实施例中,对于仿射合并模式,可以推断当前块的LIC标志被禁用(例如,具有值0)。
在另一实施例中,当使用继承仿射合并时,当前块的LIC标志可以从相邻块的LIC标志继承。否则,当所选择的合并候选不是继承的仿射合并候选时,可以推断当前块的LIC标志被禁用。
v.对具有高精度中间运动矢量的块进行类似PROF的修正
在TMVP模式或基于子块的TMVP(SbTMVP)模式中,可以对时间预测的MV执行缩放操作,以生成中间MV。中间MV可以具有比用于生成预测块的插值滤波器支持的精度(例如,1/16样本)更高的精度。中间MV可以被裁剪或四舍五入以生成具有所支持的精度的最终MV预测值。因此,与中间MV相比,最终MV预测值可能由于舍入操作而失去准确性。
在一些实施例中,为了提高编解码效率,将中间高精度MV用作TMVP或SbTMVP的最终MV预测值,然而,代价是更多的插值操作阶段和用于存储高精度MV的潜在的额外存储器需求。
为了解决该问题,在一些实施例中,与现有插值滤波器支持的精度相比,可以对具有高精度的中间MV(由MVblock表示)的块使用类似PROF的修正。可应用类似PROF的修正的编码模式的示例可以包括TMVP、SbTMVP、空间MV预测、MMVD、AMVP等。在那些编码模式中,可以执行缩放操作以生成MV预测值,或者将具有较高精度的候选MV用作MV预测值。那些编码模式中的高精度中间MV可以舍入到插值滤波器所支持的精度,并且随后用于运动补偿中以生成预测块。可以利用高精度中间MV和插值支持的精度MV之间的差来修正由运动补偿产生的预测块。
在示例中,类似PROFP的修正过程可以包括以下步骤:
步骤1:形成具有MVround的预测块Pred,该MVround表示一个舍入到现有插值滤波器支持的最高精度的MV。
步骤2:计算当前块的每个样本位置的类似PROF的预测修正偏移ΔI(i,j)。ΔI(i,j)的一个示例通过下式导出:
ΔI(i,j)=gx(i,j)*Δvx+gy(i,j)*Δvy (等式22)
其中,gx(i,j)和gy(i,j)分别是预测Pred在位置(i,j)处沿x方向和y方向的梯度,Δvx和Δvy是MVblock与MVround之间的MV差。
步骤3:将ΔI(i,j)添加到帧间预测Pred,在一些示例中,如有必要,将得到的像素裁剪到目标范围。
在实施例中,当当前块对于整个块(例如,具有相同MV的子块)具有相同MV时,将上述类似PROC的修正过程应用于整个块。当当前块在子块级别具有不同的运动矢量时,例如使用SbTMVP编码的块,则对每个单独的子块应用上述类似PROC的修正过程。
在实施例中,可以预定义MVblock的精度,或者在比特流中(例如在序列参数集(例如,SPS)、图片参数集(例如,PPS)、切片头、图块组头等中)发信号通知MVblock的精度。或者,当使用BDOF时,可以使用与用于BDOF的精度相同的精度。例如,可以为MVblock预定义1/32样本、1/24样本或1/64样本。
在一些实施例中,预测Pred的梯度可以使用3抽头滤波器[-1,0,1]计算如下:
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1), (等式23)
其中,I(i,j)指示位置(i,j)处的块预测Pred。
为了计算梯度,在一个实施例中,为了降低存储器带宽和复杂度,可以从参考图片中最近的整数像素位置复制扩展边界上的像素。因此,避免了用于填充区域的附加插值。在另一实施例中,扩展预测样本可以通过从对应参考样本的附加插值来生成。在一个实施例中,梯度的精度基于源视频的位深度。在另一实施例中,可以使用Sobel滤波器来计算x和y方向的梯度。在另一实施例中,可以使用Scharr滤波器来计算x和y方向的梯度。在另一实施例中,可以使用Prewitt滤波器来计算x和v方向的梯度。在另一实施例中,可以使用Roberts滤波器来计算x和v方向的梯度。图26示出了Sobel、Scharr、Prewitt和Roberts滤波器的内核的示例。
在实施例中,当存储当前图片的MV时,可以存储具有较高精度(高于插值滤波器支持的最高精度)的MV,并将其用于空间MV预测。在实施例中,当将当前图片的MV存储到帧缓冲器(将用作其它图片的TMVP)中时,具有较高精度的MV可以在MV压缩之前舍入到插值滤波器支持的最高精度。
在一些实施例中,类似PROF的修正过程可以不与一些编码模式(例如BDOF、DMVR、三角形合并、帧内-帧间模式等)一起使用。
VI.PROF过程或类似PROF的修正过程的示例
1.PROF过程的示例
图27示出了根据本公开实施例的概述过程(2700)的流程图。过程(2700)可用于重建以仿射预测模式(例如,仿射合并模式、仿射AMVP等)编码的块,从而为正在重建的块生成预测块。在各种实施例中,过程(2700)由处理电路执行,例如终端装置(210)、(220)、(230)和(240)中的处理电路、执行视频解码器(310)的功能的处理电路、执行视频解码器(410)的功能的处理电路等。在一些实施例中,过程(2700)以软件指令实现,因此,当处理电路执行该软件指令时,处理电路执行过程(2700)。该过程从(S2701)开始,并且进行到(S2710)。
在S2710,接收语法元素,该语法元素指示是否为仿射预测启用PROF。在示例中,该语法元素在序列级别、切片级别、图块级别、图块组级别或图片级别等发信号通知。在另一示例中,可以默认为仿射预测启用PROF,而无需发信号通知该语法元素。
在S2720,确定是否对仿射编码块应用PROF。在示例中,基于仿射编码块的仿射模型的仿射参数的值,确定是否对仿射编码块应用PROF。在示例中,基于接收的指示是否为仿射预测启用PROF的语法元素和指示是否启用LIC的信令,确定是否对仿射编码块应用PROF。
在S2730,当确定对仿射编码块应用PROF时,执行PROF过程。在示例中,该PROF过程可以包括在仿射编码块中的样本位置(i,j)处生成预测样本I(i,j),在仿射编码块中的样本位置(i,j)处生成空间梯度gx(i,j)和gy(i,j),基于空间梯度gx(i,j)和gy(i,j)生成预测修正ΔI(i,j),以及将预测修正ΔI(i,j)添加到预测样本I(i,j),以生成修正的预测样本。
在示例中,基于包括预测样本I(i,j)的第一子块的一个或多个第一预测样本和与第一子块相邻的第二子块的一个或多个第二预测样本,在样本位置(i,j)处生成空间梯度gx(i,j)和gy(i,j)。第一子块和第二子块可以是从仿射编码块划分出的子块。
在示例中,使用在仿射编码块的参考图片中的参考样本上生成的梯度滤波器,在样本位置(i,j)处生成空间梯度gx(i,j)和gy(i,j)。例如,生成的梯度滤波器通过第一梯度滤波器与插值滤波器的卷积生成。例如,假设不使用生成的梯度滤波器,可以对仿射编码块的参考图片中的参考样本应用插值滤波器,以生成仿射编码块的预测样本,随后,可以对仿射编码块的生成的预测样本应用第一梯度滤波器,以生成空间梯度gx(i,j)和gy(i,j)。使用生成的梯度滤波器使得仿射编码块的插值(或预测)和空间梯度gx(i,j)和gy(i,j)的生成之间能够进行并行处理。
在示例中,仿射编码块以仿射合并模式进行编码,仿射编码块的LIC标志值可以从仿射编码块的相邻块继承,该相邻块用作仿射编码块的仿射模型继承或仿射模型构建的源。过程2700可以执行到S2799,并在S2799结束。
2.类似PROF的修正过程的示例
图28示出了根据本公开实施例的概述过程(2800)的流程图。过程(2800)可用于重建具有中间Mv的块,该中间MV具有比运动补偿中使用的插值滤波器支持的精度更高的精度,以生成块的预测。在各种实施例中,过程(2800)由处理电路执行,例如终端装置(210)、(220)、(230)和(240)中的处理电路、执行视频解码器(310)的功能的处理电路、执行视频解码器(410)的功能的处理电路等。在一些实施例中,过程(2800)以软件指令实现,因此,当处理电路执行该软件指令时,处理电路执行过程(2800)。该过程从(S2801)开始,并且进行到(S2810)。
在s2810,可以确定当前块的中间运动矢量MVblock。中间运动矢量MVblock与当前块的插值滤波器支持的低精度相比具有高精度。当前块可以是使用TMVP、SbTMVP、MMVD、仿射AMVP、空间运动矢量预测模式等编码的块或子块。因此,中间运动矢量MVblock可以在运动矢量缩放操作中生成。或者,当前块可以使用具有高精度的运动矢量预测值进行编码。
在示例中,可以在序列参数集(sPs)、图片参数集(PPs)、切片头、图块组头等中接收指示高精度的语法元素。中间运动矢量MVblock在最初生成时可能具有比用信号通知的高精度更高的精度,并且被四舍五入到用信号通知的高精度。
在S2820,对中间运动矢量MVblock进行舍入,以生成当前块的舍入运动矢量MVround,舍入运动矢量MVround具有当前块的插值滤波器支持的低精度。
在S2830,可以基于舍入运动矢量MVround和插值滤波器,生成当前块的预测块。
在S2840,可以根据下式确定预测修正偏移ΔI(i,j):
ΔI(i,j)=gx(i,j)*Δvx+gy(i,j)*Δvy, (等式24)
其中,gx(i,j)和gy(i,j)分别是预测块的预测样本在位置(i,j)处沿x方向和y方向的梯度,Δvx和Δvy分别是中间运动矢量MVblock与舍入运动矢量MVround之间沿x方向和y方向的运动矢量差。
在S2850,将预测修正偏移ΔI(i,j)添加到预测块的预测样本,以生成修正的预测样本。在示例中,将具有高精度的中间运动矢量MVblock存储在存储器中。可以使用用于空间运动矢量预测的中间运动矢量MVblock,对包括所述当前块的当前图片中的另一块进行编码。过程2800可以执行到S2899,并在S2899结束。
vII.计算机***
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图29示出了计算机***(2900),其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图29所示的用于计算机***(2900)的组件本质上是示例性的,并不用于对实现本公开实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机***(2900)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机***(2900)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(仅绘出其中一个):键盘(2901)、鼠标(2902)、触控板(2903)、触摸屏(2910)、数据手套(未示出)、操纵杆(2905)、麦克风(2906)、扫描仪(2907)、照相机(2908)。
计算机***(2900)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(2910)、数据手套(未示出)或操纵杆(2905)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(2909)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(2910),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机***(2900)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(2920)或类似介质(2921)的光学介质、拇指驱动器(2922)、可移动硬盘驱动器或固体状态驱动器(2923),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机***(2900)还可以包括通往一个或多个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、***、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或***总线(2949)(例如,计算机***(2900)的USB端口);其它***通常通过连接到如下所述的***总线集成到计算机***(2900)的核心(例如,以太网接口集成到PC计算机***或蜂窝网络接口集成到智能电话计算机***)。通过使用这些网络中的任何一个,计算机***(2900)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机***。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机***(2900)的核心(2940)。
核心(2940)可包括一个或多个中央处理单元(CPU)(2941)、图形处理单元(GPU)(2942)、以现场可编程门阵列(FPGA)(2943)形式的专用可编程处理单元、用于特定任务的硬件加速器(2944)等。这些设备以及只读存储器(ROM)(2945)、随机存取存储器(2946)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(2947)等可通过***总线(2948)进行连接。在某些计算机***中,可以以一个或多个物理插头的形式访问***总线(2948),以便可通过额外的中央处理单元、图形处理单元等进行扩展。***装置可直接附接到核心的***总线(2948),或通过***总线(2949)进行连接。***总线的体系结构包括外部***组件互联PCI、通用串行总线USB等。
CPU(2941)、GPU(2942)、FPGA(2943)和加速器(2944)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(2945)或RAM(2946)中。过渡数据也可以存储在RAM(2946)中,而永久数据可以存储在例如内部大容量存储器(2947)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个CPU(2941)、GPU(2942)、大容量存储器(2947)、ROM(2945)、RAM(2946)等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本公开的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(2900)的计算机***,特别是核心(2940),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心(2940)的特定存储器,例如核心内部大容量存储器(2947)或ROM(2945)。实现本公开的各种实施例的软件可以存储在这种设备中并且由核心(2940)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(2940)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(2946)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机***可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(2944))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本公开包括任何合适的硬件和软件组合。
附录A:首字母缩略词
AMVP:高级MVP(Advanced MVP)
ASIC:专用集成电路(Application-Specific Integrated Circuit)
BDOF:双向光流(Bi-Directional Optical Flow)
BMS:基准集合(benchmark set)
CANBus:控制器局域网络总线(Controller Area Network Bus)
CD:光盘(Compact Disc)
CPUs:中央处理单元(Central Processing Units)
CRT:阴极射线管(Cathode Ray Tube)
CTBs:编码树块(Coding Tree Blocks)
CTUs:编码树单元(Coding Tree Units)
CU:编码单元(Coding Unit)
DVD:数字化视频光盘(Digital Video Disc)
FPGA:现场可编程门阵列(Field Programmable Gate Areas)
GOPs:图片群组(Groups of Pictures)
GPUs:图形处理单元(Graphics Processing Units)
GSM:全球移动通信***(Global System for Mobile communications)
HEVC:高效视频编解码(High Efficiency Video Coding)
HMVP:基于历史的运动矢量预测(History-Based MVP)
HRD:假想参考解码器(Hypothetical Reference Decoder)
IC:集成电路(Integrated Circuit)
JEM:联合开发模型(joint exploration model)
LAN:局域网(Local Area Network)
LCD:液晶显示器(Liquid-Crystal Display)
LIC:局部亮度补偿(Local illumination compensation)
LTE:长期演进(Long-Term Evolution)
MMVD:具有MVD的合并(Merge with MVD)
MV:运动矢量(Motion Vector)
MVD:运动矢量差(Motion vector difference)
MVP:运动矢量预测(Motion vector predictor)
OLED:有机发光二极管(Organic Light-Emitting Diode)
PBs:预测块(Prediction Blocks)
PCI:***组件互连(Peripheral Component Interconnect)
PLD:可编程逻辑设备(Programmable Logic Device)
PROF:利用光流的预测修正(Prediction refinement with optical flow)
PUs:预测单元(Prediction Units)
RAM:随机存取存储器(Random Access Memory)
ROM:只读存储器(Read-Only Memory)
SbTMVP:基于子块的TMVP(Sub-block-based TMVP)
SEI:辅助增强信息(Supplementary Enhancement Information)
SNR:信噪比(Signal Noise Ratio)
SSD:固态驱动器(Solid-state drive)
TMVP:时间运动矢量预测(Temporal MVP)
Tus:变换单元(Transform Units)
USB:通用串行总线(Universal Serial Bus)
VTM:通用测试模型(Versatile test model)
VUI:视频可用性信息(Video Usability Information)
VVC:通用视频编解码(versatile video coding)
虽然本公开已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本公开的范围内。因此应理解,本领域技术人员能够设计多种***和方法,所述***和方法虽然未在本文中明确示出或描述,但其体现了本公开的原则,因此属于本公开的精神和范围之内。

Claims (20)

1.一种通过视频解码器进行视频编码的方法,其特征在于,包括:
确定是否对仿射编码块应用使用光流的预测修正PROF;以及
当确定对所述仿射编码块应用所述PROF时,在所述仿射编码块中的样本位置(i,j)处生成预测样本I(i,j),
在所述仿射编码块中的所述样本位置(i,j)处生成空间梯度gx(i,j)和gy(i,j),
基于所述空间梯度gx(i,j)和gy(i,j)生成预测修正ΔI(i,j),以及
将所述预测修正ΔI(i,j)添加到所述预测样本I(i,j),以生成修正的预测样本。
2.根据权利要求1所述的方法,其特征在于,进一步包括:
接收语法元素,所述语法元素指示是否为仿射预测启用所述PROF。
3.根据权利要求1所述的方法,其特征在于,默认为仿射预测启用所述PROF。
4.根据权利要求1所述的方法,其特征在于,所述语法元素在序列级别、切片级别、图块级别、图块组级别或图片级别发信号通知。
5.根据权利要求1所述的方法,其特征在于,所述确定是否对所述仿射编码块应用所述PROF包括:
基于所述仿射编码块的仿射模型的仿射参数的值,确定是否对所述仿射编码块应用所述PROF。
6.根据权利要求1所述的方法,其特征在于,所述在所述样本位置(i,j)处生成所述空间梯度gx(i,j)和gy(i,j)包括:
基于包括所述预测样本I(i,j)的第一子块的一个或多个第一预测样本和与所述第一子块相邻的第二子块的一个或多个第二预测样本,在所述样本位置(i,j)处生成所述空间梯度gx(i,j)和gy(i,j),所述第一子块和所述第二子块是从所述仿射编码块划分出的。
7.根据权利要求1所述的方法,其特征在于,所述在所述样本位置(i,j)处生成所述空间梯度gx(i,j)和gy(i,j)包括:
对所述仿射编码块的子块执行帧间预测;以及
基于所述整个仿射编码块的预测样本在样本位置处生成空间梯度。
8.根据权利要求1所述的方法,其特征在于,所述在所述样本位置(i,j)处生成所述空间梯度gx(i,j)和gy(i,j)包括:
使用在所述仿射编码块的参考图片中的参考样本上生成的梯度滤波器,在所述样本位置(i,j)处生成所述空间梯度gx(i,j)和gy(i,j)。
9.根据权利要求8所述的方法,其特征在于,所述生成的梯度滤波器通过第一梯度滤波器与插值滤波器的卷积生成,
其中,对所述仿射编码块的参考图片中的参考样本应用所述插值滤波器,生成所述仿射编码块的预测样本,随后对所述仿射编码块的所述生成的预测样本应用所述第一梯度滤波器,生成所述空间梯度gx(i,j)和gy(i,j)。
10.根据权利要求1所述的方法,其特征在于,所述确定是否对所述仿射编码块应用所述PROF包括:
基于所述接收的指示是否为仿射预测启用所述PROF的语法元素和指示是否启用局部亮度补偿LIC的信令,确定是否对所述仿射编码块应用所述PROF。
11.根据权利要求1所述的方法,其特征在于,所述仿射编码块以仿射合并模式进行编码,所述仿射编码块的LIC标志值从所述仿射编码块的相邻块继承,所述相邻块用作所述仿射编码块的仿射模型继承或仿射模型构建的源。
12.一种通过视频解码器进行视频解码的方法,其特征在于,包括:
确定当前块的中间运动矢量MVblock,所述中间运动矢量MVblock与所述当前块的插值滤波器支持的低精度相比具有高精度;
对所述中间运动矢量MVblock进行舍入,以生成所述当前块的舍入运动矢量MVround,所述舍入运动矢量MVround具有所述当前块的插值滤波器支持的低精度;
基于所述舍入运动矢量MVround和所述插值滤波器,生成所述当前块的预测块;
根据下式确定预测修正偏移ΔI(i,j):
ΔI(i,j)=gx(i,j)*Δvx+gy(i,j)*Δvy
其中,gx(i,j)和gy(i,j)分别是所述预测块的预测样本在位置(i,j)处沿x方向和y方向的梯度,Δvx和Δvy分别是所述中间运动矢量MVblock与所述舍入运动矢量MVround之间沿x方向和y方向的运动矢量差;以及
将所述预测修正偏移ΔI(i,j)添加到所述预测块的预测样本,以生成修正的预测样本。
13.根据权利要求12所述的方法,其特征在于,所述当前块是使用时间运动矢量预测模式TMVP、基于子块的TMVP模式SbTMVP、具有运动矢量差的合并MMVD、仿射高级运动矢量预测AMVP或空间运动矢量预测模式编码的块或子块,其中所述中间运动矢量MVblock在运动矢量缩放操作中生成,或
所述当前块使用具有所述高精度的运动矢量预测值进行编码。
14.根据权利要求12所述的方法,其特征在于,进一步包括:
在序列参数集SPS、图片参数集PPS、切片头、图块组头中接收指示所述高精度的语法元素。
15.根据权利要求12所述的方法,其特征在于,进一步包括:
将具有高精度的所述中间运动矢量MVblock存储在存储器中;以及
使用用于空间运动矢量预测的所述中间运动矢量MVblock,对包括所述当前块的当前图片中的另一块进行编码。
16.一种装置,其特征在于,包括电路,被配置为:
确定是否对仿射编码块应用使用光流的预测修正PROF;以及
当确定对所述仿射编码块应用所述PROF时,
在所述仿射编码块中的样本位置(i,j)处生成预测样本I(i,j),
在所述仿射编码块中的所述样本位置(i,j)处生成空间梯度gx(i,j)和gy(i,j),
基于所述空间梯度gx(i,j)和gy(i,j)生成预测修正ΔI(i,j),以及
将所述预测修正ΔI(i,j)添加到所述预测样本I(i,j),以生成修正的预测样本。
17.根据权利要求16所述的装置,其特征在于,所述电路进一步被配置为:
接收语法元素,所述语法元素指示是否为仿射预测启用所述PROF。
18.根据权利要求16所述的装置,其特征在于,默认为仿射预测启用所述PROF。
19.根据权利要求16所述的装置,其特征在于,所述语法元素在序列级别、切片级别、图块级别、图块组级别或图片级别发信号通知。
20.根据权利要求16所述的装置,其特征在于,所述电路进一步被配置为:
基于所述仿射编码块的仿射模型的仿射参数的值,确定是否对所述仿射编码块应用所述PROF。
CN202080019555.4A 2019-03-18 2020-03-18 视频编解码的方法和装置 Active CN113545083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311306386.4A CN117221537A (zh) 2019-03-18 2020-03-18 视频编解码的方法和装置

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962820196P 2019-03-18 2019-03-18
US62/820,196 2019-03-18
US201962828425P 2019-04-02 2019-04-02
US62/828,425 2019-04-02
US201962838798P 2019-04-25 2019-04-25
US62/838,798 2019-04-25
PCT/US2020/023336 WO2020191034A1 (en) 2019-03-18 2020-03-18 Method and apparatus for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311306386.4A Division CN117221537A (zh) 2019-03-18 2020-03-18 视频编解码的方法和装置

Publications (2)

Publication Number Publication Date
CN113545083A true CN113545083A (zh) 2021-10-22
CN113545083B CN113545083B (zh) 2023-08-22

Family

ID=72515898

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311306386.4A Pending CN117221537A (zh) 2019-03-18 2020-03-18 视频编解码的方法和装置
CN202080019555.4A Active CN113545083B (zh) 2019-03-18 2020-03-18 视频编解码的方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202311306386.4A Pending CN117221537A (zh) 2019-03-18 2020-03-18 视频编解码的方法和装置

Country Status (9)

Country Link
US (4) US11350108B2 (zh)
EP (1) EP3942823A4 (zh)
JP (1) JP7241197B2 (zh)
KR (1) KR20210125578A (zh)
CN (2) CN117221537A (zh)
AU (2) AU2020240048B2 (zh)
CA (1) CA3132463A1 (zh)
SG (1) SG11202109031TA (zh)
WO (1) WO2020191034A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115118982A (zh) * 2022-06-24 2022-09-27 腾讯科技(深圳)有限公司 一种视频处理方法、设备、存储介质及计算机程序产品
WO2024104483A1 (en) * 2022-11-18 2024-05-23 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3744094A4 (en) * 2018-01-26 2021-11-03 MediaTek Inc. METHOD AND DEVICE FOR AFFINE INTER-PREDICTION FOR A VIDEO ENCODING SYSTEM
GB2589221B (en) 2018-06-19 2023-03-22 Beijing Bytedance Network Tech Co Ltd Mode dependent MVD precision set
WO2020103872A1 (en) * 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Prediction refinement for combined inter intra prediction mode
CN113366851A (zh) * 2019-01-31 2021-09-07 北京字节跳动网络技术有限公司 对称运动矢量差编解码模式的快速算法
EP3942823A4 (en) 2019-03-18 2023-04-05 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
EP3745725A1 (en) * 2019-03-22 2020-12-02 LG Electronics Inc. -1- Method and device for inter prediction on basis of dmvr and bdof
WO2020198497A1 (en) * 2019-03-26 2020-10-01 Vid Scale, Inc. Methods and apparatus for prediction refinement for decoder side motion vector refinement with optical flow
CN113661708B (zh) * 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
KR102662024B1 (ko) 2019-04-19 2024-05-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 상이한 모션 벡터 정제의 그레디언트 계산
CN114128285B (zh) * 2019-06-14 2024-07-19 现代自动车株式会社 用于利用帧间预测来编码和解码视频的方法和装置
CN113994692A (zh) * 2019-06-19 2022-01-28 北京达佳互联信息技术有限公司 用于利用光流的预测细化的方法和装置
CN114175654A (zh) * 2019-08-08 2022-03-11 鸿颖创新有限公司 用于对视频数据编码的设备和方法
WO2021027774A1 (en) 2019-08-10 2021-02-18 Beijing Bytedance Network Technology Co., Ltd. Subpicture dependent signaling in video bitstreams
WO2021040426A1 (ko) * 2019-08-31 2021-03-04 엘지전자 주식회사 Prof를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11641475B2 (en) * 2019-09-12 2023-05-02 Alibaba Group Holding Limited Method and apparatus for encoding or decoding video
CN114424543A (zh) * 2019-09-12 2022-04-29 阿里巴巴集团控股有限公司 用于发送视频编解码信息的方法和装置
CN114631317B (zh) 2019-10-18 2024-03-15 北京字节跳动网络技术有限公司 子图片的参数集信令中的语法约束
KR20220157950A (ko) * 2020-03-23 2022-11-29 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 어파인 머지 및 어파인 모션 벡터 예측 모드에 대한 예측 리파인먼트
JP2021052389A (ja) * 2020-08-21 2021-04-01 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
CN116491120A (zh) * 2020-10-14 2023-07-25 北京达佳互联信息技术有限公司 用于仿射运动补偿预测细化的方法和装置
WO2023078449A1 (en) * 2021-11-08 2023-05-11 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
US20230336770A1 (en) * 2022-04-18 2023-10-19 Tencent America LLC Affine mmvd refinement methods
US20240137539A1 (en) * 2022-10-18 2024-04-25 Tencent America LLC Method and apparatus for affine motion refinement
US20240196006A1 (en) * 2022-12-08 2024-06-13 Qualcomm Incorporated Minimum process grid for inter-prediction-related video coding processes
WO2024124302A1 (en) * 2022-12-16 2024-06-20 Kakadu R & D Pty Ltd Method for low memory encoding of video

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760488B1 (en) * 1999-07-12 2004-07-06 Carnegie Mellon University System and method for generating a three-dimensional model from a two-dimensional image sequence
US20060117316A1 (en) * 2004-11-24 2006-06-01 Cismas Sorin C Hardware multithreading systems and methods
WO2017133661A1 (en) * 2016-02-05 2017-08-10 Mediatek Inc. Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding
WO2017171107A1 (ko) * 2016-03-28 2017-10-05 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018169989A1 (en) * 2017-03-13 2018-09-20 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (bio)
WO2018171796A1 (en) * 2017-03-24 2018-09-27 Mediatek Inc. Method and apparatus of bi-directional optical flow for overlapped block motion compensation in video coding

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1237376B1 (en) * 1997-06-09 2015-08-05 Hitachi, Ltd. Image information recording medium
KR20030027963A (ko) * 2001-06-21 2003-04-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 픽셀들을 처리하기 위한 이미지 처리 유닛 및 방법과이러한 이미지 처리 유닛을 포함하는 이미지 디스플레이장치
US20040076333A1 (en) * 2002-10-22 2004-04-22 Huipin Zhang Adaptive interpolation filter system for motion compensated predictive video coding
US20040252766A1 (en) * 2003-06-11 2004-12-16 Daeyang Foundation (Sejong University) Motion vector search method and apparatus
US7692682B2 (en) * 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
US8199808B2 (en) * 2005-06-10 2012-06-12 Nxp B.V. Decoding method and decoder with rounding means
JP4987322B2 (ja) * 2006-02-28 2012-07-25 株式会社東芝 動画像復号装置及び動画像復号方法
US8724702B1 (en) * 2006-03-29 2014-05-13 Nvidia Corporation Methods and systems for motion estimation used in video coding
US8422803B2 (en) * 2007-06-28 2013-04-16 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
US8509567B2 (en) * 2007-07-09 2013-08-13 Analog Devices, Inc. Half pixel interpolator for video motion estimation accelerator
US8971412B2 (en) * 2008-04-10 2015-03-03 Qualcomm Incorporated Advanced interpolation techniques for motion compensation in video coding
US8750378B2 (en) * 2008-09-23 2014-06-10 Qualcomm Incorporated Offset calculation in switched interpolation filters
US9078007B2 (en) * 2008-10-03 2015-07-07 Qualcomm Incorporated Digital video coding with interpolation filters and offsets
KR101377530B1 (ko) * 2009-08-21 2014-03-27 에스케이텔레콤 주식회사 적응적 움직임 벡터 해상도를 이용한 영상 부호화/복호화 방법 및 장치
WO2011086672A1 (ja) * 2010-01-13 2011-07-21 株式会社 東芝 動画像符号化装置および復号装置
WO2012012582A1 (en) * 2010-07-21 2012-01-26 Dolby Laboratories Licensing Corporation Reference processing using advanced motion models for video coding
JP5524762B2 (ja) * 2010-08-12 2014-06-18 日本電信電話株式会社 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
PT2617195T (pt) * 2010-09-16 2019-06-19 Koninklijke Philips Nv Aparelhos e métodos para codificação melhorada de imagens
US10045046B2 (en) * 2010-12-10 2018-08-07 Qualcomm Incorporated Adaptive support for interpolating values of sub-pixels for video coding
US20120163460A1 (en) * 2010-12-23 2012-06-28 Qualcomm Incorporated Sub-pixel interpolation for video coding
DK2725797T3 (da) * 2011-06-23 2019-01-02 Huawei Tech Co Ltd Offset dekoderanordning, offset koderanordning, billedfilteranordning og datastruktur
JP2013218654A (ja) * 2012-03-16 2013-10-24 Panasonic Corp 画像処理装置
US9325991B2 (en) * 2012-04-11 2016-04-26 Qualcomm Incorporated Motion vector rounding
US20140078394A1 (en) * 2012-09-17 2014-03-20 General Instrument Corporation Selective use of chroma interpolation filters in luma interpolation process
US9667942B2 (en) * 2012-11-20 2017-05-30 Qualcomm Incorporated Adaptive luminance compensation in three dimensional video coding
US20150016533A1 (en) * 2013-07-12 2015-01-15 Qualcomm Incorporated Intra motion compensation extensions
US9774881B2 (en) * 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9749642B2 (en) * 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
EP3085085A4 (en) * 2014-01-29 2017-11-08 MediaTek Inc. Method and apparatus for adaptive motion vector precision
CN112087630B (zh) * 2014-09-30 2022-04-08 华为技术有限公司 图像预测方法、装置、解码器及存储介质
US10462480B2 (en) * 2014-12-31 2019-10-29 Microsoft Technology Licensing, Llc Computationally efficient motion estimation
US10200713B2 (en) * 2015-05-11 2019-02-05 Qualcomm Incorporated Search region determination for inter coding within a particular picture of video data
CN106331722B (zh) * 2015-07-03 2019-04-26 华为技术有限公司 图像预测方法和相关设备
GB2561507B (en) * 2016-01-07 2021-12-22 Mediatek Inc Method and apparatus for affine merge mode prediction for video coding system
WO2017188566A1 (ko) * 2016-04-25 2017-11-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
US20190191171A1 (en) * 2016-05-13 2019-06-20 Sharp Kabushiki Kaisha Prediction image generation device, video decoding device, and video coding device
US10728572B2 (en) * 2016-09-11 2020-07-28 Lg Electronics Inc. Method and apparatus for processing video signal by using improved optical flow motion vector
US10631002B2 (en) * 2016-09-30 2020-04-21 Qualcomm Incorporated Frame rate up-conversion coding mode
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
US10986367B2 (en) * 2016-11-04 2021-04-20 Lg Electronics Inc. Inter prediction mode-based image processing method and apparatus therefor
CN109983773A (zh) * 2016-11-29 2019-07-05 联发科技股份有限公司 用于合并模式推导的视频编解码方法和装置
WO2018110203A1 (ja) * 2016-12-16 2018-06-21 シャープ株式会社 動画像復号装置、および動画像符号化装置
WO2018124329A1 (ko) * 2016-12-28 2018-07-05 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US10455253B1 (en) * 2017-02-28 2019-10-22 Google Llc Single direction long interpolation filter
US10701390B2 (en) * 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
RU2763042C2 (ru) * 2017-07-03 2021-12-27 Вид Скейл, Инк. Прогнозирование компенсации движения на основе двунаправленного оптического потока
CA3069635C (en) * 2017-07-14 2022-06-14 Mediatek, Inc. Method and apparatus for range derivation in context adaptive binary arithmetic coding
US10659788B2 (en) * 2017-11-20 2020-05-19 Google Llc Block-based optical flow estimation for motion compensated prediction in video coding
KR102595689B1 (ko) * 2017-09-29 2023-10-30 인텔렉추얼디스커버리 주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN111567047B (zh) * 2017-10-09 2022-07-22 华为技术有限公司 进行子预测块运动矢量推导的存储器访问窗口
WO2019072372A1 (en) * 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT OF A MOTION VECTOR POINTING TO A FRACTIONAL SAMPLE POSITION
KR20190046704A (ko) * 2017-10-26 2019-05-07 한국전자통신연구원 비대칭 서브 블록 기반 영상 부호화/복호화 방법 및 장치
US11310517B2 (en) * 2017-12-07 2022-04-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding using selective information sharing between channels
WO2019147910A1 (en) * 2018-01-26 2019-08-01 Interdigital Vc Holdings, Inc. Method and apparatus for video encoding and decoding based on a linear model responsive to neighboring samples
US10761847B2 (en) * 2018-08-17 2020-09-01 Micron Technology, Inc. Linear feedback shift register for a reconfigurable logic unit
IL285212B2 (en) * 2019-02-07 2024-06-01 Vid Scale Inc Systems, means and methods for refining Internet prediction with optical flow
EP3942823A4 (en) 2019-03-18 2023-04-05 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
US10831002B1 (en) 2019-11-27 2020-11-10 Guangdong Sirui Optical Co., Ltd. Large aperture anamorphic lens

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760488B1 (en) * 1999-07-12 2004-07-06 Carnegie Mellon University System and method for generating a three-dimensional model from a two-dimensional image sequence
US20060117316A1 (en) * 2004-11-24 2006-06-01 Cismas Sorin C Hardware multithreading systems and methods
WO2017133661A1 (en) * 2016-02-05 2017-08-10 Mediatek Inc. Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding
WO2017171107A1 (ko) * 2016-03-28 2017-10-05 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018169989A1 (en) * 2017-03-13 2018-09-20 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (bio)
WO2018171796A1 (en) * 2017-03-24 2018-09-27 Mediatek Inc. Method and apparatus of bi-directional optical flow for overlapped block motion compensation in video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANCONG (DANIEL) LUO等: "CE2-related: Prediction refinement with optical flow for affine mode(JVET-N0236)", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 14TH MEETING: GENEVA, CH, 19–27 MARCH 2019》 *
VADIM SEREGIN等: "CE1: Unidirectional illumination compensation (CE1-5.1)( JVET-N0343)", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 14TH MEETING: GENEVA, CH, 19–27 MARCH 2019》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115118982A (zh) * 2022-06-24 2022-09-27 腾讯科技(深圳)有限公司 一种视频处理方法、设备、存储介质及计算机程序产品
CN115118982B (zh) * 2022-06-24 2024-05-24 腾讯科技(深圳)有限公司 一种视频处理方法、设备、存储介质及计算机程序产品
WO2024104483A1 (en) * 2022-11-18 2024-05-23 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Also Published As

Publication number Publication date
EP3942823A4 (en) 2023-04-05
US11350108B2 (en) 2022-05-31
WO2020191034A1 (en) 2020-09-24
CN113545083B (zh) 2023-08-22
EP3942823A1 (en) 2022-01-26
US20220264115A1 (en) 2022-08-18
US20200304805A1 (en) 2020-09-24
US11889086B2 (en) 2024-01-30
JP2022523795A (ja) 2022-04-26
JP7241197B2 (ja) 2023-03-16
AU2020240048A1 (en) 2021-09-16
KR20210125578A (ko) 2021-10-18
CN117221537A (zh) 2023-12-12
US20220038713A1 (en) 2022-02-03
CA3132463A1 (en) 2020-09-24
US11677962B2 (en) 2023-06-13
SG11202109031TA (en) 2021-09-29
AU2023201737A1 (en) 2023-04-20
AU2020240048B2 (en) 2022-12-22
US20230224478A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
CN113545083B (zh) 视频编解码的方法和装置
CN113287307B (zh) 视频解码的方法和装置、计算机设备及介质
CN113574885B (zh) 视频解码方法、装置以及电子设备
CN112291571B (zh) 视频解码方法及装置以及计算机设备和存储介质
CN111885387B (zh) 用于仿射光流预测值细化的视频解码方法和装置
CN113287308B (zh) 视频编解码方法及装置
CN112399183B (zh) 用于视频编解码的方法、装置和存储介质
CN113261298A (zh) 用于视频编码的方法和装置
CN110719469A (zh) 视频编解码方法、设备和存储介质
CN112806002A (zh) 用信号通知用于跳过和合并模式的多假设的方法和装置、以及用信号通知具有运动矢量差的合并中的距离偏移表的方法和装置
CN112235581B (zh) 视频解码方法、装置、存储介质及电子设备
CN113519159B (zh) 视频编解码的方法和装置
CN110944202A (zh) 视频编解码方法、装置、计算机设备和存储介质
CN110730353B (zh) 视频解码方法和装置、计算机设备、存储介质
CN110971902B (zh) 视频解码的方法和装置、计算机设备
KR20210049930A (ko) 비디오 디코딩을 위한 방법 및 장치
KR102572104B1 (ko) 비디오 코딩을 위한 방법 및 장치
CN114651447A (zh) 用于视频编解码的方法和装置
CN113383545A (zh) 视频编解码的方法和装置
CN113545079A (zh) 视频编解码的方法和装置
CN113287315B (zh) 视频编解码的方法、装置及存储介质
CN112789851A (zh) 视频编解码方法及装置
CN113228631A (zh) 视频编解码的方法和装置
CN112771869A (zh) 小型编码块的简化合并列表构建
CN111988625A (zh) 视频解码方法和装置以及计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40054981

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant