CN113632483A - 用于视频编解码的受约束的仿射运动继承 - Google Patents

用于视频编解码的受约束的仿射运动继承 Download PDF

Info

Publication number
CN113632483A
CN113632483A CN202080012139.1A CN202080012139A CN113632483A CN 113632483 A CN113632483 A CN 113632483A CN 202080012139 A CN202080012139 A CN 202080012139A CN 113632483 A CN113632483 A CN 113632483A
Authority
CN
China
Prior art keywords
block
motion vector
video data
video
current block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080012139.1A
Other languages
English (en)
Inventor
H.黄
W-J.钱
M.卡尔切维茨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN113632483A publication Critical patent/CN113632483A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种用于对视频数据进行编解码的示例设备可以包括被配置为存储视频数据的当前块的存储器和在耦合到存储器的电路中实施的一个或多个处理器。一个或多个处理器可以被配置为从当前块的相邻块的控制点运动矢量中确定增量运动矢量。一个或多个处理器还可以被配置为将增量运动矢量裁剪到预定范围。一个或多个处理器还可以被配置为使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。

Description

用于视频编解码的受约束的仿射运动继承
本申请要求于2020年2月6日提交的美国申请No.16/783,697和于2019年2月8日提交的美国临时申请No.62/803,236的权益,该两个申请的全部内容在此通过引用并入。
技术领域
本公开涉及视频编码和视频解码。
背景技术
数字视频能力可以被结合到广泛的设备中,包括数字电视、数字直接广播***、无线广播***、个人数字助理(PDA)、膝上型或桌上型计算机、平板计算机、电子书阅读器、数码相机、数字记录设备、数字媒体播放器、视频游戏设备、视频游戏控制台、蜂窝或卫星无线电电话(所谓的“智能电话”)、视频电话会议设备、视频流传输设备等。数字视频设备实施视频编解码技术,诸如在由MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4第10部分定义的标准、高级视频编解码(AVC)、ITU-T H.265/高效率视频编解码(HEVC)以及此类标准的扩展中描述的那些技术。通过实施此类视频编码技术,视频设备可以更有效地发送、接收、编码、解码和/或存储数字视频信息。
视频编解码技术包括空间(图片内)预测和/或时间(图片间)预测,以减少或移除视频序列中固有的冗余。对于基于块的视频编解码,视频条带(即,视频图片或视频图片的一部分)可以被分割成视频块,这些视频块也可以被称为编解码树单元(CTU)、编解码单元(CU)和/或编解码节点。图片的经帧内编解码(I)条带中的视频块使用关于同一图片中相邻块中的参考样点的空间预测来进行编码。图片的经帧间编解码(P或B)条带中的视频块可以使用关于同一图片中的相邻块中的参考样点的空间预测,或关于其他参考图片中的参考样点的时间预测。图片可以被称为帧,并且参考图片可以被称为参考帧。
发明内容
通常,本公开描述了用于视频编解码器中的帧间预测的技术。更具体地,本公开描述了用于执行与仿射运动预测有关的技术的方法和设备,包括受约束的仿射运动继承。通过仿射运动继承,视频数据的当前块可以从视频数据的相邻块继承表示非平移运动的两个或多个运动矢量,诸如放大或缩小、旋转、透视运动或其他不规则运动类型。
在一个示例中,一种方法,包括:从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
在另一示例中,一种设备,包括:存储器和在耦合至存储器的电路中实施的一个或多个处理器,该一个或多个处理器被配置为从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
在另一示例中,一种设备,包括:用于从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量的部件,用于将增量运动矢量裁剪到预定范围的部件,以及用于使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码的部件。
在另一示例中,一种编码有指令的非暂时性计算机可读存储介质,当指令被运行时,使可编程处理器从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
一个或多个示例的细节将在附图和以下描述中进行阐述。从说明书和附图、以及权利要求书中,其他特征、目标和优点将变得显而易见。
附图说明
图1是图示了可以执行本公开的技术的示例视频编码和解码***的框图。
图2A和图2B是图示了示例四叉树二叉树(QTBT)结构和对应编解码树单元(CTU)的概念图。
图3是图示了可以执行本公开的技术的示例视频编码器的框图。
图4是图示了可以执行本公开的技术的示例视频解码器的框图。
图5是图示了用于六参数仿射运动模型的控制点的概念图。
图6是图示了用于仿射运动模型的控制点的另一示例的概念图。
图7是图示了用于当前块和候选块的控制点的概念图。
图8是图示了示例候选块的概念图。
图9是图示了根据本公开的示例技术的流程图。
图10是图示了示例编码方法的流程图。
图11是图示了示例解码方法的流程图。
具体实施方式
图1是图示了可以执行本公开的技术的示例视频编码和解码***100的框图。本公开的技术通常涉及编解码(编码和/或解码)视频数据。通常,视频数据包括用于处理视频的任何数据。因此,视频数据可以包括原始的、未经编解码的视频、经编码的视频、经解码的(例如,经重构的)视频和视频元数据,诸如信令通知的数据。
如图1所示,在该示例中,***100包括源设备102,该源设备102提供要由目的设备116解码和显示的经编码的视频数据。特别地,源设备102经由计算机可读介质110向目的设备116提供视频数据。源设备102和目的设备116可以包括大范围的设备中的任何一种,包括:桌上型计算机、笔记本(即,膝上型)计算机、平板计算机、机顶盒、诸如智能手机的电话手机、电视、相机、显示设备、数字媒体播放器、视频游戏控制台、视频流传输设备等。在一些情况下,源设备102和目的设备116可以被配备用于无线通信,并且因此可以被称为无线通信设备。
在图1的示例中,源设备102包括视频源104、存储器106、视频编码器200和输出接口108。目的设备116包括输入接口122、视频解码器300、存储器120和显示设备118。根据本公开,源设备102的视频编码器200和目的设备116的视频解码器300可以被配置为应用用于受约束仿射运动继承的技术。因此,源设备102表示视频编码设备的示例,而目的设备116表示视频解码设备的示例。在其他示例中,源设备和目的设备可以包括其他组件或布置。例如,源设备102可以从诸如外部相机的外部视频源接收视频数据。同样地,目的设备116可以与外部显示设备对接,而非包括集成的显示设备。
如图1所示的***100仅仅是一个示例。通常,任何数字视频编码和/或解码设备都可以执行用于受约束的仿射运动继承的技术。源设备102和目的设备116仅仅是此类编解码设备的示例,其中源设备102生成经编解码的视频数据以传输到目的设备116。本公开将“编解码”设备称为执行数据的编解码(编码和/或解码)的设备。因此,视频编码器200和视频解码器300表示编解码设备的示例,特别地,分别为视频编码器和视频解码器。在一些示例中,源设备102和目的设备116可以按基本上对称的方式操作,使得源设备102和目的设备116中的每一个都包括视频编码和解码组件。因此,***100可以例如对于视频流、视频回放、视频广播或视频电话,支持源设备102与目的设备116之间的单向或双向视频传输。
通常,视频源104表示视频数据的源(即,原始的、未经编码的视频数据),并向视频编码器200提供视频数据的连续系列的图片(也被称为“帧”),该视频编码器200对用于图片的数据进行编码。源设备102的视频源104可以包括视频捕获设备,诸如摄像机、包含先前捕获的原始视频的视频档案和/或从视频内容提供商接收视频的视频馈送接口。作为进一步可替代的,视频源104可以生成基于计算机图形的数据作为源视频,或者实况视频、存档的视频和计算机生成的视频的组合。在每种情况下,视频编码器200编码捕获的、预捕获的或计算机生成的视频数据。视频编码器200可以将图片从接收的顺序(有时被称为“显示顺序”)重新布置成用于编解码的编解码顺序。视频编码器200可以生成包括经编码的视频数据的比特流(bitstream)。源设备102然后可以经由输出接口108向计算机可读介质110上输出经编码的视频数据,用于由例如目的设备116的输入接口122接收和/或检索。
源设备102的存储器106和目的设备116的存储器120表示通用存储器。在一些示例中,存储器106和存储器120可以存储原始视频数据,例如来自视频源104的原始视频和来自视频解码器300的原始的、经解码的视频数据。附加地或可替代地,存储器106和存储器120可以分别存储可由例如视频编码器200和视频解码器300运行的软件指令。尽管在该示例中,与视频编码器200和视频解码器300分开示出,但是应当理解的是,视频编码器200和视频解码器300也可以包括用于功能上类似或等同目的的内部存储器。此外,存储器106和存储器120可以存储经编码的视频数据,例如从视频编码器200输出并输入到视频解码器300的数据。在一些示例中,存储器106和存储器120的部分可以被分配为一个或多个视频缓冲器,例如,以存储原始的、经解码的和/或经编码的视频数据。
计算机可读介质110可以表示能将经编码的视频数据从源设备102传输到目的设备116的任何类型的介质或设备。在一个示例中,计算机可读介质110表示通信介质,以使得源设备102能够例如经由射频网络或基于计算机的网络实时地向目的设备116发送经编码的视频数据。根据通信标准,诸如无线通信协议,输出接口108可以调制包括经编码的视频数据的传输信号,并且输入接口122可以调制所接收的传输信号。通信介质可以包括任何无线或有线通信介质,诸如射频(RF)频谱或一条或多条物理传输线。通信介质可以形成基于分组的网络(诸如局域网、广域网或全球网络(诸如因特网))的一部分。通信介质可以包括路由器、交换机、基站或有助于促进从源设备102到目的设备116的通信的任何其他装置。
在一些示例中,源设备102可以从输出接口108向存储设备112输出经编码的数据。类似地,目的设备116可以经由输入接口122访问来自存储设备112的经编码的数据。存储设备112可以包括多种分布式或本地访问的数据存储介质中的任何一种,诸如硬盘驱动器、蓝光光盘、DVD、CD-ROM、闪速存储器、易失性或非易失性存储器,或者用于存储经编码的视频数据的任何其他合适的数字存储介质。
在一些示例中,源设备102可以向文件服务器114或可以存储由源设备102生成的经编码的视频的另一中间存储设备输出经编码的视频数据。目的设备116可以经由流传输或下载从文件服务器114访问所存储的视频数据。文件服务器114可以是能存储经编码的视频数据并向目的设备116发送该经编码的视频数据的任何类型的服务器设备。文件服务器114可以表示网页服务器(例如,用于网站的)、文件传输协议(FTP)服务器、内容传递网络设备或网络附加存储(NAS)设备。目的设备116可以通过任何标准数据连接,包括互联网连接,访问来自文件服务器114的经编码的视频数据。这可以包括无线信道(例如,Wi-Fi连接)、有线连接(例如,DSL、电缆调制解调器等)或者二者的组合,它们适于访问存储在文件服务器114上的经编码的视频数据。文件服务器114和输入接口122可以被配置为根据流传输协议、下载传输协议或其组合来操作。
输出接口108和输入接口122可以表示无线发送器/接收器、调制解调器、有线网络组件(例如,以太网卡)、根据多种IEEE 802.11标准中的任何一种操作的无线通信组件或其他物理组件。在输出接口108和输入接口122包括无线组件的示例中,输出接口108和输入接口122可以被配置为根据蜂窝通信标准,诸如4G、4G-LTE(长期演进)、高级LTE、5G或类似标准,来传输数据,诸如经编码的视频数据。在输出接口108包括无线发送器的一些示例中,输出接口108和输入接口122可以被配置为根据其他无线标准,诸如IEEE 802.11规范、IEEE802.15规范(例如,ZigBeeTM)、蓝牙TM标准或类似标准,来传输数据,诸如经编码的视频数据。在一些示例中,源设备102和/或目的设备116可以包括各自的片上***(SoC)设备。例如,源设备102可以包括执行属于视频编码器200和/或输出接口108的功能性的SoC设备,并且目的设备116可以包括执行属于视频解码器300和/或输入接口122的功能性的SoC设备。
本公开的技术可以应用于视频编解码,以支持多种多媒体应用中的任何一种,诸如空中电视广播、有线电视传输、***传输、互联网流传输视频传输(诸如通过HTTP的动态自适应流传输(DASH))、经编码到数据存储介质上的数字视频、存储在数据存储介质上的数字视频的解码或其他应用。
目的设备116的输入接口122可以从计算机可读介质110(例如,存储设备112、文件服务器114等)接收经编码的视频比特流。来自计算机可读介质110的经编码的视频比特流可以包括由视频编码器200定义的信令信息,诸如具有描述视频块或其他经编解码的单元(例如,条带、图片、图片组、序列等)的特征和/或处理的值的语法元素,该信令信息也被视频解码器300使用。显示设备118向用户显示经解码的视频数据的经解码的图片。显示设备118可以表示多种显示设备中的任何一种,诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子显示器、有机发光二极管(OLED)显示器或另一种类型的显示设备。
虽然图1中未示出,但是在一些示例中,视频编码器200和视频解码器300可以各自与音频编码器和/或音频解码器集成,并且可以包括适当的MUX-DEMUX单元或其他硬件和/或软件,以处理包括公共数据流中的音频和视频两者的经多路复用的流。如果适用,MUX-DEMUX单元可以符合ITU H.223多路复用器协议,或其他协议,诸如用户数据报协议(UDP)。
视频编码器200和视频解码器300各自可以被实施为多种合适的编码器和/或解码器电路中的任何一种,诸如一个或多个微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、分立逻辑、软件、硬件、固件或其任何组合。当这些技术部分地在软件中实施时,设备可以将用于软件的指令存储在合适的非暂时性计算机可读介质中,并且在硬件中使用一个或多个处理器来运行这些指令以执行本公开的技术。视频编码器200和视频解码器300中的每一个可以被包括在一个或多个编码器或解码器中,其中任一个可以被集成为相应设备中的组合编码器/解码器(编解码器(CODEC))的一部分。包括视频编码器200和/或视频解码器300的设备可以包括集成电路、微处理器和/或无线通信设备,诸如蜂窝电话。
视频编码器200和视频解码器300可以根据视频编解码标准来操作,诸如ITU-TH.265,也被称为高效率视频编解码(HEVC)或其扩展,诸如多视图和/或可缩放视频编解码扩展。可替代地,视频编码器200和视频解码器300可以根据其他专有或行业标准来操作,诸如联合勘探测试模型(JEM)或ITU-T H.266,也被称为通用视频编解码(VVC)。2018年10月3日至12日,在中国澳门举行的ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家小组(JVET)第12次会议(JVET-L1001-v9)上,由Bross等人提出的“Versatile VideoCoding(Draft 3)”(下文简称“VVC草案3”)中描述了VVC标准的最新草案。然而,本公开的技术不限于任何特定的编解码标准。
通常,视频编码器200和视频解码器300可以执行图片的基于块的编解码。术语“块”通常指包括待处理的数据(例如,经编码的、经解码的或用在编码过程和/或解码过程中的其他形式的数据)的结构。例如,块可以包括亮度和/或色度数据的样点的二维矩阵。通常,视频编码器200和视频解码器300可以编解码以YUV(例如,Y、Cb、Cr)格式表示的视频数据。也就是说,视频编码器200和视频解码器300可以对亮度和色度分量进行编解码,而不是对用于图片的样点的红、绿和蓝(RGB)数据进行编解码,其中色度分量可以包括红色调和蓝色调色度分量两种。在一些示例中,视频编码器200在编码之前将所接收的RGB格式化数据转换成YUV表示,并且视频解码器300将YUV表示转换成RGB格式。可替代地,预处理和后处理单元(未示出)可以执行这些转换。
本公开通常可以涉及图片的编解码(例如,编码和解码),以包括编码或解码图片数据的过程。类似地,本公开可以涉及图片的块的编解码,以包括编码或解码用于块的数据的过程,例如预测和/或残差编解码。经编码的视频比特流通常包括表示编解码决策(例如,编解码模式)和图片到块的分割的语法元素的一系列值。因此,对编解码图片或块的引用通常应被理解为用于形成图片或块的语法元素的编解码值。
HEVC定义了各种块,包括编解码单元(CU)、预测单元(PU)和变换单元(TU)。根据HEVC,视频编解码器(诸如视频编码器200)根据四叉树结构来将编解码树单元(CTU)分割成CU。也就是说,视频编解码器将CTU和CU分割成四个相等的、不重叠的正方形,并且四叉树的每个节点有零个或四个子节点。没有子节点的节点可以被称为“叶节点”,并且此叶节点的CU可以包括一个或多个PU和/或一个或多个TU。视频编解码器还可以分割PU和TU。例如,在HEVC中,残差四叉树(RQT)表示TU的分割。在HEVC中,PU表示帧间预测数据,而TU表示残差数据。经帧内预测的CU包括帧内预测信息,诸如帧内模式指示。
作为另一示例,视频编码器200和视频解码器300可以被配置为根据JEM或VVC来操作。根据JEM或VVC,视频编解码器(诸如视频编码器200)将图片分割成CTU。视频编码器200可以根据树结构,诸如四叉树-二叉树(QTBT)结构或多类型树(MTT)结构来分割CTU。QTBT结构移除了多种分割类型的概念,诸如HEVC的CU、PU以及TU之间的分离。QTBT结构包括两层:根据四叉树分割来分割的第一层和根据二叉树分割来分割的第二层。QTBT结构的根节点对应于CTU。二叉树的叶节点对应于CU。
在MTT分割结构中,块可以使用四叉树(QT)分割、二叉树(BT)分割和一种或多种类型的三叉树(TT)分割来分割。三叉树分割是将块划分成三个子块的分割。在一些示例中,三叉树分割将块分成三个子块,而不通过中心来分原始块。MTT(例如,QT、BT和TT)中的分割类型可以是对称的或者不对称的。
在一些示例中,视频编码器200和视频解码器300可以使用单个QTBT或MTT结构来表示亮度分量和色度分量中的每一个分量,而在其他示例中,视频编码器200和视频解码器300可以使用两个或多个QTBT或MTT结构,诸如一个QTBT/MTT结构用于亮度分量,而另一QTBT/MTT结构用于两个色度分量(或者两个QTBT/MTT结构用于相应的色度分量)。
视频编码器200和视频解码器300可以被配置为使用每HEVC四叉树分割、QTBT分割、或MTT分割或其他分割结构。出于解释的目的,相对于QTBT分割来呈现本公开的技术的描述。然而,应当理解的是,本公开的技术也可以应用于被配置以使用四叉树分割或其他类型的分割的视频编解码器。
本公开可以互换地使用“N×N”和“N乘N”来指代块(比如CU或其他视频块)在垂直和水平维度方面的样点维度,例如,16×16样点或16乘16样点。通常,16×16CU在垂直方向上有16个样点(y=16),并且在水平方向上有16个样点(x=16)。同样地,N×N CU通常在垂直方向上具有N个样点,并且在水平方向上具有N个样点,其中N表示非负整数值。CU中的样点可以按行和列布置。此外,CU不一定需要在水平方向具有与垂直方向相同数量的样点。例如,CU可以包括N×M个样点,其中M不一定等于N。
视频编码器200编码表示预测和/或残差信息以及其他信息的用于CU的视频数据。预测信息指示如何预测CU,以便形成用于CU的预测块。残差信息通常表示编码之前的CU样点与预测块之间的逐样点差异。
为了预测CU,视频编码器200通常可以通过帧间预测或帧内预测来形成用于CU的预测块。帧间预测通常指从先前经编解码的图片的数据中预测CU,而帧内预测通常指从相同图片的先前经编解码的数据中预测CU。为了执行帧间预测,视频编码器200可以使用一个或多个运动矢量来生成预测块。视频编码器200通常可以执行运动搜索以标识与CU紧密匹配的参考块,例如,就CU与参考块之间的差异而言。视频编码器200可以使用绝对差和(SAD)、平方差和(SSD)、平均绝对差(MAD)、均方差(MSD)或其它此类差计算来计算差度量,以确定参考块是否与当前CU紧密匹配。在一些示例中,视频编码器200可以使用单向预测或双向预测来预测当前CU。
JEM和VVC的一些示例也提供仿射运动补偿模式,该模式可以被认为是帧间预测模式。在仿射运动补偿模式下,视频编码器200可以确定表示非平移运动的两个或多个运动矢量,诸如放大或缩小、旋转、透视运动或其他不规则运动类型。
为了执行帧内预测,视频编码器200可以选择帧内预测模式来生成预测块。JEM和VVC的一些示例提供了六十七种帧内预测模式,包括各种方向的模式,以及平面模式和DC模式。通常,视频编码器200选择描述与当前块(例如,CU的块)相邻的样点的帧内预测模式,根据该模式来预测当前块的样点。假设视频编码器200以光栅扫描顺序(从左侧到右侧、从顶部到底部)来编解码CTU和CU,此类样点通常可以在与当前块相同的图片中的当前块的上方、当前块的上方到左侧,或到当前块的左侧。
视频编码器200对表示用于当前块的预测模式的数据进行编码。例如,对于帧间预测模式,视频编码器200可以对表示使用了各种可用帧间预测模式中的哪一种的数据进行编码,以及对用于对应模式的运动信息进行编码。例如,对于单向或双向帧间预测,视频编码器200可以使用高级运动矢量预测(AMVP)或合并(Merge)模式来编码运动矢量。视频编码器200可以使用类似模式来编码用于仿射运动补偿模式的运动矢量。
在预测之后,诸如块的帧内预测或帧间预测之后,视频编码器200可以计算用于块的残差数据。残差数据(诸如残差块)表示块与针对该块的预测块之间的逐样点差异,其通过使用对应预测模式而形成。视频编码器200可以对残差块应用一个或多个变换,以在变换域而不是样点域中产生经变换的数据。例如,视频编码器200可以对残差视频数据应用离散余弦变换(DCT)、整数变换、小波变换或概念上类似的变换。附加地,视频编码器200可以在第一变换之后应用二次变换,诸如模式相关的不可分离二次变换(MDNSST)、信号相关的变换、Karhunen-Loeve变换(KLT)等。视频编码器200在应用一个或多个变换之后产生变换系数。
如上所述,在产生变换系数的任何变换之后,视频编码器200可以执行变换系数的量化。量化通常指其中变换系数被量化以尽可能减少用来表示系数的数据量从而提供进一步压缩的过程。通过执行量化过程,视频编码器200可以减少与一些或所有系数相关联的位深度。例如,视频编码器200可以在量化期间将n位值向下舍入成m位值,其中n大于m。在一些示例中,为了执行量化,视频编码器200可以对待量化的值执行按位右移。
量化之后,视频编码器200可以扫描变换系数,从而从包括经量化的变换系数的二维矩阵中产生一维矢量。扫描可以被设计成将较高能量(并且因此较低频率的)的系数放置在矢量的前面,并且将较低能量(并且因此较高频率的)的变换系数放置在矢量的后面。在一些示例中,视频编码器200可以利用预定扫描顺序来扫描经量化的变换系数,以产生经串行化的矢量,并且然后,对矢量的经量化的变换系数进行熵编码。在其他示例中,视频编码器200可以执行自适应扫描。在扫描经量化的变换系数以形成一维矢量之后,视频编码器200可以例如根据上下文自适应二进制算术编解码(CABAC)对一维矢量进行熵编码。视频编码器200也可以对用于描述了与经编码的视频数据相关联的元数据的语法元素的值进行熵编码,以供视频解码器300在对视频数据进行解码时使用。
为了执行CABAC,视频编码器200可以将上下文模型内的上下文分配给待传输的符号。上下文可以涉及例如符号的相邻值是否为零值。概率确定可以基于被分配给符号的上下文。
视频编码器200还可以例如在图片标头、块标头、条带标头或其他语法数据中(诸如序列参数集(SPS)、图片参数集(PPS)或视频参数集(VPS))给视频解码器300生成语法数据,诸如基于块的语法数据、基于图片的语法数据和基于序列的语法数据。视频解码器300可以同样地解码此语法数据,以确定如何解码对应视频数据。
以这种方式,视频编码器200可以生成比特流,该比特流包括经编码的视频数据,例如描述了图片到块(例如,CU)的分割的语法元素以及用于块的预测和/或残差信息。最终,视频解码器300可以接收比特流并解码经编码的视频数据。
通常,视频解码器300执行与由视频编码器200执行的过程相反的过程,以解码比特流的经编码的视频数据。例如,视频解码器300可以使用CABAC、按与视频编码器200的CABAC编码过程基本类似但相反的方式,解码比特流的用于语法元素的值。语法元素可以定义图片到CTU的分割信息,以及根据对应分割结构(诸如QTBT结构)的每个CTU的分割,以定义CTU的CU。语法元素还可以定义用于视频数据的块(例如,CU)的预测和残差信息。
残差信息可以由例如经量化的变换系数来表示。视频解码器300可以对块的经量化的变换系数进行逆量化和逆变换,以重新产生用于块的残差块。视频解码器300使用发信号通知的预测模式(帧内预测或帧间预测)和有关预测信息(例如,用于帧间预测的运动信息),以形成用于块的预测块。视频解码器300然后可以(在逐样点的基础上)组合预测块和残差块,以重新产生原始块。视频解码器300可以执行附加处理,诸如执行去块过程以减少沿块的边界的视觉伪像。
根据本公开的技术,如下文将更详细解释的,视频编码器200和视频解码器300可以被配置为使用仿射编解码模式和受约束的仿射运动继承来对视频数据的块进行编解码。例如,视频编码器200和视频解码器300可以被配置为从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
本公开可以通常涉及“发信号通知”特定信息,诸如语法元素。术语“发信号通知”通常可以指用来解码经编码的视频数据的用于语法元素和/或其他数据的值的传送。也就是说,视频编码器200可以在比特流中发信号通知用于语法元素的值。通常,发信号通知指在比特流中生成值。如上所述,源设备102可以基本上实时地或者不实时地向目的设备116传输比特流,诸如当将语法元素存储到存储设备112以供目的设备116稍后检索时可能发生的情况。
图2A和图2B是图示了示例四叉树二叉树(QTBT)结构130和对应编解码树单元(CTU)132的概念图。实线表示四叉树划分,并且虚线指示二叉树划分。在二叉树的每个划分节点(即,非叶节点)中,一个标志被发信号通知以指示使用哪种划分类型(即,水平或垂直),其中在该示例中,0指示水平划分,1指示垂直划分。对于四叉树划分,不需要指示划分类型,因为四叉树节点将块水平和垂直划分成4个尺寸相等的子块。相应地,视频编码器200可以编码用于QTBT结构130的区域树层(即实线)的语法元素(诸如划分信息)和用于QTBT结构130的预测树层(即虚线)的语法元素(例如划分信息),并且视频解码器300可以对这些语法元素进行解码。视频编码器200可以编码用于由QTBT结构130的终端叶节点表示的CU的视频数据(诸如预测和变换数据),并且视频解码器300可以对该视频数据进行解码。
通常,图2B的CTU 132可以与定义与第一和第二层的QTBT结构130的节点对应的块的尺寸的参数相关联。这些参数可以包括CTU尺寸(表示样点中CTU 132的尺寸)、最小四叉树尺寸(MinQTSize,表示最小允许的四叉树叶节点尺寸)、最大二叉树尺寸(MaxBTSize,表示最大允许的二叉树根节点尺寸)、最大二叉树深度(MaxBTDepth,表示最大允许的二叉树深度)和最小二叉树尺寸(MinBTSize,表示最小允许的二叉树叶节点尺寸)。
与CTU对应的QTBT结构的根节点可以在QTBT结构的第一层具有四个子节点,该子节点中的每一个可以根据四叉树分割来分割。也就是说,第一层的节点要么是叶节点(没有子节点),要么具有四个子节点。QTBT结构130的示例将此类节点表示为包括父节点和具有用于分支的实线的子节点。如果第一层的节点不大于最大允许的二叉树根节点尺寸(MaxBTSize),则它们可以进一步被相应的二叉树分割。可以迭代一个节点的二叉树划分,直到划分得到的节点达到最小允许的二叉树叶节点尺寸(MinBTSize)或最大允许的二叉树深度(MaxBTDepth)。QTBT结构130的示例将此类节点表示为具有用于分支的虚线。二叉树叶节点被称为CU,其用于预测(例如,帧内图片预测或帧间图片预测)和变换,而无需任何进一步的分割。如上文所讨论的,CU也可以被称为“视频块”或“块”。
在QTBT分割结构的一个示例中,CTU尺寸被设置为128×128(亮度样点和两个对应64×64色度样点),MinQTSize被设置为16×16,MaxBTSize被设置为64×64,MinBTSize(对于宽度和高度两者)被设置为4,以及MaxBTDepth被设置为4。首先将四叉树分割应用于CTU,以生成四叉树叶节点。四叉树叶节点可以具有从16×16(即,MinQTSize)到128×128(即,CTU尺寸)的尺寸。如果叶四叉树节点是128×128,则叶四叉树节点不会被二叉树进一步划分,因为其尺寸超过了MaxBTSize(即,在本示例中为64×64)。否则,叶四叉树节点将被二叉树进一步分割。因此,四叉树叶节点也是用于二叉树的根节点,并且二叉树深度为0。当二叉树深度达到MaxBTDepth(在本示例中为4)时,不准许进一步划分。当二叉树节点的宽度等于MinBTSize(在本示例中为4)时,意味着不准许进一步的水平划分。类似地,高度等于MinBTSize的二叉树节点意味着对于该二叉树节点不准许进一步的垂直划分。如上所述,二叉树的叶节点被称为CU,并根据预测和变换被进一步处理,而无需进一步分割。
图3是图示了可以执行本公开的技术的示例视频编码器200的框图。图3是出于解释的目的而提供的,并且不应当被认为是对本公开中广泛例示和描述的技术的限制。出于解释的目的,本公开在视频编解码标准(诸如HEVC视频编解码标准和正在开发的H.266视频编解码标准)的背景下描述了视频编码器200。然而,本公开的技术不限于这些视频编解码标准,并且通常适用于视频编码和解码。
在图3的示例中,视频编码器200包括视频数据存储器230、模式选择单元202、残差生成单元204、变换处理单元206、量化单元208、逆量化单元210、逆变换处理单元212、重构单元214、滤波器单元216、经解码的图片缓冲器(DPB)218和熵编码单元220。视频数据存储器230、模式选择单元202、残差生成单元204、变换处理单元206、量化单元208、逆量化单元210、逆变换处理单元212、重构单元214、滤波器单元216、DPB 218和熵编码单元220中的任何一个或全部可以在一个或多个处理器中或在处理电路中实施。此外,视频编码器200可以包括附加的或替代的处理器或处理电路来执行这些和其他功能。
视频数据存储器230可以存储要由视频编码器200的组件编码的视频数据。视频编码器200可以从例如视频源104(图1)接收存储在视频数据存储器230中的视频数据。DPB218可以用作参考图片存储器,其存储参考视频数据,以供视频编码器200用于后续视频数据的预测。视频数据存储器230和DPB 218可以由多种存储器设备中的任何一种形成,诸如动态随机存取存储器(DRAM),包括同步DRAM(SDRAM)、磁阻RAM(MRAM)、电阻RAM(RRAM)或其他类型的存储器设备。视频数据存储器230和DPB 218可以由同一存储器设备或不同的存储器设备提供。在各种示例中,视频数据存储器230可以与视频编码器200的其他组件在芯片上,如所图示的,或者相对于那些组件在芯片外。
在本公开中,提到视频数据存储器230不应被解释为限于视频编码器200内部的存储器,除非具体描述如此,或者限于视频编码器200外部的存储器,除非具体描述如此。相反,提到视频数据存储器230应该被理解为存储视频编码器200接收用于编码的视频数据(例如,用于要被编码的当前块的视频数据)的参考存储器。图1的存储器106也可以提供来自视频编码器200的各种单元的输出的临时存储。
图示了图3的各种单元,以帮助理解由视频编码器200执行的操作。这些单元可以被实施为固定功能电路、可编程电路或其组合。固定功能电路指提供特定功能性的电路,并被预设在可以被执行的操作上。可编程电路指可以被编程为执行各种任务并在可以被执行的操作中提供灵活功能性的电路。例如,可编程电路可以运行软件或固件,使可编程电路按由软件或固件的指令定义的方式操作。固定功能电路可以运行软件指令(例如,以接收参数或输出参数),但是固定功能电路执行的操作类型通常是不可变的。在一些示例中,一个或多个单元可以是不同的电路块(固定功能的或可编程的),并且在一些示例中,一个或多个单元可以是集成电路。
视频编码器200可以包括由可编程电路形成的算术逻辑单元(ALU)、基本功能单元(EFU)、数字电路、模拟电路和/或可编程核心。在使用由可编程电路运行的软件来执行视频编码器200的操作的示例中,存储器106(图1)可以存储视频编码器200接收和运行的软件的目标代码,或者视频编码器200内的另一存储器(未示出)可以存储此类指令。
视频数据存储器230被配置为存储所接收的视频数据。视频编码器200可以从视频数据存储器230中检索视频数据的图片,并向残差生成单元204和模式选择单元202提供视频数据。视频数据存储器230中的视频数据可以是要被编码的原始视频数据。
模式选择单元202包括运动估计单元222、运动补偿单元224和帧内预测单元226。模式选择单元202可以包括附加的功能单元,以根据其他预测模式来执行视频预测。作为示例,模式选择单元202可以包括调色板单元、帧内块复制单元(其可以是运动估计单元222和/或运动补偿单元224的一部分)、仿射单元(AU)223、线性模型(LM)单元等。
模式选择单元202通常协调多个编码过程,以测试编码参数的组合以及得到的用于此类组合的率失真值。编码参数可以包括CTU到CU的分割、用于CU的预测模式、用于CU残差数据的变换类型、用于CU残差数据的量化参数等。模式选择单元202可以最终选择具有比其他测试组合更好的率失真值的编码参数的组合。
视频编码器200可以将从视频数据存储器230中检索的图片分割成一系列CTU,并将一个或多个CTU封装在条带内。模式选择单元202可以根据树结构(诸如上述HEVC的QTBT结构或四叉树结构)来分割图片的CTU。如上所述,视频编码器200可以根据树结构通过分割CTU来形成一个或多个CU。此CU也可以通常被称为“视频块”或“块”。
通常,模式选择单元202也控制其组件(例如,运动估计单元222、运动补偿单元224和帧内预测单元226)来生成用于当前块(例如,当前CU,或者在HEVC中,PU和TU的重叠部分)的预测块。对于当前块的帧间预测,运动估计单元222可以执行运动搜索来标识一个或多个参考图片(例如,存储在DPB 218中的一个或多个先前经编解码的图片)中的一个或多个紧密匹配的参考块。特别地,运动估计单元222可以例如根据绝对差和(SAD)、平方差和(SSD)、平均绝对差(MAD)、均方差(MSD)等来计算表示潜在参考块对当前块有多相似的值。运动估计单元222通常可以使用当前块与所考虑的参考块之间的逐样点差异来执行这些计算。运动估计单元222可以标识具有从这些计算得到的最低值的参考块,指示最紧密匹配当前块的参考块。
运动估计单元222可以形成一个或多个运动矢量(MV),该一个或多个MV定义参考图片中的参考块相对于当前图片中的当前块的位置的位置。运动估计单元222然后可以向运动补偿单元224提供运动矢量。例如,对于单向帧间预测,运动估计单元222可以提供单个运动矢量,而对于双向帧间预测,运动估计单元222可以提供两个运动矢量。运动补偿单元224然后可以使用运动矢量来生成预测块。例如,运动补偿单元224可以使用运动矢量来检索参考块的数据。作为另一示例,如果运动矢量具有分数采样精度,则运动补偿单元224可以根据一个或多个插值滤波器来插值用于预测块的值。此外,对于双向帧间预测,运动补偿单元224可以检索由相应运动矢量标识的用于两个参考块的数据,并例如通过逐样点平均或加权平均来组合所检索的数据。
作为另一示例,对于帧内预测或帧内预测编解码,帧内预测单元226可以从与当前块相邻的样点中生成预测块。例如,对于方向模式,帧内预测单元226通常可以数学上地组合相邻样点的值,并在跨越当前块的定义方向上填充这些计算出的值,以产生预测块。作为另一示例,对于DC模式,帧内预测单元226可以对当前块计算相邻样点的平均值,并生成预测块以包括该得到的用于预测块的每个样点的平均值。
模式选择单元202向残差生成单元204提供预测块。残差生成单元204从视频数据存储器230接收当前块的原始的、未经编解码的版本,并从模式选择单元202接收预测块。残差生成单元204计算当前块与预测块之间的逐样点差异。得到的逐样点差异定义了用于当前块的残差块。在一些示例中,残差生成单元204也可以确定残差块中的样点值之间的差,以使用残差差分脉冲编解码调制(RDPCM)来生成残差块。在一些示例中,残差生成单元204可以使用执行二进制减法的一个或多个减法器电路来形成。
在模式选择单元202将CU分割成PU的示例中,每个PU可以与亮度预测单元和对应色度预测单元相关联。视频编码器200和视频解码器300可以支持具有各种尺寸的PU。如上文所指示的,CU的尺寸可以指CU的亮度编解码块的尺寸,而PU的尺寸可以指PU的亮度预测单元的尺寸。假设特定CU的尺寸为2N×2N,视频编码器200可以支持用于帧内预测的2N×2N或N×N的PU尺寸,以及用于帧间预测的2N×2N、2N×N、N×2N、N×N或类似的对称PU尺寸。视频编码器200和视频解码器300也可以支持对用于帧间预测的2N×nU、2N×nD、nL×2N和nR×2N的PU尺寸的非对称分割。
在模式选择单元没有进一步将CU分割成PU的示例中,每个CU可以与亮度编解码块和对应色度编解码块相关联。同上,CU的尺寸可以指CU的亮度编解码块的尺寸。视频编码器200和视频解码器300可以支持2N×2N、2N×N或N×2N的CU尺寸。
对于其它视频编解码技术,诸如帧内块复制模式编解码、仿射模式编解码和线性模型(LM)模式编解码,作为少数示例,模式选择单元202经由与编解码技术相关联的相应单元,生成用于正被编码的当前块的预测块。例如,在仿射模式编解码的情况下,仿射单元223可以从视频数据的当前块的相邻块的控制点运动矢量(CPMV)中确定增量运动矢量,缩放增量运动矢量,以及当生成用于正被编码的视频数据的当前块的预测块时,裁剪增量运动矢量。在一些示例中,诸如调色板模式编解码,模式选择单元202可以不生成预测块,而是生成指示按基于所选择的调色板来重构块的方式的语法元素。在此类模式下,模式选择单元202可以向熵编码单元220提供这些语法元素以待编码。
如上所述,残差生成单元204接收用于当前块和对应预测块的视频数据。残差生成单元204然后生成用于当前块的残差块。为生成残差块,残差生成单元204计算预测块与当前块之间的逐样点差异。
变换处理单元206对残差块应用一个或多个变换,以生成变换系数的块(本文中被称为“变换系数块”)。变换处理单元206可以对残差块应用各种变换,以形成变换系数块。例如,变换处理单元206可以对残差块应用离散余弦变换(DCT)、方向变换、Karhunen-Loeve变换(KLT)或概念上类似的变换。在一些示例中,变换处理单元206可以对残差块执行多个变换,例如主变换和二次变换,诸如旋转变换。在一些示例中,变换处理单元206不对残差块应用变换。
量化单元208可以量化变换系数块中的变换系数,以产生经量化的变换系数块。量化单元208可以根据与当前块相关联的量化参数(QP)值来量化变换系数块的变换系数。视频编码器200(例如,经由模式选择单元202)可以通过调整与CU相关联的QP值来调整应用于与当前块相关联的系数块的量化程度。量化可能引入信息损失,并且因此,经量化的变换系数可能具有比由变换处理单元206产生的原始变换系数更低的精度。
逆量化单元210和逆变换处理单元212可以对经量化的变换系数块分别应用逆量化和逆变换,以从变换系数块中重构残差块。重构单元214可以基于经重构的残差块和由模式选择单元202生成的预测块来产生与当前块对应的经重构的块(尽管可能具有一定程度的失真)。例如,重构单元214可以将经重构的残差块的样点添加到来自由模式选择单元202生成的预测块的对应样点中,以产生经重构的块。
滤波器单元216可以对经重构的块执行一个或多个滤波操作。例如,滤波器单元216可以执行去块操作来减少沿CU边缘的块效应伪影。滤波器单元216的操作可以在一些示例中跳过。
视频编码器200将经重构的块存储在DPB 218中。例如,在不需要滤波器单元216的操作的示例中,重构单元214可以将经重构的块存储至DPB 218。在不需要滤波器单元216的操作的示例中,滤波器单元216可以将经滤波的经重构的块存储至DPB 218。运动估计单元222和运动补偿单元224可以从DPB 218中检索参考图片,该参考图片由经重构的(并且潜在地经滤波的)块形成,以对随后经编码的图片的块进行帧间预测。另外,帧内预测单元226可以使用DPB 218中的当前图片的经重构的块来对当前图片中的其他块进行帧内预测。
通常,熵编码单元220可以对从视频编码器200的其他功能组件接收的语法元素进行熵编码。例如,熵编码单元220可以对来自量化单元208的经量化的变换系数块进行熵编码。作为另一示例,熵编码单元220可以对来自模式选择单元202的预测语法元素(例如,用于帧间预测的运动信息或用于帧内预测的帧内模式信息)进行熵编码。熵编码单元220可以对作为视频数据的另一示例的语法元素执行一个或多个熵编码操作,以生成经熵编码的数据。例如,熵编码单元220可以对数据执行上下文自适应可变长度编解码(CAVLC)操作、CABAC操作、变量到变量(V2V)长度编解码操作、基于语法的上下文自适应二进制算术编解码(SBAC)操作、概率区间分割熵(PIPE)编解码操作、指数Golomb编解码操作或另一种类型的熵编码操作。在一些示例中,熵编码单元220可以在旁路模式下操作,在旁路模式下,语法元素未被熵编码。
视频编码器200可以输出比特流,该比特流包括重构条带或图片的块所需的经熵编码的语法元素。例如,熵编码单元220可以输出比特流。
上述操作是相对于块来描述的。此描述应当被理解为用于亮度编解码块和/或色度编解码块的操作。如上所述,在一些示例中,亮度编解码块和色度编解码块是CU的亮度分量和色度分量。在一些示例中,亮度编解码块和色度编解码块是PU的亮度分量和色度分量。
在一些示例中,对于色度编解码块,不需要重复相对于亮度编解码块执行的操作。作为一个示例,标识用于亮度编解码块的MV和参考图片的操作不需要重复用于标识用于色度块的MV和参考图片。相反,用于亮度编解码块的MV可以被缩放以确定用于色度块的MV,并且参考图片可以是相同的。作为另一示例,对于亮度编解码块和色度编解码块,帧内预测过程可以是相同的。
视频编码器200表示被配置为编码视频数据的设备的示例,该设备包括存储器和一个或多个处理器,该存储器被配置为存储视频数据,该一个或多个处理器在电路中实施并且被配置为从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
图4是图示了可以执行本公开的技术的示例视频解码器300的框图。图4是出于解释的目的而提供的,并且不限制如本公开广泛例示和描述的技术。出于解释的目的,根据JEM、VVC和HEVC的技术描述了视频解码器300。然而,本公开的技术可以由被配置为其他视频编解码标准的视频编解码设备来执行。
在图4的示例中,视频解码器300包括经编解码的图片缓冲器(CPB)存储器320、熵解码单元302、预测处理单元304、逆量化单元306、逆变换处理单元308、重构单元310、滤波器单元312和经解码的图片缓冲器(DPB)314。CPB存储器320、熵解码单元302、预测处理单元304、逆量化单元306、逆变换处理单元308、重构单元310、滤波器单元312和DPB 314中的任何一个或全部在一个或多个处理器中或在处理电路中实施。此外,视频解码器300可以包括附加的或可替代的处理器或处理电路来执行这些和其他功能。
预测处理单元304包括运动补偿单元316和帧内预测单元318。预测处理单元304可以包括附加的单元,以根据其他预测模式来执行预测。作为示例,预测处理单元304可以包括调色板单元、帧内块复制单元(其可以形成运动补偿单元316的一部分)、仿射单元(AU)317、线性模型(LM)单元等。在其他示例中,视频解码器300可以包括更多、更少或不同的功能组件。
CPB存储器320可以存储要由视频解码器300的组件解码的视频数据,诸如经编码的视频比特流。存储在CPB存储器320中的视频数据可以例如从计算机可读介质110(图1)获得。CPB存储器320可以包括存储来自经编码的视频比特流的经编码的视频数据(例如,语法元素)的CPB。而且,CPB存储器320可以存储除经编解码的图片的语法元素之外的视频数据,诸如表示来自视频解码器300的各种单元的输出的临时数据。DPB 314通常存储经解码的图片,视频解码器300可以在解码经编码的视频比特流的后续数据或图片时,输出该经解码的图片和/或将其用作参考视频数据。视频数据存储器320和DPB 314可以由多种存储器设备中的任何一种形成,诸如动态随机存取存储器(DRAM),包括同步DRAM(SDRAM)、磁阻RAM(MRAM)、电阻RAM(RRAM)或其他类型的存储器设备。CPB存储器320和DPB 314可以由同一存储器设备或不同的存储器设备提供。在各种示例中,CPB存储器320可以与视频解码器300的其他组件在芯片上,或者相对于那些组件在芯片外。
附加地或可替代地,在一些示例中,视频解码器300可以从存储器120(图1)中检索经编解码的视频数据。也就是说,存储器120可以如上文所讨论的用CPB存储器320来存储数据。同样地,存储器120可以在视频解码器300的一些或全部功能性在要由视频解码器300的处理电路运行的软件中实施时,存储待视频解码器300运行的指令。
图示了图4中示出的各种单元,以帮助理解由视频解码器300执行的操作。这些单元可以被实施为固定功能电路、可编程电路或其组合。类似于图3,固定功能电路指提供特定功能性的电路,并被预设在可以被执行的操作上。可编程电路指可以被编程为执行各种任务并在可以被执行的操作中提供灵活功能性的电路。例如,可编程电路可以运行软件或固件,使可编程电路按由软件或固件的指令定义的方式操作。固定功能电路可以运行软件指令(例如,以接收参数或输出参数),但是固定功能电路执行的操作类型通常是不可变的。在一些示例中,一个或多个单元可以是不同的电路块(固定功能的或可编程的),并且在一些示例中,一个或多个单元可以是集成电路。
视频解码器300可以包括由可编程电路形成的ALU、EFU、数字电路、模拟电路和/或可编程核心。在视频解码器300的操作由在可编程电路上运行的软件来执行的示例中,片上或片外存储器可以存储视频解码器300接收和运行的软件的指令(例如,目标代码)。
熵解码单元302可以从CPB中接收经编码的视频数据,并对视频数据进行熵解码以重新产生语法元素。预测处理单元304、逆量化单元306、逆变换处理单元308、重构单元310和滤波器单元312可以基于从比特流中提取的语法元素来生成经解码的视频数据。
通常,视频解码器300在逐块基础上重构图片。视频解码器300可以对每个块单独地执行重构操作(其中当前正被重构的块,即经解码的块可以被称为“当前块”)。
熵解码单元302可以对定义经量化的变换系数块的经量化变换系数的语法元素以及变换信息(诸如量化参数(QP)和/或(多个)变换模式指示)进行熵解码。逆量化单元306可以使用与经量化的变换系数块相关联的QP来确定量化程度,并且同样地,确定供逆量化单元306应用的逆量化程度。逆量化单元306可以例如执行逐位左移操作来对经量化的变换系数进行逆量化。逆量化单元306由此可以形成包括变换系数的变换系数块。
在逆量化单元306形成变换系数块之后,逆变换处理单元308可以对变换系数块应用一个或多个逆变换,以生成与当前块相关联的残差块。例如,逆变换处理单元308可以对系数块应用逆DCT、逆整数变换、逆Karhunen-Loeve变换(KLT)、逆旋转变换、逆方向变换或另一逆变换。
此外,预测处理单元304根据预测信息语法元素(包括由熵解码单元302熵解码的预测信息语法元素)来生成预测块。例如,如果预测信息语法元素指示当前块是帧间预测的,则运动补偿单元316可以生成预测块。在这种情况下,预测信息语法元素可以指示从中检索参考块的DPB 314中的参考图片,以及标识参考图片中的参考块相对于当前图片中的当前块的位置的运动矢量。运动补偿单元316通常可以按基本上类似于相对于运动补偿单元224(图3)描述的方式来执行帧间预测过程。
作为另一示例,如果预测信息语法元素指示当前块是帧内预测的,则帧内预测单元318可以根据由预测信息语法元素指示的帧内预测模式来生成预测块。再有,帧内预测单元318通常可以按基本上类似于相对于帧内预测单元226(图3)描述的方式来执行帧内预测过程。帧内预测单元318可以从DPB 314中对当前块检索相邻样点的数据。
在另一示例中,如果预测信息语法元素指示当前块是仿射预测的,则仿射单元317可以根据仿射模式生成预测块。仿射单元317可以从视频数据的当前块的相邻块的CPMV中确定增量运动矢量,缩放增量运动矢量,以及在生成用于正被编码的视频数据的当前块的预测块时,裁剪增量运动矢量。
重构单元310可以使用预测块和残差块来重构当前块。例如,重构单元310可以将残差块的样点添加到预测块的对应样点中,以重构当前块。
滤波器单元312可以对经重构的块执行一个或多个滤波操作。例如,滤波器单元312可以执行去块操作来减少沿经重构块的边缘的块效应伪影。滤波器单元312的操作不一定在所有示例中都执行。
视频解码器300可以将经重构的块存储在DPB 314中。如上所述,DPB 314可以向预测处理单元304提供参考信息,诸如用于帧内预测的当前图片的样点和先前的用于后续运动补偿的经解码的图片。此外,视频解码器300可以从DPB中输出经解码的图片,用于随后在显示设备上呈现,诸如图1的显示设备118。
在这种方式中,视频解码器300表示视频解码设备的示例,该视频解码设备包括存储器和一个或多个处理器,该存储器被配置为存储视频数据,该一个或多个处理器在电路中实施并且被配置为从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
图5是图示了用于六参数仿射运动模型的控制点的概念图。运动预测的一种模型是仿射模型。六参数仿射运动模型可以被描述为:
Figure BDA0003191680900000221
其中,(vx,vy)是坐标(x,y)处的运动矢量,并且a、b、c、d、e和f是六个参数。用于块的仿射运动模型也可以由块500的三个角处的三个运动矢量(MV)(有时被称为控制点运动矢量)
Figure BDA0003191680900000222
Figure BDA0003191680900000223
Figure BDA0003191680900000224
来描述,如图5所示。如图5所示,
Figure BDA0003191680900000225
在块500的左上角,
Figure BDA0003191680900000226
在块500的右上角,并且
Figure BDA0003191680900000227
在块500的左下角。然后,运动场被描述为:
Figure BDA0003191680900000228
其中,w和h是块的宽度和高度。
简化的四参数仿射运动模型可以被描述为:
Figure BDA0003191680900000231
类似地,用于块的简化的四参数仿射运动模型可以由块的两个角处的两个MV
Figure BDA0003191680900000232
Figure BDA0003191680900000233
来描述。运动场被描述为:
Figure BDA0003191680900000234
其中,w和h是块的宽度和高度。
图6是图示了用于仿射运动模型的块510的控制点运动矢量(例如,
Figure BDA0003191680900000235
)的另一示例的概念图。在下文中,MV
Figure BDA0003191680900000236
被称为CPMV。
CPMV不一定与图5或图6中的CPMV相同。也可以使用其他CPMV选择。对于四参数仿射模型,控制点对可以从如图6所示的CPMV
Figure BDA0003191680900000237
中的任何两个中选择。对于六参数仿射模型,控制点集可以从CPMV中的任何三个中选择。给定所选择的CPMV,可以通过推导的仿射运动模型来计算另外一个MV。
仿射运动模型也可以由坐标(x0,y0)处的锚MV
Figure BDA0003191680900000238
水平增量MV
Figure BDA0003191680900000239
和垂直增量MV
Figure BDA00031916809000002310
来表示。坐标(x,y)处的
Figure BDA00031916809000002311
可以被计算为
Figure BDA00031916809000002312
Figure BDA00031916809000002313
CPMV表示可以被转换成具有增量MV的表示。例如,
Figure BDA00031916809000002314
与左上角CPMV
Figure BDA00031916809000002315
相同。
注意,上述运算均为矢量运算。加法、除法和乘法运算是按元素应用的。
如同在HEVC的法向运动矢量预测技术中一样,仿射运动预测器可以从相邻经编解码的块的仿射运动矢量或法向运动矢量中推导。仿射运动预测器的示例类型包括继承的仿射运动矢量预测器和构造的仿射运动矢量预测器。
当获得继承的仿射运动矢量预测器(MVP)时,视频编码器200和视频解码器300可以被配置为使用相邻经编解码的块的仿射运动来推导当前块的预测CPMV。该过程在当前块与相邻经编解码的块共享相同的仿射运动模型的假设下运算。在该背景下,相邻经编解码的块被称为候选块。候选块可以从不同的空间或时间相邻位置中选择。图7示出了示例。图7中相邻候选块A 530的仿射运动矢量(被表示为控制点处的运动矢量)是:
Figure BDA00031916809000002316
Figure BDA00031916809000002317
候选块A 530的尺寸为(w,h),相邻候选块A 530的控制点的坐标为(x0,y0)、(x1,y1)和(x2,y2)。当前块520的控制点处的预测仿射运动矢量
Figure BDA0003191680900000241
Figure BDA0003191680900000242
可以通过用当前块520的控制点与相邻候选块A 530的左上角控制点之间的坐标差替换等式(2)中的(x,y)来推导,使得:
Figure BDA0003191680900000243
Figure BDA0003191680900000244
Figure BDA0003191680900000245
其中,(x0’,y0’),(x1’,y1’)和(x2’,y2’)是当前块中的控制点的坐标。如果被表示为增量MV,则
Figure BDA0003191680900000246
Figure BDA0003191680900000247
Figure BDA0003191680900000248
类似地,如果相邻候选块的仿射模型是四参数仿射模型,则应用等式(4)。如果用于当前块的仿射模型是四参数仿射模型,则忽略等式(7)。
图8是图示了示例候选块的概念图。在一个示例中,候选块可以位于如图8所示的位置A0、B0、B1、A1、B2。
构造的仿射运动矢量预测器通过将当前块的控制点处的运动矢量预测为法向运动矢量预测来推导。换句话说,视频编码器200或视频解码器300可以按类似于视频编码器200或视频解码器300推导仿射运动矢量预测器的方式来推导受约束的仿射运动矢量预测器。例如,如图8所示,左上角控制点处的运动矢量
Figure BDA0003191680900000249
可以由B2、B3或A3处的运动矢量预测,右上角控制点处的运动矢量
Figure BDA00031916809000002410
可以由B0或B1处的运动矢量预测,以及左下角控制点处的运动矢量
Figure BDA00031916809000002411
可以由A0或A1处的运动矢量预测。
根据本公开的一个示例,视频编码器200和视频解码器300可以被配置为当用于仿射运动继承(例如,在等式(5)、(6)和(7)中)时,将增量MV
Figure BDA00031916809000002412
Figure BDA00031916809000002413
Figure BDA00031916809000002414
裁剪到相同预定范围。例如,预定范围可以从-2k至2k,其中k是整数值。例如,对于增量MV的8位表示,k可以是7,或者对于增量MV的16位表示,k可以是15。在其他示例中,基本单位可能与范围无关。例如,一个单位可以是1/16、1/32、1/64或1/128样点。在另一示例中,预定范围可以是1/16、1/32、1/64或1/128样点的固定单位,并且基于增量MV的精度(也被称为分辨率),预定范围可以被缩放。例如,如果用于范围的基本单位是1/64,但增量MV的精度是1/128,则范围可以比例放大2。通过裁剪增量MV的值,增量MV可以使用更少的位来存储,从而导致存储增量MV所需的存储器量的减少。因此,在一些实施方式中,视频编码器200和视频解码器300可以被配置为存储具有确定位数的增量MV。通常,位数少于存储原始MV的位数。例如,测试表明,位减少的BD速率性能约为0.1%。对于相同质量视频的平均位速率可以增加约0.1%。在下文中,假设是六参数仿射运动。然而,可以类似地应用对于四参数仿射运动的裁剪。换句话说,视频编码器200和视频解码器300可以裁剪用于六参数仿射运动模型和/或四参数仿射运动模型的增量运动矢量。而且,
Figure BDA0003191680900000251
Figure BDA0003191680900000252
Figure BDA0003191680900000253
Figure BDA0003191680900000254
之间的距离被假设为w和h。然而,如果MV之间的距离是不同的值,也可以应用本公开的技术。
鉴于前述内容,在本公开的一个示例中,视频编码器200和视频解码器300可以被配置为从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
在一个示例中,视频编码器200和视频解码器300可以被配置为将增量运动矢量v1x-v0x、v1y-v0y、v2x-v0x、v2y-v0y裁剪到预定范围。
在另一示例中,视频编码器200和视频解码器300可以被配置为将增量运动矢量v1x-v0x、v1y-v0y、v2x-v0x、v2y-v0y的缩放值裁剪到预定范围。例如,缩放值为:
Figure BDA0003191680900000255
S可以是1、2或其他预定值。S也可以由增量MV的分辨率预先确定。例如,如果锚MV分辨率(或精度)不同于增量分辨率(或精度),则可以缩放增量MV分辨率。因而,在该示例中,视频编码器200和视频解码器300可以被配置为在裁剪之前缩放增量运动矢量,其中,缩放是基于缩放因子S。例如,视频编码器200和视频解码器300可以包括用于缩放增量运动矢量的部件。
在另一示例中,视频编码器200和视频解码器300可以被配置为将
Figure BDA0003191680900000256
的值裁剪到预定范围。在该示例中,视频编码器200和视频解码器300可以被配置为在裁剪之前缩放增量运动矢量,其中,缩放是基于对应相邻块的宽度或高度。
在另一示例中,视频编码器200和视频解码器300可以被配置为将
Figure BDA0003191680900000261
的缩放值裁剪到预定范围。例如,缩放值为:
Figure BDA0003191680900000262
其中,N是预定的。在一个示例中,N是块的最大尺寸。在另一示例中,N由w和h确定,在又一实施例中,N由MV的分辨率确定。在又一示例中,N是块的最大尺寸除以k,其中,k是整数常数,诸如1、2或其他整数。如果N是2的幂,缩放也可以通过左移来实施。在一个示例中,N为128。然后,乘以N可以用<<7替换,其中<<是按位左移。注意,如果使用缩放值,则等式(5)、(6)和(7)中的值都被比例缩放N。vix′、viy′的值可以通过比例缩小N来获得。
因而,在前述示例中,视频编码器200和视频解码器300可以被配置为在裁剪之前缩放增量运动矢量,其中,缩放是基于对应相邻块的宽度或高度和缩放因子N。N可以是相邻块的宽度和/或高度、MV的分辨率或块的最大尺寸的函数。
在一个示例中,用于裁剪的范围被确定为使得裁剪值可以按确定位数来表示。在一个示例中,范围为(-2B-1,2B-1-1),其中B是表示裁剪值的位数。B可以是8、16或其他整数。B可以是预定固定值或从视频编码器200向视频解码器300发信号通知的值。
在VVC标准的一个示例实施方式中,来自如在2019年1月9日至18日,在摩洛哥马拉喀什举行的ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家小组(JVET)第13次会议(JVET-M1001)上,由Bross等人提出的“Versatile Video Coding(Draft 4)”中所述的相邻块的亮度仿射控制点运动矢量的推导过程修改如下:JVET-M1001的添加内容被显示在<ADD>和</ADD>之间。JVET-M1001的删除内容被显示在<DELETE>和</DELETE>之间。
对于来自相邻块的亮度仿射控制点运动矢量的推导过程
该过程的输入是:
-亮度位置(xCb,yCb),其指定与当前图片的左上角亮度样点相对的当前亮度编解码块的左上角样点,
-两个变量cbWidth和cbHeight,其指定当前亮度编解码块的宽度和高度,
-亮度位置(xNb,yNb),其指定与当前图片的左上角亮度样点相对的相邻亮度编解码块的左上角样点,
-两个变量nNbW和nNbH,其指定相邻亮度编解码块的宽度和高度,
-控制点运动矢量数numCpMv,
该过程的输出是亮度仿射控制点矢量cpMvLX[cpIdx],其中cpIdx=0..numCpMv-1且X为0或1。
变量isCTUboundary推导如下:
-如果所有以下条件都为真,则将isCTUboundary设置为等于“真”:
-((yNb+nNbH)%CtbSizeY)等于0
-yNb+nNbH等于yCb
-否则,将isCTUboundary设置为等于“假”。
变量log2NbW和log2NbH推导如下:
log2NbW=Log2(nNbW) (8-593)
log2NbH=Log2(nNbH) (8-594)
变量mvScaleHor、mvScaleVer、dHorX和dVerX推导如下:
-如果isCTUboundary等于“真”,则以下适用:
mvScaleHor=MvLX[xNb][yNb+nNbH-1][0]<<7 (8-595)
mvScaleVer=MvLX[xNb][yNb+nNbH-1][1]<<7 (8-596)
dHorX=(MvLX[xNb+nNbW-1][yNb+nNbH-1][0]-MvLX[xNb][yNb+nNbH-1][0])<<(7-log2NbW) (8-597)
dVerX=(MvLX[xNb+nNbW-1][yNb+nNbH-1][1]-MvLX[xNb][yNb+nNbH-1][1])<<(7-log2NbW) (8-598)
-否则,(isCTUboundary等于“假”),以下适用:
mvScaleHor=CpMvLX[xNb][yNb][0][0]<<7 (8-599)
mvScaleVer=CpMvLX[xNb][yNb][0][1]<<7 (8-600)
dHorX=(CpMvLX[xNb+nNbW-1][yNb][1][0]-CpMvLX[xNb][yNb][0][0])<<(7-log2NbW) (8-601)
dVerX=(CpMvLX[xNb+nNbW-1][yNb][1][1]-CpMvLX[xNb][yNb][0][1])<<(7-log2NbW) (8-602)
<ADD>dHorX=Clip3(-2B-1,2B-1-1,dHorX)
dVerX=Clip3(-2B-1,2B-1-1,dVerX)</ADD>
变量dHorY和dVerY推导如下:
-如果isCTUboundary等于“假”且MotionModelIdc[xNb][yNb]等于2,则以下适用:
dHorY=(CpMvLX[xNb][yNb+nNbH-1][2][0]-CpMvLX[xNb][yNb][2][0])<<(7-log2NbH) (8-603)
dVerY=(CpMvLX[xNb][yNb+nNbH-1][2][1]-CpMvLX[xNb][yNb][2][1])<<(7-log2NbH) (8-604)
-否则,(isCTUboundary等于“真”或MotionModelIdc[xNb][yNb]等于1),
以下适用:
dHorY=-dVerX (8-605)
dVerY=dHorX (8-606)
<ADD>dHorY=Clip3(-2B-1,2B-1-1,dHorY)
dVerY=Clip3(-2B-1,2B-1-1,dVerY)</ADD>
亮度仿射控制点矢量cpMvLX[cpIdx],其中cpIdx=0..numCpMv-1且X为0或1推导如下:
-当isCTUboundary等于“真”,将yNb设置为等于yCb。
-前两个控制点运动矢量cpMvLX[0]和cpMvLX[1]推导如下:
cpMvLX[0][0]=(mvScaleHor+dHorX*(xCb-xNb)+dHorY*(yCb-yNb))(8-607)
cpMvLX[0][1]=(mvScaleVer+dVerX*(xCb-xNb)+dVerY*(yCb-yNb))(8-608)
cpMvLX[1][0]=(mvScaleHor+dHorX*(xCb+cbWidth-xNb)+dHorY*(yCb-yNb))(8-609)
cpMvLX[1][1]=(mvScaleHor+dHorX*(xCb+cbWidth-xNb)+dVerY*(yCb-yNb))(8-610)
-如果numCpMv等于3,则第三控制点矢量cpMvLX[2]推导如下:
cpMvLX[2][0]=(mvScaleHor+dHorX*(xCb-xNb)+dHorY*(yCb+cbHeight-yNb))(8-611)
cpMvLX[2][1]=(mvScaleVer+dVerX*(xCb-xNb)+dVerY*(yCb+cbHeight-yNb))(8-612)
-调用对于如8.4.2.14条款中指定的运动矢量的舍入过程,其中将mvX设置为等于cpMvLX[cpIdx],将rightShift设置为等于7,以及将leftShift设置为等于0作为输入,并且将舍入后的cpMvLX[cpIdx]作为输出,其中X为0或1且cpIdx=0..numCpMv-1。
在VVC标准的另一实施方式中,对于来自JVET-M1001中的相邻块的亮度仿射控制点运动矢量的推导过程修改如下:
对于来自相邻块的亮度仿射控制点运动矢量的推导过程
该过程的输入是:
-亮度位置(xCb,yCb),其指定与当前图片的左上角亮度样点相对的当前亮度编解码块的左上角样点,
-两个变量cbWidth和cbHeight,其指定当前亮度编解码块的宽度和高度,
-亮度位置(xNb,yNb),其指定与当前图片的左上角亮度样点相对的相邻亮度编解码块的左上角样点,
-两个变量nNbW和nNbH,其指定相邻亮度编解码块的宽度和高度,
-控制点运动矢量数numCpMv,
该过程的输出是亮度仿射控制点矢量cpMvLX[cpIdx],其中cpIdx=0..numCpMv-1且X为0或1。
变量isCTUboundary推导如下:
-如果所有以下条件都为真,则将isCTUboundary设置为等于“真”:
-((yNb+nNbH)%CtbSizeY)等于0
-yNb+nNbH等于yCb
-否则,将isCTUboundary设置为等于“假”。
变量log2NbW和log2NbH推导如下:
log2NbW=Log2(nNbW) (8-593)
log2NbH=Log2(nNbH) (8-594)
变量mvScaleHor、mvScaleVer、dHorX和dVerX推导如下:
-如果isCTUboundary等于“真”,则以下适用:
mvScaleHor=MvLX[xNb][yNb+nNbH-1][0]<<7 (8-595)
mvScaleVer=MvLX[xNb][yNb+nNbH-1][1]<<7 (8-596)
dHorX=<ADD>Clip3</ADD>(<ADD>-2B-1,2B-1-
1,</ADD>MvLX[xNb+nNbW-1][yNb+nNbH-1][0]-MvLX[xNb][yNb+nNbH-1][0])<<(7-log2NbW) (8-597)
dVerX=<ADD>Clip3</ADD>(<ADD>-2B-1,2B-1-1,</ADD>MvLX[xNb+nNbW-1][yNb+nNbH-1][1]-MvLX[xNb][yNb+nNbH-1][1])<<(7-log2NbW) (8-598)
-否则,(isCTUboundary等于“假”),以下适用:
mvScaleHor=CpMvLX[xNb][yNb][0][0]<<7 (8-599)
mvScaleVer=CpMvLX[xNb][yNb][0][1]<<7 (8-600)
dHorX=<ADD>Clip3</ADD>(<ADD>-2B-1,2B-1-1,</ADD>CpMvLX[xNb+nNbW-1][yNb][1][0]-CpMvLX[xNb][yNb][0][0])<<(7-log2NbW) (8-601)
dVerX=<ADD>Clip3</ADD>(<ADD>-2B-1,2B-1-1,</ADD>CpMvLX[xNb+nNbW-1][yNb][1][1]-CpMvLX[xNb][yNb][0][1])<<(7-log2NbW) (8-602)
变量dHorY和dVerY推导如下:
-如果isCTUboundary等于“假”且MotionModelIdc[xNb][yNb]等于2,则以下适用:
dHorY=<ADD>Clip3</ADD>(<ADD>-2B-1,2B-1-</ADD>1,CpMvLX[xNb][yNb+nNbH-1][2][0]-CpMvLX[xNb][yNb][2][0])<<(7-log2NbH) (8-603)
dVerY=<ADD>Clip3</ADD>(<ADD>-2B-1,2B-1-1,</ADD>CpMvLX[xNb][yNb+nNbH-1][2][1]-CpMvLX[xNb][yNb][2][1])<<(7-log2NbH) (8-604)
-否则,(isCTUboundary等于“真”或MotionModelIdc[xNb][yNb]等于1),
以下适用:
dHorY=-dVerX (8-605)
dVerY=dHorX (8-606)
亮度仿射控制点矢量cpMvLX[cpIdx],其中cpIdx=0..numCpMv-1且X为0或1,推导如下:
-当isCTUboundary等于“真”,将yNb设置为等于yCb。
-前两个控制点运动矢量cpMvLX[0]和cpMvLX[1]推导如下:
cpMvLX[0][0]=(mvScaleHor+dHorX*(xCb-xNb)+dHorY*(yCb-yNb))(8-607)
cpMvLX[0][1]=(mvScaleVer+dVerX*(xCb-xNb)+dVerY*(yCb-yNb))(8-608)
cpMvLX[1][0]=(mvScaleHor+dHorX*(xCb+cbWidth-xNb)+dHorY*(yCb-yNb))(8-609)
cpMvLX[1][1]=(mvScaleHor+dHorX*(xCb+cbWidth-xNb)+dVerY*(yCb-yNb))(8-610)
-如果numCpMv等于3,则第三控制点矢量cpMvLX[2]推导如下:
cpMvLX[2][0]=(mvScaleHor+dHorX*(xCb-xNb)+dHorY*(yCb+cbHeight-yNb))(8-611)
cpMvLX[2][1]=(mvScaleVer+dVerX*(xCb-xNb)+dVerY*(yCb+cbHeight-yNb))(8-612)
-调用对于如8.4.2.14条款中指定的运动矢量的舍入过程,其中将mvX设置为等于cpMvLX[cpIdx],将rightShift设置为等于7,以及将leftShift设置为等于0作为输入,并且将舍入后的cpMvLX[cpIdx]作为输出,其中X为0或1且cpIdx=0..numCpMv-1。
在本公开的另一示例中,来自左上方相邻经编解码的块(图8中的B2)的仿射运动继承被禁止。换句话说,在该示例中,视频编码器200和视频解码器300可以不使用来自左上方相邻经编解码的块的仿射运动继承。设(xCurr,yCurr)为当前块的左上角像素的坐标,那么如果相邻块的坐标的x分量小于xCurr并且坐标的y分量小于yCurr,则仿射运动继承被禁止。因此,仿射运动继承只能来自左侧或上方的相邻经编解码的块。以这种方式,在存储器优化的实施方式中,缓冲器大小可以节省1/3(例如,如2018年10月3日至12日在中国澳门举行的ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家小组(JVET)第12次会议上,由Zhou等人提出的“CE4-related:A clean up for affine mode”中所描述的)。
注意,本公开的技术也可以应用于法向运动矢量预测,其中,来自左上方相邻经编解码的块的运动矢量预测器被禁止。
图9是图示了本公开的技术的流程图。视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以从视频数据的当前块的相邻块的CPMV中确定增量运动矢量(542)。例如,视频编码器200或视频解码器300可以确定用于仿射运动模型的CPMV表示,并且可以将CPMV表示转换成具有增量MV的表示。例如,
Figure BDA0003191680900000321
与左上角CPMV
Figure BDA0003191680900000322
Figure BDA0003191680900000323
相同。
在一些示例中,相邻块不包括相对于当前块的左上方相邻块。在其他示例中,相邻块包括上方相邻块和左侧相邻块。在一些示例中,相邻块仅包括上方相邻块和左侧相邻块。
在一些示例中,视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以缩放增量运动矢量(544)。在其他示例中,视频编码器200或视频解码器300可以不缩放增量运动矢量,并且直接进行到框546。例如,视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以基于缩放因子S来缩放增量运动矢量。缩放因子S可以是预定值,或者可以基于MV的分辨率来确定。在其他示例中,视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以基于对应相邻块的宽度或高度来缩放增量运动矢量。在一些示例中,视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以基于对应相邻块的宽度或高度和缩放因子N来缩放增量运动矢量。在一些示例中,缩放因子N可以是相邻块的宽度和/或高度、运动矢量的分辨率或块的最大尺寸的函数。
视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以将增量运动矢量(或经缩放的增量运动矢量)裁剪到预定范围内(546)。例如,视频编码器200(例如,仿射单元223)或视频解码器300(例如,仿射单元317)可以将增量运动矢量裁剪为给定的位数B,诸如整数。在一些示例中,位数可以是预先确定的固定值。在其他示例中,视频编码器200可以确定位数并向视频解码器300发信号通知该位数。
视频编码器200或视频解码器300可以使用裁剪后的增量运动矢量来编解码当前块。例如,视频编码器200可以使用裁剪后的MV来形成用于当前块的预测块,并且使用预测块来编码当前块。视频解码器300可以使用裁剪后的MV来形成用于当前块的预测块,并且使用预测块来解码当前块。
图10是图示了用于编码当前块的示例方法的流程图。当前块可以包括当前CU。尽管相对于视频编码器200(图1和图3)进行了描述,但是应当理解的是,其他设备仍然可以被配置为执行类似于图10的方法的方法。
在该示例中,视频编码器200最初预测当前块(350)。例如,视频编码器200可以形成用于当前块的预测块。在使用仿射预测模式来形成预测块时,视频编码器200可以从当前块的相邻块的控制点运动矢量中确定增量运动矢量。在一些示例中,视频编码器200可以如上所述来缩放增量运动矢量。在其他示例中,视频编码器200可以不缩放增量运动矢量。视频编码器200可以将增量运动矢量(或经缩放的增量运动矢量)裁剪到预定范围内。
视频编码器200然后可以计算用于当前块的残差块(352)。为了计算残差块,视频编码器200可以计算原始的、未经编码的块与用于当前块的预测块之间的差异。视频编码器200然后可以对残差块的系数进行变换和量化(354)。接下来,视频编码器200可以扫描经量化的残差块的变换系数(356)。在扫描期间或扫描之后,视频编码器200可以对系数进行熵编码(358)。例如,视频编码器200可以使用CAVLC或CABAC来编码系数。视频编码器200然后可以输出块的经熵编解码的数据(360)。
图11是图示了用于解码视频数据的当前块的示例方法的流程图。当前块可以包括当前CU。尽管相对于视频解码器300(图1和图4)进行了描述,但是应当理解的是,其他设备仍然可以被配置为执行类似于图11的方法的方法。
视频解码器300可以接收用于当前块的经熵编解码的数据,诸如用于与当前块对应的残差块的系数的经熵编解码的预测信息和经熵编解码的数据(370)。视频解码器300可以对经熵编解码的数据进行熵解码,以确定用于当前块的预测信息,并且以重新产生残差块的系数(372)。视频解码器300可以预测当前块(374),例如使用如用于当前块的预测信息所指示的帧内或帧间预测模式来预测,以计算用于当前块的预测块。对于仿射预测模式,在形成预测块时,视频解码器300可以从当前块的相邻块的控制点运动矢量中确定增量运动矢量。在一些示例中,视频解码器300可以如上所述来缩放增量运动矢量。在其他示例中,视频解码器300可以不缩放增量运动矢量。视频解码器300可以将增量运动矢量(或经缩放的增量运动矢量)裁剪到预定范围内。
视频解码器300然后可以逆扫描重新产生的系数(376),以创建经量化的变换系数的块。视频解码器300然后可以对系数进行逆量化和逆变换,以产生残差块(378)。视频解码器300可以通过组合预测块和残差块来最终解码当前块(380)。
本公开的各种示例包括以下示例。
示例1.一种对视频数据进行编解码的方法,该方法包括:从当前块的相邻块的控制点运动矢量中确定增量运动矢量,将增量运动矢量裁剪到预定范围,以及使用裁剪后的增量运动矢量来对视频数据的当前块进行编解码。
示例2.如示例1所述的方法,还包括在裁剪之前缩放增量运动矢量。
示例3.如示例2所述的方法,其中,在裁剪之前缩放增量运动矢量包括在裁剪之前缩放增量运动矢量,其中,缩放是基于缩放因子S。
示例4.如示例2所述的方法,其中,在裁剪之前缩放增量运动矢量包括在裁剪之前缩放增量运动矢量,其中,缩放是基于对应相邻块的宽度或高度。
示例5.如示例2所述的方法,其中,在裁剪之前缩放增量运动矢量包括在裁剪之前缩放增量运动矢量,其中,缩放是基于对应相邻块的宽度或高度和缩放因子N。
示例6.如示例5所述的方法,其中,N是相邻块的宽度和/或高度、运动矢量的分辨率或块的最大尺寸的函数。
示例7.如示例1所述的方法,其中,相邻块不包括相对于当前块的左上方相邻块。
示例8.如示例1所述的方法,其中,相邻块包括上方相邻块和左侧相邻块。
示例9.如示例1所述的方法,其中,相邻块仅包括上方相邻块和左侧相邻块。
示例10.如示例1至9的任何组合所述的方法。
示例11.如示例1至10中任意一项所述的方法,其中,编解码包括解码。
示例12.如示例1至10中任意一项所述的方法,其中,编解码包括编码。
示例13.一种用于对视频数据进行编解码的设备,该设备包括一个或多个用于执行如示例1至10中任意一项所述的方法的部件。
示例14.如示例13所述的设备,其中,一个或多个部件包括在电路中实施的一个或多个处理器。
示例15.如示例13和14中任意一项所述的设备,还包括存储视频数据的存储器。
示例16.如示例13至15中任意一项所述的设备,还包括被配置为显示经解码的视频数据的显示器。
示例17.如示例13至16中任意一项所述的设备,其中,该设备包括相机、计算机、移动设备、广播接收器设备或机顶盒中的一个或多个。
示例18.如示例13至17中任意一项所述的设备,其中,该设备包括视频解码器。
示例19.如示例13至18中任意一项所述的设备,其中,该设备包括视频编码器。
示例20.一种其上存储有指令的计算机可读存储介质,当指令被运行时,使一个或多个处理器执行如示例1至10中任意一项所述的方法。
可以认识到的是,取决于示例,本文描述的技术中的任何一种的某些动作或事件可以按不同的顺序来执行,可以被添加、合并或一起省略(例如,并非所有所描述的动作或事件对于技术的实践都是必要的)。此外,在某些示例中,动作或事件可以同时执行,例如通过多线程处理、中断处理或多个处理器,而非顺序执行。
在一个或多个示例中,所描述的功能可以在硬件、软件、固件或其任何组合中实施。如果在软件中实施,这些功能可以作为一个或多个指令或代码存储或发送到计算机可读介质上并由基于硬件的处理单元运行。计算机可读介质可以包括与诸如数据存储介质的有形介质对应的计算机可读存储介质,或包括例如根据通信协议促进将计算机程序从一个地方转移到另一个地方的任何介质的通信介质。以这种方式,计算机可读介质通常可以对应于(1)非暂时性有形计算机可读存储介质,或(2)诸如信号或载波的通信介质。数据存储介质可以是可由一个或多个计算机或一个或多个处理器访问以检索指令、代码和/或数据结构以用于实施本公开中描述的技术的任何可用介质。计算机程序产品可以包括计算机可读介质。
举例来说而非限制,此计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储器、磁盘存储器或其他磁存储设备,或者任何其他介质,这些介质可以用来以指令或数据结构并且可以由计算机访问的指令或数据结构的形式存储期望的程序代码。并且,任何连接都被恰当地称作计算机可读介质。例如,如果指令是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)或无线技术(诸如红外线、无线电以及微波)从网站、服务器或其他远程源发送的,则同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外线、无线电以及微波)都被包括在介质的定义中。然而,应当理解,计算机可读存储介质和数据存储介质不包括连接、载波、信号或其他暂时性介质,而是指向非暂时性有形存储介质。如本文所使用的,盘和碟包含压缩碟(CD)、激光碟、光碟、数字多功能碟(DVD)、软盘和蓝光碟,其中盘通常磁性地再现数据,而碟用激光光学地再现数据。上述的组合也应该被包括在计算机可读介质的范围内。
指令可以由一个或多个处理器运行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他等效的集成或分立逻辑电路。相应地,如本文所使用的术语“处理器”和“处理电路”可以指前述结构的任何一种或适合于实施本文描述的技术的任何其他结构。另外,在一些方面,本文描述的功能性可以在被配置用于编码和解码的专用硬件和/或软件模块中提供,或者被结合在组合编码解码器中。而且,这些技术可以完全在一个或多个电路或逻辑元件中实施。
本公开的技术可以在很多种设备或装置中实施,包括无线手机、集成电路(IC)或IC组(例如,芯片组)。在本公开中描述了各种组件、模块或单元,以强调被配置为执行所公开的技术的设备的各功能方面,但是不一定要求通过不同的硬件单元来实现。相反,如上所述,各种单元可以被组合在编码解码器硬件单元中,或者由包括如上所述的一个或多个处理器的互操作硬件单元的集合,结合合适的软件和/或固件来提供。
已经对各种示例进行了描述。这些和其他示例都在以下权利要求的范围内。

Claims (31)

1.一种用于对视频数据进行编解码的设备,所述设备包括:
存储器,被配置为存储视频数据的当前块;以及
一个或多个处理器,其实施在耦合到所述存储器的电路中,所述一个或多个处理器被配置为:
从所述视频数据的所述当前块的相邻块的控制点运动矢量中确定增量运动矢量;
将所述增量运动矢量裁剪到预定范围;以及
使用裁剪后的增量运动矢量来对所述视频数据的所述当前块进行编解码。
2.如权利要求1所述的设备,其中,所述一个或多个处理器还被配置为:
在裁剪之前缩放所述增量运动矢量。
3.如权利要求2所述的设备,其中,所述一个或多个处理器被配置为在裁剪之前通过以下方式来缩放所述增量运动矢量:
基于缩放因子S来缩放所述增量运动矢量。
4.如权利要求3所述的设备,其中,S是预定值或者基于运动矢量的分辨率。
5.如权利要求4所述的设备,其中,为了在裁剪之前缩放所述增量运动矢量,所述一个或多个处理器被配置为:
基于所述相邻块的宽度或所述相邻块的高度来缩放所述增量运动矢量。
6.如权利要求2所述的设备,其中,为了在裁剪之前缩放所述增量运动矢量,所述一个或多个处理器被配置为:
基于所述相邻块的宽度或所述相邻块的高度和缩放因子N来缩放所述增量运动矢量。
7.如权利要求6所述的设备,其中,N是所述相邻块的宽度或所述相邻块的高度、运动矢量的分辨率或块的最大尺寸的函数。
8.如权利要求1所述的设备,其中,所述相邻块是相对于所述视频数据的所述当前块的左上方相邻块以外的块。
9.如权利要求1所述的设备,其中,所述相邻块是上方相邻块或左侧相邻块。
10.如权利要求1所述的设备,还包括被配置为显示经解码的视频数据的显示器。
11.如权利要求1所述的设备,其中,所述设备包括相机、计算机、移动设备、广播接收器设备或机顶盒中的一个或多个。
12.如权利要求1所述的设备,其中,所述设备包括视频解码器。
13.如权利要求1所述的设备,其中,所述设备包括视频编码器。
14.如权利要求1所述的设备,其中,为了对所述视频数据进行编解码,所述一个或多个处理器被配置为对所述视频数据进行编码,并且所述设备还包括:
相机,被配置为捕获包括所述视频数据的所述当前块的图片。
15.如权利要求1所述的设备,其中,为了对所述视频数据进行编解码,所述一个或多个处理器被配置为对所述视频数据进行解码,并且所述设备还包括:
显示器,被配置为显示包括所述视频数据所述当前块的图片。
16.如权利要求1所述的设备,其中,所述一个或多个处理器被配置为根据以下各项中的一个或多个来裁剪所述增量运动矢量:
Figure FDA0003191680890000021
Figure FDA0003191680890000022
Figure FDA0003191680890000023
其中S是预定值或者基于运动矢量的分辨率,w是所述相邻块的宽度,h是所述相邻块的高度,且N是以下各项中的一个:块的最大尺寸、基于w和h、基于所述运动矢量的所述分辨率或块的最大尺寸除以整数常数k。
17.一种对视频数据进行编解码的方法,所述方法包括:
从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量;
将所述增量运动矢量裁剪到预定范围;以及
使用裁剪后的增量运动矢量来对所述视频数据的所述当前块进行编解码。
18.如权利要求17所述的方法,还包括:
在裁剪之前缩放所述增量运动矢量。
19.如权利要求18所述的方法,其中,在裁剪之前缩放所述增量运动矢量包括:
基于缩放因子S来缩放所述增量运动矢量。
20.如权利要求19所述的方法,其中,S是预定值或基于运动矢量的分辨率。
21.如权利要求18所述的方法,其中,在裁剪之前缩放所述增量运动矢量包括:
基于所述相邻块的宽度或所述相邻块的高度来缩放所述增量运动矢量。
22.如权利要求18所述的方法,其中,在裁剪之前缩放所述增量运动矢量包括:
基于所述相邻块的宽度或所述相邻块的高度和缩放因子N来缩放所述增量运动矢量。
23.如权利要求22所述的方法,其中,N是所述相邻块的宽度或所述相邻块的高度、运动矢量的分辨率或块的最大尺寸的函数。
24.如权利要求17所述的方法,其中,所述相邻块是相对于所述视频数据的所述当前块的左上方相邻块以外的块。
25.如权利要求17所述的方法,其中,所述相邻块是上方相邻块和左侧相邻块中的一个。
26.如权利要求17所述的方法,其中,对所述视频数据的所述当前块进行编解码包括对所述视频数据的所述当前块进行编码,并且其中,所述方法还包括:
用相机捕获包括所述视频数据的所述当前块的图片。
27.如权利要求17所述的方法,其中,对所述视频数据的当前块进行编解码包括对所述视频数据的所述当前块进行解码,并且其中,所述方法还包括:
显示包括经解码的视频数据的当前块的图片。
28.如权利要求17所述的方法,其中,裁剪所述增量运动矢量包括根据以下各项中的一个或多个来裁剪所述增量运动矢量:
Figure FDA0003191680890000031
Figure FDA0003191680890000032
Figure FDA0003191680890000033
其中S是预定值或者基于运动矢量的分辨率,w是所述相邻块的宽度,h是所述相邻块的高度,且N是以下各项中的一个:块的最大尺寸、基于w和h、基于所述运动矢量的所述分辨率或块的最大尺寸除以整数常数k。
29.一种用于对视频数据进行编解码的设备,所述设备包括:
用于从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量的部件;
用于将所述增量运动矢量裁剪到预定范围的部件;以及
用于使用裁剪后的增量运动矢量来对所述视频数据的所述当前块进行编解码的部件。
30.如权利要求29所述的设备,还包括:
用于在裁剪之前缩放所述增量运动矢量的部件。
31.一种其上存储有指令的计算机可读存储介质,当所述指令被运行时,使一个或多个处理器:
从视频数据的当前块的相邻块的控制点运动矢量中确定增量运动矢量;
将所述增量运动矢量裁剪到预定范围;以及
使用裁剪后的增量运动矢量来对所述视频数据的所述当前块进行编解码。
CN202080012139.1A 2019-02-08 2020-02-07 用于视频编解码的受约束的仿射运动继承 Pending CN113632483A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962803236P 2019-02-08 2019-02-08
US62/803,236 2019-02-08
US16/783,697 US11089325B2 (en) 2019-02-08 2020-02-06 Constrained affine motion inheritance for video coding
US16/783,697 2020-02-06
PCT/US2020/017201 WO2020163709A1 (en) 2019-02-08 2020-02-07 Constrained affine motion inheritance for video coding

Publications (1)

Publication Number Publication Date
CN113632483A true CN113632483A (zh) 2021-11-09

Family

ID=71946359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080012139.1A Pending CN113632483A (zh) 2019-02-08 2020-02-07 用于视频编解码的受约束的仿射运动继承

Country Status (6)

Country Link
US (1) US11089325B2 (zh)
EP (1) EP3922026A1 (zh)
KR (1) KR20210119997A (zh)
CN (1) CN113632483A (zh)
TW (1) TW202034695A (zh)
WO (1) WO2020163709A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112020005097A2 (pt) * 2017-09-28 2020-09-15 Samsung Electronics Co., Ltd. método de decodificação de vídeo, aparelho de decodificação de vídeo, método de codificação de vídeo, e aparelho de codificação de vídeo
EP3744094A4 (en) * 2018-01-26 2021-11-03 MediaTek Inc. METHOD AND DEVICE FOR AFFINE INTER-PREDICTION FOR A VIDEO ENCODING SYSTEM
WO2020006304A1 (en) 2018-06-29 2020-01-02 Vid Scale, Inc. Adaptive control point selection for affine motion model based video coding
CN116708820A (zh) * 2018-08-09 2023-09-05 Lg电子株式会社 图像编解码方法、存储介质和数据发送方法
WO2020187198A1 (en) * 2019-03-17 2020-09-24 Beijing Bytedance Network Technology Co., Ltd. Prediction refinement based on optical flow
CN114128287A (zh) * 2019-04-25 2022-03-01 Op方案有限责任公司 图像标头中全局运动矢量的信号发送

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5905542A (en) * 1996-12-04 1999-05-18 C-Cube Microsystems, Inc. Simplified dual prime video motion estimation
WO2013088697A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号方法、動画像復号装置、および動画像符号化復号装置
WO2015035449A1 (en) * 2013-09-13 2015-03-19 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
US20180098063A1 (en) * 2016-10-05 2018-04-05 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584349B1 (ko) * 2016-03-28 2023-10-04 로즈데일 다이나믹스 엘엘씨 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20200014931A1 (en) * 2018-07-06 2020-01-09 Mediatek Inc. Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems
US11736713B2 (en) * 2018-11-14 2023-08-22 Tencent America LLC Constraint on affine model motion vector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5905542A (en) * 1996-12-04 1999-05-18 C-Cube Microsystems, Inc. Simplified dual prime video motion estimation
WO2013088697A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号方法、動画像復号装置、および動画像符号化復号装置
WO2015035449A1 (en) * 2013-09-13 2015-03-19 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
US20180098063A1 (en) * 2016-10-05 2018-04-05 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PHILIPPE HANHART等: "Non-CE2: Motion vector clipping in affine sub-block motion vector derivation", OINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 13TH MEETING: MARRAKECH, MA, 9–18 JAN. 2019, 18 January 2019 (2019-01-18), pages 1 - 2 *

Also Published As

Publication number Publication date
EP3922026A1 (en) 2021-12-15
KR20210119997A (ko) 2021-10-06
US11089325B2 (en) 2021-08-10
TW202034695A (zh) 2020-09-16
US20200260106A1 (en) 2020-08-13
WO2020163709A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
US20200296405A1 (en) Affine motion compensation refinement using optical flow
US20200077113A1 (en) Affine motion prediction
CN113812148A (zh) 用于视频译码的参考图片重采样和帧间译码工具
US11962796B2 (en) Gradient-based prediction refinement for video coding
CN113508594A (zh) 视频编解码中三角形合并模式索引的信令
CN113424542A (zh) 用于视频编解码中带有运动矢量差的合并模式的信令
CN113170162B (zh) 用于视频译码的共享候选列表和并行候选列表推导
CN114128261A (zh) 用于视频译码的组合的帧间和帧内预测模式
CN111602395B (zh) 用于视频译码的量化组
US11089325B2 (en) Constrained affine motion inheritance for video coding
CN112673636B (zh) 将运动向量取整以自适应运动向量差分辨率及提高视频译码中的运动向量存储精度
US11418793B2 (en) Adaptive affine motion vector coding
US20200288130A1 (en) Simplification of sub-block transforms in video coding
CN113557734A (zh) 视频译码中的系数域块差分脉冲译码调制
CN113728629A (zh) 视频译码中的运动向量推导
US11102476B2 (en) Subblock based affine motion model
CN114223202A (zh) 低频不可分离变换(lfnst)信令
US20200304828A1 (en) Affine motion inheritance with virtual pipeline data unit (vpdu) constraint in video coding
US10999596B2 (en) Unification of affine motion field derivation and affine motion compensation
CN113892264A (zh) 使用非矩形预测模式来减少用于视频数据预测的运动场存储
CN113924776A (zh) 使用不同的色度格式的具有未经滤波的参考样本的视频译码
CN114846796A (zh) 用于视频译码中的参考图片重采样的环绕偏移
CN114402620A (zh) 用于视频编解码的交叉分量自适应环路滤波的比特移位
US11172200B2 (en) Intra-prediction mode for screen content coding of video coding
CN114375575A (zh) 用于视频编解码的高层语法中的子图片信令

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination