CN104935938A - 一种混合视频编码标准中帧间预测方法 - Google Patents
一种混合视频编码标准中帧间预测方法 Download PDFInfo
- Publication number
- CN104935938A CN104935938A CN201510415613.6A CN201510415613A CN104935938A CN 104935938 A CN104935938 A CN 104935938A CN 201510415613 A CN201510415613 A CN 201510415613A CN 104935938 A CN104935938 A CN 104935938A
- Authority
- CN
- China
- Prior art keywords
- contiguous
- block
- motion vector
- movable information
- division unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
一种混合视频编码标准中的帧间预测方法,属于视频编码领域。本发明的目的是为了有效地处理视频序列中存在的变形运动,而提出一种混合视频编码标准中帧间预测方法,以进一步提升视频的编码性能。获取当前编码块的周围若干个相邻已编码块的运动信息;根据获取的邻近编码块的参考索引获取当前编码块中每个划分单元的参考索引;根据获取的邻近编码块的参考索引和获取的当前编码块中每个划分单元的参考索引对邻近编码块的运动矢量进行处理,获取当前编码块中每个划分单元的运动矢量。利用当前编码块相邻已编码块的运动信息对当前块的运动信息进行预测,使得视频序列中存在的变形运动得到有效地描述,编码效率得到进一步提高。
Description
技术领域
本发明涉及一种混合视频编码标准中帧间预测方法。
背景技术
随着人们对视频显示质量要求的提高,高清和超高清视频等新视频应用形式应运而生。在这种高分辨率高质量视频欣赏应用越来越广泛的情况下,如何增强视频压缩效率变得至关重要。
图像与视频在数字化过程中,产生了大量的数据冗余,这使得视频压缩技术成为了可能。一般而言,冗余类型至少包括空间冗余、时间冗余、信息熵冗余。对于时间冗余的消除,一般采用基于预测的方法,即帧间预测编码。其基本思想是从已编码的相邻帧中找到当前块最匹配的块,只需将残差和与运动矢量传给解码端即可,有效地降低了视频编码中的时域冗余。由于现有的视频编码标准采用的是基于平移运动模型的块匹配运动估计,它假设一个块中的所有像素点都经历相同的运动,即使是目前最先进的HEVC编码标准,也无法对非平移运动的场景进行精确的描述。
为了克服块匹配算法的缺点,Ouseb Lee,Yao Wang,“Motion-Compensated PredictionUsing Nodal-Based Deformable Block Matching,”Journal of Visual Communication and ImageRepresentation,vol.6,no.1,pp.26-34,Mar.1995提议使用基于节点的变形模型,它假设一个块的给定数目的控制节点可以自由移动,块内任意一点的MV可以通过控制节点的MV插值出来。该方法对初始值比较敏感,并且需要大量的计算。
Yao Wang,J.Ostermann,“Comparison of Block-Based and Mesh-Based Motion EstimationAlgorithms,”IEEE International Symposium on Circuits and Systems,vol.2,pp.1157-1160,Jun.1997曾指出当存在非平移运动(比如头部旋转)的时候基于网格的模型比基于块的模型预测效果好。然而,当一个块包含多个朝不同方向运动的物体的时候,这两个模型的预测效果都不好。
为了更好地模拟复杂运动,Roman C.Kordasiewicz,Michael D.Gallant,and ShahramShirani,“Affine Motion Prediction Based on Translational Motion Vectors,”IEEE Trans.CircuitsSyst.Video Technol.,vol.17,no.10,pp.1388-1394,Oct.2007提出一个基于平移运动矢量的仿射运动场预测,它处于模式决策和运动估计之后,作为一个后处理步骤。
为了更好地描述复杂运动,A.Glantz,M.Tok,A.Krutz,and T.Sikora,“A block adaptiveskip mode for inter prediction based on parametric motion models,”IEEE InternationalConference on Image Processing,pp.1201-1204,Sept.2011提出一个基于高阶参数运动模型的参数化skip模式。
与以前提出的方法不同的是,我们的方案在处理变形运动的时候不需要编码运动参数而是利用相邻已编码块的运动信息来获取当前变形块的运动信息,并且可以在多个预测模型中选择一个最优的预测模型。
发明内容
本发明的目的是为了有效地处理视频序列中存在的变形运动,而提出一种混合视频编码标准中帧间预测方法,以进一步提升视频的编码性能。
本发明为解决上述技术问题采取的技术方案是:
一种混合视频编码标准中帧间预测方法,所述预测方法用于描述视频序列中存在的变形运动,所述预测方法用于merge模式、skip模式或inter模式中;
所述预测方法的实现过程为:
步骤一:获取当前编码块的周围若干个相邻已编码块的运动信息,当前编码块的尺寸为W*H,W为当前编码块的宽,H为当前编码块的高;所述运动信息包括参考索引和运动矢量;周围若干个相邻已编码块称为邻近编码块;
步骤二:根据步骤一获取的邻近编码块的参考索引获取当前编码块中每个划分单元的参考索引;
步骤三:根据步骤一获取的邻近编码块的参考索引和步骤二获取的当前编码块中每个划分单元的参考索引对邻近编码块的运动矢量进行处理,获取当前编码块中每个划分单元的运动矢量。
在步骤一中,所述邻近编码块是当前编码块的四个角点位置的邻近块、或是当前编码块的四个角点位置和中心点位置的邻近块;所述邻近编码块是位于当前帧中的空域邻近块或是位于时域参考帧中的时域邻近块;
步骤二和步骤三中划分单元的大小为w*h,其中:1≤w≤W,1≤h≤H;
步骤二所述获取当前编码块中每个划分单元的参考索引的原则为:
选取步骤一中获取的邻近编码块的使用次数最多的参考索引作为目标参考索引,
或者,为每个邻近编码块指定一个权值,将具有相同参考索引的邻近编码块的权值累加,选取步骤一中获取的邻近编码块的权值最大的参考索引作为目标参考索引;
步骤三所述对邻近编码块的运动矢量进行处理,其过程为:在使用邻近块的运动矢量插值出当前块中目标划分单元的运动矢量之前对邻近块的运动矢量进行预处理,即如果邻近块的参考索引跟所获取的目标参考索引不同,就根据时域距离将邻近块的运动矢量缩放到对应于目标参考索引的运动矢量。
在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:
通过双线性插值模型计算得到所述运动矢量,其计算过程为:从步骤一中的若干邻近块中选取四个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;对选中邻近块的运动矢量进行预处理,然后就可以根据公式计算出当前块目标划分单元的运动矢量,式中,Bm表示当前编码块,Ux表示当前块中的某个划分单元,dm(Ux)表示当前块中目标划分单元的运动矢量MV,dm(MPk)表示Bm的第k个邻近块的MV,插值核φm,k(x)依赖于Bm的第k个邻近块对Ux的贡献,可由目标划分单元相对于各个控制MP的位置确定。
在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:通过六参数的仿射模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取三个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出六个仿射变换系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a1,a2,a3,a4,a5,a6是仿射变换系数,至少需要三个邻近块的运动矢量才能确定所述仿射变换系数。
在步骤三中,获取当前编码块中每个划分单元的运动矢量的实现过程为:通过四参数的仿射模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取两个邻近块,它们的运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出四个仿射变换系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a0,a1,a2,a3是仿射变换系数,至少需要两个邻近块的运动矢量才能确定所述仿射变换系数。
在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:通过透视投影模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取四个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出八个透视投影系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a1,a2,a3,a4,a5,a6,a7,a8是透视投影系数,至少需要四个邻近块的运动矢量才能确定所述透视投影系数。
在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现为:在所述双线性插值模型、透视投影模型、六参数仿射模型、四参数仿射模型中为当前块选择一个最优的预测模型。
最优的预测模型的选择过程为:从步骤一中获取的若干邻近块中选取四个邻近块,根据其相对位置计算双线性插值模型的参数,从步骤一中获取的若干邻近块中选取四个邻近块,根据其相对位置和运动信息计算透视投影模型的参数,从步骤一中获取的若干邻近块中选取三个邻近块,根据其相对位置和运动信息计算六参数仿射模型的参数,从步骤一中获取的若干邻近块中选取两个邻近块,根据其相对位置和运动信息计算四参数仿射模型的参数,然后在所有有效的预测模型构成的集合中,选择一个最优的预测模型或在所有有效预测模型构成集合的任意子集中选择一个最优的预测模型,确定预测模型后即可获取当前编码块中每个划分单元的运动矢量;
所述获取当前块中每个划分单元的运动矢量,在选择最优的预测模型时,可按照预测模型的预测性能或者使用率为候选预测模型集合中的候选预测模型排序。
选择最优预测模型的判定准则为:采用最小均方误差、最小误差平方和、最小Hadamard误差或率失真优化准则。
对获取当前编码块先划分成N部分,为每一部分对应应用其中的一种预测模型,其中N≥1。
本发明的有益效果是:
本发明预测方法可以有效地描述视频序列中存在的变形运动。
本发明是通过借助当前块相邻已编码块的运动信息利用双线性插值模型、透视投影模型、六参数仿射模型或者四参数仿射模型获取当前编码块每个划分单元的运动信息,从而使帧间预测性能得到提升。
本发明可以有效地处理视频序列中存在的变形运动,与目前编码标准中现有的块匹配算法相比,我们的方案对包含变形运动的序列有明显的性能增益,总的来说,对不包含变形运动的序列没有性能损失甚至还有些增益。所述的帧间预测方法可以用于merge模式、skip模式或inter模式中。
在帧间预测中,运动估计和运动补偿可以有效地降低视频编码中的时域冗余,提高视频编码性能。由于现有的视频编码标准采用的是基于平移运动模型的块匹配运动估计,即使是目前最先进的HEVC编码标准,也无法对非平移运动的场景进行精确的描述。为此,我们提出一个基于双线性插值模型、仿射模型和透视模型的帧间预测方法,利用当前编码块周围若干个相邻已编码块的运动信息对当前块的运动信息进行预测,使得视频序列中存在的变形运动(比如旋转,缩放等)得到有效地描述,编码效率得到进一步提高。
附图说明
图1为本发明实施例方法中当前块四个角点控制MP的候选位置,其中(a)表示左上、右上、左下角点控制MP的候选位置,是位于当前帧的空域邻近块;(b)表示右下角点控制MP的候选位置,是位于时域参考帧中的时域邻近块。
图2为本发明实施例方法中基于像素点的双线性插值模型示意图。
具体实施方式
具体实施方式一:本实施方式所述的混合视频编码标准中帧间预测方法用于描述视频序列中存在的变形运动,所述预测方法用于merge模式、skip模式或inter模式中;所述预测方法的实现过程为:
步骤一:获取当前编码块的周围若干个相邻已编码块的运动信息,当前编码块的尺寸为W*H,W为当前编码块的宽,H为当前编码块的高;所述运动信息包括参考索引和运动矢量;周围若干个相邻已编码块称为邻近编码块;
步骤二:根据步骤一获取的邻近编码块的参考索引获取当前编码块中每个划分单元的参考索引;
步骤三:根据步骤一获取的邻近编码块的参考索引和步骤二获取的当前编码块中每个划分单元的参考索引对邻近编码块的运动矢量进行处理,获取当前编码块中每个划分单元的运动矢量。
具体实施方式二:本实施方式所述的混合视频编码标准中帧间预测方法,其特征在于:
在步骤一中,所述邻近编码块是当前编码块的四个角点位置的邻近块、或是当前编码块的四个角点位置和中心点位置的邻近块;所述邻近编码块是位于当前帧中的空域邻近块或是位于时域参考帧中的时域邻近块;
还支持选择更多数目的邻近块来获取当前编码块的运动信息,除了四个角点位置和中心点位置,其他位置的邻近块也同样支持;
例如,所述的四个角点相邻已编码块选取的是当前编码块左上、右上、左下、右下角邻近4x4大小的块,记为控制MP(minimum partition);其中,右下角控制MP位于时域参考帧中;
步骤二和步骤三中划分单元的大小为w*h,其中:1≤w≤W,1≤h≤H,划分单元的大小可以是统一的,也可以考虑当前块的纹理或其他特征设置为不同的;
步骤二所述获取当前编码块中每个划分单元的参考索引的原则为:
选取步骤一中获取的邻近编码块的使用次数最多的参考索引作为目标参考索引(每个划分单元的参考索引),
或者,为每个邻近编码块指定一个权值,将具有相同参考索引的邻近编码块的权值累加,选取步骤一中获取的邻近编码块的权值最大的参考索引作为目标参考索引;
步骤三所述对邻近编码块的运动矢量进行处理,其过程为:在使用邻近块的运动矢量插值出当前块中目标划分单元的运动矢量之前对邻近块的运动矢量进行预处理,即如果邻近块的参考索引跟本实施方式所获取的目标参考索引不同,就根据时域距离将邻近块的运动矢量缩放到对应于目标参考索引的运动矢量。其它组成及连接关系与具体实施方式一相同。
例如:在上述实施方式中,所述的获取当前块中每个划分单元的参考索引,可以根据步骤一中获取的控制MP的参考索引的使用次数利用某种规则(比如,使用次数最多)选取目标参考索引;可以为每个控制MP指定一个权值,将具有相同参考索引的控制MP的权值累加,根据步骤一中获取的控制MP的参考索引的权值利用某种规则(比如,权值最大)选取目标参考索引;对于双线性插值模型来说,控制MP的权值可以是双线性插值模型为每个控制MP计算的权值。
例如:在上述实施方式中,所述的获取当前编码块中每个划分单元的运动矢量在使用控制MP的运动矢量插值出当前块中目标划分单元的运动矢量之前对控制MP的运动矢量进行预处理,即如果控制MP的参考索引跟步骤二中所获取的目标划分单元的参考索引不同,就根据时域距离将控制MP的运动矢量缩放到对应于目标参考索引的运动矢量。
具体实施方式三:本实施方式所述的混合视频编码标准中帧间预测方法,在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:
通过双线性插值模型计算得到所述运动矢量,其计算过程为:从步骤一中的若干邻近块中选取四个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照具体实施方式二所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据具体实施方式二所述方式对选中邻近块的运动矢量进行预处理,然后就可以根据公式计算出当前块目标划分单元的运动矢量,式中,Bm表示当前编码块,Ux表示当前块中的某个划分单元,dm(Ux)表示当前块中目标划分单元的运动矢量MV,dm(MPk)表示Bm的第k个邻近块的MV,插值核φm,k(x)依赖于Bm的第k个邻近块对Ux的贡献,可由目标划分单元相对于各个控制MP的位置确定;
以w=1,h=1为例,插值核的取值如下:
φm,1(x)=(W+4-dx)·(H+4-dy)/((W+4)·(H+4))
φm,2(x)=dx·(H+4-dy)/((W+4)·(H+4))
φm,3(x)=(W+4-dx)·dy/((W+4)·(H+4))
φm,4(x)=dx·dy/((W+4)·(H+4))
式中,W代表当前块的宽,H代表当前块的高,dx表示当前块中要插值的目标像素和左边控制MP的中心像素在水平方向的像素距离,dy表示要插值的目标像素和上边控制MP的中心像素在垂直方向的像素距离。其它组成及连接关系与具体实施方式二相同。
具体实施方式四:本实施方式所述的混合视频编码标准中帧间预测方法,在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:通过六参数的仿射模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取三个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照具体实施方式二所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据具体实施方式二所述方式对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出六个仿射变换系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a1,a2,a3,a4,a5,a6是仿射变换系数,至少需要三个邻近块的运动矢量才能确定所述仿射变换系数。其它组成及连接关系与具体实施方式二相同。
具体实施方式五:本实施方式所述的混合视频编码标准中帧间预测方法,在步骤三中,获取当前编码块中每个划分单元的运动矢量的实现过程为:通过四参数的仿射模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取两个邻近块,它们的运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照具体实施方式二所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据具体实施方式二所述对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出四个仿射系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a0,a1,a2,a3是仿射变换系数,至少需要两个邻近块的运动矢量才能确定所述仿射变换系数。其它组成及连接关系与具体实施方式二相同。
具体实施方式六:本实施方式所述的混合视频编码标准中帧间预测方法,在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:通过透视投影模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取四个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照具体实施方式二所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;具体实施方式二所述方式对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出八个透视投影系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a1,a2,a3,a4,a5,a6,a7,a8是透视投影系数,至少需要四个邻近块的运动矢量才能确定所述透视投影系数。其它组成及连接关系与具体实施方式二相同。
具体实施方式七:本实施方式所述的混合视频编码标准中帧间预测方法,在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现为:在所述双线性插值模型、透视投影模型、六参数仿射模型、四参数仿射模型中为当前块选择一个最优的预测模型。其它组成及连接关系与具体实施方式一或二相同。
具体实施方式八:本实施方式所述的混合视频编码标准中帧间预测方法,最优的预测模型的选择过程为:从步骤一中获取的若干邻近块中选取四个邻近块,根据其相对位置计算双线形插值模型的参数,从步骤一中获取的若干邻近块中选取四个邻近块,根据其相对位置和运动信息计算透视投影模型的参数,从步骤一中获取的若干邻近块中选取三个邻近块,根据其相对位置和运动信息计算六参数仿射模型的参数,从步骤一中获取的若干邻近块中选取两个邻近块,根据其相对位置和运动信息计算四参数仿射模型的参数,然后在所有有效的预测模型构成的集合中,选择一个最优的预测模型或在所有有效预测模型构成集合的任意子集中选择一个最优的预测模型,确定预测模型后即可获取当前编码块中每个划分单元的运动矢量;
所述获取当前块中每个划分单元的运动矢量,在选择最优的预测模型时,可按照预测模型的预测性能或者使用率为候选预测模型集合中的候选预测模型排序。
其它组成及连接关系与具体实施方式七相同。
对具体实施方式八举例说明:
所述获取当前块中每个划分单元的运动矢量,以步骤一中周围若干邻近块为四个角点位置的邻近块为例,六参数仿射模型可以有六种组合方式:1)使用左上、右上、左下角点邻近块运动信息的六参数仿射模型,2)使用左上、右上、右下角点邻近块运动信息的六参数仿射模型,3)使用右上、左下、右下角点邻近块运动信息的六参数仿射模型,4)使用左上、左下、右下角点邻近块运动信息的六参数仿射模型,5)将当前编码块等分成两个三角形,采用使用左上、右上、右下角点邻近块运动信息的六参数仿射模型和左上、左下、右下角点邻近块运动信息的六参数仿射模型,6)将当前编码块等分成两个三角形,采用使用左上、右上、左下角点邻近块运动信息的六参数仿射模型和右上、左下、右下角点邻近块运动信息的六参数仿射模型;四参数仿射模型有八种组合方式:1)使用右上、左下角点邻近块运动信息的四参数仿射模型,2)使用左上、左下角点邻近块运动信息的四参数仿射模型,3)使用左上、右上角点邻近块运动信息的四参数仿射模型,4)使用右上、右下角点邻近块运动信息的四参数仿射模型,5)使用左下、右下角点邻近块运动信息的四参数仿射模型,6)使用左上、右下角点邻近块运动信息的四参数仿射模型,7)将当前编码块等分成两个矩形,采用使用左上、右上角点邻近块运动信息的四参数仿射模型和左下、右下角点邻近块运动信息的四参数仿射模型,8)将当前编码块等分成两个矩形,采用使用左上、左下角点邻近块运动信息的四参数仿射模型和右上、右下角点邻近块运动信息的四参数仿射模型。也就是说可以在双线性插值模型、透视投影模型和上述十四种预测模型中选择一个最优的预测模型。也可以在这十六种预测模型的任意子集中选择一个最优的预测模型。选中的最优预测模式进行编码以保证解码端可以正常解码。
具体实施方式九:本实施方式所述的混合视频编码标准中帧间预测方法,其特征在于:选择最优预测模型的判定准则为:采用最小均方误差(Mean Squared Error,MSE)、最小误差平方(The sum of squares due to error,SSE)、最小Hadamard误差或率失真优化准则。其它组成及连接关系与具体实施方式七或八相同。
具体实施方式十:本实施方式所述混合视频编码标准中帧间预测方法,其特征在于:对获取当前编码块先划分成N部分,为每一部分对应应用其中的一种预测模型,其中N≥1。
比如,可以把当前块划分成两部分,其中一部分应用双线性插值模型,另一部分是在双线性插值模型、透视投影模型、六参数仿射模型、四参数仿射模型中为当前块划分选择一个最优的预测模型;可以把当前块划分成四部分,其中某些部分使用六参数仿射模型,某些部分使用四参数仿射模型。
其它组成及连接关系与具体实施方式三、四、五、六或七相同。
实施例一:
给出混合视频编码标准中帧间预测方法的具体实现步骤:
步骤一:获取当前编码块(尺寸为W*H,W为当前编码块的宽,H为当前编码块的高)四个角点相邻已编码块的运动信息;
步骤二:根据步骤一获取的邻近编码块的运动信息获取当前编码块中每个划分单元的参考索引;
步骤三:根据步骤一获取的邻近编码块的运动信息获取当前编码块中每个划分单元的运动矢量。
所述的四个角点相邻已编码块选取的是当前编码块左上、右上、左下、右下角邻近4x4大小的块,记为控制MP(minimum partition)。其中,右下角控制MP位于时域参考帧中。如图1所示,左上角控制MP的候选位置是B2,B3,A2;右上角的候选位置是B0,B1;左下角的候选位置是A0,A1;右下角的候选位置是TRb。我们为每个角点选择一个控制MP,并根据以下优先顺序为每个参考帧列表单独获取控制MP:
1)对于左上角控制MP,我们首先检查位置B0,若不存在或者其预测模式是帧内模式,我们就会检查位置B1;否则B0被用作控制MP。
2)对于左下角,检查优先顺序为A0,A1。
3)对于左上角,检查优先顺序为B2,A2,B3。
在该实施方式中,采用的是双线性插值模型、六参数仿射模型、四参数仿射模型。
基于像素点的双线性插值模型示意图如图2所示,即划分单元的大小的1*1,对应于图2的双线性插值核如下:
φm,1(x)=(W+4-dx)·(H+4-dy)/((W+4)·(H+4))
φm,2(x)=dx·(H+4-dy)/((W+4)·(H+4))
φm,3(x)=(W+4-dx)·dy/((W+4)·(H+4))
φm,4(x)=dx·dy/((W+4)·(H+4))
式中,W代表当前块的宽,H代表当前块的高,dx表示当前块中要插值的目标像素和左边控制MP(MP1)的中心像素在水平方向的像素距离,dy表示要插值的目标像素和上边控制MP(MP2)的中心像素在垂直方向的像素距离。
所述的获取当前块中每个划分单元的参考索引,对于双线性插值模型,根据目标划分单元相对于各个控制MP的位置利用双线性插值模型计算出各个控制MP的权值,将具有相同参考索引的控制MP的权值累加,选取权值最大的那个参考索引,如果具有最大权值的参考索引有多个,那就选择索引值最小的参考索引;对于六参数仿射模型、四参数仿射模型,从控制MP使用的参考索引中选取使用次数最多的参考索引作为目标划分单元的参考索引。
所述获取当前块中每个划分单元的运动矢量,在使用控制MP的运动矢量插值出当前块中目标划分单元的运动矢量之前对控制MP的运动矢量进行预处理,即如果控制MP的参考索引跟上述所获取的目标划分单元的参考索引不同,就根据时域距离将控制MP的运动矢量缩放到对应于目标参考索引的运动矢量。
所述获取当前块中每个划分单元的运动矢量,是在双线性插值模型,六参数仿射模型、四参数仿射模型中为当前块选择一个最优的预测模型,其中,使用的六参数仿射模型包括:1)使用左上、右上、左下角点控制MP运动信息的六参数仿射模型,2)使用左上、右上、右下角点控制MP运动信息的六参数仿射模型,3)使用右上、左下、右下角点控制MP运动信息的六参数仿射模型,4)使用左上、左下、右下角点控制MP运动信息的六参数仿射模型;使用的四参数仿射模型包括:1)使用右上、左下角点控制MP运动信息的四参数仿射模型,2)使用左上、左下角点控制MP运动信息的四参数仿射模型,3)使用左上、右上角点控制MP运动信息的四参数仿射模型,4)使用右上、右下角点控制MP运动信息的四参数仿射模型,5)使用左下、右下角点控制MP运动信息的四参数仿射模型,6)使用左上、右下角点控制MP运动信息的四参数仿射模型,也就是说有十一种可选的预测模型。选择最优预测模型的判定准则是最小Hadamard误差。所述的帧间预测方法用于merge模式和skip模式中。并将所述帧间预测方法记作增强模式,具体描述如下:
步骤一:首先构建一个增强模式候选列表,该列表的大小为8,该列表按以下候选顺序构成:
1)使用右上、左下角点控制MP运动信息的四参数仿射模型
2)使用左上、左下角点控制MP运动信息的四参数仿射模型
3)使用左上、右上、左下角点控制MP运动信息的六参数仿射模型
4)使用左上、右上角点控制MP运动信息的四参数仿射模型
5)使用右上、右下角点控制MP运动信息的四参数仿射模型
6)使用左下、右下角点控制MP运动信息的四参数仿射模型
7)使用左上、右下角点控制MP运动信息的四参数仿射模型
8)使用左上、右上、左下、右下角点控制MP运动信息的双线性插值模型
9)使用左上、右上、右下角点控制MP运动信息的六参数仿射模型
10)使用右上、左下、右下角点控制MP运动信息的六参数仿射模型
11)使用左上、左下、右下角点控制MP运动信息的六参数仿射模型
当列表中可用的候选个数超过8的时候,后面的候选会舍弃。
步骤二:根据最小Hadamard误差准则选取一个最优的预测模型
步骤三:步骤二选取的最优的预测模型和其他模式(普通的merge模式、skip模式、inter模式和intra模式)进行率失真优化选择。
本实施例中仅将提议的模式用于merge模式和skip模式中,所以无需像普通inter模式那样编码运动信息。但需要将选中的最优预测模式进行编码,以保证解码端可以正常解码。为了在复杂度和编码效率之间达到折中,我们仅将提议的增强模式用于大于或者等于16x16的编码单元。
本实施例中划分单元是像素点。
实施例二:
与实施例一不同的是,本实施例的混合视频编码标准中帧间预测方法,仅使用左上、右上、左下、右下角点控制MP运动信息的双线性插值模型。
实施例三:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、右上、左下、右下角点控制MP运动信息的透视投影模型。
实施例四:
与具实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,将当前编码块等分成两个三角形,采用使用左上、右上、右下角点控制MP运动信息的六参数仿射模型和左上、左下、右下角点控制MP运动信息的六参数仿射模型。
实施例五:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,将当前编码块等分成两个三角形,采用使用左上、右上、左下角点控制MP运动信息的六参数仿射模型和右上、左下、右下角点控制MP运动信息的六参数仿射模型。
实施例六:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,将当前编码块等分成两个矩形,采用使用左上、右上角点控制MP运动信息的四参数仿射模型和左下、右下角点控制MP运动信息的四参数仿射模型。
实施例七:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,将当前编码块等分成两个矩形,采用使用左上、左下角点控制MP运动信息的四参数仿射模型和右上、右下角点控制MP运动信息的四参数仿射模型。
实施例八:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、右上、左下角点控制MP运动信息的六参数仿射模型。
实施例九:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、右上、右下角点控制MP运动信息的六参数仿射模型。
实施例十:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用右上、左下、右下角点控制MP运动信息的六参数仿射模型。
实施例十一:
与具实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、左下、右下角点控制MP运动信息的六参数仿射模型。
实施例十二:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用右上、左下角点控制MP运动信息的四参数仿射模型。
实施例十三:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、左下角点控制MP运动信息的四参数仿射模型。
实施例十四:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、右上角点控制MP运动信息的四参数仿射模型。
实施例十五:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用右上、右下角点控制MP运动信息的四参数仿射模型。
实施例十六:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左下、右下角点控制MP运动信息的四参数仿射模型。
实施例十七:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅使用左上、右下角点控制MP运动信息的四参数仿射模型。
实施例十八:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,复杂模式候选列表的大小为11。
实施例十九:
与实施例一不同的是,本实施方式的混合视频编码标准中帧间预测方法,划分单元是4*4的块。
实施例二十:
与实施例十九不同的是,本实施方式的混合视频编码标准中帧间预测方法,仅将提议的增强模式用于2N*2N的预测单元划分模式。
上述具体实施例的划分单元也可以是w*h大小的块,其中,1≤w≤W,1≤h≤H,划分单元的大小可以是统一的,也可以考虑当前块的纹理或其他特征设置为不同的。选择最优预测模式的判定准则也可以是最小均方误差(Mean Squared Error,MSE),最小误差平方和(The sum of squares due to error,SSE),率失真优化准则,或者其他衡量误差大小的准则。上述具体实施方式也适用于更小的编码单元。除了merge模式和skip模式,上述具体实施方式同样适用于inter模式。上述具体实施方式中的邻近块位置不限于四个角点位置。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的专利保护范围。
实施例一在VC-0.2(在HEVC的测试模型HM12.0添加了一些技术的测试模型)上实现,并按照VC266通测条件测试,VC266通测条件参考VC266Study Group,“Test conditionand evaluation methodology”,VC-02-N005,VC266 2th Meeting:Suzhou,Mar.2015.由于我们的方案是用于有效地描述视频序列中存在的变形运动,因此我们还测试了一些包含变形运动的序列,表1对这些变形序列进行了描述。
实施例一的实验结果如表2所示,由表2可知,与VC-0.2相比,在Low delay BMain_HighBitrate(LB-HR)、Low delay B Main_LowBitrate(LB-LR)、Random AccessMain_HighBitrate(RA-HR)、Random Access Main_LowBitrate(RA-LR)配置条件下变形序列平均有8.2%、9.9%、6.9%、8.2%的BD比特率节省,通测条件中定义的B类序列平均有0.9%,1.3%,1.4%,1.8%的BD比特率节省,TMZ类序列平均有0.4%、0.4%、0.3%、0.3%的的BD比特率节省。BD比特率表示在同样的客观质量下两种方法的码率节省情况,参考G.“Calculation of average PSNR differences between RD-Curves,”ITU-T SG16 Q.6 Document,VCEG-M33,Austin,US,April 2001。
表1.具有变形运动的序列
序列 | 分辨率 | 帧数 | 帧率 | 序列的运动特征 |
CactusPart | 1920x1080 | 100 | 50fps | 包含局部的旋转 |
BlueSkyPart | 1920x1080 | 100 | 25fps | 相机旋转,很多细节 |
StationPart | 1920x1080 | 100 | 25fps | 明显地缩短焦距,很多细节 |
TractorPart | 1920x1080 | 100 | 25fps | 从局部细节到整体场景 |
ShieldsPart | 1920x1080 | 100 | 50fps | 明显地拉长焦距,很多细节 |
SpincalendarPart | 1280x720 | 100 | 50fps | 整体旋转 |
JetsPart | 1280x720 | 100 | 25fps | 整体缩放 |
表2.具体实施方式一相对于VC-0.2的BD比特率性能
Claims (10)
1.一种混合视频编码标准中帧间预测方法,所述预测方法用于描述视频序列中存在的变形运动,所述预测方法用于merge模式、skip模式或inter模式中;
其特征在于,所述预测方法的实现过程为:
步骤一:获取当前编码块的周围若干个相邻已编码块的运动信息,当前编码块的尺寸为W*H,W为当前编码块的宽,H为当前编码块的高;所述运动信息包括参考索引和运动矢量;周围若干个相邻已编码块称为邻近编码块;
步骤二:根据步骤一获取的邻近编码块的参考索引获取当前编码块中每个划分单元的参考索引;
步骤三:根据步骤一获取的邻近编码块的参考索引和步骤二获取的当前编码块中每个划分单元的参考索引对邻近编码块的运动矢量进行处理,获取当前编码块中每个划分单元的运动矢量。
2.根据权利要求1所述的混合视频编码标准中帧间预测方法,其特征在于:
在步骤一中,所述邻近编码块是当前编码块的四个角点位置的邻近块、或是当前编码块的四个角点位置和中心点位置的邻近块;所述邻近编码块是位于当前帧中的空域邻近块或是位于时域参考帧中的时域邻近块;
步骤二和步骤三中划分单元的大小为w*h,其中:1≤w≤W,1≤h≤H;
步骤二所述获取当前编码块中每个划分单元的参考索引的原则为:
选取步骤一中获取的邻近编码块的使用次数最多的参考索引作为目标参考索引,
或者,为每个邻近编码块指定一个权值,将具有相同参考索引的邻近编码块的权值累加,选取步骤一中获取的邻近编码块的权值最大的参考索引作为目标参考索引;
步骤三所述对邻近编码块的运动矢量进行处理,其过程为:在使用邻近块的运动矢量插值出当前块中目标划分单元的运动矢量之前对邻近块的运动矢量进行预处理,即如果邻近块的参考索引跟本权利要求所获取的目标参考索引不同,就根据时域距离将邻近块的运动矢量缩放到对应于目标参考索引的运动矢量。
3.根据权利要求2所述的混合视频编码标准中帧间预测方法,其特征在于:在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:
通过双线性插值模型计算得到所述运动矢量,其计算过程为:从步骤一中的若干邻近块中选取四个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照权利要求2所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据权利要求2对选中邻近块的运动矢量进行预处理,然后就可以根据公式计算出当前块目标划分单元的运动矢量,式中,Bm表示当前编码块,Ux表示当前块中的某个划分单元,dm(Ux)表示当前块中目标划分单元的运动矢量MV,dm(MPk)表示Bm的第k个邻近块的MV,插值核φm,k(x)依赖于Bm的第k个邻近块对Ux的贡献,可由目标划分单元相对于各个控制MP的位置确定。
4.根据权利要求2所述的混合视频编码标准中帧间预测方法,其特征在于:在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:通过六参数的仿射模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取三个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照权利要求2所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据权利要求2所述方式对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出六个仿射变换系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a1,a2,a3,a4,a5,a6是仿射变换系数,至少需要三个邻近块的运动矢量才能确定所述仿射变换系数。
5.根据权利要求2所述的混合视频编码标准中帧间预测方法,其特征在于:在步骤三中,获取当前编码块中每个划分单元的运动矢量的实现过程为:通过四参数的仿射模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取两个邻近块,它们的运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照权利要求2所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据权利要求2所述方式对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出四个仿射变换系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a0,a1,a2,a3是仿射变换系数,至少需要两个邻近块的运动矢量才能确定所述仿射变换系数。
6.根据权利要求2所述的混合视频编码标准中帧间预测方法,其特征在于:在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现过程为:通过透视投影模型计算得到,其计算过程为:从步骤一中的若干邻近块中选取四个邻近块,其运动信息必须全部存在且至少有一个选中邻近块的运动信息和其他选中邻近块的运动信息不同;按照权利要求2所述方式利用被选中邻近块的参考索引获取当前块中每个划分单元的目标参考索引;根据权利要求2所述方式对选中邻近块的运动矢量进行预处理,利用选中邻近块的位置坐标及其运动矢量根据公式 计算出八个透视投影系数,进而可以根据当前块中相同坐标系下每个像素点的坐标求得对应的运动矢量(vx,vy);式中,(x,y)为当前帧中某个像素点的坐标,(x',y')为该像素点在参考帧中对应点的坐标,a1,a2,a3,a4,a5,a6,a7,a8是透视投影系数,至少需要四个邻近块的运动矢量才能确定所述透视投影系数。
7.根据权利要求2所述混合视频编码标准中帧间预测方法,其特征在于:在步骤三中,所述获取当前编码块中每个划分单元的运动矢量的实现为:在所述双线性插值模型、透视投影模型、六参数仿射模型、四参数仿射模型中为当前块选择一个最优的预测模型。
8.根据权利要求7所述混合视频编码标准中帧间预测方法,其特征在于:最优的预测模型的选择过程为:从步骤一中获取的若干邻近块中选取四个邻近块,根据其相对位置计算双线性插值模型的参数,从步骤一中获取的若干邻近块中选取四个邻近块,根据其相对位置和运动信息计算透视投影模型的参数,从步骤一中获取的若干邻近块中选取三个邻近块,根据其相对位置和运动信息计算六参数仿射模型的参数,从步骤一中获取的若干邻近块中选取两个邻近块,根据其相对位置和运动信息计算四参数仿射模型的参数,然后在所有有效的预测模型构成的集合中,选择一个最优的预测模型或在所有有效预测模型构成集合的任意子集中选择一个最优的预测模型,确定预测模型后即可获取当前编码块中每个划分单元的运动矢量;
所述获取当前块中每个划分单元的运动矢量,在选择最优的预测模型时,可按照预测模型的预测性能或者使用率为候选预测模型集合中的候选预测模型排序。
9.根据权利要求7或8所述混合视频编码标准中帧间预测方法,其特征在于:选择最优预测模型的判定准则为:采用最小均方误差、最小误差平方和、最小Hadamard误差或率失真优化准则。
10.根据权利要求3、4、5、6或7所述混合视频编码标准中帧间预测方法,其特征在于:对获取当前编码块先划分成N部分,为每一部分对应应用其中的一种预测模型,其中N≥1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510415613.6A CN104935938B (zh) | 2015-07-15 | 2015-07-15 | 一种混合视频编码标准中帧间预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510415613.6A CN104935938B (zh) | 2015-07-15 | 2015-07-15 | 一种混合视频编码标准中帧间预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104935938A true CN104935938A (zh) | 2015-09-23 |
CN104935938B CN104935938B (zh) | 2018-03-30 |
Family
ID=54122856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510415613.6A Active CN104935938B (zh) | 2015-07-15 | 2015-07-15 | 一种混合视频编码标准中帧间预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104935938B (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017148345A1 (en) * | 2016-03-01 | 2017-09-08 | Mediatek Inc. | Method and apparatus of video coding with affine motion compensation |
CN107181952A (zh) * | 2016-03-10 | 2017-09-19 | 北京大学 | 视频解码方法及装置 |
CN107360419A (zh) * | 2017-07-18 | 2017-11-17 | 成都图必优科技有限公司 | 一种基于透视模型的运动前视视频帧间预测编码方法 |
CN107534770A (zh) * | 2015-03-10 | 2018-01-02 | 华为技术有限公司 | 图像预测方法和相关设备 |
CN108886619A (zh) * | 2016-01-07 | 2018-11-23 | 联发科技股份有限公司 | 用于视频编解码***的仿射合并模式预测的方法及装置 |
CN109155855A (zh) * | 2016-05-16 | 2019-01-04 | 高通股份有限公司 | 用于视频译码的仿射运动预测 |
CN109510991A (zh) * | 2017-09-15 | 2019-03-22 | 浙江大学 | 一种运动矢量导出方法及装置 |
WO2019072187A1 (en) * | 2017-10-13 | 2019-04-18 | Huawei Technologies Co., Ltd. | PRUNING A MOVEMENT MODEL CANDIDATE LIST FOR AN INTERPRETING |
CN109862368A (zh) * | 2018-12-28 | 2019-06-07 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法及其设备 |
CN110536135A (zh) * | 2018-05-25 | 2019-12-03 | 腾讯美国有限责任公司 | 用于视频编解码的方法和设备 |
CN110677675A (zh) * | 2018-07-01 | 2020-01-10 | 北京字节跳动网络技术有限公司 | 高效的仿射Merge运动矢量推导 |
WO2020010741A1 (zh) * | 2018-07-11 | 2020-01-16 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
WO2020042604A1 (zh) * | 2018-08-27 | 2020-03-05 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
CN110876065A (zh) * | 2018-08-29 | 2020-03-10 | 华为技术有限公司 | 候选运动信息列表的构建方法、帧间预测方法及装置 |
CN110933423A (zh) * | 2018-09-20 | 2020-03-27 | 杭州海康威视数字技术股份有限公司 | 帧间预测方法和设备 |
CN111083487A (zh) * | 2018-10-22 | 2020-04-28 | 北京字节跳动网络技术有限公司 | 仿射模式的运动信息的存储 |
CN111327901A (zh) * | 2020-03-10 | 2020-06-23 | 北京达佳互联信息技术有限公司 | 视频编码方法、装置、存储介质及编码设备 |
CN111357288A (zh) * | 2019-01-03 | 2020-06-30 | 深圳市大疆创新科技有限公司 | 视频图像处理方法与装置 |
CN111418209A (zh) * | 2017-10-05 | 2020-07-14 | 交互数字Vc控股公司 | 用于视频编码和视频解码的方法和装置 |
WO2020169109A1 (en) * | 2019-02-22 | 2020-08-27 | Beijing Bytedance Network Technology Co., Ltd. | Sub-table for history-based affine mode |
CN112055205A (zh) * | 2017-12-12 | 2020-12-08 | 华为技术有限公司 | 视频数据的帧间预测方法和装置 |
US20210266584A1 (en) | 2018-11-16 | 2021-08-26 | Beijing Bytedance Network Technology Co., Ltd. | Usage for history-based affine parameters |
CN113455001A (zh) * | 2018-12-27 | 2021-09-28 | 英迪股份有限公司 | 视频编码/解码方法和装置 |
CN113475081A (zh) * | 2018-12-05 | 2021-10-01 | 高通股份有限公司 | 用于视频译码的三角形运动信息 |
US11206422B2 (en) | 2019-01-03 | 2021-12-21 | SZ DJI Technology Co., Ltd. | Video image processing method and device |
CN113841408A (zh) * | 2019-05-17 | 2021-12-24 | 北京字节跳动网络技术有限公司 | 用于视频处理的运动信息确定和存储 |
CN114071147A (zh) * | 2020-07-29 | 2022-02-18 | 四川大学 | 一种基于双线性模型的vvc运动补偿方法 |
CN115243048A (zh) * | 2018-12-07 | 2022-10-25 | 华为技术有限公司 | 视频图像解码、编码方法及装置 |
US11895319B2 (en) | 2018-08-28 | 2024-02-06 | Huawei Technologies Co., Ltd. | Method for constructing candidate motion information list, inter prediction method, and apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1359767A1 (en) * | 2002-05-03 | 2003-11-05 | Lg Electronics Inc. | Method for coding moving picture |
CN104539967A (zh) * | 2015-01-15 | 2015-04-22 | 哈尔滨工业大学 | 混合视频编码标准中帧间预测方法 |
-
2015
- 2015-07-15 CN CN201510415613.6A patent/CN104935938B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1359767A1 (en) * | 2002-05-03 | 2003-11-05 | Lg Electronics Inc. | Method for coding moving picture |
CN104539967A (zh) * | 2015-01-15 | 2015-04-22 | 哈尔滨工业大学 | 混合视频编码标准中帧间预测方法 |
Non-Patent Citations (4)
Title |
---|
HIROHISA JOZAWA ET AL: "Two-stage motion compensation using adaptive global mc and local affine mc", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
ROMAN C ET AL: "Affine motion prediction based on translational motion vectors", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
姚英彪等: "基于图像空间相关性与纹理的HEVC块划分快速算法", 《电信科学》 * |
张娜: "下一代视频编码标准中MERGE模式相关技术的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10659803B2 (en) | 2015-03-10 | 2020-05-19 | Huawei Technologies Co., Ltd. | Picture prediction method and related apparatus |
US11178419B2 (en) | 2015-03-10 | 2021-11-16 | Huawei Technologies Co., Ltd. | Picture prediction method and related apparatus |
CN107534770B (zh) * | 2015-03-10 | 2019-11-05 | 华为技术有限公司 | 图像预测方法和相关设备 |
CN107534770A (zh) * | 2015-03-10 | 2018-01-02 | 华为技术有限公司 | 图像预测方法和相关设备 |
US10404993B2 (en) | 2015-03-10 | 2019-09-03 | Huawei Technologies Co., Ltd. | Picture prediction method and related apparatus |
CN108886619A (zh) * | 2016-01-07 | 2018-11-23 | 联发科技股份有限公司 | 用于视频编解码***的仿射合并模式预测的方法及装置 |
WO2017148345A1 (en) * | 2016-03-01 | 2017-09-08 | Mediatek Inc. | Method and apparatus of video coding with affine motion compensation |
CN107181952B (zh) * | 2016-03-10 | 2019-11-08 | 北京大学 | 视频解码方法及装置 |
CN107181952A (zh) * | 2016-03-10 | 2017-09-19 | 北京大学 | 视频解码方法及装置 |
US11503324B2 (en) | 2016-05-16 | 2022-11-15 | Qualcomm Incorporated | Affine motion prediction for video coding |
CN109155855A (zh) * | 2016-05-16 | 2019-01-04 | 高通股份有限公司 | 用于视频译码的仿射运动预测 |
CN107360419A (zh) * | 2017-07-18 | 2017-11-17 | 成都图必优科技有限公司 | 一种基于透视模型的运动前视视频帧间预测编码方法 |
CN109510991A (zh) * | 2017-09-15 | 2019-03-22 | 浙江大学 | 一种运动矢量导出方法及装置 |
CN111418209B (zh) * | 2017-10-05 | 2023-10-24 | 交互数字Vc控股公司 | 用于视频编码和视频解码的方法和装置 |
CN111418209A (zh) * | 2017-10-05 | 2020-07-14 | 交互数字Vc控股公司 | 用于视频编码和视频解码的方法和装置 |
WO2019072187A1 (en) * | 2017-10-13 | 2019-04-18 | Huawei Technologies Co., Ltd. | PRUNING A MOVEMENT MODEL CANDIDATE LIST FOR AN INTERPRETING |
CN112055205A (zh) * | 2017-12-12 | 2020-12-08 | 华为技术有限公司 | 视频数据的帧间预测方法和装置 |
CN112055205B (zh) * | 2017-12-12 | 2021-08-03 | 华为技术有限公司 | 视频数据的帧间预测方法和装置、视频编解码器、存储介质 |
US11363274B2 (en) | 2017-12-12 | 2022-06-14 | Huawei Technologies Co., Ltd. | Video data inter prediction method and apparatus |
TWI786790B (zh) * | 2017-12-12 | 2022-12-11 | 大陸商華為技術有限公司 | 視頻資料的幀間預測方法和裝置 |
CN110536135B (zh) * | 2018-05-25 | 2021-11-05 | 腾讯美国有限责任公司 | 用于视频编解码的方法和设备 |
CN110536135A (zh) * | 2018-05-25 | 2019-12-03 | 腾讯美国有限责任公司 | 用于视频编解码的方法和设备 |
CN110677675A (zh) * | 2018-07-01 | 2020-01-10 | 北京字节跳动网络技术有限公司 | 高效的仿射Merge运动矢量推导 |
CN110677675B (zh) * | 2018-07-01 | 2022-02-08 | 北京字节跳动网络技术有限公司 | 高效的仿射Merge运动矢量推导的方法、装置及存储介质 |
WO2020010741A1 (zh) * | 2018-07-11 | 2020-01-16 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
CN112400318B (zh) * | 2018-07-11 | 2024-04-12 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
US11575928B2 (en) | 2018-07-11 | 2023-02-07 | Huawei Technologies Co., Ltd. | Video encoder, video decoder, and corresponding method |
CN112400318A (zh) * | 2018-07-11 | 2021-02-23 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
WO2020042604A1 (zh) * | 2018-08-27 | 2020-03-05 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
US11895319B2 (en) | 2018-08-28 | 2024-02-06 | Huawei Technologies Co., Ltd. | Method for constructing candidate motion information list, inter prediction method, and apparatus |
CN110876065A (zh) * | 2018-08-29 | 2020-03-10 | 华为技术有限公司 | 候选运动信息列表的构建方法、帧间预测方法及装置 |
CN110933423A (zh) * | 2018-09-20 | 2020-03-27 | 杭州海康威视数字技术股份有限公司 | 帧间预测方法和设备 |
CN110933423B (zh) * | 2018-09-20 | 2022-03-25 | 杭州海康威视数字技术股份有限公司 | 帧间预测方法和设备 |
CN111083487A (zh) * | 2018-10-22 | 2020-04-28 | 北京字节跳动网络技术有限公司 | 仿射模式的运动信息的存储 |
CN111083487B (zh) * | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 仿射模式的运动信息的存储 |
US20210266584A1 (en) | 2018-11-16 | 2021-08-26 | Beijing Bytedance Network Technology Co., Ltd. | Usage for history-based affine parameters |
US11856211B2 (en) | 2018-11-16 | 2023-12-26 | Beijing Bytedance Network Technology Co., Ltd | Usage for history-based affine parameters |
US11902550B2 (en) | 2018-11-16 | 2024-02-13 | Beijing Bytedance Network Technology Co., Ltd | Pruning method for history-based affine parameters |
US11985340B2 (en) | 2018-11-16 | 2024-05-14 | Beijing Bytedance Network Technology Co., Ltd | History-based affine parameters inheritance |
CN113475081A (zh) * | 2018-12-05 | 2021-10-01 | 高通股份有限公司 | 用于视频译码的三角形运动信息 |
CN113475081B (zh) * | 2018-12-05 | 2024-04-19 | 高通股份有限公司 | 用于视频译码的三角形运动信息 |
US11758130B2 (en) | 2018-12-07 | 2023-09-12 | Huawei Technologies Co., Ltd. | Video picture decoding and encoding method and apparatus |
CN115243048A (zh) * | 2018-12-07 | 2022-10-25 | 华为技术有限公司 | 视频图像解码、编码方法及装置 |
US12010304B2 (en) | 2018-12-27 | 2024-06-11 | Intellectual Discovery Co., Ltd. | Video encoding/decoding method and apparatus utilizing merge candidate indices |
CN113455001B (zh) * | 2018-12-27 | 2024-04-09 | 英迪股份有限公司 | 视频编码/解码方法和装置 |
CN113455001A (zh) * | 2018-12-27 | 2021-09-28 | 英迪股份有限公司 | 视频编码/解码方法和装置 |
CN109862368B (zh) * | 2018-12-28 | 2020-02-11 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法及其设备 |
US11889072B2 (en) | 2018-12-28 | 2024-01-30 | Hangzhou Hikvision Digital Technology Co., Ltd. | Video encoding and decoding |
CN109862368A (zh) * | 2018-12-28 | 2019-06-07 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法及其设备 |
CN109862369A (zh) * | 2018-12-28 | 2019-06-07 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法及其设备 |
US11743482B2 (en) | 2019-01-03 | 2023-08-29 | SZ DJI Technology Co., Ltd. | Video image processing method and device |
CN111357288A (zh) * | 2019-01-03 | 2020-06-30 | 深圳市大疆创新科技有限公司 | 视频图像处理方法与装置 |
US11689736B2 (en) | 2019-01-03 | 2023-06-27 | SZ DJI Technology Co., Ltd. | Video image processing method and device |
US11206422B2 (en) | 2019-01-03 | 2021-12-21 | SZ DJI Technology Co., Ltd. | Video image processing method and device |
WO2020169109A1 (en) * | 2019-02-22 | 2020-08-27 | Beijing Bytedance Network Technology Co., Ltd. | Sub-table for history-based affine mode |
US11863784B2 (en) | 2019-02-22 | 2024-01-02 | Beijing Bytedance Network Technology Co., Ltd | Sub-table for history-based affine mode |
CN113841408A (zh) * | 2019-05-17 | 2021-12-24 | 北京字节跳动网络技术有限公司 | 用于视频处理的运动信息确定和存储 |
CN113841408B (zh) * | 2019-05-17 | 2024-02-06 | 北京字节跳动网络技术有限公司 | 用于视频处理的运动信息确定和存储 |
CN111327901A (zh) * | 2020-03-10 | 2020-06-23 | 北京达佳互联信息技术有限公司 | 视频编码方法、装置、存储介质及编码设备 |
CN114071147A (zh) * | 2020-07-29 | 2022-02-18 | 四川大学 | 一种基于双线性模型的vvc运动补偿方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104935938B (zh) | 2018-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104935938B (zh) | 一种混合视频编码标准中帧间预测方法 | |
JP7004782B2 (ja) | 画像予測方法および関連装置 | |
CN111385569B (zh) | 一种编解码方法及其设备 | |
KR101633294B1 (ko) | 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치 | |
CN110519600B (zh) | 帧内帧间联合预测方法、装置、编解码器及存储装置 | |
CN103597831B (zh) | 方向帧内预测方法及其装置 | |
CN101385356B (zh) | 采用帧内预测模式的图像编码方法 | |
CN108781284A (zh) | 具有仿射运动补偿的视频编解码的方法及装置 | |
BR122013019017B1 (pt) | Aparelho para decodificação de uma imagem | |
KR20110112240A (ko) | 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 | |
KR101579106B1 (ko) | 영상 부호화 방법, 장치, 영상 복호 방법, 장치 및 그 프로그램 | |
CN110312130B (zh) | 基于三角模式的帧间预测、视频编码方法及设备 | |
US20130136187A1 (en) | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, and program thereof | |
CN105491390B (zh) | 混合视频编码标准中帧内预测方法 | |
CN101494776A (zh) | 一种h.264码率控制方法 | |
CN103069803B (zh) | 视频编码方法、视频解码方法、视频编码装置、视频解码装置 | |
CN104702959B (zh) | 一种视频编码的帧内预测方法及*** | |
CN104918047B (zh) | 一种双向运动估计的排除方法和装置 | |
CN102984524A (zh) | 一种基于图层分解的视频编解码方法 | |
CN101783956A (zh) | 基于时空邻居信息的后向预测方法 | |
Zhang et al. | Motion vector derivation of deformable block | |
CN102204256B (zh) | 图像预测方法和*** | |
Ratnottar et al. | Review towards the fast block matching algorithms for video motion estimation | |
CN104539967A (zh) | 混合视频编码标准中帧间预测方法 | |
KR100899658B1 (ko) | 고속 동작을 위한 mpeg2/h.264 디지털 비디오트랜스코딩 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |