CN102724525A - 一种基于中心凹恰可觉察失真模型的深度视频编码方法 - Google Patents
一种基于中心凹恰可觉察失真模型的深度视频编码方法 Download PDFInfo
- Publication number
- CN102724525A CN102724525A CN2012101808914A CN201210180891A CN102724525A CN 102724525 A CN102724525 A CN 102724525A CN 2012101808914 A CN2012101808914 A CN 2012101808914A CN 201210180891 A CN201210180891 A CN 201210180891A CN 102724525 A CN102724525 A CN 102724525A
- Authority
- CN
- China
- Prior art keywords
- video
- frame
- quantization parameter
- virtual viewpoint
- macro block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其首先计算对左右视点彩***和左右视点深度视频进行中间虚拟视点绘制得到的中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,然后根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,接着根据几何偏移获取左视点深度视频的最大可容忍失真视频,再根据最大可容忍失真视频获取左视点深度视频的每帧中的每个宏块的可增加编码量化参数,该方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码流可达到11.00~23.34%。
Description
技术领域
本发明涉及一种视频信号的处理方法,尤其是涉及一种基于中心凹恰可觉察失真模型的深度视频编码方法。
背景技术
目前,3DTV与FTV广泛使用多视点彩色加深度视频(Multi-view Video plus Depth,MVD)进行场景描述。MVD包括多个视点的彩色和对应的深度信息,通过编码、传输、解码后在显示端进行虚拟视点绘制。在MVD中,尽管多视点彩***的编码已经得到广泛的研究,其中较为适用的编码平台有JMVM(Joint Multiview Video Model)和JMVC(Joint Multiview Video Coding),但是有关深度视频编码的研究较少。深度视频代表相机距离3D空间中对象的相对距离,在计算机视觉和计算机图像领域广泛用于描述3D信息。另外,值得注意的是,深度视频并不是直接用于显示,目前大多数基于图像的绘制方法都是利用深度图并结合立体或者多视点彩***进行虚拟视点绘制。与彩***仅仅关心本身的压缩效率不同,深度视频编码的主要目标是在压缩深度视频的同时保证虚拟视点绘制质量,因此针对深度视频的压缩必须考虑在不同码率下绘制视点的质量。
与单通道视频信号仅仅传输一个通道的彩***不同,MVD不仅需要传输多个通道的彩***,还需要传输对应的深度视频,因此必须对MVD视频信息进行有效的压缩。通常,MVD使用变换、量化、运动估计、运动补偿、熵编码、帧内和帧间预测等去除空间、时间以及视点间的冗余,在此过程中量化是引入视频误差的主要因素之一。在彩***编码中,量化误差导致每个像素亮度或者色度成分的失真,将直接影响视频质量;而深度视频的量化误差间接地影响绘制的视频质量,即量化误差在绘制阶段的像素内插时导致几何失真,而几何失真转化为绘制视点的亮度或者色度误差。同时,MVD在用户端进行显示,无论是真实视点还是虚拟视点的场景,最直接的感受者通常是人眼,因此为了在不影响虚拟视点绘制质量的前提下提高深度视频的压缩效率,需要进一步理解并运用人眼视觉***(Human Visual System,HVS)的感知特性,根据深度视频失真对虚拟视点绘制的影响,设计高效的深度视频压缩方案。
在深度视频压缩方面,Lai等人利用相机内参和全局视频特性,分析深度视频压缩失真对虚拟视点绘制质量的影响,确定深度视频失真和绘制视点几何失真之间的关系。对于HVS感知方面,Safrenek分析HVS在空域中对亮度的感知特性,根据人眼对亮度对比度比绝对亮度的敏感度更大建立空域背景亮度恰可觉察失真模型(Just NoticeableDistortion,JND),对二维图像的编码具有重要的指导作用。Eckert分析得到在图像的空间域中边界区域更能引起人眼的注意,因此边界区域所能容忍的失真比平滑或者纹理区域更少,基于此建立空间域纹理JND模型,在一定程度上节约编码二维图像的比特。Chou考虑视频中相邻帧之间较大的亮度差异导致较大的时域掩蔽效应,建立时域JND模型,在视频编码中具有指导下性意义。最近,Chen等人在已有的空域和时域JND的基础上,利用HVS视觉敏感度在整个场景并不是恒定不变的特性,即HVS中心凹特性,建立中心凹恰可觉察失真(Foveated Just Noticeable Distortion,FJND)模型。FJND模型更充分地利用了视频中的感知冗余,提高了视频压缩的效率,但是以上所建立的JND模型和FJND模型针对的是平面图像或者单通道视频,且分辨率大部分限制在CIF格式,没有考虑深度视频失真对绘制视频质量的影响和分辨率等因素,并不能很好地应用到MVD压缩中。
发明内容
本发明所要解决的技术问题是提供一种基于中心凹恰可觉察失真模型的深度视频编码方法,其在维持虚拟视点视觉感知质量的前提下,能够有效节约深度视频的编码码率。
本发明解决上述技术问题所采用的技术方案为:一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于包括以下步骤:
①将待编码的深度视频的左视点视频记为DL(m,n,k),将与待编码的深度视频的左视点视频DL(m,n,k)对应的彩***的左视点视频记为CL(m,n,k),将待编码的深度视频的右视点视频记为DR(m,n,k),将与待编码的深度视频的右视点视频DR(m,n,k)对应的彩***的右视点视频记为CR(m,n,k),其中,m表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的水平分辨率,n表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的垂直分辨率,m×n表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的分辨率,k表示DL(m,n,k)中包含的深度视频帧、CL(m,n,k)中包含的彩***帧、DR(m,n,k)中包含的深度视频帧和CR(m,n,k)中包含的彩***帧的帧数;
②在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)进行编码,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;然后对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,得到绘制后的中间虚拟视点视频,记为V(m,n,k),其中,V(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,V(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,得到全局恰可觉察失真的中间虚拟视点视频,记为GJND(m,n,k),其中,GJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,GJND(m,n,k)中包含的中间虚拟视点视频的帧数为k;
④根据GJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,定量得到GJND(m,n,k)的几何偏移的中间虚拟视点视频,记为ΔP(m,n,k),其中,ΔP(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,ΔP(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
⑤根据ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,定性得到DL(m,n,k)的最大可容忍失真视频,记为ΔDL(m,n,k),其中,ΔDL(m,n,k)中的最大可容忍失真视频帧的分辨率为m×n,ΔDL(m,n,k)中包含的最大可容忍失真视频帧的帧数为k;
⑥首先根据ΔDL(m,n,k)将DL(m,n,k)中的所有深度视频帧的宏块分成四类,并分别确定四类宏块的可增加编码量化参数的具体值,然后确定DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数的具体值,再在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,对DL(m,n,k)和CL(m,n,k)以及DR(m,n,k)和CR(m,n,k)进行编码。
所述的步骤③的具体过程为:
③-1、计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的空域恰可觉察失真,得到空域恰可觉察失真的中间虚拟视点视频,记为SJND(m,n,k),其中,SJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,SJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③-2、计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的时域恰可觉察失真,得到时域恰可觉察失真的中间虚拟视点视频,记为TJND(m,n,k),其中,TJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,TJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③-3、将SJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的空域恰可觉察失真与TJND(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的时域恰可觉察失真相乘,得到时空恰可觉察失真的中间虚拟视点视频,记为STJND(m,n,k),其中,STJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,STJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③-4、计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的中心凹恰可觉察失真的加权系数;
③-5、将STJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的时空恰可觉察失真与V(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的中心凹恰可觉察失真的加权系数相乘,得到全局恰可觉察失真的中间虚拟视点视频GJND(m,n,k)。
所述的步骤④的具体过程为:提取出GJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,并直接将等于提取出的全局恰可觉察失真的数值赋值给GJND(m,n,k)的几何偏移的中间虚拟视点视频ΔP(m,n,k)中的对应的中间虚拟视点视频帧中对应的像素,定量得到GJND(m,n,k)的几何偏移的中间虚拟视点视频序列ΔP(m,n,k)。
所述的步骤⑤的具体过程为:采用深度视频失真和几何失真之间的线性关系 定性得到DL(m,n,k)的最大可容忍失真视频ΔDL(m,n,k),其中,ΔP表示ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,a表示水平方向上以像素为单位的相机焦距,δx表示水平方向上两个相机之间的基线距离,x表示DL(m,n,k)中的每帧深度视频帧中的像素的横坐标,y表示DL(m,n,k)中的每帧深度视频帧中的像素的纵坐标,ΔDdepth(x,y)表示DL(m,n,k)中的每帧深度视频帧中坐标位置为(x,y)的像素的最大可容忍失真,1≤x≤m,1≤y≤n,Znear表示DL(m,n,k)中的每帧深度视频帧中距离相机最近距离的像素的像素值,Zfar表示DL(m,n,k)中的每帧深度视频帧中距离相机最远距离的像素的像素值。
所述的步骤⑥的具体过程为:
⑥-1、根据ΔDL(m,n,k)将DL(m,n,k)中的所有深度视频帧的宏块分成四类,并确定第一类宏块的编码量化参数为第二类宏块的编码量化参数为第三类宏块的编码量化参数为第四类宏块的编码量化参数为其中,表示对DL(m,n,k)进行编码的初始编码量化参数,ΔQP1表示第一类宏块的可增加编码量化参数,ΔQP2表示第二类宏块的可增加编码量化参数,ΔQP3表示第三类宏块的可增加编码量化参数,ΔQP4表示第四类宏块的可增加编码量化参数,0≤ΔQP1<ΔQP2≤ΔQP3≤ΔQP4≤12;
⑥-2、确定DL(m,n,k)中的所有深度视频帧中的第一类宏块的可增加编码量化参数ΔQP1、第二类宏块的可增加编码量化参数ΔQP2、第三类宏块的可增加编码量化参数ΔQP3和第四类宏块的可增加编码量化参数ΔQP4的具体值;
⑥-3、确定DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的具体值;
⑥-4、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP1的具体值的和对DL(m,n,k)中的所有深度视频帧中的第一类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP2的具体值的和对DL(m,n,k)中的所有深度视频帧中的第二类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP3的具体值的和对DL(m,n,k)中的所有深度视频帧中的第三类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP4的具体值的和对DL(m,n,k)中的所有深度视频帧中的第四类宏块进行编码;采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码;采用DR(m,n,k)的初始编码量化参数与ΔQP5的具体值的和对DR(m,n,k)进行编码;采用CR(m,n,k)的初始编码量化参数与ΔQP5的具体值的和对CR(m,n,k)进行编码。
所述的步骤⑥-1中宏块分类的具体过程为:
a1、将ΔDL(m,n,k)中的每帧最大可容忍失真视频帧分割成K×L个互不重叠的宏块,将DL(m,n,k)中的每帧深度视频帧分割成K×L个互不重叠的宏块,其中,K=m/16,L=n/16;
b1、计算ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局平均值,记为A,再根据A计算ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局方差,记为V,其中,0≤i≤K-1,0≤j≤L-1,ΔDij表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中坐标位置为(i,j)的宏块的最大可容忍失真的平均值,a表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的每个宏块中的像素的横坐标,表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的每个宏块中的像素的纵坐标,ΔDij,ab表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中坐标位置为(i,j)的宏块中坐标位置为(a,b)的像素的最大可容忍失真;
c1、将DL(m,n,k)中当前正在处理的深度视频帧定义为当前深度视频帧;
d1、利用canny算子提取当前深度视频帧中的边缘宏块;
e1、将当前深度视频帧中当前正在处理的坐标位置为(i,j)的宏块定义为当前宏块;
g1、判断当前宏块是否为边缘宏块,如果是,则将当前宏块归入第一类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤h1,其中,表示对DL(m,n,k)进行编码的初始编码量化参数,ΔQP1表示第一类宏块的可增加编码量化参数;
h1、判断ΔDij≤A且Vij>V是否成立,如果成立,则将当前宏块归入第一类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤i1;
i1、判断ΔDij≤A且Vij≤V是否成立,如果成立,则将当前宏块归入第二类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤j1,其中,ΔQP2表示第二类宏块的可增加编码量化参数;
j1、判断ΔDij>A且Vij>V是否成立,如果成立,则将当前宏块归入第三类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤k1,其中,ΔQP3表示第三类宏块的可增加编码量化参数;
l1、令i′=i+1,i=i′,令j′=j+1,j=j′,将当前深度视频帧中下一个待处理的宏块作为当前宏块,然后返回步骤f1继续执行,直至当前深度视频帧中的所有宏块处理完毕,其中,i′和j′的初始值均为0,在i′=i+1,i=i′和j′=j+1,j=j′中符号“=”为赋值符号;
m1、将DL(m,n,k)中下一帧待处理的深度视频帧作为当前深度视频帧,然后返回步骤d1继续执行,直至DL(m,n,k)中的所有深度视频帧处理完毕。
所述的步骤⑥-2的具体过程为:
a2、将DL(m,n,k)中的所有深度视频帧中的第一类宏块的可增加编码量化参数ΔQP1的具体值确定为0;
b2-1、将2作为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的候选参考值;
b2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP2的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第二类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第三类宏块和第四类宏块进行编码;
b2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;
b2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
b2-5、将4和8分别作为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的候选参考值,并按照步骤b2-2至步骤b2-4的操作过程,获得对应的虚拟视点绘制质量;
b2-6、比较上述获得的三个虚拟视点绘制质量的值的大小,找出最大值的虚拟视点绘制质量,并将最大值的虚拟视点绘制质量对应的ΔQP2的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的具体值;
c2-1、将5作为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的候选参考值;
c2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP3的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第三类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第二类宏块和第四类宏块进行编码;
c2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;
c2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
c2-5、将8和12分别作为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的候选参考值,并按照步骤c2-2至步骤c2-4的操作过程,获得对应的虚拟视点绘制质量;
c2-6、比较上述获得的三个虚拟视点绘制质量的值的大小,找出最大值的虚拟视点绘制质量,并将最大值的虚拟视点绘制质量对应的ΔQP3的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的具体值;
d2-1、将8作为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的候选参考值;
d2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP4的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第四类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第二类宏块和第三类宏块进行编码;
d2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;
d2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
d2-5、将9、10、11和12分别作为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的候选参考值,并按照步骤d2-2至步骤d2-4的操作过程,获得对应的虚拟视点绘制质量;
d2-6、比较上述获得的五个虚拟视点绘制质量的值的大小,当其中一个虚拟视点绘制质量的值急剧下降时,将该虚拟视点绘制质量对应的ΔQP4的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的具体值。
所述的步骤⑥-3的具体过程为:
a3、将4+s的值作为DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的候选参考值,其中,s的初始值为0;
b3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)进行编码,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数与ΔQP5的候选参考值的和对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数与ΔQP5的候选参考值的和对CR(m,n,k)进行编码;
c3、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
d3、令s′=s+1,s=s′,然后返回步骤a3继续执行,直至s的值大于12为止,获得对应的虚拟视点绘制质量,其中,s′的初始值为0;
e3、比较上述获得的十三个虚拟视点绘制质量的值的大小,当其中一个虚拟视点绘制质量的值急剧下降时,将该虚拟视点绘制质量对应的ΔQP5的候选参考值确定为DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的具体值。
与现有技术相比,本发明的优点在于:
1)通过对左右视点彩***和左右视点深度视频进行中间虚拟视点绘制得到中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,从而保证中间虚拟视点视频中每一个像素都具有不被人眼观察到变化的失真像素值。
2)根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,由于在虚拟视点绘制过程中,左右视点深度视频是必不可少的组成部分,而且深度视频中的每帧中的每个像素的几何偏移值和中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真值之间是相等的关系,因此根据中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真可以确定深度视频中的每帧中的每个像素的几何偏移,以便实施深度视频编码的过程。
3)利用几何偏移定性地求取深度视频的左视点视频的最大可容忍失真视频,便于控制左视点深度视频,以探索左视点深度视频对中间虚拟视点绘制视频的影响。
4)利用每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局方差以及每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局方差将左视点深度视频的每帧中的宏块分成4类,分类过程充分考虑了左视点视频中的每帧中的每个宏块在整帧中的全局特性,具有普遍性和适用性,可实现性强。
5)采取不同的编码量化参数对左右视点彩***和左右视频深度视频进行编码,在有效地节约编码码率的同时,还保证了中间虚拟视点视频的主观质量。
6)本发明方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码率可达到11.00~23.34%。
附图说明
图1a为“Book Arrival”测试视频序列中的第5视点和第7视点绘制后的中间虚拟视点视频序列中的第1帧中间虚拟视点视频帧;
图1b为图1a的时空恰可觉察失真的中间虚拟视点视频帧;
图1c为图1a的全局恰可觉察失真的中间虚拟视点视频帧;
图2为图1c的几何偏移的中间虚拟视点视频帧;
图3为“BookArrival”测试视频序列中的第5视点的最大可容忍失真视频序列中的第1帧;
图4为“Book Arrival”测试视频序列中的第5视点的第1帧中的宏块分类结果示意图;
图5a为“Book Arrival”测试视频序列中的第5视点的49帧每一帧ΔQP2数值分别设置为2、4、8,ΔQP3的数值分别设置为5、8、12时绘制的第6虚拟视点序列中49帧的平均客观质量示意图;
图5b为“Book Arrival”测试视频序列中的第5视点的49帧每一帧ΔQP4的数值从8不断增大至12时绘制的第6虚拟视点序列中49帧的平均客观质量示意图;
图6为“Book Arrival”测试视频序列中的第7视点彩色和深度视频49帧每一帧随着ΔQP5不断增大虚拟视点绘制质量的变化情况;
图7a为“Book Arrival”测试序列的第0视点第33帧原始帧;
图7b为“Book Arrival”测试序列的第0视点第33帧原始帧的局部放大图;
图7c为利用第5视点和第7视点的彩***和对应深度视频采用JMVC编码之后绘制后得到的虚拟视点第6视点第33帧的局部放大图;
图7d为利用原始的第5视点和第7视点的彩***和对应的深度视频采用本发明方法编码之后绘制得到的虚拟视点第6视点第33帧的局部放大图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
由于多视点视频信号最终是通过人眼进行感知,因此为了在维持虚拟视点视觉感知质量的前提下有效地节约深度视频编码码率,本发明提出了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其利用深度视频失真和绘制视点几何失真之间的关系,在已有的中心凹恰可觉察失真(Foveated Just Noticeable Distortion,FJND)模型的基础上从虚拟视点绘制质量的角度出发对MVD进行编码,以减少深度视频的编码码率。
本发明的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其包括以下步骤:
①将待编码的深度视频的左视点视频记为DL(m,n,k),将与待编码的深度视频的左视点视频DL(m,n,k)对应的彩***的左视点视频记为CL(m,n,k),将待编码的深度视频的右视点视频记为DR(m,n,k),将与待编码的深度视频的右视点视频DR(m,n,k)对应的彩***的右视点视频记为CR(m,n,k),其中,m表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的水平分辨率,n表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的垂直分辨率,m×n表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的分辨率,k表示DL(m,n,k)中包含的深度视频帧、CL(m,n,k)中包含的彩***帧、DR(m,n,k)中包含的深度视频帧和CR(m,n,k)中包含的彩***帧的帧数。
②在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)进行编码,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;然后利用现有技术对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,得到绘制后的中间虚拟视点视频,记为V(m,n,k),其中,V(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,V(m,n,k)中包含的中间虚拟视点视频帧的帧数为k。
③依次计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,得到全局恰可觉察失真的中间虚拟视点视频,记为GJND(m,n,k),其中,GJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,GJND(m,n,k)中包含的中间虚拟视点视频的帧数为k。
在此具体实施例中,步骤③的具体过程为:
③-1、依次计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的空域恰可觉察失真,得到空域恰可觉察失真的中间虚拟视点视频,记为SJND(m,n,k),其中,SJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,SJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k。
③-2、依次计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的时域恰可觉察失真,得到时域恰可觉察失真的中间虚拟视点视频,记为TJND(m,n,k),其中,TJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,TJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k。
③-3、将SJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的空域恰可觉察失真与TJND(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的时域恰可觉察失真相乘,得到时空恰可觉察失真的中间虚拟视点视频,记为STJND(m,n,k),其中,STJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,STJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k。
③-4、采用现有技术依次计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的中心凹恰可觉察失真的加权系数,得到中心凹恰可觉察失真的中间虚拟视点视频,记为FJND(m,n,k),其中,STJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,FJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k。
③-5、将STJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的时空恰可觉察失真与V(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的中心凹恰可觉察失真的加权系数相乘,得到全局恰可觉察失真的中间虚拟视点视频GJND(m,n,k)。
图1a给出了“Book Arrival”测试视频序列中的第5视点和第7视点绘制后的中间虚拟视点视频序列中的第1帧中间虚拟视点视频帧;图1b给出了图1a的时空域恰可觉察失真的中间虚拟视点视频帧,为了显示的需要,将空域恰可觉察失真的中间虚拟视点视频帧中的每个像素值扩大了10倍;图1c给出了图1a的全局恰可觉察失真的中间虚拟视点视频帧,为了显示的需要,将全局恰可觉察失真的中间虚拟视点视频帧中的每个像素值扩大了10倍。
④根据GJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,定量得到GJND(m,n,k)的几何偏移的中间虚拟视点视频,记为ΔP(m,n,k),其中,ΔP(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,ΔP(m,n,k)中包含的中间虚拟视点视频帧的帧数为k。
在此具体实施例中,步骤④的具体过程为:依次提取出GJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,并直接将等于提取出的全局恰可觉察失真的数值赋值给GJND(m,n,k)的几何偏移的中间虚拟视点视频ΔP(m,n,k)中的对应的中间虚拟视点视频帧中对应的像素,即:使得ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移等于GJND(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的全局恰可觉察失真,定量得到GJND(m,n,k)的几何偏移的中间虚拟视点视频序列ΔP(m,n,k)。
图2给出了图1c的几何偏移的中间虚拟视点视频帧,为了显示的需要,将几何偏移的中间虚拟视点视频帧中的每个像素值扩大了4倍。
⑤根据ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,定性得到DL(m,n,k)的最大可容忍失真视频,记为ΔDL(m,n,k),其中,ΔDL(m,n,k)中的最大可容忍失真视频帧的分辨率为m×n,ΔDL(m,n,k)中包含的最大可容忍失真视频帧的帧数为k。
在此具体实施例中,步骤⑤的具体过程为:采用深度视频失真和几何失真之间的线性关系 定性得到DL(m,n,k)的最大可容忍失真视频ΔDL(m,n,k),其中,ΔP表示ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,a表示水平方向上以像素为单位的相机焦距,δx表示水平方向上两个相机之间的基线距离,x表示DL(m,n,k)中的每帧深度视频帧中的像素的横坐标,y表示DL(m,n,k)中的每帧深度视频帧中的像素的纵坐标,ΔDdepth(x,y)表示DL(m,n,k)中的每帧深度视频帧中坐标位置为(x,y)的像素的最大可容忍失真,1≤x≤m,1≤y≤n,Znear表示DL(m,n,k)中的每帧深度视频帧中距离相机最近距离的像素的像素值,Zfar表示DL(m,n,k)中的每帧深度视频帧中距离相机最远距离的像素的像素值。
图3给出了“Book Arrival”测试视频序列中的第5视点的最大可容忍失真视频序列中的第1帧,为了显示的需要,将最大可容忍失真视频序列中的第1帧中的每个像素值扩大了4倍。
⑥首先根据ΔDL(m,n,k)将DL(m,n,k)中的所有深度视频帧的宏块分成四类,并分别确定四类宏块的可增加编码量化参数的具体值,然后确定DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数的具体值,再在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,对DL(m,n,k)和CL(m,n,k)以及DR(m,n,k)和CR(m,n,k)进行编码。
在此具体实施例中,步骤⑥的具体过程为:
⑥-1、根据ΔDL(m,n,k)将DL(m,n,k)中的所有深度视频帧的宏块分成四类,并确定第一类宏块的编码量化参数为第二类宏块的编码量化参数为第三类宏块的编码量化参数为第四类宏块的编码量化参数为其中,表示对DL(m,n,k)进行编码的初始编码量化参数,ΔQP1表示第一类宏块的可增加编码量化参数,ΔQP2表示第二类宏块的可增加编码量化参数,ΔQP3表示第三类宏块的可增加编码量化参数,ΔQP4表示第四类宏块的可增加编码量化参数,0≤ΔQP1<ΔQP2≤ΔQP3≤ΔQP4≤12。
在此,宏块分类的具体过程为:
a1、将ΔDL(m,n,k)中的每帧最大可容忍失真视频帧分割成K×L个互不重叠的宏块,将DL(m,n,k)中的每帧深度视频帧分割成K×L个互不重叠的宏块,其中,K=m/16,L=n/16。
b1、计算ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局平均值,记为A,再根据A计算ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局方差,记为V,其中,0≤i≤K-1,0≤j≤L-1,ΔDij表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中坐标位置为(i,j)的宏块的最大可容忍失真的平均值,a表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的每个宏块中的像素的横坐标,表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的每个宏块中的像素的纵坐标,ΔDij,ab表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中坐标位置为(i,j)的宏块中坐标位置为(a,b)的像素的最大可容忍失真。
c1、将DL(m,n,k)中当前正在处理的深度视频帧定义为当前深度视频帧。
d1、利用canny算子提取当前深度视频帧中的边缘宏块。
e1、将当前深度视频帧中当前正在处理的坐标位置为(i,j)的宏块定义为当前宏块。
g1、判断当前宏块是否为边缘宏块,如果是,则将当前宏块归入第一类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤h1,其中,表示对DL(m,n,k)进行编码的初始编码量化参数,ΔQP1表示第一类宏块的可增加编码量化参数。
i1、判断ΔDij≤A且Vij≤V是否成立,如果成立,则将当前宏块归入第二类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤j1,其中,ΔQP2表示第二类宏块的可增加编码量化参数。
j1、判断ΔDij>A且Vij>V是否成立,如果成立,则将当前宏块归入第三类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤k1,其中,ΔQP3表示第三类宏块的可增加编码量化参数。
l1、令i′=i+1,i=i′,令j′=j+1,j=j′,将当前深度视频帧中下一个待处理的宏块作为当前宏块,然后返回步骤f1继续执行,直至当前深度视频帧中的所有宏块处理完毕,其中,i′和j′的初始值均为0,在i′=i+1,i=i′和j′=j+1,j=j′中符号“=”为赋值符号。
m1、将DL(m,n,k)中下一帧待处理的深度视频帧作为当前深度视频帧,然后返回步骤d1继续执行,直至DL(m,n,k)中的所有深度视频帧处理完毕。
图4给出了“BookArrival”测试视频序列中的第5视点的第1帧的宏块分类结果,图4中白色区域表示人眼最不容易觉察失真区域,在编码时可以采用较大的编码量化参数QP;随着区域颜色由白色变成黑色,人眼越容易觉察视频的失真,编码时所采用的编码量化参数QP会随之下降。
⑥-2、确定DL(m,n,k)中的所有深度视频帧中的第一类宏块的可增加编码量化参数ΔQP1、第二类宏块的可增加编码量化参数ΔQP2、第三类宏块的可增加编码量化参数ΔQP3和第四类宏块的可增加编码量化参数ΔQP4的具体值。
在此,步骤⑥-2的具体过程为:
a2、将DL(m,n,k)中的所有深度视频帧中的第一类宏块的可增加编码量化参数ΔQP1的具体值确定为0。
b2-1、将2作为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的候选参考值。
b2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP2的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第二类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第三类宏块和第四类宏块进行编码。
b2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码。
b2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量。
b2-5、将4和8分别作为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的候选参考值,并按照步骤b2-2至步骤b2-4的操作过程,获得对应的虚拟视点绘制质量。
b2-6、比较上述获得的三个虚拟视点绘制质量的值的大小,找出最大值的虚拟视点绘制质量,并将最大值的虚拟视点绘制质量对应的ΔQP2的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的具体值,通过多次实验得出当ΔQP2的候选参考值为4时获得的虚拟视点绘制质量最佳,即ΔQP2的具体值取为4。
c2-1、将5作为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的候选参考值。
c2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP3的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第三类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第二类宏块和第四类宏块进行编码。
c2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码。
c2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量。
c2-5、将8和12分别作为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的候选参考值,并按照步骤c2-2至步骤c2-4的操作过程,获得对应的虚拟视点绘制质量。
c2-6、比较上述获得的三个虚拟视点绘制质量的值的大小,找出最大值的虚拟视点绘制质量,并将最大值的虚拟视点绘制质量对应的ΔQP3的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的具体值,通过多次实验得出当ΔQP3的候选参考值为8时获得的虚拟视点绘制质量最佳,即ΔQP3的具体值取为8。
d2-1、将8作为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的候选参考值。
d2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP4的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第四类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第二类宏块和第三类宏块进行编码。
d2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码。
d2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量。
d2-5、将9、10、11和12分别作为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的候选参考值,并按照步骤d2-2至步骤d2-4的操作过程,获得对应的虚拟视点绘制质量。
d2-6、比较上述获得的五个虚拟视点绘制质量的值的大小,当其中一个虚拟视点绘制质量的值急剧下降时,将该虚拟视点绘制质量对应的ΔQP4的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的具体值,即:比较上述依次获得的五个虚拟视点绘制质量中前后两者之差的大小,找出差值最大对应的两个虚拟视点绘制质量中的前一个虚拟视点绘制质量,并将找出的虚拟视点绘制质量对应的ΔQP4的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的具体值,通过多次实验得出当ΔQP4的候选参考值为11时获得的虚拟视点绘制质量保持不影响人眼观看效果的水平,即ΔQP4的具体值取为11。
图5a给出了“Book Arrival”测试视频序列中的第5视点的49帧的每一帧ΔQP2数值分别设置为2、4、8,ΔQP3的数值分别设置为5、8、12时绘制的第6虚拟视点序列中49帧的平均客观质量,从图5a中可以看出当ΔQP2的具体值为4、ΔQP3的具体值为8时对应的虚拟视点绘制质量最佳;图5b给出了“Book Arrival”测试视频序列中的第5视点的49帧每一帧ΔQP4的数值从8不断增大至12时绘制的第6虚拟视点序列中49帧的平均客观质量。表1给出了“Book Arrival”测试视频序列中的第5视点的49帧每一帧的边缘区域在Basis QP(基本编码量化参数)下,非边缘区域的ΔQP4的数值。从图5b以及表1中可以看出当ΔQP4的平均值为11时绘制的虚拟视点质量不影响人眼观看效果的水平。
表1“Book Arrival”测试视频序列中的第5视点的49帧每一帧的边缘区域在Basis QP下,
非边缘区域的ΔQP4的数值
⑥-3、确定DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的具体值。
在此,步骤⑥-3的具体过程为:
a3、将4+s的值作为DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的候选参考值,其中,s的初始值为0。
b3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)进行编码,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数与ΔQP5的候选参考值的和对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数与ΔQP5的候选参考值的和对CR(m,n,k)进行编码。
c3、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量。
d3、令s′=s+1,s=s′,然后返回步骤a3继续执行,直至s的值大于12为止,获得对应的虚拟视点绘制质量,其中,s′的初始值为0。
e3、比较上述获得的十三个虚拟视点绘制质量的值的大小,当其中一个虚拟视点绘制质量的值急剧下降时,将该虚拟视点绘制质量对应的ΔQP5的候选参考值确定为DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的具体值,通过多次实验得出当ΔQP5的候选参考值为5时获得的虚拟视点绘制质量保持不影响人眼观看效果的水平,即ΔQP5的具体值取为5。
图6给出了“Book Arrival”测试视频序列中的第7视点彩色和深度视频49帧每一帧随着ΔQP5不断增大虚拟视点绘制质量的变化情况,从图6中可以看出随着ΔQP5不断增大,绘制虚拟的第6视点的客观质量会缓慢的下降,ΔQP5增大到某个拐点时,绘制虚拟视点的质量会急剧下降,势必影响人眼的观看效果;表2给出了“Book Arrival”测试视频序列中的第7视点视频49帧每一帧在不同的编码Basis QP下,ΔQP5的数值;从图6以及表2中可以看出当ΔQP5的平均值为5时绘制的虚拟视点质量不影响人眼观看效果的水平。
表2“Book Arrival”测试视频序列中的第7视点视频49帧每一帧在不同的编码Basis QP下,ΔQP5的数值
⑥-4、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP1的具体值的和对DL(m,n,k)中的所有深度视频帧中的第一类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP2的具体值的和对DL(m,n,k)中的所有深度视频帧中的第二类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP3的具体值的和对DL(m,n,k)中的所有深度视频帧中的第三类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP4的具体值的和对DL(m,n,k)中的所有深度视频帧中的第四类宏块进行编码;采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码;采用DR(m,n,k)的初始编码量化参数与ΔQP5的具体值的和对DR(m,n,k)进行编码;采用CR(m,n,k)的初始编码量化参数与ΔQP5的具体值的和对CR(m,n,k)进行编码。
在虚拟视点图像绘制的主观质量方面,本发明方法对虚拟视点图像的质量具有更好的提高。图7a给出了“Book Arrival”测试序列的第0视点第33帧原始帧;图7b给出了“Book Arrival”测试序列的第0视点第33帧原始帧的局部放大图;图7c给出了利用第5视点和第7视点的彩***和对应深度视频采用JMVC编码之后绘制后得到的虚拟视点第6视点第33帧的局部放大图;图7d给出了利用原始的第5视点和第7视点的彩***和对应的深度视频采用本发明方法编码之后绘制得到的虚拟视点第6视点第33帧的局部放大图。从图7b、图7c、图7d中可以看出,在右边人物的黑色衣袖处,图7c在主观上看出更接近于图7b,在边界处具有较好的连续性,与原始视频图7b相似度更大,保护了视频场景中的边缘区域,更符合人眼的感知特性。
在深度视频序列压缩效率方面,本发明方法能节约11.00~23.34%的码率,表3列出了“Book Arrival”和“Leave Laptop”测试序列采用JMVC方法以及本发明方法在相同条件下(Basis QP=22、27、32、37)编码的码率对比。由于本发明方法主要是分区域对深度视频序列采取可增大的编码量化参数进行编码,因此能够节省深度视频编码码率11.00~23.34%。
表3“Book Arrival”和“Leave Laptop”测试序列采用JMVC方法以及本发明方法在相同条件下(Basis QP=22、27、32、37)编码的码率对比
Claims (8)
1.一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于包括以下步骤:
①将待编码的深度视频的左视点视频记为DL(m,n,k),将与待编码的深度视频的左视点视频DL(m,n,k)对应的彩***的左视点视频记为CL(m,n,k),将待编码的深度视频的右视点视频记为DR(m,n,k),将与待编码的深度视频的右视点视频DR(m,n,k)对应的彩***的右视点视频记为CR(m,n,k),其中,m表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的水平分辨率,n表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的垂直分辨率,m×n表示DL(m,n,k)中的深度视频帧、CL(m,n,k)中的彩***帧、DR(m,n,k)中的深度视频帧和CR(m,n,k)中的彩***帧的分辨率,k表示DL(m,n,k)中包含的深度视频帧、CL(m,n,k)中包含的彩***帧、DR(m,n,k)中包含的深度视频帧和CR(m,n,k)中包含的彩***帧的帧数;
②在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)进行编码,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;然后对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,得到绘制后的中间虚拟视点视频,记为V(m,n,k),其中,V(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,V(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,得到全局恰可觉察失真的中间虚拟视点视频,记为GJND(m,n,k),其中,GJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,GJND(m,n,k)中包含的中间虚拟视点视频的帧数为k;
④根据GJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,定量得到GJND(m,n,k)的几何偏移的中间虚拟视点视频,记为ΔP(m,n,k),其中,ΔP(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,ΔP(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
⑤根据ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,定性得到DL(m,n,k)的最大可容忍失真视频,记为ΔDL(m,n,k),其中,ΔDL(m,n,k)中的最大可容忍失真视频帧的分辨率为m×n,ΔDL(m,n,k)中包含的最大可容忍失真视频帧的帧数为k;
⑥首先根据ΔDL(m,n,k)将DL(m,n,k)中的所有深度视频帧的宏块分成四类,并分别确定四类宏块的可增加编码量化参数的具体值,然后确定DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数的具体值,再在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,对DL(m,n,k)和CL(m,n,k)以及DR(m,n,k)和CR(m,n,k)进行编码。
2.根据权利要求1所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤③的具体过程为:
③-1、计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的空域恰可觉察失真,得到空域恰可觉察失真的中间虚拟视点视频,记为SJND(m,n,k),其中,SJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,SJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③-2、计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的时域恰可觉察失真,得到时域恰可觉察失真的中间虚拟视点视频,记为TJND(m,n,k),其中,TJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,TJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③-3、将SJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的空域恰可觉察失真与TJND(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的时域恰可觉察失真相乘,得到时空恰可觉察失真的中间虚拟视点视频,记为STJND(m,n,k),其中,STJND(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,STJND(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;
③-4、计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的中心凹恰可觉察失真的加权系数;
③-5、将STJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的时空恰可觉察失真与V(m,n,k)中的对应的中间虚拟视点视频帧中的对应的像素的中心凹恰可觉察失真的加权系数相乘,得到全局恰可觉察失真的中间虚拟视点视频GJND(m,n,k)。
3.根据权利要求1或2所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤④的具体过程为:提取出GJND(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,并直接将等于提取出的全局恰可觉察失真的数值赋值给GJND(m,n,k)的几何偏移的中间虚拟视点视频ΔP(m,n,k)中的对应的中间虚拟视点视频帧中对应的像素,定量得到GJND(m,n,k)的几何偏移的中间虚拟视点视频序列ΔP(m,n,k)。
4.根据权利要求3所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤⑤的具体过程为:采用深度视频失真和几何失真之间的线性关系 定性得到DL(m,n,k)的最大可容忍失真视频ΔDL(m,n,k),其中,ΔP表示ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,a表示水平方向上以像素为单位的相机焦距,δx表示水平方向上两个相机之间的基线距离,x表示DL(m,n,k)中的每帧深度视频帧中的像素的横坐标,y表示DL(m,n,k)中的每帧深度视频帧中的像素的纵坐标,ΔDdepth(x,y)表示DL(m,n,k)中的每帧深度视频帧中坐标位置为(x,y)的像素的最大可容忍失真,1≤x≤m,1≤y≤n,Znear表示DL(m,n,k)中的每帧深度视频帧中距离相机最近距离的像素的像素值,Zfar表示DL(m,n,k)中的每帧深度视频帧中距离相机最远距离的像素的像素值。
5.根据权利要求4所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤⑥的具体过程为:
⑥-1、根据ΔDL(m,n,k)将DL(m,n,k)中的所有深度视频帧的宏块分成四类,并确定第一类宏块的编码量化参数为第二类宏块的编码量化参数为第三类宏块的编码量化参数为第四类宏块的编码量化参数为其中,表示对DL(m,n,k)进行编码的初始编码量化参数,ΔQP1表示第一类宏块的可增加编码量化参数,ΔQP2表示第二类宏块的可增加编码量化参数,ΔQP3表示第三类宏块的可增加编码量化参数,ΔQP4表示第四类宏块的可增加编码量化参数,0≤ΔQP1<ΔQP2≤ΔQP3≤ΔQP4≤12;
⑥-2、确定DL(m,n,k)中的所有深度视频帧中的第一类宏块的可增加编码量化参数ΔQP1、第二类宏块的可增加编码量化参数ΔQP2、第三类宏块的可增加编码量化参数ΔQP3和第四类宏块的可增加编码量化参数ΔQP4的具体值;
⑥-3、确定DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的具体值;
⑥-4、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP1的具体值的和对DL(m,n,k)中的所有深度视频帧中的第一类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP2的具体值的和对DL(m,n,k)中的所有深度视频帧中的第二类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP3的具体值的和对DL(m,n,k)中的所有深度视频帧中的第三类宏块进行编码,采用DL(m,n,k)的初始编码量化参数与ΔQP4的具体值的和对DL(m,n,k)中的所有深度视频帧中的第四类宏块进行编码;采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码;采用DR(m,n,k)的初始编码量化参数与ΔQP5的具体值的和对DR(m,n,k)进行编码;采用CR(m,n,k)的初始编码量化参数与ΔQP5的具体值的和对CR(m,n,k)进行编码。
6.根据权利要求5所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤⑥-1中宏块分类的具体过程为:
a1、将ΔDL(m,n,k)中的每帧最大可容忍失真视频帧分割成K×L个互不重叠的宏块,将DL(m,n,k)中的每帧深度视频帧分割成K×L个互不重叠的宏块,其中,K=m/16,L=n/16;
b1、计算ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局平均值,记为A,再根据A计算ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的所有宏块的最大可容忍失真的全局方差,记为V,其中,0≤i≤K-1,0≤j≤L-1,ΔDij表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中坐标位置为(i,j)的宏块的最大可容忍失真的平均值,a表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的每个宏块中的像素的横坐标,表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中的每个宏块中的像素的纵坐标,ΔDij,ab表示ΔDL(m,n,k)中的每帧最大可容忍失真视频帧中坐标位置为(i,j)的宏块中坐标位置为(a,b)的像素的最大可容忍失真;
c1、将DL(m,n,k)中当前正在处理的深度视频帧定义为当前深度视频帧;
d1、利用canny算子提取当前深度视频帧中的边缘宏块;
e1、将当前深度视频帧中当前正在处理的坐标位置为(i,j)的宏块定义为当前宏块;
g1、判断当前宏块是否为边缘宏块,如果是,则将当前宏块归入第一类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤h1,其中,表示对DL(m,n,k)进行编码的初始编码量化参数,ΔQP1表示第一类宏块的可增加编码量化参数;
h1、判断ΔDij≤A且Vij>V是否成立,如果成立,则将当前宏块归入第一类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤i1;
i1、判断ΔDij≤A且Vij≤V是否成立,如果成立,则将当前宏块归入第二类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤j1,其中,ΔQP2表示第二类宏块的可增加编码量化参数;
j1、判断ΔDij>A且Vij>V是否成立,如果成立,则将当前宏块归入第三类宏块集合中,并确定当前宏块的编码量化参数为然后执行步骤l1,否则,执行步骤k1,其中,ΔQP3表示第三类宏块的可增加编码量化参数;
l1、令i′=i+1,i=i′,令j′=j+1,j=j′,将当前深度视频帧中下一个待处理的宏块作为当前宏块,然后返回步骤f1继续执行,直至当前深度视频帧中的所有宏块处理完毕,其中,i′和j′的初始值均为0,在i′=i+1,i=i′和j′=j+1,j=j′中符号“=”为赋值符号;
m1、将DL(m,n,k)中下一帧待处理的深度视频帧作为当前深度视频帧,然后返回步骤d1继续执行,直至DL(m,n,k)中的所有深度视频帧处理完毕。
7.根据权利要求5所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤⑥-2的具体过程为:
a2、将DL(m,n,k)中的所有深度视频帧中的第一类宏块的可增加编码量化参数ΔQP1的具体值确定为0;
b2-1、将2作为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的候选参考值;
b2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP2的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第二类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第三类宏块和第四类宏块进行编码;
b2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;
b2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
b2-5、将4和8分别作为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的候选参考值,并按照步骤b2-2至步骤b2-4的操作过程,获得对应的虚拟视点绘制质量;
b2-6、比较上述获得的三个虚拟视点绘制质量的值的大小,找出最大值的虚拟视点绘制质量,并将最大值的虚拟视点绘制质量对应的ΔQP2的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第二类宏块的可增加编码量化参数ΔQP2的具体值;
c2-1、将5作为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的候选参考值;
c2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP3的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第三类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第二类宏块和第四类宏块进行编码;
c2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;
c2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
c2-5、将8和12分别作为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的候选参考值,并按照步骤c2-2至步骤c2-4的操作过程,获得对应的虚拟视点绘制质量;
c2-6、比较上述获得的三个虚拟视点绘制质量的值的大小,找出最大值的虚拟视点绘制质量,并将最大值的虚拟视点绘制质量对应的ΔQP3的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第三类宏块的可增加编码量化参数ΔQP3的具体值;
d2-1、将8作为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的候选参考值;
d2-2、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数与ΔQP4的候选参考值的和对DL(m,n,k)中的所有深度视频帧中的第四类宏块进行编码,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)中的所有深度视频帧中的第一类宏块、第二类宏块和第三类宏块进行编码;
d2-3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数对CR(m,n,k)进行编码;
d2-4、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
d2-5、将9、10、11和12分别作为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的候选参考值,并按照步骤d2-2至步骤d2-4的操作过程,获得对应的虚拟视点绘制质量;
d2-6、比较上述获得的五个虚拟视点绘制质量的值的大小,当其中一个虚拟视点绘制质量的值急剧下降时,将该虚拟视点绘制质量对应的ΔQP4的候选参考值确定为DL(m,n,k)中的所有深度视频帧中的第四类宏块的可增加编码量化参数ΔQP4的具体值。
8.根据权利要求5所述的一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于所述的步骤⑥-3的具体过程为:
a3、将4+s的值作为DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的候选参考值,其中,s的初始值为0;
b3、在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用DL(m,n,k)的初始编码量化参数对DL(m,n,k)进行编码,采用CL(m,n,k)的初始编码量化参数对CL(m,n,k)进行编码,采用DR(m,n,k)的初始编码量化参数与ΔQP5的候选参考值的和对DR(m,n,k)进行编码,采用CR(m,n,k)的初始编码量化参数与ΔQP5的候选参考值的和对CR(m,n,k)进行编码;
c3、对DL(m,n,k)、CL(m,n,k)、DR(m,n,k)和CR(m,n,k)经编码后的视频进行中间虚拟视点绘制,并求取虚拟视点绘制质量;
d3、令s′=s+1,s=s′,然后返回步骤a3继续执行,直至s的值大于12为止,获得对应的虚拟视点绘制质量,其中,s′的初始值为0;
e3、比较上述获得的十三个虚拟视点绘制质量的值的大小,当其中一个虚拟视点绘制质量的值急剧下降时,将该虚拟视点绘制质量对应的ΔQP5的候选参考值确定为DR(m,n,k)中的所有深度视频帧中的所有宏块和CR(m,n,k)中的所有彩***帧中的所有宏块的可增加编码量化参数ΔQP5的具体值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210180891.4A CN102724525B (zh) | 2012-06-01 | 2012-06-01 | 一种基于中心凹恰可觉察失真模型的深度视频编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210180891.4A CN102724525B (zh) | 2012-06-01 | 2012-06-01 | 一种基于中心凹恰可觉察失真模型的深度视频编码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102724525A true CN102724525A (zh) | 2012-10-10 |
CN102724525B CN102724525B (zh) | 2014-11-05 |
Family
ID=46950169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210180891.4A Expired - Fee Related CN102724525B (zh) | 2012-06-01 | 2012-06-01 | 一种基于中心凹恰可觉察失真模型的深度视频编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102724525B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103024381A (zh) * | 2012-12-10 | 2013-04-03 | 宁波大学 | 一种基于恰可察觉失真的宏块模式快速选择方法 |
CN103118255A (zh) * | 2013-01-25 | 2013-05-22 | 深圳广晟信源技术有限公司 | 基于凹模型的自适应量化的方法及装置 |
CN103124347A (zh) * | 2012-10-22 | 2013-05-29 | 上海大学 | 利用视觉感知特性指导多视点视频编码量化过程的方法 |
CN103442226A (zh) * | 2013-07-30 | 2013-12-11 | 宁波大学 | 基于双目恰可觉察失真的多视点彩***快速编码方法 |
CN103957401A (zh) * | 2014-05-12 | 2014-07-30 | 武汉大学 | 一种基于深度图像渲染的立体混合最小可感知失真模型 |
CN104244008A (zh) * | 2014-09-12 | 2014-12-24 | 宁波大学 | 一种深度视频编码方法 |
CN105306954A (zh) * | 2014-05-30 | 2016-02-03 | 西安电子科技大学 | 一种基于视差最小可察觉误差模型的感知立体视频编码 |
CN109462728A (zh) * | 2017-09-06 | 2019-03-12 | 浙江宇视科技有限公司 | 码率控制方法、装置、图像采集设备及可读存储介质 |
CN112634278A (zh) * | 2020-10-30 | 2021-04-09 | 上海大学 | 基于超像素的恰可察觉失真模型 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101309412A (zh) * | 2008-07-07 | 2008-11-19 | 浙江大学 | 基于深度图像渲染的多通道视频流编码器和解码器 |
CN101330631A (zh) * | 2008-07-18 | 2008-12-24 | 浙江大学 | 一种立体电视***中深度图像的编码方法 |
CN101374243A (zh) * | 2008-07-29 | 2009-02-25 | 宁波大学 | 一种应用于3dtv与ftv***的深度图编码压缩方法 |
-
2012
- 2012-06-01 CN CN201210180891.4A patent/CN102724525B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101309412A (zh) * | 2008-07-07 | 2008-11-19 | 浙江大学 | 基于深度图像渲染的多通道视频流编码器和解码器 |
CN101330631A (zh) * | 2008-07-18 | 2008-12-24 | 浙江大学 | 一种立体电视***中深度图像的编码方法 |
CN101374243A (zh) * | 2008-07-29 | 2009-02-25 | 宁波大学 | 一种应用于3dtv与ftv***的深度图编码压缩方法 |
Non-Patent Citations (2)
Title |
---|
CHEN Z,GUILLEMOT C: "《Perception-oiented video coding based on foveated JND model》", 《PICTURE CODING SYMPOSIUM》 * |
朱亚培等: "《多视点彩色和深度视频压缩造成虚拟视点的失真研究》", 《第二届亚太地区信息论学术会议论文集》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103124347B (zh) * | 2012-10-22 | 2016-04-27 | 上海大学 | 利用视觉感知特性指导多视点视频编码量化过程的方法 |
CN103124347A (zh) * | 2012-10-22 | 2013-05-29 | 上海大学 | 利用视觉感知特性指导多视点视频编码量化过程的方法 |
CN103024381A (zh) * | 2012-12-10 | 2013-04-03 | 宁波大学 | 一种基于恰可察觉失真的宏块模式快速选择方法 |
CN103024381B (zh) * | 2012-12-10 | 2016-01-20 | 宁波大学 | 一种基于恰可察觉失真的宏块模式快速选择方法 |
CN103118255A (zh) * | 2013-01-25 | 2013-05-22 | 深圳广晟信源技术有限公司 | 基于凹模型的自适应量化的方法及装置 |
CN103442226A (zh) * | 2013-07-30 | 2013-12-11 | 宁波大学 | 基于双目恰可觉察失真的多视点彩***快速编码方法 |
CN103442226B (zh) * | 2013-07-30 | 2016-08-17 | 宁波大学 | 基于双目恰可觉察失真的多视点彩***快速编码方法 |
CN103957401A (zh) * | 2014-05-12 | 2014-07-30 | 武汉大学 | 一种基于深度图像渲染的立体混合最小可感知失真模型 |
CN105306954A (zh) * | 2014-05-30 | 2016-02-03 | 西安电子科技大学 | 一种基于视差最小可察觉误差模型的感知立体视频编码 |
CN105306954B (zh) * | 2014-05-30 | 2018-05-22 | 西安电子科技大学 | 一种基于视差最小可察觉误差模型的感知立体视频编码 |
CN104244008A (zh) * | 2014-09-12 | 2014-12-24 | 宁波大学 | 一种深度视频编码方法 |
CN104244008B (zh) * | 2014-09-12 | 2017-05-03 | 宁波大学 | 一种深度视频编码方法 |
CN109462728A (zh) * | 2017-09-06 | 2019-03-12 | 浙江宇视科技有限公司 | 码率控制方法、装置、图像采集设备及可读存储介质 |
CN109462728B (zh) * | 2017-09-06 | 2020-01-14 | 浙江宇视科技有限公司 | 码率控制方法、装置、图像采集设备及可读存储介质 |
US11902533B2 (en) | 2017-09-06 | 2024-02-13 | Zhejiang Uniview Technologies Co., Ltd. | Code rate control method and apparatus, image acquisition device, and readable storage medium |
CN112634278A (zh) * | 2020-10-30 | 2021-04-09 | 上海大学 | 基于超像素的恰可察觉失真模型 |
CN112634278B (zh) * | 2020-10-30 | 2022-06-14 | 上海大学 | 基于超像素的恰可察觉失真方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102724525B (zh) | 2014-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102724525B (zh) | 一种基于中心凹恰可觉察失真模型的深度视频编码方法 | |
CN101374242B (zh) | 一种应用于3dtv与ftv***的深度图编码压缩方法 | |
CN102685532B (zh) | 自由视点四维空间视频编码***的编码方法 | |
CN101374243B (zh) | 一种应用于3dtv与ftv***的深度图编码压缩方法 | |
CN101937578B (zh) | 一种虚拟视点彩色图像绘制方法 | |
CN103002306B (zh) | 一种深度图像编码方法 | |
CN101729891B (zh) | 一种多视点深度视频的编码方法 | |
CN102769746B (zh) | 一种多视点深度视频处理方法 | |
CN102333233A (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN102801996B (zh) | 基于jndd模型的快速深度图编码模式选择方法 | |
CN103237226A (zh) | 一种立体视频宏块丢失错误隐藏方法 | |
CN105120290B (zh) | 一种深度视频快速编码方法 | |
CN103024402B (zh) | 一种自由视点视频整帧丢失错误隐藏方法 | |
CN103873876A (zh) | 基于显著性的多视点彩色加深度视频编码方法 | |
CN101833766A (zh) | 基于gssim的立体图像客观质量评价算法 | |
CN103024381B (zh) | 一种基于恰可察觉失真的宏块模式快速选择方法 | |
CN102710949B (zh) | 一种基于视觉感知的立体视频编码方法 | |
CN104602028A (zh) | 一种立体视频b帧整帧丢失错误隐藏方法 | |
CN101404766A (zh) | 一种多视点视频信号的编码方法 | |
CN101710985A (zh) | 一种用于图像编码的图像亮度补偿方法 | |
CN101841726B (zh) | 一种立体视频非对称编码方法 | |
CN104506871B (zh) | 一种基于hevc的3d视频快速编码方法 | |
Jin et al. | Validation of a new full reference metric for quality assessment of mobile 3DTV content | |
CN104853175A (zh) | 一种新的合成虚拟视点客观质量评价方法 | |
CN102790895A (zh) | 一种基于最小二乘的多视点视频编码视点合成预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20141105 Termination date: 20210601 |