CN111726619B - 一种基于虚拟视点质量模型的多视点视频比特分配方法 - Google Patents

一种基于虚拟视点质量模型的多视点视频比特分配方法 Download PDF

Info

Publication number
CN111726619B
CN111726619B CN202010641620.9A CN202010641620A CN111726619B CN 111726619 B CN111726619 B CN 111726619B CN 202010641620 A CN202010641620 A CN 202010641620A CN 111726619 B CN111726619 B CN 111726619B
Authority
CN
China
Prior art keywords
video
viewpoint
view
virtual
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010641620.9A
Other languages
English (en)
Other versions
CN111726619A (zh
Inventor
彭宗举
程金婷
蒋东荣
陈芬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Funeng Information Technology Co.,Ltd.
Shenzhen Lizhuan Technology Transfer Center Co ltd
Original Assignee
Chongqing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Technology filed Critical Chongqing University of Technology
Priority to CN202010641620.9A priority Critical patent/CN111726619B/zh
Publication of CN111726619A publication Critical patent/CN111726619A/zh
Application granted granted Critical
Publication of CN111726619B publication Critical patent/CN111726619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于虚拟视点质量模型的多视点视频比特分配方法,整体上确定视频间(即纹理和深度视频)的比特分配策略。然后,根据虚拟视点与各参考视点基线距离权重,确定视点间的纹理和深度视频比特分配方案,该权重充分反映了各参考视点质量对虚拟视点绘制质量的影响。与现有技术中的视点级比特平均分配方法相比,本发明可有效提升虚拟视点质量,质量提升的程度与虚拟视点偏离各参考视点的中心距离有关,偏离得越远则提升效果越明显。同时,由于各视点比特分配权重与绘制过程中的融合权重相关,因此,为距离虚拟视点越近的参考视点分配更多的比特,可更好地保留视频纹理细节,从而提高绘制后的虚拟视点质量,提升用户视觉体验。

Description

一种基于虚拟视点质量模型的多视点视频比特分配方法
技术领域
本发明涉及多视点视频比特分配领域,具体涉及一种基于虚拟视点质量模型的多视点视频比特分配方法。
背景技术
6DoF(Six Degree of Freedom)视频是交互式媒体的发展目标。在6DoF视频中,用户可以在任意位置以任意角度体验场景,获得身临其境的感受。6DoF是三个围绕x、y和z轴旋转的自由度和三个沿x、y和z轴平移的自由度的统称。目前,国际标准化组织正积极推进6DoF视频应用相关的标准的制定。多视点彩色和深度被确定为6DoF应用场景的一种表示方式。在基于多视点彩色和深度的6DoF视频***中,虚拟视点通过基于深度图的绘制(Depth-Image-Based Rendering,DIBR)技术得到。与自由视点视频(Free Viewpoint Video,FVV)***不同,6DoF视频***支持更多自由度的场景体验,需要通过更多视点的彩色和深度视频来实现。多视点彩色和深度视频巨大的数据量给传输带来了巨大的压力。因此,根据用户的观看位置,对相关视点进行比特分配,实现网络带宽受限情况下6DoF视频的高质量应用。
单视点视频的比特分配采用分级策略为不同编码对象分配比特:首先,在GOP(Group of Pictures)级根据信道速率和缓冲区状态为每个GOP分配目标比特数;然后,根据GOP中各帧图像的权重进行帧级的比特分配;最后,根据当前图像的总目标比特数为图像内每个编码树单元CTU(Coding Tree Unit)确定目标比特数。对多视点视频,需要在单视点视频比特分配的基础上,进一步考虑视点间的比特分配。有研究人员从用户的体验质量出发,提出一种基于体验质量模型的视点级比特分配方法,该方法由于对质量模型的依赖性较强,因此适用性较差。在多视点视频***中,用户并非一直在固定位置观看同一视点,会根据视频内容的变化,切换其所要观看的视点。针对此种情况,有研究人员提出了一种依赖于视点切换概率的比特分配方案,分配比率随切换概率发生变化,但该视点切换模型仅适合已有视点间的切换,不适合存在虚拟视点的***,其比特分配方法应用场合较少。
6DoF视频***非常复杂,相关标准化工作仍在不断推进。当前,MPEG发布了由平面布置的相机阵列采集的多视点彩***和对应的深度视频序列用于标准化测试,但并没有针对该视频序列的比特分配方案。与一维分布的多视点彩色和深度视频相比,平面分布的多视点彩色与深度视频既包含水平视差又包含垂直视差。因此,传统多视点彩色和深度视频的虚拟视点失真模型、用户体验质量和视点切换概率等不再适合于平面分布的多视点彩色和深度视频。
本发明针对平面布置的相机阵列采集的多视点视频提出了一种基于虚拟视点质量模型的多视点视频比特分配方法。
发明内容
针对现有技术中存在的上述不足,本发明针对平面布置的相机阵列采集的多视点视频提出了一种基于虚拟视点质量模型的多视点视频比特分配方法,能够有效地改善虚拟视点的主客观质量,提高用户的视觉体验。
为解决上述技术问题,本发明采用了如下的技术方案:
一种基于虚拟视点质量模型的多视点视频比特分配方法,包括如下步骤:
S1、基于当前的目标比特数R,按照预设比例进行纹理视频和深度视频的比特数分配,RT,t表示纹理视频分配到的比特数,RT,d表示深度视频分配到的比特数;
S2、基于三维空间中虚拟视点处相机的位置(Xv,Yv,Zv)、以及虚拟视点四周的参考视点处相机的位置(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)和(X4,Y4,Z4),计算虚拟视点与各参考视点之间的基线距离,虚拟视点与第i个参考视点之间的基线距离di的计算公式为:
Figure BDA0002571364270000021
S3、基于虚拟视点与各参考视点之间的基线距离计算虚拟视点与各参考视点之间的基线距离的权重,wi表示虚拟视点与第i个参考视点之间的基线距离的权重:
Figure BDA0002571364270000031
S4、基于虚拟视点与各参考视点之间的基线距离的权重计算各参考视点的纹理视频的视点级比特分配权重,Wt,i表示第i个参考视点的纹理视频的视点级比特分配权重;
S5、基于虚拟视点与各参考视点之间的基线距离的权重计算各参考视点的深度视频的视点级比特分配权重,Wd,i表示第i个参考视点的深度视频的视点级比特分配权重;
S6、基于纹理视频分配到的比特数RT,t及各参考视点的纹理视频的视点级比特分配权重计算各参考视点的纹理视频分配的比特数,Rt,i表示第i个参考视点的纹理视频分配的比特数,
Rt,i=Wt,i×RT,t
S7、基于深度视频分配到的比特数RT,d及各参考视点的深度视频的视点级比特分配权重计算各参考视点的深度视频分配的比特数,Rd,i表示第i个参考视点的深度视频分配的比特数,
Rd,i=Wd,i×RT,d
S8、按照各视点纹理视频和深度视频分配的比特数,使用HM平台对各视点的纹理和深度视频进行独立的编码。
优选地,步骤S1中的预设比例为5:1,
Figure BDA0002571364270000032
优选地,步骤S4中:
无深度失真时,虚拟视点的质量QT和纹理视频的编码量化参数之间满足以下公式:
Figure BDA0002571364270000041
式中,ξi是第i个参考视点对应的与纹理视频有关的虚拟视点质量模型中的线性系数,QPt.i是i个参考视点对应的虚拟视点的纹理视频的编码量化参数,CT是与参考视点压缩失真无关的变量;
ξi和wi的关系满足ξi=mtwi+nt,mt与nt为线性拟合得到的系数,值依次为-0.684和0.020;
在H.265/HEVC中,拉格朗日乘子λ和视频编码失真D之间的关系满足:
D=αλβ
式中,α和β是与视频内容特性有关的模型参数;
视频编码质量Q和视频编码失真D之间满足:
Q=10×log102552/D
编码量化参数QP和λ之间的关系满足:
QP=4.2005lnλ+13.71122
则QP和Q之间满足:
QP=a×Q+b
式中,a=-0.996/β,b=-9.9612lnα/β+47.9440/β+14.1221;
设第i个参考视点的彩***的编码质量为Qt,i,对应的与视频内容特性有关的模型参数为αt,i和βt,i,则与纹理视频有关的虚拟视点质量预测模型表示为:
Figure BDA0002571364270000042
根据失真最小化时质量最好的原则,通过合理分配各参考视点间纹理视频的比特数,可实现与纹理视频质量有关的虚拟视点质量最大化,进而最小化与纹理视频有关的虚拟视点失真,即:
Figure BDA0002571364270000043
将该问题转化为约束优化问题,引入拉格朗日乘子λT,构造代价函数:
Figure BDA0002571364270000051
其最优解需满足:
Figure BDA0002571364270000052
也即:
Figure BDA0002571364270000053
因为:
Q=10log102552/D
则:
Figure BDA0002571364270000054
在H.265/HEVC中,满足以下公式:
D=C×RK
其中,C和K是与视频内容和编码特性有关的参数;
平面分布的多视点彩色和深度视频***中,虚拟视点周围四个参考视点的视频内容和编码特性相似,则认为各参考视点对应的C、K和at,i分别近似相等,则:
Figure BDA0002571364270000055
等价于:
Figure BDA0002571364270000056
则第i个参考视点纹理视频对应的比特分配权重为:
Figure BDA0002571364270000057
优选地,步骤S5中:
无纹理失真时,虚拟视点的质量QD和深度视频的编码量化参数之间满足:
Figure BDA0002571364270000061
式中,ζi是第i个参考视点对应的与深度视频有关的虚拟视点质量模型中的线性系数,QPd.i是第i个参考视点对应的虚拟视点的深度视频的编码量化参数,CD是与参考视点压缩失真无关的变量;
ζi和wi的关系满足ζi=mdwi+nd,md与nd为线性拟合得到的系数,值依次为-0.194和-0.105;
同理步骤S4,可理论推导得出以下公式:
Figure BDA0002571364270000062
则第i个参考视点深度视频对应的比特分配权重为:
Figure BDA0002571364270000063
与现有技术相比,本发明的优点在于:考虑在虚拟视点绘制过程中,各参考视点对虚拟视点质量的影响与相机之间的基线距离权重有关,在构建虚拟视点质量模型的基础上,分别理论推导出与相机基线距离权重相关的纹理视频、深度视频的视点级比特分配权重,根据权重最小化纹理失真和深度失真,从而达到最小化虚拟视点失真的目的。与视点级比特平均分配方法相比,本发明可有效提升虚拟视点绘制质量,质量提升的程度与虚拟视点偏离各参考视点的中心距离有关,偏离得越远则提升效果越明显。
附图说明
图1为本发明方法的总体实现框图;
图2为虚拟视点绘制示意图;
图3a为参考视点无深度失真时,序列‘OrangeKitchen’纹理视频QP对虚拟视点质量的影响;
图3b为参考视点无纹理失真时,序列‘OrangeKitchen’深度视频QP对虚拟视点质量的影响;
图4a为虚拟视点质量模型中纹理视频线性系数与基线距离权重之间的关系;
图4b为虚拟视点质量模型中深度视频线性系数与基线距离权重之间的关系;
图5a为对角线路径示意图;
图5b为自由观看路径示意图;
图6a为无失真参考视点绘制得到的序列‘TechnicolorPainter’第50帧效果图和局部放大图;
图6b为6a放大区域对应的四个参考视点局部放大图;
图6c为QP(40,45)时均分比特法参考视点绘制得到的序列‘TechnicolorPainter’第50帧效果图和局部放大图;
图6d为6c放大区域对应的四个已编码参考视点局部放大图;
图6e为QP(40,45)时本发明方法参考视点绘制得到的序列‘TechnicolorPainter’第50帧效果图和局部放大图;
图6f为6e放大区域的四个已编码参考视点局部放大图。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
如图1所示,本发明公开了一种基于虚拟视点质量模型的多视点视频比特分配方法,包括如下步骤:
S1、基于当前的目标比特数R,按照预设比例进行纹理视频和深度视频的比特数分配,RT,t表示纹理视频分配到的比特数,RT,d表示深度视频分配到的比特数;
在本实施例中,先对纹理视频和深度视频进行比特分配的原因为:在仅考虑编码失真引起的虚拟视点失真的情况下,将采用原始的参考视点绘制得到的虚拟视图记为Sv,存在编码失真的参考视点绘制得到的虚拟视图记为
Figure BDA0002571364270000081
由原始的纹理视频和其对应的存在编码失真的深度视频绘制得到的虚拟视图为
Figure BDA0002571364270000082
则虚拟视点失真Dv为:
Figure BDA0002571364270000083
由于
Figure BDA0002571364270000084
的值具有随机性且互不相关,因此
Figure BDA0002571364270000085
项可忽略不计。因为在平面分布的多视点彩色和深度视频***中,如图2虚拟视点绘制示意图所示,虚拟视点像素值S(xv,yv)由四个参考视点的像素值S1(x1,y1)、S2(x2,y2)、S3(x3,y3)及S4(x4,y4)来确定:
Figure BDA0002571364270000086
其中,wi表示虚拟视点与第i个参考视点之间的基线距离的权重。则虚拟视点失真可进一步表示为:
Figure BDA0002571364270000087
当i≠j时,
Figure BDA0002571364270000088
Figure BDA0002571364270000089
Figure BDA00025713642700000810
具有随机性且互不相关,则:
Figure BDA00025713642700000811
Figure BDA00025713642700000812
因此,可构建如下虚拟视点质量模型:
Figure BDA00025713642700000813
其中,DT和DD分别表示彩色和深度视频编码失真引起的虚拟视点失真。
可见,虚拟视点失真可分解为与纹理视频和深度视频相关的两部分,通过调整各视点纹理、深度视频的比特分配,最小化DT和DD,从而达到最小化虚拟视点失真的目的。因此,本发明采用先视频间(即纹理和深度视频)、后各参考视点间的比特分配方案来实现多视点视频的比特分配。
S2、基于三维空间中虚拟视点处相机的位置(Xv,Yv,Zv)、以及虚拟视点四周的参考视点处相机的位置(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)和(X4,Y4,Z4),计算虚拟视点与各参考视点之间的基线距离,虚拟视点与第i个参考视点之间的基线距离di的计算公式为:
Figure BDA0002571364270000091
S3、基于虚拟视点与各参考视点之间的基线距离计算虚拟视点与各参考视点之间的基线距离的权重,wi表示虚拟视点与第i个参考视点之间的基线距离的权重:
Figure BDA0002571364270000092
S4、基于虚拟视点与各参考视点之间的基线距离的权重计算各参考视点的纹理视频的视点级比特分配权重,Wt,i表示第i个参考视点的纹理视频的视点级比特分配权重;
S5、基于虚拟视点与各参考视点之间的基线距离的权重计算各参考视点的深度视频的视点级比特分配权重,Wd,i表示第i个参考视点的深度视频的视点级比特分配权重;
S6、基于纹理视频分配到的比特数RT,t及各参考视点的纹理视频的视点级比特分配权重计算各参考视点的纹理视频分配的比特数,Rt,i表示第i个参考视点的纹理视频分配的比特数,
Rt,i=Wt,i×RT,t
S7、基于深度视频分配到的比特数RT,d及各参考视点的深度视频的视点级比特分配权重计算各参考视点的深度视频分配的比特数,Rd,i表示第i个参考视点的深度视频分配的比特数,
Rd,i=Wd,i×RT,d
S8、按照各视点纹理视频和深度视频分配的比特数,使用HM平台对各视点的纹理和深度视频进行独立的编码。
具体实施时,步骤S1中的预设比例为5:1,
Figure BDA0002571364270000101
具体实施时,步骤S4中:
为了研究纹理视频失真和虚拟视点失真之间的关系,在无深度失真的情况下,通过改变一个视点纹理视频的编码量化参数(Quantization Parameter,QP)、固定其它三个视点的QP,研究不同重建质量组合的重建彩***绘制得到的虚拟视点质量。通过实验发现。无深度失真时,虚拟视点的质量QT和纹理视频的编码量化参数之间满足以下公式:
Figure BDA0002571364270000102
式中,ξi是第i个参考视点对应的与纹理视频有关的虚拟视点质量模型中的线性系数,QPt.i是第i个参考视点对应的虚拟视点的纹理视频的编码量化参数,CT是与参考视点压缩失真无关的变量,图3a为参考视点无深度失真时,序列‘OrangeKitchen’的彩***QP对虚拟视点质量的影响;
根据虚拟视点失真模型可知,与纹理视频相关的线性系数ξi与基线距离权重wi有关。通过对不同序列中不同虚拟视点处相应的ξi和wi进行统计后发现,ξi和wi的关系满足ξi=mtwi+nt,mt与nt为线性拟合得到的系数,值依次为-0.684和0.020,虚拟视点质量模型中纹理视频线性系数与基线距离权重之间的关系如图4a所示;
在H.265/HEVC中,拉格朗日乘子λ和视频编码失真D之间的关系满足:
D=αλβ
式中,α和β是与视频内容特性有关的模型参数;
视频编码质量Q和视频编码失真D之间满足:
Q=10×log102552/D
编码量化参数QP和λ之间的关系满足:
QP=4.2005lnλ+13.71122
则QP和Q之间满足:
QP=a×Q+b
式中,a=-0.996/β,b=-9.9612lnα/β+47.9440/β+14.1221;
设第i个参考视点的彩***的编码质量为Qt,i,对应的与视频内容特性有关的模型参数为αt,i和βt,i,则与纹理视频有关的虚拟视点质量预测模型表示为:
Figure BDA0002571364270000111
根据失真最小化时质量最好的原则,通过合理分配各参考视点间纹理视频的比特数,可实现与纹理视频质量有关的虚拟视点质量最大化,进而最小化与纹理视频有关的虚拟视点失真,即:
Figure BDA0002571364270000112
将该问题转化为约束优化问题,引入拉格朗日乘子λT,构造代价函数:
Figure BDA0002571364270000113
其最优解需满足:
Figure BDA0002571364270000114
也即:
Figure BDA0002571364270000115
因为:
Q=10log102552/D
则:
Figure BDA0002571364270000121
在H.265/HEVC中,满足以下公式:
D=C×RK
其中,C和K是与视频内容和编码特性有关的参数;
因为在平面分布的多视点彩色和深度视频***中,虚拟视点周围四个视点的视频内容和编码特性相似,则可认为各视点对应的C、K和at,i分别近似相等,则:
Figure BDA0002571364270000122
等价于:
Figure BDA0002571364270000123
则第i个参考视点纹理视频对应的比特分配权重为:
Figure BDA0002571364270000124
具体实施时,步骤S5中:
为了研究深度视频失真和虚拟视点失真之间的关系,在无纹理失真的情况下,通过改变一个视点深度视频的编码量化参数(Quantization Parameter,QP)、固定其它三个视点的QP,研究不同重建质量组合的重建深度视频绘制得到的虚拟视点质量。通过实验发现,无纹理失真时,虚拟视点的质量QD和深度视频的编码量化参数之间满足:
Figure BDA0002571364270000125
式中,ζi是第i个参考视点对应的与深度视频有关的虚拟视点质量模型中的线性系数,QPd.i是第i个参考视点对应的虚拟视点的深度视频的编码量化参数,CD是与参考视点压缩失真无关的变量;图3b为参考视点无纹理失真时,序列‘OrangeKitchen’的深度视频QP对虚拟视点质量的影响。
根据虚拟视点的失真模型可知,与深度视频相关的线性系数与基线距离的权重有关。通过对不同序列中不同虚拟视点处对应的ζi和wi进行统计后发现,两者之间满足ζi=mdwi+nd,md与nd为线性拟合得到的系数,值依次为-0.194和-0.105;虚拟视点质量模型中深度视频线性系数与基线距离权重之间的关系如图4b所示。
同理步骤S4,可理论推导得出以下公式:
Figure BDA0002571364270000131
则第i个参考视点深度视频对应的比特分配权重为:
Figure BDA0002571364270000132
综上所述,与现有技术相比,本发明的优点在于:考虑在虚拟视点绘制过程中,各参考视点对虚拟视点质量的影响与相机之间的基线距离权重有关,在构建虚拟视点质量模型的基础上,分别理论推导出与相机基线距离权重相关的纹理视频、深度视频的视点级比特分配权重,根据权重最小化纹理失真和深度失真,从而达到最小化虚拟视点失真的目的。与视点级比特平均分配方法相比,本发明可有效提升虚拟视点绘制质量,质量提升的程度与虚拟视点偏离各参考视点的中心距离有关,偏离得越远则提升效果越明显。
为了进一步说明本发明方法的可行性和有效性,进行下列实验。
在本实施例中,采用HEVC的参考软件HM16.20对各视点的彩***和深度视频进行独立编码,使用MPEG-I提供的绘制平台VSRS4.3进行虚拟视点绘制。测试序列如表1所列,xiyj表示对应序列中第i列第j行的视点。虚拟视点分布如图5a和5b所示,Vi表示第i个参考视点,vi表示第i个虚拟视点。为了衡量编码失真对虚拟视点质量的影响,将由无编码失真的彩色和深度视频绘制得到的虚拟视点作为参照得到峰值信噪比(Peak Signal-to-NoiseRatio,PSNR)。
表1实验序列的相关参数
Figure BDA0002571364270000141
在本实施例中,对图5a中对角线路径中的虚拟视点,选用了4种码率进行测试,对应的彩***QP为{25,30,35,40},深度视频QP为{34,39,42,45},测试结果如表2所示,并与视点级比特平均分配的方法(即均分比特法)进行性能对比。表中Qpro、Qave分别表示本发明方法和均分比特法对应的虚拟视点质量,用PSNR衡量,质量的提高量用ΔQ表示:
ΔQ=Qpro-Qave
从表2可知,与均分比特法相比,本发明提出的基于虚拟视点质量模型的比特分配方法可以获得质量更高的虚拟视点,质量改善的程度与虚拟视点位置偏离四个参考视点的中心距离有关。本发明方法中比特分配的权重与绘制虚拟视点时的融合权重有关,距离虚拟视点较近的参考视点,融合时权重较大,从而对虚拟视点质量的影响较大,因此分配给该视点的比特数就较多,反之,分配给该视点的比特数较少。在图5a中,如果用户在v1处体验场景,采用本发明方法传送参考视点时,会分配给绘制时融合比例最大的参考视点V1更多的比特,从而提升虚拟视点v1的质量。实验结果表明,虚拟视点偏离参考视点中心位置越远,本发明方法和均分比特法的比特分配权重差别就越大,虚拟视点的质量提升效果也就越显著。如表2所示,虚拟视点v1和v5的质量提升明显高于v2、v3和v4,由于v1和v5中心对称,两者的质量提升效果相当。当虚拟视点位于参考视点的中心时,本发明方法和均分比特法对应的分配权重相等,因此v3处质量不变,ΔQ等于0。
在本实施例中,对图5b中的自由观看路径中的虚拟视点,在同一码率下进行测试,结果如表3所示,虚拟视点v1-v7的质量都得到了改善,与表2对角线路径时的测试结果类似,虚拟视点偏离参考视点中心位置越远,质量提升效果也越明显。
为了进一步说明本发明方法的有效性,以下给出主观实验结果。图6为序列‘TechnicolorPainter’在对角线路径中虚拟视点v1处的第50帧图像,其中,图6a、6c和6e分别为无失真、均分比特法和本发明方法绘制得到的效果图和局部放大图;图6b为原始参考视点的局部放大图;图6d和6f分别为均分比特法和本发明方法在QP为(40,45)时四个已编码参考视点的局部放大图,图6b、图6d及图6f中,从左到右依次对应x2y2、x3y2、x2y3和x3y3。实验结果表明,图6e和6c相比,使用本发明方法进行比特分配后,虚拟视点质量更高,视图中纹理细节保留得更好,这是因为本发明方法根据基线距离权重来确定视点级纹理、深度视频的比特分配。在本实验中,为距离虚拟视点最近的视点x2y2分配了最多的比特,根据分配比特编码各视点后,视点x2y2、x3y2、x2y3和x3y3的质量(PSNR)依次为37.24dB、31.71dB、31.46dB和30.17dB,从主观效果来看,视点x2y2中较好地保留了图像纹理细节,如图6f所示,因而在绘制虚拟视点时,本发明方法能够提供更丰富的纹理信息,使得最终的虚拟视点质量相对较高。
表2沿对角线路径对应的客观质量比较结果(dB)
Figure BDA0002571364270000151
表3自由观看路径对应的客观质量比较结果(dB)
Figure BDA0002571364270000161
以上仅是本发明优选的实施方式,需指出是,对于本领域技术人员在不脱离本技术方案的前提下,还可以做出若干变形和改进,上述变形和改进的技术方案应同样视为落入本申请要求保护的范围。

Claims (2)

1.一种基于虚拟视点质量模型的多视点视频比特分配方法,其特征在于,包括如下步骤:
S1、基于当前的目标比特数R,按照预设比例进行纹理视频和深度视频的比特数分配,RT,t表示纹理视频分配到的比特数,RT,d表示深度视频分配到的比特数;
S2、基于三维空间中虚拟视点处相机的位置(Xv,Yv,Zv)、以及虚拟视点四周的参考视点处相机的位置(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)和(X4,Y4,Z4),计算虚拟视点与各参考视点之间的基线距离,虚拟视点与第i个参考视点之间的基线距离di的计算公式为:
Figure FDA0003612409640000011
S3、基于虚拟视点与各参考视点之间的基线距离计算虚拟视点与各参考视点之间的基线距离的权重,wi表示虚拟视点与第i个参考视点之间的基线距离的权重:
Figure FDA0003612409640000012
S4、基于虚拟视点与各参考视点之间的基线距离的权重计算各参考视点的纹理视频的视点级比特分配权重,Wt,i表示第i个参考视点的纹理视频的视点级比特分配权重;步骤S4中:
无深度失真时,虚拟视点的质量QT和纹理视频的编码量化参数之间满足以下公式:
Figure FDA0003612409640000013
式中,ξi是第i个参考视点对应的与纹理视频有关的虚拟视点质量模型中的线性系数,QPt.i是第i个参考视点对应的虚拟视点的纹理视频的编码量化参数,CT是与参考视点压缩失真无关的变量;
ξi和wi的关系满足ξi=mtwi+nt,mt与nt为线性拟合得到的系数;
在H.265/HEVC中,拉格朗日乘子λ和视频编码失真D之间的关系满足:
D=αλβ
式中,α和β是与视频内容特性有关的模型参数;
视频编码质量Q和视频编码失真D之间满足:
Q=10×log102552/D
编码量化参数QP和λ之间的关系满足:
QP=4.2005lnλ+13.71122
则QP和Q之间满足:
QP=a×Q+b
式中,a=-0.996/β,b=-9.9612lnα/β+47.9440/β+14.1221;
设第i个参考视点的彩***的编码质量为Qt,i,对应的与视频内容特性有关的模型参数为αt,i和βt,i,则与纹理视频有关的虚拟视点质量预测模型表示为:
Figure FDA0003612409640000021
根据失真最小化时质量最好的原则,通过合理分配各参考视点间纹理视频的比特数,可实现与纹理视频质量有关的虚拟视点质量最大化,进而最小化与纹理视频有关的虚拟视点失真,即:
Figure FDA0003612409640000022
将该问题转化为约束优化问题,引入拉格朗日乘子λT,构造代价函数:
Figure FDA0003612409640000023
其最优解需满足:
Figure FDA0003612409640000024
也即:
Figure FDA0003612409640000025
因为:
Q=10log102552/D
则:
Figure FDA0003612409640000026
在H.265/HEVC中,满足以下公式:
D=C×RK
其中,C和K是与视频内容和编码特性有关的参数;
平面分布的多视点彩色和深度视频***中,虚拟视点周围四个参考视点的视频内容和编码特性相似,则认为各参考视点对应的C、K和at,i分别近似相等,则:
Figure FDA0003612409640000031
等价于:
Figure FDA0003612409640000032
则第i个参考视点纹理视频对应的比特分配权重为:
Figure FDA0003612409640000033
S5、基于虚拟视点与各参考视点之间的基线距离的权重计算各参考视点的深度视频的视点级比特分配权重,Wd,i表示第i个参考视点的深度视频的视点级比特分配权重;步骤S5中:
无纹理失真时,虚拟视点的质量QD和深度视频的编码量化参数之间满足:
Figure FDA0003612409640000034
式中,ζi是第i个参考视点对应的与深度视频有关的虚拟视点质量模型中的线性系数,QPd.i是i个参考视点对应的虚拟视点的深度视频的编码量化参数,CD是与参考视点压缩失真无关的变量;
ζi和wi的关系满足ζi=mdwi+nd,md与nd为线性拟合得到的系数;
同理步骤S4,可理论推导得出以下公式:
Figure FDA0003612409640000035
则第i个参考视点深度视频对应的比特分配权重为:
Figure FDA0003612409640000036
S6、基于纹理视频分配到的比特数RT,t及各参考视点的纹理视频的视点级比特分配权重计算各参考视点的纹理视频分配的比特数,Rt,i表示第i个参考视点的纹理视频分配的比特数,
Rt,i=Wt,i×RT,t
S7、基于深度视频分配到的比特数RT,d及各参考视点的深度视频的视点级比特分配权重计算各参考视点的深度视频分配的比特数,Rd,i表示第i个参考视点的深度视频分配的比特数,
Rd,i=Wd,i×RT,d
S8、按照各视点纹理视频和深度视频分配的比特数,使用HM平台对各视点的纹理和深度视频进行独立的编码。
2.如权利要求1所述的基于虚拟视点质量模型的多视点视频比特分配方法,其特征在于,步骤S1中的预设比例为5:1,
Figure FDA0003612409640000041
CN202010641620.9A 2020-07-06 2020-07-06 一种基于虚拟视点质量模型的多视点视频比特分配方法 Active CN111726619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010641620.9A CN111726619B (zh) 2020-07-06 2020-07-06 一种基于虚拟视点质量模型的多视点视频比特分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010641620.9A CN111726619B (zh) 2020-07-06 2020-07-06 一种基于虚拟视点质量模型的多视点视频比特分配方法

Publications (2)

Publication Number Publication Date
CN111726619A CN111726619A (zh) 2020-09-29
CN111726619B true CN111726619B (zh) 2022-06-03

Family

ID=72572103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010641620.9A Active CN111726619B (zh) 2020-07-06 2020-07-06 一种基于虚拟视点质量模型的多视点视频比特分配方法

Country Status (1)

Country Link
CN (1) CN111726619B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013159330A1 (en) * 2012-04-27 2013-10-31 Nokia Corporation An apparatus, a method and a computer program for video coding and decoding
CN104717515A (zh) * 2015-03-24 2015-06-17 上海大学 基于3d-hevc的纹理视频和深度图码率分配方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867823B2 (en) * 2010-12-03 2014-10-21 National University Corporation Nagoya University Virtual viewpoint image synthesizing method and virtual viewpoint image synthesizing system
CN104754359B (zh) * 2015-01-26 2017-07-21 清华大学深圳研究生院 一种二维自由视点视频的深度图编码失真预测方法
EP3493164B1 (en) * 2016-07-29 2024-03-27 Sony Group Corporation Image processing device and image processing method
EP3535975B1 (en) * 2016-12-02 2020-11-04 Huawei Technologies Co., Ltd. Apparatus and method for 3d video coding
JP7313811B2 (ja) * 2018-10-26 2023-07-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013159330A1 (en) * 2012-04-27 2013-10-31 Nokia Corporation An apparatus, a method and a computer program for video coding and decoding
CN104717515A (zh) * 2015-03-24 2015-06-17 上海大学 基于3d-hevc的纹理视频和深度图码率分配方法

Also Published As

Publication number Publication date
CN111726619A (zh) 2020-09-29

Similar Documents

Publication Publication Date Title
Stankiewicz et al. A free-viewpoint television system for horizontal virtual navigation
Ho et al. Overview of multi-view video coding
CN100496121C (zh) 一种交互式多视点视频***的图像信号处理方法
CN101390396B (zh) 编码和解码多视角视频以提供均匀画面质量的方法和装置
Lafruit et al. New visual coding exploration in MPEG: Super-MultiView and Free Navigation in Free viewpoint TV
CN101346998A (zh) 视频编码方法及解码方法、其装置及其程序以及记录程序的存储介质
EP2647205A2 (en) Image coding and decoding method and apparatus for efficient encoding and decoding of 3d light field content
CN102137258B (zh) 一种立体视频码率控制方法
CN101867816A (zh) 一种基于人眼视觉特性的立体视频非对称压缩编码方法
Van Wallendael et al. 3D video compression based on high efficiency video coding
Li et al. A bit allocation method based on inter-view dependency and spatio-temporal correlation for multi-view texture video coding
Lei et al. Region adaptive R-$\lambda $ model-based rate control for depth maps coding
Paul Efficient multiview video coding using 3-D coding and saliency-based bit allocation
Bal et al. Multiview video plus depth coding with depth-based prediction mode
CN111726619B (zh) 一种基于虚拟视点质量模型的多视点视频比特分配方法
De Silva et al. Intra mode selection for depth map coding to minimize rendering distortions in 3D video
Jung et al. Disparity-map-based rendering for mobile 3D TVs
CN103702120B (zh) 一种合成视点主观失真估计方法
Kimata et al. Low‐delay multiview video coding for free‐viewpoint video communication
Oh et al. Multi-view video coding based on the lattice-like pyramid GOP structure
Shao et al. A novel rate control technique for asymmetric-quality stereoscopic video
Gotchev et al. Source and channel coding recipes for mobile 3D television
Micallef et al. Low complexity disparity estimation for immersive 3D video transmission
CN102006469B (zh) 基于立体元图像多等级混合预测编码结构的并行实现方法
Yang et al. MPEG-4 based stereoscopic video sequences encoder

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230614

Address after: Room 101 and 102, Floor 1, Building 12, No. 1777, Hualong Road, Huaxin Town, Qingpu District, Shanghai, 200000

Patentee after: Shanghai Funeng Information Technology Co.,Ltd.

Address before: 509 Kangrui Times Square, Keyuan Business Building, 39 Huarong Road, Gaofeng Community, Dalang Street, Longhua District, Shenzhen, Guangdong Province, 518000

Patentee before: Shenzhen lizhuan Technology Transfer Center Co.,Ltd.

Effective date of registration: 20230614

Address after: 509 Kangrui Times Square, Keyuan Business Building, 39 Huarong Road, Gaofeng Community, Dalang Street, Longhua District, Shenzhen, Guangdong Province, 518000

Patentee after: Shenzhen lizhuan Technology Transfer Center Co.,Ltd.

Address before: No. 69 lijiatuo Chongqing District of Banan City Road 400054 red

Patentee before: Chongqing University of Technology