CN104243977B - 基于眼优势理论和视差补偿的立体图像质量评价方法 - Google Patents
基于眼优势理论和视差补偿的立体图像质量评价方法 Download PDFInfo
- Publication number
- CN104243977B CN104243977B CN201410491118.9A CN201410491118A CN104243977B CN 104243977 B CN104243977 B CN 104243977B CN 201410491118 A CN201410491118 A CN 201410491118A CN 104243977 B CN104243977 B CN 104243977B
- Authority
- CN
- China
- Prior art keywords
- image
- quality evaluation
- ocular dominance
- parallax
- compensation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种基于眼优势理论和视差补偿的立体图像质量评价方法,该方法:第一步,利用2D无参考质量评价方法计算出左眼右眼图像的质量分数,得到Q(L),Q(R);第二步,计算两幅2D图像质量之间的眼优势差异,得到H(L,R);第三步,计算不同视差程度的补偿量,得到dθ;第四步,将左眼右眼图像的质量分数Q(L)、Q(R)与视差程度的补偿量dθ相加,并减去眼优势差异H(L,R),结果即为基于眼优势理论和视差补偿的无参考3D图像质量评价分数。本发明建立了2D图像质量评价和3D图像质量评价方法的联系,得到左右眼图像的视差偏移程度,以补偿图像内容对3D图像质量的影响,提升了3D图像质量评价的准确性。
Description
技术领域
本发明涉及立体图像质量评价领域的方法,具体地,涉及一种基于眼优势理论和视差补偿的无参考立体图像质量评价方法。
背景技术
3D成像是一个广泛的研究领域,从娱乐(包括视频和游戏)到专业应用(教育,医疗等)。与此同时,立体图像领域也涉及到越来越多的图像处理技术,对于高效地立体图像质量评估的需求也越来越明显。尽管近年来在2D图像,视频的质量评价方面已经取得了相当大的成果,在3D图像质量评价上的进展仍是屈指可数,这主要是因为3D图像与2D图像的视觉感知有着很大不同。现有的3D质量评价方法可分为全参考,半参考和无参考三种。
对于全参考3D质量评价方法,Benoit等人2008年在《EURASIPJournalonImageandVideoProcessing》上发表了“Qualityassessmentofstereoscopicimages”,它不仅利用SSIM计算出左右眼2D图像的质量分数,而且考虑了视差信息(Disparityinformation)。Ming-JunChen等人2013年在《SignalProcessing:Imagecommunication》上发表了“Full-referencequalityassessmentofstereopairsaccountingforrivalry”,它试图建立起人脑中的单眼图像(cyclopeanimage)。然而这些全参考评价方法需要全部的原始立体图像信息,这在实际应用中很难满足。因此,无参考的3D质量评价有着更大的应用前景与实际意义,但与此同时也面临着更多的困难。
为此,Akhter等人2010年在《ProceedingsofProc.SPIE》上发表了“No-referencestereoscopicimagequalityassessment”,提出了一种无参考的3D质量评价方法,它不仅结合了传统的失真类型(块效应),而且将视差图(Disparitymap)考虑在内。此方法符合人眼对3D图像的视觉感知。但是它十分依赖于对视差图的估计,而目前对于视差图还缺乏深入的理解,准确地计算出视差图也是非常困难的,因此这种方法效果一般。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于眼优势理论(ODI)和视差补偿(Parallaxcompensation)的立体图像质量评价方法(ODDM4),该方法有效地提升了3D图像质量评价的准确性。
为实现以上目的,本发明所述的基于眼优势理论和视差补偿的立体图像质量评价方法,包括以下步骤:
第一步,利用2D无参考质量评价方法计算出左眼右眼图像的质量分数,得到Q(L),Q(R);
第二步,计算两幅2D图像质量之间的眼优势差异,得到:H(L,R);
第三步,计算不同视差程度的补偿量,得到dθ;
第四步,将左眼右眼图像的质量分数Q(L)、Q(R)与视差程度的补偿量dθ相加,并减去眼优势差异H(L,R),结果即为基于眼优势理论和视差补偿的无参考3D图像质量评价分数。
本发明的原理是:尽管人眼对2D、3D图像的视觉感知有所不同,但2D、3D图像的质量仍有着紧密的联系。本发明利用眼优势理论,与此同时,由于了图像内容与3D质量也有关系,因此本发明通过左右眼图像的视差偏移程度,以补偿图像内容对3D图像质量的影响。最后,本发明将左右眼2D图像质量,眼优势差异,视差偏移补偿结合起来,通过线性组合得到了新的3D无参考的质量评价分数。
与现有技术相比,本发明具有如下的有益效果:
本发明利用眼优势理论,建立了2D图像质量评价和3D图像质量评价方法的联系。除此之外,本发明计算出了左右眼图像的视差偏移程度,以补偿图像内容对3D图像质量的影响。根据在现有的Toyama数据库上的测试结果来看,ODDM4方法取得了优越的3D图像质量评价效果,并且视差偏移补偿有效地提升了3D图像质量评价的准确性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明实施例总体流程图;
图2是仅利用2D质量评价分数和眼优势理论得到的3D质量分数(ODDM3),在Toyama图像质量数据库上与主观评价值MOS对比图;
图3是ODDM3经过视差补偿dθ后,得到最终的3D质量分数(ODDM4),在Toyama图像质量数据库上与主观评价值MOS对比图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本实施例提供一种基于眼优势理论和视差补偿的立体图像质量评价方法,整个过程的流程如图1所示,包括:
第一步、分别计算左眼右眼的2D质量评价分数,得到Q(L),Q(R);具体方法如下:
i)分别利用下述公式计算左右眼图像L,R水平方向上的块效应Dh,水平方向上的模糊效应Ah,Zh:
其中:M,N分别指图像的高度和宽度,B指图像块的大小;dh、zh分别指图像特征的计算函数;i,j分别指图像的第i行和第j列;Bj指的是第j个图像块;
ii)根据同样的方法,计算出左右眼图像L,R垂直方向上的块效应Dv,图像垂直方向上的模糊效应Av,Zv;全部特征即可通过计算水平和垂直特征的平均值得到:
iii)最后,所有特征通过一个全局非线性方程进行拟合,得到左右眼2D图像的质量分数:
Q=α+βDγ1Aγ2Zγ3,
其中:α、β、γ1、γ2和γ3是模型参数,在图像数据库上训练可得,在一实施例中,可
以取值:α=-245.8909;β=261.9373;γ1=-239.8886;γ2=160.1664;γ3=64.2859。
第二步、计算左右眼之间的眼优势差异H(L,R),具体方法如下:
所述的眼优势差异的计算方法:
H(L,R)=ODI·||Q(L)-Q(R)||
其中:Q(L),Q(R)分别为第一步中计算出的左眼,右眼图像质量分数。
第三步、计算视差的补偿量dθ,具体方法如下:
所述的视差程度的补偿量dθ:
其中:L,R分别为左眼、右眼图像;M代表相应图像的中央区域。
第四步、将左右眼图像的2D质量分数,眼优势差异与视差补偿进行线性结合,得到最终的3D无参考图像质量分数ODDM4;具体方法如下:
所述的无参考3D图像质量评价分数:
ODDM4=Q(L)+Q(R)-H(L,R)+dθ
其中:Q(L),Q(R)由第一步获得,H(L,R)由第二步获得,dθ由第三步获得。
实施效果
依据上述步骤,本发明对Toyama3D数据库的所有3D图像进行了无参考质量评价,并利用视频质量专家组(VQEG)推荐的指标与[1]方法进行了比较,指标包括:PearsonLinearCorrelationCoefficient(PLCC)、SpearmanRank-orderCorrelationCoefficient(SRCC)、AverageAbsoluteError(AAE)以及RootMean-SquaredError(RMSE)。比较结果见表1,可以发现本发明的ODDM4准确性优于[1]方法。ODDM3在Toyama3D图像质量数据库上与主观评价值MOS比较图如图2所示,ODDM4与主观评价值MOS的比较图如图3所示。
表1
方法 | PLCC | SRCC | AAE | RMSE |
ODDM1 | 0.8934 | 0.8897 | 0.4136 | 0.5234 |
ODDM2 | 0.9207 | 0.9076 | 0.3594 | 0.4548 |
ODDM3 | 0.9318 | 0.9266 | 0.3358 | 0.4228 |
ODDM4 | 0.9578 | 0.9500 | 0.2594 | 0.3354 |
[1] | 0.9350 | — | 0.3500 | 0.4210 |
表1中所述的图像质量评价方法具体是指:
ODDM1:ODDM1=Q(L)+Q(R);
ODDM2:ODDM2=Q(L)+Q(R)-||Q(L)-Q(R)||∞;
ODDM3:ODDM3=Q(L)+Q(R)-ODI·||Q(L)-Q(R)||∞,
ODDM4:ODDM4=Q(L)+Q(R)-ODI·||Q(L)-Q(R)||∞+dθ,其中:
[1]:Akhter等人在2010年《ProceedingsofProc.SPIE》上发表的“Noreferencestereoscopicimagequalityassessment”。
根据在现有的Toyama数据库上的测试结果来看,本发明ODDM4方法取得了优越的3D图像质量评价效果,并且视差偏移补偿有效地提升了3D图像质量评价的准确性。值得注意的是,本发明建立了2D与3D图像质量评价的联系。任何2D质量评价方法的提高,都可能通过本发明改善相应的3D质量评价效果。本发明中的视差补偿方法也为将来3D质量评价方法的提升指明了方向。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (4)
1.一种基于眼优势理论和视差补偿的立体图像质量评价方法,其特征在于,所述方法包括以下步骤:
第一步,利用2D无参考质量评价方法计算出左眼右眼图像的质量分数,得到Q(L),Q(R);
第二步,计算两幅2D图像质量之间的眼优势差异,得到:H(L,R);
第三步,计算不同视差程度的补偿量,得到dθ,θ表示角度;
第四步,将左眼右眼图像的质量分数Q(L)、Q(R)与视差程度的补偿量dθ相加,并减去眼优势差异H(L,R),结果即为基于眼优势理论和视差补偿的无参考3D图像质量评价分数。
2.根据权利要求1所述的一种基于眼优势理论和视差补偿的立体图像质量评价方法,其特征在于,第一步中,所述的左眼右眼图像质量分数的计算方法:
i)分别利用下述公式计算左右眼图像L、R水平方向上的块效应Dh,水平方向上的模糊效应Ah,Zh:
其中:M,N分别指图像的高度和宽度,B指图像块的大小;dh、zh分别指图像特征的计算函数;i,j分别指图像的第i行和第j列;Bj指的是第j个图像块;
ii)根据同样的方法,计算出左右眼图像L、R垂直方向上的块效应Dv,图像垂直方向上的模糊效应Av,Zv,计算水平和垂直特征的平均值即得到全部特征:
Dh,Ah,Zh是垂直方向上的特征,Zv,Dv,Av是水平方向上的特征;
iii)最后,所有特征通过一个全局非线性方程进行拟合,得到左右眼2D图像的质量分数:
Q=α+βDγ1Aγ2Zγ3
其中:α、β、γ1、γ2和γ3是模型参数,在图像数据库上训练得到。
3.根据权利要求1所述的一种基于眼优势理论和视差补偿的立体图像质量评价方法,其特征在于,第二步中,所述的眼优势差异的计算方法:
H(L,R)=ODI·||Q(L)-Q(R)||
其中:Q(L),Q(R)分别为第一步中计算出的左眼右眼图像质量分数。
4.根据权利要求1-3任一项所述的一种基于眼优势理论和视差补偿的立体图像质量评价方法,其特征在于,第三步中,所述的视差程度的补偿量dθ:
其中:L,R分别为左眼、右眼图像;M代表图像的中央区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410491118.9A CN104243977B (zh) | 2014-09-23 | 2014-09-23 | 基于眼优势理论和视差补偿的立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410491118.9A CN104243977B (zh) | 2014-09-23 | 2014-09-23 | 基于眼优势理论和视差补偿的立体图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104243977A CN104243977A (zh) | 2014-12-24 |
CN104243977B true CN104243977B (zh) | 2016-07-06 |
Family
ID=52231201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410491118.9A Active CN104243977B (zh) | 2014-09-23 | 2014-09-23 | 基于眼优势理论和视差补偿的立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104243977B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105338343B (zh) * | 2015-10-20 | 2017-05-31 | 北京理工大学 | 一种基于双目感知的无参考立体图像质量评价方法 |
WO2017042402A2 (de) * | 2016-11-10 | 2017-03-16 | Leica Geosystems Ag | Laserscanner |
CN112233089B (zh) * | 2020-10-14 | 2022-10-25 | 西安交通大学 | 一种无参考立体混合失真图像质量评价方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8963998B2 (en) * | 2011-04-15 | 2015-02-24 | Tektronix, Inc. | Full reference system for predicting subjective quality of three-dimensional video |
WO2013077510A1 (ko) * | 2011-11-23 | 2013-05-30 | 에스케이플래닛 주식회사 | 3차원 입체영상의 입체감, 안정성 또는 오류성 측정 장치 및 방법 |
CN103763552B (zh) * | 2014-02-17 | 2015-07-22 | 福州大学 | 基于视觉感知特性的立体图像无参考质量评价方法 |
-
2014
- 2014-09-23 CN CN201410491118.9A patent/CN104243977B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104243977A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103581661B (zh) | 一种立体图像视觉舒适度评价方法 | |
CN105338343B (zh) | 一种基于双目感知的无参考立体图像质量评价方法 | |
CN107578430B (zh) | 一种基于自适应权值和局部熵的立体匹配方法 | |
CN101282492A (zh) | 三维影像显示深度调整方法 | |
CN102404594B (zh) | 基于图像边缘信息的2d转3d的方法 | |
CN104036501A (zh) | 一种基于稀疏表示的立体图像质量客观评价方法 | |
CN102595185A (zh) | 一种立体图像质量客观评价方法 | |
CN105744256A (zh) | 基于图谱视觉显著的立体图像质量客观评价方法 | |
CN102271262B (zh) | 用于3d显示的基于多线索的视频处理方法 | |
CN104809698A (zh) | 一种基于改进三边滤波的Kinect深度图像修复方法 | |
CN104811693B (zh) | 一种立体图像视觉舒适度客观评价方法 | |
CN103116879A (zh) | 一种基于邻域加窗的非局部均值ct成像去噪方法 | |
CN102892021B (zh) | 一种合成虚拟视点图像的新方法 | |
CN103413298B (zh) | 一种基于视觉特性的立体图像质量客观评价方法 | |
CN109345502B (zh) | 一种基于视差图立体结构信息提取的立体图像质量评价方法 | |
CN103136748B (zh) | 一种基于特征图的立体图像质量客观评价方法 | |
CN108596975A (zh) | 一种针对弱纹理区域的立体匹配算法 | |
CN104243977B (zh) | 基于眼优势理论和视差补偿的立体图像质量评价方法 | |
CN102708567A (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN105976337A (zh) | 一种基于中值引导滤波的图像去雾方法 | |
CN108337504A (zh) | 一种评价视频质量的方法及装置 | |
CN104853182B (zh) | 基于幅度和相位的立体图像质量客观评价方法 | |
CN101873509A (zh) | 消除深度图序列背景和边缘抖动的方法 | |
CN107360416A (zh) | 基于局部多元高斯描述子的立体图像质量评价方法 | |
CN106530282A (zh) | 基于空域特征的无参考立体图像质量客观评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |