CN102595185B - 一种立体图像质量客观评价方法 - Google Patents
一种立体图像质量客观评价方法 Download PDFInfo
- Publication number
- CN102595185B CN102595185B CN201210046292.3A CN201210046292A CN102595185B CN 102595185 B CN102595185 B CN 102595185B CN 201210046292 A CN201210046292 A CN 201210046292A CN 102595185 B CN102595185 B CN 102595185B
- Authority
- CN
- China
- Prior art keywords
- stereo
- picture
- designated
- image
- binocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种立体图像质量客观评价方法,其通过模拟人类视觉***处理立体图像的过程,获得立体图像在人类视觉***中形成的cyclopean图像,该cyclopean图像是由遮挡区域、双目融合区域、双目掩蔽区域三个区域组成,根据图像奇异值表征图像属性具有较强的稳定性,结合人类视觉***处理cyclopean图像中不同区域特点,采用测试立体图像和参考立体图像对应的cyclopean图像之间的奇异值距离来表示测试立体图像对应的cyclopean图像的失真程度,从而最终获得测试立体图像的整体视觉质量,本发明方法能够客观地反映立体图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,与人类视觉***特性相一致。
Description
技术领域
本发明涉及一种立体图像质量评价技术,尤其是涉及一种基于双目融合和双目掩蔽的立体图像质量客观评价方法。
背景技术
随着三维显示技术的逐步发展,立体图像技术在各领域得到了广泛的应用。然而,如何建立有效的符合人类视觉感知的立体图像质量评价方法已成为立体图像处理与压缩领域的一个研究热点。
立体图像质量评价从方法学角度可分为两种方法:主观质量评价方法和客观质量评价方法。主观质量评价方法是通过大量的测试人员对立体图像进行视觉感知质量评价。由于主观质量评价方法操作极为不便并且消耗大量的时间和人力物力,因此立体图像质量评价研究的最终目标是建立一种能够自动地评价并且评价结果与主观质量评价结果一致的客观质量评价模型。
立体图像客观质量评价方法通过对失真信息进行模型化来预测测试立体图像的视觉质量,因此在视频处理领域中起到了十分重要的作用,如用于监控和调整图像质量、优化算法及参数设置、评价***或算法性能等。目前,研究人员提出了多种立体图像客观质量评价方法,其中一类有代表性的方法是直接用平面图像质量评价方法分别对立体图像的左右视点图像进行评价所得结果的平均值作为立体图像质量预测值;而另一类方法是将立体图像质量评价分成两部分:平面失真评价和立体失真评价。第一类方法将立体图像视为由独立存在的左右视点图像组成的集合,完全没有考虑到立体图像所具有的特殊性;而第二类方法在第一类方法的基础上,仅仅利用立体图像的深度或者视差信息来评价立体图像特有的失真质量。显然,这两类方法都是平面图像客观质量评价方法的延伸或改进。与平面图像相比,立体图像不仅仅是多了一个通道,其质量评价至少存在以下几个难点问题:(1)立体图像特有的失真类型如Crosstalk、Cardboard、Keystone等的评价问题;(2)立体图像深度感知信息的表示及其失真评价问题;(3)立体图像左右视点间相互作用问题。目前,以上这些问题尚未得到解决,导致现有的客观质量评价模型的评价结果与立体图像的视觉质量不一致。
发明内容
本发明所要解决的技术问题是提供一种基于双目融合(binocular fusion)和双目掩蔽(binocular suppression)的立体图像质量客观评价方法,其能够客观地反映立体图像受到各种图像处理和压缩方法影响下的视觉质量变化情况,与人类视觉***特性相一致。
本发明解决上述技术问题所采用的技术方案为:一种立体图像质量客观评价方法,其特征在于包括以下步骤:
①定义立体图像客观质量评价中用于参照的原始立体图像为参考立体图像,将参考立体图像的左视点图像记为Il,将参考立体图像的右视点图像记为Ir,将参考立体图像在人类视觉***中形成的cyclopean图像记为C;定义立体图像客观质量评价中用于测试的参考立体图像的失真图像为测试立体图像,将测试立体图像的左视点图像记为将测试立体图像的右视点图像记为将测试立体图像在人类视觉***中形成的cyclopean图像记为其中,参考立体图像的左视点图像Il、参考立体图像的右视点图像Ir、测试立体图像的左视点图像测试立体图像的右视点图像的尺寸大小均为W×H,W表示图像的宽度,H表示图像的高度;
②将测试立体图像在人类视觉***中形成的cyclopean图像划分为三类区域:第一类区域为遮挡区域,记为该遮挡区域的信息仅存在于左视点和右视点的一个视点中;第二类区域为双目掩蔽区域,记为该双目掩蔽区域的信息为左视点和右视点中图像内容差异较大或视差较大的双目信息;第三类为双目融合区域,记为该双目融合区域的信息为左视点和右视点中图像内容相似且视差较小的双目信息;
③将测试立体图像在人类视觉***中形成的cyclopean图像分割成互不重叠的大小为k×k的图像块,并将所有图像块分为遮挡块、双目掩蔽块、双目融合块三种类型,然后根据图像块的类型更新对应得到更新后的遮挡区域更新后的双目掩蔽区域更新后的双目融合区域接着获取参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域Rocc′、与对应位置的区域Rbs′、与对应位置的区域Rbf′,再对的左视点对应区域的右视点对应区域的左视点对应区域的右视点对应区域Rocc′、Rbs′的左视点对应区域Rbs′的右视点对应区域Rbf′的左视点对应区域Rbf′的右视点对应区域中的所有大小为k×k的图像块分别进行奇异值分解,得到各个图像块各自对应的奇异值,其中,k大于1;
④根据与Rocc′中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qocc;根据与中所有对应位置的大小为k×k的图像块之间的奇异值距离及与中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qbs;根据与中所有对应位置的大小为k×k的图像块之间的奇异值距离及与中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qbf;
⑤根据的全局失真程度Qocc、的全局失真程度Qbs和的全局失真程度Qbf,采用线性回归方程,计算测试立体图像的全局失真程度,记为Q,Q=a×Qocc+b×Qbs+c×Qbf,其中,a,b,c均为系数,a,b,c满足条件:
所述的步骤②的具体过程为:
②-1、将参考立体图像的左视点图像Il中坐标位置为(x,y)的像素点记为将参考立体图像的右视点图像Ir中坐标位置为(s,t)的像素点记为将测试立体图像的左视点图像中坐标位置为(x,y)的像素点记为将测试立体图像的右视点图像中坐标位置为(s,t)的像素点记为其中,1≤x≤W,1≤y≤H,1≤s≤W,1≤t≤H;
②-2、对参考立体图像进行立体匹配,获得参考立体图像中的各个像素点的水平视差和垂直视差,具体过程为:判断与是否相匹配,如果两者相匹配,则将两者的匹配关系表示为并将和的水平视差都记为 将和的垂直视差都记为 否则,如果参考立体图像的右视点图像Ir中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,如果参考立体图像的左视点图像Il中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,其中,“| |”为取绝对值符号,“φ”为空集表示符号;
②-3、对测试立体图像进行立体匹配,获得测试立体图像中的各个像素点的水平视差和垂直视差,具体过程为:判断与是否相匹配,如果两者相匹配,则将两者的匹配关系表示为并将和的水平视差都记为 将和的垂直视差记为 否则,如果测试立体图像的右视点图像中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,如果测试立体图像的左视点图像中不存在与相匹配的像素点,则将的匹配关系表示为将的水平视差和垂直视差都确定为255,其中,“| |”为取绝对值符号,“φ”为空集表示符号;
②-4、将测试立体图像在人类视觉***中形成的cyclopean图像划分为遮挡区域和匹配区域遮挡区域由左视点遮挡区域和右视点遮挡区域两部分组成,表示为:左视点遮挡区域为测试立体图像的左视点图像中匹配关系为的像素点的集合,表示为:右视点遮挡区域为测试立体图像的右视点图像中匹配关系为的像素点的集合,表示为:匹配区域为测试立体图像的左视点图像和测试立体图像的右视点图像相匹配的像素点的集合,其中,“∪”为集合并运算符号,“∧”为“与”运算符号;
②-5、进一步将匹配区域划分为双目掩蔽区域和双目融合区域双目掩蔽区域为由的左视点对应区域与的右视点对应区域经双目掩蔽得到的合成区域,双目融合区域为由的左视点对应区域与的右视点对应区域经双目融合得到的合成区域,其中,
所述的步骤③的具体过程为:
③-1、将测试立体图像在人类视觉***中形成的cyclopean图像分割成互不重叠的大小为k×k的图像块,并将测试立体图像在人类视觉***中形成的cyclopean图像中的所有图像块分为遮挡块、双目掩蔽块、双目融合块三种类型,具体分类过程为:对于测试立体图像在人类视觉***中形成的cyclopean图像中的任意一个图像块,将其记为判断中是否存在属于的像素点,如果中存在属于的像素点,则将标记为遮挡块,如果中不存在属于的像素点,则再判断中是否存在属于的像素点,如果存在,则将标记为双目掩蔽块,否则,将标记为双目融合块,其中,k大于1;
③-2、将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有遮挡块构成的区域作为更新后的遮挡区域,记为将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有双目掩蔽块构成的区域作为更新后的双目掩蔽区域,记为将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有双目融合块构成的区域作为更新后的双目融合区域,记为并将更新后的的左视点遮挡区域和的右视点遮挡区域、的左视点对应区域和的右视点对应区域、的左视点对应区域和的右视点对应区域分别记为和和和
③-3、将参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域记为Rocc′,其中,“∪”为集合并运算符号,为参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域, 为参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域,
所述的步骤③-1中k=4。
所述的步骤④的具体过程为:
④-1、计算与Rocc′中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i个遮挡块,将其记为并将Rocc′中与对应位置的第i个遮挡块记为Bi,计算与Bi之间的奇异值距离,记为Docc(i),然后统计中的所有遮挡块对应的奇异值距离作为的全局失真程度,记为Qocc,其中,1≤i≤Nocc,Nocc表示和Rocc′中的所有遮挡块的个数,sqrt()为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,si,j表示Bi中的第j个奇异值,表示中的第j个奇异值,“||”为取绝对值符号,Docc(m)表示Docc(1),Docc(2),…,Docc(Nocc)的中值;
④-2、计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i′个双目掩蔽块,将其记为并将中与对应位置的第i′个双目掩蔽块记为计算与之间的奇异值距离,记为 然后计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i′个双目掩蔽块,将其记为并将中与对应位置的第i′个双目掩蔽块记为计算与之间的奇异值距离,记为 接着计算中的所有双目掩蔽块的奇异值距离,对于中的第i′个双目掩蔽块,将其记为并将其奇异值距离记为Dbs(i′),再统计中的所有双目掩蔽块对应的奇异值距离作为的全局失真程度,记为Qbs,其中,1≤i′≤Nbs,Nbs表示或中的所有双目掩蔽块的个数,sqrt()为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,min()为取最小值函数,“||”为取绝对值符号,Dbs(m)表示Dbs(1),Dbs(2),…,Dbs(Nbs)的中值;
④-3、计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i″个双目融合块,将其记为并将中与对应位置的第i″个双目融合块记为计算与之间的奇异值距离,记为 然后计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i″个双目融合块,将其记为并将中与对应位置的第i″个双目融合块记为计算与之间的奇异值距离,记为 接着统计中的所有双目融合块对应的奇异值距离作为的全局失真程度,记为 并统计中的所有双目融合块对应的奇异值距离作为的全局失真程度,记为 再根据和计算的全局失真程度,记为Qbf,其中,1≤i″≤Nbf,Nbf表示或中的所有双目融合块的个数,sqrt()为求平方根函数,1≤j≤k,k表示一个图像块中的奇异值的个数,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,“||”为取绝对值符号,表示的中值,表示的中值。
所述的步骤⑤中a=0,b=0.5,c=0.5。
与现有技术相比,本发明的优点在于通过模拟人类视觉***处理立体图像的过程,获得立体图像在人类视觉***中形成的cyclopean图像,该cyclopean图像是由遮挡区域、双目融合区域、双目掩蔽区域三个区域组成,根据图像奇异值表征图像属性具有较强的稳定性,结合人类视觉***处理cyclopean图像中不同区域特点,采用测试立体图像和参考立体图像对应的cyclopean图像之间的奇异值距离来表示测试立体图像对应的cyclopean图像的失真程度,从而最终获得测试立体图像的整体视觉质量,本发明方法能够客观地反映立体图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,并且本发明方法的评价性能不受立体图像内容和失真类型的影响,与人眼的主观感知一致。
附图说明
图1为人类视觉***中双目融合与双目掩蔽处理过程;
图2为本发明方法的流程框图;
图3为Akko & Kayo区域划分结果示意图;
图4为本发明方法中所采用的测试立体图像;
图5为主观评价结果与本发明方法的评价结果之间的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
人类视觉生理学研究表明,人的双眼间距大约为60~65mm,这个间距使得双眼在观看某一场景时所处位置和角度稍有不同,从而导致场景在双眼视网膜的成像稍有差异。然而,实际上人们在正常视力下观看场景时并不会出现两个场景成像重叠在一起的感觉,在人脑中形成的是一幅具有立体感的cyclopean图像(即“独眼”图像),这个现象是由人类视觉***中双目融合(binocular fusion)和/或双目掩蔽(binocular suppression)处理的结果。在人类视觉***中,由于Panum区的存在,左右眼视网膜对应区域并不需要精确地落入相同位置上,允许存在微小视差,双目融合即可发生。但如果左右眼视网膜对应区域的图像内容差异较大或者两者之间视差较大时,则人类视觉***无法对两眼的冲突信息进行双目融合处理,此时将出现复视(diplopia)或双目视觉混淆现象(binocular visual confusion),随即进入双目竞争(binocular rivalry)状态,然而,正常的人类视觉***无法长时间容忍这种状态,最终将转至双眼掩蔽处理。双目掩蔽处理可能出现两种情况:当左右眼视网膜对应区域的图像内容差异较大时,左右眼视网膜图像信息将间歇***替掩蔽对方,即在该区域将间歇交替地显示左右眼视网膜中一眼的图像信息;如果左右眼视网膜对应区域的图像内容比较接近但是两者之间视差较大时,则在该区域将由左右眼视网膜中的一眼信息持久地掩蔽另一只眼的信息,通常是由图像轮廓更清晰的一眼掩蔽另一眼。人类视觉***中双目融合和双目掩蔽处理过程如图1所示。
本发明方法根据人类视觉***中双目立体视觉特性,提出了一种基于双目融合和双目掩蔽的立体图像客观质量评价方法,该立体图像客观质量评价方法首先模拟立体图像在人类视觉***中的处理过程获得立体图像在大脑中形成的cyclopean图像,通过对cyclopean图像进行数学建模,采用全参考质量评价方法对该cyclopean图像的失真程度进行评价,最终得到立体图像的整体视觉质量。
本发明的一种基于双目融合和双目掩蔽的立体图像客观质量评价方法,其总体流程框图如图2所示,其包括以下步骤:
①定义立体图像客观质量评价中用于参照的原始立体图像为参考立体图像,将参考立体图像的左视点图像记为Il,将参考立体图像的右视点图像记为Ir,将参考立体图像在人类视觉***中形成的cyclopean图像记为C;定义立体图像客观质量评价中用于测试的参考立体图像经失真处理后得到的失真图像为测试立体图像,将测试立体图像的左视点图像记为将测试立体图像的右视点图像记为将测试立体图像在人类视觉***中形成的cyclopean图像记为其中,参考立体图像的左视点图像Il、参考立体图像的右视点图像Ir、测试立体图像的左视点图像测试立体图像的右视点图像的尺寸大小均为W×H,W表示图像的宽度,H表示图像的高度。
②根据人类视觉***处理立体图像的特点,将测试立体图像在人类视觉***中形成的cyclopean图像划分为三类区域:第一类区域为遮挡区域,记为该遮挡区域的信息仅存在于左视点和右视点的一个视点中;第二类区域为双目掩蔽区域,记为该双目掩蔽区域的信息为左视点和右视点中图像内容差异较大或视差较大的双目信息,即该双目掩蔽区域为左右视点中图像内容差异较大或视差较大的区域经过人类视觉***中双目掩蔽处理所形成的双目掩蔽区域;第三类为双目融合区域,记为该双目融合区域的信息为左视点和右视点中图像内容相似且视差较小的双目信息,即该双目融合区域为左右视点中图像内容相似且视差较小的区域经过人类视觉***中双目融合处理所形成的双目融合区域。
在此具体实施例中,步骤②的具体过程为:
②-1、将参考立体图像的左视点图像Il中坐标位置为(x,y)的像素点记为将参考立体图像的右视点图像Ir中坐标位置为(s,t)的像素点记为将测试立体图像的左视点图像中坐标位置为(x,y)的像素点记为将测试立体图像的右视点图像中坐标位置为(s,t)的像素点记为其中,1≤x≤W,1≤y≤H,1≤s≤W,1≤t≤H。
②-2、对参考立体图像进行立体匹配,获得参考立体图像中的各个像素点的水平视差和垂直视差,具体过程为:判断与是否相匹配,如果两者相匹配,则将两者的匹配关系表示为并将和的水平视差都记为 将和的垂直视差都记为 否则,如果参考立体图像的右视点图像Ir中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,如果参考立体图像的左视点图像Il中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,其中,“||”为取绝对值符号,“φ”为空集表示符号。
②-3、对测试立体图像进行立体匹配,获得测试立体图像中的各个像素点的水平视差和垂直视差,具体过程为:判断与是否相匹配,如果两者相匹配,则将两者的匹配关系表示为并将和的水平视差都记为 将和的垂直视差记为 否则,如果测试立体图像的右视点图像中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,如果测试立体图像的左视点图像中不存在与相匹配的像素点,则将的匹配关系表示为将的水平视差和垂直视差都确定为255,其中,“||”为取绝对值符号,“φ”为空集表示符号。
②-4、经过立体匹配后,根据人类视觉***处理立体图像的特点,将测试立体图像在人类视觉***中形成的cyclopean图像划分为遮挡区域和匹配区域遮挡区域为测试立体图像的左视点图像和右视点图像中匹配不成功的像素点的集合,遮挡区域由左视点遮挡区域和右视点遮挡区域两部分组成,表示为:左视点遮挡区域为测试立体图像的左视点图像中匹配关系为的像素点的集合,表示为:右视点遮挡区域为测试立体图像的右视点图像中匹配关系为的像素点的集合,表示为:匹配区域为测试立体图像的左视点图像和测试立体图像的右视点图像相匹配的像素点的集合,其中,“∪”为集合并运算符号,“∧”为“与”运算符号。
②-5、进一步将匹配区域划分为双目掩蔽区域和双目融合区域双目掩蔽区域是原始立体图像在失真过程中左右视点间视差变大的区域,双目掩蔽区域为由的左视点对应区域与的右视点对应区域经双目掩蔽得到的合成区域,即双目融合区域是原始立体图像在失真过程中左右视点视差不变或者变小的区域,双目融合区域为由的左视点对应区域与的右视点对应区域经双目融合得到的合成区域,即其中,
图3给出了Akko & Kayo参考立体图像及其左右视点图像受到相同高斯模糊处理后所得的测试立体图像(左视点图像PSNR(峰值信噪比)为24.450db;右视点图像PSNR为23.862db)的区域划分过程。
在此,对参考立体图像和测试立体图像进行立体匹配时,采用康奈尔大学提供的基于像素级的匹配软件match v3.3对立体图像进行立体匹配。
③将测试立体图像在人类视觉***中形成的cyclopean图像分割成互不重叠的大小为k×k的图像块,并将所有图像块分为遮挡块、双目掩蔽块、双目融合块三种类型,然后根据图像块的类型更新对应得到更新后的遮挡区域更新后的双目掩蔽区域更新后的双目融合区域接着获取参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域Rocc′、与对应位置的区域Rbs′、与对应位置的区域Rbf′,再对的左视点对应区域的右视点对应区域的左视点对应区域的右视点对应区域Rocc′、Rbs′的左视点对应区域Rbs′的右视点对应区域Rbf′的左视点对应区域Rbf′的右视点对应区域中的所有大小为k×k的图像块分别进行奇异值分解,得到各个图像块各自对应的奇异值,其中,k大于1。
在此具体实施例中,步骤③的具体过程为:
③-1、将测试立体图像在人类视觉***中形成的cyclopean图像分割成互不重叠的大小为k×k的图像块,并将测试立体图像在人类视觉***中形成的cyclopean图像中的所有图像块分为遮挡块、双目掩蔽块、双目融合块三种类型,具体分类过程为:对于测试立体图像在人类视觉***中形成的cyclopean图像中的任意一个图像块,将其记为判断中是否存在属于的像素点,如果中存在属于的像素点,则将标记为遮挡块,如果中不存在属于的像素点,则再判断中是否存在属于的像素点,如果存在,则将标记为双目掩蔽块,否则,将标记为双目融合块,其中,k大于1,在此取k=4。
③-2、将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有遮挡块构成的区域作为更新后的遮挡区域,记为将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有双目掩蔽块构成的区域作为更新后的双目掩蔽区域,记为将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有双目融合块构成的区域作为更新后的双目融合区域,记为并将更新后的的左视点遮挡区域和的右视点遮挡区域、的左视点对应区域和的右视点对应区域、的左视点对应区域和的右视点对应区域分别记为和和和
③-3、将参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域记为Rocc′,其中,“∪”为集合并运算符号,为参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域, 为参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域,
③-6、对Rocc′、中的所有大小为k×k的图像块分别进行奇异值分解,得到Rocc′、中的所有大小为k×k的图像块各自对应的奇异值。在此,奇异值分解的方法为对于大小为k×k的图像块,可以用矩阵G表示,通过奇异值分解可以表示为G=USVT,其中U和V为正交矩阵,S为对角矩阵,即S=diag(s1,s2,...,sk),S的所有对角元素称为G的奇异值。
④根据与Rocc′中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qocc;根据与中所有对应位置的大小为k×k的图像块之间的奇异值距离及与中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qbs;根据与中所有对应位置的大小为k×k的图像块之间的奇异值距离及与中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qbf。
在此具体实施例中,步骤④的具体过程为:
④-1、计算与Rocc′中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i个遮挡块,将其记为并将Rocc′中与对应位置的第i个遮挡块记为Bi,计算与Bi之间的奇异值距离,记为Docc(i),然后统计中的所有遮挡块对应的奇异值距离作为的全局失真程度,记为Qocc,其中,1≤i≤Nocc,Nocc表示和Rocc′中的所有遮挡块的个数,sqrt( )为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,si,j表示Bi中的第j个奇异值,表示中的第j个奇异值,“||”为取绝对值符号,Docc(m)表示Docc(1),Docc(2),…,Docc(Nocc)的中值。
④-2、计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i′个双目掩蔽块,将其记为并将中与对应位置的第i′个双目掩蔽块记为计算与之间的奇异值距离,记为 然后计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i′个双目掩蔽块,将其记为并将中与对应位置的第i′个双目掩蔽块记为计算与之间的奇异值距离,记为 接着计算中的所有双目掩蔽块的奇异值距离,对于中的第i′个双目掩蔽块,将其记为并将其奇异值距离记为Dbs(i′),由于人类视觉***处理双目掩蔽区域时是由轮廓更清晰的视点图像信息掩蔽另一个视点对应信息,而失真图像与原始图像之间的奇异值距离是表示图像失真程度,即奇异值距离越大,图像失真越严重,因此的奇异值距离Dbs(i′)是由与两者值较小者决定,即再统计中的所有双目掩蔽块对应的奇异值距离作为的全局失真程度,记为Qbs,其中,1≤i′≤Nbs,Nbs表示或中的所有双目掩蔽块的个数,sqrt( )为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,min( )为取最小值函数,“||”为取绝对值符号,Dbs(m)表示Dbs(1),Dbs(2),…,Dbs(Nbs)的中值。
④-3、计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i″个双目融合块,将其记为并将中与对应位置的第i″个双目融合块记为计算与之间的奇异值距离,记为 然后计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i″个双目融合块,将其记为并将中与对应位置的第i″个双目融合块记为计算与之间的奇异值距离,记为 接着统计中的所有双目融合块对应的奇异值距离作为的全局失真程度,记为 并统计中的所有双目融合块对应的奇异值距离作为的全局失真程度,记为 再根据人类视觉***中双目叠加作用特点可知,双眼对图像失真敏感度是单眼的1.4倍,从而根据和计算的全局失真程度,记为Qbf,其中,1≤i″≤Nbf,Nbf表示或中的所有双目融合块的个数,sqrt()为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,“||”为取绝对值符号,表示的中值,表示的中值。
⑤测试立体图像的视觉质量受三部分区域失真的影响,由于这三部分区域失真是相互独立的,因此本发明按照三个区域对测试立体图像整体视觉质量的贡献情况,将这三部分区域对应的全局失真程度Qocc、Qbs、Qbf综合在一起,从而得到测试立体图像的全局失真程度Q作为测试立体图像的视觉质量,即根据的全局失真程度Qocc、的全局失真程度Qbs和的全局失真程度Qbf,采用线性回归方程,计算测试立体图像的全局失真程度,记为Q,Q=a×Qocc+b×Qbs+c×Qbf,其中,a,b,c均为线性回归方程的系数,a,b,c满足条件: 在此,取a=0,b=0.5,c=0.5
采用从Mobile3DTV提供的测试序列中挑选出的9幅高清彩色立体图像及其对应的失真立体图像作为立体图像测试库,来衡量本发明方法与人类主观视觉感知的一致性。该立体图像测试库包括9幅高清彩色立体图像(如图4所示),以及这9幅高清彩色立体图像对应在高斯模糊下5个失真等级、高斯白噪声下5个失真等级、JPEG压缩下5个失真等级、JPEG 2000压缩下5个失真等级、H.264压缩下6个失真等级的一共234幅失真立体图像作为测试立体图像。
图5为234幅测试立体图像的主观评价结果DMOS与本发明方法经过非线性处理后的预测值DMOSp之间的散点图。图5中数据点在直线y=x附近的密集度越高,说明本发明方法与主观评价结果之间的一致性越好。为了更好地说明本发明方法的评价性能,在此按照VQEG(视频质量专家组)对客观质量评价方法的检验标准用以下四个性能指标进行评价:
(1)线性相关系数(CC):用Pearson线性相关系数来反映客观评价模型预测的精确性。
(2)均方根误差(RMSE):除了Pearson相关系数外,还经常用均方根误差RMSE来对客观模型的准确性进行度量。
(3)Spearman等级相关系数(SROCC):用Spearman等级相关系数来衡量客观模型的单调性。
(4)异常值比率指标(OR):该指标主要反映客观模型的离散程度。
表1列出了本发明方法的4种性能指标的评价结果。从表1中所列的数据可知,本发明方法的评价结果的准确性、单调性、一致性都非常好,能够很好地预测人类对立体图像的主观感知。
表1本发明方法的性能指标的评价结果
Gblur | JPEG | JP2K | Wn | H264 | All data | |
Pearson相关系数(CC) | 0.965 | 0.949 | 0.928 | 0.968 | 0.964 | 0.938 |
Spearman等级相关系数(SROCC) | 0.952 | 0.950 | 0.934 | 0.941 | 0.957 | 0.939 |
均方根误差(RMSE) | 5.209 | 4.388 | 4.169 | 3.764 | 3.230 | 5.606 |
异常值比率(OR) | 0 | 0 | 0 | 0 | 0 | 0 |
Claims (5)
1.一种立体图像质量客观评价方法,其特征在于包括以下步骤:
①定义立体图像客观质量评价中用于参照的原始立体图像为参考立体图像,将参考立体图像的左视点图像记为Il,将参考立体图像的右视点图像记为Ir,将参考立体图像在人类视觉***中形成的cyclopean图像记为C;定义立体图像客观质量评价中用于测试的参考立体图像的失真图像为测试立体图像,将测试立体图像的左视点图像记为将测试立体图像的右视点图像记为将测试立体图像在人类视觉***中形成的cyclopean图像记为其中,参考立体图像的左视点图像Il、参考立体图像的右视点图像Ir、测试立体图像的左视点图像测试立体图像的右视点图像的尺寸大小均为W×H,W表示图像的宽度,H表示图像的高度;
②将测试立体图像在人类视觉***中形成的cyclopean图像划分为三类区域:第一类区域为遮挡区域,记为该遮挡区域的信息仅存在于左视点和右视点的一个视点中;第二类区域为双目掩蔽区域,记为第三类为双目融合区域,记为
所述的步骤②的具体过程为:
②-1、将参考立体图像的左视点图像Il中坐标位置为(x,y)的像素点记为将参考立体图像的右视点图像Ir中坐标位置为(s,t)的像素点记为将测试立体图像的左视点图像中坐标位置为(x,y)的像素点记为将测试立体图像的右视点图像中坐标位置为(s,t)的像素点记为其中,1≤x≤W,1≤y≤H,1≤s≤W,1≤t≤H;
②-2、对参考立体图像进行立体匹配,获得参考立体图像中的各个像素点的水平视差和垂直视差,具体过程为:判断与是否相匹配,如果两者相匹配,则将两者的匹配关系表示为并将和的水平视差都记为将和的垂直视差都记为 否则,如果参考立体图像的右视点图像Ir中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,如果参考立体图像的左视点图像Il中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,其中,“||”为取绝对值符号,“φ”为空集表示符号;
②-3、对测试立体图像进行立体匹配,获得测试立体图像中的各个像素点的水平视差和垂直视差,具体过程为:判断与是否相匹配,如果两者相匹配,则将两者的匹配关系表示为并将和的水平视差都记为将和的垂直视差记为否则,如果测试立体图像的右视点图像中不存在与相匹配的像素点,则将的匹配关系表示为并将的水平视差和垂直视差都确定为255,如果测试立体图像的左视点图像中不存在与相匹配的像素点,则将的匹配关系表示为将的水平视差和垂直视差都确定为255,其中,“||”为取绝对值符号,“φ”为空集表示符号;
②-4、将测试立体图像在人类视觉***中形成的cyclopean图像划分为遮挡区域和匹配区域遮挡区域由左视点遮挡区域和右视点遮挡区域两部分组成,表示为:左视点遮挡区域为测试立体图像的左视点图像中匹配关系为的像素点的集合,表示为:右视点遮挡区域为测试立体图像的右视点图像中匹配关系为的像素点的集合,表示为:匹配区域为测试立体图像的左视点图像和测试立体图像的右视点图像相匹配的像素点的集合,其中,“∪”为集合并运算符号,“∧”为“与”运算符号;
②-5、进一步将匹配区域划分为双目掩蔽区域和双目融合区域双目掩蔽区域为由的左视点对应区域与的右视点对应区域经双目掩蔽得到的合成区域,双目融合区域为由的左视点对应区域与的右视点对应区域经双目融合得到的合成区域,其中,
③将测试立体图像在人类视觉***中形成的cyclopean图像分割成互不重叠的大小为k×k的图像块,并将所有图像块分为遮挡块、双目掩蔽块、双目融合块三种类型,然后根据图像块的类型更新 对应得到更新后的遮挡区域更新后的双目掩蔽区域更新后的双目融合区域接着获取参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域Rocc'、与对应位置的区域Rbs'、与对应位置的区域Rbf',再对 的左视点对应区域 的右视点对应区域 的左视点对应区域 的右视点对应区域Rocc'、Rbs'的左视点对应区域Rbs'的右视点对应区域Rbf'的左视点对应区域Rbf'的右视点对应区域中的所有大小为k×k的图像块分别进行奇异值分解,得到各个图像块各自对应的奇异值,其中,k大于1;
④根据与Rocc'中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qocc;根据与中所有对应位置的大小为k×k的图像块之间的奇异值距离及与中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qbs;根据与中所有对应位置的大小为k×k的图像块之间的奇异值距离及与中所有对应位置的大小为k×k的图像块之间的奇异值距离,获得的全局失真程度Qbf;
2.根据权利要求1所述的一种立体图像质量客观评价方法,其特征在于所述的步骤③的具体过程为:
③-1、将测试立体图像在人类视觉***中形成的cyclopean图像分割成互不重叠的大小为k×k的图像块,并将测试立体图像在人类视觉***中形成的cyclopean图像中的所有图像块分为遮挡块、双目掩蔽块、双目融合块三种类型,具体分类过程为:对于测试立体图像在人类视觉***中形成的cyclopean图像中的任意一个图像块,将其记为判断中是否存在属于的像素点,如果中存在属于的像素点,则将标记为遮挡块,如果中不存在属于的像素点,则再判断中是否存在属于的像素点,如果存在,则将标记为双目掩蔽块,否则,将标记为双目融合块,其中,k大于1;
③-2、将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有遮挡块构成的区域作为更新后的遮挡区域,记为将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有双目掩蔽块构成的区域作为更新后的双目掩蔽区域,记为将由测试立体图像在人类视觉***中形成的cyclopean图像中的所有双目融合块构成的区域作为更新后的双目融合区域,记为并将更新后的的左视点遮挡区域和的右视点遮挡区域、的左视点对应区域和的右视点对应区域、的左视点对应区域和的右视点对应区域分别记为和和和
③-3、将参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域记为Rocc',其中,“∪”为集合并运算符号,为参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域, 为参考立体图像在人类视觉***中形成的cyclopean图像C中与对应位置的区域,
3.根据权利要求2所述的一种立体图像质量客观评价方法,其特征在于所述的步骤③-1中k=4。
4.根据权利要求2所述的一种立体图像质量客观评价方法,其特征在于所述的步骤④的具体过程为:
④-1、计算与Rocc'中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i个遮挡块,将其记为并将Rocc'中与对应位置的第i个遮挡块记为Bi,计算与Bi之间的奇异值距离,记为Docc(i),然后统计中的所有遮挡块对应的奇异值距离作为的全局失真程度,记为Qocc,
其中,1≤i≤Nocc,Nocc表示和Rocc'中的所有遮挡块的个数,sqrt()为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,si,j表示Bi中的第j个奇异值,表示中的第j个奇异值,“||”为取绝对值符号,Docc(m)表示Docc(1),Docc(2),…,Docc(Nocc)的中值;
④-2、计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i'个双目掩蔽块,将其记为并将中与对应位置的第i'个双目掩蔽块记为计算与之间的奇异值距离,记为 然后计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i'个双目掩蔽块,将其记为并将中与对应位置的第i'个双目掩蔽块记为计算与之间的奇异值距离,记为 接着计算中的所有双目掩蔽块的奇异值距离,对于中的第i'个双目掩蔽块,将其记为并将其奇异值距离记为Dbs(i'),再统计中的所有双目掩蔽块对应的奇异值距离作为的全局失真程度,记为Qbs,其中,1≤i'≤Nbs,Nbs表示或中的所有双目掩蔽块的个数,sqrt()为求平方根函数,1≤j≤k,k亦为一个图像块中的奇异值的个数,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,min()为取最小值函数,“||”为取绝对值符号,Dbs(m)表示Dbs(1),Dbs(2),…,Dbs(Nbs)的中值;
④-3、计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i''个双目融合块,将其记为并将中与对应位置的第i''个双目融合块记为计算与之间的奇异值距离,记为 然后计算与中所有对应位置的大小为k×k的图像块之间的奇异值距离,对于中的第i''个双目融合块,将其记为并将中与对应位置的第i''个双目融合块记为计算与之间的奇异值距离,记为 接着统计中的所有双目融合块对应的奇异值距离作为的全局失真程度,记为 并统计中的所有双目融合块对应的奇异值距离作为的全局失真程度,记为 再根据和计算的全局失真程度,记为Qbf,其中,1≤i''≤Nbf,Nbf表示或中的所有双目融合块的个数,sqrt()为求平方根函数,1≤j≤k,k表示一个图像块中的奇异值的个数,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,表示中的第j个奇异值,“”为取绝对值符号,表示 的中值,表示的中值。
5.根据权利要求4所述的一种立体图像质量客观评价方法,其特征在于所述的步骤⑤中a=0,b=0.5,c=0.5。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210046292.3A CN102595185B (zh) | 2012-02-27 | 2012-02-27 | 一种立体图像质量客观评价方法 |
US13/775,197 US8953873B2 (en) | 2012-02-27 | 2013-02-24 | Method for objectively evaluating quality of stereo image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210046292.3A CN102595185B (zh) | 2012-02-27 | 2012-02-27 | 一种立体图像质量客观评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102595185A CN102595185A (zh) | 2012-07-18 |
CN102595185B true CN102595185B (zh) | 2014-06-25 |
Family
ID=46483326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210046292.3A Expired - Fee Related CN102595185B (zh) | 2012-02-27 | 2012-02-27 | 一种立体图像质量客观评价方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8953873B2 (zh) |
CN (1) | CN102595185B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104284172A (zh) * | 2013-07-04 | 2015-01-14 | 联咏科技股份有限公司 | 影像匹配方法及立体匹配*** |
CN103533343B (zh) * | 2013-09-29 | 2015-05-20 | 宁波大学 | 一种基于数字水印的立体图像质量客观评价方法 |
CN104811691B (zh) * | 2015-04-08 | 2017-07-21 | 宁波大学 | 一种基于小波变换的立体视频质量客观评价方法 |
CN105282543B (zh) * | 2015-10-26 | 2017-03-22 | 浙江科技学院 | 一种基于立体视觉感知的全盲立体图像质量客观评价方法 |
CN106683072B (zh) * | 2015-11-09 | 2020-02-21 | 上海交通大学 | 一种基于pup图的3d图像舒适度质量评价方法及*** |
CN105744264B (zh) * | 2016-02-02 | 2017-12-05 | 中国传媒大学 | 一种立体视频质量的评测方法及评测*** |
CN105959684B (zh) * | 2016-05-26 | 2019-05-14 | 天津大学 | 基于双目融合的立体图像质量评价方法 |
US11112530B2 (en) * | 2016-11-04 | 2021-09-07 | Exxonmobil Upstream Research Company | Global inversion of gravity data using the principle of general local isostasy for lithospheric modeling |
CN106791801A (zh) * | 2016-11-22 | 2017-05-31 | 深圳大学 | 一种三维图像的质量评价方法及*** |
CN109257592B (zh) * | 2017-07-12 | 2020-09-01 | 天津大学 | 基于深度学习的立体视频质量客观评价方法 |
CN110246111B (zh) * | 2018-12-07 | 2023-05-26 | 天津大学青岛海洋技术研究院 | 基于融合图像和强化图像的无参考立体图像质量评价方法 |
CN109903273B (zh) * | 2019-01-30 | 2023-03-17 | 武汉科技大学 | 一种基于dct域特征的立体图像质量客观评价方法 |
CN110517308A (zh) * | 2019-07-12 | 2019-11-29 | 重庆邮电大学 | 一种无参考非对称失真立体图像质量评价方法 |
CN112164056B (zh) * | 2020-09-30 | 2023-08-29 | 南京信息工程大学 | 基于交互式卷积神经网络的无参考立体图像质量评价方法 |
CN113834638B (zh) * | 2021-09-03 | 2024-05-24 | 大连中科创达软件有限公司 | 视场角确定方法、装置、设备及存储介质 |
CN113873223B (zh) * | 2021-09-03 | 2023-07-21 | 大连中科创达软件有限公司 | 相机清晰度确定方法、装置、设备及存储介质 |
CN114923669A (zh) * | 2022-04-08 | 2022-08-19 | 北京邮电大学 | 三维显示***的显示质量检测方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2324832A1 (en) * | 2000-10-31 | 2002-04-30 | Roger Lecomte | Real-time image reconstruction for computed tomography systems |
CN101950422A (zh) * | 2010-09-29 | 2011-01-19 | 北京航空航天大学 | 一种基于奇异值分解的图像质量评价方法 |
CN102209257A (zh) * | 2011-06-17 | 2011-10-05 | 宁波大学 | 一种立体图像质量客观评价方法 |
CN102333233A (zh) * | 2011-09-23 | 2012-01-25 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6606406B1 (en) * | 2000-05-04 | 2003-08-12 | Microsoft Corporation | System and method for progressive stereo matching of digital images |
-
2012
- 2012-02-27 CN CN201210046292.3A patent/CN102595185B/zh not_active Expired - Fee Related
-
2013
- 2013-02-24 US US13/775,197 patent/US8953873B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2324832A1 (en) * | 2000-10-31 | 2002-04-30 | Roger Lecomte | Real-time image reconstruction for computed tomography systems |
CN101950422A (zh) * | 2010-09-29 | 2011-01-19 | 北京航空航天大学 | 一种基于奇异值分解的图像质量评价方法 |
CN102209257A (zh) * | 2011-06-17 | 2011-10-05 | 宁波大学 | 一种立体图像质量客观评价方法 |
CN102333233A (zh) * | 2011-09-23 | 2012-01-25 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
Non-Patent Citations (3)
Title |
---|
Aleksandr Shnayderman,Alexander Gusev,Ahmet M.Eskicioglu.An SVD-Based Grayscale Image Quality Measure.《IEEE TRANSACTIONS ON IMAGE PROCESSING》.2006,第15卷(第2期),P422-429. |
An SVD-Based Grayscale Image Quality Measure;Aleksandr Shnayderman,Alexander Gusev,Ahmet M.Eskicioglu;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20060228;第15卷(第2期);P422-429 * |
周俊明,郁梅,蒋刚毅,彭宗举,王旭,王阿红.利用奇异值分解法的立体图像客观质量评价模型.《计算机辅助设计与图形学学报》.2011,第23卷(第5期),P870-877. * |
Also Published As
Publication number | Publication date |
---|---|
US8953873B2 (en) | 2015-02-10 |
CN102595185A (zh) | 2012-07-18 |
US20140064604A1 (en) | 2014-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102595185B (zh) | 一种立体图像质量客观评价方法 | |
Wang et al. | Quality prediction of asymmetrically distorted stereoscopic 3D images | |
CN102333233B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN103152600B (zh) | 一种立体视频质量评价方法 | |
CN103581661B (zh) | 一种立体图像视觉舒适度评价方法 | |
Xing et al. | Assessment of stereoscopic crosstalk perception | |
CN102708567B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN106303507B (zh) | 基于时空联合信息的无参考视频质量评估方法 | |
CN102750695A (zh) | 一种基于机器学习的立体图像质量客观评价方法 | |
CN103780895B (zh) | 一种立体视频质量评价方法 | |
CN104243973A (zh) | 基于感兴趣区域的视频感知质量无参考客观评价方法 | |
CN101146226A (zh) | 一种基于自适应st区的高清视频图像质量评价方法及装置 | |
Geng et al. | A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property | |
CN103873854A (zh) | 一种立体图像主观评价被试者数量及实验数据的确定方法 | |
CN104954778A (zh) | 一种基于感知特征集的立体图像质量客观评价方法 | |
CN103400378A (zh) | 基于人眼视特性的立体图像质量客观评价方法 | |
CN108337504A (zh) | 一种评价视频质量的方法及装置 | |
Zhou et al. | Utilizing binocular vision to facilitate completely blind 3D image quality measurement | |
CN103136748A (zh) | 一种基于特征图的立体图像质量客观评价方法 | |
Yang et al. | New metric for stereo image quality assessment based on HVS | |
Chen et al. | Study of subject agreement on stereoscopic video quality | |
CN110139095B (zh) | 一种裸眼3d显示模组检测方法、***和可读存储介质 | |
Jin et al. | Validation of a new full reference metric for quality assessment of mobile 3DTV content | |
CN103108209B (zh) | 基于视觉阈值与通道融合的立体图像客观质量评价方法 | |
Opozda et al. | The survey of subjective and objective methods for quality assessment of 2D and 3D images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140625 |