CN102708567A - 一种基于视觉感知的立体图像质量客观评价方法 - Google Patents

一种基于视觉感知的立体图像质量客观评价方法 Download PDF

Info

Publication number
CN102708567A
CN102708567A CN2012101440391A CN201210144039A CN102708567A CN 102708567 A CN102708567 A CN 102708567A CN 2012101440391 A CN2012101440391 A CN 2012101440391A CN 201210144039 A CN201210144039 A CN 201210144039A CN 102708567 A CN102708567 A CN 102708567A
Authority
CN
China
Prior art keywords
dis
pixel
org
coordinate position
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101440391A
Other languages
English (en)
Other versions
CN102708567B (zh
Inventor
邵枫
顾珊波
郁梅
蒋刚毅
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201210144039.1A priority Critical patent/CN102708567B/zh
Publication of CN102708567A publication Critical patent/CN102708567A/zh
Application granted granted Critical
Publication of CN102708567B publication Critical patent/CN102708567B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉感知的立体图像质量客观评价方法,其首先通过计算立体图像的左右视点图像中的每个像素点的局部相位特征和局部振幅特征以获得每个像素点的客观评价度量值,并通过区域检测方法将立体图像划分为遮挡区域、双目抑制区域、双目融合区域,然后对各个区域分别进行评价并对各评价结果进行融合得到最终的图像质量客观评价预测值,优点在于获得的反映局部相位和局部振幅特征信息具有较强的稳定性且能够较好地反映立体图像的质量变化情况,提出遮挡区域、双目抑制区域和双目融合区域的图像质量评价方法能够很好地反映人类视觉***的视觉感知特性,有效地提高客观评价结果与主观感知的相关性。

Description

一种基于视觉感知的立体图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于视觉感知的立体图像质量客观评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。由于采集***、存储压缩及传输设备的影响,立体图像会不可避免地引入一系列的失真,而与单通道图像相比,立体图像需要同时保证两个通道的图像质量,对其进行质量评价具有非常重要的意义。然而,目前对立体图像质量缺乏有效的客观评价方法进行评价。因此,建立有效的立体图像质量客观评价模型具有十分重要的意义。
目前的立体图像质量客观评价方法直接将平面图像质量评价方法直接应用于评价立体图像质量,然而,对立体图像的左右视点图像进行融合产生立体感的过程并不是简单的左右视点图像叠加的过程,还难以用简单的数学方法来表示,因此,如何在立体图像质量评价过程中有效地对双目立体融合进行模拟,如何根据人眼的视觉掩蔽特性对客观评价结果进行调制,使得客观评价结果更加感觉符合人类视觉***,都是在对立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种能够有效提高客观评价结果与主观感知的相关性的基于视觉感知的立体图像质量客观评价方法。
本发明解决上述技术问题所采用的技术方案为:一种基于视觉感知的立体图像质量客观评价方法,其特征在于包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,分别提取出{Ldis(x,y)}的双目最小可察觉变化图像和{Rdis(x,y)}的双目最小可察觉变化图像,分别记为
Figure BDA00001627411600021
Figure BDA00001627411600022
其中,
Figure BDA00001627411600023
表示{Ldis(x,y)}的双目最小可察觉变化图像
Figure BDA00001627411600024
中坐标位置为(x,y)的像素点的像素值,
Figure BDA00001627411600025
表示{Rdis(x,y)}的双目最小可察觉变化图像
Figure BDA00001627411600026
中坐标位置为(x,y)的像素点的像素值;
③利用区域检测算法,分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,记为p,其中,p∈{1,2,3},p=1表示遮挡区域,p=2表示双目抑制区域,p=3表示双目融合区域;然后将{Ldis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为
Figure BDA00001627411600027
将{Ldis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为将{Ldis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为将{Rdis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为将{Rdis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为
Figure BDA000016274116000211
将{Rdis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为
④分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,将{Lorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA00001627411600031
Figure BDA00001627411600032
将{Rorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA00001627411600033
Figure BDA00001627411600034
将{Ldis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA00001627411600035
Figure BDA00001627411600036
将{Rdis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA00001627411600038
其中,
Figure BDA00001627411600039
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA000016274116000310
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,
Figure BDA000016274116000311
表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA000016274116000312
表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,
Figure BDA000016274116000313
表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA000016274116000314
表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,
Figure BDA000016274116000315
表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA000016274116000316
表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征;
⑤根据{Lorg(x,y)}和{Ldis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Ldis(x,y)}中的每个像素点的客观评价度量值,将{Ldis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QL(x,y)}, Q L ( x , y ) = w LP × S L LP ( x , y ) + w LA × S L LA ( x , y ) + b , 根据{Rorg(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Rdis(x,y)}中的每个像素点的客观评价度量值,将{Rdis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QR(x,y)}, Q R ( x , y ) = w LP × S R LP ( x , y ) + w LA × S R LA ( x , y ) + b , 其中,QL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值, S L LP ( x , y ) = 2 × LP L org ( x , y ) × LP L dis ( x , y ) + T 1 LP L org ( x , y ) 2 + LP L dis ( x , y ) 2 + T 1 , S L LA ( x , y ) = 2 × LA L org ( x , y ) × LA L dis ( x , y ) + T 2 LA L org ( x , y ) 2 + LA L dis ( x , y ) 2 + T 2 , QR(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值, S R LP ( x , y ) = 2 × LP R org ( x , y ) × LP R dis ( x , y ) + T 1 LP R org ( x , y ) 2 + LP R dis ( x , y ) 2 + T 1 , S R LA ( x , y ) = 2 × LA R org ( x , y ) × LA R dis ( x , y ) + T 2 LA R org ( x , y ) 2 + LA R dis ( x , y ) 2 + T 2 , wLP、wLA和b为训练参数,T1和T2为控制参数;
⑥根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对遮挡区域的视觉感知特性,计算Sdis中的遮挡区域的客观评价度量值,记为Qnc Q nc = Σ ( x , y ) ∈ Ω L nc Q L ( x , y ) + Σ ( x , y ) ∈ Ω R nc Q R ( x , y ) N L nc + N R nc , 其中,
Figure BDA00001627411600044
表示{Ldis(x,y)}中区域类型为p=1的像素点的个数,
Figure BDA00001627411600045
表示{Rdis(x,y)}中区域类型为p=1的像素点的个数;
⑦根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对双目抑制区域的视觉感知特性,计算Sdis中的双目抑制区域的客观评价度量值,记为Qbs Q bs = max ( Q L bs , Q R bs ) , 其中,max()为取最大值函数, Q L bs = Σ ( x , y ) ∈ Ω L bs Q L ( x , y ) × ( 1 / J L dis ( x , y ) ) Σ ( x , y ) ∈ Ω L bs ( 1 / J L dis ( x , y ) ) , Q R bs = Σ ( x , y ) ∈ Ω R bs Q R ( x , y ) × ( 1 / J R dis ( x , y ) ) Σ ( x , y ) ∈ Ω R bs ( 1 / J R dis ( x , y ) ) ;
⑧根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对双目融合区域的视觉感知特性,计算Sdis中的双目融合区域的客观评价度量值,记为Qbf Q bf = 0.7 × ( Q L bf + Q R bf ) , 其中, Q L bf = Σ ( x , y ) ∈ Ω L bf Q L ( x , y ) × ( 1 / J L dis ( x , y ) ) Σ ( x , y ) ∈ Ω L bf ( 1 / J L dis ( x , y ) ) , Q R bf = Σ ( x , y ) ∈ Ω R bf Q R ( x , y ) × ( 1 / J R dis ( x , y ) ) Σ ( x , y ) ∈ Ω R bf ( 1 / J R dis ( x , y ) ) ;
⑨对Sdis中的遮挡区域的客观评价度量值Qnc、Sdis中的双目抑制区域的客观评价度量值Qbs和Sdis中的双目融合区域的客观评价度量值Qbf进行融合,得到Sdis的图像质量客观评价预测值,记为Q,Q=wnc×Qnc+wbs×Qbs+wbf×Qbf,其中,wnc、wbf和wbs为加权参数。
所述的步骤②的具体过程为:
②-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure BDA00001627411600051
其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
②-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07;
②-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00001627411600052
J L dis ( x , y ) = T l ( x , y ) + T c ( x , y ) ;
②-4、计算{Rdis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tr(x,y)},
Figure BDA00001627411600054
其中,Tr(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgr(x,y)表示{Rdis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
②-5、计算{Rdis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc′(x,y)},Tc′(x,y)=K(bgr(x,y))+ehr(x,y),其中,Tc′(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehr(x,y)表示对{Rdis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgr(x,y))=-10-6×(0.7×bgr(x,y)2+32×bgr(x,y))+0.07;
②-6、对{Rdis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tr(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc′(x,y)}进行融合,得到{Rdis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00001627411600061
J R dis ( x , y ) = T r ( x , y ) + T c ′ ( x , y ) .
所述的步骤③中利用区域检测算法分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型的具体过程为:
③-1、采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为其中,
Figure BDA00001627411600064
表示
Figure BDA00001627411600065
中坐标位置为(x,y)的像素点的像素值;
③-2、采用块匹配法计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为
Figure BDA00001627411600066
其中,
Figure BDA00001627411600067
表示
Figure BDA00001627411600068
中坐标位置为(x,y)的像素点的像素值;
③-3、判断
Figure BDA00001627411600069
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000610
是否为255,如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=1,然后执行步骤③-6,否则,执行步骤③-4,其中,1≤x1≤W,1≤y1≤H;
③-4、判断
Figure BDA000016274116000611
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000612
是否大于
Figure BDA000016274116000613
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000614
如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=2,然后执行步骤③-6,否则,执行步骤③-5;
③-5、判断
Figure BDA000016274116000615
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000616
是否小于或等于
Figure BDA000016274116000617
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000618
如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=3;
③-6、返回步骤③-3继续确定{Ldis(x,y)}中剩余的像素点的区域类型,直至{Ldis(x,y)}中的所有像素点的区域类型确定完毕;
③-7、采用块匹配法计算{Rorg(x,y)}与{Lorg(x,y)}之间的视差图像,记为其中,表示中坐标位置为(x,y)的像素点的像素值;
③-8、采用块匹配法计算{Rdis(x,y)}与{Ldis(x,y)}之间的视差图像,记为
Figure BDA00001627411600074
其中,
Figure BDA00001627411600075
表示
Figure BDA00001627411600076
中坐标位置为(x,y)的像素点的像素值;
③-9、判断
Figure BDA00001627411600077
中坐标位置为(x1,y1)的像素点的像素值是否为255,如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=1,然后执行步骤③-12,否则,执行步骤③-10,其中,1≤x1≤W,1≤y1≤H;
③-10、判断
Figure BDA00001627411600079
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000710
是否大于
Figure BDA000016274116000711
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000712
如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=2,然后执行步骤③-12,否则,执行步骤③-11;
③-11、判断
Figure BDA000016274116000713
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116000714
是否小于或等于
Figure BDA000016274116000715
中坐标位置为(x1,y1)的像素点的像素值如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=3;
③-12、返回步骤③-9继续确定{Rdis(x,y)}中剩余的像素点的区域类型,直至{Rdis(x,y)}中的所有像素点的区域类型确定完毕。
所述的步骤④中{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征的获取过程为:
④-1、对{Lorg(x,y)}中的每个像素点进行相位一致性变换,得到{Lorg(x,y)}中的每个像素点在不同尺度和方向的偶对称频率响应和奇对称频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和方向的偶对称频率响应记为eα,θ(x,y),将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和方向的奇对称频率响应记为oα,θ(x,y),其中,α表示滤波器的尺度因子,1≤α≤4,θ表示滤波器的方向因子,1≤θ≤4;
④-2、计算{Lorg(x,y)}中的每个像素点在不同方向的相位一致性特征,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同方向的相位一致性特征记为PCθ(x,y), PC θ ( x , y ) = E θ ( x , y ) Σ α = 1 4 A α , θ ( x , y ) , 其中, A α , θ ( x , y ) = e α , θ ( x , y ) 2 + o α , θ ( x , y ) 2 , E θ ( x , y ) = F θ ( x , y ) 2 + H θ ( x , y ) 2 , F θ ( x , y ) = Σ α = 1 4 e α , θ ( x , y ) , H θ ( x , y ) = Σ α = 1 4 o α , θ ( x , y ) ;
④-3、根据{Lorg(x,y)}中的每个像素点的最大相位一致性特征对应的方向,计算{Lorg(x,y)}中的每个像素点的局部相位特征和局部振幅特征,对于{Lorg(x,y)}中坐标位置为(x,y)的像素点,首先找出其在不同方向的相位一致性特征PCθ(x,y)中的最大相位一致性特征,其次找出该最大相位一致性特征对应的方向,记为θm,再次根据θm计算{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征和局部振幅特征,分别对应记为
Figure BDA00001627411600086
LP L org ( x , y ) = arctan ( H θ m ( x , y ) , F θ m ( x , y ) ) , LA L org ( x , y ) = Σ α = 1 4 A α , θ m ( x , y ) , 其中, F θ m ( x , y ) = Σ α = 1 4 e α , θ m ( x , y ) , H θ m ( x , y ) = Σ α = 1 4 o α , θ m ( x , y ) , A α , θ m ( x , y ) = e α , θ m ( x , y ) 2 + o α , θ m ( x , y ) 2 ,
Figure BDA000016274116000813
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和最大相位一致性特征对应的方向θm的偶对称频率响应,
Figure BDA000016274116000814
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和最大相位一致性特征对应的方向θm的奇对称频率响应,arctan()为取反余弦函数;
④-4、按照步骤④-1至步骤④-3获取{Lorg(x,y)}中的每个像素点的局部相位特征和局部振幅特征的操作,以相同的方式获取{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到不同区域对立体感知有不同的响应,将立体图像划分为遮挡区域、双目抑制区域和双目融合区域并分别进行评价,并对各评价结果进行融合得到最终的评价分值,使得评价结果更加感觉符合人类视觉***。
2)本发明方法通过计算立体图像的左右视点图像中的每个像素点的局部相位特征和局部振幅特征,以获取每个像素点的客观评价度量值,由于获得的局部相位特征和局部振幅特征具有较强的稳定性且能够较好地反映立体图像的质量变化情况,因此有效地提高了客观评价结果与主观感知的相关性。
3)本发明方法根据人眼的立体视觉特性得到双目最小可察觉变化图像,对遮挡区域、双目抑制区域和双目融合区域中的每个像素点的客观评价度量值进行不同程度的加权,使得评价结果更加感觉符合人类视觉***,提高客观评价结果与主观感知的相关性。
附图说明
图1为本发明方法的总体实现框图;
图2a为Akko(尺寸为640×480)立体图像的左视点图像;
图2b为Akko(尺寸为640×480)立体图像的右视点图像;
图3a为Altmoabit(尺寸为1024×768)立体图像的左视点图像;
图3b为Altmoabit(尺寸为1024×768)立体图像的右视点图像;
图4a为Balloons(尺寸为1024×768)立体图像的左视点图像;
图4b为Balloons(尺寸为1024×768)立体图像的右视点图像;
图5a为Doorflower(尺寸为1024×768)立体图像的左视点图像;
图5b为Doorflower(尺寸为1024×768)立体图像的右视点图像;
图6a为Kendo(尺寸为1024×768)立体图像的左视点图像;
图6b为Kendo(尺寸为1024×768)立体图像的右视点图像;
图7a为LeaveLaptop(尺寸为1024×768)立体图像的左视点图像;
图7b为LeaveLaptop(尺寸为1024×768)立体图像的右视点图像;
图8a为Lovebierd1(尺寸为1024×768)立体图像的左视点图像;
图8b为Lovebierd1(尺寸为1024×768)立体图像的右视点图像;
图9a为Newspaper(尺寸为1024×768)立体图像的左视点图像;
图9b为Newspaper(尺寸为1024×768)立体图像的右视点图像;
图10a为Puppy(尺寸为720×480)立体图像的左视点图像;
图10b为Puppy(尺寸为720×480)立体图像的右视点图像;
图11a为Soccer2(尺寸为720×480)立体图像的左视点图像;
图11b为Soccer2(尺寸为720×480)立体图像的右视点图像;
图12a为Horse(尺寸为720×480)立体图像的左视点图像;
图12b为Horse(尺寸为720×480)立体图像的右视点图像;
图13a为Xmas(尺寸为640×480)立体图像的左视点图像;
图13b为Xmas(尺寸为640×480)立体图像的右视点图像;
图14为失真立体图像集合中各个失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于视觉感知的立体图像质量客观评价方法,其总体实现框图如图1所示,其包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②人类视觉特性表明,人眼对图像中变化较小的属性或噪声是不可感知的,除非该属性或噪声的变化强度超过某一阈值,该阈值就是最小可察觉失真(Just noticeabledifference,JND)。然而人眼的视觉掩蔽效应是一种局部效应,其受背景照度、纹理复杂度等因素的影响,背景越亮,纹理越复杂,界限值就越高。因此本发明利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,分别提取出{Ldis(x,y)}的双目最小可察觉变化图像和{Rdis(x,y)}的双目最小可察觉变化图像,分别记为
Figure BDA00001627411600111
Figure BDA00001627411600112
其中,表示{Ldis(x,y)}的双目最小可察觉变化图像
Figure BDA00001627411600114
中坐标位置为(x,y)的像素点的像素值,
Figure BDA00001627411600115
表示{Rdis(x,y)}的双目最小可察觉变化图像中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤②的具体过程为:
②-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值。
②-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07。
②-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00001627411600118
J L dis ( x , y ) = T l ( x , y ) + T c ( x , y ) .
②-4、计算{Rdis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tr(x,y)},
Figure BDA000016274116001110
其中,Tr(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgr(x,y)表示{Rdis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值。
②-5、计算{Rdis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc′(x,y)},Tc′(x,y)=K(bgr(x,y))+ehr(x,y),其中,Tc′(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehr(x,y)表示对{Rdis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgr(x,y))=-10-6×(0.7×bgr(x,y)2+32×bgr(x,y))+0.07。
②-6、对{Rdis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tr(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc′(x,y)}进行融合,得到{Rdis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00001627411600121
J R dis ( x , y ) = T r ( x , y ) + T c ′ ( x , y ) .
③利用区域检测算法,分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,记为p,其中,p∈{1,2,3},p=1表示遮挡区域,p=2表示双目抑制区域,p=3表示双目融合区域;然后将{Ldis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为
Figure BDA00001627411600123
将{Ldis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为将{Ldis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为
Figure BDA00001627411600125
将{Rdis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为
Figure BDA00001627411600126
将{Rdis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为
Figure BDA00001627411600127
将{Rdis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为
Figure BDA00001627411600128
在此具体实施例中,步骤③中利用区域检测算法分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型的具体过程为:
③-1、采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为
Figure BDA00001627411600129
其中,表示
Figure BDA00001627411600132
中坐标位置为(x,y)的像素点的像素值。
③-2、采用块匹配法计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为
Figure BDA00001627411600133
其中,
Figure BDA00001627411600134
表示
Figure BDA00001627411600135
中坐标位置为(x,y)的像素点的像素值。
③-3、判断中坐标位置为(x1,y1)的像素点的像素值是否为255,如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=1,然后执行步骤③-6,否则,执行步骤③-4,其中,1≤x1≤W,1≤y1≤H。
③-4、判断
Figure BDA00001627411600138
中坐标位置为(x1,y1)的像素点的像素值是否大于
Figure BDA000016274116001310
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116001311
如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=2,然后执行步骤③-6,否则,执行步骤③-5。
③-5、判断中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116001313
是否小于或等于
Figure BDA000016274116001314
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116001315
如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=3。
③-6、返回步骤③-3继续确定{Ldis(x,y)}中剩余的像素点的区域类型,直至{Ldis(x,y)}中的所有像素点的区域类型确定完毕。
③-7、采用块匹配法计算{Rorg(x,y)}与{Lorg(x,y)}之间的视差图像,记为
Figure BDA000016274116001316
其中,表示
Figure BDA000016274116001318
中坐标位置为(x,y)的像素点的像素值。
③-8、采用块匹配法计算{Rdis(x,y)}与{Ldis(x,y)}之间的视差图像,记为其中,
Figure BDA000016274116001320
表示
Figure BDA000016274116001321
中坐标位置为(x,y)的像素点的像素值。
③-9、判断
Figure BDA000016274116001322
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA000016274116001323
是否为255,如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=1,然后执行步骤③-12,否则,执行步骤③-10,其中,1≤x1≤W,1≤y1≤H。
③-10、判断
Figure BDA00001627411600141
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA00001627411600142
是否大于
Figure BDA00001627411600143
中坐标位置为(x1,y1)的像素点的像素值如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=2,然后执行步骤③-12,否则,执行步骤③-11。
③-11、判断中坐标位置为(x1,y1)的像素点的像素值
Figure BDA00001627411600146
是否小于或等于
Figure BDA00001627411600147
中坐标位置为(x1,y1)的像素点的像素值
Figure BDA00001627411600148
如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=3。
③-12、返回步骤③-9继续确定{Rdis(x,y)}中剩余的像素点的区域类型,直至{Rdis(x,y)}中的所有像素点的区域类型确定完毕。
在此,块匹配法采用现有的经典的块匹配法,其基本思想是将图像分成小块,对左视点图像(右视点图像)的每一小块,在右视点图像(左视点图像)中寻找相关性最大的小块,两个小块之间的空间位移量就是视差。
④分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,将{Lorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA00001627411600149
Figure BDA000016274116001410
将{Rorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA000016274116001411
Figure BDA000016274116001412
将{Ldis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA000016274116001413
Figure BDA000016274116001414
将{Rdis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure BDA000016274116001416
其中,
Figure BDA000016274116001417
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA000016274116001418
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,
Figure BDA000016274116001421
表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA000016274116001422
表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure BDA00001627411600152
表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征。
在此具体实施例中,步骤④中{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征的获取过程为:
④-1、对{Lorg(x,y)}中的每个像素点进行相位一致性变换,得到{Lorg(x,y)}中的每个像素点在不同尺度和方向的偶对称频率响应和奇对称频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和方向的偶对称频率响应记为eα,θ(x,y),将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和方向的奇对称频率响应记为oα,θ(x,y),其中,α表示滤波器的尺度因子,1≤α≤4,θ表示滤波器的方向因子,1≤θ≤4。
④-2、计算{Lorg(x,y)}中的每个像素点在不同方向的相位一致性特征,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同方向的相位一致性特征记为PCθ(x,y), PC θ ( x , y ) = E θ ( x , y ) Σ α = 1 4 A α , θ ( x , y ) , 其中, A α , θ ( x , y ) = e α , θ ( x , y ) 2 + o α , θ ( x , y ) 2 , E θ ( x , y ) = F θ ( x , y ) 2 + H θ ( x , y ) 2 , F θ ( x , y ) = Σ α = 1 4 e α , θ ( x , y ) , H θ ( x , y ) = Σ α = 1 4 o α , θ ( x , y ) .
④-3、根据{Lorg(x,y)}中的每个像素点的最大相位一致性特征对应的方向,计算{Lorg(x,y)}中的每个像素点的局部相位特征和局部振幅特征,对于{Lorg(x,y)}中坐标位置为(x,y)的像素点,首先找出其在不同方向的相位一致性特征PCθ(x,y)中的最大相位一致性特征,其次找出该最大相位一致性特征对应的方向,记为θm,再次根据θm计算{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征和局部振幅特征,分别对应记为
Figure BDA00001627411600158
Figure BDA00001627411600159
LP L org ( x , y ) = arctan ( H θ m ( x , y ) , F θ m ( x , y ) ) , LA L org ( x , y ) = Σ α = 1 4 A α , θ m ( x , y ) , 其中, F θ m ( x , y ) = Σ α = 1 4 e α , θ m ( x , y ) , H θ m ( x , y ) = Σ α = 1 4 o α , θ m ( x , y ) , A α , θ m ( x , y ) = e α , θ m ( x , y ) 2 + o α , θ m ( x , y ) 2 , 表示{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和最大相位一致性特征对应的方向θm的偶对称频率响应,表示{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和最大相位一致性特征对应的方向θm的奇对称频率响应,arctan()为取反余弦函数。
④-4、按照步骤④-1至步骤④-3获取{Lorg(x,y)}中的每个像素点的局部相位特征和局部振幅特征的操作,以相同的方式获取{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征。
⑤根据{Lorg(x,y)}和{Ldis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Ldis(x,y)}中的每个像素点的客观评价度量值,将{Ldis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QL(x,y)}, Q L ( x , y ) = w LP × S L LP ( x , y ) + w LA × S L LA ( x , y ) + b , 根据{Rorg(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Rdis(x,y)}中的每个像素点的客观评价度量值,将{Rdis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QR(x,y)}, Q R ( x , y ) = w LP × S R LP ( x , y ) + w LA × S R LA ( x , y ) + b , 其中,QL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值, S L LP ( x , y ) = 2 × LP L org ( x , y ) × LP L dis ( x , y ) + T 1 LP L org ( x , y ) 2 + LP L dis ( x , y ) 2 + T 1 , S L LA ( x , y ) = 2 × LA L org ( x , y ) × LA L dis ( x , y ) + T 2 LA L org ( x , y ) 2 + LA L dis ( x , y ) 2 + T 2 , QR(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值, S R LP ( x , y ) = 2 × LP R org ( x , y ) × LP R dis ( x , y ) + T 1 LP R org ( x , y ) 2 + LP R dis ( x , y ) 2 + T 1 , S R LA ( x , y ) = 2 × LA R org ( x , y ) × LA R dis ( x , y ) + T 2 LA R org ( x , y ) 2 + LA R dis ( x , y ) 2 + T 2 , wLP、wLA和b为训练参数,T1和T2为控制参数。
在此具体实施例中,根据局部相位特征和局部振幅特征对立体图像质量变化的不同影响,取wLP=0.9834、wLA=0.2915、b=0,取T1=0.85、T2=160。
⑥遮挡区域主要是由失真的立体图像中视差匹配不成功的像素所构成的,包括左视点图像的遮挡区域和右视点图像的遮挡区域,人类视觉特性***对该遮挡区域的感知主要是单目视觉起主要作用。因此本发明根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对遮挡区域的视觉感知特性,计算Sdis中的遮挡区域的客观评价度量值,记为Qnc Q nc = Σ ( x , y ) ∈ Ω L nc Q L ( x , y ) + Σ ( x , y ) ∈ Ω R nc Q R ( x , y ) N L nc + N R nc , 其中,
Figure BDA00001627411600172
表示{Ldis(x,y)}中区域类型为p=1的像素点的个数,
Figure BDA00001627411600173
表示{Rdis(x,y)}中区域类型为p=1的像素点的个数。
⑦人类视觉***特性表明,如果左右眼视网膜对应区域的图像内容差异较大或者两者之间的视差值较大,则人类视觉***往往无法进行对两眼冲突的信息进行双目融合操作,转至双目掩蔽处理,在双目掩蔽处理过程中,质量高的视点往往会抑制低质量的视点。因此本发明根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对双目抑制区域的视觉感知特性,计算Sdis中的双目抑制区域的客观评价度量值,记为Qbs
Figure BDA00001627411600174
其中,max()为取最大值函数, Q L bs = Σ ( x , y ) ∈ Ω L bs Q L ( x , y ) × ( 1 / J L dis ( x , y ) ) Σ ( x , y ) ∈ Ω L bs ( 1 / J L dis ( x , y ) ) , Q R bs = Σ ( x , y ) ∈ Ω R bs Q R ( x , y ) × ( 1 / J R dis ( x , y ) ) Σ ( x , y ) ∈ Ω R bs ( 1 / J R dis ( x , y ) ) .
⑧人类视觉特性表明,如果左右眼视网膜对应区域的图像内容差异较小,则人类视觉***会对该区域进行双目叠加(融合)操作,从而导致双眼对该区域的视觉敏感度是单眼的1.4倍。因此本发明根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对双目融合区域的视觉感知特性,计算Sdis中的双目融合区域的客观评价度量值,记为Qbf Q bf = 0.7 × ( Q L bf + Q R bf ) , 其中, Q L bf = Σ ( x , y ) ∈ Ω L bf Q L ( x , y ) × ( 1 / J L dis ( x , y ) ) Σ ( x , y ) ∈ Ω L bf ( 1 / J L dis ( x , y ) ) , Q R bf = Σ ( x , y ) ∈ Ω R bf Q R ( x , y ) × ( 1 / J R dis ( x , y ) ) Σ ( x , y ) ∈ Ω R bf ( 1 / J R dis ( x , y ) ) .
⑨对Sdis中的遮挡区域的客观评价度量值Qnc、Sdis中的双目抑制区域的客观评价度量值Qbs和Sdis中的双目融合区域的客观评价度量值Qbf进行融合,得到Sdis的图像质量客观评价预测值,记为Q,Q=wnc×Qnc+wbs×Qbs+wbf×Qbf,其中,wnc、wbf和wbs为加权参数。在此具体实施例中,取wnc=0.1163、wbf=0.4119和wbs=0.4718。
在本实施例中,利用图2a和图2b、图3a和图3b、图4a和图4b、图5a和图5b、图6a和图6b、图7a和图7b、图8a和图8b、图9a和图9b、图10a和图10b、图11a和图11b、图12a和图12b、图13a和图13b所示的12幅无失真的立体图像建立其在不同程度的JPEG压缩、JPEG2000压缩、高斯模糊、白噪声和H.264编码失真情况下的312幅失真的立体图像来分析通过本发明方法得到的失真的立体图像Sdis的图像质量客观评价预测值与平均主观评分差值之间的相关性,其中JPEG压缩的失真的立体图像共60幅,JPEG2000压缩的失真的立体图像共60幅,高斯模糊(Gaussian Blur)的失真的立体图像共60幅,白噪声(White Noise)的失真的立体图像共60幅,H.264编码的失真的立体图像共72幅。并利用现有的主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100]。
在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC),Kendall相关系数(Kendall rank-order correlation coefficient,KROCC),均方误差(root mean squarederror,RMSE),PLCC和RMSE反映失真的立体图像评价客观模型的准确性,SROCC和KROCC反映其单调性。将按本发明方法计算得到的失真的立体图像的图像质量客观评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高,RMSE值越低说明客观评价方法与平均主观评分差值相关性越好。反映立体图像客观评价模型性能的PLCC、SROCC、KROCC和RMSE系数如表1所示,从表1所列的数据可知,按本发明方法得到的失真的立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很高的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
图14给出了失真立体图像集合中各个失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观模型与主观感知的一致性越好。从图14中可以看出,采用本发明方法得到的散点图比较集中,与主观评价数据之间的吻合度较高。
表1利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的相关性
Figure BDA00001627411600191

Claims (4)

1.一种基于视觉感知的立体图像质量客观评价方法,其特征在于包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,分别提取出{Ldis(x,y)}的双目最小可察觉变化图像和{Rdis(x,y)}的双目最小可察觉变化图像,分别记为
Figure FDA00001627411500011
其中,
Figure FDA00001627411500013
表示{Ldis(x,y)}的双目最小可察觉变化图像
Figure FDA00001627411500014
中坐标位置为(x,y)的像素点的像素值,
Figure FDA00001627411500015
表示{Rdis(x,y)}的双目最小可察觉变化图像
Figure FDA00001627411500016
中坐标位置为(x,y)的像素点的像素值;
③利用区域检测算法,分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,记为p,其中,p∈{1,2,3},p=1表示遮挡区域,p=2表示双目抑制区域,p=3表示双目融合区域;然后将{Ldis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为
Figure FDA00001627411500017
将{Ldis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为
Figure FDA00001627411500018
将{Ldis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为
Figure FDA00001627411500019
将{Rdis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为
Figure FDA000016274115000110
将{Rdis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为
Figure FDA000016274115000111
将{Rdis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为
Figure FDA00001627411500021
④分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,将{Lorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure FDA00001627411500022
Figure FDA00001627411500023
将{Rorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure FDA00001627411500024
Figure FDA00001627411500025
将{Ldis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure FDA00001627411500027
将{Rdis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为
Figure FDA00001627411500028
Figure FDA00001627411500029
其中,
Figure FDA000016274115000210
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure FDA000016274115000211
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure FDA000016274115000213
表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,
Figure FDA000016274115000214
表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,
Figure FDA000016274115000217
表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征;
⑤根据{Lorg(x,y)}和{Ldis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Ldis(x,y)}中的每个像素点的客观评价度量值,将{Ldis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QL(x,y)}, Q L ( x , y ) = w LP × S L LP ( x , y ) + w LA × S L LA ( x , y ) + b , 根据{Rorg(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Rdis(x,y)}中的每个像素点的客观评价度量值,将{Rdis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QR(x,y)}, Q R ( x , y ) = w LP × S R LP ( x , y ) + w LA × S R LA ( x , y ) + b , 其中,QL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值, S L LP ( x , y ) = 2 × LP L org ( x , y ) × LP L dis ( x , y ) + T 1 LP L org ( x , y ) 2 + LP L dis ( x , y ) 2 + T 1 , S L LA ( x , y ) = 2 × LA L org ( x , y ) × LA L dis ( x , y ) + T 2 LA L org ( x , y ) 2 + LA L dis ( x , y ) 2 + T 2 , QR(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值, S R LP ( x , y ) = 2 × LP R org ( x , y ) × LP R dis ( x , y ) + T 1 LP R org ( x , y ) 2 + LP R dis ( x , y ) 2 + T 1 , S R LA ( x , y ) = 2 × LA R org ( x , y ) × LA R dis ( x , y ) + T 2 LA R org ( x , y ) 2 + LA R dis ( x , y ) 2 + T 2 , wLP、wLA和b为训练参数,T1和T2为控制参数;
⑥根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对遮挡区域的视觉感知特性,计算Sdis中的遮挡区域的客观评价度量值,记为Qnc Q nc = Σ ( x , y ) ∈ Ω L nc Q L ( x , y ) + Σ ( x , y ) ∈ Ω R nc Q R ( x , y ) N L nc + N R nc , 其中,
Figure FDA00001627411500036
表示{Ldis(x,y)}中区域类型为p=1的像素点的个数,
Figure FDA00001627411500037
表示{Rdis(x,y)}中区域类型为p=1的像素点的个数;
⑦根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对双目抑制区域的视觉感知特性,计算Sdis中的双目抑制区域的客观评价度量值,记为Qbs Q bs = max ( Q L bs , Q R bs ) , 其中,max()为取最大值函数, Q L bs = Σ ( x , y ) ∈ Ω L bs Q L ( x , y ) × ( 1 / J L dis ( x , y ) ) Σ ( x , y ) ∈ Ω L bs ( 1 / J L dis ( x , y ) ) , Q R bs = Σ ( x , y ) ∈ Ω R bs Q R ( x , y ) × ( 1 / J R dis ( x , y ) ) Σ ( x , y ) ∈ Ω R bs ( 1 / J R dis ( x , y ) ) ;
⑧根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉***对双目融合区域的视觉感知特性,计算Sdis中的双目融合区域的客观评价度量值,记为Qbf Q bf = 0.7 × ( Q L bf + Q R bf ) , 其中, Q L bf = Σ ( x , y ) ∈ Ω L bf Q L ( x , y ) × ( 1 / J L dis ( x , y ) ) Σ ( x , y ) ∈ Ω L bf ( 1 / J L dis ( x , y ) ) , Q R bf = Σ ( x , y ) ∈ Ω R bf Q R ( x , y ) × ( 1 / J R dis ( x , y ) ) Σ ( x , y ) ∈ Ω R bf ( 1 / J R dis ( x , y ) ) ;
⑨对Sdis中的遮挡区域的客观评价度量值Qnc、Sdis中的双目抑制区域的客观评价度量值Qbs和Sdis中的双目融合区域的客观评价度量值Qbf进行融合,得到Sdis的图像质量客观评价预测值,记为Q,Q=wnc×Qnc+wbs×Qbs+wbf×Qbf,其中,wnc、wbf和wbs为加权参数。
2.根据权利要求1所述的一种基于视觉感知的立体图像质量客观评价方法,其特征在于所述的步骤②的具体过程为:
②-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure FDA00001627411500041
其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
②-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07;
②-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为 J L dis ( x , y ) = T l ( x , y ) + T c ( x , y ) ;
②-4、计算{Rdis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tr(x,y)},
Figure FDA00001627411500044
其中,Tr(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgr(x,y)表示{Rdis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
②-5、计算{Rdis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc′(x,y)},Tc′(x,y)=K(bgr(x,y))+ehr(x,y),其中,Tc′(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehr(x,y)表示对{Rdis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgr(x,y))=-10-6×(0.7×bgr(x,y)2+32×bgr(x,y))+0.07;
②-6、对{Rdis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tr(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc′(x,y)}进行融合,得到{Rdis(x,y)}的双目最小可察觉变化图像,记为
Figure FDA00001627411500051
J R dis ( x , y ) = T r ( x , y ) + T c ′ ( x , y ) .
3.根据权利要求1或2所述的一种基于视觉感知的立体图像质量客观评价方法,其特征在于所述的步骤③中利用区域检测算法分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型的具体过程为:
③-1、采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为
Figure FDA00001627411500053
其中,
Figure FDA00001627411500054
表示
Figure FDA00001627411500055
中坐标位置为(x,y)的像素点的像素值;
③-2、采用块匹配法计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为
Figure FDA00001627411500056
其中,
Figure FDA00001627411500057
表示
Figure FDA00001627411500058
中坐标位置为(x,y)的像素点的像素值;
③-3、判断
Figure FDA00001627411500059
中坐标位置为(x1,y1)的像素点的像素值是否为255,如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=1,然后执行步骤③-6,否则,执行步骤③-4,其中,1≤x1≤W,1≤y1≤H;
③-4、判断中坐标位置为(x1,y1)的像素点的像素值
Figure FDA000016274115000512
是否大于中坐标位置为(x1,y1)的像素点的像素值
Figure FDA000016274115000514
如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=2,然后执行步骤③-6,否则,执行步骤③-5;
③-5、判断中坐标位置为(x1,y1)的像素点的像素值
Figure FDA00001627411500062
是否小于或等于中坐标位置为(x1,y1)的像素点的像素值如果是,则将{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=3;
③-6、返回步骤③-3继续确定{Ldis(x,y)}中剩余的像素点的区域类型,直至{Ldis(x,y)}中的所有像素点的区域类型确定完毕;
③-7、采用块匹配法计算{Rorg(x,y)}与{Lorg(x,y)}之间的视差图像,记为其中,
Figure FDA00001627411500066
表示中坐标位置为(x,y)的像素点的像素值;
③-8、采用块匹配法计算{Rdis(x,y)}与{Ldis(x,y)}之间的视差图像,记为其中,
Figure FDA00001627411500069
表示
Figure FDA000016274115000610
中坐标位置为(x,y)的像素点的像素值;
③-9、判断
Figure FDA000016274115000611
中坐标位置为(x1,y1)的像素点的像素值是否为255,如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=1,然后执行步骤③-12,否则,执行步骤③-10,其中,1≤x1≤W,1≤y1≤H;
③-10、判断
Figure FDA000016274115000613
中坐标位置为(x1,y1)的像素点的像素值是否大于
Figure FDA000016274115000615
中坐标位置为(x1,y1)的像素点的像素值
Figure FDA000016274115000616
如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=2,然后执行步骤③-12,否则,执行步骤③-11;
③-11、判断
Figure FDA000016274115000617
中坐标位置为(x1,y1)的像素点的像素值
Figure FDA000016274115000618
是否小于或等于
Figure FDA000016274115000619
中坐标位置为(x1,y1)的像素点的像素值
Figure FDA000016274115000620
如果是,则将{Rdis(x,y)}中坐标位置为(x1,y1)的像素点的区域类型标记为p=3;
③-12、返回步骤③-9继续确定{Rdis(x,y)}中剩余的像素点的区域类型,直至{Rdis(x,y)}中的所有像素点的区域类型确定完毕。
4.根据权利要求3所述的一种基于视觉感知的立体图像质量客观评价方法,其特征在于所述的步骤④中{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征的获取过程为:
④-1、对{Lorg(x,y)}中的每个像素点进行相位一致性变换,得到{Lorg(x,y)}中的每个像素点在不同尺度和方向的偶对称频率响应和奇对称频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和方向的偶对称频率响应记为eα,θ(x,y),将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和方向的奇对称频率响应记为oα,θ(x,y),其中,α表示滤波器的尺度因子,1≤α≤4,θ表示滤波器的方向因子,1≤θ≤4;
④-2、计算{Lorg(x,y)}中的每个像素点在不同方向的相位一致性特征,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同方向的相位一致性特征记为PCθ(x,y), PC θ ( x , y ) = E θ ( x , y ) Σ α = 1 4 A α , θ ( x , y ) , 其中, A α , θ ( x , y ) = e α , θ ( x , y ) 2 + o α , θ ( x , y ) 2 , E θ ( x , y ) = F θ ( x , y ) 2 + H θ ( x , y ) 2 , F θ ( x , y ) = Σ α = 1 4 e α , θ ( x , y ) , H θ ( x , y ) = Σ α = 1 4 o α , θ ( x , y ) ;
④-3、根据{Lorg(x,y)}中的每个像素点的最大相位一致性特征对应的方向,计算{Lorg(x,y)}中的每个像素点的局部相位特征和局部振幅特征,对于{Lorg(x,y)}中坐标位置为(x,y)的像素点,首先找出其在不同方向的相位一致性特征PCθ(x,y)中的最大相位一致性特征,其次找出该最大相位一致性特征对应的方向,记为θm,再次根据θm计算{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征和局部振幅特征,分别对应记为
Figure FDA00001627411500076
Figure FDA00001627411500077
LP L org ( x , y ) = arctan ( H θ m ( x , y ) , F θ m ( x , y ) ) , LA L org ( x , y ) = Σ α = 1 4 A α , θ m ( x , y ) , 其中, F θ m ( x , y ) = Σ α = 1 4 e α , θ m ( x , y ) , H θ m ( x , y ) = Σ α = 1 4 o α , θ m ( x , y ) , A α , θ m ( x , y ) = e α , θ m ( x , y ) 2 + o α , θ m ( x , y ) 2 ,
Figure FDA000016274115000713
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和最大相位一致性特征对应的方向θm的偶对称频率响应,
Figure FDA000016274115000714
表示{Lorg(x,y)}中坐标位置为(x,y)的像素点在不同尺度和最大相位一致性特征对应的方向θm的奇对称频率响应,arctan()为取反余弦函数;
④-4、按照步骤④-1至步骤④-3获取{Lorg(x,y)}中的每个像素点的局部相位特征和局部振幅特征的操作,以相同的方式获取{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征。
CN201210144039.1A 2012-05-11 2012-05-11 一种基于视觉感知的立体图像质量客观评价方法 Expired - Fee Related CN102708567B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210144039.1A CN102708567B (zh) 2012-05-11 2012-05-11 一种基于视觉感知的立体图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210144039.1A CN102708567B (zh) 2012-05-11 2012-05-11 一种基于视觉感知的立体图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN102708567A true CN102708567A (zh) 2012-10-03
CN102708567B CN102708567B (zh) 2014-12-10

Family

ID=46901287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210144039.1A Expired - Fee Related CN102708567B (zh) 2012-05-11 2012-05-11 一种基于视觉感知的立体图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN102708567B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103108209A (zh) * 2012-12-28 2013-05-15 宁波大学 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN103413298A (zh) * 2013-07-17 2013-11-27 宁波大学 一种基于视觉特性的立体图像质量客观评价方法
CN103914835A (zh) * 2014-03-20 2014-07-09 宁波大学 一种针对模糊失真立体图像的无参考质量评价方法
WO2014113915A1 (en) * 2013-01-22 2014-07-31 Silicon Image, Inc. Mechanism for facilitating dynamic phase detection with high jitter tolerance for images of media streams
CN104574399A (zh) * 2015-01-06 2015-04-29 天津大学 基于多尺度视觉显著性与梯度幅值的图像质量评价方法
CN105376563A (zh) * 2015-11-17 2016-03-02 浙江科技学院 基于双目融合特征相似度的无参考立体图像质量评价方法
CN105828061A (zh) * 2016-05-11 2016-08-03 宁波大学 一种基于视觉掩蔽效应的虚拟视点质量评价方法
CN106022362A (zh) * 2016-05-13 2016-10-12 天津大学 针对jpeg2000压缩失真的无参考图像质量客观评价方法
CN113362315A (zh) * 2021-06-22 2021-09-07 中国科学技术大学 基于多算法融合的图像质量评价方法及评价模型

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050089246A1 (en) * 2003-10-27 2005-04-28 Huitao Luo Assessing image quality
WO2008115410A2 (en) * 2007-03-16 2008-09-25 Sti Medical Systems, Llc A method to provide automated quality feedback to imaging devices to achieve standardized imaging data
US20090116713A1 (en) * 2007-10-18 2009-05-07 Michelle Xiao-Hong Yan Method and system for human vision model guided medical image quality assessment
CN101833766A (zh) * 2010-05-11 2010-09-15 天津大学 基于gssim的立体图像客观质量评价算法
CN101841726A (zh) * 2010-05-24 2010-09-22 宁波大学 一种立体视频非对称编码方法
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102271279A (zh) * 2011-07-22 2011-12-07 宁波大学 一种立体图像的最小可察觉变化步长的客观分析方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050089246A1 (en) * 2003-10-27 2005-04-28 Huitao Luo Assessing image quality
WO2008115410A2 (en) * 2007-03-16 2008-09-25 Sti Medical Systems, Llc A method to provide automated quality feedback to imaging devices to achieve standardized imaging data
US20090116713A1 (en) * 2007-10-18 2009-05-07 Michelle Xiao-Hong Yan Method and system for human vision model guided medical image quality assessment
CN101833766A (zh) * 2010-05-11 2010-09-15 天津大学 基于gssim的立体图像客观质量评价算法
CN101841726A (zh) * 2010-05-24 2010-09-22 宁波大学 一种立体视频非对称编码方法
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102271279A (zh) * 2011-07-22 2011-12-07 宁波大学 一种立体图像的最小可察觉变化步长的客观分析方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103108209B (zh) * 2012-12-28 2015-03-11 宁波大学 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN103108209A (zh) * 2012-12-28 2013-05-15 宁波大学 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN105122305A (zh) * 2013-01-22 2015-12-02 美国莱迪思半导体公司 用于助益有对媒体流的图像的高抖动容限的动态相位检测的机制
WO2014113915A1 (en) * 2013-01-22 2014-07-31 Silicon Image, Inc. Mechanism for facilitating dynamic phase detection with high jitter tolerance for images of media streams
US8941780B2 (en) 2013-01-22 2015-01-27 Silicon Image, Inc. Mechanism for facilitating dynamic phase detection with high jitter tolerance for images of media streams
CN105122305B (zh) * 2013-01-22 2018-10-30 美国莱迪思半导体公司 用于助益有对媒体流的图像的高抖动容限的动态相位检测的机制
US9392145B2 (en) 2013-01-22 2016-07-12 Lattice Semiconductor Corporation Mechanism for facilitating dynamic phase detection with high jitter tolerance for images of media streams
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103413298B (zh) * 2013-07-17 2016-02-24 宁波大学 一种基于视觉特性的立体图像质量客观评价方法
CN103413298A (zh) * 2013-07-17 2013-11-27 宁波大学 一种基于视觉特性的立体图像质量客观评价方法
CN103914835A (zh) * 2014-03-20 2014-07-09 宁波大学 一种针对模糊失真立体图像的无参考质量评价方法
CN103914835B (zh) * 2014-03-20 2016-08-17 宁波大学 一种针对模糊失真立体图像的无参考质量评价方法
CN104574399A (zh) * 2015-01-06 2015-04-29 天津大学 基于多尺度视觉显著性与梯度幅值的图像质量评价方法
CN105376563A (zh) * 2015-11-17 2016-03-02 浙江科技学院 基于双目融合特征相似度的无参考立体图像质量评价方法
CN105828061A (zh) * 2016-05-11 2016-08-03 宁波大学 一种基于视觉掩蔽效应的虚拟视点质量评价方法
CN106022362A (zh) * 2016-05-13 2016-10-12 天津大学 针对jpeg2000压缩失真的无参考图像质量客观评价方法
CN113362315A (zh) * 2021-06-22 2021-09-07 中国科学技术大学 基于多算法融合的图像质量评价方法及评价模型

Also Published As

Publication number Publication date
CN102708567B (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN102595185B (zh) 一种立体图像质量客观评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN103413298B (zh) 一种基于视觉特性的立体图像质量客观评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN103136748B (zh) 一种基于特征图的立体图像质量客观评价方法
CN102843572B (zh) 一种基于相位的立体图像质量客观评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN103400378A (zh) 基于人眼视特性的立体图像质量客观评价方法
CN102999911B (zh) 一种基于能量图的立体图像质量客观评价方法
CN104202594A (zh) 一种基于三维小波变换的视频质量评价方法
CN103369348B (zh) 一种基于区域重要性分类的立体图像质量客观评价方法
CN102903107A (zh) 一种基于特征融合的立体图像质量客观评价方法
CN103745457B (zh) 一种立体图像客观质量评价方法
CN102999912B (zh) 一种基于失真图的立体图像质量客观评价方法
CN103108209B (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN102737380B (zh) 一种基于梯度结构张量的立体图像质量客观评价方法
CN102708568A (zh) 一种基于结构失真的立体图像客观质量评价方法
CN104243974B (zh) 一种基于三维离散余弦变换的立体视频质量客观评价方法
CN103914835A (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN105898279A (zh) 一种立体图像质量客观评价方法
CN103200420A (zh) 一种基于三维视觉注意力的立体图像质量客观评价方法
CN105069794A (zh) 一种基于双目竞争的全盲立体图像质量评价方法
CN102271279B (zh) 一种立体图像的最小可察觉变化步长的客观分析方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141210

Termination date: 20170511