CN105744256A - 基于图谱视觉显著的立体图像质量客观评价方法 - Google Patents

基于图谱视觉显著的立体图像质量客观评价方法 Download PDF

Info

Publication number
CN105744256A
CN105744256A CN201610201230.3A CN201610201230A CN105744256A CN 105744256 A CN105744256 A CN 105744256A CN 201610201230 A CN201610201230 A CN 201610201230A CN 105744256 A CN105744256 A CN 105744256A
Authority
CN
China
Prior art keywords
image
sigma
pixel
quality
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610201230.3A
Other languages
English (en)
Other versions
CN105744256B (zh
Inventor
李素梅
朱兆琪
徐姝宁
侯春萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201610201230.3A priority Critical patent/CN105744256B/zh
Publication of CN105744256A publication Critical patent/CN105744256A/zh
Application granted granted Critical
Publication of CN105744256B publication Critical patent/CN105744256B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明属于图像处理领域,为实现客观评价的结果与主观评测的一致性更高,同时在一定程度上推动立体成像技术的发展。本发明采用的技术方案是,基于图谱视觉显著的立体图像质量客观评价方法,步骤如下:1)采用结构相似度算法SSIM,计算参考右图像和右图像的亮度、对比度和结构的比较函数;2)通过特征图技术方法改进提出的GBVS(Graph?based Visual Saliency)图谱显著计算模型计算失真图像显著特征;3)将1)中得到的图像质量权值与2)中得到的失真图像显著图加权计算。本发明主要应用于图像处理。

Description

基于图谱视觉显著的立体图像质量客观评价方法
技术领域
本发明属于图像处理领域,涉及图像质量评价方法改进优化,尤其是涉及一种基于图谱显著性的立体图像质量客观评价方法。
背景技术
20世纪以来,立体成像技术(3D Technology)在科技领域和生活娱乐等领域的应用越来越广泛,越来越多的将更多的精力投入在3D影像技术的研究。但是立体图像在采集、压缩、储存、传输和显示的过程中,可能由于种种原因产生各种失真,严重影像人们观看立体影像时的感受。立体图像质量作为立体图像的固有属性是评判立体图像失真的一个重要指标。虽然主观质量评价方法的准确性较高,但是具有费时费力且成本较高的缺陷,因此建立一个能够准确高效模拟人眼主观评价结果的立体图像质量客观评价算法具有重要的意义。
经过多年的研究,国内外研究者已提出了许多立体图像质量客观评价算法。最初,将均方误差(Mean Squared Error,MSE)、峰值信噪比(Peak Signal Noise Ratio,PSNR)、结构相似度(Structural Similarity,SSIM)[1]等一些经典的平面图像质量评价算法直接应用于立体图像的左右视点,通过加权左右图像质量得到立体图像质量客观评价值[2]。You[3]等人将其中的一些2D图像质量评价方法应用到立体图像当中,并对其性能进行了相应的分析比较。
目前,研究者已将一些容易建模的人眼视觉特性例如亮度幅度非线性特性、多通道特性、对比度敏感度特性和掩盖效应等,用于立体图像质量客观评价算法中。而且,随着各研究领域对人类视觉***的认识逐渐加深,客观评价模型中融入更加复杂和高级的人眼视觉特性成为了必然的发展方向。视觉显著性作为一种人类视觉***高级特性,是指人眼对图像不同区域分配的注意力强度不同。显著区域是人眼比较容易关注的区域,所以观看失真立体图像时,显著区域出现的失真对人眼的视觉感受影响更大。视觉显著图为立体图像质量客观评价提供了重要依据,目前,利用视觉显著性进行立体图像质量评价的文献主要有[4-7],文献[4]主要利用单视点图和视差图生成另一个视点,然后结合立体显著性和结构相似度(SSIM)算法[1]对所生成视图进行质量评价。文献[5]结合相位一致性特征和显著特征分别获取立体图像左右视点的特征图,使用局部匹配函数加权两个特征图的差异以评估左右视点间的相关性,进行立体图像质量经验值评价。文献[6]使用结构相似度(SSIM)算法得到原始与失真立体图像的结构相似度图,将其与立体显著图融合得到立体图像质量评价指标。文献[7]利用原始和失真左右视图的显著图分别对原始和失真左右视图加权,确定原始、失真立体图像左右视图的选择性显著图;然后采用结构相似度(SSIM)算法得到左右视图的显著结构相似度图,通过为边缘区域、平滑区域和纹理区域分配不同的权值来获取单视图的客观评价值;最后,加权平均左右视图的客观评价值得到立体图像质量客观评价值。
一般来说,由于人类视觉***对图像的观察是自下而上的,不能同时将整幅图的内容同时观察到,而是只关注图像中最引人注意的地方。因此,结合显著性能够有效的对立体图像质量进行客观评价。
发明内容
为克服现有技术的不足,本发明旨在实现客观评价的结果与主观评测的一致性更高,同时在一定程度上推动立体成像技术的发展。本发明采用的技术方案是,基于图谱视觉显著的立体图像质量客观评价方法,步骤如下:
1)采用结构相似度算法SSIM,计算参考右图像和右图像的亮度、对比度和结构的比较函数,将从而得出SSIM的图像质量权值矩阵,再通过最近邻域插值算法将图像质量权值矩阵放大到与原图像大小相同;
2)通过特征图技术方法改进提出的GBVS(Graph-based Visual Saliency)图谱显著计算模型计算失真图像显著特征,再结合人眼中央偏移特性得到优化后的失真图像显著图;
3)将1)中得到的图像质量权值与2)中得到的失真图像显著图加权计算,得到单幅右眼图像的质量评价得分;重复上述过程,计算左眼的图像的客观评价得分,再对左右眼图像的客观评分进行加权处理,得到最终的立体图像质量客观评价得分。
结构相似度算法
结构相似度算法具体为,使用M×M、标准差为1.5的高斯滑动窗口分别对原始立体图像对的右视点和失真立体图像对的右视点采样获取子图像块X,Y,计算它们的亮度、结构和对比度相似度:
l ( X , Y ) = 2 μ X μ Y + C 1 μ X 2 + μ Y 2 + C 1 - - - ( 1 )
s ( X , Y ) = 2 σ X Y + C 3 σ X σ Y + C 3 - - - ( 2 )
c ( X , Y ) = 2 σ X σ Y + C 2 σ X 2 + σ Y 2 + C 2 - - - ( 3 )
其中:
σ X = ( Σ i = 1 N ω i ( x i - μ X ) 2 ) 1 / 2 - - - ( 5 )
σ X Y = Σ i = 1 N ω i ( x i - μ X ) ( y i - μ Y ) - - - ( 6 )
其中,C1、C2、C3表示非常小的正常量,避免分母为零,且C1=(k1L)2、C2=(k2L)2、C3=(C2/2)2;k1、k2分别是[0,1]之间的常量;xi,yi分别是图像块X,Y中第i个像素点的值,μXY分别为图像块X,Y的均值,σXY分别为图像块X,Y的方差,σXY为图像块X,Y的协方差,N是图像块X或Y的像素数量,l(X,Y),c(X,Y),s(X,Y)分别为图像块X,Y的亮度、对比度和结构参数矩阵。
图像块的结构相似度定义为:
SSIM(x,y)=(l(X,Y))τ(c(X,Y))β(s(X,Y))γ (7)
其中τ,β,γ为调节参数,取τ=β=γ=1,(x,y)为图像的像素点,由式(7)计算滑动窗口内的结构相似度,SSIM(x,y)为滑动窗口从图像左上角至右下角后计算得出的结果,其大小为((W-10)×(H-10)),其中W和H表示图像的水平像素和垂直像素个数。为进而获取失真立体图像对右视点的质量矩阵QR(x,y),采用最近邻域插值算法将SSIM(x,y)放大到与原图像大小相同。
最近邻域插值算法具体是指,目标像素点处的灰度值是,由该像素点周围距离该像素点最近的像素点的灰度值决定的,而其它所有的像素点对其没有影响;
(i,j)、(i,j+1)、(i+1,j)、(i+1,j+1)分别是进行插值前浮点坐标(i+a,j+b)(i,j分别表示坐标的整数部分,a,b则分别表示坐标的小数部分,且a∈[0,1),b∈[0,1)),的四个邻域,f(i,j)、f(i,j+1)、f(i+1,j)、f(i+1,j+1)分别是对应像素点的灰度值,A、B、C、D分别表示像素点f(i,j)、f(i,j+1)、f(i+1,j)、f(i+1,j+1)所构成的区域的左上、右上、左下、右下区域,最近邻域差值算法就是确定上述四个点中距离目标像素点(i+a,j+b)最近的点,则其最近点的灰度值就是目标像素点的灰度值,最近邻域算法用以下公式表示:
f ( i + a , j + b ) = f ( i , j ) , ( a , b ) ⊆ A f ( i , j + 1 ) , ( a , b ) ⊆ C f ( i + 1 , j ) , ( a , b ) ⊆ B f ( i + 1 , j + 1 ) , ( a , b ) ⊆ D - - - ( 8 )
最后,使用上述的最近邻域插值算法将由SSIM算法得到的失真立体图像对右视点的质量矩阵SSIM(x,y)放大到原图像大小,此时放大后的图像即为右视点的质量矩阵QR(x,y)。
GBVS具体步骤是:首先根据Itti模型的四阶高斯金字塔分解提取图像的亮度与方向特征,然后采用基于图谱的方法分别提取亮度、方向显著特征图,最后合并显著特征图得到图像的显著图。
提取多尺度亮度信息:对灰度图像进行四阶高斯金字塔低通滤波,金字塔的每一阶均是二维的高斯低通滤波器如公式(9)所示:
G ( x , y , σ 0 ) = 1 2 πσ 0 2 exp ( - x 2 + y 2 2 σ 0 2 ) - - - ( 9 )
其中,(x,y)表示像素点,σ0表示尺度因子,σ0越小,则该滤波器的平滑范围越好,金字塔是指对图像进行连续的1/2下采样和高斯低通滤波,高斯金字塔中每阶的输入图像都是上阶输入图像经过高斯低通滤波和下采样后的结果,把灰度图像经过高斯金字塔滤波后的结果记为Il以表示亮度信息。
提取多尺度方向信息:对灰度图像进行二维Gabor金字塔滤波来提取方向信息,二维Gabor滤波器如公式(10):
H ( x , y , σ 1 , θ ) = 1 σ 1 2 exp ( - π x 2 + y 2 σ 1 2 ) [ exp ( i 2 π f ( x c o s θ + y s i n θ ) ) ] - - - ( 10 )
其中,σ1表示尺度因子,θ表示方向,通常情况下选取四个方向θ=[0,π/4,π/2,3π/4],同样,把灰度图像经过二维Gabor金字塔滤波后得到的四组滤波结果记为Iθ,用其来表示方向信息;
对每一尺度的滤波结果均求其对应的平衡分布,然后将这些按照亮度信息和方向信息叠加并且归一化,针对同一信息,将尺度小的图像方法扩大并与大尺度图像叠加,这样亮度信息获得一张亮度特征图,方向信息有4个方向的特征图,将4个方向的特征图叠加得到一个方向特征图,最后将亮度特征图与方向特征图相加并归一化获得最终的视觉显著图SM(x,y),尺寸与原来图像相同。
优化显著图具体步骤是,采用公式(11)的方式[14]对GBVS模型获取的显著图SM1进行优化,
SMR(x,y)=α×SM1(x,y)+(1-α)×CB(x,y) (11)
其中,SM1(x,y)和SMR(x,y)是SM1和优化后的立体视觉显著图SMR在像素点(x,y)处的显著值。为α为控制参数,根据实验取α=0.7;
具有各向异性的高斯核函数[13]模拟注意力由中央向四周扩散的中央偏移(CB)因子:
C B ( x , y ) = exp { - ( ( x - x 0 ) 2 2 σ h 2 + ( y - y 0 ) 2 2 σ v 2 ) } - - - ( 12 )
其中CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息,(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差,取σh=1/3W,σv=1/3H,其中W和H表示图像的水平像素和垂直像素个数。
用右视点的显著图SMR(x,y)来反映失真立体图像对右视点各部分的视觉重要性,用失真右视点的视觉显著图SMR(x,y)加权图像质量图QR(x,y),加权求和并归一化,得到失真右视点的质量客观评价值QR,如式(13)所示:
Q R = Σ x = 1 H Σ y = 1 W Q R ( x , y ) SM R ( x , y ) Σ x = 1 H Σ y = 1 W SM R ( x , y ) - - - ( 13 )
采用上述方法得到失真左视点的质量客观评价值QL,则立体图像质量客观评价值为:
Q=0.5×QL+0.5×QR (14)。
本发明的特点及有益效果是:
由实验结果及数据可以看出,VS-SSIM算法的PCC值均在0.92以上,RMSE值均在0.54以下。与SSIM算法相比,引入中央偏移因子的CB-SSIM算法的各项性能指标均有不同程度的提高,说明中央偏移因子能够提高立体图像质量客观评价的性能;VS-SSIM算法的各项性能指标均优于CB-SSIM算法,说明考虑中央偏移的视觉显著性能够提高立体图像质量客观评价的性能,并且验证了视觉显著性对立体图像质量客观评价具有积极的影响。总体来说,针对不同的失真类型,VS-SSIM算法的PCC、KROCC和RMSE指标均优于其余二种算法,VS-SSIM算法的客观评价值与主观评价结果具有更好的一致性。
附图说明:
图1 VS-SSIM原理框图。
图2最近邻域插值算法原理。
图3本算法所用的8幅标准立体图像对。图中,
(a)源图像Tree2 (b)源图像“Family”
(c)源图像“Girl” (d)源图像“River”
(e)源图像“Tree1” (f)源图像“Ox”
(g)源图像“Tju” (h)源图像“Woman”。
具体实施方式
本发明旨在结合图谱视觉显著方法对立体图像质量进行客观评价。通过结合图像的显著信息和人眼的中央偏移特性对立体图像质量客观评价算法进行优化,使客观评价的结果与主观评测的一致性更高,同时在一定程度上推动了立体成像技术的发展。
本发明提供了一种基于图谱视觉显著的立体图像质量客观评价方法,本发明根据融合立体视觉显著图和立体图像综合质量图,准确有效地建立了反映主观评价结果的立体图像质量的客观评价模型。
下面以立体图像的右视图为例,基本步骤如下:
1.通过采用Zhou Wang提出的结构相似度算法SSIM[1],计算参考右图像和右图像的亮度、对比度和结构的比较函数,将从而得出SSIM的图像质量权值矩阵,再通过最近邻域插值算法将图像质量权值矩阵放大到与原图像大小相同。
2.通过Harel[8]等人Itti模型[9]的特征图技术方法改进提出的GBVS(Graph-based Visual Saliency)图谱显著计算模型计算失真图像显著特征,再结合人眼中央偏移特性得到优化后的失真图像显著图。
3.将1中得到的图像质量权值与2中得到的失真图像显著图加权计算,得到单幅右眼图像的质量评价得分。重复上述过程,计算左眼的图像的客观评价得分,再对左右眼图像的客观评分进行加权处理,得到最终的立体图像质量客观评价得分。
下面将对各个步骤进行详细的分析:
1.1结构相似度算法
采用Zhou Wang提出的结构相似度算法[1]。为防止出现块效应,使用M×M(M=11)、标准差为1.5的高斯滑动窗口分别对原始立体图像对的右视点和失真立体图像对的右视点采样获取子图像块X和图像块Y,计算它们的亮度、结构和对比度相似度。
l ( X , Y ) = 2 μ X μ Y + C 1 μ X 2 + μ Y 2 + C 1 - - - ( 1 )
s ( X , Y ) = 2 σ X Y + C 3 σ X σ Y + C 3 - - - ( 2 )
c ( X , Y ) = 2 σ X σ Y + C 2 σ X 2 + σ Y 2 + C 2 - - - ( 3 )
其中:
σ X = ( Σ i = 1 N ω i ( x i - μ X ) 2 ) 1 / 2 - - - ( 5 )
σ X Y = Σ i = 1 N ω ( x i - μ X ) ( y i - μ Y ) - - - ( 6 )
其中,C1、C2、C3表示非常小的正常量,避免分母为零,且C1=(k1L)2、C2=(k2L)2、C3=(C2/2)2;k1、k2分别是[0,1]之间的常量;xi,yi分别是图像块X,Y中第i个像素点的值,μXY分别为图像块X,Y的均值,σXY分别为图像块X,Y的方差,σXY为图像块X,Y的协方差,N是图像块X或Y的像素数量,l(X,Y),c(X,Y),s(X,Y)分别为图像块X,Y的亮度、对比度和结构参数矩阵。
图像块的结构相似度定义为:
SSIM(X,Y)=(l(X,Y))τ(c(X,Y))β(s(X,Y))γ (7)
其中τ,β,γ为调节参数,取τ=β=γ=1,(x,y)为图像的像素点,由式(7)计算滑动窗口内的结构相似度,SSIM(x,y)为滑动窗口从图像左上角至右下角后计算得出的结果,其大小为((W-10)×(H-10)),其中W和H表示图像的水平像素和垂直像素个数。为进而获取失真立体图像对右视点的质量矩阵QR(x,y),采用最近邻域插值算法将SSIM(x,y)放大到与原图像大小相同。
1.2最近邻域插值算法
最近邻域插值算法[11]作为一种最简单的缩放算法,适合应用于设计图像缩放的所有领域。其原理是目标像素点处的灰度值是,由该像素点周围距离该像素点最近的像素点的灰度值决定的,而其它所有的像素点对其没有影响。
图2中(i,j)、(i,j+1)、(i+1,j)、(i+1,j+1)分别是进行插值前浮点坐标(i+a,j+b)(i,j分别表示坐标的整数部分,a,b则分别表示坐标得小数部分,且a∈[0,1),b∈[0,1)),的四个邻域,f(i,j)、f(i,j+1)、f(i+1,j)、f(i+1,j+1)分别是对应像素点的灰度值。A、B、C、D分别表示像素点f(i,j)、f(i,j+1)、f(i+1,j)、f(i+1,j+1)所构成的区域的左上、右上、左下、右下区域。最近邻域差值算法就是确定上述四个点中距离目标像素点(i+a,j+b)最近的点,则其最近点的灰度值就是目标像素点的灰度值。最近邻域算法可以用以下公式表示:
f ( i + a , j + b ) = f ( i , j ) , ( a , b ) ⊆ A f ( i , j + 1 ) , ( a , b ) ⊆ C f ( i + 1 , j ) , ( a , b ) ⊆ B f ( i + 1 , j + 1 ) , ( a , b ) ⊆ D - - - ( 8 )
最后,使用上述的最近邻域插值算法将由SSIM算法得到的失真立体图像对右视点的质量矩阵SSIM(x,y)放大到原图像大小,此时放大后的图像即为右视点的质量矩阵QR(x,y)。
2.1GBVS模型
最近几年,基于图论的视觉显著模型广泛应用于图像/视频处理领域,其中比较典型的是Harel等人[8]通过对Itti模型[9]的特征图计算方法进行改进提出了GBVS(Graph-based Visual Saliency)模型。首先根据Itti模型的四阶高斯金字塔分解提取图像的亮度与方向特征,然后采用基于图谱的方法分别提取亮度、方向显著特征图,最后合并显著特征图得到图像的显著图。以右视点为例,将RGB图像转换为灰度图像。
(1)提取多尺度亮度信息:对灰度图像进行四阶高斯金字塔低通滤波。金字塔的每一阶均是二维的高斯低通滤波器如公式(9)所示。
G ( x , y , σ 0 ) = 1 2 πσ 0 2 exp ( - x 2 + y 2 2 σ 0 2 ) - - - ( 9 )
其中,(x,y)表示像素点,σ0表示尺度因子,σ0越小,则该滤波器的平滑范围越好。金字塔是指对图像进行连续的1/2下采样和高斯低通滤波,高斯金字塔中每阶的输入图像都是上阶输入图像经过高斯低通滤波和下采样后的结果。把灰度图像经过高斯金字塔滤波后的结果记为Il以表示亮度信息。
(2)提取多尺度方向信息:对灰度图像进行二维Gabor金字塔滤波来提取方向信息。二维Gabor滤波器如公式(10):
H ( x , y , σ 1 , θ ) = 1 σ 1 2 exp ( - π x 2 + y 2 σ 1 2 ) [ exp ( i 2 π f ( x c o s θ + y s i n θ ) ) ] - - - ( 10 )
其中,σ1表示尺度因子,θ表示方向,通常情况下选取四个方向θ=[0,π/4,π/2,3π/4]。同样,把灰度图像经过二维Gabor金字塔滤波后得到的四组滤波结果记为Iθ,用其来表示方向信息。
(3)对上述步骤求出的5组每一尺度的滤波结果均求其对应的平衡分布,然后将这些按照亮度信息和方向信息叠加并且归一化。针对同一信息(例如亮度信息和方向信息),将尺度小的图像方法扩大并与大尺度图像叠加,这样亮度信息获得一张亮度特征图,方向信息有4个方向的特征图,将4个方向的特征图叠加得到一个方向特征图,最后将亮度特征图与方向特征图相加并归一化获得最终的视觉显著图SMr(x,y),尺寸与原来图像相同。
2.2中央偏移特性
中央偏移(Center Bias,CB)特性,是指人眼在观看图像时总是倾向于从图的中心开始寻找视觉注视点,然后其注意力由中央向四周递减[12]。也就是说,当像素的坐标位置越处于图像的中间位置,该像素越容易受到关注。本发明采用具有各向异性的高斯核函数[13]模拟注意力由中央向四周扩散的中央偏移(CB)因子:
C B ( x , y ) = exp { - ( ( x - x 0 ) 2 2 σ h 2 + ( y - y 0 ) 2 2 σ v 2 ) } - - - ( 11 )
其中CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息。(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差,根据文献[13]取σh=1/3W,σv=1/3H,其中W和H表示图像的水平像素和垂直像素个数。
2.3优化显著图
采用公式(12)的方式[14]对GBVS模型获取的显著图SM1进行优化。
SMR(x,y)=α×SM1(x,y)+(1-α)×CB(x,y)
(12)
其中,SM1(x,y)和SMR(x,y)是SM1和优化后的立体视觉显著图SMR在像素点(x,y)处的显著值。为α为控制参数,根据实验取α=0.7。
3.1右视点显著图
用右视点的显著图SMR(x,y)来反映失真立体图像对右视点各部分的视觉重要性,用失真右视点的视觉显著图SMR(x,y)加权图像质量图QR(x,y),加权求和并归一化,得到失真右视点的质量客观评价值QR,如式(13)所示。
Q R = Σ x = 1 H Σ y = 1 W Q R ( x , y ) SM R ( x , y ) Σ x = 1 H Σ y = 1 W SM R ( x , y ) - - - ( 13 )
采用上述方法得到失真左视点的质量客观评价值。则立体图像质量客观评价值为:
Q=0.5×QL+0.5×QR (14)
表1 本算法与SSIM等算法的性能指标
使用的主观实验素材来自天津大学电子信息工程学院宽带无线通信与立体成像研究所的立体视频库和立体图像库。从立体图像库选取含有人物、远景、近景的“Tree2”、“Family”、“Girl”、“River”、“Tree1”、“Ox”、“Tju”、“Woman”共8幅未失真的标准立体图像,其分辨率均为1280×1024。由于立体显示设备需要水平翻转立体图像对的右视点才能体现立体感,因此需要镜像放置立体图像对的右视点图。
为了真实模拟立体成像***对立体图像的失真以及验证本算法的普适性,实验对8幅标准立体图像对进行JPEG压缩失真、高斯模糊失真和高斯白噪失真处理,因此共得到260幅失真立体图像对。
根据ITU-R BT.1438标准,在立体显示设备“3D WINDOWS-19A0”上对所有失真立体图像对进行主观测试,观看距离是立体显示设备高度的6倍。根据所有测试者的测试分数得到平均意见值(Mean Opinion Score,MOS)。本文使用Min-Max归一化方法对MOS值进行归一化处理,并扩展到范围为[0,5]的值
m i , j = s i , j - Min i Max i - Min i - - - ( 15 )
其中,i表示参考立体图像的编号,本发明中i∈[1,8]。针对某一类型的失真(例如JPEG失真、高斯模糊失真、高斯白噪声失真),si,j表示参考立体图像i对应的失真立体图像第j种失真程度的MOS值,mi,j表示mi,j经过Min-Max归一化后的值。Mini表示参考立体图像在某种类型失真情况下,不同失真强度的立体图像的MOS值中最小的MOS值。同理,按照上述原理归一化客观评价值。
为了衡量本章提出的客观评价方法的实验结果与主观评价结果的一致性,本文选取皮尔逊相关系数(Pearson Correlation Coefficient,PCC)、肯德尔等级次序相关系数(Kendall Rank Order Correlation Coefficient,KROCC)、及均方误差(Root MeanSquare Error,RMSE)三个标准来评价客观算法的评价结果与主观评价结果之间的一致性、单调性和准确性。Kendall相关系数主要是用来衡量客观算法评价与主观评价结果之间的单调性,该指标不是考虑评价分数之间的相对距离,而衡量的是评价分数之间的等级次序;Pearson相关系数权衡的是客观评价分数与MOS值彼此之间的相关性;RMSE值评价的是客观评价分数与主观评价结果之间的离散程度即准确性。PCC和KROCC的绝对值越接近1,RMSE的值越接近0,说明客观评价结果能够有效的反映主观评价结果。
下面结合技术方案详细说明本方法:
一、通过主观测试获取评价数据样本,经过反复试验选取训练样本和测试样本。
被试包括专业被试与非专业被试,均具有正常的视差立体感,共20名被试,分别为在校研究生与本科生,男性11名,女性9名,从事立体信息处理研究的被试共16人,从事其他方向研究的被试共4人。为了便于直观理解本设计,提供了立体图像质量客观评价框图,如图1所示。
二、通过本文提出的算法对失真图像与原始图像进行对比计算
1.通过采用Zhou Wang提出的结构相似度算法SSIM,计算参考右图像和四诊右图像的亮度、对比度和结构的比较函数,将从而得出SSIM的图像质量权值矩阵,再利用最近邻域插值算法将图像质量权值矩阵放大到与原图像大小相同。
2.通过Harel等人Itti模型的特征图技术方法改进提出的GBVS(Graph-basedVisualSaliency)图谱显著计算模型计算失真图像显著特征,再结合人眼中央偏移特性得到优化后的失真图像显著图。
3.将1中得到的图像质量权值与2中得到的失真图像显著图加权计算,得到单幅右眼图像的质量评价得分。重复上述过程,计算左眼的图像的客观评价得分,再对左右眼图像的客观评分进行加权处理,得到最终的立体图像质量客观评价得分。
从表1的数据可以看出,VS-SSIM算法的PCC值均在0.92以上,RMSE值均在0.54以下。与SSIM算法相比,引入中央偏移因子的CB-SSIM算法的各项性能指标均有不同程度的提高,说明中央偏移因子能够提高立体图像质量客观评价的性能;VS-SSIM算法的各项性能指标均优于CB-SSIM算法,说明考虑中央偏移的视觉显著性能够提高立体图像质量客观评价的性能,并且验证了视觉显著性对立体图像质量客观评价具有积极的影响。总体来说,针对不同的失真类型,VS-SSIM算法的PCC、KROCC和RMSE指标均优于其余二种算法,VS-SSIM算法的客观评价值与主观评价结果具有更好的一致性,具有很大的实际价值。

Claims (9)

1.一种基于图谱视觉显著的立体图像质量客观评价方法,其特征是,步骤如下:
1)采用结构相似度算法SSIM,计算参考右图像和右图像的亮度、对比度和结构的比较函数,将从而得出SSIM的图像质量权值矩阵,再通过最近邻域插值算法将图像质量权值矩阵放大到与原图像大小相同;
2)通过特征图技术方法改进提出的GBVS(Graph-based Visual Saliency)图谱显著计算模型计算失真图像显著特征,再结合人眼中央偏移特性得到优化后的失真图像显著图;
3)将1)中得到的图像质量权值与2)中得到的失真图像显著图加权计算,得到单幅右眼图像的质量评价得分;重复上述过程,计算左眼的图像的客观评价得分,再对左右眼图像的客观评分进行加权处理,得到最终的立体图像质量客观评价得分。
2.如权利要求1所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,结构相似度算法具体为,使用M×M(M=11)、标准差为1.5的高斯滑动窗口分别对原始立体图像对的右视点和失真立体图像对的右视点采样获取子图像块u,v,计算它们的亮度、结构和对比度相似度:
l ( X , Y ) = 2 μ X μ Y + C 1 μ X 2 + μ Y 2 + C 1 - - - ( 1 )
s ( X , Y ) = 2 σ X Y + C 3 σ X σ Y + C 3 - - - ( 2 )
c ( X , Y ) = 2 σ X σ Y + C 2 σ X 2 + σ Y 2 + C 2 - - - ( 3 )
其中: μ X = Σ i = 1 N ω i x i - - - ( 4 )
σ X = ( Σ i = 1 N ω i ( x i - μ X ) 2 ) 1 / 2 - - - ( 5 )
σ X Y = Σ i = 1 N ω i ( x i - μ X ) ( y i - μ Y ) - - - ( 6 )
其中,C1、C2、C3表示非常小的正常量,避免分母为零,且C1=(k1L)2、C2=(k2L)2、C3=(C2/2)2;k1、k2分别是[0,1]之间的常量;xi,yi分别是图像块X,Y中第i个像素点的值,μXY分别为图像块X,Y的均值,σXY分别为图像块X,Y的方差,σXY为图像块X,Y的协方差,N是图像块X或Y的像素数量,l(X,Y),c(X,Y),s(X,Y)分别为图像块X,Y的亮度、对比度和结构参数矩阵。
3.如权利要求1所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,图像块的结构相似度定义为:
SSIM(x,y)=(l(X,Y))τ(c(X,Y))β(s(X,Y))γ (7)
其中τ,β,γ为调节参数,取τ=β=γ=1,(x,y)为图像的像素点,由式(7)计算滑动窗口内的结构相似度,SSIM(x,y)为滑动窗口从图像左上角至右下角后计算得出的结果,其大小为((W-10)×(H-10)),其中W和H表示图像的水平像素和垂直像素个数。为进而获取失真立体图像对右视点的质量矩阵QR(x,y),采用最近邻域插值算法将SSIM(x,y)放大到与原图像大小相同。
4.如权利要求1所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,最近邻域插值算法具体是指,目标像素点处的灰度值是,由该像素点周围距离该像素点最近的像素点的灰度值决定的,而其它所有的像素点对其没有影响;
(i,j)、(i,j+1)、(i+1,j)、(i+1,j+1)分别是进行插值前浮点坐标(i+a,j+b)(i,j分别表示坐标的整数部分,a,b则分别表示坐标的小数部分,且a∈[0,1),b∈[0,1)),的四个邻域,f(i,j)、f(i,j+1)、f(i+1,j)、f(i+1,j+1)分别是对应像素点的灰度值,A、B、C、D分别表示像素点f(i,j)、f(i,j+1)、f(i+1,j)、f(i+1,j+1)所构成的区域的左上、右上、左下、右下区域,最近邻域差值算法就是确定上述四个点中距离目标像素点(i+a,j+b)最近的点,则其最近点的灰度值就是目标像素点的灰度值,最近邻域算法用以下公式表示:
f ( i + a , j + b ) = f ( i , j ) , ( a , b ) ⊆ A f ( i , j + 1 ) , ( a , b ) ⊆ C f ( i + 1 , j ) , ( a , b ) ⊆ B f ( i + 1 , j + 1 ) , ( a , b ) ⊆ D - - - ( 8 )
最后,使用上述的最近邻域插值算法将由SSIM算法得到的失真立体图像对右视点的质量矩阵SSIM(x,y)放大到原图像大小,此时放大后的图像即为右视点的质量矩阵QR(x,y)。
5.如权利要求1所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,GBVS具体步骤是:首先根据Itti模型的四阶高斯金字塔分解提取图像的亮度与方向特征,然后采用基于图谱的方法分别提取亮度、方向显著特征图,最后合并显著特征图得到图像的显著图。
6.如权利要求4所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,提取多尺度亮度信息:对灰度图像进行四阶高斯金字塔低通滤波,金字塔的每一阶均是二维的高斯低通滤波器如公式(9)所示:
G ( x , y , σ 0 ) = 1 2 πσ 0 2 exp ( - x 2 + y 2 2 σ 0 2 ) - - - ( 9 )
其中,(x,y)表示像素点,σ0表示尺度因子,σ0越小,则该滤波器的平滑范围越好,金字塔是指对图像进行连续的1/2下采样和高斯低通滤波,高斯金字塔中每阶的输入图像都是上阶输入图像经过高斯低通滤波和下采样后的结果,把灰度图像经过高斯金字塔滤波后的结果记为Il以表示亮度信息。
7.如权利要求4所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,提取多尺度方向信息:对灰度图像进行二维Gabor金字塔滤波来提取方向信息,二维Gabor滤波器如公式(10):
H ( x , y , σ 1 , θ ) = 1 σ 1 2 exp ( - π x 2 + y 2 σ 1 2 ) [ exp ( i 2 π f ( x cos θ + y sin θ ) ) ] - - - ( 10 )
其中,σ1表示尺度因子,θ表示方向,通常情况下选取四个方向θ=[0,π/4,π/2,3π/4],同样,把灰度图像经过二维Gabor金字塔滤波后得到的四组滤波结果记为Iθ,用其来表示方向信息;
对每一尺度的滤波结果均求其对应的平衡分布,然后将这些按照亮度信息和方向信息叠加并且归一化,针对同一信息,将尺度小的图像方法扩大并与大尺度图像叠加,这样亮度信息获得一张亮度特征图,方向信息有4个方向的特征图,将4个方向的特征图叠加得到一个方向特征图,最后将亮度特征图与方向特征图相加并归一化获得最终的视觉显著图SMr(x,y),尺寸与原来图像相同。
8.如权利要求4所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,优化显著图具体步骤是,采用公式(11)的方式对GBVS模型获取的显著图SM1进行优化,
SMR(x,y)=α×SM1(x,y)+(1-α)×CB(x,y) (11)
其中,SM1(x,y)和SMR(x,y)是SM1和优化后的立体视觉显著图SMR在像素点(x,y)处的显著值。为α为控制参数,根据实验取α=0.7;
具有各向异性的高斯核函数[13]模拟注意力由中央向四周扩散的中央偏移(CB)因子:
C B ( x , y ) = exp { - ( ( x - x 0 ) 2 2 σ h 2 + ( y - y 0 ) 2 2 σ v 2 ) } - - - ( 12 )
其中CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息,(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差,取σh=1/3W,σv=1/3H,其中W和H表示图像的水平像素和垂直像素个数。
9.如权利要求4所述的基于图谱视觉显著的立体图像质量客观评价方法,其特征是,用右视点的显著图SMR(x,y)来反映失真立体图像对右视点各部分的视觉重要性,用失真右视点的视觉显著图SMR(x,y)加权图像质量图QR(x,y),加权求和并归一化,得到失真右视点的质量客观评价值QR,如式(13)所示
Q R = Σ x = 1 H Σ y = 1 W Q R ( x , y ) SM R ( x , y ) Σ x = 1 H Σ y = 1 W SM R ( x , y ) - - - ( 13 )
采用上述方法得到失真左视点的质量客观评价值QL,则立体图像质量客观评价值为:
Q=0.5×QL+0.5×QR (14)。
CN201610201230.3A 2016-03-31 2016-03-31 基于图谱视觉显著的立体图像质量客观评价方法 Expired - Fee Related CN105744256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610201230.3A CN105744256B (zh) 2016-03-31 2016-03-31 基于图谱视觉显著的立体图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610201230.3A CN105744256B (zh) 2016-03-31 2016-03-31 基于图谱视觉显著的立体图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN105744256A true CN105744256A (zh) 2016-07-06
CN105744256B CN105744256B (zh) 2017-12-05

Family

ID=56252599

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610201230.3A Expired - Fee Related CN105744256B (zh) 2016-03-31 2016-03-31 基于图谱视觉显著的立体图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN105744256B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780449A (zh) * 2016-12-06 2017-05-31 嘉兴学院 一种基于纹理特征的无参考图像质量评价方法
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN107424146A (zh) * 2017-06-28 2017-12-01 北京理工大学 一种红外偏振图像质量客观评价方法和***
CN107545552A (zh) * 2017-09-08 2018-01-05 四川理工学院 一种图像渲染方法
CN107578404A (zh) * 2017-08-22 2018-01-12 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN107680076A (zh) * 2017-08-23 2018-02-09 天津大学 基于显著性区域的立体图像舒适度对比度范围测量方法
CN107977967A (zh) * 2017-12-22 2018-05-01 中国矿业大学 一种面向视角合成的无参考图像质量评价方法
CN109284769A (zh) * 2018-08-02 2019-01-29 哈尔滨工程大学 一种基于量化参数的水下图像自适应分类方法
CN109448037A (zh) * 2018-11-14 2019-03-08 北京奇艺世纪科技有限公司 一种图像质量评价方法及装置
CN109872305A (zh) * 2019-01-22 2019-06-11 浙江科技学院 一种基于质量图生成网络的无参考立体图像质量评价方法
CN110310269A (zh) * 2019-06-27 2019-10-08 华侨大学 基于极平面多尺度Gabor特征相似度的光场图像质量评价方法
CN110378893A (zh) * 2019-07-24 2019-10-25 北京市博汇科技股份有限公司 图像质量评价方法、装置和电子设备
CN111489346A (zh) * 2020-04-14 2020-08-04 广东工业大学 一种全参考图像质量评价方法及***
CN111599294A (zh) * 2020-05-26 2020-08-28 昆山国显光电有限公司 显示屏颗粒感的评测方法和装置
CN111768362A (zh) * 2020-05-13 2020-10-13 上海大学 基于多特征融合的全参考高动态图像质量评价方法
CN112233089A (zh) * 2020-10-14 2021-01-15 西安交通大学 一种无参考立体混合失真图像质量评价方法
CN112686847A (zh) * 2020-12-23 2021-04-20 平安银行股份有限公司 身份证图像拍摄质量评价方法、装置、计算机设备和介质
CN115460385A (zh) * 2018-02-09 2022-12-09 索尼半导体解决方案公司 图像处理器、图像处理方法和摄像设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LAURENT ITTI等: "A Model of Saliency-Based Visual Attention", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
XIANGYING MAO等: "Stereoscopic Image Quality Assessment Model with Three-Component Weighted Structure Similarity", 《2010 INTERNATIONAL CONFERENCE ON AUDIO LANGUAGE AND IMAGE PROCESSING (ICALIP)》 *
ZBIGNIEW ZDZIARSKI等: "Extension of GBVS to 3D media", 《2014 IEEE 22ND SIGNAL PROCESSING AND COMMUNICATIONS APPLICATIONS CONFERENCE》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780449A (zh) * 2016-12-06 2017-05-31 嘉兴学院 一种基于纹理特征的无参考图像质量评价方法
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN107424146A (zh) * 2017-06-28 2017-12-01 北京理工大学 一种红外偏振图像质量客观评价方法和***
CN107578404B (zh) * 2017-08-22 2019-11-15 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN107578404A (zh) * 2017-08-22 2018-01-12 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN107680076A (zh) * 2017-08-23 2018-02-09 天津大学 基于显著性区域的立体图像舒适度对比度范围测量方法
CN107545552A (zh) * 2017-09-08 2018-01-05 四川理工学院 一种图像渲染方法
CN107977967A (zh) * 2017-12-22 2018-05-01 中国矿业大学 一种面向视角合成的无参考图像质量评价方法
CN107977967B (zh) * 2017-12-22 2022-05-03 中国矿业大学 一种面向视角合成的无参考图像质量评价方法
CN115460387B (zh) * 2018-02-09 2024-04-19 索尼半导体解决方案公司 图像处理器、图像处理方法和摄像设备
CN115460387A (zh) * 2018-02-09 2022-12-09 索尼半导体解决方案公司 图像处理器、图像处理方法和摄像设备
CN115460385A (zh) * 2018-02-09 2022-12-09 索尼半导体解决方案公司 图像处理器、图像处理方法和摄像设备
CN109284769A (zh) * 2018-08-02 2019-01-29 哈尔滨工程大学 一种基于量化参数的水下图像自适应分类方法
CN109284769B (zh) * 2018-08-02 2022-03-18 哈尔滨工程大学 一种基于量化参数的水下图像自适应分类方法
CN109448037A (zh) * 2018-11-14 2019-03-08 北京奇艺世纪科技有限公司 一种图像质量评价方法及装置
CN109872305B (zh) * 2019-01-22 2020-08-18 浙江科技学院 一种基于质量图生成网络的无参考立体图像质量评价方法
CN109872305A (zh) * 2019-01-22 2019-06-11 浙江科技学院 一种基于质量图生成网络的无参考立体图像质量评价方法
CN110310269B (zh) * 2019-06-27 2022-11-01 华侨大学 基于极平面多尺度Gabor特征相似度的光场图像质量评价方法
CN110310269A (zh) * 2019-06-27 2019-10-08 华侨大学 基于极平面多尺度Gabor特征相似度的光场图像质量评价方法
CN110378893A (zh) * 2019-07-24 2019-10-25 北京市博汇科技股份有限公司 图像质量评价方法、装置和电子设备
CN111489346A (zh) * 2020-04-14 2020-08-04 广东工业大学 一种全参考图像质量评价方法及***
CN111489346B (zh) * 2020-04-14 2023-04-07 广东工业大学 一种全参考图像质量评价方法及***
CN111768362A (zh) * 2020-05-13 2020-10-13 上海大学 基于多特征融合的全参考高动态图像质量评价方法
CN111768362B (zh) * 2020-05-13 2023-05-23 上海大学 基于多特征融合的全参考高动态图像质量评价方法
CN111599294A (zh) * 2020-05-26 2020-08-28 昆山国显光电有限公司 显示屏颗粒感的评测方法和装置
CN112233089A (zh) * 2020-10-14 2021-01-15 西安交通大学 一种无参考立体混合失真图像质量评价方法
CN112686847A (zh) * 2020-12-23 2021-04-20 平安银行股份有限公司 身份证图像拍摄质量评价方法、装置、计算机设备和介质
CN112686847B (zh) * 2020-12-23 2024-05-14 平安银行股份有限公司 身份证图像拍摄质量评价方法、装置、计算机设备和介质

Also Published As

Publication number Publication date
CN105744256B (zh) 2017-12-05

Similar Documents

Publication Publication Date Title
CN105744256B (zh) 基于图谱视觉显著的立体图像质量客观评价方法
CN107578404B (zh) 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN106097327B (zh) 结合流形特征及双目特性的立体图像质量客观评价方法
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN107194872A (zh) 基于内容感知深度学习网络的遥感图像超分辨率重建方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN106204447A (zh) 基于总变差分和卷积神经网络的超分辨率重建方法
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN107481236A (zh) 一种屏幕图像的质量评价方法
CN103200421B (zh) 一种基于Curvelet变换和相位一致的无参考图像质量评价方法
CN101950422B (zh) 一种基于奇异值分解的图像质量评价方法
CN106530282B (zh) 基于空域特征的无参考立体图像质量客观评价方法
CN105976351B (zh) 基于中央偏移的立体图像质量评价方法
Su et al. Color and depth priors in natural images
CN106548462A (zh) 基于薄板样条插值的非线性sar图像几何校正方法
CN104036501A (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN102982535A (zh) 基于psnr和ssim的立体图像质量评价方法
CN103824272A (zh) 基于k近邻重识别的人脸超分辨率重建方法
CN105654465B (zh) 一种采用视差补偿视点间滤波的立体图像质量评价方法
CN107396095A (zh) 一种无参考三维图像质量评价方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN102547368A (zh) 一种立体图像质量客观评价方法
CN103914835B (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN109429051A (zh) 基于多视图特征学习的无参考立体视频质量客观评价方法
CN104217430B (zh) 基于l1正则化的图像显著性检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: 300350 District, Jinnan District, Tianjin Haihe Education Park, 135 beautiful road, Beiyang campus of Tianjin University

Patentee after: Tianjin University

Address before: 300072 Tianjin City, Nankai District Wei Jin Road No. 92

Patentee before: Tianjin University

CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: 300072 Tianjin City, Nankai District Wei Jin Road No. 92

Patentee after: Tianjin University

Address before: 300350 District, Jinnan District, Tianjin Haihe Education Park, 135 beautiful road, Beiyang campus of Tianjin University

Patentee before: Tianjin University

CP02 Change in the address of a patent holder
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171205

CF01 Termination of patent right due to non-payment of annual fee