CN100559881C - 一种基于人工神经网络的视频质量评价方法 - Google Patents

一种基于人工神经网络的视频质量评价方法 Download PDF

Info

Publication number
CN100559881C
CN100559881C CN 200810106132 CN200810106132A CN100559881C CN 100559881 C CN100559881 C CN 100559881C CN 200810106132 CN200810106132 CN 200810106132 CN 200810106132 A CN200810106132 A CN 200810106132A CN 100559881 C CN100559881 C CN 100559881C
Authority
CN
China
Prior art keywords
image
value
parameter
sigma
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 200810106132
Other languages
English (en)
Other versions
CN101282481A (zh
Inventor
姜秀华
孟放
许江波
周炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Communication University of China
Original Assignee
Communication University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Communication University of China filed Critical Communication University of China
Priority to CN 200810106132 priority Critical patent/CN100559881C/zh
Publication of CN101282481A publication Critical patent/CN101282481A/zh
Application granted granted Critical
Publication of CN100559881C publication Critical patent/CN100559881C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一种基于人工神经网络的视频质量评价方法属于计算机数字视频处理领域。该评价算法通过分析视频图像的空间特性(模糊、熵、块效应、频域能量分析、饱和度)和时间特性(帧间差)来计算图像的受损程度。色度空间饱和度作为无参考评价算法的参数之一可有效改善算法的评价效果。本***是基于人工神经网络而设计的,因此算法的实现包含网络的训练过程和测试过程。对于所选择的训练样本(视频图像序列),首先提取上述的六项参数,并通过主观评价获取训练样本在训练中的期望输出(主观评价结果)。训练样本的特征参数与对应的主观评价结果作为训练参数输入人工神经网络。依据实验表明,该客观评价***所获取的评价结果与人眼的视觉感受高度一致。

Description

一种基于人工神经网络的视频质量评价方法
技术领域
本发明涉及计算机数字视频处理领域,设计了一种基于人工神经网络的无参考数字视频质量评价方法。
背景技术
视频图像是可视化视觉信息的主要表现形式,视频图像处理是目前重要的研究领域之一。在视频图像应用领域的各个环节,如采集、压缩、传输、处理、存储等,都不可避免地会影响到图像质量。由于图像最终是供用户观看的,因此对于图像质量的正确评价是图像信息工程中的关键技术之一。
视频图像质量的评价方法可分为两大类:主观评价和客观评价。主观评价是直接利用观察者对被测图像的视觉感知来确定图像质量的一种测试,其测量结果可靠,且符合图像的实际观察质量,因此,在图像质量测量领域占据重要地位,目前已有相应的国际标准(如ITU-R BT.500,ITU-R BT.710)。但主观评价的测试环境要求极为严格,实现过程复杂,且不具有可重复性。随着视频图像应用领域的不断扩展,在某些应用环境下,无法进行有效的主观评价。而客观评价算法则通过分析视频处理算法和人类视觉特性来建立数学模型,以实现对图像质量的自动测量。此类算法可嵌入到视频处理的各个环节,对视频流质量进行定量分析并可进一步分析和调整***参数以改善最终的图像显示效果。因此,图像质量客观评价算法是目前的一个研究热点。
传统的客观质量评价算法以MSE(均方误差)和PSNR(峰值信噪比)为代表。此类评价算法理论直观、计算简单,在一般情况下可获得较好的测量结果。但这种基于信号的客观评价算法并没有考虑人眼在观看图像时的感知特性,因此在某些情况下,所获得的测量结果与主观感觉并不一致。近几年来,在充分分析视频处理算法和视觉感知特性基础上,各研究机构提出了很多改进算法,根据算法对未失真图像的依赖程度,我们可将算法分为三种:
1.基于全参考帧(FR-Full Reference)的视频质量评价
无失真原始视频图像可完全用于图像质量的客观评价算法中,因此,测量结果相对准确。但存在以下问题:(1)考虑了原始视频的评价算法数据量庞大,运算复杂度高;(2)在很多应用场合,无失真图像在接收端不可获取;
2.基于缩减参考帧(RR-Reduced Reference)的视频质量评价
无失真原始视频图像的特征参数可用于图像质量的客观评价算法中。该算法首先定义并提取原始视频图像的各项特征参数,然后通过一个带宽较窄的辅助信道将这些参数传输到接收端。在接收端提取待测的受损图像的同样特征参数,通过对这两组特征参数的统计分析,获取受损图像质量的客观评价结果。相比较FR算法,该算法所需原始图像信息大量减少,实现复杂度降低;同时,由于考虑了原始图像,该算法仍然具有较高的可信度。但是存在以下问题:(1)从理论上分析,很可能一些受损视频图像的统计数据和对应无失真图像完全相同,但在主观视觉上却大不相同;(2)由于图像的统计数据易于随观看距离、亮度范围等因素的改变而改变,甚至得到完全不同的统计数据,而此类算法无法完全考虑这种情况;(3)在某些应用环境中,无法增加辅助信道来传输无失真图像的特征参数。
3.基于无参考帧(NR-No Reference)的视频质量评价
无需任何原始图像的信息,通过提取受损图像的各项特征参数,寻找诸如MPEG块边缘,点状噪声或图像模糊等图像缺陷,来获取图像质量的评价结果。此类方法不需要任何来自原始视频图像的数据,仅在接收端即可实现对受损视频图像的质量测量,并要求与主观评价结果具有较好的一致性,因此,此类算法的研究难度较大。由于不需要原始图像信息,无参考客观评价算法可以放入视频应用***中的多个环节上进行在线测试。本***也正是在此基础上提出了一套无参考的数字视频图像质量客观评价***。
无参考算法的国内外研究现状
1.国内研究现状
王新岱等人于2004年提出了一种无参考视频质量评价算法,可较好应用于无线和IP等视频业务的质量评价。该方法通过提取事先嵌入到压缩视频中的水印,并与接收端存储的原始水印拷贝进行比较,从而实现对视频质量的评价。由于该***需要在原始信号中添加水印信息,会在一定程度上破坏图像的质量,此外,在收端也需要有原始的水印信息作为对比,因此具有一定的应用限制性。
殷晓丽等人于2006年提出了一种基于半脆弱性数字水印算法的无参考图像质量评价方法。该***评价结果较好,但具有如上述同样问题,此外该算法是基于静止图像的,无法对视频进行处理。
王正友等人于2006年从噪声检测的角度提出了一种基于掩盖效应的无参考图像质量评价方法。首先对Hosaka分块进行了改进,取消了该方法对图像尺寸的限制。通过分块,将图像以不同的频率成分区分开来,然后计算各个子块的噪声。根据图像的污染程度,提出了基于掩盖效应的无参考图像峰值信噪比NPSNR。实验结果表明,该方法具有无参考、运算复杂度低、主客观较一致等特点。这种方法只是基于噪声来分析图像质量,但是噪声主要是模拟电视***中的主要损伤,因此它不适用于数字视频。
杨付正等人于2006年提出了一种适用于基于块编码视频的无参考质量评价方法。首先结合人类视觉的亮度掩盖和对比度掩盖特性提出了一个符合主观视觉感知的方块效应测度,然后根据滤波对方块效应的影响,给出了一种适合于使用不同压缩和处理算法的基于块编码重构视频的质量评价方法。实验表明该质量评价测度与主观质量评价有较好的一致性。但是该算法只对图像中的块效应进行了分析,而一个参数显然是不足以反映图像的整体质量的。而且该算法是基于人眼掩盖特性的,而要正确地将掩盖特性公式化也是非常困难的。
2.国外研究现状
Pina Marziliano等人于2002年提出了一种基于模糊程度分析的视频图像的无参考评价方法,这种方法是对图像边缘的扩展区域进行分析,根据主观感受来设定感知阈值。这种方法计算复杂度低,速度接近实时播放速度。由于该方法的评价性能要依赖于边缘检测的效果,因此算法的应用将受到一定限制。
Hanghang Tong等人于2004年提出了一种应用于JPEG2000的无参考图像质量评价方法,通过将图像中所有的边缘点归为受损的或者没有受损的,然后使用主成分分析法对给定的边缘像素点提取局部特征,以判断其是否模糊或者有振铃效应。同时还使用边缘像素点是否受损来判断局部图像的受损程度,可以应用于各类局部特征。这种方法的效果在很大程度上也依赖于边缘检测的效果,但是目前还没有非常完善的边缘检测算法,因此该算法的效果也将受到限制。而且这种算法也只能够针对静止图像进行分析,而不能处理视频。
Remco Muijs等人于2005年提出了一种基于特征分析的无参考图像质量评价方法。主要对图像中的块效应进行分析,因为它是影响基于分块压缩图像质量的一个重要因素。通过检测块的位置以及可观测性来判断块效应的程度。该算法是根据块边缘的位置来进行损伤分析的,但是图像的空间偏移将造成块边缘的偏移,而使得计算结果不准确。而且该方法仅仅只分析了图像中的一种损伤,即块效应,显然它是不足以反映图像的总体质量的。
国外的其他相关研究还包括通过回归算法计算主客观拟合参数和通过训练人工神经网络来实现无参考客观评价算法。但是均缺乏对视频图像特征参数的全面分析。目前算法多存在着一定局限性,无法给出图像或视频的整体质量,而且在应用中也会受到各种各样的限制。
发明内容
为了克服目前评价方法的不足,本发明设计了一种基于人工神经网络的无参考视频质量评价方法。这种评价方法综合考虑视频图像的各项特征参数,并结合人眼的视觉特性定义并抽取指定参数作为客观评价***的输入集合,定义对应的主观评价结果作为评价***的输出集合。通过选择测试样本,并获取测试样本的主观评价结果来实现对神经网络的训练。实验表明,训练后的人工神经网络可获取与主观评价结果高度一致的客观评价结果。
本发明的技术思路特征在于:
1、提出了一种无参考视频质量评价方法。该方法可通过分析视频图像的空间和时间统计特性来计算图像受损程度。这些特性包括:空间特征(模糊、。熵、块效应、频域能量分析、饱和度)和时间特性(帧间差)。
2、考虑了色度空间的损伤。目前亮度信息在无参考评价算法设计中占主导地位,而色度空间几乎被忽略。本***所分析的色度损伤,可有效改善评价结果。
3、分析视频图像的各项特性并进行组合,作为基于人工神经网络的评价***的输入参数。
本发明的***框架参见图1。由于该***是基于人工神经网络设计的,因此包含训练和测试两个主要部分。参与训练的视频图像我们称之为“训练样本”,用于检测***性能的视频图像命名为“测试样本”。该方法依次包括下述步骤:
1)、对于训练样本,我们首先提取视频图像的特征参数(提取过程如图2所示),作为人工神经网络的输入参数;同时,通过主观评价获取训练样本的主观评价结果,作为人工神经网络的期望输出结果;
2)、将上述获取参数存入参数数据库,用于训练人工神经网络;
3)、执行人工神经网络的训练过程(神经网络的训练过程如图3所示):对于每个输入样本,我们将其对应的六个特征参数作为***的输入,分别对应于人工神经网络的六个输入节点,而该输入样本对应的期望输出(主观测试结果)作为***的期望输出。根据期望输出与实际输出的差异值,即误差,来调整人工神经网络中各节点间的连接权值。
4)、当满足结束条件时(本***以每次训练所有样本的累积误差作为控制条件,当某次训练中的累积误差小于指定的阈值,则训练过程结束),基于人工神经网络的无参考评价模型即建立完成。之后,可通过测验样本来检测该模型的***性能;阈值的指定一般在10-4,但是具体的数值取决于参加训练的样本数目和特性,在不同的应用领域,训练停止条件需要根据实际情况调整。
5)、对于输入的测试样本,提取同样的特征参数(如图2所示),然后输入到已训练好的模型中,即可获取对测试样本的质量评价结果(测试过程如图5所示)。
对于图1及上述步骤中各模块的说明则按照图编号的顺序进行。
特征提取模块:如图2所示,对于输入的视频图像,首先提取九个特征参数,分别为图像活性、平均梯度、边缘能量统计、过零率统计、熵、块效应、频域能量分布特性、饱和度八个空间特性参数和帧间差一个时间特性参数。其中,除了饱和度是统计色度空间的特征参数外,其他参数均来自视频图像的亮度空间。此外,我们将前四个空间特性进行平均加权,定义为图像的模糊参数。
图像活性Activityimage:是主要反映图像细节纹理的特征量,为图像在水平和垂直方向的图像亮度一阶差分统计。先对图像的每一行作前向差分,并计算其平方和,作为该行的统计结果,然后再将所有行的统计结果累加,得到该场的水平方向图像活性,如下式所示:
D ( i ) = Σ j = 1 M - 1 ( Y ( i , j ) - Y ( i , j - 1 ) ) 2 , ( 0 ≤ i ≤ N - 1 ) - - - ( 1 )
H 1 = Σ i = 0 N - 1 D ( i ) - - - ( 2 )
其中,Y是图像的亮度空间,Y(i,j)是图像第i行、j列像素所对应的亮度值。M、N分别为水平和垂直方向的像素数目(以下公式中,变量Y(i,j)、M、N的定义均与此相同)。D(i)为第i行的统计结果,H1为水平方向的图像活性,用同样的方法可以得到垂直方向的图像活性V1,将两者相加即可得到整幅图像的图像活性(Activityimage=H1+V1)。
平均梯度Ave_Gradient:是反映图像细节纹理的特征量,通过求解像素二阶差分获取。具体计算如下,先求每个像素在水平和垂直方向上的二阶差分,然后求平方和,除以2,再计算平方根,最后对所有像素的梯度值进行累加,并除以总的像素数,得到整幅图像的平均梯度值。公式如下:
G ( i , j ) = ▿ j 2 Y ( i , j ) + ▿ i 2 Y ( i , j ) 2 - - - ( 3 )
Ave _ Gradient = Σ i = 1 N - 2 Σ j = 1 M - 2 G ( i , j ) ( M - 2 ) × ( N - 2 ) - - - ( 4 )
其中,分别为图像像素在(i,j)位置的水平和垂直方向的梯度,如下计算:
▿ j Y ( i , j ) = ( Y ( i , j - 1 ) - Y ( i , j ) ) - ( Y ( i , j ) - Y ( i , j + 1 ) ) - - - ( 5 )
▿ i Y ( i , j ) = ( Y ( i - 1 , j ) - Y ( i , j ) ) - ( Y ( i , j ) - Y ( i + 1 , j ) ) - - - ( 6 )
边缘能量统计Edge_Energy:图像中一个很重要的特征就是图像的边缘特性,它的特征是沿边缘走向的像素变化平缓,而垂直于边缘走向的像素变化剧烈,根据这一特性,可以统计图像的边缘。边缘能量统计的定义公式如下,
e(i,j)=E1(Y(i,j))+E2(Y(i,j))    (7)
Edge _ Energy = 1 ( M - 2 ) × ( N - 2 ) Σ i = 1 N - 2 Σ j = 1 M - 2 e 2 ( i , j ) - - - ( 8 )
其中,E1和E2为两个3*3模板,具体取值: E 1 = | - 1 - 1 1 - 1 4 - 1 1 - 1 - 1 | , E 2 = | 1 - 1 - 1 - 1 4 - 1 - 1 - 1 1 | .
过零率统计ZC:是反映图像边缘细节的特征量,通过比较相邻两个一阶差分的符号获取,对于水平和垂直方向的过零率分别统计。以水平方向的过零率计算为例,具体计算如下:先对每一行像素的亮度值进行一阶差分,然后比较相邻两个一阶差分的符号,如果相邻的两个一阶差分异号,则过零率的统计值就为1,否则为0。如下公式,
Figure C20081010613200114
Z h = Σ i = 0 N - 1 Σ j = 1 M - 2 z h ( i , j ) - - - ( 10 )
其中,Zh为水平方向的过零率统计量,用同样的方法可以得到垂直方向的过零率统计量Zv。将两者相加即可得到图像的过零率统计量(ZC=Zh+Zv)。
这四个参数进行平均加权,可得到图像的第一个空间参数:模糊参数Blurimage(见图2)。计算公式如下:
Blur image = Activity image + Ave _ Gradient + Edge _ Energy + ZC 4 - - - ( 11 )
熵Entropyimage:反映图像所含信息量大小的一个指标,计算方法如信息论中的熵求解公式。对亮度信息求解熵如下公式,
Entropy image = Σ i = 1 L p ( x i ) log 2 1 p ( x i ) - - - ( 12 )
其中,L表示出现的灰度级的数目,p(xi)表示该灰度级的概率(概率定义为该灰度级出现的次数除以图像的总像素数),最后得到的Entropyimage就是整幅图像的熵值。
块效应Blockimage:在视频编解码算法中,块效应所导致的伪边缘多表现为以8为周期的伪周期信号,因此可以从频谱上来对块效应进行分析。以水平方向为例,首先计算每行的一阶差分并求绝对值,如对第i行的求解公式如下,
fi(j)=|Y(i,j+1)-Y(i,j)|    0≤j≤M-2    (13)
如果块效应比较明显,则第i行信号fi(j)中将有一个伪周期信号,周期为8。对fi(j)进行补零,使其长度为2的整数次幂,得到f′i(j),然后对其进行快速傅立叶变换,并计算傅立叶系数的幅度谱,再对每一行都进行同样的操作,最后把所有行的傅立叶变换的幅度谱累加起来。这样就得到了一个水平方向的频域统计的数组,如下式
F ( n ) = Σ i = 0 N - 1 FFT ( f i ′ ( j ) ) , 0 ≤ n ≤ L - 1 - - - ( 14 )
设L为补零后的长度,对F(n)进行分析可以发现,如果块效应比较明显,则在F(n)长度的1/8倍数(L/8,L/4,L/2)的位置即特征频率位置上将出现峰值。块效应越明显,特征频率点的峰值越大,即周期为8的信号的强度越强。因为这些峰值的出现主要是由于块效应所造成的,所以反映在空间上为相邻块之间边缘的差距越大。在计算块效应程度时,可以在这些峰值可能出现的位置上进行分析,首先要确定它是个峰值,即该点的值大于左右两边的值;如果是峰值,则在该点进行中值滤波,滤波的窗口可以为3或者5,将峰值减去中值滤波后得到的值除以幅度谱的直流系数(F(0)),即得到反映图像的块效应在水平方向的特征值Bh。这样做主要是考虑人眼视觉特性中的掩蔽特性。因为在一阶差分后进行了取绝对值,所以直流系数越大,表明这一行像素间的相关性越小,即图像的变化越大,根据人眼的视觉特性,在边缘信息比较多的地方,即图像变化剧烈的地方,损伤就不容易被察觉。所以虽然相邻块边缘的差别一样,但是由于其块内的像素变化比较剧烈而变得不容易被察觉,而除以直流系数以后就可以更好的反应人眼的视觉特性。
将同样的方法用于垂直方向可得到块效应在垂直方向的特征值Bv,两者相加求平均即为总的块效应的特征值:
Block image = B h + B v 2 - - - ( 15 )
由于对每一行都进行傅立叶变换运算量比较大,比较耗时间,所以在此基础上做了进一步改进。还是以水平方向为例,在改进算法中,不是简单的对每行的一阶差分进行快速傅立叶变换,而是对若干行的一阶差分作累加后,再对累加的数组进行快速傅立叶变换,并计算傅立叶系数的幅度谱。在幅度谱的L/8的位置即特征频率位置按之前所介绍的方法进行分析,得到这几行的水平方向块效应特征值。对接下来的几行作同样的操作,并将所有水平方向的特征值相加求平均,即为块效应在水平方向的特征值。将几行累加起来再进行处理,一般为8-16行,可以反映一块区域的块效应程度,而不仅仅只是一行,这对于人眼视觉特性中的掩蔽特性来说,更为合理。按照同样的方法可以得到块效应垂直方向的特征值。改进后的方法在速度上有很大的提高,而且效果更好。在实验中,我们将16行的一阶差分累加后再进行快速傅立叶变换。
频域能量分析Fre_Energy:结合人类视觉***(HSV)特性,考虑人眼对于图像中不同的频率分量有着不同的敏感程度,基于Mannos和Sakrison等人建立的对比度敏感函数(CSF)提取当前图像的频域能量分布特征。通过分析CSF特征曲线可以将多级带通滤波器,因此,在提取图像频域能量分布的过程中,可以先将图像分解为一组有方向性的带通滤波器,每个滤波器只对其中心频率附近一定区域内的空间频率和方向做出响应。在计算图像频域能量的时候,一般获取频域参数的DCT,FFT等变换均可用于分析图像的频域性质,但由于小波分解的数据结构与视觉感知的多通道特性有极大的相似性,因而我们这里采用小波变换作为分析工具。具体步骤如下:
对亮度图像进行四级小波变换,如图4(a)所示,在本文中,所使用的小波是W53小波,它的高通系数和低通系数分别为{0.25,-0.5,0.25},{-0.125,0.25,0.75,0.25,-0.125}。对变化之后的小波系数的幅值分别进行统计,即求得同一级的小波幅值的平方和,并除以这一级的样点总数,得到的值即为这一级对应的频带上的能量E(Lx),其中x取值为0,1,2,3,4。然后利用CSF的非线性带通特性,对小波分解后不同空间频带的小波系数进行加权,加权值为在相应频带内CSF曲线的平均值,见图4(b)。频域能量的计算如下式,Fre_Energy即为得到图像的频域能量的分布特征。
Fre_Energy=2.25×E(L0)+2.87×E(L1)+3.16×E(L2)+2.56×E(L3)+1.00×E(L4)  (16)
在这个过程中,所得到的值反映的是图像中人眼敏感的成分所占的比例,如对于纯色的图像(只有最低频的分量),或者全是噪声的图像(频域能量几乎全集中在最高频的部分),人眼是不会看到什么感兴趣的内容的,当然也不会有敏感成分。
饱和度Chromeimage:图像质量在颜色上的损伤多表现为色度饱和度的下降。具体计算如下,利用图像像素的两个色度分量的模值,即计算U和V分量的平方和并求其平方根,再累加所有模值的统计结果,并除以色度分量的数目,即得到色度的饱和度。如下式所示,
Chrome image = 1 M UV × N UV Σ i = 0 N UV - 1 Σ j = 0 M UV - 1 U 2 ( i , j ) + V 2 ( i , j ) - - - ( 17 )
其中,U(i,j)和V(i,j)分别是图像第i行、j列色度信号所对应的色度取值,MUV、NUV是色度信号在水平和垂直方向像素数目。对于常见的四种色度采样格式,这两个变量的取值与M、N的关系如下:
当采样格式为4:4:4,MUV=M,NUV=N;
当采样格式为4:2:2, M UV = M 2 , NUV=N;
当采样格式为4:1:1, M UV = M 4 , NUV=N;
当采样格式为4:2:0, M UV = M 2 , N UV = N 2 ;
帧间差Diff_Frame:时间特征的提取,这是视频图像质量评价中一个很重要的参数。此特征求解基于前后两幅图像的亮度信息之差,如下式,
Diff _ Frame = Σ i = 0 N - 1 Σ j = 0 M - 1 | Y ( i , j , t + 1 ) - Y ( i , j , t ) | M × N - - - ( 18 )
其中,变量t是视频序列的时间轴参数。帧间差这个参数求解的是,后一帧与前一帧对应像素的亮度差绝对值的平均信息。
特征提取模块输出的训练样本的六个特征参数作为人工神经网络的输入参数,同时,在训练过程中,还需要提供这些训练样本的主观评价结果,作为***在训练阶段的期望输出数据。
附图说明
图1是视频质量评价***的***框图。
图2是特征参数提取模块的示意图。
图3是基于BP算法的人工神经网络框图。
图4是根据CSF曲线确定小波分解所得不同频带的对应加权系数的示意图。其中,图4(a)为四级小波变化后的不同空间频带及对应的加权系数的示意图,图4(b)为CSF曲线在相应空间频带加权值定义的示意图。
图5是测试序列进行客观评价的流程图。
图6是基于人工神经网络的视频评价算法的主界面。
图7是训练样本示意图。
图8是训练样本在测试过程中的主客观拟合性分析,其中横坐标是***输出的客观评价结果,纵坐标是主观评价结果。
图9是测试样本示意图。
图10是测试样本在测试过程中的主客观拟合性分析,其中横坐标是***输出的客观评价结果,纵坐标是主观评价结果。
具体实施方式
在图1的***框图中,训练样本和测试样本均来自标准的视频测试序列,此类序列的选取应严格按照ITU-R BT.1210的标准,特别是训练样本。序列存储可采用YUV文件和其他标准形式。主观评价算法采用的是国际标准中的双刺激连续质量标度法,以DMOS(Difference Mean Opinion Score)作为样本所需的主观评价结果。此外,需要说明一点,在前面的***框架及各模块介绍中,我们一帧图像作为一个基本的处理单元,但是对于隔行扫描的视频显示形式,计算的基本单位为一场,在处理过程中只对一帧画面的顶场进行上述处理即可。
视频质量评价主要通过软件来实现,包括特征参数提取、网络训练、输入序列的质量评价等。下面通过对高清晰度电视视频(以下简称“高清视频”)的客观评价来详细描述***的实现过程。
本***采用的是基于BP学习算法的多层神经网络,这里简称BP网络。
人工神经网络训练模块:如图3所示,本***设计的BP网络只含有一个隐层;输入层定义六个输入节点,分别对应于六个特征参数;输出层只有一个节点,对应视频质量的评价结果,在训练阶段,此节点为期望输出,即对应训练样本的主观评价结果。这里定义的BP网络采用常规训练算法(最速梯度下降法),这里不再详细介绍。训练好的人工神经网络即可实现对视频图像质量的客观评价,对于输入的测试序列,输入测试模块以检测该评价***的性能。
测试模块:测试流程如图5所示。对于输入的测试序列,具体的实现步骤如下:
501:打开测试序列文件,准备读取图像数据;
502:读取当前帧FC和下一帧FN的图像数据;
503:提取前面定义的六项特征参数;
504:各特征参数分别求和,为计算整个序列的对应特征参数作准备;
505:判断FN帧是否为本序列的最后一帧,如果是,转入506;如果不是,转入502;
506:根据序列的总帧数求解各特征参数的均值,即获取该序列对应的最终特征参数;
507:将上述求解的六个序列参数值作为人工神经网络的输入值,通过已训练好的网络计算输入序列的客观评价结果;
508:输出该测试序列视频质量的客观评价结果。
图6为***主界面,可以实现待测量视频的预览、视频各项特征参数的计算、参数数据库的浏览,以及实现对测试序列的客观评价等操作。
首先我们选择满足测试要求的八段原始高清视频(YUV格式,4:2:0,10~14秒),并通过MPEG2硬件编解码器获得8M、10M、12M、14M、16M、18M、20M和25M共八个压缩码流。加上未失真的原始序列,我们共有72个高清视频用于***的建立与测试。
其次,我们通过双刺激连续质量标度法获取这些高清序列的主观评价结果。对于训练样本,主观评价结果作为模型训练过程中的期望输出,用于调整模型参数;对于测试样本,主观评价结果用于分析***输出的客观评价结果的准确性,即通过计算主客观结果的相关系数,来判断该***的评价性能。
训练过程:我们选择六个序列的所***率作为训练样本集(该集合共54个训练样本),六个训练序列的内容如图7所示。提取每个样本的六项参数、连同对应的主观评价结果一起存入参数数据库,用于神经网络的训练。在人工神经网络设计中,隐层的节点数定义为16个,动量因子0.95,学习率的初始值0.0001(在训练中会进行调整),节点间连接权值的初始值为随机数。当满足训练终止条件时(目前实现中定义累计误差的阈值为0.0004),模型训练完成。对于训练好的***,我们再次输入训练样本,并分析***输出的测量结果与主观评价结果的拟合程度,如图8所示,两组数据的相关系数为0.958。
测试过程:我们定义未参与训练的另外两个视频及其所有压缩码率作为测试样本集(共18个测试样本),两个测试序列的内容如图9所示。同样地,先提取序列的六项参数,然后计算***的输出评价结果,即客观评价结果。由于这些序列从未出现在训练过程中,因此,我们可以通过这个测试过程来评价***在实际应用中的可靠性。图10给出了对于测试样本的图像质量,***评价所得的客观评价结果与主观评价结果的相关性,即相关系数为0.930。
***优势分析:基于人工神经网络的无参考视频质量客观评价***可以有效结合公认的具有高可靠性的主观评价结果,因此能最大程度地拟合人眼视觉***,使客观评价结果与主观评价结果具有较高的相关性。从而使得该***可以在一定程度上取代费时、费力、成本昂贵的主观评价,这也是客观评价的意义所在。该***在完成训练后,在实际的视频质量评价过程中不需要任何来自原始视频图像的数据,而仅仅在接收端即可实现对受损视频质量的快速准确测量,更进一步,该***还可作为测量模块放在视频应用***的多个中间环节上进行在线测试,以实现基于视频质量的应用***规划和性能分析。

Claims (3)

1.一种基于人工神经网络的视频质量评价方法,该方法依次包括下述步骤:
1)、对于训练样本,首先提取该样本的特征参数,作为人工神经网络的输入参数;同时,通过主观评价获取训练样本的主观评价结果,作为人工神经网络的期望输出结果;
2)、将上述获取参数,包括样本的特征参数和对应的主观评价结果,存入参数数据库,用于训练人工神经网络;
3)、执行人工神经网络的训练过程:对于每个输入样本,我们将其对应的特征参数作为***的输入,分别对应于人工神经网络的输入节点,而该输入样本对应的主观评价结果作为***的期望输出;根据期望输出与实际输出的差异值,来调整人工神经网络中各节点间的连接权值;
4)、当满足结束条件时,基于人工神经网络的无参考评价模型即建立完成;之后,通过测验样本来检测该模型的***性能;
5)、对于输入的测试样本,提取同样的特征参数,然后输入到已训练好的模型中,即获取对测试样本的质量评价结果;
其特征在于,步骤1)中提取视频图像的特征参数具体为:
提取九个特征参数,分别为图像活性、平均梯度、边缘能量统计、过零率统计、熵、块效应、频域能量分布特性、饱和度八个空间特性参数和帧间差一个时间特性参数;并且将前四个空间特性参数进行平均加权,定义为图像的模糊参数;
图像活性Activityimage
求水平方向图像活性H1,如下式所示:
D ( i ) = Σ j = 1 M - 1 ( Y ( i , j ) - Y ( i , j - 1 ) ) 2 , ( 0 ≤ i ≤ N - 1 ) - - - ( 1 )
H 1 = Σ i = 0 N - 1 D ( i ) - - - ( 2 )
其中,Y是图像的亮度空间,Y(i,j)是图像第i行、j列像素所对应的亮度值;M、N分别为水平和垂直方向的像素数目;D(i)为第i行的统计结果,H1为水平方向的图像活性;用同样的方法得到垂直方向的图像活性V1,将两者相加即得到整幅图像的图像活性Activityimage=H1+V1
以下公式中,变量Y(i,j)、M、N的定义均与上述相同;
平均梯度Ave_Gradient:
先求每个像素平均梯度值G(i,j),然后对所有像素的梯度值进行累加,并除以总的像素数,得到整幅图像的平均梯度值Ave_Gradient,公式如下:
G ( i , j ) = ▿ j 2 Y ( i , j ) + ▿ i 2 Y ( i , j ) 2 - - - ( 3 )
Ave _ Gradient = Σ i = 1 N - 2 Σ j = 1 M - 2 G ( i , j ) ( M - 2 ) × ( N - 2 ) - - - ( 4 )
其中,
Figure C2008101061320003C4
分别为图像像素在(i,j)位置的水平和垂直方向的梯度,按照如下公式计算:
▿ j Y ( i , j ) = ( Y ( i , j - 1 ) - Y ( i , j ) ) - ( Y ( i , j ) - Y ( i , j + 1 ) ) - - - ( 5 )
▿ i Y ( i , j ) = ( Y ( i - 1 , j ) - Y ( i , j ) ) - ( Y ( i , j ) - Y ( i + 1 , j ) ) - - - ( 6 )
边缘能量统计Edge_Energy:
先求解每个像素的边缘信号能量,再求解整幅图像的边缘能量,如下式,
e(i,j)=E1(Y(i,j))+E2(Y(i,j))  (7)
Edge _ Energy = 1 ( M - 2 ) × ( N - 2 ) Σ i = 1 N - 2 Σ j = 1 M - 2 e 2 ( i , j ) - - - ( 8 )
其中,E1和E2为两个3*3模板,具体取值: E 1 = - 1 - 1 1 - 1 4 - 1 1 - 1 - 1 , E 2 = 1 - 1 - 1 - 1 4 - 1 - 1 - 1 1 ;
过零率统计ZC:
分别计算水平和垂直方向的过零率,以水平方向过零率为例,计算如下:先对每一行像素的亮度值进行一阶差分,然后比较相邻两个一阶差分的符号,如果相邻的两个一阶差分异号,则过零率的统计值就为1,否则为0;
如下公式,
Figure C2008101061320003C10
Z h = Σ i = 0 N - 1 Σ j = 1 M - 2 z h ( i , j ) - - - ( 10 )
其中,Zh为水平方向的过零率统计量,用同样的方法得到垂直方向的过零率统计量Zv;将两者相加即得到图像的过零率统计量ZC=Zh+Zv
对以上四个参数进行平均加权,即得到图像的第一个空间参数:模糊参数Blurimage,计算公式如下:
Blur image = Activity image + Ave _ Gradient + Edge _ Energy + ZC 4 - - - ( 11 )
熵Entropyimage
对亮度信息求解熵,如下公式,
Entropy image = Σ i = 1 L p ( x i ) log 2 1 p ( x i ) - - - ( 12 )
其中,L表示出现的灰度级的数目,p(xi)表示该灰度级的概率,该概率的计算通过灰度级出现的次数除以图像的总像素数得到,上述公式得到的Entropyimage就是整幅图像的熵值;
总的块效应的特征值Blockimage
水平方向:首先计算每行的一阶差分并求绝对值,如对第i行的求解公式如下,
fi(j)=|Y(i,j+1)-Y(i,j)|       0≤j≤M-2   (13)
上式得到的fi(j)是长度为M-1的一个数组,对fi(j)进行补零,使其长度成为2的整数次幂,得到f’i(j),然后对其进行快速傅立叶变换,并计算傅立叶系数的幅度谱,再对每一行都进行同样的操作;把所有行的傅立叶变换的幅度谱累加起来,得到了一个水平方向的频域统计的数组,如下式
F ( n ) = Σ i = 0 N - 1 FFT ( f i ′ ( j ) ) , 0 ≤ n ≤ L - 1 - - - ( 14 )
其中,L为补零后的长度;
在计算块效应程度时,对峰值点进行中值滤波,滤波的窗口为3或者5,将峰值减去中值滤波后得到的值除以幅度谱的直流系数F(0),即得到反映图像的块效应在水平方向的特征值Bh
将同样的方法用于垂直方向得到块效应在垂直方向的特征值Bv,两者相加求平均即为总的块效应的特征值:
Block image = B h + B v 2 - - - ( 15 )
频域能量分析Fre_Energy:对亮度图像进行频域能量分析得到图像频域能量的分布特征;
饱和度Chromeimage:通过图像的两个色度空间来计算饱和度这个特征,计算如下,首先计算图像像素两个色度分量U和V的平方和并求其平方根,作为像素的色度模值,再累加所有模值的统计结果,并除以色度分量的数目,即得到图像的饱和度参数;如下式所示,
Chrome image = 1 M UV × N UV Σ i = 0 N UV - 1 Σ j = 0 M UV - 1 U 2 ( i , j ) + V 2 ( i , j ) - - - ( 17 )
其中,U(i,j)和V(i,j)分别是图像第i行、j列色度信号所对应的色度取值,MUV、NUV是色度信号在水平和垂直方向像素数目,对于常见的四种色度采样格式,这两个变量的取值与M、N的关系如下:
当采样格式为4:4:4,MUV=M,NUV=N;
当采样格式为4:2:2, M UV = M 2 , NUV=N;
当采样格式为4:1:1, M UV = M 4 , NUV=N;
当采样格式为4:2:0, M UV = M 2 , N UV = N 2 ;
帧间差Diff_Frame:
此特征求解基于前后两幅图像的亮度信息之差,如下式,
Diff _ Frame = Σ i = 0 N - 1 Σ j = 0 M - 1 | Y ( i , j , t + 1 ) - Y ( i , j , t ) | M × N - - - ( 18 )
其中,变量t是视频序列的时间轴参数;帧间差这个参数求解的是,后一帧与前一帧对应像素的亮度差绝对值的平均信息。
2.根据权利要求1所述的视频质量评价方法,其特征在于:计算总的块效应的特征值Blockimage,其中进行快速傅立叶变换时,对Q行的一阶差分作累加后,再对累加的数组进行快速傅立叶变换,并计算傅立叶系数的幅度谱;计算这Q行的水平方向块效应特征值;对接下来的Q行作同样的操作,Q的值为8至16间任意一个数值,依此方法处理完整幅图像,并将所有水平方向的特征值相加求平均,即为块效应在水平方向的特征值。
3.根据权利要求1所述的视频质量评价方法,其特征在于:对亮度图像使用小波变换进行频域能量分析,频域能量分析使用的小波是W53小波,它的高通系数和低通系数分别为{0.25,-0.5,0.25},{-0.125,0.25,0.75,0.25,-0.125};对四级变换之后的小波系数的幅值分别进行统计,即求得同一级的小波幅值的平方和,并除以这一级的样点总数,得到的值即为这一级对应的频带上的能量E(Lx);其中的x为0,1,2,3,4;
然后利用CSF的非线性带通特性,对小波分解后不同空间频带的小波系数进行加权,频域能量的计算如下式,Fre_Energy即为得到图像频域能量的分布特征:
Fre_Energy=2.25×E(L0)+2.87×E(L1)+3.16×E(L2)+2.56×E(L3)+1.00×E(L4)  (16)。
CN 200810106132 2008-05-09 2008-05-09 一种基于人工神经网络的视频质量评价方法 Expired - Fee Related CN100559881C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810106132 CN100559881C (zh) 2008-05-09 2008-05-09 一种基于人工神经网络的视频质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810106132 CN100559881C (zh) 2008-05-09 2008-05-09 一种基于人工神经网络的视频质量评价方法

Publications (2)

Publication Number Publication Date
CN101282481A CN101282481A (zh) 2008-10-08
CN100559881C true CN100559881C (zh) 2009-11-11

Family

ID=40014717

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810106132 Expired - Fee Related CN100559881C (zh) 2008-05-09 2008-05-09 一种基于人工神经网络的视频质量评价方法

Country Status (1)

Country Link
CN (1) CN100559881C (zh)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742353B (zh) * 2008-11-04 2012-01-04 工业和信息化部电信传输研究所 无参考视频质量评价方法
CN101426150B (zh) * 2008-12-08 2011-05-11 青岛海信电子产业控股股份有限公司 视频图像质量测评的方法和***
CN101765026B (zh) * 2008-12-24 2011-07-27 ***通信集团公司 一种图像质量评价值的修正方法和修正***
CN101901482B (zh) * 2009-05-31 2012-05-02 汉王科技股份有限公司 判断去雾增强图像质量效果的方法
CN101668226B (zh) * 2009-09-11 2011-05-04 重庆医科大学 获取质量最好彩色图像的方法
EP2486732B1 (en) * 2009-10-10 2016-04-20 Thomson Licensing Method and device for calculating blur in video images
CN101877127B (zh) * 2009-11-12 2012-04-11 北京大学 基于梯度剖面的图像无参考质量评价方法及***
CN101789091A (zh) * 2010-02-05 2010-07-28 上海全土豆网络科技有限公司 视频清晰度自动识别***及其方法
WO2011134110A1 (en) * 2010-04-30 2011-11-03 Thomson Licensing Method and apparatus for measuring video quality using at least one semi -supervised learning regressor for mean observer score prediction
WO2012012914A1 (en) * 2010-07-30 2012-02-02 Thomson Broadband R & D (Beijing) Co. Ltd. Method and apparatus for measuring video quality
CN101950418B (zh) * 2010-08-26 2012-08-08 北京中创信测科技股份有限公司 一种图像质量评价方法和装置
CN102137271A (zh) * 2010-11-04 2011-07-27 华为软件技术有限公司 一种图像质量评价方法及装置
CN102478584B (zh) * 2010-11-26 2014-10-15 香港理工大学 基于小波分析的风电场风速预测方法及***
CN102098530A (zh) * 2010-12-02 2011-06-15 惠州Tcl移动通信有限公司 摄像头模组品质的自动判别方法和装置
CN102572501A (zh) * 2010-12-23 2012-07-11 华东师范大学 考虑网络性能及视频本身特征的视频质量评估方法及装置
CN102075786B (zh) * 2011-01-19 2012-10-24 宁波大学 一种图像客观质量评价方法
CN102202227B (zh) * 2011-06-21 2013-02-20 珠海世纪鼎利通信科技股份有限公司 一种无参考视频质量客观评估方法
KR101846449B1 (ko) * 2011-06-21 2018-04-09 톰슨 라이센싱 사용자 단말 디바이스, 서버 디바이스, 매체 데이터의 품질을 평가하기 위한 시스템 및 방법
CN102231844B (zh) * 2011-07-21 2013-04-03 西安电子科技大学 基于结构相似度和人眼视觉的视频图像融合性能评价方法
CN102955947B (zh) * 2011-08-19 2017-09-22 北京百度网讯科技有限公司 一种用于确定图像清晰度的设备及其方法
CN102539326B (zh) * 2012-01-13 2014-03-12 江苏大学 茶叶汤色品质的量化评价方法
CN103369349B (zh) * 2012-03-28 2016-04-27 ***通信集团公司 一种数字视频质量控制方法及其装置
CN102685548B (zh) * 2012-05-29 2015-09-30 公安部第三研究所 视频质量的无参评估方法
CN102880934A (zh) * 2012-09-07 2013-01-16 中国标准化研究院 一种食品企业诚信评价方法
CN103354617B (zh) * 2013-07-03 2015-03-04 宁波大学 一种基于dct域的边缘强度压缩的图像质量客观评价方法
CN103871054B (zh) * 2014-02-27 2017-01-11 华中科技大学 一种基于组合指标的图像分割结果定量评价方法
CN103841410B (zh) * 2014-03-05 2016-05-04 北京邮电大学 基于图像特征信息的半参考视频QoE客观评估方法
CN105338339B (zh) * 2014-07-29 2018-02-27 联想(北京)有限公司 信息处理方法及电子设备
CN105991995B (zh) * 2015-02-13 2019-05-31 中国科学院西安光学精密机械研究所 基于3d-dct域统计分析的无参考视频质量评价方法
GB201515142D0 (en) * 2015-08-26 2015-10-07 Quantel Holdings Ltd Determining a quality measure for a processed video signal
CN105205504B (zh) * 2015-10-04 2018-09-18 北京航空航天大学 一种基于数据驱动的图像关注区域质量评价指标学习方法
US10410330B2 (en) 2015-11-12 2019-09-10 University Of Virginia Patent Foundation System and method for comparison-based image quality assessment
CN105513048A (zh) * 2015-11-24 2016-04-20 西安电子科技大学昆山创新研究院 基于子带信息熵度量的图像质量评价方法
CN105608700B (zh) * 2015-12-24 2019-12-17 广州视源电子科技股份有限公司 照片的筛选方法及***
WO2017132288A1 (en) * 2016-01-25 2017-08-03 Google Inc. Generating images using neural networks
CN105516716B (zh) * 2016-01-27 2017-10-27 华东师范大学 闭环安防***视频画质的现场测试方法
CN105913433A (zh) * 2016-04-12 2016-08-31 北京小米移动软件有限公司 信息推送方法及装置
CN106228556B (zh) * 2016-07-22 2019-12-06 北京小米移动软件有限公司 图像质量分析方法和装置
CN106060537B (zh) * 2016-08-04 2019-08-13 腾讯科技(深圳)有限公司 一种视频质量评估方法及装置
CN106383888A (zh) * 2016-09-22 2017-02-08 深圳市唯特视科技有限公司 一种利用图片检索定位导航的方法
CN106651829B (zh) * 2016-09-23 2019-10-08 中国传媒大学 一种基于能量和纹理分析的无参考图像客观质量评价方法
CN108509457A (zh) * 2017-02-28 2018-09-07 阿里巴巴集团控股有限公司 一种视频数据的推荐方法和装置
CN108665433B (zh) * 2017-04-01 2021-05-18 西安电子科技大学 一种结合多种特征的无参考自然图像质量评价方法
CN107027023B (zh) * 2017-04-24 2018-07-13 北京理工大学 基于神经网络的VoIP无参考视频通信质量客观评价方法
CN107360435B (zh) * 2017-06-12 2019-09-20 苏州科达科技股份有限公司 块效应检测方法、块噪声滤除方法及装置
CN107396094B (zh) * 2017-08-17 2019-02-22 上海大学 面向多摄像头监控***中单个摄像头损坏的自动检测方法
CN109495772B (zh) * 2017-09-11 2021-10-15 阿里巴巴(中国)有限公司 一种视频质量的排序方法及***
CN108230314B (zh) * 2018-01-03 2022-01-28 天津师范大学 一种基于深度激活池化的图像质量评估方法
CN108289221B (zh) * 2018-01-17 2019-08-30 华中科技大学 异常值检测的无参考图像质量评价模型及构建方法
CN108401150B (zh) * 2018-03-22 2019-08-27 浙江科技学院 一种模拟视觉主观感知的压缩感知重建算法质量统计评价方法
CN108615231B (zh) * 2018-03-22 2020-08-04 浙江科技学院 一种基于神经网络学习融合的全参考图像质量客观评价方法
CN110163901A (zh) * 2019-04-15 2019-08-23 福州瑞芯微电子股份有限公司 一种后处理评价方法及***
CN109840598B (zh) * 2019-04-29 2019-08-09 深兰人工智能芯片研究院(江苏)有限公司 一种深度学习网络模型的建立方法及装置
CN110278415B (zh) * 2019-07-02 2020-04-28 浙江大学 一种网络摄像机视频质量提升方法
CN111061895A (zh) * 2019-07-12 2020-04-24 北京达佳互联信息技术有限公司 图像推荐的方法、装置、电子设备及存储介质
CN114584849B (zh) * 2019-09-24 2023-05-05 腾讯科技(深圳)有限公司 视频质量评估方法、装置、电子设备及计算机存储介质
CN110677639B (zh) * 2019-09-30 2021-06-11 中国传媒大学 一种基于特征融合和循环神经网络的无参考视频质量评价方法
CN110582008B (zh) * 2019-09-30 2022-01-21 北京奇艺世纪科技有限公司 一种视频质量评价方法及装置
CN110730037B (zh) * 2019-10-21 2021-02-26 苏州大学 一种基于动量梯度下降法的相干光通信***光信噪比监测方法
CN111127437A (zh) * 2019-12-25 2020-05-08 浙江传媒学院 一种基于色彩空间分解的全参考图像质量评价方法
CN111385567B (zh) * 2020-03-12 2021-01-05 上海交通大学 一种超高清视频质量评价方法及装置
CN111711816B (zh) * 2020-07-08 2022-11-11 福州大学 基于可察知编码效应强度的视频客观质量评价方法
CN114125495A (zh) * 2020-08-11 2022-03-01 中国电信股份有限公司 视频质量评估模型训练方法、视频质量评价方法和装置
CN113240249B (zh) * 2021-04-26 2022-04-29 泰瑞数创科技(北京)有限公司 基于无人机增强现实的城市工程质量智能评价方法及其***
CN114240849B (zh) * 2021-11-25 2023-03-31 电子科技大学 一种基于梯度变化的无参考jpeg图像质量评价方法
CN114445386B (zh) * 2022-01-29 2023-02-24 泗阳三江橡塑有限公司 一种基于人工智能的pvc管件质量检测评估方法及***
CN115097526B (zh) * 2022-08-22 2022-11-11 江苏益捷思信息科技有限公司 地震采集资料质量评价方法

Also Published As

Publication number Publication date
CN101282481A (zh) 2008-10-08

Similar Documents

Publication Publication Date Title
CN100559881C (zh) 一种基于人工神经网络的视频质量评价方法
CN100559880C (zh) 一种基于自适应st区的高清视频图像质量评价方法及装置
CN104243973B (zh) 基于感兴趣区域的视频感知质量无参考客观评价方法
CN104079925B (zh) 基于视觉感知特性的超高清视频图像质量客观评价方法
Wang et al. Novel spatio-temporal structural information based video quality metric
CN101562675B (zh) 基于Contourlet变换的无参考型图像质量评测方法
CN102523477B (zh) 一种基于双目最小可辨失真模型的立体视频质量评价方法
Tian et al. A multi-order derivative feature-based quality assessment model for light field image
CN103037217B (zh) 检测内插图像中的图像损坏
CN105049838B (zh) 一种用于压缩立体视频质量的客观评价方法
CN105049851A (zh) 基于色彩感知的通用无参考图像质量评价方法
CN101482973A (zh) 基于早期视觉的部分参考图像质量评价方法
Li et al. GridSAR: Grid strength and regularity for robust evaluation of blocking artifacts in JPEG images
CN109788275A (zh) 自然性、结构和双目不对称无参考立体图像质量评价方法
CN110443800A (zh) 视频图像质量的评价方法
Lahoulou et al. Full-reference image quality metrics performance evaluation over image quality databases
Dimauro A new image quality metric based on human visual system
CN114915777A (zh) 一种基于深度强化学习的无参考超高清视频质量客观评价方法
CN104574424A (zh) 基于多分辨率dct边缘梯度统计的无参照图像模糊度评价方法
CN105844640A (zh) 基于梯度的彩色图像质量评价方法
CN107578406A (zh) 基于网格与韦泊统计特性的无参考立体图像质量评价方法
Guo et al. Gabor difference analysis of digital video quality
Chan et al. A psychovisually-based image quality evaluator for JPEG images
CN116363094A (zh) 一种超分辨率重建图像质量评价方法
CN102496162B (zh) 基于非张量积小波滤波器的部分参考图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20091111

Termination date: 20120509