CN108230314B - 一种基于深度激活池化的图像质量评估方法 - Google Patents
一种基于深度激活池化的图像质量评估方法 Download PDFInfo
- Publication number
- CN108230314B CN108230314B CN201810006031.6A CN201810006031A CN108230314B CN 108230314 B CN108230314 B CN 108230314B CN 201810006031 A CN201810006031 A CN 201810006031A CN 108230314 B CN108230314 B CN 108230314B
- Authority
- CN
- China
- Prior art keywords
- image
- activation
- convolution
- contrast
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种基于深度激活池化的图像质量评估方法,该方法包括:将训练图像输入至卷积神经网络,得到卷积激活图;利用第一预设卷积层中的卷积激活图,得到卷积激活求和图,并进而得到训练图像的高对比度图像区域;基于每个高对比度图像区域的特征向量,训练得到原始多元高斯模型;获取测试图像每个高对比度图像区域的特征向量对应的多元高斯模型;将两个高斯模型进行对比,得到测试图像的每个高对比度图像区域的图像质量得分,对其进行加权处理得到测试图像的图像质量得分。本发明能够将重要的特征信息和笔画结构信息结合在特征向量中,达到有效挖掘显著特征信息和笔画结构信息的目的,从而提高图像质量评估的准确率。
Description
技术领域
本发明属于图像处理和人工智能技术领域,具体涉及一种基于深度激活池化的图像质量评估方法。
背景技术
图像质量评估在图像处理领域扮演着重要的角色,它可以直接应用到图像采集、图像传输、图像压缩、图像增强、图像恢复等领域。在实际应用中,全盲的图像质量评估是一个很有挑战性的研究方向,因为参考图像的信息和失真的过程是未可知的。
近几十年图像质量评估被广泛研究,一些早期的方法利用参考图像进行质量评估。但是,全参考图像质量评估方法有很大的局限性,因为在实际应用中参考图像往往是不可获得的。为解决这个问题,大量无参考的图像质量评估方法被提出,并取得了较大的进步,但是这些方法主要是针对特定的失真类型,所以这些方法的应用范围是很局限的。近年来,全盲的图像质量评估方法被提出,并且取得了一定的成功。如:Mittal等人提出的BRISQUE(blind/referenceless image spatial quality evaluator,全盲/无参考的图像空间质量评估),利用局部归一化亮度系数统计来评估图像质量。Xue等人使用GM(gradientmagnitude,梯度幅值)和LOG(Laplacian of Gaussian,拉普拉斯高斯)特征的联合统计来学***。Zhang等人提出IL-NIQE(the integrated local natural imagequality evaluator,集成本地自然图像质量评估)以预测图像质量。虽然以上方法取得了较大的成功,但是他们直接使用平均池得到最终的图像质量。平均池缺乏判别性,因为不管图像区域质量得分是否重要,他们对最终的图像质量得分的贡献都被相同对待,所以不能够充分的保留显著的特征信息和笔画结构信息,从而影响图像质量评估的准确性。
发明内容
本发明的目的是要解决显著特征信息和笔画结构信息对图像质量评估结果影响较大的技术问题,为此,本发明提供一种基于深度激活池化的图像质量评估方法。
为了实现所述目的,本发明基于深度激活池化的图像质量评估方法包括以下步骤:
步骤S1,将训练图像输入至预先训练得到的卷积神经网络中,得到卷积激活图;
步骤S2,利用第一预设卷积层中的卷积激活图,得到卷积激活求和图;
步骤S3,利用所述卷积激活求和图,得到所述训练图像的高对比度图像区域;
步骤S4,对于每个高对比度图像区域进行特征提取,得到相应的特征向量;
步骤S5,基于所述高对比度图像区域的特征向量,训练得到原始多元高斯模型;
步骤S6,获取测试图像及其高对比度图像区域,并对于每个高对比度图像区域进行特征提取,得到相应的特征向量及对应的多元高斯模型;
步骤S7,将所述多元高斯模型与所述原始多元高斯模型进行对比,得到测试图像的每个高对比度图像区域的图像质量得分;
步骤S8,利用测试图像第二预设卷积层中的卷积激活求和图对相应的高对比度图像区域图像质量得分进行加权,得到整个测试图像的图像质量得分。
可选地,所述步骤S1包括:
步骤S11,将所述训练图像的大小归一化为H×W,其中,H和W分别表示训练图像的高度和宽度;
步骤S12,将归一化后的训练图像输入至所述卷积神经网络中,得到卷积激活图HC×WC×N,其中,HC和WC分别表示卷积激活图的高度和宽度,N表示卷积激活图的数目。
可选地,所述步骤S2包括:
步骤S21,获取第一预设卷积层中的卷积激活图Hs×Ws×Ns,其中,下标s表示第一预设卷积层的序号,Hs和Ws分别表示第一预设卷积层卷积激活图的高度和宽度,Ns表示第一预设卷积层卷积激活图的数目;
步骤S22,将Ns个大小为Hs×Ws的卷积激活图的对应位置元素相加,得到卷积求和图。
可选地,所述步骤S3包括:
步骤S31,获取所述卷积激活求和图中每个激活响应的对比度σ(i,j),其中,σ(i,j)表示卷积激活求和图的第(i,j)位置的激活响应对比度;
步骤S32,将激活响应区域中每个位置对应的激活响应对比度相加,得到该区域的激活响应对比度;
步骤S33,选择激活响应对比度高于预设阈值的激活响应区域,并将这些激活响应区域投影到所对应的训练图像区域,得到的一组图像区域即为所述训练图像的高对比度图像区域。
可选地,卷积激活求和图的第(i,j)位置的激活响应对比度σ(i,j)表示为:
其中,wx,y(x=-X,...,X,y=-Y,...,Y)表示大小为X×Y的高斯加权窗口的权重值,C(i,j)表示卷积激活求和图中第(i,j)位置的激活响应,u(i,j)为由高斯加权窗口限定出的局部区域,即激活响应区域的激活响应的平均值,表示为:
可选地,所述步骤S4包括:
步骤S41,对于一个高对比度图像区域提取多种特征;
步骤S42,将提取得到的多种特征进行串联,得到该高对比度图像区域的特征向量。
可选地,所述步骤S5中的原始多元高斯模型l(f)表示为:
其中,f∈RD×1表示高对比图像区域的特征向量,D为特征向量的维度,μ和∑分别表示f的均值向量和协方差矩阵。
可选地,所述步骤S6包括:
步骤S61,获取测试图像及其高对比度图像区域;
步骤S62,获取每个高对比度图像区域的特征向量;
步骤S63,将每个特征向量拟合为一个多元高斯模型(μp,∑'),其中,p(p=1,2,...,P)表示测试图像中的第p个高对比图像区域,P表示测试图像中高对比图像区域的个数,μp和∑'分别表示相应特征向量的均值向量和协方差矩阵。
可选地,所述步骤S7中,利用下式计算测试图像的每个高对比度图像区域的图像质量得分:
其中,sp表示第p个高对比度图像区域的图像质量得分,μ和∑分别表示训练图像的高对比图像区域的特征向量的均值向量和协方差矩阵。
可选地,所述步骤S8包括:
步骤S81,获取测试图像第二预设卷积层中的卷积激活图Ht×Wt×Nt,其中,下标t表示第二预设卷积层的序号,Ht和Wt分别表示第二预设卷积层卷积激活图的高度和宽度,Nt表示第二预设卷积层卷积激活图的数目;
步骤S82,将Nt个大小为Ht×Wt的卷积激活图的对应位置元素相加,得到卷积求和图;
步骤S83,在卷积求和图中确定与每个高对比度图像区域对应的卷积求和区域,并将卷积求和区域中激活响应的和作为测试图像的每个高对比度图像区域的权重,记为w=(w1,w2,...,wi...,wP),其中,wi表示第i个高对比度图像区域的权重,i=1…P;
步骤S84,对高对比度图像区域的图像质量得分S=(s1,s2,...,si,...,sP)进行加权求和,得到测试图像的图像质量得分,其中,si表示第i个高对比度图像区域的得分。
本发明的有益效果为:本发明通过高对比度图像区域选取和深度激活池化,能够将重要的特征信息和笔画结构信息结合在特征向量中,达到有效挖掘显著特征信息和笔画结构信息的目的,从而提高图像质量评估的准确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240、No.61401309、天津市自然科学基金项目No.17JCZDJC30600、No.15JCQNJC01700、天津师范大学基金项目No.135202RC1703、中国科学院模式识别国家重点实验室开放课题No.201700001。
附图说明
图1是根据本发明一实施例的基于深度激活池化的图像质量评估方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例的基于深度激活池化的图像质量评估方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。本发明基于深度激活池化的图像质量评估方法包括以下步骤:
步骤S1,将训练图像输入至预先训练得到的卷积神经网络中,得到卷积激活图;
其中,所述步骤S1包括以下步骤:
步骤S11,将所述训练图像的大小归一化为H×W,其中,H和W分别表示训练图像的高度和宽度;
在本发明一实施例中,所述训练图像的大小归一化为544×544。
步骤S12,将归一化后的训练图像输入至所述卷积神经网络中,得到卷积激活图HC×WC×N,其中,HC和WC分别表示卷积激活图的高度和宽度,N表示卷积激活图的数目。
在本发明一实施例中,所使用的卷积神经网络为VGG-19。
步骤S2,利用第一预设卷积层中的卷积激活图,得到卷积激活求和图;
进一步地,所述步骤S2包括以下步骤:
步骤S21,获取第一预设卷积层中的卷积激活图Hs×Ws×Ns,其中,下标s表示第一预设卷积层的序号,Hs和Ws分别表示第一预设卷积层卷积激活图的高度和宽度,Ns表示第一预设卷积层卷积激活图的数目;
所述第一预设卷积层可以从所有卷积层中的前几个卷积层中进行选择,在本发明一实施例中,利用第4个卷积层中的卷积激活图得到卷积激活求和图,也就是说,所述第一预设卷积层为第4个卷积层,此时,所述卷积激活图表示为H4×W4×N4,更具体地,可取为112×112×128。
步骤S22,将Ns个大小为Hs×Ws的卷积激活图的对应位置元素相加,得到卷积求和图。
其中,所述卷积求和图可以表示为:
其中,C(i,j)表示卷积激活求和图中第(i,j)位置的激活响应,cn(i,j)表示第s个卷积层中的第n个卷积图的第(i,j)位置的激活响应,Ns是该卷积层中卷积激活图的总数目。
步骤S3,利用所述卷积激活求和图,得到所述训练图像的高对比度图像区域;
进一步地,所述步骤S3包括以下步骤:
步骤S31,获取所述卷积激活求和图中每个激活响应的对比度σ(i,j),其中,σ(i,j)表示卷积激活求和图的第(i,j)位置的激活响应对比度,可以表示为:
其中,wx,y(x=-X,...,X,y=-Y,...,Y)表示大小为X×Y的高斯加权窗口的一个权重值,u(i,j)为由高斯加权窗口限定出的局部区域,即激活响应区域的激活响应的平均值,表示为:
步骤S32,将激活响应区域中每个位置对应的激活响应对比度相加,得到该区域的激活响应对比度;
其中,激活响应区域的激活响应对比度可以表示为:
其中,r表示激活响应区域,σr表示该激活响应区域的激活响应对比度。
步骤S33,选择激活响应对比度高于预设阈值的激活响应区域,并将这些激活响应区域投影到所对应的训练图像区域,得到的一组图像区域即为所述训练图像的高对比度图像区域。
其中,所述预设阈值的具体取值可根据实际应用的需要来确定,本发明对其不作具体限定,比如,所述预设阈值可设置为使高对比度图像区域的占比达到75%。
步骤S4,对于每个高对比度图像区域进行特征提取,得到相应的特征向量;
进一步地,所述步骤S4包括以下步骤:
步骤S41,对于一个高对比度图像区域提取多种特征;
其中,所述特征包括:去均值对比度归一化特征、去均值对比度归一化乘积特征、梯度特征、log-Gabor特征以及颜色特征中的一种或多种。
步骤S42,将提取得到的多种特征进行串联,得到该高对比度图像区域的特征向量。
步骤S5,基于所述高对比度图像区域的特征向量,训练得到原始多元高斯模型;
其中,所述步骤S5中的原始多元高斯模型l(f)表示为:
其中,f∈RD×1表示高对比图像区域的特征向量,D为特征向量的维度,μ和∑分别表示f的均值向量和协方差矩阵。
步骤S6,获取测试图像及其高对比度图像区域,并对于每个高对比度图像区域进行特征提取,得到相应的特征向量及对应的多元高斯模型;
进一步地,所述步骤S6包括以下步骤:
步骤S61,按照与上文相似的方法获取测试图像及其高对比度图像区域;
步骤S62,按照与上文相似的方法获取每个高对比度图像区域的特征向量;
步骤S63,将每个特征向量拟合为一个多元高斯模型(μp,∑'),其中,p(p=1,2,...,P)表示测试图像中的第p个高对比图像区域,P表示测试图像中高对比图像区域的个数,μp和∑'分别表示相应特征向量的均值向量和协方差矩阵,其中,P个高对比度图像区域可以共用一个协方差矩阵。
步骤S7,将所述多元高斯模型与所述原始多元高斯模型进行对比,得到测试图像的每个高对比度图像区域的图像质量得分;
其中,所述步骤S7中,直接将多元高斯模型与原始多元高斯模型进行对比,来得到测试图像的每个高对比度图像区域的图像质量得分过程复杂度很高,在本发明一实施例中,将测试图像的每个高对比度图像区域的图像质量得分计算简化为:
其中,sp表示第p个高对比度图像区域的图像质量得分。
步骤S8,利用测试图像第二预设卷积层中的卷积激活求和图对相应的高对比度图像区域图像质量得分进行加权,得到整个测试图像的图像质量得分。
进一步地,所述步骤S8包括以下步骤:
步骤S81,获取测试图像第二预设卷积层中的卷积激活图Ht×Wt×Nt,其中,下标t表示第二预设卷积层的序号,Ht和Wt分别表示第二预设卷积层卷积激活图的高度和宽度,Nt表示第二预设卷积层卷积激活图的数目;
所述第二预设卷积层可以从所有卷积层中的后几个卷积层中进行选择,在本发明一实施例中,利用第7个卷积层中的卷积激活图得到卷积激活求和图,也就是说,所述第二预设卷积层为第7个卷积层,此时,所述卷积激活图表示为H7×W7×N7,更具体地,可取为56×56×256。
步骤S82,将Nt个大小为Ht×Wt的卷积激活图的对应位置元素相加,得到卷积求和图;
步骤S83,在卷积求和图中确定与每个高对比度图像区域对应的卷积求和区域,并将卷积求和区域中激活响应的和作为测试图像的每个高对比度图像区域的权重,记为w=(w1,w2,...,wi...,wP),其中,wi表示第i个高对比度图像区域的权重,i=1…P;
步骤S84,对高对比度图像区域的图像质量得分S=(s1,s2,...,si,...,sP)进行加权求和,得到测试图像的图像质量得分,其中,si表示第i个高对比度图像区域的得分;
所述测试图像的图像质量得分可以表示为:
其中,sfinal为测试图像的图像质量得分。
以网上公开的图像质量评估数据库作为测试对象,比如在CSIQ数据库上,当保留75%的高对比图像区域时,图像质量评估结果为82.8%(SRCC)和86.7%(PRCC),由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (7)
1.一种基于深度激活池化的图像质量评估方法,其特征在于,该方法包括:
步骤S1,将训练图像输入至预先训练得到的卷积神经网络中,得到卷积激活图;
步骤S2,利用第一预设卷积层中的卷积激活图,得到卷积激活求和图;
步骤S3,利用所述卷积激活求和图,得到所述训练图像的高对比度图像区域;
步骤S4,对于每个高对比度图像区域进行特征提取,得到相应的特征向量;
步骤S5,基于所述高对比度图像区域的特征向量,训练得到原始多元高斯模型;
步骤S6,获取测试图像及其高对比度图像区域,并对于每个高对比度图像区域进行特征提取,得到相应的特征向量及对应的多元高斯模型;
步骤S7,将所述多元高斯模型与所述原始多元高斯模型进行对比,得到测试图像的每个高对比度图像区域的图像质量得分;
步骤S8,利用测试图像第二预设卷积层中的卷积激活求和图对相应的高对比度图像区域图像质量得分进行加权,得到整个测试图像的图像质量得分;
其中,所述步骤S2包括:
步骤S21,获取第一预设卷积层中的卷积激活图Hs×Ws×Ns,其中,下标s表示第一预设卷积层的序号,Hs和Ws分别表示第一预设卷积层卷积激活图的高度和宽度,Ns表示第一预设卷积层卷积激活图的数目;
步骤S22,将Ns个大小为Hs×Ws的卷积激活图的对应位置元素相加,得到卷积求和图;
所述步骤S3包括:
步骤S31,获取所述卷积激活求和图中每个激活响应的对比度σ(i,j),其中,σ(i,j)表示卷积激活求和图的第(i,j)位置的激活响应对比度,表示为:
其中,wx,y(x=-X,...,X,y=-Y,...,Y)表示大小为X×Y的高斯加权窗口的权重值,C(i,j)表示卷积激活求和图中第(i,j)位置的激活响应,u(i,j)为由高斯加权窗口限定出的局部区域,即激活响应区域的激活响应的平均值,表示为:
步骤S32,将激活响应区域中每个位置对应的激活响应对比度相加,得到该区域的激活响应对比度;
步骤S33,选择激活响应对比度高于预设阈值的激活响应区域,并将这些激活响应区域投影到所对应的训练图像区域,得到的一组图像区域即为所述训练图像的高对比度图像区域。
2.根据权利要求1的方法,其特征在于,所述步骤S1包括:
步骤S11,将所述训练图像的大小归一化为H×W,其中,H和W分别表示训练图像的高度和宽度;
步骤S12,将归一化后的训练图像输入至所述卷积神经网络中,得到卷积激活图HC×WC×N,其中,HC和WC分别表示卷积激活图的高度和宽度,N表示卷积激活图的数目。
3.根据权利要求1的方法,其特征在于,所述步骤S4包括:
步骤S41,对于一个高对比度图像区域提取多种特征;
步骤S42,将提取得到的多种特征进行串联,得到该高对比度图像区域的特征向量。
5.根据权利要求1的方法,其特征在于,所述步骤S6包括:
步骤S61,获取测试图像及其高对比度图像区域;
步骤S62,获取每个高对比度图像区域的特征向量;
步骤S63,将每个特征向量拟合为一个多元高斯模型(μp,∑'),其中,p(p=1,2,...,P)表示测试图像中的第p个高对比图像区域,P表示测试图像中高对比图像区域的个数,μp和∑'分别表示相应特征向量的均值向量和协方差矩阵。
7.根据权利要求1的方法,其特征在于,所述步骤S8包括:
步骤S81,获取测试图像第二预设卷积层中的卷积激活图Ht×Wt×Nt,其中,下标t表示第二预设卷积层的序号,Ht和Wt分别表示第二预设卷积层卷积激活图的高度和宽度,Nt表示第二预设卷积层卷积激活图的数目;
步骤S82,将Nt个大小为Ht×Wt的卷积激活图的对应位置元素相加,得到卷积求和图;
步骤S83,在卷积求和图中确定与每个高对比度图像区域对应的卷积求和区域,并将卷积求和区域中激活响应的和作为测试图像的每个高对比度图像区域的权重,记为w=(w1,w2,...,wi...,wP),其中,wi表示第i个高对比度图像区域的权重,i=1…P;
步骤S84,对高对比度图像区域的图像质量得分S=(s1,s2,...,si,...,sP)进行加权求和,得到测试图像的图像质量得分,其中,si表示第i个高对比度图像区域的得分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810006031.6A CN108230314B (zh) | 2018-01-03 | 2018-01-03 | 一种基于深度激活池化的图像质量评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810006031.6A CN108230314B (zh) | 2018-01-03 | 2018-01-03 | 一种基于深度激活池化的图像质量评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108230314A CN108230314A (zh) | 2018-06-29 |
CN108230314B true CN108230314B (zh) | 2022-01-28 |
Family
ID=62642821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810006031.6A Active CN108230314B (zh) | 2018-01-03 | 2018-01-03 | 一种基于深度激活池化的图像质量评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108230314B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734827B (zh) * | 2021-01-07 | 2024-06-18 | 京东鲲鹏(江苏)科技有限公司 | 一种目标检测方法、装置、电子设备和存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101282481A (zh) * | 2008-05-09 | 2008-10-08 | 中国传媒大学 | 一种基于人工神经网络的视频质量评价方法 |
CN102170581A (zh) * | 2011-05-05 | 2011-08-31 | 天津大学 | 基于hvs的ssim与特征匹配立体图像质量评价方法 |
CN103152600A (zh) * | 2013-03-08 | 2013-06-12 | 天津大学 | 一种立体视频质量评价方法 |
CN104217404A (zh) * | 2014-08-27 | 2014-12-17 | 华南农业大学 | 雾霾天视频图像清晰化处理方法及其装置 |
CN104766073A (zh) * | 2015-04-28 | 2015-07-08 | 天津理工大学 | 一种自适应手背静脉图像采集*** |
CN105046277A (zh) * | 2015-07-15 | 2015-11-11 | 华南农业大学 | 特征显著性在图像质量评价中的鲁棒机理研究方法 |
CN105160678A (zh) * | 2015-09-02 | 2015-12-16 | 山东大学 | 基于卷积神经网络的无参考立体图像质量评估方法 |
CN105975931A (zh) * | 2016-05-04 | 2016-09-28 | 浙江大学 | 一种基于多尺度池化的卷积神经网络人脸识别方法 |
CN107273863A (zh) * | 2017-06-21 | 2017-10-20 | 天津师范大学 | 一种基于语义笔画池化的场景文字识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008115410A2 (en) * | 2007-03-16 | 2008-09-25 | Sti Medical Systems, Llc | A method to provide automated quality feedback to imaging devices to achieve standardized imaging data |
-
2018
- 2018-01-03 CN CN201810006031.6A patent/CN108230314B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101282481A (zh) * | 2008-05-09 | 2008-10-08 | 中国传媒大学 | 一种基于人工神经网络的视频质量评价方法 |
CN102170581A (zh) * | 2011-05-05 | 2011-08-31 | 天津大学 | 基于hvs的ssim与特征匹配立体图像质量评价方法 |
CN103152600A (zh) * | 2013-03-08 | 2013-06-12 | 天津大学 | 一种立体视频质量评价方法 |
CN104217404A (zh) * | 2014-08-27 | 2014-12-17 | 华南农业大学 | 雾霾天视频图像清晰化处理方法及其装置 |
CN104766073A (zh) * | 2015-04-28 | 2015-07-08 | 天津理工大学 | 一种自适应手背静脉图像采集*** |
CN105046277A (zh) * | 2015-07-15 | 2015-11-11 | 华南农业大学 | 特征显著性在图像质量评价中的鲁棒机理研究方法 |
CN105160678A (zh) * | 2015-09-02 | 2015-12-16 | 山东大学 | 基于卷积神经网络的无参考立体图像质量评估方法 |
CN105975931A (zh) * | 2016-05-04 | 2016-09-28 | 浙江大学 | 一种基于多尺度池化的卷积神经网络人脸识别方法 |
CN107273863A (zh) * | 2017-06-21 | 2017-10-20 | 天津师范大学 | 一种基于语义笔画池化的场景文字识别方法 |
Non-Patent Citations (4)
Title |
---|
Image quality assessment:from error visibility to structural similarity;Zhou Wang et al;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20040430;第600-612页 * |
Learning completed discriminative local features for texture classification;Zhong Zhang et al;《Pattern Recognition》;20170217;第263-275页 * |
一种无参考型模糊图像质量评价方法;张伟 等;《光学与光电技术》;20140228;第12卷(第1期);第63-66页 * |
基于Contourlet统计特性的无参考图像质量评价;焦淑红 等;《吉林大学学报(工学版)》;20160331;第46卷(第2期);第639-645页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108230314A (zh) | 2018-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhan et al. | Log-based transformation feature learning for change detection in heterogeneous images | |
Lu et al. | Learning optimal seeds for diffusion-based salient object detection | |
CN104616664B (zh) | 一种基于声谱图显著性检测的音频识别方法 | |
CN109410171B (zh) | 一种用于雨天图像的目标显著性检测方法 | |
CN109284786B (zh) | 基于分布和结构匹配生成对抗网络的sar图像地物分类方法 | |
CN103295191A (zh) | 多尺度视觉自适应图像增强方法及评价方法 | |
TWI441096B (zh) | 適用複雜場景的移動偵測方法 | |
CN105335975B (zh) | 基于低秩分解和直方图统计的极化sar图像分割方法 | |
CN103324951B (zh) | 一种多元异构水环境监测数据评价与预警方法 | |
CN105389799B (zh) | 基于素描图与低秩分解的sar图像目标检测方法 | |
CN107862680B (zh) | 一种基于相关滤波器的目标跟踪优化方法 | |
CN109829519B (zh) | 基于自适应空间信息的遥感图像分类方法及*** | |
CN106980875A (zh) | 基于属性低秩表示的零样本图像识别方法 | |
CN105447488B (zh) | 基于素描线段拓扑结构的sar图像目标检测方法 | |
CN104036526A (zh) | 一种基于自适应窗的灰度目标跟踪方法 | |
CN109522865A (zh) | 一种基于深度神经网络的特征加权融合人脸识别方法 | |
CN112541544A (zh) | 一种基于深度学习的垃圾分类方法 | |
CN108230314B (zh) | 一种基于深度激活池化的图像质量评估方法 | |
CN108765463A (zh) | 一种结合区域提取与改进纹理特征的运动目标检测方法 | |
Singh et al. | Automatic detection of rust disease of Lentil by machine learning system using microscopic images. | |
Wang et al. | Distortion recognition for image quality assessment with convolutional neural network | |
CN113158882B (zh) | 面向居家视频监控的仿生复眼隐私保护智能二元建模方法 | |
Hitimana et al. | Automatic estimation of live coffee leaf infection based on image processing techniques | |
CN106971402B (zh) | 一种基于光学辅助的sar图像变化检测方法 | |
CN106373135A (zh) | 一种基于颜色的害虫识别计数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230117 Address after: 230000 B-1015, wo Yuan Garden, 81 Ganquan Road, Shushan District, Hefei, Anhui. Patentee after: HEFEI MINGLONG ELECTRONIC TECHNOLOGY Co.,Ltd. Address before: 300387 Tianjin city Xiqing District West Binshui Road No. 393 Patentee before: TIANJIN NORMAL University |
|
TR01 | Transfer of patent right |