CN114742774A - 融合局部和全局特征的无参考图像质量评价方法及*** - Google Patents
融合局部和全局特征的无参考图像质量评价方法及*** Download PDFInfo
- Publication number
- CN114742774A CN114742774A CN202210326356.9A CN202210326356A CN114742774A CN 114742774 A CN114742774 A CN 114742774A CN 202210326356 A CN202210326356 A CN 202210326356A CN 114742774 A CN114742774 A CN 114742774A
- Authority
- CN
- China
- Prior art keywords
- image
- global
- local
- images
- quality evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 24
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000001303 quality assessment method Methods 0.000 claims description 4
- 241000282414 Homo sapiens Species 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种融合局部和全局特征的无参考图像质量评价方法及***,该方法包括以下步骤:步骤S1:对失真图像数据集中的图像进行数据预处理,并将数据集划分为训练集与测试集;步骤S2:构建全局及局部图像坐标提取模块;步骤S3:构建时间注意力机制模块;步骤S4:构建融合局部和全局图像特征的无参考图像质量评价网络,并采用训练集训练所述无参考图像质量评价网络;步骤S5:将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出对应的图像质量评价结果。该方法及***有利于提高无参考图像质量评价的准确性。
Description
技术领域
本发明属于图像处理以及计算机视觉领域,具体涉及一种融合局部和全局特征的无参考图像质量评价方法及***。
背景技术
随着移动时代的到来,每天都有数十亿张图片在各种社交媒体应用中产生,其中大部分是由非专业用户在各种室外环境中拍摄的。与专业摄影师拍摄的图片不同,普通用户所拍摄的图片的质量往往会因为曝光不足或过度、低能见度、运动模糊、重影等失真而下降。并且由于技术或硬件局限性等原因,图像中不可避免引入各种不同程度的失真,呈现出不同程度的质量下降,在压缩、处理、传输、显示等过程中也难免会出现一定程度的失真。而高质量的图像一方面可以提高观看者的体验质量,另一方面可以使许多计算机视觉算法受益。因此如何衡量图像的质量、评定图像是否满足某种特定应用要求就是图像质量评价的目标。而且图像质量评估结果可作为一些图像恢复增强技术的辅助参照信息,因此图像质量评价方法是非常需要的,它们也可为设计和优化高级图像/视频处理算法提供一种可行的途径。
传统的无参考图像质量评价方法依赖于人工设计的特征,且绝大多数试图检测特定类型的失真,如模糊、块效应、各种形式的噪声等。例如,对于图像的模糊度的评价,有基于边缘分析的方法、基于变换域的方法。对于图像噪声的评价,有基于滤波的方法、基于小波变换和其他一些变换域的方法。对于图像块效应的评价,有基于块边界和变换域的方法。还有一些基于通用类型的无参考图像质量评价方法,这些算法不检测特定类型的失真,他们通常将无参考图像质量评价问题转化成一个分类或回归问题,其中分类、回归是使用特定的特征进行训练的。但是手工设计的特征有其局限性,因为不同类型的图像内容具有不同的图像特征,对质量评价分数产生了很大的影响。
目前无参考图像质量评价的研究工作进入了深度学习时代,相比于人工设计的特征,神经网络提取的特征更适合图像的质量评价,也更强大。然而,使用神经网络来对图像进行质量评价,仍然存在问题。首先,在训练神经网络的预处理阶段对于图片的裁剪或改变其原始比例的操作都会影响图片的质量,从而导致评价结果的错误。其次,人们对于一张图像的评价不仅是对于整张图片而言,也取决于图片中的部分区域。因此,有必要对无参考图像质量评价方法作进一步研究。
发明内容
本发明的目的在于提供一种融合局部和全局特征的无参考图像质量评价方法及***,该方法及***有利于提高无参考图像质量评价的准确性。
为实现上述目的,本发明采用的技术方案是:一种融合局部和全局特征的无参考图像质量评价方法,包括以下步骤:
步骤S1:将失真图像数据集划分为训练集与测试集,并对数据集中图像进行数据预处理;
步骤S2:构建全局及局部图像坐标提取模块;
步骤S3:构建时间注意力机制模块;
步骤S4:构建融合局部和全局图像特征的无参考图像质量评价网络,并采用训练集训练所述无参考图像质量评价网络;
步骤S5:将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出对应的图像质量评价结果。
进一步地,所述步骤S1具体包括以下步骤:
步骤S11:将失真图像数据集中的图像与其对应的标签进行配对处理;
步骤S12:将失真图像数据集中的图像按设定比例划分为训练集与测试集;
步骤S13:将训练集中所有待训练图像缩放到固定尺寸H×W;
步骤S14:对步骤S13处理后的图像进行统一的随机翻转操作,对数据进行增强;
步骤S15:对步骤S14处理后的图像和测试集中的图像进行归一化处理。
进一步地,所述步骤S2中,所述全局及局部图像坐标提取模块按如下方法执行取全局或局部图像坐标操作:将尺寸为H×W的图像划分为n2个不相交的全局或局部图像,全局或局部图像的尺寸为h×w,其中然后记录每一个全局或局部图像左上角和右下角像素在原始图像的坐标,其中n为设定参数,当n=1时提取的是全局图像,n>1时提取的是局部图像;
所述全局及局部图像坐标提取模块重复执行上述取全局或局部图像坐标操作N次,第i次执行时参数n=i,得到N个图像尺度上的全局或局部图像的左上角和右下角的坐标,将各图像尺度上的全局或局部图像的左上角和右下角的坐标进行拼接,得到左上角和右下角的坐标向量(xl,yl,xr,yr),向量的维度为Q,其中,Q=1+22+32+...+N2。
进一步地,所述步骤S3具体包括以下步骤:
步骤S31:设时间注意力机制模块的输入为Fin,其维度为C×hx×wx;首先改变输入特征Fin,维度为Q×c×hx×wx,得到特征Freshape,其中,c=C/Q,Q为局部和全局图像个数;
步骤S32:将步骤S31中的Freshape依次输入空间池化层和通道池化层,首先将Freshape输入到空间池化层,得到输出Fspatial,其维度为Q×c×1×1,Fspatial的计算公式为:
Fspatial=Maxpool(Freshape)+Avgpool(Freshape)
其中,Maxpool(*)表示步长为1的空间最大池化层,Avgpool(*)表示步长为1的空间平均池化层;
然后将Fspatial输入到通道池化层,得到输出Fchannel,其维度为Q×1×1×1,Fchannel的计算公式为:
Fchannel=Conv1×1(Concat(CMaxpool(Fspatial),CAvgpool(Fspatial)))
其中,CMaxpool(*)表示步长为1的通道最大池化层,CAvgpool(*)表示步长为1的通道平均池化层,Concat(·)表示特征在新的维度上进行拼接,Con v1×1(*)表示用于降维且卷积核大小为1×1的卷积层;
步骤S33:将步骤S32中的Fchannel通过Reshape操作改变其维度,由Q×1×1×1变为Q,然后将Fchannel输入两层全连接层中,采用注意力机制来获得模型学习到图像不同的全局或局部图像的重要程度,以确定局部和全局图像中的哪些图像对于整体图像的质量评价具有更大的影响;再经过sigmoid函数将数值映射到(0,1)中,得到特征权重wtime,将wtime通过Reshape操作,将其维度由Q变为Q×1×1×1,之后用该特征权重作为对局部与全局图像的指导权重,即将最初输入的图像特征Fin乘以权重wtime再加上Fin,得到时间注意力机制模块的最终输出为Ftime,维度为C×hx×wx,Ftime的计算公式为:
wtime=Sigmoid(MLP1(Reshape1(Fchannel)))
Ftime=Fin+(Fin×Reshape2(wtime))。
进一步地,所述步骤S4具体包括以下步骤:
步骤S41:以包括ResNet50、ResNet101的图像分类网络中的一种为基础,建立主干网络,去除主干网络的最后一层后作为特征提取网络;
步骤S42:将训练集中一个批次的图像输入到步骤S41中的特征提取网络,特征提取网络输出图像特征Fbackbone,其维度为C×hx×wx,C为图像特征的通道数;同时,将图像输入全局及局部图像坐标提取模块,得到局部和全局图像的左上角和右下角坐标;
步骤S43:由于同一幅图像具有不同大小的全局图像和局部图像,而在神经网络批处理阶段需要特征维度相同,因此将输出的图像特征Fbackbone和通过全局及局部图像坐标提取模块得到的与之相对应的局部和全局图像的左上角和右下角坐标一起输入到感兴趣区域校正模块,以此获得相同维度的局部和全局图像特征Falign,其维度为C×poolsize×poolsize,其中,poolsize为图像特征的尺寸大小;
步骤S44:将步骤S43输出的特征Falign输入到步骤S3中构建的时间注意力机制模块中,获得时间注意力机制的输出Ftime,之后将Ftime输入到双向门控制循环单元网络中,以模拟人类评价图像质量时对图像局部的顺序查看,获得输出Fbigru,其维度为Q×C;
步骤S45:对于步骤S44的输出Fbigru,首先采用Reshape操作改变其维度,由Q×C变为P,P=Q×C,接着将Fbigru输入到最后的两层全连接层中,以此获得最终的图像质量评价分数Fout,其维度为1,表示图片的质量分数,其计算公式为:
Fout=MLP2(Reshape3(Fbigru))
步骤S46:计算融合局部和全局图像特征的无参考图像质量评价网络的损失函数如下:
步骤S47:以批次为单位重复上述步骤S42至步骤S46,直至步骤S46中计算得到的损失值收敛并趋于稳定,保存网络参数,完成融合局部和全局图像特征的无参考图像质量评价网络的训练过程。
进一步地,所述步骤S5中,将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出图像对应的质量分数。
本发明还提供了一种融合局部和全局特征的无参考图像质量评价***,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现上述的方法步骤。
与现有技术相比,本发明具有以下有益效果:提供了一种融合局部和全局特征的无参考图像质量评价方法及***,该方法对于输入的图片,不做影响图像质量的操作,保留其细节与比例,并且模拟人评价图片质量时的行为,对于对图片质量影响较大的区域重点关注,且有顺序的关注,有效的利用与图像的局部和全局特征,提高无参考图像质量评价的准确性。因此,本发明具有很强的实用性和广阔的应用前景。
附图说明
图1是本发明实施例的方法实现流程图。
图2是本发明实施例中融合局部和全局图像特征的无参考图像质量评价网络的结构示意图。
图3是本发明实施例中时间注意力机制模块的结构示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种融合局部和全局特征的无参考图像质量评价方法,包括以下步骤:
步骤S1:将失真图像数据集划分为训练集与测试集,并对数据集中图像进行数据预处理。
在本实施例中,所述步骤S1具体包括以下步骤:
步骤S11:将失真图像数据集中的图像与其对应的标签进行配对处理。
步骤S12:将失真图像数据集中的图像按设定比例划分为训练集与测试集。
步骤S13:将训练集中所有待训练图像缩放到固定尺寸H×W。
步骤S14:对步骤S13处理后的图像进行统一的随机翻转操作,对数据进行增强。
步骤S15:对步骤S14处理后的图像和测试集中的图像进行归一化处理。
步骤S2:构建全局及局部图像坐标提取模块。
具体地,所述全局及局部图像坐标提取模块按如下方法执行取全局或局部图像坐标操作:将尺寸为H×W的图像划分为n2个不相交的全局或局部图像,全局或局部图像的尺寸为h×w,其中然后记录每一个全局或局部图像左上角和右下角像素在原始图像的坐标,其中n为设定参数,当n=1时提取的是全局图像,n>1时提取的是局部图像。
所述全局及局部图像坐标提取模块重复执行上述取全局或局部图像坐标操作N次,第i次执行时参数n=i,得到N个图像尺度上的全局或局部图像的左上角和右下角的坐标,将各图像尺度上的全局或局部图像的左上角和右下角的坐标进行拼接,得到左上角和右下角的坐标向量(xl,yl,xr,yr),向量的维度为Q,其中,Q=1+22+32+...+N2。
步骤S3:如图3所示,构建时间注意力机制模块。
在本实施例中,所述步骤S3具体包括以下步骤:
步骤S31:设时间注意力机制模块的输入为Fin,其维度为C×hx×wx;首先改变输入特征Fin,维度为Q×c×hx×wx,得到特征Freshape,其中,c=C/Q,Q为局部和全局图像个数。
步骤S32:将步骤S31中的Freshape依次输入空间池化层和通道池化层,首先将Freshape输入到空间池化层,得到输出Fspatial,其维度为Q×c×1×1,Fspatial的计算公式为:
Fspatial=Maxpool(Freshape)+Avgpool(Freshape)
其中,Maxpool(*)表示步长为1的空间最大池化层,Avgpool(*)表示步长为1的空间平均池化层;
然后将Fspatial输入到通道池化层,得到输出Fchannel,其维度为Q×1×1×1,Fchannel的计算公式为:
Fchannel=Conv1×1(Concat(CMaxpool(Fspatial),CAvgpool(Fspatial)))
其中,CMaxpool(*)表示步长为1的通道最大池化层,CAvgpool(*)表示步长为1的通道平均池化层,Concat(·)表示特征在新的维度上进行拼接,Conv1×1(*)表示用于降维且卷积核大小为1×1的卷积层。
步骤S33:将步骤S32中的Fchannel通过Reshape操作(记为Reshape1)改变其维度,由Q×1×1×1变为Q,然后将Fchannel输入两层全连接层中(记为MLP1),采用注意力机制来获得模型学习到图像不同的全局或局部图像的重要程度,以确定局部和全局图像中的哪些图像对于整体图像的质量评价具有更大的影响;再经过sigmoid函数将数值映射到(0,1)中,得到特征权重wtime,将wtime通过Reshape操作(记为Reshape2),将其维度由Q变为Q×1×1×1,之后用该特征权重作为对局部与全局图像的指导权重,即将最初输入的图像特征Fin乘以权重wtime再加上Fin,得到时间注意力机制模块的最终输出为Ftime,维度为C×hx×wx,Ftime的计算公式为:
wtime=Sigmoid(MLP1(Reshape1(Fchannel)))
Ftime=Fin+(Fin×Reshape2(wtime))。
步骤S4:如图2所示,构建融合局部和全局图像特征的无参考图像质量评价网络,并采用训练集训练所述无参考图像质量评价网络。
在本实施例中,所述步骤S4具体包括以下步骤:
步骤S41:以包括ResNet50、ResNet101的图像分类网络中的一种为基础,建立主干网络,去除主干网络的最后一层后作为特征提取网络。
步骤S42:将训练集中一个批次的图像输入到步骤S41中的特征提取网络,特征提取网络输出图像特征Fbackbone,其维度为C×hx×wx,C为图像特征的通道数;同时,将图像输入全局及局部图像坐标提取模块,得到局部和全局图像的左上角和右下角坐标。
步骤S43:由于同一幅图像具有不同大小的全局图像和局部图像,而在神经网络批处理阶段需要特征维度相同,因此将输出的图像特征Fbackbone和通过全局及局部图像坐标提取模块得到的与之相对应的局部和全局图像的左上角和右下角坐标一起输入到感兴趣区域校正模块(Region Of Interest Align),以此获得相同维度的局部和全局图像特征Falign,其维度为C×poolsize×poolsize,其中,poolsize为图像特征的尺寸大小。
步骤S44:将步骤S43输出的特征Falign输入到步骤S3中构建的时间注意力机制模块中,获得时间注意力机制的输出Ftime,之后将Ftime输入到双向门控制循环单元(Bidirectional Gate Recurrent Unit,BiGRU)网络中,以模拟人类评价图像质量时对图像局部的顺序查看,获得输出Fbigru,其维度为Q×C。
步骤S45:对于步骤S44的输出Fbigru,首先采用Reshape操作(记为Reshape3)改变其维度,由Q×C变为P,P=Q×C,接着将Fbigru输入到最后的两层全连接层中(记为MLP2),以此获得最终的图像质量评价分数Fout,其维度为1,表示图片的质量分数,其计算公式为:
Fout=MLP2(Reshape3(Fbigru))。
步骤S46:计算融合局部和全局图像特征的无参考图像质量评价网络的损失函数如下:
步骤S47:以批次为单位重复上述步骤S42至步骤S46,直至步骤S46中计算得到的损失值收敛并趋于稳定,保存网络参数,完成融合局部和全局图像特征的无参考图像质量评价网络的训练过程。
步骤S5:将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出图像对应的质量分数。
本实施例提供了一种融合局部和全局特征的无参考图像质量评价***,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现上述的方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (7)
1.一种融合局部和全局特征的无参考图像质量评价方法,其特征在于,包括以下步骤:
步骤S1:将失真图像数据集划分为训练集与测试集,并对数据集中图像进行数据预处理;
步骤S2:构建全局及局部图像坐标提取模块;
步骤S3:构建时间注意力机制模块;
步骤S4:构建融合局部和全局图像特征的无参考图像质量评价网络,并采用训练集训练所述无参考图像质量评价网络;
步骤S5:将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出对应的图像质量评价结果。
2.根据权利要求1所述的融合局部和全局特征的无参考图像质量评价方法,其特征在于,所述步骤S1具体包括以下步骤:
步骤S11:将失真图像数据集中的图像与其对应的标签进行配对处理;
步骤S12:将失真图像数据集中的图像按设定比例划分为训练集与测试集;
步骤S13:将训练集中所有待训练图像缩放到固定尺寸H×W;
步骤S14:对步骤S13处理后的图像进行统一的随机翻转操作,对数据进行增强;
步骤S15:对步骤S14处理后的图像和测试集中的图像进行归一化处理。
3.根据权利要求1所述的融合局部和全局特征的无参考图像质量评价方法,其特征在于,所述步骤S2中,所述全局及局部图像坐标提取模块按如下方法执行取全局或局部图像坐标操作:将尺寸为H×W的图像划分为n2个不相交的全局或局部图像,全局或局部图像的尺寸为h×w,其中然后记录每一个全局或局部图像左上角和右下角像素在原始图像的坐标,其中n为设定参数,当n=1时提取的是全局图像,n>1时提取的是局部图像;
所述全局及局部图像坐标提取模块重复执行上述取全局或局部图像坐标操作N次,第i次执行时参数n=i,得到N个图像尺度上的全局或局部图像的左上角和右下角的坐标,将各图像尺度上的全局或局部图像的左上角和右下角的坐标进行拼接,得到左上角和右下角的坐标向量(xl,yl,xr,yr),向量的维度为Q,其中,Q=1+22+32+…+N2。
4.根据权利要求3所述的融合局部和全局特征的无参考图像质量评价方法,其特征在于,所述步骤S3具体包括以下步骤:
步骤S31:设时间注意力机制模块的输入为Fin,其维度为C×hx×wx;首先改变输入特征Fin,维度为Q×c×hx×wx,得到特征Freshape,其中,c=C/Q,Q为局部和全局图像个数;
步骤S32:将步骤S31中的Freshape依次输入空间池化层和通道池化层,首先将Freshape输入到空间池化层,得到输出Fspatial,其维度为Q×c×1×1,Fspatial的计算公式为:
Fspatial=Maxpool(Freshape)+Avgpool(Freshape)
其中,Maxpool(*)表示步长为1的空间最大池化层,Avgpool(*)表示步长为1的空间平均池化层;
然后将Fspatial输入到通道池化层,得到输出Fchannel,其维度为Q×1×1×1,Fchannel的计算公式为:
Fchannel=Conv1×1(Concat(CMaxpool(Fspatial),CAvgpool(Fspatial)))
其中,CMaxpool(*)表示步长为1的通道最大池化层,CAvgpool(*)表示步长为1的通道平均池化层,Concat(·)表示特征在新的维度上进行拼接,Conv1×1(*)表示用于降维且卷积核大小为1×1的卷积层;
步骤S33:将步骤S32中的Fchannel通过Reshape操作改变其维度,由Q×1×1×1变为Q,然后将Fchannel输入两层全连接层中,采用注意力机制来获得模型学习到图像不同的全局或局部图像的重要程度,以确定局部和全局图像中的哪些图像对于整体图像的质量评价具有更大的影响;再经过sigmoid函数将数值映射到(0,1)中,得到特征权重wtime,将wtime通过Reshape操作,将其维度由Q变为Q×1×1×1,之后用该特征权重作为对局部与全局图像的指导权重,即将最初输入的图像特征Fin乘以权重wtime再加上Fin,得到时间注意力机制模块的最终输出为Ftime,维度为C×hx×wx,Ftime的计算公式为:
wtimg=Sigmoid(MLP1(Reshape1(Fchannel)))
Ftime=Fin+(Fin×Reshape2(wtime))。
5.根据权利要求4所述的融合局部和全局特征的无参考图像质量评价方法,其特征在于,所述步骤S4具体包括以下步骤:
步骤S41:以包括ResNet50、ResNet101的图像分类网络中的一种为基础,建立主干网络,去除主干网络的最后一层后作为特征提取网络;
步骤S42:将训练集中一个批次的图像输入到步骤S41中的特征提取网络,特征提取网络输出图像特征Fbackbone,其维度为C×hx×wx,C为图像特征的通道数;同时,将图像输入全局及局部图像坐标提取模块,得到局部和全局图像的左上角和右下角坐标;
步骤S43:由于同一幅图像具有不同大小的全局图像和局部图像,而在神经网络批处理阶段需要特征维度相同,因此将输出的图像特征Fbackbone和通过全局及局部图像坐标提取模块得到的与之相对应的局部和全局图像的左上角和右下角坐标一起输入到感兴趣区域校正模块,以此获得相同维度的局部和全局图像特征Falign,其维度为C×poolsize×poolsize,其中,poolsize为图像特征的尺寸大小;
步骤S44:将步骤S43输出的特征Falign输入到步骤S3中构建的时间注意力机制模块中,获得时间注意力机制的输出Ftime,之后将Ftime输入到双向门控制循环单元网络中,以模拟人类评价图像质量时对图像局部的顺序查看,获得输出Fbigru,其维度为Q×C;
步骤S45:对于步骤S44的输出Fbigru,首先采用Reshape操作改变其维度,由Q×C变为P,P=Q×C,接着将Fbigru输入到最后的两层全连接层中,以此获得最终的图像质量评价分数Fout,其维度为1,表示图片的质量分数,其计算公式为:
Fout=MLP2(Reshape3(Fbigru))
步骤S46:计算融合局部和全局图像特征的无参考图像质量评价网络的损失函数如下:
步骤S47:以批次为单位重复上述步骤S42至步骤S46,直至步骤S46中计算得到的损失值收敛并趋于稳定,保存网络参数,完成融合局部和全局图像特征的无参考图像质量评价网络的训练过程。
6.根据权利要求5所述的融合局部和全局特征的无参考图像质量评价方法,其特征在于,所述步骤S5中,将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出图像对应的质量分数。
7.一种融合局部和全局特征的无参考图像质量评价***,其特征在于,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如权利要求1-6任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210326356.9A CN114742774A (zh) | 2022-03-30 | 2022-03-30 | 融合局部和全局特征的无参考图像质量评价方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210326356.9A CN114742774A (zh) | 2022-03-30 | 2022-03-30 | 融合局部和全局特征的无参考图像质量评价方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114742774A true CN114742774A (zh) | 2022-07-12 |
Family
ID=82280475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210326356.9A Pending CN114742774A (zh) | 2022-03-30 | 2022-03-30 | 融合局部和全局特征的无参考图像质量评价方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114742774A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830028A (zh) * | 2023-02-20 | 2023-03-21 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像评价方法、设备、***及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160148074A1 (en) * | 2014-11-26 | 2016-05-26 | Captricity, Inc. | Analyzing content of digital images |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
CN112085102A (zh) * | 2020-09-10 | 2020-12-15 | 西安电子科技大学 | 基于三维时空特征分解的无参考视频质量评价方法 |
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN113888501A (zh) * | 2021-09-29 | 2022-01-04 | 西安理工大学 | 一种基于注意力定位网络的无参考型图像质量评价方法 |
-
2022
- 2022-03-30 CN CN202210326356.9A patent/CN114742774A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160148074A1 (en) * | 2014-11-26 | 2016-05-26 | Captricity, Inc. | Analyzing content of digital images |
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
CN112085102A (zh) * | 2020-09-10 | 2020-12-15 | 西安电子科技大学 | 基于三维时空特征分解的无参考视频质量评价方法 |
CN113888501A (zh) * | 2021-09-29 | 2022-01-04 | 西安理工大学 | 一种基于注意力定位网络的无参考型图像质量评价方法 |
Non-Patent Citations (2)
Title |
---|
牛玉贞: ""No-Reference image quality assessment based on multi-scale convolutional neural networks""", 《INTELLIGENT COMPUTING. 2019 COMPUTING CONFERENCE》, 17 July 2019 (2019-07-17) * |
牛玉贞: ""基于多尺度特征的无参考屏幕内容图像质量评估"", 《小型微型计算机***》, 28 February 2022 (2022-02-28) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830028A (zh) * | 2023-02-20 | 2023-03-21 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像评价方法、设备、***及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
Ignatov et al. | Dslr-quality photos on mobile devices with deep convolutional networks | |
CN108428227B (zh) | 基于全卷积神经网络的无参考图像质量评价方法 | |
CN112950581B (zh) | 质量评估方法、装置和电子设备 | |
US20080232707A1 (en) | Motion blurred image restoring method | |
US8908989B2 (en) | Recursive conditional means image denoising | |
CN113269149B (zh) | 活体人脸图像的检测方法、装置、计算机设备及存储介质 | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
CN113658091A (zh) | 一种图像评价方法、存储介质及终端设备 | |
CN111882555A (zh) | 基于深度学习的网衣检测方法、装置、设备及存储介质 | |
CN114742774A (zh) | 融合局部和全局特征的无参考图像质量评价方法及*** | |
CN111047618A (zh) | 基于多尺度的无参考屏幕内容图像质量评估方法 | |
CN112801890B (zh) | 一种视频处理方法、装置及设备 | |
US9196025B2 (en) | Image processing apparatus, image processing method and image processing program | |
CN112348808A (zh) | 屏幕透图检测方法及装置 | |
CN111724306A (zh) | 一种基于卷积神经网络的图像缩小方法及*** | |
CN115937121A (zh) | 基于多维度特征融合的无参考图像质量评价方法及*** | |
CN115798005A (zh) | 基准照片的处理方法及装置、处理器和电子设备 | |
CN110276744B (zh) | 图像拼接质量的测评方法及装置 | |
CN113935910A (zh) | 一种基于深度学习的图像模糊长度测量方法 | |
CN113706400A (zh) | 图像矫正方法、装置、显微镜图像的矫正方法及电子设备 | |
Xu et al. | Joint learning of super-resolution and perceptual image enhancement for single image | |
CN115396743B (zh) | 视频去水印方法、装置、设备及存储介质 | |
Ponomarenko et al. | Transfer learning for no-reference image quality metrics using large temporary image sets | |
CN113570596B (zh) | 一种基于人类视觉***的无参考结构清晰度评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |