CN116309178A - 一种基于自适应注意力机制网络的可见光图像去噪方法 - Google Patents
一种基于自适应注意力机制网络的可见光图像去噪方法 Download PDFInfo
- Publication number
- CN116309178A CN116309178A CN202310324928.4A CN202310324928A CN116309178A CN 116309178 A CN116309178 A CN 116309178A CN 202310324928 A CN202310324928 A CN 202310324928A CN 116309178 A CN116309178 A CN 116309178A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- denoising
- layer
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000007246 mechanism Effects 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 41
- 230000003044 adaptive effect Effects 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000002779 Morchella esculenta Nutrition 0.000 description 1
- 240000002769 Morchella esculenta Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应注意力机制网络的可见光图像去噪方法,涉及图像处理领域,包括:将噪声图像与真值图像作为训练集,输入U型全卷积网络模型进行训练;设计自适应通道注意力机制,加入模型进一步提升去噪性能,并根据损失函数梯度调整网络参数,直到最大迭代次数,输出网络模型;将带有噪声的测试集图像输入训练好的网络模型,输出清晰图像。经本发明改进后的网络模型在图像去噪上的峰值信噪比、结构相似性和处理速度得到了明显提升。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于自适应注意力机制网络的可见光图像去噪方法。
背景技术
图像作为人们最常用的信息载体之一,包含着大量的信息,是人们获取信息的重要途径。而图像在获取、传输等过程中常常受到不同程度的噪声的干扰,噪声的存在会导致图像的质量下降,严重的噪声可能淹没图像本身的有用信息,为人们的观察和使用带来不便,同时还会影响图像后续诸如图像分割、目标检测等处理的精度。因此,对图像中噪声的去除是十分有必要的,在去噪的同时尽可能的保留图像的有用信息,是图像去噪的要点也是难点。
图像去噪分为三大类:基于滤波器的方法(Filtering-Based Methods)、基于优化模型的方法(Optimization Model-Based Methods)和基于学习的方法(Learning-BasedMethods)。
基于滤波器的方法,利用某些人工设计的低通滤波器来去除图像噪声。同一个图像中具有很多相似的图像块,可以通过非局部相似块堆叠的方式去除噪声,如NLM算法(Buades A,Coll B,Morel J M.A non-local algorithm for image denoising[C]//2005IEEE computer society conference on computer vision and pattern recognition(CVPR'05).Ieee,2005,2:60-65.)、CBM3D算法(Dabov K,Foi A,KatkovnikV,et al.Imagedenoisingby sparse 3-D transform-domain collaborative filtering[J].IEEETransactions on image processing,2007,16(8):2080-2095.)等,但存在着块操作导致输出模糊、超参数设置繁琐的处理时间长的缺点。
基于模型的方法通常将去噪任务定义为基于最大后验的优化问题,其性能主要依赖于图像的先验。如Gu等人提出了一种基于低秩矩阵逼近的红外加权核范数最小化方法(Gu S,Zhang L,Zuo W,et al.Weighted nuclear norm minimization with applicationto image denoising[C]//Proceedings of the IEEE conference on computer visionand pattern recognition.2014:2862-2869.)。基于模型的方法有很强的数学推导性,但在高噪声等级下性能显著下降,并且具有一定复杂性,存在处理时间长的问题。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于深度学习的图像去噪方法,以实现对带噪图像快速且准确的去噪。
实现本发明目的的技术解决方案为:一种基于自适应注意力机制网络的可见光图像去噪方法,包括以下步骤:
步骤1、构建自适应通道注意力机制模块D;
步骤2、将步骤1的自适应通道注意力机制模块D与全卷积神经网络结合,构建去噪网络DUnet;
步骤3、构建去噪网络DUnet的损失函数;
步骤4、初始化去噪网络DUnet参数:学习率lr、每一批次送入网络的图片裁剪大小patch-size、最大迭代次数;
步骤5、对真值图像添加高斯噪声得到训练图像,将训练图像输入到去噪网络DUnet中,对其进行训练直到损失函数收敛,得到训练好的DUnet网络模型;
步骤6、将待去噪图像输入到步骤5中训练好的DUnet网络进行图像去噪处理。
优选地,步骤1中构建自适应注意力机制模块D包括以下步骤:
步骤1.1、对输入特征图进行空间特征压缩,将输入特征图经过全局平均池化,对每一个通道图所有像素值求平均值,特征图从[H,W,C]的矩阵变成[1,1,C]的向量,[H,W,C]表示特征图的通道数、宽、高;
步骤1.2、对压缩后的特征图,计算自适应卷积核大小k;
步骤1.3、通过卷积核大小为k的一维卷积,得到对于特征图的每个通道的权重;
步骤1.4、将归一化权重和原输入特征图逐通道相乘,输出具有通道注意力的特征图。
优选地,一维卷积核大小k的计算公式为:
其中,k表示卷积核大小,C表示通道数,|·|odd表示取奇数,γ和b分别为通道数C和卷积核大小k的比例系数。
优选地,将步骤1的自适应通道注意力机制模块D与全卷积神经网络结合,构建去噪网络DUnet的具体步骤如下:
步骤2.1、构建五层特征提取网络,每层五层特征提取网络由两个3×3的卷积层和一个2×2的最大池化层构成;每一层网络先进行两次3×3卷积,再通过2×2最大池化后传入下一层网络;
步骤2.2、构建五层特征融合网络,每层特征融合网络由一个2×2上采样卷积层、一个特征拼接层和两个3×3卷积层构成;先进行2×2上采样卷积,并与对应的特征提取层卷积后的特征图进行特征融合,再进行两次3×3卷积传入下一层网络;
步骤2.3、添加自适应通道注意力模块,分别捕获第一、二层特征提取网络的第一次卷积后的通道信息,生成加权后的特征图。
优选地,步骤3中构建的去噪网络DUnet的损失函数具体为:
其中,n为样本总数,xi表示每一轮网络训练后的输出图,yi表示输出图所对应的真值图像。
优选地,步骤5中对真值图像添加高斯白噪声,训练网络模型,步骤如下:
步骤5.1、对真值图像分别添加四个噪声等级的高斯白噪声,处理后的图片作为训练集;
步骤5.2、使用loss函数,根据Adam优化算法对网络参数进行优化;将训练集按patch-size裁剪和旋转后送入网络,训练直至最大迭代次数,获得训练后的网络模型。
优选地,对真值图像分别添加四个噪声等级的高斯白噪声后的图像为:
式中,σ为噪声等级,μ为总体均值,x为输入像素。
本发明与现有技术相比,其显著优点为:(1)针对特征图在提取图像特征的过程当中,会出现有些特征图层作用大,而有些特征图层作用小的特点,构建了通道注意力机制模块D,保证了在特征图提取特征的基础上,自适应地给定通道权重,让作用大的特征图对结果的影响更大,因此在最终结果上是比普通的卷积层要更有效提取特征;(2)本发明通过训练后得到的模型在保证去噪性能的同时,可以快速实现可见光图像去噪,大大提高了效率。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为本发明一种基于自适应注意力机制网络的可见光图像去噪方法的流程图。
图2为通道注意力机制示意图。
图3为DUnet网络结构图。
图4为噪声等级σ=20时不同算法去噪效果对比图。
图5为噪声等级σ=30时不同算法去噪效果对比图。
图6为噪声等级σ=50时不同算法去噪效果对比图。
图7为噪声等级σ=70时不同算法去噪效果对比图。
具体实施方案
本发明设计了一种自适应通道注意力机制,通过在公开数据集PolyU上实验验证,证明了方法的有效性。
结合图1,一种基于自适应注意力机制网络的可见光图像去噪方法,包括以下步骤:
步骤1、结合图2,构建自适应通道注意力机制模块D,用于在特征图提取特征的基础上,自适应地给定通道权重,让作用大的特征图对结果的影响更大,自适应通道注意力机制模块D对输入特征图进行处理的具体过程包括以下步骤:
步骤1.1、对输入特征图进行空间特征压缩,将输入特征图经过全局平均池化,对每一个通道图所有像素值求平均值,特征图从[H,W,C]的矩阵变成[1,1,C]的向量。
步骤1.2、对压缩后的特征图,进行通道特征学习,通过计算得到自适应的一维卷积核大小k,公式如下:
其中,k表示卷积核大小,C表示通道数,|·|odd表示只能取奇数,γ和b用于改变通道数C和卷积核大小k之间的比例。卷积核大小也代表了局部跨通道交互的覆盖率,即该通道附近有多少领域参与了这个通道的注意力预测。
步骤1.3、将卷积核大小k用于一维卷积中,得到对于特征图的每个通道的权重;
步骤1.4、使用Sigmoid激活函数,公式如下:
对每个神经元的输出进行了归一化,将归一化权重和原输入特征图逐通道相乘,输出具有通道注意力的特征图。
步骤2、结合图3,将步骤1的自适应通道注意力机制模块D与全卷积神经网络结合,构建去噪网络DUnet,具体如下:
步骤2.1、构建五层特征提取网络,由两个3×3的卷积层和一个2×2的最大池化层构成。每一层网络先进行两次3×3卷积,再通过2×2最大池化后传入下一层网络。
步骤2.2、构建五层特征融合网络,由一个2×2上采样卷积层、一个特征拼接层和两个3×3卷积层构成。每一层网络先进行2×2上采样卷积,并与对应的特征提取层卷积后的特征图进行特征融合,再进行两次3×3卷积传入下一层网络。
步骤2.3、添加自适应通道注意力模块,分别捕获第一、二层特征提取网络的第一次卷积后的通道信息,生成加权后的特征图。
步骤3、构建损失函数Loss,具体公式为:
其中,n为样本总数,xi表示每一轮网络训练后的输出图,yi表示输出图所对应的真值图像。
步骤4、初始化网络参数:学习率lr、每一批次送入网络的图片裁剪大小patch-size、最大迭代次数,具体如下:
设定输入图片patch-size为128×128,初始学习率1×10-4,学习率lr参数随训练轮数epoch递减。
步骤5、对真值图像添加高斯噪声得到训练图像,将该训练图像输入到去噪网络DUnet中,对其进行训练直到损失函数收敛,得到训练好的DUnet网络模型,具体如下:
步骤5.1、对真值图像分别添加σ=20、30、50、70四个等级的高斯白噪声,处理后的图片作为训练集,公式如下:
其中,σ为噪声等级,μ为总体均值,x为输入像素。
步骤5.2、使用loss函数,根据Adam优化算法对网络参数进行优化。将训练集按patch-size裁剪和旋转后送入网络,训练直至最大迭代次数,获得训练后的网络模型。
步骤6、将待去噪图像输入到步骤5中训练好的DUnet网络进行图像去噪处理,输出去噪后的图像并与真值图像进行对比评测。
步骤6.1、将σ=20、30、50、70不同噪声等级的测试集输入训练后的模型,输出去噪后的图像。
步骤6.2、对输出的去噪后图像与真值图像对比进行去噪性能评测,得到PSNR和SSIM性能指标。
PSNR用于衡量两张图像之间差异,公式如下:
其中MSE为两张图像的均方误差;MaxValue为图像像素可取到的最大值。
SSIM基于人眼会提取图像中结构化信息的假设,比传统方式更符合人眼视觉感知,公式如下:
SSIM(x,y)=[l(x,y)]α×[c(x,y)]β×[s(x,y)]γ
其中,N为图片样本总数,xi表示网络训练后的输出图,yi表示输出图所对应的真值图像,C1=(K1L)2;C2=(K2L)2;L为图像像素可取到的最大值;K1=0.01;K2=0.03;设定α=β=γ=1和来简化公式:
SSIM≤1,SSIM越大,两张图像越相似。
实施例1
本实施例将本发明与传统方法NLM、CBM3D以及基于深度学习的CBD Net、PD Net、ECND Net和FFD Net在公开数据集PolyU上进行了对比试验。实验环境为Tensorflow-gpu2.5.0,使用的GPU为NVIDIA 3080Ti,CPU为11th Gen Inter(R)Core(TM)i7-117002.5Ghz,运行内存64GB。
对真值图像分别添加噪声等级σ=20、30、50、70高斯噪声得到共1900张训练图像,将该训练图像输入到去噪网络DUnet中对其进行训练直到损失函数收敛,得到训练好的DUnet网络。
表1各方法在PolyU数据集上的PSNR(最优值用粗体表示)
表2各方法在PolyU数据集上的SSIM(最优值用粗体表示)
表3各方法在PolyU数据集上的处理用时(最优值用粗体表示)
表1和表2中σ为给对应的测试集分别添加噪声等级为20、30、50和70的高斯白噪声来模拟待去噪图像,表3中处理时间Time(单位:秒)为模型处理平均用时,PSNR和SSIM用来衡量各算法对含噪声图像的去噪效果,PSNR越高、SSIM越接近于1,说明算法对图像的去噪性能越好。测试集中包含多张图像,则表格中的数据为测试集中多张测试图像PSNR和SSIM的平均值。
从表1和表2可见,本发明与其他方法相比在PolyU测试集上具有更为突出的表现,在σ=20、30、50、70噪声等级上,相比于传统方法CBM3D,本发明的PSNR平均值提高了4.103,SSIM平均值提高了0.062;相比于4种基于深度学***均值提高了1.187,SSIM平均值提高了0.01。本发明在PSNR和SSIM上均取得最高平均值,这意味着相对于其他六种现有的去噪算法,DUnet在客观上具有更好的平均去噪效果,同时从表3可见,相比于传统算法,本发明在去噪处理时间上得到了大大提高。结合图4、图5、图6、图7的去噪对比效果图,本发明的方法可以实现快速高效的可见光图像去噪。图4中,(a)为真值图像;(b)为噪声等级σ=20的图像;(c)为CBM3D去噪后图像;(d)为NLM去噪后图像;(e)为CBD Net去噪后图像;(f)为PD Net去噪后图像;(g)为ECND Net去噪后图像;(h)为FFDNet去噪后图像;(i)为本发明方法去噪后图像。
图5中,(a)为真值图像;(b)为噪声等级σ=30的图像;(c)为CBM3D去噪后图像;(d)为NLM去噪后图像;(e)为CBD Net去噪后图像;(f)为PD Net去噪后图像;(g)为ECND Net去噪后图像;(h)为FFD Net去噪后图像;(i)为本发明方法去噪后图像。
图6中,(a)为真值图像;(b)为噪声等级σ=50的图像;(c)为CBM3D去噪后图像;(d)为NLM去噪后图像;(e)为CBD Net去噪后图像;(f)为PD Net去噪后图像;(g)为ECND Net去噪后图像;(h)为FFD Net去噪后图像;(i)为本发明方法去噪后图像。
图7中,(a)为真值图像;(b)为噪声等级σ=70的图像;(c)为CBM3D去噪后图像;(d)为NLM去噪后图像;(e)为CBD Net去噪后图像;(f)为PD Net去噪后图像;(g)为ECND Net去噪后图像;(h)为FFD Net去噪后图像;(i)为本发明方法去噪后图像。
Claims (7)
1.一种基于自适应注意力机制网络的可见光图像去噪方法,其特征在于,包括以下步骤:
步骤1、构建自适应通道注意力机制模块D;
步骤2、将步骤1的自适应通道注意力机制模块D与全卷积神经网络结合,构建去噪网络DUnet;
步骤3、构建去噪网络DUnet的损失函数;
步骤4、初始化去噪网络DUnet参数:学习率lr、每一批次送入网络的图片裁剪大小patch-size、最大迭代次数;
步骤5、对真值图像添加高斯噪声得到训练图像,将训练图像输入到去噪网络DUnet中,对其进行训练直到损失函数收敛,得到训练好的DUnet网络模型;
步骤6、将待去噪图像输入到步骤5中训练好的DUnet网络进行图像去噪处理。
2.根据权利要求1所述的基于自适应注意力机制网络的可见光图像去噪方法,其特征在于,步骤1中构建自适应注意力机制模块D包括以下步骤:
步骤1.1、对输入特征图进行空间特征压缩,将输入特征图经过全局平均池化,对每一个通道图所有像素值求平均值,特征图从[H,W,C]的矩阵变成[1,1,C]的向量,[H,W,C]表示特征图的通道数、宽、高;
步骤1.2、对压缩后的特征图,计算自适应卷积核大小k;
步骤1.3、通过卷积核大小为k的一维卷积,得到对于特征图的每个通道的权重;
步骤1.4、将归一化权重和原输入特征图逐通道相乘,输出具有通道注意力的特征图。
4.根据权利要求1所述的基于自适应注意力机制网络的可见光图像去噪方法,其特征在于,将步骤1的自适应通道注意力机制模块D与全卷积神经网络结合,构建去噪网络DUnet的具体步骤如下:
步骤2.1、构建五层特征提取网络,每层五层特征提取网络由两个3×3的卷积层和一个2×2的最大池化层构成;每一层网络先进行两次3×3卷积,再通过2×2最大池化后传入下一层网络;
步骤2.2、构建五层特征融合网络,每层特征融合网络由一个2×2上采样卷积层、一个特征拼接层和两个3×3卷积层构成;先进行2×2上采样卷积,并与对应的特征提取层卷积后的特征图进行特征融合,再进行两次3×3卷积传入下一层网络;
步骤2.3、添加自适应通道注意力模块,分别捕获第一、二层特征提取网络的第一次卷积后的通道信息,生成加权后的特征图。
6.根据权利要求1所述的基于自适应注意力机制网络的可见光图像去噪方法,其特征在于,步骤5中对真值图像添加高斯白噪声,训练网络模型,步骤如下:
步骤5.1、对真值图像分别添加四个噪声等级的高斯白噪声,处理后的图片作为训练集;
步骤5.2、使用loss函数,根据Adam优化算法对网络参数进行优化;将训练集按patch-size裁剪和旋转后送入网络,训练直至最大迭代次数,获得训练后的网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310324928.4A CN116309178A (zh) | 2023-03-28 | 2023-03-28 | 一种基于自适应注意力机制网络的可见光图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310324928.4A CN116309178A (zh) | 2023-03-28 | 2023-03-28 | 一种基于自适应注意力机制网络的可见光图像去噪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116309178A true CN116309178A (zh) | 2023-06-23 |
Family
ID=86814932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310324928.4A Pending CN116309178A (zh) | 2023-03-28 | 2023-03-28 | 一种基于自适应注意力机制网络的可见光图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116309178A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173037A (zh) * | 2023-08-03 | 2023-12-05 | 江南大学 | 一种针对图像降噪的神经网络结构自动搜索方法 |
CN117291835A (zh) * | 2023-09-13 | 2023-12-26 | 广东海洋大学 | 基于图像内容感知先验和注意力驱动的去噪网络模型 |
-
2023
- 2023-03-28 CN CN202310324928.4A patent/CN116309178A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173037A (zh) * | 2023-08-03 | 2023-12-05 | 江南大学 | 一种针对图像降噪的神经网络结构自动搜索方法 |
CN117173037B (zh) * | 2023-08-03 | 2024-07-09 | 江南大学 | 一种针对图像降噪的神经网络结构自动搜索方法 |
CN117291835A (zh) * | 2023-09-13 | 2023-12-26 | 广东海洋大学 | 基于图像内容感知先验和注意力驱动的去噪网络模型 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨*** | |
Shahdoosti et al. | Edge-preserving image denoising using a deep convolutional neural network | |
CN109360156B (zh) | 基于生成对抗网络的图像分块的单张图像去雨方法 | |
CN111709895A (zh) | 基于注意力机制的图像盲去模糊方法及*** | |
Starovoytov et al. | Comparative analysis of the SSIM index and the pearson coefficient as a criterion for image similarity | |
CN110766632A (zh) | 基于通道注意力机制和特征金字塔的图像去噪方法 | |
CN111861894B (zh) | 基于生成式对抗网络的图像去运动模糊方法 | |
CN116309178A (zh) | 一种基于自适应注意力机制网络的可见光图像去噪方法 | |
CN111161178A (zh) | 基于生成式对抗网络的单幅低光图像增强方法 | |
CN112541877B (zh) | 基于条件生成对抗网络的去模糊方法、***、设备及介质 | |
Min et al. | Blind deblurring via a novel recursive deep CNN improved by wavelet transform | |
CN109949200B (zh) | 基于滤波器子集选择和cnn的隐写分析框架构建方法 | |
CN112634163A (zh) | 基于改进型循环生成对抗网络去图像运动模糊方法 | |
CN108830829B (zh) | 联合多种边缘检测算子的无参考质量评价算法 | |
CN114331913B (zh) | 基于残差注意力块的运动模糊图像复原方法 | |
CN112927137A (zh) | 一种用于获取盲超分辨率图像的方法、设备及存储介质 | |
CN115578262A (zh) | 基于afan模型的偏振图像超分辨率重建方法 | |
CN115082336A (zh) | 一种基于机器学习的sar图像相干斑抑制方法 | |
Wu et al. | Dcanet: Dual convolutional neural network with attention for image blind denoising | |
Hussain et al. | Image denoising to enhance character recognition using deep learning | |
CN111353982B (zh) | 一种深度相机图像序列筛选方法及装置 | |
CN117392036A (zh) | 基于照明幅度的低光图像增强方法 | |
CN116703750A (zh) | 基于边缘注意力和多阶微分损失的图像去雾方法及*** | |
CN115619677A (zh) | 一种基于改进的CycleGAN的图像去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |