CN114445299A - 一种基于注意力分配机制的双残差去噪方法 - Google Patents
一种基于注意力分配机制的双残差去噪方法 Download PDFInfo
- Publication number
- CN114445299A CN114445299A CN202210108894.0A CN202210108894A CN114445299A CN 114445299 A CN114445299 A CN 114445299A CN 202210108894 A CN202210108894 A CN 202210108894A CN 114445299 A CN114445299 A CN 114445299A
- Authority
- CN
- China
- Prior art keywords
- attention
- image
- denoising
- network model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000007246 mechanism Effects 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 28
- 230000004913 activation Effects 0.000 claims description 23
- 238000012360 testing method Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 5
- 230000003416 augmentation Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims 4
- 238000003384 imaging method Methods 0.000 abstract description 2
- 230000009467 reduction Effects 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 3
- 241000258957 Asteroidea Species 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于注意力分配机制的双残差去噪方法,本方法的步骤包括构造训练数据集,对训练数据集进行预处理操作;使用注意力分配机制和双残差网络结构的卷积神经网络构建网络去噪模型;设置网络去噪模型的超参数和损失函数,并对损失函数进行优化;对训练数据集添加不同等级的噪声并进行训练,得到已训练的网络模型;更具已训练的网络模型进行图像去噪,用结构相似性和峰值信噪比指标评估噪声图像,具有提升降噪性能和成像质量的效果。
Description
技术领域
本发明涉及计算机视觉和图像处理技术领域,具体涉及一种基于注意力分配机制的双残差去噪方法。
背景技术
图像作为数字储存在计算机中,但是由于其在采集、传输过程中受环境、设备、人为因素等影响,不可避免的引入噪声,从而影响图像的可读性,导致图像质量变低,图像的这种现象被成为退化,为了解决这种退化现象,提出了图像去噪技术,去噪是提高图像质量非常重要的方法之一,同时去噪便于后续处理图像的分类、分割及识别等任务。
图像去噪是图像处理领域中的经典问题,同时也是计算机视觉预处理中的重要步骤。传统图像去噪算法虽然可以较好的实现去噪效果,但是仍存有两个缺点:1.这些方法通常涉及到复杂的优化问题,计算时间较慢。2.多数模型为非凸的,优化调节的过程中需要人工去设置参数,所以难以高效率的获得良好的图像恢复效果。
近些年来,基于深度学***滑现象。
现有技术中公布号为:CN113610719A,名称为:一种注意力和密集连接残差块卷积核神经网络图像去噪方法,其公开的网络去噪模型包括输入层、隐含层、卷积层和输出层,但是其首先在训练过程中图像增广手段较为单一,其次注意力机制为全局一致,并没有考虑到注意力分配的问题。
发明内容
为了解决上述问题,本发明提供了一种去噪效果好、图像质量高的基于注意力分配机制的双残差去噪方法。
为了达到上述目的,本发明是通过以下技术方案来实现的:
本发明是一种基于注意力分配机制的双残差去噪方法,包括如下步骤:
步骤1,对输入的训练图像进行预处理,得到预处理后含有噪声的噪声图像;
步骤2,使用含有注意力分配模块的D-Block构建去噪网络模型;
步骤3,使用预处理后的噪声图像对去噪网络模型进行训练,并利用损失函数对其进行约束,得到图像去噪网络模型;
步骤4,对测试集添加不同等级的噪声,并使用得到的图像去噪网络模型对测试集进行去噪,得到去噪后的结果图像;
步骤5,采用结构相似性和峰值信噪比指标对去噪后的结果图像进行评估。
本发明的进一步改进在于:步骤1中对训练数据集进行预处理操作具体如下:
步骤1.1,从训练数据集中选取训练样本作为原始训练集,其中,训练样本中的图像均为尺寸相同的无噪声图像;
步骤1.2,将训练数据集中的图像分别按照1倍、0.9倍、0.8倍、0.7倍的缩放,并并使用滑动窗口对缩放后的每个图像进行图像块提取;
步骤1.3,将提取的图像块进行增广操作;
本发明的进一步改进在于:步骤2中构建的去噪网络模型包括卷积操作、ReLU激活函数以及6个D-Block。
本发明的进一步改进在于:D-Block构成部分包括前端和后端的残差单元、主干分支、掩膜分支、注意力分配模块;
其中前端和后端的残差单元均为去掉批归一化层的残差模块,该模块由2个卷积层和两层ReLU激活函数构成;
主干分支包括一对不同尺寸的卷积核Conv-A和Conv-B,在卷积核Conv-A和卷积核Conv-B之间添加了一组残差连接;
掩膜分支包括2个Squeeze-Excitation-Block、1个Squeeze-Excitation-Block残差单元、1个卷积层以及1个Sigmoid激活函数,其中Squeeze-Excitation-Block残差单元包括下采样层、Squeeze-Excitation-Block、上采样层以及一组残差连接,下采样层和上采样层分别使用大步长的卷积核和反卷积操作实现,最终由Sigmoid激活函数产生权重,并对主干分支进行特征加权;
注意力分配模块包括空间注意力模块、通道注意力模块,空间注意力模块包括两个池化层和空间主线,两个池化层分别为最大池化层和平均池化层,特征图经过最大池化操作和平均池化操作后拼接成一个大特征图,先经过卷积层卷积操作后由Sigmoid激活函数对其产生出空间上的权重,并对空间主线进行空间特征加权并输入到通道注意力模块,通道注意力模块包括平均池化层、多层感知器和Softmax激活函数。
本发明的进一步改进在于:步骤2构建的去噪网络模型中的空间注意力模块的运算公式如下:
Fsa(x)=σ(fi*Cat(xavg,xmax))
式中,σ为sigmoid激活函数,fi为卷积核大小为i的卷积操作,本实施例中的i取值为7,Cat为Concatenate拼接操作,xavg和xmax分别为经过平均池化处理后的特征图和经过最大池化处理后的特征图;
通道间注意力模块的运算公式如下:
Fca(x)=δ[W2(W1xavg+b1)+b2]
式中,W1和W2分别为多层感知器的权重,b1和b2分别为多层感知器的偏置;
由注意力分配模块产生的权重与网络中的注意力分支和非注意力分支进行相乘运算,表示为:
本发明的进一步改进在于:步骤3中的去噪网络模型的超参数包括批大小、初始学习率、迭代次数、学习率衰减策略,损失函数为均方差误差,表达式如下:
式中:Θ网络模型参数,R(yi;Θ)为网络学习到的残差图像,yi为噪声图像,xi代表干净图像,N为训练样本数。
本发明的进一步改进在于:步骤4的具体操作步骤如下:
步骤4.1,将测试集中的图像分别添加噪声等级为15、25、50的高斯白噪声,
得到噪声训练图像;
步骤4.2,将噪声训练图像输入到去噪网络模型中进行训练,从而得到训练好的去噪网络模型,并按照每20epoch对其进行保存。
本发明的进一步改进在于:步骤4中测试集包括Set12、BSD68灰度数据集。
本发明的有益效果是:本发明通过考虑空间注意力权重和通道间注意力权重,设计注意力分配模块、注意力分支、非注意力分支,在注意力分支中引入SE-Block等注意力模块,并将注意力分配模块产生的注意力权重和非注意力权重分别分配给注意力分支和非注意力分支,从而更好的指导网络进行去噪,并保证了图像的去噪质量。通过对非注意力分支设计双残差结构,兼顾了全局信息和局部信息,此方法对降噪性能和成像质量有显著的提升。
附图说明
图1是本发明的流程图。
图2是网络去噪模型。
图3是网络中D-Block模块示意图。
图4是Squeeze-Excitation-Block示意图。
图5是去噪结果示意图。
图6是噪声示意图。
具体实施方式
下面将结合本发明中的附图,对本发明实施例中的技术方案进行清楚、完整的描述。显然,所描述的实施例仅仅是本发明的一部分实施,而不是全部的实施,基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明是一种基于注意力分配机制的双残差结构的去噪网络模型,包括如下步骤:
步骤1,对输入的训练图像进行预处理,得到预处理后含有噪声的噪声图像;预处理操作具体步骤如下:
步骤1.1,从训练数据集中选取训练样本作为原始训练集,其中,训练样本中的图像均为尺寸相同的无噪声图像;在本实施例中,训练样本为训练集Train400,其容量为400张高180像素,宽180像素的图片;
步骤1.2,将训练数据集中的图像分别按照1倍、0.9倍、0.8倍、0.7倍的缩放,并使用滑动窗口对缩放后的每个图像进行图像块提取;
步骤1.3,将提取的图像块进行增广操作,即对图像进行上下翻转、90°旋转、180°旋转、270°旋转、上下翻转后90°旋转、上下翻转后180°旋转、上下翻转后270°旋转。
步骤2,使用含有注意力分配模块的D-Block构建去噪网络模型;
步骤3,设置去噪网络模型的批大小、初始学习率、迭代次数、学习率衰减策略和损失函数,并对损失函数进行优化;其中,损失函数为均方差误差,其数学表达式为:
式中:Θ为网络模型参数,R(yi;Θ)为网络学习到的残差图像,yi为噪声图像,xi代表干净图像,N为训练样本数。本发明采用Train400数据集作为训练数据集,每个epoch随机提取40个尺寸为128×128的图像块作为样本,并采用Adam优化器进行训练,初始学习率设为1×10-4,每10个epoch学习率下降0.2倍,网络共计训练100epoch;
步骤4,对测试数据集添加噪声等级为15、25、50的高斯白噪声,并使用得到的图像去噪网络模型对测试数据集进行去噪,得到去噪后的结果图像,并按照每20epoch对其进行保存;其中,测试集包括Set12、BSD68灰度数据集。
步骤5,采用结构相似性(SSIM)和峰值信噪比(PSNR)指标评估噪声图像。
如图2所示,步骤2构建的去噪网络模型包括卷积操作、ReLU激活函数以及6个D-Block,其中D-Block包括了ResNet-Block、Squeeze-Excitation-Block、上采样、下采样、Sigmoid激活函数等,并在D-Block内部采用双残差结构,并包括一对卷积核大小不同的卷积层,除D-Block之外,网络模型内部所用卷积核大小均为3*3。
如图3所示,D-Block包括前端和后端的残差单元、主干分支、掩膜分支、注意力分配模块;
前端和后端的残差单元为去掉批归一化层的残差模块,该模块包括2个卷积核大小为3*3的卷积层和两层ReLU激活函数。
主干分支包括一对不同尺寸的卷积核Conv-A和Conv-B,在卷积核Conv-A和卷积核Conv-B之间添加了一组残差连接;中间的两个D-Block的主干分支中的两个残差连接分别用于连接前一个和后一个D-Block,第一个D-Block的残差源自于自身的网络分支。最后一个D-Block的双残差输出没有用到,而是用到了网络主线路的输出。
掩膜分支包括2个Squeeze-Excitation-Block、1个Squeeze-Excitation-Block残差单元、1个卷积层以及1个Sigmoid激活函数,其中Squeeze-Excitation-Block残差单元包括下采样层、Squeeze-Excitation-Block、上采样层以及一组残差连接,下采样层和上采样层分别使用大步长的卷积核和反卷积操作实现,最终由Sigmoid激活函数产生权重,并对主干分支进行特征加权;
注意力分配模块包括空间注意力模块、通道注意力模块,空间注意力模块包括两个池化层和空间主线,两个池化层分别为最大池化层和平均池化层,特征图经过最大池化操作和平均池化操作后拼接成一个大特征图,先经过卷积层卷积操作后由Sigmoid激活函数对其产生出空间上的权重,并对空间主线进行空间特征加权并输入到通道注意力模块。空间注意力模块Fsa的运算公式如下:
Fsa(x)=σ(fi*Cat(xavg,xmax))
式中,σ为sigmoid激活函数,fi为卷积核大小为i的卷积操作,Cat为Concatenate拼接操作,xavg和xmax分别为经过平均池化处理后的特征图和经过最大池化处理后的特征图。
通道注意力模块包括平均池化层、多层感知器和Softmax激活函数,多层感知器包括两层线性层。最终将产出用于主干分支的注意力权重和主干分支中的一对残差连接的非注意力权重。通道间注意力模块Fca的运算公式如下
Fca(x)=δ[W2(W1xavg+b1)+b2]
式中,δ为softmax激活函数,W1和W2分别为多层感知器的权重,b1和b2分别为多层感知器的偏置,xavg为经过平均池化处理后的特征图。
由注意力分配模块产生的权重与网络中的注意力分支和非注意力分支进行相乘运算,运算过程可以表示为:
步骤5评估结果如表1和表2所示;
表1测试结果的PSNR值
表2测试结果的SSIM值
如图5和图6所示,本算法能够较好的恢复纹理细节,保存边缘信息。例如在图片“飞机”中,机身上的文字标语可以较好的还原,在图片“海星”中,算法可以较好的还原海星本身的纹路信息,在保存信息完整的情况下,完成了图像去噪。
本发明考虑到了双残差机制与注意力机制的结合,并对注意力主线和非注意力分支线路分配不同的权重,有效的提高了注意力的复用效率,间接的提高了网络的感受野,使得网络能够更好获得上下文信息。
以上所述仅是本发明的优选实施例而已,并非对本发明做任何形式上的限制,虽然本发明已以优选实施例论述如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案的范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本实用发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (8)
1.一种基于注意力分配机制的双残差去噪方法,其特征在于:包括如下步骤:
步骤1,对输入的训练图像进行预处理,得到预处理后含有噪声的噪声图像;
步骤2,使用含有注意力分配模块的D-Block构建去噪网络模型;
步骤3,使用预处理后的噪声图像对去噪网络模型进行训练,并利用损失函数对其进行约束,得到图像去噪网络模型;
步骤4,对测试集中的图像添加不同等级的噪声,并使用得到的图像去噪网络模型对测试集进行去噪,得到去噪后的结果图像;
步骤5,采用结构相似性和峰值信噪比指标对去噪后的结果图像进行评估。
2.根据权利要求1所述的一种基于注意力分配机制的双残差去噪方法,其特征在于:步骤1中对训练数据集进行预处理操作具体如下:
步骤1.1,从所述训练数据集中选取训练样本作为原始训练集,其中,所述训练样本中的图像均为尺寸相同的无噪声图像;
步骤1.2,将训练数据集中的图像分别按照1倍、0.9倍、0.8倍、0.7倍的缩放,并使用滑动窗口对缩放后的每个图像进行图像块提取;
步骤1.3,将提取的图像块进行增广操作。
3.根据权利要求1所述的一种基于注意力分配机制的双残差去噪方法,其特征在于:步骤2中构建的去噪网络模型包括卷积操作、ReLU激活函数以及6个D-Block。
4.根据权利要求3所述的一种基于注意力分配机制的双残差去噪方法,其特征在于:所述D-Block构成部分包括前端和后端的残差单元、主干分支、掩膜分支、注意力分配模块;
其中前端和后端的残差单元均为去掉批归一化层的残差模块,该模块由2个卷积层和两层ReLU激活函数构成;
所述主干分支包括一对不同尺寸的卷积核Conv-A和Conv-B,在卷积核Conv-A和卷积核Conv-B之间添加了一组残差连接;
所述掩膜分支包括2个Squeeze-Excitation-Block、1个Squeeze-Excitation-Block残差单元、1个卷积层以及1个Sigmoid激活函数,其中Squeeze-Excitation-Block残差单元包括下采样层、Squeeze-Excitation-Block、上采样层以及一组残差连接,下采样层和上采样层分别使用大步长的卷积核和反卷积操作实现,最终由Sigmoid激活函数产生权重,并对主干分支进行特征加权;
所述注意力分配模块包括空间注意力模块、通道注意力模块,所述空间注意力模块包括两个池化层和空间主线,两个所述池化层分别为最大池化层和平均池化层,特征图经过最大池化操作和平均池化操作后拼接成一个大特征图,先经过卷积层卷积操作后由Sigmoid激活函数对其产生出空间上的权重,并对空间主线进行空间特征加权并输入到通道注意力模块,所述通道注意力模块包括平均池化层、多层感知器和Softmax激活函数。
5.根据权利要求4所述的一种基于注意力分配机制的双残差去噪方法,其特征在于:步骤2构建的去噪网络模型中的所述空间注意力模块的运算公式如下:
Fsa(x)=σ(fi*Cat(xavg,xmax))
式中,σ为sigmoid激活函数,fi为卷积核大小为i的卷积操作,Cat为Concatenate拼接操作,xavg和xmax分别为经过平均池化处理后的特征图和经过最大池化处理后的特征图;
通道间注意力模块的运算公式如下:
Fca(x)=δ[W2(W1xavg+b1)+b2]
式中,W1和W2分别为多层感知器的权重,b1和b2分别为多层感知器的偏置;由注意力分配模块产生的权重与网络中的注意力分支和非注意力分支进行相乘运算,表示为:
7.根据权利要求1所述的一种基于注意力分配机制的双残差去噪方法,其特征在于:步骤4的具体操作步骤如下:
步骤4.1,将测试集中的图像分别添加噪声等级为15、25、50的高斯白噪声,得到噪声训练图像;
步骤4.2,将噪声训练图像输入到去噪网络模型中进行训练,从而得到训练好的去噪网络模型,并按照每20epoch对其进行保存。
8.根据权利要求1所述的一种基于注意力分配机制的双残差去噪方法,其特征在于:步骤4中测试集包括Set12、BSD68灰度数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210108894.0A CN114445299A (zh) | 2022-01-28 | 2022-01-28 | 一种基于注意力分配机制的双残差去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210108894.0A CN114445299A (zh) | 2022-01-28 | 2022-01-28 | 一种基于注意力分配机制的双残差去噪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114445299A true CN114445299A (zh) | 2022-05-06 |
Family
ID=81371045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210108894.0A Pending CN114445299A (zh) | 2022-01-28 | 2022-01-28 | 一种基于注意力分配机制的双残差去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114445299A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861835A (zh) * | 2022-07-04 | 2022-08-05 | 浙江大学 | 一种基于非对称卷积的噪声性听力损失预测*** |
CN115205292A (zh) * | 2022-09-15 | 2022-10-18 | 合肥中科类脑智能技术有限公司 | 一种配电线路树障检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233026A (zh) * | 2020-09-29 | 2021-01-15 | 南京理工大学 | 一种基于多尺度残差注意力网络的sar图像去噪方法 |
WO2021115159A1 (zh) * | 2019-12-09 | 2021-06-17 | 中兴通讯股份有限公司 | 文字识别网络模型训练方法、文字识别方法、装置、终端及其计算机存储介质 |
CN113610719A (zh) * | 2021-07-19 | 2021-11-05 | 河南大学 | 一种注意力和密集连接残差块卷积核神经网络图像去噪方法 |
WO2022000183A1 (zh) * | 2020-06-29 | 2022-01-06 | 深圳高性能医疗器械国家研究院有限公司 | 一种ct图像降噪***及方法 |
-
2022
- 2022-01-28 CN CN202210108894.0A patent/CN114445299A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021115159A1 (zh) * | 2019-12-09 | 2021-06-17 | 中兴通讯股份有限公司 | 文字识别网络模型训练方法、文字识别方法、装置、终端及其计算机存储介质 |
WO2022000183A1 (zh) * | 2020-06-29 | 2022-01-06 | 深圳高性能医疗器械国家研究院有限公司 | 一种ct图像降噪***及方法 |
CN112233026A (zh) * | 2020-09-29 | 2021-01-15 | 南京理工大学 | 一种基于多尺度残差注意力网络的sar图像去噪方法 |
CN113610719A (zh) * | 2021-07-19 | 2021-11-05 | 河南大学 | 一种注意力和密集连接残差块卷积核神经网络图像去噪方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861835A (zh) * | 2022-07-04 | 2022-08-05 | 浙江大学 | 一种基于非对称卷积的噪声性听力损失预测*** |
CN114861835B (zh) * | 2022-07-04 | 2022-09-27 | 浙江大学 | 一种基于非对称卷积的噪声性听力损失预测*** |
CN115205292A (zh) * | 2022-09-15 | 2022-10-18 | 合肥中科类脑智能技术有限公司 | 一种配电线路树障检测方法 |
CN115205292B (zh) * | 2022-09-15 | 2022-11-25 | 合肥中科类脑智能技术有限公司 | 一种配电线路树障检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949565B (zh) | 基于注意力机制的单样本部分遮挡人脸识别方法及*** | |
CN109859147B (zh) | 一种基于生成对抗网络噪声建模的真实图像去噪方法 | |
CN111028163B (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN112184577B (zh) | 基于多尺度自注意生成对抗网络的单幅图像去雾方法 | |
CN111861894B (zh) | 基于生成式对抗网络的图像去运动模糊方法 | |
CN112102177B (zh) | 基于压缩与激励机制神经网络的图像去模糊方法 | |
CN109035142B (zh) | 一种对抗网络结合航拍图像先验的卫星图像超分辨方法 | |
CN110599401A (zh) | 遥感图像超分辨率重建方法、处理装置及可读存储介质 | |
CN114445299A (zh) | 一种基于注意力分配机制的双残差去噪方法 | |
CN114066747B (zh) | 一种基于光照和反射互补性的低照度图像增强方法 | |
CN113066025B (zh) | 一种基于增量学习与特征、注意力传递的图像去雾方法 | |
CN111127354A (zh) | 一种基于多尺度字典学习的单图像去雨方法 | |
CN115170410A (zh) | 融合小波变换和注意力机制的图像增强方法及装置 | |
CN113592715B (zh) | 一种面向小样本图像集的超分辨率图像重构方法 | |
CN115457568B (zh) | 一种基于生成对抗网络的历史文档图像降噪方法及*** | |
CN116309122A (zh) | 一种基于深度学习的相位条纹图像散斑噪声抑制方法 | |
CN116523800A (zh) | 基于残差密集网络与注意力机制的图像降噪模型及方法 | |
CN114331913B (zh) | 基于残差注意力块的运动模糊图像复原方法 | |
ZhiPing et al. | A new generative adversarial network for texture preserving image denoising | |
CN116563144A (zh) | 一种基于动态注意力的密集型lstm残差网络去噪方法 | |
CN117333359A (zh) | 基于可分离卷积网络的山水画图像超分辨率重建方法 | |
CN115272131B (zh) | 基于自适应多光谱编码的图像去摩尔纹***及方法 | |
CN115861108A (zh) | 一种基于小波自注意力生成对抗网络的图像修复方法 | |
CN115564664A (zh) | 基于融合双边重组注意力的二阶段Transformer编解码器的去运动模糊方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |