CN114842029A - 一种融合通道和空间注意力的卷积神经网络息肉分割方法 - Google Patents

一种融合通道和空间注意力的卷积神经网络息肉分割方法 Download PDF

Info

Publication number
CN114842029A
CN114842029A CN202210496738.6A CN202210496738A CN114842029A CN 114842029 A CN114842029 A CN 114842029A CN 202210496738 A CN202210496738 A CN 202210496738A CN 114842029 A CN114842029 A CN 114842029A
Authority
CN
China
Prior art keywords
channel
polyp
module
cvc
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210496738.6A
Other languages
English (en)
Other versions
CN114842029B (zh
Inventor
束鑫
王佳树
顾迎燕
徐丹
史金龙
高尚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University of Science and Technology
Original Assignee
Jiangsu University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University of Science and Technology filed Critical Jiangsu University of Science and Technology
Priority to CN202210496738.6A priority Critical patent/CN114842029B/zh
Publication of CN114842029A publication Critical patent/CN114842029A/zh
Application granted granted Critical
Publication of CN114842029B publication Critical patent/CN114842029B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合通道和空间注意力的卷积神经网络息肉分割方法,包括:数据预处理,用于对息肉图像的分辨率进行调整以及数据增强;编码器阶段,使用残差模块对息肉图像进行多尺度特征提取;瓶颈层阶段,利用改进的挤压激励模块,增强对息肉图像高级特征的提取;解码器阶段,使用通道和空间组合注意力模块,提高分割精度;同时对于瓶颈层和解码器的输出使用跨层融合;并在上采样过程中使用深监督技术,减轻在训练时的梯度消失或***现象,加速模型的收敛。本发明解决了息肉与周围组织边界模糊不清以及小的息肉区域难以分割的问题,同时深监督机制的引入优化了网络模型的梯度,加快了网络模型的收敛,缩短了网络模型的训练时间。

Description

一种融合通道和空间注意力的卷积神经网络息肉分割方法
技术领域
本发明涉及医学图像分割和人工智能技术领域,具体涉及一种融合通道和空间注意力的卷积神经网络息肉分割方法。
背景技术
结直肠癌(CRC)是临床医学中最常见的诊断癌症之一,而结肠息肉往往是病变的最初表现形式。早期的息肉大多为良性,但如果不能够得到及时的治疗,随着时间的推移,部分结肠息肉会发展为结肠癌。息肉分割是对结肠镜采集的视频或者图像进行分割,辅助医生进行诊断和病理分析,以达到提高诊断效率和减少误诊率的作用,在结直肠癌的筛查和诊疗过程中扮演者不可或缺的角色。但由于息肉的形态差异大、边界模糊,使得息肉很难被精确的分割,导致漏检、误检的情况时有发生。由此可见,精确的息肉分割是一项具有挑战性的医学图像分析任务,对临床预防结直肠癌有着重要的意义。
传统的息肉分割方法主要基于颜色,纹理,形状等浅层特征或者通过组合这些特征来进行处理。这类方法不仅费时费力,分割效果往往较差,难以真正应用于临床实践。自全卷积网络(FCN)被Long提出以来,神经网络在图像分割领域取得了巨大的成功。FCN是首个用于语义分割的网络模型,将卷积神经网络开创性地引入到了语义分割领域,并且在图像分割中取得了不错的结果。Akbari等将改进的FCN应用到息肉分割中,相较于FCN提高了分割的准确性。进一步地,U-Net在FCN的基础上,使用对称的编码器-解码器结构,在医学分割领域取得了不错的成绩。在U-Net的基础上,发展了很多改进算法,并且都在医学图像分割领域取得了良好的效果。UNet++通过将不同深度的U-Net嵌入到同一个网络中,增强了编码器特征与解码器的特征之间的语义匹配程度,并且使用深监督策略对网络进行剪枝,提高了推理的速度。Double U-Net使用两个U-Net网络进行图像分割,利用迁移学习从第一个U-Net中学习特征然后逐级传递到第二个U-Net中,并利用第二个U-Net捕获更多的语义信息。ResUNet++在U-Net的基础上将残差单元、空间金字塔和SE引入到网络之中,提高了对语义的准确预测。这些U-Net变体尽管取得了不错的分割效果,但都十分依赖内存,需要较高的内存才能使用。
发明内容
发明目的:本发明的目的在于解决U-Net网络层数不够深,训练时容易出现过拟合,而且对前景像素的敏感度不足,难以获得足够的全局信息和局部语义信息的问题,提出一种融合通道和空间注意力的卷积神经网络息肉分割方法,即CSCA U-Net。
技术方案:一种融合通道和空间注意力的卷积神经网络息肉分割方法,包括以下步骤:
(1)准备数据集,分为训练和测试数据集;
(2)利用残差模块(Residual Block,RB)作为编码器提取图像的特征;
(3)利用双重挤压激励模块(Double Squeeze and Excited,DSE)增强瓶颈层对高级特征的提取能力;
(4)在解码器使用通道和空间组合的注意力模块(Channel and Space Compound,CSCA),从通道和空间两个层面上关注关键区域,从提取到的特征选择最相关的特征,抑制不相关的特征,提高分割精度;此外使用跨层融合(Cross-Layer Fusion)的方式,捕获上下文信息,细化分割的边界,通过解码器,最终生成全局预测图Sg;
所述通道和空间组合的注意力模块,通过并联和嵌套两种方式将通道注意力和空间注意力融合使用;整个模块分为a,b,c三路,在通路a中,首先将输入的特征通过一个双重挤压激励模块模块进行特征增强,生成特征图Mc,然后将Mc进行两次3×3的卷积实现非线性变换,再次使用双重挤压激励模块模块进行特征增强,得到权重矩阵Mv;在通路b中,特征图进行一次1×1的卷积操作,其通道数降为原来的一半,然后再进行批归一化和一个1×1的卷积操作,通道数降为1,最后由Sigmoid函数得到空间权重Mq;在通路c中,特征图经过两次3×3的卷积操作后,通道数减半,然后再经过一个双重挤压激励模块模块处理,生成特征图Mk,通过点乘的方式,将通路b中得到的特征权重Mq与通路c中得到的特征图Mk相乘,为Mk的每个通道中各个像素分配权重,生成特征图Ms,再利用矩阵乘法,将Ms与通路a中得到的特征图Mv结合起来,生成新的特征Matt,然后,选用Matt作为权重矩阵,通过点乘的方式与Mc相乘,得到Mr,最后通过特征融合的方式,将Mc与Mr结合起来,形成该层的分割结果Mfinal,用公式可以表示为:
Mfinal=concat(Mr,Mc) (1)
其中,Mc和Mr分别表示为:
Mc=d(x) (2)
Mr=Mc·Matt (3)
Matt又可以表示为:
Matt=(Mq·Mk)×Mv (4)
其中M表示特征图,concat(·,·)表示连接操作,d(·)表示DSE操作,·表示矩阵内积,×表示矩阵外积;
(5)在瓶颈层和解码器部分,通过深监督对网络输出进行监督,在每层生成预测结果S2~S6
(6)进行网络模型训练。
所述步骤(1)具体为,准备数据集Kvasir-SEG和CVC-ClinicDB,并且按照9:1的比例将Kvasir-SEG和CVC-ClinicDB随机分为训练和测试数据集;准备数据集CVC-ColonDB,ETIS-LARIBPOLYPDB和CVC-T,作为测试数据集。
所述步骤(2)中残差模块,首先使用一个1×1的卷积对输入特征进行通道变换,得到特征图M1,然后对M1进行两次3×3的卷积操作,得到特征图M2,每一次卷积操作之后均经过批归一化和ReLU激活函数,最后将M1与M2相加,得到最终的特征图MRB
所述步骤(3)中双重挤压激励模块,分为两个阶段:在第一个阶段中,使用全局平均池化,生成权重向量
Figure BDA0003633695050000031
再使用一个1×1的卷积对
Figure BDA0003633695050000032
进行非线性变换,其中每一个卷积之后都进行了批归一化和ReLU激活函数处理,用sigmoid函数对权重进行归一化处理,以点乘的方式对输入特征进行加权,得到特征图Mavg;在第二个阶段,对上一个阶段产生的Mavg进行全局最大池化,生成权重向量
Figure BDA0003633695050000033
然后通过一个1×1的卷积和Sigmoid函数,进行再次加权,得到新的特征Mmax,抑制无效信息的提取。
所述步骤(6)中网络模型的训练过程如下:
(6.1)首先准备数据集Kvasir-SEG和CVC-ClinicDB,并且按9:1划分为训练集和测试集;准备数据集CVC-ColonDB,ETIS-LARIBPOLYPDB,CVC-T,作为测试数据集;
(6.2)对数据集中的数据进行增强,并设置输入的图像尺寸为352×352;
(6.3)使用Adam方法作为优化器,并设置初始学习率为1e-4,在60个epoch后,将学习率降为1e-5;
(6.4)使用结合了加权交并比(Intersection Over Union,IoU)损失和二进制交叉熵损失作为损失函数,表示为:
Figure BDA0003633695050000041
在训练过程中,对于步骤(4)中生成的全局预测图Sg和步骤(5)中的局部预测图S2~S6,计算总体损失:
Figure BDA0003633695050000042
然后将其反向传播来更新网络参数。
有益效果:本发明在编码器部分,采用残差模块的形式,避免梯度消散和减少网络的退化,能够将提高编码器特征提取的能力;瓶颈层部分,采用双重挤压激励模块,聚焦包含更多信息的通道;解码器部分使用通道和空间注意力组合(CSCA)聚焦更关键的部分,细化息肉区域的边界,提高分割精度;再使用跨层融合,将相邻的解码器的输出进行相加,捕获更多的上下文信息;利用深监督策略对网络进行监督,提高收敛的速度。
附图说明
图1为本发明的流程图;
图2为CSCA U-Net的结构图;
图3为残差模块RB的结构图;
图4为通道和空间组合注意力模块CSCA的结构图;
图5为双重挤压激励模块DSE的结构图;
图6为本发明与不同网络的分割结果对比图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
如图1所示,本发明提供一种技术方案:一种融合通道和空间注意力的卷积神经网络息肉分割方法,包括以下步骤:
(1)准备数据集,分为训练和测试数据集;
(2)利用残差模块(Residual Block,RB)作为编码器提取图像的特征,图3为残差模块RB的结构图;
(3)利用双重挤压激励模块(Double Squeeze and Excited,DSE)增强瓶颈层对高级特征的提取能力,图5为双重挤压激励模块DSE的结构图;
(4)在解码器使用通道和空间组合的注意力模块(Channel and Space Compound,CSCA),从通道和空间两个层面上关注关键区域,从提取到的特征选择最相关的特征,抑制不相关的特征,提高分割精度;此外使用跨层融合(Cross-Layer Fusion)的方式,捕获上下文信息,细化分割的边界,通过解码器,最终生成全局预测图Sg,图4为通道和空间组合注意力模块CSCA的结构图;
所述通道和空间组合的注意力模块,通过并联和嵌套两种方式将通道注意力和空间注意力融合使用;整个模块分为a,b,c三路,在通路a中,首先将输入的特征通过一个双重挤压激励模块模块进行特征增强,生成特征图Mc,然后将Mc进行两次3×3的卷积实现非线性变换,再次使用双重挤压激励模块模块进行特征增强,得到权重矩阵Mv;在通路b中,特征图进行一次1×1的卷积操作,其通道数降为原来的一半,然后再进行批归一化和一个1×1的卷积操作,通道数降为1,最后由Sigmoid函数得到空间权重Mq;在通路c中,特征图经过两次3×3的卷积操作后,通道数减半,然后再经过一个双重挤压激励模块模块处理,生成特征图Mk,通过点乘的方式,将通路b中得到的特征权重Mq与通路c中得到的特征图Mk相乘,为Mk的每个通道中各个像素分配权重,生成特征图Ms,再利用矩阵乘法,将Ms与通路a中得到的特征图Mv结合起来,生成新的特征Matt,然后,选用Matt作为权重矩阵,通过点乘的方式与Mc相乘,得到Mr,最后通过特征融合的方式,将Mc与Mr结合起来,形成该层的分割结果Mfinal,用公式可以表示为:
Mfinal=concat(Mr,Mc) (1)
其中,Mc和Mr分别表示为:
Mc=d(x) (2)
Mr=Mc·Matt (3)
Matt又可以表示为:
Matt=(Mq·Mk)×Mv (4)
其中M表示特征图,concat(·,·)表示连接操作,d(·)表示DSE操作,·表示矩阵内积,×表示矩阵外积;
(5)在瓶颈层和解码器部分,通过深监督对网络输出进行监督,在每层生成预测结果S2~S6
(6)进行网络模型训练。
所述步骤(1)具体为,准备数据集Kvasir-SEG和CVC-ClinicDB,并且按照9:1的比例将Kvasir-SEG和CVC-ClinicDB随机分为训练和测试数据集;准备数据集CVC-ColonDB,ETIS-LARIBPOLYPDB和CVC-T,作为测试数据集。
所述步骤(2)中残差模块,首先使用一个1×1的卷积对输入特征进行通道变换,得到特征图M1,然后对M1进行两次3×3的卷积操作,得到特征图M2,每一次卷积操作之后均经过批归一化和ReLU激活函数,最后将M1与M2相加,得到最终的特征图MRB
所述步骤(3)中双重挤压激励模块,分为两个阶段:在第一个阶段中,使用全局平均池化,生成权重向量
Figure BDA0003633695050000061
再使用一个1×1的卷积对
Figure BDA0003633695050000062
进行非线性变换,其中每一个卷积之后都进行了批归一化和ReLU激活函数处理,用sigmoid函数对权重进行归一化处理,以点乘的方式对输入特征进行加权,得到特征图Mavg;在第二个阶段,对上一个阶段产生的Mavg进行全局最大池化,生成权重向量
Figure BDA0003633695050000063
然后通过一个1×1的卷积和Sigmoid函数,进行再次加权,得到新的特征Mmax,抑制无效信息的提取。
所述步骤(6)中网络模型的训练过程如下:
(6.1)首先准备数据集Kvasir-SEG和CVC-ClinicDB,并且按9:1划分为训练集和测试集;准备数据集CVC-ColonDB,ETIS-LARIBPOLYPDB,CVC-T,作为测试数据集;
(6.2)对数据集中的数据进行增强,并设置输入的图像尺寸为352×352;
(6.3)使用Adam方法作为优化器,并设置初始学习率为1e-4,在60个epoch后,将学习率降为1e-5;
(6.4)使用结合了加权交并比(Intersection Over Union,IOU)损失和二进制交叉熵损失作为损失函数,表示为:
Figure BDA0003633695050000064
在训练过程中,对于步骤(4)中生成的全局预测图Sg和步骤(5)中的局部预测图S2~S6,计算总体损失:
Figure BDA0003633695050000065
然后将其反向传播来更新网络参数。图2为CSCA U-Net的结构图。
本发明下的效果可通过以下实验进一步说明。
1)实验条件
本发明在pytorch框架下实现,实验所用处理器为AMD 5900x处理器,内存64GB,显卡NVIDIA GeForce RTX 3090。
在息肉分割中,我们将输入图像的尺寸统一设置为352×352,batch size设置为16,并通过随机垂直翻转(p=0.5)、随机水平翻转(p=0.5)、随机旋转(90°)三种方式来进行数据增强以及采用多尺度策略{0.75,1,1.25},训练周期设置为120,在实验中,使用Adam优化器,初始学习率设置为1e-4,在epoch>60后,学习率调至1e-5。
2)实验结果
在对模型的评估上,我们使用了平均Dice、平均IoU、MAE、
Figure BDA0003633695050000071
Sα六个指标。Dice表示预测图像与真值图之间的相似度,IoU指预测目标区域与真实目标区域的交集和并集的比值,MAE度量用于评估精度,增强对齐度量
Figure BDA0003633695050000072
用于评估相似度。加权Dice度量
Figure BDA0003633695050000073
针对Dice中的“同等重要的缺陷”问题。Sα可以弥补上述方法在目标结构相似性方面不足的问题,用来评估预测与真值图之间的相似性。
本发明算法与U-Net,U-Net++,ResUNet-mod,ResUNet++,SFA以及PraNet进行比较。综合表1,本发明的模型在两个“看过”的数据集Kvasir-SEG和CVC-ClinicDB上有着更好的息肉分割效果。综合表2,本发明的模型在三个“未看过”的数据集CVC-ColonDB,ETIS-LARIBPOLYPDB和CVC-T上展现出有竞争力的结果。
表1
Figure BDA0003633695050000074
Figure BDA0003633695050000081
表2
Figure BDA0003633695050000082
图6显示了各个模型在五个数据集上的分割结果,从上到下依次从测试集Kvasir-SEG、CVC-ClinicDB、CVC-ColonDB、ETIS-LARIBPOLYPDB和CVC-T中选取一张有代表性的图片。可以看到,本发明有着更加精细的分割结果,也进一步说明了本发明相对其他基准模型的优越性。

Claims (5)

1.一种融合通道和空间注意力的卷积神经网络息肉分割方法,其特征在于,包括以下步骤:
(1)准备数据集,分为训练和测试数据集;
(2)利用残差模块作为编码器提取图像的特征;
(3)利用双重挤压激励模块增强瓶颈层对高级特征的提取能力;
(4)在解码器使用通道和空间组合的注意力模块,从通道和空间两个层面上关注关键区域,从提取到的特征选择最相关的特征,抑制不相关的特征,提高分割精度;此外使用跨层融合的方式,捕获上下文信息,细化分割的边界,通过解码器,最终生成全局预测图Sg;
所述通道和空间组合的注意力模块,通过并联和嵌套两种方式将通道注意力和空间注意力融合使用;整个模块分为a,b,c三路,在通路a中,首先将输入的特征通过一个双重挤压激励模块模块进行特征增强,生成特征图Mc,然后将Mc进行两次3×3的卷积实现非线性变换,再次使用双重挤压激励模块模块进行特征增强,得到权重矩阵Mv;在通路b中,特征图进行一次1×1的卷积操作,其通道数降为原来的一半,然后再进行批归一化和一个1×1的卷积操作,通道数降为1,最后由Sigmoid函数得到空间权重Mq;在通路c中,特征图经过两次3×3的卷积操作后,通道数减半,然后再经过一个双重挤压激励模块模块处理,生成特征图Mk,通过点乘的方式,将通路b中得到的特征权重Mq与通路c中得到的特征图Mk相乘,为Mk的每个通道中各个像素分配权重,生成特征图Ms,再利用矩阵乘法,将Ms与通路a中得到的特征图Mv结合起来,生成新的特征Matt,然后,选用Matt作为权重矩阵,通过点乘的方式与Mc相乘,得到Mr,最后通过特征融合的方式,将Mc与Mr结合起来,形成该层的分割结果Mfinal,用公式可以表示为:
Mfinal=concat(Mr,Mc) (1)
其中,Mc和Mr分别表示为:
Mc=d(x) (2)
Mr=Mc·Matt (3)
Matt又可以表示为:
Matt=(Mq·Mk)×Mv (4)
其中M表示特征图,concat(·,·)表示连接操作,d(·)表示DSE操作,·表示矩阵内积,×表示矩阵外积;
(5)在瓶颈层和解码器部分,通过深监督对网络输出进行监督,在每层生成预测结果S2~S6
(6)进行网络模型训练。
2.根据权利要求1所述的一种融合通道和空间注意力的卷积神经网络息肉分割方法,其特征在于,所述步骤(1)具体为,准备数据集Kvasir-SEG和CVC-ClinicDB,并且按照9:1的比例将Kvasir-SEG和CVC-ClinicDB随机分为训练和测试数据集;准备数据集CVC-ColonDB,ETIS-LARIBPOLYPDB和CVC-T,作为测试数据集。
3.根据权利要求1所述的一种融合通道和空间注意力的卷积神经网络息肉分割方法,其特征在于,所述步骤(2)中残差模块,首先使用一个1×1的卷积对输入特征进行通道变换,得到特征图M1,然后对M1进行两次3×3的卷积操作,得到特征图M2,每一次卷积操作之后均经过批归一化和ReLU激活函数,最后将M1与M2相加,得到最终的特征图MRB
4.根据权利要求1所述的一种融合通道和空间注意力的卷积神经网络息肉分割方法,其特征在于,所述步骤(3)中双重挤压激励模块,分为两个阶段:在第一个阶段中,使用全局平均池化,生成权重向量
Figure FDA0003633695040000021
再使用一个1×1的卷积对
Figure FDA0003633695040000022
进行非线性变换,其中每一个卷积之后都进行了批归一化和ReLU激活函数处理,用sigmoid函数对权重进行归一化处理,以点乘的方式对输入特征进行加权,得到特征图Mavg;在第二个阶段,对上一个阶段产生的Mavg进行全局最大池化,生成权重向量
Figure FDA0003633695040000023
然后通过一个1×1的卷积和Sigmoid函数,进行再次加权,得到新的特征Mmax,抑制无效信息的提取。
5.根据权利要求1所述的一种融合通道和空间注意力的卷积神经网络息肉分割方法,其特征在于,所述步骤(6)中网络模型的训练过程如下:
(6.1)首先准备数据集Kvasir-SEG和CVC-ClinicDB,并且按9:1划分为训练集和测试集;准备数据集CVC-ColonDB,ETIS-LARIBPOLYPDB,CVC-T,作为测试数据集;
(6.2)对数据集中的数据进行增强,并设置输入的图像尺寸为352×352;
(6.3)使用Adam方法作为优化器,并设置初始学习率为1e-4,在60个epoch后,将学习率降为1e-5;
(6.4)使用结合了加权交并比损失和二进制交叉熵损失作为损失函数,表示为:
Figure FDA0003633695040000031
在训练过程中,对于步骤(4)中生成的全局预测图Sg和步骤(5)中的局部预测图S2~S6,计算总体损失:
Figure FDA0003633695040000032
然后将其反向传播来更新网络参数。
CN202210496738.6A 2022-05-09 2022-05-09 一种融合通道和空间注意力的卷积神经网络息肉分割方法 Active CN114842029B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210496738.6A CN114842029B (zh) 2022-05-09 2022-05-09 一种融合通道和空间注意力的卷积神经网络息肉分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210496738.6A CN114842029B (zh) 2022-05-09 2022-05-09 一种融合通道和空间注意力的卷积神经网络息肉分割方法

Publications (2)

Publication Number Publication Date
CN114842029A true CN114842029A (zh) 2022-08-02
CN114842029B CN114842029B (zh) 2024-06-18

Family

ID=82567799

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210496738.6A Active CN114842029B (zh) 2022-05-09 2022-05-09 一种融合通道和空间注意力的卷积神经网络息肉分割方法

Country Status (1)

Country Link
CN (1) CN114842029B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116958535A (zh) * 2023-04-14 2023-10-27 三峡大学 一种基于多尺度残差推理的息肉分割***及方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2455088A1 (en) * 2003-02-28 2004-08-28 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
WO2020108366A1 (zh) * 2018-11-27 2020-06-04 腾讯科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
CN112330681A (zh) * 2020-11-06 2021-02-05 北京工业大学 一种基于注意力机制的轻量级网络实时语义分割方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112489061A (zh) * 2020-12-09 2021-03-12 浙江工业大学 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
WO2021104056A1 (zh) * 2019-11-27 2021-06-03 中国科学院深圳先进技术研究院 一种肿瘤自动分割***、方法及电子设备
CN113222124A (zh) * 2021-06-28 2021-08-06 重庆理工大学 用于图像语义分割的SAUNet++网络与图像语义分割方法
US20210248761A1 (en) * 2020-02-10 2021-08-12 Hong Kong Applied Science and Technology Research Institute Company Limited Method for image segmentation using cnn
CN113658201A (zh) * 2021-08-02 2021-11-16 天津大学 基于增强型多尺度特征的深度学习结直肠癌息肉分割装置
US20210390723A1 (en) * 2020-06-15 2021-12-16 Dalian University Of Technology Monocular unsupervised depth estimation method based on contextual attention mechanism
US20210390338A1 (en) * 2020-06-15 2021-12-16 Dalian University Of Technology Deep network lung texture recogniton method combined with multi-scale attention
US11222217B1 (en) * 2020-08-14 2022-01-11 Tsinghua University Detection method using fusion network based on attention mechanism, and terminal device
CN113989301A (zh) * 2021-10-29 2022-01-28 浙江工业大学 一种融合多种注意力机制神经网络的结直肠息肉分割方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2455088A1 (en) * 2003-02-28 2004-08-28 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
WO2020108366A1 (zh) * 2018-11-27 2020-06-04 腾讯科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
WO2021104056A1 (zh) * 2019-11-27 2021-06-03 中国科学院深圳先进技术研究院 一种肿瘤自动分割***、方法及电子设备
US20210248761A1 (en) * 2020-02-10 2021-08-12 Hong Kong Applied Science and Technology Research Institute Company Limited Method for image segmentation using cnn
US20210390723A1 (en) * 2020-06-15 2021-12-16 Dalian University Of Technology Monocular unsupervised depth estimation method based on contextual attention mechanism
US20210390338A1 (en) * 2020-06-15 2021-12-16 Dalian University Of Technology Deep network lung texture recogniton method combined with multi-scale attention
US11222217B1 (en) * 2020-08-14 2022-01-11 Tsinghua University Detection method using fusion network based on attention mechanism, and terminal device
CN112330681A (zh) * 2020-11-06 2021-02-05 北京工业大学 一种基于注意力机制的轻量级网络实时语义分割方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112489061A (zh) * 2020-12-09 2021-03-12 浙江工业大学 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
CN113222124A (zh) * 2021-06-28 2021-08-06 重庆理工大学 用于图像语义分割的SAUNet++网络与图像语义分割方法
CN113658201A (zh) * 2021-08-02 2021-11-16 天津大学 基于增强型多尺度特征的深度学习结直肠癌息肉分割装置
CN113989301A (zh) * 2021-10-29 2022-01-28 浙江工业大学 一种融合多种注意力机制神经网络的结直肠息肉分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
S. K. ADHIKARI ET AL: "Conditional spatial fuzzy C-means thresholding algorithm for medical image segmentation", 《PERSPECTIVE TECHNOLOGIES AND METHODS IN MEMS DESIGN, IEEE》, 31 December 2015 (2015-12-31) *
江新姿等: "基于K-均值与蚁群混合聚类的图像分割", 《计算机与数字工程》, vol. 39, no. 06, 31 December 2011 (2011-12-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116958535A (zh) * 2023-04-14 2023-10-27 三峡大学 一种基于多尺度残差推理的息肉分割***及方法
CN116958535B (zh) * 2023-04-14 2024-04-16 三峡大学 一种基于多尺度残差推理的息肉分割***及方法

Also Published As

Publication number Publication date
CN114842029B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
Guo et al. Sa-unet: Spatial attention u-net for retinal vessel segmentation
Cai et al. A review of the application of deep learning in medical image classification and segmentation
Ribeiro et al. Colonic polyp classification with convolutional neural networks
Pacal et al. A robust real-time deep learning based automatic polyp detection system
Lin et al. Automatic retinal vessel segmentation via deeply supervised and smoothly regularized network
Iqbal et al. BTS-ST: Swin transformer network for segmentation and classification of multimodality breast cancer images
CN113256561B (zh) 一种基于无归一化深度残差与注意力机制的肠道病灶辅助诊断方法
CN113658201B (zh) 基于增强型多尺度特征的深度学习结直肠癌息肉分割装置
Khan et al. Gastrointestinal diseases recognition: a framework of deep neural network and improved moth-crow optimization with dcca fusion
Shi et al. A stacked generalization U-shape network based on zoom strategy and its application in biomedical image segmentation
Yamanakkanavar et al. MF2-Net: A multipath feature fusion network for medical image segmentation
Kaur et al. A dilated convolutional approach for inflammatory lesion detection using multi-scale input feature fusion (workshop paper)
CN117152433A (zh) 一种基于多尺度跨层注意力融合网络的医学图像分割方法
Fu et al. DEAU-Net: Attention networks based on dual encoder for Medical Image Segmentation
Wen et al. Pulmonary nodule detection based on convolutional block attention module
CN114842029B (zh) 一种融合通道和空间注意力的卷积神经网络息肉分割方法
WO2020219968A1 (en) Detecting avascular and signal reduction areas in retinas using neural networks
CN114842104A (zh) 一种基于多尺度残差的胶囊内窥镜图像超分辨率重建方法
Guo et al. CAFR-CNN: coarse-to-fine adaptive faster R-CNN for cross-domain joint optic disc and cup segmentation
Ahmed et al. COMA-Net: Towards generalized medical image segmentation using complementary attention guided bipolar refinement modules
Sun et al. Channel separation-based network for the automatic anatomical site recognition using endoscopic images
Li et al. MFA-Net: Multiple Feature Association Network for medical image segmentation
Iqbal et al. LDMRes-Net: Enabling real-time disease monitoring through efficient image segmentation
Garcia-Peraza-Herrera et al. Interpretable fully convolutional classification of intrapapillary capillary loops for real-time detection of early squamous neoplasia
CN116563536A (zh) 不确定性增强上下文注意力网络的息肉图像分割***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant