CN113538458A - 基于FTL损失函数和注意力的U-Net图像分割方法 - Google Patents

基于FTL损失函数和注意力的U-Net图像分割方法 Download PDF

Info

Publication number
CN113538458A
CN113538458A CN202110726063.5A CN202110726063A CN113538458A CN 113538458 A CN113538458 A CN 113538458A CN 202110726063 A CN202110726063 A CN 202110726063A CN 113538458 A CN113538458 A CN 113538458A
Authority
CN
China
Prior art keywords
attention
ftl
loss function
model
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110726063.5A
Other languages
English (en)
Inventor
颜成钢
刘硕
张二四
朱晨瑞
孙垚棋
张继勇
李宗鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110726063.5A priority Critical patent/CN113538458A/zh
Publication of CN113538458A publication Critical patent/CN113538458A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于FTL损失函数和注意力的U‑Net图像分割方法。本发明对U‑Net模型进行重新设计,在U‑Net模型基础上结合FocalTverskyLoss和Attention注意力机制。本发明具体步骤:步骤1、图像预处理;步骤2、构建损失函数:用FTL损失函数来评价分割结果;步骤3、构建注意力机制:在模型的上采样过程中加入Attention注意力模块,使得模型在输出高水平特征图时不会丢失空间细节信息;步骤4、训练网络模型:将划分好的数据集输入到搭建好的网络模型中,通过训练集和验证集完成训练后,将测试集输入到网络模型中,得到分割结果。本发明改进了准确率和召回率的不平衡问题,并且对于多尺度输入的图像有更好的输出特征表示。

Description

基于FTL损失函数和注意力的U-Net图像分割方法
技术领域
本发明提供一种基于FTL损失函数和注意力的U-Net图像分割 方法。
背景技术
在医学图像分析领域,通过对全局图像的小部分病灶区域进行 检测和分割是一项普遍的任务。由于图像病灶区域的不平衡性,使 得建立生成和辨别框架具有不稳定性。近年来,卷积神经网络( CNNs)已经成功地应用到2D和3D医学图像的自动分割中。大多数现有的深度学习方法都源于全卷积神经网络结构(FCN),使用全卷 积层替代之前的全连接层。U-Net作为FCN的变形,因其独特的跳 跃连接和编码-解码结构,成为医学图像分割的主要网络框架。
解决类别不平衡问题是医学图像分割领域一个主要的研究方向 。Focal Loss损失函数结合调节指数,重构了交叉熵损失函数,从 而对良好分类的样本进行了降权运算。Focal Loss通过阻止大量的 容易分割的负样本主导梯度从而改善了类别不平衡问题。然而,在 实际问题中,由于医学图像的病灶区域不明显这一普遍现象,这种 方法在平衡准确率和召回率上具有很大的困难。调查研究显示例如 注意力机制的方法可以使辨别模型更专注于小的感兴趣的分割区域 。
发明内容
在医学图像处理领域,为了解决数据不平衡以及模型性能的问 题,本发明对U-Net模型进行了重新设计,在其基础上结合Focal Tversky Loss和Attention注意力机制,提出了一种基于FTL损失 函数和注意力的U-Net图像分割方法,改进了准确率和召回率的不 平衡问题,并且对于多尺度输入的图像有更好的输出特征表示。
为实现上述目的,本发明提供了如下方案:
基于FTL损失函数和注意力的U-Net图像分割方法,所述方法 包括以下步骤:
步骤1、图像预处理:
1-1、采用公共数据集ISIC 2018皮肤病灶数据集。对图像集进 行数据增强操作处理,方法包括对图像进行旋转、平移、重构尺寸 、正则化、随机亮度对比以及高斯模糊等。通过这一手段,增大了 数据量,防止了过拟合,使模型达到更好的训练效果。
1-2、将数据集划分为训练集、验证集和测试集,所占比例分别 为80%,10%和10%;
步骤2、构建损失函数:Focal Tversky Loss(FTL)损失函数 用来评价分割结果,是在Dice系数的基础上进行构建的:
Figure BDA0003138692630000021
如公式(1)所述,其中gic∈{0,1}和pic∈[0,1]分别表示真实 标签和预测标签,c表示预测类别,N表示一张图像中像素的总量,∈ 是数值常量来防止分母除零。DSC系数在医学图像分割领域中是被 广泛使用的交叉指数评估指标;
Figure BDA0003138692630000022
如公式(2)所述,Dice loss表示预测值与真实值重叠的最 小值。
Dice loss的缺点是它对假正例(FP)和假负例(FN)赋予同 样的权重,其中FP表示预测为真,实际为假的样本,FN表示预测 为假,实际为真的样本。这在实际情况中将导致分割特征结果输出 高准确率但是低召回率的结果。
准确率:
Figure BDA0003138692630000023
召回率:
Figure BDA0003138692630000024
如公式(3)、(4)所述,TP表示预测为真正例,即正确预 测为病灶的区域,FN表示假负例,即错误预测为非病灶区域,FP表 示假正例,即错误预测为病灶区域;
对于例如皮肤病灶此类数据集高度不平衡且病灶区域不明显的 图像,FN需要比FP赋予更高的权重,来达到提高召回率的目的;
Figure BDA0003138692630000025
如公式(5)所述,Tversky相似指数(TI)是Dice系数的泛 化,提供了平衡FP和FN的灵活性。其中pic表示像素i预测为病灶类 别c的概率,
Figure BDA0003138692630000026
表示像素i预测为非病灶类别
Figure BDA0003138692630000027
的概率。依此类推,gic
Figure BDA0003138692630000028
表示真实标签。超参数α和β可以在大量类别不平衡的情况下, 通过微调改变权重来改进召回率。当α和β都等于0.5时,Tvesky指 数便简化为Dice指数;
Figure BDA0003138692630000031
如公式6所述,表示Tvesky损失(TL);
在深度学习中,常见的问题是不明显的病灶区域对损失函数没 有贡献。
Figure BDA0003138692630000032
如公式(7)所述,为本发明提出的Focal Tversky Loss(FTL )。其中γ在[1,3]范围内取值。在实际应用中,如果一个高Tversky 指数的像素被错误分类,那么FTL将不受影响。相反,如果 Tversky指数低并且像素被错分,那么FTL损失函数将明显下降。 当γ>1时,损失函数更专注于被错误分类的不正确预测。针对不 同的数据集和模型,γ需要根据试验进行调整,否则将出现损失函数 的过度抑制。
步骤3、构建注意力机制:在模型的上采样过程中加入 Attention注意力模块,使得模型在输出高水平特征图时不会丢失 空间细节信息。
Figure BDA0003138692630000033
如公式(8)所述,
Figure BDA0003138692630000034
表示线性注意力系数,通过逐元素相 加和1×1线性变换运算,并由Wx,Wg和bg参数化。
Figure BDA0003138692630000035
表示在第l 层的像素i,它是从较粗躁的尺度而不是输入序列信号上获取的。g 表示注意力门信号,用来决定每个像素i需要关注的区域。σ1为ReLU 激活函数;
Figure BDA0003138692630000036
如公式(9)所述,
Figure BDA0003138692630000037
表示注意力系数,σ2表示sigmoid激活 函数,通过改变低级序列信号
Figure BDA0003138692630000038
的大小,最终只获取激活的特征图 。这些经过裁剪的特征和解码阶段的每一尺度的上采样输出图像进 行连结。接下来,在每一个解码模块进行1×1×1的卷积和 sigmoid激活操作。
步骤4、训练网络模型:将划分好的数据集输入到搭建好的网 络模型中,通过训练集和验证集完成训练后,将测试集输入到网络 模型中,得到分割结果。
本发明提出的基于FTL损失函数和注意力的U-Net图像分割方 法的主要创新在:
a.引入focal Tversky loss(FTL)损失函数:对于数据不平 衡且病灶区域不明显的图像,会导致输出准确率和召回率的不平衡 。本发明提出的FTL损失函数通过在Diceloss的基础上加入了超 参数α和β,并加入指数参数γ,通过控制容易区分的背景和不容易区分的病灶分割区域,权衡了准确率和召回率之间的关系,是模型 在病灶不明显的数据集上有更好的输出结果;
b.引入Attention注意力机制:在编码阶段的深层阶段,网络 模型拥有最丰富的特征表达。然而,由于串联的网络和非线性结构 ,是的在高级输出特征时往往会丢失空间细节信息。将Attention 注意力机制引入到解码阶段,减小了对不明显目标的错误检测概率 ,使得模型更专注于前景信息,拥有更好的鉴别低级特征图空间信 息的能力;
附图说明
图1为本发明方案的流程示意图;
图2为本发明方案的网络结构示意图;
图3为本发明方案的Attention注意力机制结构示意图。
具体实施方式
如图1所示,一种基于FTL损失函数和注意力的U-Net的图像 分割方法,具体实现如下:
步骤1、图像预处理:
1-1、采用公共数据集ISIC 2018皮肤病灶数据集。对图像集进 行数据增强操作处理,方法包括对图像进行旋转、平移、重构尺寸 、正则化、随机亮度对比以及高斯模糊等。通过这一手段,增大了 数据量,防止了果泥和,使模型达到更好的训练效果。
1-2、将数据集划分为训练集、验证集和测试集,所占比例分别 为80%,10%和10%;
步骤2、构建损失函数:
用focal Tversky loss(FTL)损失函数用来评价分割结果, 该损失函数在Dice系数的基础上进行构建的,具体实现如下:
Figure BDA0003138692630000041
如公式(1)所述,其中gic∈{0,1}和pic∈[0,1]分别表示真实标 签和预测标签,c表示预测类别,N表示一张图像中像素的总量,∈是 数值常量来防止分母除零。DSC在医学图像分割领域中是被广泛使 用的交叉指数评估指标;
Figure RE-GDA0003217931200000052
如公式(2)所述,Dice loss表示预测值与真实值重叠的最小 值。
Dice loss的缺点是它对假正例(FP)和假负例(FN)赋予同 样的权重,其中FP表示预测为真,实际为假的样本,FN表示预测 为假,实际为真的样本。这在实际情况中将导致分割特征结果输出 高准确率但是低召回率。
准确率:
Figure BDA0003138692630000052
召回率:
Figure BDA0003138692630000053
如公式(3)、(4)所述,TP表示预测为真正例,即正确预测 为病灶的区域,FN表示假负例,即错误预测为非病灶区域,FP表示 假正例,即错误预测为病灶区域;
对于例如皮肤病灶此类数据集高度不平衡且病灶区域不明显的 图像,FN需要比FP赋予更高的权重,来达到提高召回率的目的;
Figure BDA0003138692630000054
如公式(5)所述,Tversky相似指数(TI)是Dice系数的泛 化,提供了平衡FP和FN的灵活性。其中pic表示像素i预测为病灶类 别c的概率,
Figure BDA0003138692630000055
表示像素i预测为非病灶类别
Figure BDA0003138692630000056
的概率。依此类推,gic
Figure BDA0003138692630000057
表示真实标签。超参数α和β可以在大量类别不平衡的情况下, 通过微调改变权重来改进召回率。当α和β都等于0.5时,Tvesky指 数便简化为Dice指数;
Figure BDA0003138692630000058
如公式6所述,表示Tvesky损失(TL);
在深度学习中,常见的问题是不明显的病灶区域对损失函数没 有贡献。
Figure BDA0003138692630000061
如公式(7)所述,为本发明提出的focal Tvesky loss(FTL )。其中γ在[1,3]范围内取值。在实际应用中,如果一个高Tversky 指数的像素被错误分类,那么FTL将不受影响。相反,如果 Tversky指数低并且像素被错分,那么FTL损失函数将明显下降。 当γ>1时,损失函数更专注于被错误分类的不正确预测。针对不 同的数据集和模型,γ需要根据试验进行调整,否则将出现损失函数 的过度抑制。
步骤3、构建注意力机制:
在模型的上采样过程中加入Attention注意力模块,使得模型 在输出高水平特征图时不会丢失空间细节信息。
Figure BDA0003138692630000062
如公式(8)所述,
Figure BDA0003138692630000063
表示线性注意力系数,通过逐元素相加 和1×1线性变换运算,并由Wx、Wg和bg参数化。
Figure BDA0003138692630000064
表示在第l层 的像素i,它是从较粗躁的尺度而不是输入序列信号上获取的。g表 示注意力门信号,用来决定每个像素i需要关注的区域。σ1为ReLU 激活函数;
Figure BDA0003138692630000065
如公式(9)所述,
Figure BDA0003138692630000066
表示注意力系数,σ2表示sigmoid激活函 数,通过改变
Figure BDA0003138692630000067
的大小,最终只获取激活的特征图。这些经过裁剪 的特征和解码阶段的每一尺度的上采样输出图像进行连结。接下来 ,在每一个解码模块进行1×1×1的卷积和sigmoid激活操作。
步骤4、训练网络模型:将划分好的数据集输入到搭建好的网 络模型中,通过训练集和验证集完成训练后,将测试集输入到网络 模型中,得到分割结果。
如图2所示,本发明所提供方案的网络模型结构示意图:
其中,输入多尺度的图像有利于增加网络的泛化能力,也进一 步证明了模型的可行性;
模型基于U-Net结构,在上采样(解码)阶段加入Attention 注意力机制,并在每一个上采样模块加入FTL损失函数监督,除了 最后一个模块,来防止过度抑制;
多尺度的跳跃连接,将上采样阶段的空间语义信息映射到对应 的下采样阶段,是模型输出更高分辨率的特征图,并提升模型的输 出效果。
如图3所示,本发明方案所提供的Attention注意力模块示意 图:
其中,g表示注意力信号,xi表示输入特征序列信号,2UP表示 两次上采样操作,意思是在每个注意力操作后再进行两次上采样操 作。g和经过两次上采样的xi进行相加操作之后,再经过1×1×1 卷积、ReLu激活、1×1×1卷积、Sigmoid激活和两次上采样操作 。最终和输入序列作相乘操作得到最终的输出特征图。

Claims (4)

1.基于FTL损失函数和注意力的U-Net图像分割方法,其特征在于对U-Net模型进行重新设计,在U-Net模型基础上结合Focal Tversky Loss和Attention注意力机制,改进了准确率和召回率的不平衡问题,并且对于多尺度输入的图像有更好的输出特征表示,具体包括如下步骤:
步骤1、图像预处理;
步骤2、构建损失函数:用FTL损失函数来评价分割结果;
步骤3、构建注意力机制:在模型的上采样过程中加入Attention注意力模块,使得模型在输出高水平特征图时不会丢失空间细节信息;
步骤4、训练网络模型:将划分好的数据集输入到搭建好的网络模型中,通过训练集和验证集完成训练后,将测试集输入到网络模型中,得到分割结果。
2.根据权利要求1所述的基于FTL损失函数和注意力的U-Net图像分割方法,其特征在于步骤1具体实现如下:
1-1、采用公共数据集ISIC 2018皮肤病灶数据集;对图像集进行数据增强操作处理,方法包括对图像进行旋转、平移、重构尺寸、正则化、随机亮度对比以及高斯模糊;
1-2、将数据集划分为训练集、验证集和测试集,所占比例分别为80%,10%和10%。
3.根据权利要求1所述的基于FTL损失函数和注意力的U-Net图像分割方法,其特征在于步骤2具体实现如下:
FTL损失函数在Dice loss的基础上进行构建,具体如下:
Figure FDA0003138692620000011
如公式(1)所述,其中gic∈{0,1}和pic∈[0,1]分别表示真实标签和预测标签,c表示预测类别,N表示一张图像中像素的总量,∈是数值常量来防止分母除零;DSC系数在医学图像分割领域中是被广泛使用的交叉指数评估指标;
Figure FDA0003138692620000012
如公式(2)所述,Dice loss表示预测值与真实值重叠的最小值;
Dice loss的缺点是它对假正例(FP)和假负例(FN)赋予同样的权重,其中FP表示预测为真,实际为假的样本,FN表示预测为假,实际为真的样本;这在实际情况中将导致分割特征结果输出高准确率但是低召回率的结果;
准确率:
Figure FDA0003138692620000021
召回率:
Figure FDA0003138692620000022
如公式(3)、(4)所述,TP表示预测为真正例,即正确预测为病灶的区域,FN表示假负例,即错误预测为非病灶区域,FP表示假正例,即错误预测为病灶区域;
对于例如皮肤病灶此类数据集高度不平衡且病灶区域不明显的图像,FN需要比FP赋予更高的权重,来达到提高召回率的目的;
Figure FDA0003138692620000023
如公式(5)所述,Tversky相似指数TI是Dice系数的泛化,提供了平衡FP和FN的灵活性;其中pic表示像素i预测为病灶类别c的概率,
Figure FDA0003138692620000024
表示像素i预测为非病灶类别
Figure FDA0003138692620000025
的概率;依此类推,gic
Figure FDA0003138692620000026
表示真实标签;超参数α和β能够在大量类别不平衡的情况下,通过微调改变权重来改进召回率;当α和β都等于0.5时,Tvesky指数便简化为Dice指数;
Figure FDA0003138692620000027
如公式6所述,TLc表示Tvesky损失;
如公式(7)所述,FTL损失构建如下:
Figure FDA0003138692620000028
其中γ在[1,3]范围内取值。
4.根据权利要求3所述的基于FTL损失函数和注意力的U-Net图像分割方法,其特征在于步骤3的线性注意力系数求解如下:
Figure FDA0003138692620000029
如公式(8)所述,
Figure FDA00031386926200000210
表示线性注意力系数,通过逐元素相加和1×1线性变换运算,并由Wx、Wg和bg参数化;
Figure FDA00031386926200000211
表示在第l层的像素i,g表示注意力门信号,用来决定每个像素i需要关注的区域,σ1为ReLU激活函数;
Figure FDA0003138692620000031
如公式(9)所述,
Figure FDA0003138692620000032
表示注意力系数,σ2表示sigmoid激活函数,通过改变
Figure FDA0003138692620000033
的大小,最终只获取激活的特征图;这些经过裁剪的特征和解码阶段的每一尺度的上采样输出图像进行连结;接下来,在每一个解码模块进行1×1×1的卷积和sigmoid激活操作。
CN202110726063.5A 2021-06-29 2021-06-29 基于FTL损失函数和注意力的U-Net图像分割方法 Withdrawn CN113538458A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110726063.5A CN113538458A (zh) 2021-06-29 2021-06-29 基于FTL损失函数和注意力的U-Net图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110726063.5A CN113538458A (zh) 2021-06-29 2021-06-29 基于FTL损失函数和注意力的U-Net图像分割方法

Publications (1)

Publication Number Publication Date
CN113538458A true CN113538458A (zh) 2021-10-22

Family

ID=78097081

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110726063.5A Withdrawn CN113538458A (zh) 2021-06-29 2021-06-29 基于FTL损失函数和注意力的U-Net图像分割方法

Country Status (1)

Country Link
CN (1) CN113538458A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140437A (zh) * 2021-12-03 2022-03-04 杭州电子科技大学 一种基于深度学习的眼底硬渗出物分割方法
CN114187293A (zh) * 2022-02-15 2022-03-15 四川大学 基于注意力机制和集成配准的口腔腭部软硬组织分割方法
CN115661144A (zh) * 2022-12-15 2023-01-31 湖南工商大学 基于可变形U-Net的自适应医学图像分割方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140437A (zh) * 2021-12-03 2022-03-04 杭州电子科技大学 一种基于深度学习的眼底硬渗出物分割方法
CN114187293A (zh) * 2022-02-15 2022-03-15 四川大学 基于注意力机制和集成配准的口腔腭部软硬组织分割方法
CN115661144A (zh) * 2022-12-15 2023-01-31 湖南工商大学 基于可变形U-Net的自适应医学图像分割方法

Similar Documents

Publication Publication Date Title
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN110399929B (zh) 眼底图像分类方法、装置以及计算机可读存储介质
CN113538458A (zh) 基于FTL损失函数和注意力的U-Net图像分割方法
Nandhini Abirami et al. Deep CNN and Deep GAN in Computational Visual Perception‐Driven Image Analysis
CN111951288B (zh) 一种基于深度学习的皮肤癌病变分割方法
Wang et al. FE-YOLOv5: Feature enhancement network based on YOLOv5 for small object detection
CN110930378B (zh) 基于低数据需求的肺气肿影像处理方法及***
Wazir et al. HistoSeg: Quick attention with multi-loss function for multi-structure segmentation in digital histology images
CN115375711A (zh) 基于多尺度融合的全局上下文关注网络的图像分割方法
CN113706544A (zh) 一种基于完备注意力卷积神经网络的医学图像分割方法
CN114119516A (zh) 基于迁移学习和级联自适应空洞卷积的病毒病灶分割方法
CN115880523A (zh) 一种图像分类模型、模型训练方法及其应用
Fan et al. A novel sonar target detection and classification algorithm
Adegun et al. Deep learning model for skin lesion segmentation: Fully convolutional network
CN116977348A (zh) 基于Transformer和多尺度特征融合的医学图像分割方法及***
CN117036714B (zh) 融合混合注意力机制的肠息肉分割方法、***及介质
Gehlot et al. “EffiNet-TS”: A deep interpretable architecture using EfficientNet for plant disease detection and visualization
Yang et al. MR‐UNet: An UNet model using multi‐scale and residual convolutions for retinal vessel segmentation
Khan et al. An effective approach to address processing time and computational complexity employing modified CCT for lung disease classification
CN116563285B (zh) 一种基于全神经网络的病灶特征识别与分割方法及***
CN116206227B (zh) 5g富媒体信息的图片审查***、方法、电子设备及介质
Huang et al. DBFU-Net: Double branch fusion U-Net with hard example weighting train strategy to segment retinal vessel
CN111768420A (zh) 一种细胞图像分割模型
Yuan et al. An improved yolov5 for skull fracture detection
Ovi et al. Infection segmentation from covid-19 chest ct scans with dilated cbam u-net

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20211022