CN112651981B - 一种显著边缘特征提取模块引导网络的肠道疾病分割方法 - Google Patents

一种显著边缘特征提取模块引导网络的肠道疾病分割方法 Download PDF

Info

Publication number
CN112651981B
CN112651981B CN202011537413.5A CN202011537413A CN112651981B CN 112651981 B CN112651981 B CN 112651981B CN 202011537413 A CN202011537413 A CN 202011537413A CN 112651981 B CN112651981 B CN 112651981B
Authority
CN
China
Prior art keywords
information
edge
module
extraction module
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011537413.5A
Other languages
English (en)
Other versions
CN112651981A (zh
Inventor
李胜
夏瑞瑞
何熊熊
程珊
郝明杰
王栋超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202011537413.5A priority Critical patent/CN112651981B/zh
Publication of CN112651981A publication Critical patent/CN112651981A/zh
Application granted granted Critical
Publication of CN112651981B publication Critical patent/CN112651981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

一种显著边缘特征提取模块引导网络的肠道疾病分割方法,首先输入数据集,骨干网络Res2net提取特征,然后采用不同核大小的GCN模块进行多尺度上下文信息的提取,再利用边界细化模块提高物体边界的划分性能,对特征进行进一步的提取;利用第二层侧边输出特征生成边缘信息,再利用三个融合的高层语义信息抑制边缘信息中的噪声,将mask图生成边缘图对生成的显著边缘特征进行显著边缘监督,形成最终的显著边缘特征提取模块;最后将显著边缘特征提取模块中生成的边缘信息与各层侧边输出信息共同输入RAS模块中,训练模型得到训练参数,利用训练参数进行测试得到最终的结果。本发明改善了胃肠道中息肉分割定位不准确和边界模糊的问题。

Description

一种显著边缘特征提取模块引导网络的肠道疾病分割方法
技术领域
本发明涉及人工智能的图像处理技术领域,具体涉及一种显著边缘特征提取模块引导网络的肠道疾病分割方法。
背景技术
结直肠癌是全球癌症相关死亡病例的第三大常见原因,通常源于结肠内息肉的异常生长。结肠镜检查是筛查和预防息肉癌变的主要方法,然而,结肠镜检查依赖于高技能的内窥镜医生和高度的眼手协调,研究表明接受结肠镜检查患者的息肉漏检率达到了22%-28%。从正常粘膜中分割出息肉可以帮助内窥镜医生改善错误分割和主观性。为了准确的分割息肉,已经提出了很多不同的方法。现有的息肉分割研究工作大致归结为三种主要方法,第一种是基于传统的图像处理方法,如基于阈值的分割方法、基于区域的分割方法等;第二种是基于传统分类器,如支持向量机的方法,先提取特征,然后使用分类器进行分割;第三种是使用卷积神经网络(CNN)进行分割的方法。目前,随着深度学习的快速发展,卷积神经网络成功的突破了传统手工特征的限制。这些基于CNN的方法极大的刷新了几乎所有广泛使用的基准,而且因为高效和高性能逐渐取代了传统的图像分割方法,但是现有大多数基于FCN的方法仍然存在对象边界粗糙及定位目标不准确的问题。如Fan等人在MICCAI会议上提出了一种息肉分割的网络结构(PraNet),该网络采用一个级联部分解码器(CPD)和基于反向注意力的残差网络(RAS)两个显著目标检测模块对息肉进行了分割。该方法丢弃了低层信息,通过融合三层语义特征生成一个粗略的显著性图,RAS模块采用迭代的方式,从粗到细来补全粗略显著图得到最终的分割效果图。但是仅仅依靠高层语义特征对显著性目标进行分割不够精确,低层结构中包含了丰富的边缘信息,能够更加精确的定位目标位置,同时很多网络忽略了低层信息与高层语义信息之间的互补关系。在本发明中,为了解决目标定位不够准确导致的错误分割,设计了一个显著边缘特征提取模块来引导网络分割的方法。
发明内容
为了克服分割中存在的边界粗糙以及目标定位的准确性的不足,本发明提出了利用显著边缘特征提取模块引导网络进行肠道疾病分割的方法,来研究边缘信息与显著目标之间的互补性关系。同时借助全局卷积网络(Global Convolutional Network,GCN)和边界细化模块(Boundary Refinement block,BR)来提高图像分割前景物体边界的定位精度。改进了PraNet网络由于目标定位不准确以及边界模糊导致对含有光斑的图像进行错误分割的问题,同时提高了分割精度。
为了解决上述技术问题,本发明采用如下的技术方案:
一种显著边缘特征提取模块引导网络的肠道疾病分割方法,包括以下步骤:
步骤1:输入数据集X={x1,x2,...,xn},其中,X表示数据集中输入的样本,xn∈R352 ×352,n表示样本数量,骨干网络Res2net提取特征,得到Conv1、Conv2、Conv3、Conv4、Conv5五个输出特征;
步骤2:由于结直肠息肉数据集中息肉的尺度大小,形状变化差异大,采用了不同核大小的GCN模块进行多尺度上下文信息的提取,再利用边界细化模块(BR模块)进一步提高物体边界的划分性能,利用该模块对骨干网络提取到的特征进行信息提取,得到五个侧边输出特征,简单表示为:
C={C(1),C(2),C(3),C(4),C(5)} (1)
步骤3:显著边缘特征提取模块的生成,过程如下:
3.1低层信息中包含丰富的边缘信息,可以为目标分割提供精确的定位,由于C(1)离输入图像太近且接受域较小不适用于生成边缘特征,而C(3),C(4),C(5)等高层信息包含丰富的语义信息,最后选择了C(2)来生成边缘信息,为了获得更加稳健的显著目标特征,将C(2)经过三个卷积层来增强特征,且在每个卷积层后面增加了一个RELU层来确保非线性;
3.2低层信息中包含了丰富的边缘信息同时也包含了很多噪声,为了抑制低层信息中的噪声,利用级联部分解码器CPD模块将C(3),C(4),C(5)三个高层信息进行融合得到融合后的特征信息C(6),C(6)中包含了三层丰富的语义信息,将融合后的信息C(6)通过自上而下的方法传播到侧边特征C(2)中,利用融合后的顶层语义信息来抑制不明显的边缘特征和边缘信息中的噪声,融合特征F(2)表示为:
式(2)中表示经过三个卷积层增强后的C(6),C(2)表示C(2)得到的特征信息,Trans(*;θ)表示参数为θ的卷积层,用于改变通道数,φ()表示RELU激活函数,Up(*;C(2))表示使用双线性插值的上采样方法,将尺寸上采样至与C(2)同样大小,F(2)表示边缘引导特征;
步骤4:将F(2)经过三个卷积层来增强边缘引导特征,得到最终的边缘信息FE,使用mask图得到的边缘图对生成的显著边缘特征进行显著边缘监督,获得显著边缘特征提取模块;
步骤5:将得到的显著边缘信息与每层的特征信息共同作为PraNet网络中RAS模块的输入,利用mask对RAS模块每一层的输出进行深度监督,得到最终的模型,使用肠道中的息肉图像作为输入对设计的模型进行训练得到参数,再用训练的参数,输入测试集图像用来预测最终的分割结果。
本发明的有益效果表现在:
(1)本发明的方法利用低层网络特征生成边缘信息,研究了边缘信息和高层语义信息之间的互补性关系,利用融合的高层语义信息抑制边缘信息中的噪声获得更加准确清晰的边缘信息,生成一个显著边缘特征提取模块。
(2)利用显著边缘特征提取模块生成的显著边缘特征来帮助显著对象特征更准确的定位目标。
(3)由于结直肠息肉数据集中息肉的尺度大小,形状变化差异大,本发明采用了不同核大小的GCN模块进行多尺度上下文信息的提取,再利用边界细化模块(BR模块)进一步提高物体边界的划分性能。
附图说明
图1是本发明的流程框图。
图2是GCN模块。
图3是本发明中采用的GCN模块。
图4是BR模块。
图5是实验的边缘结果。
图6是本发明的最终分割结果。
具体实施方式
为了阐述本发明的目的、技术方案和优点,以下结合具体实施例及附图,对本发明做进一步详细说明。
参照图1~图6,一种显著边缘特征提取模块引导网络的肠道疾病分割方法,包括以下步骤:
步骤1:输入数据集X={x1,x2,...,xn},其中,X表示数据集中输入的样本,
xn∈R352×352,n表示样本数量,骨干网络Res2net提取特征,得到Conv1、Conv2、Conv3、Conv4、Conv5五个输出特征;
步骤2:由于结直肠息肉数据集中息肉的尺度大小,形状变化差异大,采用了不同核大小的GCN模块进行多尺度上下文信息的提取,再利用边界细化模块(BR模块)进一步提高物体边界的划分性能,利用该模块对骨干网络提取到的特征进行信息提取,得到五个侧边输出特征,简单表示为:
C={C(1),C(2),C(3),C(4),C(5)} (1)
步骤3:显著边缘特征提取模块的生成,过程如下:
3.1低层信息中包含丰富的边缘信息,可以为目标分割提供精确的定位,由于C(1)离输入图像太近且接受域较小不适用于生成边缘特征,而C(3),C(4),C(5)等高层信息包含丰富的语义信息,最后选择了C(2)来生成边缘信息,为了获得更加稳健的显著目标特征,将C(2)经过三个卷积层,且在每个卷积层后面增加了一个RELU层来确保非线性;
3.2低层信息中包含了丰富的边缘信息同时也包含了很多噪声,为了抑制低层信息中的噪声,利用CPD模块将C(3),C(4),C(5)三个高层信息进行融合得到融合后的特征信息C(6),C(6)中包含了三层丰富的语义信息,将融合后的信息C(6)通过自上而下的方法传播到侧边特征C(2)中,利用融合后的顶层语义信息来抑制不明显的边缘特征和边缘信息中的噪声,融合特征F(2)表示为:
式(2)中表示经过三个卷积层后的C(6),C(2)表示C(2)得到的特征信息,Trans(*;θ)表示参数为θ的卷积层,用于改变通道数,φ()表示RELU激活函数,Up(*;C(2))表示使用双线性插值的上采样方法,将尺寸上采样至与C(2)同样大小,F(2)表示边缘引导特征;
步骤4:将F(2)经过三个卷积层来增强边缘引导特征,得到最终的边缘信息FE,使用mask图得到的边缘图对生成的显著边缘特征进行显著边缘监督,获得显著边缘特征提取模块;
步骤5:将得到的显著边缘信息与每层得到的特征信息共同作为PraNet网络中RAS模块的输入,利用mask对RAS模块每一层的输出进行深度监督,得到最终的模型,使用肠道中的息肉图像作为输入对设计的模型进行训练得到参数,再用训练的参数,输入测试集图像用来预测最终的分割结果。
下面是对上诉的内容进行进一步的补充说明,
结合图2,GCN模块是Global Convolutional Network的简称,即全局卷积网络,该模块应用于多层特征图来获取多尺度上下文信息。为了避免稀疏连接,并在特征映射的k×k区域内实现密集连接,GCN使用k×1+1×k和1×k+k×1卷积的组合以比普通的k×k卷积更少的参数有效的实现k×k卷积。结合图3,在本发明中,使用了k=7、11、15三个核大小的GCN,可以在多个抽象层次上学习多尺度上下文信息。
结合图4,BR模块(Boundary Refinement block)应用于GCN模块之后,该模块能够提升定位边界处的能力,是一个残差结构,主要作用是进行边缘的细化,能够提升边界分割的精度。
显著边缘特征提取模块主要利用第二层的局部边缘信息与全局位置信息的融合生成一个显著边缘特征,构建一个显式的边缘信息模块引导整个网络更准确的定位显著目标。利用显著边缘中丰富的边缘信息和位置信息更准确的定位显著目标,尤其是其边缘。在图5中可以看出本发明的边缘图精确的输出了显著目标即息肉的边缘,而PraNet边缘图除了显著目标的边缘,将其他非显著目标边缘也检测出来。Map_2是在第二层RAS模块的输出,从图5中可以看出本发明边缘图的加入提高了息肉分割的边缘。结合图6可以看出本发明的方法在息肉分割上效果得到大大的提升。
1)仿真条件
实验采用一台配置CPU Intel(R)Xeon(R)Gold [email protected] 2.2GHz(2个处理器),64GB内存,windows操作***和2块Nvidia GTX 3080Ti显卡的工作站。模型基于PyTorch深度学习框架实现,PyTorch版本为1.8.0,Python版本为3.7。输入图片大小统一调整为352×352,并采用了多尺度训练策略。使用ADAM算法来优化总体参数,学习率设置为1e-4。息肉数据集采用的是CVC-ClinicDB,本发明将本文提出的方法分别与UNet、BASNet、U-2Net以及PraNet四种医学图像分割方法进行了比较。
2)仿真结果
本发明方法与UNet、BASNet、U-2Net以及PraNet三种医学图像分割方法在CVC-ClinicDB息肉数据集上进行了对比实验。采用医学分割中常用的加权Dice指标MAE、Sa四个指标来进行评估。其中/>是用来修正Dice中“重要性相等”的缺点;MAE用于评估像素级精度;/>用来评估像素级和全局级的相似性;Sa用来评估预测和真值之间的结构相似性,MAE和/>都是基于像素方式的评估,忽略了结构相似性。
表1
从表1中可以看出,本发明方法相对于UNet、BASNet、U-2Net以及PraNet三种方法上具有更优的结果,大大提升了分割的性能,能够更好的应用在息肉分割上,具有更好的实际工程应用价值。
本说明书的实施例所述的内容仅仅是对发明构思的实现形式的列举,仅作说明用途。本发明的保护范围不应当被视为仅限于本实施例所陈述的具体形式,本发明的保护范围也及于本领域的普通技术人员根据本发明构思所能想到的等同技术手段。

Claims (1)

1.一种显著边缘特征提取模块引导网络的肠道疾病分割方法,其特征在于,包括以下步骤:
步骤1:输入数据集X={x1,x2,...,xn},其中,X表示数据集中输入的样本,xn∈R352×352,n表示样本数量,骨干网络Res2net提取特征,得到Conv1、Conv2、Conv3、Conv4、Conv5五个输出特征;
步骤2:由于结直肠息肉数据集中息肉的尺度大小,形状变化差异大,采用了不同核大小的GCN模块进行多尺度上下文信息的提取,再利用边界细化模块进一步提高物体边界的划分性能;利用该模块对骨干网络提取到的特征进行信息提取,得到五个侧边输出特征,简单表示为:
C={C(1),C(2),C(3),C(4),C(5)} (1)
步骤3:显著边缘特征提取模块的生成,过程如下:
3.1低层信息中包含丰富的边缘信息,可以为目标分割提供精确的定位,由于C(1)离输入图像太近且接受域较小不适用于生成边缘特征,而C(3),C(4),C(5)等高层信息包含丰富的语义信息,最后选择了C(2)来生成边缘信息,为了获得更加稳健的显著目标特征,将C(2)经过三个卷积层,且在每个卷积层后面增加了一个RELU层来确保非线性;
3.2低层信息中包含了丰富的边缘信息同时也包含了很多噪声,为了抑制低层信息中的噪声,利用级联部分解码器CPD模块将C(3),C(4),C(5)三个高层信息进行融合得到融合后的特征信息C(6),C(6)中包含了三层丰富的语义信息,将融合后的信息C(6)通过自上而下的方法传播到侧边特征C(2)中,利用融合后的顶层语义信息来抑制不明显的边缘特征和边缘信息中的噪声,融合特征F(2)表示为:
式(2)中表示经过三个卷积层后的C(6),C(2)表示C(2)得到的特征信息,Trans(*;θ)表示参数为θ的卷积层,用于改变通道数,φ()表示RELU激活函数,Up(*;C(2))表示使用双线性插值的上采样方法,将尺寸上采样至与C(2)同样大小;
步骤4:将F(2)经过三个卷积层来增强边缘引导特征,得到最终的边缘信息FE,使用mask图得到的边缘图对生成的显著边缘特征进行显著边缘监督,获得显著边缘特征提取模块;
步骤5:将得到的显著边缘信息与每层的特征信息共同作为PraNet网络中RAS模块的输入,利用mask对RAS模块每一层的输出进行深度监督,得到最终的模型,使用肠道中的息肉图像作为输入对设计的模型进行训练得到参数,再用训练的参数,输入测试集图像用来预测最终的分割结果。
CN202011537413.5A 2020-12-23 2020-12-23 一种显著边缘特征提取模块引导网络的肠道疾病分割方法 Active CN112651981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011537413.5A CN112651981B (zh) 2020-12-23 2020-12-23 一种显著边缘特征提取模块引导网络的肠道疾病分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011537413.5A CN112651981B (zh) 2020-12-23 2020-12-23 一种显著边缘特征提取模块引导网络的肠道疾病分割方法

Publications (2)

Publication Number Publication Date
CN112651981A CN112651981A (zh) 2021-04-13
CN112651981B true CN112651981B (zh) 2024-04-19

Family

ID=75359511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011537413.5A Active CN112651981B (zh) 2020-12-23 2020-12-23 一种显著边缘特征提取模块引导网络的肠道疾病分割方法

Country Status (1)

Country Link
CN (1) CN112651981B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192093B (zh) * 2021-05-10 2023-04-18 新疆大学 基于双流网络结构的快速显著性目标检测方法
CN113222012A (zh) * 2021-05-11 2021-08-06 北京知见生命科技有限公司 一种肺部数字病理图像自动定量分析方法及***
CN113538313B (zh) * 2021-07-22 2022-03-25 深圳大学 一种息肉分割方法、装置、计算机设备及存储介质
CN114972155B (zh) * 2021-12-30 2023-04-07 昆明理工大学 一种基于上下文信息和反向注意力的息肉图像分割方法
CN114445426B (zh) * 2022-01-28 2022-08-26 深圳大学 内窥镜图像中息肉区域的分割方法、装置及相关组件
CN115375917B (zh) * 2022-10-25 2023-03-24 杭州华橙软件技术有限公司 一种目标边缘特征提取方法、装置、终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443818A (zh) * 2019-07-02 2019-11-12 中国科学院计算技术研究所 一种基于涂鸦的弱监督语义分割方法与***
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及***
CN111797841A (zh) * 2020-05-10 2020-10-20 浙江工业大学 一种基于深度残差网络的视觉显著性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443818A (zh) * 2019-07-02 2019-11-12 中国科学院计算技术研究所 一种基于涂鸦的弱监督语义分割方法与***
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及***
CN111797841A (zh) * 2020-05-10 2020-10-20 浙江工业大学 一种基于深度残差网络的视觉显著性检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多模态特征融合监督的RGB-D图像显著性检测;刘政怡;段群涛;石松;赵鹏;;电子与信息学报(第04期);全文 *

Also Published As

Publication number Publication date
CN112651981A (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
CN112651981B (zh) 一种显著边缘特征提取模块引导网络的肠道疾病分割方法
US11176381B2 (en) Video object segmentation by reference-guided mask propagation
Li et al. Bridging composite and real: towards end-to-end deep image matting
Shu et al. Segmenting overlapping cell nuclei in digital histopathology images
Kassani et al. Deep transfer learning based model for colorectal cancer histopathology segmentation: A comparative study of deep pre-trained models
CN112767418B (zh) 基于深度感知的镜子图像分割方法
CN112712528B (zh) 一种多尺度u型残差编码器与整体反向注意机制结合的肠道病灶分割方法
CN113837989B (zh) 一种基于无锚框的大肠内窥镜息肉检测与病理分类方法
Wang et al. A generalizable and robust deep learning algorithm for mitosis detection in multicenter breast histopathological images
CN113344932A (zh) 一种半监督的单目标视频分割方法
IL301650A (en) A method for image processing of tissues and a system for image processing of tissues
CN113591719A (zh) 一种自然场景任意形状文本检测方法、装置和训练方法
Khan et al. Computer-assisted diagnosis of lymph node metastases in colorectal cancers using transfer learning with an ensemble model
CN114266794A (zh) 基于全卷积神经网络的病理切片图像癌症区域分割***
Wang et al. DHUnet: Dual-branch hierarchical global–local fusion network for whole slide image segmentation
Wang et al. Automatic liver segmentation using EfficientNet and Attention-based residual U-Net in CT
Tsaku et al. Texture-based deep learning for effective histopathological cancer image classification
He et al. Expression site agnostic histopathology image segmentation framework by self supervised domain adaption
Liu et al. GCCNet: Grouped channel composition network for scene text detection
CN116563536A (zh) 不确定性增强上下文注意力网络的息肉图像分割***
CN116597138A (zh) 一种基于深度卷积神经网络的息肉图像语义分割方法
CN114972155B (zh) 一种基于上下文信息和反向注意力的息肉图像分割方法
CN114708591A (zh) 基于单字连接的文档图像中文字符检测方法
Wang et al. A novel dataset and a deep learning method for mitosis nuclei segmentation and classification
He et al. An image inpainting-based data augmentation method for improved sclerosed glomerular identification performance with the segmentation model EfficientNetB3-Unet

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant