CN116309651A - 一种基于单图深度学习的内窥镜图像分割方法 - Google Patents

一种基于单图深度学习的内窥镜图像分割方法 Download PDF

Info

Publication number
CN116309651A
CN116309651A CN202310601586.6A CN202310601586A CN116309651A CN 116309651 A CN116309651 A CN 116309651A CN 202310601586 A CN202310601586 A CN 202310601586A CN 116309651 A CN116309651 A CN 116309651A
Authority
CN
China
Prior art keywords
image
segmentation
edge
loss function
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310601586.6A
Other languages
English (en)
Other versions
CN116309651B (zh
Inventor
曾兵
刘丁瑞
李海鹏
曾裕
候选仁
张世昆
刘帅成
饶妮妮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202310601586.6A priority Critical patent/CN116309651B/zh
Publication of CN116309651A publication Critical patent/CN116309651A/zh
Application granted granted Critical
Publication of CN116309651B publication Critical patent/CN116309651B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像分割领域,涉及医学图像分析技术,具体提供一种基于单图深度学习的内窥镜图像分割方法,用以实现单张病例情况下的实时精准分割,为临床医学中基于内窥镜图像的治疗方案制定提供支撑。本发明首先提出一种基于单张图像的训练集生成方法,用以自动生成训练集,并在该方法基础上提出轻量化深度学习网络EUnet,用以对生成训练集进行特征拟合,实现内窥镜图像分割,得到病灶区域的分割结果。本发明能够大幅提升分割精度,并具有体量小、实时性高、易运算等优点;特别是在处理胃癌、食管癌等罕见病例的内窥镜图像时,有着显著的精度优势与速度优势,具备临床应用价值。

Description

一种基于单图深度学习的内窥镜图像分割方法
技术领域
本发明属于图像分割领域,涉及医学图像分析技术,具体提供一种基于单图深度学习的内窥镜图像分割方法,用以实现单张病例情况下的实时精准分割,为临床医学中基于内窥镜图像的治疗方案制定提供支撑。
背景技术
胃肠道疾病是人类最常见的疾病之一,也是重要的医疗保健问题之一,准确检测和诊断胃肠道癌病变、早期癌症对于防止胃肠道疾病发展为晚期癌症至关重要;内窥镜作为一种创新的医学影像诊断方式,被广泛应用于胃肠道疾病的检测、跟踪以及治疗过程中,在临床实践中,在医生进一步制定治疗计划之前,准确定位及分割出病灶区域是十分必要的;然而,逐次检查大量内窥镜图像是一个十分耗时的工程,即使是经验丰富的医生也容易因视觉疲劳而导致误诊;因此,一个高效、准确的自动分割方法能够大大减轻诊断人员进行内窥镜图像分析的负担。
近些年来,随着深度学习的快速发展,基于深度学习网络的分割方法实现了内窥镜图像分割,其中,代表性的网络结构主要有基于卷积神经网络(CNN)的分割方法、基于自注意力机制的Transformer网络的分割方法等。基于卷积神经网络(CNN)的分割网络中,U-Net网络及其变体在胃肠道疾病分割应用十分广泛,包括:U-Net、U-Net++、ResUNet和Cascaded U-Net等。进一步的,随着Transformer网络架构的提出,Transformer与U-Net融合的网络开始出现,例如:TransUNet、SwinUNet等,在息肉分割、多器官分割等领域进一步提升了图像分割精度。
尽管基于深度学***;3)模型复杂度高,优异的分割性能通常依赖更深的神经网络实现,然而,愈加复杂的模型需要更高的计算量,导致模型的推理速度大幅降低,同时消耗更多的计算成本。
发明内容
本发明的目的在于提供一种基于单图深度学习的内窥镜图像分割方法,首先提出一种基于单张图像的训练集生成方法(Rendering from Single Lesion Image,RFSLI),用以自动生成训练集,并在该方法基础上提出轻量化深度学习网络EUnet(Edge-EnhancementUNet),用以对生成训练集进行特征拟合,实现内窥镜图像分割,得到病灶区域的分割结果。本发明不仅能够有效解决经典分割算法及深度学习网络在内窥镜图像分析时存在的精度低、泛化性不足的问题,同时能够大幅提升分割精度,并且具有体量小、实时性高、易运算、对设备的计算力要求低等优点;特别是在处理胃癌、食管癌等罕见病例的内窥镜图像时,有着显著的精度优势与速度优势,突破了当前医学图像分割依赖大量同类别高精度标注图像进行训练的限制,具备临床应用价值。
为实现上述目的,本发明采用的技术方案为:
一种基于单图深度学习的内窥镜图像分割方法,包括以下步骤:
步骤1、基于待分割原始图像,采用基于单张图像的训练集生成方法生成训练集,训练集包括:训练图像集合、分割标签集合与边缘标签集合;
步骤2、构建轻量化深度学习网络EUnet,包括:编码器与解码器,解码器包括:分割分支与边缘提取分支;
步骤3、设置复合损失函数,基于训练集对轻量化深度学习网络EUnet进行训练,训练完成后得到内窥镜图像分割模型;
步骤4、将待分割原始图像输入内窥镜图像分割模型,由内窥镜图像分割模型的解码器的分割分支输出分割结果。
进一步的,步骤1中,基于单张图像的训练集生成方法具体为:
步骤1.1、先验获取待分割原始图像的ROI区域,并在ROI区域内进行前景采样,得到N个圆形的采样区域,生成采样数据集;
步骤1.2、基于采样数据集,采用简单图形生成方法生成M个简单图形样本,生成简单图形样本集合;
步骤1.3、在简单图形样本集合中,随机选取J个简单图形样本,并按照随机位置且不重叠的粘贴方式粘贴到待分割原始图像上,得到训练图像;重复K次,得到K张训练图像,构成训练图像集合;同时,将简单图形样本贴放区域作为分割标签前景,简单图形样本贴放区域边缘作为边缘标签前景,ROI区域外的其他区域作为两者背景,分别构成分割标签集合与边缘标签集合。
进一步的,步骤1.1中,前景采样具体为:在ROI区域内提取出N个随机半径的圆形区域作为采样区域;其中,采样区域的半径r满足:
Figure SMS_1
其中,H与W为待分割原始图像的长与宽,rmin与rmax为采样区域的半径r的最小值与最大值,
Figure SMS_2
表示向下取整运算。
进一步的,步骤1.2中,简单图形生成方法具体为:
采取随机剪切、旋转的方式对采样数据集中采样区域进行处理,得到M个简单图形样本;其中,简单图形包含圆形与正三角形,简单图形样本的半径
Figure SMS_3
满足:
Figure SMS_4
其中,l为步长,rmin与rmax为采样区域的半径r的最小值与最大值。
进一步的,步骤2中,编码器由构建层Layer1~Layer5依次连接构成,输入图像x输入编码器后,构建层Layer1~Layer5分别编码输出y1~y5;构建层Layer1由卷积层conv1构成,构建层Layer2由最大池化层与3个残差模块依次连接构成,构建层Layer3由4个残差模块依次连接构成,构建层Layer4由6个残差模块依次连接构成,构建层Layer5由3个残差模块依次连接构成;
解码器的分割分支包括:特征融合模块Up_Block1~Up_Block4、卷积层conv2、卷积层conv3与细节加强模块BE Block,第i个特征融合模块的输入为upi+1与yi,upi+1为第i+1个特征融合模块的输出,yi为第i个构建层的输出,up5=y5,特征融合模块Up_Block1的输出up1依次经过卷积层conv2与卷积层conv3后生成分割图像输出
Figure SMS_5
;分割图像输出/>
Figure SMS_6
经过细节加强模块BE Block后生成分割预测边缘/>
Figure SMS_7
解码器的边缘提取分支包括:边缘检测模块ED Block1~ED Block5与边缘注意力模块EA Block;第i个构建层的输出yi依次经过第i个边缘检测模块生成中间边缘输出
Figure SMS_8
,中间边缘输出/>
Figure SMS_9
经过边缘注意力模块EA Block后生成边缘输出/>
Figure SMS_10
进一步的,残差模块表示为:
Figure SMS_11
,/>
Figure SMS_12
其中,Res表示残差模块的输出,x表示输入,conv3×3表示卷积核大小为3×3的卷积运算;
特征融合模块Up_Block表示为:
Figure SMS_13
其中,upsampling表示步长为2的双线性插值运算,[ , ]表示通道维度堆叠运算;
细节加强模块BE Block表示为:
Figure SMS_14
,/>
Figure SMS_15
其中,Laplace为拉普拉斯算子,conv1×1表示卷积核大小为1×1的卷积运算;
边缘检测模块ED Block表示为:
Figure SMS_16
其中,deconv2λ×2λ为卷积核大小为2λ×2λ、步长为λ的反卷积运算;
边缘注意力模块EA Block表示为:
Figure SMS_17
,/>
Figure SMS_18
其中,
Figure SMS_19
,⊙表示按像素点乘运算,Sum表示按通道维度求和运算;Attention表示注意力运算,具体为:/>
Figure SMS_20
进一步的,步骤3中,复合损失函数为:
Figure SMS_21
其中,L为复合损失函数,Ls为分割损失函数,Le为边缘损失函数,Lc为一致性损失函数,μ1、μ2、μ3分别为分割损失函数、边缘损失函数、一致性损失函数的权重因子;
分割损失函数Ls为:
Figure SMS_22
其中,
Figure SMS_23
为分割图像输出,/>
Figure SMS_24
为分割标签;LBCE表示BCE损失函数,LDice表示Dice损失函数;/>
Figure SMS_25
与/>
Figure SMS_26
为BCE损失函数与Dice损失函数的权重因子;
边缘损失函数Le为:
Figure SMS_27
其中,
Figure SMS_28
为边缘输出,e为边缘标签;LWBCE表示WBCE损失函数;
一致性损失函数Lc为:
Figure SMS_29
其中,
Figure SMS_30
为分割预测边缘,/>
Figure SMS_31
为边缘输出;ζ表示二分类函数。
进一步的,步骤3中,训练包括两个阶段,第一阶段冻结编码器,通过Adam优化器对轻量化深度学习网络EUnet进行训练;第二阶段解冻编码器,通过Adam优化器对轻量化深度学习网络EUnet进行再次训练,得到内窥镜图像分割模型。
从工作原理上讲:
本发明提出一种基于单张图像的训练集生成方法(RFSLI),实现了单张图像学***面曲线可通过线段或者圆弧在特定规则下去近似逼近;设病灶的轮廓为平面曲线Z,可以表示为Q段曲线{Z1, Z2, ..., Zq, Zq+1, ..., ZQ}的和,规定曲线Zq的起止点分别为pq-1与pq;对于曲线Zq,可通过线段pq-1pq或起止点为pq-1与pq、曲率半径为ρq的圆弧去逼近;因此,对于任意封闭平面曲线Z,给出一个的曲线分段规则与曲率半径为ρq的计算方式,总能通过上述方式进行曲线的近似逼近。受此启发,本发明中RFSLI方法通过采样生成包含病灶纹理的简单图形(圆与正三角形)样本,并通过一个卷积神经网络学习上述简单图形,然后去拟合病灶的复杂边界;整个过程并未使用额外数据,既不同于深度学习的“一次学习”中每个类别需要一个带标注的样本、“零次学习”方法中需要借助迁移学习,也不同于“自监督学习”中需要带标签数据进行微调;由此可见,本发明实现了真正意义上的单张图像学习。
本发明提出轻量化深度学习网络EUnet作为分割模型,能够充分利用“过拟合”。具体而言,在统计学中“过拟合”指过于精密或者精确地匹配特定资料集、以至于无法良好地拟合其他资料或预测未来观察结果的现象;在深度学习中,“过拟合”的直观表现是算法在训练集上表现好,但在测试集上表现不好,泛化性能差;特别是在医学图像分割领域,受病人隐私保护、标注成本高等因素影响,训练数据相对匮乏,更易导致“过拟合”的产生。因此,鉴于“过拟合”的不利因素,深度学习模型通常会采取数据增强、正则化等技术手段去一定程度避免“过拟合”的产生;相反的,本发明实现了单张图像学习,巧妙地解决了训练数据的泛化性问题,进行可以使训练精度越“过拟合”越好。
综上,本发明的有益效果在于提供了一种基于单图深度学习的内窥镜图像分割方法,具有以下优点:
1)无额外样本学习,本发明实现了真正意义上的零样本学习,突破了当前医学图像分割依赖大量高精度标注图像进行训练的限制,原则上可分割任何类别的医学图像,具有极强的泛化性,同时也能有效保护病患的个人隐私;
2)精度高,本发明在仅依靠单张测试样本的条件下,取得了极高的分割精度;在CVC-ClinicDB、Kvasir等公开内窥镜图像数据集上图像分割结果均达到SOTAs;对非公开早期食管癌数据集(EEC-2022)进行测试时,Dice系数达到87.7%,与现有深度学习分割模型相比,分割精度大幅提升;
3)体量小、运算速度快,实时性高;针对内窥镜图像特征,在确保分割精度不下降的前提下,相较于其余SOTAs模型,本发明中内窥镜图像分割模型的参数量更少,具备更快的推理速度;
4)具有极高的临床应用价值,本发明能够分割从未见过的医学图像类别,在理论上可应用于罕见疑难病例的临床诊断;同时,本发明兼具实时性强与精度高等特点,能够广泛应用于如胃癌、食管癌的手术方案制定等临床应用场景中。
附图说明
图1为本发明中基于单图深度学习的内窥镜图像分割方法的流程示意图。
图2为本发明中轻量化深度学习网络EUnet的结构示意图。
图3为图2所示网络EUnet中残差模块(Res Block)的结构示意图。
图4为图2所示网络EUnet中特征融合模块(Up-Block)的结构示意图。
图5为图2所示网络EUnet中细节加强模块(Boundary-Enhance Block,BE Block)的结构示意图。
图6为图2所示网络E Unet中边缘检测模块(Edge-Detect Block,ED Block)的结构示意图。
图7为图2所示网络EUnet中边缘注意力模块(Edge-Attention Block,EA Block)的结构示意图。
具体实施方式
为使本发明的目的、技术方案与有益效果更加清楚明白,下面结合附图和实施例对本发明做进一步详细说明。
本实施例提供一种基于单图深度学习的内窥镜图像分割方法,其流程如图1所示;其核心在于:提供一种基于单张图像的训练集生成方法(RFSLI),该方法首先通过对待分割图像进行ROI(或反向ROI)框选、病灶采样等简单互运算获得待分割图像的粗标签信息,然后通过简单图形生成方法基于粗标签信息生成分别包含训练图像、分割标签、边缘标签的3个训练集;进一步的,提供一个轻量化深度学习网络EUnet,用来对上述训练集进行训练并最终得到图像病灶区域的分割结果。
进一步的,RFSLI的过程为:首先,由专业医生对输入原始图像进行互运算,即由医生手动完成ROI区域(感兴趣区域)框选,进一步在ROI区域内进行前景采样,得到若干个圆形的采样区域;然后,根据本发明提出的简单图形生成方法将上述采样区域经过随机剪切、旋转后得到不同大小的简单图形,并不重叠的随机粘贴到原始图像上,形成分别包含训练图像、分割标签、边缘标签的3个训练集,作为下一步轻量化深度学习网络训练的输入。
更进一步的,在医学图像分析中,医生的经验通常被认为是十分重要的,通过ROI区域选取可以充分融合专业医师的经验,提升最终的分割精度;因此,上述单张图像生成训练集的过程中,ROI区域选取由专业医师完成,目的是框选出前景区域(病灶)的外接多边形区域,该多边形区域可以为1个或多个(视病灶区域分布决定)。需要说明的是,根据医生的经验判断,当病灶占据图像大部分区域时,通常很难框选出ROI,这在内窥镜图像中较为常见;为了解决这个问题,本发明提出反向ROI区域框选,与框选病灶的ROI相比,反向ROI在健康区域上进行;在此情况下,最终的分割预测结果为健康区域的分割结果,再将其经过反转网络,输出得到病灶的分割结果。
更进一步的,上述前景采样具体为:在ROI区域内提取出N个随机半径的圆形区域作为采样区域,生成采样数据集C= {c1, …, cN};其中,N的取值范围设置为2到10,设输入图像的大小为H(高)×W(宽)×3(通道数),则采样区域的半径r的最小值与最大值满足:
Figure SMS_32
其中,
Figure SMS_33
表示向下取整。
更进一步的,上述简单图形生成方法具体为:
首先,采取随机剪切、旋转的方式对采样数据集C= {c1, …, cN}进行处理,得到M个(M>>N)简单图形样本,构成样本集合G = {g1, …, gM},其中,简单图形包含圆形与正三角形,随机剪切、旋转后的圆形或正三角形的半径
Figure SMS_34
(本发明中,正三角形的半径指其外接圆的半径)取值范围满足:
Figure SMS_35
其中,l为步长,本实施例设置为4;rmin : rmax : l表示在最小值rmin与最大值rmax的约束下以步长l进行取值;
然后,从样本集合G = {g1, …, gM}随机抽选出J个样本,不重叠的随机粘贴到原始图像上,则得到1张训练图像;重复该过程K次,得到K张训练图像,构成训练图像集合X ={x1, …, xK};所述集合大小可根据实际情况调整,本实施例中设置J=8、K=1600;
最后,将简单图形样本贴放区域作为分割标签前景(正样本),简单图形样本贴放区域边缘作为边缘标签前景(正样本),ROI区域以外的其他区域作为两者背景(负样本),构成分割标签集合S = {s1, …, sK}、边缘标签集合E = {e1, …, eK}。
进一步的,在深度学习网络训练阶段,提供一个轻量化深度学习网络EUnet,包括:以Resnet34为主干的编码网络、以Unet模型的Skip-Line为基础的分割解码网络、以多尺度特征融合的边缘解码网络;EUnet网络训练包含两个阶段,第1阶段冻结主干网络参数,对边缘提取分支以及分割分支参数进行学习,第2阶段所有参数均进行学习,并选取最后一个epoch的权值参数作为预测阶段权重。轻量化深度学习网络EUnet的具体结构如图2所示,EUnet以UNet为框架,选取ResNet34作为backbone的神经网络,充分利用了UNet的跳跃连接在浅层特征融合的优势;同时,EUnet增加了边缘提取分支的解码端,有效丰富分割目标的细节信息。并且,本发明对应提出包含分割损失、边缘损失与一致性损失的复合损失函数,从而提高网络对病灶边缘像素学习的准确性。
更进一步的,所述轻量化深度学习网络EUnet的结构如图2所示,包括:编码器与解码器;
所述编码器以Resnet34为主干网络,由构建层Layer1~5依次连接构成,输入图像x输入编码器后,构建层Layer1~5分别编码输出y1~ y5;构建层Layer1由卷积层conv1构成,卷积层conv1 的卷积核大小为7×7;构建层Layer2由最大池化层(Maxpool层)与3个残差模块(Res Block)依次连接构成,最大池化层的步长为2、kernel为3;构建层Layer3由4个残差模块(Res Block)依次连接构成,构建层Layer4由6个残差模块(Res Block)依次连接构成,构建层Layer5由3个残差模块(Res Block)依次连接构成;
所述残差模块(Res Block)的结构如图3所示,采用残差连接的方式,具体表示为:
Figure SMS_36
,/>
Figure SMS_37
其中,x表示输入,conv3×3表示卷积核大小为3×3的卷积运算;
所述构建层Layer1~5中残差模块的通道数分别为64、64、128、256、512。
所述解码器分为分割分支与边缘提取分支两个部分;
所述分割分支包括:特征融合模块Up_Block1~4、卷积层conv2、卷积层conv3与细节加强模块BE Block,第i个特征融合模块的输入为upi+1与yi,upi为第i个特征融合模块的输出,yi为第i个构建层的输出,up5=y5,特征融合模块Up_Block1的输出up1依次经过卷积层conv2与卷积层conv3后生成分割图像输出
Figure SMS_38
,即图像分割结果;分割图像输出/>
Figure SMS_39
经过细节加强模块BE Block后生成分割预测边缘/>
Figure SMS_40
,用于后续一致性损失计算,强化两个支路学习的一致性;
所述特征融合模块Up_Block的结构如图4所示,包括:上采样模块(UpsamplingBlock)与两个卷积层,具体表示为:
Figure SMS_41
其中,upi为第i个特征融合模块的输出,yi为第i个构建层的输出,up5=y5;upsampling表示步长为2的双线性插值运算,[ , ]表示通道维度堆叠运算;
所述特征融合模块Up_Block1~4的通道数依次为768、384、192、96,卷积层conv2的通道数为32,卷积层conv3的通道数为16;
所述细节加强模块BE Block的结构如图5所示,包括:拉普拉斯卷积核与3个卷积层,具体表示为:
Figure SMS_42
,/>
Figure SMS_43
其中,
Figure SMS_44
为分割图像输出,Laplace为kernel为3的拉普拉斯算子,sd表示拉普拉斯算子计算结果;
所述细节加强模块BE Block中,3个卷积层的通道数依次为16、16、1,Laplace算子为[-1,-1,-1,-1,8,-1,-1,-1,-1],本发明使用Laplace算子来提取图像边缘;需要说明的是,Laplace算子为恒定参数,不参与网络训练。
所述边缘提取分支包括:边缘检测模块ED Block1~5与边缘注意力模块EA Block;第i个构建层的输出yi依次经过第i个边缘检测模块生成中间边缘输出
Figure SMS_45
,中间边缘输出
Figure SMS_46
经过边缘注意力模块EA Block后生成边缘输出/>
Figure SMS_47
;反卷积模块D1~D5用于将输出恢复到与输入图像尺寸一致;
所述边缘检测模块ED Block的结构如图6所示,包括:残差模块、卷积层conv4、反卷积模块,具体表示为:
Figure SMS_48
其中,
Figure SMS_49
为第i个中间边缘输出,yi为第i个构建层的输出;deconv2λ×2λ为卷积核大小为2λ×2λ、步长为λ的反卷积运算,步长因子λ约束残差模块的输出经过反卷积后与输入图像尺寸一致;
所述反卷积模块D1~D5的步长依次为2、4、8、16、16,卷积层conv4的通道数为1;
所述边缘注意力模块EA Block的结构如图7所示,具体表示为:
Figure SMS_50
,/>
Figure SMS_51
其中,
Figure SMS_52
,即将中间边缘输出/>
Figure SMS_53
按通道维度堆叠;conv3×3表示卷积核大小为3×3的卷积运算,卷积层的通道数为64;⊙表示按像素点乘运算,Sum表示按通道维度求和运算;Attention表示注意力运算,由3个卷积层与Softmax单元实现,具体为:/>
Figure SMS_54
,3个卷积层的通道数依次为64、64、1;
所述编码器与解码器采用ReLU函数作为激活函数。
更进一步的,所述复合损失函数为分割损失函数、边缘损失函数、一致性损失函数的加权和,具体为:
Figure SMS_55
其中,L为复合损失函数,Ls为分割损失函数,Le为边缘损失函数,Lc为一致性损失函数,μ1、μ2、μ3分别为分割损失函数、边缘损失函数、一致性损失函数的预设权重因子,本实施例中,μ1、μ2、μ3分别取1.0、1.0、0.2 。
所述分割损失函数采用BCE(Binary Cross Entropy)损失函数与Dice损失函数的加权和,具体为:
Figure SMS_56
其中,
Figure SMS_57
为分割图像输出,/>
Figure SMS_58
为分割标签;/>
Figure SMS_59
与/>
Figure SMS_60
为BCE损失函数与Dice损失函数的预设权重因子,本实施例中,/>
Figure SMS_61
取值为0.8,/>
Figure SMS_62
取值为0.2;
所述BCE损失函数为:
Figure SMS_63
其中,
Figure SMS_64
表示像素坐标,
Figure SMS_65
、W分别为输入图像的高度、宽度,n为输入图像像素总 数;
所述Dice损失函数为:
Figure SMS_66
其中,
Figure SMS_67
与/>
Figure SMS_68
分别表示分割图像输出/>
Figure SMS_69
与分割标签s的正样本像素点的个数,/>
Figure SMS_70
表示两者相同的正样本像素点的个数。
所述边缘损失函数采用WBCE(Weighted Binary Cross Entropy)损失函数,具体为:
Figure SMS_71
其中,
Figure SMS_72
为边缘输出,e为边缘标签;
所述WBCE损失函数为:
Figure SMS_73
其中,α、β为权重因子,满足:
Figure SMS_74
,/>
Figure SMS_75
Figure SMS_76
为边缘标签e正样本像素点个数,/>
Figure SMS_77
为边缘标签e负样本像素点个数;σ为平衡因子,设置范围为1.0~1.2。
所述一致性损失函数采用WBCE(Weighted Binary Cross Entropy)损失函数,具体为:
Figure SMS_78
其中,
Figure SMS_79
为分割预测边缘,/>
Figure SMS_80
为边缘输出;ζ表示二分类器,对于边缘输出的任一像素点/>
Figure SMS_81
满足:
Figure SMS_82
,0≤ i≤ H-1,0≤ j≤ W-1。
基于上述复合损失函数,对上述轻量化深度学习网络EUnet进行训练,训练过程分为两个阶段;其中,第一阶段冻结编码器,通过Adam优化器对网络进行1000步的训练,Batch大小设置为32,初始学习率设置为lr = 1.0×10-3,每隔50步学习率衰减10%;第二阶段解冻编码器,通过Adam优化器对网络进行1000步的训练,Batch大小设置为32,初始学习率设置为lr = 3.0×10-5,每隔50步学习率衰减10%;本实施例在CPU:英特尔i9 12900K、内存:10240M、显卡:2个NVIDIA RTX 2080 Ti的硬件配置下,训练总时长为4.5分钟。
下面对本实施例提供的基于单图深度学习的内窥镜图像分割方法进行测试,测试过程共使用3个数据集,如表1所示,其中,CVC-ClinicDB与Kvasir-SEG为公开数据集,EEC-2022为本实施例制作的早期食道癌数据集。所述CVC-ClinicDB(也被称为CVC-612)是一个从结肠镜检查视频中提取的标准息肉数据集,包括612个分辨率为 384×288的样本以及对应的Ground Truth,本实施例中该数据集被划分为550个样本的训练集和62个样本的测试集。所述Kvasir-SEG是一个息肉数据集,包括1000张分辨率从332×487到1920×1072不等的息肉图像以及对应的Ground Truth,本实施例中该数据集被划分为900个样本的训练集和100个样本的测试集。所述EEC-2022由本实施例创建,由经验丰富的内窥镜医生进行制作与注释,包括1236张分辨率为480×480的内窥镜图像,划分为1092个样本的训练集和138个样本的测试集。
表1
Figure SMS_83
本实施例采用经典的医学分割模型UNet、Unet++、PraNet以及目前性能最优的分割模型Swin-Unet、Polyp-PVT作为对比例,将本发明与对比例进行对比测试,采用医学图像分割流行的mDice、mIOU、Fβ ω、Sα、Eϕ max、MAE等6个指标进行对比,测试结果如表2所示。
表2
Figure SMS_84
从上表可以看出,在两个息肉数据集上,本发明几乎在所有指标上都优于对比例;更重要的是,与对比例相比,本发明在EEC-2022上持续实现了SOTA性能;由此可见,在仅依靠单张图像的情况下,本发明不仅拥有最佳的综合性能,而且越复杂的病例图像上增益越明显,具有很高的临床应用价值,也符合当前医学影像分析的趋势。
综上,本发明充分利用交互式医学图像分割特性,提出基于单图深度学习的内窥镜图像分割方法,该方法所需数据远低于传统深度学习方法,具有测试精度高、分割性能更优的优点,并且充分融合了专业人员的经验,符合当前医疗图像分割领域趋势;同时,在更优性能的前提下,本发明中轻量化深度学习网络EUnet的训练时间更短,具备更强的泛化性,与当前临床应用前景更加契合。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。

Claims (8)

1.一种基于单图深度学习的内窥镜图像分割方法,其特征在于,包括以下步骤:
步骤1、基于待分割原始图像,采用基于单张图像的训练集生成方法生成训练集,训练集包括:训练图像集合、分割标签集合与边缘标签集合;
步骤2、构建轻量化深度学习网络EUnet,包括:编码器与解码器,解码器包括:分割分支与边缘提取分支;
步骤3、设置复合损失函数,基于训练集对轻量化深度学习网络EUnet进行训练,训练完成后得到内窥镜图像分割模型;
步骤4、将待分割原始图像输入内窥镜图像分割模型,由内窥镜图像分割模型的解码器的分割分支输出分割结果。
2.根据权利要求1所述基于单图深度学习的内窥镜图像分割方法,其特征在于,步骤1中,基于单张图像的训练集生成方法具体为:
步骤1.1、先验获取待分割原始图像的ROI区域,并在ROI区域内进行前景采样,得到N个圆形的采样区域,生成采样数据集;
步骤1.2、基于采样数据集,采用简单图形生成方法生成M个简单图形样本,生成简单图形样本集合;
步骤1.3、在简单图形样本集合中,随机选取J个简单图形样本,并按照随机位置且不重叠的粘贴方式粘贴到待分割原始图像上,得到训练图像;重复K次,得到K张训练图像,构成训练图像集合;同时,将简单图形样本贴放区域作为分割标签前景,简单图形样本贴放区域边缘作为边缘标签前景,ROI区域外的其他区域作为两者背景,分别构成分割标签集合与边缘标签集合。
3.根据权利要求2所述基于单图深度学习的内窥镜图像分割方法,其特征在于,步骤1.1中,前景采样具体为:在ROI区域内提取出N个随机半径的圆形区域作为采样区域;其中,采样区域的半径r满足:
Figure QLYQS_1
其中,H与W为待分割原始图像的长与宽,rmin与rmax为采样区域的半径r的最小值与最大值,
Figure QLYQS_2
表示向下取整运算。
4.根据权利要求2所述基于单图深度学习的内窥镜图像分割方法,其特征在于,步骤1.2中,简单图形生成方法具体为:
采取随机剪切、旋转的方式对采样数据集中采样区域进行处理,得到M个简单图形样本;其中,简单图形包含圆形与正三角形,简单图形样本的半径
Figure QLYQS_3
满足:
Figure QLYQS_4
其中,l为步长,rmin与rmax为采样区域的半径r的最小值与最大值。
5.根据权利要求1所述基于单图深度学习的内窥镜图像分割方法,其特征在于,步骤2中,编码器由构建层Layer1~Layer5依次连接构成,输入图像x输入编码器后,构建层Layer1~Layer5分别编码输出y1~y5;构建层Layer1由卷积层conv1构成,构建层Layer2由最大池化层与3个残差模块依次连接构成,构建层Layer3由4个残差模块依次连接构成,构建层Layer4由6个残差模块依次连接构成,构建层Layer5由3个残差模块依次连接构成;
解码器的分割分支包括:特征融合模块Up_Block1~Up_Block4、卷积层conv2、卷积层conv3与细节加强模块BE Block,第i个特征融合模块的输入为upi+1与yi,upi+1为第i+1个特征融合模块的输出,yi为第i个构建层的输出,up5=y5,特征融合模块Up_Block1的输出up1依次经过卷积层conv2与卷积层conv3后生成分割图像输出
Figure QLYQS_5
;分割图像输出/>
Figure QLYQS_6
经过细节加强模块BE Block后生成分割预测边缘/>
Figure QLYQS_7
解码器的边缘提取分支包括:边缘检测模块ED Block1~ED Block5与边缘注意力模块EA Block;第i个构建层的输出yi依次经过第i个边缘检测模块生成中间边缘输出
Figure QLYQS_8
,中间边缘输出/>
Figure QLYQS_9
经过边缘注意力模块EA Block后生成边缘输出/>
Figure QLYQS_10
6.根据权利要求5所述基于单图深度学习的内窥镜图像分割方法,其特征在于,残差模块表示为:
Figure QLYQS_11
,/>
Figure QLYQS_12
其中,Res表示残差模块的输出,x表示输入,conv3×3表示卷积核大小为3×3的卷积运算;
特征融合模块Up_Block表示为:
Figure QLYQS_13
其中,upsampling表示步长为2的双线性插值运算,[ , ]表示通道维度堆叠运算;
细节加强模块BE Block表示为:
Figure QLYQS_14
,/>
Figure QLYQS_15
其中,Laplace为拉普拉斯算子,conv1×1表示卷积核大小为1×1的卷积运算;
边缘检测模块ED Block表示为:
Figure QLYQS_16
其中,deconv2λ×2λ为卷积核大小为2λ×2λ、步长为λ的反卷积运算;
边缘注意力模块EA Block表示为:
Figure QLYQS_17
,/>
Figure QLYQS_18
其中,
Figure QLYQS_19
,⊙表示按像素点乘运算,Sum表示按通道维度求和运算;Attention表示注意力运算,具体为:/>
Figure QLYQS_20
7.根据权利要求1所述基于单图深度学习的内窥镜图像分割方法,其特征在于,步骤3中,复合损失函数为:
Figure QLYQS_21
其中,L为复合损失函数,Ls为分割损失函数,Le为边缘损失函数,Lc为一致性损失函数,μ1、μ2、μ3分别为分割损失函数、边缘损失函数、一致性损失函数的权重因子;
分割损失函数Ls为:
Figure QLYQS_22
其中,
Figure QLYQS_23
为分割图像输出,s为分割标签;LBCE表示BCE损失函数,LDice表示Dice损失函数;
Figure QLYQS_24
与/>
Figure QLYQS_25
为BCE损失函数与Dice损失函数的权重因子;
边缘损失函数Le为:
Figure QLYQS_26
其中,
Figure QLYQS_27
为边缘输出,e为边缘标签;LWBCE表示WBCE损失函数;
一致性损失函数Lc为:
Figure QLYQS_28
其中,
Figure QLYQS_29
为分割预测边缘,/>
Figure QLYQS_30
为边缘输出;ζ表示二分类函数。
8.根据权利要求1所述基于单图深度学习的内窥镜图像分割方法,其特征在于,步骤3中,训练包括两个阶段,第一阶段冻结编码器,通过Adam优化器对轻量化深度学习网络EUnet进行训练;第二阶段解冻编码器,通过Adam优化器对轻量化深度学习网络EUnet进行再次训练,得到内窥镜图像分割模型。
CN202310601586.6A 2023-05-26 2023-05-26 一种基于单图深度学习的内窥镜图像分割方法 Active CN116309651B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310601586.6A CN116309651B (zh) 2023-05-26 2023-05-26 一种基于单图深度学习的内窥镜图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310601586.6A CN116309651B (zh) 2023-05-26 2023-05-26 一种基于单图深度学习的内窥镜图像分割方法

Publications (2)

Publication Number Publication Date
CN116309651A true CN116309651A (zh) 2023-06-23
CN116309651B CN116309651B (zh) 2023-08-11

Family

ID=86801822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310601586.6A Active CN116309651B (zh) 2023-05-26 2023-05-26 一种基于单图深度学习的内窥镜图像分割方法

Country Status (1)

Country Link
CN (1) CN116309651B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117338556A (zh) * 2023-12-06 2024-01-05 四川大学华西医院 胃肠镜检查按压***
CN117710233A (zh) * 2024-02-05 2024-03-15 之江实验室 一种内窥图像的景深扩展方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190736A (zh) * 2018-08-02 2019-01-11 北京三友恒瑞科技有限公司 防伪二维码及其生成方法和生成应用***
CN110148146A (zh) * 2019-05-24 2019-08-20 重庆大学 一种利用合成数据的植物叶片分割方法及***
CN113643391A (zh) * 2021-10-15 2021-11-12 深圳企业云科技股份有限公司 一种标签模板生成方法及防伪标签防转移方法
CN115100690A (zh) * 2022-08-24 2022-09-23 天津大学 一种基于联合学习的图像特征提取方法
CN115393710A (zh) * 2022-08-08 2022-11-25 吉林大学 基于粗掩码平滑标签监督的任意角度目标检测方法
CN115661144A (zh) * 2022-12-15 2023-01-31 湖南工商大学 基于可变形U-Net的自适应医学图像分割方法
CN115965630A (zh) * 2022-11-22 2023-04-14 安徽大学 一种基于内窥镜图像的深度融合的肠息肉分割方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190736A (zh) * 2018-08-02 2019-01-11 北京三友恒瑞科技有限公司 防伪二维码及其生成方法和生成应用***
CN110148146A (zh) * 2019-05-24 2019-08-20 重庆大学 一种利用合成数据的植物叶片分割方法及***
CN113643391A (zh) * 2021-10-15 2021-11-12 深圳企业云科技股份有限公司 一种标签模板生成方法及防伪标签防转移方法
CN115393710A (zh) * 2022-08-08 2022-11-25 吉林大学 基于粗掩码平滑标签监督的任意角度目标检测方法
CN115100690A (zh) * 2022-08-24 2022-09-23 天津大学 一种基于联合学习的图像特征提取方法
CN115965630A (zh) * 2022-11-22 2023-04-14 安徽大学 一种基于内窥镜图像的深度融合的肠息肉分割方法及装置
CN115661144A (zh) * 2022-12-15 2023-01-31 湖南工商大学 基于可变形U-Net的自适应医学图像分割方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHRISTOPH H. LAMPERT 等: "Learning To Detect Unseen Object Classes by Between-Class Attribute Transfer", 《2009 IEEE》, pages 951 *
HAIPENG LI 等: "Single-Image-Based Deep Learning for Segmentation of Early Esophageal Cancer Lesions", 《IMAGE AND VIDEO PROCESSING》, pages 1 - 10 *
TSUNEO OYAMA 等: "Endoscopic Submucosal Dissection of Early Esophageal Cancer", 《 CLINICAL GASTROENTEROLOGY AND HEPATOLOGY》, pages 1 - 4 *
宋昊昕 等: "基于深度学习的无人机多光谱图像柑橘树冠分割", 《森林工程》, vol. 39, no. 3, pages 1 - 10 *
王文杰 等: "基于多源图像融合的自然环境下番茄果实识别", 《农业机械学报》, vol. 52, no. 9, pages 156 - 164 *
顾楚华 等: "基于改进FCM算法的乳腺肿瘤图像分割研究", 《现代信息科技》, vol. 7, no. 9, pages 1 - 4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117338556A (zh) * 2023-12-06 2024-01-05 四川大学华西医院 胃肠镜检查按压***
CN117338556B (zh) * 2023-12-06 2024-03-29 四川大学华西医院 胃肠镜检查按压***
CN117710233A (zh) * 2024-02-05 2024-03-15 之江实验室 一种内窥图像的景深扩展方法及装置
CN117710233B (zh) * 2024-02-05 2024-05-24 之江实验室 一种内窥图像的景深扩展方法及装置

Also Published As

Publication number Publication date
CN116309651B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
Cai et al. A review of the application of deep learning in medical image classification and segmentation
CN116309651B (zh) 一种基于单图深度学习的内窥镜图像分割方法
WO2020108562A1 (zh) 一种ct图像内的肿瘤自动分割方法及***
Cheng et al. Contour-aware semantic segmentation network with spatial attention mechanism for medical image
CN111354002A (zh) 一种基于深度神经网络的肾脏及肾脏肿瘤分割方法
CN108268870A (zh) 基于对抗学习的多尺度特征融合超声图像语义分割方法
CN107203989A (zh) 基于全卷积神经网络的端对端胸部ct图像分割方法
CN112150428A (zh) 一种基于深度学习的医学图像分割方法
CN112258488A (zh) 一种医疗影像病灶分割方法
CN113554665A (zh) 一种血管分割方法及装置
CN113436173B (zh) 基于边缘感知的腹部多器官分割建模、分割方法及***
CN113256641A (zh) 一种基于深度学习的皮肤病灶图像分割方法
CN112396605B (zh) 网络训练方法及装置、图像识别方法和电子设备
CN112734755A (zh) 基于3d全卷积神经网络与多任务学习的肺叶分割方法
Maity et al. Automatic lung parenchyma segmentation using a deep convolutional neural network from chest X-rays
Yamanakkanavar et al. MF2-Net: A multipath feature fusion network for medical image segmentation
Liu et al. Learning multi-level structural information for small organ segmentation
CN114897780A (zh) 一种基于mip序列的肠系膜上动脉血管重建方法
Luan et al. Adaptive attention convolutional neural network for liver tumor segmentation
CN115018809A (zh) Ct图像的靶区分割识别方法及***
Shan et al. SCA-Net: A spatial and channel attention network for medical image segmentation
CN113781489A (zh) 一种息肉影像语义分割方法及装置
CN115471512A (zh) 一种基于自监督对比学习的医学影像分割方法
CN114581474A (zh) 一种基于***ct影像的临床靶区自动勾画方法
CN112634308B (zh) 基于不同感受野的鼻咽癌靶区和危及器官的勾画方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant