CN115527204A - 一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法 - Google Patents

一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法 Download PDF

Info

Publication number
CN115527204A
CN115527204A CN202211145469.5A CN202211145469A CN115527204A CN 115527204 A CN115527204 A CN 115527204A CN 202211145469 A CN202211145469 A CN 202211145469A CN 115527204 A CN115527204 A CN 115527204A
Authority
CN
China
Prior art keywords
full
slices
liver cancer
stage
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211145469.5A
Other languages
English (en)
Inventor
彭绍亮
潘良睿
刘达政
窦钰涛
王练
刘明婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202211145469.5A priority Critical patent/CN115527204A/zh
Publication of CN115527204A publication Critical patent/CN115527204A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了人工智能和生物信息学技术领域的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,该框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法包括以下步骤:对肝癌组织的全幻灯片图像进行数据收集和预处理;使用多标签诊断框架辅助全幻灯片图像完成分类任务;使用多标签诊断框架辅助全幻灯片图像完成分割任务。该框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法通过深度学习技术的多标签诊断框架对肝癌组织全幻灯片图像。

Description

一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法
技术领域
本发明涉及人工智能和生物信息学技术领域,具体地,涉及一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法。
背景技术
肝癌是一种常见的疾病,在我国肝癌的发病率和死亡率都非常高,70%-80%的患者初诊时已为不可切除状态,尽管不少患者在肝癌早期得到了诊断和治疗,但它的复发性仍然很高,对于肝癌的中晚期的患者,其预后情况不容乐观;如果癌症扩散到了周边的***,患者的5年生存率只有11%。当癌症扩散到其他器官后,5年生存率更是只有3%,因此,肝癌的早期诊断和筛查对于肝癌患者的预后极为重要。
组织病理学图像是从微观上反映出癌细胞的生存状态和分化程度,因此,组织病理学切片的组织学检查是诊断和分级肝癌的黄金标准,传统上,病理学家通常使用显微镜观察组织病理学图像,全幻灯片图像(WSIs)是肝癌患者上取出的组织病理学图像,用来分析癌症和其他疾病迹象的大量组织样本,这些图像可能有数十亿像素大小,随着数字图像技术的发展,病理学家可以通过显示器远程的观察病理学图像来确定敏感区域和恶性程度,目前,深度学习技术已被广泛的用于组织病理学图像的分割和分类中,并展示出优于现有方法的性能;可以用于对全幻灯片图像(WSIs)构建分类数据集和分割数据集,多标签诊断框架(MLDF-TR)是深度学习的网络模型框架,包括分类网络和分割网络,分类网络用于完成分类任务,分割网络用于完成风割任务;然而,现有技术中的病理学家的主观判断有时会受到经验的影响,局部的视野的往往会干扰全幻灯片图像(WSIs)的诊断,为了实现客观诊断,使用计算病理学的方法对图像定量分析至关重要,组织图像的分类和分割是分析肝癌微环境的第一步,例如,通过分类任务得到肿瘤间质比等相关量化信息,通过分割任务得到组织图像敏感区域的分布,这有助于构建肿瘤亚型和患者生存的预后组织学特征。因此,组织学图像分类技术和分割技术在癌症的计算机辅助诊断和分级***中起着重要的作用,现有技术中,通过其他技术辅助肝癌组织全幻灯片片的肿瘤微环境分析方法存在着各种各样的局限性,特征提取效果较差,存在训练效率低和退化的问题,分析预测的精确度,敏感度和特异性效果较差,对数据集的分类和分割效果不好,因此,亟需设计一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法。
发明内容
为了解决上述问题,本发明的目的是提供一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,解决了现有技术中通过其他技术辅助肝癌组织全幻灯片的肿瘤微环境分析方法存在着各种各样的局限性,特征提取效果较差,存在训练效率低和退化等问题,分析预测的精确度,敏感度和特异性效果较差以及对数据集的分类和分割效果不好的技术问题,为未来的分割工作提供了基准。
为了实现上述目的,本发明的技术方案如下:
依据本发明的一个方面,提供了一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,包括以下步骤:
S1.对肝癌组织的全幻灯片图像进行数据收集和预处理;
S2.使用多标签诊断框架辅助全幻灯片图像完成分类任务;
S3.使用多标签诊断框架辅助全幻灯片图像完成分割任务。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S1包括以下步骤:
S11.从五名肝癌患者身上取出五张全幻灯片图像,构建分类数据集和分割数据集;
S12.使用翻转和平移预处理方法对分类数据集和分割数据集进行数据预处理。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S2包括以下步骤:
S21.将步骤S11的全幻灯片图像进行切片,划分区域并整理成多标签的数据集;
S22.利用SLSR网络对全幻灯片图像的切片进行特征提取和分类;
S23.利用SLSR模型统计出切片中不同标签的数量,进而计算肿瘤间质比。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S21包括以下步骤:
S211.将五张全幻灯片图像切分成大小为224×224的小切片,共获得68175张小切片;
S212.将步骤S211中的小切片中涉及两个区域的小切片贴上两个标签;
S213.将小切片中的每一类的切片数据的比例范围控制在1:3的之内;
S214.将小切片中的将不同种类的切片整理成多标签的数据集。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S22包括以下步骤:
S221.将融合了swin变压器模块、局部深度卷积模块、SE模块和残差神经网络的分类网络,命名为SLSR网络;
S222.切片先通过补丁分割模块生成不重叠的补丁,每个补丁被视为一个令牌,所有令牌,经过线性映射将输划分后的patch特征维度变成任意维度C;
S223.进行阶段1:将任意维度C送入Swin变压器模块,局部深度卷积模块对patch特征维度进一步学习,将多通道的特征图传递给SE layer,生成新的特征图;
所述S223包括以下步骤:
S2231.swin变压器模块包括移位的不重叠窗口,将注意力限制在每个窗口内,减少注意力机制产生的计算量;
S2232.局部深度卷积模块对swin变压器提取的特征进行图像重构,并在多通道中进行卷积运算,生成的特征图传递给下一层;
S2333.SE模块再利用从通道中获取的对应的权重系数向量与原特征图向量矩阵进行点积,并生成一个具有代表性的特征图。
S224.依次进行阶段2、阶段3和阶段4,阶段2、阶段3和阶段4与阶段1的主体结构是相似的;
S225.进行阶段5,通过残差神经网络承担切片图像的分类功能。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S223包括以下步骤:
S2231.swin变压器模块包括移位的不重叠窗口,将注意力限制在每个窗口内,减少注意力机制产生的计算量;
S2232.局部深度卷积模块对swin变压器提取的特征进行图像重构,并在多通道中进行卷积运算,生成的特征图传递给下一层;
S2333.SE模块再利用从通道中获取的对应的权重系数向量与原特征图向量矩阵进行点积,并生成一个具有代表性的特征图。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S23包括以下步骤:
S231.利用训练好的SLSR模型对肝癌组织病理学图像进行准确分类,包括统计出全幻灯片图像中不同标签的数量;
S232.通过标签的数量计算肿瘤间质比,肿瘤间质比计算公式如下:
Figure BDA0003855060270000041
式中,Ct是一类中仅有单个标签且是肿瘤;C′t是一类中有两个标签,其中一个是肿瘤;Ci是一类中仅有单个标签且是组织间液;C′t是一类中有两个标签,其中一个是组织间液。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S3包括以下步骤:
S31.将步骤S11的全幻灯片图像进行分割切片处理;
S32.采用基于CNN的模型和变压器模型对切片进行分割网络处理;
S33.分割网络对数据集进行测试,对切片进行预测分割。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S31包括以下步骤:
S311.将步骤S11的全幻灯片图像随机选择四张作为训练,一张用作测试;
S312.将全幻灯片图像下采样缩放到原来的四分之一;
S313.使用滑动窗口将全幻灯片图像切分成224×224的小切片,13322张用于训练集,3916张用于测试集;
S314.在测试阶段,将预测得到的小切片标签按照原来的位置合并,通过上采样插值成初始全幻灯片图像的形状,再计算其评价指标。
根据本发明上述方面的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其中S32包括以下步骤:
S321.采用基于CNN模型的全卷积网络FCN、UNet系列、Res-UNet系列以及ConvNeXt系列对切片进行分割;
S322.采用基于变压器模型的Transunet、Swin-unet、Transfuse以及Medical对切片图像进一步的提取和分割。
采用上述技术方案,本发明具有以下优点:
1.本发明提供了一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,通过使用深度学习技术对肝癌组织全幻灯片图像进行分类和分割,通过多标签诊断框架(MLD-TR)来初步分析肝肿瘤的微环境,为未来的分割工作提供了基准。
2.本发明中的分类网络使用swin变压器模块,局部深度卷积模块,SE模块和残差神经网络的来构建分类网络SLSR,局部深度卷积模块对swin变压器模块提取的特征进行图像重构,局部深度卷积模块将特征图高效的传递给SE模块并与原图生成新的特征图,依次进行阶段1、阶段2、阶段3和阶段4,最后通过残差神经网络承担切片图像的分类功能,并在实施例中通过大量的实验比较了DieT,T2T-ViT,PVT,TNT,Swin变压器和Crossover等模型在多标签数据集上的分类性能,并通过消融实验证明了深度卷积模块和SE模块在分类网络中的作用,为未来的分割工作提供了基准。
3.本发明在基于CNN模型和基于变压器模型的分割网络中对全幻灯片图像进行分割,通过大量的实验,最后探索出ResUNet能够达到目前最好的分割效果,为未来的分割工作提供了基准。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法的流程图;
图2是本发明分类网络框架;
图3是本发明分割网络框架;
图4是本发明基于CNN网络和基于变压器网络在测试集上分割WSIs的可视化结果。
具体实施方式
以下结合实施例对本发明的技术方案进行具体说明,在具体实施方式中详细叙述本发明的详细特征以及优点,其内容足以使任何本领域技术人员了解本发明的技术内容并据以实施,且根据本说明书所揭露的说明书、权利要求及附图,本领域技术人员可轻易地理解本发明相关的目的及优点。
如图1所示,一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,包括以下步骤:
S1.对肝癌组织的全幻灯片图像进行数据收集和预处理;
S11.实验通过从5名肝癌患者上取出5张全幻灯片图像(WSIs)构建分类数据集和分割数据集,其中,分类数据集是多标签图像;分割数据集是由单标签图像组成。
S12.实验使用翻转和平移方法对分类数据集和分割数据集进行数据预处理。
S2.使用多标签诊断框架辅助全幻灯片图像完成分类任务具体如图2所示;
S2包括以下步骤:
S21.将步骤S11的全幻灯片图像进行切片,划分区域并整理成多标签的数据集;
其中S21包括以下步骤:
S211.步骤S21的分类的任务上,将五张全幻灯片图像切分成大小为224×224的小切片,共获得68175张小切片;
S212.由于部分切片图像会涉及两个区域,我们将涉及步骤S211中的两个区域的切片贴上两个标签;
S213.由于坏死的切片数量较少,为了避免数据集中样本的不均衡带来的影响,我们将每一类的切片数据控制在1:3的比例范围之内,以防止训练生成的诊断模型产生过拟合的现象,将不同种类的切片整理成多标签的数据集。
S22.利用SLSR网络对全幻灯片图像的切片进行特征提取和分类;
S22包括以下步骤:
S221.将融合了swin变压器模块、局部深度卷积模块(LDC)、SE模块和残差神经网络的分类网络,命名为SLSR网络,提出了一个结合swin变压器模块、局部深度卷积模块(LDC)和SE模块的分类网络,命名为SLS网络,
S222.RGB的病理学图像的切片先通过补丁分割模块生成不重叠的补丁,每个补丁被视为一个令牌,每个补丁被视为一个令牌,其特征被设置为原始像素RGB的拼接,在分类任务的实验中,切片大小是4×4,每个切片的特征维度是4×4×3=48,补丁的数量为H/4×W/4;所有令牌通过线性嵌入层的卷积计算投影到任意维度(记为C),所有令牌经过线性映射将输划分后的patch特征维度变成任意维度C;
S223.进行阶段1:经过线性映射将输划分后的补丁特征维度变成C,然后送入Swin变压器模块,局部深度卷积模块对特征进一步学习,将多通道的特征图传递给SE模块,生成新的特征图,随着网络层数的加深,阶段1与阶段2之间的切片融合层用来减少令牌的数量,第一个切片融合层将相邻的每组2×2个切片的特征进行拼接,切片块的数量就变成了H/8x W/8,并将拼接后的4c维特征送入线性层处理,生成2c维特征。
其中,Swin变压器模块包括一个基于移动窗口的标准多头自注意力(MSA)模块,然后是一个中间带有GELU非线性的2层MLP,在每个MSA模块和每个MLP模块前加LN(LayerNorm)层,在每个模块后加剩余连接,Swin变压器的一个重要的设计是移位的不重叠窗口(shifted windows),它可以大幅降低算法的复杂度,让算法随着输入的大小呈线性的增长;同时由于不同的滑动窗,不重叠窗口的设计对硬件更加友好,从而具有更快的实际运行速度,假设一个基于h×w个patch图像的窗口的计算复杂度为:
Φ=4hwC2+2M2hwC
其中,前者是补丁hw的二次函数,后者在M固定(默认为7)时是线性函数。为了解决缺乏跨窗口连接问题带来的影响,移位窗口分区方法在相邻Swin变压器模块中交替进行。在自我注意力机制中,我们引入现有的方法来计算相似性,其每个头部包含相对位置偏差B:
Figure BDA0003855060270000071
式中
Figure BDA0003855060270000073
是查询矩阵、键矩阵和值矩阵;D为查询/key维度,M2为一个窗口中的补丁数。
然而,由于swin变压器的注意力机制只捕获令牌之间的全局依赖关系。swin变压器没有对相邻像素之间的局部依赖关系进行建模分析,局部深度卷积是一种将局部性引入网络的有效方法,局部深度卷积模块是由卷积层,batch normalization层和h_swish激活层组成,8C维度的标记序列首先被重塑在2D格上重新排列的特征映射,然后,再输入到二维卷积层中,k×k(k>1)的卷积核在多通道中将特征集合起来,计算出一个新的特征,以学习更丰富的特征表示,并将生成的特征图往下一层传递。
局部深度卷积后的特征图将会传递给Squeeze-and-Excitation Networks进行关键性的操作。首先,Squeeze操作,顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配,它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野,可表示为:
Figure BDA0003855060270000072
主要是将H×W×C的特征转换成1×1×1的输出,其次是提取操作,它是一个类似于循环神经网络中门的机制。通过参数w来为每个特征通道生成权重,其中参数w被学习用来显式地建模特征通道间的相关性。最后是一个调整权重的操作,将提取的输出的权重看作是经过特征选择后的每个特征通道的重要特征,然后通过乘法逐通道加权到先前的特征上,完成在通道维度上的对原始特征的重标定。
S224.依次进行阶段2、阶段3和阶段4,阶段2、阶段3和阶段4与阶段1的主体结构是相似的,其处理的切片的数量分别是H/8 x W/8,H/16 x W/16,H/32 x W/32,且这些切片在不同阶段中的维度依次是2C,4C,8C。
S225.进行阶段5,通过残差神经网络承担切片图像的分类功能,残差神经网络作为整个分类网络的分类模块,其残差连接可有效地解决网络退化的问题,加速结果的收敛,使分类的结果更快,其次,残差网络也是为了防止过拟合,随机的丢弃部分神经元的作用,在一定程度上解决了数据集小和模型大的情况下出现的过拟合问题。
S23.利用SLSR模型统计出切片中不同标签的数量,进而计算肿瘤间质比。
其中S23包括以下步骤:
S231.受益于MLDF-TR框架中的SLSR网络在细胞间质,坏死,non_肿瘤和肿瘤上分别达到0.9460,0.9960,0.9808,0.9847的准确率,因此,我们可以利用训练好的SLSR模型对肝癌组织病理学图像进行准确分类,包括统计出WSIs中不同标签的数量。
S232.由于我们网络是可以进行多标签分类的,通过标签的数量计算肿瘤间质比,肿瘤间质比计算公式如下:
Figure BDA0003855060270000081
上式中,Ct是一类中仅有单个标签且是肿瘤;C′t是一类中有两个标签,其中一个是肿瘤;Ci是一类中仅有单个标签且是组织间液;C′t是一类中有两个标签,其中一个是组织间液。
因此,这种分类方法为医生分析肿瘤生存的微环境提供了一个可参考的量化指标,同时也减少了患者在生物检测中的痛苦,多标签诊断框架中可以帮助医生直观的观察到组织病理学图像中的敏感区域,并用不同的颜色来区分非癌症,癌症,坏死和组织间液区域,因此,通过肿瘤间质比和WSIs分割的效果图,我们可以对肝癌肿瘤微环境进行初步的分析。
S3.使用多标签诊断框架辅助全幻灯片图像完成分割任务具体如3所示,其中S3包括以下步骤:
S31.将步骤S11的全幻灯片图像进行分割切片处理;
其中S31包括以下步骤:
S311.将步骤S11的全幻灯片图像随机选择4张WSIs作为训练,1张WSIs用来测试;
S312.由于5张WSIs中只有1张含有坏死区域,这使得无法正常计算坏死区域的分割效果。为了提升计算效率,将WSIs下采样缩放到原来的四分之一;
S313.使用滑动窗口将全幻灯片图像切分成224×224的小切片,13322张用于训练集,3916张用于测试集,在测试阶段会将预测得到的小切片标签按照原来的位置合并,再通过上采样插值成初始WSIs的形状,再计算其评价指标。
S314.在测试阶段,将预测得到的小切片标签按照原来的位置合并,通过上采样插值成初始全幻灯片图像的形状,再计算其评价指标。
S32.采用基于CNN的模型和变压器模型对切片进行分割网络处理;
S32包括以下步骤:
S321.采用基于CNN模型的全卷积网络FCN、UNet系列、Res-UNet系列以及ConvNeXt系列对切片进行分割;其中,FCN网络是语义分割的基本框架,后续的算法部分基于这个框架改进而来。U-Net是一种特殊的全卷积网络,它包括两个部分:第一部分,特征提取;第二部分是上采样部分,每上采样一次,就和特征提取部分对应的通道数相同尺度融合,但是融合之前要将其裁剪;由于网络结构像U型,所以叫U-Net网络,Res-UNet模型由对称式残差模块组成,ConvNeXt系列是一种纯卷积神经网络。
S322.基于变压器的分割模型的核心架构仍然是Encoder-Decoder的结构,只不过相比于传统的以CNN为主导的编码器结构,全部由变压器来进行替代,采用基于变压器模型的主要有以下四种:Transunet、Swin-unet、Transfuse以及Medical,它们对切片图像进一步的提取和分割。
S33.分割网络对数据集进行测试,对切片进行预测分割。
在一个具体的实施例中,对于分类任务,实验选择精确率、召回率、f1分数、准确率、混淆矩阵和ROC曲线来全面评价模型的性能,精确率代表正确正样本占预测正样本的百分比;召回率代表正确正样本占预测正确样本的百分比;f1分数是对精确率和召回率的综合评价;准确率代表正确样本占预测样本的百分比;混淆矩阵代表每一种标签的正确和错误的概率;ROC曲线中的真正率(TPR)和假正率(FPR)反映了模型的预测能力,鉴于SLSR网络是多标签分类网络,实施例对SLSR网络在每一个标签上进行仔细分析和讨论,在分割任务中,实验使用Dice-Similarity系数(Dice)和准确率来评估模型的泛化能力,Dice是医学分割任务中使用频率最高的度量指标,是一种集合相似度度量,通常用于计算两个样本的相似度,越接近1效果越好;11种分类网络在数据集上测试得到细胞间质的精确率、召回率、f1分数、准确率的值如下表1所示:
表1. 11种分类网络在测试集上得到标签细胞间质的测试结果
Figure BDA0003855060270000101
从表1可以看出,Swin ViT在召回率,f1分数,准确率上分别达到0.9515、0.9471、0.9487,超过了其他所有分类网络性能,Swin+LS在精确率上达到0.9443,优于其他分类网络的分类效果;因此,在分类细胞间质上,Swin变压器模块模型在提升分类精确度,敏感度和特异性上起着重要的作用。
表2统计了11个分类网络在数据集上测试得到细胞间质的精确率、召回率、f1分数和准确率的值。
表2. 11种分类网络在测试集上得到标签坏死的测试结果
Figure BDA0003855060270000102
从表2可以看出,CrossViT分类网络在精确率上达到了0.9895,可能是由于交叉注意力的学习,提升了模型的分类性能,SLSR在召回率上达到了0.9963;Swin ViT在上f1分数上达到了0.9896;T2T+LS在准确率上达到了0.9973,因为SLSR和Swin ViT中有大量的Swin变压器模块,可以帮助模型提升性能,T2T的分类效果在所有的模型中排名倒数,但是,T2T+LS的性能较好,可能是LS模块起到了关键的作用,帮助了T2T模型在特征提取中获取关键的特征信息。
表3统计了11个分类网络在数据集上测试得到正常组织的精确率、召回率、f1分数和准确率的值。
表3. 11种分类网络在测试集上得到标签正常组织的测试结果
Figure BDA0003855060270000111
从表3可以看出,SLSR在精确率、召回率、f1分数和准确率上分别以0.9776,0.9807,0.9791,0.9808优于其他10个分类网络,这是可能是因为Swin变压器模块中的移位的不重叠窗口有助于特征提取,局部深度卷积模块(LDC模块)在更加关注相邻像素之间的关系,并将特征并行的、多通道的传递个SE模块,SE模块再次提取特征图中的有效信息与原始图相结合,生成新的特征图。其次,DeiT,TNT,T2T,Swin ViT,CrossViT的预测精度和敏感度不高,可能是因为这些模型在特征提取上没有达到最佳效果。
表4统计了11个分类网络在数据集上测试得到肿瘤的精确率、召回率、f1分数和准确率的值。
表4. 11种分类网络在测试集上得到标签肿瘤的测试结果。
Figure BDA0003855060270000112
Figure BDA0003855060270000121
从表4可以看出,CrossViT+LS在精确率上达到了0.9827,然而,CrossViT+LS在精确率、召回率、f1分数和准确率上都略高于CrossViT,这是因为LS模块在特征提取中发挥了关键的作用,SLSR在召回率、f1分数和准确率上分别达到了0.9838、09832、0.9847,这可能是Swin变压器模块和LS模块的作用使得SLSR达到最佳的分类网络的性能。
在一个具体的实施例中,表5描述了8种分割网络在测试数据上得到的准确率和Dice。
表5.分割模型在数据集上的测试结果的统计。
Figure BDA0003855060270000122
从表5可以看出,基于CNN的分割网络在性能上几乎优于基于变压器的模型,Res-UNet在Dice上达到了0.86,超过了其他分割网络的测试结果,SwinUnet在准确率上达到0.9525,优于其他的分割网络,由于Res-UNet将UNet的每一个子模块分别替换为具有残差连接和密集连接的形式,使特征提取和图像恢复的效果更佳。Swin变压器模块使用层次化,对称化的构建方式构建SwinUnet;其次,引入局部注意力的思想,对无重合的窗口区域内进行自注意力计算,因此,Res-UNet和SwinUnet是分割WSIs较好的方法。
图4展示了8种分割网络在测试集上分割的可视化结果;可视化结果更加直观的反映出WSIs上不同标签的位置,分别将癌症区域、组织区域和组织间液区分开来,由于坏死部分在这张WSIs中没有,分割模型就未对WSIs进行预测分割,通过8张预测分割后的WSI,我们发现FCN、ConvNeXt-UNet、TransUnet、SwinUnet、TransFuse、Medical Transformer分割WSIs后出现局部不清晰、边角不平滑和分割错误的现象,然而,基于U-Net,Res-UNet分割WSIs的效果要好一些,在实验选择的8个模型中,Res-UNet达到最佳的分割效果。综上所述,Res-UNet可作为分割WSIs的标准分割网络。
在一个具体的实施例中,为了评估深度卷积模块对模型的SLSR网络的影响,我们将SLSR网络中的深度卷积模块去掉,训练新的模型,并用新的模型得到预测结果,具体如下表6所示:
表6.深度卷积模块对SLSR网络的影响
Figure BDA0003855060270000131
从表6可以看出,去除LCD模块的新模型仅在细胞间质上得到的准确率超过SLSR模型,SLSR模型在坏死、正常组织和肿瘤上预测的准确率分别超过新模型的0.0015,0.0049和0.0024,这可能是因为LCD模块在特征提取上发挥了重要的作用,虽然SLSR模型对细胞间质预测准确率降低,但是模型对其他标签的预测准确率都在上升,因此,我们认为LCD模块是SLSR网络的核心组成部分。
为了评估深度卷积模块对模型的SLSR网络的影响,我们将SLSR网络中的SE模块去掉,训练新的模型,并用新的模型得到预测结果如表7所示:
表7.评估SE模块对SLSR网络的影响
Figure BDA0003855060270000132
从表7可以看出,去除SE模块的新模型仅在细胞间质上得到的准确率超过SLSR模型。SLSR模型在坏死,正常组织和肿瘤上上预测的准确率分别超过新模型的0.0006,0.0009,0.0006可能是因为SE模块在特征提取上发挥了重要的作用,虽然SLSR模型对细胞间质预测准确率降低,但是SLSR模型对其他标签的预测准确率都在上升,因此,我们认为SE模块是SLSR网络的核心组成部分。
最后,需要指出的是,虽然本发明已参照当前的具体实施例来描述,但是本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本发明,而并非用作为对本发明的限定,在不脱离本发明构思的前提下还可以做出各种等效的变化或替换,因此,只要在本发明的实质精神范围内对上述实施例的变化、变型都将落在本发明的权利要求书范围内。

Claims (10)

1.一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,包括以下步骤:
S1.对肝癌组织的全幻灯片图像进行数据收集和预处理;
S2.使用多标签诊断框架辅助全幻灯片图像完成分类任务;
S3.使用多标签诊断框架辅助全幻灯片图像完成分割任务。
2.根据权利要求1所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S1包括以下步骤:
S11.从五名肝癌患者身上取出五张全幻灯片图像,构建分类数据集和分割数据集;
S12.使用翻转和平移预处理方法对分类数据集和分割数据集进行数据预处理。
3.根据权利要求2所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S2包括以下步骤:
S21.将步骤S11的全幻灯片图像进行切片,划分区域并整理成多标签的数据集;
S22.利用SLSR网络对全幻灯片图像的切片进行特征提取和分类;
S23.利用SLSR模型统计出切片中不同标签的数量,进而计算肿瘤间质比。
4.根据权利要求3所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S21包括以下步骤:
S211.将五张全幻灯片图像切分成大小为224×224的小切片,共获得68175张小切片;
S212.将步骤S211中的小切片中涉及两个区域的小切片贴上两个标签;
S213.将小切片中的每一类的切片数据的比例范围控制在1:3的之内;
S214.将小切片中的将不同种类的切片整理成多标签的数据集。
5.根据权利要求3所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S22包括以下步骤:
S221.将融合了swin变压器模块、局部深度卷积模块、SE模块和残差神经网络的分类网络,命名为SLSR网络;
S222.切片先通过补丁分割模块生成不重叠的补丁,每个补丁被视为一个令牌,所有令牌经过线性映射将输划分后的patch特征维度变成任意维度C;
S223.进行阶段1:将任意维度C送入Swin变压器模块,局部深度卷积模块对patch特征维度进一步学习,将多通道的特征图传递给SE layer,生成新的特征图;
S224.依次进行阶段2、阶段3和阶段4,阶段2、阶段3和阶段4与阶段1的主体结构是相似的;
S225.进行阶段5,通过残差神经网络承担切片图像的分类功能。
6.根据权利要求5所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S223包括以下步骤:
S2231.swin变压器模块包括移位的不重叠窗口,将注意力限制在每个窗口内,减少注意力机制产生的计算量;
S2232.局部深度卷积模块对swin变压器提取的特征进行图像重构,并在多通道中进行卷积运算,生成的特征图传递给下一层;
S2333.SE模块再利用从通道中获取的对应的权重系数向量与原特征图向量矩阵进行点积,并生成一个具有代表性的特征图。
7.根据权利要求3所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S23包括以下步骤:
S231.利用训练好的SLSR模型对肝癌组织病理学图像进行准确分类,包括统计出全幻灯片图像中不同标签的数量;
S232.通过标签的数量计算肿瘤间质比,肿瘤间质比计算公式如下:
Figure FDA0003855060260000021
式中,Ct是一类中仅有单个标签且是肿瘤;C′t是一类中有两个标签,其中一个是肿瘤;Ci是一类中仅有单个标签且是组织间液;C′t是一类中有两个标签,其中一个是组织间液。
8.根据权利要求2所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S3包括以下步骤:
S31.将步骤S11的全幻灯片图像进行分割切片处理;
S32.采用基于CNN的模型和变压器模型对切片进行分割网络处理;
S33.分割网络对数据集进行测试,对切片进行预测分割。
9.根据权利要求8所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S31包括以下步骤:
S311.将步骤S11的全幻灯片图像随机选择四张作为训练,一张用作测试;
S312.将全幻灯片图像下采样缩放到原来的四分之一;
S313.使用滑动窗口将全幻灯片图像切分成224×224的小切片,13322张用于训练集,3916张用于测试集;
S314.在测试阶段,将预测得到的小切片标签按照原来的位置合并,通过上采样插值成初始全幻灯片图像的形状,再计算其评价指标。
10.根据权利要求8所述的一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法,其特征在于,所述S32包括以下步骤:
S321.采用基于CNN的模型的全卷积网络FCN、UNet系列、Res-UNet系列以及ConvNeXt系列对切片进行分割;
S322.采用基于变压器模型的Transunet、Swin-unet、Transfuse以及Medical对切片图像进一步的提取和分割。
CN202211145469.5A 2022-09-20 2022-09-20 一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法 Pending CN115527204A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211145469.5A CN115527204A (zh) 2022-09-20 2022-09-20 一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211145469.5A CN115527204A (zh) 2022-09-20 2022-09-20 一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法

Publications (1)

Publication Number Publication Date
CN115527204A true CN115527204A (zh) 2022-12-27

Family

ID=84696874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211145469.5A Pending CN115527204A (zh) 2022-09-20 2022-09-20 一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法

Country Status (1)

Country Link
CN (1) CN115527204A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580011A (zh) * 2023-05-19 2023-08-11 北京透彻未来科技有限公司 一种深度学习模型的子宫内膜癌全幻灯片图像检测***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580011A (zh) * 2023-05-19 2023-08-11 北京透彻未来科技有限公司 一种深度学习模型的子宫内膜癌全幻灯片图像检测***

Similar Documents

Publication Publication Date Title
Fuchs et al. Computational pathology: challenges and promises for tissue analysis
CN114663431B (zh) 基于强化学习和注意力的胰腺肿瘤图像分割方法及***
CN113678142A (zh) 基于深度学习的经由回归层的实例分割训练
CN114119977B (zh) 一种基于图卷积的Transformer胃癌癌变区域图像分割方法
CN110084237A (zh) 肺结节的检测模型构建方法、检测方法和装置
CN112508953B (zh) 基于深度神经网络的脑膜瘤快速分割定性方法
CN108305253A (zh) 一种基于多倍率深度学习的病理全切片诊断方法
CN112116603A (zh) 一种基于多任务学习的肺结节假阳性筛查方法
CA3196713C (en) Critical component detection using deep learning and attention
CN114693719A (zh) 基于3D-SE-Vnet的脊柱图像分割方法及***
CN115546605A (zh) 一种基于图像标注和分割模型的训练方法及装置
CN112750132A (zh) 基于双路径网络和通道注意的白细胞图像分割方法
CN115527204A (zh) 一种框架辅助肝癌组织全幻灯片的肿瘤微环境分析方法
Bozkurt et al. Skin strata delineation in reflectance confocal microscopy images using recurrent convolutional networks with attention
Daniel et al. A deep multi-label segmentation network for eosinophilic esophagitis whole slide biopsy diagnostics
Holzhüter et al. Visualizing uncertainty in biological expression data
Barrera et al. Automatic normalized digital color staining in the recognition of abnormal blood cells using generative adversarial networks
Krishna et al. An interpretable decision-support model for breast cancer diagnosis using histopathology images
CN113554668A (zh) 一种皮肤镜图像黑色素瘤分割方法、装置及相关组件
CN112488996A (zh) 非齐次三维食管癌能谱ct弱监督自动标注方法与***
Daniel et al. PECNet: A deep multi-label segmentation network for eosinophilic esophagitis biopsy diagnostics
CN115775252A (zh) 一种基于全局局部级联的磁共振影像***肿瘤分割方法
Azhagiri et al. EAN: enhanced AlexNet deep learning model to detect brain tumor using magnetic resonance images
CN113160261A (zh) 一种用于oct图像角膜层分割的边界增强卷积神经网络
CN112634279A (zh) 一种基于注意力Unet模型的医学图像语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination