CN114119515A - 一种基于注意力机制和mri多模态融合的脑肿瘤检测方法 - Google Patents

一种基于注意力机制和mri多模态融合的脑肿瘤检测方法 Download PDF

Info

Publication number
CN114119515A
CN114119515A CN202111343977.XA CN202111343977A CN114119515A CN 114119515 A CN114119515 A CN 114119515A CN 202111343977 A CN202111343977 A CN 202111343977A CN 114119515 A CN114119515 A CN 114119515A
Authority
CN
China
Prior art keywords
attention
key
pixel
convolution
temp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111343977.XA
Other languages
English (en)
Inventor
蒋宗礼
李聪
张津丽
顾问
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202111343977.XA priority Critical patent/CN114119515A/zh
Publication of CN114119515A publication Critical patent/CN114119515A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法,基于Multi‑Unet模型,将编码器的普通卷积块,替换成混合空洞卷积块。参考Inception模型的多分支编码器结构,自主设计多分支输出卷积块简称MB‑OutConv;设计一个基于通道的注意力模块CB‑Attention,捕获原始分割图各个通道之间的像素点关联,并对通道做注意力加权。适当改进神经网络,并独立设计新的注意力模块来进一步完善其分割结果,该注意力模块是基于图像通道的,在像素点级别完成注意力加权。最终将大脑MRI图像中的肿瘤和其他病变区域分割出来。基于多模态卷积神经网络Multi‑Unet,对其部分编码器分支进行改进,并在它后面添加注意力模块,共同改善脑肿瘤的分割效果。

Description

一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法
技术领域
本发明涉及到深度学习,医学图像处理领域,是计算机和医学的交叉领域。 基于多模态卷积神经网络,结合目前所遇到的挑战,适当改进神经网络,并独立 设计新的注意力模块来进一步完善其分割结果,该注意力模块是基于图像通道 的,可以在像素点级别完成注意力加权。最终目的是将大脑MRI图像中的肿瘤 和其他病变区域分割出来。
背景技术
图像分割,是用像素级掩模覆盖目标轮廓的过程,由于病变区域的形状是无 规则的,而医生在诊断时,必须要对疾病的位置有尽可能准确地判断,否则,健 康的组织会被当成疾病区域来实施手术,这会使病人出现生命危险,因此图像分 割相比目标检测来说意义更大。通常经验丰富的医生可以准确地判断影像中的病 变位置,但现实问题是医院每天都在产生大量的影像,医生的数量和精力又不太 充足,因此就迫切需要计算机来快速识别图像中的病变区域,供医生参考。如今 深度学习在自然图像分析领域的发展已经比较完善,这些研究表明,计算机完全 有能力在短期内学会医生的诊断经验,并用于分析医学图像。
MRI医学成像技术,常用于观察大脑、脊髓等软组织。扫描完成后,首先 会生成155层2D-Slice,然后再沿着深度轴将它们整合成3D图像,这样才能反 映大脑的立体结构。由MRI生成的3D图像序列[T1,T2,T1c,Flair],也被称为多 模态图像序列。虽然MRI图像包含了软组织的众多细节特征,有些图像确实能 较清晰地呈现肿瘤区域,但经过研究人们发现,起源于脑部的疾病,通常还伴随 着其他的附加症状;比如神经胶质瘤在生长的过程中,必然会压迫周围组织,导 致水肿现象,而被肿瘤包围的组织区域,因为长期供血不足,往往导致坏死等症 状,所以病变区域应该是这些症状的总和,而并非肿瘤本身。正是由于MRI图像的复杂性,再加上医生的精力是有限的,所以才需要计算机辅助,用于脑肿瘤 的诊断;而计算机分割MRI图像,也应该能较为准确地区分出每一种病变类型 的位置和轮廓信息,才能辅助医生进行诊断。基于此,经过研究,设计出此模型, 专用于改善分割不精准的问题。
大脑病变类型有多种,因此分割MRI图像中的脑肿瘤,从计算机的角度看, 其本质是像素点的多分类问题,即分辨出图像中每个像素点所归属的类别。图像 分类最初基于CNN来实现,FCN将它的全连接层替换成反卷积层,使其能用于 分割。此后为了提高性能,很多模型基于FCN做了改进。SegNet增加了多个反 卷积层,并添加池化索引连接。VGG使用多个小卷积核替代原有大卷积核,保 持感受野的同时减少参数量。Unet改进SegNet,将下采样特征图直接传递给解 码器,以恢复编码时丢失的细节特征。DenseNet参考ResNet,设计出密集连接, 使每一层都有指向其它层的残差连接,加强了特征重用。Mask-RCNN先用目标检测框截取图像,后将裁剪图做上采样,避免了无关区域的干扰。
MRI图像是由多个2D扫描层组成的3D图像,每一个扫描层也可以理解为 2D横切面,因此如何处理3D-MRI图像是首要问题。现有的模型大体有两种思 路,一是用大小不同的3D卷积核直接处理3D图像,比如DeepMedic;二是采 用2D切分重组法,用2D卷积网络按时间顺序处理源3D图像的每一层2D横切 面,生成分割图像后,再重组成3D结构,这种方法适合于大多数成熟的2D卷 积网络,比如Unet、Attention-Unet等。3D卷积核本身参数量就比较大,而且这 仅仅是一个通道的数量,若用它提取源3D MRI图像,并将特征分散存储到多个 通道,整体的数据量将非常庞大,内存和显存都将无法支撑。因此,这种情况下, 无论是3D-MRI还是3D-CT图像,都需要将它们切分成多个小立方体,再输入 到3D卷积网络中,但这样会破坏源3D图像的2D横切面结构。既然MRI图像 的多数特征都分布在2D横切面上,那么选择2D切分重组法则是处理3D-MRI 图像的更好选择,也更符合MRI图像的生成原理。
此外,MRI设备通常会从四个角度去扫描大脑,它们分别是基本结构T1、 组织含水量T2、组织供血量T1c,以及组织的结合水含量Flair。不同模态反映 的信息不同,如果不将它们融合起来,则会严重影响分割的精确度。因此需要在 Unet的基础上做进一步的改进,目前主流的方法是,将编码器设计为多分支卷 积架构,并在网络深层次做融合,比如MultiPath Dense Unet,以及IVD-Net, 后者相比前者,增加了密集连接,他们都适合多模态MRI图像的分割。
虽然大多数特征都分布在2D横切面上,但也需要基于序列的模型来捕捉这 些2D图像之间的关联。随着深度学习的发展,起源于Transformer的注意力机 制,逐渐用于图像分割。比如AutoFocus用注意力机制自动聚焦与图像每个区域 相关的全局最佳尺度;OzanOktay等人将Attention Gate嵌入到Unet解码器,以 专注目标区域的特征恢复,抑制不相关区域;DAnet将注意力机制用于图像上, 从通道和位置两个方面提升分割效果,之后该思想被广泛应用;CAnet将DAnet 注意力块嵌入Unet编解码器之间,用于恢复医学图像中的树状细节特征;Ashish Sinha等人使用DAnet分析ResNet每一级特征层与所有特征层加和之间的联系, 即捕获了长距离依赖,又捕获通道特征依赖。上述模型给带来很多启发。另一方面,与注意力类似的1×1卷积,最初用于调整通道间的特征分布,以替代全连 接层用于分类;因此Self-Attention和1×1卷积的本质有所不同,本文的注意力 模块结合了两者的优点。
衡量模型分割性能好坏的重要指标,正是它能否把绝大多数像素点进行正确 地分类。现有的分割网络,无论模型基于2D还是3D,都能将病变区域的大体 轮廓分割出来,除了需要考虑2D图像之间的联系,在卷积方面,仍然有一些需 要改进的地方,比如在T1、T1c图像中,大多数轮廓都不太清晰,特别是水肿 区域,而这种现象也导致网络在提取特征时,容易出现过量分割的问题。此外, 坏死区域和肿瘤区域,在MRI图像上可区分性也不是很大,这两个区域分割错 乱的现象也是比较常见,针对这些问题提出,用HDC卷积块替换Multi-Unet原 有的部分下采样分支,以扩大其感受野,提取更多的特征,这些特征组合起来, 可以改变原本的分布。
发明内容
本发明的目的是,对基于多模态的卷积神经网络做出改进,使其能从2D横 切面和3D深度轴空间上都捕捉到之前没有考虑的特征,从而提升分割的准确度。 为实现上述目的,本发明基于多模态卷积神经网络Multi-Unet,对其部分编码器 分支进行改进,并在它后面添加注意力模块,共同改善脑肿瘤的分割效果,整个 模型的结构如图1所示,它具体包含以下三个关键结构。
关键结构一:基于Multi-Unet模型,将编码器的普通卷积块,替换成混合空 洞卷积块Hybrid Dilated Convolution Block(简称HDC-Block),用于扩大感受 野,提取到边界轮廓之外的更多细节,并将改进后的模型命名为HDC-MUnet。
关键结构二:参考Inception模型的多分支编码器结构,自主设计多分支输 出卷积块Multi-Branch Output Convolution Block(简称MB-OutConv),用1×1 和3×3卷积核同时处理HDC-MUnet生成的分割图,此后将特征归纳整理,生 成可用于分类的原始分割图Origin-Segment。
关键结构三:参考Transformer里面的Self-Attention模型,自主设计一个基 于通道的注意力模块Channel-BasedAttention-Block(简称CB-Attention),捕获 原始分割图各个通道之间的像素点关联,并对通道做注意力加权。下面将结合数 据的预处理,以及上述关键结构,来说明本发明的具体阶段设计。
本发明采用的技术方案为一种基于注意力机制和MRI多模态融合的脑肿瘤 检测方法,该脑肿瘤检测方法包括如下步骤
S1:关键输入数据的预处理。
由于每个样本由四个3D-MRI图像组成,因此整体维度是(4,155,240,240), 分别表示模态、深度、长和宽。一个3D-MRI图像可以看做由155层2D图像组 成的序列,之前提到,这些2D图像也被称为2D横切面,在图1中有所体现, 因此第二维度也称为时间序列维度。从时间序列维度来考虑,距离相近的两个 2D横切面之间,具有较强的特征关联度,为了减少无用的计算,首先在时间维 度把3D-MRI切分成维度为(4,temp,240,240)的多个3D-Slice(temp<<155),此后 按时间顺序将3D-Slice的每一层2D横切面逐个传入HDC-MUnet来处理。其中 N是HDC-MUnet第一个卷积层的输出通道数,若取值太小则无法充分提取特征, 若取值太大,容易导致特征冗余,甚至过拟合。
由于Brats数据集的标签分布不均衡,导致某些情况下,模型难以收敛到全 局最优值,使用中值平衡策略来解决此问题,其基本原理是,将交叉熵损失的每 个类别权重,重定义为下述公式。
Figure BDA0003353291770000041
其中Freq(c)是属于类别c的像素数量,占所有类别像素数量的比重,即当 前像素类型出现的频率。上述处理方法是经过科学验证的,在IVD-Net、 LSTM-MUnet也都有采用。
S2:改进Multi-Unet并生成HDC-MUnet结构。
由于T1图像只反映基本结构,因此它对细节的区分不太好,存在边界模糊 的现象。另外,随着肿瘤的生长,一是周围的软组织被挤压,造成组织水肿;二 是肿瘤的生长,会充分争夺营养,导致其包围的软组织坏死。但即使组织已经水 肿或坏死,他们的供血量也没有太大的变化,因此在T1c图像上,两种病变的差 异也不太明显。若用普通3×3卷积块去扫描T1、T1c图像,由于感受野较小, 模糊边界经过卷积后,特征区分度仍然不太大,这就需要较长的训练次数,才能 达到较为精确的分割效果。此外,这种差异不太明显,但标签不同的像素点,使 模型很容易将坏死和肿瘤区域混淆,阻碍准确率的提升,针对这种问题,观察到 在模糊边界周围存在一些差异较为明显的像素点,因此扩大感知域,即可捕捉到 更多的像素点。
空洞卷积,可以在不增加卷积核大小的前提下扩大感受野,更适合分割较大 的物体,或者是边界较为模糊的物体。因此,用混合空洞卷积块(HDC-Block) 来替换原有T1、T1c下采样分支里面的普通卷积块,该模块如图2所示。在 HDC-Block中,第一个3×3卷积核不使用空洞卷积,保持原有的扩张率为1, 用于全面提取细节特征;第二个3×3卷积核使用扩张率为2的空洞卷积,将感 受野由3×3扩展到5×5大小。如果继续向前追溯,输出特征图中的一个像素值, 对应的输入感受野由5×5扩大到7×7大小。此外由于T2和Flair模态本身就反 映了含水量,因此这两种图像的水肿区域边界则较为明显,无需使用空洞卷积扩 大感受野。
S3:生成可供注意力加权的原始分割图。
图1还展示了多分支输出卷积块MB-OutConv的结构图,它由1×1和3×3 卷积并行组成,在图1中有体现,它与MUnet的串行卷积块有不同流程结构。1 ×1卷积和3×3卷积的感受野不同,功能也就有明显的差异。其中1×1卷积的 作用是特征的重分布与整合,它类似于线性加权的过程,可以对N个通道的特 征进行整合,以压缩通道的数量。3×3卷积的作用是特征的提取和归纳,因为 它的感受野适中,可以全方位地扫描图像,用于提取有用的特征并做融合。
HDC-MUnet输出的特征图(temp,N,240,240),包含N个内部通道,但图像分 割的本质是像素点的分类,每个像素点都有C种分类可能性,因此还需要把特 征图的通道数由N转变为最后的类别数量C,这也是MB-OutConv卷积块的作 用。为了同时考虑两种卷积的优点,将3×3卷积和1×1卷积并行处理 HDC-MUnet的输出特征图,并将他们生成的特征图相加,以生成维度为 (temp,C,240,240)的原始分割图Origin-Segment,其中C是最终的病变类型数。该 原始分割图是长度为temp的图像时间序列[OS1,OS2,...,OStemp],其下标是当前分割图OS所处的时间片,公式表示如下。
[OS1,OS2,...,OStemp]=MBOutConv{HdcMUnet([img1,img2,...,imgtemp])}
多分支输出卷积块的思想来源于Google提出的Inception多分支架构。由于 S3的CB-Attention需要计算Origin-Segment的每两个时间片之间的关联度,然 后对Origin-Segment做注意力加权,因此将它作为CB-Attention的输入。
S4:用注意力机制,进一步改善分割效果。
对于每个3D-Slice,只看其中一个模态,其维度是(temp,240,240),那么两个 空间距离较近的2D横切面之间必然拥有较强的关联度,所以捕捉这种2D横切 面图像之间的像素点关联则是非常重要的。3D MRI图像的每一层横切面也可以 看做一个通道,为此提出了基于图像通道的注意力模块CB-Attention专用于解决 此问题,整个模块图3所示。CB-Attention的思想来源于Self-Attention,它使用 基于点乘的注意力机制,因为基于点乘相比基于加法来说,效率更高。
首先需要明确,注意力模块的输入图像是原始分割图Origin-Segment,它来 源于3D-Slice输入,是其每一层2D横切面图像按时间顺序依次经过了 HDC-MUnet、MB-OutConv的分割处理才得到,它的维度是(temp,C,240,240)。 下面要计算Origin-Segment中的第i(1≤i≤temp)个元素OSegi与其他元素的注意 力权重。令Queryi=OSegi,其他的图像作为Key,具体以公式表示如下。
[Key1,Key2,...,Keyi-1]=[OSeg1,OSeg2,...,OSegi-1];
[Keyi,Keyi+1,...,Keytemp-1]=[OSegi+1,OSegi+2,...,OSegtemp]
当Key的下标小于i时,Keyi=OSegi,反之则有Keyi=OSegi+1的对应关系。
下面执行Query和Key的点乘操作,得到temp-1个关联度矩阵。
Figure BDA0003353291770000071
......
Figure BDA0003353291770000072
Figure BDA0003353291770000073
......
Figure BDA0003353291770000074
在时间通道上拼接起来,得到三维的关联度矩阵RelevMatrix。
Figure BDA0003353291770000075
计算Query和Key之间的关联度。从某种意义上讲,获取注意力权值,也 是特殊的分类问题,因为分析通道之间的关联度,就相当于分析这些Key属于 Query类型的概率。为了能找出与Query关联度最大的Key,使用1×1×1卷积 处理RelevMatrix,将其通道数由C融合成1,该3D卷积核用于对通道进行线性 组合,以调整其特征分布,用于分类过程。它类似于全连接层,但参数量比全连 接层小很多,而且能直接处理图像数据,因此用它实现该过程。
经过上述调整,特征图已经能反映Query和Key之间的像素点关联度,为 了能得到注意力权重,将全局平均池化,直接作用于RelevMatrix的每个时间通 道上,将特征图转化为一个数值。此后用Softmax将全局平均池化的结果转化为 0~1之间的概率值,整体公式如下。
weightx=AvgPooling{Conv1×1×1(RelevMatrixx)}
Figure BDA0003353291770000076
其中概率最大的时间步所对应的通道Max-Key,就是与Query关联度最大的 通道。最后执行注意力加权。将Max-Key与它所对应的注意力权重Max-weight 做点乘,然后直接和Query相加得到AttenQuery,完成对像素点的注意力加权过 程,公式表示如下。
Figure BDA0003353291770000081
经过注意力加权,AttenQuery反映了MaxKey与Query在像素级融合的结果, 这改变了源Query的部分像素值。将视野扩展到整个原始分割图Origin-Segment 上,经过注意力加权,它变成了新的注意力分割图Attention-Segment,其维度仍 然是(temp,C,240,240)。虽然Attention-Segment已经较为完善,但它的像素点仍 然是灰度值,并不能反映每个像素点的分类情况,而且它的通道数仍然是C。因 此最后还需要把Attention-Segment的通道数转化为1,以此来完成对像素点的分 类过程,具体描述如下。
考虑Attention-Segment中的某个时间片,它的维度是(C,240,240),设二维平 面上某个像素点为Pixel(a),它的平面坐标为(x,y)。在Attention-Segment中,与 Pixel(a)直接相关的其他像素点,只能是(x,y,0),(x,y,1),......,(x,y,C)这几个坐标 点。因为图像分割是像素点的分类问题,针对像素点(x,y),按照标准的分类法, 先将坐标序列(x,y,0),(x,y,1),......,(x,y,C)经过Log-Softmax处理,得到C个概率 值,分别为(P0,P1,......,PC);然后用交叉熵损失函数计算(P0,P1,......,PC)与真实标 签Yi的之间的损失。其他的像素点也是这种处理方法。
注意力模块的最后一步,是生成最终分割图Final-Segment。这一步主要是 通过扫描Attention-Segment的C个通道来实现。若2D平面上某个像素值(x,y), 在第ch个通道上的数值(x,y,ch)最大(ch∈(0,C)),则表示该位置的像素应该被分 类为ch。添加CB-Attention的目的是为了进一步调整这些通道的像素分布,使 这些属于病变类型ch的像素点,尽可能准确地分布到通道ch上面,进一步提升 准确度。
最后,纵观整个过程,即从输入3D-Slice图像开始,到输出Final-Segment 分割图为止。将这之间的数据名称、数据维度变化,以及所经过的模型组件名称, 在图4所示的流程图中详细展示出来,其中T表示时间片temp,C表示最终的 分类个数,即病变类型的数量。
附图说明
图1:整个模型的结构图。
图2:HDC-Block混合空洞卷积块图。
图3:CB-Attention模块图。
图4:数据格式变化流程图。
图5:计算评估指标所参考的区域图。
图6:实际分割图与基础模型的比较结果。
具体实施方式
以下结合附图和实施例对本发明进行详细说明。
一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法,该方法包括如 下步骤,
步骤S1:数据集介绍。
为了验证模型的性能,选择Brats2015作为数据集。整个数据集包含274个 样本,其中有220个样本是HGG病例,医学称为高级别胶质瘤,是低分化型的 恶性肿瘤;剩下54个样本是LGG病例,医学称为低级别胶质瘤,这些是分化性 能较好的良性肿瘤。数据集中的每个样本,包含5个3D Volume,每个3D Volume 由155层2D图像组成。前四个3D图像是MRI扫描结果[T1,T2,T1c,Flair],分 别表示基本结构、组织含水量、组织供血量、组织结合水含量。最后一个3D图 像是标签label,即人工标注的实际分割图。在本场景中,label的每个像素值都 只有[0,1,2,3,4]五种可能性,表示五种不同的病变类型。其他场景,统一概括为C 中分类可能性,即每个像素值有[0,1,......,C]种可能性。
步骤S2:确定评估指标和区域。
图5表示计算评估指标时,需要参考的区域,其中T1表示真实疾病区域, P1表示预测疾病区域,T0表示真实健康区域,P0表示预测健康区域。在这四种 区域之上,分别执行IoU,Dice,Sensitivity,PPV这四个评估指标,可以全方位反 映模型的分割性能,下面逐个介绍。
IoU是交并比,给定预测图与真实图像,IoU可以测量两个图像上,同一个 目标部位的重叠度。重叠度从0~1,越高表示预测越精准。
Figure BDA0003353291770000091
Dice用于衡量两个集合分布之间的相似度,给定预测图与真实图,Dice可 以从像素级测量两个图像的整体相似度,其值域为0~1,表示从最差到最好。
Figure BDA0003353291770000101
敏感度Sensitivity,表示真正的肿瘤区域中,有多少被预测为肿瘤区域。
Figure BDA0003353291770000102
阳性预测率PPV,用于表示预测为肿瘤的区域中,有多少是真正的肿瘤区域。
Figure BDA0003353291770000103
对肿瘤区域进行分割,其本质是像素点的多分类过程。比如,处理的就是五 分类问题,每个像素值会有[0,1,2,3,4]这五种可能性,分别代表健康区域、坏死、 水肿、肿瘤、增强肿瘤。在验证和测试时,将[0,1,2,3,4]划分为下述三种组合方 式。用IoU、Dice、Sensitivity、PPV分别对它们进行测试。
[1,2,3,4]表示整个病变区域,即Entire LesionArea
[1,3,4]表示整个肿瘤区域,即Entire TumorArea
[3,4]表示核心肿瘤区域,即Core TumorArea
此外,为了测试在每一种病变类型上的分割性能,还单独对01234进行了 测试,也是使用上述评估指标。
步骤S3:训练和测试模型。
为了让模型同时学习不同肿瘤的特征,将HGG和LGG样本混合起来训练。 在这274个样本中,选取224个样本作为训练集,20个样本作为验证集,30个 样本作为测试集。需要说明的是,训练集、验证集、测试集完全都是随机选取, 不存在因为数据分布规律差不多,而导致模型的测试结果偏高的情况。在训练过 程中,为了实时检查当前epoch的训练情况是否最优,每完成一轮epoch训练, 都要将模型在验证集上测试一遍,并获取它在[1,2,3,4]区域上的Dice验证结果。 若Dice结果比之前的更优,则保存当前模型,并立即更新全局最优Dice,否则 不更新模型与Dice。在训练阶段,若训练epoch增加,但验证损失在逐渐上升, 表示模型逐渐走向过拟合状态,在这种情况下,再看Dice是否有突破性的提升, 若基本不变则立即停止训练。
使用的训练服务器,有四个NVIDIA Geforce RTX2080Ti显卡,每个GPU可 以容纳的batchsize为2,因此将batchsize设置为8。若只有一个或两个2080Ti, 也可以正常训练此模型,但需要将训练batchsize减少到2或4。如果GPU算力 低于2080Ti,还需要减少HDC-MUnet的内部通道数N,才能正常训练此模型, 但这样大概率会降低分割性能。此外,服务器的CPU性能也要强大,至少是 i9-9900K级别以上的,内存96GB,才可以支撑起batchsize为8的模型进行训练。
训练模型,是为了通过反向传播更新所有的参数,使所有的参数都能尽可能 准确地完成任务,因此选择合适的优化器很重要,由于Adam效率更高,同时考 虑了一阶二阶动量,对梯度的伸缩具有鲁棒性,因此选择它。除此之外,通过控 制变量法,对其他超参数来说,得出了其最佳选择,比如内部通道数N、learning rate分别是32、1e-4。经过训练,模型在IoU、Dice、PPV指标上表现良好,均 优于现有的Unet、Attention-Unet、Vnet等经典模型。
步骤S4:输出分割图。
为了直观展示本发明对分割效果的改善,将基础模型,以及的模型所输出的 分割图在图6中展示,其中红色、绿色、蓝色、黄色,分别表示标签1,2,3,4,即 坏死、水肿、肿瘤、增强肿瘤类型。第f列是的模型的分割效果,最后一列是真 实标签,前面6列是基础模型的分割图。可以直观看出,的发明从整体上,可以 改善分割效果,对噪音和错误分割有一定的抑制作用。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而 且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发 明;因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性 的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要 求的等同要件的含义和范围内的所有变化囊括在本发明内;不应将权利要求中的 任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方 式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领 域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组 合,形成本领域技术人员可以理解的其他实施方式。

Claims (4)

1.一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法,其特征在于:该脑肿瘤检测方法包括如下步骤
S1:关键输入数据的预处理;
每个样本由四个3D-MRI图像组成,整体维度是(4,155,240,240),分别表示模态、深度、长和宽;一个3D-MRI图像看做由155层2D图像组成的序列,2D图像也被称为2D横切面,第二维度也称为时间序列维度;在时间维度把3D-MRI切分成维度为(4,temp,240,240)的多个3D-Slice,按时间顺序将3D-Slice的每一层2D横切面逐个传入HDC-MUnet来处理,N是HDC-MUnet第一个卷积层的输出通道数;
将交叉熵损失的每个类别权重,重定义为下述公式;
Figure FDA0003353291760000011
其中Freq(c)是属于类别c的像素数量,占所有类别像素数量的比重,即当前像素类型出现的频率;
S2:改进Multi-Unet并生成HDC-MUnet结构;
在模糊边界周围存在差异明显的像素点,扩大感知域捕捉更多像素点;
用混合空洞卷积块HDC-Block来替换原有T1、T1c下采样分支里面的普通卷积块,在HDC-Block中,第一个3×3卷积核不使用空洞卷积,保持原有的扩张率为1,用于全面提取细节特征;第二个3×3卷积核使用扩张率为2的空洞卷积,将感受野由3×3扩展到5×5大小;如果继续向前追溯,输出特征图中的一个像素值,对应的输入感受野由5×5扩大到7×7大小;由于T2和Flair模态本身反映含水量,这两种图像的水肿区域边界则较为明显,无需使用空洞卷积扩大感受野;
S3:生成可供注意力加权的原始分割图;
1×1和3×3卷积并行组成注意力加权卷积网络,1×1卷积的作用是特征的重分布与整合,对N个通道的特征进行整合,以压缩通道的数量;
HDC-MUnet输出的特征图(temp,N,240,240),包含N个内部通道,但图像分割的本质是像素点的分类,每个像素点都有C种分类可能性,把特征图的通道数由N转变为最后的类别数量C,这也是MB-OutConv卷积块的作用;为了同时考虑两种卷积的优点,将3×3卷积和1×1卷积并行处理HDC-MUnet的输出特征图,并将他们生成的特征图相加,以生成维度为(temp,C,240,240)的原始分割图Origin-Segment,其中C是最终的病变类型数;原始分割图是长度为temp的图像时间序列[OS1,OS2,...,OStemp],其下标是当前分割图OS所处的时间片,公式表示如下;
[OS1,OS2,...,OStemp]=MBOutConv{HdcMUnet([img1,img2,...,imgtemp])}
对Origin-Segment做注意力加权,因此将它作为CB-Attention的输入;
S4:用注意力机制改善分割效果;
对于每个3D-Slice,维度是(temp,240,240),那么两个空间距离较近的2D横切面之间必然拥有关联度;3D MRI图像的每一层横切面看做一个通道,使用基于点乘的注意力机制;
计算Origin-Segment中的第i(1≤i≤temp)个元素OSegi与其他元素的注意力权重;令Queryi=OSegi,其他的图像作为Key,具体以公式表示如下;
[Key1,Key2,...,Keyi-1]=[OSeg1,OSeg2,...,OSegi-1];
[Keyi,Keyi+1,...,Keytemp-1]=[OSegi+1,OSegi+2,...,OSegtemp]
当Key的下标小于i时,Keyi=OSegi,反之则有Keyi=OSegi+1的对应关系;下面执行Query和Key的点乘操作,得到temp-1个关联度矩阵;
Figure FDA0003353291760000021
在时间通道上拼接起来,得到三维的关联度矩阵RelevMatrix;
Figure FDA0003353291760000031
计算Query和Key之间的关联度;分析这些Key属于Query类型的概率;为了能找出与Query关联度最大的Key,使用1×1×1卷积处理RelevMatrix,将其通道数由C融合成1,该3D卷积核用于对通道进行线性组合,以调整其特征分布,用于分类过程;
至此,特征图已能反映Query和Key之间的像素点关联度,为了能得到注意力权重,将全局平均池化,直接作用于RelevMatrix的每个时间通道上,将特征图转化为一个数值;用Softmax将全局平均池化的结果转化为0~1之间的概率值,整体公式如下;
weightx=AvgPooling{Conv1×1×1(RelevMatrixx)}
Figure FDA0003353291760000032
其中,概率最大的时间步所对应的通道Max-Key,就与Query关联度最大的通道;最后执行注意力加权;将Max-Key与它所对应的注意力权重Max-weight做点乘,然后直接和Query相加得到AttenQuery,完成对像素点的注意力加权过程,公式表示如下;
Figure FDA0003353291760000033
经过注意力加权,AttenQuery反映了MaxKey与Query在像素级融合的结果,这改变了源Query的部分像素值;将视野扩展到整个原始分割图Origin-Segment上,经过注意力加权,变成新的注意力分割图Attention-Segment,其维度仍然是(temp,C,240,240);最后把Attention-Segment的通道数转化为1,以此来完成对像素点的分类过程。
2.根据权利要求1所述的一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法,其特征在于:像素点的分类过程中,考虑Attention-Segment中的某个时间片,维度是(C,240,240),设二维平面上某个像素点为Pixel(a),平面坐标为(x,y);在Attention-Segment中,与Pixel(a)直接相关的其他像素点,只能是(x,y,0),(x,y,1),......,(x,y,C)这几个坐标点;因为图像分割是像素点的分类问题,针对像素点(x,y),按照标准的分类法,先将坐标序列(x,y,0),(x,y,1),......,(x,y,C)经过Log-Softmax处理,得到C个概率值,分别为(P0,P1,......,PC);然后用交叉熵损失函数计算(P0,P1,......,PC)与真实标签Yi的之间的损失。
3.根据权利要求2所述的一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法,其特征在于:生成最终分割图Final-Segment是通过扫描Attention-Segment的C个通道来实现;若2D平面上某个像素值(x,y),在第ch个通道上的数值(x,y,ch)最大(ch∈(0,C)),则表示该位置的像素应该被分类为ch。
4.根据权利要求3所述的一种基于注意力机制和MRI多模态融合的脑肿瘤检测方法,其特征在于:添加CB-Attention是为了调整通道的像素分布,使这些属于病变类型ch的像素点,准确地分布到通道ch上面,提升准确度。
CN202111343977.XA 2021-11-14 2021-11-14 一种基于注意力机制和mri多模态融合的脑肿瘤检测方法 Pending CN114119515A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111343977.XA CN114119515A (zh) 2021-11-14 2021-11-14 一种基于注意力机制和mri多模态融合的脑肿瘤检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111343977.XA CN114119515A (zh) 2021-11-14 2021-11-14 一种基于注意力机制和mri多模态融合的脑肿瘤检测方法

Publications (1)

Publication Number Publication Date
CN114119515A true CN114119515A (zh) 2022-03-01

Family

ID=80379534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111343977.XA Pending CN114119515A (zh) 2021-11-14 2021-11-14 一种基于注意力机制和mri多模态融合的脑肿瘤检测方法

Country Status (1)

Country Link
CN (1) CN114119515A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及***
CN114926477A (zh) * 2022-05-16 2022-08-19 东北大学 一种基于深度学习的脑肿瘤多模态mri影像分割方法
CN115345886A (zh) * 2022-10-20 2022-11-15 天津大学 一种基于多模态融合的脑部胶质瘤分割方法
CN116824213A (zh) * 2023-05-17 2023-09-29 杭州新中大科技股份有限公司 一种基于多视角特征融合的渣土车带泥检测方法及装置
WO2024103284A1 (zh) * 2022-11-16 2024-05-23 中国科学院深圳先进技术研究院 脑肿瘤患者生存分析方法及***

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926477A (zh) * 2022-05-16 2022-08-19 东北大学 一种基于深度学习的脑肿瘤多模态mri影像分割方法
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及***
CN114663431B (zh) * 2022-05-19 2022-08-30 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及***
CN115345886A (zh) * 2022-10-20 2022-11-15 天津大学 一种基于多模态融合的脑部胶质瘤分割方法
CN115345886B (zh) * 2022-10-20 2022-12-30 天津大学 一种基于多模态融合的脑部胶质瘤分割方法
WO2024103284A1 (zh) * 2022-11-16 2024-05-23 中国科学院深圳先进技术研究院 脑肿瘤患者生存分析方法及***
CN116824213A (zh) * 2023-05-17 2023-09-29 杭州新中大科技股份有限公司 一种基于多视角特征融合的渣土车带泥检测方法及装置

Similar Documents

Publication Publication Date Title
CN114119515A (zh) 一种基于注意力机制和mri多模态融合的脑肿瘤检测方法
CN114926477B (zh) 一种基于深度学习的脑肿瘤多模态mri影像分割方法
CN113506310B (zh) 医学图像的处理方法、装置、电子设备和存储介质
CN115496771A (zh) 一种基于脑部三维mri图像设计的脑肿瘤分割方法
KR102220109B1 (ko) 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
Zhou et al. LAEDNet: a lightweight attention encoder–decoder network for ultrasound medical image segmentation
CN114494296A (zh) 一种基于Unet和Transformer相融合的脑部胶质瘤分割方法与***
CN111784704B (zh) Mri髋关节炎症分割与分类自动定量分级序贯方法
CN112465754B (zh) 基于分层感知融合的3d医疗图像分割方法、装置及存储介质
Ma et al. ATFE-Net: Axial Transformer and Feature Enhancement-based CNN for ultrasound breast mass segmentation
CN112750137B (zh) 基于深度学习的肝脏肿瘤分割方法及***
CN116579982A (zh) 一种肺炎ct图像分割方法、装置及设备
Pei et al. Alzheimer’s disease diagnosis based on long-range dependency mechanism using convolutional neural network
KR20220144687A (ko) 듀얼 어텐션 다중 인스턴스 학습 방법
CN117876399A (zh) 基于改进U-Net的多尺度特征融合的MRI脑肿瘤分割方法
Qin et al. Joint transformer and multi-scale CNN for DCE-MRI breast cancer segmentation
CN114882048A (zh) 基于小波散射学习网络的图像分割方法和***
CN117710760B (zh) 残差的注意神经网络用于胸部x线病灶检测的方法
Xu et al. RUnT: A network combining residual U-Net and transformer for vertebral edge feature fusion constrained spine CT image segmentation
Sha et al. A robust segmentation method based on improved U-Net
Pang et al. Correlation matters: multi-scale fine-grained contextual information extraction for hepatic tumor segmentation
Zhang et al. Sclmnet: A dual-branch guided network for lung and lung lobe segmentation
KR102234139B1 (ko) 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
CN115619810B (zh) 一种***分区分割方法、***及设备
Iqbal et al. Pseudo slicer on three dimensional brain tumor segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination