CN113298826B - 一种基于LA-Net网络的图像分割方法 - Google Patents
一种基于LA-Net网络的图像分割方法 Download PDFInfo
- Publication number
- CN113298826B CN113298826B CN202110642528.9A CN202110642528A CN113298826B CN 113298826 B CN113298826 B CN 113298826B CN 202110642528 A CN202110642528 A CN 202110642528A CN 113298826 B CN113298826 B CN 113298826B
- Authority
- CN
- China
- Prior art keywords
- feature map
- image
- channels
- attention
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000003709 image segmentation Methods 0.000 title claims abstract description 30
- 230000009467 reduction Effects 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims description 52
- 238000012549 training Methods 0.000 claims description 22
- 238000011176 pooling Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 15
- 230000000875 corresponding effect Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 11
- 230000003902 lesion Effects 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 230000002596 correlated effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 abstract description 17
- 208000025721 COVID-19 Diseases 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 210000004072 lung Anatomy 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000012535 impurity Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010035664 Pneumonia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 239000005337 ground glass Substances 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011330 nucleic acid test Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种基于LA‑Net网络的图像分割方法,涉及图像分割技术领域。该方法包括:输入待分割图像X;图像X经过编码阶段得到特征图M1~M5,同时将SE注意力模块加入U‑Net网络的编码阶段,并将M5经过SE注意力模块得到MS;在解码阶段加入LA注意力模块并结合特征图M1~M5,将MS经过解码阶段进行特征还原得到Y,根据Y得到图像分割结果。SE注意力模块对特征图各通道间的依赖关系进行建模,可使特征图自适应地调整各通道之间的关系;LA模块给予非病灶区域中的点大于1的系数值,而非病灶区域中的点的标签值为0,非病灶区域中的点可以获得更大损失值,从而抑制非病灶区域预测值,给病灶区域更多关注,提升了网络对于CT图像中病灶分割的准确率。
Description
技术领域
本发明涉及图像分割技术领域,特别是涉及一种基于LA-Net网络的图像分割方法。
背景技术
肺炎患者的CT图像包含丰富的图像语义,其中的病灶区域更是蕴含着纹理学、形态学、统计学等不同形式的重要特征。所以一些研究指出,了解CT图像的演变过程可为COVID-19的早期防控、早期诊断及治疗提供重要依据。但是研究人员研究和使用CT图像的前提条件之一是:CT图像中的病灶区域已经具有显著性标注。而如今这项工作多为医生或者专业人员进行的人工标注,重复且大量的CT图像标注工作给工作人员带来了巨大的工作量。而且人工操作一般带有标注者个人的主观思想,并且常常伴有标注者的失误操作现象,所以标注者难以保证精准地在CT图像中标注病灶区域。
2012年提出的AlexNet网络首次将卷积神经网络(CNN)应用在图像识别上。之后陆续出现了很多优秀的图像分割的网络和方法,如:FCN、SegNet、Deeplab v1&v2&v3、V-net、U-Net等。它们的出现,在进一步提高图像分割精度的同时,也大大地解放了标注者的工作。这些网络中,在医学图像中应用比较广泛,效果比较好的是U-Net网络。U-Net网络的实现思路是:首先将输入的图像不断地进行卷积、池化、激活操作,提取输入图像的特征信息,产生多个特征图,在这个过程中,特征图的大小不断缩小,通道数量不断增大,这个过程被称为“编码阶段”;然后再将编码阶段提取到的最后一个特征图作为输入,重复使用上采样、卷积、激活操作,产生多个特征图,在这个过程中,特征图的大小不断增大,通道数量不断缩小,最后一个特征图被还原至与输入图像的大小一致,这个过程被称为“解码阶段”。其中最后一个特征图中的每个点的值代表对输入图像中的每个像素点的预测值,然后设置一定大小的阈值,根据特征图中每个像素点的值与阈值之间的大小关系来确定分割的区域,以此达到了对输入图像进行分割的效果。然而因为U-Net网络在解码阶段使用了上采样技术,所以无法避免地会造成特征图信息的丢失。针对这个问题,U-Net网络认为编码阶段产生的特征图更加接近于输入图像,具有更丰富的特征信息,因此将编码阶段产生的特征图与解码阶段产生的特征图直接进行拼接操作,以此来弥补解码阶段上采样操作中的信息丢失,这个操作被称为“跳跃连接”。
在经过相关专业医生的指导之后,容易发现COVID-19病灶体现在CT图像上具有与周围区域对比度低、分布不均衡的特点:1、病灶与人体的器官在CT图像中的像素值几乎相等,位置相近,对比度较低,边界模糊;2、病灶的面积大小不一致,例如较小的病灶面积小于1cm2,而最大病灶的面积却接近于半个肺叶;病灶的形状不统一,例如磨玻璃型的病灶形态接近于一团海绵,而索条型的病灶却像一道细长的绳索;病灶的分布不均衡。但是在U-Net网络中1)缺少注意力模块去注重CT图像中的重要的信息(病灶区域),抑制不重要的信息(非病灶信息);2)没有很好地利用到COVID-19病灶区域分布这一先验知识。所以对于CT图像中的COVID-19病灶,U-Net网络并不能具有很好的分割效果。
发明内容
针对上述现有技术存在的不足,本发明提供一种基于LA-Net网络的图像分割方法,旨在对U-Net网络进行改进,在传统的U-Net网络中加入SE注意力模块和LA注意力模块构成LA-Net网络,通过基于LA-Net网络的图像分割方法解决基于U-Net网络的图像分割方法缺少注意力模块和没有利用COVID-19病灶区域分布先验知识的缺陷,从而提高基于U-Net网络的图像分割方法的精度。
本发明的技术方案为:
一种基于LA-Net网络的图像分割方法,包括下述步骤:
步骤1:输入待分割图像,并根据该图像的大小将其定义为大小为T×H×W的3维特征数组,表示为:X(T×H×W);
步骤2:图像X经过编码阶段得到特征图M1~M5,同时将SE注意力模块加入U-Net网络的编码阶段,并将M5经过SE注意力模块得到MS;
步骤3:在解码阶段加入LA注意力模块并结合特征图M1~M5,将MS经过解码阶段进行特征还原得到Y,根据Y得到图像分割结果。
进一步地,根据所述的基于DP-Net网络的图像分割方法,所述图像X经过编码阶段得到特征图M1~M5的方法为:首先将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);然后将Mi经过最大值池化操作改变Mi的特征图大小,得到再将/>经过提取特征操作,得到特征图Mi+1,其中i为特征图索引,i=1,2,3,4,所述Mi+1分别为
进一步地,根据所述的基于MSF-Net网络的图像分割方法,所述提取特征操作由串行的两组串行的卷积操作、数据归一化操作和激活操作构成。
进一步地,根据所述的基于DP-Net网络的图像分割方法,所述将M5经过SE注意力模块得到MS的具体过程为:
首先定义C5,H5,W5分别为特征图M5的通道数量和特征图的大小;且定义所述SE注意力模块中的可变参数为SR,SR代表SE注意力模块中的第一个全连接操作中输入特征图通道数量与输出特征图通道数量的比例;然后将M5经过池化窗口大小为H5×W5的平均值池化操作改变特征图大小,得到向量R(C5×1×1),所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量;再然后将R经过输入特征图通道数量为C5,输出特征图通道数量为的全连接操作改变特征图通道数量,得到向量其中/>代表向上取整运算;又然后将Z经过输入特征图通道数量为/>输出特征图通道数量为C5的全连接操作改变特征图通道数量,得到向量Q(C5×1×1);最后将M5与Q按照式(1)进行矩阵与向量相乘操作,得到Ms(C5×H5×W5);
Ms(j,k,l)=M5(j,k,l)×Q(j,1,1) (1)
上式中,j、k、l为位置索引,且1≤j≤C5,1≤k≤H5,1≤l≤W5。
进一步地,根据所述的基于DP-Net网络的图像分割方法,所述将MS经过解码阶段进行特征还原得到Y的方法为:首先定义B5=MS,将Bi+1经过上采样操作改变特征图大小,得到特征图然后将/>与Mi经过拼接操作,得到特征图Ui;将Ui经过还原特征操作得到特征图Bi,其中i为特征图索引,i=4,3,2,1,所述Bi分别为/> 最后将B1通过卷积操作得到B0(T×H×W),将B0通过LA注意力模块,得到Y。
进一步地,根据所述的基于LA-Net网络的图像分割方法,所述上采样操作采用双线性插值算法。
进一步地,根据所述的基于LA-Net网络的图像分割方法,所述LA注意力模块包括损失注意力函数G(·),所述损失注意力函数G(·)的公式如下:
其中,s、l、W、H均为可变参数,s,l为训练集中所有病灶图像中病灶分布区域的始末位置,通过统计训练集中所有的病灶图像的像素点分布得到;W,H为输入图像的尺寸大小;G(i,j)是一个分段函数,代表输入特征图B0中(1,i,j)位置的损失注意力权重,如果s<dist(i,j)<l,则坐标(i,j)属于病灶分布的区域,则G(i,j)=1;如果dist(i,j)>l或dist(i,j)<s,则坐标(i,j)属于非病灶分布的区域,G(i,j)的值和(i,j)位置与病灶区域分布中心的距离呈正相关,若dist(i,j)>l,则若dist(i,j)<s,则
进一步地,根据所述的基于LA-Net网络的图像分割方法,所述B0通过LA注意力模块得到Y的方法为:将B0中每个点的坐标值代入LA注意力模块中的损失注意力函数G(·)所得到的结果再与该点的坐标值相乘,相乘的结果即为Y中对应点的坐标值。
与现有技术相比,本发明具有如下有益效果:
1、一方面在U-Net网络中引入了SE(Squeeze-and-Excitation)注意力模块,SE注意力模块对特征图各通道间的依赖关系进行建模,可以使特征图自适应地调整各通道之间的关系,提升了网络对于CT图像中的COVID-19病灶分割的准确率。2、另一方面基于病灶图像中像素点的分布特征,设计了一种基于病灶图像中像素点分布的LA(Loss Attention)注意力模块。LA模块可以给予非病灶区域中的点大于1的系数值,而非病灶区域中的点的标签值为0,所以在训练过程中非病灶区域中的点可以获得更大损失值,从而抑制非病灶区域的预测值,以此来给病灶区域更多的关注,实现更加精准的分割。
附图说明
图1为本实施方式基于LA-Net网络的图像分割方法的流程图;
图2为本实施方式中提取特征操作与还原特征操作的结构示意图;
图3为本实施方式的SE注意力模块的结构示意图;
图4(A)为P在第一个维度上统计的柱状图,其横坐标表示为位置索引,纵坐标表示为对应横坐标下P中病灶像素点的个数;(B)为P在第二个维度上统计的柱状图,其纵坐标表示为位置索引,横坐标表示为对应纵坐标下P中病灶像素点的个数;(C)为P的热力图,各位置颜色的深浅与P在该对应位置处的值呈正相关;(D)为在256×256大小的区域内,LA模块中损失注意力函数G(·)中每个位置的权重热图,各位置颜色的深浅与G(·)中该位置的值呈正相关。
图5(A)为从测试集中选取的一张原始CT图像;(B)为(A)图中病灶区域对应的图像;(C)为通过传统的U-Net网络对(A)图中COVID-19病灶分割的结果显示图;(D)为通过LA-Net网络对(A)图中COVID-19病灶分割的结果显示图。
具体实施方式
下面将结合附图和具体实施方式,对本发明的具体实施方式作进一步详细描述。以下实施例仅用于说明本发明,但限制本发明的范围。
图1是本实施方式的基于LA-Net网络的图像分割方法的流程图,所述基于LA-Net网络的图像分割方法包括如下步骤:
步骤1:读取训练集中的一幅待分割CT图像,并根据该图像的大小将其定义为大小为T×H×W的3维特征数组,表示为:X(T×H×W);
在优选实施例中,根据读取的待分割CT图像的大小,将读取到的CT图像定义为大小为1×256×256的3维特征数组,表示为:X(1×256×256),其中第一个维度为1,代表X的通道数量,第二个维度和第三个维度均为256,代表X的特征图大小。数组中的元素表示为Xi,j,k,代表3维数组X中坐标为(i,j,k)的位置的像素值。
步骤2:图像X经过编码阶段得到特征图M1~M5,同时将SE注意力模块加入U-Net网络的编码阶段,并将M5经过SE注意力模块得到MS;
在本实施方式中,图像X经过编码阶段得到特征图M1~M5的方法为:首先将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);然后将Mi经过最大值池化操作改变Mi的特征图大小,得到再将/>经过提取特征操作,得到特征图Mi+1,其中i为特征图索引,i=1,2,3,4,所述Mi+1分别为/>
图2是所述提取特征操作的结构示意图,所述提取特征操作,由串行的两组操作构成,其中每组所述操作由串行的卷积操作、数据归一化操作和激活操作构成。
在优选实施例中,图像X经过编码阶段得到特征图M1~M5的具体过程包括如下的步骤2.1~2.5:
步骤2.1:对X进行特征提取,将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);
在优选实施例中,对X进行特征提取的详细过程为:先将输入X经过提取特征操作中的一组操作即串行的卷积操作(在优选实施例中所有的卷积操作中卷积核为3×3大小,步长为1,不同点在于卷积核的数量,即输出结果中特征图的通道数)、数据归一化操作和激活操作,得到特征图然后再将/>经过提取特征操作中的另一组操作即串行的卷积操作、数据归一化操作和激活操作得到特征图M1(64×256×256)。
步骤2.2:对M1进行特征提取,将M1经过最大值池化操作改变M1的特征图大小,得到再将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M2;
在优选实施例中,将M1经过池化窗口大小为2×2的最大值池化操作(在优选实施例中,最大值池化操作中池化窗口大小均为2×2),改变M1的特征图大小,得到将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M2(128×128×128)。
步骤2.3:按照步骤2.2的方法,对M2进行特征提取,将M2经过最大值池化操作改变M2的特征图大小,得到再将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M3。
在优选实施例中,将M2经过最大值池化操作改变特征图大小,得到再将/>进行提取特征操作改变通道数量,得到特征图M3(256×64×64)。
步骤2.4:对M3进行特征提取,将M3经过最大值池化操作改变M3的特征图大小,得到再将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M4。
在优选实施例中,将M3经过最大值池化操作改变特征图大小,得到再将/>进行提取特征操作改变通道数量,得到特征图M4(512×32×32)。
步骤2.5:对M4进行特征提取,将M4经过最大值池化操作改变M4的特征图大小,得到再将/>经过提取特征操作,但不改变/>的特征图通道数量,得到特征图M5。
在优选实施例中,将M4经过最大值池化操作改变特征图大小,得到将/>进行提取特征操作,不改变通道数量,得到特征图M5(512×16×16)。
在本实施方式中,M5经过SE模块得到Ms的具体过程为:
SE模块中的可变参数为SR,SR代表SE模块中的第一个全连接操作中输入特征图通道数量与输出特征图通道数量的比例。在优选实施例中设置SR=1.5,如图3所示,M5经过SE模块得到Ms的具体过程为:
将M5经过池化窗口大小为16×16的平均值池化操作改变特征图大小,得到向量R(512×1×1)。所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量。将R经过输入特征图通道数量为512,输出特征图通道数量为342的全连接操作改变特征图通道数量,得到向量Z(342×1×1)。将Z经过输入特征图通道数量为342,输出特征图通道数量为512的全连接操作改变特征图通道数量,得到向量Q(512×1×1)。
将M5与Q进行矩阵与向量相乘操作,得到MS(512×16×16)。其中矩阵与向量相乘操作的定义为:
MS(j,k,l)=M5(j,k,l)×Q(j,1,1) (1)
其中,j,k,l为位置索引,并满足1≤j≤512、1≤k≤16、1≤l≤16。
步骤3:结合步骤2得到的特征图M1~M5,同时将LA模块加入网络解码阶段,将MS经过解码阶段进行特征还原得到Y,根据Y得到图像的分割结果。
图2也是还原特征操作的结构示意图,所述还原特征操作与提取特征操作采用相同的架构,也是由串行的两组操作构成,其中每组所述操作由串行的卷积操作、数据归一化操作和激活操作构成;不同点在于二者在进行各自的卷积操作时设置的卷积核数量。
在优选实施例中,定义B5=MS,将B5经过解码阶段得到Y,Y与X相同大小,根据Y结合预设的阈值,得到图像的分割结果,包括如下步骤:
步骤3.1:对B5进行特征还原,得到特征图B4。
在优选实施例中,对B5进行特征还原得到特征图B4的详细过程为:先将B5经过上采样操作改变特征图大小,得到特征图再将/>与M4进行拼接操作,得到特征图U4(1024×32×32);然后将U4经过还原特征操作中的一组操作即串行的卷积操作、数据归一化操作和激活操作改变通道数量得到特征图/>再将/>经过还原特征操作中的另一组操作即串行的卷积操作、数据归一化操作和激活操作改变通道数量得到特征图B4(256×32×32)。
步骤3.2:对B4进行还原特征,得到特征图B3。
将B4经过上采样操作,改变特征图大小,得到特征图将/>与M3进行拼接操作,得到特征图U3(512×64×64)。将U3进行还原特征操作,即经过两次串行的卷积操作、数据归一化操作和激活操作,改变特征图通道数,得到B3(128×64×64)。
步骤3.3:对B3进行还原特征,得到特征图B2。
将B3经过上采样操作,改变特征图大小,得到特征图将/>与M2进行拼接操作,得到特征图U2(256×128×128)。将U2进行还原特征操作,改变特征图通道数,得到B2(64×128×128)。
步骤3.4:对B2进行还原特征,得到特征图B1。
将B2经过上采样操作,改变特征图大小,得到特征图将/>与M1进行拼接操作,得到特征图U1(128×256×256)。将U1进行还原特征操作,只在还原特征操作中的第一个卷积操作时改变U1的特征图通道数为64,第二个卷积操作不改变特征图通道数,得到B1(64×256×256)。
步骤3.5:将B1通过卷积操作得到B0,然后将B0通过LA注意力模块,得到输出Y,结合预设的阈值得到图像的分割结果。
将B1经过卷积操作改变特征图通道数,得到B0(1×256×256)。将B0通过LA模块得到Y(1×256×256)。所述LA注意力模块包括损失注意力函数G(·),所述损失注意力函数G(·),的可变参数为s,l,W,H;s,l为训练集中所有病灶图像中病灶分布区域的始(s)末(l)位置,在优选实施例中经过统计训练集中所有的病灶图像的像素点之后得出s=10、l=107;W,H为输入CT图像的尺寸大小,优选实施例中W=256,H=256。LA模块的具体过程为:将B0中每个点的坐标代入损失注意力函数G(·)得到的结果与该点的值相乘,得到Y中对应坐标的值。公式为:
Y(1,k,e)=G(k,e)×B0(1,k,e) (2)
其中,k,e为位置索引,1≤k≤256,1≤e≤256;Y(1,k,e)代表Y在坐标为(1,k,e)位置的值。
在专业医生的指导下,经过观察、统计病例的CT影像和病灶图像后,容易发现ROI(region of interest)病灶区域集中在左右两个肺叶中,除肺叶之外的区域并不包含病灶。根据这一观察到的现象,本申请发明人首先将所有训练集的病灶图像缩放至(256×256)大小,然后将所有病灶图像的对应位置的像素相加,统计训练集中病灶影像中病灶像素点的分布特点,得到了在(256×256)区域内所有病灶的像素点统计P(256×256)。如图4所示,(A)为P在第一个维度上统计的柱状图,其横坐标表示为位置索引,纵坐标表示为对应横坐标下P中病灶像素点的个数;(B)为P在第二个维度上上统计的柱状图,其纵坐标表示为位置索引,横坐标表示为对应纵坐标下P中病灶像素点的个数;(C)为P的热力图,各位置颜色的深浅与P在该对应位置处的值呈正相关。根据图4中(A)、(B)、(C)三图可以得到一个结论:训练集中的病灶区域集中在左右两个肺叶中,其余部分基本不含病灶,这印证了上述的观察现象。因此,根据对上述观察现象的印证,在假设测试集中病灶区域分布与训练集中相同的情况下,本发明针对训练集中病灶图像中像素点分布特点,设计了一个损失注意力函数G(·),公式如下:
其中l=107,s=10,W=256,H=256。G(i,j)是一个分段函数,代表输入特征图B0中(1,i,j)位置的损失注意力权重,如果s<dist(i,j)<l,则坐标(i,j)属于病灶分布的区域,则G(i,j)=1;如果dist(i,j)>l或dist(i,j)<s,则坐标(i,j)属于非病灶分布的区域,G(i,j)的值和(i,j)位置与病灶区域分布中心的距离呈正相关,若dist(i,j)>l,则若dist(i,j)<s,则/>通过这种方式,可以给予B0中非病灶区域中的点大于1的系数值,而非病灶区域中的点的标签值为0,所以在训练过程中非病灶区域中的点可以获得更大损失值,从而抑制非病灶区域的预测值,以此来给病灶区域更多的关注,实现更加精准的分割。图4中(D)为G(i,j)在256×256大小的区域内,损失注意力函数G(·)中每个位置(i,j)的权重热力图,各位置(i,j)颜色的深浅与G(i,j)的值呈正相关。
在本实施方式中,本发明方法在实验过程中所使用的数据集是在某医院经过保密采集。数据集使用了338例来自同一个医院的不同新冠病人的病例。其中每个病例被隐藏了个人信息,并且均做过PCR核酸检测且结果呈阳性。每个病例含有300张以上的CT图像,并且每张CT图像都经过了两位相关的医生进行手工标注病灶区域得到了每张CT对应的病灶图像。从中挑选出相似度较小并且图像较为清晰的4472组图像,其中一组图像代表一张CT图像和一张对应的病灶图像。首先将所有的CT图像和病灶图像大小都缩放至256×256。然后通过将所有CT图像设置窗宽WW、窗位WL为:1500HU,-450HU的方法将CT图像中的像素点的值归一化至0-255。最后将病灶图像中像素点值大于1的点的值改为1,像素点值小于0的点的值改为0,其余点的像素值不变。
将4472组图像按照14∶3∶3的比例分割为:训练集,验证集,测试集,并且对训练集中的每张图片进行顺时针旋转180度后作为一张新的图片加入训练集,以此进行数据增强。
然后将训练集中的CT图像输入LA-Net网络,设置每次训练时输入的图片数量为6,设置学习率为1e-4,设置优化算法为Adam,并将其中参数β1设置为0.9,β2设置为0.999,eps设置为1e-8,weight_decay设置为1e-8,设置损失函数为LossBCE,设置迭代次数为1000次。其中LossBCE的定义如下:
因为本发明进行的实验为图像分割实验,所以为了定量分析实验结果的精准度,使用Sensitivity,Specificity,Precision,Dice,E_measure(Eφ),MAE这几个指标衡量实验结果,以此来评价网络的性能。各项指标的公式如下:
其中TP代表X1,i,j=1且Y1,i,j=1的像素点的个数,TN代表X1,i,j=0且Y1,i,j=0的像素点的个数,FP代表X1,i,j=0且Y1,i,j=1的像素点的个数,FN代表X1,i,j=0且Y1,i,j=1的像素点的个数,其中0<i,j<256且i,j为整数。
将LA-Net网络与传统的U-Net网络分别在训练集的CT图像上进行训练,保存最后一次迭代训练的网络参数。将训练好的LA-Net网络与U-Net网络分别在测试集的CT图像上进行测试,得到分割结果,将分割结果与测试集中的病灶图像数据作为各项指标的输入进行计算,得到结果如表1所示。
表1
网络 | Sensitivity | Specificity | Precision | Dice | MAE | E_measure |
U-Net | 0.75099 | 0.98073 | 0.5432 | 0.63041 | 0.0261 | 0.89163033 |
LA-Net | 0.62323 | 0.99443 | 0.77337 | 0.69023 | 0.0166 | 0.95822533 |
根据表中的数据定量分析,可以分析得到:LA-Net网络在衡量图片间的相似度指标Dice上可以达到0.69023,大幅度超越U-Net网络;在衡量分割结果错误率的指标MAE上,也取得了0.0166,小于U-Net网络,表示与U-Net网络相比,LA-Net网络对CT图像分割出的病灶图像与真实的病灶图像的差距更小。其余各项指标中,Specificity,Precision,E_measure也均达到了比U-Net网络更好的效果。
接下来再根据图5进行定性分析,图5中的(A)图为测试集中的一张原始CT图像;(B)图为与(A)图对应的病灶图像;(C)图为基于传统的U-Net网络对(A)图中COVID-19病灶的分割结果,可以看出U-Net网络将更多的非病灶区域分割为病灶区域,而且在病灶区域的分割结果上与真实的病灶图像也有很大的偏差,分割图像中含有更多的噪音和杂质;(D)图为基于LA-Net网络对(A)图中COVID-19病灶的分割结果,可以看出基于LA-Net网络的图像分割结果含有更少的杂质,几乎精准的分割出完整的病灶区域。
综合上述,可以说明与传统的U-Net网络相比,基于LA-Net网络的图像分割方法在对于CT中COVID-19病灶的分割上达到了更加精准的效果。
显然,上述实施例仅仅是本发明的一部分实施例,而不是全部的实施例。上述实施例仅用于解释本发明,并不构成对本发明保护范围的限定。基于上述实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,也即凡在本申请的精神和原理之内所作的所有修改、等同替换和改进等,均落在本发明要求的保护范围内。
Claims (4)
1.一种基于LA-Net网络的图像分割方法,其特征在于,包括下述步骤:
步骤1:输入待分割图像,并根据该图像的大小将其定义为大小为T×H×W的3维特征数组,表示为:X(T×H×W);
步骤2:图像X经过编码阶段得到特征图M1~M5,同时将SE注意力模块加入U-Net网络的编码阶段,并将M5经过SE注意力模块得到MS;
步骤3:在解码阶段加入LA注意力模块并结合特征图M1~M5,将MS经过解码阶段进行特征还原得到Y,根据Y得到图像分割结果;
所述图像X经过编码阶段得到特征图M1~M5的方法为:首先将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);然后将Mi经过最大值池化操作改变Mi的特征图大小,得到再将/>经过提取特征操作,得到特征图Mi+1,其中i为特征图索引,i=1,2,3,4,所述Mi+1分别为/>
所述提取特征操作由串行的两组串行的卷积操作、数据归一化操作和激活操作构成;
所述将M5经过SE注意力模块得到MS的具体过程为:
首先定义C5,H5,W5分别为特征图M5的通道数量和特征图的大小;且定义所述SE注意力模块中的可变参数为SR,SR代表SE注意力模块中的第一个全连接操作中输入特征图通道数量与输出特征图通道数量的比例;然后将M5经过池化窗口大小为H5×W5的平均值池化操作改变特征图大小,得到向量R(C5×1×1),所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量;再然后将R经过输入特征图通道数量为C5,输出特征图通道数量为的全连接操作改变特征图通道数量,得到向量/>其中/>代表向上取整运算;又然后将Z经过输入特征图通道数量为/>输出特征图通道数量为C5的全连接操作改变特征图通道数量,得到向量Q(C5×1×1);最后将M5与Q按照式(1)进行矩阵与向量相乘操作,得到Ms(C5×H5×W5);
Ms(j,k,l)=M5(j,k,l)×Q(j,1,1) (1)
上式中,j、k、l为位置索引,且1≤j≤C5,1≤k≤H5,1≤l≤W5;
所述将MS经过解码阶段进行特征还原得到Y的方法为:首先定义B5=MS,将Bi+1经过上采样操作改变特征图大小,得到特征图然后将/>与Mi经过拼接操作,得到特征图Ui;将Ui经过还原特征操作得到特征图Bi,其中i为特征图索引,i=4,3,2,1,所述Bi分别为B1(C×H×W);最后将B1通过卷积操作得到B0(T×H×W),将B0通过LA注意力模块,得到Y。
2.根据权利要求1所述的基于LA-Net网络的图像分割方法,其特征在于,所述上采样操作采用双线性插值算法。
3.根据权利要求1所述的基于LA-Net网络的图像分割方法,其特征在于,所述LA注意力模块包括损失注意力函数G(·),所述损失注意力函数G(·)的公式如下:
其中,s、l、W、H均为可变参数,s,l为训练集中所有病灶图像中病灶分布区域的始末位置,通过统计训练集中所有的病灶图像的像素点分布得到;W,H为输入图像的尺寸大小;G(i,j)是一个分段函数,代表输入特征图B0中(1,i,j)位置的损失注意力权重,如果s<dist(i,j)<l,则坐标(i,j)属于病灶分布的区域,则G(i,j)=1;如果dist(i,j)>l或dist(i,j)<s,则坐标(i,j)属于非病灶分布的区域,G(i,j)的值和(i,j)位置与病灶区域分布中心的距离呈正相关,若dist(i,j)>l,则若dist(i,j)<s,则
4.根据权利要求3所述的基于LA-Net网络的图像分割方法,其特征在于,所述B0通过LA注意力模块得到Y的方法为:将B0中每个点的坐标值代入LA注意力模块中的损失注意力函数G(•)所得到的结果再与该点的坐标值相乘,相乘的结果即为Y中对应点的坐标值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110642528.9A CN113298826B (zh) | 2021-06-09 | 2021-06-09 | 一种基于LA-Net网络的图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110642528.9A CN113298826B (zh) | 2021-06-09 | 2021-06-09 | 一种基于LA-Net网络的图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113298826A CN113298826A (zh) | 2021-08-24 |
CN113298826B true CN113298826B (zh) | 2023-11-14 |
Family
ID=77327683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110642528.9A Active CN113298826B (zh) | 2021-06-09 | 2021-06-09 | 一种基于LA-Net网络的图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298826B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758755B (zh) * | 2022-06-14 | 2022-08-16 | 数聚(山东)医疗科技有限公司 | 基于大数据分析的医疗数据协同管理平台 |
CN116563285B (zh) * | 2023-07-10 | 2023-09-19 | 邦世科技(南京)有限公司 | 一种基于全神经网络的病灶特征识别与分割方法及*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018229490A1 (en) * | 2017-06-16 | 2018-12-20 | Ucl Business Plc | A system and computer-implemented method for segmenting an image |
CN109191472A (zh) * | 2018-08-28 | 2019-01-11 | 杭州电子科技大学 | 基于改进U-Net网络的胸腺细胞图像分割方法 |
WO2020093042A1 (en) * | 2018-11-02 | 2020-05-07 | Deep Lens, Inc. | Neural networks for biomedical image analysis |
CN111311592A (zh) * | 2020-03-13 | 2020-06-19 | 中南大学 | 一种基于深度学习的三维医学图像自动分割方法 |
CN112258488A (zh) * | 2020-10-29 | 2021-01-22 | 山西三友和智慧信息技术股份有限公司 | 一种医疗影像病灶分割方法 |
CN112418027A (zh) * | 2020-11-11 | 2021-02-26 | 青岛科技大学 | 一种改进U-Net网络的遥感影像道路提取方法 |
CN112785598A (zh) * | 2020-11-05 | 2021-05-11 | 南京天智信科技有限公司 | 基于注意力增强改进u型网络的超声乳腺肿瘤自动分割方法 |
CN112927243A (zh) * | 2021-03-31 | 2021-06-08 | 上海大学 | 一种基于卷积神经网络的微出血病灶分割方法 |
CN112927240A (zh) * | 2021-03-08 | 2021-06-08 | 重庆邮电大学 | 一种基于改进的AU-Net网络的CT图像分割方法 |
-
2021
- 2021-06-09 CN CN202110642528.9A patent/CN113298826B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018229490A1 (en) * | 2017-06-16 | 2018-12-20 | Ucl Business Plc | A system and computer-implemented method for segmenting an image |
CN109191472A (zh) * | 2018-08-28 | 2019-01-11 | 杭州电子科技大学 | 基于改进U-Net网络的胸腺细胞图像分割方法 |
WO2020093042A1 (en) * | 2018-11-02 | 2020-05-07 | Deep Lens, Inc. | Neural networks for biomedical image analysis |
CN111311592A (zh) * | 2020-03-13 | 2020-06-19 | 中南大学 | 一种基于深度学习的三维医学图像自动分割方法 |
CN112258488A (zh) * | 2020-10-29 | 2021-01-22 | 山西三友和智慧信息技术股份有限公司 | 一种医疗影像病灶分割方法 |
CN112785598A (zh) * | 2020-11-05 | 2021-05-11 | 南京天智信科技有限公司 | 基于注意力增强改进u型网络的超声乳腺肿瘤自动分割方法 |
CN112418027A (zh) * | 2020-11-11 | 2021-02-26 | 青岛科技大学 | 一种改进U-Net网络的遥感影像道路提取方法 |
CN112927240A (zh) * | 2021-03-08 | 2021-06-08 | 重庆邮电大学 | 一种基于改进的AU-Net网络的CT图像分割方法 |
CN112927243A (zh) * | 2021-03-31 | 2021-06-08 | 上海大学 | 一种基于卷积神经网络的微出血病灶分割方法 |
Non-Patent Citations (2)
Title |
---|
A modified U-Net for skin lesion segmentation;Hafhouf, Bellal, et al.;《2020 1st International Conference on Communications, Control Systems and Signal Processing (CCSSP)》;全文 * |
基于残差双注意力U-Net模型的CT图像囊肿肾脏自动分割;徐宏伟 等;计算机应用研究(07);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113298826A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889853B (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
CN112927255B (zh) | 一种基于上下文注意力策略的三维肝脏影像语义分割方法 | |
CN110889852B (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN113298826B (zh) | 一种基于LA-Net网络的图像分割方法 | |
CN111640120A (zh) | 一种基于显著性密集连接扩张卷积网络的胰腺ct自动分割方法 | |
CN113674253A (zh) | 基于U-Transformer的直肠癌CT影像自动分割方法 | |
CN111325750B (zh) | 一种基于多尺度融合u型链神经网络的医学图像分割方法 | |
US20220335600A1 (en) | Method, device, and storage medium for lesion segmentation and recist diameter prediction via click-driven attention and dual-path connection | |
TWI624807B (zh) | 醫學影像之迭代式分析法 | |
CN111598894B (zh) | 基于全局信息卷积神经网络的视网膜血管图像分割*** | |
CN111738997A (zh) | 一种基于深度学习的计算新冠肺炎病变区域占比的方法 | |
CN116309651B (zh) | 一种基于单图深度学习的内窥镜图像分割方法 | |
CN113744271A (zh) | 基于神经网络的视神经自动分割和受压迫程度测算方法 | |
CN111047559A (zh) | 一种数字病理切片异常区域快速检测的方法 | |
CN112396605A (zh) | 网络训练方法及装置、图像识别方法和电子设备 | |
CN113554668B (zh) | 一种皮肤镜图像黑色素瘤分割方法、装置及相关组件 | |
CN113298827B (zh) | 一种基于DP-Net网络的图像分割方法 | |
CN114565601A (zh) | 基于DeepLabV3+改进的肝脏CT图像分割算法 | |
CN111986216B (zh) | 一种基于神经网络改进的rsg肝脏ct图像交互式分割算法 | |
CN116128774B (zh) | 一种胃部螺旋ct数据增强处理方法 | |
CN113313682A (zh) | 基于时空多尺度分析的无参考视频质量评价方法 | |
CN109800820B (zh) | 一种基于超声造影图像均匀程度的分类方法 | |
CN109840564B (zh) | 一种基于超声造影图像均匀程度的分类*** | |
CN113298825B (zh) | 一种基于MSF-Net网络的图像分割方法 | |
CN114926486B (zh) | 一种基于多层级改进的甲状腺超声图像智能分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |