CN111986181A - 基于双注意力机制的血管内支架图像分割方法和*** - Google Patents
基于双注意力机制的血管内支架图像分割方法和*** Download PDFInfo
- Publication number
- CN111986181A CN111986181A CN202010859488.9A CN202010859488A CN111986181A CN 111986181 A CN111986181 A CN 111986181A CN 202010859488 A CN202010859488 A CN 202010859488A CN 111986181 A CN111986181 A CN 111986181A
- Authority
- CN
- China
- Prior art keywords
- attention
- feature
- block
- intravascular stent
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000003709 image segmentation Methods 0.000 title claims abstract description 32
- 230000006870 function Effects 0.000 claims abstract description 42
- 230000004927 fusion Effects 0.000 claims abstract description 38
- 238000013135 deep learning Methods 0.000 claims abstract description 29
- 230000011218 segmentation Effects 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000005540 biological transmission Effects 0.000 claims abstract description 10
- 238000005070 sampling Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 238000012952 Resampling Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 230000009977 dual effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000011976 chest X-ray Methods 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 6
- 239000002872 contrast media Substances 0.000 description 4
- 208000002223 abdominal aortic aneurysm Diseases 0.000 description 3
- 238000013152 interventional procedure Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 206010002329 Aneurysm Diseases 0.000 description 2
- 208000007474 aortic aneurysm Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 208000001647 Renal Insufficiency Diseases 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 229940039231 contrast media Drugs 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003205 diastolic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 201000006370 kidney failure Diseases 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明属于领域,具体涉及了一种基于双注意力机制的血管内支架图像分割方法和***,旨在解决现有技术无法实时并且精确地从手术中X光透射图像中将血管内支架分割出来的问题。本发明包括:通过获取X光透射待检测视频序列并基于待检测视频序列通过基于深度学习的轻量化上注意力融合网络生成显示血管内支架的而知分割掩膜序列,将显示血管内支架的二值分割掩膜覆盖在待检测视频序列上生成显示血管内支架的视频序列。本发明通过采用特征注意块和关联注意块提升了血管内支架图像分割的精确度,采用了Dice损失函数和聚焦损失函数进行模型训练避免了边缘像素的错误分类,提高了图像分类网络的性能。
Description
技术领域
本发明属于图像识别领域,具体涉及了一种基于双注意力机制的血管内支架图像分割方法和***。
背景技术
腹部主动脉瘤(Abdominal aortic aneurysm,AAA)是最常见的一种动脉瘤。通常腹部主动脉瘤在破裂之前不会出现典型症状,因此通常导致85%到90%的病死率。临床研究表明,比起开放式修复方法,血管内动脉瘤修复(Endovascular aneurysm repair,EVAR)手术可以有效降低患者在围手术期的发病率和死亡率,并维持相同程度的术后存活率。然而,由于EVAR手术的复杂性,在介入手术的过程中通常需要长时间的辐射和大剂量的造影剂注射,进而可能会导致病人出现如肾衰竭之类的常见并发症。因此,减少EVAR手术的时间是非常必要的。
在介入手术中,融合术前数据(CT图像)和术中X光造影能够降低造影剂和辐射的使用剂量。然而,这个融合可能会因为病人的移动和介入器械造成的血管形变而变得不准确。为了避免重复使用造影剂,在手术过程中,对比血管内支架的分割图像和术前数据可以评估检测当前的融合效果。然而,血管内支架分割目前有以下几部分难点:(1)不同介入手术中采用的支架具有不同的形态学特征,例如大小和形状;(2)由于支架的像素数量远小于背景的像素数量,前景和背景类别数量极度不平均;(3)造影剂和其他一些丝状结构(例如脊椎、导丝等)会干扰支架的边缘像素的分类准确性。
目前针对血管内支架分割的研究相对较少。Demirci等人提出了一种基于模型的方法。该方法的数据预处理部分采用了一种基于海森矩阵的滤波器。尽管该方法能直接复原支架的三维形状,它需要提前定义支架的模型,因此在支架的选择上有一定的局限性。
近年来,深度学习在医学图像处理领域里大放异彩。Breininger等人提出了一种具有收缩和舒张模式的全卷积网络,用于动脉血管支架的分割。然而,由于该方法在主干部分对残差模块的应用,其实时性能不是很好。
发明内容
为了解决现有技术中的上述问题,即现有技术无法实时并且精确地从手术中X光透射图像中将血管内支架分割出来的问题,本发明提供了一种基于双注意力机制的血管内支架图像分割方法,所述方法包括:
步骤S10,获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
步骤S20,基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
步骤S30,将所述二值分割掩膜序列覆盖在所述待检测视屏序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积层、多级嵌套的编码解码结构和第二卷积层;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
进一步地,所述训练好的基于深度学习的轻量化双注意力融合网络,其获得方法包括:
步骤A100,获取训练视频序列,按时间顺序提取所述训练视频序列中的第t帧作为当前帧;
步骤A200,基于所述当前帧,通过所述第一卷积层生成第一特征图像;
步骤A300,基于所述第一特征图像,通过所述基于深度学习的轻量化双注意力融合网络的编码器中的编码模块进行分级编码,获得特征压缩图像;
步骤A400,通过所述特征注意力模块获取所述特征压缩图像三个不同尺度的特征,结合所述不同尺度的特征生成编码特征向量;
步骤A500,基于所述编码特征向量,通过所述基于深度学习的轻量化双注意力融合网络中的解码器中的解码块,进行分级解码,每级解码后通过解码器中的所述关联注意力块凸显支架特征以及消除残差连接中的不相关响应和噪声响应,生成上采样特征图像;
步骤A600,基于所述上采样特征图像,通过所述基于深度学习的轻量化双注意力融合网络的第二卷积层生成所述当前帧对应的支架的二值分割掩膜;
步骤A700,若网络全局损失函数不低于设定阈值,则通过随机梯度下降法调节特征注意力块的注意力系数、关联注意力块的激活函数及权重和网络参数,令t=t+1并跳转步骤A100,直至全局损失函数小于预设的阈值,获得训练好的基于轻量化双注意力融合网络。
进一步地,所述特征注意力块输入端连接特征注意力块第一支线、特征注意力块第二支线和特征注意力块第三支线;
所述特征注意力块第一支线,为与所述特征注意力块输入端顺次连接的自适应平均池化层、卷积核为1×1的卷积层和上采样层;
所述特征注意力块第二支线,为与所述特征注意力块输入端连接的卷积核为1×1的卷积层;
所述特征注意力块第三支线,为与所述特征注意力块输入端顺次连接的呈U型结构的卷积核分别为7×7的卷积层、卷积核为5×5的卷积层和卷积核为3×3的卷积层;
特征注意力块第三支线与特征注意力块第二支线的输出做乘法运算连接后与特征注意力块第一支线的输出做加法运算。
进一步地,所述关联注意力块输入端连关联注意力块第一支线和关联注意力块第二支线;
所述关联注意力块第一支线,为与关联注意力块输入端顺次连接的卷积核为3×3的卷积层和卷积核为1×1的卷积层;
所述关联注意力块第二支线,为与关联注意力块输入端连接的卷积核为1×1的卷积层;
其中,关联注意力块的输入信息通过所述关联注意力块第一支线获取关键特征图,通过所述关联注意力块第二支线获取通用大小特征图;将所述关键特征图和通用大小特征图结合生成增强特征图;将所述增强特征图进行线性修正、线性变化、二分类和重采样后与关联注意力块的输入信息结合注意力系数作乘法运算生成上采样特征图像。
进一步地,关联注意力块通过门向量gi判断每个向量i是否处于焦点区域;所述门向量由环境信息删除底层特征响应组成。
进一步地,所述全局损失函数L为:
L=LR-Focal+λLDice
其中,LDice是Dice系数损失函数,LR-Focal是聚焦损失函数,λ为用于调整聚焦损失和Dice系数损失之间平衡的超参数。
进一步地,所述聚焦损失函数LR-Focal为:
其中,yi是第i个像素的标签,1代表支架,0代表背景,pi是第i个像素的预测概率值,权重因子β和调制因子γ大于等于0。
本发明的另一方面,提出了一种基于双注意力机制的血管内支架图像分割***,所述***包括待测视频获取单元、掩膜生成单元和支架显现单元;
所述视频获取单元,用于获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
所述掩膜生成单元,用于基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
所述支架显现单元,用于将所述二值分割掩膜序列覆盖在所述待检测视屏序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积层、多级嵌套的编码解码结构和第二卷积层;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
本发明的第三方面,提出了一种存储装置,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的基于双注意力机制的血管内支架图像分割方法。
本发明的第四方面,提出了一种处理装置,包括处理器、存储装置;所述处理器,适于执行各条程序;所述存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的基于双注意力机制的血管内支架图像分割方法。
本发明的有益效果:
(1)本发明基于双注意力机制的血管内支架图像分割方法,采用轻量化双注意力融合网络中的特征注意力块通过下采样和上采样逐步结合不同尺度的信息更准确地获取相关特征,还采用自适应平均化层进一步改善模型表现,提高了现有的图像分割方法用于识别血管内支架图像的精确度。
(2)本发明基于双注意力机制的血管内支架图像分割方法,采用轻量化双注意力融合网络中的关联注意力块将每一级输入的信息分成关键特征图和通用大小特征图并将两部分结合起来提高非线性特征并滤去不相关信息以及残差连接中的噪音,提高了图像分割方法的精确度。
(3)本发明基于双注意力机制的血管内支架图像分割方法,采用Dice损失函数替换交叉熵损失函数解决了在血管内支架细长的结构导致的间类数据不平衡的问题,避免了由于造影剂和丝状结构的干扰导致的支架边缘像素被误分类的问题。
(4)本发明基于双注意力机制的血管内支架图像分割方法,通过聚焦损失中的调制因子可以自动减少简单数据的权重,并迅速聚焦于错分类的数据,提高了血管内支架图像识别的精确度。
(5)本发明基于双注意力机制的血管内支架图像分割方法,采用轻量化的网络生成显示支架的二值分割掩膜,无需复杂的启发信息,提高了图像处理的速度,速度可达12.6fps,满足了血管内支架手术的实时性要求。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本发明基于双注意力机制的血管内支架图像分割方法第一实施例的流程示意图;
图2是本发明第一实施例的基于深度学习的轻量化双注意力融合网络结构示意图;
图3是本发明第一实施例的基于深度学习的轻量化双注意力融合网络中的特征注意力块结构示意图;
图4是本发明第一实施例的基于深度学习的轻量化双注意力融合网络中的关联注意力块结构示意图;
图5是本发明第一实施例的分割不同支架的效果图;
图6是移除了双注意力机制的分割支架效果图;
图7是本发明在数据集PUGSeg进行对比实验中的获取到的图像;
图8是本发明在数据集PUGSeg进行对比实验中的通过GT方式分割的导管示意图;
图9是本发明在数据集PUGSeg进行对比试验中通过U-Net方式分割的导管示意图;
图10是本发明在数据集PUGSeg进行对比实验中通过本发明提出的LDA-Net分割的导管示意图;
图11是本发明在NLM胸部X光数据集进行对比实验中获取到的图像示意图;
图12是本发明在NLM胸部X光数据集进行对比实验中通过GT方式获取的捕捉轮廓效果示意图;
图13是本发明在NLM胸部X光数据集进行对比实验中通过Att.U-Net方式获取的捕捉轮廓效果示意图;
图14是本发明在NLM胸部X光数据集进行对比实验中通过本发明提出的LDA-Net方式获取的捕捉轮廓效果示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本发明提供一种基于双注意力机制的血管内支架图像分割方法,本方法包括:
步骤S10,获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
步骤S20,基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
步骤S30,将所述二值分割掩膜序列覆盖在所述待检测视屏序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积层、多级嵌套的编码解码结构和第二卷积层;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
为了更清晰地对本发明基于双注意力机制的血管内支架图像分割方法进行说明,下面结合图1对本发明方法实施例中各步骤展开详述。
本发明一种实施例的基于双注意力机制的血管内支架图像分割方法,包括步骤S10-步骤S30,各步骤详细描述如下:
步骤S10,获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
步骤S20,基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
在本实施例中,基于深度学习的轻量化双注意力融合网络结构如图2所示,在图2中,1为第一卷积层,2、3、4和5为编码模块,6为特征注意力块,7、9、11和13为解码块,8、10、12和14为关联注意力块,15为第二卷积层。
所述基于深度学习的轻量化双注意力融合网络,其训练方法为:
步骤A100,获取训练视频序列,按时间顺序提取所述训练视频序列中的第t帧作为当前帧;
步骤A200,基于所述当前帧,通过所述第一卷积层生成第一特征图像;
步骤A300,基于所述第一特征图像,通过所述基于深度学习的轻量化双注意力融合网络的编码器中的编码模块进行分级编码,获得特征压缩图像;
步骤A400,通过所述特征注意力模块获取所述特征压缩图像三个不同尺度的特征,结合所述不同尺度的特征生成编码特征向量;
在本实施例中,如图4所示,所述特征注意力块输入端连接特征注意力块第一支线、特征注意力块第二支线和特征注意力块第三支线;
所述特征注意力块第一支线,为与所述特征注意力块输入端顺次连接的自适应平均池化层、卷积核为1×1的卷积层和上采样层;
所述特征注意力块第二支线,为与所述特征注意力块输入端连接的卷积核为1×1的卷积层;
所述特征注意力块第三支线,为与所述特征注意力块输入端顺次连接的呈U型结构的卷积核分别为7×7的卷积层、卷积核为5×5的卷积层和卷积核为3×3的卷积层;
特征注意力块第三支线与特征注意力块第二支线的输出做乘法运算连接后与特征注意力块第一支线的输出做加法运算。
步骤A500,基于所述编码特征向量,通过所述基于深度学习的轻量化双注意力融合网络中的解码器中的解码块,进行分级解码,每级解码后通过解码器中的所述关联注意力块凸显支架特征以及消除残差连接中的不相关响应和噪声响应,生成上采样特征图像;
本实施例中,如图5所示,所述关联注意力块输入端连关联注意力块第一支线和关联注意力块第二支线;
所述关联注意力块第一支线,为与关联注意力块输入端顺次连接的卷积核为3×3的卷积层和卷积核为1×1的卷积层;
所述关联注意力块第二支线,为与关联注意力块输入端连接的卷积核为1×1的卷积层;
其中,关联注意力块的输入信息通过所述关联注意力块第一支线获取关键特征图,通过所述关联注意力块第二支线获取通用大小特征图;将所述关键特征图和通用大小特征图结合生成增强特征图;将所述增强特征图进行线性修正、线性变化、二分类和重采样后与关联注意力块的输入信息结合注意力系数作乘法运算生成上采样特征图像。
在本实施例中,所述关联注意力块通过门向量gi判断每个向量i是否处于焦点区域;所述门向量由环境信息删除底层特征响应组成。
步骤A600,基于所述上采样特征图像,通过所述基于深度学习的轻量化双注意力融合网络的第二卷积层生成所述当前帧对应的支架的二值分割掩膜;
步骤A700,若网络全局损失函数不低于设定阈值,则通过随机梯度下降法调节特征注意力块的注意力系数、关联注意力块的激活函数及权重和网络参数,令t=t+1并跳转步骤A100,直至全局损失函数小于预设的阈值,获得训练好的基于轻量化双注意力融合网络。
在本实施例中,所述全局损失函数L如公式(3)所示:
L=LR-Focal+λLDice
(3)
其中,LDice是Dice系数损失函数,LR-Focal是聚焦损失函数,λ为用于调整聚焦损失和Dice系数损失之间平衡的超参数。
在本实施例中,所述聚焦损失函数LR-Focal如公式(4)所示:
其中,yi是第i个像素的标签,1代表支架,0代表背景,pi是第i个像素的预测概率值,权重因子β和调制因子γ大于等于0。
本发明提出的模型采用的优化器是随机梯度下降算法(Stochastic gradientdecent,SGD),初始学习率为0.001,权重衰减为0.0005,动量参数为0.9。为了找到最佳模型表现,本发明采用了多元学习率策略,当验证准确度饱和时,会给学习率乘以0.9。每次训练模型的batch size为8,epoch为180。
步骤S30,将所述二值分割掩膜序列覆盖在所述待检测视屏序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积层、多级嵌套的编码解码结构和第二卷积层;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
本实施例中将本发明提出的模型LDA-Net分别在三个不同的数据集上进行测试,分别为SeTaX,PUGSeg和NLM胸部X光数据集。SeTaX是一个基于X光造影的术中支架数据集,由北京协和医院提供。该数据集包括1269张训练集图像、254张验证集图像和381张测试集图像。PUGSeg是一个包含多种导丝的介入手术器械数据集,由上海华东医院和北京协和医院提供。该数据集包括1585张训练集图像、317张验证集图像和476张测试集图像。NLM胸部X光数据集是一个针对结核的标准数字图像数据集,包含336例结核数据和326例正常数据。
为了评估不同模块对于本发明所述方法的贡献,本实施例对不同设置下的模型分别在数据集SeTaX上进行了测试,结果如表1所示:
表1消融实验结果
其中,BaseNet就是常规的U-Net。BCE代表二值交叉熵损失函数(Binary CrossEntropy Loss)。DL代表Dice Loss,FL代表聚焦损失函数。DRF代表前文所述的混合损失函数。
表1清楚地展现出了双注意力模块对模型表现的提升。具体地,加入FAM后模型的表现从0.898提升到了0.946,加入RAM后模型的表现能平均提升0.227。当把FAM和RAM都加入模型中后。模型的平均F1值达到了0.969,提升了约7.91%。同时从运行时间可以看出,加入双注意力模块后,模型的计算量也只是略有增加,而没有带来太多的计算负担。
为了验证主干算法的表现,本实施例还将原始的主干网络分别替换为ResNet和VGGNet进行了测试。从表1中可清楚看出,采用预训练的MobileNetV2可以大幅减少程序运行时间。
为了验证损失函数的表现,本实施例还对模型分别应用了另外三种损失函数,分别为二值交叉熵损失函数(BCE Loss)、Dice Loss和聚焦损失函数(Focal Loss)。从表1中可看出,本发明提出的混合损失函数的表现优于另外三种损失函数。
为了展示本方法的优越性,本实施例将本方法与三种常用的网络(U-Net,LinkNet和TernausNet)、两种基于注意力的网络(Attention U-Net和CS-Net)、以及一种最近提出的方法(KBS)在数据集SeTaX上进行了测试。对其他方法本实施例中采用的都是最佳参数。测试结果如表2所示;
表2与尖端技术的量化对比(基于SeTax数据集)
表2中清晰地显示出,本发明提出的方法可以达到更高的准确度,同时用的处理时间也是最短的。此外,本方法的对每张图像的平均处理时间为79.6ms(12.6FPS),可以达到实时性的要求。本发明实施例的分割支架效果示意图如图5所示,通过对比没有双注意力的支架分割效果示意图如图6,本发明提出的方法具有很强的鲁棒性,对于各种不同介入手术的术中支架都能准确地分割出来,且无需任何附加处理步骤。
更进一步地,为了验证本发明提出的模型LDA-Net的有效性,本实施例又在另外两个数据集PUGSeg和NLM胸部X光数据集上进行了测试。测试结果如表3所示。
表3与尖端技术的量化对比(基于PUGSeg和NLM Chest X-ray Database数据集)
从表3中可以清楚看到,本发明提出的方法在准确性和鲁棒性上都有很好的表现,且显著优于其他方法。图7、图8、图9、图10、图11、图12、图13和图14是本对比实验的可视化结果。相比于U-Net和AttentionU-Net,本方法能够更好地捕捉其他方法难以捕捉到的轮廓信息,从而获得更准确和平滑的分割淹没。
本发明提出的用于血管内支架分割的方法,是目前第一个实现术中X光造影时全自动实时支架分割的方法,速度可达12.6FPS。该方法中涉及的双注意力模型和混合损失函数都能提高模型对支架像素的敏感度,且无需复杂的启发信息。此外,该方法经在三个不同的数据集(SeTaX,PUGSeg,NLM Chest)上测试后,均实现了目前所有尖端方法中最好的分割结果。
本发明第二实施例的基于双注意力机制的血管内支架图像分割***,所述***包括待测视频获取单元、掩膜生成单元和支架显现单元;
所述视频获取单元,用于获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
所述掩膜生成单元,用于基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
所述支架显现单元,用于将所述二值分割掩膜序列覆盖在所述待检测视屏序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积层、多级嵌套的编码解码结构和第二卷积层;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的基于双注意力机制的血管内支架图像分割***,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的基于双注意力机制的血管内支架图像分割方法。
本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的基于双注意力机制的血管内支架图像分割方法。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (13)
1.一种基于双注意力机制的血管内支架图像分割方法,其特征在于,所述方法包括:
步骤S10,获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
步骤S20,基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
步骤S30,将所述二值分割掩膜序列覆盖在所述待检测视频序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积块、多级嵌套的编码解码结构和第二卷积块;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
2.根据权利要求1所述的基于双注意力机制的血管内支架图像分割方法,其特征在于,所述基于深度学习的轻量化双注意力融合网络,其训练方法为:
步骤A100,获取训练视频序列,按时间顺序提取所述训练视频序列中的第t帧作为当前帧;
步骤A200,基于所述当前帧,通过所述第一卷积层生成第一特征图像;
步骤A300,基于所述第一特征图像,通过所述基于深度学习的轻量化双注意力融合网络的编码器中的编码模块进行分级编码,获得特征压缩图像;
步骤A400,通过所述特征注意力模块获取所述特征压缩图像三个不同尺度的特征,结合所述不同尺度的特征生成编码特征向量;
步骤A500,基于所述编码特征向量,通过所述基于深度学习的轻量化双注意力融合网络中的解码器中的解码块,进行分级解码,每级解码后通过解码器中的所述关联注意力块凸显支架特征以及消除残差连接中的不相关响应和噪声响应,生成上采样特征图像;
步骤A600,基于所述上采样特征图像,通过所述基于深度学习的轻量化双注意力融合网络的第二卷积层生成所述当前帧对应的支架的二值分割掩膜;
步骤A700,若网络全局损失函数不低于预设阈值,则通过随机梯度下降法调节特征注意力块的注意力系数、关联注意力块的激活函数及权重和网络参数,令t=t+1并跳转步骤A100,直至全局损失函数小于预设的阈值,获得训练好的基于轻量化双注意力融合网络。
3.根据权利要求2所述的基于双注意力机制的血管内支架图像分割方法,其特征在于,所述特征注意力块输入端连接特征注意力块第一支线、特征注意力块第二支线和特征注意力块第三支线;
所述特征注意力块第一支线,为与所述特征注意力块输入端顺次连接的自适应平均池化层、卷积核为1×1的卷积层和上采样层;
所述特征注意力块第二支线,为与所述特征注意力块输入端连接的卷积核为1×1的卷积层;
所述特征注意力块第三支线,为与所述特征注意力块输入端顺次连接的呈U型结构的卷积核分别为7×7的卷积层、卷积核为5×5的卷积层和卷积核为3×3的卷积层;
特征注意力块第三支线与特征注意力块第二支线的输出做乘法运算连接后与特征注意力块第一支线的输出做加法运算。
4.根据权利要求2所述的基于双注意力机制的血管内支架图像分割方法,其特征在于,所述关联注意力块输入端连关联注意力块第一支线和关联注意力块第二支线;
所述关联注意力块第一支线,为与关联注意力块输入端顺次连接的卷积核为3×3的卷积层和卷积核为1×1的卷积层;
所述关联注意力块第二支线,为与关联注意力块输入端连接的卷积核为1×1的卷积层;
其中,关联注意力块的输入信息通过所述关联注意力块第一支线获取关键特征图,通过所述关联注意力块第二支线获取通用大小特征图;将所述关键特征图和通用大小特征图结合生成增强特征图;将所述增强特征图进行线性修正、线性变化、二分类和重采样后与关联注意力块的输入信息结合注意力系数作乘法运算生成上采样特征图像。
6.根据权利要求5所述的基于双注意力机制的血管内支架图像分割方法,其特征在于,所述关联注意力块通过门向量gi判断每个向量i是否处于焦点区域;所述门向量由环境信息删除底层特征响应组成。
9.根据权利要求2所述的基于双注意力机制的血管内支架图像分割方法,其特征在于,所述全局损失函数L为:
L=LR-Focal+λLDice
其中,LDice是Dice系数损失函数,LR-Focal是聚焦损失函数,λ为用于调整聚焦损失和Dice系数损失之间平衡的超参数。
11.一种基于双注意力机制的血管内支架图像分割***,其特征在于,所述***包括待测视频获取单元、掩膜生成单元和支架显现单元;
所述视频获取单元,用于获取手术过程中包含支架的区域的X光透射视频序列作为待检测视频序列;
所述掩膜生成单元,用于基于所述待检测视频序列,通过训练好的基于深度学习的轻量化双注意力融合网络生成显示血管内支架的二值分割掩膜序列;
所述支架显现单元,用于将所述二值分割掩膜序列覆盖在所述待检测视屏序列上获得血管内支架的视频序列;
其中,所述基于深度学习的轻量化双注意力融合网络包括顺次连接的第一卷积层、多级嵌套的编码解码结构和第二卷积层;所述多级嵌套的编码解码结构在各级编码器与解码器之间嵌套***下一级编码解码结构,在最下一级的编码解码结构的编码模块和解码模块之间***一个特征注意力块;
所述多级嵌套的编码解码结构,其编码器和解码器分别包括多个编码模块和多个解码模块;所述编码模块通过残差连接与对应的同级解码模块连接;
所述编码模块基于MobileNetV2网络构建,在MobileNetV2中将标准卷积层替换为深度可分卷积层;
所述解码模块由解码块和关联注意力块组成。
12.一种存储装置,其中存储有多条程序,其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-10任一项所述的基于双注意力机制的血管内支架图像分割方法。
13.一种处理装置,包括处理器,适于执行各条程序;以及存储装置,适于存储多条程序;其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-10任一项所述的基于双注意力机制的血管内支架图像分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010859488.9A CN111986181B (zh) | 2020-08-24 | 2020-08-24 | 基于双注意力机制的血管内支架图像分割方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010859488.9A CN111986181B (zh) | 2020-08-24 | 2020-08-24 | 基于双注意力机制的血管内支架图像分割方法和*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111986181A true CN111986181A (zh) | 2020-11-24 |
CN111986181B CN111986181B (zh) | 2021-07-30 |
Family
ID=73443739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010859488.9A Active CN111986181B (zh) | 2020-08-24 | 2020-08-24 | 基于双注意力机制的血管内支架图像分割方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986181B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012172A (zh) * | 2021-04-09 | 2021-06-22 | 杭州师范大学 | 一种基于AS-UNet的医学图像分割方法及*** |
CN113223002A (zh) * | 2021-05-07 | 2021-08-06 | 西安智诊智能科技有限公司 | 一种血管图像分割方法 |
CN113223704A (zh) * | 2021-05-20 | 2021-08-06 | 吉林大学 | 基于深度学习的计算机断层扫描主动脉瘤的辅助诊断方法 |
CN113378907A (zh) * | 2021-06-04 | 2021-09-10 | 南京大学 | 增强数据预处理过程的自动化软件可追踪性恢复方法 |
CN113420770A (zh) * | 2021-06-21 | 2021-09-21 | 梅卡曼德(北京)机器人科技有限公司 | 图像数据处理方法、装置、电子设备和存储介质 |
CN113469258A (zh) * | 2021-07-08 | 2021-10-01 | 中国科学院自动化研究所 | 基于两阶段cnn的x射线血管造影图像匹配方法和*** |
CN113538475A (zh) * | 2021-07-19 | 2021-10-22 | 中国科学院自动化研究所 | 基于多任务算法的实时多器械分割方法和*** |
CN114494482A (zh) * | 2021-12-24 | 2022-05-13 | 中国人民解放军总医院第一医学中心 | 一种基于平扫ct生成ct血管成像的方法 |
CN114565770A (zh) * | 2022-03-23 | 2022-05-31 | 中南大学 | 基于边缘辅助计算和掩模注意力的图像分割方法及*** |
CN114723760A (zh) * | 2022-05-19 | 2022-07-08 | 北京世纪好未来教育科技有限公司 | 人像分割模型的训练方法、装置及人像分割方法、装置 |
CN116402780A (zh) * | 2023-03-31 | 2023-07-07 | 北京长木谷医疗科技有限公司 | 基于双自注意力和深度学习的胸椎图像分割方法及装置 |
CN116758087A (zh) * | 2023-08-22 | 2023-09-15 | 邦世科技(南京)有限公司 | 一种腰椎ct骨窗侧隐窝间隙检测方法及装置 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463965A (zh) * | 2014-12-17 | 2015-03-25 | 中国科学院自动化研究所 | 一种面向微创心血管介入手术的训练场景模拟***及方法 |
US20180276813A1 (en) * | 2017-03-23 | 2018-09-27 | International Business Machines Corporation | Weakly supervised probabilistic atlas generation through multi-atlas label fusion |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别***及方法 |
CN109448006A (zh) * | 2018-11-01 | 2019-03-08 | 江西理工大学 | 一种注意力机制u型密集连接视网膜血管分割方法 |
CN109584246A (zh) * | 2018-11-16 | 2019-04-05 | 成都信息工程大学 | 基于多尺度特征金字塔的dcm心肌诊疗放射影像分割方法 |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
CN109886273A (zh) * | 2019-02-26 | 2019-06-14 | 四川大学华西医院 | 一种cmr图像分割分类*** |
CN110163878A (zh) * | 2019-05-28 | 2019-08-23 | 四川智盈科技有限公司 | 一种基于双重多尺度注意力机制的图像语义分割方法 |
CN110675406A (zh) * | 2019-09-16 | 2020-01-10 | 南京信息工程大学 | 基于残差双注意力深度网络的ct图像肾脏分割算法 |
CN110727824A (zh) * | 2019-10-11 | 2020-01-24 | 浙江大学 | 利用多重交互注意力机制解决视频中对象关系问答任务的方法 |
US20200051238A1 (en) * | 2018-08-13 | 2020-02-13 | International Business Machines Corporation | Anatomical Segmentation Identifying Modes and Viewpoints with Deep Learning Across Modalities |
CN111079649A (zh) * | 2019-12-17 | 2020-04-28 | 西安电子科技大学 | 基于轻量化语义分割网络的遥感图像地物分类方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
US20200160515A1 (en) * | 2018-11-21 | 2020-05-21 | Siemens Healthcare Gmbh | Processing a Medical Image |
CN111402259A (zh) * | 2020-03-23 | 2020-07-10 | 杭州健培科技有限公司 | 一种基于多层次结构关系学习网络的脑肿瘤分割方法 |
CN111402310A (zh) * | 2020-02-29 | 2020-07-10 | 同济大学 | 一种基于深度估计网络的单目图像深度估计方法及*** |
CN111445474A (zh) * | 2020-05-25 | 2020-07-24 | 南京信息工程大学 | 基于双向复注意力深度网络的肾脏ct图像分割方法 |
CN111526434A (zh) * | 2020-04-24 | 2020-08-11 | 西北工业大学 | 基于转换器的视频摘要方法 |
-
2020
- 2020-08-24 CN CN202010859488.9A patent/CN111986181B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463965A (zh) * | 2014-12-17 | 2015-03-25 | 中国科学院自动化研究所 | 一种面向微创心血管介入手术的训练场景模拟***及方法 |
US20180276813A1 (en) * | 2017-03-23 | 2018-09-27 | International Business Machines Corporation | Weakly supervised probabilistic atlas generation through multi-atlas label fusion |
US20200051238A1 (en) * | 2018-08-13 | 2020-02-13 | International Business Machines Corporation | Anatomical Segmentation Identifying Modes and Viewpoints with Deep Learning Across Modalities |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别***及方法 |
CN109448006A (zh) * | 2018-11-01 | 2019-03-08 | 江西理工大学 | 一种注意力机制u型密集连接视网膜血管分割方法 |
CN109584246A (zh) * | 2018-11-16 | 2019-04-05 | 成都信息工程大学 | 基于多尺度特征金字塔的dcm心肌诊疗放射影像分割方法 |
US20200160515A1 (en) * | 2018-11-21 | 2020-05-21 | Siemens Healthcare Gmbh | Processing a Medical Image |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
CN109886273A (zh) * | 2019-02-26 | 2019-06-14 | 四川大学华西医院 | 一种cmr图像分割分类*** |
CN110163878A (zh) * | 2019-05-28 | 2019-08-23 | 四川智盈科技有限公司 | 一种基于双重多尺度注意力机制的图像语义分割方法 |
CN110675406A (zh) * | 2019-09-16 | 2020-01-10 | 南京信息工程大学 | 基于残差双注意力深度网络的ct图像肾脏分割算法 |
CN110727824A (zh) * | 2019-10-11 | 2020-01-24 | 浙江大学 | 利用多重交互注意力机制解决视频中对象关系问答任务的方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111079649A (zh) * | 2019-12-17 | 2020-04-28 | 西安电子科技大学 | 基于轻量化语义分割网络的遥感图像地物分类方法 |
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN111402310A (zh) * | 2020-02-29 | 2020-07-10 | 同济大学 | 一种基于深度估计网络的单目图像深度估计方法及*** |
CN111402259A (zh) * | 2020-03-23 | 2020-07-10 | 杭州健培科技有限公司 | 一种基于多层次结构关系学习网络的脑肿瘤分割方法 |
CN111526434A (zh) * | 2020-04-24 | 2020-08-11 | 西北工业大学 | 基于转换器的视频摘要方法 |
CN111445474A (zh) * | 2020-05-25 | 2020-07-24 | 南京信息工程大学 | 基于双向复注意力深度网络的肾脏ct图像分割方法 |
Non-Patent Citations (8)
Title |
---|
HANCHAO LI 等: "Pyramid Attention Network for Semantic Segmentation", 《ARXIV:1805.10180V3》 * |
JIWEI ZHANG 等: "Lightweight Attention Pyramid Network for Object Detection and Instance Segmentation", 《APPLIED SCIENCES》 * |
LEI MOU 等: "CS-Net: Channel and Spatial Attention Network for Curvilinear Structure Segmentation", 《MICCAI 2019》 * |
MARK SANDLER 等: "MobileNetV2: Inverted Residuals and Linear Bottlenecks", 《ARXIV:1801.04381V3》 * |
李天培 等: "基于双注意力编码-解码器架构的视网膜血管分割", 《计算机科学》 * |
梅旭璋 等: "基于密集注意力网络的视网膜血管图像分割", 《计算机工程》 * |
沈烨 等: "嵌入注意力机制的多模型融合冠脉CTA分割算法", 《计算机科学与探索》 * |
郝晓宇 等: "融合双注意力机制3D U-Net的肺肿瘤分割", 《中国图象图形学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012172B (zh) * | 2021-04-09 | 2023-10-03 | 杭州师范大学 | 一种基于AS-UNet的医学图像分割方法及*** |
CN113012172A (zh) * | 2021-04-09 | 2021-06-22 | 杭州师范大学 | 一种基于AS-UNet的医学图像分割方法及*** |
CN113223002A (zh) * | 2021-05-07 | 2021-08-06 | 西安智诊智能科技有限公司 | 一种血管图像分割方法 |
CN113223704A (zh) * | 2021-05-20 | 2021-08-06 | 吉林大学 | 基于深度学习的计算机断层扫描主动脉瘤的辅助诊断方法 |
CN113378907A (zh) * | 2021-06-04 | 2021-09-10 | 南京大学 | 增强数据预处理过程的自动化软件可追踪性恢复方法 |
CN113378907B (zh) * | 2021-06-04 | 2024-01-09 | 南京大学 | 增强数据预处理过程的自动化软件可追踪性恢复方法 |
CN113420770A (zh) * | 2021-06-21 | 2021-09-21 | 梅卡曼德(北京)机器人科技有限公司 | 图像数据处理方法、装置、电子设备和存储介质 |
CN113469258A (zh) * | 2021-07-08 | 2021-10-01 | 中国科学院自动化研究所 | 基于两阶段cnn的x射线血管造影图像匹配方法和*** |
CN113538475A (zh) * | 2021-07-19 | 2021-10-22 | 中国科学院自动化研究所 | 基于多任务算法的实时多器械分割方法和*** |
CN114494482A (zh) * | 2021-12-24 | 2022-05-13 | 中国人民解放军总医院第一医学中心 | 一种基于平扫ct生成ct血管成像的方法 |
CN114565770A (zh) * | 2022-03-23 | 2022-05-31 | 中南大学 | 基于边缘辅助计算和掩模注意力的图像分割方法及*** |
CN114723760B (zh) * | 2022-05-19 | 2022-08-23 | 北京世纪好未来教育科技有限公司 | 人像分割模型的训练方法、装置及人像分割方法、装置 |
CN114723760A (zh) * | 2022-05-19 | 2022-07-08 | 北京世纪好未来教育科技有限公司 | 人像分割模型的训练方法、装置及人像分割方法、装置 |
CN116402780A (zh) * | 2023-03-31 | 2023-07-07 | 北京长木谷医疗科技有限公司 | 基于双自注意力和深度学习的胸椎图像分割方法及装置 |
CN116402780B (zh) * | 2023-03-31 | 2024-04-02 | 北京长木谷医疗科技股份有限公司 | 基于双自注意力和深度学习的胸椎图像分割方法及装置 |
CN116758087A (zh) * | 2023-08-22 | 2023-09-15 | 邦世科技(南京)有限公司 | 一种腰椎ct骨窗侧隐窝间隙检测方法及装置 |
CN116758087B (zh) * | 2023-08-22 | 2023-10-31 | 邦世科技(南京)有限公司 | 一种腰椎ct骨窗侧隐窝间隙检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111986181B (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986181B (zh) | 基于双注意力机制的血管内支架图像分割方法和*** | |
CN110197493B (zh) | 眼底图像血管分割方法 | |
CN109409503B (zh) | 神经网络的训练方法、图像转换方法、装置、设备及介质 | |
CN111612756B (zh) | 冠状动脉特异性钙化检测方法及装置 | |
CN111985485A (zh) | 基于金字塔形注意力循环网络的手术介入器械追踪方法 | |
CN113159040B (zh) | 医学图像分割模型的生成方法及装置、*** | |
CN112348821B (zh) | 基于x光图像的导丝分割和尖端点定位方法、***和装置 | |
CN109498037B (zh) | 基于深度学习提取特征和多重降维算法的脑认知测量方法 | |
CN111815735B (zh) | 一种人体组织自适应的ct重建方法及重建*** | |
CN114742802B (zh) | 基于3Dtransformer混合卷积神经网络的胰腺CT图像分割方法 | |
CN112348883B (zh) | 血管介入手术中介入器械端点实时定位***、方法、装置 | |
CN114648541A (zh) | 非小细胞肺癌大体肿瘤靶区自动分割方法 | |
CN114359248A (zh) | 一种医学图像分割方法、装置、存储介质及电子设备 | |
CN111724365A (zh) | 血管内动脉瘤修复手术的介入器械检测方法、***及装置 | |
CN115239674A (zh) | 基于多尺度判别的计算机血管造影成像合成方法 | |
CN116778016A (zh) | 一种mri图像重建方法、***及介质 | |
CN113538475B (zh) | 基于多任务算法的实时多器械分割方法和*** | |
CN111311531A (zh) | 图像增强方法、装置、控制台设备及医学成像*** | |
CN116228781A (zh) | 冠脉血管分割方法、装置、电子设备及存储介质 | |
CN112837218B (zh) | 基于双流边界感知的动脉瘤图像分析***、方法和设备 | |
CN112634224A (zh) | 基于目标影像的病灶检测方法和装置 | |
CN117726633B (zh) | 基于特征融合的双分支冠状动脉图像的分割方法、*** | |
CN115578285B (zh) | 一种乳腺钼靶图像细节增强方法及*** | |
CN110570417A (zh) | 肺结节分类方法、装置及图像处理设备 | |
CN118297941A (zh) | 三维腹主动脉瘤及脏器血管管腔提取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |