CN113205538A - 基于CRDNet的血管图像分割方法及装置 - Google Patents
基于CRDNet的血管图像分割方法及装置 Download PDFInfo
- Publication number
- CN113205538A CN113205538A CN202110534267.9A CN202110534267A CN113205538A CN 113205538 A CN113205538 A CN 113205538A CN 202110534267 A CN202110534267 A CN 202110534267A CN 113205538 A CN113205538 A CN 113205538A
- Authority
- CN
- China
- Prior art keywords
- blood vessel
- module
- vessel image
- convolution
- crdnet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000003709 image segmentation Methods 0.000 title claims description 29
- 230000011218 segmentation Effects 0.000 claims abstract description 63
- 210000001210 retinal vessel Anatomy 0.000 claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000005520 cutting process Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000010586 diagram Methods 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 11
- 230000002087 whitening effect Effects 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 230000009977 dual effect Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 230000000903 blocking effect Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 230000002829 reductive effect Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000001965 increasing effect Effects 0.000 abstract description 8
- 238000003384 imaging method Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005728 strengthening Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 10
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 7
- 201000010099 disease Diseases 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 206010012601 diabetes mellitus Diseases 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 208000014951 hematologic disease Diseases 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009885 systemic effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004351 coronary vessel Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008722 morphological abnormality Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了基于CRDNet的血管图像分割方法及装置,方法包括:获取视网膜血管图像数据集;对视网膜血管图像数据集进行预处理后进行分块裁剪,得到样本数据;根据样本数据建立初始血管分割模型;对初始血管分割模型进行训练,得到目标血管分割模型;根据目标血管分割模型进行血管图像分割,并进行评价。本发明的编码器和解码器采用双重残差反卷积模块,增加了网络的深度并强化了特征提取;在所述编码器与解码器之间增设有集成双路注意力模块,学习了通道之间的内部关联性,也在局部特征上建立了丰富的上下文依赖关系,抑制了不必要的特征,提高分割准确性和应用泛化性能,进而提高对血管成像的质量,可广泛应用于人工智能技术领域。
Description
技术领域
本发明涉及人工智能技术领域,尤其是基于CRDNet的血管图像分割方法及装置。
背景技术
血管的形态与健康状况常与人体其他部位的健康状况以及一些潜在的疾病有关,糖尿病等疾病会引起视网膜病变导致眼底血管出现形态异常等病理现象。据统计,各种眼科疾病如糖尿病和血液病等全身性疾病发病率随年增长。临床上,视网膜血管图像不仅用于评估和监测各种眼科疾病,也能及时地反映出糖尿病和血液病等全身性疾病.尽早发现潜在疾病,由医生提供相应治疗.有助于改善患者病情,降低患者病情加重的风险.因此分析眼底视网膜血管显得十分重要。
然而,目前用于临床的眼底血管图像大多是以人工分割为主,对操作人员的工作经验,操作技术等要求较高,在操作过程中容易出现劳动强度大,效率低等问题。相比之下,基于人工智能技术的血管自动分割方法则具有高效率、高精度、低成本等优点。
针对医学血管图像领域,国内外学者已经相继提出了各种视网膜血管分割算法,主要以非监督学习为主,如匹配滤波器算法、形态学处理算法、血管追踪算法、基于模型的方法等,随着深度学习的发展,一些医学研宄人员将深度神经网络引入到眼底血管分割任务中,提升了眼底血管分割的效果,其中UNET算法已经广泛用于生物图像分割,如视网膜血管分割,肺部CT图像,冠状动脉血管图像等,并取得了良好的效果。该算法建立在全卷积网络(FCN)上,由一个编码器和一个解码器组成,网络的形状类似于“U”形,因此称为“UNET”。UNet在编码器和解码器网络的相应层加入了长连接,即在最大池化操作之前和转置卷积操作后进行连接。UNet在分割医学图像方面显示出了巨大潜力,即使标记的训练数据很少,仍然可以获得不错的性能,以致于它已经成为当前医学图像分割的常用架构。
现有的许多血管分割算法存在着细血管漏检和血管边缘分割模糊等问题。
发明内容
有鉴于此,本发明实施例提供基于CRDNet的血管图像分割方法及装置,以提高血管分割的效果。
本发明的第一方面提供了一种基于CRDNet的血管图像分割方法,包括:
获取视网膜血管图像数据集;
对所述视网膜血管图像数据集进行预处理;
对预处理后的视网膜血管图像进行分块裁剪,得到样本数据;
根据所述样本数据建立初始血管分割模型;
对所述初始血管分割模型进行训练,得到目标血管分割模型;
根据所述目标血管分割模型进行血管图像分割,并对血管图像分割结果进行评价;
其中,所述初始血管分割模型采用CRDNet模型架构,所述CRDNet包括编码器和解码器;所述编码器和解码器采用双重残差反卷积模块替换连续双层卷积模块;所述编码器与解码器之间增设有集成双路注意力模块;所述集成双路注意力模块包括空间注意力模块和通道注意力模块;所述集成双路注意力模块将所述空间注意力模块和所述通道注意力模块的两个输出进行转换以及特征融合,得到自适应模块的最终输出结果。
可选地,所述对所述视网膜血管图像数据集进行预处理,包括:
提取所述视网膜血管图像中的绿色通道;
对所述绿色通道进行白化处理;
对所述白化处理后的图像进行自适应直方图均衡化处理;
对所述自适应直方图均衡化处理后的图像进行伽马变换;
将所述伽马变换后的图像的像素值进行归一化处理。
可选地,所述对预处理后的视网膜血管图像进行分块裁剪,得到样本数据,包括:
随机生成一组随机坐标;
将所述随机坐标作为中心点,对预处理后的视网膜血管图像进行分块裁剪,得到图像块内每个像素点的分类概率,进而确定样本数据。
可选地,所述编码器包括五层结构,所述编码器的每层结构包括两个卷积层和一个池化层,所述每个卷积层在处理后均执行批量归一化操作和Relu激活操作,得到最大池化层的结果作为所述编码器中每层结构的输出结果;
所述解码器包括五层结构,所述解码器的每层结构包括两个卷积层和一个上采样层,所述解码器的输出结果为经过1×1卷积处理后的特征图。
可选地,所述双重残差反卷积模块通过第一卷积核对输入图像进行处理,所述第一卷积核的大小为1×1,所述第一卷积核的步长为2;
所述双重残差反卷积模块通过第二卷积核对输入图像进行特征提取,所述第二卷积核的大小为2×2,所述第二卷积核的步长为2;
将所述特征提取得到的数据进行反卷积处理,并得到降维后的数据。
可选地,所述反卷积处理采用非对称卷积块来实现;
所述非对称卷积块包括水平卷积核、垂直卷积核和方形卷积核。
可选地,所述空间注意力模块包括三个并行的可变形卷积层,其中,前两个可变形卷积层将输入图像处理得到空间注意力图,第三个可变形卷积层的输出结果与所述空间注意力图进行矩阵相乘后,与空间注意力模块输入的特征图进行像素级求和,得到所述空间注意力模块的输出;
所述通道注意力模块将原始特征图变形成目标特征图,将所述原始特征图与该原始特征图的转置进行矩阵相乘,得到通道注意力图。
本发明实施例的第二方面提供了一种基于CRDNet的血管图像分割装置,包括:
第一模块,用于获取视网膜血管图像数据集;
第二模块,用于对所述视网膜血管图像数据集进行预处理;
第三模块,用于对预处理后的视网膜血管图像进行分块裁剪,得到样本数据;
第四模块,用于根据所述样本数据建立初始血管分割模型;
第五模块,用于对所述初始血管分割模型进行训练,得到目标血管分割模型;
第六模块,用于根据所述目标血管分割模型进行血管图像分割,并对血管图像分割结果进行评价;
其中,所述初始血管分割模型采用CRDNet模型架构,所述CRDNet包括编码器和解码器;所述编码器和解码器采用双重残差反卷积模块替换连续双层卷积模块;所述编码器与解码器之间增设有集成双路注意力模块;所述集成双路注意力模块包括空间注意力模块和通道注意力模块;所述集成双路注意力模块将所述空间注意力模块和所述通道注意力模块的两个输出进行转换以及特征融合,得到自适应模块的最终输出结果。
本发明实施例的第三方面提供了一种电子设备,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如前面所述的方法。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
本发明的实施例的编码器和解码器采用双重残差反卷积模块,增加了网络的深度并强化了特征提取。同时在所述编码器与解码器之间增设有集成双路注意力模块,既学习了通道之间的内部关联性,也在局部特征上建立了丰富的上下文依赖关系,从而抑制不必要的特征,提高视网膜血管分割的准确性和应用泛化性能,进而提高对血管成像的质量。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基于深度学习的血管分割方法的流程示意图;
图2是输入图像块的示意图;
图3是标准图像块示意图;
图4是本发明中眼底血管图像分割卷积网络的结构示意图;
图5是本发明中双重残差反卷积单元的结构示意图;
图6是本发明中空间注意力模块的结构示意图;
图7是本发明中通道注意力模块的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
针对现有技术存在的问题,本发明实施例提供了一种基于CRDNet的血管图像分割方法,包括:
获取视网膜血管图像数据集;
对所述视网膜血管图像数据集进行预处理;
对预处理后的视网膜血管图像进行分块裁剪,得到样本数据;
根据所述样本数据建立初始血管分割模型;
对所述初始血管分割模型进行训练,得到目标血管分割模型;
根据所述目标血管分割模型进行血管图像分割,并对血管图像分割结果进行评价;
其中,所述初始血管分割模型采用CRDNet模型架构,所述CRDNet包括编码器和解码器;所述编码器和解码器采用双重残差反卷积模块替换连续双层卷积模块;所述编码器与解码器之间增设有集成双路注意力模块;所述集成双路注意力模块包括空间注意力模块和通道注意力模块;所述集成双路注意力模块将所述空间注意力模块和所述通道注意力模块的两个输出进行转换以及特征融合,得到自适应模块的最终输出结果。
可选地,所述对所述视网膜血管图像数据集进行预处理,包括:
提取所述视网膜血管图像中的绿色通道;
对所述绿色通道进行白化处理;
对所述白化处理后的图像进行自适应直方图均衡化处理;
对所述自适应直方图均衡化处理后的图像进行伽马变换;
将所述伽马变换后的图像的像素值进行归一化处理。
可选地,所述对预处理后的视网膜血管图像进行分块裁剪,得到样本数据,包括:
随机生成一组随机坐标;
将所述随机坐标作为中心点,对预处理后的视网膜血管图像进行分块裁剪,得到图像块内每个像素点的分类概率,进而确定样本数据。
可选地,所述编码器包括五层结构,所述编码器的每层结构包括两个卷积层和一个池化层,所述每个卷积层在处理后均执行批量归一化操作和Relu激活操作,得到最大池化层的结果作为所述编码器中每层结构的输出结果;
所述解码器包括五层结构,所述解码器的每层结构包括两个卷积层和一个上采样层,所述解码器的输出结果为经过1×1卷积处理后的特征图。
可选地,所述双重残差反卷积模块通过第一卷积核对输入图像进行处理,所述第一卷积核的大小为1×1,所述第一卷积核的步长为2;
所述双重残差反卷积模块通过第二卷积核对输入图像进行特征提取,所述第二卷积核的大小为2×2,所述第二卷积核的步长为2;
将所述特征提取得到的数据进行反卷积处理,并得到降维后的数据。
可选地,所述反卷积处理采用非对称卷积块来实现;
所述非对称卷积块包括水平卷积核、垂直卷积核和方形卷积核。
可选地,所述空间注意力模块包括三个并行的可变形卷积层,其中,前两个可变形卷积层将输入图像处理得到空间注意力图,第三个可变形卷积层的输出结果与所述空间注意力图进行矩阵相乘后,与空间注意力模块输入的特征图进行像素级求和,得到所述空间注意力模块的输出;
所述通道注意力模块将原始特征图变形成目标特征图,将所述原始特征图与该原始特征图的转置进行矩阵相乘,得到通道注意力图。
本发明实施例的第二方面提供了一种基于CRDNet的血管图像分割装置,包括:
第一模块,用于获取视网膜血管图像数据集;
第二模块,用于对所述视网膜血管图像数据集进行预处理;
第三模块,用于对预处理后的视网膜血管图像进行分块裁剪,得到样本数据;
第四模块,用于根据所述样本数据建立初始血管分割模型;
第五模块,用于对所述初始血管分割模型进行训练,得到目标血管分割模型;
第六模块,用于根据所述目标血管分割模型进行血管图像分割,并对血管图像分割结果进行评价;
其中,所述初始血管分割模型采用CRDNet模型架构,所述CRDNet包括编码器和解码器;所述编码器和解码器采用双重残差反卷积模块替换连续双层卷积模块;所述编码器与解码器之间增设有集成双路注意力模块;所述集成双路注意力模块包括空间注意力模块和通道注意力模块;所述集成双路注意力模块将所述空间注意力模块和所述通道注意力模块的两个输出进行转换以及特征融合,得到自适应模块的最终输出结果。
本发明实施例的第三方面提供了一种电子设备,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如前面所述的方法。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
下面结合说明书附图,对本发明的具体实现过程进行详细描述:
本发明的方法包含的主要操作有:图像预处理、裁剪图像块、预测图像块概率图、拼接分割结果图。对于一张完整的原始血管图像,先通过预处理增强后切分为若干个图像块,通过训练好的模型得到预测的概率图,对所有的图像块的概率图进行拼接就得到最终的血管分割图,实现血管分割任务。
为实现上述目的,如图1所示,本发明包括如下步骤:
步骤S1:获得视网膜血管分割数据集;本次发明使用得是广泛使用的DRIVE数据集,数据集包含了20张RGB彩色原图和对应的经专家手动分割的二值标准图。
步骤S2:对视网膜血管图像进行预处理,使得视网膜血管图像整体对比度得到增强,使得数据输入模型能更好的拟合血管图像数据,从而实现更好的分割效果;
步骤S2具体包括S2.1-S2.5:
步骤S2.1:提取原始RGB图像的绿色通道。视网膜血管图像中的红色和蓝色通道存在亮度较高和较低的问题,且对比度低,反映出血管信息较少,而绿色通道的整体亮度和对比度比较适中。可以对血管图像提取绿色通道图像,从而减少算法处理的数据量和冗余的信息。
步骤S2.2:对绿色通道进行白化处理,白化处理可以解决外部环境亮度、物体反射等因素对图像的影响。经过白化处理后,血管图像可以得到比较明显的灰度拉伸。将按照以下公式对图像进行白化处理:
步骤S2.3:自适应直方图均衡化处理,该操作将原图像的灰度直方图进行了一定的拉伸,提高了对比度。传统的直方图操作(HE)容易出现过度增强的问题,部分血管信息容易出现丢失的现象。该操作能增强血管图像局部对比度来获取更多血管细节信息,同时也限制了局部较亮或较暗区域,防止了直方图均衡化操作出现信息丢失的情况。
步骤S2.4:对血管图像进行伽马变换,使处理后的血管图像的灰度值与处理前图像的灰度值之间呈现非线性指数关系,实现灰度拉伸。
伽马变换公式如下:
Iout=aIin y
其中,Iin为图像的输入值,输入灰度级取0到255,并对输入输出灰度级都做归一化为0到1之间。Iout为经过伽马变换后的灰度输出值。a为灰度缩放系数,通常取1。γ为伽马因子大小。控制了整个变换的缩放程度。当γ较小时,图像的整体亮度得到非线性提高,当γ较大时,图像的整体亮度会被非线性降低。
步骤S2.5:归一化图像像素值在0到1之间。
步骤S3:对预处理后的视网膜血管图像进行分块裁剪,达到数据扩充的目的,解决样本不足的问题;相比于传统unet的图像分块方法,本发明设计的裁剪方法最终输出的是整个图像块内每个像素点的分类概率,而不是中心点的概率;同时,图像块的数量以及每次训练模型采用的样本数量具有很高的可控性的优点,从而大大降低了对计算机硬件的要求。对于训练集,裁剪时生成一组随机坐标,以这些坐标作为中心点,裁剪大小为48×48的图像块,图2和图3为输入图像块示意图以及对应的标准图像块示意图,从而得到大量的样本数据用于训练分割模型;
步骤S4:建立血管分割模型CRDNet,不同于经典U-Net的连续双层3*3卷积,CRDNet将上述编码器和解码器的连续双层卷积替换为了本发明提出的双重残差反卷积模块,增加了网络的深度并强化了特征提取。同时在编码器第五层的输出与解码器特征输入端相连部位增加了集成双路注意力模块,该模块由空间注意力模块和通道注意力模块组成,空间注意力模块用于学习特征的空间依赖性,通道注意力模块则用来学习通道之间的内部关联性。在局部特征上建立了丰富的上下文依赖关系,从而抑制不必要的特征,提高视网膜血管分割的准确性和应用泛化性能,进而提高对血管成像的质量。集成双路注意力模块将空间和位置注意模块的两个输出通过卷积层进行转换并进行特征融合作为自适应模块最终输出的结果。
具体地,图4是CRDNet的网络结构示意图。本发明所提出的卷积神经网络的结构借鉴了Unet网络,采用U型架构,总体结构由一个编码器、一个解码器构成。网络共10层,编码器总共有五层结构,均由两个卷积层和一个池化层组成。并且在每个卷积层后,执行批量归一化操作和Relu激活函数。将其最大池化层的结果作为该层结构的输出结果。解码器同编码器一样是五层结构,每层的结构均为两个卷积层和一个上采样操作,最终经过1*1卷积层得到最终的输出特征图。
不同于经典U-Net的连续双层3*3卷积,CRDNet将上述编码器和解码器的连续双层卷积替换为了本发明提出的双重残差反卷积模块,增加了网络的深度并强化了特征提取。同时在编码器第五层的输出与解码器特征输入端相连部位增加了集成双路注意力模块,该模块由空间注意力模块和通道注意力模块组成,空间注意力模块用于学习特征的空间依赖性,通道注意力模块则用来学习通道之间的内部关联性。在局部特征上建立了丰富的上下文依赖关系,从而抑制不必要的特征,提高视网膜血管分割的准确性和应用泛化性能,进而提高对血管成像的质量。集成双路注意力模块将空间和位置注意模块的两个输出通过卷积层进行转换并进行特征融合作为自适应模块最终输出的结果。
双重残差反卷积模块如图5所示,输入图像先经过一个卷积核大小为1*1,步长为2的卷积核将输入通道减半,再经过一个卷积核大小为2*2,,步长为2的反卷积来提取输入图像的特征,并且会将输入图像的维度提高,这时候再使用卷积操作来进一步提取反卷积操作得到的特征,并将数据维度降为输入的维度。不同于当前许多网络模型将卷积与反卷积之间的间隔完全分开,本发明的反卷积分割单元更倾向于将卷积与反卷积之间的距离缩短,因为较长的传播距离会使得一部分细节特征在传递过程中被筛选掉,短距离传播能保证卷积和反卷积之间有较丰富的特征保留。同时,卷积用于降低维度,反卷积用于恢复维度,这样的设计满足了本发明对分割单元输入输出维度一致性的要求。
除此之外,反卷积后的卷积操作利用了非对称卷积核代替以往的方形卷积核,从而提高模型的鲁棒性。除了上述流程设计外,还引入残差网络的结构。在输入和两个非对称卷积块之间分别引入两个跳跃连接。
非对称卷积块包含了水平卷积核、垂直卷积核和方形卷积核,也就是说该模块可以比方形卷积核处理更多种图像模式,说明增强卷积核的骨架部分有助于提高模型关于图像旋转、翻转等变形方面的鲁棒性。非对称卷积块包含三个并行分支,每个分支对应的卷积核大小为3*3,1*3,3*1。在对应的卷积操作后,进行批量归一化来获得特征图作为分支结果。再将三个分支结果加起来,即将特征图中的对应值相加,其结果为非对称卷积块的输出。训练完成后,对该模型的参数进行分支融合,才能使用原始模型来进行测试,原始模型为采用正常卷积操作的模型。分支融合的操作相当于将三个卷积核的对应值相加,进而获得了一种十字骨架形的卷积核,来替代原标准方形卷积核,所以训练好的参数可以融合成原结构的形式,不增加推理时间。
位置注意力模块结构示意图如图6所示,输入大小为CxHxW的原始特征图,先将其变形成大小为CxN的特征图,接着将原始特征图与原始特征图的转置进行矩阵乘法,最终得到通道注意力图来描述通道之间的依赖关系。之后对通道注意力图的转置和原始特征图进行一次矩阵乘法得到的结果进行变形,然后乘上一个注意力因子,注意力因子初始化为0并且会随着网络逐渐学习,然后与原始特征图进行像素级相加操作的结果作为位置注意力模块的输出。
空间注意力模块结构示意图如图7所示,包括三个并行的可变形卷积层,以适应不同尺寸的分割目标,相较于标准卷积,可变形卷积是在常规网格采样位置上增加了2D偏移量,使采样网格可以自由变形。输入大小为CxHxW的原始特征图输入空间注意力模块后,该特征图通过上面两个可变形卷积层卷积生成一个空间注意力图,再与第三个可变形卷积层的输出进行矩阵乘法,得到的结果与空间注意力模块输入的特征图进行像素级求和,并将像素级求和的结果作为空间注意力模块的输出。
步骤S5:建立好卷积神经网络后,进行血管分割模型的训练。
具体地,模型训练的过程是一次前向传播与一次反向传播的交替循环,前向传播将输入图像块进行逐层特征提取,在输出层进行softmax函数激活输出两类的概率图,与真实的概率图进行损失计算,损失函数采用的是加权交叉熵函数。相比于其它损失函数,交叉熵损失函数在训练结果接近真实值的情况下依然能够保持相对较好的收敛速度。通过交叉熵损失函数计算得到损失值后通过反向传播算法逐层更新参数,便完成了一次训练。模型经过100次迭代训练后保存模型参数。
所述待训练模型的加权交叉熵损失函数的表达式为:
其中,Pe为期望的概率分布,Pr为实际的概率分布。
步骤S6:血管分割模型训练完成后,根据评价指标对血管分割结果进行评价。
具体地,评价指标包括重叠度(IOU)、精密度(Precision)、查全率(Recall)和加权调和均值(F-Measure)。公式如下:
Target是样本标注图像的目标对象的像素点,Prediction是预测分割图像的目标对象的像素点。
其中,TP是正样本预测为真的目标对象的像素点,FP是负样本预测为真的目标对象的像素点。
其中,TP是正样本预测为真的目标对象的像素点,FN是正样本预测为假的目标对象的像素点。
本发明所提供的基于深度学习的血管分割方法的主要优点包括:
1.本发明设计的裁剪方法最终输出的是整个图像块内每个像素点的分类概率,而不是中心点的概率;同时,图像块的数量以及每次训练模型采用的样本数量具有很高的可控性的优点,从而大大降低了对计算机硬件的要求。
2.本发明设计了一套有效的图像预处理算法,充分利用视网膜血管的结构特性和优化网络结构的方式,有效提高血管分割精确度。
3.本发明所提出的卷积神经网络架构中,设计了一种双重残差反卷积模块,增加了网络的深度并强化了特征提取。同时在编码器第五层的输出与解码器特征输入端相连部位增加了集成双路注意力模块,既学习了通道之间的内部关联性,也在在局部特征上建立了丰富的上下文依赖关系,从而抑制不必要的特征,提高视网膜血管分割的准确性和应用泛化性能,进而提高对血管成像的质量。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.基于CRDNet的血管图像分割方法,其特征在于,包括:
获取视网膜血管图像数据集;
对所述视网膜血管图像数据集进行预处理;
对预处理后的视网膜血管图像进行分块裁剪,得到样本数据;
根据所述样本数据建立初始血管分割模型;
对所述初始血管分割模型进行训练,得到目标血管分割模型;
根据所述目标血管分割模型进行血管图像分割,并对血管图像分割结果进行评价;
其中,所述初始血管分割模型采用CRDNet模型架构,所述CRDNet包括编码器和解码器;所述编码器和解码器采用双重残差反卷积模块替换连续双层卷积模块;所述编码器与解码器之间增设有集成双路注意力模块;所述集成双路注意力模块包括空间注意力模块和通道注意力模块;所述集成双路注意力模块将所述空间注意力模块和所述通道注意力模块的两个输出进行转换以及特征融合,得到自适应模块的最终输出结果。
2.根据权利要求1所述的基于CRDNet的血管图像分割方法,其特征在于,所述对所述视网膜血管图像数据集进行预处理,包括:
提取所述视网膜血管图像中的绿色通道;
对所述绿色通道进行白化处理;
对所述白化处理后的图像进行自适应直方图均衡化处理;
对所述自适应直方图均衡化处理后的图像进行伽马变换;
将所述伽马变换后的图像的像素值进行归一化处理。
3.根据权利要求1所述的基于CRDNet的血管图像分割方法,其特征在于,所述对预处理后的视网膜血管图像进行分块裁剪,得到样本数据,包括:
随机生成一组随机坐标;
将所述随机坐标作为中心点,对预处理后的视网膜血管图像进行分块裁剪,得到图像块内每个像素点的分类概率,进而确定样本数据。
4.根据权利要求1所述的基于CRDNet的血管图像分割方法,其特征在于,
所述编码器包括五层结构,所述编码器的每层结构包括两个卷积层和一个池化层,所述每个卷积层在处理后均执行批量归一化操作和Relu激活操作,得到最大池化层的结果作为所述编码器中每层结构的输出结果;
所述解码器包括五层结构,所述解码器的每层结构包括两个卷积层和一个上采样层,所述解码器的输出结果为经过1×1卷积处理后的特征图。
5.根据权利要求1所述的基于CRDNet的血管图像分割方法,其特征在于,
所述双重残差反卷积模块通过第一卷积核对输入图像进行处理,所述第一卷积核的大小为1×1,所述第一卷积核的步长为2;
所述双重残差反卷积模块通过第二卷积核对输入图像进行特征提取,所述第二卷积核的大小为2×2,所述第二卷积核的步长为2;
将所述特征提取得到的数据进行反卷积处理,并得到降维后的数据。
6.根据权利要求5所述的基于CRDNet的血管图像分割方法,其特征在于,所述反卷积处理采用非对称卷积块来实现;
所述非对称卷积块包括水平卷积核、垂直卷积核和方形卷积核。
7.根据权利要求6所述的基于CRDNet的血管图像分割方法,其特征在于,
所述空间注意力模块包括三个并行的可变形卷积层,其中,前两个可变形卷积层将输入图像处理得到空间注意力图,第三个可变形卷积层的输出结果与所述空间注意力图进行矩阵相乘后,与空间注意力模块输入的特征图进行像素级求和,得到所述空间注意力模块的输出;
所述通道注意力模块将原始特征图变形成目标特征图,将所述原始特征图与该原始特征图的转置进行矩阵相乘,得到通道注意力图。
8.基于CRDNet的血管图像分割装置,其特征在于,包括:
第一模块,用于获取视网膜血管图像数据集;
第二模块,用于对所述视网膜血管图像数据集进行预处理;
第三模块,用于对预处理后的视网膜血管图像进行分块裁剪,得到样本数据;
第四模块,用于根据所述样本数据建立初始血管分割模型;
第五模块,用于对所述初始血管分割模型进行训练,得到目标血管分割模型;
第六模块,用于根据所述目标血管分割模型进行血管图像分割,并对血管图像分割结果进行评价;
其中,所述初始血管分割模型采用CRDNet模型架构,所述CRDNet包括编码器和解码器;所述编码器和解码器采用双重残差反卷积模块替换连续双层卷积模块;所述编码器与解码器之间增设有集成双路注意力模块;所述集成双路注意力模块包括空间注意力模块和通道注意力模块;所述集成双路注意力模块将所述空间注意力模块和所述通道注意力模块的两个输出进行转换以及特征融合,得到自适应模块的最终输出结果。
9.一种电子设备,其特征在于,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有程序,所述程序被处理器执行实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110534267.9A CN113205538A (zh) | 2021-05-17 | 2021-05-17 | 基于CRDNet的血管图像分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110534267.9A CN113205538A (zh) | 2021-05-17 | 2021-05-17 | 基于CRDNet的血管图像分割方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113205538A true CN113205538A (zh) | 2021-08-03 |
Family
ID=77031550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110534267.9A Pending CN113205538A (zh) | 2021-05-17 | 2021-05-17 | 基于CRDNet的血管图像分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205538A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187296A (zh) * | 2021-11-09 | 2022-03-15 | 元化智能科技(深圳)有限公司 | 胶囊内窥镜图像病灶分割方法、服务器及*** |
CN114708283A (zh) * | 2022-04-21 | 2022-07-05 | 推想医疗科技股份有限公司 | 图像目标的分割方法、装置、电子设备及存储介质 |
CN115272369A (zh) * | 2022-07-29 | 2022-11-01 | 苏州大学 | 动态聚合变换器网络及视网膜血管分割方法 |
CN115330808A (zh) * | 2022-07-18 | 2022-11-11 | 广州医科大学 | 一种分割引导的磁共振图像脊柱关键参数自动测量方法 |
CN115587967A (zh) * | 2022-09-06 | 2023-01-10 | 杭州电子科技大学 | 一种基于HA-UNet网络的眼底图像视盘检测方法 |
CN116309558A (zh) * | 2023-05-16 | 2023-06-23 | 四川大学华西医院 | 一种食管黏膜IPCLs血管区域分割方法、设备及存储介质 |
CN116309042A (zh) * | 2022-12-23 | 2023-06-23 | 南方医科大学南方医院 | 近红外光谱胸内血管显像***、方法及电子设备 |
CN116342608A (zh) * | 2023-05-30 | 2023-06-27 | 首都医科大学宣武医院 | 基于医学图像的支架贴壁性度量方法、装置、设备及介质 |
CN116580194A (zh) * | 2023-05-04 | 2023-08-11 | 山东省人工智能研究院 | 融合几何信息的软注意力网络的血管分割方法 |
CN116823842A (zh) * | 2023-06-25 | 2023-09-29 | 山东省人工智能研究院 | 融合测地线模型的双解码器网络的血管分割方法 |
CN117152124A (zh) * | 2023-10-24 | 2023-12-01 | 万里云医疗信息科技(北京)有限公司 | 针对血管分支处的微血管检测方法、装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919915A (zh) * | 2019-02-18 | 2019-06-21 | 广州视源电子科技股份有限公司 | 基于深度学习的视网膜眼底图像异常区域检测方法及设备 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
CN111882566A (zh) * | 2020-07-31 | 2020-11-03 | 华南理工大学 | 视网膜图像的血管分割方法、装置、设备及存储介质 |
CN112102283A (zh) * | 2020-09-14 | 2020-12-18 | 北京航空航天大学 | 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法 |
CN112308829A (zh) * | 2020-10-27 | 2021-02-02 | 苏州大学 | 一种适用于视网膜光学相干断层扫描图像中高反射亮斑分割的自适应网络 |
CN112767416A (zh) * | 2021-01-19 | 2021-05-07 | 中国科学技术大学 | 一种基于空间和通道双重注意力机制的眼底血管分割方法 |
-
2021
- 2021-05-17 CN CN202110534267.9A patent/CN113205538A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919915A (zh) * | 2019-02-18 | 2019-06-21 | 广州视源电子科技股份有限公司 | 基于深度学习的视网膜眼底图像异常区域检测方法及设备 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
CN111882566A (zh) * | 2020-07-31 | 2020-11-03 | 华南理工大学 | 视网膜图像的血管分割方法、装置、设备及存储介质 |
CN112102283A (zh) * | 2020-09-14 | 2020-12-18 | 北京航空航天大学 | 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法 |
CN112308829A (zh) * | 2020-10-27 | 2021-02-02 | 苏州大学 | 一种适用于视网膜光学相干断层扫描图像中高反射亮斑分割的自适应网络 |
CN112767416A (zh) * | 2021-01-19 | 2021-05-07 | 中国科学技术大学 | 一种基于空间和通道双重注意力机制的眼底血管分割方法 |
Non-Patent Citations (2)
Title |
---|
J. ZHAO, ETC.: "A New Method for Retinal Vascular Segmentation based on the GMM Algorithm", 《2019 IEEE 8TH JOINT INTERNATIONAL INFORMATION TECHNOLOGY AND ARTIFICIAL INTELLIGENCE CONFERENCE (ITAIC)》 * |
S. PENG,ETC.: "Blood Vessels Segmentation by Using CDNet", 《2018 IEEE 3RD INTERNATIONAL CONFERENCE ON IMAGE, VISION AND COMPUTING (ICIVC)》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187296B (zh) * | 2021-11-09 | 2022-12-13 | 元化智能科技(深圳)有限公司 | 胶囊内窥镜图像病灶分割方法、服务器及*** |
CN114187296A (zh) * | 2021-11-09 | 2022-03-15 | 元化智能科技(深圳)有限公司 | 胶囊内窥镜图像病灶分割方法、服务器及*** |
CN114708283A (zh) * | 2022-04-21 | 2022-07-05 | 推想医疗科技股份有限公司 | 图像目标的分割方法、装置、电子设备及存储介质 |
CN115330808A (zh) * | 2022-07-18 | 2022-11-11 | 广州医科大学 | 一种分割引导的磁共振图像脊柱关键参数自动测量方法 |
CN115330808B (zh) * | 2022-07-18 | 2023-06-20 | 广州医科大学 | 一种分割引导的磁共振图像脊柱关键参数自动测量方法 |
CN115272369A (zh) * | 2022-07-29 | 2022-11-01 | 苏州大学 | 动态聚合变换器网络及视网膜血管分割方法 |
CN115587967B (zh) * | 2022-09-06 | 2023-10-10 | 杭州电子科技大学 | 一种基于HA-UNet网络的眼底图像视盘检测方法 |
CN115587967A (zh) * | 2022-09-06 | 2023-01-10 | 杭州电子科技大学 | 一种基于HA-UNet网络的眼底图像视盘检测方法 |
CN116309042B (zh) * | 2022-12-23 | 2024-03-22 | 南方医科大学南方医院 | 近红外光谱胸内血管显像***、方法及电子设备 |
CN116309042A (zh) * | 2022-12-23 | 2023-06-23 | 南方医科大学南方医院 | 近红外光谱胸内血管显像***、方法及电子设备 |
CN116580194B (zh) * | 2023-05-04 | 2024-02-06 | 山东省人工智能研究院 | 融合几何信息的软注意力网络的血管分割方法 |
CN116580194A (zh) * | 2023-05-04 | 2023-08-11 | 山东省人工智能研究院 | 融合几何信息的软注意力网络的血管分割方法 |
CN116309558B (zh) * | 2023-05-16 | 2023-07-28 | 四川大学华西医院 | 一种食管黏膜IPCLs血管区域分割方法、设备及存储介质 |
CN116309558A (zh) * | 2023-05-16 | 2023-06-23 | 四川大学华西医院 | 一种食管黏膜IPCLs血管区域分割方法、设备及存储介质 |
CN116342608B (zh) * | 2023-05-30 | 2023-08-15 | 首都医科大学宣武医院 | 基于医学图像的支架贴壁性度量方法、装置、设备及介质 |
CN116342608A (zh) * | 2023-05-30 | 2023-06-27 | 首都医科大学宣武医院 | 基于医学图像的支架贴壁性度量方法、装置、设备及介质 |
CN116823842A (zh) * | 2023-06-25 | 2023-09-29 | 山东省人工智能研究院 | 融合测地线模型的双解码器网络的血管分割方法 |
CN116823842B (zh) * | 2023-06-25 | 2024-02-02 | 山东省人工智能研究院 | 融合测地线模型的双解码器网络的血管分割方法 |
CN117152124A (zh) * | 2023-10-24 | 2023-12-01 | 万里云医疗信息科技(北京)有限公司 | 针对血管分支处的微血管检测方法、装置及存储介质 |
CN117152124B (zh) * | 2023-10-24 | 2024-01-19 | 万里云医疗信息科技(北京)有限公司 | 针对血管分支处的微血管检测方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113205538A (zh) | 基于CRDNet的血管图像分割方法及装置 | |
WO2022047625A1 (zh) | 一种图像处理方法、***和计算机存储介质 | |
CN111815574B (zh) | 一种基于粗糙集神经网络的眼底视网膜血管图像分割方法 | |
CN113205537B (zh) | 基于深度学习的血管图像分割方法、装置、设备及介质 | |
CN107256550A (zh) | 一种基于高效cnn‑crf网络的视网膜图像分割方法 | |
CN108764342B (zh) | 一种对于眼底图中视盘和视杯的语义分割方法 | |
Li et al. | TA-Net: Triple attention network for medical image segmentation | |
CN113205524B (zh) | 基于U-Net的血管图像分割方法、装置和设备 | |
CN112258488A (zh) | 一种医疗影像病灶分割方法 | |
CN114283158A (zh) | 一种视网膜血管图像分割方法、装置及计算机设备 | |
CN113554665A (zh) | 一种血管分割方法及装置 | |
CN116681679A (zh) | 基于双分支特征融合注意的医学图像小目标分割方法 | |
CN113838067B (zh) | 肺结节的分割方法和装置、计算设备、可存储介质 | |
CN112991346B (zh) | 用于医学图像分析的学习网络的训练方法和训练*** | |
CN113012163A (zh) | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 | |
CN115546570A (zh) | 一种基于三维深度网络的血管图像分割方法及*** | |
CN114004811A (zh) | 一种基于多尺度残差编解码网络的图像分割方法及*** | |
CN115294075A (zh) | 一种基于注意力机制的octa图像视网膜血管分割方法 | |
Shan et al. | SCA-Net: A spatial and channel attention network for medical image segmentation | |
CN113344933B (zh) | 一种基于多层次特征融合网络的腺体细胞分割方法 | |
CN116664602B (zh) | 基于少样本学习的octa血管分割方法及成像方法 | |
CN116092667A (zh) | 基于多模态影像的疾病检测方法、***、装置及存储介质 | |
CN114359308A (zh) | 一种基于边缘响应与非线性损失的主动脉夹层分割方法 | |
CN113205534B (zh) | 基于U-Net++的视网膜血管分割方法和装置 | |
CN116246067B (zh) | 一种基于CoA Unet的医学图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210803 |