CN114742917B - 一种基于卷积神经网络的ct图像分割方法 - Google Patents
一种基于卷积神经网络的ct图像分割方法 Download PDFInfo
- Publication number
- CN114742917B CN114742917B CN202210442223.8A CN202210442223A CN114742917B CN 114742917 B CN114742917 B CN 114742917B CN 202210442223 A CN202210442223 A CN 202210442223A CN 114742917 B CN114742917 B CN 114742917B
- Authority
- CN
- China
- Prior art keywords
- block
- output
- convolution
- input
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 16
- 238000003709 image segmentation Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 title claims abstract description 13
- 230000011218 segmentation Effects 0.000 claims abstract description 45
- 238000006243 chemical reaction Methods 0.000 claims description 42
- 230000004044 response Effects 0.000 claims description 32
- 238000010606 normalization Methods 0.000 claims description 30
- 230000007306 turnover Effects 0.000 claims description 25
- 238000000926 separation method Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 abstract description 5
- 230000004927 fusion Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 206010028980 Neoplasm Diseases 0.000 description 4
- 208000008839 Kidney Neoplasms Diseases 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于卷积神经网络的CT图像分割方法,先利用给定的已分割的CT图像对构建的分割模型中对其进行训练,再将待分割的CT图像送入训练好的分割模型中,得到分割好的CT图像。本发明的分割模型EfficientNetV2‑UNet以由EfficientNetV2模型中的特征提取器部分作为主干网络,该主干网络中包含5个注意力机制模块(2个融合‑移动翻转卷积块和3个移动翻转卷积块)。分割模型的特征提取器部分进行特征的有效提取,且使模型更小、训练速度更快,多尺度的信息提取,细节与“较粗”抽象信息都得到有效的提取与保留,在降低了噪声的影响的同时最大限度的保留模糊边界的梯度信息,分割精度更高。
Description
技术领域
本发明涉及机器视觉技术领域,具体涉及一种基于卷积神经网络的CT 图像分割方法。
背景技术
医学图像分割是医学图像处理和分析领域的关键步骤,分割要求严谨,精确度高,并且由于医学图像自身的复杂性多样性和个体差异性等一系列问题,不同于一般的图像分割在难度上更具挑战性。虽然卷积神经网络 (Convolutional Neural Networns,CNN)作为深度学习的代表算法之一,在图像语义分割上实现了最先进的性能,对于抑制噪声、特性提取、边缘检测、图像分割等图像处理问题以及处理灰度图像上都体现了良好的效果。但是由于CT图像的特殊性,即没有显示自然图像那样清晰,边界很模糊,对比度差;噪声点相对较多,不同个体呈现出的噪声信号也不稳定;信号复杂度并不低,人体不同组织成像是完全不同的,而且绝大部分图像都是灰度图像(绝大部分彩色是伪彩,细胞类除外),灰度范围也较大。因此利用传统卷积神经网络对CT图像进行分割时,常常存在分割边界模糊的问题。
发明内容
本发明所要解决的是基于传统卷积神经网络的CT图像的分割中存在肿瘤边界模糊的问题,提供一种基于卷积神经网络的CT图像分割方法。
为解决上述问题,本发明是通过以下技术方案实现的:
一种基于卷积神经网络的CT图像分割方法,包括步骤如下:
步骤1、构建分割模型;该分割模型由2个融合-移动翻转卷积块、3个移动翻转卷积块、5个转换块、5个反卷积块、4卷积块和1个输出块组成;
第一融合-移动翻转卷积块和第一转换块的输入作为分割模型的输入;第一融合-移动翻转卷积块中的输出连接第二融合-移动翻转卷积块和第二转换块的输入;第二融合-移动翻转卷积块的输出连接第一移动翻转卷积块和第三转换块的输入;第一移动翻转卷积块的输出连接第二移动翻转卷积块和第四转换块的输入;第二移动翻转卷积块的输出连接第三移动翻转卷积块和第五转换块的输入;第三移动翻转卷积块的输出连接第一反卷积块的输入;
第一反卷积块和第五转换块的输出进行堆叠后连接第一卷积块的输入,第一卷积块的输出连接第二反卷积块的输入;第二反卷积块和第四转换块的输出进行堆叠后连接第二卷积块的输入,第二卷积块的输出连接第三反卷积块的输入;第三反卷积块和第三转换块的输出进行堆叠后连接第三卷积块的输入,第三卷积块的输出连接第四反卷积块的输入;第四反卷积块和第二转换块的输出进行堆叠后连接第四卷积块的输入,第四卷积块的输出连接第五反卷积块的输入;第五反卷积块和第一转换块的输出进行堆叠后连接输出块的输入,输出块的输出作为分割模型的输出;
步骤2、将给定的已分割的CT图像进行预处理后送入到步骤1所构建的分割模型中对其进行训练,得到训练好的分割模型;
步骤3、将待分割的CT图像进行预处理后送入到步骤2所训练好的分割模型中,得到分割好的CT图像。
上述分割模型中,融合-移动翻转卷积块由2个卷积层和1个沙漏层组成;第一个卷积层的输入作为融合-移动翻转卷积块的输入,第一个卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为融合-移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
上述分割模型中,移动翻转卷积块由2个卷积层、1个分离卷积层和1 个沙漏层组成;第一个卷积层的输入作为移动翻转卷积块的输入,第一个卷积层的输出连接分离卷积层的输入,分离卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
上述分割模型中,转换块由1个卷积层组成;该卷积层的输入作为转换块的输入,该卷积层的输出作为转换块的输出。
上述分割模型中,反卷积块由1个反卷积层组成;该反卷积层的输入作为反卷积块的输入,该反卷积层的输出作为反卷积块的输出。
上述分割模型中,卷积块由2个滤波响应标准化层和1个卷积层组成;第一个滤波响应标准化层的输入作为卷积块的输入,第一个滤波响应标准化层的输出连接卷积层的输入,卷积层的输出连接第二个滤波响应标准化层的输入,第二个滤波响应标准化层的输出作为卷积块的输出。
上述分割模型中,输出块由k+1个卷积层和k个滤波响应标准化层组成; k个卷积层和k个滤波响应标准化层交错串联,串联后的第一个卷积层的输入作为输出块的输入,串联后的最后一个滤波响应标准化层的输出连接第k+1 个卷积层的输入,第k+1个卷积层的输出作为输出块的输出;其中k为大于等于1的正整数。
与现有技术相比,本发明所提出的分割模型EfficientNetV2-UNet以由EfficientNetV2模型中的特征提取器部分作为主干网络,该主干网络中包含5 个注意力机制模块(2个融合-移动翻转卷积块和3个移动翻转卷积块)。分割模型的特征提取器部分进行特征的有效提取,且使模型更小、训练速度更快,多尺度的信息提取,细节与“较粗”抽象信息都得到有效的提取与保留,在降低了噪声的影响的同时最大限度的保留模糊边界的梯度信息,分割精度更高。
附图说明
图1为分割网络EfficientNetV2-UNet的结构示意图。
图2为融合-移动翻转卷积块的结构示意图。
图3为移动翻转卷积块的结构示意图。
图4为转换块的结构示意图。
图5是反卷积块的结构示意图。
图6为卷积块的结构示意图。
图7是输出块的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,对本发明进一步详细说明。
一种基于卷积神经网络的CT图像分割方法,包括步骤如下:
步骤1、构建分割模型。
上述分割模型EfficientNetV2-UNet如图1所示,由2个融合-移动翻转卷积块、3个移动翻转卷积块、5个转换块、5个反卷积块、4卷积块和1个输出块组成。第一融合-移动翻转卷积块和第一转换块的输入作为分割模型的输入;第一融合-移动翻转卷积块中的输出连接第二融合-移动翻转卷积块和第二转换块的输入;第二融合-移动翻转卷积块的输出连接第一移动翻转卷积块和第三转换块的输入;第一移动翻转卷积块的输出连接第二移动翻转卷积块和第四转换块的输入;第二移动翻转卷积块的输出连接第三移动翻转卷积块和第五转换块的输入;第三移动翻转卷积块的输出连接第一反卷积块的输入。第一反卷积块和第五转换块的输出进行堆叠即特征融合后连接第一卷积块的输入,第一卷积块的输出连接第二反卷积块的输入;第二反卷积块和第四转换块的输出进行堆叠即特征融合后连接第二卷积块的输入,第二卷积块的输出连接第三反卷积块的输入;第三反卷积块和第三转换块的输出进行堆叠即特征融合后连接第三卷积块的输入,第三卷积块的输出连接第四反卷积块的输入;第四反卷积块和第二转换块的输出进行堆叠即特征融合后连接第四卷积块的输入,第四卷积块的输出连接第五反卷积块的输入;第五反卷积块和第一转换块的输出进行堆叠即特征融合后连接输出块的输入,输出块的输出作为分割模型的输出。
参见图2,融合-移动翻转卷积块由2个卷积层和1个沙漏层组成;第一个卷积层的输入作为融合-移动翻转卷积块的输入,第一个卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为融合-移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
参见图3,移动翻转卷积块由2个卷积层、1个分离卷积层和1个沙漏层组成。第一个卷积层的输入作为移动翻转卷积块的输入,第一个卷积层的输出连接分离卷积层的输入,分离卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
参见图4,转换块由1个卷积层组成。该卷积层的输入作为转换块的输入,该卷积层的输出作为转换块的输出。
参见图5,反卷积块由1个反卷积层组成。该反卷积层的输入作为反卷积块的输入,该反卷积层的输出作为反卷积块的输出。
参见图6,卷积块由2个滤波响应标准化层和1个卷积层组成。第一个滤波响应标准化层的输入作为卷积块的输入,第一个滤波响应标准化层的输出连接卷积层的输入,卷积层的输出连接第二个滤波响应标准化层的输入,第二个滤波响应标准化层的输出作为卷积块的输出。
参见图7,输出块由n+1个卷积层和n个滤波响应标准化层组成。n为大于等于1的正整数,在本实施例中,n=3。n个卷积层和n个滤波响应标准化层交错串联,串联后的第一个卷积层的输入作为输出块的输入,串联后的最后一个滤波响应标准化层的输出连接第n+1个卷积层的输入,第n+1个卷积层的输出作为输出块的输出。
步骤2、将给定的已分割的CT图像进行预处理后送入到步骤1所构建的分割模型中对其进行训练,得到训练好的分割模型。
在本实施例中选用2019年肾脏肿瘤分割挑战赛(KiTS19)官网提供的 210例病人肾脏肿瘤的术前CT扫描图像作为训练数据集来对分割模型进行训练。
步骤2.1、预处理时对CT扫描图像进行特征区域提取,只保留图像中含有肿瘤部分的切片,并规范化图像大小,统一定为128×128。
步骤2.2、将处理好的128×128×1的图像输入到分割模型中分两路进行:分支一、128×128×1的图像输入第一融合-移动翻转卷积块,在第一融合- 移动翻转卷积块中经由3×3×16的卷积层、沙漏层、以及1×1×16卷积层,输出64×64×1 6的图像;分支二、128×128×1的图像通过转换块由3×3 ×64的卷积层,输出128×128×64的图像。
步骤2.3、步骤2.2的分支一输出的64×64×16的图像又分两路进行:分支一、64×64×16的图像输入第二融合-移动翻转卷积块,在第二融合-移动翻转卷积块中同样经由3×3×32的卷积层、沙漏层、以及1×1×32卷积层,输出32×32×32的图像;分支二、64×64×16的图像通过转换块由3 ×3×128的卷积层,输出64×64×128的图像。
步骤2.4、步骤2.3的分支一输出的32×32×32的图像又分两路进行:分支一:32×32×32的图像输入第一移动翻转卷积块,在第一移动翻转卷积块中经由1×1×192的卷积层、3×3×192的分离卷积层、沙漏块、以及1 ×1×192的卷积层,输出16×16×192的图像;分支二:32×32×32的图像通过转换块由3×3×192的卷积层,输出32×32×192的图像。
步骤2.5、步骤2.4的分支一输出的16×16×192的图像又分两路进行:分支一:16×16×192的图像输入第二移动翻转卷积块,在第二移动翻转卷积块中同样经由1×1×672的卷积层、3×3×672的分离卷积层、沙漏层、以及1×1×672的卷积层,输出8×8×672的图像;分支二:16×16×192 的图像通过转换块由3×3×256的卷积层,输出16×16×256的图像。
步骤2.6、步骤2.5的分支一输出的8×8×672的图像又分两路进行:分支一:8×8×672的图像输入第三个移动翻转卷积块,在第三个移动翻转卷积块中同样经由1×1×1280的卷积层、3×3×1280的分离卷积、沙漏层、以及1×1×1280,输出4×4×1280的图像;分支二:8×8×256的图像通过转换块由3×3×512的卷积层,输出8×8×512的图像。
步骤2.7、步骤2.6的分支一输出的4×4×1280的图像通过反卷积块由3 ×3×512反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出8 ×8×512的图像。8×8×512的图像,步骤2.6的分支二输出的8×8×512 的图像进行通道叠加的特征融合操作,输出8×8×1024的图像。8×8×1024 的图像送入卷积块中,在卷积块中先由滤波响应标准化层进行标准化操作,再经过3×3×512的卷积层,后经过滤波响应标准化层,输出8×8×512的图像。
步骤2.8、步骤2.7输出的8×8×512的图像通过反卷积块由3×3×256 反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出16×16×256 的图像。16×16×256的图像与步骤2.5的分支二输出的16×16×256的图像进行通道叠加的特征融合操作,输出16×16×512的图像。16×16×512的图像送入卷积块中,在卷积块中先由卷积块滤波响应标准化层进行标准化操作,再经过3×3×256的卷积层,后经过滤波相应标准化层输出16×16×256 的图像。
步骤2.9、步骤2.8输出的16×16×256的图像通过反卷积块由3×3×192 反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出32×32×192 的图像。32×32×192的图像与步骤2.4的分支二输出的32×32×192的图像进行通道叠加的特征融合操作,输出32×32×384的图像。32×32×384的图像送入卷积块中,在卷积块中先由卷积块的滤波响应标准化进行标准化操作,再经过3×3×192的卷积层,后经过滤波响应标准化层输出32×32×192 的图像。
步骤2.10、步骤2.9输出的32×32×192的图像通过反卷积块由3×3×128反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出64×64 ×128的图像。64×64×128的图像与步骤2.3的分支二输出的64×64×128 图像进行通道叠加的特征融合操作,输出64×64×256的图像。64×64×256 的图像送入卷积块中,在卷积块中先由滤波响应标准化层进行标准化操作,再经过3×3×128的卷积操作,后经过滤波响应标准化层输出64×64×128 的图像。
步骤2.11、步骤2.10输出的64×64×128的图像通过反卷积块由3×3 ×64反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出128× 128×64的图像。128×128×64的图像与步骤2.2的分支二输出的128×128 ×64的图像进行通道叠加的特征融合操作,输出128×128×128的图像。128 ×128×128的图像送入输入块中,在输入块中经过3×3×64的卷积层和滤波响应标准化层的3次重复后,经过1×1×1的卷积层,输出最终128×128 ×1的分割图像。
步骤3、将待分割的CT图像进行预处理后送入到步骤2所训练好的分割模型中,得到分割好的CT图像。
将肾脏肿瘤原CT图像作为测试集、医生手工分割后的标签图像作为验证集输入训练好的模型中进行肿瘤分割实验,三折交叉验证方法下的肿瘤分割相似度系数Dice如下表所示:
由结果显示,EfficientNetV2-UNet模型分割后的相似度系数Dice为0.9445,达到了良好的分割要求,且跟其他网络模型的对比,性能更优。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施方式,均视为在本发明的保护之内。
Claims (5)
1.一种基于卷积神经网络的CT图像分割方法,其特征是,包括步骤如下:
步骤1、构建分割模型;该分割模型由2个融合-移动翻转卷积块、3个移动翻转卷积块、5个转换块、5个反卷积块、4卷积块和1个输出块组成;
融合-移动翻转卷积块由2个卷积层和1个沙漏层组成;第一个卷积层的输入作为融合-移动翻转卷积块的输入,第一个卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为融合-移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连;
移动翻转卷积块由2个卷积层、1个分离卷积层和1个沙漏层组成;第一个卷积层的输入作为移动翻转卷积块的输入,第一个卷积层的输出连接分离卷积层的输入,分离卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连;
第一融合-移动翻转卷积块和第一转换块的输入作为分割模型的输入;第一融合-移动翻转卷积块中的输出连接第二融合-移动翻转卷积块和第二转换块的输入;第二融合-移动翻转卷积块的输出连接第一移动翻转卷积块和第三转换块的输入;第一移动翻转卷积块的输出连接第二移动翻转卷积块和第四转换块的输入;第二移动翻转卷积块的输出连接第三移动翻转卷积块和第五转换块的输入;第三移动翻转卷积块的输出连接第一反卷积块的输入;
第一反卷积块和第五转换块的输出进行堆叠后连接第一卷积块的输入,第一卷积块的输出连接第二反卷积块的输入;第二反卷积块和第四转换块的输出进行堆叠后连接第二卷积块的输入,第二卷积块的输出连接第三反卷积块的输入;第三反卷积块和第三转换块的输出进行堆叠后连接第三卷积块的输入,第三卷积块的输出连接第四反卷积块的输入;第四反卷积块和第二转换块的输出进行堆叠后连接第四卷积块的输入,第四卷积块的输出连接第五反卷积块的输入;第五反卷积块和第一转换块的输出进行堆叠后连接输出块的输入,输出块的输出作为分割模型的输出;
步骤2、将给定的已分割的CT图像进行预处理后送入到步骤1所构建的分割模型中对其进行训练,得到训练好的分割模型;
步骤3、将待分割的CT图像进行预处理后送入到步骤2所训练好的分割模型中,得到分割好的CT图像。
2.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,转换块由1个卷积层组成;该卷积层的输入作为转换块的输入,该卷积层的输出作为转换块的输出。
3.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,反卷积块由1个反卷积层组成;该反卷积层的输入作为反卷积块的输入,该反卷积层的输出作为反卷积块的输出。
4.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,卷积块由2个滤波响应标准化层和1个卷积层组成;第一个滤波响应标准化层的输入作为卷积块的输入,第一个滤波响应标准化层的输出连接卷积层的输入,卷积层的输出连接第二个滤波响应标准化层的输入,第二个滤波响应标准化层的输出作为卷积块的输出。
5.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,输出块由k+1个卷积层和k个滤波响应标准化层组成;k个卷积层和k个滤波响应标准化层交错串联,串联后的第一个卷积层的输入作为输出块的输入,串联后的最后一个滤波响应标准化层的输出连接第k+1个卷积层的输入,第k+1个卷积层的输出作为输出块的输出;其中k为大于等于1的正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210442223.8A CN114742917B (zh) | 2022-04-25 | 2022-04-25 | 一种基于卷积神经网络的ct图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210442223.8A CN114742917B (zh) | 2022-04-25 | 2022-04-25 | 一种基于卷积神经网络的ct图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114742917A CN114742917A (zh) | 2022-07-12 |
CN114742917B true CN114742917B (zh) | 2024-04-26 |
Family
ID=82284197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210442223.8A Active CN114742917B (zh) | 2022-04-25 | 2022-04-25 | 一种基于卷积神经网络的ct图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114742917B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
WO2020001217A1 (zh) * | 2018-06-27 | 2020-01-02 | 东南大学 | 一种基于卷积神经网络的ct图像中带夹层主动脉分割方法 |
JP2020027659A (ja) * | 2018-08-10 | 2020-02-20 | ネイバー コーポレーションNAVER Corporation | 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 |
WO2020168820A1 (zh) * | 2019-02-22 | 2020-08-27 | 中国石油大学(华东) | 一种基于yolo卷积神经网络的胆石病ct医疗图像数据增强方法 |
CN111709947A (zh) * | 2020-04-24 | 2020-09-25 | 浙江科技学院 | 一种双流沟通和全局信息引导的显著物体图像检测方法 |
WO2021114105A1 (zh) * | 2019-12-09 | 2021-06-17 | 深圳先进技术研究院 | 低剂量ct图像去噪网络的训练方法及*** |
CN113192073A (zh) * | 2021-04-06 | 2021-07-30 | 浙江科技学院 | 基于交叉融合网络的服装语义分割方法 |
CN113469961A (zh) * | 2021-06-24 | 2021-10-01 | 浙江大学医学院附属第一医院 | 一种基于神经网络的腕管图像分割方法及*** |
CN113989271A (zh) * | 2021-11-25 | 2022-01-28 | 江苏科技大学 | 基于双注意力机制和U-net网络的漆面图像分割***及方法 |
CN114140390A (zh) * | 2021-11-02 | 2022-03-04 | 广州大学 | 一种基于半监督语义分割的裂纹检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493347B (zh) * | 2017-09-12 | 2021-03-23 | 深圳科亚医疗科技有限公司 | 在图像中对稀疏分布的对象进行分割的方法和*** |
-
2022
- 2022-04-25 CN CN202210442223.8A patent/CN114742917B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
WO2020001217A1 (zh) * | 2018-06-27 | 2020-01-02 | 东南大学 | 一种基于卷积神经网络的ct图像中带夹层主动脉分割方法 |
JP2020027659A (ja) * | 2018-08-10 | 2020-02-20 | ネイバー コーポレーションNAVER Corporation | 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 |
WO2020168820A1 (zh) * | 2019-02-22 | 2020-08-27 | 中国石油大学(华东) | 一种基于yolo卷积神经网络的胆石病ct医疗图像数据增强方法 |
WO2021114105A1 (zh) * | 2019-12-09 | 2021-06-17 | 深圳先进技术研究院 | 低剂量ct图像去噪网络的训练方法及*** |
CN111709947A (zh) * | 2020-04-24 | 2020-09-25 | 浙江科技学院 | 一种双流沟通和全局信息引导的显著物体图像检测方法 |
CN113192073A (zh) * | 2021-04-06 | 2021-07-30 | 浙江科技学院 | 基于交叉融合网络的服装语义分割方法 |
CN113469961A (zh) * | 2021-06-24 | 2021-10-01 | 浙江大学医学院附属第一医院 | 一种基于神经网络的腕管图像分割方法及*** |
CN114140390A (zh) * | 2021-11-02 | 2022-03-04 | 广州大学 | 一种基于半监督语义分割的裂纹检测方法及装置 |
CN113989271A (zh) * | 2021-11-25 | 2022-01-28 | 江苏科技大学 | 基于双注意力机制和U-net网络的漆面图像分割***及方法 |
Non-Patent Citations (2)
Title |
---|
一种改进FCN的肝脏肿瘤CT图像分割方法;段杰;崔志明;沈艺;冯威;吴宏杰;冯雨晴;;图学学报;20200215(01);全文 * |
基于深度学习的脊柱CT图像分割;刘忠利;陈光;单志勇;蒋学芹;;计算机应用与软件;20181012(10);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114742917A (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097554A (zh) | 基于密集卷积和深度可分离卷积的视网膜血管分割方法 | |
CN112258488A (zh) | 一种医疗影像病灶分割方法 | |
CN109949309A (zh) | 一种基于深度学习的肝脏ct图像分割方法 | |
CN110969124A (zh) | 基于轻量级多分支网络的二维人体姿态估计方法及*** | |
CN110223304B (zh) | 一种基于多路径聚合的图像分割方法、装置和计算机可读存储介质 | |
CN113658201B (zh) | 基于增强型多尺度特征的深度学习结直肠癌息肉分割装置 | |
CN112598759B (zh) | 抑制低剂量ct图像中伪影噪声的多尺度特征生成对抗网络 | |
CN110674824A (zh) | 基于R2U-Net的手指静脉分割方法、装置和存储介质 | |
CN112598650A (zh) | 眼底医学影像中视杯视盘的联合分割方法 | |
CN116563252A (zh) | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 | |
CN112070767A (zh) | 一种基于生成式对抗网络的显微图像中微血管分割方法 | |
CN112767406A (zh) | 一种适用于荧光染色裂隙灯图像角膜溃疡分割的深度卷积神经网络 | |
CN114998303A (zh) | 特征提取能力强的小肠间质瘤检测方法 | |
CN111489291A (zh) | 一种基于网络级联的医学图像超分辨率重建方法 | |
CN110826565A (zh) | 基于跨连接的卷积神经网络齿痕舌象分类方法及*** | |
CN114742917B (zh) | 一种基于卷积神经网络的ct图像分割方法 | |
CN116935051B (zh) | 一种息肉分割网络方法、***、电子设备及存储介质 | |
CN117593317A (zh) | 基于多尺度膨胀卷积残差网络的视网膜血管图像分割方法 | |
CN115797179A (zh) | 一种街景中文文本图像超分辨率重建方法 | |
CN115760875A (zh) | 一种基于自监督学习的全视野医学图片区域分割方法 | |
CN112634224B (zh) | 基于目标影像的病灶检测方法和装置 | |
Samanta et al. | Context aggregation network for semantic labeling in histopathology images | |
CN115205923A (zh) | 基于宏表情状态迁移和混合注意力约束的微表情识别方法 | |
CN114418949A (zh) | 基于三维u型网络与通道注意力的肺结节检测方法 | |
Ru et al. | A dermoscopic image segmentation algorithm based on U-shaped architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |