CN116452618A - 一种三输入脊柱ct图像分割方法 - Google Patents
一种三输入脊柱ct图像分割方法 Download PDFInfo
- Publication number
- CN116452618A CN116452618A CN202310338594.6A CN202310338594A CN116452618A CN 116452618 A CN116452618 A CN 116452618A CN 202310338594 A CN202310338594 A CN 202310338594A CN 116452618 A CN116452618 A CN 116452618A
- Authority
- CN
- China
- Prior art keywords
- spine
- slices
- input
- slice
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000003709 image segmentation Methods 0.000 title claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000002679 ablation Methods 0.000 claims abstract description 6
- 238000002474 experimental method Methods 0.000 claims abstract description 6
- 230000002146 bilateral effect Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 abstract description 16
- 230000000694 effects Effects 0.000 abstract description 2
- 238000002591 computed tomography Methods 0.000 description 14
- 238000003745 diagnosis Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及医学图像分割领域,具体为一种三输入脊柱CT图像分割方法;具体步骤如下:首先,将三维脊柱CT图像转换成二维脊柱切片并重新命名,再对二维切片进行尺寸和通道数的调整;其次,对二维切片采用双边滤波和归一化的数据预处理操作;再次,改进U‑Net网络模型,将单输入变为三输入,三输入为三张连续的脊柱切片,对每张切片的编码器权值共享;然后在U‑Net网络的基础上再结合多尺度特征特征提取模块和注意力模块,多尺度特征提取模块用于增加全局特征提取能力,注意力模块用于关注片内信息的关联性;最后通过消融实验,得出网络最优模型。该方法通过输入三张连续的脊柱切片,优化二维分割模型中脊柱边缘提取能力弱导致分割效果不好,准确率低等问题。
Description
技术领域:
本发明涉及医学图像分割领域,具体为一种三输入脊柱CT图像分割方法。
背景技术:
最初的医学图像分析是通过一些算子对图像前景器官进行数学建模的方式来构建基于人为指定规则的***来解决具体医学任务的医学图像分割技术。到90年代末,在医学图像分析领域中,机器学习用于计算机辅助检测和诊断引起了广泛关注。在脊柱CT图像中,椎骨结构往往以低灰度的形式存在,边界轮廓具有高度复杂的型变性且脊柱形状复杂,近邻结构相似,椎骨之间以及椎骨与周围组织的空间相互关系,使得椎骨的自动分割困难极大。
传统的脊柱CT图像分割算法替代人工手动分割,实现了脊柱CT图像的自动分割,但是过度依赖医生利用手动标注去定义和选择图像的特征,医生的主观因素会对诊断结果造成极大的影响,错选或漏选有效的特征会让分割结果失去可靠性,不仅不能辅助医生诊断,还会对后续治疗方案的提出造成误导。因此,在提高边缘提取能力的基础上实现快速准确的脊柱图像自动分割具有重要的临床意义。
发明内容:
本发明旨在针对目前存在的二维分割模型中对脊柱图像边缘提取能力弱,导致分割效果不好,准确率低等问题,提出了一种三输入脊柱CT图像分割方法,模拟医生通过观察连续的切片来判断病症,增强片内信息的利用率,提高提高边缘提取能力。
为实现上述目的,本发明提出一种三输入脊柱CT图像分割方法,包括以下步骤:
步骤1:将三维脊柱CT图像转换成二维脊柱切片,进行重新命名和尺寸调整;
步骤2:对二维脊柱切片进行数据预处理;
步骤3:以U-Net网络模型为基线网络,将其单输入变为三张连续脊柱切片,即三输入网络构架,为本发明的DD-Net网络框架;
步骤4:在DD-Net的编码端结合多尺度特征特征提取模块,用于增加全局特征提取能力;
步骤5:在DD-Net的解码端融入注意力模块,即为本发明的AT模块;
步骤6:通过消融实验,得出网络最优模型;
优选的,在步骤1中,切片重新命名以verse_img_的格式来命名,表示第几位病人的第几张切片,再对二维切片进行筛选,将二维脊柱切片的开头和结尾中一些无像素点的切片进行剔除,使得每位病人的三维脊柱图像所保存的切片数为500张,最后将二维脊柱切片的尺寸统一调整为256×256,通道数改为1;
优选的,在步骤2中,数据预处理包含将处理完后的80位病人切片按8:1:1的比例划分训练集、验证集和测试集,使用双边滤波方法增强切片对比度,进行归一化操作,提高数据指标间的可比性;
优选的,在步骤3中,DD-Net网络框架将单输入变为三张连续的脊柱切片,DD-Net网络中有三个分支,每个分支的编码侧由多尺度特征提取模块和池化层组成,解码侧由上采样和注意力模块组成,每张切片所要提取的特征内容是相同的,对三张输入切片的编码器权值共享;
优选的,在步骤3中,对连续三张切片进行命名,中间切片为当前处理切片命名archslice,进入DD-Net网络中的第二分支,做图像分割处理,前后相邻的切片命名preslice和subslice,进入第一和第三分支,在编码侧对archslice做特征融合处理,在解码侧对archslice生成注意力权重图,即为本发明的AT模块;
优选的,在步骤3中,在编码侧对archslice做特征融合,是在下采样时避免细节丢失将前后相邻的切片preslice和subslice的高层特征图与中间切片archslice进行拼接融合。
优选的,在步骤4中,添加的多尺度特征提取模块为Inception V2模块;
优选的,在步骤5中,在解码侧融入注意力模块,即为本发明改进的AT模块,该模块利用相邻切片生成带有特征权重的注意力特征图来突出边界特征;
优选的,在步骤6中,通过消融实验,在DD-Net网络中加入Inception V2模块和发明的AT模块,获得网络最优模型。
相对于现有技术,本发明具有以下有益效果:
本发明提供一种三输入脊柱CT图像分割方法,与传统的脊柱分割方法相比较,传统的分割方法是对单张图片进行分割处理,本发明采用的分割方法是将单输入增加到三输入,利用前后相邻的切片信息来提高边缘提取能力。
附图说明
图1为本发明实施例中一种三输入脊柱CT图像分割方法流程图;
图2为本发明实施例中DD-Net网络框架图;
图3为本发明实施例中Inception V2模块;
图4为本发明实施例中AT模块。
具体实施方式
下面对本发明作进一步详细说明。
为使本发明的目的、技术方案和优点更加清晰,下面通过附图中的具体实例来描述本发明。但是应该理解,这些描述只是示例性的,并非要限制本发明的范围。在此,还需要说明的是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出与本发明的方案密切相关的结构和处理步骤,而省略与本发明关系不大的其他细节。
如图1所示,本发明具体实施方案包括以下步骤:
步骤1:将三维脊柱CT图像转换成二维脊柱切片,进行重新命名和尺寸调整。本发明的数据集为MICCAI VerSe2020数据集,是2020年医学图像计算和计算机辅助干预国际会议主办的椎体标记和分割挑战的公开数据,VerSe2020包括来自300名受试者的带注释的脊柱计算机断层扫描(CT)图像,其中4142个完全可视化和带注释的椎骨,从四个不同扫描仪制造商的多个中心收集,丰富的表现出解剖变异的病例。元数据包括椎骨标记信息、通过人机混合算法获得的体素级分割掩模和解剖评级。本文选用其中的80例数据作为实验数据,将三维数据转化为二维切片数据,重新以verse_img_的格式来命名,表示第几位病人的第几张切片,为减少图像中无像素点椎骨切片对图像分割造成影响,将二维脊柱切片的开头和结尾切片中一些无像素点的切片进行剔除,使得每位病人的三维脊柱CT图像所保存的切片数为500张,最后将二维脊柱切片的尺寸统一调整为256×256,通道数改为1。
步骤2:对二维脊柱切片进行数据预理,并完成数据集的划分。所述的数据预处理包含将处理完后的80位病人共40000张切片按8:1:1的比例划分训练集、验证集和测试集,使用双边滤波方法增强切片对比度,增强脊柱图像的边缘特征,进行归一化操作,提高数据指标间的可比性。
双边滤波:边缘保护滤波算法,在高斯滤波的基础上加入了像素权重项,他既考虑了距离因素,也考虑了像素值的差异,像素值越近,权重越大。
滤波器BF的滤波结果为:
其中,Wq为滤波窗口内每个像素值的权重和,用于权重的归一化:
GS为空间距离权重:
Gr为像素权重:
归一化操作:
式中,input表示输入的图像像素值;max()、min()分别表示输入像素的最大值和最小值。output为输出图像像素值。经过归一化,图像像素被调整到[0,1]区间内。
标准化:
式中,input表示输入的图像像素值;mean(input)表示输入图像的像素均值。std表示输入图像像素的标准差。经过标准化,图像像素被调整到[-1,1]区间内。
如图2所示,步骤3:以U-Net网络模型为基线网络,将其单输入变为输入三张连续脊柱切片,即三输入网络构架DD-Net,DD-Net有三个分支组成,每个分支的编码侧由多尺度特征提取模块和池化层组成,解码侧由上采样和注意力模块组成,鉴于每张切片所要提取的特征内容是相同的,因此三张输入切片编码器权值共享。DD-Net做分割时,shuffle=false,按顺序处理,当前处理的切片称为archslice,如果当前切片不是第一张或者最后一张切片时,选取前后相邻的切片称为preslice、subslice。如果是第一张切片则选取后一张重复两次切片,称为preslice、subslice。如果是最后一张则选取前一张重复两次切片,称为preslice、subslice。
archslice进入DD-Net网络中的第二分支,做图像分割处理,preslice和subslice分别进入第一和第三分支,在编码侧对archslice做特征融合处理,在解码侧对archslice生成注力权重图,即为本发明的AT模块。
在编码侧对archslice做特征融合,是将preslice和subslice每层下采样后的高层特征图与archslice的高层特征图做拼接融合。
如图3所示,步骤4:添加的多尺度特征提取模块为Inception V2模块,一共有四个分支,第一个分支对输入进行1×1的卷积,第二个分支先使用3×3的max pooling再使用1×1卷积,第三个分支先使用1×1再使用3×3卷积,第四个分支先使用1×1卷积再使用2个3×3卷积,两个3×3卷积代替一个5×5,用于增加络深度并减少参数,该结构所有的卷积层都使用Relu激活函数。
如图4所示,步骤5:在DD-Net的解码端融入注意力模块,即为本发明的AT模块,利用特征空间相互关系可以生成一个空间注意力图,空间注意力专注于信息丰富的部分,首先对preslice和subslice分别进行平均池化操作和最大池化操作,并将二者拼接起来生成一个高效的特征图T1、T2,再将两个高效特征图进行元素相加生成特征描述符,针对元素相加后的特征描述符,使用一个卷积层来生成一个空间注意力图M(F)∈R(H×W)该特征图编码了相邻切片的区域中被凸显或抑制的特征,再使用sigmoid激活函数得到空间注意力权重图Ms,Ms与x相乘得到带有特征权重的注意力特征图α,α来突出边界特征。最后再将α与x和a1进行特征相加融合。
步骤5:通过消融实验,在DD-Net网络中加入Inception V2模块和发明的AT模块,获得网络最优模型。由于不同的评价指标对实验结果的估计意义不同,所以本发明使用了多个分割精度指标进行分析,评价指标包括骰子相似系数(Dice SimilarityCoefficient,DSC)、交并比(Intersection over Union,IoU)、准确率(Precision)和召回率(Recall)。其中公式如下所示:
其中,TP表示真阳性为正样本,FP表示假阳性为负样本,FN表示假阴性为正样本,TN表示真阴性为负样本。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (9)
1.一种三输入脊柱CT图像分割方法,其特征在于:包括以下步骤:
步骤1:将三维脊柱CT图像转换成二维脊柱切片,进行重新命名和尺寸调整;
步骤2:对二维脊柱切片进行数据预处理;
步骤3:以U-Net网络模型为基线网络,将其单输入变为三张连续脊柱切片,即三输入网络构架,为本发明的DD-Net网络框架;
步骤4:在DD-Net的编码端结合多尺度特征特征提取模块,用于增加全局特征提取能力;
步骤5:在DD-Net的解码端融入注意力模块,即为本发明的AT模块;
步骤6:通过消融实验,得出网络最优模型。
2.根据权利要求1所述的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤1中,切片重新命名以verse_img_的格式来命名,表示第几位病人的第几张切片,再对二维切片进行筛选,将二维脊柱切片的开头和结尾中一些无像素点的切片进行剔除,使得每位病人的三维脊柱图像所保存的切片数为500张,最后将二维脊柱切片的尺寸统一调整为256×256,通道数改为1。
3.根据权利要求1所述的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤2中,数据预处理包含将处理完后的80位病人切片按8:1:1的比例划分训练集、验证集和测试集,使用双边滤波方法增强切片对比度,进行归一化操作,提高数据指标间的可比性。
4.根据权利要求1所述的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤3中,DD-Net网络框架将单输入变为三张连续的脊柱切片,DD-Net网络中有三个分支,每个分支的编码侧由多尺度特征提取模块和池化层组成,解码侧由上采样和注意力模块组成,每张切片所要提取的特征内容是相同的,对三张输入切片的编码器权值共享。
5.根据权利要求4所述的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤3中,对连续三张切片进行命名,中间切片为当前处理切片命名archslice,进入DD-Net网络中的第二分支,做图像分割处理;前后相邻的切片命名preslice和subslice,进入第一和第三分支,在编码侧对archslice做特征融合处理,在解码侧对archslice生成注意力权重图,即为本发明的AT模块。
6.根据权利要求4所述的一种三输入脊柱CT图像分割方法,其特征在于:在编码侧对archslice做特征融合,是在下采样时避免细节丢失将前后相邻的切片preslice和subslice的高层特征图与中间切片archslice进行拼接融合。
7.根据权利要求1所述的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤4中,添加的多尺度特征提取模块为InceptionV2模块。
8.根据权利要求1所示的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤5中,在解码侧融入注意力AT模块,该模块用相邻切片生成带有特征权重的注意力特征图突出边界特征。
9.根据权利要求1所述的一种三输入脊柱CT图像分割方法,其特征在于:所述的步骤6中,通过消融实验,在DD-Net网络中加入InceptionV2模块和发明的AT模块,获得网络最优模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310338594.6A CN116452618A (zh) | 2023-03-31 | 2023-03-31 | 一种三输入脊柱ct图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310338594.6A CN116452618A (zh) | 2023-03-31 | 2023-03-31 | 一种三输入脊柱ct图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116452618A true CN116452618A (zh) | 2023-07-18 |
Family
ID=87129559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310338594.6A Pending CN116452618A (zh) | 2023-03-31 | 2023-03-31 | 一种三输入脊柱ct图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116452618A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630466A (zh) * | 2023-07-26 | 2023-08-22 | 济南大学 | 基于生成对抗性网络的脊柱ct到mr转换方法及*** |
CN116958556A (zh) * | 2023-08-01 | 2023-10-27 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
-
2023
- 2023-03-31 CN CN202310338594.6A patent/CN116452618A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630466A (zh) * | 2023-07-26 | 2023-08-22 | 济南大学 | 基于生成对抗性网络的脊柱ct到mr转换方法及*** |
CN116630466B (zh) * | 2023-07-26 | 2023-10-24 | 济南大学 | 基于生成对抗性网络的脊柱ct到mr转换方法及*** |
CN116958556A (zh) * | 2023-08-01 | 2023-10-27 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
CN116958556B (zh) * | 2023-08-01 | 2024-03-19 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11887311B2 (en) | Method and apparatus for segmenting a medical image, and storage medium | |
CN112927240B (zh) | 一种基于改进的AU-Net网络的CT图像分割方法 | |
CN110889853B (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
TWI715117B (zh) | 醫療影像處理方法及裝置、電子設備及儲存介質 | |
CN111798462B (zh) | 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法 | |
CN105957063B (zh) | 基于多尺度加权相似性测度的ct图像肝脏分割方法及*** | |
CN109389584A (zh) | 基于cnn的多尺度鼻咽肿瘤分割方法 | |
CN109063710A (zh) | 基于多尺度特征金字塔的3d cnn鼻咽癌分割方法 | |
CN116452618A (zh) | 一种三输入脊柱ct图像分割方法 | |
CN113808146B (zh) | 一种医学图像多器官分割方法及*** | |
CN110889852A (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN113393469A (zh) | 基于循环残差卷积神经网络的医学图像分割方法和装置 | |
CN110009656B (zh) | 目标对象的确定方法、装置、存储介质及电子装置 | |
CN109447963A (zh) | 一种脑部影像识别的方法及装置 | |
CN112991365B (zh) | 一种冠状动脉分割方法、***及存储介质 | |
CN114066913B (zh) | 一种心脏图像分割方法及*** | |
CN113450359A (zh) | 医学图像分割、显示、模型训练方法、***、设备和介质 | |
CN110570394A (zh) | 医学图像分割方法、装置、设备及存储介质 | |
CN116883341A (zh) | 一种基于深度学习的肝脏肿瘤ct图像自动分割方法 | |
CN115830163A (zh) | 基于深度学习的确定性引导的渐进式医学图像跨模态生成方法和装置 | |
CN114494289A (zh) | 一种基于局部线性嵌入的插值神经网络的胰腺肿瘤图像分割处理方法 | |
WO2024104035A1 (zh) | 基于长短期记忆自注意力模型的三维医学图像分割方法及*** | |
CN117152173A (zh) | 一种基于DUNetR模型的冠状动脉分割方法和*** | |
CN111967462A (zh) | 一种获取感兴趣区域的方法及装置 | |
CN113177938B (zh) | 基于圆形卷积核的脑胶质瘤的分割方法、装置及相关组件 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |