CN114119635B - 一种基于空洞卷积的脂肪肝ct图像分割方法 - Google Patents
一种基于空洞卷积的脂肪肝ct图像分割方法 Download PDFInfo
- Publication number
- CN114119635B CN114119635B CN202111391577.6A CN202111391577A CN114119635B CN 114119635 B CN114119635 B CN 114119635B CN 202111391577 A CN202111391577 A CN 202111391577A CN 114119635 B CN114119635 B CN 114119635B
- Authority
- CN
- China
- Prior art keywords
- convolution
- parameter
- cavity
- neural network
- pooling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 208000004930 Fatty Liver Diseases 0.000 title claims abstract description 19
- 206010019708 Hepatic steatosis Diseases 0.000 title claims abstract description 19
- 208000010706 fatty liver disease Diseases 0.000 title claims abstract description 19
- 238000003709 image segmentation Methods 0.000 title claims abstract description 19
- 231100000240 steatosis hepatitis Toxicity 0.000 title claims abstract description 19
- 238000011176 pooling Methods 0.000 claims abstract description 37
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 27
- 238000013527 convolutional neural network Methods 0.000 claims description 26
- 238000010586 diagram Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 210000004185 liver Anatomy 0.000 abstract description 16
- 239000010410 layer Substances 0.000 description 22
- 238000002591 computed tomography Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000011218 segmentation Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000011229 interlayer Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000035558 fertility Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于空洞卷积的脂肪肝CT图像分割方法,包括空洞卷积的步骤和对空洞卷积进行多语境融合,池化等操作,充分集成了肝脏多尺度特征,在解码过程中加入了不同解码层的初始属性,和对应的图像池化处理,提高了图像分割的准确性。
Description
技术领域
本发明涉及一种基于空洞卷积的脂肪肝CT图像分割方法。
背景技术
肝脏是人类疾病的高发区。自动肝脏分割可以帮助医生早期诊断和治疗患者。在医学成像领域,计算机断层扫描(CT)是应用最广泛的医学检查之一。
近年来,随着深度学习的快速发展,特别是革命性的神经网络(CNN)在计算机视觉任务中的应用,如图像分割Long等人提出了一种基于CNN的完全卷积网络(FCN),它可以接受任何大小的图像输入。恢复的图像非常粗糙。通过单通道像素的分割和融合,可以得到更厚的特征层,为后续的分割提供额外的语义信息。
对于肝脏的二维分割,Zhang等人提出了条件网络的三维逆分割,并采用了从粗到细的三维自动分割框架,将空间金字塔池和生育力学习技术引入到u-net中,提出了一种基于sar-u-net的肝脏CT自动分割方法。3du网络可以有效地利用相邻肝脏节段之间的分割特征,获得更好的分割结果。
考虑到3D u-net利用CT图像中磁盘间的信息,Lu等人的3D CNN同时检测和分割肝脏,Lei等人设计了一种适合LV网络的三维窄背块和中间池块。通过解耦肝脏CT图像的横向校正和空间相关性,结合扩展卷积混合技术,提取肝脏CT图像的层间特征,通过三维折叠和背景提取提取的层间盘可以有效分割肝脏。
由于CT和u-net图像的特点,肝脏分割存在以下问题:
(1)低属性和高属性对肝脏分割同样重要;u-net中的自底向上函数忽略了自底向上特征的重要性,导致网络分割性能低下。
(2)肝脏的形状和大小是可变的,其灰度值与邻近器官相似,容易丢失信息。
发明内容
本发明的目的在于克服现有技术的不足,提供。
本发明的目的是通过以下技术方案来实现的:
一种基于空洞卷积的脂肪肝CT图像分割方法,包括训练空洞卷积神经网络的步骤,所述训练空洞卷积神经网络的步骤包括:
S1、搭建一空洞卷积神经网络,所述空洞卷积神经网络包括依次连接的多个卷积层、多个空洞卷积层和多个反卷积层;
S2、初始化所述空洞卷积神经网络的权重值;
S3、将预先建立的图像分割训练营中的脂肪肝CT图像输入经步骤S2初始化后的空洞卷积神经网络中,通过Sigmoid函数获得高级语义信息的权重;然后利用在相邻低级特征中的细节信息对高级特征进行加权,同时相邻的高级特征中的语义信息对低级特征进行加权;最后进行相加来增强特征的传递,令Fl∈RH×W×C,其中Fl表示编码器在第其中H、W、C分别表示特征的高度、宽度和通道数,使用此模块所得低级特征通道注意力向量Vc和空间注意力向量Vs为:
S4、将预先建立的图片测试集中的脂肪肝CT图像输入经步骤S3训练得到的空洞卷积神经网络中,输出对应的图片深度图和图片表面法向量图;其中,所述图像分割训练营和所述图片测试集中的脂肪肝CT图像至少部分不同;所述图片表面法向量图是通过所述深度图获得像素的点云数据,并采用最小二乘平面拟合而得到;
S5、根据步骤S4输出的图片深度图和图片表面法向量图,判断步骤S3训练得到的空洞卷积神经网络对图片深度和图片表面法向量的预测精度是否符合预设要求:若符合,则结束训练;若不符合,则返回步骤S3继续训练直至训练得到符合预设要求的空洞卷积神经网络。
进一步的,所述步骤S3还包括神经网络与多尺度语义特征模块的融合方法:使用多尺度语义特征模块所得高级特征通道注意力向量Zc和特征空间注意力向量Zs为:
式中l∈[1,4],fg(·)表示全局平均池化,conv(·)表示卷积运算,Φ(·)表示Singmoid激活运算,将向量和/>分别与Fl进行元素相乘,获得加权低级输出特征Ll;将向量/>和/>分别与Fl进行元素相乘,获得加权高级输出特征Hl,Ll,Ll∈RH×W×C;l=1时,向量/>和/>不存在,输入多尺度语义特征模块模块最后所得输出结果可表示为:
式中Concat表示特征通道融合操作。
进一步的,所述步骤S4还包括空洞卷积图像的编码-解码方法,进行过空洞卷积的图像将空洞中丢失的数据进行编码后与卷积核同时进行保存,当保存的数据需要进行输出时,通过解码将数据展开。
进一步的,所述步骤S5还包括对图片的池化操作,具体步骤如下:
将通过并行空洞卷积得到的特征分别经过1×1卷积来加强提取到的多尺度特征,并与平均池化后得到的特征图进行融合,将融合得到的输出经过1×1卷积,得到固定大小的输出F”,具体表示为:
F″=σ(f1×1[f1×1(PA(F′));f1×1(f3×3,d=6(F′));f1×1(f3×3,d=12(F′));
f1×1(f3×3,d=18(F′));PA(F′)]
式中,PA表示平均池化,d表示膨胀率;
设传入参数池化层的特征图X,宽为W,高为H,通道数为C,即W*H*C的矩阵,则其输出G可以根据式
Xc为输入特征图的第C个通道,Gc表示对应第C个通道的输入;W是权重参数矩阵,其形状为p*q,Wc表示参数池化层权重的第C个通道,p,q是池化核心的长和宽,β是预激活函数,其作用是将相关运算转换为可以解释的池化运算,使用sigmoid函数作为预激活函数,将权重参数的任何一个值映射到实数区间(0,1),参数池化层给特征图的每个通道Xc分配参数Wc,每个参数值都被规定到了0和1之间;
权重参数的加入后,池化计算方法根据得到:
式中,下标c表示计算特征图的第c个通道,β为预激活函数,w为权重参数对权重参数也需要更新,需要求出该层参数对损失函数C的梯度,第l层为参数池化层,对C的梯度为
根据得到
为该层输入使用下降梯度优化参数公式为/>
本发明的有益效果是:充分集成了肝脏多尺度特征,在解码过程中加入了不同解码层的初始属性,和对应的图像池化处理,提高了图像分割的准确性。
附图说明
图1为本发明的流程架构示意图;
图2为本发明的空洞卷积的立体3D可视化模型示意图;
图3为本发明的残差卷积块示意图;
图4为空洞残差卷积块示意图。
具体实施方式
下面将结合实施例,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1-4,本发明提供一种技术方案:一种基于空洞卷积的脂肪肝CT图像分割方法,包括训练空洞卷积神经网络的步骤,训练空洞卷积神经网络的步骤包括:
S1、搭建一空洞卷积神经网络,空洞卷积神经网络包括依次连接的多个卷积层、多个空洞卷积层和多个反卷积层;
S2、初始化空洞卷积神经网络的权重值;
S3、将预先建立的图像分割训练营中的脂肪肝CT图像输入经步骤S2初始化后的空洞卷积神经网络中,通过Sigmoid函数获得高级语义信息的权重;然后利用在相邻低级特征中的细节信息对高级特征进行加权,同时相邻的高级特征中的语义信息对低级特征进行加权;最后进行相加来增强特征的传递,令Fl∈RH×W×C,其中Fl表示编码器在第其中H、W、C分别表示特征的高度、宽度和通道数,使用此模块所得低级特征通道注意力向量Vc和空间注意力向量Vs为:
S4、将预先建立的图片测试集中的脂肪肝CT图像输入经步骤S3训练得到的空洞卷积神经网络中,输出对应的图片深度图和图片表面法向量图;其中,图像分割训练营和图片测试集中的脂肪肝CT图像至少部分不同;图片表面法向量图是通过深度图获得像素的点云数据,并采用最小二乘平面拟合而得到;
S5、根据步骤S4输出的图片深度图和图片表面法向量图,判断步骤S3训练得到的空洞卷积神经网络对图片深度和图片表面法向量的预测精度是否符合预设要求:若符合,则结束训练;若不符合,则返回步骤S3继续训练直至训练得到符合预设要求的空洞卷积神经网络。
如图2所示,本发明提出以空洞卷积为基础的技术,在将每一个像素点放大的同时,虽然图像像素在扩大,但是不同的肝脏形状和大小取决于患者,所以数据量的变化非常重要,尤其是在分布图像当中。自上而下的例子通常用于获得更好的感受野,但是空间分辨率会得到很大降低,而空洞卷积方法可以保持对空间分辨率的更好控制,从而把局部失真的问题基本解决掉。空洞卷积与普通卷积相比在卷积核中加入空洞,以达到在保证不改变输出特征图的尺寸的前提下扩大感受野的目的,而感受野则是在卷积神经网络中不可或缺的一环,它牢牢控制着卷积后的图片映射功能,同时保证着特征图上的一个点对应输入图上的一个区域,进一步的,在其中我们使用的空洞残差卷积由两个空洞率分别为1,2的3d空洞卷积和经过Conv1*1*1之后的残差的连接组成,如下图,我们的空洞残差卷积能够使我们的模型在不增加深度和复杂度即不增加我们的工作量的情况之下,能够充分感知获得的肝脏多尺度结构,为后续的多尺度特征融合奠定了基础,此步骤如图3和图4所示。
进一步的,步骤S3还包括神经网络与多尺度语义特征模块的融合方法:使用多尺度语义特征模块所得高级特征通道注意力向量Zc和特征空间注意力向量Zs为:
式中l∈[1,4],fg(·)表示全局平均池化,conv(·)表示卷积运算,Φ(·)表示Sigmoid激活运算,将向量和/>分别与Fl进行元素相乘,获得加权低级输出特征Ll;将向量/>和/>分别与Fl进行元素相乘,获得加权高级输出特征Hl,Ll,Ll∈RH×W×C;l=1时,向量/>和
不存在,输入多尺度语义特征模块模块最后所得输出结果可表示为:
式中Concat表示特征通道融合操作。
进一步的,步骤S4还包括空洞卷积图像的编码-解码方法,进行过空洞卷积的图像将空洞中丢失的数据进行编码后与卷积核同时进行保存,当保存的数据需要进行输出时,通过解码将数据展开。
进一步的,步骤S5还包括对图片的池化操作,具体步骤如下:
将通过并行空洞卷积得到的特征分别经过1×1卷积来加强提取到的多尺度特征,并与平均池化后得到的特征图进行融合,将融合得到的输出经过1×1卷积,得到固定大小的输出F”,具体表示为:
F″=σ(f1×1[f1×1(PA(F′));f1×1(f3×3,d=6(F′));f1×1(f3×3,d=12(F′));
f1×1(f3×3,d=18(F′))PA(F′)]
式中,PA表示平均池化,d表示膨胀率;
设传入参数池化层的特征图X,宽为W,高为H,通道数为C,即W*H*C的矩阵,则其输出G可以根据式
Xc为输入特征图的第C个通道,Gc表示对应第C个通道的输入;W是权重参数矩阵,其形状为p*q,Wc表示参数池化层权重的第C个通道,p,q是池化核心的长和宽,β是预激活函数,其作用是将相关运算转换为可以解释的池化运算,使用sigmoid函数作为预激活函数,将权重参数的任何一个值映射到实数区间(0,1),参数池化层给特征图的每个通道Xc分配参数Wc,每个参数值都被规定到了0和1之间;
权重参数的加入后,池化计算方法根据得到:
式中,下标c表示计算特征图的第c个通道,β为预激活函数,w为权重参数对权重参数也需要更新,需要求出该层参数对损失函数C的梯度,第l层为参数池化层,对C的梯度为
根据得到
为该层输入使用下降梯度优化参数公式为/>
以上仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。
Claims (4)
1.一种基于空洞卷积的脂肪肝CT图像分割方法,其特征在于:包括训练空洞卷积神经网络的步骤,所述训练空洞卷积神经网络的步骤包括:
S1、搭建一空洞卷积神经网络,所述空洞卷积神经网络包括依次连接的多个卷积层、多个空洞卷积层和多个反卷积层;
S2、初始化所述空洞卷积神经网络的权重值;
S3、将预先建立的图像分割训练营中的脂肪肝CT图像输入经步骤S2初始化后的空洞卷积神经网络中,通过Sigmoid函数获得高级语义信息的权重;然后利用在相邻低级特征中的细节信息对高级特征进行加权,同时利用在高级特征中的语义信息对低级特征进行加权;最后进行相加来增强特征的传递,令Fl∈RH×W×C,其中Fl表示处理后相加后的特征,其中H、W、C分别表示特征的高度、宽度和通道数,使用处理后相加后的特征所得低级特征通道注意力向量Vc和空间注意力向量Vs为:
S4、将预先建立的图片测试集中的脂肪肝CT图像输入经步骤S3训练得到的空洞卷积神经网络中,输出对应的图片深度图和图片表面法向量图;其中,所述图像分割训练营和所述图片测试集中的脂肪肝CT图像至少部分不同;所述图片表面法向量图是通过所述深度图获得像素的点云数据,并采用最小二乘平面拟合而得到;
S5、根据步骤S4输出的图片深度图和图片表面法向量图,判断步骤S3训练得到的空洞卷积神经网络对图片深度和图片表面法向量的预测精度是否符合预设要求:若符合,则结束训练;若不符合,则返回步骤S3继续训练直至训练得到符合预设要求的空洞卷积神经网络。
2.根据权利要求1所述的一种基于空洞卷积的脂肪肝CT图像分割方法,其特征在于:所述步骤S3还包括神经网络与多尺度语义特征模块的融合方法:使用多尺度语义特征模块所得高级特征通道注意力向量Zc和特征空间注意力向量Zs为:
式中l∈[1,4],fg(·)表示全局平均池化,conv(.)表示卷积运算,Φ(·)表示Sigmoid激活运算,将向量和/>分别与Fl进行元素相乘,获得加权低级输出特征Ll;将向量/>和/>分别与Fl进行元素相乘,获得加权高级输出特征Hl,Ll,Ll∈RH×W×C;l=1时,向量/>和/>不存在,输入多尺度语义特征模块模块最后所得输出结果可表示为:
式中Concat表示特征通道融合操作。
3.根据权利要求1所述的一种基于空洞卷积的脂肪肝CT图像分割方法,其特征在于:所述步骤S4还包括空洞卷积图像的编码-解码方法,进行过空洞卷积的图像将空洞中丢失的数据进行编码后与卷积核同时进行保存,当保存的数据需要进行输出时,通过解码将数据展开。
4.根据权利要求1所述的一种基于空洞卷积的脂肪肝CT图像分割方法,其特征在于:所述步骤S5还包括对图片的池化操作,具体步骤如下:
将通过并行空洞卷积得到的特征分别经过1×1卷积来加强提取到的多尺度特征,并与平均池化后得到的特征图进行融合,将融合得到的输出经过1×1卷积,得到固定大小的输出F″,具体表示为:
F″=σ(f1×1[f1×1(PA(F′));f1×1(f3×3,d=6(F′));f1×1(f3×3,d=12(F′));
f1×1(f3×3,d=18(F′));PA(F′)]
式中,PA表示平均池化,d表示膨胀率;
设传入参数池化层的特征图X,宽为W,高为H,通道数为C,即W*H*C的矩阵,则其输出G可以根据式
Xi为输入特征图的第C个通道,Gc表示对应第C个通道的输入;W是权重参数矩阵,其形状为p*q,Wc表示参数池化层权重的第C个通道,p,q是池化核心的长和宽,β是预激活函数,其作用是将相关运算转换为可以解释的池化运算,使用sigmoid函数作为预激活函数,将权重参数的任何一个值映射到实数区间(0,1),参数池化层给特征图的每个通道Xc分配参数Wc,每个参数值都被规定到了0和1之间;
权重参数的加入后,池化计算方法根据得到:
式中,下标c表示计算特征图的第c个通道,β为预激活函数,w为权重参数对权重参数也需要更新,需要求出参数池化层参数对损失函数C的梯度,第1层为参数池化层,对C的梯度为
根据得到
为该层输入使用下降梯度优化参数公式为/>
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111391577.6A CN114119635B (zh) | 2021-11-23 | 2021-11-23 | 一种基于空洞卷积的脂肪肝ct图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111391577.6A CN114119635B (zh) | 2021-11-23 | 2021-11-23 | 一种基于空洞卷积的脂肪肝ct图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114119635A CN114119635A (zh) | 2022-03-01 |
CN114119635B true CN114119635B (zh) | 2024-05-24 |
Family
ID=80439689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111391577.6A Active CN114119635B (zh) | 2021-11-23 | 2021-11-23 | 一种基于空洞卷积的脂肪肝ct图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114119635B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758137B (zh) * | 2022-06-15 | 2022-11-01 | 深圳瀚维智能医疗科技有限公司 | 超声图像分割方法、装置及计算机可读存储介质 |
CN117058380B (zh) * | 2023-08-15 | 2024-03-26 | 北京学图灵教育科技有限公司 | 基于自注意力的多尺度轻量化三维点云分割方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910405A (zh) * | 2019-11-20 | 2020-03-24 | 湖南师范大学 | 基于多尺度空洞卷积神经网络的脑肿瘤分割方法及*** |
CN112330681A (zh) * | 2020-11-06 | 2021-02-05 | 北京工业大学 | 一种基于注意力机制的轻量级网络实时语义分割方法 |
CN112927255A (zh) * | 2021-02-22 | 2021-06-08 | 武汉科技大学 | 一种基于上下文注意力策略的三维肝脏影像语义分割方法 |
WO2021155230A1 (en) * | 2020-01-31 | 2021-08-05 | James R. Glidewell Dental Ceramics, Inc. | Teeth segmentation using neural networks |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020236993A1 (en) * | 2019-05-21 | 2020-11-26 | Magic Leap, Inc. | Hand pose estimation |
-
2021
- 2021-11-23 CN CN202111391577.6A patent/CN114119635B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910405A (zh) * | 2019-11-20 | 2020-03-24 | 湖南师范大学 | 基于多尺度空洞卷积神经网络的脑肿瘤分割方法及*** |
WO2021155230A1 (en) * | 2020-01-31 | 2021-08-05 | James R. Glidewell Dental Ceramics, Inc. | Teeth segmentation using neural networks |
CN112330681A (zh) * | 2020-11-06 | 2021-02-05 | 北京工业大学 | 一种基于注意力机制的轻量级网络实时语义分割方法 |
CN112927255A (zh) * | 2021-02-22 | 2021-06-08 | 武汉科技大学 | 一种基于上下文注意力策略的三维肝脏影像语义分割方法 |
Non-Patent Citations (3)
Title |
---|
Study on MRI Medical Image Segmentation Technology Based on CNN-CRF Model;Naiqin Feng et al.;《IEEE Access》;20200323;第08卷;第60505 - 60514页 * |
一种改进DeeplabV3网络的烟雾分割算法;汪梓艺;苏育挺;刘艳艳;张为;;西安电子科技大学学报;20190904;第46卷(第06期);第52-59页 * |
基于全卷积网络的CT图像肝脏肿瘤分割方法研究;马瑞;《中国优秀硕士学位论文全文数据库(电子期刊)医药卫生科技辑》;20210515;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114119635A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443842B (zh) | 基于视角融合的深度图预测方法 | |
Zhang et al. | Deep hierarchical guidance and regularization learning for end-to-end depth estimation | |
CN107492071A (zh) | 医学图像处理方法及设备 | |
CN113674253B (zh) | 基于U-Transformer的直肠癌CT影像自动分割方法 | |
CN114119635B (zh) | 一种基于空洞卷积的脂肪肝ct图像分割方法 | |
CN111932550B (zh) | 一种基于深度学习的3d心室核磁共振视频分割*** | |
CN111091589A (zh) | 基于多尺度监督学习的超声和核磁图像配准方法及装置 | |
CN115482241A (zh) | 一种跨模态双分支互补融合的图像分割方法及装置 | |
CN110363802B (zh) | 基于自动分割和骨盆对齐的***图像配准***及方法 | |
CN109377520A (zh) | 基于半监督循环gan的心脏图像配准***及方法 | |
CN110363068B (zh) | 一种基于多尺度循环生成式对抗网络的高分辨行人图像生成方法 | |
CN112990077B (zh) | 基于联合学习与光流估计的面部动作单元识别方法及装置 | |
CN111369565A (zh) | 一种基于图卷积网络的数字病理图像的分割与分类方法 | |
CN113222124B (zh) | 用于图像语义分割的SAUNet++网络与图像语义分割方法 | |
CN112288788B (zh) | 单目图像深度估计方法 | |
CN113570658A (zh) | 基于深度卷积网络的单目视频深度估计方法 | |
CN116664397B (zh) | TransSR-Net结构化图像超分辨重建方法 | |
CN113177592B (zh) | 一种图像分割方法、装置、计算机设备及存储介质 | |
CN113450396A (zh) | 基于骨骼特征的三维/二维图像配准方法及装置 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN117710760B (zh) | 残差的注意神经网络用于胸部x线病灶检测的方法 | |
CN113269774B (zh) | 一种mri图像的帕金森病分类及标注病灶区域的方法 | |
CN112489048B (zh) | 一种基于深度网络的视神经自动分割方法 | |
CN111401209B (zh) | 一种基于深度学习的动作识别方法 | |
CN111696167A (zh) | 自范例学习引导的单张影像超分辨率重构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |