CN113379735A - 一种ct结肠影像内容物的标注方法及*** - Google Patents
一种ct结肠影像内容物的标注方法及*** Download PDFInfo
- Publication number
- CN113379735A CN113379735A CN202110779434.6A CN202110779434A CN113379735A CN 113379735 A CN113379735 A CN 113379735A CN 202110779434 A CN202110779434 A CN 202110779434A CN 113379735 A CN113379735 A CN 113379735A
- Authority
- CN
- China
- Prior art keywords
- colon
- network
- labeling
- image
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种CT结肠影像内容物的标注方法及***,该方法包括:获取CT结肠影像数据集并进行标注;对带标注的CT结肠影像数据集进行预处理;基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U‑net网络;获取待测图像并基于训练完成的DM‑UNet网络进行预测,得到结肠内容物标注。该***包括:标注模块、预处理模块、网络训练模块和应用模块。通过使用本发明,能够标注并去除CT结肠影像内容物。本发明作为一种CT结肠影像内容物的标注方法及***,可广泛应用于医学图像处理领域。
Description
技术领域
本发明涉及医学图像处理领域,尤其涉及一种CT结肠影像内容物的标注方法及***。
背景技术
近年来,随着射频技术的不断进步,其应用领域越加广泛,随着生活习惯、饮食结构和环境因素的改变,结直肠癌已经成为危害健康的常见重大疾病,CT结肠成像技术作为诊断结直肠癌的有效手段,面临着结肠内容物干扰的问题。由于当前没有使用深度学习技术进行CT结肠影像内容物标注的研究,去除结肠内容物的工作高度依赖人工,容易产生人为误差并且工作量繁重。相较于CT结肠影像与其他CT器官影像相比,存在更难处理与识别的难点,主要体现在:(1)个体间的结肠内容物的结构存在较大差异,因此识别难度大,导致可能出现漏判;(2)CT结肠影像存在相似肠道的干扰,导致可能出现误判;(3)结肠内容物的结构复杂,难以寻找不同内容物间的关系,导致精度较低;(4)结肠相对于其他器官体积更大,导致单个样例大小是其他器官单个样例大小的数倍,但样例总数较少,加大了网络模型的设计难度。现有深度学习的网络模型都采用结构明确、影像简单的CT影像数据集,因此不适用于CT结肠影像内容物标注。
发明内容
为了解决上述技术问题,本发明的目的是提供一种CT结肠影像内容物的标注方法及***,能够标注并去除CT结肠影像内容物。
本发明所采用的第一技术方案是:一种CT结肠影像内容物的标注方法,包括以下步骤:
获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集;
对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集;
基于预处理后的CT影像数据集训练预构建的3DInception网络和改进的U-net网络,并以训练好的3DInception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络;
获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注。
进一步,所述获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集这一步骤,其具体包括:
获取CT结肠影像数据集并采用Karl 3D迭代重建法进行图像重建,得到重建影像数据集;
基于ITK-SNAP对重建影像数据集进行标注,并以颜色区分结肠空腔区域和结肠内容物,得到带标注的CT影像数据集。
进一步,所述对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集这一步骤,其具体包括:
基于2D ResNet网络识别感兴趣区域,去除从腿部到直肠的区域、从降结肠与横结肠交界处到胸腔的区域,得到感兴趣区域;
将感兴趣区域中的结肠内容物标注与结肠空腔标注合并;
基于灰度值先验知识与区域生长算法对标注边缘进行填充,得到预处理后的CT影像数据集。
进一步,所述基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络这一步骤,其具体包括:
基于预处理后的CT影像数据集训练3D Inception网络,得到训练完成的3DInception网络;
所述3D Inception采用ReLU作为激活函数,对数据进行批标准化、拼接操作,并将四条子路的输出合并;
基于预处理后的CT影像数据集训练改进的U-net网络并以训练好的3D Inception网络辅助训练,得到训练完成的DM-UNet网络;
所述训练完成的DM-UNet网络包括编解码结构和边缘检测机制。
进一步,所述3D Inception网络的损失函数公式如下:
上式中,θ表示可训练的网络参数,L(θ)表示损失函数,N表示样例总数,I{·}表示指示函数,Y(j)表示第j份样例的目标输出值,表示第j份样例的实际输出值,c表示目标分割区域,P表示输入,表示实际输出Y(j)属于目标分割区域的估计概率。
进一步,所述训练完成的DM-UNet网络的工作步骤如下:
对输入CT影像进行四层编码,得到压缩的特征图;
对压缩的特征图进行四层解码,并将同层的特征图进行拼接;
通过一个1*1卷积输出预测区域;
在DM-UNet外部引入边缘检测机制,通过Canny算子检测CT影像数据中的横断面、实际输出与目标输出,得到实际输出边缘图与目标输出边缘图。
进一步,所述DM-UNet网络的损失函数为:
上式中,LDice表示Dice损失函数,N表示样例总数,pi表示第i个像素点的目标输出,yi表示第i个像素点的实际输出,γ为平滑系数,实际取0.0001。
进一步,所述获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注这一步骤,其具体包括:
获取待测图像并输入至训练完成的DM-UNet网络;
基于DM-UNet网络识别出待测图像的标注区域和异常区域;
遍历与标注区域对应的输入横断面的每个像素点,并根据预设的灰度阈值区分结肠内容物与结肠空腔两类标注。
本发明所采用的第二技术方案是:一种CT结肠影像内容物的标注******,包括:
标注模块,用于获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集;
预处理模块,用于对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集;
网络训练模块,用于基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络;
应用模块,用于获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注。
本发明方法及***的有益效果是:本发明使用训练好的3D Inception辅助训练DM-UNet,为DM-UNet标注出异常区域,并通过权重项反馈给DM-UNet,使其可以区分三维结构错误与二维结构错误,并使用灰度值先验知识,重新区分两类标注,得到CT结肠影像内容物预测图,从而能够大幅度降低CT结肠影像内容物标注与去除工作的耗时,有利于CT成像技术的应用。
附图说明
图1是本发明一种CT结肠影像内容物的标注方法的步骤流程图;
图2是本发明一种CT结肠影像内容物的标注***的结构框图;
图3是本发明具体实施例应用DM-UNet网络的示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1,本发明提供了一种CT结肠影像内容物的标注方法,该方法包括以下步骤:
S1、获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集;
S2、对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集;
S3、基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络;
S4、获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注。
进一步作为本方法的优选实施例,所述获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集这一步骤,其具体包括:
获取CT结肠影像数据集并采用Karl 3D迭代重建法进行图像重建,得到重建影像数据集;
基于ITK-SNAP对重建影像数据集进行标注,并以颜色区分结肠空腔区域和结肠内容物,得到带标注的CT影像数据集。
具体地,用上海联影公司u760CT机进行采集工作,其球管电压为120kV,球管电流自适应球管电压的变化,层厚为1mm,采用Karl 3D迭代重建方法。数据集标注阶段采用ITK-SNAP软件,调节窗位50,窗宽2048,将结肠空腔区域标注为红色,将结肠内容物标注为绿色。
另外,得到NITFI格式的原始CT结肠影像与NITFI格式的CT结肠影像内容物标注。
进一步作为本方法的优选实施例,所述对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集这一步骤,其具体包括:
基于2D ResNet网络识别感兴趣区域,去除从腿部到直肠的区域、从降结肠与横结肠交界处到胸腔的区域,得到感兴趣区域;
具体地,本发明感兴趣区域为乙状结肠末端到降结肠与横结肠交界处,均存在较明显的特征,因此使用两个标准的18层2D ResNet分别找到横结肠与降结肠交界处和乙状结肠末端,包含17层卷积层和1层全连接层,采用3*3卷积,当输入和输出具有相同维度时(实线)使用跳连恒等连接,当输入和输出具有不同维度时(虚线),跳连由1*1卷积、2步长完成,输入经过17层卷积和平均池化后,得到输出结果。
将感兴趣区域中的结肠内容物标注与结肠空腔标注合并;
具体地,本发明基于结肠内容物与结肠空腔区域构成完整结肠结构、结肠内容物与结肠空腔区域的灰度值差距较大这两个先验知识,将结肠内容物标注与结肠空腔标注合并,以此将结肠内容物标注问题转化为结肠肠腔标注问题。
基于灰度值先验知识与区域生长算法对标注边缘进行填充,得到预处理后的CT影像数据集。
具体地,本发明使用灰度值先验知识与区域生长算法对标注边缘进行填充,在边缘填充过程中,以合并后的肠腔标注作为区域生长算法的种子,遍历初始种子区域附近八邻域的灰度值,如果低于阈值(本发明实际取阈值为0),则向该邻域生长,并不断遍历,直至没有一个种子可以生长。
进一步作为本方法的优选实施例,所述基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络这一步骤,其具体包括:
基于预处理后的CT影像数据集训练3D Inception网络,得到训练完成的3DInception网络;
所述3D Inception采用ReLU作为激活函数,对数据进行批标准化、拼接操作,并将四条子路的输出合并;
具体地,3D Inception的每条子路都进行了1*1*1卷积降维,并用两个3*3*3卷积替代5*5*5卷积,最大程度的减少参数量。
基于预处理后的CT影像数据集训练改进的U-net网络并以训练好的3D Inception网络辅助训练,得到训练完成的DM-UNet网络;
具体地,使用训练好的3D Inception辅助训练,区别于通过与二维横断面目标输出对比得到的错误区域,3D Inception将为DM-UNet标注出根据三维结构特征得到的异常区域,并通过对应的权重项使得DM-UNet能够关注异常区域,进一步使得DM-UNet可以区分三维结构错误与二维结构错误,从而关注更难以训练的三维结构错误。在具体训练过程中,首先将经过预处理的NIFTI文件及其横断面分别输入3D Inception和DM-UNet中学习,将DM-UNet的输出与3D Inception的输出进行比对,再由3D Inception找出肠道结构的异常区域,通过对应的权重项,提升DM-UNet的分割精确度。
所述训练完成的DM-UNet网络包括编解码结构和边缘检测机制。
进一步作为本方法优选实施例,所述3D Inception网络的损失函数公式如下:
上式中,θ表示可训练的网络参数,L(θ)表示损失函数,N表示样例总数,I{·}表示指示函数,Y(j)表示第j份样例的目标输出值,表示第j份样例的实际输出值,c表示目标分割区域,P表示输入,表示实际输出Y(j)属于目标分割区域的估计概率。
进一步作为本方法优选实施例,所述训练完成的DM-UNet网络的工作步骤如下:
对输入CT影像进行四层编码,得到压缩的特征图;
对压缩的特征图进行四层解码,并将同层的特征图进行拼接;
通过一个1*1卷积输出预测区域;
具体地,本发明通过结合空洞卷积、传统卷积和拼接,得到改进的编解码结构。本发明在单层编码过程中,首先对特征图进行一次卷积操作,然后进行三次不同尺度的空洞卷积(空洞率分别为1、2、5),以此提取到多尺度信息,再使用拼接操作和卷积,将一次卷积和三次空洞卷积得到的特征图进行拼接。本发明的单层解码与单层编码过程相同,以此保证网络模型的对称性。
在DM-UNet外部引入边缘检测机制,通过Canny算子检测CT影像数据中的横断面、实际输出与目标输出,得到实际输出边缘图与目标输出边缘图。
在DM-UNet外部引入边缘检测机制,通过在损失函数中加入边缘不匹配损失的额外项,使得DM-UNet更关注边缘不匹配区域:
Ltotal=Limage+λLmarg.
Ltotal表示总损失值,Limage表示分割区域损失值,由实际输出与目标输出对比计算损失值得到,Lmarg表示边缘不匹配损失值,由实际输出边缘图与目标输出边缘图对比计算损失值得到。
具体地,本发明首先通过对输入横断面的边缘检测得到边缘检测图,再提取实际输出的边缘,以此得到实际输出边缘图,然后提取目标输出的边缘与边缘检测图叠加,并仅保留目标结肠肠腔分割区域内的边缘,以此得到目标输出边缘图,最后对比实际输出边缘图与目标输出边缘图,得到实际输出与目标输出边缘不匹配的区域。
进一步作为本方法优选实施例,所述DM-UNet网络的损失函数为:
上式中,LDice表示Dice损失函数,N表示样例总数,pi表示第i个像素点的目标输出,yi表示第i个像素点的实际输出,γ为平滑系数,实际取0.0001。
具体地,使用改进的Dice损失函数提升DM-UNet标注结肠内容物精度。发明通过添加系数,使得网络模型关注错误程度较高的区域;通过添加指数项,避免网络模型在训练后期,因为正确分割区域占有较大比重,导致网络产生无法关注难分样本的缺陷;通过平衡分子与分母的期望值,使得损失函数的期望值为零,以此加快收敛速度。
如图3所示,结合U-Net、改进的编解码结构与边缘检测机制,最终得到DM-UNet,该网络模型的深度为四层,每一层都有一次编码操作与一次对应的解码操作,编码得到的特征图通过跳跃连接与下一层上采样得到的特征图相结合。编码操作依次有一个卷积核大小为3*3的卷积层、一个批标准化层、三个空洞卷积层(空洞率分别为1、2、5)、一次拼接操作(将通过一次卷积与三次空洞卷积所得到的四幅特征图拼接)、一个卷积核大小为1*1的卷积层,一个2*2的最大池化层,解码操作与编码操作类似,但卷积核为2*2的反卷积层替代了2*2的最大池化层。每次编码操作,卷积核个数增加一倍,分别设定为16、32、64;每次解码操作,卷积核个数递减,分别设定为64、16、1。最终DM-UNet的输出通过一个卷积核大小为1*1的卷积层,再经过Sigmoid函数,得到一个与输入横断面大小相同的结肠肠腔区域预测图。
进一步作为本方法优选实施例,所述获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注这一步骤,其具体包括:
获取待测图像并输入至训练完成的DM-UNet网络;
基于DM-UNet网络识别出待测图像的标注区域和异常区域;
遍历与标注区域对应的输入横断面的每个像素点,并根据预设的灰度阈值区分结肠内容物与结肠空腔两类标注。
具体地,本发明通过设置阈值,在后处理阶段遍历与标注区域对应的输入横断面的每个像素点,区分结肠内容物与结肠空腔两类标注。灰度映射的公式为:
如图2所示,一种CT结肠影像内容物的标注******,包括:
标注模块,用于获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集;
预处理模块,用于对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集;
网络训练模块,用于基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络;
应用模块,用于获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注。
上述方法实施例中的内容均适用于本***实施例中,本***实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.一种CT结肠影像内容物的标注方法,其特征在于,包括以下步骤:
获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集;
对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集;
基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络;
获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注。
2.根据权利要求1所述一种CT结肠影像内容物的标注方法,其特征在于,所述获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集这一步骤,其具体包括:
获取CT结肠影像数据集并采用Karl 3D迭代重建法进行图像重建,得到重建影像数据集;
基于ITK-SNAP对重建影像数据集进行标注,并以颜色区分结肠空腔区域和结肠内容物,得到带标注的CT影像数据集。
3.根据权利要求2所述一种CT结肠影像内容物的标注方法,其特征在于,所述对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集这一步骤,其具体包括:
基于2D ResNet网络识别感兴趣区域,去除从腿部到直肠的区域、从降结肠与横结肠交界处到胸腔的区域,得到感兴趣区域;
将感兴趣区域中的结肠内容物标注与结肠空腔标注合并;
基于灰度值先验知识与区域生长算法对标注边缘进行填充,得到预处理后的CT影像数据集。
4.根据权利要求3所述一种CT结肠影像内容物的标注方法,其特征在于,所述基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络这一步骤,其具体包括:
基于预处理后的CT影像数据集训练3D Inception网络,得到训练完成的3D Inception网络;
所述3D Inception采用ReLU作为激活函数,对数据进行批标准化、拼接操作,并将四条子路的输出合并;
基于预处理后的CT影像数据集训练改进的U-net网络并以训练好的3D Inception网络辅助训练,得到训练完成的DM-UNet网络;
所述训练完成的DM-UNet网络包括编解码结构和边缘检测机制。
6.根据权利要求5所述一种CT结肠影像内容物的标注方法,其特征在于,所述训练完成的DM-UNet网络的工作步骤如下:
对输入CT影像进行四层编码,得到压缩的特征图;
对压缩的特征图进行四层解码,并将同层的特征图进行拼接;
通过一个1*1卷积输出预测区域;
在DM-UNet外部引入边缘检测机制,通过Canny算子检测CT影像数据中的横断面、实际输出与目标输出,得到实际输出边缘图与目标输出边缘图。
8.根据权利要求7所述一种CT结肠影像内容物的标注方法,其特征在于,所述获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注这一步骤,其具体包括:
获取待测图像并输入至训练完成的DM-UNet网络;
基于DM-UNet网络识别出待测图像的标注区域和异常区域;
遍历与标注区域对应的输入横断面的每个像素点,并根据预设的灰度阈值区分结肠内容物与结肠空腔两类标注。
9.一种CT结肠影像内容物的标注***,其特征在于,包括:
标注模块,用于获取CT结肠影像数据集并进行标注,得到带标注的CT影像数据集;
预处理模块,用于对带标注的CT结肠影像数据集进行预处理,得到预处理后的CT影像数据集;
网络训练模块,用于基于预处理后的CT影像数据集训练预构建的3D Inception网络和改进的U-net网络,并以训练好的3D Inception网络辅助训练改进的U-net网络,得到训练完成的DM-UNet网络;
应用模块,用于获取待测图像并基于训练完成的DM-UNet网络进行预测,得到结肠内容物标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110779434.6A CN113379735B (zh) | 2021-07-09 | 2021-07-09 | 一种ct结肠影像内容物的标注方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110779434.6A CN113379735B (zh) | 2021-07-09 | 2021-07-09 | 一种ct结肠影像内容物的标注方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113379735A true CN113379735A (zh) | 2021-09-10 |
CN113379735B CN113379735B (zh) | 2023-05-12 |
Family
ID=77581636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110779434.6A Active CN113379735B (zh) | 2021-07-09 | 2021-07-09 | 一种ct结肠影像内容物的标注方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113379735B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871838A (zh) * | 2019-04-18 | 2019-06-11 | 电子科技大学 | 基于级联深度网络的阿尔茨海默症病灶脑区的提取方法 |
CN110956634A (zh) * | 2020-02-26 | 2020-04-03 | 南京慧脑云计算有限公司 | 一种基于深度学习的脑微出血自动检测方法及*** |
CN111127482A (zh) * | 2019-12-20 | 2020-05-08 | 广州柏视医疗科技有限公司 | 基于深度学习的ct影像肺气管的分割方法及*** |
WO2020238044A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市前海安测信息技术有限公司 | 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质 |
CN112258530A (zh) * | 2020-12-21 | 2021-01-22 | 四川大学 | 基于神经网络的计算机辅助肺结节自动分割方法 |
CN112950599A (zh) * | 2021-03-10 | 2021-06-11 | 中山大学 | 一种基于深度学习的大肠空腔区及肠内容物标注方法 |
CN113012172A (zh) * | 2021-04-09 | 2021-06-22 | 杭州师范大学 | 一种基于AS-UNet的医学图像分割方法及*** |
-
2021
- 2021-07-09 CN CN202110779434.6A patent/CN113379735B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871838A (zh) * | 2019-04-18 | 2019-06-11 | 电子科技大学 | 基于级联深度网络的阿尔茨海默症病灶脑区的提取方法 |
WO2020238044A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市前海安测信息技术有限公司 | 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质 |
CN111127482A (zh) * | 2019-12-20 | 2020-05-08 | 广州柏视医疗科技有限公司 | 基于深度学习的ct影像肺气管的分割方法及*** |
CN110956634A (zh) * | 2020-02-26 | 2020-04-03 | 南京慧脑云计算有限公司 | 一种基于深度学习的脑微出血自动检测方法及*** |
CN112258530A (zh) * | 2020-12-21 | 2021-01-22 | 四川大学 | 基于神经网络的计算机辅助肺结节自动分割方法 |
CN112950599A (zh) * | 2021-03-10 | 2021-06-11 | 中山大学 | 一种基于深度学习的大肠空腔区及肠内容物标注方法 |
CN113012172A (zh) * | 2021-04-09 | 2021-06-22 | 杭州师范大学 | 一种基于AS-UNet的医学图像分割方法及*** |
Non-Patent Citations (2)
Title |
---|
LI, SONG ET AL: "Bottleneck feature supervised U-Net for pixel-wise liver and tumor segmentation", 《EXPERT SYSTEMS WITH APPLICATIONS》 * |
李昭延: "基于深度学习的医学图像分割算法的优化与实现", 《中国优秀博硕士学位论文全文数据库(硕士)》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113379735B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112150428B (zh) | 一种基于深度学习的医学图像分割方法 | |
CN111553892B (zh) | 基于深度学习的肺结节分割计算方法、装置及*** | |
CN111429473B (zh) | 基于多尺度特征融合的胸片肺野分割模型建立及分割方法 | |
CN113870258A (zh) | 一种基于对抗学习的无标签胰腺影像自动分割*** | |
JP6329697B2 (ja) | 体組織の自動的なセグメンテーションおよび定量化のための方法 | |
CN112258530A (zh) | 基于神经网络的计算机辅助肺结节自动分割方法 | |
JP7346553B2 (ja) | 深層学習を使用する3dデータセット内のオブジェクトの成長率の決定 | |
CN113223005B (zh) | 一种甲状腺结节自动分割及分级的智能*** | |
CN112396605B (zh) | 网络训练方法及装置、图像识别方法和电子设备 | |
CN115909006B (zh) | 基于卷积Transformer的乳腺组织图像分类方法及*** | |
Saidy et al. | Chest X-ray image segmentation using encoder-decoder convolutional network | |
CN112263217A (zh) | 一种基于改进卷积神经网络的非黑素瘤皮肤癌病理图像病变区域检测方法 | |
CN115512110A (zh) | 一种涉及跨模态注意力机制的医学图像肿瘤分割方法 | |
CN115526834A (zh) | 免疫荧光图像检测方法及装置、设备、存储介质 | |
CN114565572A (zh) | 一种基于图像序列分析的脑出血ct图像分类方法 | |
WO2021011775A1 (en) | Systems and methods for generating classifying and quantitative analysis reports of aneurysms from medical image data | |
Tian et al. | Radiomics and its clinical application: artificial intelligence and medical big data | |
CN114359671A (zh) | 基于多目标学习的超声影像甲状腺结节分类方法及*** | |
CN113538363A (zh) | 一种基于改进U-Net的肺部医学影像分割方法及装置 | |
CN111476802B (zh) | 一种医学图像分割与肿瘤检测方法,设备及可读存储介质 | |
CN111986216A (zh) | 一种基于神经网络改进的rsg肝脏ct图像交互式分割算法 | |
CN115409812A (zh) | 一种基于融合时间注意机制的ct图像自动分类方法 | |
CN113379735A (zh) | 一种ct结肠影像内容物的标注方法及*** | |
CN115471512A (zh) | 一种基于自监督对比学习的医学影像分割方法 | |
Singh et al. | Preprocessing of Medical Images using Deep Learning: A Comprehensive Review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |