CN113488146B - 一种头颈部鼻咽癌引流区和转移***的自动勾画方法 - Google Patents
一种头颈部鼻咽癌引流区和转移***的自动勾画方法 Download PDFInfo
- Publication number
- CN113488146B CN113488146B CN202110863468.3A CN202110863468A CN113488146B CN 113488146 B CN113488146 B CN 113488146B CN 202110863468 A CN202110863468 A CN 202110863468A CN 113488146 B CN113488146 B CN 113488146B
- Authority
- CN
- China
- Prior art keywords
- partition
- lymph
- drainage
- drainage area
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种头颈部鼻咽癌引流区和转移***的自动勾画方法,属于医学图像处理的领域,其包括以下步骤:S1:对病例数据进行收集以及处理,其中,病例数据中包括DICOM影像;S2:建立并训练淋巴引流区的分区模型;S3:根据步骤S2得到的淋巴引流区分区的分割网络,预测所有DICOM数据的引流区的各个分区,经过后处理得到各个分区的左右子分区;S4:建立并训练***自动分割网络模型;S5:将病例数据依次输入到淋巴引流区分区模型和***自动分割网络模型中,得到引流区和***分割结果。本发明能够减轻放疗时医生靶区勾画的负担,提高医生勾画的效率,降低医生勾画的主观性。
Description
技术领域
本发明属于医学图像处理的领域,具体涉及一种基于深度学习的头颈部鼻咽癌引流区和转移***的自动勾画方法。
背景技术
人类头颈部鼻咽区广泛分布***网络,鼻咽癌具有较高的***转移率。放射治疗作为鼻咽癌最主要的治疗方式之一,要求医生在CT影像上准确勾画出需要进行照射治疗的大体肿瘤区域(Gross tumor volume,简称GTV)以及相对应的亚临床靶区(Clinicaltarget volume,简称CTV)。其中,GTV是指影像学检查或者临床体检中可见的大体肿瘤区域,具体包括原发灶(GTVp)和转移***(GTVn)。CTV则是包括GTV及其周围有一定几率存在的亚临床病灶,还应包括转移***外的微小浸润灶以及颈部淋巴引流区。精准的GTV和CTV的勾画有利于选择合适的照射范围,将进一步改善鼻咽癌患者放疗后的生活质量,减轻放疗的副作用。
目前,临床上转移***(GTVn)和淋巴引流区主要是由医生手动勾画,勾画时间可长达1-2小时,且不同病例因其个体结构差异性,不同医生的勾画结果主观性较强,因此该方法耗时长且严重依赖医生的临床经验。目前在研究中的引流区和***自动勾画方法可大体分为两大类型,一类是利用传统图像分割算法,主要包括基于边缘检测的图像分割、基于马尔可夫随机场的图像分割等。此类方法一般较为耗时,且分割精度较低,无法适应大量特殊病例。一类是利用神经网络分割图像,该方法首先需要专业医生标注大量数据用于训练神经网络,使得训练后的网络可自动识别并自动勾画***和引流区。
医生手动勾画转移***和颈部引流区时,一方面,其仅仅依赖该病例的CT影像,缺乏类似病例的勾画结果的参考,可能导致勾画结果较为主观,不同医生勾画的靶区可能存在较大差异,对后续治疗方案的确定,治疗效果的评估带来了不利的影响。另一方面,医生手动勾画会耗费较长时间,一个病例的勾画时间可长达1-2小时,此法会给医生带来较重的负担。
由于***与背景区域的对比度较低,且边界模糊导致多数传统分割方法只适用于某些场景,无法通用于临床多变的各种影像。基于神经网络的分割方法,通常只利用了CT影像的信息,缺乏颈部引流区信息的引导,又因为***与背景区域的体积占比只有1/100甚至更小,导致一般的基于神经网络的分割方法其结果精度不够高,且含有较多的假阳区域。
综上所述,目前***和引流区自动勾画算法普遍存在精度较低、边界不准确、假阳区域较多等问题,主要原因在于:(1)在CT图像中,***与周围正常组织结构的对比度较低,且边界模糊,(2)不同***之间体积、形态差异较大,(3)不同病例之间***分布及形变差异大。
有鉴于此,特提出本发明。
发明内容
本发明的目的是提供一种头颈部鼻咽癌引流区和转移***的自动勾画方法,能够减轻放疗时医生靶区勾画的负担,提高医生勾画的效率,降低医生勾画的主观性。
为了实现上述目的,本发明提供的一种头颈部鼻咽癌引流区和转移***的自动勾画方法,包括以下步骤:
S1:对病例数据进行收集以及处理,其中,病例数据中包括DICOM影像;
S2:建立并训练淋巴引流区分区模型;
S3:根据步骤S2得到的淋巴引流区分区的分割网络,预测所有DICOM影像的引流区的各个分区,经过后处理得到各个分区的左右子分区;
S4:建立并训练***自动分割网络模型;
S5:将病例数据依次输入到淋巴引流区分区模型和***自动分割网络模型中,得到引流区和***分割结果。
进一步地,所述步骤S1包括:采集鼻咽癌患者接受放射治疗前的影像以及医生手动勾画的转移***和淋巴引流区轮廓数据;对数据进行二次人工检查并清洗;根据CT影像提取图像矩阵,并根据收集到的***和引流区轮廓线,生成***和引流区的金标准。
进一步地,生成***和引流区的金标准包括:将轮廓线内的图像像素值设置为1,其余置像素值设置为0。
进一步地,所述步骤S2包括:
S201:像素间距归一化,读取DICOM影像的像素间距,当影像的间距超出设置的间距误差范围时,对图像矩阵进行插值等处理;
S202:裁剪感兴趣区域,对图像矩阵进行自适应阈值处理,得到图像的二值矩阵;
S203:金标准预处理,对金标准矩阵进行像素间距归一化,并且对金标准矩阵的每一层进行裁剪,以得到与图像矩阵尺寸相同的感兴趣区域;
S204:拆分训练集和测试集;
S205:建立淋巴引流区分区模型;将训练集中的图像矩阵输入构建的淋巴引流区分区模型中,对淋巴引流区分区模型进行训练。
进一步地,所述步骤S205中,淋巴引流区分区模型选择卷积神经网络模型;
对淋巴引流区分区模型进行训练包括:将训练集中的图像矩阵输入构建的卷积神经网络中,得到网络输出,将该输出结果与训练集中的金标准矩阵输入损失函数,得到测试集的损失;然后通过反向传播算法,从网络输出层自顶向下的调整网络的参数使损失函数朝最小化的方向移动,使网络输出结果与金标准矩阵更接近。
进一步地,训练过程中,根据测试集的损失评估网络模型的学习能力和泛化能力,当测试集的损失稳定时,结束训练,并从中挑选出最优的模型。
进一步地,所述步骤S3中,后处理包括:合并引流区的各个分区的二值矩阵,并保留两个三维最大连通域,求解两个连通域的中心点,取两个中心点的X轴的中心坐标作为基准坐标,对每个分区保留两个三维最大连通域,并根据其中心点X轴坐标与基准坐标的关系,分割出左右子分区。
进一步地,所述步骤S4包括:
S401:像素间距归一化,读取DICOM影像的像素间距,当影像的间距超出设置的间距误差范围时,对图像矩阵进行插值等处理;
S402:预测引流区的子分区,将图像矩阵输入淋巴引流区分区模型,并经过步骤S3的后处理得到引流区各个分区的左右子分区;
S403:裁剪图像矩阵和子分区二值矩阵;
S404:对图像矩阵和子分区二值矩阵进行尺寸归一化;
S405:拆分训练集和测试集;
S406:建立***自动分割网络模型;将训练集中的图像矩阵输入构建的淋巴引流区分区模型中,对淋巴引流区分区模型进行训练。
进一步地,所述步骤S406包括:将拆分后的训练集中的图像矩阵输入神经网络模型,得到输出结果后,利用损失函数计算网络输出结果与金标准矩阵之间的损失,之后通过反向传播算法,调整网络每一层的参数,直至训练集的损失稳定,结束训练。
更进一步地,所述步骤S5还包括:得到***分割结果后,将其恢复到原始DICOM图像矩阵的尺寸,所述恢复方法为上述步骤的逆过程。
本发明提供的一种头颈部鼻咽癌引流区和转移***的自动勾画方法,其优点在于:
1、目前对于一个病例的淋巴引流区和转移***,医生手动勾画时间平均可达1-2小时,而基于本发明可将勾画时间从1-2小时缩短到3分钟以内,明显提高医生的勾画效率,减轻医生的负担,同时也降低医生勾画的主观性。
2、本发明仅输入CT数据,首先通过一个较小的网络对引流区各个分区进行预测,得到引流区各个分区的结果,然后根据各个分区的位置裁剪得到更小的感兴趣区域,将其数据三维网络中分割小目标***。
3、本发明利用了***在各个分区内不同的转移概率,并充分利用了引流区的信息作为引导,更为精准的分割小目标区域***,可以进一步保证分割结果边界的准确性,并降低分割结果中的假阳区域。
附图说明
图1为本具体实施方式中的头颈部鼻咽癌引流区和转移***的自动勾画方法的流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合具体实施方式对本发明作进一步的详细说明。
本发明提供的一种头颈部鼻咽癌引流区和转移***的自动勾画方法,首先对引流区各个分区进行分割,然后根据各个分区的预测结果缩小分割***的图像范围,使网络更关注引流区内部,减少假阳区域。整体流程如图1所示,具体包括以下步骤:
S1:对病例数据进行收集以及处理。
病例数据中包括DICOM影像和对应的医生勾画的***和引流区的轮廓线数据。
具体地,首先从医院采集鼻咽癌患者接受放射治疗前的DICOM影像以及医生手动勾画的转移***和淋巴引流区轮廓数据,其中的影像数据模态包括但不限于CT(Computed Tomography)、MR(magnetic resonance)等;其次需要将数据交由独立的专业医生进行二次人工检查并清洗,剔除***和引流区各个分区中勾画不完整的数据,保证数据的准确性;最后,根据CT影像提取图像矩阵,并根据收集到的***和引流区轮廓线,将轮廓线内的图像像素值设置为1,其余置像素值设置为0,生成***和引流区的金标准。
S2:建立并训练淋巴引流区分区模型。
对步骤S1中获得的数据进行预处理,得到感兴趣区域,然后按照8:2的比例分成训练数据和测试数据,将训练数据输入神经网络中进行训练,利用测试数据对模型的性能进行测试,直至模型性能较为稳定。
其中,在进行数据预处理时,需要先对数据进行像素间距归一化,然后通过自适应阈值分割目标区域,得到目标区域的中心点后对图像进行裁剪,得到固定大小的感兴趣区域,最后通过构建神经网络,分割引流区各个分区。具体地,步骤S2的具体步骤如下:
S201:像素间距归一化。
读取DICOM影像的像素间距(spacing),当影像的间距超出设置的间距误差范围时,对图像矩阵进行插值等处理。具体地,当X,Y轴的间距超出误差范围时,可对像素矩阵进行插值,插值方法不限于最邻近插值、线性插值等;当Z轴间距较小且超出误差范围时,可通过剔除相邻层增大Z轴间距;当Z轴间距较大且超出误差范围时,可通过复制相邻层减小Z轴间距。通过像素间距归一化操作,可使图像矩阵相对规范,并减小裁剪感兴趣区域的误差。
S202:裁剪感兴趣区域。
对图像矩阵进行自适应阈值处理,得到图像的二值矩阵,其中值为1的区域为目标区域,值为0的区域为空气等噪声区域。此时需要对二值矩阵的每一层进行孔洞填充操作,最后保留二值矩阵的三维最大连通域,得到更为精准的目标区域。计算每一层目标区域的中心点,以该目标区域的中心点为中心点截取固定大小的感兴趣区域,该固定大小可设置为256。
S203:金标准预处理。
根据步骤S201对金标准矩阵进行像素间距归一化,然后根据S202中得到的目标区域的中心点,对金标准矩阵的每一层进行裁剪,以得到与图像矩阵尺寸相同的感兴趣区域。
S204:拆分训练集和测试集。
根据DICOM数据的数量,对预处理后的图像矩阵和金标准矩阵分别按照8:2的比例划分为训练集和测试集。训练集需要进行增广操作,增广方法包括但不限于翻转、加入高斯噪声等。通过增广操作可以增加训练集的数量,并增大神经网络的泛化能力。
S205:建立并训练淋巴引流区分区模型。其具体包括:
(1)建立淋巴引流区分区模型,淋巴引流区分区模型选择卷积神经网络模型,可选择FCN、Unet、SegNet以及它们的变种网络模型。由于引流区分区中,Va、Vb、Vc区面积较小,可在神经网络模型中引入注意力机制,增大网络的回顾学习能力。
其中,基于医学RTOG标准,本发明中分割的引流区分区包括II区、III区、IVa区、IVb区、Va区、Vb区、Vc区,分别是引流区各个子分区名称的简称。
(2)对卷积神经网络模型进行训练:将训练集中的图像矩阵输入构建的卷积神经网络中,得到网络输出,将该输出结果与训练集中的金标准矩阵输入损失函数,得到测试集的损失;然后通过反向传播算法,从网络输出层自顶向下的调整网络的参数使损失函数朝最小化的方向移动,使网络输出结果与金标准矩阵更接近。
其中,损失函数的定义如下:损失函数可选择分割网络中常用的损失函数:dice相似度系数(Dice Similarity Coefficient,简称DSC),其计算公式具体为:
公式中,P为网络输出的结果,G为金标准矩阵。
此外,训练过程中,可根据测试集的损失评估网络模型的学习能力和泛化能力,当测试集的损失稳定时,可结束训练,并从中挑选出最优的模型。
S3:根据步骤S2得到的引流区分区的分割网络,预测所有DICOM数据的引流区的各个分区,经过后处理得到各个分区的左右子分区。
其中,后处理步骤具体为:首先,合并引流区的各个分区的二值矩阵,并保留两个三维最大连通域,求解两个连通域的中心点,取两个中心点的X轴的中心坐标作为基准坐标,对每个分区保留两个三维最大连通域,并根据其中心点X轴坐标与基准坐标的关系,分割出左右子分区。
S4:建立并训练***自动分割网络模型。
根据步骤S3可得到引流区各个分区的左右子分区,接着对每个左右子分区进行预处理,得到***分割网络的训练集和测试集。
利用引流区分割网络,对引流区各个分区进行后处理,分割出各个分区的左右子分区,并根据子分区位置对图像进行裁剪,然后进行尺寸归一化,得到训练数据。通过训练三维***分割网络,可得到***分割结果。具体地,步骤S4的具体步骤如下:
S401:像素间距归一化,
此步骤与步骤S2中步骤S201相同。
S402:预测引流区的子分区。
具体地,将经过步骤S401的图像矩阵输入步骤S2的淋巴引流区分区模型,并经过步骤S3的后处理得到引流区各个分区的左右子分区。
S403:裁剪感兴趣区域。
具体地,根据步骤S402得到各个子分区的左右子分区,裁剪图像矩阵和子分区二值矩阵。
上述步骤S401至S403的示例:以引流区II区左分区(以下简称为II_L)为例,具体步骤为:计算II_L区的最大外接矩形,并得到其中心点(X0,Y0,Z0);根据中心点在II_L区的二值矩阵的X、Y轴上向图像左(和右)、上(和下)分别截取固定尺寸,该固定尺寸可设置为64;在二值矩阵的Z轴方向上,若II_L共有Z1层,则以Z0为中心,向Z轴前(和后)截取Z1/2+3层。最终可得到128*128*(Z0+6)的金标准;相对应的,图像矩阵根据中心点(X0,Y0,Z0)进行上述步骤的截取,可得到对应的128*128*(Z0+6)的感兴趣区域;对引流区的每个分区的左右子分区进行如上述步骤的裁剪操作,可得到图像的感兴趣区域以及相对应的金标准。
S404:对图像矩阵和子分区二值矩阵进行尺寸归一化。
经过步骤S403得到的感兴趣区域和金标准的矩阵尺寸可能并不统一,需要将其归一化到固定尺寸,该尺寸可设置为128*128*40。尺寸归一化即是把图像在各个维度上调整到固定大小,若该维度尺寸大于固定尺寸,则进行裁剪,若该维度尺寸小于固定尺寸,则进行填充。
S405:拆分训练集和测试集。
该步骤与步骤S2中的步骤S204相同。
S406:建立并训练***自动分割网络模型。
***自动分割网络模型可选择常用的分割网络模型,如Unet、FNet、SegNet等卷积神经网络模型,损失函数也可选择常用的DSC函数。将拆分后的训练集中的图像矩阵输入神经网络模型,得到输出结果后,利用损失函数计算网络输出结果与金标准矩阵之间的损失,之后通过反向传播算法,调整网络每一层的参数,直至训练集的损失稳定,结束训练。利用测试集的结果,选择表现最优异的分割网络模型。
S5:将病例数据依次输入到步骤S2中的淋巴引流区分区模型和步骤S4中的***自动分割网络模型中,得到引流区和***分割结果。
具体地,当预测新的DICOM数据时,依照步骤S2中的步骤S201和S202对数据进行预处理,然后将预处理后的数据输入引流区分割模型,得到各个分区的预测结果,并按照步骤S3中的方法进行后处理后,根据步骤S4中的S403和S404对图像矩阵进行预处理,然后将预处理后的图像矩阵输入***分割模型,得到***分割结果,并将其恢复到原始DICOM图像矩阵的尺寸,恢复方法为上述步骤的逆过程。
本发明在于一种基于深度学习的头颈部鼻咽癌引流区和转移***的自动勾画方法,首先对引流区各个分区进行分割,然后利用引流区的分割结果,对每个分区的图像进行训练得到***分割结果。本发明充分利用了引流区与***之间的位置联系,并对引流区各个分区进行预测,然后利用该结果对***进行分割。本分割方法可有效减小三维网络的规模,并减少了图像的假阳区域。
本文中应用了具体个例对发明构思进行了详细阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离该发明构思的前提下,所做的任何显而易见的修改、等同替换或其他改进,均应包含在本发明的保护范围之内。
Claims (7)
1.一种头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,包括以下步骤:
S1:对病例数据进行收集以及处理,其中,病例数据中包括DICOM影像;
S2:建立并训练淋巴引流区分区模型;
S3:根据步骤S2得到的淋巴引流区分区的分割网络,预测所有DICOM影像的引流区的各个分区,经过后处理得到各个分区的左右子分区;
S4:建立并训练***自动分割网络模型;
S5:将病例数据依次输入到淋巴引流区分区模型和***自动分割网络模型中,得到引流区和***分割结果;
步骤S2包括:
S201:像素间距归一化,读取DICOM影像的像素间距,当影像的间距超出设置的间距误差范围时,对图像矩阵进行插值等处理;
S202:裁剪感兴趣区域,对图像矩阵进行自适应阈值处理,得到图像的二值矩阵;
S203:金标准预处理,对金标准矩阵进行像素间距归一化,并且对金标准矩阵的每一层进行裁剪,以得到与图像矩阵尺寸相同的感兴趣区域;
S204:拆分训练集和测试集;
S205:建立淋巴引流区分区模型;将训练集中的图像矩阵输入构建的淋巴引流区分区模型中,对淋巴引流区分区模型进行训练;
步骤S4包括:
S401:像素间距归一化,读取DICOM影像的像素间距,当影像的间距超出设置的间距误差范围时,对图像矩阵进行插值处理;
S402:预测引流区的子分区,将图像矩阵输入淋巴引流区分区模型,并经过步骤S3的后处理得到引流区各个分区的左右子分区;
S403:裁剪图像矩阵和子分区二值矩阵;
S404:对图像矩阵和子分区二值矩阵进行尺寸归一化;
S405:拆分训练集和测试集;
S406:建立***自动分割网络模型;将训练集中的图像矩阵输入构建的淋巴引流区分区模型中,对淋巴引流区分区模型进行训练;
步骤S406包括:将拆分后的训练集中的图像矩阵输入神经网络模型,得到输出结果后,利用损失函数计算网络输出结果与金标准矩阵之间的损失,之后通过反向传播算法,调整网络每一层的参数,直至训练集的损失稳定,结束训练。
2.根据权利要求1所述的头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,步骤S1包括:采集鼻咽癌患者接受放射治疗前的影像以及医生手动勾画的转移***和淋巴引流区轮廓数据;对数据进行二次人工检查并清洗;根据CT影像提取图像矩阵,并根据收集到的***和引流区轮廓线,生成***和引流区的金标准。
3.根据权利要求2所述的头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,生成***和引流区的金标准包括:将轮廓线内的图像像素值设置为1,其余置像素值设置为0。
4.根据权利要求1所述的头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,步骤S205中,淋巴引流区分区模型选择卷积神经网络模型;
对淋巴引流区分区模型进行训练包括:将训练集中的图像矩阵输入构建的卷积神经网络中,得到网络输出,将该输出结果与训练集中的金标准矩阵输入损失函数,得到测试集的损失;然后通过反向传播算法,从网络输出层自顶向下的调整网络的参数使损失函数朝最小化的方向移动,使网络输出结果与金标准矩阵更接近。
5.根据权利要求4所述的头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,训练过程中,根据测试集的损失评估网络模型的学习能力和泛化能力,当测试集的损失稳定时,结束训练,并从中挑选出最优的模型。
6.根据权利要求1所述的头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,步骤S3中,后处理包括:合并引流区的各个分区的二值矩阵,并保留两个三维最大连通域,求解两个连通域的中心点,取两个中心点的X轴的中心坐标作为基准坐标,对每个分区保留两个三维最大连通域,并根据其中心点X轴坐标与基准坐标的关系,分割出左右子分区。
7.根据权利要求1所述的头颈部鼻咽癌引流区和转移***的自动勾画方法,其特征在于,步骤S5还包括:得到***分割结果后,将其恢复到原始DICOM影像矩阵的尺寸,所述恢复方法为上述步骤的逆过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110863468.3A CN113488146B (zh) | 2021-07-29 | 2021-07-29 | 一种头颈部鼻咽癌引流区和转移***的自动勾画方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110863468.3A CN113488146B (zh) | 2021-07-29 | 2021-07-29 | 一种头颈部鼻咽癌引流区和转移***的自动勾画方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113488146A CN113488146A (zh) | 2021-10-08 |
CN113488146B true CN113488146B (zh) | 2022-04-01 |
Family
ID=77943491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110863468.3A Active CN113488146B (zh) | 2021-07-29 | 2021-07-29 | 一种头颈部鼻咽癌引流区和转移***的自动勾画方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113488146B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445421B (zh) * | 2021-12-31 | 2023-09-29 | 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) | 一种鼻咽癌***区域的识别分割方法、装置及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706217A (zh) * | 2019-09-26 | 2020-01-17 | 中国石油大学(华东) | 一种基于深度学习的肺部肿瘤自动勾画方法 |
CN111105424A (zh) * | 2019-12-19 | 2020-05-05 | 广州柏视医疗科技有限公司 | ***自动勾画方法及装置 |
CN111862021A (zh) * | 2020-07-13 | 2020-10-30 | 中山大学 | 基于深度学习的头颈部***及引流区自动勾画方法 |
CN112270660A (zh) * | 2020-09-30 | 2021-01-26 | 四川大学 | 基于深度神经网络的鼻咽癌放疗靶区自动分割方法 |
CN112790782A (zh) * | 2021-02-02 | 2021-05-14 | 广州柏视医疗科技有限公司 | 基于深度学习的盆腔肿瘤ctv的自动勾画方法 |
CN112950651A (zh) * | 2021-02-02 | 2021-06-11 | 广州柏视医疗科技有限公司 | 基于深度学习网络的纵隔淋巴引流区的自动勾画方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111128328A (zh) * | 2019-10-25 | 2020-05-08 | 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) | 鼻咽癌结构化影像报告及数据处理***和方法 |
CN111127408B (zh) * | 2019-12-12 | 2021-06-15 | 广州柏视医疗科技有限公司 | 基于GrowCut的鼻咽癌原发病灶临床靶区自动勾画方法及*** |
CN112884714A (zh) * | 2021-01-25 | 2021-06-01 | 上海健康医学院 | 一种***ct图像自动分割方法及*** |
CN113034528B (zh) * | 2021-04-01 | 2023-07-14 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 基于影像组学的靶区及危及器官勾画轮廓准确性检验方法 |
-
2021
- 2021-07-29 CN CN202110863468.3A patent/CN113488146B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706217A (zh) * | 2019-09-26 | 2020-01-17 | 中国石油大学(华东) | 一种基于深度学习的肺部肿瘤自动勾画方法 |
CN111105424A (zh) * | 2019-12-19 | 2020-05-05 | 广州柏视医疗科技有限公司 | ***自动勾画方法及装置 |
CN111862021A (zh) * | 2020-07-13 | 2020-10-30 | 中山大学 | 基于深度学习的头颈部***及引流区自动勾画方法 |
CN112270660A (zh) * | 2020-09-30 | 2021-01-26 | 四川大学 | 基于深度神经网络的鼻咽癌放疗靶区自动分割方法 |
CN112790782A (zh) * | 2021-02-02 | 2021-05-14 | 广州柏视医疗科技有限公司 | 基于深度学习的盆腔肿瘤ctv的自动勾画方法 |
CN112950651A (zh) * | 2021-02-02 | 2021-06-11 | 广州柏视医疗科技有限公司 | 基于深度学习网络的纵隔淋巴引流区的自动勾画方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113488146A (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021203795A1 (zh) | 一种基于显著性密集连接扩张卷积网络的胰腺ct自动分割方法 | |
CN111798462B (zh) | 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法 | |
CN111105424A (zh) | ***自动勾画方法及装置 | |
CN112001921B (zh) | 一种基于病灶加权损失函数的新冠肺炎ct影像病灶分割图像处理方法 | |
CN114998265A (zh) | 一种基于改进U-Net的肝脏肿瘤分割方法 | |
Dong et al. | Simultaneous segmentation of multiple organs using random walks | |
CN113488146B (zh) | 一种头颈部鼻咽癌引流区和转移***的自动勾画方法 | |
CN111915620B (zh) | 一种ct肋骨分割方法及装置 | |
CN112862783A (zh) | 一种基于神经网络的甲状腺ct图像结节自动诊断*** | |
CN113657449A (zh) | 一种含噪标注数据的中医舌象腐腻分类方法 | |
CN116883341A (zh) | 一种基于深度学习的肝脏肿瘤ct图像自动分割方法 | |
CN108596924A (zh) | 一种基于距离场融合和椭球先验的mr***图像分割方法 | |
CN114581474A (zh) | 一种基于***ct影像的临床靶区自动勾画方法 | |
CN112348826B (zh) | 一种基于测地线距离和V-net的交互式肝脏分割方法 | |
CN111798463B (zh) | 一种头颈部ct图像中多器官自动分割方法 | |
CN117115437A (zh) | 一种基于区域的多指标多器官医学图像分割模型评估*** | |
CN113408595B (zh) | 病理图像处理的方法、装置、电子设备及可读存储介质 | |
CN112634280B (zh) | 基于能量泛函的mri图像脑肿瘤分割方法 | |
CN112258533B (zh) | 一种超声图像中小脑蚓部的分割方法 | |
CN115578400A (zh) | 图像处理方法、图像分割网络的训练方法及装置 | |
CN111489434A (zh) | 一种基于三维图割的医学影像三维重建方法 | |
CN117994271B (zh) | 基于分水岭算法的人脑图像分割方法 | |
Hu et al. | High Precision Automatic Extraction of Cultural Relic Diseases Based on Improved Slic and AP Clustering | |
CN113177948B (zh) | 一种基于语义分割的医学图像自动窗口调节方法及应用 | |
CN114764811B (zh) | 一种基于动态超声视频的病灶区域实时分割装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |