CN116205967A - 医学影像语义分割方法、装置、设备及介质 - Google Patents
医学影像语义分割方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN116205967A CN116205967A CN202310465254.XA CN202310465254A CN116205967A CN 116205967 A CN116205967 A CN 116205967A CN 202310465254 A CN202310465254 A CN 202310465254A CN 116205967 A CN116205967 A CN 116205967A
- Authority
- CN
- China
- Prior art keywords
- image data
- semantic segmentation
- data
- medical image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000002372 labelling Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000003062 neural network model Methods 0.000 claims abstract description 15
- 238000004519 manufacturing process Methods 0.000 claims abstract description 6
- 230000003902 lesion Effects 0.000 claims description 18
- 210000004072 lung Anatomy 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 238000002360 preparation method Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 201000005202 lung cancer Diseases 0.000 description 5
- 208000020816 lung neoplasm Diseases 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Geometry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及图像识别领域,具体涉及医学影像语义分割方法、装置、设备及介质,利用预先获取CT影像数据和病灶标注信息制作数据集。利用所述数据集对预设的神经网络模型进行有监督训练得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数。获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数。基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度,具有识别准确率高、节省识别时间、降低医生工作强度等优点。
Description
技术领域
本发明涉及图像识别领域,特别涉及医学影像语义分割方法、装置、设备以及介质。
背景技术
影像学检查(CT)是评估肺癌治疗有效性最重要的方法,通过对比肺癌治疗前后(特别是药物保守治疗患者)病灶大小的改变,可以直观的明确治疗的有效性、是否需要换代治疗,能够直观反映治疗方案的有效性,从而能够指导医生对于后续治疗方案的调整。
目前影像学检查主要依赖于人工判读的方式,且只能评估最大横切面的面积,无法表征病灶的体积变化。
发明内容
有鉴于此,本发明实施例中提供医学影像语义分割方法、装置、设备以及介质。
第一方面,本发明实施例中提供一种医学影像语义分割方法,包括:
利用预先获取CT影像数据和病灶标注信息制作数据集;
利用所述数据集对预设的神经网络模型进行有监督训练,提取CT影像数据中的肺部特征,当迭代至网络收敛后,得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数;
获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数;
基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度。
作为一种可选的方案,所述利用预先获取CT影像数据和病灶标注信息制作数据集,包括:
利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据;
利用医生预先标注的NII格式的病灶标注信息作为病灶标注信息。
作为一种可选的方案,所述利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据之前,还包括:
DICOM序列文件由三维数据转为二维图像,所述DICOM序列文件的维度为512×512×n,以512×512作为二维图像的图像高和宽。
作为一种可选的方案,所述二维图像采用位图图像 BMP格式或便携式网络图形PNG格式,NII格式的病灶标注信息的三维标签转换为BMP格式或PNG格式的二维图像作为病灶标注信息。
作为一种可选的方案,所述预设的神经网络模型的选择改进的U型编解码语义分割网络作为主干网络,在编码器部分,通过卷积层进行特征提取和三次下采样层进行编码,在不同分辨率的深层特征和浅层特征的跳跃连接skip connection中加入通道与空间注意力进行特征校准;在解码器部分,通过上采样和多尺度特征融合结构,融合不同尺度的深度特征,恢复预测的掩膜。
第二方面,本发明实施例中提供一种基于深度学习的医学影像语义分割装置,包括:
数据集准备单元,用于利用预先获取CT影像数据和病灶标注信息制作数据集;
训练单元,用于利用所述数据集对预设的神经网络模型进行有监督训练,提取CT影像数据中的肺部特征,当迭代至网络收敛后,得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数;
处理单元,用于获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数;
确定单元,用于基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度。
作为一种可选的方案,所述数据集准备单元具体用于:
利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据;
利用医生预先标注的NII格式的病灶标注信息作为病灶标注信息。
作为一种可选的方案,所述预设的神经网络模型的选择改进的U型编解码语义分割网络作为主干网络,在编码器部分,通过卷积层进行特征提取和三次下采样层进行编码,在不同分辨率的深层特征和浅层特征的跳跃连接skip connection中加入通道与空间注意力进行特征校准;在解码器部分,通过上采样和多尺度特征融合结构,融合不同尺度的深度特征,恢复预测的掩膜。
第三方面,本发明实施例中提供一种计算机设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的医学影像语义分割方法。
第四方面,本发明实施例中提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述的医学影像语义分割方法。
本发明实施例中提供的医学影像语义分割方法、装置、设备及介质,利用预先获取CT影像数据和病灶标注信息制作数据集。利用所述数据集对预设的神经网络模型进行有监督训练得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数。获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数。基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度,具有识别准确率高、节省识别时间、降低医生工作强度等优点。
附图说明
图1为本发明实施例中提供一种医学影像语义分割方法的流程图;
图2为本发明实施例中提供一种医学影像语义分割方法中可视化样本数据的示意图;
图3为本发明实施例中提供一种医学影像语义分割方法中数据集的示意图;
图4为本发明实施例中提供一种医学影像语义分割方法中主干网络的结构示意图;
图5为本发明实施例中提供一种医学影像语义分割方法中试验效果示意图;
图6为本发明实施例中提供一种基于深度学习的医学影像语义分割装置的结构框图;
图7为本发明实施例中提供一种计算机设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
结合图1所示,本发明实施例中提供一种医学影像语义分割方法,包括:
S101、利用预先获取CT影像数据和病灶标注信息制作数据集。
S102、利用所述数据集对预设的神经网络模型进行有监督训练,提取CT影像数据中的肺部特征,当迭代至网络收敛后,得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数。
S103、获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数。
S104、基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度。
本发明实施例中提供的医学影像语义分割方法,利用预先获取CT影像数据和病灶标注信息制作数据集。利用所述数据集对预设的神经网络模型进行有监督训练得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数。获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数。基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度,具有识别准确率高、节省识别时间、降低医生工作强度等优点。
通过智能分析预期实现全自动的肺癌目标病灶的3D体积测量,首先CT为断层扫描成像,对于肺部的成像方式是垂直于脊柱的面从下(脚的方向)向上推扫成像,通过控制推扫的速度来决定两幅CT断层图像之间的垂直距离,通过深度学习自动识别技术推演得到每张CT影像数据中病灶在图像上所成的像素点数,从而估算实际面积,之后对每张有病灶的CT影像数据从纵向上利用推扫速度等已知量能够评估出病灶在纵向的高度,从而得到不规则的病灶的3D体积,通过定量地计算同一患者前后两次目标病灶的3D体积进而给出肺癌治疗效果的评估意见。
在S101中,所述利用预先获取CT影像数据和病灶标注信息制作数据集,包括:
利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据,DICOM序列文件是一种序列数据,可以表示为长宽高的矩形数据,利用医生预先标注的NII格式的病灶标注信息作为病灶标注信息。
结合图2所示,将DICOM序列文件的数据可视化可以预先进行数据的观测和分析,图中展示了可视化后的样本数据。
具体地,根据不同病例的数据差异,DICOM序列文件可以由三维数据转为二维图像,所述DICOM序列文件的维度为512×512×n,以512×512作为二维图像的图像高和宽。
在一些实施例中,所述二维图像采用位图图像 BMP格式或便携式网络图形PNG格式,NII格式的病灶标注信息的三维标签转换为BMP格式或PNG格式的二维图像作为病灶标注信息,具体地,可以用Python编程语言和Pydicom工具库将DICOM格式的三维数据转换为BMP格式或PNG格式的二维图片进行训练,同时利用Nibebal工具库将NII格式的病灶标注信息的三维标签转换为BMP格式或PNG格式的二维图像作为病灶标注信息。
结合图3所示,在一些实施例中,可以将数据中病灶的CT影像数据挑选出来分出来正样本和负样本,按照不同的正样本和负样本的比例构成数据集,并随机的将数据集数据按照设定的比例分为训练集、测试集、和验证集进行训练,建立的数据集可以如图3所示,包括样本原图和样本标签。
结合图4所示,所述预设的神经网络模型的选择改进的U型编解码语义分割网络作为主干网络,针对改进的U型编解码语义分割网络的网络结构进行介绍,包括池化层、通道注意力模块CAM、空间注意力模块SAM、通道融合、上采样、卷积层、特征融合部分,在编码器部分,通过卷积层进行特征提取和三次下采样层进行编码。相比于传统的U-Net网络,在本方案去除了不利于小目标分割的低分辨率下采样结构,同时在不同分辨率的深层特征和浅层特征的skip connection中加入通道与空间注意力进行特征校准,校准后可以使网络更好的学习到特征在空间和通道的分布。在解码器部分,神经网络通过上采样和多尺度特征融合结构,融合不同尺度的深度特征,恢复预测的掩膜。相对于只用最后一层特征图的U-Net网络,本方案的多尺度融合结构可以预测出更高精度的肺部病灶分割掩膜图。
结合图5所示,为了更好说明本发明实施例中提供的医学影像语义分割方法的试验效果,以识别肺癌目标病灶为例,本实验的各项参数如下:(1)测试集:病灶分割数据库;(2)训练参数:Epoch=1500 BatchSize =4;(3)推理速度:GPU=RTX 2080Ti Size=512*512BatchSize =8;(4)准确率可到95%,图中, Raw Image为原始图像,ground truth为基准,可以看出,即使是小尺度的肺部病灶,我们所设计的网络也能准确识别出来,并获得基本准确的掩膜,网络分割效果好,准确率高。
本发明实施例中提供的医学影像语义分割方法,通过计算机视觉技术进行判别,节省医生等专业人员的时间,帮助医生快速的进行医疗诊断,不仅判断速度快,判断一个病人的CT影像(包含300多张图像)所需时间不超过两分钟,而且判断准确率高,我们设计的核心病灶分割算法的准确率在95%以上,具备可移动性强,一台电脑即可完成所有任务,不需要特别复杂的设备等优点。
结合图6所示,相应地,本发明实施例中提供一种基于深度学习的医学影像语义分割装置,包括:
数据集准备单元601,用于利用预先获取CT影像数据和病灶标注信息制作数据集;
训练单元602,用于利用所述数据集对预设的神经网络模型进行有监督训练,提取CT影像数据中的肺部特征,当迭代至网络收敛后,得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数;
处理单元603,用于获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数;
确定单元604,用于基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度。
作为一种可选的方案,所述数据集准备单元601具体用于:
利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据;
利用医生预先标注的NII格式的病灶标注信息作为病灶标注信息。
作为一种可选的方案,所述预设的神经网络模型的选择改进的U型编解码语义分割网络作为主干网络,在编码器部分,通过卷积层进行特征提取和三次下采样层进行编码,在不同分辨率的深层特征和浅层特征的跳跃连接skip connection中加入通道与空间注意力进行特征校准;在解码器部分,通过上采样和多尺度特征融合结构,融合不同尺度的深度特征,恢复预测的掩膜。
本发明实施例中提供的基于深度学习的医学影像语义分割装置,通过计算机视觉技术进行判别,节省医生等专业人员的时间,帮助医生快速的进行医疗诊断,不仅判断速度快,判断一个病人的CT影像(包含300多张图像)所需时间不超过两分钟,而且判断准确率高,我们设计的核心病灶分割算法的准确率在95%以上,具备可移动性强,一台电脑即可完成所有任务,不需要特别复杂的设备等优点。
相应地,根据本发明的实施例,本发明还提供了一种计算机设备、一种可读存储介质和一种计算机程序产品。
图7为本发明实施例中提供的一种计算机设备12的结构示意图。图7示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图7显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算机设备12以通用计算设备的形式表现。计算机设备12旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM、DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的医学影像语义分割方法。
本发明实施例中还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时本申请所有发明实施例提供的医学影像语义分割方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述的医学影像语义分割方法。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种医学影像语义分割方法,其特征在于,包括:
利用预先获取CT影像数据和病灶标注信息制作数据集;
利用所述数据集对预设的神经网络模型进行有监督训练,提取CT影像数据中的肺部特征,当迭代至网络收敛后,得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数;
获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数;
基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度。
2.根据权利要求1所述的医学影像语义分割方法,其特征在于,所述利用预先获取CT影像数据和病灶标注信息制作数据集,包括:
利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据;
利用医生预先标注的NII格式的病灶标注信息作为病灶标注信息。
3.根据权利要求2所述的医学影像语义分割方法,其特征在于,所述利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据之前,还包括:
DICOM序列文件由三维数据转为二维图像,所述DICOM序列文件的维度为512×512×n,以512×512作为二维图像的图像高和宽。
4.根据权利要求3所述的医学影像语义分割方法,其特征在于,所述二维图像采用位图图像 BMP格式或便携式网络图形PNG格式,NII格式的病灶标注信息的三维标签转换为BMP格式或PNG格式的二维图像作为病灶标注信息。
5.根据权利要求1所述的医学影像语义分割方法,其特征在于,所述预设的神经网络模型的选择改进的U型编解码语义分割网络作为主干网络,在编码器部分,通过卷积层进行特征提取和三次下采样层进行编码,在不同分辨率的深层特征和浅层特征的跳跃连接skipconnection中加入通道与空间注意力进行特征校准;在解码器部分,通过上采样和多尺度特征融合结构,融合不同尺度的深度特征,恢复预测的掩膜。
6.一种基于深度学习的医学影像语义分割装置,其特征在于,包括:
数据集准备单元,用于利用预先获取CT影像数据和病灶标注信息制作数据集;
训练单元,用于利用所述数据集对预设的神经网络模型进行有监督训练,提取CT影像数据中的肺部特征,当迭代至网络收敛后,得到具有推理功能的医学影像语义分割模型,所述医学影像语义分割模型用于表征CT影像数据对应的病灶区域的像素点数;
处理单元,用于获取待检测CT影像数据,并送入所述医学影像语义分割模型得到所述待检测CT影像数据中病灶区域的像素点数;
确定单元,用于基于数据采集参数和所述待检测CT影像数据中病灶区域的像素点数确定所述待检测CT影像数据中病灶区域的体积参数,其中所述数据采集参数包括切片厚度和推扫速度。
7.根据权利要求6所述的基于深度学习的医学影像语义分割装置,其特征在于,所述数据集准备单元具体用于:
利用医院提供的DICOM序列文件的肺部CT影像数据作为CT影像数据;
利用医生预先标注的NII格式的病灶标注信息作为病灶标注信息。
8.根据权利要求6所述的基于深度学习的医学影像语义分割装置,其特征在于,所述预设的神经网络模型的选择改进的U型编解码语义分割网络作为主干网络,在编码器部分,通过卷积层进行特征提取和三次下采样层进行编码,在不同分辨率的深层特征和浅层特征的跳跃连接skip connection中加入通道与空间注意力进行特征校准;在解码器部分,通过上采样和多尺度特征融合结构,融合不同尺度的深度特征,恢复预测的掩膜。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的医学影像语义分割方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1至5中任一项所述的医学影像语义分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310465254.XA CN116205967A (zh) | 2023-04-27 | 2023-04-27 | 医学影像语义分割方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310465254.XA CN116205967A (zh) | 2023-04-27 | 2023-04-27 | 医学影像语义分割方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116205967A true CN116205967A (zh) | 2023-06-02 |
Family
ID=86513155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310465254.XA Pending CN116205967A (zh) | 2023-04-27 | 2023-04-27 | 医学影像语义分割方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116205967A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563285A (zh) * | 2023-07-10 | 2023-08-08 | 邦世科技(南京)有限公司 | 一种基于全神经网络的病灶特征识别与分割方法及*** |
CN116664953A (zh) * | 2023-06-28 | 2023-08-29 | 北京大学第三医院(北京大学第三临床医学院) | 2.5d肺炎医学ct影像分类装置及设备 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992817A (zh) * | 2017-06-15 | 2018-05-04 | 上海联影医疗科技有限公司 | 自动成像方法和*** |
CN111047611A (zh) * | 2020-03-13 | 2020-04-21 | 北京深睿博联科技有限责任公司 | 病灶体积测量方法和装置 |
CN111047591A (zh) * | 2020-03-13 | 2020-04-21 | 北京深睿博联科技有限责任公司 | 基于深度学习的病灶体积测量方法、***、终端及存储介质 |
CN111126385A (zh) * | 2019-12-13 | 2020-05-08 | 哈尔滨工程大学 | 一种可变形活体小目标的深度学习智能识别方法 |
CN111462116A (zh) * | 2020-05-13 | 2020-07-28 | 吉林大学第一医院 | 基于影像组学特征的多模态参数模型优化融合方法 |
CN111696082A (zh) * | 2020-05-20 | 2020-09-22 | 平安科技(深圳)有限公司 | 图像分割方法、装置、电子设备及计算机可读存储介质 |
CN112785593A (zh) * | 2021-03-12 | 2021-05-11 | 大连民族大学 | 一种基于深度学习的脑部图像分割方法 |
CN113065558A (zh) * | 2021-04-21 | 2021-07-02 | 浙江工业大学 | 一种结合注意力机制的轻量级小目标检测方法 |
CN113205524A (zh) * | 2021-05-17 | 2021-08-03 | 广州大学 | 基于U-Net的血管图像分割方法、装置和设备 |
CN113221855A (zh) * | 2021-06-11 | 2021-08-06 | 中国人民解放军陆军炮兵防空兵学院 | 基于尺度敏感损失与特征融合的小目标检测方法和*** |
CN114066904A (zh) * | 2021-11-19 | 2022-02-18 | 西安交通大学医学院第二附属医院 | 一种基于深度学习的皮肤病变图像分割方法、设备及存储介质 |
CN114419060A (zh) * | 2021-12-01 | 2022-04-29 | 华南理工大学 | 皮肤镜图像分割方法与*** |
CN114581453A (zh) * | 2022-03-15 | 2022-06-03 | 重庆邮电大学 | 基于多轴面特征融合二维卷积神经网络的医学图像分割方法 |
CN114998265A (zh) * | 2022-06-06 | 2022-09-02 | 长春工业大学 | 一种基于改进U-Net的肝脏肿瘤分割方法 |
CN115294093A (zh) * | 2022-08-26 | 2022-11-04 | 桂林理工大学 | 一种基于嵌入式残差卷积的u型肺炎胸部ct图像分割方法 |
CN115393584A (zh) * | 2022-08-02 | 2022-11-25 | 哈尔滨理工大学 | 基于多任务超声甲状腺结节分割与分类模型的建立方法、分割与分类方法和计算机设备 |
CN115661144A (zh) * | 2022-12-15 | 2023-01-31 | 湖南工商大学 | 基于可变形U-Net的自适应医学图像分割方法 |
CN115797684A (zh) * | 2022-11-21 | 2023-03-14 | 北京理工大学 | 一种基于上下文信息的红外小目标检测方法及*** |
-
2023
- 2023-04-27 CN CN202310465254.XA patent/CN116205967A/zh active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992817A (zh) * | 2017-06-15 | 2018-05-04 | 上海联影医疗科技有限公司 | 自动成像方法和*** |
CN111126385A (zh) * | 2019-12-13 | 2020-05-08 | 哈尔滨工程大学 | 一种可变形活体小目标的深度学习智能识别方法 |
CN111047611A (zh) * | 2020-03-13 | 2020-04-21 | 北京深睿博联科技有限责任公司 | 病灶体积测量方法和装置 |
CN111047591A (zh) * | 2020-03-13 | 2020-04-21 | 北京深睿博联科技有限责任公司 | 基于深度学习的病灶体积测量方法、***、终端及存储介质 |
CN111462116A (zh) * | 2020-05-13 | 2020-07-28 | 吉林大学第一医院 | 基于影像组学特征的多模态参数模型优化融合方法 |
CN111696082A (zh) * | 2020-05-20 | 2020-09-22 | 平安科技(深圳)有限公司 | 图像分割方法、装置、电子设备及计算机可读存储介质 |
CN112785593A (zh) * | 2021-03-12 | 2021-05-11 | 大连民族大学 | 一种基于深度学习的脑部图像分割方法 |
CN113065558A (zh) * | 2021-04-21 | 2021-07-02 | 浙江工业大学 | 一种结合注意力机制的轻量级小目标检测方法 |
CN113205524A (zh) * | 2021-05-17 | 2021-08-03 | 广州大学 | 基于U-Net的血管图像分割方法、装置和设备 |
CN113221855A (zh) * | 2021-06-11 | 2021-08-06 | 中国人民解放军陆军炮兵防空兵学院 | 基于尺度敏感损失与特征融合的小目标检测方法和*** |
CN114066904A (zh) * | 2021-11-19 | 2022-02-18 | 西安交通大学医学院第二附属医院 | 一种基于深度学习的皮肤病变图像分割方法、设备及存储介质 |
CN114419060A (zh) * | 2021-12-01 | 2022-04-29 | 华南理工大学 | 皮肤镜图像分割方法与*** |
CN114581453A (zh) * | 2022-03-15 | 2022-06-03 | 重庆邮电大学 | 基于多轴面特征融合二维卷积神经网络的医学图像分割方法 |
CN114998265A (zh) * | 2022-06-06 | 2022-09-02 | 长春工业大学 | 一种基于改进U-Net的肝脏肿瘤分割方法 |
CN115393584A (zh) * | 2022-08-02 | 2022-11-25 | 哈尔滨理工大学 | 基于多任务超声甲状腺结节分割与分类模型的建立方法、分割与分类方法和计算机设备 |
CN115294093A (zh) * | 2022-08-26 | 2022-11-04 | 桂林理工大学 | 一种基于嵌入式残差卷积的u型肺炎胸部ct图像分割方法 |
CN115797684A (zh) * | 2022-11-21 | 2023-03-14 | 北京理工大学 | 一种基于上下文信息的红外小目标检测方法及*** |
CN115661144A (zh) * | 2022-12-15 | 2023-01-31 | 湖南工商大学 | 基于可变形U-Net的自适应医学图像分割方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116664953A (zh) * | 2023-06-28 | 2023-08-29 | 北京大学第三医院(北京大学第三临床医学院) | 2.5d肺炎医学ct影像分类装置及设备 |
CN116563285A (zh) * | 2023-07-10 | 2023-08-08 | 邦世科技(南京)有限公司 | 一种基于全神经网络的病灶特征识别与分割方法及*** |
CN116563285B (zh) * | 2023-07-10 | 2023-09-19 | 邦世科技(南京)有限公司 | 一种基于全神经网络的病灶特征识别与分割方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110914866B (zh) | 用于在图像分析中进行解剖结构分割的***和方法 | |
CN116205967A (zh) | 医学影像语义分割方法、装置、设备及介质 | |
CN109003267B (zh) | 从3d图像自动检测目标对象的计算机实现方法和*** | |
CN114119977B (zh) | 一种基于图卷积的Transformer胃癌癌变区域图像分割方法 | |
CN111428709A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110570350A (zh) | 一种二维卵泡检测方法、装置和超声设备及可读存储介质 | |
CN112465834B (zh) | 一种血管分割方法及装置 | |
JP7346553B2 (ja) | 深層学習を使用する3dデータセット内のオブジェクトの成長率の決定 | |
CN113159056A (zh) | 图像分割方法、装置、设备及存储介质 | |
CN112396605B (zh) | 网络训练方法及装置、图像识别方法和电子设备 | |
CN116485798B (zh) | 一种多模态***mri图像自动识别和分割方法及*** | |
CN111192320B (zh) | 一种位置信息确定方法、装置、设备和存储介质 | |
CN114511581B (zh) | 一种多任务多分辨率协作的食管癌病变分割方法及装置 | |
CN110992439B (zh) | 纤维束追踪方法、计算机设备和存储介质 | |
CN116309459A (zh) | 基于改进网络的肺结节检测方法、装置、设备和存储介质 | |
CN114066905A (zh) | 一种基于深度学习的医学图像分割方法、***、装置 | |
CN114240965A (zh) | 一种图注意力模型驱动的小样本学习肿瘤分割方法 | |
CN114283406A (zh) | 细胞图像识别方法、装置、设备、介质及计算机程序产品 | |
CN113764101A (zh) | 基于cnn的乳腺癌新辅助化疗多模态超声诊断*** | |
CN116958693A (zh) | 图像分析方法、装置、设备、存储介质和程序产品 | |
CN113255756B (zh) | 图像融合方法、装置、电子设备及存储介质 | |
TW202346826A (zh) | 影像處理方法 | |
Robben et al. | The state of applying artificial intelligence to tissue imaging for cancer research and early detection | |
CN112530554B (zh) | 一种扫描定位方法、装置、存储介质及电子设备 | |
CN115082494A (zh) | 一种基于多标签与分割网络的冠状动脉图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230602 |
|
RJ01 | Rejection of invention patent application after publication |