CN113298754B - 一种***组织轮廓线控制点的检测方法 - Google Patents

一种***组织轮廓线控制点的检测方法 Download PDF

Info

Publication number
CN113298754B
CN113298754B CN202110387981.XA CN202110387981A CN113298754B CN 113298754 B CN113298754 B CN 113298754B CN 202110387981 A CN202110387981 A CN 202110387981A CN 113298754 B CN113298754 B CN 113298754B
Authority
CN
China
Prior art keywords
prostate tissue
outline
magnetic resonance
nuclear magnetic
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110387981.XA
Other languages
English (en)
Other versions
CN113298754A (zh
Inventor
金海燕
王海鹏
肖照林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110387981.XA priority Critical patent/CN113298754B/zh
Publication of CN113298754A publication Critical patent/CN113298754A/zh
Application granted granted Critical
Publication of CN113298754B publication Critical patent/CN113298754B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30081Prostate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种***组织轮廓线控制点的检测方法,包括:对多张原始核磁共振图进行***组织轮廓线的标注,得到多条***组织轮廓线,提取每条***组织轮廓线的像素坐标;在每条***组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;构建U‑Net网络,初始化训练参数;将数据集输入U‑Net网络进行训练,得到网络模型;将原始核磁共振图输入网络模型预测得到预测特征点,将预测特征点连接得到***组织轮廓线。采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动得到核磁共振图片中***组织的轮廓线。

Description

一种***组织轮廓线控制点的检测方法
技术领域
本发明属于图像处理技术领域,涉及一种***组织轮廓线控制点的检测方法。
背景技术
近年来,***癌临床检测方法有特异性抗原检测、***B超、穿刺活检和MR检查等,其中MR检查也叫核磁共振检查,核磁共振成像是***癌影像诊断最为有效的方法,可以辅助医生提升判断***疾病的效率。核磁共振成像以其无电离辐射性、较高软组织分辨率、多参数多方位多序列的成像特点,广泛应用于肿瘤、心脏病以及脑血管疾病等临床诊断方面。
随着深度学习技术的快速发展,神经网络广泛应用于医学图像处理,如Inception-v3网络判断病理切片的肿瘤、U-NET网络在CT(Computed Tomography)图像得到***位置、DeepLearning计算心脏容量等。由于医生观察核磁共振影像了解患者***情况,严重依赖影像医生的经验,会受情绪、认知。偏见等因素影响,导致误判,关于标注***组织轮廓线仍是亟待解决的问题。基于传统的图像处理技术如SIFT(Scale-invariantfeature transform)方法还无法在核磁共振成像DWI(diffusion-weighted imaging)上对***轮廓线的控制点进行标注,目前主要的轮廓线标注工作为手工标注,效率较低,费时费力。
发明内容
本发明的目的是提供一种***组织轮廓线控制点的检测方法,解决了现有技术中存在的人工标注效率较低的问题。
本发明所采用的技术方案是,一种***组织轮廓线控制点的检测方法,包括以下步骤:
步骤1、对多张原始核磁共振图进行***组织轮廓线的标注,得到多条***组织轮廓线,提取每条***组织轮廓线的像素坐标;
步骤2、在每条***组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;
步骤3、构建U-Net网络,初始化训练参数;
步骤4、将数据集输入U-Net网络进行训练,得到网络模型;
步骤5、将原始核磁共振图输入网络模型预测得到预测特征点,将预测特征点连接得到***组织轮廓线。
本发明的特点还在于:
步骤2具体包括以下步骤:
步骤2.1、统计每条***组织轮廓线像素坐标的个数,按照比例选取若干个像素坐标作为***轮廓线控制点,***轮廓线控制点平均分为上半部分控制点和下半部分控制点;
步骤2.2、获取若干个像素坐标中x轴方向的最大值max_x、最小值min_x,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距;
步骤2.3、遍历最小值min_x到最大值max_x,每间隔一个间距计算该像素坐标x值对应的坐标y值,得到两个***组织轮廓线的控制点(xi,yupi)、(xi,ydowni),直至遍历结束,组成第一特征点;
步骤2.4、根据最小值min_x、最大值max_x得到x轴中心点坐标x_Center、y轴中心点坐标y_Center,组成第二特征点;
步骤2.5、将第一特征点、第二特征点组成特征点,作为网络训练数据集的初始点坐标;同时利用每张核磁共振图的***组织轮廓线的特征点制作热图,设置热图的背景像素强度、特征点像素强度,得到初始数据集。
在步骤3之前,对数据集进行归一化、数据增强。
步骤3的U-Net网络采用自定义损失函数,自定义损失函数为:
LOSS=λ1*LOSS12*LOSS2 (2);
上式中,ω为惩罚项,abs()为取绝对值。
步骤4具体包括以下步骤:
步骤4.1、将数据集输入U-Net网络,以经过标注的核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
步骤4.2、将原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,得到第二数据集;
步骤4.3、将第二数据集输入第一网络模型进行训练,得到第二网络模型;
步骤4.4、重复步骤4.2-4.3,直至模型趋于收敛,得到最终的网络模型。
步骤5具体为:将原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的预测特征点连接得到***组织轮廓线。
本发明的有益效果是:
本发明***组织轮廓线控制点的检测方法,采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动得到核磁共振图片中***组织的轮廓线,提供给医生及时判断患者病情。
附图说明
图1是本发明一种***组织轮廓线控制点的检测方法的流程图;
图2是本发明一种***组织轮廓线控制点的检测方法中标注后的核磁共振DWI***组织图;
图3是经过本发明一种***组织轮廓线控制点的检测方法标注后的核磁共振DWI***组织图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
一种***组织轮廓线控制点的检测方法,如图1所示,包括以下步骤:
步骤1、医生通过手工的方式对多张原始核磁共振图***组织轮廓线进行彩色标注,得到多条***组织轮廓线,每张原始核磁共振图上包括一条***组织轮廓线,通过代码提取每条***组织轮廓线的彩色像素坐标;
步骤2、在每条***组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;
步骤2.1、统计每条***组织轮廓线像素坐标的个数color_num,按照比例选取若干个像素坐标作为***轮廓线控制点,由于***轮廓线包括上半部分和下半部分,所以将***轮廓线控制点包括上半部分控制点和下半部分控制点,上半部分控制点个数point_num_up和下半部分控制点个数相同;
步骤2.2、获取若干个像素坐标中x轴方向的最大值max_x、最小值min_x,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距distance,公式如下:
distance=(max_x-min_x)/point_num_up (1);
步骤2.3、遍历最小值min_x到最大值max_x,每间隔一个间距计算该像素坐标x值对应的坐标y值,得到两个***组织轮廓线的控制点(xi,yupi)、(xi,ydowni),直至遍历结束,得到第一特征点;
步骤2.4、根据最小值min_x、最大值max_x得到x轴中心点坐标x_Center,同理可以得到***组织的y轴中心点坐标y_Center,x_Center、y_Center组成第二特征点;
步骤2.5、将第一特征点、第二特征点组成***轮廓的特征点,作为网络训练数据集的初始点坐标;同时利用每张核磁共振图的***组织轮廓线的特征点制作热图,设置热图的背景像素强度、特征点像素强度,得到初始数据集。
步骤3、对数据集进行归一化、数据增强,提升网络训练的效果;构建U-Net网络,初始化训练参数,并采用自定义损失函数,自定义损失函数为:
LOSS=λ1*LOSS12*LOSS2 (2);
上式中,ω为惩罚项,使Loss1不要太大,abs()为取绝对值。
loss2把两张热图按滑动窗口分为很多11*11的小窗口,计算每个滑动窗口内数据集的点与该窗口内预测点的欧式距离,累加这些欧式距离作为loss2,目的是缩小预测的点和数据集的点之间的距离,优化loss1的效果,公式如下:
步骤4、将数据集输入U-Net网络进行训练,得到网络模型;
步骤4.1、将数据集输入U-Net网络,以经过标注的核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
步骤4.2、在人与深度学习模型交互的过程中,希望协调自身认知与网络训练之间的矛盾或不一致性。将原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,使其更加符合人眼观测的规律,得到第二数据集;
步骤4.3、将第二数据集输入第一网络模型进行训练多次,使模型不断学习热图中特征点的特征,得到第二网络模型;
步骤4.4、重复步骤4.2-4.3,使模型趋于收敛,得到最终的网络模型。
步骤5、将原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的预测特征点连接得到***组织轮廓线。
通过以上方式,本发明***组织轮廓线控制点的检测方法,采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动得到核磁共振图片中***组织的轮廓线,提供给医生及时判断患者病情。
实施例
步骤1、医生手工地对多张原始核磁共振图进行***组织轮廓线的标注,如图2所示,得到多条***组织轮廓线,通过编写代码将图像RGB三通道分开提取,提取红色像素坐标,R通道为255,GB两通道为0,得到***组织轮廓线的彩色像素坐标;
步骤2、统计每条***组织轮廓线像素坐标的个数color_num为140,选取其数量的5%作为***轮廓线控制点,作为***轮廓线控制点的个数为28;上半部分控制点个数point_num_up和下半部分控制点个数均为14;
获取若干个像素坐标中x轴方向的最大值max_x=145、最小值min_x=100,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距distance,distance=(145-100)/14=3;
遍历min_x=100到max_x=145,每间隔3个像素计算该像素坐标x值对应的坐标y值,得到两个***组织轮廓线的控制点(100,25)、(100,32),直至遍历结束,得到第一特征点;
根据最小值min_x、最大值max_x得到x轴中心点坐标x_Center=122,同理可以得到***组织的y轴中心点坐标y_Center=28,组成第二特征点(122,28);
将第一特征点、第二特征点组成***轮廓的特征点,作为网络训练数据集的初始点坐标;同时利用每张核磁共振图的***组织轮廓线的特征点制作热图,设置热图的背景像素强度为0、特征点像素强度为200,得到初始数据集。
步骤3、对数据集进行归一化、数据增强,因为数据集图片较少,采用数据增强的方式,对每对训练的标注的核磁共振图、热图进行水平翻转、垂直翻转以及水平+垂直翻转,和原数据一起作为4倍的数据集供网络训练;构建U-Net网络,初始化训练参数,网络训练12个epoch,优化器采用Adam,学习率设置为0.0001,并采用自定义损失函数,自定义损失函数的λ1设置为0.5,λ2为1.5,p设置为2.5,ω为0.0001;
步骤4、将数据集输入U-Net网络,以经过标注的核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
将原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,得到第二数据集;
将第二数据集输入第一网络模型进行训练12个epoch,使模型不断学习热图中特征点的特征,得到第二网络模型;
将第二数据集输入第二网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,得到第三数据集;
将第三数据集输入第二网络模型进行训练,使模型趋于收敛,得到最终的网络模型。通过两次的调整后,不断学习控制点的特征信息,提高模型预测控制点的能力。
步骤5、将原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的预测特征点连接得到***组织轮廓线,如图3所示。

Claims (3)

1.一种***组织轮廓线控制点的检测方法,其特征在于,包括以下步骤:
步骤1、对多张原始核磁共振图进行***组织轮廓线的标注,得到多条***组织轮廓线,提取每条所述***组织轮廓线的像素坐标;
步骤2、在每条所述***组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;
步骤3、构建U-Net网络,初始化训练参数;
步骤4、将所述数据集输入U-Net网络进行训练,得到网络模型;
步骤5、将所述原始核磁共振图输入网络模型预测得到预测特征点,将所述预测特征点连接得到***组织轮廓线;
步骤2具体包括以下步骤:
步骤2.1、统计每条所述***组织轮廓线像素坐标的个数,按照比例选取若干个像素坐标作为***轮廓线控制点,所述***轮廓线控制点平均分为上半部分控制点和下半部分控制点;
步骤2.2、获取若干个所述像素坐标中x轴方向的最大值max_x、最小值min_x,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距;
步骤2.3、遍历所述最小值min_x到最大值max_x,每间隔一个间距计算该像素坐标x值对应的坐标y值,得到两个***组织轮廓线的控制点(xi,yupi)、(xi,ydowni),直至遍历结束,组成第一特征点;
步骤2.4、根据所述最小值min_x、最大值max_x得到x轴中心点坐标x_Center、y轴中心点坐标y_Center,组成第二特征点;
步骤2.5、将所述第一特征点、第二特征点组成特征点,作为网络训练数据集的初始点坐标;同时利用每张所述核磁共振图的***组织轮廓线的特征点制作热图,设置所述热图的背景像素强度、特征点像素强度,得到初始数据集;
步骤3的U-Net网络采用自定义损失函数,所述自定义损失函数为:
LOSS=λ1*LOSS12*LOSS2 (2);
上式中,ω为惩罚项,abs()为取绝对值;
步骤4具体包括以下步骤:
步骤4.1、将所述数据集输入U-Net网络,以经过标注的所述核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
步骤4.2、将所述原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将所述预测特征点标注在原始核磁共振图上,并对所述预测特征点进行人为调整,得到第二数据集;
步骤4.3、将所述第二数据集输入第一网络模型进行训练,得到第二网络模型;
步骤4.4、重复步骤4.2-4.3,直至模型趋于收敛,得到最终的网络模型。
2.根据权利要求1所述的一种***组织轮廓线控制点的检测方法,其特征在于,在步骤3之前,对所述数据集进行归一化、数据增强。
3.根据权利要求1所述的一种***组织轮廓线控制点的检测方法,其特征在于,步骤5具体为:将所述原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的所述预测特征点连接得到***组织轮廓线。
CN202110387981.XA 2021-04-12 2021-04-12 一种***组织轮廓线控制点的检测方法 Active CN113298754B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110387981.XA CN113298754B (zh) 2021-04-12 2021-04-12 一种***组织轮廓线控制点的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110387981.XA CN113298754B (zh) 2021-04-12 2021-04-12 一种***组织轮廓线控制点的检测方法

Publications (2)

Publication Number Publication Date
CN113298754A CN113298754A (zh) 2021-08-24
CN113298754B true CN113298754B (zh) 2024-02-06

Family

ID=77319589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110387981.XA Active CN113298754B (zh) 2021-04-12 2021-04-12 一种***组织轮廓线控制点的检测方法

Country Status (1)

Country Link
CN (1) CN113298754B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116310627B (zh) * 2023-01-16 2024-02-02 浙江医准智能科技有限公司 模型训练方法、轮廓预测方法、装置、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3053487A1 (en) * 2017-02-22 2018-08-30 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Detection of prostate cancer in multi-parametric mri using random forest with instance weighting & mr prostate segmentation by deep learning with holistically-nested networks
CN109636806A (zh) * 2018-11-22 2019-04-16 浙江大学山东工业技术研究院 一种基于多步学习的三维核磁共振胰腺图像分割方法
CN109919216A (zh) * 2019-02-28 2019-06-21 合肥工业大学 一种用于计算机辅助诊断***癌的对抗学习方法
CN110008992A (zh) * 2019-02-28 2019-07-12 合肥工业大学 一种用于***癌辅助诊断的深度学习方法
CN111754472A (zh) * 2020-06-15 2020-10-09 南京冠纬健康科技有限公司 一种肺结节检测方法与检测***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004183B2 (en) * 2018-07-10 2021-05-11 The Board Of Trustees Of The Leland Stanford Junior University Un-supervised convolutional neural network for distortion map estimation and correction in MRI

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3053487A1 (en) * 2017-02-22 2018-08-30 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Detection of prostate cancer in multi-parametric mri using random forest with instance weighting & mr prostate segmentation by deep learning with holistically-nested networks
CN109636806A (zh) * 2018-11-22 2019-04-16 浙江大学山东工业技术研究院 一种基于多步学习的三维核磁共振胰腺图像分割方法
CN109919216A (zh) * 2019-02-28 2019-06-21 合肥工业大学 一种用于计算机辅助诊断***癌的对抗学习方法
CN110008992A (zh) * 2019-02-28 2019-07-12 合肥工业大学 一种用于***癌辅助诊断的深度学习方法
CN111754472A (zh) * 2020-06-15 2020-10-09 南京冠纬健康科技有限公司 一种肺结节检测方法与检测***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
凌彤 ; 杨琬琪 ; 杨明 ; .利用多模态U形网络的CT图像***分割.智能***学报.2018,(第06期),全文. *
刘云鹏 ; 刘光品 ; 王仁芳 ; 金冉 ; 孙德超 ; 邱虹 ; 董晨 ; 李瑾 ; 洪国斌 ; .深度学习结合影像组学的肝脏肿瘤CT分割.中国图象图形学报.2020,(第10期),全文. *
詹曙 ; 梁植程 ; 谢栋栋 ; .***磁共振图像分割的反卷积神经网络方法.中国图象图形学报.2017,(第04期),全文. *

Also Published As

Publication number Publication date
CN113298754A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
US11101033B2 (en) Medical image aided diagnosis method and system combining image recognition and report editing
US11645748B2 (en) Three-dimensional automatic location system for epileptogenic focus based on deep learning
CN113674253B (zh) 基于U-Transformer的直肠癌CT影像自动分割方法
WO2018120942A1 (zh) 一种多模型融合自动检测医学图像中病变的***及方法
Zhang et al. Multi‐needle localization with attention U‐net in US‐guided HDR prostate brachytherapy
Luo et al. Micro-vessel image segmentation based on the AD-UNet model
CN110930416A (zh) 一种基于u型网络的mri图像***分割方法
CN109035160A (zh) 医学影像的融合方法及基于融合医学影像学习的图像检测方法
Huang et al. Channel-attention U-Net: Channel attention mechanism for semantic segmentation of esophagus and esophageal cancer
WO2022121100A1 (zh) 一种基于darts网络的多模态医学图像融合方法
CN110008992B (zh) 一种用于***癌辅助诊断的深度学习方法
CN103544695B (zh) 一种高效的基于博弈框架的医学图像分割方法
CN114782307A (zh) 基于深度学习的增强ct影像直肠癌分期辅助诊断***
CN113420826A (zh) 一种肝脏病灶图像处理***及图像处理方法
Zhang et al. Brain atlas fusion from high-thickness diagnostic magnetic resonance images by learning-based super-resolution
CN116258732A (zh) 一种基于pet/ct图像跨模态特征融合的食管癌肿瘤靶区分割方法
CN111145185A (zh) 一种基于聚类关键帧提取ct图像的肺实质分割方法
CN113298754B (zh) 一种***组织轮廓线控制点的检测方法
CN114972291A (zh) 基于混合增强智能的医学影像结构化自动标注方法与***
CN114332910A (zh) 一种面向远红外图像的相似特征计算的人体部位分割方法
CN109949299A (zh) 一种心脏医学图像自动分割方法
CN111477304A (zh) 一种pet和mri图像相融合的肿瘤照射成像组合方法
Dandan et al. A multi-model organ segmentation method based on abdominal ultrasound image
CN115880554A (zh) 基于知识蒸馏与可解释的多模态医学图像融合模型及方法
CN115526898A (zh) 一种医学影像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant