CN112634285B - 一种自动分割腹部ct内脏脂肪区域的方法 - Google Patents

一种自动分割腹部ct内脏脂肪区域的方法 Download PDF

Info

Publication number
CN112634285B
CN112634285B CN202011542684.XA CN202011542684A CN112634285B CN 112634285 B CN112634285 B CN 112634285B CN 202011542684 A CN202011542684 A CN 202011542684A CN 112634285 B CN112634285 B CN 112634285B
Authority
CN
China
Prior art keywords
image
attention
visceral fat
net network
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011542684.XA
Other languages
English (en)
Other versions
CN112634285A (zh
Inventor
彭博
左昊
贾维
张傲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Petroleum University
Original Assignee
Southwest Petroleum University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Petroleum University filed Critical Southwest Petroleum University
Priority to CN202011542684.XA priority Critical patent/CN112634285B/zh
Publication of CN112634285A publication Critical patent/CN112634285A/zh
Application granted granted Critical
Publication of CN112634285B publication Critical patent/CN112634285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种自动分割腹部CT内脏脂肪区域的方法,包括:选取临床腹部CT图像作为数据集;对数据集中的图像进行预处理;提取出最终内脏脂肪区域的图像;构建Attention U‑net网络;训练Attention U‑net网络;将需要进行预测的腹部CT图像进行预处理,之后将预处理过后的图像输入训练好的Attention U‑net网络,Attention U‑net网络输出的图像即为分割图像。本发明可以加快腹部CT内脏脂肪区域分割的速度和简化了分割的步骤,并且可以进行批处理分割,大大提高了分割的效率,简化了计算腹部内脏脂肪量的前期操作,为后续内脏脂肪量的计算提供了更良好的基础。

Description

一种自动分割腹部CT内脏脂肪区域的方法
技术领域
本发明属于医学图像处理技术领域,具体涉及一种自动分割腹部CT内脏脂肪区域的方法。
背景技术
人体总的体脂增加和腹部脂肪特别是腹腔内脂肪增加可能会引起糖尿病、高脂血症、高血压、胰岛素抵抗和高尿酸血症等心血管疾病。所以通过定量的分析腹部脂肪含量,对预防和治疗相关的心血管疾病有重要的临床价值。目前最常用的腹腔内的脂肪测量是通过CT技术完成的,它能对人体脂肪组织(AT)体积,尤其是区域AT如腹壁皮下脂肪面积(SA)或腹腔内脏器脂肪面积(VA)等进行准确定量。目前,CT测量AT技术的应用范围已经涉及到临床营养学、老年医学、流行病学、遗传学,特别是内分泌代谢和心血管***等多个领域。
利用CT测量AT的过程中,需要在测量SA和VA时画出兴趣区(ROI),而以往的研究多是用手工或者传统的分割方法进行分割。如西门子CT工作站(VE40D)上使用的是基于分水岭的分割方法。分水岭分割方法用在内脏脂肪的分割上,当腹壁肌层较薄或欠连续时,可能将内脏脂肪和腹壁脂肪层分割在一起。这时就需要人工手动调节,勾画出内脏脂肪区域,所以自动化程度不够,导致效率不高,不适宜用来开展普查。
深度学习目前已应用于医学图像的分割领域中。Long等人首次提出全卷积神经网络模型(FCN),FCN可以实现端到端的图像分割,将图像级别的分类扩展到了像素级别的分类,并将卷积层代替了分类网络框架中的全连接层。但是FCN的结果不够精细,没有充分考虑像素与像素之间联系,对图像的细节不敏感。Ronneberger等人提出了U-net网络采取将解码器和编码器之间使用级联操作将图像的高层信息和浅层信息进行了融合,避免了高层语义信息的丢失,在一些医学图像的分割任务上已经取得了很好的效果。并且U-net网络可以很高效的利用训练的数据集,减少在样本需求上的压力。Milletari等人提出了将基于体素的全卷积V-net网络用于三维医学图像的分割上,并且在编码器的部分上采用了残差网络的框架,可以在网络不断加深的同时,防止梯度消失或梯度***。Zhao等人提出了金字塔场景解析网络(pyramid scene parsing network,PSPNet)。PSPNet网络在FCN网络的基础上利用特征融合得到更多上下文信息,然后通过聚合不同区域的上下文信息来提高全局信息的获取能力。
发明内容
本发明主要是克服现有技术中存在的缺点,本发明提供一种自动分割腹部CT内脏脂肪区域的方法。
本发明解决上述技术问题,所提供的技术方案是:一种自动分割腹部CT内脏脂肪区域的方法,包括:
步骤S100、选取不同年龄段、不同腹部位置以及不同切片厚度的临床腹部CT图像作为数据集;
步骤S200、对数据集中的图像进行预处理获得预处理后的数据集图像;
步骤S300、根据预处理后的数据集图像手动划分出内脏脂肪区域的掩膜图像,再将划分出的掩膜图像与预处理后的数据集图像对应的像素点进行“与”操作,提取出最终内脏脂肪区域的图像;
步骤S400、构建Attention U-net网络,并将预处理后的数据集图像和最终内脏脂肪区域的图像作为训练和预测数据输入构建好的Attention U-net网络中;
步骤S500、根据损失函数的值和精度的结果来训练Attention U-net网络;
步骤S600、将需要进行预测的腹部CT图像进行预处理,之后将预处理过后的图像输入训练好的Attention U-net网络,Attention U-net网络输出的图像即为分割图像。
进一步的技术方案是,所述步骤S100中选取青壮年人群、老年人群的中腹部图像,切片宽度为1mm;选取青壮年人群、老年人群的上腹部和下腹部图像,切片宽度为5mm。
进一步的技术方案是,所述步骤S200中预处理的具体过程为:将DICOM文件中的像素信息提取出来,得到原始的CT图像,对原始CT图像进行图像二值化,以区分内脏脂肪区域和背景区域。
进一步的技术方案是,所述图像二值化中像素值为874-974之间的灰度值设为255,像素值大于974或小于874的灰度值设为0。
进一步的技术方案是,所述步骤S500中Attention U-net网络包含两部分,编码部分和解码部分;
所述编码部分包含5层结构,前4层结构包含两层卷积层和一个最大池化层,第5层结构包含两层卷积层,卷积层都使用relu作为激活函数,卷积核大小为3*3,第一层结构的输出通道数为32,之后每层结构的输出通道数是上一层的2倍;
所述解码部分包含5层结构,每层结构包含一个双线性插值上采样、注意力结构、三层卷积层和一个拼接结构,卷积层都使用relu作为激活函数;卷积核大小为3*3。
进一步的技术方案是,所述步骤S600的具有过程为:将DICOM文件中的像素信息提取出来后根据步骤S200中的预处理方法进行图像二值化,将图像二值化后的图像输入训练好的Attention U-net网络中,Attention U-net网络输出的图像即为分割图像。
本发明具有以下有益效果:通过该方法可以加快腹部CT内脏脂肪区域分割的速度和简化了分割的步骤,并且可以进行批处理分割,并且无需人为手动调节,大大提高了分割的效率,简化了计算腹部内脏脂肪量的前期操作,为后续内脏脂肪量的计算提供了更良好的基础。
附图说明
图1为本发明实施例的流程图;
图2为Attention U-net网络模型图;
图3为注意力机制模块;
图4为内脏脂肪分割结果对比图;
图5为CT图像处理过程图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明的一种自动分割腹部CT内脏脂肪区域的方法,包括:
步骤S100、选取青壮年人群(年龄为30±10,平均值±标准差)、老年人群(60±10)的中腹部图像,切片宽度为1mm;选取青壮年人群、老年人群的上腹部和下腹部图像,切片宽度为5mm作为数据集;
步骤S200、对数据集中的图像进行预处理获得预处理后的数据集图像;
其中预处理的具体过程为:首先将DICOM文件中的像素信息提取出来,得到原始的CT图像,如图5a所示,再对原始CT图像进行图像二值化,以区分内脏脂肪区域和背景区域,为了确保所设置的阈值能够通过像素值来区分内脏脂肪区域和密度更高的组织;其本发明设置的阈值为:像素值为874-974之间的灰度值设置为255,像素值为大于974或小于874的灰度值设置为0,通过阈值将图像分为两部分,如图5b所示;
步骤S300、根据预处理后的数据集图像手动划分出内脏脂肪区域的掩膜图像,如图5c所示,再将划分出的掩膜图像与预处理后的数据集图像对应的像素点进行“与”操作,提取出最终内脏脂肪区域的图像,如图5d所示;
步骤S400、构建Attention U-net网络,并将预处理后的数据集图像和最终内脏脂肪区域的图像作为训练和预测数据输入构建好的Attention U-net网络中;
该AttentionU-net网络包括编码部分和解码部分;
所述编码部分包含5层结构,前4层结构包含两层卷积层和一个最大池化层,第5层结构包含两层卷积层,每层卷积层都使用relu作为激活函数,卷积核大小为3*3,第一层结构的输出通道数为32,之后每层结构的输出通道数是上一层的2倍;
所述解码部分包含5层结构,每层结构包含一个双线性插值上采样、注意力结构、三层卷积层和一个拼接结构,每层卷积层都使用relu作为激活函数。卷积核大小为3*3,其注意力结构(AG)如附图3所示:由下采样层输出和上采样层输出作为输入,两个输入分别通过一层卷积层(卷积核1*1)和批归一化层,之后进行加操作、rule激活函数、卷积层(卷积核为1*1)、批归一化和sigmoid激活函数,最后将sigmoid激活函数的输出与下采样层输入进行乘操作;
步骤S500、根据损失函数的值和精度的结果来训练Attention U-net网络;
在整个网络的训练阶段,为了防止出现过拟合的问题,并且提升Attention U-Net模型的泛化能力,在第四次下采样之前和之后的两次卷积之后,加入了Dropout层;Dropout层是在每一个batch的训练当中随机减掉一些神经元,并且我们可以设定每一层Dropout将神经元去除多少的概率,在进行第一个batch的训练时,会根据预先设定的概率拿掉一部分神经元,然后开始训练,只更新没有拿掉的神经元和对应的权重参数,并将其保留;参数全部更新之后,又重新根据相应的概率拿掉一部分神经元,然后接着训练,如果新用于训练的神经元已经被训练过,那么就继续更新它的参数;而第二次被拿掉的神经元,同时第一次已经更新过权重参数的则保留他的参数,不进行修改,直到第n次batch进行Dropout时没有将其删除;在训练阶段需要加入Dropout防止过拟合提高模型的泛化能力,而在测试阶段则没有加入Dropout层;经过交叉验证,Dropout率为0.5的时候效果最好,因为Dropout率为0.5时Dropout随机产生的网络结构最多;
在整个网络的训练过程中,Attention U-net网络训练的迭代次数为120次,批量大小为2,学习率设为了1.0e-5;U-net网络训练的迭代次数为120次,批量大小为4,学习率设为了1.0e-5;使用Adam作为模型训练优化器,输入数据的张量为2018*1*256*256;
步骤S600、将需要进行预测的腹部CT图像的DICOM文件中的像素信息提取出来后根据步骤S200中的预处理方法进行图像二值化,将图像二值化后的图像输入训练好的Attention U-net网络中,Attention U-net网络输出的图像即为分割图像。
实施例
图4为测试集中医生手动分割、U-net网络、Attention U-net网络分割的对比结果:
对分割结果与金标准图像计算分割精度(SA)、欠分割率(UR)、过分割率(OR)、Precision、Recall,计算结果如表1所示:
表1内脏脂肪分割结果对比
Figure BDA0002852739760000071
从表1中的计算结果可以看出来,两种深度学习网络对于不同人群和不同腹部位置的CT图像分割的准确率都是比较高的,而且过分割率和欠分割率都很低。因为AttentionU-Net网络中加入了注意力门的结构,有效的增强了模型的分割效果,所以相比于U-net网络,精确率会高一点。并且从图4的分割效果上来看,Attention U-Net分割出多余的面积比U-net网络少。Attention U-Net模型的OR比U-net模型少了1.87%,而两种网络对内脏脂肪区域的细节结构上的分割都很好,从欠分割率上就可以看出来。但是分割的目的是为了计算内脏脂肪的面积,计算内脏脂肪面积是通过分割后的图像的像素点数进行计算的,所以越少分割出多余的面积,结果就越精确,而本发明中虽然会分割了多余的面积,但是和手动分割的相比,多分割的部分在可以接受的误差范围内。所以本发明中的方法可以达到自动分割内脏脂肪区域的要求。
以上所述,并非对本发明作任何形式上的限制,虽然本发明已通过上述实施例揭示,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,可利用上述揭示的技术内容作出些变动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (3)

1.一种自动分割腹部CT内脏脂肪区域的方法,其特征在于,包括:
步骤S100、选取不同年龄段、不同腹部位置以及不同切片厚度的临床腹部CT图像作为数据集;
步骤S200、对数据集中的图像进行预处理获得预处理后的数据集图像;
所述步骤S200中预处理的具体过程为:将DICOM文件中的像素信息提取出来,得到原始的CT图像,对原始CT图像进行图像二值化,以区分内脏脂肪区域和背景区域;
步骤S300、根据预处理后的数据集图像手动划分出内脏脂肪区域的掩膜图像,再将划分出的掩膜图像与预处理后的数据集图像对应的像素点进行“与”操作,提取出最终内脏脂肪区域的图像;
步骤S400、构建Attention U-net网络,并将预处理后的数据集图像和最终内脏脂肪区域的图像作为训练和预测数据输入构建好的Attention U-net网络中;
步骤S500、根据损失函数的值和精度的结果来训练Attention U-net网络;
所述Attention U-net网络包含两部分,编码部分和解码部分;
所述编码部分包含5层结构,前4层结构包含两层卷积层和一个最大池化层,第5层结构包含两层卷积层,卷积层都使用relu作为激活函数,卷积核大小为3*3,第一层结构的输出通道数为32,之后每层结构的输出通道数是上一层的2倍;
所述解码部分包含5层结构,每层结构包含一个双线性插值上采样、注意力结构、三层卷积层和一个拼接结构,卷积层都使用relu作为激活函数;卷积核大小为3*3;
步骤S600、将需要进行预测的腹部CT图像进行预处理,之后将预处理过后的图像输入训练好的Attention U-net网络,Attention U-net网络输出的图像即为分割图像;
所述步骤S600的具有过程为:将DICOM文件中的像素信息提取出来后根据步骤S200中的预处理方法进行图像二值化,将图像二值化后的图像输入训练好的Attention U-net网络中,Attention U-net网络输出的图像即为分割图像。
2.根据权利要求1所述的一种自动分割腹部CT内脏脂肪区域的方法,其特征在于,所述步骤S100中选取青壮年人群、老年人群的中腹部图像,切片宽度为1mm;选取青壮年人群、老年人群的上腹部和下腹部图像,切片宽度为5mm。
3.根据权利要求1所述的一种自动分割腹部CT内脏脂肪区域的方法,其特征在于,所述图像二值化中像素值为874-974之间的灰度值设为255,像素值大于974或小于874的灰度值设为0。
CN202011542684.XA 2020-12-23 2020-12-23 一种自动分割腹部ct内脏脂肪区域的方法 Active CN112634285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011542684.XA CN112634285B (zh) 2020-12-23 2020-12-23 一种自动分割腹部ct内脏脂肪区域的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011542684.XA CN112634285B (zh) 2020-12-23 2020-12-23 一种自动分割腹部ct内脏脂肪区域的方法

Publications (2)

Publication Number Publication Date
CN112634285A CN112634285A (zh) 2021-04-09
CN112634285B true CN112634285B (zh) 2022-11-22

Family

ID=75321969

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011542684.XA Active CN112634285B (zh) 2020-12-23 2020-12-23 一种自动分割腹部ct内脏脂肪区域的方法

Country Status (1)

Country Link
CN (1) CN112634285B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516624A (zh) * 2021-04-28 2021-10-19 武汉联影智融医疗科技有限公司 穿刺禁区的确定、路径规划方法、手术***和计算机设备
CN114271796B (zh) * 2022-01-25 2023-03-28 泰安市康宇医疗器械有限公司 一种通过体态密度法测量人体成分的方法及其装置
CN116797592A (zh) * 2023-07-05 2023-09-22 中国医学科学院北京协和医院 基于内脏脂肪组织面积的预测方法、设备、***及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001054066A1 (en) * 2000-01-18 2001-07-26 The University Of Chicago Automated method and system for the segmentation of lung regions in computed tomography scans
CN114092439A (zh) * 2021-11-18 2022-02-25 深圳大学 一种多器官实例分割方法及***
CN114219943A (zh) * 2021-11-24 2022-03-22 华南理工大学 一种基于深度学习的ct图像危及器官分割***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110675406A (zh) * 2019-09-16 2020-01-10 南京信息工程大学 基于残差双注意力深度网络的ct图像肾脏分割算法
CN111784713A (zh) * 2020-07-26 2020-10-16 河南工业大学 一种引入注意力机制的u形心脏分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001054066A1 (en) * 2000-01-18 2001-07-26 The University Of Chicago Automated method and system for the segmentation of lung regions in computed tomography scans
CN114092439A (zh) * 2021-11-18 2022-02-25 深圳大学 一种多器官实例分割方法及***
CN114219943A (zh) * 2021-11-24 2022-03-22 华南理工大学 一种基于深度学习的ct图像危及器官分割***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AI学习笔记(十四)CNN之图像分割;Lee森;《https://blog.csdn.net/qq_35813161/article/details/111145981》;20201214;第1页 *
Multilabel Region Classification and Semantic Linking for Colon Segmentation in CT Colonography;Xiaoyun Yang等;《IEEE Transactions on Biomedical Engineering》;20141124;第62卷(第3期);第948-959页 *
基于V-Net的腹部多器官图像分割;李庆勃等;《数字技术与应用》;20190125;第37卷(第1期);第89+91页 *

Also Published As

Publication number Publication date
CN112634285A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112634285B (zh) 一种自动分割腹部ct内脏脂肪区域的方法
CN111627019B (zh) 一种基于卷积神经网络的肝脏肿瘤分割方法及***
CN112489061B (zh) 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
CN111369565B (zh) 一种基于图卷积网络的数字病理图像的分割与分类方法
CN113674253B (zh) 基于U-Transformer的直肠癌CT影像自动分割方法
CN111563902A (zh) 一种基于三维卷积神经网络的肺叶分割方法及***
CN111951288B (zh) 一种基于深度学习的皮肤癌病变分割方法
CN113034505B (zh) 一种基于边缘感知网络的腺体细胞图像分割方法及装置
CN112132817A (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN107766874B (zh) 一种超声容积生物学参数的测量方法及测量***
CN110930378B (zh) 基于低数据需求的肺气肿影像处理方法及***
Pérez-Benito et al. A deep learning system to obtain the optimal parameters for a threshold-based breast and dense tissue segmentation
CN113223005A (zh) 一种甲状腺结节自动分割及分级的智能***
CN112785581A (zh) 基于深度学习的提取训练大血管cta成像的培训方法和装置
CN110992309B (zh) 基于深层信息传递网络的眼底图像分割方法
CN115908241A (zh) 一种基于UNet和Transformer相融合的视网膜血管分割方法
CN111210398A (zh) 基于多尺度池化的白细胞识别***
CN117523204A (zh) 面向医疗场景的肝脏肿瘤图像分割方法、装置和可读存储介质
CN117291935A (zh) 一种头颈瘤病灶区域图像分割方法及计算机可读介质
CN116486156A (zh) 融合多尺度特征上下文的全视野数字切片图像分类方法
CN116993661A (zh) 一种基于特征融合和注意力机制的潜在癌变息肉临床诊断方法
CN114140472B (zh) 一种跨级信息融合医学图像分割方法
CN115410032A (zh) 基于自监督学习的octa图像分类结构训练方法
CN115019955A (zh) 一种基于超声影像组学特征的乳腺癌中医证型预测模型的构建方法及其***
CN112967269A (zh) 一种基于ct图像的肺结节识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant