CN112801968B - 用于核磁图像分割的双层深度网络模型、方法、装置 - Google Patents

用于核磁图像分割的双层深度网络模型、方法、装置 Download PDF

Info

Publication number
CN112801968B
CN112801968B CN202110085058.0A CN202110085058A CN112801968B CN 112801968 B CN112801968 B CN 112801968B CN 202110085058 A CN202110085058 A CN 202110085058A CN 112801968 B CN112801968 B CN 112801968B
Authority
CN
China
Prior art keywords
nuclear magnetic
magnetic image
segmentation
image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110085058.0A
Other languages
English (en)
Other versions
CN112801968A (zh
Inventor
倪昕晔
毕卉
蔡成杰
孙佳伟
陆正大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Second Peoples Hospital
Original Assignee
Changzhou Second Peoples Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Second Peoples Hospital filed Critical Changzhou Second Peoples Hospital
Priority to CN202110085058.0A priority Critical patent/CN112801968B/zh
Publication of CN112801968A publication Critical patent/CN112801968A/zh
Application granted granted Critical
Publication of CN112801968B publication Critical patent/CN112801968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及核磁图像处理领域,特别是一种用于核磁图像分割的双层深度网络模型、方法、装置,包括第一、二层生成对抗网络,第一层生成对抗网络以核磁图像的组织转移概率图为分割标准,对核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第二层生成对抗网络以人工勾画的核磁图像为分割标准,对第一层生成对抗网络获得的核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果。有益效果是:考虑人体组织的形变,通过马尔科夫矩阵可以对形状区域进行弱约束,给出一定的搜索空间进行边界点的查找,从而可以应变组织的不同形变状态,同时利用粗分割、细分割两步方式,不仅可以更加精准的获取到组织的边缘信息,而且可以实现多组织的精准分割。

Description

用于核磁图像分割的双层深度网络模型、方法、装置
技术领域
本发明涉及核磁图像处理领域,特别是一种用于核磁图像分割的双层深度网络模型、方法、装置。
背景技术
子宫肌瘤作为一种常见的妇科疾病,其发作率和复发率都比较高,严重影响着育龄期妇女的身体和心理健康。核磁共振检查作为一种影像学检查方式,利用核磁共振信号形成图像对人体内的组织进行清晰的呈现,可以帮助医生更好地进行诊疗。
医生为了更好的进行诊疗,不仅需要精准确定病灶区域,而且需要考虑病灶周围的正常组织。核磁共振图像可以很好的反应体内组织的形态信息,诸如大小、形状等。同时这个过程需要医生根据经验进行组织的区分和手动完成不同组织的标注,这一过程比较耗时、耗力,增加了医生的工作负担。
利用计算机完成进行组织的区分和勾画应运而生。人体组织的形状比较复杂,很难进行数学建模。随着深度学习的发展,越来越多的人尝试用深度网络的发展解决该问题。然而,由于不同人体的组织形状差距很大,导致一直无法获得较高的区分精度。
发明内容
本发明所要解决的技术问题是:如何利用深度学习技术对核磁图像进行精确分割。
本发明解决其技术问题所采用的技术方案是:一种用于核磁图像分割的双层深度网络模型,包括第一层生成对抗网络和第二层生成对抗网络,第一层生成对抗网络以核磁图像的组织转移概率图为分割标准,对核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第二层生成对抗网络以人工勾画的核磁图像为分割标准,对第一层生成对抗网络获得的核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果。
进一步限定,组织转移概率图由描述核磁图像中的组织分布的马尔科夫状态转移矩阵生成。
进一步限定,第一层生成对抗网络包括第一生成网络和第一辨别网络,第二层生成对抗网络包括第二生成网络和第二辨别网络,第一生成网络用于对输入的核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第一辨别网络用于对第一生成网络获得的核磁图像的粗略分割结果和作为标准的核磁图像的组织转移概率图进行辨别,第二生成网络用于对第二生成网络获得核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果,第二辨别网络用于对第二生成网络获得的核磁图像的精细分割结果和作为标准的人工勾画的核磁图像进行辨别。
进一步限定,核磁图像的组织转移概率图具体为:描述组织转移概率的组织转移概率热度图,核磁图像的粗略分割结果具体为:核磁图像的粗略分割热度图,核磁图像的精细分割结果具体为:核磁图像的精细分割图。
一种用于核磁图像分割的方法,具有如下步骤:
(1)构建上述的用于核磁图像分割的双层深度网络模型;
(2)通过训练样本对该双层深度网络模型进行训练;
(3)通过完成训练的该双层深度网络模型对核磁图像进行分割,获得核磁图像的精细分割结果。
进一步限定,训练样本为核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像,核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像一一对应。
进一步限定,生成核磁图像的组织转移概率图的方法为:具有如下步骤:
(a)获取核磁图像;
(b)人工勾画核磁图像;
(c)基于人工勾画的核磁图像构建描述组织分布的马尔科夫状态转移矩阵;
(d)基于马尔科夫状态转移矩阵生成核磁图像的组织转移概率图。
进一步限定,核磁图像为原始核磁图像中的病灶相关区域的核磁图像截图。
进一步限定,核磁图像为子宫肌瘤相关区域的核磁图像,通过对该核磁图像进行图像分割,获得该核磁图像中的皮下脂肪、皮下肌肉、膀胱、子宫和子宫肌瘤共五个区域的精细分割结果。
一种用于核磁图像分割的装置,包括核磁图像获取单元和图像分割单元,核磁图像获取单元用于获取核磁图像,图像分隔单元用于采用完成训练的上述的用于核磁图像分割的双层深度网络模型对获取的核磁图像进行图像分割。
本发明的有益效果是:考虑人体组织的形变,通过马尔科夫矩阵可以对形状区域进行弱约束,给出一定的搜索空间进行边界点的查找,从而可以应变组织的不同形变状态,同时利用粗分割、细分割两步方式,不仅可以更加精准的获取到组织的边缘信息,而且可以实现多组织的精准分割。
附图说明
下面结合附图和实施例对本发明进一步说明;
图1为本发明的用于核磁图像分割的双层深度网络模型的结构框图;
图2为本发明的用于核磁图像分割的流程框图;
图3为本发明的核磁图像的组织转移概率图
图4a为本发明的原始核磁图像;
图4b为本发明的原始核磁图像的截图;
图4c为本发明的核磁图像的精细分割图。
具体实施方式
一种用于核磁图像分割的双层深度网络模型,包括第一层生成对抗网络和第二层生成对抗网络,第一层生成对抗网络以核磁图像的组织转移概率图为分割标准,对核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第二层生成对抗网络以人工勾画的核磁图像为分割标准,对第一层生成对抗网络获得的核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果。
组织转移概率图由描述核磁图像中的组织分布的马尔科夫状态转移矩阵生成。
生成核磁图像的组织转移概率图的方法为:具有如下步骤:
(a)获取核磁图像;
(b)人工勾画核磁图像;
(c)基于人工勾画的核磁图像构建描述组织分布的马尔科夫状态转移矩阵;
(d)基于马尔科夫状态转移矩阵生成核磁图像的组织转移概率图。
考虑到人体组织分布位置相对比较稳定,本发明针对组织间的分布关系构建马尔科夫状态转移矩阵,然后利用组织转移概率图对组织之间的位置关系进行描述,结合双生成对抗网络,利用粗分割、细分割两步方式,首先得到组织边缘信息的粗略结果,进一步基于此得到细致结果,实现多组织的精准分割。
如图1所示,第一层生成对抗网络包括第一生成网络和第一辨别网络,第二层生成对抗网络包括第二生成网络和第二辨别网络,第一生成网络用于对输入的核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第一辨别网络用于对第一生成网络获得的核磁图像的粗略分割结果和作为标准的核磁图像的组织转移概率图进行辨别,第二生成网络用于对第二生成网络获得核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果,第二辨别网络用于对第二生成网络获得的核磁图像的精细分割结果和作为标准的人工勾画的核磁图像进行辨别。
核磁图像的组织转移概率图具体为:描述组织转移概率的组织转移概率热度图,核磁图像的粗略分割结果具体为:核磁图像的粗略分割热度图,核磁图像的精细分割结果具体为:核磁图像的精细分割图。
如图2所示,一种用于核磁图像分割的方法,其特征是:
具有如下步骤:
(1)构建上述的用于核磁图像分割的双层深度网络模型;
(2)通过训练样本对该双层深度网络模型进行训练;
训练样本为核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像,核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像一一对应。
生成核磁图像的组织转移概率图的方法为:具有如下步骤:
(a)获取核磁图像;
(b)人工勾画核磁图像;
(c)基于人工勾画的核磁图像构建描述组织分布的马尔科夫状态转移矩阵;
(d)基于马尔科夫状态转移矩阵生成核磁图像的组织转移概率图。
(3)获取核磁图像,然后通过完成训练的该双层深度网络模型对核磁图像进行分割,获得核磁图像的精细分割结果。
上述步骤(a)和步骤(3)中的核磁图像为原始核磁图像中的病灶相关区域的核磁图像截图。
一种用于核磁图像分割的装置,包括核磁图像获取单元和图像分割单元,核磁图像获取单元用于获取核磁图像,图像分隔单元用于采用完成训练的上述的用于核磁图像分割的双层深度网络模型对获取的核磁图像进行图像分割。
以对子宫肌瘤核磁图像进行图像分隔为例,对本发明进一步详细说明:
一种用于子宫肌瘤核磁图像分割的方法,具有如下步骤:
(1)构建上述的用于核磁图像分割的双层深度网络模型。
(2)通过训练样本对该双层深度网络模型进行训练。
获取训练样本的具体步骤为:
(2.1)获取原始核磁图像:
通过核磁共振设备获取腹部区域的原始核磁图像;
(2.2)获取作为训练样本的核磁图像:
获取因为原始核磁图像的图像过大,而子宫肌瘤相关区域在原始核磁图像的位置是基本不变的,故通过预设截图坐标区域可以在原始核磁图像顺利截取到子宫肌瘤相关区域的核磁图像,以该子宫肌瘤相关区域的核磁图像作为训练样本,用于输入第一生成网络;
(2.3)获取作为训练样本的人工勾画的核磁图像:
医生等医疗人员根据经验对步骤2.2中的核磁图像进行组织的区分和手动完成不同组织的标注,对核磁图像中的皮下脂肪、皮下肌肉、膀胱、子宫和子宫肌瘤共五个区域进行精细分割,以该人工勾画的核磁图像作为训练样本,用于输入第二辨别网络;
(2.4)构建描述组织分布的马尔科夫状态转移矩阵:
基于步骤2.2中的人工勾画的核磁图像利用现有技术构建描述组织分布的马尔科夫状态转移矩阵,马尔科夫状态转移矩阵如下(下表非实际核磁图像的马尔科夫状态转移矩阵,只用于说明马尔科夫状态转移矩阵的概念)。
Figure GDA0003431040370000071
P用来表示组织之间的转移概率,以P12为例,其用来表示组织1和组织2之间的转移概率;
(2.5)生成作为训练样本的核磁图像的组织转移概率图:
基于马尔科夫状态转移矩阵利用现有技术生成核磁图像的组织转移概率图,用于输入第一辨别网络,核磁图像的组织转移概率图具体为描述组织转移概率的组织转移概率热度图,如图3所示。
作为训练样本的核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像,分别输入第一生成网络、第一辨别网络和第二辨别网络对本发明的用于核磁图像分割的双层深度网络模型进行训练。
(3)通过核磁共振设备获取腹部区域的原始核磁图像,如图4a所示;在该原始核磁图像中截取子宫肌瘤相关区域的核磁图像,如图4b所示;该核磁图像输入第一生成网络,第一生成网络生成核磁图像的粗略分割热度图;该核磁图像的粗略分割热度图输入第二生成网络,第二生成网络生成核磁图像的精细分割图,对核磁图像中的皮下脂肪、皮下肌肉、膀胱、子宫和子宫肌瘤共五个区域的精细分割,如图4c所示。
第一生成网络、第二生成网络具体均为Unet网络结构,但是不限于Unet网络结构,也可以采用现有技术中的其他网络结构,第一辨别网络、第二辨别网络具体均为传统CNN网络结构,但是也不限于CNN网络结构,也可以采用现有技术中的其他网络结构。

Claims (7)

1.一种用于核磁图像分割的方法,其特征是:具有如下步骤:
(1)构建用于核磁图像分割的双层深度网络模型,该用于核磁图像分割的双层深度网络模型包括第一层生成对抗网络和第二层生成对抗网络,第一层生成对抗网络以核磁图像的组织转移概率图为分割标准,对核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第二层生成对抗网络以人工勾画的核磁图像为分割标准,对第一层生成对抗网络获得的核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果,组织转移概率图由描述核磁图像中的组织分布的马尔科夫状态转移矩阵生成,该马尔科夫状态转移矩阵基于人工勾画的核磁图像构建,核磁图像的组织转移概率图具体为描述组织转移概率的组织转移概率热度图,核磁图像的粗略分割结果具体为核磁图像的粗略分割热度图,核磁图像的精细分割结果具体为核磁图像的精细分割图;
(2)通过训练样本对该用于核磁图像分割的双层深度网络模型进行训练;
(3)通过完成训练的该用于核磁图像分割的双层深度网络模型对核磁图像进行分割,获得核磁图像的精细分割结果。
2.根据权利要求1所述的用于核磁图像分割的方法,其特征是:所述的第一层生成对抗网络包括第一生成网络和第一辨别网络,第二层生成对抗网络包括第二生成网络和第二辨别网络;
第一生成网络用于对输入的核磁图像进行粗略分割,获得核磁图像的粗略分割结果,第一辨别网络用于对第一生成网络获得的核磁图像的粗略分割结果和作为标准的核磁图像的组织转移概率图进行辨别;
第二生成网络用于对第二生成网络获得核磁图像的粗略分割结果进行细化,获得核磁图像的精细分割结果,第二辨别网络用于对第二生成网络获得的核磁图像的精细分割结果和作为标准的人工勾画的核磁图像进行辨别。
3.根据权利要求1所述的用于核磁图像分割的方法,其特征是:所述的训练样本为核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像,核磁图像、核磁图像的组织转移概率图以及人工勾画的核磁图像一一对应。
4.根据权利要求1所述的用于核磁图像分割的方法,其特征是:生成核磁图像的组织转移概率图的方法为:具有如下步骤:
(a)获取核磁图像;
(b)人工勾画核磁图像;
(c)基于人工勾画的核磁图像构建描述组织分布的马尔科夫状态转移矩阵;
(d)基于马尔科夫状态转移矩阵生成核磁图像的组织转移概率图。
5.根据权利要求1所述的用于核磁图像分割的方法,其特征是:所述的核磁图像为原始核磁图像中的病灶相关区域的核磁图像截图。
6.根据权利要求1所述的用于核磁图像分割的方法,其特征是:所述的核磁图像为子宫肌瘤相关区域的核磁图像,通过对该核磁图像进行图像分割,获得该核磁图像中的皮下脂肪、皮下肌肉、膀胱、子宫和子宫肌瘤共五个区域的精细分割结果。
7.一种用于核磁图像分割的装置,其特征是:包括核磁图像获取单元和图像分割单元,核磁图像获取单元用于获取核磁图像,图像分割单元采用如权利要求1所述的用于核磁图像分割的方法对获取的核磁图像进行图像分割。
CN202110085058.0A 2021-01-22 2021-01-22 用于核磁图像分割的双层深度网络模型、方法、装置 Active CN112801968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110085058.0A CN112801968B (zh) 2021-01-22 2021-01-22 用于核磁图像分割的双层深度网络模型、方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110085058.0A CN112801968B (zh) 2021-01-22 2021-01-22 用于核磁图像分割的双层深度网络模型、方法、装置

Publications (2)

Publication Number Publication Date
CN112801968A CN112801968A (zh) 2021-05-14
CN112801968B true CN112801968B (zh) 2022-03-22

Family

ID=75811138

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110085058.0A Active CN112801968B (zh) 2021-01-22 2021-01-22 用于核磁图像分割的双层深度网络模型、方法、装置

Country Status (1)

Country Link
CN (1) CN112801968B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116524358B (zh) * 2023-04-25 2024-05-03 北京卫星信息工程研究所 用于目标识别的sar数据集扩增方法
CN116758098A (zh) * 2023-08-07 2023-09-15 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 磁共振图像的丘脑底核分割方法及模型构建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016681A (zh) * 2017-03-29 2017-08-04 浙江师范大学 基于全卷积网络的脑部mri肿瘤分割方法
CN111724401A (zh) * 2020-05-08 2020-09-29 华中科技大学 一种基于边界约束级联U-Net的图像分割方法和***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480445A (zh) * 2017-08-09 2017-12-15 广州柏视医疗科技有限公司 基于隐马尔可夫模型的肿瘤临床靶区侵犯概率计算方法
CN111261296A (zh) * 2020-01-15 2020-06-09 广州柏视医疗科技有限公司 基于条件随机向量场的肿瘤临床靶区自动勾画方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016681A (zh) * 2017-03-29 2017-08-04 浙江师范大学 基于全卷积网络的脑部mri肿瘤分割方法
CN111724401A (zh) * 2020-05-08 2020-09-29 华中科技大学 一种基于边界约束级联U-Net的图像分割方法和***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GANs for Medical Image Analysis;Salome Kazeminiad等;《arXiv》;20191009;1-40页 *
Generative Adversarial Networks and Conditional Random Fields for Hyperspectral Image Classification;Zilong Zhong等;《arXiv》;20190512;1-14页 *
基于深度学习的粗标记胃癌病理切片图像分割算法;南洋;《中国优秀硕士学位论文全文数据库(电子期刊)医药卫生科技辑》;20190115;参见第2.4.3、4.3节 *

Also Published As

Publication number Publication date
CN112801968A (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
JP7143008B2 (ja) 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム
CN110338841B (zh) 三维成像数据的显示处理方法和三维超声成像方法及***
CN112801968B (zh) 用于核磁图像分割的双层深度网络模型、方法、装置
CN111539956B (zh) 基于脑部辅助图像的脑出血自动检测方法及电子介质
CN110279433A (zh) 一种基于卷积神经网络的胎儿头围自动精确测量方法
CN113066093A (zh) 一种基于子宫内膜超声图像的自动分割分型及厚度测量方法
Krishna et al. Automated classification of common maternal fetal ultrasound planes using multi-layer perceptron with deep feature integration
Tang et al. MRI image segmentation system of uterine fibroids based on AR-Unet network
CN112508943A (zh) 基于超声影像的乳腺肿瘤识别方法
CN113191413B (zh) 基于中央凹残差网络的***多模mr图像分类方法和***
WO2023122326A1 (en) Methods, systems, and computer readable media for using trained machine learning model including an attention module to estimate gestational age from ultrasound image data
CN111383212B (zh) 一种盆底超声视频图像的分析方法
Feng et al. Feasibility of a deep learning-based method for automated localization of pelvic floor landmarks using stress MR images
CN111127636B (zh) 一种智能的复杂关节内骨折桌面级三维诊断***
CN117831757B (zh) 基于病理ct多模态先验知识引导的肺癌诊断方法及***
CN115148341B (zh) 一种基于***识别的ai结构勾画方法及***
Liu et al. Study on automatic localization algorithm of Baliao points
Mi et al. Transram: A classification model of breast pathology images that imitates the diagnosis process of pathologists
Okishio et al. Identifying an egg-containing follicle by displacement analysis of the follicle border
Lankton Localized statistical models in computer vision
Shang et al. An Optimal U-Net++ Segmentation Method for Dataset BUSI
Pan Researches Advanced in Medical Image Analysis Based on Convolutional Neural Networks
CN118334036A (zh) 基于深度学习的多模态医学影像质检***
Zeng et al. Intelligent Recognition of the Ultrasound Standard Plane of the Fetal Cranial Brain with the FCB-Net
Su et al. Anal Center Detection with Superpixel Segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant