CN111626989A - 针对缺失标注的病理图像的高精度检测网络训练方法 - Google Patents

针对缺失标注的病理图像的高精度检测网络训练方法 Download PDF

Info

Publication number
CN111626989A
CN111626989A CN202010373046.3A CN202010373046A CN111626989A CN 111626989 A CN111626989 A CN 111626989A CN 202010373046 A CN202010373046 A CN 202010373046A CN 111626989 A CN111626989 A CN 111626989A
Authority
CN
China
Prior art keywords
regression
loss
training
target detection
training sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010373046.3A
Other languages
English (en)
Other versions
CN111626989B (zh
Inventor
李涵生
韩鑫
亢宇鑫
崔磊
杨林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Diyingjia Technology Co ltd
Original Assignee
Hangzhou Diyingjia Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Diyingjia Technology Co ltd filed Critical Hangzhou Diyingjia Technology Co ltd
Priority to CN202010373046.3A priority Critical patent/CN111626989B/zh
Publication of CN111626989A publication Critical patent/CN111626989A/zh
Application granted granted Critical
Publication of CN111626989B publication Critical patent/CN111626989B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及针对缺失标注的病理图像的高精度检测网络训练方法,包括:获取带有部分手工标注信息的病理图像作为训练样本;将所述训练样本输入目标检测模型,通过所述目标检测模型检测出所述训练样本上可能存在检测目标的位置,用回归框标示出所述可能存在检测目标的位置;计算每个回归框的原始损失;计算每个回归框的回归框能量;根据所述回归框能量对对应回归框的原始损失进行校准;计算校准后所述目标检测模型的损失函数,采用梯度下降法更新所述目标检测模型中的参数,采用更新后的参数对所述网络进行训练。经过偏差校准的目标检测网络的召回率结果和平均精度结果都有了明显的改善和提高。

Description

针对缺失标注的病理图像的高精度检测网络训练方法
技术领域
本发明涉及神经网络训练技术领域,特别是涉及针对缺失标注的病理图像的高精度检测网络训练方法。
背景技术
目标检测即找出图像中所有感兴趣的物体,包含物体定位和物体分类两个子任务,同时确定物体的类别和位置。在现有的目标检测模型中,性能表现最好的几个模型都属于完全监督模型,完全监督模型必须确保每张训练图像中所出现的待检测类别的所有目标,都必须被标注,这样的标注方式称为穷尽标注。如果训练数据中存在大量的缺失标注(某些图像中的部分待检测目标未被标注出来),将导致模型性能受到很大影响。
病理图像的背景极度复杂,异常细胞与组织经常会分布在密集的不同形态的正常组织细胞、微生物以及异物之中,即使是经验丰富的病理科医生也难以定位出一个视野下的所有异常组织细胞。此外,病理医生的空余标注时间极其有限,面对用于进行深度学习所需的大量标注数据,难以保证标注的高质量。因此,对病理图像的训练数据进行穷尽标注基本是不可能的。而这也进一步造成,在目前现有的病理图像数据集上训练得到的目标检测模型性能受到极大限制。因此,如何使得在仅有的非穷尽标注数据集下,对目标检测模型进行充分的训练,是一个挑战。
发明内容
为了解决上述技术问题,提出了本申请。本申请提供了针对缺失标注的病理图像的高精度检测网络训练方法,用于解决非穷尽标注条件下目标检测网络性能受影响的问题。
根据本申请的一个方面,提供了针对缺失标注的病理图像的高精度检测网络训练方法,包括:获取带有部分手工标注信息的病理图像作为训练样本;
将所述训练样本输入目标检测模型,通过所述目标检测模型检测出所述训练样本上可能存在检测目标的位置,用回归框标示出所述可能存在检测目标的位置;
计算每个回归框的原始损失;
计算每个回归框的回归框能量;
根据所述回归框能量对对应回归框的原始损失进行校准;
计算校准后所述目标检测模型的损失函数,采用梯度下降法更新所述目标检测模型中的参数,采用更新后的参数对所述网络进行训练。
进一步地,在将所述训练样本输入目标检测模型前,先对所述训练样本进行数据预处理:对所述训练样本采用色彩迁移的方法进行数据扩充,再采用主成分分析标准化,使得所述训练样本每个像素的像素值服从标准正态分布。
进一步地,所述回归框能量通过回归框密度转换而来,计算每个回归框与其他回归框之间的平均距离,利用所述平均距离来衡量对应回归框周围的回归框密度,得到回归框密度函数;
所述回归框密度函数为
Figure BDA0002479058290000021
其中N是回归框的数量,D是曼哈顿街区距离,
D(bi,bj)=|xi-xj|+|yi-yj|,
xi和yi表示由i索引的框的中心点的x坐标和y坐标;
所述回归框能量为
Figure BDA0002479058290000022
其中max(D(b))表示所有回归框之间的最大距离,所述回归框能量值域为0到1。
进一步地,所述原始损失包括定位损失和分类损失:
L(p,u,b,v)=Lcls(p,u)+Lloc(b,v),
其中,Lcls(p,u)是定位损失,Lloc(b,v)是分类损失;u是所述训练样本的类别标注,v是训练样本中的手工标注框,p是网络的预测类别概率分布,而b为网络预测的回归框位置。
进一步地,所述根据所述回归框能量对对应回归框的原始损失进行校准,包括分类损失校准和定位损失校准,分类损失通过
Figure RE-GDA0002563870650000023
进行校准,其中uk=0表示由k索引的回归框的标签为背景,定位损失通过
Figure RE-GDA0002563870650000024
Figure RE-GDA0002563870650000025
进行校准,
总的损失函数为
Figure RE-GDA0002563870650000031
与现有技术相比,采用本申请公开的损失偏差校准方法对目标检测网络进行偏差校准,训练获得的目标检测网络1与相同条件下未经偏差校准的目标检测网络2进行对比,通过对完全注释数据集和稀疏注释数据集分别进行检测,检测结果表明,经过偏差校准的目标检测网络2的召回率结果和平均精度结果都有了明显的改善和提高。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。
图1是在病理核***像数据集上进行训练期间,回归框的密度变化;
图2是本申请发明构思的示意说明;
图3是本申请目标检测网络的训练流程图。
具体实施方式
下面,将参考附图详细描述本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
目标检测是采用目标检测网络在病理图像上直接以回归框的方式直观的定位目标图像并同时给出细分类结果,其具有两个同级输出层,以生成具有概率分布(p)的回归框(b)来定位正实例,其训练需要大量穷尽标注的训练样本,利用这些训练样本在训练过程中计算损失,并更新目标检测网络中的参数。在现有的目标检测模型中,性能表现最好的几个模型都属于完全监督模型,这些模型的性能在部分领域内已经达到了工业级应用的要求。但是,完全监督模型必须确保每张训练图像中待检测类别的所有目标,都必须被标注,这样的标注方式称为穷尽标注。如果训练数据中存在大量的缺失标注(某些图像中的部分待检测目标未被标注出来),将导致模型性能受到很大影响。目前基于伪标注技术的方法常被用于解决非穷尽标注的问题,这些方法首先通过当前可利用数据,训练出一个预模型,并生成伪标注。然后利用生成的伪标注和原有的实例级标注混合训练检测器。这种两阶段的流程给模型的训练过程带来了更多的不可控性。此外,不好的伪标注生成器会对最终的结果产生很大的影响。而且,对于如何利用伪标注,特别是对于目标检测来说,到目前为止还没有太多的共识。此外,此类方法的成功主要归功于自然图像中物体的显著特征,但对于病理图像中的细粒度特征,这类方法是不适用的。
对于病理图像而言,其背景极度复杂,异常细胞与组织经常会分布在密集的不同形态的正常组织细胞、微生物以及异物之中,即使是经验丰富的病理科医生也难以定位出一个视野下的所有异常组织细胞。此外,病理医生的空余标注时间极其有限,面对用于进行深度学习所需的大量标注数据,难以保证标注的高质量,对病理图像的训练数据进行穷尽标注基本是不可能的。
针对上述技术问题,本申请的构思是:鉴于目标检测模型训练的过程中,在待检测的目标上往往会聚集更多的建议框,而在阴性背景物体上往往只存在一些独立的建议框,如图1所示,其中,回归框显示为绿色,手工标签显示为红色。通过对这一发现的分析,我们认为目标检测模型同样会在病理图像中未被标注出的异常细胞周围出现较为密集的建议框,本发明正是基于目标检测模型在训练过程中的这一特点,提出一种“回归框密度能量”的损失校准方法,通过计算训练过程中每个建议框的“框密度能量”,给每个建议框产生的损失分配一个动态的权重,通过这样的方式,增加独立框的惩罚,并相对的减少因缺失标注产生偏差损失造成的影响,如图2所示。在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
针对缺失标注的病理图像的高精度检测网络训练方法,包括:
S10,获取带有部分手工标注信息的病理图像作为训练样本;
S20,将训练样本输入目标检测模型,通过目标检测模型检测出训练样本上可能存在检测目标的位置,用回归框标示出可能存在检测目标的位置;
其中,在将训练样本输入目标检测模型前,先对训练样本进行数据预处理:对训练样本采用色彩迁移的方法进行数据扩充,再采用主成分分析标准化,使得训练样本每个像素的像素值服从标准正态分布。
S30,计算每个回归框的原始损失;
原始损失包括定位损失和分类损失:L(p,u,b,v)=Lcls(p,u)+Lloc(b,v),
其中,Lcos(p,u)是定位损失,Lloc(b,v)是分类损失;u是训练样本的类别标注,v是训练样本中的手工标注框,p是网络的预测类别概率分布,而b为网络预测的回归框位置。
S40,计算每个回归框的回归框能量;
回归框能量通过回归框密度转换而来,计算每个回归框与其他回归框之间的平均距离,利用平均距离来衡量对应回归框周围的回归框密度,得到回归框密度函数;回归框密度函数为
Figure BDA0002479058290000051
其中N是回归框的数量,D是曼哈顿街区距离,
D(bi,bj)=|xi-xj|+|yi-yj|,
xi和yi表示由i索引的框的中心点的x坐标和y坐标;
回归框能量为
Figure BDA0002479058290000052
其中max(D(b))表示所有回归框之间的最大距离,回归框能量值域为0到1。
S50,根据回归框能量对对应回归框的原始损失进行校准;
根据回归框能量对对应回归框的原始损失进行校准,包括分类损失校准和定位损失校准,分类损失通过
Figure RE-GDA0002563870650000053
进行校准,其中uk=0表示由k索引的回归框的标签为背景,定位损失通过
Figure RE-GDA0002563870650000054
Figure RE-GDA0002563870650000055
进行校准,
总的损失函数为
Figure RE-GDA0002563870650000056
S60,计算校准后目标检测模型的损失函数,采用梯度下降法更新目标检测模型中的参数,采用更新后的参数对网络进行继续训练。
作为示例,利用特征金字塔网络(FPN)作为目标检测模型,训练样本选自 MITOS-ATYPIA-14数据集,以有丝***细胞作为检测目标,对未采用本申请公开的校准方法进行训练得到的目标检测模型(记做目标检测模型1)和采用本申请公开的校准方法进行训练得到的目标检测模型(记做目标检测模型2)的模型性能进行对比验证,模型性能参数通过召回率和平均精度来体现。MITOS-ATYPIA 14 ——乳腺癌组织学图像数据集,之所以选自MITOSATYPIA-14,是考虑到病理学家最方便的注释过程,以及最困难的四种情况来验证本申请提出的方法。(1)每个图像仅注释一个实例。(2)仅注释关键点。(3)仅注释少量训练图像。(4)小的正实例(小于32×32像素)。采用本申请公开的校准方法进行目标检测模型训练的过程如图3所示。
1.数据集描述
1.1数据说明和参数。
MITOSATYPIA-14数据集中有393个分辨率为1663×1485像素的切片图像。病理学家尽可能用一个关键点注释每个有丝***,本实验中生成以所有关键点为中心的32×32边界框。
输入图像的大小调整为800×800像素,并送入FPN,训练步骤数为10k,学习率最初设置为0.001,然后在5k和7.5k的训练步数时的步长除以10,在本实验中使用了4折交叉验证。
1.2完全数据集与稀疏注释的数据集。
将原始训练数据称为完全注释数据集,将极稀疏的数据集称为稀疏注释数据集,稀疏注释数据集是通过随机删除训练数据集上的注释,直到每个训练样本上只有一个人工注释创建。仅对训练数据集进行稀疏操作,而测试数据集是完整的。
2.实验结果
2.1完全注释数据集的结果。
将完全注释数据集分别输入目标检测模型1(FPN-res50和FPN-resnet101),和采用本申请进行误差校准而训练得到的目标检测模型2(FPN-本专利-res50和 FPN-本专利-res101)。表1列出了具有完全注释数据集的召回率和平均精度(AP) 结果。
表1.完全注释数据集下的召回率(Recall)和平均精度(AP)结果
Figure BDA0002479058290000061
Figure BDA0002479058290000071
召回率结果。
FPN-res50(主干网络为resnet-50的FPN)和FPN-resnet101的平均召回率分别为89.8%和87.4%。FPN-本专利-res50(主干网络为resnet-50的使用本专利损失校准方法的FPN)和FPN-本专利-res101分别达到94.6%和94.2%,比FPN 分别高出4.8%和6.8%。
平均精度结果。
与FPN相比,本专利的平均精度AP结果有所改善。FPN-本专利-res50的平均AP达到50.1%,比FPN-res50(48.5%)的平均精度AP高出1.6%,而FPN- 本专利-res101的平均精度AP则提高了1.7%。
2.2稀疏注释数据集的结果。
将稀疏注释数据集分别输入目标检测模型1(FPN-res50和FPN-resnet101),和采用本申请进行误差校准而训练得到的目标检测模型2(FPN-本专利-res50和 FPN-本专利-res101)。表2列出了稀疏注释数据集的召回率和平均精度结果。
表2.稀疏注释数据集下的召回率(Recall)和平均精度(AP)结果
Figure BDA0002479058290000072
召回率结果。
FPN-本专利-res50的平均召回率达到91.3%,比FPN-res50(83.6%)的召回率高7.7%,而FPN-本专利-res101(88.4%)则比FPNres101(83.4%)改善了5.0%。此外,在稀疏注释数据集中,FPN-本专利的结果(91.3%/88.4%)甚至超过了在完整数据集上训练的FPN的结果(89.8%/87.4%)。
平均精度结果。
使用本专利的平均精度结果在稀疏注释数据集上也有很多改进。FPN-本专利 -res50的平均精度达到44.8%,比FPN-res50(40.2%)的平均精度高出4.6%,而FPN-本专利-res101的平均精度则提高了7.2%。
由此可见,采用本申请公开的损失偏差校准方法对目标检测网络进行偏差校准,训练获得的目标检测网络1与经过相同条件未经偏差校准的目标检测网络2 进行对比,通过对完全注释数据集和稀疏注释数据集分别进行检测,检测结果表明,经过偏差校准的目标检测网络2的召回率结果和平均精度结果都有了明显的改善和提高。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (5)

1.针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,包括:
获取带有部分手工标注信息的病理图像作为训练样本;
将所述训练样本输入目标检测模型,通过所述目标检测模型检测出所述训练样本上可能存在检测目标的位置,用回归框标示出所述可能存在检测目标的位置;
计算每个回归框的原始损失;
计算每个回归框的回归框能量;
根据所述回归框能量对对应回归框的原始损失进行校准;
计算校准后所述目标检测模型的损失函数,采用梯度下降法更新所述目标检测模型中的参数,采用更新后的参数对所述目标检测网络继续进行训练。
2.根据权利要求1所述的针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,
在将所述训练样本输入目标检测模型前,先对所述训练样本进行数据预处理:对所述训练样本采用色彩迁移的方法进行数据扩充,再采用主成分分析标准化,使得所述训练样本每个像素的像素值服从标准正态分布。
3.根据权利要求1所述的针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,所述回归框能量通过回归框密度转换而来,计算每个回归框与其他回归框之间的平均距离,利用所述平均距离来衡量对应回归框周围的回归框密度,得到回归框密度函数;
所述回归框密度函数为
Figure FDA0002479058280000011
其中N是回归框的数量,D是曼哈顿街区距离,
D(bi,bj)=|xi-xj|+|yi-yj|,
xi和yi表示由i索引的框的中心点的x坐标和y坐标;
所述回归框能量为
Figure FDA0002479058280000012
其中max(D(b))表示所有回归框之间的最大距离,所述回归框能量值域为0到1。
4.根据权利要求1所述的针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,所述原始损失包括定位损失和分类损失:
L(p,u,b,v)=Lcls(p,u)+Lloc(b,v),
其中,Lcls(p,u)是定位损失,Lloc(b,v)是分类损失;u是所述训练样本的类别标注,v是训练样本中的手工标注框,p是网络的预测类别概率分布,而b为网络预测的回归框位置。
5.根据权利要求4所述的针对缺失标注的病理图像的高精度检测网络训练方法,其特征在于,所述根据所述回归框能量对对应回归框的原始损失进行校准,包括分类损失校准和定位损失校准,分类损失通过
Figure RE-FDA0002563870640000021
进行校准,其中uk=0表示由k索引的回归框的标签为背景,定位损失通过
Figure RE-FDA0002563870640000022
进行校准,
总的损失函数为
Figure RE-FDA0002563870640000023
CN202010373046.3A 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法 Active CN111626989B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010373046.3A CN111626989B (zh) 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010373046.3A CN111626989B (zh) 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法

Publications (2)

Publication Number Publication Date
CN111626989A true CN111626989A (zh) 2020-09-04
CN111626989B CN111626989B (zh) 2022-07-22

Family

ID=72258913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010373046.3A Active CN111626989B (zh) 2020-05-06 2020-05-06 针对缺失标注的病理图像的高精度检测网络训练方法

Country Status (1)

Country Link
CN (1) CN111626989B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931931A (zh) * 2020-09-29 2020-11-13 杭州迪英加科技有限公司 一种针对病理全场图像的深度神经网络训练方法、装置
CN112699808A (zh) * 2020-12-31 2021-04-23 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN114842326A (zh) * 2022-03-21 2022-08-02 华南农业大学 一种免定标檀香树植株缺苗定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154043A (zh) * 2017-06-05 2017-09-12 杭州健培科技有限公司 一种基于3dcnn的肺结节假阳性样本抑制方法
WO2020014477A1 (en) * 2018-07-11 2020-01-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image analysis with deep learning to predict breast cancer classes
CN111079836A (zh) * 2019-12-16 2020-04-28 浙江大学 基于伪标签方法和弱监督学习的过程数据故障分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154043A (zh) * 2017-06-05 2017-09-12 杭州健培科技有限公司 一种基于3dcnn的肺结节假阳性样本抑制方法
WO2020014477A1 (en) * 2018-07-11 2020-01-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image analysis with deep learning to predict breast cancer classes
CN111079836A (zh) * 2019-12-16 2020-04-28 浙江大学 基于伪标签方法和弱监督学习的过程数据故障分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FUYONG XING;ET AL: "《Robust nucleus/cell detection and segmentation in digital pathology and microscopy images: a comprehensive review》", 《IEEE REVIEWS IN BIOMEDICAL ENGINEERING》 *
何剑: "《目标检测算法在乳腺病理图像分析中的应用》", 《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931931A (zh) * 2020-09-29 2020-11-13 杭州迪英加科技有限公司 一种针对病理全场图像的深度神经网络训练方法、装置
CN112699808A (zh) * 2020-12-31 2021-04-23 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN112699808B (zh) * 2020-12-31 2024-06-07 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN114842326A (zh) * 2022-03-21 2022-08-02 华南农业大学 一种免定标檀香树植株缺苗定位方法
CN114842326B (zh) * 2022-03-21 2024-04-02 华南农业大学 一种免定标檀香树植株缺苗定位方法

Also Published As

Publication number Publication date
CN111626989B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN111626989B (zh) 针对缺失标注的病理图像的高精度检测网络训练方法
CN109919230B (zh) 基于循环特征金字塔的医学图像肺结节检测方法
CN106056595B (zh) 基于深度卷积神经网络自动识别甲状腺结节良恶性的辅助诊断***
Bjornsson et al. Associative image analysis: a method for automated quantification of 3D multi-parameter images of brain tissue
CN110059697B (zh) 一种基于深度学习的肺结节自动分割方法
US7602962B2 (en) Method of classifying defects using multiple inspection machines
KR101255865B1 (ko) 개선된 이미지 분할 방법
CN110648322B (zh) 一种子宫颈异常细胞检测方法及***
CN108564085B (zh) 一种自动读取指针式仪表读数的方法
US7702157B2 (en) Pattern evaluation method, pattern matching method and computer readable medium
CN109978035B (zh) 基于改进的k-means和损失函数的行人检测方法
CN112699876B (zh) 一种用于集气站多类型仪表自动读数方法
US11790515B2 (en) Detecting defects in semiconductor specimens using weak labeling
CN103940708B (zh) 一种钢材全形态晶粒的快速测量、精细分类方法
CN109978872B (zh) 基于白质纤维束的白质微结构特征筛选***及方法
CN108305253A (zh) 一种基于多倍率深度学习的病理全切片诊断方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和***
Ferlaino et al. Towards deep cellular phenotyping in placental histology
CN113609984A (zh) 一种指针式仪表读数识别方法、装置及电子设备
CN115035081B (zh) 一种基于工业ct的金属内部缺陷危险源定位方法及***
CN115131596A (zh) 缺陷分类装置、方法以及程序
CN117495852B (zh) 一种基于图像分析的数字印刷质量检测方法
CN104732230A (zh) 一种基于细胞核统计信息的病理图像局部特征提取方法
Huang et al. HEp-2 cell images classification based on textural and statistic features using self-organizing map
CN112703531A (zh) 生成组织图像的注释数据

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant