CN111612789A - 一种基于改进的U-net网络的缺陷检测方法 - Google Patents

一种基于改进的U-net网络的缺陷检测方法 Download PDF

Info

Publication number
CN111612789A
CN111612789A CN202010611491.9A CN202010611491A CN111612789A CN 111612789 A CN111612789 A CN 111612789A CN 202010611491 A CN202010611491 A CN 202010611491A CN 111612789 A CN111612789 A CN 111612789A
Authority
CN
China
Prior art keywords
network
feature map
training
size
net network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010611491.9A
Other languages
English (en)
Inventor
都卫东
王岩松
和江镇
龙仕玉
张海宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Focusight Technology Co Ltd
Original Assignee
Focusight Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Focusight Technology Co Ltd filed Critical Focusight Technology Co Ltd
Priority to CN202010611491.9A priority Critical patent/CN111612789A/zh
Publication of CN111612789A publication Critical patent/CN111612789A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于改进的U‑net网络的缺陷检测方法,用于对平面产品进行缺陷检测,所述方法包括:利用U‑net网络对一批训练图像进行训练,所述训练图像包括多个正常类样本和多个缺陷样本;使用Resnet网络代替U‑net网络的encode部分。Resnet网络包括多个残差模块,经过每一个残差模块对应进行一次最大池化操作,经过每一个残差模块和一次最大池化操作后得到对应的残差特征图。本发明提高了训练模型预测的准确度,增大了网络的感受野,保持原始图像更多的特征信息,能够更充分的保持底层的特征,能够更快的使得缺陷特征凸显,尤其对于玻璃等平坦场景中的产品缺陷检测的准确度。

Description

一种基于改进的U-net网络的缺陷检测方法
技术领域
本发明涉及利用U-net网络对产品图像进行缺陷检测技术领域,尤其是检测玻璃等平坦产品的缺陷检测。
背景技术
U-net网络(分割网络)常用于图像分割任务,如图1所示,图1中左半部分为特征提取部分,每经过一次池化层,特征图就会减少一半的尺度,图1中包括5个尺度。图1中右半部分为上采样部分,每上采样一次,就和特征提取部分对应的通道数相同的特征图相融合,U-net网络在图像分割中的优势主要有两点,其一是可以实现多尺度的输入,其二是比较适合较高分辨率图像的分割。
目前U-net网络主要用于医疗影像的分割,U-net网络的encode部分(编码部分)下采样4次,一共下采样16倍,同时,U-net网络的decode部分(解码部分)也相应的上采样4次,将得到的高级featuremap(特征图)恢复到原输入图像的分辨率,相比于其他分割网络,U-net网络不是直接在高级语义特征上进行监督和loss计算,而是通过4次上采样过程,在同一个尺寸的featuremap中进行拼接。这样能保证恢复出来的特征图能够融合更多的底层和高层网络的特征,从而进行多尺度预测。U-net网络的4次上采样也使得边缘信息更加精细,医疗影像因为较为简单,结构也相对固定,基本都是固定器官的成像,同时医学图像的数据量较少,不能用过深的网络模型,参数过多,很容易导致过拟合。U-net网络适合的的场景是高分辨率图像(提供精准分割定位)和低分辨率信息(判断是否为目标)。
对于U-net网络在玻璃等平面产品缺陷检测中应用时,缺陷往往以高分辨率和结构复杂存在,一批样本的缺陷特征存在于不同的位置,同时缺陷的形状和大小也有很大差异,很多缺陷之间并没有相关性,需要更多的底层的特征,改善上采样信息的不足。传统U-net网络通过卷积层和池化层实现特征提取,卷积层较少,特征图感受野较低,如果简单增加网络层数会导致梯度消失和***等问题。
发明内容
本发明要解决的技术问题是:提供一种基于改进的U-net网络的缺陷检测方法,保持产品的原始图像更多的特征信息,提高产品缺陷检测的准确率。
本发明解决其技术问题所采用的技术方案是:一种基于改进的U-net网络的缺陷检测方法,用于对平坦类型产品进行缺陷检测,所述方法包括:利用U-net网络对一批训练图像进行训练,所述训练图像包括多个正常类样本和多个缺陷样本;使用Resnet网络代替U-net网络的encode部分。
更为优选地,所述方法包括如下步骤:
(1)、训练图像制作:由输入的平面产品的原始图像裁剪成预设尺寸的训练图像;
更为优选地,所述的使用Resnet网络代替U-net网络的encode部分包括如下步骤:
(2)、训练图像首先经过第一卷积层提取特征图得到第一层特征图,第一层特征图经过一次最大池化操作使得每个特征图尺寸减小1/2;
(3)、步骤(2)得到的特征图经过Resnet网络,Resnet网络包括多个残差模块,经过每一个残差模块对应进行一次最大池化操作,每次最大池化操作使得相应特征图尺寸减小1/2;经过每一个残差模块和一次最大池化操作后得到对应的残差特征图。
更为优选地,所述方法包括如下步骤:
(4)、U-net网络的decode部分:将经过Resnet网络的所有残差模块及对应的最大池化操作后得到的总残差特征图进行反卷积得到上采样特征图,将上采样特征图和步骤(3)中对应的与其尺寸相同的残差特征图相融合得到融合特征图;
(5)、将得到的融合特征图进行反卷积后与步骤(3)中对应的与其尺寸相同的残差特征图相融合得到新的融合特征图;
(6)、重复步骤(5),直至得到与训练图像的初始尺寸相同的融合特征图后最后进行一次反卷积即得到总融合特征图。
更为优选地,所述方法包括如下步骤:
(7)、将总融合特征图根据训练图像对应的标注图进行交叉熵损失的计算以及通过反向传播训练更新U-net网络及Resnet网络中的参数,使得损失值减小,最终得到预测模型;
(8)、将待测试的平面产品的原始图像,裁剪成训练图像的尺寸大小输入预测模型中,得到原始图像的像素点是否为缺陷的概率值。
本发明的有益效果是:本发明利用了Resnet网络提取特征,提高了训练模型预测的准确度。Resnet网络相比于原有的U-net网络中4次下采样的优势在于增大了网络的感受野,保持原始图像更多的特征信息,能够更充分的保持底层的特征,在训练过程中,避免网络退化导致的底层特征丢失,进而在decode部分能融合更多的底层信息。本发明比原有的U-net网络具有更高的缺陷检测准确度,本发明能够更快的使得缺陷特征凸显,能够更快的收敛和保持原图的特征,尤其对于玻璃等平坦场景中的产品缺陷检测的准确度,原始图像中的弱对比度缺陷有较好的适应性。
附图说明
下面结合附图对本发明进一步说明。
图1是现有的U-net网络结构图;
图2是本发明中采用的resnet网络结构图;
图3是本发明的实施方式的resnet网络加U-net网络结构图;
图4是本发明的实施方式中的最终尺寸分割效果图;
其中,1、第一残差模块、2、第二残差模块、3、第三残差模块,4、第四残差模块。
具体实施方式
现在结合附图对本发明作进一步的说明。这些附图均为简化的示意图仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
一种基于改进的U-net网络的缺陷检测方法,用于对平面产品进行缺陷检测,所述方法包括:利用U-net网络对一批训练图像进行训练,所述训练图像包括多个正常类样本和多个缺陷样本;使用Resnet网络代替U-net网络的encode部分。本发明的方法适用于在玻璃等平坦场景中应用。
原有的U-net网络的卷积层为特征提取层,原有的U-net网络如图1所示,左半边为encode(编码)部分,右半边为decode(解码)部分,本发明的方法中使用resnet网络代替encode部分。本发明中resnet网络可选用如图2所示的resnet-34网络。如图2所示,resnet网络具有4个残差模块:第一残差模块1、第二残差模块2、第三残差模块3、第四残差模块4。每个残差模块分别包含个数不同的特征图的卷积核大小为3*3的卷积操作,每个残差模块最后再进行最大池化操作(maxpooling),每次最大池化操作都会使得特征图尺寸减小1/2。当应用场景复杂时,resnet网络可选用resnet-50或者resnet-101作为骨干网络,提取更多的底层特征。
如图3所示,具体实施例如下:
(1)、训练图像制作:由输入的平面产品的原始图像裁剪成预设尺寸的训练图像。平面产品的原始图像尺寸大小不定,通过裁剪的方式裁剪出n张正常类样本和m张包含缺陷样本,训练图像尺寸优选为256*256;n,m为大于零的自然数。
(2)、开始训练,训练图像首先经过第一卷积层提取特征图得到第一层特征图,第一层特征图经过一次最大池化操作使得每个特征图尺寸减小1/2。优选的,例如,训练图像通过64个卷积核为7*7大小计算提取特征图得到第一层特征图,同时进行最大池化计算将第一层特征图转换成尺寸大小为128*128的64个特征图。
(3)、步骤(2)得到的特征图经过Resnet网络,Resnet网络包括多个残差模块,经过每一个残差模块对应进行一次最大池化操作,每次最大池化操作使得相应特征图尺寸减小1/2;经过每一个残差模块和一次最大池化操作后得到对应的残差特征图。最大池化操作可以放在每个残差模块的最前或者最后。
Resnet网络的多个残差模块,通过学习输出和输入的残差,在不增加计算量的同时,大大加速了网络的训练速度,提高了训练效果,并且对于网络层数的增加,能够很好的解决网络退化问题。
如图3及图2所示,进入第一残差模块1阶段,先最大池化操作(maxpooling);然后计算6次卷积操作,特征图个数为64,卷积核大小为3*3,得到尺寸大小为64*64的残差特征图。进入第二残差模块2阶段,先最大池化操作,然后计算8次卷积操作,特征图个数为128,卷积核大小为3*3,得到尺寸大小为32*32的残差特征图。进入第三残差模块3阶段,先最大池化操作,然后计算12次卷积操作,特征图个数为256,卷积核大小为3*3;得到尺寸大小为16*16的残差特征图。进入第四残差模块4阶段,先最大池化操作,然后计算6次卷积操作,特征图个数为512,卷积核大小为3*3;得到尺寸大小为8*8的总残差特征图。
(4)、U-net网络的decode部分:将经过Resnet网络的所有残差模块及对应的最大池化操作后得到的总残差特征图进行反卷积得到上采样特征图,将上采样特征图和步骤(3)中对应的与其尺寸相同的残差特征图相融合得到融合特征图。优选的,如图3中所示,将得到的总残差特征图进行反卷积,卷积核大小为3*3,卷积核个数为256个,得到的特征图尺寸大小为16*16的256个上采样特征图,通过和步骤(3)中对应的尺寸大小为16*16的256个残差特征图进行融合,得到512个16*16的融合特征图。
(5)、将得到的融合特征图进行反卷积后与步骤(3)中对应的与其尺寸相同的残差特征图相融合得到新的融合特征图。例如,将上述得到的512个16*16的融合特征图对其进行反卷积,卷积核大小为3*3,卷积核个数为128,反卷积后得到的尺寸大小为32*32的128个特征图与步骤(3)中对应的尺寸大小为32*32的128个残差特征图相融合得到256个32*32的融合特征图。
(6)、重复步骤(5),直至得到与训练图像的初始尺寸相同的融合特征图后最后进行一次反卷积即得到总融合特征图。例如,根据步骤(5),以此类推,将前述256个32*32的融合特征图对其进行反卷积,卷积核大小为3*3,卷积核个数为256,反卷积后得到的尺寸大小为64*64的256个特征图与步骤(3)中对应的尺寸大小为64*64的256个残差特征图相融合得到512个64*64的融合特征图。将前述512个64*64的融合特征图对其进行反卷积,卷积核大小为3*3,卷积核个数为512,反卷积后得到的尺寸大小为128*128的512个特征图与步骤(3)中对应的尺寸大小为128*128的512个残差特征图相融合得到1024个128*128的融合特征图。最后将前述1024个128*128的融合特征图对其进行反卷积得到尺寸大小为256*256的总融合特征图。
(7)、将总融合特征图根据训练图像对应的标注图(label图)进行交叉熵损失的计算以及通过反向传播训练更新U-net网络及Resnet网络中的参数,使得损失值减小,最终得到预测模型;
(8)、将待测试的平面产品的原始图像,裁剪成训练图像的尺寸大小输入预测模型中,得到原始图像的像素点是否为缺陷的概率值。
本发明的训练模型可以得到原始图像的像素点是缺陷的概率值,同时再利用人眼的特性,如图4所示,缺陷往往以对比度较高和具有一定联通性形式存在。根据训练模型预测的概率热度图在平面产品的原始图像查找对比度较高的区域,可以实现缺陷精准检测。概率热度图反应的是每个像素点是缺陷的可能性的大小。本发明利用了Resnet网络提取特征,提高了训练模型预测的准确度。Resnet网络相比于原有的U-net网络中4次下采样的优势在于增大了网络的感受野,保持原始图像更多的特征信息,能够更充分的保持底层的特征,在训练过程中,避免网络退化导致的底层特征丢失,进而在decode部分能融合更多的底层信息。本发明比原有的U-net网络具有更高的缺陷检测准确度。本发明能够更快的使得缺陷特征凸显,能够更快的收敛和保持原图的特征,尤其对于玻璃等平坦场景中的产品缺陷检测的准确度,原始图像中的弱对比度缺陷有较好的适应性。本发明中使用最大池化操作,相比于步长(stride)方式和均值池化(avgpooling)方式,在网络迭代的过程中,最大池化操作能使得缺陷和非缺陷部分的特征更容易区分进而使得模型收敛。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (4)

1.一种基于改进的U-net网络的缺陷检测方法,用于对平面产品进行缺陷检测,其特征在于:所述方法包括:利用U-net网络对一批训练图像进行训练,所述训练图像包括多个正常类样本和多个缺陷样本;使用Resnet网络代替U-net网络的encode部分。
2.根据权利要求1所述的缺陷检测方法,其特征在于:所述方法包括如下步骤:
(1)、训练图像制作:由输入的平面产品的原始图像裁剪成预设尺寸的训练图像;
权利要求1所述的使用Resnet网络代替U-net网络的encode部分包括如下步骤:
(2)、训练图像首先经过第一卷积层提取特征图得到第一层特征图,第一层特征图经过一次最大池化操作使得每个特征图尺寸减小1/2;
(3)、步骤(2)得到的特征图经过Resnet网络,Resnet网络包括多个残差模块,经过每一个残差模块对应进行一次最大池化操作,每次最大池化操作使得相应特征图尺寸减小1/2;经过每一个残差模块和一次最大池化操作后得到对应的残差特征图。
3.根据权利要求2所述的缺陷检测方法,其特征在于:所述方法包括如下步骤:
(4)、U-net网络的decode部分:将经过Resnet网络的所有残差模块及对应的最大池化操作后得到的总残差特征图进行反卷积得到上采样特征图,将上采样特征图和步骤(3)中对应的与其尺寸相同的残差特征图相融合得到融合特征图;
(5)、将得到的融合特征图进行反卷积后与步骤(3)中对应的与其尺寸相同的残差特征图相融合得到新的融合特征图;
(6)、重复步骤(5),直至得到与训练图像的初始尺寸相同的融合特征图后最后进行一次反卷积即得到总融合特征图。
4.根据权利要求3所述的缺陷检测方法,其特征在于:所述方法包括如下步骤:
(7)、将总融合特征图根据训练图像对应的标注图进行交叉熵损失的计算以及通过反向传播训练更新U-net网络及Resnet网络中的参数,使得损失值减小,最终得到预测模型;
(8)、将待测试的平面产品的原始图像,裁剪成训练图像的尺寸大小输入预测模型中,得到原始图像的像素点是否为缺陷的概率值。
CN202010611491.9A 2020-06-30 2020-06-30 一种基于改进的U-net网络的缺陷检测方法 Withdrawn CN111612789A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010611491.9A CN111612789A (zh) 2020-06-30 2020-06-30 一种基于改进的U-net网络的缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010611491.9A CN111612789A (zh) 2020-06-30 2020-06-30 一种基于改进的U-net网络的缺陷检测方法

Publications (1)

Publication Number Publication Date
CN111612789A true CN111612789A (zh) 2020-09-01

Family

ID=72198995

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010611491.9A Withdrawn CN111612789A (zh) 2020-06-30 2020-06-30 一种基于改进的U-net网络的缺陷检测方法

Country Status (1)

Country Link
CN (1) CN111612789A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070762A (zh) * 2020-09-18 2020-12-11 惠州高视科技有限公司 液晶面板的mura缺陷检测方法、装置、存储介质及终端
CN112614113A (zh) * 2020-12-26 2021-04-06 北京工业大学 一种基于深度学习的带钢缺陷检测方法
CN114119640A (zh) * 2022-01-27 2022-03-01 广东皓行科技有限公司 模型训练方法、图像分割方法以及图像分割***
CN114782387A (zh) * 2022-04-29 2022-07-22 苏州威达智电子科技有限公司 一种表面缺陷检测***
WO2022236876A1 (zh) * 2021-05-14 2022-11-17 广州广电运通金融电子股份有限公司 一种玻璃纸缺陷识别方法、***、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160265969A1 (en) * 2015-03-10 2016-09-15 Pixart Imaging Inc. Image processing method capable of detecting noise and related navigation device
CN109118491A (zh) * 2018-07-30 2019-01-01 深圳先进技术研究院 一种基于深度学习的图像分割方法、***及电子设备
CN109840471A (zh) * 2018-12-14 2019-06-04 天津大学 一种基于改进Unet网络模型的可行道路分割方法
CN110334645A (zh) * 2019-07-02 2019-10-15 华东交通大学 一种基于深度学习的月球撞击坑识别方法
CN111145188A (zh) * 2019-12-25 2020-05-12 西安电子科技大学 一种基于ResNet与UNet模型的图像分割方法
CN111275653A (zh) * 2020-02-28 2020-06-12 北京松果电子有限公司 图像去噪方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160265969A1 (en) * 2015-03-10 2016-09-15 Pixart Imaging Inc. Image processing method capable of detecting noise and related navigation device
CN109118491A (zh) * 2018-07-30 2019-01-01 深圳先进技术研究院 一种基于深度学习的图像分割方法、***及电子设备
CN109840471A (zh) * 2018-12-14 2019-06-04 天津大学 一种基于改进Unet网络模型的可行道路分割方法
CN110334645A (zh) * 2019-07-02 2019-10-15 华东交通大学 一种基于深度学习的月球撞击坑识别方法
CN111145188A (zh) * 2019-12-25 2020-05-12 西安电子科技大学 一种基于ResNet与UNet模型的图像分割方法
CN111275653A (zh) * 2020-02-28 2020-06-12 北京松果电子有限公司 图像去噪方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070762A (zh) * 2020-09-18 2020-12-11 惠州高视科技有限公司 液晶面板的mura缺陷检测方法、装置、存储介质及终端
CN112614113A (zh) * 2020-12-26 2021-04-06 北京工业大学 一种基于深度学习的带钢缺陷检测方法
WO2022236876A1 (zh) * 2021-05-14 2022-11-17 广州广电运通金融电子股份有限公司 一种玻璃纸缺陷识别方法、***、装置及存储介质
CN114119640A (zh) * 2022-01-27 2022-03-01 广东皓行科技有限公司 模型训练方法、图像分割方法以及图像分割***
CN114119640B (zh) * 2022-01-27 2022-04-22 广东皓行科技有限公司 模型训练方法、图像分割方法以及图像分割***
CN114782387A (zh) * 2022-04-29 2022-07-22 苏州威达智电子科技有限公司 一种表面缺陷检测***

Similar Documents

Publication Publication Date Title
CN111325751B (zh) 基于注意力卷积神经网络的ct图像分割***
CN111612789A (zh) 一种基于改进的U-net网络的缺陷检测方法
CN110097554B (zh) 基于密集卷积和深度可分离卷积的视网膜血管分割方法
CN110111334B (zh) 一种裂缝分割方法、装置、电子设备及存储介质
CN111145181B (zh) 基于多视角分离卷积神经网络的骨骼ct图像三维分割方法
CN112381097A (zh) 一种基于深度学习的场景语义分割方法
CN111784671A (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
CN111681273A (zh) 图像分割方法、装置、电子设备及可读存储介质
CN111914654B (zh) 一种文本版面分析方法、装置、设备和介质
CN110517272B (zh) 基于深度学习的血细胞分割方法
CN114359297A (zh) 基于注意力金字塔的多分辨率语义分割方法及装置
CN111353544A (zh) 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN112700460B (zh) 图像分割方法及***
CN113870286A (zh) 一种基于多级特征和掩码融合的前景分割方法
CN114332133A (zh) 基于改进CE-Net的新冠肺炎CT图像感染区分割方法及***
CN114742799A (zh) 基于自监督异构网络的工业场景未知类型缺陷分割方法
CN110599495B (zh) 一种基于语义信息挖掘的图像分割方法
CN116645592A (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN113468946A (zh) 用于交通灯检测的语义一致的增强训练数据
CN115272242A (zh) 一种基于YOLOv5的光学遥感图像目标检测方法
CN115170801A (zh) 一种基于双注意力机制融合的FDA-DeepLab语义分割算法
CN114861842A (zh) 少样本目标检测方法、装置和电子设备
CN114418987A (zh) 一种多阶段特征融合的视网膜血管分割方法及***
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN112700450A (zh) 一种基于集成学习的图像分割方法及其***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200901