CN114863098A - 用于工业场景的细小微弱缺陷分割方法 - Google Patents

用于工业场景的细小微弱缺陷分割方法 Download PDF

Info

Publication number
CN114863098A
CN114863098A CN202210397331.8A CN202210397331A CN114863098A CN 114863098 A CN114863098 A CN 114863098A CN 202210397331 A CN202210397331 A CN 202210397331A CN 114863098 A CN114863098 A CN 114863098A
Authority
CN
China
Prior art keywords
feature
feature map
image
output
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210397331.8A
Other languages
English (en)
Other versions
CN114863098B (zh
Inventor
周瑜
龚石
周欢
白翔
郑增强
刘荣华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202210397331.8A priority Critical patent/CN114863098B/zh
Publication of CN114863098A publication Critical patent/CN114863098A/zh
Application granted granted Critical
Publication of CN114863098B publication Critical patent/CN114863098B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于工业场景的细小微弱缺陷分割方法。所述方法包括以下步骤:利用深度卷积神经网络特征编码器对RGB图像进行多尺度特征提取来适应不同尺度的缺陷;特征解码器对特征编码器提取的多尺度图像特征进行融合上采样以尽可能保留细节信息,得到高分辨率高区分力的图像特征图;基于融合后的图像特征图,采用分类器对图像进行逐像素二分类,将图像中所有像素划分为正常像素和缺陷像素两类。本方法提出了一种将正常像素与缺陷像素损失平衡的目标函数,使模型更有效学习到细小微弱缺陷特征,大幅减少了对工业场景下细小微弱缺陷的漏检,实现了更准确的缺陷像素级分割。

Description

用于工业场景的细小微弱缺陷分割方法
技术领域
本发明属于计算机视觉技术领域,更具体地,涉及一种用于工业场景的细小微弱缺陷分割方法。
背景技术
近年来,面向工业场景的细小微弱缺陷分割技术已成为工业视觉领域的研究热点之一,其旨在检测出工业图像中视觉可见的缺陷,这些细小缺陷可能会对工业产品造成不可逆危害。由于高分辨率图像中缺陷的面积往往较小,而且形状具有任意性,所以学术界与工业界更关注用像素级的分割结果来描述缺陷的位置与形状,细粒度的缺陷分割结果也有利于实际应用中的各种后续需求。在工业缺陷分割任务中,图像中的像素被预定义为两类:正常像素与缺陷像素,面向工业场景的细小微弱缺陷分割技术则需要将图像中的缺陷像素分割出来。
早期的缺陷分割方法使用手工设计的特征,如颜色、边缘等,用于像素或图像块的分类,以实现像素级的缺陷分割。近年来,随着深度卷积神经网络在计算机视觉领域的飞速发展,工业缺陷分割领域中也对其予以广泛应用。大部分方法借鉴通用目标分割的框架,如FCN、U-Net和Deeplab等,并针对缺陷分割进行调整。
工业场景下的缺陷存在未知性、形状不规则性、低视觉区分性等,给现有基于深度卷积神经网络有监督学习的方法提出了挑战。同时,现有有监督学习的方案没有考虑到一些工业场景下细小微弱缺陷图像中正常像素与缺陷像素及其不均衡的情况,正常像素比缺陷像素多几个数量级,导致模型难以有效学习到缺陷特征而造成细小微弱缺陷的严重漏检。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种更准确的用于工业场景的细小微弱缺陷分割方法。为达到上述目的,本发明提供如下技术方案:
一种用于工业场景的细小微弱缺陷分割方法,包括以下步骤:
步骤S1,多尺度特征提取,利用深度卷积神经网络特征编码器(2)对RGB图像(1)进行多尺度图像特征提取;
步骤S2,各层特征融合解码,利用特征解码器(3)对步骤S1提取的多尺度图像特征进行逐层融合,得到分辨率扩大的高层语义特征图;
步骤S3,逐像素预测,基于步骤S2输出的高层语义特征图,采用分类器(4)预测图像中缺陷像素的分割结果,将输入RGB图像中的所有像素划分为正常像素和缺陷像素两类。
优选地,深度卷积神经网络特征编码器(2)分为五个卷积块,从第一到第五个卷积块输出的图像特征图尺寸分别为输入图像的1/2,1/4,1/8,1/16和1/32,通道数分别为C1,C2,C3,C4,C5,其中C1,C2,C3,C4,C5分别为预设值。
优选地,特征解码器(3)采用反向逐层融合的策略,在不同分辨率特征图上进行特征融合,具体包括:
步骤S2-1,将步骤S1中第五个卷积块输出的原图1/32分辨率的特征图进行反卷积操作,反卷积层包含一个2×2的反卷积操作、批量标准化操作和ReLU激活函数激活操作,使特征图上采样到原图1/16分辨率且通道数变为C4。然后令其与第四个卷积块输出的原图1/16分辨率的特征图在通道维度上进行堆叠,使用两个3×3的卷积块进行特征融合,每个卷积块包含一个3×3的卷积操作、批量标准化操作和ReLU激活函数激活操作,最终输出分辨率为原图1/16且通道数为C4的融合特征图。
步骤S2-2,将步骤S2-1输出的特征图进行同样反卷积操作,使特征图上采样到原图1/8分辨率且通道数变为C3。然后令其与第三个卷积块输出的原图1/8分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/8且通道数为C3的融合特征图。
步骤S2-3,将步骤S2-2输出的特征图进行同样反卷积操作,使特征图上采样到原图1/4分辨率且通道数变为C2。然后令其与第二个卷积块输出的原图1/4分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/4且通道数为C2的融合特征图。
步骤S2-4,将步骤S2-3输出的特征图进行同样反卷积操作,使特征图上采样到原图1/2分辨率且通道数变为C1。然后令其与第一个卷积块输出的原图1/2分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/2且通道数为C1的融合特征图。
优选地,在训练阶段,步骤S3中分类器(4)的输入为步骤S2-4的输出,它使用1×1卷积进行逐像素的预测
Figure BDA0003599556840000031
其中R2表示像素正常/缺陷的分类得分,使用softmax函数对得分进行归一化,将归一化后的得分双线性插值到输入图像大小作为最终的预测结果。
优选地,本方法采用端到端的方式进行模型的参数学习,优化的目标函数(5)为:
L=L0+γ·L1
其中L0表示样本正常像素上分类器(4)输出的概率与样本分割标签之间的二元交叉熵损失,L1表示样本缺陷像素上分类器(4)输出的概率与样本分割标签之间的二元交叉熵损失,γ为超参数用来控制两项损失值的权重。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有如下有益效果:
可以有效应对工业场景下细小微弱缺陷的分割:本发明提出了一种将正常像素与缺陷像素损失平衡的目标函数,通过分别计算正常像素与缺陷像素交叉熵损失并通过权重系数进行调节避免了正常像素主导梯度,使得模型能够更有效学习到细小微弱缺陷特征,相比于现有技术可以极大减少细小微弱缺陷的漏检测,实现更准确的像素级分割。
附图说明
图1是本发明提供的用于工业场景的细小微弱缺陷分割方法的整体流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明提供了一种用于工业场景的细小微弱缺陷分割方法,如图1所示,包括以下步骤:
步骤S1,多尺度特征提取,利用深度卷积神经网络特征编码器(2)对RGB图像(1)进行多尺度图像特征提取;
步骤S2,各层特征融合解码,利用特征解码器(3)对步骤S1提取的多尺度图像特征进行逐层融合,得到分辨率扩大的高层语义特征图;
步骤S3,逐像素预测,基于步骤S2输出的图像高层语义特征,采用分类器(4)预测图像中缺陷像素的分割结果,将输入RGB图像中的所有像素划分为正常像素和缺陷像素两类。
主要有三个实现部分:1)多尺度图像特征提取;2)逐层融合特征解码器;3)分类器和目标函数。接下来对本发明中步骤进行详细说明。
1.多尺度图像特征提取
本发明实施例采用ResNet34作为骨干网络进行多尺度图像特征提取,在原始ResNet34分类模型基础上,去掉了最后的平均池化层和全连接层,训练时加载了在ImageNet上预训练的模型参数。从第一到第五个卷积块输出的图像特征图尺寸分别为输入图像的1/2,1/4,1/8,1/16和1/32,通道数分别为C1,C2,C3,C4,C5,实施例中C1,C2,C3,C4,C5分别为64,64,128,256,512。
2.逐层融合特征解码器
特征解码器(3)采用反向逐层融合的策略,在不同分辨率特征图上进行特征融合,具体包括:
步骤S2-1,将步骤S1中第五个卷积块输出的原图1/32分辨率的特征图进行反卷积操作,反卷积层包含一个2×2的反卷积操作、批量标准化操作和ReLU激活函数激活操作,使特征图上采样到原图1/16分辨率且通道数变为256。然后令其与第四个卷积块输出的原图1/16分辨率的特征图在通道维度上进行堆叠,使用两个3×3的卷积块进行特征融合,每个卷积块包含一个3×3的卷积操作、批量标准化操作和ReLU激活函数激活操作,最终输出分辨率为原图1/16且通道数为256的融合特征图。
步骤S2-2,将步骤S2-1输出的特征图进行同样反卷积操作,使特征图上采样到原图1/8分辨率且通道数变为128。然后令其与第三个卷积块输出的原图1/8分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/8且通道数为128的融合特征图。
步骤S2-3,将步骤S2-2输出的特征图进行同样反卷积操作,使特征图上采样到原图1/4分辨率且通道数变为64。然后令其与第二个卷积块输出的原图1/4分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/4且通道数为64的融合特征图。
步骤S2-4,将步骤S2-3输出的特征图进行同样反卷积操作,使特征图上采样到原图1/2分辨率且通道数变为64。然后令其与第一个卷积块输出的原图1/2分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/2且通道数为64的融合特征图。
3.分类器和目标函数
本发明实施例在训练阶段,步骤S3中分类器(4)的输入为步骤S2-4的输出,它使用1×1卷积进行逐像素的预测R64→R2,其中R2表示像素正常/缺陷的分类得分,使用softmax函数对得分进行归一化,将归一化后的得分双线性插值到输入图像大小作为最终的预测结果。本发明实施例采用端到端的方式进行模型的参数学习,优化的目标函数(5)为:
L=L0+γ·L1
其中L0表示样本正常像素上分类器(4)输出的概率与样本分割标签之间的二元交叉熵损失,L1表示样本缺陷像素上分类器(4)输出的概率与样本分割标签之间的二元交叉熵损失,γ为超参数用来控制两项损失值的权重,为了平衡正常像素与缺陷像素的损失,本发明实施例设定γ=1。
本发明提出了一种用于工业场景的细小微弱缺陷分割方法。采用了一个特征编码器进行多尺度的特征提取来适应不同尺度的缺陷,一个特征解码器恢复特征图的分辨率,特征图跳跃连接以尽可能保留细节信息。考虑到工业图像中细小微弱缺陷带来的正常像素与缺陷像素及其不均衡的情况,本发明提出了将正常像素与缺陷像素损失平衡的目标函数,避免了全图像素不区分的统一使用交叉熵损失时,由于正常像素比缺陷像素多几个数量级而主导总的梯度,造成的模型无法学习到细小微弱缺陷特征的问题,实现了对工业场景下细小微弱缺陷更准确的分割。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种用于工业场景的细小微弱缺陷分割方法,其特征在于,包括以下步骤:
步骤S1,多尺度特征提取,利用深度卷积神经网络的特征编码器对RGB图像进行多尺度图像特征提取;
步骤S2,各层特征融合解码,利用深度卷积神经网络的特征解码器对步骤S1提取的多尺度图像特征进行逐层融合,得到分辨率扩大的高层语义特征图;
步骤S3,逐像素预测,基于步骤S2输出的高层语义特征图,采用深度卷积神经网络的分类器预测图像中缺陷像素的分割结果,将输入RGB图像中的所有像素划分为正常像素和缺陷像素两类。
2.如权利要求1所述的用于工业场景的细小微弱缺陷分割方法,其特征在于,特征编码器分为五个卷积块,从第一到第五个卷积块输出的图像特征图尺寸分别为输入图像的1/2,1/4,1/8,1/16和1/32,通道数分别为C1,C2,C3,C4,C5,其中C1,C2,C3,C4,C5分别为预设值。
3.如权利要求1或2所述的用于工业场景的细小微弱缺陷分割方法,其特征在于,特征解码器采用反向逐层融合的策略,在不同分辨率特征图上进行特征融合。
4.如权利要求3所述的用于工业场景的细小微弱缺陷分割方法,其特征在于,特征融合具体包括:
步骤S2-1,将步骤S1中第五个卷积块输出的原图1/32分辨率的特征图进行反卷积操作,反卷积层包含一个2×2的反卷积操作、批量标准化操作和ReLU激活函数激活操作,使特征图上采样到原图1/16分辨率且通道数变为C4;然后令其与第四个卷积块输出的原图1/16分辨率的特征图在通道维度上进行堆叠,使用两个3×3的卷积块进行特征融合,每个卷积块包含一个3×3的卷积操作、批量标准化操作和ReLU激活函数激活操作,最终输出分辨率为原图1/16且通道数为C4的融合特征图;
步骤S2-2,将步骤S2-1输出的特征图进行同样反卷积操作,使特征图上采样到原图1/8分辨率且通道数变为C3;然后令其与第三个卷积块输出的原图1/8分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/8且通道数为C3的融合特征图。
步骤S2-3,将步骤S2-2输出的特征图进行同样反卷积操作,使特征图上采样到原图1/4分辨率且通道数变为C2;然后令其与第二个卷积块输出的原图1/4分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/4且通道数为C2的融合特征图;
步骤S2-4,将步骤S2-3输出的特征图进行同样反卷积操作,使特征图上采样到原图1/2分辨率且通道数变为C1;然后令其与第一个卷积块输出的原图1/2分辨率的特征图在通道维度上进行堆叠,同样使用两个3×3的卷积块进行特征融合,最终输出分辨率为原图1/2且通道数为C1的融合特征图。
5.如权利要求1或2所述的用于工业场景的细小微弱缺陷分割方法,其特征在于,步骤S3中分类器的输入为步骤S2-4的输出,它使用1×1卷积进行逐像素的预测
Figure FDA0003599556830000021
其中R2表示像素正常/缺陷的分类得分,使用softmax函数对得分进行归一化,将归一化后的得分双线性插值到输入图像大小作为最终的预测结果。
6.如权利要求1或2所述的用于工业场景的细小微弱缺陷分割方法,其特征在于,采用端到端的方式进行深度卷积神经网络的参数学习,优化的目标函数为:
L=L0+γ·L1
其中L0表示样本正常像素上分类器输出的概率与样本分割标签之间的二元交叉熵损失,L1表示样本缺陷像素上分类器输出的概率与样本分割标签之间的二元交叉熵损失,γ为超参数用来控制两项损失值的权重。
CN202210397331.8A 2022-04-15 2022-04-15 用于工业场景的细小微弱缺陷分割方法 Active CN114863098B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210397331.8A CN114863098B (zh) 2022-04-15 2022-04-15 用于工业场景的细小微弱缺陷分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210397331.8A CN114863098B (zh) 2022-04-15 2022-04-15 用于工业场景的细小微弱缺陷分割方法

Publications (2)

Publication Number Publication Date
CN114863098A true CN114863098A (zh) 2022-08-05
CN114863098B CN114863098B (zh) 2024-07-19

Family

ID=82631945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210397331.8A Active CN114863098B (zh) 2022-04-15 2022-04-15 用于工业场景的细小微弱缺陷分割方法

Country Status (1)

Country Link
CN (1) CN114863098B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051549A (zh) * 2023-03-29 2023-05-02 山东建筑大学 一种太阳能电池片缺陷分割方法、***、介质及设备
CN116091953A (zh) * 2023-04-11 2023-05-09 耕宇牧星(北京)空间科技有限公司 一种基于分组小波校准网络的建筑垃圾识别方法
CN116229063A (zh) * 2023-01-08 2023-06-06 复旦大学 基于类别色彩化技术的语义分割网络模型及其训练方法
WO2024108521A1 (zh) * 2022-11-25 2024-05-30 上海成电福智科技有限公司 一种多尺度薄膜缺陷检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020093211A1 (zh) * 2018-11-05 2020-05-14 中国科学院计算技术研究所 基于克罗内克卷积的场景分割方法和***
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
CN112634289A (zh) * 2020-12-28 2021-04-09 华中科技大学 一种基于非对称空洞卷积的快速可行域分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020093211A1 (zh) * 2018-11-05 2020-05-14 中国科学院计算技术研究所 基于克罗内克卷积的场景分割方法和***
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
CN112634289A (zh) * 2020-12-28 2021-04-09 华中科技大学 一种基于非对称空洞卷积的快速可行域分割方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024108521A1 (zh) * 2022-11-25 2024-05-30 上海成电福智科技有限公司 一种多尺度薄膜缺陷检测方法
CN116229063A (zh) * 2023-01-08 2023-06-06 复旦大学 基于类别色彩化技术的语义分割网络模型及其训练方法
CN116229063B (zh) * 2023-01-08 2024-01-26 复旦大学 基于类别色彩化技术的语义分割网络模型及其训练方法
CN116051549A (zh) * 2023-03-29 2023-05-02 山东建筑大学 一种太阳能电池片缺陷分割方法、***、介质及设备
CN116051549B (zh) * 2023-03-29 2023-12-12 山东建筑大学 一种太阳能电池片缺陷分割方法、***、介质及设备
CN116091953A (zh) * 2023-04-11 2023-05-09 耕宇牧星(北京)空间科技有限公司 一种基于分组小波校准网络的建筑垃圾识别方法

Also Published As

Publication number Publication date
CN114863098B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN114863098A (zh) 用于工业场景的细小微弱缺陷分割方法
CN112163449B (zh) 一种轻量化的多分支特征跨层融合图像语义分割方法
CN110555465B (zh) 一种基于cnn与多特征融合的天气图像识别方法
CN109784183B (zh) 基于级联卷积网络和光流的视频显著性目标检测方法
CN111126115B (zh) 暴力分拣行为识别方法和装置
CN115272330B (zh) 基于电池表面图像的缺陷检测方法、***及相关设备
CN111127449A (zh) 一种基于编码器-解码器的自动化裂缝检测方法
CN111738054B (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN110751644B (zh) 道路表面裂纹检测方法
CN111539343A (zh) 一种基于卷积注意力网络的黑烟车检测方法
CN110781980B (zh) 目标检测模型的训练方法、目标检测方法及装置
CN111209858A (zh) 一种基于深度卷积神经网络的实时车牌检测方法
CN115359370B (zh) 一种遥感图像云检测方法、装置、计算机装置及存储介质
CN111754507A (zh) 一种轻量化的基于强注意力机制的工业缺陷图像分类方法
CN111652846B (zh) 一种基于特征金字塔卷积神经网络的半导体缺陷识别方法
CN114742799A (zh) 基于自监督异构网络的工业场景未知类型缺陷分割方法
CN111027472A (zh) 一种基于视频光流和图像空间特征权重融合的视频识别方法
CN111738338A (zh) 基于级联膨胀fcn网络应用于马达线圈的缺陷检测方法
CN114241344A (zh) 一种基于深度学习的植物叶片病虫害严重程度评估方法
CN116403212B (zh) 基于改进U-net网络的金相图像的像素中小颗粒识别方法
CN116843657A (zh) 基于注意力融合的焊接缺陷检测方法及装置
CN116051831A (zh) 基于VSA-UNet的电气设备紫外图像分割方法
CN113343977B (zh) 一种集装箱码头集卡车牌的多路自动识别方法
CN114419078B (zh) 基于卷积神经网络的表面缺陷区域分割方法及装置
CN111402223B (zh) 一种利用变电站视频图像的变电站缺陷问题检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant