CN111415329B - 一种基于深度学习的工件表面缺陷检测方法 - Google Patents

一种基于深度学习的工件表面缺陷检测方法 Download PDF

Info

Publication number
CN111415329B
CN111415329B CN202010105860.7A CN202010105860A CN111415329B CN 111415329 B CN111415329 B CN 111415329B CN 202010105860 A CN202010105860 A CN 202010105860A CN 111415329 B CN111415329 B CN 111415329B
Authority
CN
China
Prior art keywords
workpiece
convolution
feature
prediction
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010105860.7A
Other languages
English (en)
Other versions
CN111415329A (zh
Inventor
雷渠江
李秀昊
徐杰
桂广超
梁波
刘纪
刘俊豪
潘艺芃
王卫军
韩彰秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Institute of Advanced Technology of CAS
Original Assignee
Guangzhou Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Institute of Advanced Technology of CAS filed Critical Guangzhou Institute of Advanced Technology of CAS
Priority to CN202010105860.7A priority Critical patent/CN111415329B/zh
Publication of CN111415329A publication Critical patent/CN111415329A/zh
Application granted granted Critical
Publication of CN111415329B publication Critical patent/CN111415329B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的工件表面缺陷检测方法,具体为:采集不同背景及光照条件下的工件图像;对采集的工件图像进行预处理;构建深度卷积神经网络模型获得6个不同层的特征图;采用特征金字塔特征图进行多尺度特征融合预测,使用K‑means聚类算法得到产生4个anchor box预测目标边界框,使用交叉熵损失函数预测类别;通过非极大值抑制算法去除冗余的预测边界框;输出工件表面缺陷的位置信息以及类别。本发明解决人工检测以及物理检测法检测效率低、精度差的问题,克服传统机器视觉缺陷检测适应性差的问题,提高工件表面缺陷的检测效率和准确率,降低人力成本,而且可以快速适应新型产品的表面缺陷检测,缩短开发周期,提高灵活性。

Description

一种基于深度学习的工件表面缺陷检测方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于深度学习的工件表面缺陷检测方法。
背景技术
工件是精密仪器的组成部分,其表面质量、形状结构对仪器的性能有很大的影响。在工件的加工、运输、装配过程中,刀具行程的变化及磨损、工件自身材料特质、工件之间摩擦碰撞等因素,都会导致工件表面产生刮痕、凸粉、碰凹和裂纹等缺陷,不仅影响工件的美观,还影响其使用性能,甚至会给仪器带来重大的安全隐患。因此,亟需发展一种快速准确的工件表面缺陷检测方法,这对产品质量检测技术的推广具有重要的实际应用价值。
目前,针对工件质量检测方法主要有人工检测法、基于仪器的物理检测法和机器视觉检测法。人工检测法即通过人工目视观察工件表面是否存在缺陷,利用经验知识判断缺陷所属的类别,人工检测法主观意识强,耗时费力且检测精度难以保证。基于仪器的物理检测法包括超声波检测、磁粉检测法、涡流检测法、X射线检测法等,物理检测法可满足一般工件的表面缺陷检测,但是仪器设备体积较大、价格昂贵、维护复杂、检测效率较低且准确性较差。由于机器视觉检测法具有无损、准确、快速、可靠等优点,依靠机器视觉技术进行工件表面缺陷无损检测,不仅可以排除人的主观差异和视觉疲劳,降低人力成本,而且提高了检测效率和精度,减小了检测分级误差。而与传统的机器视觉方法相比,深度学习方法可以直接从底层数据中学习特征,具有更高的复杂结构表达能力,从而用自动学习过程完全取代了对特征的人工设计,可以适用于不同产品,缩短开发周期,提高灵活性,快速适应新型产品的表面缺陷检测。
综上所述,现有技术具有如下缺点:
(1)人工检测法主观意识强,耗时费力且检测精度难以保证。
(2)基于仪器的物理检测法仪器设备体积较大、价格昂贵、维护复杂、检测效率较低且准确性较差。
(3)传统的机器视觉检测法需要手工提取特征,产品适应性较差。
发明内容
有鉴于此,为了解决现有技术中的上述问题,本发明提出一种基于深度学习的工件表面缺陷检测方法,提高工件表面缺陷的检测效率和准确率,降低人力成本,而且可以快速适应新型产品的表面缺陷检测,缩短开发周期,提高灵活性。
本发明通过以下技术手段解决上述问题:
一种基于深度学习的工件表面缺陷检测方法,包括如下步骤:
采集不同背景及光照条件下的工件图像;
对采集的工件图像进行预处理;
构建深度卷积神经网络模型获得6个不同层的特征图;
采用特征金字塔特征图进行多尺度特征融合预测,使用K-means聚类算法得到产生4个anchor box预测目标边界框,使用交叉熵损失函数预测类别;
通过非极大值抑制算法去除冗余的预测边界框;
输出工件表面缺陷的位置信息以及类别。
进一步地,采集不同背景及光照条件下的工件图像具体为:
利用CCD相机拍摄在不同背景及光照条件下的工件图像,包括单一背景、复杂背景、阴暗、光亮、柔光、遮挡和重叠的复杂环境。
进一步地,对采集的工件图像进行预处理具体为:
首先,对获得的工件图像进行数据增强,数据增强包括光学变换和几何变换;其中,光学变换包括亮度随机调整、对比度随机调整、通道随机调整,几何变换包括旋转、拉伸、平移、水平翻转、垂直翻转、随机裁剪图片、随机缩放;
然后,对扩充后的图像数据集用标注工具生成对应的标注信息;标注信息包括样本中工件表面缺陷的位置信息以及类别,类别为正常、刮痕、凸粉、碰凹、裂纹;
最后,将数据集分为训练集与测试集;其中,训练集为总样本量的70%,测试集为30%。
进一步地,构建深度卷积神经网络模型获得6个不同层的特征图具体为:
构建深度卷积神经网络,包括构建基础网络结构和深度卷积层,提取图像的高语义特征;并且在深度卷积神经网络模块中,每个卷积层均通过ReLu函数和归一化BatchNormalization操作;
(1)基础网络结构:采用VGG16作为基础特征提取模块;首先,经过VGG16的前13个卷积层,并加以修改,使用dense conv+stride conv代替VGG16网络结构中的dense conv+maxpooling,其中dense conv的卷积核大小为3×3,步长为1;stride conv的卷积核大小为3×3,步长为2;然后,使用两个卷积Conv6和Conv7代替VGG16的全连接层FC6和FC7进一步提取特征,其中Conv6为空洞卷积,卷积核的大小为3×3,空洞数为6,步长为1;Conv7的卷积核大小为1×1,步长为1;
(2)深度卷积层:在基础网络结构上增加4个深度卷积层,进一步提取更高的语义信息;深度卷积层分别为Conv8、Conv9、Conv10和Conv11,每个深度卷积层由2个卷积组成:大小为1×1,步长为1的卷积核以及大小为3×3,步长为2的卷积核。
进一步地,采用特征金字塔特征图进行多尺度特征融合预测,使用K-means聚类算法得到产生4个anchor box预测目标边界框,使用交叉熵损失函数预测类别,具体为:
利用深度卷积神经网络得到6个特征图,分别是63×63、32×32、16×16、8×8、4×4、1×1,采用特征金字塔方法对6个不同层的特征图进行多尺度特征融合预测;使用K-means算法聚类得到4个anchor box预测目标边界框,并使用交叉熵损失函数预测类别;
其中,FPN总体架构包括自上而下网络、自下而上网络、横向连接和卷积融合4个部分;
自上而下网络:为深度卷积神经网络;
自下而上网络:对深度卷积层中Conv11得到的特征图1×1进行大小为1×1卷积降低通道数,得到F6,然后依次进行2倍最邻近上采样操作;
横向连接:对深度卷积神经网络中Conv9、Conv8、Conv7、Conv5、Conv4得到的底层特征图分别进行1×1卷积操作,使得其通道数固定为256,并与上采样后的高语义特征逐元素相加得到F5、F4、F3、F2、F1;
卷积融合:利用大小为3×3的卷积对F5、F4、F3、F2、F1进行融合。
进一步地,通过非极大值抑制算法去除冗余的预测边界框,具体为:
使用非极大值抑制算法的改进算法Soft-NMS去除重复的预测边界框;
Soft-NMS函数的具体表达如下:
式中,si为每个边界框的得分,M为当前得分最高的边界框,bi为剩余的某个边界框,Nt为设定阈值0.5。
与现有技术相比,本发明的有益效果至少包括:
(1)使用dense conv+stride conv结构代替VGG16中的dense conv+maxpooling进行下采样,保留了更多的特征信息且速度更快,有效的提高了检测效率。
(2)构建深度卷积神经网络提取特征,在以VGG16为基础网络结构上增加了4个深度卷积层,并采用FPN进行多尺度特征融合预测,提取更高的语义信息,提高检测准确率,增强模型的泛化能力,提高灵活性。
(3)使用Soft-NMS算法去除重复的预测边界框,能够解决多个工件重叠时从而造成漏检的问题,提高检测的召回率和鲁棒性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于深度学习的工件表面缺陷检测方法的整体流程图;
图2是本发明基于深度学习的工件表面缺陷检测方法的详细步骤图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面将结合附图和具体的实施例对本发明的技术方案进行详细说明。需要指出的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1所示,本发明公开了一种基于深度学习的工件表面缺陷检测方法,具体为:采集不同背景及光照条件下的工件图像;对采集的工件图像进行预处理;构建深度卷积神经网络模型获得6个不同层的特征图;采用特征金字塔特征图进行多尺度特征融合预测,使用K-means聚类算法得到产生4个anchor box预测目标边界框,使用交叉熵损失函数预测类别;通过非极大值抑制算法去除冗余的预测边界框;输出工件表面缺陷的位置信息以及类别。
如图2所示,本发明基于深度学习的工件表面缺陷检测方法,具体包括以下步骤:
步骤1:工件图像的获取
利用CCD相机拍摄在不同背景及光照条件下的工件图像,包括单一背景、复杂背景、阴暗、光亮、柔光、遮挡和重叠等复杂环境。
步骤2:图像预处理
首先,对步骤1中获得的工件图像进行数据增强。数据增强主要包括光学变换和几何变换。其中,光学变换包括亮度随机调整、对比度随机调整、通道随机调整,几何变换包括旋转、拉伸、平移、水平翻转、垂直翻转、随机裁剪图片、随机缩放。
然后,对扩充后的图像数据集用标注工具生成对应的标注信息。标注信息包括样本中工件表面缺陷的位置信息以及类别,类别为正常、刮痕、凸粉、碰凹、裂纹。
最后,将数据集分为训练集与测试集。其中,训练集为总样本量的70%,测试集为30%。
步骤3:构建深度卷积神经网络提取特征
构建深度卷积神经网络,包括构建基础网络结构和深度卷积层,提取图像的高语义特征。并且在深度卷积神经网络模块中,每个卷积层均通过ReLu函数和归一化BatchNormalization操作。
(1)基础网络结构:采用VGG16作为基础特征提取模块。首先,经过VGG16的前13个卷积层,并加以修改,使用dense conv+stride conv代替VGG16网络结构中的dense conv+maxpooling,其中dense conv的卷积核大小为3×3,步长为1;stride conv的卷积核大小为3×3,步长为2。然后,使用两个卷积Conv6和Conv7代替VGG16的全连接层FC6和FC7进一步提取特征,其中Conv6为空洞卷积,卷积核的大小为3×3,空洞数为6,步长为1;Conv7的卷积核大小为1×1,步长为1。
(2)深度卷积层:在基础网络结构上增加4个深度卷积层,进一步提取更高的语义信息。深度卷积层分别为Conv8、Conv9、Conv10和Conv11,每个深度卷积层由2个卷积组成:大小为1×1,步长为1的卷积核以及大小为3×3,步长为2的卷积核。
步骤4:多尺度特征融合预测
利用深度卷积神经网络得到6个特征图,分别是63×63、32×32、16×16、8×8、4×4、1×1,采用特征金字塔(Feature Pyramid Network,FPN)方法对6个不同层的特征图进行多尺度特征融合预测;使用K-means算法聚类得到4个anchor box预测目标边界框,并使用交叉熵损失函数预测类别。
其中,FPN总体架构包括自上而下网络、自下而上网络、横向连接和卷积融合4个部分。
自上而下网络:为深度卷积神经网络
自下而上网络:对深度卷积层中Conv11得到的特征图1×1进行大小为1×1卷积降低通道数,得到F6,然后依次进行2倍最邻近上采样操作。
横向连接:对深度卷积神经网络中Conv9、Conv8、Conv7、Conv5、Conv4得到的底层特征图分别进行1×1卷积操作,使得其通道数固定为256,并与上采样后的高语义特征逐元素相加得到F5、F4、F3、F2、F1。
卷积融合:利用大小为3×3的卷积对F5、F4、F3、F2、F1进行融合。
步骤5:非极大值抑制算法去重
使用非极大值抑制算法(Non-Maximum Suppression,NMS)的改进算法Soft-NMS去除重复的预测边界框。Soft-NMS函数的具体表达如下:
式中,si为每个边界框的得分,M为当前得分最高的边界框,bi为剩余的某个边界框,Nt为设定阈值0.5。
步骤6:检测结果
输出工件表面缺陷的位置信息以及类别。
本发明使用dense conv+stride conv结构代替VGG16中的dense conv+maxpooling进行下采样,保留了更多的特征信息且速度更快,有效的提高了检测效率。
本发明构建深度卷积神经网络提取特征,在以VGG16为基础网络结构上增加了4个深度卷积层,并采用FPN进行多尺度特征融合预测,提取更高的语义信息,提高检测准确率,增强模型的泛化能力,提高灵活性。
本发明使用Soft-NMS算法去除重复的预测边界框,能够解决多个工件重叠时从而造成漏检的问题,提高检测的召回率和鲁棒性。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (5)

1.一种基于深度学习的工件表面缺陷检测方法,其特征在于,包括如下步骤:
采集不同背景及光照条件下的工件图像;
对采集的工件图像进行预处理;
构建深度卷积神经网络模型获得6个不同层的特征图;
采用特征金字塔特征图进行多尺度特征融合预测,使用K-means聚类算法得到产生4个anchor box预测目标边界框,使用交叉熵损失函数预测类别;
通过非极大值抑制算法去除冗余的预测边界框;
输出工件表面缺陷的位置信息以及类别;
采用特征金字塔特征图进行多尺度特征融合预测,使用K-means聚类算法得到产生4个anchor box预测目标边界框,使用交叉熵损失函数预测类别具体为:
利用深度卷积神经网络得到6个特征图,分别是63×63、32×32、16×16、8×8、4×4、1×1,采用特征金字塔方法对6个不同层的特征图进行多尺度特征融合预测;使用K-means算法聚类得到4个anchor box预测目标边界框,并使用交叉熵损失函数预测类别;
其中,FPN总体架构包括自上而下网络、自下而上网络、横向连接和卷积融合4个部分;
自上而下网络:为深度卷积神经网络;
自下而上网络:对深度卷积层中Conv11得到的特征图1×1进行大小为1×1卷积降低通道数,得到F6,然后依次进行2倍最邻近上采样操作;
横向连接:对深度卷积神经网络中Conv9、Conv8、Conv7、Conv5、Conv4得到的底层特征图分别进行1×1卷积操作,使得其通道数固定为256,并与上采样后的高语义特征逐元素相加得到F5、F4、F3、F2、F1;
卷积融合:利用大小为3×3的卷积对F5、F4、F3、F2、F1进行融合。
2.根据权利要求1所述的基于深度学习的工件表面缺陷检测方法,其特征在于,采集不同背景及光照条件下的工件图像具体为:
利用CCD相机拍摄在不同背景及光照条件下的工件图像,包括单一背景、复杂背景、阴暗、光亮、柔光、遮挡和重叠的复杂环境。
3.根据权利要求1所述的基于深度学习的工件表面缺陷检测方法,其特征在于,对采集的工件图像进行预处理具体为:
首先,对获得的工件图像进行数据增强,数据增强包括光学变换和几何变换;其中,光学变换包括亮度随机调整、对比度随机调整、通道随机调整,几何变换包括旋转、拉伸、平移、水平翻转、垂直翻转、随机裁剪图片、随机缩放;
然后,对扩充后的图像数据集用标注工具生成对应的标注信息;标注信息包括样本中工件表面缺陷的位置信息以及类别,类别为正常、刮痕、凸粉、碰凹、裂纹;
最后,将数据集分为训练集与测试集;其中,训练集为总样本量的70%,测试集为30%。
4.根据权利要求1所述的基于深度学习的工件表面缺陷检测方法,其特征在于,构建深度卷积神经网络模型获得6个不同层的特征图具体为:
构建深度卷积神经网络,包括构建基础网络结构和深度卷积层,提取图像的高语义特征;并且在深度卷积神经网络模块中,每个卷积层均通过ReLu函数和归一化BatchNormalization操作;
(1)基础网络结构:采用VGG16作为基础特征提取模块;首先,经过VGG16的前13个卷积层,并加以修改,使用dense conv+stride conv代替VGG16网络结构中的dense conv+maxpooling,其中dense conv的卷积核大小为3×3,步长为1;stride conv的卷积核大小为3×3,步长为2;然后,使用两个卷积Conv6和Conv7代替VGG16的全连接层FC6和FC7进一步提取特征,其中Conv6为空洞卷积,卷积核的大小为3×3,空洞数为6,步长为1;Conv7的卷积核大小为1×1,步长为1;
(2)深度卷积层:在基础网络结构上增加4个深度卷积层,进一步提取更高的语义信息;深度卷积层分别为Conv8、Conv9、Conv10和Conv11,每个深度卷积层由2个卷积组成:大小为1×1,步长为1的卷积核以及大小为3×3,步长为2的卷积核。
5.根据权利要求1所述的基于深度学习的工件表面缺陷检测方法,其特征在于,通过非极大值抑制算法去除冗余的预测边界框具体为:
使用非极大值抑制算法的改进算法Soft-NMS去除重复的预测边界框;
Soft-NMS函数的具体表达如下:
式中,si为每个边界框的得分,M为当前得分最高的边界框,bi为剩余的某个边界框,Nt为设定阈值0.5。
CN202010105860.7A 2020-02-20 2020-02-20 一种基于深度学习的工件表面缺陷检测方法 Active CN111415329B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010105860.7A CN111415329B (zh) 2020-02-20 2020-02-20 一种基于深度学习的工件表面缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010105860.7A CN111415329B (zh) 2020-02-20 2020-02-20 一种基于深度学习的工件表面缺陷检测方法

Publications (2)

Publication Number Publication Date
CN111415329A CN111415329A (zh) 2020-07-14
CN111415329B true CN111415329B (zh) 2023-08-01

Family

ID=71492719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010105860.7A Active CN111415329B (zh) 2020-02-20 2020-02-20 一种基于深度学习的工件表面缺陷检测方法

Country Status (1)

Country Link
CN (1) CN111415329B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114076794A (zh) * 2020-08-19 2022-02-22 宝山钢铁股份有限公司 一种条钢小方坯近表缺陷的自动检测装置及其检测方法
CN112419237B (zh) * 2020-11-03 2023-06-30 中国计量大学 一种基于深度学习的汽车离合主缸凹槽表面缺陷检测方法
CN112329861B (zh) * 2020-11-06 2024-05-28 北京工业大学 一种面向移动机器人多目标检测的分层特征融合方法
CN112686843B (zh) * 2020-12-21 2023-09-15 福建新大陆软件工程有限公司 一种基于神经网络的木板缺陷检测方法及***
US20220222477A1 (en) * 2021-01-14 2022-07-14 Nvidia Corporation Performing non-maximum suppression in parallel
CN112950584B (zh) * 2021-03-01 2022-07-29 哈尔滨工程大学 一种基于深度学习的涂层表面缺陷识别方法
CN113111719A (zh) * 2021-03-16 2021-07-13 苏州海宸威视智能科技有限公司 基于重结构化类脑卷积的无人机视角下的车辆检测方法
CN112734760B (zh) * 2021-03-31 2021-08-06 高视科技(苏州)有限公司 半导体bump缺陷检测方法、电子设备及存储介质
CN113096098B (zh) * 2021-04-14 2024-01-05 大连理工大学 基于深度学习的铸件外观缺陷检测方法
CN114581806B (zh) * 2022-03-18 2024-03-19 重庆科技学院 一种基于主干边缘特征提取的工业零件空载率计算方法
CN116109639B (zh) * 2023-04-13 2023-08-18 常州微亿智造科技有限公司 基于多任务学习网络的缺陷检测方法及装置
CN117152577B (zh) * 2023-10-30 2024-02-02 北京机械工业自动化研究所有限公司 铸件缺陷检测方法、装置、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110660040A (zh) * 2019-07-24 2020-01-07 浙江工业大学 一种基于深度学习的工业品不规则缺陷检测方法

Also Published As

Publication number Publication date
CN111415329A (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
CN111415329B (zh) 一种基于深度学习的工件表面缺陷检测方法
Ren et al. State of the art in defect detection based on machine vision
CN108562589B (zh) 一种对磁路材料表面缺陷进行检测的方法
CN111862064B (zh) 一种基于深度学习的银质丝材表面瑕疵识别方法
CN109460753B (zh) 一种检测水上漂浮物的方法
CN108074231B (zh) 一种基于卷积神经网络的磁片表面缺陷检测方法
He et al. Deep regression neural network for industrial surface defect detection
CN112967243A (zh) 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法
CN107966454A (zh) 一种基于fpga的端塞缺陷检测装置及检测方法
CN111223093A (zh) 一种aoi缺陷检测方法
CN109191421B (zh) 柱形锂电池圆周面凹坑视觉检测方法
CN114022420A (zh) 一种自动识别光伏电池el组件缺陷的检测方法
CN112614105B (zh) 一种基于深度网络的3d点云焊点缺陷检测方法
Mao et al. Automatic image detection of multi-type surface defects on wind turbine blades based on cascade deep learning network
CN114973032A (zh) 一种基于深度卷积神经网络的光伏板热斑检测方法及装置
CN115063725B (zh) 基于多尺度自适应ssd算法的飞机蒙皮缺陷识别***
CN115035081B (zh) 一种基于工业ct的金属内部缺陷危险源定位方法及***
Zhou et al. DeepInspection: Deep learning based hierarchical network for specular surface inspection
CN112991271A (zh) 基于改进yolov3的铝型材表面缺陷视觉检测方法
CN114972316A (zh) 基于改进YOLOv5的电池壳端面缺陷实时检测方法
CN116385430A (zh) 一种机器视觉瑕疵检测方法、装置、介质及设备
CN116051586A (zh) 一种适用于检测浅色系胶水轮廓的检测方法
CN114549489A (zh) 一种面向雕花口红质检的实例分割缺陷检测方法
CN114663382A (zh) 基于YOLOv5卷积神经网络的电子元器件表面缺陷检测方法
CN111179278B (zh) 一种图像检测的方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant