CN116109621A - 一种基于深度模板的缺陷检测方法和*** - Google Patents

一种基于深度模板的缺陷检测方法和*** Download PDF

Info

Publication number
CN116109621A
CN116109621A CN202310229677.1A CN202310229677A CN116109621A CN 116109621 A CN116109621 A CN 116109621A CN 202310229677 A CN202310229677 A CN 202310229677A CN 116109621 A CN116109621 A CN 116109621A
Authority
CN
China
Prior art keywords
image
model
defect detection
flaw
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310229677.1A
Other languages
English (en)
Other versions
CN116109621B (zh
Inventor
邹逸
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Hammerhead Shark Intelligent Technology Co ltd
Original Assignee
Wuxi Hammerhead Shark Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Hammerhead Shark Intelligent Technology Co ltd filed Critical Wuxi Hammerhead Shark Intelligent Technology Co ltd
Priority to CN202310229677.1A priority Critical patent/CN116109621B/zh
Publication of CN116109621A publication Critical patent/CN116109621A/zh
Application granted granted Critical
Publication of CN116109621B publication Critical patent/CN116109621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度模板的片材缺陷检测方法,属于缺陷检测领域。包括以下步骤:首先收集5个型号以上的瑕疵样品,针对每个瑕疵样品,获得1张瑕疵图像,并对其中的瑕疵位置进行标定,同时每个型号需要保留一张正常样品的图像,即模板图像;训练前,针对每个型号的每张瑕疵图像,与其正常样品的模板图像进行对齐操作,将对齐操作后获得的新图像作为训练样本输入目标检测模型中进行训练,训练结束得到相应的缺陷检测模型。采用缺陷检测模型进行缺陷检测时,需要先录入一张该型号正常样品的模板图像,将模板图像与实时采集到的图像对齐操作,将得到的新的图像输入缺陷检测模型,得到缺陷检测结果。

Description

一种基于深度模板的缺陷检测方法和***
技术领域
本发明属于片材缺陷检测领域,具体涉及一种基于深度模板的缺陷检测方法和***。
背景技术
片材的缺陷检测是其生产过程中质量控制的关键环节,在自动检测的过程中,现有的深度学习算法主要是通过收集对应型号的次品来训练深度学习模型,在切换型号之后又需要重新进行次品的搜集、缺陷图像的标定以及模型的训练,其原理主要是提取具体瑕疵的深度特征,这种方法需要大量的次品样品作为数据支撑,同时企业也需要较高的时间和人工成本来处理数据。
发明内容
本发明的目的在于解决上述现有技术中存在的难题,提供一种基于深度模板的缺陷检测方法和***,可以让模型学习到次品物料与正品物料之间的区别,从而在切换型号的时候不需要重新进行次品的收集与标定,大大减少了新增型号的时间及人工成本,缩短了建库周期。该检测方法可以大大降低片材本身的纹理对检测的影响,并提高模型的检测精度。
本发明是通过以下技术方案实现的:首先收集5个型号以上的瑕疵样品,针对每个瑕疵样品,获得1张瑕疵图像,并对其中的瑕疵位置进行标定,同时每个型号需要保留一张正常样品的图像,即模板图像;
训练前,针对每个型号的每张瑕疵图像,与其正常样品的模板图像进行对齐操作,具体的对齐操作步骤如下:
(1)将两张待对齐的图像转化为灰度图像;
(2)将上一步骤中的两张灰度图像做直方图归一化操作;
(3)分别检测两图中的ORB特征点,并匹配;
(4)取其中匹配分值最高的30个点作为两张图的代表点;
(5)计算30个代表点之间对应的单应性矩阵;
(6)将模板图像用上一步骤计算得到的单应性矩阵做投影变换;
(7)将投影变换之后的图像与瑕疵图像相减,得到两张图之间的差异图像;
(8)将瑕疵图像,差异图像,模板图像按照顺序对齐组合为一张新的图像;
训练时,将新的图像作为训练样本输入目标检测模型中进行训练,训练结束得到相应的缺陷检测模型。
在检测之前需要先录入一张与待检测片材相同型号的没有瑕疵的样品的模板图像,将模板图与实时采集到的图像做步骤(1)-步骤(8)的对齐操作步骤,将得到的新的图像输入缺陷检测模型,得到缺陷检测结果。
进一步地,本申请采用改进的Yolo V3模型作为目标检测模型继续训练,改进的Yolo V3模型包括骨干网络,特征融合网络和分类检测网络;改进的Yolo V3模型为在YoloV3模型的骨干网络中加入卷积块注意力模块CBAM,每个CBAM输出的特征图均输入特征融合网络,进行特征融合后,再输入至分类检测网络中,得到预测结果。具体的,改进的YoloV3模型骨干网络结构依次包括DBL,Res1,Res2,Res8,CBAM,Res8,CBAM,Res4,CBAM模块,其中,CBAM包括通道注意力机制和空间注意力机制。
进行模型训练时,损失函数为:Loss=λLIoU+(1-λ)LP
其中,λ为权重系数;
Figure BDA0004119831020000021
Figure BDA0004119831020000022
其中,γ为权衡参数,
Figure BDA0004119831020000023
Figure BDA0004119831020000024
Figure BDA0004119831020000025
Bpd,Bgt分别为预测框和真实框的面积;wpd,hpd,wgt,hgt分别为预测框和真实框的宽和高。
(A’,B’,C’,D’)和(A,B,C,D)分别为预测框和真实框的四个顶点,A’A,B’B,C’C和D’D分别为预测框和真实框中,处于对应位置的顶点之间的距离,EF为包括预测框和真实框的最小外包矩形的最小对角线长度。
TP表示被标定为缺陷且检测到缺陷的样本个数,FP为未被标定为缺陷但检测为缺陷的样本个数,FN为被标定为缺陷但未被检测为缺陷的样本个数。
进一步地,本申请采用准确率,召回率,平均精度来评价缺陷检测模型。
进一步地,本申请还提供一种基于深度模板的缺陷检测***,包括处理器,存储器,存储器存储有计算机程序,处理器执行改计算机程序,以实现上述片材缺陷检测方法。以及一种计算机可读存储介质,存储有可由处理器执行的计算机程序,以实现上述片材缺陷检测方法。
本申请可以通过在训练时先对次品图像与正品图像进行对齐操作,过滤本身纹理的影响。在检测时对相机所采集的实时图像与事先采集好的模板图像进行对齐操作,再输入模型中进行检测。在模型学习的过程中,引入了正品图像的信息,使得模型可以学习到次品与正品的区别,而不是单纯的提取次品中瑕疵的特征。
由于本申请中的训练图像具有瑕疵图像,差异图像和模板图像的多种特征,有针对性地采用改进的YoloV3模型,引入注意力机制,用于分析复杂场景信息,对图像的重要信息进行动态选择,有助于提取有用信息。与现有技术相比,本发明的有益效果是:
1.降低成本,本发明可降低新建型号时大量的标定成本,加快企业迭代节奏。
2.精度高,本发明通过对齐操作,使得训练样品具有正品物料和次品物料的特征,缺陷检测模型可以学习到正品物料与次品物料之间的区别,使得检测的目标更加明确,提高了瑕疵检测的精度。
3.操作简单,可实现无感建库,降低员工的学习成本与企业的培训成本。
4.需要的数据量少,相比于普通的目标检测算法提取的是具体瑕疵的特征,需要收集较多的数据才能达到效果,本发明只需少量数据,提取的是次品与正品之间的差异特征,而不是瑕疵的具体特征。
5.可持续迭代升级,在运行过程也可继续收集数据扩充数据库,提高人工智能算法的表现。
附图说明
图1:基于深度模板的片材缺陷检测流程图。
图2:改进的YoloV3缺陷检测模型。
图3:卷积块注意力模块CBAM。
具体实施方式
下面结合附图对本发明作进一步详细描述:
进行模型训练时,首先收集5个型号以上的瑕疵样品,针对每个瑕疵样品,获得1张瑕疵图像,并对其中的瑕疵位置进行标定,同时每个型号需要保留一张没有瑕疵的样品的图像,即正常样品的模板图像;
训练前,针对每个型号的每张瑕疵图像,与其正常样品的模板图进行对齐操作,具体的对齐操作步骤如下:
(1)将两张待对齐的图像转化为灰度图像;
(2)将上一步骤中的两张灰度图像做直方图归一化操作;
(3)分别检测两图中的ORB特征点,并匹配;
(4)取其中匹配分值最高的30个点作为两张图的代表点;
(5)计算30个代表点之间对应的单应性矩阵;
(6)将模板图像用上一步骤计算得到的单应性矩阵做投影变换;
(7)将投影变换之后的图与瑕疵图像相减,得到两张图之间的差异图像;
(8)将瑕疵图像,差异图像,模板图像按照顺序对齐组合为一张新的图像;
将新的图像作为训练图像输入目标检测模型中进行训练,训练结束得到相应的缺陷检测模型。
图1为本发明基于深度模板的片材缺陷检测流程图,在检测之前先录入一张该型号没有瑕疵的样品的模板图像,作为该型号的模板。将模板图像与实时采集到的图像做上述的对齐操作,并输入缺陷检测模型,得出检测结果。
进一步地,本申请采用改进的yolo v3深度学***均池化和最大化池化后,输入多层感知机(MLP)中,将MLP输出的特征进行基于元素的加和操作,经过激活函数sigmoid,得到输出的特征图。空间注意力模块中,特征图经过最大池化,平均池化和卷积操作后,经过激活函数sigmoid,得到输出特征图。
改进后的yoloV3网络模型如图2所示,主要包括骨干网络,特征融合网络和分类检测网络。
骨干网络采用darknet53作为基础网络,骨干网络中具有1个CBL模块和5个残差模块,在最后三个残差模块res8,res8,res4后,分别加入卷积块通道注意力模块CBAM,CBAM模块中输入的特征图依次经过通道注意力模块和空间注意力模块。每个CBAM模块输出的特征图输入融合特征融合网络进行特征融合,再输入至分类检测网络中,得到预测结果。
进行模型训练时,损失函数为:Loss=λLIoU+(1-λ)LP
其中,λ为权重系数;
Figure BDA0004119831020000051
Figure BDA0004119831020000052
其中,γ为权衡参数,
Figure BDA0004119831020000061
Figure BDA0004119831020000062
α用于对V进行归一化,将其限制到0~1之间,
Figure BDA0004119831020000063
Bpd,Bgt分别为预测框和真实框的面积;wpd,hpd,wgt,hgt分别为预测框和真实框的宽和高。
(A’,B’,C’,D’)和(A,B,C,D)分别为预测框和真实框的四个顶点,A’A,B’B,C’C和D’D分别为预测框和真实框中,处于对应位置的顶点之间的距离,EF为包括预测框和真实框的最小外包矩形的最小对角线长度。
TP表示检测正样本正确的个数,即被标定为缺陷且检测到缺陷的样本个数,FP为负样本被检测为正样本的个数,即未被标定为缺陷但检测为缺陷的样本个数,FN为正样本被检测为负样本个数,即被标定为缺陷但未被检测为缺陷的样本个数。
本发明采用准确率、召回率、平均精度作为模型性能评价指标。
准确率:
Figure BDA0004119831020000064
召回率:
Figure BDA0004119831020000065
平均精度:
Figure BDA0004119831020000066
为了验证本发明中提出的检测模型的优势,将本发明提出的改进的YoloV3模型与未改进的YOLO v3模型在检测性能上作对比,对比实验采用同一份测试集数据,最终结果如表1所示:
Figure BDA0004119831020000067
由表1的数据可知,通过引入通道和空间注意力机制,缺陷检测的准确率,召回率和平均精度均有所增加,说明本发明提出的网络模型可以很好的进行缺陷检测。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,除非另有说明,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
最后应说明的是,上述技术方案只是本发明的一种实施方式,对于本领域内的技术人员而言,在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形,而不仅限于本发明上述具体实施方式所描述的方法,因此前面描述的方式只是优选的,而并不具有限制性的意义。

Claims (10)

1.一种基于深度模板的缺陷检测方法,其特征在于:模型训练前,收集多个型号的瑕疵样品,针对每个型号的瑕疵样品获得瑕疵图像,与该型号正常样品的模板图像进行对齐操作,具体的对齐操作步骤如下:
(1)将两张待对齐的图像转化为灰度图像;
(2)将上一步骤中的两张灰度图像做直方图归一化操作;
(3)分别检测两图中的ORB特征点,并匹配;
(4)取其中匹配分值最高的30个点作为两张图的代表点;
(5)计算30个代表点之间对应的单应性矩阵;
(6)将模板图像用上一步骤计算得到的单应性矩阵做投影变换;
(7)将投影变换之后的图像与瑕疵图像相减,得到两张图像之间的差异图像;
(8)将瑕疵图像,差异图像,模板图像按照顺序对齐组合为一张新的图像;将所述新的图像作为训练样本输入目标检测模型中进行训练,训练结束得到缺陷检测模型。
2.根据权利要求1所述的缺陷检测方法,其特征在于:在检测之前,先录入一张与待检测片材相同型号的正常样品的图像,作为该型号的模板图像;将模板图像与实时采集到的图像按照步骤(1)-步骤(8)的对齐操作步骤操作,将得到的新的图像输入缺陷检测模型,得到缺陷检测结果。
3.根据权利要求1所述的缺陷检测方法,其特征在于:模型训练前,收集至少5个型号的瑕疵样品,针对每个瑕疵样品,获得1张瑕疵图像,并对其中的瑕疵位置进行标定,同时每个型号需要保留一张正常样品的图像,作为模板图像。
4.根据权利要求1所述的缺陷检测方法,其特征在于:采用改进的Yolo V3模型作为目标检测模型进行训练,其中,改进的Yolo V3模型为在YoloV3模型的骨干网络中加入卷积块注意力模块CBAM;改进的Yolo V3模型包括骨干网络,特征融合网络和分类检测网络,骨干网络中的每个CBAM输出的特征图均输入特征融合网络,进行特征融合后,再输入至分类检测网络中,得到预测结果。
5.根据权利要求4所述的缺陷检测方法,其特征在于:具体的,改进的Yolo V3模型骨干网络结构依次包括CBL,Res1,Res2,Res8,CBAM,Res8,CBAM,Res4,CBAM模块;其中CBL模块包括卷积层,BN层和Leaky Relu层。
6.根据权利要求5所述的缺陷检测方法,其特征在于:具体的,改进的Yolo V3模型中特征融合网络包括多个CBL和上采样模块,以及多个特征融合模块。
7.根据权利要求4所述的缺陷检测方法,其特征在于:进行模型训练时,损失函数为:Loss=λLIoU+(1-λ)LP
其中,λ为权重系数;
Figure FDA0004119831010000021
Figure FDA0004119831010000022
其中,γ为权衡参数,
Figure FDA0004119831010000023
Figure FDA0004119831010000024
Figure FDA0004119831010000025
Bpd,Bgt分别为预测框和真实框的面积;wpd,hpd,wgt,hgt分别为预测框和真实框的宽和高。
(A’,B’,C’,D’)和(A,B,C,D)分别为预测框和真实框的四个顶点,A’A,B’B,C’C和D’D分别为预测框和真实框中,处于对应位置的顶点之间的距离,EF为包括预测框和真实框的最小外包矩形的最小对角线长度。TP表示检测正样本正确的个数,即被标定为缺陷且检测到缺陷的样本个数,FP为未被标定为缺陷但检测为缺陷的样本个数,FN为被标定为缺陷但未被检测为缺陷的样本个数。
8.根据权利要求4所述的缺陷检测方法,其特征在于:采用准确率,召回率,平均精度来评价缺陷检测模型;
其中,准确率为
Figure FDA0004119831010000031
召回率为
Figure FDA0004119831010000032
平均精度为
Figure FDA0004119831010000033
其中,TP表示被标定为缺陷且检测到缺陷的样本个数,FP为未被标定为缺陷但检测为缺陷的样本个数;FN为被标定为缺陷但未被检测为缺陷的样本个数。
9.一种基于深度模板的缺陷检测***,其特征在于:包括处理器,存储器,存储器存储有计算机可执行程序,处理器执行该计算机可执行程序,以实现如权利要求1-8所述的缺陷检测方法。
10.一种计算机可读存储介质,其特征在于:存储有可由处理器执行的计算机可执行程序,以实现如权利要求1-8所述的缺陷检测方法。
CN202310229677.1A 2023-03-10 2023-03-10 一种基于深度模板的缺陷检测方法和*** Active CN116109621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310229677.1A CN116109621B (zh) 2023-03-10 2023-03-10 一种基于深度模板的缺陷检测方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310229677.1A CN116109621B (zh) 2023-03-10 2023-03-10 一种基于深度模板的缺陷检测方法和***

Publications (2)

Publication Number Publication Date
CN116109621A true CN116109621A (zh) 2023-05-12
CN116109621B CN116109621B (zh) 2023-09-22

Family

ID=86267390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310229677.1A Active CN116109621B (zh) 2023-03-10 2023-03-10 一种基于深度模板的缺陷检测方法和***

Country Status (1)

Country Link
CN (1) CN116109621B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117635603A (zh) * 2024-01-02 2024-03-01 汉狮光动科技(广东)有限公司 基于目标检测的中空遮阳产品在线质量检测***及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07333170A (ja) * 1994-06-08 1995-12-22 Hewtec:Kk 欠陥パターン種別判定方法およびその装置
CN209300267U (zh) * 2018-09-06 2019-08-27 云南远足科技有限公司 一种烟支外观图像处理控制***及其在线检测装置
CN113658176A (zh) * 2021-09-07 2021-11-16 重庆科技学院 基于交互注意力与卷积神经网络的瓷砖表面缺陷检测方法
CN113866182A (zh) * 2021-09-09 2021-12-31 安徽亿普拉斯科技有限公司 一种用于检测显示模组缺陷的检测方法及***
CN114387207A (zh) * 2021-12-02 2022-04-22 浙江大学 基于自注意力机制与双重领域自适应的轮胎瑕疵检测方法及模型
CN114485640A (zh) * 2022-01-20 2022-05-13 河北工业职业技术学院 基于点线特征的单目视觉惯性同步定位与建图方法及***
CN115311273A (zh) * 2022-10-11 2022-11-08 富联裕展科技(深圳)有限公司 检测模型的训练方法、缺陷检测方法、装置及存储介质
CN115471487A (zh) * 2022-09-29 2022-12-13 北京星闪世图科技有限公司 绝缘子缺陷检测模型构建及绝缘子缺陷检测方法、装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07333170A (ja) * 1994-06-08 1995-12-22 Hewtec:Kk 欠陥パターン種別判定方法およびその装置
CN209300267U (zh) * 2018-09-06 2019-08-27 云南远足科技有限公司 一种烟支外观图像处理控制***及其在线检测装置
CN113658176A (zh) * 2021-09-07 2021-11-16 重庆科技学院 基于交互注意力与卷积神经网络的瓷砖表面缺陷检测方法
CN113866182A (zh) * 2021-09-09 2021-12-31 安徽亿普拉斯科技有限公司 一种用于检测显示模组缺陷的检测方法及***
CN114387207A (zh) * 2021-12-02 2022-04-22 浙江大学 基于自注意力机制与双重领域自适应的轮胎瑕疵检测方法及模型
CN114485640A (zh) * 2022-01-20 2022-05-13 河北工业职业技术学院 基于点线特征的单目视觉惯性同步定位与建图方法及***
CN115471487A (zh) * 2022-09-29 2022-12-13 北京星闪世图科技有限公司 绝缘子缺陷检测模型构建及绝缘子缺陷检测方法、装置
CN115311273A (zh) * 2022-10-11 2022-11-08 富联裕展科技(深圳)有限公司 检测模型的训练方法、缺陷检测方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117635603A (zh) * 2024-01-02 2024-03-01 汉狮光动科技(广东)有限公司 基于目标检测的中空遮阳产品在线质量检测***及方法
CN117635603B (zh) * 2024-01-02 2024-07-12 汉狮光动科技(广东)有限公司 基于目标检测的中空遮阳产品在线质量检测***及方法

Also Published As

Publication number Publication date
CN116109621B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN111598881B (zh) 基于变分自编码器的图像异常检测方法
CN108389201B (zh) 基于3d卷积神经网络与深度学习的肺结节良恶性分类方法
CN112116601B (zh) 基于生成对抗残差网络的压缩感知采样重建方法及***
CN110731773B (zh) 一种基于心电波形图全局与局部深度特征融合的异常心电图筛查方法
CN110297041A (zh) 一种基于fcn与gru的3d编织复合材料缺陷检测方法
CN116109621B (zh) 一种基于深度模板的缺陷检测方法和***
CN110930378A (zh) 基于低数据需求的肺气肿影像处理方法及***
CN113393461A (zh) 基于深度学习的***中期染色体图像质量筛选方法和***
CN114140398A (zh) 一种利用无缺陷图像的少样本缺陷检测方法
CN112906795A (zh) 一种基于卷积神经网络的鸣笛车辆判定方法
TWI707299B (zh) 光學檢測二次圖像分類方法
CN111783616A (zh) 一种基于数据驱动自学习的无损检测方法
CN116994044A (zh) 一种基于掩码多模态生成对抗网络的图像异常检测模型的构建方法
CN114639102A (zh) 基于关键点与尺寸回归的细胞分割方法和装置
CN113256733B (zh) 基于置信度投票卷积神经网络的相机光谱灵敏度重建方法
CN117058079A (zh) 基于改进ResNet模型的甲状腺显像图像自动诊断方法
CN113469977B (zh) 一种基于蒸馏学习机制的瑕疵检测装置、方法、存储介质
CN112488125B (zh) 一种基于高速视觉诊断和bp神经网络的重建方法及***
CN114529519A (zh) 基于多尺度深度空洞残差网络的图像压缩感知重建方法及***
CN117689880B (zh) 基于机器学习用于生物医学图像中目标识别的方法及***
CN117934963B (zh) 一种气体传感器漂移补偿方法
CN112184708B (zh) ***存活率检测方法及装置
CN116129298B (zh) 基于时空记忆网络的甲状腺视频流结节识别***
CN117649415B (zh) 基于光流图检测的细胞均衡度分析方法
CN118335300A (zh) ***存活率检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant