CN110930387A - 基于深度可分离卷积神经网络的织物疵点检测方法 - Google Patents
基于深度可分离卷积神经网络的织物疵点检测方法 Download PDFInfo
- Publication number
- CN110930387A CN110930387A CN201911150028.2A CN201911150028A CN110930387A CN 110930387 A CN110930387 A CN 110930387A CN 201911150028 A CN201911150028 A CN 201911150028A CN 110930387 A CN110930387 A CN 110930387A
- Authority
- CN
- China
- Prior art keywords
- defect
- fabric
- layer
- convolutional layer
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于深度可分离卷积神经网络的织物疵点检测方法,其步骤为:首先,通过标注工具对采集的织物疵点图像进行标注作为织物图像数据集,并将织物图像数据集分成训练集和测试集;其次,构建深度可分离卷积模块,利用深度可分离卷积模块搭建DefectNet网络;再将训练集输入DefectNet网络中进行训练,利用异步梯度下降的训练策略调整DefectNet网络的参数,得到DefectNet网络模型;最后,将测试集中的织物图像输入DefectNet网络模型中,得到图像中的目标疵点及位置坐标,并在图像中框出疵点目标。本发明将深度可分离卷积和多尺度特征提取相结合搭建卷积神经网络模型,具有很高检测精度,极大提高了检测速度,达到实时检测的要求。
Description
技术领域
本发明涉及图像处理技术领域,特别是指一种基于深度可分离卷积神经网络的织物疵点检测方法。
背景技术
在纺织生产过程中往往会产生各类疵点,严重影响纺织品的产品质量,给企业带来较大损失。织物疵点检测是在织物表面发现疵点,准确定位疵点位置,并判断疵点种类的过程。目前一般采用人工检测织物疵点,但人工检测织物疵点容易受到主观因素的影响,使得检测的精度较低且检测效率低、成本高。因此,基于计算机视觉的织物疵点自动检测技术成为研究的热点。
目前的织物疵点检测算法主要分为:基于统计分析、频域分析、模型分析、结构分析等几大类。统计分析方法通过计算与周围环境灰度值的对比来检测织物的疵点;频谱方法将测试图像变换到频域,然后通过计算频谱系数之间的差异来检测疵点,包括傅立叶变换、Gabor变换、小波变换等;基于模型的方法首先利用参数估计技术对正常图像的纹理特征进行建模,然后将测试图像与正常纹理模型进行比较,检测出疵点图像。这些方法针对特定的布匹种类具有良好的疵点检测能力,但随着整个社会纺织工业的不断发展,织物的种类变得越来越多样,纹理和图案特征也变得越来越复杂,传统检测方法特征提取能力不足,且计算复杂、检测速度慢,难以满足工业生产要求。
近年来,以卷积神经网络为代表的机器学习技术得到快速的发展。卷积神经网络具有很强的特征提取能力,在目标检测领域得到了广泛的应用。文献[Shi,Y.,Li,Y.,Wei,X.,&Zhou,Y."Afaster-rcnn based chemical fiber paper tube defect detectionmethod."2017 5th International Conference on Enterprise Systems(ES).IEEE,2017.]将卷积神经网络应用于织物疵点检测,取得了一定的检测效果。但由于织物疵点目标往往体积微小,其灰度值相对于织物背景也不突出,一般卷积神经网络无法取得很好的检测效果。此外,目前流行的卷积神经网络模型为了提高检测精度,大都具有复杂的网络结构和大量的模型参数,这使得卷积神经模型难以部署在硬件资源和计算资源有限的嵌入式***上,也无法实现对织物疵点的实时检测。
发明内容
针对目前卷积神经网络存在的模型计算量大、检测速度慢、检测率低的技术问题,本发明提出了一种基于深度可分离卷积神经网络的织物疵点检测方法,通过融合深度可分离卷积结构构造一个高速卷积模块,实现对通道和区域分别进行卷积操作,使网络计算量大幅下降;并且在特征提取部分,采用多尺度特征提取方法,从不同下采样的特征图中提取特征,提高模型对小尺寸疵点目标的检测能力。
本发明的技术方案是这样实现的:
一种基于深度可分离卷积神经网络的织物疵点检测方法,其步骤如下:
S1、利用图像采集***采集织物疵点图像后进行预处理,并通过标注工具标注预处理后织物疵点图像中的疵点的位置坐标,作为织物图像数据集,其中,织物图像数据集包括训练集和测试集,且训练集和测试集的数量比例为2:1;
S2、构建深度可分离卷积层,利用深度可分离卷积层搭建DefectNet网络;
S3、将步骤S1中的训练集输入DefectNet网络中进行训练,并利用异步梯度下降的训练策略调整DefectNet网络的参数,得到DefectNet网络模型;
S4、将测试集中的织物图像输入步骤S3得到的DefectNet网络模型中,得到图像中的目标疵点及位置坐标,并在图像中框出疵点目标。
所述步骤S1中的织物疵点图像的预处理方法为:对采集的织物疵点图像进行剪切和缩放,得到图像尺寸大小相同的织物图像。
所述DefectNet网络的架构为输入层-标准卷积层I-深度可分离卷积层I-深度可分离卷积层II-深度可分离卷积层III-深度可分离卷积层IV-标准卷积层II-深度可分离卷积层V-深度可分离卷积层VI-输出层。
所述深度可分离卷积层包括深度卷积层和点卷积层,标准卷积层、深度卷积层和点卷积层均连接有批量标准化层和激活层,其中,激活层为Leaky ReLU激活函数层。
所述DefectNet网络在深度可分离卷积层VI输出为原图32倍下采样后得到的特征图,再将深度可分离卷积层VI提取的特征图进行2倍的上采样,并与标准卷积层II输出为原图16倍下采样的特征图进行特征融合,得到经过特征融合的16倍下采样特征图。
所述步骤S3中利用异步梯度下降的训练策略调整DefectNet网络的参数,得到DefectNet网络模型的训练方法为:
S31、设置输入图像的大小为M'×M',类别为1,设置学习率θ和权重衰减w,设置最大迭代次数tmax;
S32、随机选取训练集中的N’张原始图像及疵点的位置坐标输入DefectNet网络中;
S33、将DefectNet网络的第六层提取的特征图和第八层提取的特征图分别划分为S×S的网格,其中,每个网格预测出B个边界框;
S34、通过DefectNet网络预测每个网格中的边界框的数量,利用logistic分类器预测每个边界框中疵点目标的置信度值,并给出每个边界框的中心坐标和长宽值;
S35、通过损失函数计算步骤S34中预测的疵点目标的置信度值与步骤S32中疵点的位置坐标之间的差异值;
S36、根据学习率θ、权重衰减w和步骤S35中的差异值调整DefectNet网络的参数,返回步骤S32,直到遍历完训练集中所有的图像;
S37、迭代次数增加1,循环执行步骤S32至步骤S36,直至达到最大迭代次数tmax时,DefectNet网络停止训练,保存最后一次迭代的DefectNet网络的参数,生成DefectNet网络模型。
所述步骤S35中的损失函数为:Loss=Errorcoord+Errorcls+Erroriou,其中,Errorcoord为边界框损失函数,Errorcls为logistic分类器损失函数,Erroriou为置信度损失函数;
所述边界框损失函数Errorcoord为:
其中,λcoord为疵点的坐标误差的权重,i=0,1,...,S2为第i个网格,j=0,1,...,B为第j个边界框,B为每个网格中边界框的数量,或1表示第i个网格中的第j个边界框中是否存在织物疵点目标,若存在为1,不存在为0,(xi,yi,ωi,hi)为真实疵点的中心坐标及长宽值,为预测的疵点目标的中心坐标和长宽值;
所述深度可分离卷积层的计算量Cf为:
Cf=Dk×Dk×M×DF×DF+M×N×DF×DF,
其中,Dk×Dk为深度卷积核的大小,M为输入通道的数量,N为输出通道的数量,DF×DF为输入图像的大小,点卷积的卷积核大小为1×1;
所述标准卷积层的计算量Cs为:Cs=Dk×Dk×M×N×DF×DF;
深度可分离卷积层与标准卷积层的计算量之比为:
本技术方案能产生的有益效果:
1)本发明使用深度可分离卷积搭建轻量级卷积神经网络模型,大大减少了网络的计算量,提高检测速度;
2)本发明采用多尺度特征提取方法对不同下采样层的特征图进行特征提取,能够同时提取到高语义及高细粒度的特征信息,提高模型对小目标的检测能力;
3)本发明将深度可分离卷积和多尺度特征提取方法结合搭建卷积神经网络模型,使模型在具有很高检测精度的同时,极大提高了检测速度,达到实时检测的要求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图;
图2为本发明的DefectNet模型的结构示意图;
图3为本发明的深度可分离卷积运算图;
图4为本发明方法的检测效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种基于深度可分离卷积神经网络的织物疵点检测方法,具体步骤如下:
S1、利用图像采集***采集织物疵点图像后进行预处理,图像采集***包含四台高清工业相机,采集了500张分辨率为2k×2k的高清织物疵点图片,再利用图像分割技术对采集的织物疵点图像进行剪切和缩放,将原图裁剪为图像尺寸大小512×512的织物图像,从中挑选出3000张有效图片作为数据集。
并通过标注工具Labelimg标注数据集中的预处理后织物疵点图像中的疵点的位置坐标,得到包含每个疵点的种类名称及位置坐标信息xml文件,并与织物疵点图像一一对应后作为织物图像数据集,其中,织物图像数据集包括训练集和测试集,且训练集和测试集的数量比例为2:1。
S2、构建深度可分离卷积模块,利用深度可分离卷积模块搭建DefectNet网络,如图2所示;所述DefectNet网络的架构为输入层-标准卷积层I-深度可分离卷积层I-深度可分离卷积层II-深度可分离卷积层III-深度可分离卷积层IV-标准卷积层II-深度可分离卷积层V-深度可分离卷积层VI-输出层。所述深度可分离卷积层包括深度卷积层和点卷积层,标准卷积层、深度卷积层和点卷积层均连接有批量标准化层和激活层,其中,激活层为Leaky ReLU激活函数层,用于卷积层的标准化以及对每层网络进行非线性激活处理。DefectNet网络结构如下表1所示。
表1 DefectNet网络结构图
DefectNet网络通过采用步长为2的卷积层,实现在下采样过程中特征图的尺度变换,不同尺度的特征图,拥有不同的感受野,可以提取到不同的细粒度特征以及不同语义信息。
所述深度可分离卷积层的结构如图3所示,对于大小为DF×DF的输入图像,当卷积核尺寸为Dk×Dk时,标准卷积层的计算量Cs为:Cs=Dk×Dk×M×N×DF×DF,其中,M为输入通道的数量,N为输出通道的数量;深度可分离卷积层包括深度卷积层和点卷积层,深度卷积层的卷积核大小为Dk×Dk,点卷积层的卷积核大小为1×1,深度可分离卷积层的计算量Cf为:Cf=Dk×Dk×M×DF×DF+M×N×DF×DF,因此,深度可分离卷积层与标准卷积层的计算量之比为:
S3、将步骤S1中的训练集输入DefectNet网络中进行训练,并利用异步梯度下降的训练策略调整DefectNet网络的参数,得到DefectNet网络模型;具体的训练方法为:
S31、设置输入图像的大小为M'×M',M'=512,类别为1,设置学习率θ=0.001和权重衰减w=0.0005,设置最大迭代次数tmax=500200。
S32、随机选取训练集中的N’张原始图像及疵点的位置坐标输入DefectNet网络中,其中N’=5。
S33、将DefectNet网络的第六层提取的特征图和第八层提取的特征图分别划分为S×S的网格,其中,每个网格预测出B个边界框;所述DefectNet网络在第八层输出为原图32倍下采样后得到的特征图,再将第八层提取的特征图进行2倍的上采样,并与第六层输出为原图16倍下采样的特征图进行特征融合,得到经过特征融合的16倍下采样特征图。所述DefectNet网络分别在32倍下采样和经过特征融合的16倍下采样特征图中进行特征提取,可以同时得到高语义及高细粒度的特征信息。
S34、通过DefectNet网络预测每个网格中的边界框的数量,利用logistic分类器预测每个边界框中疵点目标的置信度值,并给出每个边界框的中心坐标和长宽值;本发明采用logistic分类器(sigmoid函数)来预测出每个边界框中是疵点目标的置信度值。在网络迭代过程中,需要使用损失函数Loss计算神经网络的输出和所预期的输出之间的差异值来确定迭代的调整方向。而损失函数Loss能够反映出当前网络的输出和实际结果之间一种量化之后的不一致程度,从而在迭代过程中对网络参数进行调整。DefectNet网络使用平方和误差计算损失,即损失函数为所有网格预测值和真实值的均方差,包括坐标误差、置信度(IOU)误差和分类误差。
S35、通过损失函数计算步骤S34中预测的疵点目标的置信度值与步骤S32中疵点的位置坐标之间的差异值;所述损失函数为:Loss=Errorcoord+Errorcls+Erroriou,其中,Errorcoord为边界框损失函数,Errorcls为logistic分类器损失函数,Erroriou为置信度损失函数;
所述边界框损失函数Errorcoord由中心坐标的误差和边界框宽与高的误差构成:
其中,λcoord为疵点的坐标误差的权重,i=0,1,...,S2为第i个网格,j=0,1,...,B为第j个边界框,或1表示第i个网格中的第j个边界框中是否存在织物疵点目标,若存在为1,不存在为0,(xi,yi,ωi,hi)为真实疵点的中心坐标及长宽值,为预测的疵点目标的中心坐标和长宽值。
所述置信度损失函数Erroriou为:其中,λnoobj为不存在疵点目标的置信度损失的权重,或1表示第i个网格中的第j个边界框中是否存在织物疵点目标,若存在为0,不存在为1,Ci为置信度的得分,为预测边界框与真实框的交叉比例。
S36、根据学习率θ、权重衰减w和步骤S35中的差异值调整DefectNet网络的参数,返回步骤S32,直到遍历完训练集中所有的图像。
S37、迭代次数增加1,循环执行步骤S32至步骤S36,直至达到最大迭代次数tmax时,DefectNet网络停止训练,保存最后一次迭代的DefectNet网络的参数,生成DefectNet网络模型。
S4、将测试集中的织物图像输入步骤S3得到的DefectNet网络模型中,得到图像中的目标疵点及位置坐标,并在图像中框出疵点目标。将测试集中的图像输入DefectNet模型中,图像经过DefectNet网络模型的层层卷积运算后得到各个区域像素属于织物疵点目标的置信度,并预测出疵点目标在图中的位置坐标,通过设定置信度阈值,将大于阈值的目标确定为疵点目标,并根据坐标值准确框出图像中疵点位置。
将测试集中的图片输入到DefectNet模型中,得到模型的检测结果,结果显示在1000张图片中,正确检测到了其中97.7%的疵点目标,每张图片的检测速度为32.7ms,DefectNet网络模型检测结果如图4所示。测试结果表明DefectNet网络模型对织物疵点的检测有较好的效果。DefectNet网络不仅能准确地检测出缺陷的位置,而且模型参数少,检测速度快。将模型与其他大规模神经网络模型性能对比结果如表2所示。
表2 DefectNet网络模型与其他神经网络主要性能对比
准确率(%) | 检测速度(ms) | 模型大小(MB) | |
SSD | 75.3 | 420.2 | 163 |
YOLO-v3 | 98.0 | 132.2 | 241 |
Tiny-Yolo-v3 | 86.1 | 56.5 | 34 |
DefectNet | 97.7 | 32.7 | 9 |
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,其步骤如下:
S1、利用图像采集***采集织物疵点图像后进行预处理,并通过标注工具标注预处理后织物疵点图像中的疵点的位置坐标,作为织物图像数据集,其中,织物图像数据集包括训练集和测试集;
S2、构建深度可分离卷积层,利用深度可分离卷积层搭建DefectNet网络;
S3、将步骤S1中的训练集输入DefectNet网络中进行训练,并利用异步梯度下降的训练策略调整DefectNet网络的参数,得到DefectNet网络模型;
S4、将测试集中的织物图像输入步骤S3得到的DefectNet网络模型中,得到图像中的目标疵点及位置坐标,并在图像中框出疵点目标。
2.根据权利要求1所述的基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,所述步骤S1中的织物疵点图像的预处理方法为:对采集的织物疵点图像进行剪切和缩放,得到图像尺寸大小相同的织物图像。
3.根据权利要求1所述的基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,所述DefectNet网络的架构为输入层-标准卷积层I-深度可分离卷积层I-深度可分离卷积层II-深度可分离卷积层III-深度可分离卷积层IV-标准卷积层II-深度可分离卷积层V-深度可分离卷积层VI-输出层。
4.根据权利要求1所述的基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,所述深度可分离卷积层包括深度卷积层和点卷积层,标准卷积层、深度卷积层和点卷积层均连接有批量标准化层和激活层,其中,激活层为Leaky ReLU激活函数层。
5.根据权利要求3所述的基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,所述DefectNet网络在深度可分离卷积层VI输出为原图32倍下采样后得到的特征图,再将深度可分离卷积层VI提取的特征图进行2倍的上采样,并与标准卷积层II输出为原图16倍下采样的特征图进行特征融合,得到经过特征融合的16倍下采样特征图。
6.根据权利要求1所述的基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,所述步骤S3中利用异步梯度下降的训练策略调整DefectNet网络的参数,得到DefectNet网络模型的训练方法为:
S31、设置输入图像的大小为M'×M',类别为1,设置学习率θ和权重衰减w,设置最大迭代次数tmax;
S32、随机选取训练集中的N’张原始图像及疵点的位置坐标输入DefectNet网络中;
S33、将DefectNet网络的第六层提取的特征图和第八层提取的特征图分别划分为S×S的网格,其中,每个网格预测出B个边界框;
S34、通过DefectNet网络预测每个网格中的边界框的数量,利用logistic分类器预测每个边界框中疵点目标的置信度值,并给出每个边界框的中心坐标和长宽值;
S35、通过损失函数计算步骤S34中预测的疵点目标的置信度值与步骤S32中疵点的位置坐标之间的差异值;
S36、根据学习率θ、权重衰减w和步骤S35中的差异值调整DefectNet网络的参数,返回步骤S32,直到遍历完训练集中所有的图像;
S37、迭代次数增加1,循环执行步骤S32至步骤S36,直至达到最大迭代次数tmax时,DefectNet网络停止训练,保存最后一次迭代的DefectNet网络的参数,生成DefectNet网络模型。
7.根据权利要求6所述的基于深度可分离卷积神经网络的织物疵点检测方法,其特征在于,所述步骤S35中的损失函数为:Loss=Errorcoord+Errorcls+Erroriou,其中,Errorcoord为边界框损失函数,Errorcls为logistic分类器损失函数,Erroriou为置信度损失函数;
所述边界框损失函数Errorcoord为:
其中,λcoord为疵点的坐标误差的权重,i=0,1,...,S2为第i个网格,j=0,1,...,B为第j个边界框,B为每个网格中边界框的数量,或1表示第i个网格中的第j个边界框中是否存在织物疵点目标,若存在为1,不存在为0,(xi,yi,ωi,hi)为真实疵点的中心坐标及长宽值,为预测的疵点目标的中心坐标和长宽值;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911150028.2A CN110930387A (zh) | 2019-11-21 | 2019-11-21 | 基于深度可分离卷积神经网络的织物疵点检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911150028.2A CN110930387A (zh) | 2019-11-21 | 2019-11-21 | 基于深度可分离卷积神经网络的织物疵点检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110930387A true CN110930387A (zh) | 2020-03-27 |
Family
ID=69850613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911150028.2A Pending CN110930387A (zh) | 2019-11-21 | 2019-11-21 | 基于深度可分离卷积神经网络的织物疵点检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110930387A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145145A (zh) * | 2019-12-10 | 2020-05-12 | 太原科技大学 | 一种基于MobileNets的图像表面缺陷检测方法 |
CN111553898A (zh) * | 2020-04-27 | 2020-08-18 | 东华大学 | 一种基于卷积神经网络的面料疵点检测方法 |
CN111650208A (zh) * | 2020-06-01 | 2020-09-11 | 东华大学 | 一种巡游式机织面料疵点在线检测器 |
CN112036541A (zh) * | 2020-10-16 | 2020-12-04 | 西安工程大学 | 一种基于遗传算法优化神经网络的织物疵点检测方法 |
CN112070158A (zh) * | 2020-09-08 | 2020-12-11 | 哈尔滨工业大学(威海) | 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法 |
CN112184729A (zh) * | 2020-09-24 | 2021-01-05 | 上海蜜度信息技术有限公司 | 局部图像的表征获取方法、***、介质及装置 |
CN112200225A (zh) * | 2020-09-23 | 2021-01-08 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
CN112258490A (zh) * | 2020-10-30 | 2021-01-22 | 中国人民解放军空军工程大学 | 基于光学和红外图像融合的低发射率涂层智能探损方法 |
CN112270722A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种基于深度神经网络的数码印花织物缺陷检测方法 |
CN112598657A (zh) * | 2020-12-28 | 2021-04-02 | 锋睿领创(珠海)科技有限公司 | 缺陷检测方法、装置、模型构造方法和计算机设备 |
CN113192040A (zh) * | 2021-05-10 | 2021-07-30 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
CN113327253A (zh) * | 2021-05-24 | 2021-08-31 | 北京市遥感信息研究所 | 一种基于星载红外遥感影像的弱小目标检测方法 |
CN114359546A (zh) * | 2021-12-30 | 2022-04-15 | 太原科技大学 | 一种基于卷积神经网络的黄花菜成熟度识别方法 |
CN115100136A (zh) * | 2022-06-20 | 2022-09-23 | 华南理工大学 | 基于YOLOv4-tiny模型的工件类别与位姿估计方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109613006A (zh) * | 2018-12-22 | 2019-04-12 | 中原工学院 | 一种基于端到端神经网络的织物疵点检测方法 |
CN110349146A (zh) * | 2019-07-11 | 2019-10-18 | 中原工学院 | 基于轻量级卷积神经网络的织物缺陷识别***的搭建方法 |
-
2019
- 2019-11-21 CN CN201911150028.2A patent/CN110930387A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109613006A (zh) * | 2018-12-22 | 2019-04-12 | 中原工学院 | 一种基于端到端神经网络的织物疵点检测方法 |
CN110349146A (zh) * | 2019-07-11 | 2019-10-18 | 中原工学院 | 基于轻量级卷积神经网络的织物缺陷识别***的搭建方法 |
Non-Patent Citations (3)
Title |
---|
JOSEPH REDMON,ET AL.: "You Only Look Once: Unified, Real-Time Object Detection", 《ARXIV》 * |
ZHOUFENG LIU,ET AL.: "Fabric Defect Detection Based on Lightweight Neural Network", 《SPRINGER》 * |
ZHOUFENG LIU,ET AL.: "Real-time Fabric Defect Detection based on Lightweight Convolutional Neural Network", 《ACM》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145145A (zh) * | 2019-12-10 | 2020-05-12 | 太原科技大学 | 一种基于MobileNets的图像表面缺陷检测方法 |
CN111553898A (zh) * | 2020-04-27 | 2020-08-18 | 东华大学 | 一种基于卷积神经网络的面料疵点检测方法 |
CN111650208A (zh) * | 2020-06-01 | 2020-09-11 | 东华大学 | 一种巡游式机织面料疵点在线检测器 |
CN112070158A (zh) * | 2020-09-08 | 2020-12-11 | 哈尔滨工业大学(威海) | 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法 |
CN112070158B (zh) * | 2020-09-08 | 2022-11-15 | 哈尔滨工业大学(威海) | 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法 |
CN112200225B (zh) * | 2020-09-23 | 2022-07-26 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
CN112200225A (zh) * | 2020-09-23 | 2021-01-08 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
CN112184729B (zh) * | 2020-09-24 | 2024-04-19 | 天津蜜度文修智能科技有限公司 | 局部图像的表征获取方法、***、介质及装置 |
CN112184729A (zh) * | 2020-09-24 | 2021-01-05 | 上海蜜度信息技术有限公司 | 局部图像的表征获取方法、***、介质及装置 |
CN112036541B (zh) * | 2020-10-16 | 2023-11-17 | 西安工程大学 | 一种基于遗传算法优化神经网络的织物疵点检测方法 |
CN112036541A (zh) * | 2020-10-16 | 2020-12-04 | 西安工程大学 | 一种基于遗传算法优化神经网络的织物疵点检测方法 |
CN112270722A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种基于深度神经网络的数码印花织物缺陷检测方法 |
CN112270722B (zh) * | 2020-10-26 | 2024-05-17 | 西安工程大学 | 一种基于深度神经网络的数码印花织物缺陷检测方法 |
CN112258490A (zh) * | 2020-10-30 | 2021-01-22 | 中国人民解放军空军工程大学 | 基于光学和红外图像融合的低发射率涂层智能探损方法 |
CN112598657B (zh) * | 2020-12-28 | 2022-03-04 | 锋睿领创(珠海)科技有限公司 | 缺陷检测方法、装置、模型构造方法和计算机设备 |
CN112598657A (zh) * | 2020-12-28 | 2021-04-02 | 锋睿领创(珠海)科技有限公司 | 缺陷检测方法、装置、模型构造方法和计算机设备 |
CN113192040A (zh) * | 2021-05-10 | 2021-07-30 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
CN113192040B (zh) * | 2021-05-10 | 2023-09-22 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
CN113327253A (zh) * | 2021-05-24 | 2021-08-31 | 北京市遥感信息研究所 | 一种基于星载红外遥感影像的弱小目标检测方法 |
CN113327253B (zh) * | 2021-05-24 | 2024-05-24 | 北京市遥感信息研究所 | 一种基于星载红外遥感影像的弱小目标检测方法 |
CN114359546A (zh) * | 2021-12-30 | 2022-04-15 | 太原科技大学 | 一种基于卷积神经网络的黄花菜成熟度识别方法 |
CN114359546B (zh) * | 2021-12-30 | 2024-03-26 | 太原科技大学 | 一种基于卷积神经网络的黄花菜成熟度识别方法 |
CN115100136A (zh) * | 2022-06-20 | 2022-09-23 | 华南理工大学 | 基于YOLOv4-tiny模型的工件类别与位姿估计方法 |
CN115100136B (zh) * | 2022-06-20 | 2024-05-28 | 华南理工大学 | 基于YOLOv4-tiny模型的工件类别与位姿估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110930387A (zh) | 基于深度可分离卷积神经网络的织物疵点检测方法 | |
CN111368769B (zh) | 基于改进锚点框生成模型的船舶多目标检测方法 | |
CN103810704B (zh) | 基于支持向量机和判别随机场的sar图像变化检测方法 | |
CN108038846A (zh) | 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及*** | |
CN113920107A (zh) | 一种基于改进yolov5算法的绝缘子破损检测方法 | |
CN111753828A (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN110796616B (zh) | 基于范数约束和自适应加权梯度的湍流退化图像恢复方法 | |
CN107784288A (zh) | 一种基于深度神经网络的迭代定位式人脸检测方法 | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
CN111611998A (zh) | 一种基于候选区域面积和宽高的自适应特征块提取方法 | |
CN111160407A (zh) | 一种深度学习目标检测方法及*** | |
CN116448019B (zh) | 建筑节能工程质量平面度智能检测装置及方法 | |
CN110909623B (zh) | 三维目标检测方法及三维目标检测器 | |
CN113705655A (zh) | 三维点云全自动分类方法及深度神经网络模型 | |
CN108734200A (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN115240119A (zh) | 一种基于深度学习的视频监控中行人小目标检测方法 | |
Qian et al. | FESSD: SSD target detection based on feature fusion and feature enhancement | |
CN113496260B (zh) | 基于改进YOLOv3算法的粮库人员不规范作业检测法 | |
CN112766145B (zh) | 人工神经网络的人脸动态表情识别方法及装置 | |
CN106446965A (zh) | 一种航天器可见光图像分类方法 | |
CN112288084B (zh) | 基于特征图通道重要性的深度学习目标检测网络压缩方法 | |
CN116597275A (zh) | 一种基于数据增强的高速移动目标识别方法 | |
CN112270289A (zh) | 一种基于图卷积注意力网络的智能监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200327 |