CN115830359A - 复杂场景下基于目标检测和模板匹配的工件识别计数方法 - Google Patents
复杂场景下基于目标检测和模板匹配的工件识别计数方法 Download PDFInfo
- Publication number
- CN115830359A CN115830359A CN202211580871.6A CN202211580871A CN115830359A CN 115830359 A CN115830359 A CN 115830359A CN 202211580871 A CN202211580871 A CN 202211580871A CN 115830359 A CN115830359 A CN 115830359A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- image
- target detection
- feature
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及目标检测和模板匹配技术领域,具体为复杂场景下基于目标检测和模板匹配的工件识别计数方法,包括以下步骤:利用高清工业相机获取标准工件原始数据集;对工件图像集进行预处理、数据增广、裁剪及分类标注得到增强数据集;构建基于改进YOLOv5的目标检测网络模型并进行数据集训练:部署训练好的目标检测模型读取工业摄像头实时检测生产线上的工件,旋转角度后裁剪并保存识别出的各个工件图像。本发明的优势在于,首先通过深度学习目标检测的手段从复杂场景图像中识别出工件,得到工件的位置信息,对于环境信息的敏感有更好的鲁棒性。能够处理多目标多角度的识别任务,在较为复杂的生产场景下可以出色地完成工件识别与计数。
Description
技术领域
本发明涉及目标检测和模板匹配技术领域,具体为复杂场景下基于目标检测和模板匹配的工件识别计数方法。
背景技术
随着科技革命和产业变革的迅猛发展,传统制造业面临全面转型升级,因此深入推进智能制造有着重大意义。许多传统制造业依然延续着依靠大量人力的生产方式,导致生产效率低下,供给与市场需求适配性不高,产业链、工业链的稳定性面临挑战。以家居制造产业为例,各式各样的工件在生产线上流通时需要依靠工人们进行匹配统计,当货物订单量较大,生产线数量众多时就会带来效率与成本问题。
如中国申请号CN2202210090650.4公开了一种基于模板匹配的工件识别定位方法,通过获取成像平面上特征点的坐标值,并结合相机图像坐标系中对应点的坐标,得到所述特征点在三维空间中的坐标值,并根据所述成像点坐标值建立三维空间几何模型,并利用基于形状的模板匹配方法,在相机视野范围内搜索并完成匹配。
又如《基于改进YOLOv4的工件识别》中张建华,赵维等人提出一种基于改进YOLOv4的工件识别方法。采用简化Moblienetv3替换YOLOv4框架的特征提取网络,将YOLOv4深层网络的标准卷积层替换为深度可分离卷积层;最后,增加104*104的特征检测尺度,并使其与另外三个尺度(52*52,26*26,13*13)进行融合,搭建了典型工件的图像数据采集平台,构建训练样本集并进行网络训练。
工业制造现场涉及的环境较为复杂,基于传统机器视觉方法的工件识别技术通常针对图像进行逐像素遍历搜索,利用图像分割方法如阈值等方法将工件从图像中分割出来然后利用特征提取算法对工件进行特征提取,这些特征包括颜色特征(HSV),纹理特征,形状特征等等;这一类方法在实际的工业场景下有着明显的不足之处:计算量大,实时性低,在处理场景杂物多,工件种类多,位置接近甚至重叠的情况时往往效果不佳。而目前基于深度学习的图像处理手段已经成为主流,通过高清摄像头采集工业现场的目标物体图像制作数据集进行模型训练,然后将训练好的网络模型部署到生产现场实现实时检测,这一类方法的通用性和移植性好并且精度较高。但在复杂的生产场景下,基于深度学习的识别方法面对多目标多角度以及噪声干扰的情况时依然存在不足,容易出现漏检等问题。为了实现自动化生产线,亟需一种能够在复杂场景下实时、高效、精确识别工件种类并计数的技术方法。
发明内容
为了解决上述技术问题,本发明提出了复杂场景下基于目标检测和模板匹配的工件识别计数方法。利用目标检测算法自动识别并提取出生产线上的工件图像区域然后利用模板匹配算法精细匹配工件种类并计数,从而解放大量人力,实现智慧生产。利用改进后的YOLOv5轻量化旋转目标检测网络快速实现端到端的工件检测定位,粗提取出待分类的工件区域图像,然后再利用模板匹配算法即SURF算法获取待分类工件区域和模板的关键点来实现二者的匹配,实现精细分类与计数。能够更好地处理尺度变化、视角变化、光照变化等问题,更重要的是能够处理多目标多角度的识别任务,在较为复杂的生产场景下可以出色地完成工件识别与计数。
本发明所要解决的技术问题采用以下技术方案来实现:
复杂场景下基于目标检测和模板匹配的工件识别计数方法,包括以下步骤:
步骤(1)利用高清工业相机获取标准工件原始数据集;
步骤(2)对工件图像集进行预处理、数据增广、裁剪及分类标注得到增强数据集;
步骤(3)构建基于改进YOLOv5的目标检测网络模型并进行数据集训练:
构建基于改进YOLOv5的目标检测网络模型的具体过程为:
步骤(31)对传统YOLOv5的锚框进行重新设计,增加锚框参数θ,采用K-means++聚类的方法重新生成锚框以拟合工件目标的真实框,锚框的定位方法选取为长边定义法,采用CSL将角度的回归问题转化为分类问题,注释文件格式为[classid,x,y,longside,shortside,θ];
步骤(32)将传统YOLOv5中的骨干网络替换为MobileNetv3,MobileNetv3包括三个部分:第一部分通过卷积层提取特征层,第二部分为大量的倒残差结构块,第三部分输出类别;
步骤(33)对传统YOLOv5中的Neck模块进行改进,将原先的PAN结构替换为BiFPN结构;
步骤(34)修改传统YOLOv5中的Head部分,针对增加的θ维度修改Detect类构造函数,每个锚框预测的参数中增加angle_classes这一参数;
步骤(35)对传统YOLOv5中的损失函数进行修改,添加角度θ的分类损失,其他损失函数不变,θ的损失函数采用BCE loss函数;
步骤(4)部署训练好的目标检测模型读取工业摄像头实时检测生产线上的工件,旋转角度后裁剪并保存识别出的各个工件图像;
步骤(5)通过目标检测网络标注并裁剪旋转得到图像中的工件待匹配区域,利用制作好的工件模板图像,采用SURF算法对目标检测网络提取出的待分类工件进行模板匹配并设定阈值,当相似度大于阈值时,则该待匹配区域中的工件类别则确定为模板中的该工件类别,并统计个数;
SURF算法的步骤为:
步骤(51)特征点检测:针对图像中的像素点x=I(x,y)构建Hessian矩阵,利用Hessian矩阵提取图像中的特征点,对原图进行变换得到需要寻找特征点的变换图像,利用Hessian矩阵判别公式对每个像素点进行处理,将处理后的每个像素点与其图像域和尺度域的所有相邻点进行比较,当其大于或者小于所有相邻点时,该点就是极值点,从而初步定位出特征点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点;
步骤(52)特征点方向确认:在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向;
步骤(53)特征描述:在特征点周围沿着特征点的主方向取一个4*4的矩形区域块,每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,该haar小波特征为水平方向值dy之和,水平方向绝对值|dy|之和,垂直方向dx之和,垂直方向绝对值|dx|之和,每个小区域就有4个值,每个特征点为16*4=64维的向量,公式为:Vsub=(Σdx,Σ|dx|,Σdy,Σ|dy|);
步骤(54)特征匹配:计算待分类的工件图上特征点mi与工件模板图像特征点ni的欧式最短距离Dismini和欧式次短距离Dismini',若结果满足判断阈值的判断公式,则保留待分类工件图像特征点mi到工件模板图像特征点ni这一匹配点对至矩阵M1中,将待分类工件图像特征点mi与模板图像上特征点ni的欧式距离比结果存入M2,初步匹配特征点对的结果记为M3,得到M3后求取变换矩阵,映射实现最终配准,利用RANSAC算法进一步提纯匹配结果,得到符合该算法的内点矩阵即精确匹配结果。
优选的,步骤(1)具体为:利用部署在生产线上的工业高清摄像机以固定时间间隔抓拍生产现场的各个种类的工件得到工件的原始图像集。
优选的,步骤(2)具体为:预处理包括消除工件图像中的光照以及噪声,数据增广操作包括对采集到的工件图像进行翻转、镜像、亮度和对比度变换实现图像集的扩充,之后对工件图像进行裁剪及分类标注,使用标注软件对工件图像进行标注,标出工件的外接矩形,然后通过数据格式转换成带有目标框的中心点坐标以及高、宽和角度信息的DOTA格式再转化为YOLO网络训练数据的格式。
优选的,步骤(31)中K-means++聚类生成锚框的步骤为:
步骤(311)从数据集M中随机选取某一样本M0作为初始化聚类中心;
步骤(312)计算每个样本Mi与当前聚类中心Ci的距离di,计算公式如下:
Di=1-IOU(Mi,Ci)
式中,IOU为锚框与Bounding box的重叠度;
步骤(313)计算每个样本被选为下一个聚类中心的概率p,计算公式如下:
步骤(314)重复步骤(311)至步骤(313),选出K个聚类中心。
优选的,步骤(31)中CSL的计算公式如下:
式中,g(x)为窗口函数,r为半径。
优选的,步骤(32)中Block功能实现的具体步骤为:
(321)输入特征首先利用1*1卷积升维至exp size,并经过非线性激活函数NL;
(322)将输出特征通过3*3的Dwise卷积,并经过非线性激活函数NL,通道数expsize不发生改变;
(323)将输出特征通入SE块中,先对每个通道进行全局平均池化,得到1*1*expsize的向量;
(324)再将该向量通入第一层全连接层,激活函数为ReLU6,得到输出为1*1*(expsize/4);
(325)接着将输出通入第二层全连接层,激活函数为h-sigmoid,得到1*1*expsize的向量,其中向量内元素取值为(0,1);
(326)将该向量中的每个元素乘以输入到SE层的特征图的对应通道特征矩阵得到一个和特征图一样大小的新特征图;
(327)最后进行1*1卷积降维处理。
优选的,步骤(324)中ReLU6激活函数的表达式为:
y=ReLU6(x)=min(max(x,0),6);
h-sigmoid激活函数的表达式为:
Hard-swish激活函数的表达式为:
优选的,步骤(4)具体为:部署步骤(3)中训练好的目标检测模型,读取工业摄像头实时检测生产线上的工件,在图像中标注出工件的最小外接矩形,利用得到的中心坐标(x,y)以及θ角度信息将区域工件旋转至水平并裁剪保存,得到图像中所有的待识别工件。
优选的,步骤(51)中Hessian矩阵公式如下:
式中,σ为空间尺度,Lxx(x,σ)、Lxy(x,σ)、Lyy(x,σ)是高斯二阶微分的卷积;
Hessian矩阵判别公式为:
Det(Happrox)=LxxLyy-(αLxy)2
式中,α取经验值0.9。
优选的,步骤(54)中欧式距离的计算公式如下:
判断阈值的判断公式为:
本发明的有益效果是:
与现有技术相比,本发明的优势在于,首先通过深度学习目标检测的手段从复杂场景图像中识别出工件,得到工件的位置信息,对于环境信息的敏感有更好的鲁棒性,之后针对识别结果中矩形框内的工件进行进一步的特征匹配操作,利用模板匹配的方法实现对每个工件的精准分类以及计数。能够处理多目标多角度的识别任务,在较为复杂的生产场景下可以出色地完成工件识别与计数。
附图说明
下面结合附图和实施例对本发明进一步说明:
图1为本发明改进后的YOLOv5网络结构图;
图2为本发明的工件精分类流程示意图;
图3为本发明的流程框图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合附图以及实施例对本发明进一步阐述。
如图1至图3所示,复杂场景下基于目标检测和模板匹配的工件识别计数方法,具体包括以下步骤:
步骤(1)利用部署在生产线上的工业高清摄像机以固定时间间隔抓拍生产现场的各个种类的工件得到工件的原始图像集。
步骤(2)对工件图像集进行预处理以及数据增广等操作得到增强数据集,其中,图像预处理环节用于消除图像中的光照以及噪声等影响,数据增广操作用于对采集到的工件图像进行翻转、镜像、亮度和对比度变换实现图像集的扩充。之后对工件图像进行裁剪及分类标注,使用标注软件对工件图像进行标注,标出工件的外接矩形,然后通过数据格式转换成带有目标框的中心点坐标以及高、宽和角度信息的DOTA格式再转化为YOLO网络训练数据的格式。
步骤3:构建基于改进YOLOv5的目标检测网络模型并进行数据集训练。
步骤3的具体步骤为,对YOLOv5进行一些改进,搭建出实现工件粗提取的目标检测网络。
步骤(31)首先,由于生产线上的工件由工人摆放到地轨架或是磨砂机、往复机等,这一过程中由于工人摆放的随意性会造成摄像头俯视视角下工件位置并不是规则水平或垂直的,传统YOLOv5目标检测结果为水平矩形检测框,检测框中无可避免地会包含一些无关背景区域,大量的冗余信息会增大网络模型的计算量。因此对YOLOv5进行改进以适应带旋转角度的工件:对锚框进行重新设计,增加锚框参数θ,采用K-means++聚类的方法重新生成锚框以拟合工件目标的真实框,相比于原始YOLOv5使用K-means聚类的方法,其优势在于降低了聚类结果受初始值选取影响大的问题,能够选择出更优的初始聚类中心。
其中K-means++聚类生成锚框的步骤为:
步骤(311)从数据集M中随机选取某一样本M0作为初始化聚类中心;
步骤(312)计算每个样本Mi与当前聚类中心Ci的距离di,计算公式如下:
Di=1-IOU(Mi,Ci)
式中,IOU为锚框与Bounding box的重叠度;
步骤(313)计算每个样本被选为下一个聚类中心的概率p,计算公式如下:
步骤(314)重复步骤(311)至步骤(313),选出K个聚类中心。
引入角度参数之后损失函数中需要增加对θ的损失,为了处理角度带来的边界问题,旋转框的定义方法选取为长边定义法,即框的长边与x轴的夹角θ∈[-90,,9),采用环形平滑标签的方法(circular smooth label,CSL)将角度的回归问题转化为分类问题,因此注释文件格式为[classid,x,y,longside,shortside,θ]。
其中CSL计算式为:
g(x)为窗口函数,用于估计预测框与真实框的角度距离信息,预测值越接近真实值,角度信息的损失值越小,选择窗口函数为高斯函数,r为半径。
数据加载部分确定注释文件的格式符合长边定义法并在标签原始数据上添加角度θ这一维度。
步骤(32)为了方便模型部署,考虑将YOLOv5的骨干网络替换为更加轻量化的MobileNetv3,实现网络模型的轻量化的同时平衡速度和精度。
MobileNetv3可以分为三部分,第一部分通过卷积层提取特征层,第二部分为大量的倒残差结构块,第三部分输出类别,其中Block功能实现的具体步骤为:输入特征首先利用1*1卷积升维至exp size,并经过非线性激活函数NL。接着将输出特征通过3*3的Dwise卷积,并经过非线性激活函数,通道数exp size不发生改变。然后将输出特征通入SE块中,先对每个通道进行全局平均池化,得到1*1*exp size的向量,再将该向量通入第一层全连接层,激活函数为ReLU6,得到输出为1*1*(exp size/4)。接着将输出通入第二层全连接层,激活函数为h-sigmoid,得到1*1*exp size的向量,其中向量内元素取值为(0,1)。将该向量中的每个元素乘以输入到SE层的特征图的对应通道特征矩阵得到一个和特征图一样大小的新特征图。最后进行1*1卷积降维处理。
其中ReLU6激活函数的表达式为:
y=ReLU6(x)=min(max(x,0),6);
h-sigmoid激活函数的表达式为:
hard-swish激活函数的表达式为:
步骤(33)对传统YOLOv5的Neck模块进行改进,将原先的PAN结构替换为BiFPN结构,通过双向跨尺度连接和加权特征融合手段加强特征融合,同时提高检测速度。
步骤(34)修改传统YOLOv5的Head部分,针对增加的θ维度修改Detect类构造函数,每个锚框预测的参数中增加angle_classes这一参数。
步骤3.5:最后对损失函数θ进行修改,只需添加角度θ的分类损失,其他损失函数不变,θ的损失函数采用BCE loss函数。
以上为对YOLOv5的一系列改进,构建完成目标检测网络。
步骤(4)部署步骤(3)中训练好的目标检测模型,读取工业摄像头实时检测生产线上的工件,在图像中标注出工件的最小外接矩形,利用得到的中心坐标(x,y)以及θ角度信息将区域工件旋转至水平并裁剪保存,以此得到图像中所有的待识别工件,便于后续特征匹配实现工件的精细分类与计数。
步骤(5)通过目标检测网络得到工件的位置信息之后,基于改进的模板匹配方法对工件进行特征精细匹配:
通过目标检测网络标注并裁剪旋转得到图像中的工件待匹配区域,之后利用制作好的工件模板图像,逐个计算待匹配区域与模板图像中的工件区域的相似度并设定阈值,当相似度大于阈值时,该待匹配区域中的工件类别则确定为模板中的该工件类别,具体方法为采用SURF算法对目标检测网络提取出的待分类工件进行模板匹配。
SURF算法的步骤为:
步骤(51)特征点检测:
利用Hessian矩阵提取图像中的特征点并描述,针对图像中的像素点x=I(x,y)构建Hessian矩阵:
σ为空间尺度,Lxx(x,σ)、Lxy(x,σ)、Lyy(x,σ)是高斯二阶微分的卷积:
Det(Happrox)=LxxLyy-(αLxy)2,其中α取经验值0.9。
将经过Hessian矩阵判别式处理的每个像素点与其图像域和尺度域的所有相邻点进行比较,当其大于(或者小于)所有相邻点时,该点就是极值点,从而初步定位出特征点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点。
步骤(52)特征点方向确认:
在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向。
步骤(53)特征描述:
在特征点周围沿着特征点的主方向取一个4*4的矩形区域块,每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,该haar小波特征为水平方向值dy之和,水平方向绝对值|dy|之和,垂直方向dx之和,垂直方向绝对值|dx|之和,每个小区域就有4个值,每个特征点为16*4=64维的向量:
Vsub=(Σdx,Σ|dx|,Σdy,Σ|dy|)。
步骤(54)特征匹配:
计算待分类的工件图上特征点与工件模板图像特征点的欧式距离:
由上式计算得出待分类工件图像特征点mi到工件模板图像上特征点ni的欧式最短距离Dismini和欧式次短距离Dismini',若满足:
则保留待分类工件图像特征点mi到工件模板图像特征点ni这一匹配点对至矩阵M1中,将待分类工件图像特征点mi与模板图像上特征点ni的欧式距离比结果存入M2,初步匹配特征点对的结果记为M3:
M3=M1∩M2;
得到M3后求取变换矩阵,映射实现最终配准,利用RANSAC算法进一步提纯匹配结果,得到符合该算法的内点矩阵即精确匹配结果:
待分类的工件图像特征点m坐标(x,y)为与模板图像特征点n坐标(x',y')之间满足单应矩阵约束:
然后M3中的数据根据欧氏距离从小到大进行排序,假设前四组不在同一直线上的点对满足上述矩阵约束,则为精确匹配的点对,从而可以根据点对坐标求出具体变换矩阵H:
M3中其他特征点对符合阈值条件以及矩阵约束即可存入内点矩阵,否则存入外点矩阵。
若内点矩阵元素数量I少于外点矩阵元素数量W,则重新按照排序选取四组不在同一直线的点对重复上述计算,若内点矩阵元素数量大于外点矩阵元素数量则记为最优内点集Ibest=I,同时更新迭代次数K,若迭代次数大于K则退出计算,否则迭代次数加1,注意,在每次迭代过程中若内点矩阵元素数量大于外点矩阵元素数量则更新最优内点集Ibest=Ik,迭代次数K为:
综上,最终实现待分类工件与模板工件的匹配,识别出的同类工件分别进行计数并存储计数结果。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.复杂场景下基于目标检测和模板匹配的工件识别计数方法,其特征在于:包括以下步骤:
步骤(1)利用高清工业相机获取标准工件原始数据集;
步骤(2)对工件图像集进行预处理、数据增广、裁剪及分类标注得到增强数据集;
步骤(3)构建基于改进YOLOv5的目标检测网络模型并进行数据集训练:
构建基于改进YOLOv5的目标检测网络模型的具体过程为:
步骤(31)对传统YOLOv5的锚框进行重新设计,增加锚框参数θ,采用K-means++聚类的方法重新生成锚框以拟合工件目标的真实框,锚框的定位方法选取为长边定义法,采用CSL将角度的回归问题转化为分类问题,注释文件格式为[classid,x,y,longside,shortside,θ];
步骤(32)将传统YOLOv5中的骨干网络替换为MobileNetv3,MobileNetv3包括三个部分:第一部分通过卷积层提取特征层,第二部分为大量的倒残差结构块,第三部分输出类别;
步骤(33)对传统YOLOv5中的Neck模块进行改进,将原先的PAN结构替换为BiFPN结构;
步骤(34)修改传统YOLOv5中的Head部分,针对增加的θ维度修改Detect类构造函数,每个锚框预测的参数中增加angle_classes这一参数;
步骤(35)对传统YOLOv5中的损失函数进行修改,添加角度θ的分类损失,其他损失函数不变,θ的损失函数采用BCEloss函数;
步骤(4)部署训练好的目标检测模型读取工业摄像头实时检测生产线上的工件,旋转角度后裁剪并保存识别出的各个工件图像;
步骤(5)通过目标检测网络标注并裁剪旋转得到图像中的工件待匹配区域,利用制作好的工件模板图像,采用SURF算法对目标检测网络提取出的待分类工件进行模板匹配并设定阈值,当相似度大于阈值时,则该待匹配区域中的工件类别则确定为模板中的该工件类别,并统计个数;
SURF算法的步骤为:
步骤(51)特征点检测:针对图像中的像素点x=I(x,y)构建Hessian矩阵,利用Hessian矩阵提取图像中的特征点,对原图进行变换得到需要寻找特征点的变换图像,利用Hessian矩阵判别公式对每个像素点进行处理,将处理后的每个像素点与其图像域和尺度域的所有相邻点进行比较,当其大于或者小于所有相邻点时,该点就是极值点,从而初步定位出特征点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点;
步骤(52)特征点方向确认:在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向;
步骤(53)特征描述:在特征点周围沿着特征点的主方向取一个4*4的矩形区域块,每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,该haar小波特征为水平方向值dy之和,水平方向绝对值|dy|之和,垂直方向dx之和,垂直方向绝对值|dx|之和,每个小区域就有4个值,每个特征点为16*4=64维的向量,公式为:Vsub=(Σdx,Σ|dx|,Σdy,Σ|dy|);
步骤(54)特征匹配:计算待分类的工件图上特征点mi与工件模板图像特征点ni的欧式最短距离Dismini和欧式次短距离Dismini',若结果满足判断阈值的判断公式,则保留待分类工件图像特征点mi到工件模板图像特征点ni这一匹配点对至矩阵M1中,将待分类工件图像特征点mi与模板图像上特征点ni的欧式距离比结果存入M2,初步匹配特征点对的结果记为M3,得到M3后求取变换矩阵,映射实现最终配准,利用RANSAC算法进一步提纯匹配结果,得到符合该算法的内点矩阵即精确匹配结果。
2.根据权利要求1所述的复杂场景下基于目标检测和模板匹配的工件识别计数方法,其特征在于:步骤(1)具体为:利用部署在生产线上的工业高清摄像机以固定时间间隔抓拍生产现场的各个种类的工件得到工件的原始图像集。
3.根据权利要求1所述的复杂场景下基于目标检测和模板匹配的工件识别计数方法,其特征在于:步骤(2)具体为:预处理包括消除工件图像中的光照以及噪声,数据增广操作包括对采集到的工件图像进行翻转、镜像、亮度和对比度变换实现图像集的扩充,之后对工件图像进行裁剪及分类标注,使用标注软件对工件图像进行标注,标出工件的外接矩形,然后通过数据格式转换成带有目标框的中心点坐标以及高、宽和角度信息的DOTA格式再转化为YOLO网络训练数据的格式。
6.根据权利要求1所述的复杂场景下基于目标检测和模板匹配的工件识别计数方法,其特征在于:步骤(32)中Block功能实现的具体步骤为:
(321)输入特征首先利用1*1卷积升维至expsize,并经过非线性激活函数NL;
(322)将输出特征通过3*3的Dwise卷积,并经过非线性激活函数NL,通道数expsize不发生改变;
(323)将输出特征通入SE块中,先对每个通道进行全局平均池化,得到1*1*expsize的向量;
(324)再将该向量通入第一层全连接层,激活函数为ReLU6,得到输出为1*1*(expsize/4);
(325)接着将输出通入第二层全连接层,激活函数为h-sigmoid,得到1*1*expsize的向量,其中向量内元素取值为(0,1);
(326)将该向量中的每个元素乘以输入到SE层的特征图的对应通道特征矩阵得到一个和特征图一样大小的新特征图;
(327)最后进行1*1卷积降维处理。
8.根据权利要求1所述的复杂场景下基于目标检测和模板匹配的工件识别计数方法,其特征在于:步骤(4)具体为:部署步骤(3)中训练好的目标检测模型,读取工业摄像头实时检测生产线上的工件,在图像中标注出工件的最小外接矩形,利用得到的中心坐标(x,y)以及θ角度信息将区域工件旋转至水平并裁剪保存,得到图像中所有的待识别工件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211580871.6A CN115830359A (zh) | 2022-12-09 | 2022-12-09 | 复杂场景下基于目标检测和模板匹配的工件识别计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211580871.6A CN115830359A (zh) | 2022-12-09 | 2022-12-09 | 复杂场景下基于目标检测和模板匹配的工件识别计数方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115830359A true CN115830359A (zh) | 2023-03-21 |
Family
ID=85546050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211580871.6A Pending CN115830359A (zh) | 2022-12-09 | 2022-12-09 | 复杂场景下基于目标检测和模板匹配的工件识别计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115830359A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116765635A (zh) * | 2023-08-18 | 2023-09-19 | 济南邦德激光股份有限公司 | 一种用于激光切割机的焊缝识别方法及识别*** |
CN117012055A (zh) * | 2023-08-14 | 2023-11-07 | 河南新电信息科技有限公司 | 一种危险品运输车右侧盲区智能预警***及方法 |
CN117970893A (zh) * | 2024-03-29 | 2024-05-03 | 中科先进(深圳)集成技术有限公司 | 一种多机器人的协同制造方法、装置、***和存储介质 |
-
2022
- 2022-12-09 CN CN202211580871.6A patent/CN115830359A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117012055A (zh) * | 2023-08-14 | 2023-11-07 | 河南新电信息科技有限公司 | 一种危险品运输车右侧盲区智能预警***及方法 |
CN116765635A (zh) * | 2023-08-18 | 2023-09-19 | 济南邦德激光股份有限公司 | 一种用于激光切割机的焊缝识别方法及识别*** |
CN116765635B (zh) * | 2023-08-18 | 2024-04-12 | 济南邦德激光股份有限公司 | 一种用于激光切割机的焊缝识别方法及识别*** |
CN117970893A (zh) * | 2024-03-29 | 2024-05-03 | 中科先进(深圳)集成技术有限公司 | 一种多机器人的协同制造方法、装置、***和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596066B (zh) | 一种基于卷积神经网络的字符识别方法 | |
CN108875911B (zh) | 一种泊车位检测方法 | |
CN108304873B (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其*** | |
CN115830359A (zh) | 复杂场景下基于目标检测和模板匹配的工件识别计数方法 | |
Wang et al. | Photovoltaic panel extraction from very high-resolution aerial imagery using region–line primitive association analysis and template matching | |
CN106251353A (zh) | 弱纹理工件及其三维位姿的识别检测方法及*** | |
CN110598609A (zh) | 一种基于显著性引导的弱监督目标检测方法 | |
CN113160192A (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
AU2020202249A1 (en) | Feature extraction from mobile lidar and imagery data | |
CN109726717A (zh) | 一种车辆综合信息检测*** | |
CN111178190B (zh) | 基于深度图像的目标检测方法、装置及存储介质 | |
CN111832659B (zh) | 一种基于特征点提取算法检测的激光标刻***及方法 | |
CN110097596A (zh) | 一种基于opencv的目标检测*** | |
CN113393426A (zh) | 一种轧钢板表面缺陷检测方法 | |
CN112200186B (zh) | 基于改进yolo_v3模型的车标识别方法 | |
CN113435240A (zh) | 一种端到端的表格检测和结构识别方法及*** | |
CN115272204A (zh) | 一种基于机器视觉的轴承表面划痕检测方法 | |
CN114863464B (zh) | 一种pid图纸图件信息的二阶识别方法 | |
CN111860509A (zh) | 一种由粗到精的两阶段非约束车牌区域精准提取方法 | |
CN110378337B (zh) | 金属切削刀具图纸标识信息视觉输入方法及*** | |
CN108985294B (zh) | 一种轮胎模具图片的定位方法、装置、设备及存储介质 | |
CN111950556A (zh) | 一种基于深度学习的号牌印刷质量检测方法 | |
CN110889418A (zh) | 一种气体轮廓识别方法 | |
CN116503622A (zh) | 基于计算机视觉图像的数据采集读取方法 | |
CN113449629B (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |