CN116206155A - 基于YOLOv5网络的废钢分类识别方法 - Google Patents

基于YOLOv5网络的废钢分类识别方法 Download PDF

Info

Publication number
CN116206155A
CN116206155A CN202310170325.3A CN202310170325A CN116206155A CN 116206155 A CN116206155 A CN 116206155A CN 202310170325 A CN202310170325 A CN 202310170325A CN 116206155 A CN116206155 A CN 116206155A
Authority
CN
China
Prior art keywords
yolov5
scrap steel
identification
classification
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310170325.3A
Other languages
English (en)
Inventor
余飞鹏
杨祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Technology
Original Assignee
Guilin University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Technology filed Critical Guilin University of Technology
Priority to CN202310170325.3A priority Critical patent/CN116206155A/zh
Publication of CN116206155A publication Critical patent/CN116206155A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于YOLOv5网络的废钢分类识别方法,主要涉及废钢的分类识别。包括以下步骤:步骤1:废钢分类识别数据采集,通过摄像头来获取待检图像;步骤2:数据预处理、标注与数据集划分,将待检图像或视频流形成资源送入模型进行检测识别;发明的有益效果在于:选择YOLOv5模型来完成废钢分类识别任务,训练与检测速度快,模型参数量小,具有极强的快速部署优势;引入语义分割头用于钢渣类与散装废钢类检测难问题;增加针对生铁类小目标的anchor与检测层;针对重叠目标漏检问题,将后处理过程中的非极大值抑制NMS方法改为软化非极大值抑制Soft‑NMS方法;引入阿尔法IoU,避免了真实框与预测框重叠时出现梯度消失现象。

Description

基于YOLOv5网络的废钢分类识别方法
技术领域
本发明设计废钢的分类识别领域,具体是基于YOLOv5网络的废钢分类识别模型研究与应用。
背景技术
废钢的分类识别方法主要分为人工分类,物理特性分类与智能说明书附图图像分类三种,使用智能说明书附图图像分类方法大致有两个方向,基于传感器与光谱的检测方法与基于深度学习的目标检测方法。前者存在着不规则尺寸形状废钢与有色金属识别效果不佳,且计算成本较大等缺点。目前,基于深度学习的目标检测方法发展已经较为成熟,并且已经有大量的算法落地工业应用。
在目前钢铁生产过程中,为了降低成本、提高冶炼效率,通常回收废旧钢铁进行回炉熔化再利用。由于废钢使用量大,多料型掺杂混装,且时常发生废钢掺假等现象,为保证产品质量、提升钢铁产量,需要对废钢进行高精度判级分类。传统废钢判级受人为主观因素影响比较大,对人员要求比较高,一般要求熟悉标准,并有丰富经验才能判断;且每个人判断存在差异,因疲劳、心情等可能会影响评价结果,没有量化的评价结论,无法形成很好的数据分析,不易让供应商信服。同时废钢定级作业环境较为恶劣,质检员每次需要攀高四五米到大货车车顶,对车内废钢进行近距离观察,劳动强度大,作业风险高。如何解决传统废钢判级存在的诸多问题,实现符合新工业革命要求的智能化废钢判级是钢铁企业关注的重点。
在深度学习迅猛发展的背景下,已经出现了一些基于深度学习的废钢智能判级算法,但小型废钢由于其体积小、可利用的特征有限、容易被其他废钢遮挡等特点,这使其智能检测较为困难,会出现判级准确率不高、误差大的问题;鉴于此,我们提出了一种基于小目标数据增强和多视角协同推理的废钢分类方法。
针对废钢分类识别任务,提出设计一种基于YOLOv5的废钢分类识别定级***,用以解决在光学条件下废钢种类识别问题,针对特定废钢种类材质、边缘与尺寸规则极不规则问题,增加分割头用以辅助识别目标物。实现使用光学说明书附图图像对废钢种类的分类识别。
发明内容
针对现有技术的不足,本发明提供了一种基于YOLOv5网络的废钢分类识别模型研究与应用,解决了上述背景技术提到的质检员每次需要攀高四五米到大货车车顶,对车内废钢进行近距离观察,劳动强度大,作业风险高等问题。
基于YOLOv5网络的废钢分类识别模型研究与应用包括以下步骤:
步骤1:废钢分类识别数据采集,通过摄像头来获取待检图像;
步骤2:数据预处理、标注与数据集划分,将待检图像或视频流形成资源送入模型进行检测识别;
步骤3:基于YOLOv5的废钢分类识别网络模型的搭建与训练,将数据样本随机划分为训练集、验证集和测试集图像,对图像中的残余饵料进行标注,计算标注后图像的缩放比例并对其进行边缘填充;
步骤4:建立一种基于YOLOv5的网络模型用于废钢分类识别,并对算法针对性改进和理论分析,采用mosaic方式对步骤3标注的图像进行数据增强;
步骤5:将步骤4数据增强的训练集图像输入至YOLOv5网络模型,并利用验证集调整训练超参数;获取最优超参数后,对YOLOv5网络模型进行迭代,直到确定最优YOLOv5网络模型;
步骤6:将测试集输入最优YOLOv5网络模型,输出废钢分类识别识别结果。
废钢的分类识别方法主要分为人工分类,物理特性分类与智能说明书附图图像分类三种,使用智能说明书附图图像分类方法大致有两个方向,基于传感器与光谱的检测方法与基于深度学习的目标检测方法。前者存在着不规则尺寸形状废钢与有色金属识别效果不佳,且计算成本较大等缺点。目前,基于深度学习的目标检测方法发展已经较为成熟,并且已经有大量的算法落地工业应用。
针对废钢分类识别任务,提出设计一种基于YOLOv5的废钢分类识别定级***,用以解决在光学条件下废钢种类识别问题,针对特定废钢种类材质、边缘与尺寸规则极不规则问题,增加分割头用以辅助识别目标物。实现使用光学说明书附图图像对废钢种类的分类识别。
附图说明
附图1是发明的技术路线示意图。
附图2是本发明废钢分类识别的一般步骤。
附图3是发明YOLOv5模型结构。
附图4是本发明废钢四类图片。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
基于YOLOv5网络的废钢分类识别模型研究与应用
废钢的分类识别方法主要分为人工分类,物理特性分类与智能说明书附图图像分类三种,使用智能说明书附图图像分类方法大致有两个方向,基于传感器与光谱的检测方法与基于深度学习的目标检测方法。前者存在着不规则尺寸形状废钢与有色金属识别效果不佳,且计算成本较大等缺点。目前,基于深度学习的目标检测方法发展已经较为成熟,并且已经有大量的算法落地工业应用。
针对废钢分类识别任务,提出设计一种基于YOLOv5的废钢分类识别定级***,用以解决在光学条件下废钢种类识别问题,针对特定废钢种类材质、边缘与尺寸规则极不规则问题,增加分割头用以辅助识别目标物。实现使用光学说明书附图图像对废钢种类的分类识别。
1.技术路线如说明书附图图1所示:
(1)数据采集
(2)数据预处理、标注与数据集划分
(3)基于YOLOv5的废钢分类识别网络模型的搭建与训练
(4)根据训练结果进行分析,对建立的模型进行评估
2.技术措施和研究方法如说明书附图图2所示:
(1)废钢分类识别一般步骤
废钢分类识别的一般步骤如说明书附图图2所示;废钢的识别检测通过摄像头来获取待检说明书附图图像;检测方式分两种,单张说明书附图图像检测与视频流检测;将待检说明书附图图像或视频流形成资源送入模型进行检测识别;将检测结果输出保存并展示检测结果。
(2)基于改进YOLOv5的废钢分类识别算法
深度学习中的目标检测方法目前有两种,一阶段(one-stage)方法与两阶段(two-stage)方法。双阶段目标检测器采用了两段结构采样来处理类别不均衡的问题,RPN(RegionProposal Network)网络来使正负样本更加均衡,使用了两阶段级联的方式来拟合bbox,先粗回归,再精调。两阶段代表算法为RCNN、Fast RCNN、Faster RCNN和SSD等。一阶段算法直接对输入说明书附图图像应用算法并输出类别和相应的定位,一阶段代表算法为YOLO系列算法,YOLO是You only look once的首字母缩写,是一种将说明书附图图像划分为网格***的对象检测算法。网格中的每个单元格负责检测自身内部的对象,若某个物体的中心位置的坐标落入到某个网格中,则此网格就负责检测出这个物体。YOLO将说明书附图图像的检测作为一个回归问题进行求解,输入说明书附图图像经过一次推理,便能得到说明书附图图像中所有物体的位置和其所属类别及相应的置信概率。
YOLOv5是YOLO系列最新算法,YOLOv5网络模型的精度稍逊于YOLOv4网络模型,但YOLOv5的灵活性与速度远强于YOLOv4网络模型。YOLOv5算法有s、m、l与x四个结构,各模型通过模型配置文件的两个超参数来完成选择控制,且YOLOv5网络模型的最小权重文件体积在15M内,小体积使得网络模型的部署具有极强优势,更适合各种平台环境上部署,包括移动端设备。
YOLOv5模型结构如下说明书附图图3所示,其模型结构为三部分组成,Backbone主干网络、Neck颈部网络和Head检测头组成。主干网络负责完成在不同说明书附图图像细粒度上聚合并形成说明书附图图像特征的卷积神经网络;颈部网络完成一系列混合和组合说明书附图图像特征的网络层,并将说明书附图图像特征传递到预测层;检测头部分负责对说明书附图图像特征进行预测分类、定位和生成边界框。
说明书附图图像在输入后会进入Backbone主干网络,先进入Focus结构,后通过Conv与C3结构的堆叠的卷积块,随后进入SPP特征金字塔结构,如此,主干网络便完成对说明书附图图像特征的提取;随后进入Neck结构,Neck中采用了FPN特征金字塔网络与PAN路径聚合网络结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。检测头部由三层检测层组成,不同尺寸的特征说明书附图图用于检测大中小三种尺寸的目标对象。每个检测层输出相应的向量,最后生成原说明书附图图像中目标的预测边界框和类别并进行标记。
实际工况下,光学条件灰暗,在电磁吸盘从吸取到放下过程中需完成识别任务,在此过程中,需保证实时检测,对检测速度有较高的要求。分析目前市面上主流成熟的目标检测算法,结合废钢分类识别任务特性、实际检测识别环境和模型部署条件,选择搭建YOLOv5网络模型来完成废钢实时分类识别任务。
(3)基于PSPNet的说明书附图图像分割头
说明书附图图像分割主要是根据说明书附图图像的某种或几种特征进行区域划分,然后将划分的区域进行特别的标记,例如使用颜色标记区域与背景,使用特殊轨迹分割不同区域等,为后续的说明书附图图像处理提高效率和效果。多年来大量学者研究总结,说明书附图图像中一般存在三种层次的语义信息:低中高,传统的说明书附图图像分割方法如区域法,主要是利用说明书附图图像中的低级语义,比如颜色、纹理以及形状等。利用低级语义信息对说明书附图图像进行分割只能针对简单说明书附图图像,复杂说明书附图图像的分割便需要结合说明书附图图像的中、高级语义来提高分割效果,其中一种思路是直接以说明书附图图像像素或超像素为处理单位,提取说明书附图图像的特征用于语义分割,一般以大量带有像素级标注的说明书附图图像为样本,训练类似神经网络的分类器,如U-Net网络、全卷积神经网络以及R-CNN等。
本文提出在YOLOv5模型Head部分添加说明书附图图像分割头来辅助识别特定的类别目标物。
添加分割头即在YOLOv5模型Head部分接入一个语义分割网络,分割网络选择的是PSPNet,将PSPNet的金字塔池化模块(pyramid pooling module)抽离出并作为模型Head部分一个头结构。PPM结构是一种有层次的全局先验结构,包含不同尺度、不同子区域间的信息,可在深层神经网络的最终层特征说明书附图图上构造全局场景先验信息。PPM模块融合4种不同金字塔尺度的特征,第一层是最粗糙的特征,为全局池化生成单个bin输出,后三层是不同尺度的池化特征。为了保证全局特征的权重,在每个级别后使用1×1的卷积将通道降为原本的1/N。再通过双线性插值获得未池化前的大小,最终concat到一起。
(四)实施方案所需的条件(技术条件,试验条件)
1.技术条件
(1)需要熟悉Pytorch深度学习框架;
(2)需要掌握Python3等语言;
(3)需要熟悉机器学习和神经网络的常用算法,尝试融入到自己网络模型中以提高模型准确率;
(4)需要熟悉当前主流的几种目标检测网络模型,做适当的优化与改进。
2.实验条件
(1)自建数据集,使用摄像头进行采集。数据集使用labelImg软件进行标注。数据集包括四个类别数据,如说明书附图图4所示,分别是生铁、普通包装、大块钢渣与普通散装废钢。
(2)Windows 10***,Nvidia 2070-MQ说明书附图图像显卡,Python3编译环境,Pytorch深度学习框架。
(1)废钢四类中的生铁与打包块,轮廓清晰,色彩明亮,模型训练时能很好的学习到这两类的说明书附图图像特征且能较好的识别出来,有较高的准确度,但对于大块钢渣与普通散装废钢,此两类废钢外貌极不规则,且其有不同的尺寸、形状与颜色,对于此两类的识别较为困难。如何对学习到废钢四类中大块钢渣与普通散装废钢的说明书附图图像特征并完成识别;
(2)对废钢四类中的生铁检测,由于目标特性,生铁的检测类似于小目标的检测,识别精度不高;
(3)后处理过程中使用NMS算法来清除在检测说明书附图图像检测后目标冗余边界框方法,此做法过于粗暴,说明书附图图像中两目标重叠时,置信度较低的框会因重叠面积较大被删掉,导致检测失败并降低了模型的平均检测率;
(4)当预测框与真实框重叠时,IoU损失会造成梯度消失的现象,导致收敛速度变慢,检测正确率下降。
解决的技术关键
(1)增加一个说明书附图图像分割头部,并针对废钢中大块钢渣与普通散装废钢进行说明书附图图像分割的训练,通过检测与分割两种方法完成对此两类的识别;
(2)对anchor、与检测头结构进行调整与改进以满足生铁类说明书附图图像检测要求;
(3)将后处理中的NMS算法改为Soft-NMS算法,原有会被删除的边界框会被赋予一个更小置信度,而不是被直接的删除;
(4)在现有的IoU损失基础上引入阿尔法IoU函数,阿尔法IoU有助于提高high IoU目标损失和回归精度。
根据现有的文献及资料可知,对于废钢分类使用基于传感器与光谱的方法较使用光学目标检测的成本更高,使用深度学习目标检测的方法更有优越性,使用废钢的光学说明书附图图像进行目标识别更是一个值得研究的问题。针对各种类废钢的说明书附图图像特性、部署与检测速度需求,建立YOLOv5模型来完成对废钢的识别是可行的。
研究生学习期间,阅读了大量与课题相关的理论知识和文献,对目标检测等深度学习算法进行了深入研究,Python编程经验丰富,前期已对课题相关技术开展了系列实验,已掌握课题研究相关技术。
选择YOLOv5模型来完成废钢分类识别任务,训练与检测速度快,模型参数量小,具有极强的快速部署优势;
引入语义分割头用于钢渣类与散装废钢类检测难问题;
增加针对生铁类小目标的anchor与检测层;
针对重叠目标漏检问题,将后处理过程中的非极大值抑制NMS方法改为软化非极大值抑制Soft-NMS方法;
引入阿尔法IoU,避免了真实框与预测框重叠时出现梯度消失现象。

Claims (7)

1.一种基于YOLOv5网络的废钢分类识别方法,其特征在于,包括以下步骤:
步骤1:废钢分类识别数据采集,通过摄像头来获取待检图像;
步骤2:数据预处理、标注与数据集划分,将待检图像或视频流形成资源送入模型进行检测识别;
步骤3:基于YOLOv5的废钢分类识别网络模型的搭建与训练,将数据样本随机划分为训练集、验证集和测试集图像,对图像中的残余饵料进行标注,计算标注后图像的缩放比例并对其进行边缘填充;
步骤4:建立一种基于YOLOv5的网络模型用于废钢分类识别,并对算法针对性改进和理论分析,采用mosaic方式对步骤3标注的图像进行数据增强;
步骤5:将步骤4数据增强的训练集图像输入至YOLOv5网络模型,并利用验证集调整训练超参数;获取最优超参数后,对YOLOv5网络模型进行迭代,直到确定最优YOLOv5网络模型;
步骤6:将测试集输入最优YOLOv5网络模型,输出废钢分类识别识别结果。
2.据权利要求1所述一种基于YOLOv5网络的废钢分类识别方法,其特征在于:所述步骤3中的训练集、验证集和测试集的比例为3:2:1。
3.据权利要求2所述一种基于YOLOv5网络的废钢分类识别方法,其特征在于:所述步骤5中确定最优YOLOv5网络模型的标准为模型最终收敛时识别准确率高于95%。
4.据权利要求1或3所述一种基于YOLOv5网络的废钢分类识别方法,其特征在于:所述YOLOv5网络模型包括输入端、Backbone部分、Neck部分和Prediction部分。
5.根据权利要求1所述基于YOLOv5网络的废钢分类识别方法,其特征在于:所述步骤5中YOLOv5网络模型的工作模式为:
在输入端将数据增强后的图像输入Backbone部分,先经过Focus结构,采用切片操作,得到没有信息丢失的下采样后的特征图,再使用CBL、CSP1-X模块和CSP2-X模块对特征图进行特征提取,在Backbone部分中经过五次下采样,生成五类不同大小的特征层,将其中四类特征层分别输入Neck部分,与经过上、下采样的四个对应大小的特征层进行张量拼接,得到四类特征层;Prediction部分根据四类特征层对图像特征进行预测,采用DIoU_NMS方法筛选掉超过阈值的边界框,进而得出预测框;采用CIoU损失函数计算目标函数损失值,将损失值反向传播,更新YOLOv5的权重,调整预测框的位置。
6.根据权利要求5所述基于YOLOv5网络的废钢分类识别方法:其特征在于,所述DIoU_NMS方法的计算公式如下:
Figure FDA0004097747580000021
5"width="527"/>
RDIoU是两个框中心点之间的距离;M是当前计算得到的最大得分预测框;Bi是不同的预测框;si是预测框内部目标分类得分;route_2是预测框与真实框两个中心点的欧氏距离;route_C是预测框与真实框的最小外接矩形的对角线距离;ε是设定的NMS阈值。
7.根据权利要求5所述基于YOLOv5网络的废钢分类识别方法,其特征在于,所述CIoU损失函数的计算公式如下:
Figure FDA0004097747580000022
Figure FDA0004097747580000031
5"width="471"/>
式中,route_2为预测框与真实框两个中心点的中心距离,route_C为预测框与真实框的最小外接矩形的对角线距离,wgt为真实框的宽,hgt为真实框的高,wp为预测框的宽,hp为预测框的高;α和v是对长宽比的惩罚项,其中,α是用于平衡比例的参数且是一个正数,v用来测量长宽比的一致性问题。
CN202310170325.3A 2023-02-27 2023-02-27 基于YOLOv5网络的废钢分类识别方法 Pending CN116206155A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310170325.3A CN116206155A (zh) 2023-02-27 2023-02-27 基于YOLOv5网络的废钢分类识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310170325.3A CN116206155A (zh) 2023-02-27 2023-02-27 基于YOLOv5网络的废钢分类识别方法

Publications (1)

Publication Number Publication Date
CN116206155A true CN116206155A (zh) 2023-06-02

Family

ID=86515647

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310170325.3A Pending CN116206155A (zh) 2023-02-27 2023-02-27 基于YOLOv5网络的废钢分类识别方法

Country Status (1)

Country Link
CN (1) CN116206155A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117437459A (zh) * 2023-10-08 2024-01-23 昆山市第一人民医院 基于决策网络实现用户膝关节髌骨软化状态分析方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117437459A (zh) * 2023-10-08 2024-01-23 昆山市第一人民医院 基于决策网络实现用户膝关节髌骨软化状态分析方法
CN117437459B (zh) * 2023-10-08 2024-03-22 昆山市第一人民医院 基于决策网络实现用户膝关节髌骨软化状态分析方法

Similar Documents

Publication Publication Date Title
CN105260749B (zh) 基于方向梯度二值模式和软级联svm的实时目标检测方法
CN103886308B (zh) 一种使用聚合通道特征和软级联分类器的行人检测方法
CN109255350B (zh) 一种基于视频监控的新能源车牌检测方法
CN108509954A (zh) 一种实时交通场景的多车牌动态识别方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN109858367B (zh) 工人通过支撑不安全行为的视觉自动化检测方法及***
CN109753949B (zh) 一种基于深度学习的多视窗交通标志检测方法
CN112560675B (zh) Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法
CN106096542A (zh) 基于距离预测信息的图像视频场景识别方法
CN113642474A (zh) 一种基于yolov5的危险区域人员监控方法
CN112967255A (zh) 一种基于深度学习的盾构管片缺陷类型识别及定位***及其方法
CN110263692A (zh) 大场景下集装箱开关门状态识别方法
Xing et al. Traffic sign recognition using guided image filtering
CN104954741A (zh) 深层次自我学习网络实现矿车空满状态的检测方法和***
CN111738336A (zh) 基于多尺度特征融合的图像检测方法
CN106778540A (zh) 停车检测准确的基于双层背景的停车事件检测方法
CN114359245A (zh) 一种工业场景下产品表面缺陷检测方法
CN116206155A (zh) 基于YOLOv5网络的废钢分类识别方法
CN113807347A (zh) 一种基于目标检测技术的厨余垃圾杂质识别方法
CN111815616A (zh) 一种基于深度学习的x光安检图像中危险品检测方法
CN116385758A (zh) 基于YOLOv5网络对传送带表面损伤的检测方法
CN114419006A (zh) 一种随背景变化的灰度视频文字类水印去除方法及***
CN110188607A (zh) 一种多线程并行计算的交通视频目标检测方法及装置
CN112001336A (zh) 行人越界报警方法、装置、设备及***
CN110889418A (zh) 一种气体轮廓识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination