CN115830533A - 基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法 - Google Patents

基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法 Download PDF

Info

Publication number
CN115830533A
CN115830533A CN202211496907.2A CN202211496907A CN115830533A CN 115830533 A CN115830533 A CN 115830533A CN 202211496907 A CN202211496907 A CN 202211496907A CN 115830533 A CN115830533 A CN 115830533A
Authority
CN
China
Prior art keywords
algorithm
safety helmet
network
yolov5
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211496907.2A
Other languages
English (en)
Inventor
陈冬梅
赵环宇
蔡萍萍
冯翔翊
张楚
刘伟
郭浩宇
华尚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaiyin Institute of Technology
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN202211496907.2A priority Critical patent/CN115830533A/zh
Publication of CN115830533A publication Critical patent/CN115830533A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLOv5算法的安全帽佩戴检测方法,该方法融合了K‑means聚类算法与YOLOv5单阶段目标检测算法,包括以下步骤:首先收集安全帽图像样本制作原始数据集,然后对原始数据集的图像进行预处理,筛选出有效样本并标注标签,取自制数据集中的80%样本作为训练集。对经典的YOLOv5模型进行改进,利用Mosaic对输入端进行数据增强,使用CSPDarknet53作为主干网络,利用K‑means聚类算法进行优化,并使用训练集样本训练该安全帽检测网络模型。将测试集输入到改进后的检测网络,进行检测。与现有技术相比,本发明通过上述改进能够有效的提高对安全帽佩戴检测的精度与效率,降低人力成本的同时有效保障工作人员生产安全。

Description

基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法
技术领域
本发明属于计算机视觉目标检测领域,尤其涉及一种基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法。
背景技术
化工、冶金、矿山、电力以及建筑等行业是国家工业发展的基础,同时也是国民经济与民生经济的重要支撑。目前,这些高危产业依然需要大量劳动力在生产现场或施工现场作业。这些作业现场环境复杂、危险因素众多,规范佩戴安全帽可以对作业人员头部进行有效保护,有效降低高空坠物或者施工现场坍塌对头部造成的危害。安全帽作为一种重要防护设备,对安全生产极其重要。因此,对生产现场或者施工现场作业人员的安全帽佩戴的监管也越来越被重视。
早期安全帽的检测往往依赖于人工,监管人员对现场巡查或者监控盯审,耗时耗力且效力较低。随着人工智能的发展与成熟,深度学习也被广泛应用于计算机视觉领域。与卷积神经网络的融合,为目标检测技术开启了新的天地。目前主流的目标检测算法有两类:一类是以R-CNN为典型的两阶段的算法,一类是以 YOLO、SSD为代表单阶段算法。单阶段目标检测算法的优点是速度较快,其中 YOLO算法有出色的表现。目前YOLOv5能同时兼顾速度与精度,检测效果极好。本文将K-means聚类算法与YOLOv5算法结合,进一步的提升目标检测的精度。
将人工智能与传统产业深度融合,助力传统产业转型升级,有助于推动主导产业高端化、智能化的升级。本文将计算机视觉领域的YOLO算法与传统产业的安全帽检测相结合,具有重要的实际意义。
发明内容
发明目的:针对背景技术中指出的问题,本发明提供一种基于改进YOLOv5 算法的安全帽佩戴检测方法,降低安全帽检测的人力成本、提高安全帽检测的效率,借助人工智能科技减少传统行业的施工安全隐患。
技术方案:本发明公开一种基于改进YOLOv5算法的安全帽佩戴检测方法,包括如下步骤:
步骤1:收集大量安全帽的图片作为原始样本数据集,使用LabelImg标注工具对目标图片进行标注,随机选取80%的数据集图片作为训练集,其余作为测试集;
步骤2:搭建YOLOv5网络,所述YOLOv5网络利用Mosaic对输入端进行数据增强,使用CSPDarknet53作为主干网络,利用K-means聚类算法进行优化,使用训练集样本训练该安全帽检测网络模型;
步骤3:保存步骤2中训练好的模型参数文件,并更新安全帽检测网络模型;
步骤4:将测试集样本输入步骤3中得到的安全帽检测网络模型进行检测。
进一步地,所述步骤1中具体包括如下步骤:
步骤1.1:基于SHWD数据集,利用网络爬虫工具获取有关于施工现场安全帽相关的图像,以及对建筑工地、化工厂监控录像中截取的有效样本的视频帧,制作出丰富多样而具有代表性的图片数据集;
步骤1.2:使用LabelImg的目标检测标注工具对数据集图片进行标注,标注的类包括安全帽和人两类;其中,安全帽标注区域包括脖子以上的头部及安全帽;标注完成后,形成xml格式的标签文件,与图像一起构成voc 格式的数据集;
步骤1.3:将标签文件由voc格式(xml文件)转为YOLO数据集标签文件格式,并以8:2的比例将数据集随机划分训练集和测试集。
进一步地,所述步骤2中YOLOv5网络包括Input输入端、Backbone主干网络、Neck网络和Head输出端,利用Mosaic对Input输入端进行数据增强, Mosaic数据增强采用了4张图片,随机缩放、随机裁剪、随机排布的方式进行拼接,使用CSPDarknet53作为Backbone主干网络,在Backbone主干网络中采用Mish激活函数,网络后面依然采用Leaky_relu激活函数;利用 K-means聚类算法对训练集样本的groundtruth参数进行迭代,得到最优的尺寸参数,将之设定为anchor box预测框的尺寸。
进一步地,所述CSPDarknet53包括5个CSP模块,通过dense block发送副本到下一个阶段,从而将基础层的特征映射图分离出来;每个CSP模块前面的卷积核大小是3*3,stride=2。
进一步地,利用K-means聚类算法对训练集样本的groundtruth参数进行迭代,得到最优的尺寸参数具体为:
利用K-means算法对预选框进行聚类时,计算IoU交并比距离,使用K-means 算法聚类训练集中所有目标框的宽、高,得到9个宽、高组合,也即得到9个anchor 预测框的数值,采用向上取整,作为最终anchor的参数。
进一步地,在目标检测的后处理过程中采用加权CIoU-NMS的方式进行多目标的筛选,具体包括:
1)计算anchor和groundtruth之间权重函数α、相似性u以及IoU:
IoU值的计算公式如下:
Figure BDA0003964923020000031
其中:b为anchor box,bgt为groundtruth;
权重函数α的计算公式如下:
Figure BDA0003964923020000032
长宽比一致性参数相似性v的计算公式如下:
Figure BDA0003964923020000033
2)计算惩罚项
Figure BDA0003964923020000034
3)再根据CIoU值的对数损失构建损失函数,损失函数的计算公式如下:
Figure BDA0003964923020000035
4)设置CIoU阈值为0.65,判断是否大于CIoU阈值,如果大于CIoU阈值则继续判断两个边框的标签是否相同;
5)当2个条件满足且同时成立,然后加权计算边框值,按照正确边框的置信度重新加权连成一个张量,其中置信度的阈值为0.001,最终得到最后的边框,最后去除无效的边框。
进一步地,所述步骤3中具体包括如下步骤:
(3-1)依据步骤2中优化方案修改配置文件YOLOv5s.yml,并将tran.py文件中训练迭代次数epochs修改为200,将自制数据集输入到改进后的YOLOv5网络模型中,开始训练;
(3-2)将上述网络训练结果中的最优权重参数文件best.pt保存,将best.pt设置为改进后的YOLOv5网络模型的权重文件。
有益效果:
(1)相较于现有技术,本发明YOLOv5算法中采用CSPDarknet53作为基础网络,可以有效提升模型的特征提取力。
(2)本发明利用Mosaic对输入端进行数据增强,可以提高网络精度。
(3)本发明融合K-means聚类算法与YOLOv5算法的安全帽佩戴检测网络模型,既提高了目标检测的准确率,又提升了模型的推理速度。
(4)本发明采用加权CIoU-NMS的方式进行多目标的筛选,改善密集目标漏检、小目标误检等问题,提高识别准确度和效率。
(5)本发明将深度学习计算机视觉技术引入传统工业领域,智能识别工业、建筑行业等复杂作业现场中作业人员是否未戴安全帽。在为安全生产、安全施工提供保障的同时,降低产业人力物力成本,推动传统产业智能化。
附图说明
图1为本发明基于改进YOLOv5算法的安全帽佩戴检测方法流程示意图;
图2为YOLOv5网络结构示意图;
图3为Mosaic图像增强技术示意图。
具体实施方式
为了便于理解本发明,下面将结合相关附图对本发明的目的、技术方案与实施进行更清晰而详细的进一步说明。下面描述的实施方式仅是本发明的实施方式之一,本发明可以有许多不同的方式来实现,并不局限于本文所述方式。
如图1所示,本发明提供一种基于改进YOLOv5算法的安全帽佩戴检测方法,包括以下步骤:
(1)安全帽数据集搜集
安全帽的图像采集方案如下:①下载SHWD公开数据集;②利用python 的爬虫工具包对网络图片进行检索,下载目标样本;③利用python将施工现场的监控录像的视频帧进行截取,增加样本。这个步骤主要是为了丰富数据集,复杂多样的数据集更有利于训练出泛化能力强、精确度高的模型。
(2)图像数据预处理
原始数据集的处理包括:①筛选,剔除原始数据集中一些相关性不大的样本,比如空无一人的教室、工地等;②尺寸调整,对原始数据集中尺寸过大的进行压缩裁剪、对尺寸较小的适当进行无损放大;③使用LabelImg 的目标检测标注工具,对自制数据集中的样本图片进行标注,标注的类包括安全帽(hat)和人(person)两类,标注完成后,形成xml格式的标签文件。
(3)制作训练集与测试集
制作训练集与测试集之前,需要先将xml格式的标签文件转为txt格式的 YOLO数据集标签文件。然后根据项目需求,按照一定比例将数据集随机划分训练集和测试集。本文采取以8:2的比例,将80%数据集样本作为训练集数据。
(4)训练改进后的YOLOv5检测模型:
(4-1)如图2所示,YOLOv5算法模型主要包括Input输入端、Backbone 主干网络、Neck网络和Head输出端。如图3所示,Mosaic数据增强采用了4 张图片,随机缩放、随机裁剪、随机排布的方式进行拼接。利用Mosaic对输入端样本进行数据增强,丰富数据集,提升模型的训练速度和检测的精度。
(4-2)区别于YOLOv3,YOLOv5使用CSPDarknet53作为Backbone,其中包含了5个CSP模块,通过dense block发送副本到下一个阶段,从而将基础层的特征映射图分离出来,从输入图像中提取丰富的信息特征。每个CSP模块前面的卷积核大小都是3*3,stride=2,因此可以起到下采样的作用。因为Backbone有5个CSP模块,输入图象是608*608,所以特征图变化的规律是:608-->304-->152-->76-->38-->19。经过5次CSP模块后得到19*19 大小的特征图。而且只有Backbone中采用了Mish激活函数,网络后面依然采用了Leaky_relu激活函数。减少参数量,减小了模型规模,进而降低内存成本,同时又可以提升模型的推理速度和准确率。
(4-3)利用K-means聚类算法对训练集样本的groundtruth参数进行迭代,得到最优的尺寸参数,将之设定为anchor box预测框的尺寸。①经典的K-means算法计算的样本距离是欧式距离,而利用K-means算法对预选框进行聚类时,需要计算IoU距离。IoU就是我们所说的交并比,是目标检测中最常用的指标,如图2所示。②YOLOv5使用K-means算法聚类训练集中所有目标框的宽、高,结果得到9 个宽、高组合,也即得到9个anchor预测框的数值。这些anchor预测框的数值有可能并非整数,故而在这一步需要取整。本发明中采用的是向上取整,作为最终 anchor的参数。③将取整后的anchor的参数,写入配置文件YOLOv5s.yml中。
(4-4)在目标检测的后处理过程中采用加权CIoU-NMS的方式进行多目标的筛选,改善密集目标漏检、小目标误检等问题,提高识别准确度和效率。
①计算anchor和groundtruth之间权重函数α、相似性v以及IoU;
进一步所述IoU值的计算公式如下:
Figure BDA0003964923020000061
其中:b为anchor box,bgt为groundtruth。
进一步所述权重函数α的计算公式如下:
Figure BDA0003964923020000062
进一步所述长宽比一致性参数u的计算公式如下:
Figure BDA0003964923020000063
②计算惩罚项
Figure BDA0003964923020000064
③再根据CIoU值的对数损失构建损失函数,损失函数的计算公式如下:
Figure BDA0003964923020000065
其中:b为anchor box,bgt为groundtruth。
④设置CIoU阈值为0.65,判断是否大于CIoU阈值,如果大于CIoU阈值则继续判断两个边框的标签是否相同。
⑤当2个条件满足且同时成立,然后加权计算边框值,按照正确边框的置信度重新加权连成一个张量(Tensor),其中置信度的阈值为0.001,最终得到最后的边框,最后去除无效的边框。
(5)保存参数文件与模型训练
①将步骤(4)中优化改进的设置写进YOLOv5s.yml中,并将tran.py文件中训练迭代次数epochs修改为200,将自制数据集输入到改进后的YOLOv5网络模型中,开始训练。
②保存上一步骤中训练好的模型参数文件,并更新detect.py中的权重文件。本发明中采用训练后的best.pt作为安全帽佩戴检测网络的权重文件更新安全帽检测网络模型,此处也可采用last.pt作为检测网络的权重文件。
(6)测试改进后的检测网络
将步骤(2)中准备好的测试集样本输入步骤(5)中得到的基于K-means 聚类改进YOLOv5算法的安全帽佩戴检测网络模型中,进行安全帽特征识别提取,判断样本中工作人员是否佩戴安全帽。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。

Claims (7)

1.一种基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,包括如下步骤:
步骤1:收集大量安全帽的图片作为原始样本数据集,使用LabelImg标注工具对目标图片进行标注,随机选取80%的数据集图片作为训练集,其余作为测试集;
步骤2:搭建YOLOv5网络,所述YOLOv5网络利用Mosaic对输入端进行数据增强,使用CSPDarknet53作为主干网络,利用K-means聚类算法进行优化,使用训练集样本训练该安全帽检测网络模型;
步骤3:保存步骤2中训练好的模型参数文件,并更新安全帽检测网络模型;
步骤4:将测试集样本输入步骤3中得到的安全帽检测网络模型进行检测。
2.根据权利要求1所述的基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,所述步骤1中具体包括如下步骤:
步骤1.1:基于SHWD数据集,利用网络爬虫工具获取有关于施工现场安全帽相关的图像,以及对建筑工地、化工厂监控录像中截取的有效样本的视频帧,制作出丰富多样而具有代表性的图片数据集;
步骤1.2:使用LabelImg的目标检测标注工具对数据集图片进行标注,标注的类包括安全帽和人两类;其中,安全帽标注区域包括脖子以上的头部及安全帽;标注完成后,形成xml格式的标签文件,与图像一起构成voc格式的数据集;
步骤1.3:将标签文件由voc格式(xml文件)转为YOLO数据集标签文件格式,并以8:2的比例将数据集随机划分训练集和测试集。
3.根据权利要求1所述的基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,所述步骤2中YOLOv5网络包括Input输入端、Backbone主干网络、Neck网络和Head输出端,利用Mosaic对Input输入端进行数据增强,Mosaic数据增强采用了4张图片,随机缩放、随机裁剪、随机排布的方式进行拼接,使用CSPDarknet53作为Backbone主干网络,在Backbone主干网络中采用Mish激活函数,网络后面依然采用Leaky_relu激活函数;利用K-means聚类算法对训练集样本的groundtruth参数进行迭代,得到最优的尺寸参数,将之设定为anchor box预测框的尺寸。
4.根据权利要求3所述的基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,所述CSPDarknet53包括5个CSP模块,通过dense block发送副本到下一个阶段,从而将基础层的特征映射图分离出来;每个CSP模块前面的卷积核大小是3*3,stride=2。
5.根据权利要求3所述的基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,利用K-means聚类算法对训练集样本的groundtruth参数进行迭代,得到最优的尺寸参数具体为:
利用K-means算法对预选框进行聚类时,计算IoU交并比距离,使用K-means算法聚类训练集中所有目标框的宽、高,得到9个宽、高组合,也即得到9个anchor预测框的数值,采用向上取整,作为最终anchor的参数。
6.根据权利要求5所述的基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,在目标检测的后处理过程中采用加权CIoU-NMS的方式进行多目标的筛选,具体包括:
1)计算anchor和groundtruth之间权重函数α、相似性u以及IoU:
IoU值的计算公式如下:
Figure FDA0003964923010000021
其中:b为anchor box,bgt为groundtruth;
权重函数α的计算公式如下:
Figure FDA0003964923010000022
长宽比一致性参数相似性u的计算公式如下:
Figure FDA0003964923010000023
2)计算惩罚项
Figure FDA0003964923010000024
3)再根据CIoU值的对数损失构建损失函数,损失函数的计算公式如下:
Figure FDA0003964923010000025
4)设置CIoU阈值为0.65,判断是否大于CIoU阈值,如果大于CIoU阈值则继续判断两个边框的标签是否相同;
5)当2个条件满足且同时成立,然后加权计算边框值,按照正确边框的置信度重新加权连成一个张量,其中置信度的阈值为0.001,最终得到最后的边框,最后去除无效的边框。
7.根据权利要求1所述的基于改进YOLOv5算法的安全帽佩戴检测方法,其特征在于,所述步骤3中具体包括如下步骤:
(3-1)依据步骤2中优化方案修改配置文件YOLOv5s.yml,并将tran.py文件中训练迭代次数epochs修改为200,将自制数据集输入到改进后的YOLOv5网络模型中,开始训练;
(3-2)将上述网络训练结果中的最优权重参数文件best.pt保存,将best.pt设置为改进后的YOLOv5网络模型的权重文件。
CN202211496907.2A 2022-11-25 2022-11-25 基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法 Pending CN115830533A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211496907.2A CN115830533A (zh) 2022-11-25 2022-11-25 基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211496907.2A CN115830533A (zh) 2022-11-25 2022-11-25 基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法

Publications (1)

Publication Number Publication Date
CN115830533A true CN115830533A (zh) 2023-03-21

Family

ID=85531919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211496907.2A Pending CN115830533A (zh) 2022-11-25 2022-11-25 基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法

Country Status (1)

Country Link
CN (1) CN115830533A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342596A (zh) * 2023-05-29 2023-06-27 云南电网有限责任公司 一种基于YOLOv5改进的变电站设备螺母缺陷识别检测方法
CN117636266A (zh) * 2024-01-25 2024-03-01 华东交通大学 一种工人安全行为检测方法、***、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100495A (zh) * 2022-07-08 2022-09-23 福州大学 基于子特征融合的轻量化安全帽检测方法
CN115205604A (zh) * 2022-08-11 2022-10-18 淮阴工学院 基于改进YOLOv5的化工生产过程中安全防护品佩戴检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100495A (zh) * 2022-07-08 2022-09-23 福州大学 基于子特征融合的轻量化安全帽检测方法
CN115205604A (zh) * 2022-08-11 2022-10-18 淮阴工学院 基于改进YOLOv5的化工生产过程中安全防护品佩戴检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ROMAN SOLOVYEV等: "Weighted boxes fusion: Ensembling boxes from different object detection models", 《ARXIV:1910.13302V3[CS.CV]》, pages 26 - 29 *
SDFF: "基于libtorch的yolov5目标检测网络实现(3)——Kmeans聚类获取anchor框尺寸", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/435670801》, pages 1 - 8 *
朱晓春等: "基于改进型YOLO v5算法的安全帽佩戴检测", 《南京工程学院学报(自然科学版)》, pages 1 - 5 *
雪山飞狐: "yolov5 结构知识点解析", 《HTTPS://BLOG.CSDN.NET/HUANGLI19870217/ARTICLE/DETAILS/125858250》, pages 1 - 3 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342596A (zh) * 2023-05-29 2023-06-27 云南电网有限责任公司 一种基于YOLOv5改进的变电站设备螺母缺陷识别检测方法
CN116342596B (zh) * 2023-05-29 2023-11-28 云南电网有限责任公司 一种基于YOLOv5改进的变电站设备螺母缺陷识别检测方法
CN117636266A (zh) * 2024-01-25 2024-03-01 华东交通大学 一种工人安全行为检测方法、***、存储介质及电子设备
CN117636266B (zh) * 2024-01-25 2024-05-14 华东交通大学 一种工人安全行为检测方法、***、存储介质及电子设备

Similar Documents

Publication Publication Date Title
CN115830533A (zh) 基于K-means聚类改进YOLOv5算法的安全帽佩戴检测方法
CN110188807A (zh) 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法
CN110119701B (zh) 基于视觉关系检测的煤矿综采工作面不安全行为识别方法
CN106682233A (zh) 一种基于深度学习与局部特征融合的哈希图像检索方法
CN111985325B (zh) 特高压环境评价中的航拍小目标快速识别方法
CN111160481B (zh) 基于深度学习的adas目标检测方法及***
CN113553977A (zh) 一种基于改进yolo v5的安全帽检测方法和***
CN104794726B (zh) 一种水下图像并行分割方法及装置
CN110414431B (zh) 基于弹性上下文关系损失函数的人脸识别方法及***
CN113128476A (zh) 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN116597411A (zh) 极端天气下无人驾驶车辆识别交通标志的方法及***
CN117726991B (zh) 一种高空吊篮安全带检测方法及终端
CN104463091A (zh) 一种基于图像lgbp特征子向量的人脸图像识别方法
CN114241522A (zh) 现场作业安全穿戴识别方法、***、设备及存储介质
CN116704490B (zh) 车牌识别方法、装置和计算机设备
CN110598716A (zh) 一种人员属性识别方法、装置及***
CN110751150A (zh) 一种基于fpga的二值神经网络车牌识别方法及***
CN113743251B (zh) 一种基于弱监督场景的目标搜索方法及装置
CN111783891B (zh) 一种定制化物体检测方法
CN116012571A (zh) 一种融合注意力机制的玉米籽粒破碎率实时检测方法
Wu et al. Design and implementation of safety helmet detection system based on computer vision
CN111144273A (zh) 一种非机动车检测方法
Shan et al. Intelligent Identification of Violation of Rules in Construction Site Based on Artificial Intelligence Image Recognition Technology
Wang et al. Citrus detection application of based on improved yolov3 algorithm
CN115909317B (zh) 一种三维模型-文本联合表达的学习方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination