CN116206255A - 基于机器视觉的危险区域人员监控方法与装置 - Google Patents

基于机器视觉的危险区域人员监控方法与装置 Download PDF

Info

Publication number
CN116206255A
CN116206255A CN202310018050.1A CN202310018050A CN116206255A CN 116206255 A CN116206255 A CN 116206255A CN 202310018050 A CN202310018050 A CN 202310018050A CN 116206255 A CN116206255 A CN 116206255A
Authority
CN
China
Prior art keywords
position information
information
machine vision
target object
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310018050.1A
Other languages
English (en)
Other versions
CN116206255B (zh
Inventor
王渺
黄睿
陈宏�
涂永
李叶茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Finchinasoft Information Technology Co ltd
Original Assignee
Guangzhou Finchinasoft Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Finchinasoft Information Technology Co ltd filed Critical Guangzhou Finchinasoft Information Technology Co ltd
Priority to CN202310018050.1A priority Critical patent/CN116206255B/zh
Publication of CN116206255A publication Critical patent/CN116206255A/zh
Application granted granted Critical
Publication of CN116206255B publication Critical patent/CN116206255B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于机器视觉的危险区域人员监控方法与装置,包括:获取摄像头拍摄到的视频信息;根据视频信息构建目标场景区域模型;在目标场景区域模型中设定管控区域,将管控区域位置信息储存为第一位置信息;抽取多帧图像信息中的关键帧图像并进行预处理操作以得到预处理图像;将预处理图像输入神经网络模型中进行目标对象识别,构建目标对象模型,将目标对象模型的位置信息储存为第二位置信息;将第一位置信息与第二位置信息进行比对,并基于比对结果与警告参数确定是否进行预警操作。本发明的基于机器视觉的危险区域人员监控方法与装置检测范围灵活、覆盖面广,可实现较低成本的大范围部署,识别速度与精准度都有很大提升。

Description

基于机器视觉的危险区域人员监控方法与装置
技术领域
本发明涉及监控技术领域,具体涉及一种基于机器视觉的危险区域人员监控方法与装置。
背景技术
目前木工生产线中使用硬件光电、光幕进行部署作为人员的安全检测信号,对于人体的部分感知不明显,因为光幕的物理结构,对于检测的范围并不灵活,覆盖面不广。如需要大范围部署,光幕成本较高。基于此,人们将监控设备应用于木工生产线中,然而目前市面上多数的监控设备只能检测视频内物体异动,并无法在画面中单独针对人体做精准的定位和识别,无法获得较好的预警控制效果。
发明内容
针对所述缺陷,本发明实施例公开了一种基于机器视觉的危险区域人员监控方法与装置,采用监控方法代替了传统木工生产线中使用硬件光电、光幕进行部署作为人员的安全检测信号,本监控方法检测范围灵活、覆盖面广,可实现较低成本的大范围部署,识别速度与精准度都有很大提升。
本发明实施例第一方面公开了基于机器视觉的危险区域人员监控方法,包括:
获取摄像头拍摄到的视频信息,所述视频信息包括多帧图像信息;根据多帧图像信息构建目标场景区域模型;在目标场景区域模型中设定管控区域,所述管控区域位置信息作为第一位置信息储存;
抽取多帧图像信息中的关键帧图像并进行预处理操作以得到预处理图像;
将所述预处理图像输入到预先构建完成的神经网络模型中进行目标对象识别,得到目标对象位置信息,根据目标对象位置信息构建目标对象模型,将目标对象模型的位置信息作为第二位置信息储存;
将所述第一位置信息与所述第二位置信息进行比对以确定目标对象与管控区域之间的位置关系,并基于所述位置关系与警告参数以确定是否进行预警操作。
作为一种可选的实施方式,在本发明实施例第一方面中,所述摄像头数量至少为两个,一个用来监测横向与纵向位置信息,一个用来监测纵向与高度位置信息,从而确定三维位置信息。
作为一种可选的实施方式,在本发明实施例第一方面中,所述神经网络模型采用Yolov5神经网络模型;在对用户进行身份识别的时候,采用人脸信息或者衣服信息。
作为一种可选的实施方式,在本发明实施例第一方面中,所述预警操作包括警报信息输出、控制指令输出与预警位置信息输出。
作为一种可选的实施方式,在本发明实施例第一方面中,所述控制指令输出包括视频录制指令与设备急停指令;
当检测到目标对象与管控区域之间的位置关系超过设定值时,输出视频录制指令进行录像操作,并将录制的得到的视频信息进行保存;输出设备急停指令控制相应设备停止运行。
作为一种可选的实施方式,在本发明实施例第一方面中,据预警位置信息输出生成防护设施优化方案。
作为一种可选的实施方式,在本发明实施例第一方面中,针对不同身份的人进行目标对象识别,为不同身份的人设置特定区域权限。
本发明实施例第二方面公开基于机器视觉的危险区域人员监控装置,包括:
监控模块,所述监控模块包括部署于目标控制场景处的监控单元,所述监控单元用于获取目标控制场景中的实时画面;
分区模块,所述分区模块用于对目标控制场景进行区域划分,根据区域划分情况生成第一位置信息;
识别模块,所述识别模块用于读取所述监控模块的实时画面,对目标对象进行识别并生成第二位置信息;
比对模块,所述比对模块用于将所述第一位置信息与所述第二位置信息进行比对,并输出比对结果;
输出模块,所述输出模块用于根据所述比对结果与警告参数输出警报信息与设备控制指令。
本发明实施例第三方面公开一种电子设备,包括:存储有可执行程序代码的存储器;与所述存储器耦合的处理器;所述处理器调用所述存储器中存储的所述可执行程序代码,用于执行本发明实施例第一方面公开的基于机器视觉的危险区域人员监控方法。
本发明实施例第四方面公开一种计算机可读存储介质,其存储计算机程序,其中,所述计算机程序使得计算机执行本发明实施例第一方面公开的基于机器视觉的危险区域人员监控方法。
与现有技术相比,本发明实施例具有以下有益效果:
本发明的基于机器视觉的危险区域人员监控方法与装置采用监控方法代替了传统木工生产线中使用硬件光电、光幕进行部署作为人员的安全检测信号,监控***检测范围灵活、覆盖面广,可实现较低成本的大范围部署;Yolov5模型基于Pytorch深度学习框架搭建,主干特征提取网络采用C3结构(残差网络),结合卷积操作对图像进行特征的提取,在训练过程中模型会针对已给出的图片数据集对模型的自身参数进行更新,以便更准确的提取目标特征;本方法采用Yolov5的s尺寸和n6尺寸的系列神经网络模型,其特点是在原有的网络输出层为P3、P4、P5层,分别针对的是不同像素阶段的目标大小的检测,此版的新模型在原有的网络结构上,新增加了P6层以提高高分辨率图像下大目标对象的识别检测精度,增加模型感受野大小;本发明相对于目前市面上大部分的识别应用,识别速度上有很大提升,在640*480*3(3个摄像头源)的图片的输入尺寸下能达到30FPS,在目标完整且在镜头20米范围内的,识别率接近100%。此方法可与设备进行绑定部署,大大减少现场部署软件环境的工作量。因为是独立***环境,可以杜绝因生产环境崩溃导致的识别***崩溃的问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的基于机器视觉的危险区域人员监控方法的流程示意图;
图2是本发明实施例公开的基于机器视觉的危险区域人员监控方法的控制区域设置步骤流程示意图;
图3是本发明实施例公开的基于机器视觉的危险区域人员监控方法的Yolov5n6/s系列神经网络模型训练步骤流程示意图;
图4是本发明实施例提供的基于机器视觉的危险区域人员监控装置的结构示意图;
图5是本发明实施例提供的一种电子设备的NVIDIA jetson nano开发板主要接口结构示意图;
图6是本发明实施例提供的一种电子设备的结构示意图。
图中:1、micro SD卡卡槽;2、40pin GDIO扩展接口;3、micro USB接口;4、千兆以太网网口;5、4X USB3.0;6、HDMI输出;7、DisplayPort连接器;8、DC5V;9、MIPI CSI相机连接器。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书中的术语“第一”、“第二”、“第三”、“第四”等是用于区别不同的对象,而不是用于描述特定顺序。本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,示例性地,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
目前木工生产线中使用硬件光电、光幕进行部署作为人员的安全检测信号,对于人体的部分感知不明显,因为光幕的物理结构,对于检测的范围并不灵活,覆盖面不广。如需要大范围部署,光幕成本较高。基于此,本发明实施例公开了基于机器视觉的危险区域人员监控方法与装置,能对镜头画面内出现的多个人员进行目标的识别和定位(包括部分遮挡、以及不同光线角度场景环境下的识别)。用户可对既有的视频画面划定报警区域,当人体的任何部位在视频画面中触及该报警区域时,本***都会触发报警,从而停止生产设备,防止人员进入生产区域造成安全事故。通过合理地设置报警区域,也能有效防止人员频繁触发设备停止而影响到生产效率。其***使用带显卡的边端设备进行部署,带有独立的外置电源,为独立的硬件环境,与外部通讯为点到点的网线直连,减少软件生产环境资源的占用,一定程度上保障独立的使用效果。
实施例一
请参阅图1-3,图1是本发明实施例公开的基于机器视觉的危险区域人员监控方法的流程示意图。该方法适用于具有处理功能的手机、平板电脑等智能设备以及计算机、服务器等计算设备,甚至也可以是具有处理功能的图像采集装置。如图1所示,该基于机器视觉的危险区域人员监控方法包括以下步骤:
S1:设定控制区域步骤;
获取摄像头拍摄到的视频信息,其中视频信息包括多帧图像信息;可以设置多个摄像头进行检测,以获得检测目标的在横向、纵向、高度位置信息,根据视频信息中各检测目标的位置信息构建目标场景区域模型。其中的检测目标可以包括工厂中的设备、物料、通道等。
在目标场景区域模型中设定控制区域,控制区域为需要管理的目标(如生产线或工厂车间)所占的区域空间,将控制区域的空间位置信息作为第一位置信息,存储于一个控制区域点集A;
A={p1,p2,p3,…,pn}
其中pn坐标为(xpn,ypn,zpn)。
S11:设定子区域步骤;
控制区域可进一步设定多个子区域,如设备区域、物料区域、通道区域,将设备区域、物料区域、通道区域的位置信息分别存储于设备区域点集A1、物料区域点集A2、通道区域点集A3;
A1={p11,p12,p13,…,p1n}
A2={p21,p22,p23,…,p2n}
A3={p31,p32,p33,…,p3n}
其中p1n坐标为(xp1n,yp1n,zp1n),p2n坐标为(xp2n,yp2n,zp2n),p3n坐标为(xp3n,yp3n,zp3n)。
S12:设定管控区域步骤;
可对子区域再次进行细分为多个管控区域,如在设备区域内设定设备管理区、设备操作区、设备运行区、设备警示区,将设备管理区、设备操作区、设备运行区、设备警示区的位置信息分别存储于设备管理区点集A11、设备操作区点集A12、设备运行区点集A13、设备警示区点集A14;
A11={p111,p112,p113,…,p11n}
A12={p121,p122,p123,…,p12n}
A13={p131,p132,p133,…,p13n}
A14={p141,p142,p143,…,p14n}
其中p11n坐标为(xp11n,yp11n,zp11n),p12n坐标为(xp12n,yp12n,zp12n),p13n坐标为(xp13n,yp13n,zp13n),p14n坐标为(xp14n,yp14n,zp14n)。
S2:Yolov5n6/s系列神经网络模型训练步骤;
提供标记好识别对象的目标图片数据集,将标记好识别对象的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到Yolov5n6/s系列神经网络基础模型;
S21:Yolov5n6/s系列神经网络基础模型可识别对象类型包括人类H;
目标图片数据集中包括标注好人类H的图片,将标注好人类H的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到可识别人类H的Yolov5n6/s系列神经网络基础模型;仅以人类H为识别目标的Yolov5n6/s系列神经网络基础模型训练方便,目标图片数据集易得,并且识别速度更快准确性高。
S21.1:Yolov5n6/s系列神经网络基础模型可识别对象类型包括人脸F、人手Ar、人体下半身L与人体上半身U;
目标图片数据集中包括分别标注人脸F、人手Ar、人体下半身L与人体上半身U的图片,将标注好的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到可识别人脸F、人手Ar、人体下半身L与人体上半身U的Yolov5n6/s系列神经网络基础模型。
S22:Yolov5n6/s系列神经网络基础模型可识别对象类型包括管理者H1、操作者H2、维修者H3、其他人员H4;
由于工厂内人数是相对固定的,其可以针对不同的人设置更加精确高效的模型来进行监测,在对用户进行身份识别的时候,可采用人脸信息或者衣服信息或者其他身份信息;在本实施例中,Yolov5n6/s系列神经网络基础模型可根据身份识别对象包括管理者H1、操作者H2、维修者H3、其他人员H4等。
可通过对管理者H1、操作者H2、维修者H3、其他人员H4等识别对象添加区别特征进行识别,区别特征可以是不同颜色或款式的安全帽、工服、工牌等,或者在明显部位标注工号进行区分;
目标图片数据集中包括分别标注管理者H1、操作者H2、维修者H3、其他人员H4的图片,将标注好的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到可识别管理者H1、操作者H2、维修者H3、其他人员H4的Yolov5n6/s系列神经网络基础模型,通过添加区别特征的方式可提高Yolov5n6/s系列神经网络基础模型的识别准确性与识别速度。
S23:Yolov5n6/s系列神经网络基础模型可识别对象类型包括佩戴安全装备Se、与未佩戴安全装备Is;
目标图片数据集中包括分别标注佩戴安全装备Se、与未佩戴安全装备Is的图片,将标注好的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到可识别佩戴安全装备Se、与未佩戴安全装备Is的Yolov5n6/s系列神经网络基础模型。
S23.1:Yolov5n6/s系列神经网络基础模型可识别对象类型包括识别未戴安全帽Is1、未戴面罩Is2及未穿防护服Is3;
可根据安全装备的佩戴情况进一步识别未戴安全帽Is1、未戴面罩Is2及未穿防护服Is3等;目标图片数据集中包括分别标注未戴安全帽Is1、未戴面罩Is2及未穿防护服Is3的图片,将标注好的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到可识别未戴安全帽Is1、未戴面罩Is2及未穿防护服Is3的Yolov5n6/s系列神经网络基础模型。
S24:Yolov5n6/s系列神经网络基础模型可识别对象类型包括安全操作O1与危险操作O2;
对操作者H2行为动作进行识别,识别标记出安全操作O1与危险操作O2;目标图片数据集中包括分别标注安全操作O1与危险操作O2的图片,将标注好的目标图片数据集导入Yolov5n6/s系列神经网络模型预训练模型进行训练,导出得到可识别安全操作O1与危险操作O2的Yolov5n6/s系列神经网络基础模型。
S3:视频画面预处理步骤;
读取多帧图像信息中的关键帧图像并进行预处理操作以得到预处理图像;,预处理包括但不限于图像的裁减,缩放,畸变矫正。
S4:目标对象识别步骤;
将经过步骤S3处理得到的预处理图像,输入训练好的Yolov5n6/s系列神经网络基础模型对目标对象进行识别得到目标对象位置信息,根据目标对象位置信息构建目标对象模型;将目标对象模型所占的区域空间位置信息作为第二位置信息,存储于一个目标对象点集B;
B={p′1,p′2,p′3,…,p′n}
S41:当可识别对象为人类H时;
当识别对象类型为人类H时,目标对象点集B为人类点集BH
BH={p′H1,p′H2,p′H3,…,p′Hn}
p′Hn的坐标为(xp′Hn,yp′Hn,zp′Hn)。
S42:当可识别对象为人脸F、人手Ar、人体下半身L与人体上半身U时;
当识别对象类型为人脸F时,目标对象点集B为人脸点集BF
BF={p′F1,p′F2,p′F3,…,p′Fn}
p′Fn的坐标为(xp′Fn,yp′Fn,zp′Fn)。
当识别对象类型为人手Ar时,目标对象点集B为人手点集BAr
BAr={p′Ar1,p′Ar2,p′Ar3,…,p′Arn}
p′Arn的坐标为(xp′Arn,yp′Arn,zp′Arn)。
当识别对象类型为人体下半身L时,目标对象点集B为人体下半身点集BL
BL={p′L1,p′L2,p′L3,…,p′Ln}
p′Ln的坐标为(xp′Ln,yp′Ln,zp′Ln)。
当识别对象类型为人体上半身U时,目标对象点集B为人体上半身点集BU
BU={p′U1,p′U2,p′U3,…,p′Un}
p′Un的坐标为(xp′Un,yp′Un,zp′Un)。
S43:当可识别对象为管理者H1、操作者H2、维修者H3与其他人员H4时;
当识别对象类型为管理者H1时,目标对象点集B为管理者点集BH1
BH1={p′H11,p′H12,p′H13,…,p′H1n}
p′H1n的坐标为(xp′H1n,yp′H1n,zp′H1n)。
当识别对象类型为操作者H2时,目标对象点集B为操作者点集BH2
BH2={p′H21,p′H22,p′H23,…,p′H2n}
p′H2n的坐标为(xp′H2n,yp′H2n,zp′H2n)。
当识别对象类型为维修者H3时,目标对象点集B为维修者点集BH3
BH3={p′H31,p′H32,p′H33,…,p′H3n}
p′H3n的坐标为(xp′H3n,yp′H3n,zp′H3n)。
当识别对象类型为其他人员H4时,目标对象点集B为其他人员点集BH4
BH4={p′H41,p′H42,p′H43,…,p′H4n}
p′H4n的坐标为(xp′H4n,yp′H4n,zp′H4n)。
S44:当可识别对象为佩戴安全装备Se与未佩戴安全装备Is时;
当识别对象类型为佩戴安全装备Se时,目标对象点集B为佩戴安全装备点集BSe
BSe={p′Se1,p′Se2,p′Se3,…,p′Sen}
p′Sen的坐标为(xp′Sen,yp′Sen,zp′Sen)。
当识别对象类型为未佩戴安全装备Is时,目标对象点集B为未佩戴安全装备点集BIs
BIs={p′Is1,p′Is2,p′Is3,…,p′Isn}
p′Isn的坐标为(xp′Isn,yp′Isn,zp′Isn)。
S45:当可识别对象为未戴安全帽Is1、未戴面罩Is2与未穿防护服Is3时;
当识别对象类型为未戴安全帽Is1时,目标对象点集B为未戴安全帽点集BIs1
BIs1={p′Is11,p′Is12,p′Is13,…,p′Is1n}
p′Is1n的坐标为(xp′Is1n,yp′Is1n,zp′Is1n)。
当识别对象类型为未戴面罩Is2时,目标对象点集B为未戴面罩点集BIs2
BIs2={p′Is21,p′Is22,p′Is23,…,p′Is2n}
p′Is2n的坐标为(xp′Is2n,yp′Is2n,zp′Is2n)。
当识别对象类型为未穿防护服Is3时,目标对象点集B为未穿防护服点集BIs3
BIs3={p′Is31,p′Is32,p′Is33,…,p′Is3n}
p′Is3n的坐标为(xp′Is3n,yp′Is3n,zp′Is3n)。
S46:当可识别对象为安全操作O1与危险操作O2时;
当识别对象类型为安全操作O1时,目标对象点集B为安全操作点集BO1
BO1={p′O11,p′O12,p′O13,…,p′O1n}
p′O1n的坐标为(xp′O1n,yp′O1n,zp′O1n)。
当识别对象类型为危险操作O2时,目标对象点集B为危险操作点集BO2
BO2={p′O21,p′O22,p′O23,…,p′O2n}
p′O2n的坐标为(xp′O2n,yp′O2n,zp′O2n)。
S5:比对步骤;
将S4步骤得到的第二位置信息即目标对象点集B,与S1步骤得到的第一位置信息即控制区域点集A进行比对,当目标对象点集B与控制区域点集A中存在重合的点时,输出警报信息C、设备控制指令D,输出重合点集E。警报信息C可进行多级设定,本实施例中设定警示信息C1与危险信息C2等,设备控制指令D可以包括视频录制指令D1与设备急停指令D2,重合点集E可以依据警报信息C的多级设定匹配警示重合点集EC1与危险重合点集EC2等。
S51:可针对人员所处区域进行监控信息输出;
将人类点集BH与分别与设备区域点集A1、物料区域点集A2进行比对;当人类点集BH与设备区域点集A1存在重合的点、或人类点集BH与物料区域点集A2存在重合的点时,输出警示信息C1与警示重合点集EC1
S52:可针对不同的人来进行身份识别以确定其是否具备进入特定区域的资格,为不同身份的人员匹配区域权限;
将管理者点集BH1分别与设备操作区点集A12、设备运行区点集A13进行比对,当管理者点集BH1与设备操作区点集A12、或管理者点集BH1与设备运行区点集A13存在重合的点时,输出警示信息C1与警示重合点集EC1
将管理者点集BH1与设备警示区点集A14进行比对,当管理者点集BH1与警示区点集A14存在重合的点时,输出危险信息C2、视频录制指令D1与设备急停指令D2,并输出危险重合点集EC2
将操作者点集BH2分别与设备管理区点集A11、设备运行区点集A13进行比对,当操作者点集BH2与设备管理区点集A11、或操作者点集BH2与设备运行区点集A13存在重合的点时,输出警示信息C1与警示重合点集EC1
将操作者点集BH2与设备警示区点集A14进行比对,当操作者点集BH2与警示区点集A14存在重合的点时,输出危险信息C2,视频录制指令D1与设备急停指令D2,并输出危险重合点集EC2
将维修者点集BH3分别与设备管理区点集A11、设备操作区点集A12进行比对,当维修者点集BH3与设备管理区点集A11、或维修者点集BH3与设备操作区点集A12存在重合的点时,输出警示信息C1与警示重合点集EC1
将维修者点集BH3与设备警示区点集A14进行比对,当维修者点集BH3与警示区点集A14存在重合的点时,输出危险信息C2,视频录制指令D1与设备急停指令D2,并输出危险重合点集EC2
将其他人员点集BH4分别与设备管理区点集A11、设备操作区点集A12、设备运行区点集A13进行比对,当其他人员点集BH4与设备管理区点集A11、其他人员点集BH4与设备操作区点集A12、或其他人员点集BH4与设备运行区点集A13存在重合的点时,输出警示信息C1与警示重合点集EC1
将其他人员点集BH4与设备警示区点集A14进行比对,当其他人员点集BH4与警示区点集A14存在重合的点时,输出危险信息C2、视频录制指令D1与设备急停指令D2,并输出危险重合点集EC2
S53:可根据人员安全装备佩戴情况进行监控信息输出;
识别到未佩戴安全装备目标,输出警示信息C1与未佩戴安全装备情况具体类型,如未戴安全帽、未戴面罩、未穿防护服;根据此输出结果便于进行安全装备管理与人员培训。
将未佩戴安全装备点集BIs分别与设备区域点集A1、物料区域点集A2进行比对;当未佩戴安全装备点集BIs与设备区域点集A1存在重合的点、或未佩戴安全装备点集BIs与物料区域点集A2存在重合的点时,输出危险信息C2、视频录制指令D1,并输出危险重合点集EC2
S54:可根据操作者的操作行为进行监控信息输出;
识别对象为危险操作时,输出警示信息C1、视频录制指令D1;根据此输出结果便于进行设备管理与人员培训。
S6:生成防护设施优化方案步骤;
将S5步骤输出的警示重合点集EC1与危险重合点集EC2融合输出警报触发点集E′,根据警报危险等级分别为警示重合点集EC1与危险重合点集EC2融合添加不同的权重参数进行数据扩充;设警示重合点集EC1的扩充权重参数为α,危险重合点集EC2的扩充权重参数为β;
E′=αEC1+βEC2
计算警报触发点集E′中各点pE′的出现频率,当pE′的出现频率大于设置阈值时,输出得到优化点集E″,优化点集E″所代表的区域位置生成优化方案。
优化点集E″所代表的区域位置,表示目前的木工生产线中触发警报频繁的位置,可针对该位置进行防护设施的优化,如增设防护栏、在显眼位置标识警示标志,加强人员巡防等,进一步提高生产效率,保障安全生产。
本实施例采用监控方法代替了传统木工生产线中使用硬件光电、光幕进行部署作为人员的安全检测信号,监控***检测范围灵活、覆盖面广,可实现较低成本的大范围部署;Yolov5模型基于Pytorch深度学习框架搭建,主干特征提取网络采用C3结构(残差网络),结合卷积操作对图像进行特征的提取,在训练过程中模型会针对已给出的图片数据集对模型的自身参数进行更新,以便更准确的提取目标特征;
本方法可以采用的神经网络模型为yolov5s或者yolov5n6,两者均为yolov5系列的模型,但是模型尺寸不相同。根据不同的场景业务需求,如果所需要识别的目标大小比较大,距离镜头教近(目标所占画幅像素超过1024*1024像素时),使用yolov5n6,反之使用yolov5s。目前虽然已经有yolov6、yolov7的算法,但是经过实测,在精度和速度方面以及部署方式的考量,yolov5是比较适合本例的算法。Yolov5n6/s系列神经网络模型,其特点是在原有的网络输出层为P3、P4、P5层,分别针对的是不同像素阶段的目标大小的检测,此版的新模型在原有的网络结构上,新增加了P6层以提高高分辨率图像下大目标对象的识别检测精度,增加模型感受野大小;本方法相对于目前市面上大部分的识别应用,识别速度上有很大提升,在640*480*3(3个摄像头源)的图片的输入尺寸下能达到30FPS,在目标完整且在镜头20米范围内的,识别率接近100%。此方法可与设备进行绑定部署,大大减少现场部署软件环境的工作量。因为是独立***环境,可以杜绝因生产环境崩溃导致的识别***崩溃的问题。
实施例二
请参阅图4,图4是本发明实施例公开的基于机器视觉的危险区域人员监控装置的结构示意图。如图4所示,基于机器视觉的危险区域人员监控***可以包括:
监控模块,监控模块包括部署于目标控制场景处的监控单元,监控单元包括如CSI摄像头、USB摄像头、网线连接的摄像头、wifi摄像头等,用于获取目标控制场景中的实时画面;
分区模块,用于对目标控制场景进行区域划分,根据区域划分情况生成第一位置信息;
识别模块,用于读取监控模块的实时画面,对目标对象进行识别并生成第二位置信息;
比对模块,用于将第一位置信息与第二位置信息进行比对,并输出比对结果;
输出模块,用于根据比对结果与警告参数输出警报信息与设备控制指令。
优化模块,用于根据预警位置信息输出生成防护设施优化方案。
本实施例的基于机器视觉的危险区域人员监控装置解决了目前木工生产线中,对于检测的范围不灵活,覆盖面不广,部署成本高的问题,并且相对于目前市面上大部分的识别应用,其识别速度上有很大提升,在640*480*3(3个摄像头源)的图片的输入尺寸下能达到30FPS,在目标完整且在镜头20米范围内的,识别率接近100%。此***与设备进行绑定部署,大大减少现场部署软件环境的工作量。因为是独立***环境,可以杜绝因生产环境崩溃导致的识别***崩溃的问题。
实施例三
请参阅图6,图6是本发明实施例公开的一种电子设备的结构示意图。电子设备可以是计算机以及服务器等,当然,在一定情况下,还可以是手机、平板电脑以及监控终端等智能设备,以及具有处理功能的图像采集装置。如图3所示,该电子设备可以包括:
存储有可执行程序代码的存储器510;
与存储器510耦合的处理器520;
其中,处理器520调用存储器510中存储的可执行程序代码,执行实施例一中的基于机器视觉的危险区域人员监控方法中的部分或全部步骤。
在本实施例中,此***多数情况下会搭载在NVIDIA jetson开发板上,亦可部署于带有显卡的PC上(linux/windows)。
如图5所示是,NVIDIA jetson nano开发板主要接口,包括micro SD卡卡槽1、40pin GDIO扩展接口2、micro USB接口3、千兆以太网网口4、4X USB3.05、HDMI输出6、DisplayPort连接器7、DC5V8、MIPI CSI相机连接器9。
本实施例的规格如下:
Figure BDA0004041329920000161
作为一种替代方案,软件部署在边端设备上,可以有其他选择,例如通过模型的转换,部署在带有npu的单片机上,例如使用rk3399Pro嵌入式主板。或者可以直接部署在pc上,pc无gpu时可将模型转换为openvino框架使用的模型,在pc机有gpu时可直接使用基础模型进行推理。
本发明实施例公开一种计算机可读存储介质,其存储计算机程序,其中,该计算机程序使得计算机执行实施例一中的基于机器视觉的危险区域人员监控方法中的部分或全部步骤。
本实施能实现模型加速和转化的过程。使用相同的目标检测算法,相同的模型,在jetson nano环境下视频画面会卡顿,将软件部署在边端设备上,图像的处理速度仍然能做到几乎实时显示的速度无卡顿。
本发明实施例还公开一种计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行实施例一中的基于机器视觉的危险区域人员监控方法中的部分或全部步骤。
本发明实施例还公开一种应用发布平台,其中,应用发布平台用于发布计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行实施例一中的基于机器视觉的危险区域人员监控方法中的部分或全部步骤。
在本发明的各种实施例中,应理解,所述各过程的序号的大小并不意味着执行顺序的必然先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物单元,即可位于一个地方,或者也可以分布到多个网络单元上。可根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可获取的存储器中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或者部分,可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干请求用以使得一台计算机设备(可以为个人计算机、服务器或者网络设备等,具体可以是计算机设备中的处理器)执行本发明的各个实施例所述方法的部分或全部步骤。
在本发明所提供的实施例中,应理解,“与A对应的B”表示B与A相关联,根据A可以确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。
本领域普通技术人员可以理解所述实施例的各种方法中的部分或全部步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的基于机器视觉的危险区域人员监控方法与装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于机器视觉的危险区域人员监控方法,其特征在于,包括:
获取摄像头拍摄到的视频信息,所述视频信息包括多帧图像信息;根据多帧图像信息构建目标场景区域模型;在目标场景区域模型中设定管控区域,所述管控区域位置信息储存为第一位置信息;
抽取多帧图像信息中的关键帧图像并进行预处理操作以得到预处理图像;
将所述预处理图像输入到预先构建完成的神经网络模型中进行目标对象识别,得到目标对象位置信息,根据目标对象位置信息构建目标对象模型,将目标对象模型的位置信息储存为第二位置信息;
将所述第一位置信息与所述第二位置信息进行比对以确定目标对象与管控区域之间的位置关系,并基于所述位置关系与警告参数确定是否进行预警操作。
2.根据权利要求1所述的基于机器视觉的危险区域人员监控方法,其特征在于,所述摄像头数量至少为两个,一个用来监测横向与纵向位置信息,一个用来监测纵向与高度位置信息,从而确定三维位置信息。
3.根据权利要求1所述的基于机器视觉的危险区域人员监控方法,其特征在于,所述神经网络模型采用Yolov5神经网络模型;在对用户进行身份识别的时候,采用人脸信息或者衣服信息。
4.根据权利要求1所述的基于机器视觉的危险区域人员监控方法,其特征在于,所述预警操作包括警报信息输出、控制指令输出与预警位置信息输出。
5.根据权利要求4所述的基于机器视觉的危险区域人员监控方法,其特征在于,所述控制指令输出包括视频录制指令与设备急停指令;
当检测到目标对象与管控区域之间的位置关系超过设定值时,输出视频录制指令进行录像操作,并将录制的得到的视频信息进行保存;输出设备急停指令控制相应设备停止运行。
6.根据权利要求4所述的基于机器视觉的危险区域人员监控方法,其特征在于,根据所述预警位置信息输出生成防护设施优化方案。
7.根据权利要求1所述的基于机器视觉的危险区域人员监控方法,其特征在于,针对不同身份的人进行目标对象识别,为不同身份的人设置特定区域权限。
8.一种基于机器视觉的危险区域人员监控装置,其特征在于,包括:
监控模块,所述监控模块包括部署于目标控制场景处的监控单元,所述监控单元用于获取目标控制场景中的实时画面;
分区模块,所述分区模块用于对目标控制场景进行区域划分,根据区域划分情况生成第一位置信息;
识别模块,所述识别模块用于读取所述监控模块的实时画面,对目标对象进行识别并生成第二位置信息;
比对模块,所述比对模块用于将所述第一位置信息与所述第二位置信息进行比对,并输出比对结果;
输出模块,所述输出模块用于根据所述比对结果与警告参数输出警报信息与设备控制指令。
9.一种电子设备,其特征在于,包括:存储有可执行程序代码的存储器;与所述存储器耦合的处理器;所述处理器调用所述存储器中存储的所述可执行程序代码,用于执行权利要求1至7任一项所述的基于机器视觉的危险区域人员监控方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,其中,所述计算机程序使得计算机执行权利要求1至7任一项所述的基于机器视觉的危险区域人员监控方法。
CN202310018050.1A 2023-01-06 2023-01-06 基于机器视觉的危险区域人员监控方法与装置 Active CN116206255B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310018050.1A CN116206255B (zh) 2023-01-06 2023-01-06 基于机器视觉的危险区域人员监控方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310018050.1A CN116206255B (zh) 2023-01-06 2023-01-06 基于机器视觉的危险区域人员监控方法与装置

Publications (2)

Publication Number Publication Date
CN116206255A true CN116206255A (zh) 2023-06-02
CN116206255B CN116206255B (zh) 2024-02-20

Family

ID=86507029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310018050.1A Active CN116206255B (zh) 2023-01-06 2023-01-06 基于机器视觉的危险区域人员监控方法与装置

Country Status (1)

Country Link
CN (1) CN116206255B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740821A (zh) * 2023-08-16 2023-09-12 南京迅集科技有限公司 基于边缘计算的智能车间控制方法和***
CN116973939A (zh) * 2023-09-25 2023-10-31 中科视语(北京)科技有限公司 安全监测方法及装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190079047A (ko) * 2017-12-27 2019-07-05 소프트온넷(주) 육안 인식 검사원의 부하경감을 위한 등급별 영상인식 기술을 이용한 cctv 영상내 의심물체 부분검사 지원 시스템 및 방법
CN110110657A (zh) * 2019-05-07 2019-08-09 中冶赛迪重庆信息技术有限公司 视觉识别危险的预警方法、装置、设备及存储介质
US20190385430A1 (en) * 2018-06-15 2019-12-19 American International Group, Inc. Hazard detection through computer vision
CN112396658A (zh) * 2020-11-30 2021-02-23 同济人工智能研究院(苏州)有限公司 一种基于视频的室内人员定位方法及定位***
US10953850B1 (en) * 2018-04-05 2021-03-23 Ambarella International Lp Seatbelt detection using computer vision
CN112799339A (zh) * 2020-12-31 2021-05-14 西南石油大学 一种基于机器视觉技术预警工人与动态危险源的方法
CN113642474A (zh) * 2021-08-17 2021-11-12 四川航天电液控制有限公司 一种基于yolov5的危险区域人员监控方法
CN114782892A (zh) * 2022-04-20 2022-07-22 上海东普信息科技有限公司 违规行为目标检测方法、装置、设备及存储介质
CN114973140A (zh) * 2022-06-10 2022-08-30 广西北投公路建设投资集团有限公司 基于机器视觉的危险区域人员闯入监测方法及***
CN115035088A (zh) * 2022-06-28 2022-09-09 中国石油大学(华东) 一种基于yolov5和姿态估计的安全帽佩戴检测方法
CN115376130A (zh) * 2022-08-22 2022-11-22 广东电网有限责任公司 电力施工现场识别模型的生成方法、装置、设备及介质
US20220391796A1 (en) * 2020-08-12 2022-12-08 Everseen Limited System and Method for Mapping Risks in a Warehouse Environment
CN115546904A (zh) * 2022-12-06 2022-12-30 南京华苏科技有限公司 基于目标检测时序跟踪并识别人员摔倒后的危险性的方法
CN115565137A (zh) * 2022-10-26 2023-01-03 西安建筑科技大学 一种基于改进YOLOv5的不安全行为检测与报警方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190079047A (ko) * 2017-12-27 2019-07-05 소프트온넷(주) 육안 인식 검사원의 부하경감을 위한 등급별 영상인식 기술을 이용한 cctv 영상내 의심물체 부분검사 지원 시스템 및 방법
US10953850B1 (en) * 2018-04-05 2021-03-23 Ambarella International Lp Seatbelt detection using computer vision
US20190385430A1 (en) * 2018-06-15 2019-12-19 American International Group, Inc. Hazard detection through computer vision
CN110110657A (zh) * 2019-05-07 2019-08-09 中冶赛迪重庆信息技术有限公司 视觉识别危险的预警方法、装置、设备及存储介质
US20220391796A1 (en) * 2020-08-12 2022-12-08 Everseen Limited System and Method for Mapping Risks in a Warehouse Environment
CN112396658A (zh) * 2020-11-30 2021-02-23 同济人工智能研究院(苏州)有限公司 一种基于视频的室内人员定位方法及定位***
CN112799339A (zh) * 2020-12-31 2021-05-14 西南石油大学 一种基于机器视觉技术预警工人与动态危险源的方法
CN113642474A (zh) * 2021-08-17 2021-11-12 四川航天电液控制有限公司 一种基于yolov5的危险区域人员监控方法
CN114782892A (zh) * 2022-04-20 2022-07-22 上海东普信息科技有限公司 违规行为目标检测方法、装置、设备及存储介质
CN114973140A (zh) * 2022-06-10 2022-08-30 广西北投公路建设投资集团有限公司 基于机器视觉的危险区域人员闯入监测方法及***
CN115035088A (zh) * 2022-06-28 2022-09-09 中国石油大学(华东) 一种基于yolov5和姿态估计的安全帽佩戴检测方法
CN115376130A (zh) * 2022-08-22 2022-11-22 广东电网有限责任公司 电力施工现场识别模型的生成方法、装置、设备及介质
CN115565137A (zh) * 2022-10-26 2023-01-03 西安建筑科技大学 一种基于改进YOLOv5的不安全行为检测与报警方法
CN115546904A (zh) * 2022-12-06 2022-12-30 南京华苏科技有限公司 基于目标检测时序跟踪并识别人员摔倒后的危险性的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DIAN YANG等: "Shelter Identification for Shelter-Transporting AGV Based on Improved Target Detection Model YOLOv5", 《 IEEE ACCESS 》 *
冯国臣;陈艳艳;陈宁;李鑫;宋程程;: "基于机器视觉的安全帽自动识别技术研究", 机械设计与制造工程, no. 10 *
张梦婷;: "多模态身份识别***在智慧营区建设中的应用研究", 现代信息科技, no. 12 *
彭斌;麻立群;潘坚跃;张元歆;陈希;: "基于三维场景的电力设施安全区域预警方法", 电子设计工程, no. 10 *
樊玮;周末;黄睿;: "多尺度深度特征融合的变化检测", 中国图象图形学报, no. 04 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740821A (zh) * 2023-08-16 2023-09-12 南京迅集科技有限公司 基于边缘计算的智能车间控制方法和***
CN116740821B (zh) * 2023-08-16 2023-10-24 南京迅集科技有限公司 基于边缘计算的智能车间控制方法和***
CN116973939A (zh) * 2023-09-25 2023-10-31 中科视语(北京)科技有限公司 安全监测方法及装置
CN116973939B (zh) * 2023-09-25 2024-02-06 中科视语(北京)科技有限公司 安全监测方法及装置

Also Published As

Publication number Publication date
CN116206255B (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
CN116206255B (zh) 基于机器视觉的危险区域人员监控方法与装置
Park et al. Hardhat-wearing detection for enhancing on-site safety of construction workers
Mneymneh et al. Vision-based framework for intelligent monitoring of hardhat wearing on construction sites
CN108921159B (zh) 用于检测安全帽的佩戴情况的方法和装置
KR101715001B1 (ko) 웨어러블 기기를 이용한 건설현장의 안전평가 표시 시스템 및 그 방법
CN109409238B (zh) 一种障碍物检测方法、装置及终端设备
CN112364715B (zh) 核电作业异常监控方法、装置、计算机设备和存储介质
AU2018217437A1 (en) System for identifying a defined object
CN112434669B (zh) 一种多信息融合的人体行为检测方法及***
CN111652046A (zh) 基于深度学习的安全穿戴检测方法、设备及***
CN112184773A (zh) 一种基于深度学习的安全帽佩戴检测方法及***
CN111914656A (zh) 一种人员行为检测方法、装置、电子设备及存储介质
CN113807240A (zh) 基于非配合式人脸识别的变电站人员着装智能监控方法
CN112800918A (zh) 一种非法运动目标的身份识别方法及装置
KR20160108740A (ko) 작업 현장 영상 데이터 내의 작업자 인식 방법
TWM607740U (zh) 智慧工地管理設備
WO2023104557A1 (en) Machine-learning for safety rule violation determination
CN111860187A (zh) 一种高精度的佩戴口罩识别方法及***
Chern et al. Context-aware safety assessment system for far-field monitoring
Zhao et al. Substation safety awareness intelligent model: Fast personal protective equipment detection using GNN approach
CN114359825A (zh) 监测方法和相关产品
CN113314230A (zh) 基于大数据的智能防疫方法、装置、设备及存储介质
CN112906646A (zh) 人体姿态的检测方法及装置
CN115953815A (zh) 基建现场的监测方法及装置
CN115641607A (zh) 电力施工现场作业人员穿戴行为检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant