CN112966589A - 一种在危险区域的行为识别方法 - Google Patents

一种在危险区域的行为识别方法 Download PDF

Info

Publication number
CN112966589A
CN112966589A CN202110235529.1A CN202110235529A CN112966589A CN 112966589 A CN112966589 A CN 112966589A CN 202110235529 A CN202110235529 A CN 202110235529A CN 112966589 A CN112966589 A CN 112966589A
Authority
CN
China
Prior art keywords
detection model
sample set
training
training sample
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110235529.1A
Other languages
English (en)
Inventor
李阳
陈浩
许华
杨大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Resources Liantianxia Network Technology Co ltd
Original Assignee
China Resources Liantianxia Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Resources Liantianxia Network Technology Co ltd filed Critical China Resources Liantianxia Network Technology Co ltd
Priority to CN202110235529.1A priority Critical patent/CN112966589A/zh
Publication of CN112966589A publication Critical patent/CN112966589A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种在危险区域的行为识别方法,包括以下步骤:获取实际场景下的视频数据,对其进行处理后,整理成训练样本集合,该训练样本集合包含人物图像以及与人物图像对应的位置信息和类别信息;采用训练样本集合对目标检测模型进行训练,得到训练后的检测模型,之后将训练后的检测模型作为人体检测模型;当检测到人物对应图像的具***置时,将人物对应图像截出,并将其作为人体检测模型的输入数据,得到人体各部位关键点位置,根据关键点的位置推断该人物的行为特征。上述技术方案中提供的在危险区域的行为识别方法,能有效解决现有检测方法受限于摄像头的自身条件以及现场环境对图像特征提取检测效果的问题。

Description

一种在危险区域的行为识别方法
技术领域
本发明涉及目标检测技术领域,具体涉及一种在危险区域的行为识别方法。
背景技术
打电话检测是行为检测的一个类别,也是将来人工智能所要发展的方向,对于公共场合管控,如加油站等,人员监督无法起到实时的监督作用,或者事后监控视频筛查,既需要大量的人力和时间成本并且不具有主动性。
现有的打电话检测技术基本为:1.传统方法做人体的特征提取,输入到分类器中,得出是否打电话的分类模型;2.基于深度学***面,每一个特征平面共享一个卷积核,做到权值共享,降低了权值的数量的优点。最终实现结果显示出了良好的稳定性,较高的正确率。但是,对于通用场景下,难以捕捉到手机具体特征,受限于摄像头安装角度,像素分辨率以及监控区域的距离;现场环境(光线等外界因素)对于图像特征的提取会导致检测效果不佳;对于检测模型需要有更高的要求,能够充分提取人物肢体特征。因此,亟需设计一种新的技术方案,以综合解决现有技术中存在的问题。
发明内容
本发明的目的是提供一种在危险区域的行为识别方法,能有效解决现有检测方法受限于摄像头的自身条件以及现场环境对图像特征提取检测效果的问题。
为解决上述技术问题,本发明采用了以下技术方案:
一种在危险区域的行为识别方法,包括以下步骤:
(1)获取实际场景下的视频数据,对其进行处理后,整理成训练样本集合,该训练样本集合包含人物图像以及与人物图像对应的位置信息和类别信息;
(2)采用训练样本集合对目标检测模型进行训练,得到训练后的检测模型,之后将训练后的检测模型作为人体检测模型;
(3)当检测到人物对应图像的具***置时,将人物对应图像截出,并将其作为人体检测模型的输入数据,得到人体各部位关键点位置,根据关键点的位置推断该人物的行为特征。
其中训练样本集合的获取方法为:将实际场景下的视频数据保存成单帧图片,对单帧图片进行边框位置和目标分类的信息标注,生成对应的XML文件。
其中目标检测模型的训练方式为训练样本集合对目标检测模型中的每个卷积网络进行端到端训练,包括以下步骤:
(31)将训练样本集合中的人物图像输入主干网络的CNN卷积层进行特征提取,得到输入人物图像三个不同尺寸的特征图;
(32)对上述特征图进行上采样,得到尺寸相同的张量,再进行拼接操作,合并张量;
(33)以输入人物图像的真实标注信息作为输出,进行前向传播,依据步骤(32)合并的张量与真实标签构建损失函数;
通过随机梯度下降算法优化识别模型中网络的网络参数,降低损失函数值,不断迭代此过程优化网络参数,直至损失函数停止下降,检测模型训练过程结束,得到目标检测模型。
损失函数的公式如下:
Figure BDA0002959872330000021
Figure BDA0002959872330000022
Figure BDA0002959872330000023
Figure BDA0002959872330000024
Figure BDA0002959872330000025
式中:
Figure BDA0002959872330000026
表示第i个网格的第j个anchor box是否负责这个目标,负责为1,否则为0;
Figure BDA0002959872330000027
表示第i个网格的第j个anchor box不负责该目标;
Figure BDA0002959872330000028
为中心坐标误差;
Figure BDA0002959872330000029
为宽高坐标误差;S代表网格数,B代表单个网格对应的先验框;
Figure BDA0002959872330000031
为置信度误差;
Figure BDA0002959872330000032
为分类误差。
目标检测模型采用Darknet-53主干网络;人体检测采用yolo_v3的深度学习算法进行。
上述技术方案中提供的在危险区域的行为识别方法,采用真实应用场景下的视频数据构建训练样本,样本数据比较贴近实际情况,并且样本种类多样,数据量充足,可以根据不同的需求制作出多样性的样本数据集,该训练样本集合的构建方式能够保证每个训练样本集合中的训练样本的丰富多样性和个体化差异性,同时还能确保任意两个训练样本之间的个体化差异稳定。因此,采用该方式构建的训练样本集合对目标检测模型进行训练时,产生的方差小,模型易收敛,训练后得到的目标检测模型鲁棒性好,能够普遍适用于各种人物的识别,解决了现实应用场景中由于人物图像背景变化、姿态变化等原因产生的高方差导致模型不收敛、鲁棒性差的问题。
本发明的目标检测模型采用不同尺度的特征图来进行目标检测,输出3个不同尺度的特征图,拼接不同尺寸的特征图(通过上采样来保证concat拼接的张量尺度相同),对于不同尺寸的目标进行检测,可以更加精细的检测出目标的位置。
本发明人体骨架检测模型采用的输入数据,是由视频数据的每一帧图像经过处理后,通过目标检测算法计算出目标具***置后,截取对应的目标作为openpose的输入数据,因此,输入数据为单个个体,对于人体骨架的检测更加的精准,更加便于对骨架关键点的判断。
本发明的目标检测模型采用Darknet-53主干网络,其堆叠了53层卷积网络,用于对图像特征的提取,网络层数越深,对于图像特征的提取就越有利。
附图说明
图1为实施例中打电话行为识别的检测流程图;
图2为实施例的目标检测算法yolov3网络流程图;
图3为实施例中打电话行为判断逻辑图;
图4为实施例中打电话行为检测流程图。
具体实施方式
为了使本发明的目的及优点更加清楚明白,以下结合实施例对本发明进行具体说明。应当理解,以下文字仅仅用以描述本发明的一种或几种具体的实施方式,并不对本发明具体请求的保护范围进行严格限定。
本实施例以在加油站场景下检测打电话为例对本发明的危险区域的行为识别方法进行说明,在加油站区域的打电话检测方法,如图1所示,包括以下步骤:
(1)针对加油站场景下的打电话检测,首先需要确立摄像区域,以及摄像头的安装位置,安装角度对于模型的识别会产生一定的影响,尽可能让摄像头处于平视角的状态,可以提高人物检测的识别率;
(2)获取视频数据,制作训练样本集合,训练样本包括含有人物的图像与图像对应的标注信息,人物图像为包含正常场景下,加油工的行为状态,以及加油顾客的各种行为状态,必要时,需要实施人员增加异常行为,丰富训练样本集合,强化模型,标注信息用于指示人物图像中所包含的人物位置信息,以及人物的类别信息。
其中,获取训练样本集合的具体操作为:
获取到加油站视频数据后,通过脚本获取视频中每一帧的图像,挑选出这些图像中有人物的图像作为需要标注的图像,使用labelimg标注工具对图像进行标注,标注出人物图像中人物的具***置标签以及类别标签,将标注后的文件与图片作为训练样本集合。另外为了提高人物检测准确度,本实施例还对视频数据进行增强,分别采用不同时段、气候、光照条件、人物各类姿态、人物远近等条件下的视频数据作为原始样本进行处理,充分体现数据的多样性,提高检测结果准确度。
具体地,本实施例将训练样本集合按照70%的比例作为模型训练的训练集,训练样本集合的30%作为模型训练的测试集。
(3)采用训练样本集合对目标检测模型进行训练,使得将训练样本中的人物图像输入到训练后的检测模型后得到的检测结果与相应标注信息中位置信息及类别信息的匹配度最高;将训练后的检测模型作人体检测模型。
训练检测模型的方法为:获取实际场景下视频数据,保存单帧图片,对图像进行信息标注,生成对应的xml文件,信息标注包括边框的位置坐标,以及目标的分类信息。采用训练样本集合对目标检测模型进行训练是采用训练样本集合对目标检测模型中的每个卷积网络进行训练,训练方式为端到端的训练方式,其具体训练过程如下:
将训练样本集合中的图像样本输入主干网络(Darknet-53)的CNN卷积层进行特征提取,得到输入图像三个不同尺寸的特征图;
将得到的不同尺寸的特征图进行上采样,得到尺寸相同的tensor,再进行concat操作,合并tensor;
以输入图像的真实标注信息作为输出,进行前向传播,依据步骤(2)合并的tensor与真实标签构建损失函数;
通过随机梯度下降算法优化识别模型中网络的网络参数,降低损失函数值,不断迭代此过程优化网络参数,直至损失函数停止下降,检测模型训练过程结束,得到目标检测模型。
其中损失函数的公式如下:
Figure BDA0002959872330000051
式中:
Figure BDA0002959872330000052
表示第i个网格的第j个anchor box是否负责这个目标,负责为1,否则为0;
Figure BDA0002959872330000053
表示第i个网格的第j个anchor box不负责该目标;
Figure BDA0002959872330000054
为中心坐标误差;
Figure BDA0002959872330000055
为宽高坐标误差;S代表网格数,B代表单个网格对应的先验框;
Figure BDA0002959872330000056
为置信度误差;
Figure BDA0002959872330000057
为分类误差。
其中人体检测采用yolo_v3的深度学习算法,主干网络(backbone)采用了Darknet-53,在backbone的结构里面是没有池化层和全连接层的,改变张量尺寸是通过卷积核的步长来实现的,输入数据尺寸416x416,输出3个不同尺度的特征图(feature map):y1(13*13*18)、y2(26*26*18)、y3(52*52*18),拼接不同尺寸的feature map(通过上采样来保证concat拼接的张量尺度相同),对于不同尺寸的目标进行检测,可以更加精细的检测出目标的位置。
通过最终输出的张量,可以得出目标位置的中心坐标,目标宽高,类别以及置信度,进而确立目标位置。
(4)根据上述目标检测模型训练方法得到检测模型,图像通过检测模型检测出目标位置,截取出当前图像对应位置作为新的图像。将新图像作为输入数据,输入到openpose检测网络中(该模型文件采用公开模型文件),检测出人体关键部位位置信息('Nose','Neck','R-Sho','R-Elb','R-Wr','L-Sho','L-Elb','L-Wr','R-Hip','R-Knee','R-Ank','L-Hip','L-Knee','L-Ank','R-Eye','L-Eye','R-Ear','L-Ear'),该位置信息仅相对于截取后的图像,需反馈至原图。
(5)打电话逻辑判断主要涉及关键点(‘neck’,‘nose’,‘r_hand’,‘l_hand’),通过限制nose-r_hand,nose-l_hand,neck-r_hand,neck-l_hand之间的距离判断人物是否有打电话的行为,此外,另加入行为动作维持时间作为判断打电话的另一依据,即人物维持打电话动作一定时间将判定为打电话,打电话逻辑图如图3所示。
(6)最终将该方法实现后,部署至rk3399嵌入式开发板,应用到实际场景中,接入现场视频流,能够及时触发打电话事件并作出告警(检测过程如图4)。本实施例采用移动嵌入式设备的移植,arm嵌入式开发板能够满足算法需求,并且可以根据用户的需求来进行灵活的配置,方便了算法的部署和实施,而且占用空间小,方便开发。
本发明构建训练样本时,采用真实应用场景下的视频数据,样本数据比较贴近实际情况,并且样本种类多样,数据量充足,可以根据不同的需求制作出多样性的样本数据集。本发明采用的图像数据为加油站视频数据,视频数据来自多路摄像头,基本覆盖了整个加油区以及卸油区、进出口等位置,全面监控加油站实时人员状况,该训练样本集合的构建方式能够保证每个训练样本集合中的训练样本的丰富多样性和个体化差异性,而且,还能确保任意两个训练样本之间的个体化差异稳定。因此,采用该方式构建的训练样本集合对目标检测模型进行训练时,产生的方差小,模型易收敛,训练后得到的目标检测模型鲁棒性好,能够普遍适用于各种人物的识别,解决了现实应用场景中由于人物图像背景变化、姿态变化等原因产生的高方差导致模型不收敛、鲁棒性差的问题。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,对于本技术领域的普通技术人员来说,在获知本发明中记载内容后,在不脱离本发明原理的前提下,还可以对其作出若干同等变换和替代,这些同等变换和替代也应视为属于本发明的保护范围。

Claims (5)

1.一种在危险区域的行为识别方法,其特征在于,包括以下步骤:
(1)获取实际场景下的视频数据,对其进行处理后,整理成训练样本集合,该训练样本集合包含人物图像以及与人物图像对应的位置信息和类别信息;
(2)采用训练样本集合对目标检测模型进行训练,得到训练后的检测模型,之后将训练后的检测模型作为人体检测模型;
(3)当检测到人物对应图像的具***置时,将人物对应图像截出,并将其作为人体骨架识别的输入数据,得到人体各部位关键点位置,根据关键点的位置推断该人物的行为特征。
2.根据权利要求1所述的在危险区域的行为识别方法,其特征在于,训练样本集合的获取方法为:将实际场景下的视频数据保存成单帧图片,对单帧图片进行边框位置和目标分类的信息标注,生成对应的XML文件。
3.根据权利要求1所述的在危险区域的行为识别方法,其特征在于,目标检测模型的训练方式为训练样本集合对目标检测模型中的每个卷积网络进行端到端训练,包括以下步骤:
(31)将训练样本集合中的人物图像输入主干网络的CNN卷积层进行特征提取,得到输入人物图像三个不同尺寸的特征图;
(32)对上述特征图进行上采样,得到尺寸相同的张量,再进行拼接操作,合并张量;
(33)以输入人物图像的真实标注信息作为输出,进行前向传播,依据步骤(32)合并的张量与真实标签构建损失函数;
通过随机梯度下降算法优化识别模型中网络的网络参数,降低损失函数值,不断迭代此过程优化网络参数,直至损失函数停止下降,检测模型训练过程结束,得到目标检测模型。
4.根据权利要求2所述的在危险区域的行为识别方法,其特征在于,所述损失函数的公式如下:
Figure FDA0002959872320000011
Figure FDA0002959872320000021
式中:
Figure FDA0002959872320000022
表示第i个网格的第j个anchor box是否负责这个目标,负责为1,否则为0;
Figure FDA0002959872320000023
表示第i个网格的第j个anchor box不负责该目标;
Figure FDA0002959872320000024
为中心坐标误差;
Figure FDA0002959872320000025
为宽高坐标误差;S代表网格数,B代表单个网格对应的先验框;
Figure FDA0002959872320000026
为置信度误差;
Figure FDA0002959872320000027
为分类误差。
5.根据权利要求1所述的在危险区域的行为识别方法,其特征在于:目标检测模型采用Darknet-53主干网络;人体检测采用yolo_v3的深度学习算法进行。
CN202110235529.1A 2021-03-03 2021-03-03 一种在危险区域的行为识别方法 Pending CN112966589A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110235529.1A CN112966589A (zh) 2021-03-03 2021-03-03 一种在危险区域的行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110235529.1A CN112966589A (zh) 2021-03-03 2021-03-03 一种在危险区域的行为识别方法

Publications (1)

Publication Number Publication Date
CN112966589A true CN112966589A (zh) 2021-06-15

Family

ID=76276314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110235529.1A Pending CN112966589A (zh) 2021-03-03 2021-03-03 一种在危险区域的行为识别方法

Country Status (1)

Country Link
CN (1) CN112966589A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642474A (zh) * 2021-08-17 2021-11-12 四川航天电液控制有限公司 一种基于yolov5的危险区域人员监控方法
CN113780273A (zh) * 2021-07-19 2021-12-10 浙江理工大学 一种基于目标检测和关键点检测的水表指针读数读取方法
CN113792656A (zh) * 2021-09-15 2021-12-14 山东大学 一种人员移动中使用移动通讯设备的行为检测及报警***
CN114266934A (zh) * 2021-12-10 2022-04-01 上海应用技术大学 一种基于云存储数据的危险动作检测方法
CN114299429A (zh) * 2021-12-24 2022-04-08 宁夏广天夏电子科技有限公司 一种基于深度学习的人体识别方法、***及装置
CN114694075A (zh) * 2022-04-07 2022-07-01 合肥工业大学 一种基于深度强化学习的危险行为识别方法
CN114724246A (zh) * 2022-04-11 2022-07-08 中国人民解放军东部战区总医院 危险行为识别方法及装置
CN117253193A (zh) * 2023-10-13 2023-12-19 济南瑞源智能城市开发有限公司 一种包含大型水域景区的智能化安防监控方法及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960067A (zh) * 2018-06-05 2018-12-07 北京华纵科技有限公司 基于深度学习的实时的列车驾驶员动作识别***和方法
CN110110613A (zh) * 2019-04-19 2019-08-09 北京航空航天大学 一种基于动作识别的轨道交通异常人员检测方法
CN110135398A (zh) * 2019-05-28 2019-08-16 厦门瑞为信息技术有限公司 基于计算机视觉的双手脱离方向盘检测方法
WO2020135392A1 (zh) * 2018-12-24 2020-07-02 杭州海康威视数字技术股份有限公司 异常行为检测方法及装置
CN111626272A (zh) * 2020-07-28 2020-09-04 长沙超创电子科技有限公司 一种基于深度学习的驾驶员疲劳监测***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960067A (zh) * 2018-06-05 2018-12-07 北京华纵科技有限公司 基于深度学习的实时的列车驾驶员动作识别***和方法
WO2020135392A1 (zh) * 2018-12-24 2020-07-02 杭州海康威视数字技术股份有限公司 异常行为检测方法及装置
CN110110613A (zh) * 2019-04-19 2019-08-09 北京航空航天大学 一种基于动作识别的轨道交通异常人员检测方法
CN110135398A (zh) * 2019-05-28 2019-08-16 厦门瑞为信息技术有限公司 基于计算机视觉的双手脱离方向盘检测方法
CN111626272A (zh) * 2020-07-28 2020-09-04 长沙超创电子科技有限公司 一种基于深度学习的驾驶员疲劳监测***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
钟跃崎: "《人工智能技术原理与应用》", 东华大学出版社, pages: 189 - 193 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780273A (zh) * 2021-07-19 2021-12-10 浙江理工大学 一种基于目标检测和关键点检测的水表指针读数读取方法
CN113642474A (zh) * 2021-08-17 2021-11-12 四川航天电液控制有限公司 一种基于yolov5的危险区域人员监控方法
CN113792656A (zh) * 2021-09-15 2021-12-14 山东大学 一种人员移动中使用移动通讯设备的行为检测及报警***
CN113792656B (zh) * 2021-09-15 2023-07-18 山东大学 一种人员移动中使用移动通讯设备的行为检测及报警***
CN114266934A (zh) * 2021-12-10 2022-04-01 上海应用技术大学 一种基于云存储数据的危险动作检测方法
CN114299429A (zh) * 2021-12-24 2022-04-08 宁夏广天夏电子科技有限公司 一种基于深度学习的人体识别方法、***及装置
CN114694075A (zh) * 2022-04-07 2022-07-01 合肥工业大学 一种基于深度强化学习的危险行为识别方法
CN114694075B (zh) * 2022-04-07 2024-02-13 合肥工业大学 一种基于深度强化学习的危险行为识别方法
CN114724246A (zh) * 2022-04-11 2022-07-08 中国人民解放军东部战区总医院 危险行为识别方法及装置
CN114724246B (zh) * 2022-04-11 2024-01-30 中国人民解放军东部战区总医院 危险行为识别方法及装置
CN117253193A (zh) * 2023-10-13 2023-12-19 济南瑞源智能城市开发有限公司 一种包含大型水域景区的智能化安防监控方法及设备
CN117253193B (zh) * 2023-10-13 2024-04-23 济南瑞源智能城市开发有限公司 一种包含大型水域景区的智能化安防监控方法及设备

Similar Documents

Publication Publication Date Title
CN112966589A (zh) 一种在危险区域的行为识别方法
CN109977921B (zh) 一种输电线路隐患检测方法
CN108304835A (zh) 文字检测方法和装置
CN113807276B (zh) 基于优化的YOLOv4模型的吸烟行为识别方法
CN110135476A (zh) 一种个人安全装备的检测方法、装置、设备及***
CN111626350A (zh) 目标检测模型训练方法、目标检测方法及装置
CN110516529A (zh) 一种基于深度学习图像处理的投喂检测方法和***
CN109858389A (zh) 基于深度学习的直梯人数统计方法及***
CN110163836A (zh) 基于深度学习用于高空巡检下的挖掘机检测方法
CN111985374B (zh) 人脸定位方法、装置、电子设备及存储介质
CN108229418B (zh) 人体关键点检测方法和装置、电子设备、存储介质和程序
CN109308490A (zh) 用于生成信息的方法和装置
CN114842208A (zh) 一种基于深度学习的电网危害鸟种目标检测方法
CN115761537B (zh) 一种面向动态特征补充机制的输电线路异物入侵识别方法
CN112541393A (zh) 一种基于深度学习的变电站人员检测方法及装置
CN116503318A (zh) 一种融合CAT-BiFPN与注意力机制的航拍绝缘子多缺陷检测方法、***及设备
CN112232133A (zh) 基于深度卷积神经网络的输电线路图像识别方法及装置
CN115761627A (zh) 一种火灾烟雾火焰图像识别方法
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及***
US20230222841A1 (en) Ensemble Deep Learning Method for Identifying Unsafe Behaviors of Operators in Maritime Working Environment
CN116229560A (zh) 一种基于人体姿态的异常行为识别方法及***
CN114708539A (zh) 图像类型识别方法及其装置、设备、介质、产品
CN112668675B (zh) 一种图像处理方法、装置、计算机设备及存储介质
CN118038021A (zh) 基于改进yolov4的变电站作业现场异物入侵检测方法
CN114302157A (zh) 属性标签识别、代播事件检测方法及其装置、设备、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination