CN109255298A - 一种动态背景中的安全帽检测方法与*** - Google Patents

一种动态背景中的安全帽检测方法与*** Download PDF

Info

Publication number
CN109255298A
CN109255298A CN201810913181.5A CN201810913181A CN109255298A CN 109255298 A CN109255298 A CN 109255298A CN 201810913181 A CN201810913181 A CN 201810913181A CN 109255298 A CN109255298 A CN 109255298A
Authority
CN
China
Prior art keywords
worker
safety cap
target
detection
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810913181.5A
Other languages
English (en)
Inventor
胡平
裴嘉震
徐曾春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tech University
Original Assignee
Nanjing Tech University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tech University filed Critical Nanjing Tech University
Priority to CN201810913181.5A priority Critical patent/CN109255298A/zh
Publication of CN109255298A publication Critical patent/CN109255298A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明设计了一种动态背景中的安全帽检测方法与***。涉及目标检测与跟踪领域,该方法通过对工人与安全帽数据集进行标注与训练,利用卷积神经网络的特性,将卷积层中搜集的特征录入到分类器中展开训练,同时在网络最后加一个分类层,使这些特征进入分类器进行分类。利用聚类的方法得到anchor boxes,并对每个预测框预测四个坐标值。根据这四个坐标值对图片中的目标画出预测框。根据预测得到的预测框坐标与类别,进行是否头戴安全帽的判别与工人的跟踪。本发明能够对工地中工作人员是否头戴安全帽精确地识别,采用卷积神经网络的方法来提取特征,可以更好地提升传统方法的识别效率与精度,同时能够较好地客服背景多变情况下的检测难度大的缺点。

Description

一种动态背景中的安全帽检测方法与***
技术领域
本发明涉及目标检测与跟踪领域,具体设计了一种动态背景中的安全帽检测方法与***。
背景技术
随着信息技术的发展,目标检测与跟踪,已逐渐渗透到人们生活的方方面面,其重要性日益突出,吸引了越来越多的海内外学者及研究机构参与到此领域的研究。目前,目标检测与跟踪已广泛应用于视频监控、虚拟现实、人机交互、行星探测、行为理解等领域,实现了公共安全监控与管理,意外事件防范、检测及处理,应急推演,老幼病残监护以及自主导航等功能。
目标检测(objection detection)是机器视觉中最常见的问题。是一种基于目标几何和统计特征的图像分割,它将目标的分割和识别合二为一,其准确性和实时性是整个***的一项重要能力,近年来,目标检测在人工智能,人脸识别,无人驾驶等领域都得到了广泛的应用。然而,在目标检测的过程中会受到各种各样干扰,比如角度、遮挡、光线强度等因素,这些因素会导致目标发生畸变,为目标检测增加了新的挑战。
近年来,卷积神经网络已经被广泛应用于物体检测与图像分类。网络通过训练该结构中的数百万个参数来自动学习特征。
发明内容
本发明设计一种动态背景中的安全帽检测方法与***。用于解决各种需要戴安全帽的场所的安全帽检测识别的问题,为了达到该目的,该方法通过对人与安全帽数据集进行标注与训练,利用卷积神经网络的特性,将卷积层中搜集的特征录入到分类器中展开训练。利用聚类的方法得到anchor boxes,并对每个预测框预测四个坐标值(tx,ty,tw,th)。根据这四个坐标值对图片中的目标画出预测框。
本发明所述的方法首先将图像分为多个网格,并为每个网格预测感兴趣对象的边界框,然后通过逻辑回归预测一个物体的得分,如果预测的这个边界框与真实图片中的物体的边界框大部分重合,并且比其他的所有预测的要好,这个边界框将保留,如果没有这个边界框的准确值没有达到阈值0.5,那么这个预测框就会被忽略。每个框使用多标签分类来预测边界框可能包含的类。在训练过程中,使用二元交叉熵损失来进行类别预测。对图片中的工人与安全帽进行预测后,我们进行工人是否头戴安全帽的判断,根据安全帽预测框的坐标与工人预测框的坐标,如果安全帽在工人的一定范围内(我们所指定的范围),可以认为该工人头戴安全帽。
区别于现有的处理方法,本发明的有益效果是:目前已有的安全帽识别方法一般都是基于颜色或形状特征,也有基于分类器的安全帽识别方法,此类方法效率一般都较为低,并且比较复杂。本发明在满足效率与准确率的前提下,极大地简化了传统方法的复杂度与难度,采用深度卷积神经网络的方法自动提取人体与安全帽有效区分特征,将特征提取,特征分类等步骤融合。使目标检测与识别的效率与精度又大大地提升。同时能够较好地客服背景多变情况下的检测难度大的缺点。
附图说明
图1是本发明所述的一种动态背景中的安全帽检测方法与***的卷积神经网络框架,图2是本发明所述的一种动态背景中的安全帽检测方法与***的的流程图。
具体实施方式
请参阅图2所示:
1、一种动态背景中的安全帽检测方法与***,其特征在于,所述方法包括以下步骤:
步骤一:工人与安全帽数据集采集,采集工地工人的视频图像,人工方式标注工人与安全帽,区分人与安全帽,得到人-安全帽识别数据集进入步骤二;
步骤二:工人与安全帽数据集训练,接着将我们标注的人-安全帽数据集作为我们卷积神经网络模型的训练集,最终得到工人-安全帽检测模型进行进入步骤三;
步骤三:目标检测,根据步骤二得到的工人-安全帽检测模型,对实时视频图像或已保存的视频图像进行检测,识别出视频图像中的目标的类别并得到预测框的坐标(tx,ty,tw,th)进入步骤四;
步骤四:目标分析,根据视频图像中的目标的工人预测框坐标,在他的一定坐标范围内遍历寻找是否有安全帽目标的存在,设(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)分别为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,根据坐标判断,人的头上是否有安全帽。我们还对每一个目标进行光流跟踪,为每一个进入视频图像中的目标设置跟踪ID,在该目标离开视频图像之前一直进行跟踪;
2、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤一中所述得到工人-安全帽数据集方法包括以下步骤:
步骤一:首先利用爬虫爬取网站上的建筑工地施工图片,或自行采集工地视频进行图片分帧提取,进入步骤二;
步骤二:然后删除掉不存在任何人或安全帽的图片,使用labelimg进行人工标注;
3、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤二所述的卷积神经网络模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的卷积神经网络,进行特征提取,我们的卷积神经网络框架有53个卷积层,一层池化层与一个全连接层,采用53 个卷积层进行特征提取,获取输入图像的特征,池化层用于降维与降低过拟合,最后一层全连接层综合前53个卷积层提取到特征,可由如下矩阵形式表示:
式中I1,...,I53为全连接层的输入,x1,...,x53为全连接层的输出,进入步骤二;
步骤二:考虑训练过程中的损失函数,我们采用均方和误差作为Loss函数,统一用以下公式作为损失函数:
其中,CoordErr为定位误差,IOUErr为IOU误差,ClassErr为分类误差;
具体展开式如下:
其中λCoord=5,该值为定位误差权重,λnoobject=0.5,该值为不包含物体的置信误差权重,为预测值,表示判断网格i中第j个检测边界框是否负责该物体,若负责则为1,否则为0;
4、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤三所述的目标检测包括以下步骤:
步骤一:首先输入视频图像,对每一帧的视频图像进行形态学滤波,祛除椒盐噪声,使图像更加平滑,进入步骤二;
步骤二:接着根据得到的训练好的工人-安全帽检测模型,检测过程中,输入图像被我们的卷积神经网络框架划分为S×S的网格,每个网格预测是否有物体的中心落入其内部,若某网格预测为是,则该网格再预测出N个检测边界框以及每个框的置信分数,其中置信分数反映了检测边界框对其检测出物体的自信程度。其计算公式为:
Confidence=Pr(Object)×IOU (4)
式中
其中,Pr(Object)代表边界框包含目标物体的概率;NNgt为基于训练标签的参考标准框,NNdt为检测边界框;area()表示面积,同时,每个检测边界框包含 5个参数:(tx,ty,tw,th)以及Confidence。(tx,ty)代表检测边界框的中心相对其母网格的位置。(tw,th)为检测边界框的宽和高;(tx,ty,tw,th)计算公式如下:
tx=δ(bx)+cx (6)
ty=δ(by)+cy (7)
其中cx,cy是网格的坐标偏移量,qw,qh是预设的anchor box的边长,(bx, by,bw,bh)是我们的卷积神经网络模型对每个bounding box预测的四个坐标值,最终得到边框的坐标值(tx,ty,tw,th);每个网格还预测C个类别概率,即 Pr(Classi|Object),此概率表示第i类物体中心落入该网格的概率;C为类别数量,与N无关,最终,输出层输出S×S×(B×(5+C))维的张量;进入步骤三;
步骤三:最后进行非极大值抑制,筛选boxes,得到最终物体所在位置的坐标及置信度;
5、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤四目标分析,包括以下步骤:
步骤一:对已检测到目标进行是否戴安全帽的判别,首先定位到检测结果中的工人类别,再对检测结果进行遍历,寻找是否存在安全帽在工人的头上,若检测结果中定位不到工人,则跳出此帧,进行下一帧的检测,计算公式如下:
公式(10)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人直立情况;
公式(11)针对工人出现在视频画面边缘且工人直立情况;
公式(12)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人蹲或者坐的情况;
公式(13)针对工人出现视频画面边缘,且工人蹲或者坐的情况;
上述四个公式中(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)分别为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,上式中的等式排除了安全帽不在工人头上的情况,当f(x)=1 时即该工人头上有安全帽,反之则无,进入步骤二;
步骤二:对所有进入视频中的工人进行跟踪,以便最后进行统计计数,跟踪方法采用金字塔分层的光流跟踪法,对检测到结果特征采用光流跟踪,利用运动目标随时间变化的光流场特性,从而有效地提取和跟踪运动目标,每当该物体离开视频范围,则计数加一,最终统计整个视频中出现的戴安全帽与不戴安全帽工人的数目;构建基于金字塔分层的LK光流法具体如下:
①对每一帧建立一个高斯金字塔,最低分辨率图像在最顶层,原始图像在底层;
②从顶层Lm层开始,通过最小化每个点的领域范围内的匹配误差和,得到顶层图像中每个点的光流;计算公式如下:
上式中,I(x,y)为前一帧图像上一点的灰度值,J(x+dx,y+dy)为后一帧图像上与I(x,y)最接近的灰度值,向量[dx,dy]是图像在点(x,y)处的运动位移,即像素点(x,y)的光流;
假设图像的尺寸每次缩放为原来的一半,共缩放Lm层,则第0层为原图像,设已知原图的位移为d,则每层的位移为:
③顶层的光流计算结果反馈到第Lm-1层,作为该层初始时的光流值估计g
gL-1=2(gL+dL) (16)
④沿金字塔向下反馈,重复估计动作,直到金字塔底层(原图像),底层位移为:
d=g0+d0 (17)
对于每一层L,每个点的光流计算都是基于领域内所有点的匹配误差和最小值,计算公式如下:
上式中,wx,wy定义了图像上矩形窗口的大小(2×wx+1),(2×wy+ 1),(ux,uy)为某一像素点的坐标,使用上式的光流计算方式,可以解决比较大的运动目标跟踪;
由于金字塔的缩放减小了光流值,顶层的光流估计值可以设为0;
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所做的等效结构或等流程变换,或直接或间接运用在相关技术领域,均同理包括在本发明的专利保护范围。

Claims (5)

1.一种动态背景中的安全帽检测方法与***,其特征在于,所述方法包括以下步骤:
步骤一:工人与安全帽数据集采集,采集工地工人的视频图像,人工方式标注工人与安全帽,区分人与安全帽,得到人-安全帽识别数据集;
步骤二:工人与安全帽数据集训练,接着将我们标注的人-安全帽数据集作为我们卷积神经网络模型的训练集,最终得到工人-安全帽检测模型;
步骤三:目标检测,根据步骤二得到的工人-安全帽检测模型,对实时视频图像或已保存的视频图像进行检测,识别出视频图像中的目标的类别并得到预测框的坐标(tx,ty,tw,th);
步骤四:目标分析,根据视频图像中的目标的工人预测框坐标,在他的一定坐标范围内遍历寻找是否有安全帽目标的存在,设(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)分别为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,根据坐标判断,人的头上是否有安全帽;我们还对每一个目标进行光流跟踪,为每一个进入视频图像中的目标设置跟踪ID,在该目标离开视频图像之前一直进行跟踪。
2.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤一中所述得到工人-安全帽数据集方法包括以下步骤:
步骤一:首先利用爬虫爬取网站上的建筑工地施工图片,或自行采集工地视频进行图片分帧提取;
步骤二:然后删除掉不存在任何人或安全帽的图片,使用labelimg进行人工标注。
3.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤二所述的卷积神经网络模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的卷积神经网络,进行特征提取,我们的卷积神经网络框架有53个卷积层,一层池化层与一个全连接层,采用53个卷积层进行特征提取,获取输入图像的特征;池化层用于降维与降低过拟合,最后一层全连接层负责综合前53个卷积层提取到的特征,可由如下矩阵形式表示:
式中I1,...,I53为全连接层的输入,x1,...,x53为全连接层的输出;
步骤二:考虑训练过程中的损失函数,我们采用均方和误差作为Loss函数,统一用以下公式作为损失函数:
其中,CoordErr为定位误差,IOUErr为IOU误差,ClassErr为分类误差。
4.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤三所述的目标检测包括以下步骤:
步骤一:首先输入视频图像,对每一帧的视频图像进行形态学滤波,祛除椒盐噪声,使图像更加平滑;
步骤二:接着根据得到的训练好的工人-安全帽检测模型,检测过程中,输入图像被我们的卷积神经网络框架划分为S×S的网格,每个网格预测是否有物体的中心落入其内部,若某网格预测为是,则该网格再预测出N个检测边界框以及每个框的置信分数,其中置信分数反映了检测边界框对其检测出物体的自信程度,其计算公式为:
Confidence=Pr(Object)×IOU (3)
式中
其中,Pr(Object)代表边界框包含目标物体的概率;NNgt为基于训练标签的参考标准框,NNdt为检测边界框;area()表示面积;同时,每个检测边界框包含5个参数:(tx,ty,tw,th)以及Confidence;(tx,ty)代表检测边界框的中心相对其母网格的位置;(tw,th)为检测边界框的宽和高,(tx,ty,tw,th)计算公式如下:
tx=δ(bx)+dx (5)
ty=δ(by)+dy (6)
其中dx,dy是网格的坐标偏移量,qw,qh是预设的anchor box的边长,(bx,by,bw,nh)是我们的卷积神经网络模型对每个bounding box预测的四个坐标值,最终得到边框的坐标值(tx,ty,tw,th);每个网格还预测C个类别概率,即Pr(Classi|Object),此概率表示第i类物体中心落入该网格的概率;C为类别数量,与N无关;
步骤三:最后进行非极大值抑制,筛选boxes,得到最终物体所在位置的坐标及置信度。
5.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤四目标分析,包括以下步骤:
步骤一:对已检测到目标进行是否戴安全帽的判别,首先定位到检测结果中的工人类别,再对检测结果进行遍历,寻找是否存在安全帽在工人的头上,若检测结果中定位不到工人,则跳出此帧,进行下一帧的检测,计算公式如下:
公式(9)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人直立情况;
公式(10)针对工人出现在视频画面边缘且工人直立情况;
公式(11)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人蹲或者坐的情况;
公式(12)针对工人出现视频画面边缘,且工人蹲或者坐的情况;
上述4个公式中(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,上式中的等式排除了安全帽不在工人头上的情况;当f(x)=1时即该工人头上有安全帽,反之则无;
步骤二:对所有进入视频中的工人进行跟踪,以便最后进行统计计数,跟踪方法采用金字塔分层的光流跟踪法;对检测到结果特征采用光流跟踪,利用运动目标随时间变化的光流场特性,从而有效地提取和跟踪运动目标;每当该物体离开视频范围,则计数加一,最终统计整个视频中出现的戴安全帽与不戴安全帽工人的数目。
CN201810913181.5A 2018-08-07 2018-08-07 一种动态背景中的安全帽检测方法与*** Pending CN109255298A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810913181.5A CN109255298A (zh) 2018-08-07 2018-08-07 一种动态背景中的安全帽检测方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810913181.5A CN109255298A (zh) 2018-08-07 2018-08-07 一种动态背景中的安全帽检测方法与***

Publications (1)

Publication Number Publication Date
CN109255298A true CN109255298A (zh) 2019-01-22

Family

ID=65049369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810913181.5A Pending CN109255298A (zh) 2018-08-07 2018-08-07 一种动态背景中的安全帽检测方法与***

Country Status (1)

Country Link
CN (1) CN109255298A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948501A (zh) * 2019-03-13 2019-06-28 东华大学 一种监控视频中人员和安全帽的检测方法
CN110070033A (zh) * 2019-04-19 2019-07-30 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110135476A (zh) * 2019-04-28 2019-08-16 深圳市中电数通智慧安全科技股份有限公司 一种个人安全装备的检测方法、装置、设备及***
CN110675469A (zh) * 2019-09-06 2020-01-10 常州大学 一种施工场景中检测目标之间空间关系的图像描述方法
CN110675403A (zh) * 2019-08-30 2020-01-10 电子科技大学 一种基于编码辅助信息的多实例图像分割方法
CN110781888A (zh) * 2019-10-25 2020-02-11 北京字节跳动网络技术有限公司 回归视频画面中屏幕的方法、装置、可读介质及电子设备
CN111310592A (zh) * 2020-01-20 2020-06-19 杭州视在科技有限公司 一种基于场景分析和深度学习的检测方法
CN112257620A (zh) * 2020-10-27 2021-01-22 广州华微明天软件技术有限公司 一种安全穿戴情况识别方法
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质
CN113128476A (zh) * 2021-05-17 2021-07-16 广西师范大学 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN113449589A (zh) * 2021-05-16 2021-09-28 桂林电子科技大学 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法
CN113838094A (zh) * 2021-09-28 2021-12-24 贵州乌江水电开发有限责任公司 一种基于智能视频识别的安全预警方法
CN114783087A (zh) * 2022-04-19 2022-07-22 山东浪潮科学研究院有限公司 一种创建智能门锁的方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504369A (zh) * 2014-12-12 2015-04-08 无锡北邮感知技术产业研究院有限公司 一种安全帽佩戴情况检测方法
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106372662A (zh) * 2016-08-30 2017-02-01 腾讯科技(深圳)有限公司 安全帽佩戴的检测方法和装置、摄像头、服务器
CN107316010A (zh) * 2017-06-13 2017-11-03 武汉理工大学 一种识别前方车辆尾灯及判断其状态的方法
CN108319926A (zh) * 2018-02-12 2018-07-24 安徽金禾软件股份有限公司 一种工地现场的安全帽佩戴检测***及检测方法
CN108319934A (zh) * 2018-03-20 2018-07-24 武汉倍特威视***有限公司 基于视频流数据的安全帽佩戴情况检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504369A (zh) * 2014-12-12 2015-04-08 无锡北邮感知技术产业研究院有限公司 一种安全帽佩戴情况检测方法
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106372662A (zh) * 2016-08-30 2017-02-01 腾讯科技(深圳)有限公司 安全帽佩戴的检测方法和装置、摄像头、服务器
CN107316010A (zh) * 2017-06-13 2017-11-03 武汉理工大学 一种识别前方车辆尾灯及判断其状态的方法
CN108319926A (zh) * 2018-02-12 2018-07-24 安徽金禾软件股份有限公司 一种工地现场的安全帽佩戴检测***及检测方法
CN108319934A (zh) * 2018-03-20 2018-07-24 武汉倍特威视***有限公司 基于视频流数据的安全帽佩戴情况检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
毕林 等: "《基于卷积神经网络的矿工安全帽佩戴识别研究》", 《黄金科学技术》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948501A (zh) * 2019-03-13 2019-06-28 东华大学 一种监控视频中人员和安全帽的检测方法
CN110070033A (zh) * 2019-04-19 2019-07-30 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110070033B (zh) * 2019-04-19 2020-04-24 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110135476A (zh) * 2019-04-28 2019-08-16 深圳市中电数通智慧安全科技股份有限公司 一种个人安全装备的检测方法、装置、设备及***
CN110675403B (zh) * 2019-08-30 2022-05-03 电子科技大学 一种基于编码辅助信息的多实例图像分割方法
CN110675403A (zh) * 2019-08-30 2020-01-10 电子科技大学 一种基于编码辅助信息的多实例图像分割方法
CN110675469A (zh) * 2019-09-06 2020-01-10 常州大学 一种施工场景中检测目标之间空间关系的图像描述方法
CN110781888A (zh) * 2019-10-25 2020-02-11 北京字节跳动网络技术有限公司 回归视频画面中屏幕的方法、装置、可读介质及电子设备
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质
CN111310592A (zh) * 2020-01-20 2020-06-19 杭州视在科技有限公司 一种基于场景分析和深度学习的检测方法
CN112257620A (zh) * 2020-10-27 2021-01-22 广州华微明天软件技术有限公司 一种安全穿戴情况识别方法
CN112257620B (zh) * 2020-10-27 2021-10-26 广州华微明天软件技术有限公司 一种安全穿戴情况识别方法
CN113449589A (zh) * 2021-05-16 2021-09-28 桂林电子科技大学 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法
CN113449589B (zh) * 2021-05-16 2022-11-15 桂林电子科技大学 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法
CN113128476A (zh) * 2021-05-17 2021-07-16 广西师范大学 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN113838094A (zh) * 2021-09-28 2021-12-24 贵州乌江水电开发有限责任公司 一种基于智能视频识别的安全预警方法
CN113838094B (zh) * 2021-09-28 2024-03-05 贵州乌江水电开发有限责任公司 一种基于智能视频识别的安全预警方法
CN114783087A (zh) * 2022-04-19 2022-07-22 山东浪潮科学研究院有限公司 一种创建智能门锁的方法及***

Similar Documents

Publication Publication Date Title
CN109255298A (zh) 一种动态背景中的安全帽检测方法与***
CN107818326B (zh) 一种基于场景多维特征的船只检测方法及***
CN109657592B (zh) 一种智能挖掘机的人脸识别方法
WO2020253308A1 (zh) 矿井下皮带运输人员人机交互行为安全监控与预警方法
CN106128022B (zh) 一种智慧金睛识别暴力动作报警方法
CN104166861B (zh) 一种行人检测方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN106127148B (zh) 一种基于机器视觉的手扶电梯乘客异常行为检测方法
CN109492581A (zh) 一种基于tp-stg框架的人体动作识别方法
CN109886241A (zh) 基于长短期记忆网络的驾驶员疲劳检测
CN103279737B (zh) 一种基于时空兴趣点的打架行为检测方法
CN106128053A (zh) 一种智慧金睛识别人员逗留徘徊报警方法和装置
CN106203274A (zh) 一种视频监控中行人实时检测***及方法
CN106204640A (zh) 一种运动目标检测***及方法
CN107808139A (zh) 一种基于深度学习的实时监控威胁分析方法及***
CN107622258A (zh) 一种结合静态底层特征和运动信息的快速行人检测方法
CN106210634A (zh) 一种智慧金睛识别人员倒地报警方法和装置
CN108830246B (zh) 一种交通环境行人多维运动特征视觉提取方法
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN105303191A (zh) 一种前视监视场景下的行人计数方法和装置
CN110728252B (zh) 一种应用于区域人员运动轨迹监控的人脸检测方法
CN105404857A (zh) 一种基于红外的夜间智能车前方行人检测方法
CN104063702A (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
CN106373146A (zh) 一种基于模糊学习的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190122