CN109255298A - 一种动态背景中的安全帽检测方法与*** - Google Patents
一种动态背景中的安全帽检测方法与*** Download PDFInfo
- Publication number
- CN109255298A CN109255298A CN201810913181.5A CN201810913181A CN109255298A CN 109255298 A CN109255298 A CN 109255298A CN 201810913181 A CN201810913181 A CN 201810913181A CN 109255298 A CN109255298 A CN 109255298A
- Authority
- CN
- China
- Prior art keywords
- worker
- safety cap
- target
- detection
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 16
- 238000010276 construction Methods 0.000 claims abstract description 5
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000004069 differentiation Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 238000009432 framing Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000000877 morphologic effect Effects 0.000 claims description 2
- 230000009017 pursuit movement Effects 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 230000001629 suppression Effects 0.000 claims description 2
- 239000006002 Pepper Substances 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 claims 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 claims 1
- 239000010931 gold Substances 0.000 claims 1
- 229910052737 gold Inorganic materials 0.000 claims 1
- 238000003062 neural network model Methods 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract 1
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明设计了一种动态背景中的安全帽检测方法与***。涉及目标检测与跟踪领域,该方法通过对工人与安全帽数据集进行标注与训练,利用卷积神经网络的特性,将卷积层中搜集的特征录入到分类器中展开训练,同时在网络最后加一个分类层,使这些特征进入分类器进行分类。利用聚类的方法得到anchor boxes,并对每个预测框预测四个坐标值。根据这四个坐标值对图片中的目标画出预测框。根据预测得到的预测框坐标与类别,进行是否头戴安全帽的判别与工人的跟踪。本发明能够对工地中工作人员是否头戴安全帽精确地识别,采用卷积神经网络的方法来提取特征,可以更好地提升传统方法的识别效率与精度,同时能够较好地客服背景多变情况下的检测难度大的缺点。
Description
技术领域
本发明涉及目标检测与跟踪领域,具体设计了一种动态背景中的安全帽检测方法与***。
背景技术
随着信息技术的发展,目标检测与跟踪,已逐渐渗透到人们生活的方方面面,其重要性日益突出,吸引了越来越多的海内外学者及研究机构参与到此领域的研究。目前,目标检测与跟踪已广泛应用于视频监控、虚拟现实、人机交互、行星探测、行为理解等领域,实现了公共安全监控与管理,意外事件防范、检测及处理,应急推演,老幼病残监护以及自主导航等功能。
目标检测(objection detection)是机器视觉中最常见的问题。是一种基于目标几何和统计特征的图像分割,它将目标的分割和识别合二为一,其准确性和实时性是整个***的一项重要能力,近年来,目标检测在人工智能,人脸识别,无人驾驶等领域都得到了广泛的应用。然而,在目标检测的过程中会受到各种各样干扰,比如角度、遮挡、光线强度等因素,这些因素会导致目标发生畸变,为目标检测增加了新的挑战。
近年来,卷积神经网络已经被广泛应用于物体检测与图像分类。网络通过训练该结构中的数百万个参数来自动学习特征。
发明内容
本发明设计一种动态背景中的安全帽检测方法与***。用于解决各种需要戴安全帽的场所的安全帽检测识别的问题,为了达到该目的,该方法通过对人与安全帽数据集进行标注与训练,利用卷积神经网络的特性,将卷积层中搜集的特征录入到分类器中展开训练。利用聚类的方法得到anchor boxes,并对每个预测框预测四个坐标值(tx,ty,tw,th)。根据这四个坐标值对图片中的目标画出预测框。
本发明所述的方法首先将图像分为多个网格,并为每个网格预测感兴趣对象的边界框,然后通过逻辑回归预测一个物体的得分,如果预测的这个边界框与真实图片中的物体的边界框大部分重合,并且比其他的所有预测的要好,这个边界框将保留,如果没有这个边界框的准确值没有达到阈值0.5,那么这个预测框就会被忽略。每个框使用多标签分类来预测边界框可能包含的类。在训练过程中,使用二元交叉熵损失来进行类别预测。对图片中的工人与安全帽进行预测后,我们进行工人是否头戴安全帽的判断,根据安全帽预测框的坐标与工人预测框的坐标,如果安全帽在工人的一定范围内(我们所指定的范围),可以认为该工人头戴安全帽。
区别于现有的处理方法,本发明的有益效果是:目前已有的安全帽识别方法一般都是基于颜色或形状特征,也有基于分类器的安全帽识别方法,此类方法效率一般都较为低,并且比较复杂。本发明在满足效率与准确率的前提下,极大地简化了传统方法的复杂度与难度,采用深度卷积神经网络的方法自动提取人体与安全帽有效区分特征,将特征提取,特征分类等步骤融合。使目标检测与识别的效率与精度又大大地提升。同时能够较好地客服背景多变情况下的检测难度大的缺点。
附图说明
图1是本发明所述的一种动态背景中的安全帽检测方法与***的卷积神经网络框架,图2是本发明所述的一种动态背景中的安全帽检测方法与***的的流程图。
具体实施方式
请参阅图2所示:
1、一种动态背景中的安全帽检测方法与***,其特征在于,所述方法包括以下步骤:
步骤一:工人与安全帽数据集采集,采集工地工人的视频图像,人工方式标注工人与安全帽,区分人与安全帽,得到人-安全帽识别数据集进入步骤二;
步骤二:工人与安全帽数据集训练,接着将我们标注的人-安全帽数据集作为我们卷积神经网络模型的训练集,最终得到工人-安全帽检测模型进行进入步骤三;
步骤三:目标检测,根据步骤二得到的工人-安全帽检测模型,对实时视频图像或已保存的视频图像进行检测,识别出视频图像中的目标的类别并得到预测框的坐标(tx,ty,tw,th)进入步骤四;
步骤四:目标分析,根据视频图像中的目标的工人预测框坐标,在他的一定坐标范围内遍历寻找是否有安全帽目标的存在,设(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)分别为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,根据坐标判断,人的头上是否有安全帽。我们还对每一个目标进行光流跟踪,为每一个进入视频图像中的目标设置跟踪ID,在该目标离开视频图像之前一直进行跟踪;
2、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤一中所述得到工人-安全帽数据集方法包括以下步骤:
步骤一:首先利用爬虫爬取网站上的建筑工地施工图片,或自行采集工地视频进行图片分帧提取,进入步骤二;
步骤二:然后删除掉不存在任何人或安全帽的图片,使用labelimg进行人工标注;
3、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤二所述的卷积神经网络模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的卷积神经网络,进行特征提取,我们的卷积神经网络框架有53个卷积层,一层池化层与一个全连接层,采用53 个卷积层进行特征提取,获取输入图像的特征,池化层用于降维与降低过拟合,最后一层全连接层综合前53个卷积层提取到特征,可由如下矩阵形式表示:
式中I1,...,I53为全连接层的输入,x1,...,x53为全连接层的输出,进入步骤二;
步骤二:考虑训练过程中的损失函数,我们采用均方和误差作为Loss函数,统一用以下公式作为损失函数:
其中,CoordErr为定位误差,IOUErr为IOU误差,ClassErr为分类误差;
具体展开式如下:
其中λCoord=5,该值为定位误差权重,λnoobject=0.5,该值为不包含物体的置信误差权重,为预测值,表示判断网格i中第j个检测边界框是否负责该物体,若负责则为1,否则为0;
4、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤三所述的目标检测包括以下步骤:
步骤一:首先输入视频图像,对每一帧的视频图像进行形态学滤波,祛除椒盐噪声,使图像更加平滑,进入步骤二;
步骤二:接着根据得到的训练好的工人-安全帽检测模型,检测过程中,输入图像被我们的卷积神经网络框架划分为S×S的网格,每个网格预测是否有物体的中心落入其内部,若某网格预测为是,则该网格再预测出N个检测边界框以及每个框的置信分数,其中置信分数反映了检测边界框对其检测出物体的自信程度。其计算公式为:
Confidence=Pr(Object)×IOU (4)
式中
其中,Pr(Object)代表边界框包含目标物体的概率;NNgt为基于训练标签的参考标准框,NNdt为检测边界框;area()表示面积,同时,每个检测边界框包含 5个参数:(tx,ty,tw,th)以及Confidence。(tx,ty)代表检测边界框的中心相对其母网格的位置。(tw,th)为检测边界框的宽和高;(tx,ty,tw,th)计算公式如下:
tx=δ(bx)+cx (6)
ty=δ(by)+cy (7)
其中cx,cy是网格的坐标偏移量,qw,qh是预设的anchor box的边长,(bx, by,bw,bh)是我们的卷积神经网络模型对每个bounding box预测的四个坐标值,最终得到边框的坐标值(tx,ty,tw,th);每个网格还预测C个类别概率,即 Pr(Classi|Object),此概率表示第i类物体中心落入该网格的概率;C为类别数量,与N无关,最终,输出层输出S×S×(B×(5+C))维的张量;进入步骤三;
步骤三:最后进行非极大值抑制,筛选boxes,得到最终物体所在位置的坐标及置信度;
5、根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤四目标分析,包括以下步骤:
步骤一:对已检测到目标进行是否戴安全帽的判别,首先定位到检测结果中的工人类别,再对检测结果进行遍历,寻找是否存在安全帽在工人的头上,若检测结果中定位不到工人,则跳出此帧,进行下一帧的检测,计算公式如下:
公式(10)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人直立情况;
公式(11)针对工人出现在视频画面边缘且工人直立情况;
公式(12)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人蹲或者坐的情况;
公式(13)针对工人出现视频画面边缘,且工人蹲或者坐的情况;
上述四个公式中(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)分别为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,上式中的等式排除了安全帽不在工人头上的情况,当f(x)=1 时即该工人头上有安全帽,反之则无,进入步骤二;
步骤二:对所有进入视频中的工人进行跟踪,以便最后进行统计计数,跟踪方法采用金字塔分层的光流跟踪法,对检测到结果特征采用光流跟踪,利用运动目标随时间变化的光流场特性,从而有效地提取和跟踪运动目标,每当该物体离开视频范围,则计数加一,最终统计整个视频中出现的戴安全帽与不戴安全帽工人的数目;构建基于金字塔分层的LK光流法具体如下:
①对每一帧建立一个高斯金字塔,最低分辨率图像在最顶层,原始图像在底层;
②从顶层Lm层开始,通过最小化每个点的领域范围内的匹配误差和,得到顶层图像中每个点的光流;计算公式如下:
上式中,I(x,y)为前一帧图像上一点的灰度值,J(x+dx,y+dy)为后一帧图像上与I(x,y)最接近的灰度值,向量[dx,dy]是图像在点(x,y)处的运动位移,即像素点(x,y)的光流;
假设图像的尺寸每次缩放为原来的一半,共缩放Lm层,则第0层为原图像,设已知原图的位移为d,则每层的位移为:
③顶层的光流计算结果反馈到第Lm-1层,作为该层初始时的光流值估计g
gL-1=2(gL+dL) (16)
④沿金字塔向下反馈,重复估计动作,直到金字塔底层(原图像),底层位移为:
d=g0+d0 (17)
对于每一层L,每个点的光流计算都是基于领域内所有点的匹配误差和最小值,计算公式如下:
上式中,wx,wy定义了图像上矩形窗口的大小(2×wx+1),(2×wy+ 1),(ux,uy)为某一像素点的坐标,使用上式的光流计算方式,可以解决比较大的运动目标跟踪;
由于金字塔的缩放减小了光流值,顶层的光流估计值可以设为0;
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所做的等效结构或等流程变换,或直接或间接运用在相关技术领域,均同理包括在本发明的专利保护范围。
Claims (5)
1.一种动态背景中的安全帽检测方法与***,其特征在于,所述方法包括以下步骤:
步骤一:工人与安全帽数据集采集,采集工地工人的视频图像,人工方式标注工人与安全帽,区分人与安全帽,得到人-安全帽识别数据集;
步骤二:工人与安全帽数据集训练,接着将我们标注的人-安全帽数据集作为我们卷积神经网络模型的训练集,最终得到工人-安全帽检测模型;
步骤三:目标检测,根据步骤二得到的工人-安全帽检测模型,对实时视频图像或已保存的视频图像进行检测,识别出视频图像中的目标的类别并得到预测框的坐标(tx,ty,tw,th);
步骤四:目标分析,根据视频图像中的目标的工人预测框坐标,在他的一定坐标范围内遍历寻找是否有安全帽目标的存在,设(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)分别为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,根据坐标判断,人的头上是否有安全帽;我们还对每一个目标进行光流跟踪,为每一个进入视频图像中的目标设置跟踪ID,在该目标离开视频图像之前一直进行跟踪。
2.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤一中所述得到工人-安全帽数据集方法包括以下步骤:
步骤一:首先利用爬虫爬取网站上的建筑工地施工图片,或自行采集工地视频进行图片分帧提取;
步骤二:然后删除掉不存在任何人或安全帽的图片,使用labelimg进行人工标注。
3.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤二所述的卷积神经网络模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的卷积神经网络,进行特征提取,我们的卷积神经网络框架有53个卷积层,一层池化层与一个全连接层,采用53个卷积层进行特征提取,获取输入图像的特征;池化层用于降维与降低过拟合,最后一层全连接层负责综合前53个卷积层提取到的特征,可由如下矩阵形式表示:
式中I1,...,I53为全连接层的输入,x1,...,x53为全连接层的输出;
步骤二:考虑训练过程中的损失函数,我们采用均方和误差作为Loss函数,统一用以下公式作为损失函数:
其中,CoordErr为定位误差,IOUErr为IOU误差,ClassErr为分类误差。
4.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤三所述的目标检测包括以下步骤:
步骤一:首先输入视频图像,对每一帧的视频图像进行形态学滤波,祛除椒盐噪声,使图像更加平滑;
步骤二:接着根据得到的训练好的工人-安全帽检测模型,检测过程中,输入图像被我们的卷积神经网络框架划分为S×S的网格,每个网格预测是否有物体的中心落入其内部,若某网格预测为是,则该网格再预测出N个检测边界框以及每个框的置信分数,其中置信分数反映了检测边界框对其检测出物体的自信程度,其计算公式为:
Confidence=Pr(Object)×IOU (3)
式中
其中,Pr(Object)代表边界框包含目标物体的概率;NNgt为基于训练标签的参考标准框,NNdt为检测边界框;area()表示面积;同时,每个检测边界框包含5个参数:(tx,ty,tw,th)以及Confidence;(tx,ty)代表检测边界框的中心相对其母网格的位置;(tw,th)为检测边界框的宽和高,(tx,ty,tw,th)计算公式如下:
tx=δ(bx)+dx (5)
ty=δ(by)+dy (6)
其中dx,dy是网格的坐标偏移量,qw,qh是预设的anchor box的边长,(bx,by,bw,nh)是我们的卷积神经网络模型对每个bounding box预测的四个坐标值,最终得到边框的坐标值(tx,ty,tw,th);每个网格还预测C个类别概率,即Pr(Classi|Object),此概率表示第i类物体中心落入该网格的概率;C为类别数量,与N无关;
步骤三:最后进行非极大值抑制,筛选boxes,得到最终物体所在位置的坐标及置信度。
5.根据权利要求1所述的一种动态背景中的安全帽检测方法与***,其特征在于,步骤四目标分析,包括以下步骤:
步骤一:对已检测到目标进行是否戴安全帽的判别,首先定位到检测结果中的工人类别,再对检测结果进行遍历,寻找是否存在安全帽在工人的头上,若检测结果中定位不到工人,则跳出此帧,进行下一帧的检测,计算公式如下:
公式(9)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人直立情况;
公式(10)针对工人出现在视频画面边缘且工人直立情况;
公式(11)针对工人出现在视频画面中央范围未接触到视频画面边缘,且工人蹲或者坐的情况;
公式(12)针对工人出现视频画面边缘,且工人蹲或者坐的情况;
上述4个公式中(px,py)为人预测框的左上角坐标,pw,ph分别为人预测框的宽和高,(hx,hy)为安全帽预测框的左上角坐标,pw,ph分别为安全帽预测框的宽和高,上式中的等式排除了安全帽不在工人头上的情况;当f(x)=1时即该工人头上有安全帽,反之则无;
步骤二:对所有进入视频中的工人进行跟踪,以便最后进行统计计数,跟踪方法采用金字塔分层的光流跟踪法;对检测到结果特征采用光流跟踪,利用运动目标随时间变化的光流场特性,从而有效地提取和跟踪运动目标;每当该物体离开视频范围,则计数加一,最终统计整个视频中出现的戴安全帽与不戴安全帽工人的数目。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810913181.5A CN109255298A (zh) | 2018-08-07 | 2018-08-07 | 一种动态背景中的安全帽检测方法与*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810913181.5A CN109255298A (zh) | 2018-08-07 | 2018-08-07 | 一种动态背景中的安全帽检测方法与*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109255298A true CN109255298A (zh) | 2019-01-22 |
Family
ID=65049369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810913181.5A Pending CN109255298A (zh) | 2018-08-07 | 2018-08-07 | 一种动态背景中的安全帽检测方法与*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109255298A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948501A (zh) * | 2019-03-13 | 2019-06-28 | 东华大学 | 一种监控视频中人员和安全帽的检测方法 |
CN110070033A (zh) * | 2019-04-19 | 2019-07-30 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110135476A (zh) * | 2019-04-28 | 2019-08-16 | 深圳市中电数通智慧安全科技股份有限公司 | 一种个人安全装备的检测方法、装置、设备及*** |
CN110675469A (zh) * | 2019-09-06 | 2020-01-10 | 常州大学 | 一种施工场景中检测目标之间空间关系的图像描述方法 |
CN110675403A (zh) * | 2019-08-30 | 2020-01-10 | 电子科技大学 | 一种基于编码辅助信息的多实例图像分割方法 |
CN110781888A (zh) * | 2019-10-25 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 回归视频画面中屏幕的方法、装置、可读介质及电子设备 |
CN111310592A (zh) * | 2020-01-20 | 2020-06-19 | 杭州视在科技有限公司 | 一种基于场景分析和深度学习的检测方法 |
CN112257620A (zh) * | 2020-10-27 | 2021-01-22 | 广州华微明天软件技术有限公司 | 一种安全穿戴情况识别方法 |
CN112949354A (zh) * | 2019-12-10 | 2021-06-11 | 顺丰科技有限公司 | 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质 |
CN113128476A (zh) * | 2021-05-17 | 2021-07-16 | 广西师范大学 | 一种基于计算机视觉目标检测的低功耗实时头盔检测方法 |
CN113449589A (zh) * | 2021-05-16 | 2021-09-28 | 桂林电子科技大学 | 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法 |
CN113838094A (zh) * | 2021-09-28 | 2021-12-24 | 贵州乌江水电开发有限责任公司 | 一种基于智能视频识别的安全预警方法 |
CN114783087A (zh) * | 2022-04-19 | 2022-07-22 | 山东浪潮科学研究院有限公司 | 一种创建智能门锁的方法及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504369A (zh) * | 2014-12-12 | 2015-04-08 | 无锡北邮感知技术产业研究院有限公司 | 一种安全帽佩戴情况检测方法 |
CN105976400A (zh) * | 2016-05-10 | 2016-09-28 | 北京旷视科技有限公司 | 基于神经网络模型的目标跟踪方法及装置 |
CN106372662A (zh) * | 2016-08-30 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN107316010A (zh) * | 2017-06-13 | 2017-11-03 | 武汉理工大学 | 一种识别前方车辆尾灯及判断其状态的方法 |
CN108319926A (zh) * | 2018-02-12 | 2018-07-24 | 安徽金禾软件股份有限公司 | 一种工地现场的安全帽佩戴检测***及检测方法 |
CN108319934A (zh) * | 2018-03-20 | 2018-07-24 | 武汉倍特威视***有限公司 | 基于视频流数据的安全帽佩戴情况检测方法 |
-
2018
- 2018-08-07 CN CN201810913181.5A patent/CN109255298A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504369A (zh) * | 2014-12-12 | 2015-04-08 | 无锡北邮感知技术产业研究院有限公司 | 一种安全帽佩戴情况检测方法 |
CN105976400A (zh) * | 2016-05-10 | 2016-09-28 | 北京旷视科技有限公司 | 基于神经网络模型的目标跟踪方法及装置 |
CN106372662A (zh) * | 2016-08-30 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN107316010A (zh) * | 2017-06-13 | 2017-11-03 | 武汉理工大学 | 一种识别前方车辆尾灯及判断其状态的方法 |
CN108319926A (zh) * | 2018-02-12 | 2018-07-24 | 安徽金禾软件股份有限公司 | 一种工地现场的安全帽佩戴检测***及检测方法 |
CN108319934A (zh) * | 2018-03-20 | 2018-07-24 | 武汉倍特威视***有限公司 | 基于视频流数据的安全帽佩戴情况检测方法 |
Non-Patent Citations (1)
Title |
---|
毕林 等: "《基于卷积神经网络的矿工安全帽佩戴识别研究》", 《黄金科学技术》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948501A (zh) * | 2019-03-13 | 2019-06-28 | 东华大学 | 一种监控视频中人员和安全帽的检测方法 |
CN110070033A (zh) * | 2019-04-19 | 2019-07-30 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110070033B (zh) * | 2019-04-19 | 2020-04-24 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110135476A (zh) * | 2019-04-28 | 2019-08-16 | 深圳市中电数通智慧安全科技股份有限公司 | 一种个人安全装备的检测方法、装置、设备及*** |
CN110675403B (zh) * | 2019-08-30 | 2022-05-03 | 电子科技大学 | 一种基于编码辅助信息的多实例图像分割方法 |
CN110675403A (zh) * | 2019-08-30 | 2020-01-10 | 电子科技大学 | 一种基于编码辅助信息的多实例图像分割方法 |
CN110675469A (zh) * | 2019-09-06 | 2020-01-10 | 常州大学 | 一种施工场景中检测目标之间空间关系的图像描述方法 |
CN110781888A (zh) * | 2019-10-25 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 回归视频画面中屏幕的方法、装置、可读介质及电子设备 |
CN112949354A (zh) * | 2019-12-10 | 2021-06-11 | 顺丰科技有限公司 | 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质 |
CN111310592A (zh) * | 2020-01-20 | 2020-06-19 | 杭州视在科技有限公司 | 一种基于场景分析和深度学习的检测方法 |
CN112257620A (zh) * | 2020-10-27 | 2021-01-22 | 广州华微明天软件技术有限公司 | 一种安全穿戴情况识别方法 |
CN112257620B (zh) * | 2020-10-27 | 2021-10-26 | 广州华微明天软件技术有限公司 | 一种安全穿戴情况识别方法 |
CN113449589A (zh) * | 2021-05-16 | 2021-09-28 | 桂林电子科技大学 | 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法 |
CN113449589B (zh) * | 2021-05-16 | 2022-11-15 | 桂林电子科技大学 | 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法 |
CN113128476A (zh) * | 2021-05-17 | 2021-07-16 | 广西师范大学 | 一种基于计算机视觉目标检测的低功耗实时头盔检测方法 |
CN113838094A (zh) * | 2021-09-28 | 2021-12-24 | 贵州乌江水电开发有限责任公司 | 一种基于智能视频识别的安全预警方法 |
CN113838094B (zh) * | 2021-09-28 | 2024-03-05 | 贵州乌江水电开发有限责任公司 | 一种基于智能视频识别的安全预警方法 |
CN114783087A (zh) * | 2022-04-19 | 2022-07-22 | 山东浪潮科学研究院有限公司 | 一种创建智能门锁的方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255298A (zh) | 一种动态背景中的安全帽检测方法与*** | |
CN107818326B (zh) | 一种基于场景多维特征的船只检测方法及*** | |
CN109657592B (zh) | 一种智能挖掘机的人脸识别方法 | |
WO2020253308A1 (zh) | 矿井下皮带运输人员人机交互行为安全监控与预警方法 | |
CN106128022B (zh) | 一种智慧金睛识别暴力动作报警方法 | |
CN104166861B (zh) | 一种行人检测方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN106127148B (zh) | 一种基于机器视觉的手扶电梯乘客异常行为检测方法 | |
CN109492581A (zh) | 一种基于tp-stg框架的人体动作识别方法 | |
CN109886241A (zh) | 基于长短期记忆网络的驾驶员疲劳检测 | |
CN103279737B (zh) | 一种基于时空兴趣点的打架行为检测方法 | |
CN106128053A (zh) | 一种智慧金睛识别人员逗留徘徊报警方法和装置 | |
CN106203274A (zh) | 一种视频监控中行人实时检测***及方法 | |
CN106204640A (zh) | 一种运动目标检测***及方法 | |
CN107808139A (zh) | 一种基于深度学习的实时监控威胁分析方法及*** | |
CN107622258A (zh) | 一种结合静态底层特征和运动信息的快速行人检测方法 | |
CN106210634A (zh) | 一种智慧金睛识别人员倒地报警方法和装置 | |
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN103049751A (zh) | 一种改进的加权区域匹配高空视频行人识别方法 | |
CN105303191A (zh) | 一种前视监视场景下的行人计数方法和装置 | |
CN110728252B (zh) | 一种应用于区域人员运动轨迹监控的人脸检测方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN104063702A (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
CN106373146A (zh) | 一种基于模糊学习的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190122 |