CN110046574A - 基于深度学习的安全帽佩戴识别方法及设备 - Google Patents

基于深度学习的安全帽佩戴识别方法及设备 Download PDF

Info

Publication number
CN110046574A
CN110046574A CN201910300441.6A CN201910300441A CN110046574A CN 110046574 A CN110046574 A CN 110046574A CN 201910300441 A CN201910300441 A CN 201910300441A CN 110046574 A CN110046574 A CN 110046574A
Authority
CN
China
Prior art keywords
safety cap
neural networks
convolutional neural
identification model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910300441.6A
Other languages
English (en)
Inventor
袁飞
华仁红
马向军
孙文凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yida Turing Technology Co Ltd
Original Assignee
Beijing Yida Turing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yida Turing Technology Co Ltd filed Critical Beijing Yida Turing Technology Co Ltd
Priority to CN201910300441.6A priority Critical patent/CN110046574A/zh
Publication of CN110046574A publication Critical patent/CN110046574A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种基于深度学习的安全帽佩戴识别方法及设备,所述方法通过将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。

Description

基于深度学习的安全帽佩戴识别方法及设备
技术领域
本发明实施例涉及图像识别技术领域,尤其涉及一种基于深度学习的安全帽佩戴识别方法及设备。
背景技术
现有的安全帽佩戴识别方法主要采用传统的模式识别,通过图像预处理、特征提取、安全帽识别等一系列的步骤实现安全帽佩戴识别,现有的方法虽然具体实施步骤有所不同,但整体流程、使用的技术都大同小异。
背景技术一中人脸定位和特征提取是安全帽识别的关键技术。首先通过人脸定位来判断安全帽的位置,采用检测肤色和眼睛、嘴巴的映射定位人脸,然后扫面人脸上部的矩形区域,通过提取颜色和形状特征来判断头部是否佩戴安全帽。背景技术二首先通过肤色检测的方法定位到人脸区域,并以此获得脸部以上的区域图像,然后将Hu矩作为图像的特征向量,最后对提取到的特征进行分类,进而识别出头部是否佩戴安全帽。背景技术三首先对输入图像进行强度无关变换,然后根据变换后得到的图像信息构建尺度空间,利用DOG算子检测输入图像信息包含的所有关键点。最后依托已有的基于点特征的图像配准进行特征匹配进而识别出是否佩戴安全帽。
现有的方法采用传统的模式识别方法,安全帽佩戴识别包括预处理图像、特征提取、识别等步骤,步骤繁琐,而且需要大量的先验知识,对算法设计人员的专业知识要求较高,算法设计人员的水平直接决定了能否准确检测出是否佩戴安全帽。传统的模式识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响,这大大增加了安全帽佩戴识别的难度。
发明内容
本发明实施例提供一种基于深度学习的安全帽佩戴识别方法及设备,用以解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
根据本发明实施例第一个方面,提供一种基于深度学习的安全帽佩戴识别方法,包括:
将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;
基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。
进一步地,将待识别图像输入预先构建的安全帽识别模型,之前还包括:
获取第一图像样本集,并对第一图像样本集进行标注;
基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型。
根据本发明实施例第二个方面,提供一种基于深度学习的安全帽佩戴识别设备,包括:
输入模块,用于将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;
获取模块,用于基于安全帽佩戴识别模型的输出结果,获得待识别图像中包含安全帽佩戴的子图像。
根据本发明实施例第三个方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一项所述安全帽佩戴识别方法。
本发明实施例提供的基于深度学习的安全帽佩戴识别方法及设备,所述方法通过将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度学习的安全帽佩戴识别方法实施例整体流程示意图;
图2为本发明基于深度学习的安全帽佩戴识别设备实施例整体结构示意图;
图3为本发明电子设备实施例结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有的安全帽佩戴识别受光照的影响较大,并且不同的特征提取方法对安全帽识别方案的鲁棒性也有影响。为解决上述问题,本发明实施例提供一种基于深度学习的安全帽佩戴识别方法。如图1,示出本发明实施例一种基于深度学习的安全帽佩戴识别方法整体流程示意图。该方法的执行主体可以是智能手机、智能手环等便携智能终端,还可以是云端服务器,本发明对此不作具体限定。该方法包括:
步骤S1,将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得。
具体的,待识别图像为包含需要被识别是否佩戴有安全帽人物的图像。待识别图像可以是通过摄像装置实时获取的图像,也可以是预先获取并存储在特定存储器或服务器中的图像。进一步,待识别图像可以是单帧的静态图片图像,也可以是动态的视频图像。图片图像的格式可以为:BMP、TIFF、 EPS、JPEG、GIF、PSD和PDF等;视频图像的格式可以为MPEG、MPG、AVI、 MOV、RMVB和FLV等。
进一步,安全帽识别模型为基于预先标注的图像样本和多层卷积神经网络训练获得。需要说明的是,多层卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络 (Feedforward Neural Networks),是深度学***移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-InvariantArtificial Neural Networks,SIANN)”。多层卷积神经网络在大量学习数据时有稳定的表现,对于一般的大规模图像分类问题,多层卷积神经网络可用于构建阶层分类器,也可以在精细分类识别(fine-grained recognition)中用于提取图像的判别特征以供其它分类器进行学习。对于后者,特征提取可以人为地将图像的不同部分分别输入卷积神经网络,也可以由卷积神经网络通过非监督学习自行提取。
其中,步骤S1前需要首先获取一定数量的图像样本,图像样本可以为摄像设备采集的图片、网上下载的公共图片和经过图像处理技术扩充的图片。作为多层卷积神经网络训练的前期准备工作,图像样本的标注是一项基础的工作。图像样本的标注可以通过现有技术中的LabelMe软件,标注人员在样本图像中包含安全帽的图像区域,通过手动绘制矩形或多边形的方式实现图像标注;也可以使用ByLabel软件,通过自动提取图像边缘,手动选取边缘并编组的方式实现图像标注。关于图像样本的具体标注方式本发明实施例不作具体限定。
进一步,基于预先标注的图像样本和多层卷积神经网络训练获得所述安全帽识别模型的过程,可以采用现有技术中的训练方式,也可以采用本发明下述实施例中的训练方式。其中,现有技术中的训练方式例如包括:首先,多层卷积神经网络进行权值的初始化;其次,将标注的图像样本输入数据经过卷积层、下采样层、全连接层的向前传播得到输出值;再次,求出多层卷积神经网络的输出值与目标值之间的误差;再次,当误差大于期望值时,将误差传回多层卷积神经网络中,依次求得全连接层,下采样层,卷积层的误差。各层的误差可以理解为对于多层卷积神经网络的总误差,多层卷积神经网络应承担多少;当误差等于或小于期望值时,结束训练。最后,根据求得误差进行权值更新。本发明实施例不对安全帽识别模型的训练方法作具体限定。
步骤S2,基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。
具体地,举个具体实例来对步骤S2的实现步骤进行说明。步骤S2实现过程的第一步基于卷积层实现,卷积层执行了以下几个步骤。首先,将待识别图像分解成一系列重叠的m*m像素的拼图,其中m≥2,且为正整数。之后,基于一个简单的单层神经网络运行这些拼图,权重保持不变。将拼图排列组合,当保持每个重叠后的拼图尺寸是小的(m*m)时,安全帽识别模型需要处理它们保证可控与小型化。然后,将以数字表示照片中每个区域的内容的数组进行输出值排列,其中坐标轴表示颜色,宽度和高度。下一步是池化层。采用这些3或4维阵列,并与空间维度一起应用下采样功能。结果输出一个池数组,其中仅包含重要的图像部分,同时丢弃剩余部分,这最大限度地减少了需要完成的计算量,同时也避免了过度拟合问题。采用下采样阵列作为常规全连接神经网络的输入。最后一步的输出待识别图像中对于各拼图中包含安全帽的概率值(确信值)。确信值最高的一个或多个拼图组成包含安全帽的子图像。其中,本发明实施例不对步骤S2的具体实现方法作具体限定。
本发明实施例提供的安全帽佩戴识别方法,通过将待识别图像输入预先构建的安全帽识别模型;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
基于上述实施例,将待识别图像输入预先构建的安全帽识别模型,之前还包括:
获取第一图像样本集,并对第一图像样本集进行标注;
基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型。
其中,首先一定数量的图像样本,图像样本中能够为摄像设备采集的图片、网上下载的公共图片和经过图像处理技术扩充的图片。作为多层卷积神经网络训练的前期准备工作,图像样本的标注是一项基础的工作。图像样本的标注可以通过现有技术中的LabelMe软件,在通过标注人员在样本图像中包含安全帽的图像区域手动绘制矩形或多边形的方式实现图像标注;也可以使用ByLabel软件,自动提取图像边缘,手动选取边缘并编组的方式实现图像标注。关于图像样本的具体标注方式本发明实施例不作具体限定,将标注后的图像样本作为第一图像样本集。
进一步,基于第一图像样本集中预先标注的图像样本和多层卷积神经网络训练获得所述安全帽识别模型的过程可以采用现有技术中的训练方式,也可以采用本发明下述实施例中的训练方式。其中,现有技术中的训练方式例如包括:首先,多层卷积神经网络进行权值的初始化;其次,将标注的图像样本输入数据经过卷积层、下采样层、全连接层的向前传播得到输出值;再次,求出网络的输出值与目标值之间的误差;再次,当误差大于我们的期望值时,将误差传回网络中,依次求得全连接层,下采样层,卷积层的误差。各层的误差可以理解为对于网络的总误差,网络应承担多少;当误差等于或小于我们的期望值时,结束训练。最后,根据求得误差进行权值更新。本发明实施例不对安全帽识别模型的训练方法作具体限定。
本发明实施例提供的安全帽佩戴识别方法,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
基于上述任一实施例,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,之前还包括:在多层卷积神经网络上添加focus loss 损失函数。
其中,损失函数(loss function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。例如在统计学和机器学习中被用于模型的参数估计。
focus loss是现有技术中一种处理深度学习中正负样本不均衡的损失函数,降低non-hard-sample的loss,提高hard-sample的loss。以二分类cross entropy loss为例。
L(y,y0)=-log(Py)
其中,
Py=P if y0=1
Py=1-P if y0=0
y0是truth label,Py是predicted probablity,Py∈[0,1];
focus loss的一个实现是修改loss为如下形式:
L(y,y0)=-(1-Py)2log(Py)
显然Py越接近1的样本,其分类效果越好,也说明这个样本属于 non-hard-sample,观察,focus loss压制了较大的Py对应的loss值,降低在反向传播过程中的作用。
进一步,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,包括:基于标注的第一图像样本集对多层卷积神经网络进行训练,直至loss不再下降为止,获得安全帽识别模型。
本发明实施例提供的基于深度学习的安全帽佩戴识别方法,通过在安全帽识别模型中加入focus loss,解决了。正负样本比例严重失衡的问题。
在本发明任一上述具体实施例的基础上,提供一种基于深度学习的安全帽佩戴识别方法,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,包括:
基于标注的第一图像样本集对多层卷积神经网络进行训练,直至loss不再下降为止,获得安全帽识别模型。
本发明实施例提供的基于深度学习的安全帽佩戴识别方法,通过在安全帽识别模型中加入focus loss,基于标注的第一图像样本集对多层卷积神经网络进行训练,直至loss不再下降为止,获得安全帽识别模型,解决了正负样本比例严重失衡的问题。
在本发明任一上述具体实施例的基础上,提供一种基于深度学习的安全帽佩戴识别方法,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,包括:
S21,设置多层卷积神经网络的层数、卷积核大小和每层的卷积核数目,获得多层卷积神经网络;
S22,基于标注的第一图像样本集和误差反向传播算法对多层卷积神经网络进行训练,获得安全帽识别模型。
需要说明的是,每个多层卷积神经网络内包含多个卷层,每个卷积层内包含多个卷积核,卷积核大小必须大于1才有提升感受野的作用。步骤S21 用于预先设置多层卷积神经网络的层数、卷积核大小和每层的卷积核数目。
其中,误差反向传播法,即BP法(error BackPropagation)影响广泛,也称 BP算法。BP算法是自动控制上最重要、应用最多的有效算法。BP算法的基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。
正向传播:输入样本→输入层→各隐层(处理)→输出层。
误差反向传播:输出误差(某种形式)→隐层(逐层)→输入层。其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程)。
本发明实施例提供的安全帽佩戴识别方法,基于标注的第一图像样本集和误差反向传播算法对多层卷积神经网络进行训练,获得安全帽识别模型,使得安全帽识别模型的训练过程更加高效。
在本发明任一上述具体实施例的基础上,提供一种基于深度学习的安全帽佩戴识别方法,
基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,还包括:
从每次执行步骤S21和步骤S22训练后获得的多层卷积神经网络中,选择loss值较小的n个;n≥2,且为整数;
基于验证集对n个训练后获得的多层卷积神经网络进行验证,测试安全帽佩戴识别的精度,选取识别误差最小的为安全帽识别模型。
本发明实施例提供的安全帽佩戴识别方法,通过将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
在本发明任一上述具体实施例的基础上,提供一种基于深度学习的安全帽佩戴识别方法,第一图像样本集包括摄像设备采集的图片、网上下载的公共图片和经过图像处理技术扩充的图片。
本发明实施例提供的安全帽佩戴识别方法,通过将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
如图2,在本发明任一上述具体实施例的基础上,提供一种基于深度学习的安全帽佩戴识别设备,包括:
输入模块201,用于将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得。
具体的,待识别图像为包含需要被识别是否佩戴有安全帽人物的图像。待识别图像可以是通过摄像装置实时获取的图像,也可以是预先获取并存储在特定存储器或服务器中的图像。进一步,待识别图像可以是单帧的静态图片图像,也可以是动态的视频图像。图片图像的格式可以为:BMP、TIFF、EPS、JPEG、GIF、PSD和PDF等;视频图像的格式可以为MPEG、MPG、AVI、 MOV、RMVB和FLV等。
进一步,安全帽识别模型为基于预先标注的图像样本和多层卷积神经网络训练获得。需要说明的是,多层卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络 (Feedforward Neural Networks),是深度学***移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-InvariantArtificial Neural Networks,SIANN)”。多层卷积神经网络在大量学习数据时有稳定的表现,对于一般的大规模图像分类问题,多层卷积神经网络可用于构建阶层分类器,也可以在精细分类识别(fine-grained recognition)中用于提取图像的判别特征以供其它分类器进行学习。对于后者,特征提取可以人为地将图像的不同部分分别输入卷积神经网络,也可以由卷积神经网络通过非监督学习自行提取。
其中,输入模块201执行上述步骤之前需要首先获取一定数量的图像样本,图像样本可以为摄像设备采集的图片、网上下载的公共图片和经过图像处理技术扩充的图片。作为多层卷积神经网络训练的前期准备工作,图像样本的标注是一项基础的工作。图像样本的标注可以通过现有技术中的 LabelMe软件,标注人员在样本图像中包含安全帽的图像区域手动绘制矩形或多边形的方式实现图像标注;也可以使用ByLabel软件,自动提取图像边缘,标注人员手动选取边缘并编组的方式实现图像标注。关于图像样本的具体标注方式本发明实施例不作具体限定。
进一步,基于预先标注的图像样本和多层卷积神经网络训练获得所述安全帽识别模型的过程可以采用现有技术中的训练方式,也可以采用本发明下述实施例中的训练方式。其中,现有技术中的训练方式例如包括:首先,多层卷积神经网络进行权值的初始化;其次,将标注的图像样本输入数据经过卷积层、下采样层、全连接层的向前传播得到输出值;再次,求出多层卷积神经网络的输出值与目标值之间的误差;再次,当误差大于的期望值时,将误差传回网络中,依次求得全连接层,下采样层,卷积层的误差。各层的误差可以理解为对于多层卷积神经网络的总误差,多层卷积神经网络应承担多少;当误差等于或小于期望值时,结束训练。最后,根据求得误差进行权值更新。本发明实施例不对安全帽识别模型的训练方法作具体限定。
获取模块202,用于基于安全帽佩戴识别模型的输出结果,获得待识别图像中包含安全帽佩戴的子图像。
具体地,举个具体实例对获取模块202所实现的步骤进行说明。获取模块02所实现的步骤的第一步基于卷积层实现,卷积层执行了以下几个步骤。首先,将待识别图像分解成一系列重叠的m*m像素的拼图,其中m≥2,且为正整数。之后,基于一个简单的单层神经网络运行这些拼图,权重保持不变。将拼图排列组合,当保持每个拼图尺寸是小的(m*m)时,安全帽识别模型需要处理它们保证可控与小型化。然后,将以数字表示照片中每个区域的内容的数组进行输出值排列,其中坐标轴表示颜色,宽度和高度。下一步是池化层。它采用这些3或4维阵列,并与空间维度一起应用下采样功能。结果是一个池数组,其中仅包含重要的图像部分,同时丢弃剩余部分,这最大限度地减少了需要完成的计算量,同时也避免了过度拟合问题。采用下采样阵列作为常规全连接神经网络的输入。最后一步的输出待识别图像中对于各拼图中包含安全帽的概率值(确信值)。确信值最高的一个或多个拼图组成包含安全帽的子图像。其中,本发明实施例不对获取模块202所执行步骤的具体实现方法作具体限定。
本发明实施例提供的安全帽佩戴识别方法,通过将待识别图像输入预先构建的安全帽识别模型;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。解决了现有技术中安全帽佩戴识别方案受光照的影响较大,并且不同的特征提取方法对算法的鲁棒性也有影响的技术问题,实现快速和准确进行安全帽佩戴识别的技术效果。
举个例子如下:
图3示例了一种电子设备的实体结构示意图,如图3所示,该电子设备可以包括:处理器(processor)301、通信接口(Communications Interface)302、存储器(memory)303和通信总线304,其中,处理器301,通信接口302,存储器303通过通信总线304完成相互间的通信。处理器301可以调用存储器 303中的逻辑指令,以执行如下方法:将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。
此外,上述的存储器303中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于深度学习的安全帽佩戴识别方法,其特征在于,包括:
将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;
基于安全帽识别模型的输出结果,获得待识别图像中包含安全帽的子图像。
2.根据权利要求1所述的安全帽佩戴识别方法,其特征在于,将待识别图像输入预先构建的安全帽识别模型,之前还包括:
获取第一图像样本集,并对第一图像样本集进行标注;
基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型。
3.根据权利要求2所述的安全帽佩戴识别方法,其特征在于,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,之前还包括:在多层卷积神经网络上添加focus loss损失函数。
4.根据权利要求3所述的安全帽佩戴识别方法,其特征在于,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,包括:
基于标注的第一图像样本集对多层卷积神经网络进行训练,直至loss不再下降为止,获得安全帽识别模型。
5.根据权利要求4所述的安全帽佩戴识别方法,其特征在于,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,包括:
S21,设置多层卷积神经网络的层数、卷积核大小和每层的卷积核数目,获得多层卷积神经网络;
S22,基于标注的第一图像样本集和误差反向传播算法对多层卷积神经网络进行训练,获得安全帽识别模型。
6.根据权利要求5所述的安全帽佩戴识别方法,其特征在于,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,还包括:
重复步骤S21和步骤S22;
每次执行步骤S21时,在先前多层卷积神经网络中增加卷积层得到新的多层卷积神经网络;
基于步骤S22对新的多层卷积神经网络进行训练;
当训练后获得的多层卷积神经网络的loss值不再变化,且loss值小于预设阈值时,以当前的训练后获得的多层卷积神经网络作为安全帽识别模型。
7.根据权利要求6所述的安全帽佩戴识别方法,其特征在于,基于标注的第一图像样本集和多层卷积神经网络训练获得安全帽识别模型,还包括:
从每次执行步骤S21和步骤S22训练后获得的多层卷积神经网络中,选择loss值较小的n个;n≥2,且为整数;
基于验证集对n个训练后获得的多层卷积神经网络进行验证,测试安全帽佩戴识别的精度,选取识别误差最小的为安全帽识别模型。
8.根据权利要求2所述的安全帽佩戴识别方法,其特征在于,第一图像样本集包括摄像设备采集的图片、网上下载的公共图片和经过图像处理技术扩充的图片。
9.一种基于深度学习的安全帽佩戴识别设备,其特征在于,包括:
输入模块,用于将待识别图像输入预先构建的安全帽识别模型;其中,所述安全帽识别模型基于预先标注的图像样本和多层卷积神经网络训练获得;
获取模块,用于基于安全帽佩戴识别模型的输出结果,获得待识别图像中包含安全帽佩戴的子图像。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述安全帽佩戴识别方法。
CN201910300441.6A 2019-04-15 2019-04-15 基于深度学习的安全帽佩戴识别方法及设备 Pending CN110046574A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910300441.6A CN110046574A (zh) 2019-04-15 2019-04-15 基于深度学习的安全帽佩戴识别方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910300441.6A CN110046574A (zh) 2019-04-15 2019-04-15 基于深度学习的安全帽佩戴识别方法及设备

Publications (1)

Publication Number Publication Date
CN110046574A true CN110046574A (zh) 2019-07-23

Family

ID=67277187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910300441.6A Pending CN110046574A (zh) 2019-04-15 2019-04-15 基于深度学习的安全帽佩戴识别方法及设备

Country Status (1)

Country Link
CN (1) CN110046574A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688893A (zh) * 2019-08-22 2020-01-14 成都通甲优博科技有限责任公司 佩戴安全帽的检测方法、模型训练方法及相关装置
CN110728264A (zh) * 2019-10-24 2020-01-24 名创优品(横琴)企业管理有限公司 一种配饰类可穿戴产品穿戴情况检测方法及***
CN110738127A (zh) * 2019-09-19 2020-01-31 福建师范大学福清分校 基于无监督深度学习神经网络算法的安全帽识别方法
CN111104974A (zh) * 2019-12-09 2020-05-05 紫光云(南京)数字技术有限公司 基于深度学习的安全帽佩戴识别方法
CN111339933A (zh) * 2020-02-25 2020-06-26 北京国网富达科技发展有限责任公司 基于深度学习的变电站安全监控方法及装置
CN111444869A (zh) * 2020-03-31 2020-07-24 高新兴科技集团股份有限公司 一种口罩佩戴状态识别方法装置和计算机设备
CN112149513A (zh) * 2020-08-28 2020-12-29 成都飞机工业(集团)有限责任公司 基于深度学习的工业制造现场安全帽佩戴识别***和方法
CN112347824A (zh) * 2019-08-09 2021-02-09 中移信息技术有限公司 佩戴物识别方法、装置、设备及存储介质
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180038169A (ko) * 2016-10-06 2018-04-16 가톨릭대학교 산학협력단 딥 러닝 기반의 데이터특징을 이용한 도시영상의 안전도 분류방법
CN108427953A (zh) * 2018-02-26 2018-08-21 北京易达图灵科技有限公司 一种文字识别方法及装置
CN108764164A (zh) * 2018-05-30 2018-11-06 华中科技大学 一种基于可变形卷积网络的人脸检测方法及***
CN108921159A (zh) * 2018-07-26 2018-11-30 北京百度网讯科技有限公司 用于检测安全帽的佩戴情况的方法和装置
CN109034215A (zh) * 2018-07-09 2018-12-18 东北大学 一种基于深度卷积神经网络的安全帽佩戴检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180038169A (ko) * 2016-10-06 2018-04-16 가톨릭대학교 산학협력단 딥 러닝 기반의 데이터특징을 이용한 도시영상의 안전도 분류방법
CN108427953A (zh) * 2018-02-26 2018-08-21 北京易达图灵科技有限公司 一种文字识别方法及装置
CN108764164A (zh) * 2018-05-30 2018-11-06 华中科技大学 一种基于可变形卷积网络的人脸检测方法及***
CN109034215A (zh) * 2018-07-09 2018-12-18 东北大学 一种基于深度卷积神经网络的安全帽佩戴检测方法
CN108921159A (zh) * 2018-07-26 2018-11-30 北京百度网讯科技有限公司 用于检测安全帽的佩戴情况的方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
全球人工智能: ""没错!卷积神经网络实现图像识别,就这么简单!"", 《HTTPS://WWW.SOHU.COM/A/164912671_642762》 *
全球人工智能: ""没错!卷积神经网络实现图像识别,就这么简单!"", 《HTTPS://WWW.ZHUANZHI.AI/DOCUMENT/C2359B9A9C6E6814E90D80A6C9ACE879》 *
生清静心不: ""没错!卷积神经网络实现图像识别,就这么简单!"", 《HTTP://WWW.360DOC.COM/CONTENT/17/0908/07/40898787_685416748.SHTML》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112347824A (zh) * 2019-08-09 2021-02-09 中移信息技术有限公司 佩戴物识别方法、装置、设备及存储介质
CN110688893A (zh) * 2019-08-22 2020-01-14 成都通甲优博科技有限责任公司 佩戴安全帽的检测方法、模型训练方法及相关装置
CN110738127A (zh) * 2019-09-19 2020-01-31 福建师范大学福清分校 基于无监督深度学习神经网络算法的安全帽识别方法
CN110738127B (zh) * 2019-09-19 2023-04-18 福建技术师范学院 基于无监督深度学习神经网络算法的安全帽识别方法
CN110728264A (zh) * 2019-10-24 2020-01-24 名创优品(横琴)企业管理有限公司 一种配饰类可穿戴产品穿戴情况检测方法及***
CN111104974A (zh) * 2019-12-09 2020-05-05 紫光云(南京)数字技术有限公司 基于深度学习的安全帽佩戴识别方法
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质
CN111339933A (zh) * 2020-02-25 2020-06-26 北京国网富达科技发展有限责任公司 基于深度学习的变电站安全监控方法及装置
CN111444869A (zh) * 2020-03-31 2020-07-24 高新兴科技集团股份有限公司 一种口罩佩戴状态识别方法装置和计算机设备
CN112149513A (zh) * 2020-08-28 2020-12-29 成都飞机工业(集团)有限责任公司 基于深度学习的工业制造现场安全帽佩戴识别***和方法

Similar Documents

Publication Publication Date Title
CN110046574A (zh) 基于深度学习的安全帽佩戴识别方法及设备
Rao et al. Deep convolutional neural networks for sign language recognition
CN106960195B (zh) 一种基于深度学习的人群计数方法及装置
CN107563396B (zh) 一种电力巡检中保护屏智能识别***的构建方法
WO2018052586A1 (en) Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks
CN110930297B (zh) 人脸图像的风格迁移方法、装置、电子设备及存储介质
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN104915972A (zh) 图像处理装置、图像处理方法以及程序
CN110263819A (zh) 一种用于贝类图像的目标检测方法及装置
CN110059677A (zh) 基于深度学习的数字表识别方法及设备
CN105608447A (zh) 对人体面部微笑表情深度卷积神经网络的检测方法
JP2022532177A (ja) 偽造された顔の認識方法、装置、および非一時的コンピュータ可読記憶媒体
CN108717524A (zh) 一种基于双摄手机和人工智能***的手势识别***及方法
CN103116749A (zh) 一种基于自建图像库的近红外人脸识别方法
CN109410168A (zh) 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法
CN107871098A (zh) 人脸特征点的获取方法和装置
CN108764159A (zh) 小样本条件下的动物面部识别方法和***
CN108764242A (zh) 基于深层卷积神经网络的离线手写汉字体识别方法
CN110263768A (zh) 一种基于深度残差网络的人脸识别方法
CN109740721A (zh) 麦穗计数方法及装置
CN109886153A (zh) 一种基于深度卷积神经网络的实时人脸检测方法
Kalam et al. Rotation independent digit recognition in sign language
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN111429416A (zh) 一种人脸色素斑识别方法、装置及电子设备
CN109583289A (zh) 蟹的性别识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190723

RJ01 Rejection of invention patent application after publication