CN108830215B - 基于人员骨架信息的危险行为识别方法 - Google Patents
基于人员骨架信息的危险行为识别方法 Download PDFInfo
- Publication number
- CN108830215B CN108830215B CN201810613685.5A CN201810613685A CN108830215B CN 108830215 B CN108830215 B CN 108830215B CN 201810613685 A CN201810613685 A CN 201810613685A CN 108830215 B CN108830215 B CN 108830215B
- Authority
- CN
- China
- Prior art keywords
- data
- behavior
- skeleton
- joint
- behaviors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于人员骨架信息的危险行为识别方法,首先建立行为数据库并划分正常行为和异常行为;提取骨架长度信息的标准值;对行为数据库中的骨架关节位置信息进行预处理;对预处理后的关节位置数据构造成图像;将构造的图像进行神经网络训练,得到行为识别模型;通过深度摄像头采集监控区域的人员图片,同时获取人员骨架关节位置信息,将数据存储至待识别数据库;将采集的人员骨架关节位置信息进行预处理;将预处理后的的关节位置数据构造成图像;对构造的图像导入至识别模型中,进行行为识别;判断待检测的行为与行为数据库进行比对,判定是否属于异常行为。本发明可实现对人员的异常行为进行识别。
Description
技术领域
本发明属于计算机视觉生产安全监控领域,特别是一种基于人员骨架信息的危险行为识别方法。
背景技术
目前,随着我国制造业信息化和制造车间数字化正处于迅速发展阶段,车间工作人员的数量随之减少,但不可否认,工人依旧是一个工厂保持高效正常运转的重要因素。
不同于工业机器人或者工厂的设备设施,具有较为独立的工作空间,工人的活动范围不仅仅局限于工人所处的工位,而是工厂的各个角落。因此,制定相应的规章守则,对人员进行统一管理,保证生产的安全,具有重要的意义。然而对于生产的重点区域的,仅依靠规章制度并不能达到良好的效果,因此需要在这些区域对人员行为进行监控,从而保证安全生产的有效进行。
传统的安防监控***所获取的数据,多是未经过处理的RGB图片,对于这种视频数据的处理,大多需要人工参与,并且由工作人员长期注视监控画面才能对异常行为进行预警以及响应。而此种方法对工作人员有着严格的要求。人长期注视某件事物时,会因其枯燥乏味而产生视觉疲劳,降低工作效率和识别准确度。导致会误报或者漏掉一些安全隐患,造成严重的后果。此外,传统的安防***还占用了大量的人力资源,降低企业生产效率。
发明内容
本发明的目的在于提供一种安全监控的***,该***是基于人员点云数据提取的骨架信息,通过骨架信息的变化建立行为识别模型,对人员行为进行识别。
实现本发明目的的技术解决方案为:
一种基于人员骨架信息的危险行为识别方法,包括以下步骤:
步骤1、建立行为数据库并划分正常行为和异常行为:对人员行为进行分类通过深度摄像机获得正常行为和异常行为的骨架关节位置信息,并存储至数据库中;
步骤2、提取骨架长度信息的标准值:对骨架关节位置数据进行标准化,将数据集中的人体尺寸化为统一的标准;
步骤3、对行为数据库中的骨架关节位置信息进行预处理:对行为数据库中的骨架数据进行标准化,得出标准化的人体骨架关节位置数据;
步骤4、对预处理后的关节位置数据构造成图像;
步骤5、将构造的图像进行神经网络训练,得到行为识别模型;
步骤6、通过深度摄像头采集监控区域的人员图片,同时获取人员骨架关节位置信息,将数据存储至待识别数据库;
步骤7、对采集的人员骨架关节位置信息进行预处理;
步骤8、将预处理后的的关节位置数据构造成图像;
步骤9、对构造的图像导入至识别模型中,进行行为识别;
步骤10、异常行为判定:判断待检测的行为与行为数据库进行比对,判定是否属于异常行为。
本发明与现有技术相比,其显著优点:
(1)本发明提出了一种无人智能监控的方法,通过训练的行为识别模型,能够实现无需人工参与,即可识别异常行为,以实现监控的无人化。
(2)通过骨架数据标准化的方式能够减小个体差异对行为识别的影响,提高了行为识别判断的准确性,具有较好的实用性;
(3)将基于时间序列的行为识别问题转换为图像识别问题,应用更为成熟简洁的识别算法,对行为进行更为高效的识别。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明实施具体执行流程图。
图2为人体主要关节点标号图。
图3为数据预处理前后效果对比图。
图4为模型数据处理流程图。
图5为图4中原始数据示意图。
图6为图4中局部(16帧)数据示意图。
图7为图4中关节距离数据示意图。
具体实施方式
为了说明本发明的技术方案及技术目的,下面结合附图及具体实施例对本发明做进一步的介绍。
本发明的一种基于人员骨架信息的危险行为识别方法,包括以下步骤:
步骤1、建立行为数据库并划分正常行为和异常行为:
1.1、对人员行为进行分类:首先将待检测的行为actionClass进行分类,包括正常行为和异常行为;
如在生产车间中,可能涉及的待检测的行为actionClass有搬运,喝水,敲打,抽烟等,在行为样本库中,搬运,喝水,敲打属于正常行为,抽烟属于异常行为,正常行为数据包括搬运,喝水,敲打动作的骨架关节位置信息;异常行为数据包括抽烟动作的骨架关节位置信息。
1.2、对分类后的行为进行采集,通过深度摄像机获得正常行为和异常行为的骨架关节位置信息,并存储至数据库中。
采集的数据为actionData,是由不定长个frameData数据组成,每帧frameData在actionData占据一行,frameData表示单帧图片的骨架关节位置数据;
frameData={x1,y1,z1,...,xi,yi,zi}
式中,xi,yi,zi表示深度摄像机采集的第i个关节点的坐标(该坐标系的原点是深度摄像头,X轴遵循笛卡尔直角坐标系,Y轴垂直向上,Z轴是深度摄像头的光轴并向采集方向);
式中,m代表的是这一组数据的帧数;
优选的,所述深度摄像机采用微软Kinect;Kinect获取得到的人员骨架信息数据是一组包含人体25个主要关节点(见图2)的数据,每个关节点的数据有3个,分别为该关节点在笛卡尔坐标系中的X,Y,Z三个坐标轴的值,该坐标系为Kinect自带坐标系,该坐标轴的坐标原点位于Kinect的红外相机中心;X轴方向为顺着Kinect的照射方向的左方向,Y轴方向为顺着Kinect的照射方向的上方向,Z轴方向为顺着Kinect的照射方向。
步骤2、提取骨架长度信息的标准值:
对骨架关节位置数据进行标准化,将数据集中的人体尺寸化为统一的标准,减少不同个体间由于身高,体态等导致的差异。
此处的行为数据集,优选的采用南洋理工大学在2016年推出的大型人员行为数据集(NTURGB+D dataset)中的人员行为数据,对骨架数据标准化。该数据集包含了5万多组行为数据,包含数据量大、动作丰富、不同种族、不同性别,样本类型丰富。遍历NTU RGB+Ddataset中的骨架数据,剔除所有存在异常值的帧。
2.1、对行为数据集中的数据进行异常值剔除:对于采集到的数据的异常值(误将桌子,椅子等识别为人员),需要对该异常值进行剔除,具体为:
2.1.1、计算四肢长度:四肢包括左手腕-左肘长度lenth7_6,右手腕-右肘长度lenth11_10,左膝-左脚踝长度lenth14_15,右膝-右脚踝长度lenth18_19,计算如下:
其中,x7,y7,z7表示左手腕的坐标值;x6,y6,z6表示左肘的坐标值;x10,y10,z10表示右手腕的坐标值;x11,y11,z11表示右肘的坐标值;x14,y14,z14表示左膝的坐标值;x15,y15,z15表示左脚踝的坐标值;z18,y18,z18表示右膝的坐标值;z19,y19,z19表示右脚踝的坐标值;
2.1.2、计算相对比例:计算提取数据中每一帧的左、右肢体相对比例D,具体如下:
2.1.3、删除异常值:遍历人员行为数据集中的骨架数据,剔除所有存在异常值的帧。
设定异常值阈值T,若左、右肢体的相对比例D大于阈值T则删除该帧数据,否则保留该数据。
2.2、坐标变换:由于摄像头采集到的原始数据坐标系的原点并不位于人体中,需对该坐标进行转换,使坐标原点位于人体臀部中心(x1,y1,z1)的位置,即图2中1号关节点位置。具体转换方法如下:
式中xi,yi,zi表示转换后的在第i个关节节点的在新坐标系下的坐标值;
则:
frameDatanew={x1,y1,z1,...,xi,yi,zi}
新得到的frameDatanew即为转换后的以关节点1(臀部中心)为原点的坐标系的单帧图片骨架关节位置信息。
2.3、提取骨骼标准长度:遍历一帧数据,对于重要关节点,取所有节点长度的平均值作为标准值;对于非重要关节点之间的距离使用其原始值即可。
用符号sta_dj_k表示关节点j和关节点k之间长度的标准值,n表示人员行为数据集的所有帧数;
(1)对于重要关节点,标准值sta_dj_k的计算方式为:
(2)对于非重要关节点,标准值sta_dj_k的计算方式为:
通过上述两个公式,即可计算出关键关节点间和非关键关节点间长度标准值。
优选的,当选取25个关节节点时,依次计算指定15个重要关节点(图2中的关节点1:臀中部;关节点2:脊柱;关节点5:左肩;关节点6:左肘;关节点8:左手;关节点9:右肩;关节点10:右肘;关节点12:右手;关节点13:左臀;关节点14:左膝;关节点15:左脚踝;关节点17:右臀;关节点18:右膝;关节点19:右脚踝;关节点21:肩膀中部)之间的距离,包括了14个骨骼的长度(sta_d1_2:臀中部-脊柱;sta_d10_11:右肘-右手腕;sta_d2_21:脊柱-肩中部;sta_d21_5:肩膀部-左肩;sta_d21_9:肩膀部-右肩;sta_d5_6:左肩-左肘;sta_d9_10:右肩-右肘;sta_d6_7:左肘-左手腕;sta_d1_13:臀中部-左臀;sta_d1_17:臀中部-右臀;sta_d13_14:左臀-左膝;sta_d17_18:右臀-右膝;sta_d18_19:右膝-右脚踝;sta_d14_15:左膝-左脚踝);
对于其他的非重要关节点之间的距离(sta_d19_20:右脚踝-右脚;sta_d15_16:左脚踝-左脚;sta_d7_23:左手腕-左大拇指;sta_d7_8:左手腕-左手;sta_d8_22:左手-左手指尖;sta_d11_12:右手腕-右手;sta_d11_25:右手腕-右大拇指;sta_d12_24:右手-右手指尖;sta_d21_3:肩膀中部-颈;sta_d3_4:颈-头),鉴于其对识别结果影响较小,此处不对该值进行标准化,即使用其原始值即可:
步骤3、对行为数据库中的骨架关节位置信息进行预处理:
3.1、对行为数据库中的数据进行异常值剔除,方法与步骤2.1的相同,区别的是此处的骨架关节位置信息是来源于行为数据库中的骨架关节位置数据。
3.2、对行为数据库中的骨架关节位置进行坐标变换:方法与步骤2.2的相同。
3.3、对骨架数据进行标准化:由步骤2可以获得骨架长度的标准值sta_dj_k,通过骨架长度的标准值sta_dj_k和坐标向量的方向即可对骨架坐标进行重构。表示由关节节点j和关节节点k两个关节点构成的向量:
通过关节间的向量关系,可以得到关节点的各个关节点之间的向量和长度,并据此计算标准化的人体骨架位置数据:
式中,表示的是从关节点1到关节点t的方向向量,代表的是由关节点sk-1到关节点sk的向量,该向量是关节点1到关节点t的中间向量,此时(x′t,y′t,z′t)代表的是标准化之后,关节点t在新坐标系下的坐标值。
对每一个关节点都进行上述计算,得出标准化的人体骨架关节位置数据:
frameDatasta={x′1,y′1,z′1,...,x′i,y′i,z′i}
式中,frameDatasta即为标准化处理后的一帧的骨架数据;
步骤4、对预处理后的关节位置数据构造成图像:
4.1、读取行为数据库中的数据actionData,对此数据逐帧按照步骤3进行预处理,返回不定长的行为数据actionDatasta,即:
4.2等间距随机获取f帧行为数据:对于不定长的行为数据actionDatasta,等间距分成f份(若无法整除,舍去末尾几帧),再分别从f份中随机取出一帧,组成新的行为数据actionDatanew。
4.3、计算距离特征:计算actionDatanew中人体的主要关节点到对行为识别影响较大的关节点的距离distanceFrameDatac:
式中,dc_1,dc_2,…,dc_21分别代表人体的主要关节点c到对行为识别影响较大的关节点之间的距离。将这些点距离汇总,即可得到distanceFrameDatac;
其中,人体的主要关节点包括关节点5(左肩),关节点9(右肩),关节点13(左臀),关节点17(右臀),位置相对稳定。
对行为识别影响较大的关节点包括,关节点1(臀中部),关节点2(脊柱),关节点4(头),关节点5(左肩),关节点6(左肘),关节点8(左手),关节点9(右肩),关节点10(右肘),关节点12(右手),关节点13(左臀),关节点14(左膝),关节点15(左脚踝),关节点17(右臀),关节点18(右膝),关节点19(右脚踝),关节点21(肩膀中部)。
4.4构建输入数据inputData:输入数据合并,在步骤3.3中,计算距离特征之后,可以得到16个行为识别影响较大的关节点到4个主要关节点的距离,分别是distanceFrameData5,distanceFrameData9,distanceFrameData13,distanceFrameData17。此处,将这四个距离数据合并,即可构成数据inputData:
此处inputData为一个2f×32的矩阵;
步骤5、将构造的图像进行神经网络训练,得到行为识别模型;
5.1建立模型:使用python建立VGG19图像识别模型,加载预训练权重,并删除最后三层全连接层的权重。
5.2将步骤3.4中的数据导入此模型中,进行指定轮数的模型训练,在训练过程中调整学***缓时结束模型训练并保存模型。
步骤6、通过深度摄像头采集监控区域的人员图片,同时获取人员骨架关节位置信息,并按照步骤1.2的方式,将数据存储至待识别数据库(该数据库用于存储监控区域人员图片和骨架关节位置信息,该信息用于后续的识别)。区别在于此处存储至数据库中不区分正常行为和异常行为。
步骤7、对步骤6采集的人员骨架关节位置信息进行预处理:
预处理与步骤3的过程一样。区别在于每一次数据提取,按照数据在待识别数据库中的存储时间顺序,提取最新的指定帧数数据,并用此数据进行预处理以及后期的行为识别。
步骤8、将步骤7预处理后的的关节位置数据构造成图像:构造图像步骤与步骤4的图像构造相同。
步骤9、对步骤8构造的图像导入至步骤5构造的识别模型中,进行行为识别:
将步骤7中的图像导入至神经网络模型中,调用python的predict函数,即可对此次输入进行一次行为识别,输出结果为dataOut:
dataOut={probability,actionClass}
式中,probability表示的是在步骤5的行为识别模型中,识别结果的置信度。
步骤10、异常行为判定:
在步骤9中,输出结果dataOut包含的信息中提取待检测的行为actionClass,判断待检测的行为actionClass在步骤1中是否属于异常行为,若为异常行为,则判断probability的值。此处设置行为识别置信度的阈值,若probability大于阈值,则判定该行为是异常行为,并返回至步骤6,继续下一序列判断,若为正常行为,则直接返回步骤6,继续进行下一行为序列判断。
实施例
步骤1、建立行为数据库并划分正常行为和异常行为:
1.1、对人员行为进行分类:首先将待检测的行为actionClass分为正常行为和异常行为;在生产车间的某一指定区域,涉及的行为actionClass有搬运,喝水,敲打,抽烟,在行为数据库中,搬运,喝水,敲打属于正常行为,抽烟属于异常行为;
1.2、对分类后的行为进行采集,通过Kinect获得正常行为和异常行为的骨架关节位置信息,并存储至数据库中。
采集的数据为actionData,是由不定长个frameData数据组成,每帧frameData在actionData占据一行,frameData表示单帧图片的骨架关节位置数据;
frameData={x1,y1,z1,...,x25,y25,z25}
Kinect获取得到的人员骨架信息数据是一组包含人体25个主要关节点(见图2),关节名称和关节标号之间的对应关系如表1所示,每个关节点的数据有3个,分别为该关节点在笛卡尔坐标系中的X,Y,Z三个坐标轴的值,该坐标系为Kinect自带坐标系,该坐标轴的坐标原点位于Kinect的红外相机中心;X轴方向为顺着Kinect的照射方向的左方向,Y轴方向为顺着Kinect的照射方向的上方向,Z轴方向为顺着Kinect的照射方向。
表1人体骨架关节序号对照表
步骤2、提取骨架长度信息的标准值:
对骨架关节位置数据进行标准化,将数据集中的人体尺寸化为统一的标准,减少不同个体间由于身高,体态等导致的差异。
采用南洋理工大学在2016年推出的大型人员行为数据集(NTURGB+D dataset)中的人员行为数据,对骨架数据标准化。
2.1、对NTURGB+D dataset中的数据进行异常值剔除:对于采集到的数据的异常值(误将桌子,椅子等识别为人员),需要对该异常值进行剔除,具体为:
2.1.1、计算四肢长度:四肢包括左手腕-左肘长度lenth7_6,右手腕-右肘长度lenth11_10,左膝-左脚踝长度lenth14_15,右膝-右脚踝长度lenth18_19,计算如下:
其中,x7,y7,z7表示左手腕的坐标值;x6,y6,z6表示左肘的坐标值;x10,y10,z10表示右手腕的坐标值;x11,y11,z11表示右肘的坐标值;x14,y14,z14表示左膝的坐标值;x15,y15,z15表示左脚踝的坐标值;x18,y18,z18表示右膝的坐标值;x19,y19,z19表示右脚踝的坐标值;
2.1.2、计算相对比例:计算提取数据中每一帧的左、右肢体相对比例D,具体如下:
2.1.3、删除异常值:遍历人员行为数据集中的骨架数据,剔除所有存在异常值的帧。
设定异常值阈值T=1.5,若左、右肢体的相对比例D大于阈值1.5则删除该帧数据,否则保留该数据。
2.2、坐标变换:由于摄像头采集到的原始数据坐标系的原点并不位于人体中,需对该坐标进行转换,使坐标原点位于人体臀部中心(x1,y1,z1)的位置,即图2中1号关节点位置。具体转换方法如下:
式中,xi,yi,zi表示转换后的在第i个关节节点的在新坐标系下的坐标值;
则:
frameDatanew={x1,y1,z1,...,x25,y25,z25}
新得到的frameDatanew即为转换后的以关节点1(臀部中心)为原点的坐标系的单帧图片骨架关节位置信息。
2.3、提取骨骼标准长度:遍历一帧数据,对于重要关节点,取所有节点长度的平均值作为标准值;对于非重要关节点之间的距离使用其原始值即可。
用符号sta_dj_k表示关节点j和关节点k之间长度的标准值,n表示NTURGB+Ddataset的所有帧数;
(1)对于重要关节点,标准值sta_dj_k的计算方式为:
(2)对于非重要关节点,标准值sta_dj_k的计算方式为:
依次计算指定15个重要关节点(图2中的关节点1:臀中部;关节点2:脊柱;关节点5:左肩;关节点6:左肘;关节点8:左手;关节点9:右肩;关节点10:右肘;关节点12:右手;关节点13:左臀;关节点14:左膝;关节点15:左脚踝;关节点17:右臀;关节点18:右膝;关节点19:右脚踝;关节点21:肩膀中部)之间的距离,包括了14个骨骼的长度(sta_d1_2:臀中部-脊柱;sta_d10_11:右肘-右手腕;sta_d2_21:脊柱-肩中部;sta_d21_5:肩膀部-左肩;sta_d21_9:肩膀部-右肩;sta_d5_6:左肩-左肘;sta_d9_10:右肩-右肘;sta_d6_7:左肘-左手腕;sta_d1_13:臀中部-左臀;sta_d1_17:臀中部-右臀;sta_d13_14:左臀-左膝;sta_d17_18:右臀-右膝;sta_d18_19:右膝-右脚踝;sta_d14_15:左膝-左脚踝);
对于其他的非重要关节点之间的距离(sta_d19_20:右脚踝-右脚;sta_d15_16:左脚踝-左脚;sta_d7_23:左手腕-左大拇指;sta_d7_8:左手腕-左手;sta_d8_22:左手-左手指尖;sta_d11_12:右手腕-右手;sta_d11_25:右手腕-右大拇指;sta_d12_24:右手-右手指尖;sta_d21_3:肩膀中部-颈;sta_d3_4:颈-头),鉴于其对识别结果影响较小,此处不对该值进行标准化,即使用其原始值即可通过上述两个公式,即可计算出关键关节点间和非关键关节点间长度标准值。其中,对于重要关节点的长度代号,长度含义以及标准值如表2所示。
表格2
对于其他的非重要关节点之间的距离(sta_d19_20:右脚踝-右脚;sta_d15_16:左脚踝-左脚;sta_d7_23:左手腕-左大拇指;sta_d7_8:左手腕-左手;sta_d8_22:左手-左手指尖;sta_d11_12:右手腕-右手;sta_d11_25:右手腕-右大拇指;sta_d12_24:右手-右手指尖;sta_d21_3:肩膀中部-颈;sta_d3_4:颈-头),鉴于其对识别结果影响较小,此处不对该值进行标准化,即使用其原始值即可。
步骤3、对行为数据库中的骨架关节位置信息进行预处理:
3.1、对行为数据库中的数据进行异常值剔除,方法与步骤2.1的相同,区别的是此处的骨架关节位置信息是来源于行为数据库中的骨架关节位置数据。
3.2、对行为数据库中的骨架关节位置进行坐标变换:方法与步骤2.2的相同。
3.3、对骨架数据进行标准化:由步骤2可以获得骨架长度的标准值sta_dj_k,通过骨架长度的标准值sta_dj_k和坐标向量的方向即可对骨架坐标进行重构。表示由关节节点j和关节节点k两个关节点构成的向量:
通过关节间的向量关系,可以得到关节点的各个关节点之间的向量和长度,并据此计算标准化的人体骨架位置数据:
式中,表示的是从关节点1到关节点t的方向向量,代表的是由关节点sk-1到关节点sk的向量,该向量是关节点1到关节点t的中间向量,此时(x′t,y′t,z′t)代表的是标准化之后,关节点t在新坐标系下的坐标值。
对每一个关节点都进行上述计算,出标准化的人体骨架关节位置数据:
frameDatasta={x′1,y′1,z′1,...,x′25,y′25,z′25}
式中,frameDatasta即为标准化处理后的一帧的骨架数据,图3为处理前后的效果对比图,其中图3-a1和图3-b1分别表示的身高是1.5m和身高1.8m的人在数据预处理前的示意图,图3-a2和图3-b2表示的是两个人在数据预处理后的示意图,图中将不同身高的两个人转换通过骨架标准化转化为统一的身高大小。
步骤4、对预处理后的关节位置数据构造成图像:结合图4-图7;
4.1、读取行为数据库中的数据actionData,对此数据逐帧按照步骤3进行预处理,返回不定长的行为数据actionDatasta,即:
4.2等间距随机获取16帧行为数据:对于不定长的行为数据actionDatasta,等间距分成16份(若无法整除,舍去末尾几帧),再分别从16份中随机取出一帧,组成新的行为数据actionDatanew。
4.3、计算距离特征:计算actionDatanew中人体的主要关节点到对行为识别影响较大的关节点的距离distanceFrameDatac:
式中,dc_1,dc_2,…,dc_21分别代表人体的主要关节点c到对行为识别影响较大的关节点之间的距离。将这些点距离汇总,即可得到distanceFrameDatac;
其中,人体的主要关节点包括,关节点5(左肩),关节点9(右肩),关节点13(左臀),关节点17(右臀),位置相对稳定。
对行为识别影响较大的关节点包括,关节点1(臀中部),关节点2(脊柱),关节点4(头),关节点5(左肩),关节点6(左肘),关节点8(左手),关节点9(右肩),关节点10(右肘),关节点12(右手),关节点13(左臀),关节点14(左膝),关节点15(左脚踝),关节点17(右臀),关节点18(右膝),关节点19(右脚踝),关节点21(肩膀中部)。
4.4构建输入数据:输入数据合并,在步骤3.3中,计算距离特征之后,可以得到16个行为识别影响较大的关节点到4个主要关节点的距离,分别是distanceFrameData5,distanceFrameData9,distanceFrameData13,distanceFrameData17。此处,将这四个距离数据合并,即可构成数据inputData:
此处inputData为一个32×32的矩阵;
步骤5、将构造的图像进行神经网络训练,得到行为识别模型;
5.1.1建立模型:使用python建立VGG19图像识别模型,加载预训练权重,并删除最后三层全连接层的权重。
5.1.2将步骤3.4中的数据导入此模型中,进行140轮的模型训练,在训练过程中,前80轮使用0.01的学习率进行训练,后60轮使用0.001的学习率进一步训练。当训练结束即保存行为识别模型。
步骤6、通过深度摄像头采集监控区域的人员图片,同时获取人员骨架关节位置信息,并按照步骤1.2的方式,将数据存储至待识别数据库(该数据库用于存储监控区域人员图片和骨架关节位置信息,该信息用于后续的识别)。区别在于此处存储至数据库中不区分正常行为和异常行为。
步骤7、对步骤6采集的人员骨架关节位置信息进行预处理:
预处理与步骤3的过程一样。区别在于每一次数据提取,按照数据在待识别数据库中的存储时间顺序,提取最新的300帧数据,并用此数据进行预处理以及后期的行为识别。
步骤8、将步骤7预处理后的的关节位置数据构造成图像:构造图像步骤与步骤4的图像构造完全相同。
步骤9、对步骤8构造的图像导入至识别模型中,进行行为识别:
将步骤7中的图像导入至神经网络模型中,调用python的predict函数,即可对此次输入进行一次行为识别,输出结果为dataOut:
dataOut={probability,actionClass}
式中,actionClass表示的识别行为类型,probability表示的是在步骤5的行为识别模型中,识别结果的置信度。
步骤10、异常行为判定以及数据存储:
在步骤8中,dataOut包含的信息中提取actionClass,判断actionClass在步骤1中是否属于异常行为,若为异常行为,则判断probability的值。此处设置行为识别置信度的阈值为0.8,若probability大于0.8,则判定该行为是异常行为,保存将此判断结果以及***当前时间保存,并返回至步骤6,继续下一序列判断;若为正常行为,则直接返回步骤6,继续进行下一行为序列判断。
Claims (8)
1.一种基于人员骨架信息的危险行为识别方法,其特征在于,包括以下步骤:
步骤1、建立行为数据库并划分正常行为和异常行为:对人员行为进行分类通过深度摄像机获得正常行为和异常行为的骨架关节位置信息,并存储至数据库中;
步骤2、提取骨架长度信息的标准值:对骨架关节位置数据进行标准化,将数据集中的人体尺寸化为统一的标准;
2.1、对行为数据集中的数据进行异常值剔除;具体包括以下步骤:
2.1.1、计算四肢长度:四肢包括左手腕-左肘长度lenth7_6,右手腕-右肘长度lenth11_10,左膝-左脚踝长度lenth14_15,右膝-右脚踝长度lenth18_19,计算如下:
2.1.2、计算相对比例:计算提取数据中每一帧的左、右肢体相对比例D:
2.1.3、删除异常值:设定异常值阈值T,若左、右肢体的相对比例D大于阈值T,则删除该帧数据;
2.2、坐标变换:将摄像头采集到的原始数据坐标原点变换到位于人体臀部中心的位置;
2.3、提取骨骼标准长度:遍历一帧数据,对于重要关节点,取所有节点长度的平均值作为标准值;对于非重要关节点之间的距离使用其原始值;
步骤3、对行为数据库中的骨架关节位置信息进行预处理:对行为数据库中的骨架数据进行标准化,得出标准化的人体骨架关节位置数据;
步骤4、对预处理后的关节位置数据构造成图像;
步骤5、将构造的图像进行神经网络训练,得到行为识别模型;
步骤6、通过深度摄像头采集监控区域的人员图片,同时获取人员骨架关节位置信息,将数据存储至待识别数据库;
步骤7、对采集的人员骨架关节位置信息进行预处理;
步骤8、将预处理后的关节位置数据构造成图像;
步骤9、对构造的图像导入至识别模型中,进行行为识别;
步骤10、异常行为判定:判断待检测的行为与行为数据库进行比对,判定是否属于异常行为。
5.根据权利要求4所述的基于人员骨架信息的危险行为识别方法,其特征在于,步骤3、对行为数据库中的骨架关节位置信息进行预处理,具体包括以下步骤:
3.1、对行为数据库中的数据进行异常值剔除;
3.2、对行为数据库中的骨架关节位置进行坐标变换;
3.3、对骨架数据进行标准化。
7.根据权利要求6所述的基于人员骨架信息的危险行为识别方法,其特征在于,步骤4对预处理后的关节位置数据构造成图像,具体包括以下步骤:
4.1、读取行为数据库中的数据actionData,对此数据逐帧按照步骤3进行预处理,返回不定长的行为数据actionDatasta,即:
4.2等间距随机获取f帧行为数据:对于不定长的行为数据actionDatasta,等间距分成f份,再分别从f份中随机取出一帧,组成新的行为数据actionDatanew;
4.3、计算距离特征:计算actionDatanew中人体的主要关节点到对行为识别影响较大的关节点的距离distanceFrameDatac:
式中,dc_1,dc_2,...,dc_21分别代表人体的主要关节点c到对行为识别影响较大的关节点之间的距离;将这些点距离汇总,即可得到distanceFrameDatac;
4.4构建输入数据:将行为识别影响较大的关节点到主要关节点的距离数据合并,即可构成输入数据。
8.根据权利要求7所述的基于人员骨架信息的危险行为识别方法,其特征在于,步骤5得到行为识别模型的具体步骤包括:
5.1建立模型:使用python建立VGG19图像识别模型,加载预训练权重,并删除最后三层全连接层的权重;
5.2将步骤4.4中的数据导入此模型中,进行指定轮数的模型训练,在训练过程中调整学***缓时结束模型训练并保存模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810613685.5A CN108830215B (zh) | 2018-06-14 | 2018-06-14 | 基于人员骨架信息的危险行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810613685.5A CN108830215B (zh) | 2018-06-14 | 2018-06-14 | 基于人员骨架信息的危险行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108830215A CN108830215A (zh) | 2018-11-16 |
CN108830215B true CN108830215B (zh) | 2021-07-13 |
Family
ID=64141855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810613685.5A Active CN108830215B (zh) | 2018-06-14 | 2018-06-14 | 基于人员骨架信息的危险行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108830215B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711289B (zh) * | 2018-12-13 | 2021-11-16 | Oppo广东移动通信有限公司 | 乘车提醒方法、装置、电子设备和存储介质 |
CN109886150A (zh) * | 2019-01-29 | 2019-06-14 | 上海佑显科技有限公司 | 一种基于Kinect摄像机的驾驶行为识别方法 |
CN110231605B (zh) * | 2019-05-09 | 2021-10-29 | 深圳市速腾聚创科技有限公司 | 人体行为的识别方法、装置、计算机设备和存储介质 |
CN110414339A (zh) * | 2019-06-21 | 2019-11-05 | 武汉倍特威视***有限公司 | 基于视频流数据的审讯室人员近距离接触识别方法 |
CN110363131B (zh) * | 2019-07-08 | 2021-10-15 | 上海交通大学 | 基于人体骨架的异常行为检测方法、***及介质 |
CN110717461A (zh) * | 2019-10-12 | 2020-01-21 | 广东电网有限责任公司 | 一种疲劳状态识别方法、装置和设备 |
CN111126157B (zh) * | 2019-11-27 | 2023-08-25 | 北京华捷艾米科技有限公司 | 一种数据标注方法及装置 |
CN111832434B (zh) * | 2020-06-23 | 2022-12-13 | 广州市保伦电子有限公司 | 一种保护隐私下的校园抽烟行为识别方法及处理终端 |
CN112051878A (zh) * | 2020-09-16 | 2020-12-08 | 贵州航天智慧农业有限公司 | 一种温室大棚智能管控平台***及其管控处理方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810496A (zh) * | 2014-01-09 | 2014-05-21 | 江南大学 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
CN104715493A (zh) * | 2015-03-23 | 2015-06-17 | 北京工业大学 | 一种运动人体姿态估计的方法 |
CN104850846A (zh) * | 2015-06-02 | 2015-08-19 | 深圳大学 | 一种基于深度神经网络的人体行为识别方法及识别*** |
CN106203363A (zh) * | 2016-07-15 | 2016-12-07 | 中国科学院自动化研究所 | 人体骨架运动序列行为识别方法 |
-
2018
- 2018-06-14 CN CN201810613685.5A patent/CN108830215B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810496A (zh) * | 2014-01-09 | 2014-05-21 | 江南大学 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
CN104715493A (zh) * | 2015-03-23 | 2015-06-17 | 北京工业大学 | 一种运动人体姿态估计的方法 |
CN104850846A (zh) * | 2015-06-02 | 2015-08-19 | 深圳大学 | 一种基于深度神经网络的人体行为识别方法及识别*** |
CN106203363A (zh) * | 2016-07-15 | 2016-12-07 | 中国科学院自动化研究所 | 人体骨架运动序列行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108830215A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830215B (zh) | 基于人员骨架信息的危险行为识别方法 | |
CN110222665B (zh) | 一种基于深度学习和姿态估计的监控中人体动作识别方法 | |
US11825115B2 (en) | Image coding method, action recognition method, and action recognition apparatus | |
CN111369016A (zh) | 一种基于图像识别的现场运维方法及*** | |
CN112528850A (zh) | 人体识别方法、装置、设备和存储介质 | |
CN116311374B (zh) | 一种化工厂工人异常行为识别与预警方法及*** | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN114973120B (zh) | 一种基于多维传感数据与监控视频多模异构融合的行为识别方法及*** | |
CN114359974A (zh) | 一种人体姿态的检测方法、设备及存储介质 | |
CN113139432B (zh) | 基于人体骨架和局部图像的工业包装行为识别方法 | |
CN112990154B (zh) | 一种数据处理方法、计算机设备以及可读存储介质 | |
CN110348395B (zh) | 一种基于时空关系的骨架行为识别方法 | |
CN116959099A (zh) | 一种基于时空图卷积神经网络的异常行为识别方法 | |
Reyes et al. | Safety gear compliance detection using data augmentation-assisted transfer learning in construction work environment | |
Pham et al. | A proposal model using deep learning model integrated with knowledge graph for monitoring human behavior in forest protection | |
CN115641607A (zh) | 电力施工现场作业人员穿戴行为检测方法、装置、设备及存储介质 | |
CN114724187A (zh) | 一种基于切片融合的行人重识别方法及装置 | |
CN111160278B (zh) | 基于单个图像传感器的人脸纹理结构数据采集方法 | |
CN115171216A (zh) | 一种面向协作行为检测和识别的方法及相关*** | |
CN109934302B (zh) | 新类别识别方法和基于模糊理论和深度学习的机器人*** | |
CN114170677A (zh) | 一种检测抽烟行为的网络模型训练方法及其设备 | |
CN113743293A (zh) | 跌倒行为检测方法、装置、电子设备及存储介质 | |
CN113379247A (zh) | 企业安全隐患追踪模型的建模方法及*** | |
CN112598059A (zh) | 一种工人着装检测方法、装置、存储介质及电子设备 | |
CN113012439B (zh) | 车辆检测方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |