CN109583315B - 一种面向智能视频监控的多通道快速人体姿态识别方法 - Google Patents

一种面向智能视频监控的多通道快速人体姿态识别方法 Download PDF

Info

Publication number
CN109583315B
CN109583315B CN201811299870.8A CN201811299870A CN109583315B CN 109583315 B CN109583315 B CN 109583315B CN 201811299870 A CN201811299870 A CN 201811299870A CN 109583315 B CN109583315 B CN 109583315B
Authority
CN
China
Prior art keywords
video
network
forwarding
thread
specific steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811299870.8A
Other languages
English (en)
Other versions
CN109583315A (zh
Inventor
赵霞
李磊
于重重
管文化
赵松
冯泽骁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Technology and Business University
Original Assignee
Beijing Technology and Business University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Technology and Business University filed Critical Beijing Technology and Business University
Priority to CN201811299870.8A priority Critical patent/CN109583315B/zh
Publication of CN109583315A publication Critical patent/CN109583315A/zh
Application granted granted Critical
Publication of CN109583315B publication Critical patent/CN109583315B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明实现了一种面向智能视频监控的多通道快速人体姿态识别方法,搭建多通道快速人体姿态识别***架构;转发服务器接收客户端请求,从网络视频录像机获取视频流,选取关键帧进行格式转换;对关键帧进行移动目标快速检测和人体检测,将有人体的视频帧发送给智能分析服务器,智能分析服务器进行姿态识别,将识别结果返回给转发服务器;转发服务器将识别结果和视频流转发给客户端,客户端在界面上显示结果;在支持多路视频通道的情况下更快实现人体检测和姿态识别,屏蔽复杂背景和衣着的影响,显著提高识别速度和准确率,具有很好的应用前景和市场价值。

Description

一种面向智能视频监控的多通道快速人体姿态识别方法
技术领域
本发明涉及监控视频中的人体姿态识别,具体涉及一种面向智能视频监控的多通道快速人体姿态识别方法,属于实时流媒体以及计算机视觉领域。
背景技术
目前大多数视频监控***的主要功能是录制和展示监控现场的场景,不能对监控现场进行实时智能化的分析,需要安保人员实时查看监控现场视频画面,判断人员行为和场景性质,会出现因人而异的疲劳、遗漏、误判等问题。所以,现有的视频监控***在事后取证方面起到很大作用,但在自动识别现场案情和发现现场案情方面,难以满足当前安防预警、保安工作对视频监控***所要求的时效性、准确性、智能化和高效的需求。
智能视频监控***是当前视频监控领域出现的新技术,采用计算机视觉、图像处理和模式识别等技术,对摄像机拍摄到的视频图像进行自动分析,检测场景中的目标,进行识别与跟踪,并在此基础上分析和理解目标的行为,提供对监控和预警有用的信息。智能视频监控***不仅应用于安全防范领域,在交通、军事、金融、工业等领域也有着广泛的应用前景和巨大的经济价值。
在很多需要智能视频分析处理的***中,例如动作分类,异常行为检测,以及自动驾驶等,描述人体姿态、预测人体行为至关重要。人体姿态识别技术可以应用于家庭监控、教学应用,如识别独居中老年人摔倒,了解学生上课状态。通过实时分析视频监控***的视频流,识别特殊的人体姿态,及时作出响应,例如老人救护,课堂教学调节等。
人体姿态识别是给定一幅图像或一段视频,检测其中人体骨骼关节点位置,并根据关节点的结构特征,给人体姿态分类打标签的过程。其中人体骨骼关节点检测是人体姿态识别中的关键步骤。随着深度学习技术的发展,人体骨骼关节点检测效果不断提升,已经开始应用于计算机视觉的相关领域,得到研究者的关注。
专利《基于视频监控的行人检测方法》(CN201010227766.5)采用扩展梯度直方图特征与Adaboost算法来快速检测行人,然后利用梯度直方图特征和支持向量机来进一步识别验证前面检测出来的行人。专利《一种智能视频监控中行人的检测方法》(CN20110566809.1)采用支持向量机训练行人检测器模型,利用支持向量机对图片中的每个行人检测窗口进行分类,对检测窗口进行融合,获取最终的行人检测结果。《主动视觉注意的监控视频显著事件智能检测预警方法》(CN201710181799.2)建立自底向上视觉注意初级信息的快速提取方法,构建了动态目标的主动检测模型,然后运用粒子群算法,对显著目标进行跟踪,同时建立了监控视频中显著时间的主动预警模型,从而实现了基于视觉注意力模型的监控视频显著事件智能检测预警***。专利《一种基于OptiTrack的人体姿态识别方法》(CN201711120678.3)采用局部线性嵌入算法提取训练样本的姿态特征,用降维思路将关键语义帧带入训练样本的姿态特征中,对关键语义帧的特征进行分类,从而实现姿态的分类识别;专利《学习者姿态识别方法》(CN201710457825.X)提出一种学习者姿态识别方法,由人像与背景的分离、对二值化后的图像运用数学形态学运算提取出学习者的轮廓图像、采用Zernike矩阵进行特征提取、采用支持向量机对特征向量进行训练以及识别学习者的姿态。
这些研究成果主要关注行人检测和事件检测的算法,采用传统的机器学习方法进行特征提取和检测识别,没有涉及如何将这些算法与视频监控***的视频转发处理流程相融合的流程与方法。本发明专利直接从视频监控设备获取实时图像帧,基于深度神经网络的人体骨骼关节点检测算法检测人体关节点位置,提取人体结构化骨架信息,进行姿态识别;避免了图片的复杂背景、人物的衣着对识别效果的干扰。本发明设计了面向多路视频流的转发、检测、识别的流程机制,使得服务器既能高效地转发每一路视频帧,又能快速地进行人体目标检测和人体姿态识别。
发明内容
本发明目的在于实现一种面向智能视频监控的多通道快速人体姿态识别方法,搭建多通道快速人体姿态识别***架构;转发服务器接收客户端请求,从网络视频录像机获取视频流,选取关键帧进行格式转换;对关键帧进行移动目标快速检测和人体检测,将有人体的视频帧发送给智能分析服务器,智能分析服务器进行姿态识别,将识别结果返回给转发服务器;转发服务器将识别结果和视频流转发给客户端,客户端在界面上显示结果。具体来说,本发明的方法包括下列步骤:
A.搭建面向智能视频监控的多通道快速人体姿态识别***架构;
A1.***包括客户端,视频转发服务器(简称转发服务器),智能分析服务器、网络视频录像机;
A2.客户端向转发服务器发送获取视频流请求,向用户显示视频图像和识别结果;
A3.转发服务器接收客户端请求,从网络视频录像机获取所请求视频流转发给客户端;
A4.转发服务器进行移动目标快速检测和快速人体检测,并向智能分析服务器发送姿态识别请求,接收识别结果后发送给客户端;
A5.智能分析服务器接收识别请求,识别姿态,并返回识别结果给转发服务器;
A6.客户端、转发服务器,智能分析服务器之间通过网络控制端口和数据端口进行视频数据、识别信息的通信;
B.转发服务器接收客户端请求,获取视频流,转发视频流给客户端,并创建检测子线程用于快速检测,具体步骤如下:
B1.主线程接收客户端请求,从网络视频录像机获取所请求通道的视频流;
B2.主线程为每一路视频通道创建环形缓冲队列、转发子线程;
B2.1.创建环形缓冲队列存放各通道对应的转发数据包;
B2.2.为获取到的视频帧创建转发数据包,挂载到各通道的环形缓冲队列上;
所述的转发数据包包括数据头和视频帧缓冲区;其中,数据头包括但不限于视频帧大小、格式、时间t、姿态识别的结果信息、以及关键帧标志nIDR,取值1表示关键帧,0表示非关键帧;
B2.3.创建转发子线程用于从环形缓冲队列中取视频帧,转发给客户端进行实时显示;
B3.创建检测子线程用于从环形缓冲队列取得视频帧、快速检测和发送姿态识别请求;
C.通道对应的检测子线程获取关键帧并进行格式转换,具体步骤如下:
C1.检测子线程从所属通道的环形缓冲队列获取转发数据包;
C2.选择nIDR=1的视频帧,作为关键帧用于后续处理;
C3.将H.264格式视频帧解码为YUV格式,再转换为JPG格式;
D.检测子线程对关键帧进行移动目标快速检测,具体步骤如下:
D1.计算3个连续视频帧的灰度差值,具体步骤如下:
D1.1.将tn-1、tn、tn+1时刻的视频帧灰度值记为Fn-1,Fn,Fn+1
D1.2.分别计算视频帧Fn与Fn-1,Fn+1与Fn的灰度差值,分别作为tn-1时刻和tn时刻的前景图像Dn-1和Dn
D2.对前景图像做快速移动目标检测,含有移动目标的图像记为Rn’,具体步骤如下:
D2.1.对Dn-1和Dn做交集计算得到Dn’;
D2.2.根据预设阈值T1,对Dn’中的每个像素点进行二值化处理,得到二值化图像Rn,所述的T1的取值包括但不限于10;具体步骤如下:
D2.2.1.记d为Dn’中像素点的灰度值;
D2.2.2.若d>T1,记Rn=255,即为运动目标点;
D2.2.3.若d<=T1,记Rn=0,即为背景点;
D2.3.统计Rn中像素值为255的像素点的个数,若大于预设阈值T2,则认为该视频中存在移动目标,将图像记为Rn’;当对应的图像分辨率为464*464时,所述的T2取值为30000;
E.检测子线程对Rn’进行人体检测,并向智能分析服务器发送姿态识别请求,具体步骤如下:
E1.加载包括锚框信息在内的深度神经网络模型(简称网络)参数;
所述的锚框信息,指训练网络时通过聚类得到的锚框的宽高信息;所述的锚框指N个出现概率最高的用于预测目标的包围框,其中的N包括但不限于5;
E2.将输入图像分辨率处理为464*464,通过网络卷积层和池化层处理输入图片,得到分辨率为13*13的特征图;
E3.通过网络预测层对上述特征图预测目标框,具体步骤如下:
E3.1对特征图上的每个像素,使用锚框预测M个目标框的信息、目标框类别以及对应的置信度和类别概率;
所述的目标框的信息包括:目标框中心相对该像素的偏移,以及目标框的宽度和高度,记为(x,y,w,h);
所述的置信度表示所预测的目标框位置信息的准确度;
所述的类别概率表示预测该目标框类别为人体的概率;
E3.2.过滤掉置信度低于预先设置的阈值T的目标框,所述的阈值T包括但不限于0.7;
E3.3.对留下来的目标框用极大抑制去掉重复目标框;
E3.4.选取类别概率最高的目标框,并输出左下角和右上角坐标;
E4.如果经过步骤E检测的图像帧里有人体,则每隔K帧将有人体的原始图像帧和目标框信息打包成姿态识别请求,发送给智能分析服务器,所述的K值大于等于1;
E5.如果经过步骤E检测的图像帧没有人体,则不做后续处理;
F.智能分析服务器接收姿态识别请求,进行姿态识别处理,并将结果返回转发服务器,具体步骤如下:
F1.主线程为每个视频通道创建识别子线程和识别缓冲队列,具体步骤如下:
F1.1.主线程接收从转发服务器发来的姿态识别请求,将接收到的图像帧挂载到通道对应的识别缓冲队列;
F1.2.通道对应的识别子线程获取识别缓冲队列中的图像帧,记为原始图片S;
F2.识别子线程加载由四级网络组成的深度神经网络模型,提取原始图片S中人体关节特征信息,具体步骤如下:
F2.1.第一级网络包含两路网络N11和N12,生成特征图F1 1~F1 14,具体步骤如下:
F2.1.1.N11网络在原始图片S上利用若干残差模块提取特征,输出14路特征图F11-1~F11-14;N12网络在原始图片S上先降采样,然后经过若干残差模块,然后上采样,输出14路特征图F12-1~F12-14;每一路特征图对应一个高斯响应最高的关节点;
14路特征图对应的14个关节点包括:头、脖子、右肩,右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝;
F2.1.2.基于F2.1.1的特征图,引入编码器和解码器,生成带有权重W的特征图F‘11-1~F‘11-14和F‘12-1~F‘12-14,具体步骤如下:
F2.1.2.1.编码器均匀分割F2.1.1的每个特征图为多个区域,称为特征区域a,每个区域对应的编码为y;
所述的特征区域a的集合记为RD={a1,…,ai,…,aL},其中ai表示第i个区域,1<=i<=L,L表示被分割的区域个数;ai∈RD,RD表示以D为切割单位的完整特征图,D表示区域的像素个数,如区域大小为14*14,则D=196;
所述的编码y是一个14维向量,其中,14是关节的个数;第i个区域的编码记为yi,yi向量中的第j个元素记为yij,yij=1表示第i个区域中含有第j个关节点;yij=0表示第i个区域中不含有第j个关节点;y的集合记为YD={y1,…,yi,…,yL},1<=i<=L;
F2.1.2.2.解码器对F2.1.1的每个特征图计算权重W11-1~W11-14和W12-1~W12-14:每个权重W是该特征图中所有特征区域的权重w的集合,记为W={w1,…,wi,…,wL};每个特征区域的权重wi表示该特征区域输入到下一级处理时所占的比例系数,是利用该特征区域a及编码y进行计算的结果;
F2.1.3.融合特征图F‘11-1~F‘11-14和F‘12-1~F‘12-14得到该级网络输出特征图F1 1~F1 14
F2.1.4.将原始图片S和特征图F1 1~F1 14作为下一级网络的输入;
F2.2.第二级子网络包含两路网络N21和N22,以第一级子网络输出的特征图F1 1~F1 14和原始图片S为输入,重复步骤F2.1的具体步骤,得到输出F2 1~F2 14
F2.3.第三级子网络包含两路网络N31和N32,以第二级子网络输出的特征图F2 1~F2 14和原始图片S为输入,重复步骤F2.1下的具体步骤,得到输出F3 1~F3 14
F2.4.第四级子网络包含两路网络N41和N42,以第三阶子网络输出的特征图F3 1~F3 14和原始图片S为输入,重复步骤F2.1下的具体步骤,得到输出F4 1~F4 14
F2.5.利用特征图F4 1~F4 14提取所有关节的名称和坐标,按照生理常识连接相邻关节,计算关节点之间的距离,构造骨架图;所述骨架图包括各关节点名称、坐标,以及相连关节点之间的距离;
F3.识别子线程用SVM分类器对骨架图进行姿态分类,具体步骤如下:
F3.1.加载已训练好的SVM分类器,识别包括但不限于跪,躺,坐,站的姿态;
F3.2.对骨架图分类,并将识别结果返回给转发服务器;所述识别结果包括骨架图以及该骨架图姿态类别及准确度;
G.转发服务器的主线程接收识别结果,转发给客户端,客户端在界面上显示结果;具体步骤如下:
G1.主线程接收识别结果,将识别结果写入对应通道的环形缓冲队列中最新的转发数据包里;
G2.对应通道的转发子线程从转发缓冲队列获取转发数据包,发送给客户端;
G3.客户端接收含有识别结果的转发数据包,提取视频帧和识别信息,显示在客户端界面上。
本发明提出快速实时的基于深度神经网络的人体检测及姿态识别方法,包括移动目标快速检测、人体快速检测、人体姿态识别三个阶段。采用多通道并发机制和分布式处理机制将上述三类任务并发并行地完成,在多核处理机***中能够更好地利用多处理器的并行计算能力,能在同时支持多路视频通道的情况下,更快的实现人体检测和姿态识别。采用深度神经网络进行姿态识别,提取人体关节点信息,构造骨架信息,从而能够屏蔽复杂背景和衣着等噪音的影响,显著提高识别速度和准确率,降低硬件成本,具有很好的应用前景和市场价值。
附图说明
图1:一种面向智能视频监控的多通道快速人体姿态识别方法流程图;
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
下面按照实现步骤,通过对瑜伽教学视频姿态识别实施例,对本发明作进一步描述。实验环境如下:
Figure GSB0000178620060000061
Figure GSB0000178620060000071
方法流程如图1所示,本发明方法包括如下步骤:1)搭建面向智能视频监控的多通道快速人体姿态识别***;2)检测子线程进行移动目标快速检测;3)检测子线程进行人体快速检测;4)快速人体姿态识别;智能分析服务器对人体视频帧采用神经网络进行快速的人体姿态识别,将识别结果发送给转发服务器;5)客户端呈现姿态识别结果;转发服务器将识别结果和相应视频流转发给客户端,客户端接收含有识别结果的转发数据包,客户端将姿态识别结果显示在界面上。下面按照步骤,结合***实例对本发明作进一步描述:
1.搭建面向智能视频监控的多通道快速人体姿态识别***架构;
1.1.***包括客户端,视频转发服务器(简称转发服务器),智能分析服务器、网络视频录像机;
1.2.客户端向转发服务器发获取瑜伽教学视频的请求,向用户显示视频图像和识别结果;
1.3.转发服务器接收客户端请求,从网络视频录像机获取瑜伽教学视频流转发给客户端;
1.4.转发服务器进行移动目标快速检测和快速人体检测,并向智能分析服务器发送姿态识别请求,接收识别结果后发送给客户端;
1.5.智能分析服务器接收识别请求,识别姿态,并返回识别结果给转发服务器;
1.6.客户端、转发服务器,智能分析服务器之间通过网络控制端口和数据端口进行视频数据、识别信息的通信;
2.检测子线程对关键帧进行移动目标快速检测,具体步骤如下:
2.1.主线程接收客户端请求,从网络视频录像机获取所请求通道的视频流;
2.2.主线程为每一路视频通道创建环形缓冲队列、转发子线程;
2.3.通道对应的检测子线程获取视频帧并进行格式转换,具体步骤如下:
2.3.1.检测子线程从所属通道环形缓冲队列获取转发数据包;
2.3.2.选择nIDR=1的视频帧,作为关键帧用于后续处理;
2.3.3.将H.264格式视频帧解码为YUV格式,再转换为JPG格式视频帧;
2.4.检测子线程对关键帧进行移动目标快速检测,具体步骤如下:
2.4.1.计算3个连续视频帧的灰度差值,得到tn-1时刻和tn时刻的前景图像Dn-1和Dn
2.4.2.对前景图像做交集及二值化计算得到Rn图像;
2.4.3.统计Rn像素值为255的点的个数,若大于设定阈值30000,则认为该视频中存在移动目标,记为Rn’;
3.检测子线程对Rn’进行人体检测,并向智能分析服务器发送姿态识别请求,具体步骤如下:
3.1.加载包括锚框信息在内的深度神经网络模型(简称网络)参数;
所述的锚框信息,指训练网络时通过聚类得到的锚框的宽高信息,分别为(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,198),(373,326);
3.2.将输入图像分辨率处理为464*464,通过网络卷积层和池化层处理输入图片,得到分辨率为13*13的特征图;
3.3.通过网络预测层对上述特征图预测目标框,具体步骤如下:
3.3.1.对特征图上的每个像素,使用锚框预测5个目标框的信息、目标框类别以及对应的置信度和类别概率;
最终得到类别概率前5的目标框信息(x,y,w,h),分别是(249.5,346,16,449)(249.5,462,15,449)(249.5,461.5,15,449)(249.5,232,82,449)(249.5,404.5,23,449);
3.3.2.过滤掉置信度低于预先设置的阈值T的目标框,所述的阈值T取0.7;
3.3.3.对留下来的目标框用极大抑制去掉重复目标框;
3.3.4.选取类别概率最高的目标框,并输出左下角和右上角坐标;
最终得到概率最高的目标框坐标,概率为0.97645,输出左下角和右上角坐标分别为(0,338)(499,354);
3.4.经过步骤3.3检测的图像帧里有人体,每隔5帧将有人体的原始图像帧和目标框信息打包成姿态识别请求,发送给智能分析服务器;
4.智能分析服务器接收姿态识别请求,进行姿态识别处理,并将结果返回转发服务器,具体步骤如下:
4.1.主线程为每个视频通道创建识别子线程和识别缓冲队列,具体步骤如下:
4.1.1.主线程接收从转发服务器发来的姿态识别请求,将接收到的图像帧挂载到通道对应的识别缓冲队列;
4.1.2.通道对应的识别子线程获取识别缓冲队列中的图像帧,记为原始图片S;
4.2.识别子线程加载由四级网络组成的深度神经网络模型,提取原始图片S中人体关节特征信息,具体步骤如下:
4.2.1.第一级网络包含两路网络N11和N12,生成特征图F1 1~F1 14,具体步骤如下:
4.2.1.1.N11网络在原始图片S上利用若干残差模块提取特征,输出14路特征图F11-1~F11-14;N12网络在原始图片S上先降采样,然后经过若干残差模块,然后上采样,输出14路特征图F12-1~F12-14;每一路特征图对应一个高斯响应最高的关节点;
14路特征图对应的14个关节点包括:头、脖子、右肩,右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝;
4.2.2.基于4.2.1.1的特征图,引入编码器和解码器,生成带有权重W的特征图F‘11-1~F‘11-14和F‘12-1~F‘12-14;具体步骤如下:
4.2.2.1.编码器均匀分割F2.1.1的每个特征图为多个区域,称为特征区域a,每个区域对应的编码为y;
所述的特征区域a的集合记为RD={a1,…,ai,…,aL},其中,ai表示第i个区域,1<=i<=L,L表示被分割的区域个数;ai∈RD,RD表示以D为切割单位的完整特征图,D表示区域的像素个数,如区域大小为14*14,则D=196;
所述的编码y是一个14维向量,其中,14是关节的个数;第i个区域的编码记为yi,yi向量中的第j个元素记为yij,yij=1表示第i个区域中含有第j个关节点;yij=0表示第i个区域中不含有第j个关节点;y的集合记为YD={y1,…,yi,…,yL},1<=i<=L;
4.2.2.2.解码器对F2.1.1的每个特征图计算权重W11-1~W11-14和W12-1~W12-14:每个权重W是该特征图中所有特征区域的权重w的集合,记为W={w1,…,wi,…,wL};每个特征区域的权重wi表示该特征区域输入到下一级处理时所占的比例系数,是利用该特征区域a及编码y进行计算的结果;
4.2.3.融合特征图F‘11-1~F‘11-14和F‘12-1~F‘12-14得到该级网络输出特征图F1 1~F1 14
4.2.4.将原始图片S和特征图F1 1~F1 14作为下一级网络的输入;
4.2.5.第二级子网络包含两路网络N21和N22,以第一级子网络输出的特征图F1 1~F1 14和原始图片S为输入,重复步骤4.2.1的具体步骤,得到输出F2 1~F2 14
4.2.6.第三级子网络包含两路网络N31和N32,以第二级子网络输出的特征图F2 1~F2 14和原始图片S为输入,重复步骤4.2.1下的具体步骤,得到输出F3 1~F3 14
4.2.7.第四级子网络包含两路网络N41和N42,以第三阶子网络输出的特征图F3 1~F3 14和原始图片S为输入,重复步骤4.2.1下的具体步骤,得到输出F4 1~F4 14
4.2.8.利用特征图F4 1~F4 14提取所有关节的名称和坐标,按照生理常识连接相邻关节,计算关节点之间的距离,构造骨架图,如下:
以图片左上角为坐标原点,得到头、脖子、右肩,右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝坐标值分别为(62,123)(98,120)(108,95)(138,67)(162,85)(107,144)(115,169)(82,161)(166,103)(144,105)(299,113)(166,131)(248,127)(300,131);计算得到(头、脖子)、(右肩、右肘)、(右肘、右腕)、(左肩、左肘)、(左肘、左腕)、(右臀,右膝)、(右膝,右踝)、(左臀、左膝)、(左膝、左踝)连线长度分别为36.12,41.04,30.00,26.25,33.96,78.03,55.58,82.10,52.15;
4.3.识别子线程用SVM分类器对骨架图进行姿态分类,具体步骤如下:
4.3.1.加载已训练好的SVM分类器,对骨架图分类,得到的识别结果分别为:坐:92%,躺:85%,站:95%,跪:80.3%;选取准确度最高的姿态类别为“站”;
4.3.2.将上述骨架信息、姿态类别“站”及其准确度“95%”,作为识别结果返回给转发服务器;
5.转发服务器的主线程接收识别结果,转发给客户端,客户端在界面上显示结果;具体步骤如下:
5.1.主线程接收识别结果,将识别结果写入对应通道的环形缓冲队列中最新的转发数据包里;
5.2.对应通道的转发子线程从转发缓冲队列获取转发数据包,发送给客户端;
5.3.客户端接收含有识别结果的转发数据包,提取视频帧和识别信息,显示在客户端界面上。
最后需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (1)

1.一种面向智能视频监控的多通道快速人体姿态识别方法,其步骤包括:
A.搭建面向智能视频监控的多通道快速人体姿态识别***架构;
A1.***包括客户端,视频转发服务器(简称转发服务器),智能分析服务器、网络视频录像机;
A2.客户端向转发服务器发送获取视频流请求,向用户显示视频图像和识别结果;
A3.转发服务器接收客户端请求,从网络视频录像机获取所请求视频流转发给客户端;
A4.转发服务器进行移动目标快速检测和快速人体检测,并向智能分析服务器发送姿态识别请求,接收识别结果后发送给客户端;
A5.智能分析服务器接收识别请求,识别姿态,并返回识别结果给转发服务器;
A6.客户端、转发服务器,智能分析服务器之间通过网络控制端口和数据端口进行视频数据、识别信息的通信;
B.转发服务器接收客户端请求,获取视频流,转发视频流给客户端,并创建检测子线程用于快速检测,具体步骤如下:
B1.主线程接收客户端请求,从网络视频录像机获取所请求通道的视频流;
B2.主线程为每一路视频通道创建环形缓冲队列、转发子线程;
B2.1.创建环形缓冲队列存放各通道对应的转发数据包;
B2.2.为获取到的视频帧创建转发数据包,挂载到各通道的环形缓冲队列上;
所述的转发数据包包括数据头和视频帧缓冲区;其中,数据头包括但不限于视频帧大小、格式、时间t、姿态识别的结果信息、以及关键帧标志nIDR,取值1表示关键帧,0表示非关键帧;
B2.3.创建转发子线程用于从环形缓冲队列中取视频帧,转发给客户端进行实时显示;
B3.创建检测子线程用于从环形缓冲队列取得视频帧、快速检测和发送姿态识别请求;
C.通道对应的检测子线程获取关键帧并进行格式转换,具体步骤如下:
C1.检测子线程从所属通道的环形缓冲队列获取转发数据包;
C2.选择nIDR=1的视频帧,作为关键帧用于后续处理;
C3.将H.264格式视频帧解码为YUV格式,再转换为JPG格式;
D.检测子线程对关键帧进行移动目标快速检测,具体步骤如下:
D1.计算3个连续视频帧的灰度差值,具体步骤如下:
D1.1.将tn-1、tn、tn+1时刻的视频帧灰度值记为Fn-1,Fn,Fn+1
D1.2.分别计算视频帧Fn与Fn-1,Fn+1与Fn的灰度差值,分别作为tn-1时刻和tn时刻的前景图像Dn-1和Dn
D2.对前景图像做快速移动目标检测,含有移动目标的图像记为Rn’,具体步骤如下:
D2.1.对Dn-1和Dn做交集计算得到Dn’;
D2.2.根据预设阈值T1,对Dn’中的每个像素点进行二值化处理,得到二值化图像Rn,所述的T1的取值包括但不限于10;具体步骤如下:
D2.2.1.记d为Dn’中像素点的灰度值;
D2.2.2.若d>T1,记Rn=255,即为运动目标点;
D2.2.3.若d<=T1,记Rn=0,即为背景点;
D2.3.统计Rn中像素值为255的像素点的个数,若大于预设阈值T2,则认为该视频中存在移动目标,将图像记为Rn’;当对应的图像分辨率为464*464时,所述的T2取值为30000;
E.检测子线程对Rn’进行人体检测,并向智能分析服务器发送姿态识别请求,具体步骤如下:
E1.加载包括锚框信息在内的深度神经网络模型(简称网络)参数;
所述的锚框信息,指训练网络时通过聚类得到的锚框的宽高信息;所述的锚框指N个出现概率最高的用于预测目标的包围框,其中的N包括但不限于5;
E2.将输入图像分辨率处理为464*464,通过网络卷积层和池化层处理输入图片,得到分辨率为13*13的特征图;
E3.通过网络预测层对上述特征图预测目标框,具体步骤如下:
E3.1对特征图上的每个像素,使用锚框预测M个目标框的信息、目标框类别以及对应的置信度和类别概率;
所述的目标框的信息包括:目标框中心相对该像素的偏移,以及目标框的宽度和高度,记为(x,y,w,h);
所述的置信度表示所预测的目标框位置信息的准确度;
所述的类别概率表示预测该目标框类别为人体的概率;
E3.2.过滤掉置信度低于预先设置的阈值T的目标框,所述的阈值T包括但不限于0.7;
E3.3.对留下来的目标框用极大抑制去掉重复目标框;
E3.4.选取类别概率最高的目标框,并输出左下角和右上角坐标;
E4.如果经过步骤E检测的图像帧里有人体,则每隔K帧将有人体的原始图像帧和目标框信息打包成姿态识别请求,发送给智能分析服务器,所述的K值大于等于1;
E5.如果经过步骤E检测的图像帧没有人体,则不做后续处理;
F.智能分析服务器接收姿态识别请求,进行姿态识别处理,并将结果返回转发服务器,具体步骤如下:
F1.主线程为每个视频通道创建识别子线程和识别缓冲队列,具体步骤如下:
F1.1.主线程接收从转发服务器发来的姿态识别请求,将接收到的图像帧挂载到通道对应的识别缓冲队列;
F1.2.通道对应的识别子线程获取识别缓冲队列中的图像帧,记为原始图片S;
F2.识别子线程加载由四级网络组成的深度神经网络模型,提取原始图片S中人体关节特征信息,具体步骤如下:
F2.1.第一级网络包含两路网络N11和N12,生成特征图F1 1~F1 14,具体步骤如下:
F2.1.1.N11网络在原始图片S上利用若干残差模块提取特征,输出14路特征图F11-1~F11-14;N12网络在原始图片S上先降采样,然后经过若干残差模块,然后上采样,输出14路特征图F12-1~F12-14;每一路特征图对应一个高斯响应最高的关节点;
14路特征图对应的14个关节点包括:头、脖子、右肩,右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝;
F2.1.2.基于F2.1.1的特征图,引入编码器和解码器,生成带有权重W的特征图F‘11-1~F‘11-14和F‘12-1~F‘12-14,具体步骤如下:
F2.1.2.1.编码器均匀分割F2.1.1的每个特征图为多个区域,称为特征区域a,每个区域对应的编码为y;
所述的特征区域a的集合记为RD={a1,…,ai,…,aL},其中ai表示第i个区域,1<=i<=L,L表示被分割的区域个数;ai∈RD,RD表示以D为切割单位的完整特征图,D表示区域的像素个数,如区域大小为14*14,则D=196;
所述的编码y是一个14维向量,其中,14是关节的个数;第i个区域的编码记为yi,yi向量中的第j个元素记为yij,yij=1表示第i个区域中含有第j个关节点;yij=0表示第i个区域中不含有第j个关节点;y的集合记为YD={y1,…,yi,…,yL},1<=i<=L;
F2.1.2.2.解码器对F2.1.1的每个特征图计算权重W11-1~W11-14和W12-1~W12-14:每个权重W是该特征图中所有特征区域的权重w的集合,记为W={w1,…,wi,…,wL};每个特征区域的权重wi表示该特征区域输入到下一级处理时所占的比例系数,是利用该特征区域a及编码y进行计算的结果;
F2.1.3.融合特征图F‘11-1~F‘11-14和F‘12-1~F‘12-14得到该级网络输出特征图F1 1~F1 14
F2.1.4.将原始图片S和特征图F1 1~F1 14作为下一级网络的输入;
F2.2.第二级子网络包含两路网络N21和N22,以第一级子网络输出的特征图F1 1~F1 14和原始图片S为输入,重复步骤F2.1的具体步骤,得到输出F2 1~F2 14
F2.3.第三级子网络包含两路网络N31和N32,以第二级子网络输出的特征图F2 1~F2 14和原始图片S为输入,重复步骤F2.1下的具体步骤,得到输出F3 1~F3 14
F2.4.第四级子网络包含两路网络N41和N42,以第三阶子网络输出的特征图F3 1~F3 14和原始图片S为输入,重复步骤F2.1下的具体步骤,得到输出F4 1~F4 14
F2.5.利用特征图F4 1~F4 14提取所有关节的名称和坐标,按照生理常识连接相邻关节,计算关节点之间的距离,构造骨架图;所述骨架图包括各关节点名称、坐标,以及相连关节点之间的距离;
F3.识别子线程用SVM分类器对骨架图进行姿态分类,具体步骤如下:
F3.1.加载已训练好的SVM分类器,识别包括但不限于跪,躺,坐,站的姿态;
F3.2.对骨架图分类,并将识别结果返回给转发服务器;所述识别结果包括骨架图以及该骨架图姿态类别及准确度;
G.转发服务器的主线程接收识别结果,转发给客户端,客户端在界面上显示结果;具体步骤如下:
G1.主线程接收识别结果,将识别结果写入对应通道的环形缓冲队列中最新的转发数据包里;
G2.对应通道的转发子线程从转发缓冲队列获取转发数据包,发送给客户端;
G3.客户端接收含有识别结果的转发数据包,提取视频帧和识别信息,显示在客户端界面上。
CN201811299870.8A 2018-11-02 2018-11-02 一种面向智能视频监控的多通道快速人体姿态识别方法 Active CN109583315B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811299870.8A CN109583315B (zh) 2018-11-02 2018-11-02 一种面向智能视频监控的多通道快速人体姿态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811299870.8A CN109583315B (zh) 2018-11-02 2018-11-02 一种面向智能视频监控的多通道快速人体姿态识别方法

Publications (2)

Publication Number Publication Date
CN109583315A CN109583315A (zh) 2019-04-05
CN109583315B true CN109583315B (zh) 2023-05-12

Family

ID=65921471

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811299870.8A Active CN109583315B (zh) 2018-11-02 2018-11-02 一种面向智能视频监控的多通道快速人体姿态识别方法

Country Status (1)

Country Link
CN (1) CN109583315B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860392B (zh) * 2020-07-28 2021-04-20 珠海安联锐视科技股份有限公司 基于目标检测和前景检测热力图统计方法
CN112017384A (zh) * 2020-08-05 2020-12-01 山东大学 一种区域实时监控自动报警方法及***
CN112287840B (zh) * 2020-10-30 2022-07-22 焦点科技股份有限公司 一种运动能力分析数据智能采集的方法和***
CN112954449B (zh) * 2021-01-29 2023-03-24 浙江大华技术股份有限公司 视频流处理方法、***、电子装置和存储介质
US11645874B2 (en) 2021-06-23 2023-05-09 International Business Machines Corporation Video action recognition and modification
CN113611387B (zh) * 2021-07-30 2023-07-14 清华大学深圳国际研究生院 一种基于人***姿估计的运动质量评估方法及终端设备
CN115187918B (zh) * 2022-09-14 2022-12-13 中广核贝谷科技有限公司 一种监控视频流中移动物体的识别方法及***
CN115665359B (zh) * 2022-10-09 2023-04-25 西华县环境监察大队 一种环境监测数据智能压缩方法
CN116304179B (zh) * 2023-05-19 2023-08-11 北京大学 一种获取目标视频的数据处理***
CN117115718B (zh) * 2023-10-20 2024-01-09 思创数码科技股份有限公司 政务视频数据的处理方法、***及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000115A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 行人再识别方法及设备
CN107527045A (zh) * 2017-09-19 2017-12-29 桂林安维科技有限公司 一种面向多路视频的人体行为事件实时分析方法
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000115A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 行人再识别方法及设备
CN107527045A (zh) * 2017-09-19 2017-12-29 桂林安维科技有限公司 一种面向多路视频的人体行为事件实时分析方法
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于GMM的人体运动姿态的追踪与识别;魏燕欣等;《北京服装学院学报(自然科学版)》;20180630(第02期);全文 *

Also Published As

Publication number Publication date
CN109583315A (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN109583315B (zh) 一种面向智能视频监控的多通道快速人体姿态识别方法
Kim et al. Vision-based human activity recognition system using depth silhouettes: A smart home system for monitoring the residents
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
Wang et al. Detection of abnormal visual events via global optical flow orientation histogram
US10140508B2 (en) Method and apparatus for annotating a video stream comprising a sequence of frames
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
US20180114071A1 (en) Method for analysing media content
Wu et al. A detection system for human abnormal behavior
WO2011080900A1 (ja) 移動体検出装置および移動体検出方法
Naik et al. Deep-violence: individual person violent activity detection in video
CN110852179B (zh) 基于视频监控平台的可疑人员入侵的检测方法
Janku et al. Fire detection in video stream by using simple artificial neural network
Jemilda et al. Moving object detection and tracking using genetic algorithm enabled extreme learning machine
CN114870384A (zh) 一种基于动态识别的太极拳训练方法及***
Aldahoul et al. A comparison between various human detectors and CNN-based feature extractors for human activity recognition via aerial captured video sequences
CN110188718B (zh) 一种基于关键帧和联合稀疏表示的无约束人脸识别方法
Kale et al. Suspicious activity detection using transfer learning based resnet tracking from surveillance videos
Nosheen et al. Efficient Vehicle Detection and Tracking using Blob Detection and Kernelized Filter
Ponika et al. Developing a YOLO based Object Detection Application using OpenCV
Dahirou et al. Motion Detection and Object Detection: Yolo (You Only Look Once)
IL260438A (en) Method and system for identifying objects in video
CN117475353A (zh) 基于视频的异常烟雾识别方法及***
Alzahrani et al. Anomaly detection in crowds by fusion of novel feature descriptors
Bhardwaj et al. Modified Neural Network-based Object Classification in Video Surveillance System.
Srinivasa et al. Fuzzy edge-symmetry features for improved intruder detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant