CN106778576A - 一种基于sehm特征图序列的动作识别方法 - Google Patents

一种基于sehm特征图序列的动作识别方法 Download PDF

Info

Publication number
CN106778576A
CN106778576A CN201611110573.5A CN201611110573A CN106778576A CN 106778576 A CN106778576 A CN 106778576A CN 201611110573 A CN201611110573 A CN 201611110573A CN 106778576 A CN106778576 A CN 106778576A
Authority
CN
China
Prior art keywords
sehm
action
sequence
frame
characteristic patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611110573.5A
Other languages
English (en)
Other versions
CN106778576B (zh
Inventor
吴贺俊
李嘉豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201611110573.5A priority Critical patent/CN106778576B/zh
Publication of CN106778576A publication Critical patent/CN106778576A/zh
Application granted granted Critical
Publication of CN106778576B publication Critical patent/CN106778576B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的动作识别方法在进行动作识别时,是以本发明提出的SEHM(segment energy history maps)特征图作为底层特征进行动作识别的。通过合理选择算法中时间片长度等参数,计算相应的SEHM特征图序列并应用到神经网络进行预测,能够在动作识别上实现离线识别和在线识别的功能。且由于构建的SEHM特征图是与动作整体姿态的前后变化相关的,因此可以充分地利用动作变化过程中的动作信息,提高动作识别的准确度。同时,在进行SEHM特征图计算时对原始数据进行了一定的压缩,方法的复杂度和硬件的要求较低,并能做到在线的实时动作识别。

Description

一种基于SEHM特征图序列的动作识别方法
技术领域
本发明涉及图像识别领域,更具体地,涉及一种基于SEHM特征图序列的动作识别方法。
背景技术
伴随着摄像头传感器技术的发展,摄像头的清晰度水平有着普遍的提高,而使得摄像头在各种场景中出现的数目和概率大大增加。当今时代互联网的浪潮下,大量的图像视频数据在每天的生活中涌现,也带动了图像处理技术的发展。动作识别技术作为图像处理技术中的一个领域,一直广泛应用于许多场景中,包括视频监控、体感游戏、健康护理、社会援助等方面。例如,微软在2010年推出了Xbox360的体感外设——Kinect,可以在主机游戏中作为深度摄像头捕捉玩家的肢体动作并与游戏进行互动;除此之外,开发者还可以利用开发工具包,在Windows平台上开发出自己应用,如模拟穿衣等。
在拥有广泛的应用场景的同时,动作识别的发展也一直存在着许多的技术难点和约束条件。
第一是客观条件的制约。在视频图像序列中,因为实际拍摄情况,常常会出现无法避免的妨碍因素,如摄像头中的人遇到其他物体的遮挡(物体遮挡);摄像头因为不是一直固定的原因造成摄像画面出现晃动(视角抖动);同一个人在光线和阴影中其颜色发生改变(光照条件);不同摄像头因为镜头的好坏造成画面清晰度有很大的区别(分辨率)。在动作识别领域,甚至于图像处理领域,上述都是必须考虑的问题。
第二是主观条件的影响。作为动作识别处理的主体,不同人对于同一个动作有自己的定义和理解,即使是同一个动作也会有一些细微的差别。具体的表现为不同的人做同样一个动作,动作的长短、幅度、停顿等往往会造成整个图像序列许多的不同。除此主体动作造成的不同外,不同人因为年龄性别原因在体型结构上也会有些许差异;离摄像头的距离、面对摄像头的角度都会使得记录的动作间有巨大的差别。上述所说的每一个因素都有可能增加数据的多样性。同时,为了实现动作识别算法,为不同的行业和场景提供具体的接口与应用,不仅要考虑动作识别算法的准确率,还要考虑其他约束条件,例如成本问题和实时性问题。
在动作识别算法中,一般都以传感器作为原始的输入数据,配合预处理、特征计算和分类模型等过程进行动作的分类判断。传统的动作识别方法一般都是以传统的RGB摄像头为输入的方法,但随着各种新的传感器出现,越来越多种类的传感器被应用到动作识别方法中去,如深度摄像头、红外线摄像头和加速度传感器等。新的传感器的出现使得新的输入数据被应用到动作识别方法中,甚至于诞生了许多模型融合方法。深度图作为有别于传统RGB图的新数据,每个像素记录的不是颜色值而是距离摄像头的距离。因为其具有距离信息,以此为基础的研究和算法获得了越来越多的关注和兴趣。
参考文献一公开了一种动作识别方法,该方法以深度图作为输入,根据深度图的距离信息把深度图投影到三个正交坐标系的不同平面中:正视图、侧视图面、俯视图。文献一提出了一个新的特征图——深度能量图;然后计算不同视图下的深度能量图对应的HOG特征并输入SVM分类器进行预测分类。该方法直接把整个深度视频序列合为一张深度能量图,没有充分考虑到动作在整个动作前后间的重叠、冗余信息,也没考虑整个动作中人体姿态的前后变化。在前后出现了多个不同动作的视频中,并不能正确地分割并生成多个动作的能量图导致无法识别出多个动作(前后多动作视频识别);同理,在线识别中因为不能选取结束帧导致无法合成深度能量图,即无法满足实时性的需求。
参考文献二公开了一种动作识别方法,该方法同样把深度图先投影到三个坐标面上并计算出对应的深度能量图,然后引用另外一个特征算子LBP作高级特征。计算出了深度能量图的LBP特征后,再用改进的极限学习机模型做动作识别。该方法同样把整个视频序列处理为一张深度能量图,并没有考虑动作前后姿势的内在联系,无法满足前后多动作视频识别、在线识别和实时性等需求。
参考文献三公开了一种动作识别方法,该方法同样把深度图投影到三个不同的视角图,不同于参考文献一、参考文献二只计算整个视频中代表距离变化的深度能量图,该方法计算出深度距离活跃区域的历史轨迹图,把姿态出现的次序纳入考虑;同时也提出了静态姿势图和平均能量图,丰富了特征的输入。然而,该方法虽然考虑了姿态的出现顺序,但是并没有充分考虑整个视频序列中前面的历史姿态会被后面的姿态覆盖的问题,导致某些动作的前半部分被后半部分所覆盖而丢失了许多信息。把整个视频序列合成历史轨迹图虽然一定程度上考虑了姿态前后出现的情况,但没有考虑一些冗余动作的干扰。虽然加入了静止区域的计算,但还是只考虑了动作能量图的绝对值而没有考虑动作能量的正负方向。与参考文献一、参考文献二相似,参考文献三同样无法满足前后多动作视频识别,在线识别和实时性需求。
参考文献一:Yang,Xiaodong,C.Zhang,and Y.L.Tian."Recognizing actionsusing depth motion maps-based histograms of oriented gradients."ACMInternational Conference on Multimedia 2012:1057-1060.
参考文献二:Chen,Chen,R.Jafari,and N.Kehtarnavaz."Action Recognitionfrom Depth Sequences Using Depth Motion Maps-Based Local Binary Patterns."Applications of Computer Vision IEEE,2015:1092-1099.
参考文献三:Liang,Bin,and L.Zheng."3D Motion Trail Model Based PyramidHistograms of Oriented Gradient for Action Recognition."InternationalConference on Pattern Recognition IEEE Computer Society,2014:1952-1957.
发明内容
本发明为解决以上现有技术的难题,提供了一种基于SEHM特征图序列的动作识别方法,该方法的能够实现离线识别和在线识别,方法的实时性较好。
为实现以上发明目的,采用的技术方案是:
一种基于SEHM特征图序列的动作识别方法,包括以下步骤:
S1.针对视频中选定的时间段长度为N帧的深度图序列,将深度图序列中每一帧的深度图投影到三个正交坐标系的不同平面中,得到三个正交的视角图:正视图、侧视图和俯视图;
S2.对于每个视角图下的深度图序列,计算其相邻两帧的差值作为能量图,其中每帧能量图代表着前后帧的距离变化;然后根据能量图的具体数值和设定的阈值将能量图分为三种状态图:向前状态的二进制图、向后状态的二进制图或静态的二进制图。具体如下:
其中为在视角图v下第t帧的能量图;ε为所设的阈值; 表示后一帧减去前一帧的差值的绝对值;i=1,2,3,分别代表向前状态的二进制图、向后状态的二进制图和静态的二进制图;第t帧的状态图通过一个三通道矩阵EMt进行表示;
S3.执行步骤S2后分别得到三个视角图下的状态图序列;将三个视角图的N帧状态图序列分别按照前后顺序平均分为S个时间片,S=N/K,其中K表示每个时间片的长度;对于每个视角图下的状态图序列,按照从前到后的顺序依次选取一个时间片的状态图序列进行SEHM特征图的计算:
S31.设第p次选择进行计算的时间片的状态图序列是从N帧状态图序列的第(p-1)*K+1帧开始而在第p*K帧结束的,则该时间片的SEHM特征图由以下公式和步骤S32计算得到:
SEHMp=max(SEHMp,EM(p-1)*K+k·k)
其中,k的初始值为1,SEHMp是初始值被设为零的三通道矩阵;
S32.令k=k+1然后执行步骤S31的公式直至k>K,最后经过标准化处理后输出SEHMp作为第p次选择进行计算的时间片的SEHM特征图;
S4.通过步骤S31、S32得到三个视角图下各个时间片的SEHM特征图;
S5.将三个视角图下相互对应的时间片的SEHM特征图进行融合,得到融合的以时间片为单位的SEHM特征图;
S6.融合后的各个时间片的SEHM特征图构成SEHM特征图序列,将SEHM特征图序列输入到神经网络中,神经网络输出一列代表各个动作可能性的概率向量P,根据输出的概率向量P确定当前N帧深度图序列的动作识别结果。
上述方案中,动作识别方法在进行动作识别时是基于SEHM特征图进行动作识别的。通过合理选择算法中时间片长度等参数,计算相应的SEHM特征图序列并应用到神经网络进行预测,能够在动作识别上实现离线识别和在线识别的功能。且由于构建的SEHM特征图是与动作整体姿态的前后变化相关的,因此可以充分地利用动作变化过程中的动作信息,提高动作识别的准确度。同时,在进行SEHM特征图计算时对原始数据进行了一定的压缩,方法的复杂度和硬件的要求较低,并能做到在线的实时动作识别。
优选地,分别对三个视角图下的N帧状态图序列进行SEHM特征图的计算,然后对计算得到的三个视角图下的SEHM特征图进行融合,得到全局SEHM特征图;所述步骤S6中,全局SEHM特征图与各个时间片的SEHM特征图构成SEHM特征图序列,将该SEHM特征图序列输入神经网络中进行动作识别。通过以上设置,能够将整个时间段长度的动作特征考虑在内,进一步提高动作识别的准确率。
优选地,所述步骤S1中,选定N帧深度图序列进行动作识别时,是通过滑动窗口进行选定的,所述滑动窗口包括一个窗口大小值m,表示下一次选取的深度图序列的起始帧距离上一次选取的深度图序列的起始帧的时间长度。一段视频可以通过滑动窗口的形式选取多段长度为N帧的时间段进行动作识别,模型最后也会分别给出每段的结果预测。
优选地,所述ε=30。
优选地,所述K=10。
优选地,所述N=80。
优选地,所述步骤S5中,将正视图、侧视图和俯视图相互对应的时间片的SEHM特征图按照2:1:1的比例进行融合。
优选地,所述神经网络包括卷积层、磁化层、LSTM层、全连接层和Softmax层;
其中卷积层和磁化层用于从SEHM特征图序列中提取高级特征;
所述LSTM层用于对提取的特征图序列的高级特征进行前后文处理,输出识别效果更好的具有时序信息的高级特征;
所述全连接层和Softmax层用于接收LSTM层或卷积层、磁化层输出的高级特征,输出一列预测概率向量P。
优选地,所述概率向量P包括若干个概率pi,其中pi表示动作识别为动作i的概率;
则步骤S6中确定动作识别结果的过程如下:
设定一个值在0至1之间的阈值ρ,若概率向量P中没有一个动作的概率大于ρ,则认为N帧深度图序列内的动作为无意义动作;否则取识别概率值最大的动作作为识别结果进行输出。
优选地,所述ρ=0.5。
与现有技术相比,本发明的有益效果是:
本发明提供的动作识别方法在进行动作识别时是基于SEHM特征图进行动作识别的。通过合理选择算法中时间片长度等参数,计算相应的SEHM特征图序列并应用到神经网络进行预测,能够在动作识别上实现离线识别和在线识别的功能。且由于构建的SEHM特征图是与动作整体姿态的前后变化相关的,因此可以充分地利用动作变化过程中的动作信息,提高动作识别的准确度。同时,在进行SEHM特征图计算时对原始数据进行了一定的压缩,方法的复杂度和硬件的要求较低,并能做到在线的实时动作识别。
附图说明
图1为挥手动作的SEHM特征图序列的结构分解图。
图2为实施例用到的具备LSTM层的神经网络的整体的结构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
不同的人对于同一个动作有自己的定义和理解,其中一个最为明显的表现就是动作长短的不同。而又由于主观原因同一个人在不同的时间里做同一个动作的时间也不一样。现有的大多数的方法一般都只是将整个深度视频序列合并成一张新的特征图。但这样做的后果是导致视频序列中的很大一部分时空信息丢失了,特别是像单手在身前划叉等姿势重叠部分比较多的动作更是容易丢失很多信息。为了减少信息的丢失,本发明提出了SEHM特征图(segment energy history maps)。
对于时间段长度为N帧的深度视频序列,先把每一帧的深度图投影到三个正交的视角图(Mapf,Maps,Mapt):正视图、侧视图、俯视图。针对每个视图下的深度图序列接下来都会进行能量图的计算。对于每个视图下的深度图序列,本发明会计算序列中相邻两帧的差值(后一帧减去前一帧)作为能量图。每张能量图代表着前后帧的距离变化。根据获得的每张能量图的具体数值,本发明根据阈值把它们分为三个状态的二进制图:向前状态的、向后状态的、静态状态的。具体如下:
其中为在视角图v下第t帧的能量图;ε为所设的阈值; 表示后一帧减去前一帧的差值的绝对值;i=1,2,3,分别代表向前状态的二进制图、向后状态的二进制图和静态的二进制图;第t帧的三个状态图通过一个三通道矩阵EMt进行表示;
通过计算,可以得到不同视角下的能量图序列。但是并不能直接把能量图直接当作输入数据用到神经网络,这是因为:
1、图像识别往往需要用到上百万的数据集才能获得较好的效果;而一些简单动作的长度一般都有几十到上百帧的图片,且每个主体都为外形相似的人;相比图像识别来说,动作识别想要获得类似的效果需要的数据集远远比前者多。因此若以每帧的数据作为输入,则训练模型时需要较大的数据集才可得到比较可观的结果。
2、因为神经网络中的LSTM层需要考虑所有输入序列的前后关系,若以视频中的每一帧做输入单位,要么选取的时间段合适但计算量较大且对硬件的需求比较高;要么选取的时间段过短影响模型训练结果。
综上所述,本发明先对原始深度序列进行了适当的压缩合并——SEHM特征图计算。
当计算了当前时间段下每个视图下的所有能量图序列后,就可以把每帧的能量图合成为SEHM特征图。为了考虑算法的实时性,必须综合考虑动作数据的具体情况选取合适的N和K的值做SEHM特征图计算。同时为了达到前后多动作视频识别、在线识别和实时性的功能,采用滑动窗口的形式把视频分为多个时间段分别进行识别。例如,某个视频的长度为120帧,若每次取80帧作为时间段的长度,滑动窗口为40帧,则需对1到80帧、41到120帧的深度图序列分别做SEHM特征图序列计算。通过计算可以得到两个时间段的SEHM特征图序列;经过神经网络模型分别得出两个时间段的动作识别结果,从而实现在线识别等功能。
而对于某个时间段长度为N帧的能量图序列,将三个视角图的N帧状态图序列分别按照前后顺序平均分为S个时间片,S=N/K,其中K表示每个时间片的长度;对于每个视角图下的状态图序列,按照从前到后的顺序依次选取一个时间片的状态图序列进行SEHM特征图的计算:
S31.设第p次选择进行计算的时间片的状态图序列是从N帧状态图序列的第(p-1)*K+1帧开始而在第p*K帧结束的,则该时间片的SEHM特征图由以下公式和步骤S32计算得到:
SEHMp=max(SEHMp,EM(p-1)*K+k·k)
其中,k的初始值为1,SEHMp是初始值被设为零的三通道矩阵;
S32.令k=k+1然后执行步骤S31的公式直至k>K,最后经过标准化处理后输出SEHMp作为第p次选择进行计算的时间片的SEHM特征图;
计算完了时间片的特征图后,类似地还需要计算整个时间段的全局SEHM特征图。全局SEHM特征图从时间段的第一帧开始,最后一帧结束。通过上述操作,SEHM特征图进行了压缩并且保留了视频中的关键的姿态信息。对于一般速度和复杂程度的动作,可以考虑N=80,K=10。
同时为了得出最后的识别结果,必须要把三个视角下的SEHM特征图进行融合。考虑到神经网络具有处理图片的局部与整体关系的能力,本发明把多视角下每个相应时间片的SEHM特征图或时间段的全局SEHM特征图按2:1:1的比例合并为一个最终的SEHM特征图。最终的SEHM特征图则交由神经网络提取特征。图1给出的合并后的最终的SEHM特征图序列的结构组成。
对于模式识别方法来说,除了对原始数据进行了特征提取外,算法模型就是最为重要的部分。因为SEHM特征图序列已经进行了压缩和前后排序,所以LSTM(long shortterm memory)层这种具备处理有序输入的模型会有比较好的效果。而LSTM在自然语言与语音领域已经取得了较大的成果,近年来也开始引用到图像领域。
深度神经网络在数据集越大时发挥的效果越好,可以选择对模型进行预处理。Alexnet网络模型是针对RGB图的图像识别模型,其中人就是其任务的一个识别类型。考虑到SEHM特征图是明显具有人体的轮廓特征的三通道特征图,可以认为本发明的SEHM特征图以Alexnet的卷积层和磁化层的参数为初始值再训练会得到较好的结果。使用Alexnet网络的卷积层和磁化层的网络结构作为本发明的神经网络结构前段的同时把LSTM网络层接在神经网络模型的后段,这样可以加速模型前半段的训练速度和提高精度。神经网络模型的整体的结构图如图2所示。
可从图2中看出,全局SEHM特征图和SEHM特征图序列都经历了卷积磁化层提取高级特征;不同的是因为SEHM特征图序列因为具备了前后文信息可经过LSTM层处理提出更好的高级特征;而全局SEHM特征图因为涵盖了整个时间段的信息不需要再经过LSTM层。最后把它们的高级特征输入全连接层和Softmax层得到一列概率向量P(其中向量中每项pi代表判断为该类的概率)。
对于某个时间段的概率向量P,可以定义了一个阈值在0和1之间ρ,若概率向量中没有一个分类的pi大于ρ,则认为该时间段的动作为无意义动作;否则取概率pi最大的类别作为预测动作。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (9)

1.一种基于SEHM特征图序列的动作识别方法,其特征在于:包括以下步骤:
S1.针对视频中选定的时间段长度为N帧的深度图序列,将深度图序列中每一帧的深度图投影到三个正交坐标系的不同平面中,得到三个正交的视角图:正视图、侧视图和俯视图;
S2.对于每个视角图下的深度图序列,计算其相邻两帧的差值作为能量图,其中每帧能量图代表着前后帧的距离变化;然后根据能量图的具体数值和设定的阈值将能量图分为三种状态图:向前状态的二进制图、向后状态的二进制图或静态的二进制图。具体如下:
EM t i = ( ( map t + 1 v - map t v ) > &epsiv; ) = 1 , i = 1 ( ( map t + 1 v - map t v ) < - &epsiv; ) = 1 , i = 2 ( 0 < a b s ( map t + 1 v - map t v ) < &epsiv; ) = 1 , i = 3
其中为在视角图v下第t帧的能量图;ε为所设的阈值; 表示后一帧减去前一帧的差值的绝对值;i=1,2,3,分别代表向前状态的二进制图、向后状态的二进制图和静态的二进制图;第t帧的状态图通过一个三通道矩阵EMt进行表示;
S3.执行步骤S2后分别得到三个视角图下的状态图序列;将三个视角图的N帧状态图序列分别按照前后顺序平均分为S个时间片,S=N/K,其中K表示每个时间片的长度;对于每个视角图下的状态图序列,按照从前到后的顺序依次选取一个时间片的状态图序列进行SEHM特征图的计算:
S31.设第p次选择进行计算的时间片的状态图序列是从N帧状态图序列的第(p-1)*K+1帧开始而在第p*K帧结束的,则该时间片的SEHM特征图由以下公式和步骤S32计算得到:
SEHMp=max(SEHMp,EM(p-1)*K+k·k)
其中,k的初始值为1,SEHMp是初始值被设为零的三通道矩阵;
S32.令k=k+1然后执行步骤S31的公式直至k>K,最后经过标准化处理后输出SEHMp作为第p次选择进行计算的时间片的SEHM特征图;
S4.通过步骤S31、S32得到三个视角图下各个时间片的SEHM特征图;
S5.将三个视角图下相互对应的时间片的SEHM特征图进行融合,得到融合的以时间片为单位的SEHM特征图;
S6.融合后的各个时间片的SEHM特征图构成SEHM特征图序列,将SEHM特征图序列输入到神经网络中,神经网络输出一列代表各个动作可能性的概率向量P,根据输出的概率向量P确定当前N帧深度图序列的动作识别结果。
2.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:分别对三个视角图下的N帧状态图序列进行SEHM特征图的计算,然后对计算得到的三个视角图下的SEHM特征图进行融合,得到全局SEHM特征图;所述步骤S6中,全局SEHM特征图与各个时间片的SEHM特征图构成SEHM特征图序列,将该SEHM特征图序列输入神经网络中进行动作识别。
3.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述步骤S1中,选定N帧深度图序列进行动作识别时,是通过滑动窗口进行选定的,所述滑动窗口包括一个窗口大小值m,表示下一次选取的深度图序列的起始帧距离上一次选取的深度图序列的起始帧的时间长度。
4.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述ε=30。
5.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述K=10。
6.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述N=80。
7.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述步骤S5中,将正视图、侧视图和俯视图相互对应的时间片的SEHM特征图按照2:1:1的比例进行融合。
8.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述神经网络包括卷积层、磁化层、LSTM层、全连接层和Softmax层;
其中卷积层和磁化层用于从SEHM特征图序列中提取高级特征;
所述LSTM层用于对提取的特征图序列的高级特征进行前后文处理,输出识别效果更好的具有时序信息的高级特征;
所述全连接层和Softmax层用于接收LSTM层或卷积层、磁化层输出的高级特征,输出一列预测概率向量P。
9.根据权利要求1所述的基于SEHM特征图序列的动作识别方法,其特征在于:所述概率向量P包括若干个概率pi,其中pi表示动作识别为动作i的概率;
则步骤S6中确定动作识别结果的过程如下:
设定一个值在0至1之间的阈值ρ,若概率向量P中没有一个动作的概率大于ρ,则认为N帧深度图序列内的动作为无意义动作;否则取识别概率值最大的动作作为识别结果进行输出。
CN201611110573.5A 2016-12-06 2016-12-06 一种基于sehm特征图序列的动作识别方法 Active CN106778576B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611110573.5A CN106778576B (zh) 2016-12-06 2016-12-06 一种基于sehm特征图序列的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611110573.5A CN106778576B (zh) 2016-12-06 2016-12-06 一种基于sehm特征图序列的动作识别方法

Publications (2)

Publication Number Publication Date
CN106778576A true CN106778576A (zh) 2017-05-31
CN106778576B CN106778576B (zh) 2020-05-26

Family

ID=58874488

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611110573.5A Active CN106778576B (zh) 2016-12-06 2016-12-06 一种基于sehm特征图序列的动作识别方法

Country Status (1)

Country Link
CN (1) CN106778576B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107944376A (zh) * 2017-11-20 2018-04-20 北京奇虎科技有限公司 视频数据实时姿态识别方法及装置、计算设备
CN109002780A (zh) * 2018-07-02 2018-12-14 深圳码隆科技有限公司 一种购物流程控制方法、装置和用户终端
CN110138681A (zh) * 2019-04-19 2019-08-16 上海交通大学 一种基于tcp报文特征的网络流量识别方法及装置
CN110633004A (zh) * 2018-06-21 2019-12-31 杭州海康威视数字技术股份有限公司 基于人体姿态估计的交互方法、装置和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886293A (zh) * 2014-03-21 2014-06-25 浙江大学 一种基于运动历史图与r变换的人体行为识别方法
CN104636725A (zh) * 2015-02-04 2015-05-20 华中科技大学 一种基于深度图像的手势识别方法与***
CN105608421A (zh) * 2015-12-18 2016-05-25 中国科学院深圳先进技术研究院 一种人体动作的识别方法及装置
CN105631415A (zh) * 2015-12-25 2016-06-01 中通服公众信息产业股份有限公司 一种基于卷积神经网络的视频行人识别方法
CN105740773A (zh) * 2016-01-25 2016-07-06 重庆理工大学 基于深度学习和多尺度信息的行为识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886293A (zh) * 2014-03-21 2014-06-25 浙江大学 一种基于运动历史图与r变换的人体行为识别方法
CN104636725A (zh) * 2015-02-04 2015-05-20 华中科技大学 一种基于深度图像的手势识别方法与***
CN105608421A (zh) * 2015-12-18 2016-05-25 中国科学院深圳先进技术研究院 一种人体动作的识别方法及装置
CN105631415A (zh) * 2015-12-25 2016-06-01 中通服公众信息产业股份有限公司 一种基于卷积神经网络的视频行人识别方法
CN105740773A (zh) * 2016-01-25 2016-07-06 重庆理工大学 基于深度学习和多尺度信息的行为识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BIN LIANG等: "3D Motion Trail Model based Pyramid Histograms of Oriented Gradient for Action Recognition", 《2014 22ND INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 *
MARCUS EDEL等: "Binarized-BLSTM-RNN based Human Activity Recognition", 《2016 INTERNATIONAL CONFERENCE ON INDOOR POSITIONING AND INDOOR NAVIGATION (IPIN)》 *
RUI YANG等: "DMM-Pyramid B ased Deep Architectures for Action R ecognition with Depth Cameras", 《ACCV 2014》 *
XIAODONG YANG等: "Recognizing Actions Using Depth Motion Maps-based Histograms of Oriented Gradients", 《MM` 12》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107944376A (zh) * 2017-11-20 2018-04-20 北京奇虎科技有限公司 视频数据实时姿态识别方法及装置、计算设备
CN110633004A (zh) * 2018-06-21 2019-12-31 杭州海康威视数字技术股份有限公司 基于人体姿态估计的交互方法、装置和***
CN110633004B (zh) * 2018-06-21 2023-05-26 杭州海康威视数字技术股份有限公司 基于人体姿态估计的交互方法、装置和***
CN109002780A (zh) * 2018-07-02 2018-12-14 深圳码隆科技有限公司 一种购物流程控制方法、装置和用户终端
CN109002780B (zh) * 2018-07-02 2020-12-18 深圳码隆科技有限公司 一种购物流程控制方法、装置和用户终端
CN110138681A (zh) * 2019-04-19 2019-08-16 上海交通大学 一种基于tcp报文特征的网络流量识别方法及装置

Also Published As

Publication number Publication date
CN106778576B (zh) 2020-05-26

Similar Documents

Publication Publication Date Title
Li et al. Single image dehazing via conditional generative adversarial network
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN112766160A (zh) 基于多级属性编码器和注意力机制的人脸替换方法
CN112530019B (zh) 三维人体重建方法、装置、计算机设备和存储介质
CN106778796B (zh) 基于混合式协同训练的人体动作识别方法及***
Liu et al. Human pose estimation in video via structured space learning and halfway temporal evaluation
CN110674701A (zh) 一种基于深度学习的驾驶员疲劳状态快速检测方法
CN108268864A (zh) 人脸识别方法、***、电子设备和计算机程序产品
CN111652827A (zh) 一种基于生成对抗网络的正面人脸合成方法及***
CN112288627B (zh) 一种面向识别的低分辨率人脸图像超分辨率方法
CN110728183A (zh) 一种基于注意力机制的神经网络的人体动作识别方法
CN106778576A (zh) 一种基于sehm特征图序列的动作识别方法
CN108596041A (zh) 一种基于视频的人脸活体检测方法
CN111680550B (zh) 情感信息识别方法、装置、存储介质及计算机设备
CN113420703B (zh) 基于多尺度特征提取和多注意力机制建模的动态面部表情识别方法
CN110378234A (zh) 基于TensorFlow构建的卷积神经网络热像人脸识别方法及***
CN115914505B (zh) 基于语音驱动数字人模型的视频生成方法及***
CN113298047B (zh) 基于时空关联图像的3d形态和姿态估计方法和装置
CN115100707A (zh) 模型的训练方法、视频信息生成方法、设备以及存储介质
Wang et al. Digital twin: Acquiring high-fidelity 3D avatar from a single image
Pini et al. Learning to generate facial depth maps
CN112487926A (zh) 一种基于时空图卷积网络的景区投喂行为识别方法
CN112560618A (zh) 基于骨架和视频特征融合的行为分类方法
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及***
Yaseen et al. A novel approach based on multi-level bottleneck attention modules using self-guided dropblock for person re-identification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant