CN103164694A - 一种人体动作识别的方法 - Google Patents
一种人体动作识别的方法 Download PDFInfo
- Publication number
- CN103164694A CN103164694A CN201310054812XA CN201310054812A CN103164694A CN 103164694 A CN103164694 A CN 103164694A CN 201310054812X A CN201310054812X A CN 201310054812XA CN 201310054812 A CN201310054812 A CN 201310054812A CN 103164694 A CN103164694 A CN 103164694A
- Authority
- CN
- China
- Prior art keywords
- action
- frame
- human
- matrix
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种计算机视觉与模式识别领域的人体动作识别的方法,首先使用了一种包含时间和空间信息的特征来表达当前帧人体的运动状态,然后再通过一种图论半监督方法设计分类器,从而达到识别人体动作的目的。本发明在提取人体运动特征的过程中同时融合了过去、当前及未来时刻的轮廓及运动光流信息,因而能够更加准确地描述人体的动作姿态。另外,为了用较少的样本获得较高的识别率;基于广义拉普拉斯矩阵的图论半监督方法,并将其用于人体动作识别。实验证明本发明提出的方法在观察角度不同、人与人之间动作存在差异的情况下都能够对常见动作取得令人满意的识别率。
Description
技术领域
本发明属于计算机视觉与模式识别领域,具体地,涉及一种人体常见动作识别的方法。
背景技术
在计算机视觉领域,人体动作识别是一个刚刚兴起但十分重要的分支,其目的主要是让计算机能够自动地判断和理解人体目前正在执行的动作。由于计算机本身并不具备类似于人的高层理解能力,因此计算机动作识别是一项极具挑战性的工作。然而动作识别的应用前景是十分广阔的,比如在人机交互、视频会议、视频检索、病人自主监护、智能安全监控等场合都能够发挥重要的作用。所以这方面的研究也是十分必要的。
由于各方面的原因,现有的动作识别效果还远达不到人脑的识别能力,国际上也还没有一个比较完善的动作识别***。但是近些年很多知名的国际期刊或会议都将动作识别作为重点发展的研究领域,国内外很多学者也在这方面做了大量的有益成果。近年来论文中的方法主要有:
F.Lv等人在2006年率先使用Adaboost方法进行人体动作识别;M.Branda,A.Kale,V.Duong等分别在1994年、2004年和2005年使用马尔科夫或隐马尔科夫方法(HMM)进行动作识别;C.Sminchisescu和L.Wang和分别在2005和2007年使用了条件随机场(CRF);M.Ahmed等人在2005和2006年提出局部-全局光流对运动的人体进行描述;A.Efros等人在2006年提出了时空运动描述子;A.Bobick等人在2001年提出了运动历史图并用于人体动作识别;N.Ikizler等在2007年建立人体骨架模型;A.Ogale等人于2005年提取视频中的人体轮廓,并构建PCFG语法来识别人体动作。
专利方面,申请号为CN200910110485.9的中国发明专利申请通过多个红外线传感器对人体手势动作进行了识别;申请号为CN200910002876.9的中国发明专利申请借助于后台数据库,开发了一种三维动作识别方法;申请号为CN200910077467.5的中国发明专利申请通过生成不同的特征文件,进而进行比对的方法进行动作识别;申请号为CN200810232110.5的中国发明专利采用三维伪Zernike矩进行比例不变、位移不变、旋转不变的特征描述,实现了与视角无关的动作识别;申请号为CN201210171624.0的中国发明专利公开了一种基于骨骼节点数据的动作识别方法;申请号为CN200910190443.0的中国发明专利涉及一种基于计算机的鼓乐动作识别方法;申请号为CN200810043513.5的中国发明专利基于有限自动机模型开发了一种新的动作识别方法;申请号为CN200910109019.9的中国发明专利涉及一种基于多跟踪点的人体动作识别方法。
由于人在身高、体长及行为姿态上存在差异,因此不同的人对同一种动作都会有不同的表现方式,所以对于一个动作识别***来说通过涵盖所有人的运动姿态来进行行为识别是不切实际的。故本发明希望通过较少的已知动作样本就能够使分类器具备较高的分辨能力。
发明内容
本发明的目的是提供一种视频序列中人体动作的识别方法,借助于人体运动的时间和空间信息,采用基于扩展拉普拉斯矩阵的半监督学习策略,通过较少的已知动作样本就能够使分类器具备较高的分辨能力,即用于分析一段视频序列中人体在各帧的动作类别,主要包括起立、坐下、走、踢等常见动作,达到更好的识别效果。
为实现上述目的,本发明采用的技术方案:本发明首先使用了一种包含时间和空间信息的特征来表达当前帧人体的运动状态,然后再通过一种图论半监督方法设计分类器,从而达到识别人体动作的目的。
本发明将每帧的动作图像当做一个样本,采用机器学习领域半监督学习的策略训练分类器,进而通过分类的思想判断当前帧中的人体动作类别。半监督学习的主要思想是当少量的已标记样本和大量的未标记样本共存时,可以借助这些大量的未标记样本提升分类的准确率。典型的半监督学习方法大致可以归为多视角学习(Multi-view Learning),直推向量机(Transductive Support Vector Machine)和基于图论的方法(Graph-based Methods)。由于图模型能够直观地表现样本及样本之间的关系,所以本发明提出一种新的适合于动作识别的图论半监督方法,以达到更好的识别效果。
具体地,本发明提供一种人体动作识别的方法,包括如下步骤:
第一步,捕获运动人体的大致位置和轮廓。
只有预先获得人体的位置,才能够对相关区域进行分析。这一步通过帧差法实现,首先将相邻的两帧图像转换为灰度图,然后作差。假设Ii和Ii+1是相邻的两帧图像,x为两帧中对应位置的像素值,那么它们的差定义为:
dIi(x)=|Ii(x)-Ii-1(x)|. (1)
于是帧差图像Vi中像素x的灰度值定义为:
其中ε为预设的参数。如果ε过小,会使Vi中出现较多的噪点,如果选得太大又不能完整地提取人体运动区域,所以这个参数的选取需要事先调试至一合适值。
接下来使用模板为3×3的中值滤波器去除差图像Vi中的椒盐噪声,最后经过腐蚀、膨胀等形态学处理即可获得比较干净的运动人体轮廓图像,并得到感兴趣的矩形区域Ri。
第二步,计算运动人体的空间特征。此步骤需要计算当前第i帧的轮廓直方图及x方向和y方向的光流场直方图。具体方法为:
将第一步中得到的矩形区域Ri分成2×2的四个子区域,每一个子区域对应一个表征方向的饼状图。该饼状图的中心与子区域的中心重合,以x轴正半轴所在方向为0°角,每隔20°取一次值,则360°的圆盘被平均分成了18份,于是每一份的区间分别为[1°,20°],[21°,40°],…,[341°,360°]。通过统计轮廓走向落在这些区间的次数便可得到包含18个区间的轮廓统计直方图(也就是18维的特征向量)。这个过程可参见图2。光流特征的计算采用Lucas-Kanade方法,其主要目的是求解如下的关于光流(u,v)的约束方程:
Ixu+Iyv+Ii=0. (3)
求得(u,v)后,再分别在x方向和y方向做中值滤波,于是类似于轮廓统计直方图的获得方法,可以得到在x和y两个方向各18维的光流统计直方图。所以描述每个子区域的特征向量共有18×3=54维。又由于Ri被分成了2×2的四个子区域,所以第i帧的人体运动情形可以暂时用54×2×2=216维的特征向量表示。
注意到本步骤特征的提取不涉及前后帧人体的动作姿态,而仅用到了当前帧的光流场和轮廓的空间分布信息,所以本步骤描述了人体运动的空间信息。
第三步,计算运动人体的时间特征。将当前帧和其前、后各7帧放在一起组成一段长15帧的片段,并采用局部线性嵌入法(Locally Linear Embedding,LLE)将1~5帧,6~10帧,及11~15帧的特征向量分别降至50,100,50维。
将当前帧放入与其相邻的15帧构成的片段中,并探求它们之间时间上的关系。因为人体的动作是一个连续过程,一个动作往往需要一个片段才能够完整地呈现,所以假设当前为第i帧,那么需要考察的片段组成为第i-7,…,i-1,i,i+1,…,i+7帧。再将这15帧平均分为三段,于是每一段由216×5=1080维的特征向量进行表示。采用局部线性嵌入的方法分别将这三段对应的特征向量降至50,100,50维,于是第i帧的时间信息可以由200维的特征向量来表示。局部线性嵌入是一种非线性的降维方法,较之于传统的主成分分析(PCA)等方法能够获得更好的降维效果。简单地说,该方法认为每一个样本的特征向量xi可以由其邻域N(xi)中的各样本线性重构,重构权ωij的计算按照下式:
再计算矩阵Ψ=(I-W)T(I-W)(其中I为与W同阶的单位阵,且(W)Ij=ωij)的最小d个非零特征值所对应的特征向量θ1,θ2,…θd,则Θ=[θ1,…θd]T为最后的降维结果。在本发明中d的取值为100或50。
第四步,形成描述当前帧人体运动姿态的最终特征向量。将第二、三步获得的特征向量进行拼接并进行归一化,从而获得描述第i帧的特征向量xi,共计216+200=416维。将待分类视频序列中的每一帧都按照同样的方法操作,于是每一帧都由一个416维的特征向量进行表示,它们构成了最终分类的依据。
第五步,建立图模型G。将待分类的动作序列切成一帧一帧的图片形式,并和已知动作图片放在一起建立K近邻图G。
本发明建立的是K近邻图。为了训练分类器,假设有很少量的已知动作类别的帧图像,它们构成l个已标记样本(其中y为动作类别的标签),另有大量未知类别的待分类帧图像,它们构成u个未标记样本且设l+u=n,l<<u,于是动作识别的任务就转化为建立函数f,根据已知样本集去推断中各样本的标签。图G用G=<V,E>来加以描述和中的样本,其中V代表节点集(Vertex set),E代表连接这些节点的边所构成的集合(Edge set)。图3是一个典型的图模型示意图。对于动作识别问题,各样本xi(1≤i≤n)在图G中用节点表示。它们之间的相似程度用含有权重的边表示,权重的计算公式采用径向基函数(Radius Basic Function,RBF)ωij=exp(-||xi-xj||2/2σ2),其中σ为待调参数。该参数的调节目前国际上尚无好的方法,目前只能靠经验。
为了获得首先要计算与图G有关的矩阵W和D。其中,W称为图G的邻接矩阵,它是一个n×n的方阵,它的第(i,j)个元素(W)ij=ωij表示样本xi和xj的相似程度。注意到在第五步中建立的是K近邻图,所以这里求得的W矩阵是稀疏的,因此图G在计算机内的存储开销并不大。D为一个n×n的对角阵,对角线上的元素为图G中各节点的度(degree),即于是,可以计算广义拉普拉斯矩阵为
其中I为单位矩阵,α为待调参数。经验表明将α调小有利于提高动作识别率。
第七步,获得每一帧的标签向量Fi。
具体来说,是将第六步求得的广义拉普拉斯矩阵代入如下目标函数
并进行求解。假设一共需要区分c个动作,那么Y为n×c的矩阵,其第i行为样本xi的标签向量,记为Yi。对于少量的已标记样本,其对应的标签向量是一个0-1二值向量,且元素1所在的列对应该样本所属的动作类别;而对于待分类的未标记样本,其标签向量则是一个全0向量。F的构造与Y相同,它记录了最后的分类结果。μ是待调参数,它反映了实际应用中用户对(6)中两项的偏重程度。实际经验表明,这个参数即使在很大的范围调节,对最后的识别率影响并不大,所以这个参数的调节是比较容易的。
让(6)式对F求导,并令结果等于0,得到F的解为:
F=μ[(1-α2+μ)I-αW+α2D]w1Y. (7)
第八步,识别结果输出。(7)式求得的F是一个n×c的矩阵,其中的元素均为非负实数,其第i(1≤i≤n)行Fi的最大元素所在的列就对应对于样本xi所属的动作类别ci,即
本发明上述方法中,提取当前帧人体特征时融合了轮廓和光流运动特征即空间信息;提取特征时不但考虑了当前帧的人体动作,还通过局部线性嵌入的非线性降维方法考虑了前后7帧的人体形态即时间信息;同时采用了空间信息和时间信息描述人体的运动姿态,从而使得提取的特征更加便于后续的识别过程。采用了图论半监督的方法进行识别,将广义拉普拉斯矩阵的概念引入到半监督学习中,从而能够大大提高动作识别的准确率,能够用很少的已知动作样本图片去识别大量的未知动作。
与现有技术相比,本发明具有如下的有益效果:
首先,本发明对于起立、坐下、走、踢等常见基本动作能够取得较高的识别率,具有很高的实际应用价值;
其次,本发明能够抵御不同人动作行为的差异,实现准确的识别;
再次,本发明在前、后、左、右、上5个不同视角下都能够有效地对动作进行识别,从而大大拓宽了实际应用范围;
最后,本发明仅使用极少量的已知动作图片就能够对来自于不同人、不同角度的大量未知动作进行识别,这对现有技术是一个有益的突破。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为人体行走时提取的轮廓及感兴趣区域,其中(a)为原始帧图像,(b)为经过处理提取的运动区域。
图2为提取空间特征时统计直方图的建立过程。
图3为典型的图模型示意图。
图4为中值滤波器模板的示意图。
图5为帧图像预处理的流程图。
图6为不同视角下一些人体动作图片的样例。
图7为“后”视角下的识别率曲线。
图8为“左”视角下的识别率曲线。
图9为“前”视角下的识别率曲线。
图10为“右”视角下的识别率曲线。
图11为“上”视角下的识别率曲线。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本实施例提供一种视频序列中人体动作的识别方法,该方法首先采集运动人体的时间和空间特征,再使用广义拉普拉斯矩阵构造图论半监督分类器,从而实现了对不同人、不同角度下的常见动作识别。图1为人体行走时提取的轮廓及感兴趣区域,其中(a)为原始帧图像,(b)为经过处理提取的运动区域。该图展示了人在正常行走时提取的轮廓图,而白色矩形框包围的区域则是感兴趣的区域矩形区域Ri。本实施例中根据图2-5所示意的流程进行,没有特别说明的部分可以参见发明内容。
为了判断每帧图片中人体究竟在执行何种动作,首先需要对每帧图像进行预处理,以滤去无关信息。假设整个场景中只有人在动,那么运动目标的提取可采用帧差法。具体来说就是首先相邻两帧作差,然后再设定阈值ε,并认为只有灰度变化大于ε的像素才对应真正的运动区域。ε的设置不宜过大,在本实施例中设为20。由此操作便得到了一幅黑白二值图像。然而由于实际情况下噪声难以避免,因此本实施例进一步使用3×3的中值滤波器(模板见图4)在得到的二值图像上做卷积以消除椒盐噪声。由于降噪的过程会使得之前得到的边缘变模糊,所以还需要采用“先腐蚀再膨胀”的形态学处理以强化边缘。整个预处理的过程及效果见图5。
接下来需要对预处理后的图像提取特征,以刻画不同的人体动作。本实施例采用的特征包括空间和时间两方面。空间上采用轮廓和光流特征,原因在于这两种特征对于描述像人体这种非刚体的动作变化具有很高的分辨力。为了更加细致地刻画运动特征,本实施例没有直接在预处理得到的运动区域进行特征提取,而是将运动区域再进一步划分为2×2的四个互不重叠的子区域。当然,这里划分为3×3的九个区域也是可以的,但是这势必会增加后续的运算量,所以本实施例将运动区域划分为四个子区域是合理的。由于轮廓和光流都是描述走势和方向的特征,所以可以将360°的圆盘分成若干角度区间,并记录相应子区域内轮廓和光流落入不同区间的次数。同样是为了权衡效果和效率,本实施例将360°的圆盘分成了18个区间,从而可以方便地根据统计结果获得对应的直方图(即18维的特征向量)。轮廓特征描述的是运动人体的形状,而光流特征是通过检测图像像素点的强度随时间的变化,进而推断出物体的移动速度及方向。常见的计算光流特征的方法包括霍恩-山克方法(Horn-Schunck Method)以及卢卡斯-卡纳德方法(Lucas-Kanade Method)。本实施例采用后者,原因在于后者的运算速度更快,效果也更好。由于轮廓、x方向光流和y方向光流各包含一个18维的特征向量,所以4个子区域一共就能产生18×3×4=216维的特征向量。
另外,考虑到一个连续动作需要多帧图像来体现,所以在动作识别中仅采集当前帧的运动特征是不够的,还需考虑其前后帧的人体状态。本实施例考察邻近的15帧,其中第1~5,6~10,11~15帧分别对应过去、现在、未来三个时段,每个时段的原始特征向量维数为216×5=1080。直接采用1080维的特征向量运算复杂度太高,且容易产生“维度灾难”,所以需要将其降维。考虑到现在时间段(6~10帧)对决定当前帧的动作类别意义更大,所以将其对应的特征向量将至100维,而将过去(1~5帧)和将来(11~15帧)时段对应的特征向量各降至50维。目前已有的降维方法很多,传统的方法包括主成分分析(PCA),线性判别分析(LDA)等。值得一提的是,近些年兴起的流形学习(Manifold Learning)策略衍生出很多更加有效的降维方法,比如局部线性嵌入(LLE)、拉普拉斯特征映射(LE)、局部切空间排列(LTSA)等。本实施例采用局部线性嵌入法进行降维,因为它快速且有效,并且其表达式(4)式可以化为一个简单的二次规划(QP)问题方便地进行求解。经过降维操作,当前帧的时间特征可以使用200维的特征向量进行表达,再结合之前提取的216维的空间特征,可知描述当前帧人体动作的特征向量共有200+216=416维。
本实施例实际上是将动作识别视为一多类别分类问题,所以在得到了各帧的特征向量后还需要设计一个分类器对各帧中的人体动作进行分类。现存的分类器有很多,比如最近邻分类器、支持向量机(SVM)等等,但是它们的训练都需要大量的已知样本。对于动作识别来说,由于每个人的动作形态差别很大,所以很难搜集到大量的关于每个人、每个动作的已知样本图片。故本实施例希望能够用很少的训练样本训练出一个普适的分类器。而半监督学习策略可以达到这个目的,所以本实施例提出了一种基于图论的半监督分类器来实现人体动作的分类。为了设计这个分类器,第一步是要建立图G=<V,E>来刻画所有已标记样本和待分类样本的关系。本实施例采用K近邻图,因为这种图模型对应的邻接矩阵W是稀疏的,可以大大降低后续的运算量。近邻数K一般在5~15之间选择,具体数值应根据实际情况而定。
图G建立完毕后,可以用其邻接矩阵W记录各样本之间的相似程度,由此可得n维的对角矩阵再结合广义拉普拉斯矩阵的定义便可得到实际上如果令表达式中的α参数为0,则广义拉普拉斯矩阵则退化为常规的拉普拉斯矩阵L=D-W。本实施例之所以采用广义拉普拉斯矩阵,是因为这种做法能够用较少的已知样本获得更高的识别率。在图论半监督学习中,一个广泛承认的事实是最终训练出的分类函数f一定要在图G上光滑。为了达到此目的,本实施例设计的光滑项为
另一方面,为了让训练出的分类函数f正确分类所有的已标记样本,本实施例采用下式:
P(f,Y)=||F-Y||2. (10)
结合(9)和(10)可得最终的目标函数为:
其中,F为标签矩阵,已在“发明内容”中定义。μ是待调参数,本实施例设为10。(11)的解见(7),由此可求得最优的F。
如上所述,F是一个n×c的矩阵,每一行代表一帧图像,其第i行向量的最大元素所在列即为该帧中人体的动作类别。本实施例采用现有的冒泡排序法,从而可以有效、快捷地找到向量中的最大元素。
为了证明本发明的有效性,采用国际上公共的动作识别测试集INRIAIXMAX进行测试。该数据集包括15个常见的动作:坐下、起立、行走、踢、看手表、叉手、挠头、徘徊、挥手、打击、轻点、弯腰捡物品、投掷(从上到下)、投掷(由下到上)以及什么都不做。其中每一个动作由11个不同的人在前、后、左、右、上5个不同的角度各重复3遍。数据集中一些典型的动作图片见图6。
图7~图11展示了在5个不同视角下,识别率随训练样本增加的曲线图。由图可见,训练样本增多可以使识别率逐步提升。总的来说,本发明的方法在该数据集上的识别率能够达到90%~95%,因此具有很高的实用价值。另外,注意到当训练样本很少的情况下,在各角度下识别的准确率就已经很高了,所以这也是本发明对现有技术的一个突破。最后,可以看到虽然不同人执行这些动作的姿势存在差异,但本发明的方法仍然能够实现较为准确的识别。
因此,区别于目前的已有方法,本发明在提取人体运动特征的过程中同时融合了过去、当前及未来时刻的轮廓及运动光流信息,因而能够更加准确地描述人体的动作姿态。另外,为了用较少的样本获得较高的识别率,本发明采用了一种基于广义拉普拉斯矩阵(generalized graph Laplacian)的图论半监督方法,并将其用于人体动作识别。为了证明本发明提出方法的有效性,分别从前、后、左、右、上五个角度对不同人起立、坐下、走、踢等常见动作进行了识别。实验证明本发明提出的方法在观察角度不同、人与人之间动作存在差异的情况下都能够对常见动作取得令人满意的识别率。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (7)
1.一种人体动作识别的方法,其特征在于,如下包括步骤:
第一步,捕获运动人体的大致位置和轮廓;
第二步,计算运动人体的空间特征,获得前帧人体的轮廓直方图、横向即x方向及纵向即y方向的光流直方图,并把计算结果拼接成一个216维的特征向量;
第三步,计算运动人体的时间特征,将当前帧和其前、后各7帧放在一起组成一段长15帧的片段,并采用局部线性嵌入法将1~5帧,6~10帧,及11~15帧的特征向量分别降至50,100,50维;
第四步,形成描述当前帧人体运动姿态的最终特征向量,即将第二、三步获得的特征进行组合得到最终的特征向量,共计416维;
第五步,建立图模型G:将待分类的动作序列切成一帧一帧的图片形式,并和已知动作图片放在一起建立K近邻图G;
第八步,识别结果输出:向量Fi中最大元素所在的列代表的动作类别即为第i帧中人体正在执行的动作。
2.根据权利要求1所述的人体动作识别的方法,其特征在于:所述第一步中,采用帧差法捕获运动人体的大致位置和轮廓,即用当前帧图像减去上一帧图像,再对得到的帧差图像进行去噪、腐蚀、膨胀处理获得运动人体轮廓图像,并得到感兴趣的矩形区域Ri。
3.根据权利要求2所述的人体动作识别的方法,其特征在于:所述第二步,具体为:将第一步中得到的矩形区域Ri分成2×2的四个子区域,每一个子区域对应一个表征方向的饼状图,该饼状图的中心与子区域的中心重合,以x轴正半轴所在方向为0°角,每隔20°取一次值,则360°的圆盘被平均分成了18份,于是每一份的区间分别为[1°,20°],[21°,40°],…,[341°,360°],通过统计轮廓走向落在这些区间的次数得到包含18个区间的轮廓统计直方图即18维的特征向量,光流特征的计算采用Lucas-Kanade方法,求解如下的关于光流(u,v)的约束方程:
Ixu+Iyv+Ii=0
求得(u,v)后,再分别在x方向和y方向做中值滤波,采用轮廓统计直方图的获得方法,得到在x和y两个方向各18维的光流统计直方图,所以描述每个子区域的特征向量共有18×3=54维,Ri被分成了2×2的四个子区域,所以第i帧的人体运动情形用54×2×2=216维的特征向量表示。
4.根据权利要求1所述的人体动作识别的方法,其特征在于:所述第三步,具体为:假设当前为第i帧,需要考察的片段组成为第i-7,…,i-1,i,i+1,…,i+7帧共15帧,将这15帧平均分为三段,每一段由216×5=1080维的特征向量进行表示,采用局部线性嵌入的方法分别将这三段对应的特征向量降至50,100,50维,于是第i帧的时间信息由200维的特征向量来表示。
5.根据权利要求1所述的人体动作识别的方法,其特征在于:所述第五步,具体为:假设有很少量的已知动作类别的帧图像,它们构成l个已标记样本其中y为动作类别的标签;另有大量未知类别的待分类帧图像,它们构成u个未标记样本且设l+u=n,l<<u,于是动作识别的任务就转化为建立函数f,根据已知样本集去推断中各样本的标签;图G用G=<V,E>来加以描述和中的样本,其中V代表节点集,E代表连接这些节点的边所构成的集合;对于动作识别问题,各样本xi(1≤i≤n)在图G中用节点表示,它们之间的相似程度用含有权重的边表示,权重的计算公式采用径向基函数ωij=exp(-||xi-xj||22σ2),其中σ为待调参数。
6.根据权利要求1-5任一项所述的人体动作识别的方法,其特征在于:所述第六步,具体为:首先计算与图G有关的矩阵W和D,其中,W称为图G的邻接矩阵,它是一个n×n的方阵,它的第(i,j)个元素(W)ij=ωij表示样本xi和xj的相似程度;D为一个n×n的对角阵,对角线上的元素为图G中各节点的度,于是,计算广义拉普拉斯矩阵为
其中I为单位矩阵,α为待调参数,经验表明将α调小有利于提高动作识别率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310054812.XA CN103164694B (zh) | 2013-02-20 | 2013-02-20 | 一种人体动作识别的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310054812.XA CN103164694B (zh) | 2013-02-20 | 2013-02-20 | 一种人体动作识别的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103164694A true CN103164694A (zh) | 2013-06-19 |
CN103164694B CN103164694B (zh) | 2016-06-01 |
Family
ID=48587766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310054812.XA Active CN103164694B (zh) | 2013-02-20 | 2013-02-20 | 一种人体动作识别的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103164694B (zh) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413154A (zh) * | 2013-08-29 | 2013-11-27 | 北京大学深圳研究生院 | 基于归一化类谷歌量度矩阵的人体运动识别方法 |
CN103605952A (zh) * | 2013-10-27 | 2014-02-26 | 西安电子科技大学 | 基于拉普拉斯正则组稀疏的人体行为识别方法 |
CN104298964A (zh) * | 2014-09-15 | 2015-01-21 | 燕山大学 | 一种人体行为动作快速识别方法及装置 |
CN104463088A (zh) * | 2013-11-25 | 2015-03-25 | 安徽寰智信息科技股份有限公司 | 一种基于视频的人体动作解析方法 |
CN104598889A (zh) * | 2015-01-30 | 2015-05-06 | 北京信息科技大学 | 人体行为识别的方法和装置 |
WO2015078134A1 (zh) * | 2013-11-29 | 2015-06-04 | 华为技术有限公司 | 视频分类的方法和装置 |
CN104732208A (zh) * | 2015-03-16 | 2015-06-24 | 电子科技大学 | 基于稀疏子空间聚类的视频人体行为识别方法 |
CN105095862A (zh) * | 2015-07-10 | 2015-11-25 | 南开大学 | 一种基于深度卷积条件随机场的人体动作识别方法 |
CN105160290A (zh) * | 2015-07-03 | 2015-12-16 | 东南大学 | 一种基于改进型稠密轨迹的移动边界采样的行为识别方法 |
CN105550703A (zh) * | 2015-12-09 | 2016-05-04 | 华南理工大学 | 一种适用于人体再识别的图片相似度计算方法 |
CN106127112A (zh) * | 2016-06-15 | 2016-11-16 | 北京工业大学 | 基于dlle模型的数据降维与特征理解方法 |
CN106462747A (zh) * | 2014-06-17 | 2017-02-22 | 河谷控股Ip有限责任公司 | 活动识别***和方法 |
CN106650674A (zh) * | 2016-12-27 | 2017-05-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于混合池化策略的深度卷积特征的动作识别方法 |
CN107169423A (zh) * | 2017-04-24 | 2017-09-15 | 南京邮电大学 | 一种视频人物运动类型识别方法 |
CN107292247A (zh) * | 2017-06-05 | 2017-10-24 | 浙江理工大学 | 一种基于残差网络的人体行为识别方法及装置 |
CN107485844A (zh) * | 2017-09-27 | 2017-12-19 | 广东工业大学 | 一种肢体康复训练方法、***及嵌入式设备 |
CN107895161A (zh) * | 2017-12-22 | 2018-04-10 | 北京奇虎科技有限公司 | 基于视频数据的实时姿态识别方法及装置、计算设备 |
CN108073933A (zh) * | 2016-11-08 | 2018-05-25 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
CN108256472A (zh) * | 2018-01-17 | 2018-07-06 | 清华大学 | 一种视频图像序列分割***和方法 |
CN108805083A (zh) * | 2018-06-13 | 2018-11-13 | 中国科学技术大学 | 单阶段的视频行为检测方法 |
CN109299702A (zh) * | 2018-10-15 | 2019-02-01 | 常州大学 | 一种基于深度时空图的人体行为识别方法及*** |
CN109871893A (zh) * | 2019-02-18 | 2019-06-11 | 清华大学 | 基于循环时域保持生成的行为预测方法和装置 |
CN109902729A (zh) * | 2019-02-18 | 2019-06-18 | 清华大学 | 基于序列状态演进的行为预测方法及装置 |
CN109902547A (zh) * | 2018-05-29 | 2019-06-18 | 华为技术有限公司 | 动作识别方法和装置 |
CN110110660A (zh) * | 2019-05-07 | 2019-08-09 | 广东工业大学 | 手部操作行为的分析方法、装置及设备 |
CN110348321A (zh) * | 2019-06-18 | 2019-10-18 | 杭州电子科技大学 | 基于骨骼时空特征及长短时记忆网络的人体动作识别方法 |
CN110418142A (zh) * | 2019-08-06 | 2019-11-05 | 杭州微帧信息科技有限公司 | 一种基于视频感兴趣区域的编码方法、装置、存储介质 |
CN110610148A (zh) * | 2019-09-02 | 2019-12-24 | 南京邮电大学 | 一种面向隐私保护的压缩感知视觉屏蔽视频行为识别方法 |
CN110738130A (zh) * | 2019-09-21 | 2020-01-31 | 天津大学 | 基于Wi-Fi的路径独立的步态识别方法 |
CN112005198A (zh) * | 2018-01-25 | 2020-11-27 | 脸谱科技有限责任公司 | 基于多个输入的手部状态重建 |
CN112241665A (zh) * | 2019-07-18 | 2021-01-19 | 顺丰科技有限公司 | 一种暴力分拣识别方法、装置、设备及存储介质 |
CN114582028A (zh) * | 2022-05-05 | 2022-06-03 | 风云张家口信息技术***有限公司 | 滑雪场管理方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080275862A1 (en) * | 2007-05-03 | 2008-11-06 | Microsoft Corporation | Spectral clustering using sequential matrix compression |
CN101425139A (zh) * | 2008-11-05 | 2009-05-06 | 西安理工大学 | 一种视角无关的动作识别方法 |
CN101894276A (zh) * | 2010-06-01 | 2010-11-24 | 中国科学院计算技术研究所 | 人体动作识别的训练方法和识别方法 |
-
2013
- 2013-02-20 CN CN201310054812.XA patent/CN103164694B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080275862A1 (en) * | 2007-05-03 | 2008-11-06 | Microsoft Corporation | Spectral clustering using sequential matrix compression |
CN101425139A (zh) * | 2008-11-05 | 2009-05-06 | 西安理工大学 | 一种视角无关的动作识别方法 |
CN101894276A (zh) * | 2010-06-01 | 2010-11-24 | 中国科学院计算技术研究所 | 人体动作识别的训练方法和识别方法 |
Non-Patent Citations (2)
Title |
---|
BIN CHENG,ET AL.: "Learning With l1-Graph for Image Analysis", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》, vol. 19, no. 4, 30 April 2010 (2010-04-30), pages 858 - 866, XP011286490, DOI: doi:10.1109/TIP.2009.2038764 * |
CHEN GONG,ET AL.: "Robust object tracking using linear neighborhood propagation", 《JOURNAL OF ELECTRONIC IMAGING》, vol. 22, no. 1, 25 January 2013 (2013-01-25), XP060026174, DOI: doi:10.1117/1.JEI.22.1.013015 * |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413154A (zh) * | 2013-08-29 | 2013-11-27 | 北京大学深圳研究生院 | 基于归一化类谷歌量度矩阵的人体运动识别方法 |
CN103605952A (zh) * | 2013-10-27 | 2014-02-26 | 西安电子科技大学 | 基于拉普拉斯正则组稀疏的人体行为识别方法 |
CN103605952B (zh) * | 2013-10-27 | 2016-11-23 | 西安电子科技大学 | 基于拉普拉斯正则组稀疏的人体行为识别方法 |
CN104463088A (zh) * | 2013-11-25 | 2015-03-25 | 安徽寰智信息科技股份有限公司 | 一种基于视频的人体动作解析方法 |
WO2015078134A1 (zh) * | 2013-11-29 | 2015-06-04 | 华为技术有限公司 | 视频分类的方法和装置 |
US10002296B2 (en) | 2013-11-29 | 2018-06-19 | Huawei Technologies Co., Ltd. | Video classification method and apparatus |
CN106462747A (zh) * | 2014-06-17 | 2017-02-22 | 河谷控股Ip有限责任公司 | 活动识别***和方法 |
CN104298964B (zh) * | 2014-09-15 | 2017-08-11 | 燕山大学 | 一种人体行为动作快速识别方法及装置 |
CN104298964A (zh) * | 2014-09-15 | 2015-01-21 | 燕山大学 | 一种人体行为动作快速识别方法及装置 |
CN104598889A (zh) * | 2015-01-30 | 2015-05-06 | 北京信息科技大学 | 人体行为识别的方法和装置 |
CN104598889B (zh) * | 2015-01-30 | 2018-02-09 | 北京信息科技大学 | 人体行为识别的方法和装置 |
CN104732208A (zh) * | 2015-03-16 | 2015-06-24 | 电子科技大学 | 基于稀疏子空间聚类的视频人体行为识别方法 |
CN104732208B (zh) * | 2015-03-16 | 2018-05-18 | 电子科技大学 | 基于稀疏子空间聚类的视频人体行为识别方法 |
CN105160290A (zh) * | 2015-07-03 | 2015-12-16 | 东南大学 | 一种基于改进型稠密轨迹的移动边界采样的行为识别方法 |
CN105095862B (zh) * | 2015-07-10 | 2018-05-29 | 南开大学 | 一种基于深度卷积条件随机场的人体动作识别方法 |
CN105095862A (zh) * | 2015-07-10 | 2015-11-25 | 南开大学 | 一种基于深度卷积条件随机场的人体动作识别方法 |
CN105550703A (zh) * | 2015-12-09 | 2016-05-04 | 华南理工大学 | 一种适用于人体再识别的图片相似度计算方法 |
CN106127112A (zh) * | 2016-06-15 | 2016-11-16 | 北京工业大学 | 基于dlle模型的数据降维与特征理解方法 |
CN108073933B (zh) * | 2016-11-08 | 2021-05-25 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
CN108073933A (zh) * | 2016-11-08 | 2018-05-25 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
CN106650674A (zh) * | 2016-12-27 | 2017-05-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于混合池化策略的深度卷积特征的动作识别方法 |
CN107169423B (zh) * | 2017-04-24 | 2020-08-04 | 南京邮电大学 | 一种视频人物运动类型识别方法 |
CN107169423A (zh) * | 2017-04-24 | 2017-09-15 | 南京邮电大学 | 一种视频人物运动类型识别方法 |
CN107292247A (zh) * | 2017-06-05 | 2017-10-24 | 浙江理工大学 | 一种基于残差网络的人体行为识别方法及装置 |
CN107485844A (zh) * | 2017-09-27 | 2017-12-19 | 广东工业大学 | 一种肢体康复训练方法、***及嵌入式设备 |
CN107895161A (zh) * | 2017-12-22 | 2018-04-10 | 北京奇虎科技有限公司 | 基于视频数据的实时姿态识别方法及装置、计算设备 |
CN107895161B (zh) * | 2017-12-22 | 2020-12-11 | 北京奇虎科技有限公司 | 基于视频数据的实时姿态识别方法及装置、计算设备 |
CN108256472A (zh) * | 2018-01-17 | 2018-07-06 | 清华大学 | 一种视频图像序列分割***和方法 |
CN112005198A (zh) * | 2018-01-25 | 2020-11-27 | 脸谱科技有限责任公司 | 基于多个输入的手部状态重建 |
CN109902547A (zh) * | 2018-05-29 | 2019-06-18 | 华为技术有限公司 | 动作识别方法和装置 |
US11704938B2 (en) | 2018-05-29 | 2023-07-18 | Huawei Technologies Co., Ltd. | Action recognition method and apparatus |
US11392801B2 (en) | 2018-05-29 | 2022-07-19 | Huawei Technologies Co., Ltd. | Action recognition method and apparatus |
WO2019228316A1 (zh) * | 2018-05-29 | 2019-12-05 | 华为技术有限公司 | 动作识别方法和装置 |
CN108805083A (zh) * | 2018-06-13 | 2018-11-13 | 中国科学技术大学 | 单阶段的视频行为检测方法 |
CN109299702A (zh) * | 2018-10-15 | 2019-02-01 | 常州大学 | 一种基于深度时空图的人体行为识别方法及*** |
CN109299702B (zh) * | 2018-10-15 | 2020-10-27 | 常州大学 | 一种基于深度时空图的人体行为识别方法及*** |
CN109871893B (zh) * | 2019-02-18 | 2020-10-16 | 清华大学 | 基于循环时域保持生成的行为预测方法和装置 |
CN109902729A (zh) * | 2019-02-18 | 2019-06-18 | 清华大学 | 基于序列状态演进的行为预测方法及装置 |
CN109871893A (zh) * | 2019-02-18 | 2019-06-11 | 清华大学 | 基于循环时域保持生成的行为预测方法和装置 |
CN110110660A (zh) * | 2019-05-07 | 2019-08-09 | 广东工业大学 | 手部操作行为的分析方法、装置及设备 |
CN110348321A (zh) * | 2019-06-18 | 2019-10-18 | 杭州电子科技大学 | 基于骨骼时空特征及长短时记忆网络的人体动作识别方法 |
CN112241665A (zh) * | 2019-07-18 | 2021-01-19 | 顺丰科技有限公司 | 一种暴力分拣识别方法、装置、设备及存储介质 |
CN110418142A (zh) * | 2019-08-06 | 2019-11-05 | 杭州微帧信息科技有限公司 | 一种基于视频感兴趣区域的编码方法、装置、存储介质 |
CN110610148A (zh) * | 2019-09-02 | 2019-12-24 | 南京邮电大学 | 一种面向隐私保护的压缩感知视觉屏蔽视频行为识别方法 |
CN110610148B (zh) * | 2019-09-02 | 2022-02-08 | 南京邮电大学 | 一种面向隐私保护的压缩感知视觉屏蔽视频行为识别方法 |
CN110738130A (zh) * | 2019-09-21 | 2020-01-31 | 天津大学 | 基于Wi-Fi的路径独立的步态识别方法 |
CN114582028A (zh) * | 2022-05-05 | 2022-06-03 | 风云张家口信息技术***有限公司 | 滑雪场管理方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN103164694B (zh) | 2016-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103164694A (zh) | 一种人体动作识别的方法 | |
Oneata et al. | Spatio-temporal object detection proposals | |
CN104143079B (zh) | 人脸属性识别的方法和*** | |
CN106529477B (zh) | 基于显著轨迹和时空演化信息的视频人体行为识别方法 | |
CN105512618B (zh) | 视频跟踪方法 | |
CN106325485B (zh) | 一种手势检测识别方法及*** | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN103942577A (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN106295564B (zh) | 一种邻域高斯结构和视频特征融合的动作识别方法 | |
CN103295016A (zh) | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 | |
CN109522853A (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN106296720A (zh) | 基于双目相机的人体朝向识别方法和*** | |
CN104268520A (zh) | 一种基于深度运动轨迹的人体动作识别方法 | |
CN107909081A (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN103020614B (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN104200218B (zh) | 一种基于时序信息的跨视角动作识别方法及*** | |
CN105701466A (zh) | 快速的全角度人脸跟踪方法 | |
CN106295532A (zh) | 一种视频图像中的人体动作识别方法 | |
CN106600965B (zh) | 基于尖锐度的交通流早晚高峰时段自动识别方法 | |
CN108509861A (zh) | 一种基于样本学习和目标检测结合的目标跟踪方法和装置 | |
CN105718934A (zh) | 一种基于低秩稀疏编码技术的害虫图像特征学习与识别方法 | |
CN103077383A (zh) | 基于时空梯度特征的分部位的人体运动识别方法 | |
CN102081741A (zh) | 一种基于视觉注意原理的行人检测方法和*** | |
Siva et al. | Grid seams: A fast superpixel algorithm for real-time applications | |
Saeidi et al. | Deep learning based on CNN for pedestrian detection: an overview and analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |