CN103593661B - 一种基于排序方法的人体动作识别方法 - Google Patents

一种基于排序方法的人体动作识别方法 Download PDF

Info

Publication number
CN103593661B
CN103593661B CN201310614110.2A CN201310614110A CN103593661B CN 103593661 B CN103593661 B CN 103593661B CN 201310614110 A CN201310614110 A CN 201310614110A CN 103593661 B CN103593661 B CN 103593661B
Authority
CN
China
Prior art keywords
state
training set
label
bow
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310614110.2A
Other languages
English (en)
Other versions
CN103593661A (zh
Inventor
苏育挺
刘安安
董瑞亭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201310614110.2A priority Critical patent/CN103593661B/zh
Publication of CN103593661A publication Critical patent/CN103593661A/zh
Application granted granted Critical
Publication of CN103593661B publication Critical patent/CN103593661B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于排序方法的人体动作识别方法,所述方法包括以下步骤:从视频图像序列中提取时空兴趣点以及相应的位置信息;构建词典;通过词袋模型分别对训练集和测试集进行处理,分别构建训练集和测试集的BoW特征;通过训练集的BoW特征训练分类器;将测试数据输入到分类器中,输出测试数据的判别标号,通过对比判别标号和测试数据的动作标号别计算出6个动作判别正确的准确率。本方法将排序方法运用到动作识别方法中,开辟了动作识别的新方向,同时降低了迭代计算的复杂度,提高了动作识别的准确度。

Description

一种基于排序方法的人体动作识别方法
技术领域
本发明涉及计算机视觉领域,特别涉及一种基于排序方法的人体动作识别方法。
背景技术
人体动作识别是计算机视觉研究中的重要领域,在计算机视觉中是一个极具有吸引力及挑战性的问题。人体运动的视觉分析是一个新兴前沿的研究领域,涉及模式识别、图像处理、计算机视觉、人工智能等多门学科。并且在智能视频监控、视频注解、虚拟现实、人机交互等领域中具有广阔的应用前景,已经成为计算机视觉和模式识别领域的研究热点。
人体动作识别是对包含人体运动的图像序列进行运动目标的检测和跟踪,并在此基础上利用人体动作过程视觉模式的动态变化特征对特定动作进行建模和识别。人体动作识别已有的方法主要为:基于模板匹配的方法和基于状态空间的方法。
模板匹配是一种较早用在人体运动识别上的方法,将运动图像序列转化为一个或一组静态的模板,通过将待识别样本的模板与已知的模板进行匹配获得识别结果[1]。在动作识别中,基于模板匹配的算法可以分为帧对帧匹配方法和融合匹配方法。主要方法有:运动能量图像(MEI)和运动历史图像(MHI),基于轮廓的平均运动形状(MMS)和基于运动前景的平均运动能量(AME)等。但是这类算法缺乏考虑相邻时序之间的动态特性,对于噪声和运动时间间隔的变化相当敏感,识别率较差。
状态空间的方法进行动作识别是把运动动作的每一种静态姿势定义为一个状态或者一个状态的集合,通过网络的方式将这些状态连接起来,状态和状态之间的切换采用概率来描述,这样每种运动状态可以看成在图中的不同状态或节点的一次遍历过程,其主要的算法隐马尔科夫模型[2]、动态贝叶斯网络[3]、人工神经网络[4]、有限状态机[5]和置信网络[6]等。状态空间方法虽然能克服模板匹配的缺点,但通常涉及到复杂的迭代运算,算法的步骤较为复杂,难以应用到实际工作中。
发明内容
本发明提供了一种基于排序方法的人体动作识别方法,本发明降低了迭代计算的复杂度,提高了识别的准确度,详见下文描述:
一种基于排序方法的人体动作识别方法,所述方法包括以下步骤:
(1)从视频图像序列中提取时空兴趣点以及相应的位置信息;
(2)构建词典;
(3)通过词袋模型分别对训练集和测试集进行处理,分别构建训练集和测试集的BoW特征;
(4)通过训练集的BoW特征训练分类器;
(5)将测试数据输入到分类器中,输出测试数据的判别标号,通过对比判别标号和测试数据的动作标号别计算出6个动作判别正确的准确率。
所述通过训练集的BoW特征训练分类器的操作具体为:
1)对训练集中视频序列的BoW特征,利用欧氏距离建立n维的相似度矩阵;
2)通过相似度矩阵的行归一化得到转移概率矩阵P;
3)根据转移概率矩阵计算平稳分布π1,选出概率最大的状态i,并记下此类的最大概率;
4)将状态i变为部分吸收状态,得到新的转移概率矩阵并计算此时的平稳分布π2,然后计算π1和π2中各状态的对应差值;
5)如果存在状态的差值大于阈值T的值,就认为此状态与状态i同类,选出与状态i同类的所有状态,将这些状态均变为部分吸收状态,并记下剩余状态的状态数m;
6)然后重复计算平稳分布,差值均小于阈值T的值,就直接判断m是否为0,m不等于0说明没有状态与此状态同类,并将此状态变为部分吸收状态,且将剩余状态的状态数m-1,然后重复计算平稳分布;m等于0说明所有状态均已分好类,分类器训练结束。
本发明提供的技术方案的有益效果是:本方法通过词袋模型分别对训练集和测试集进行处理,分别构建训练集和测试集的BoW特征;通过训练集的BoW特征训练分类器;将测试数据输入到分类器中,输出测试数据的判别标号,通过对比判别标号和测试数据的动作标号别计算出6个动作判别正确的准确率。本方法将排序方法运用到动作识别方法中,开辟了动作识别的新方向,同时降低了迭代计算的复杂度,提高了动作识别的准确度。
附图说明
图1为本方法所用数据库的示意图;
图2为时空兴趣点提取、描述流程图;
图3为训练分类器的流程图;
图4为分类识别的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为了降低迭代计算的复杂度,提高识别的准确度,本发明实施例提供了一种基于排序方法的人体动作识别方法,详见下文描述:
传统的动作表示方法,其准确性往往受到跟踪和姿态估计精度的影响,在运动物体较多或背景比较复杂的场景下,该类特征的鲁棒性面临挑战[7]。最近,出现了一种新的动作表示方法——基于时空兴趣点的方法,通过计算兴趣点构成的点集的方向梯度直方图和光流直方图来表示动作,这类方法比较灵活,动作识别准确率比较高.。本发明基于该思想,将动作识别和排序方法结合在一起从而实现人体动作的准确识别。
将图像内容表示为特定“视觉词”出现次数直方图的词袋(Bag-of-Words,BoW)模型,在人体动作分类方面展现了强大的优势。然而,在这种统计“视觉词”出现次数直方图的模型中,“视觉词”的空间位置信息以及“视觉词”之间的关系几乎被完全的丢弃。方法在Laptev识别方法[8]的基础上,通过计算两个“词袋”之间的欧氏距离,加入“视觉词”空间位置信息进行人体动作识别,可以很好的提升人体动作识别准确率。
排序方法是计算机视觉研究的又一重要领域,在计算机视觉中是非常重要的一个环节。它可以应用于信息检索等领域,在减少计算机硬件的运行速度问题上起着重要的作用。因此,对人体动作的视觉分析和排序方法结合的研究具有极大的商业价值与现实意义。
101:从视频图像序列中提取时空兴趣点(space-time interest point,stip)以及相应的位置信息;
参见图1,本方法所用数据库为TJU(天津大学)数据库,其中包含20个人(10男10女)、22个动作(walking(行走)、jogging(慢跑)、running(跑)、boxing(向前打拳)、two_hand_waving(双手挥)、handclapping(拍手)、P_bend(侧弯腰)、jacks(开合跳)、jump(跳远)、P_jump(原地跳)、side_walking(螃蟹步)、single_hand_waving(单手挥)、draw_X(画叉)、draw_tick(画对勾)、draw_circle(画圆)、forward_tick(向前踢)、side_tick(侧踢)、tennis_swing(接网球)、tennis_serve(发网球)、side_boxing(侧打拳)、bend(向前弯腰)、sit_down(坐下))、两个场景(亮、暗)、每人每个动作做四次,共3520段视频。所有的视频均是在均匀的背景下采集的,采集帧速率是20fps,空间分辨率是640x480。参照参考文献提出的划分方法[9],把TJU数据库划分成3个数据集:训练集(train,共1056段视频)、交叉验证集(validation,共1056段视频)、测试集(test,共1408段视频)。其中,每个动作都对应一个动作标号,可将动作标号设置为数字1到22(本发明实施例对具体的设置不做限制,只需满足训练集和测试集中同一动作的动作标号相同即可)。
兴趣点,顾名思义,就是具有一定的特征,并且带有某些令人比较感兴趣的属性点,而在计算机视觉中,兴趣点所表示的是图像上或者时间维度上有亮度剧烈变化的点。
时空兴趣点[10]是通过将空间兴趣点的方法扩展到时空领域上来找到时间维或者空间维上有较大变化的点。其检测的目的是找到视频序列中发生的时空事件,通常来说,其方法是给出一种强度函数,计算视频序列中的每个位置强度值并通过极大值滤波的方法找出兴趣点。时空兴趣点的提取准确与否对后续的的动作识别有着很大的影响。参考文献[10]将Harris角点检测思想扩展到时空域,得到一种时空兴趣点的检测方法并用兴趣点构成的点集来表示动作。
本方法使用Laptev提出的时空兴趣点提取方法。参见图2,该方法中,Laptev将二维图像中的Harris(哈里斯)角点检测技术扩展到三维时空领域中,用检测子Harris3D从KTH数据库的视频中检测出在时空方向变化最大的像素点(兴趣点),建立以兴趣点为中心的时空立方体并抽取光流直方图和梯度直方图的联合特征HoG/HoF描述子,用于对运动进行表征。最后,可以得到该视频中提取到的所有STIP点以及它们的位置信息,每个STIP点的位置信息包括所在帧号Ff以及在该帧图像中的坐标(xf,yf)。本发明实施例以STIP点的维数为162(HoG描述前72维,HoF描述后90维)为例进行说明,具体实现时,本发明实施例对此不做限制。
102:构建词典;
对训练集中所有样本的STIP点用K-means算法[11]聚类,获得聚类中心,即词典dictionary。K为聚类中心的个数,K-means算法可以从输入的所有STIP点中选出K个作为聚类中心。因此,对于训练集的STIP经K-means计算都可得到一个K*162的矩阵,每一行表示一个聚类中心,共K个。该K*162的矩阵即为词典。
103:通过词袋模型[9]分别对训练集和测试集进行处理,分别构建训练集和测试集的BoW特征。
对于训练集共1056段视频,构建BoW特征,将训练集的视频中所包含的所有STIP点以及词典输入到BoW模型,输出即为训练集的BoW特征。此BoW特征为1056*K的矩阵,其中每一行表示一个视频的特征直方图即该视频的BoW特征。将每个视频对应的动作标号加在矩阵的第一列,得到一个1056*(K+1)的矩阵,即为训练集的带标号的BoW特征。
测试集共1408段视频,提取BoW特征的方法同训练集(所用到的词典为步骤102所构建的词典),输出的BoW特征为1408*(K+1)的矩阵,其中第一列是测试集的动作标号。
104:通过训练集的BoW特征训练分类器;
本方法采取的人体动作识别方法是将基于GrassHopper的排序方法[12]和人体行为的视觉分析结合的算法:首先,训练分类器,得到分类模型;然后,根据分类模型对测试集的数据进行判断,通过对比判别标号和测试数据的动作标号计算得出准确率。
1)对训练集中视频序列的BoW特征(即将每个视频的BoW特征看做一个点,求取任意两个BoW特征之间的距离),利用欧氏距离建立n维的相似度矩阵;
其中欧氏距离表示在n维空间中两个点之间的真实距离,计算公式为:
d(A,B)=sqrt[∑((a[i]-b[i])^2)](i=1,2,…,n),其中A=(a[1],a[2],…,a[n])和B=(b[1],b[2],…,b[n])表示n维空间中的任意两点。
相似度矩阵:每一行表示这个视频序列与其他视频序列之间的欧氏距离,该矩阵的对角线元素全为0,且矩阵是以对角线对称的。
2)通过相似度矩阵的行归一化得到转移概率矩阵P;
即转移概率矩阵的每一行元素值之和为1,转移概率矩阵中的每个元素代表BoW特征之间的转移概率。
3)根据转移概率矩阵计算平稳分布π1,选出概率最大的状态i,并记下此类的最大概率;
平稳分布:π1是一列向量,由公式π1=Pπ1计算得出,且π1中各元素分别表示不同状态(即不同视频)的概率,元素和是1。
4)将状态i变为部分吸收状态,得到新的转移概率矩阵并计算此时的平稳分布π2,然后计算π1和π2中各状态的对应差值;
其中,部分吸收状态为:当前状态下存在一定的概率被吸收,本方法定义吸收概率为0.75(即转移概率矩阵该行对角线上的元素pii=0.75,pij(i≠j)则分别变为当前转移概率矩阵中对应元素乘以0.25)。
5)如果存在状态的差值大于阈值T的值,就认为此状态与状态i同类,选出与状态i同类的所有状态,将这些状态均变为部分吸收状态(即转移概率矩阵中部分吸收状态所对应的行中,对角线上的元素为0.75,其他元素分别变为当前转移概率矩阵中对应元素乘以0.25),并记下剩余状态的状态数m;
6)然后重复计算平稳分布(从第三步开始),差值均小于阈值T的值,就直接判断m是否为0,m不等于0说明没有状态与此状态同类,并将此状态变为部分吸收状态,且将剩余状态的状态数m-1,然后重复计算平稳分布;m等于0说明所有状态均已分好类,分类器训练结束。
下面以一个实例详细的说明步骤104的过程,详见下文描述:
假如:相似度矩阵为
0,2,5,6 2,0,3,1 5,3,0,4 6,1,4,0
则转移概率矩阵P为
0,0.154,0.385,0.461 0.333,0,0.5,0.167 0.417,0.25,0,0.333 0.545,0.091,0.364,0
平稳分布:π1=Pπ1,且π1中个元素和是1,得 π 1 = 0.3095 0.1429 0.2859 0.2617 , 概率最大的状态是i=1,且此类的最大概率是0.3095。
将状态i变为部分吸收状态后,转移概率矩阵为
0.75,0.0385,0.09625,0.1125 0.333,0,0.5,0.167 01417,0.25,0 , 0.333 0.545,0.091,0.364,0
计算此时的平稳分布π2,方法同π1的计算方法。
π 2 = 0.6419 0.0741 0.1482 0.1357
计算π1和π2中各状态的对应差值(取正值)为
0.3324 0.0688 0.1377 0.1250
实际应用时,根据经验设定阈值T为一列向量,且向量的元素均为此类的最大概率的1/n,阈值T为
0.077375 0.077375 0.077375 0.077375
比较差值和阈值,可得状态3,4与状态1是同类,状态2是另外一类;在状态比较多的情况下,需将同类状态均变为部分吸收状态(方法同状态1),计算平稳分布,选出概率最大的状态j,并记下此类的最大概率,然后将状态j变为部分吸收状态,计算此时的平稳分布,比较两平稳分布的差值,选出和状态j同类的状态,并将这些状态均变为部分吸收状态,重复计算平稳分布,直至所有的状态均分好类。
105:将测试数据输入到分类器中,输出测试数据的判别标号,通过对比判别标号和测试数据的动作标号别计算出6个动作判别正确的准确率。
综上所述,本发明实施例通过词袋模型分别对训练集和测试集进行处理,分别构建训练集和测试集的BoW特征;通过训练集的BoW特征训练分类器;将测试数据输入到分类器中,输出测试数据的判别标号,通过对比判别标号和测试数据的动作标号别计算出6个动作判别正确的准确率。本方法降低了迭代计算的复杂度,提高了动作识别的准确度。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
参考文献
[1]张洁.视频运动人体行为识别与分类方法研究.西安电子科技大学,2011
[2]RABINER L R.A tutorial on hidden Markov models and selectedapplications in speech recognition[J].Proc of the IEEE,1989,77(2):257-286.
[3]MURPHY K.Dynamic Bayesian networks:representation,inference andlearning[D].Berkeley:University of California,2002.
[4]BUCCOLIERI F,DISTANTE C,LEONE A.Human posture recognition usingactive contours and radial basis function neural network[C].Proc ofConference on Advanced Video And Signal Based Surveillance.2005.
[5]HONG Peng-yu,TURK M,HUANG T S.Gesture modeling and recognitionusing finite State machines[C].Proc of IEEE Conference on Face and GestureRecognition.2000.
[6]INTILLE S,BOBICK A.Representation and visual recognition ofcomplex,mult-agent actions using belief networks,NO.454[R].[S.1.]:MIT,1998
[7]胡斐,罗立民,刘佳,等.基于时空兴趣点和主题模型的动作识别[J].东南大学学报:自然科学版,2011,41(5):962-966.
[8]I.Laptev,M.C.Schmid,and B.Rozenfeld.Learning realistichuman actions from movies.In CVPR,2008.
[9]Li Feifei,Perona P.A Bayesian Hierarchical Model for LearningNatural Scene Categories[C],Proc.of CVPR’05.San Diego,CA,USA:[s.n.],2005:524-531.
[10]Laptev I.On space-time interest points[J].International Journalof Computer Vision,2005,64(2/3):107-123.
[11]J.B.MacQueen,Some Methods for classification and Analysis ofMultivariate Observations,Proceedings of 5-th Berkeley Symposium onMathematical Statistics and Probability,Berkeley,University of CaliforniaPress,1967,1:281-297.
[12]Xiaojin Zhu,Andrew B.Goldberg,Jurgen Van Gael,DavidAndrzejewski.Improving Diversity in Ranking using Absorbing Random Walks[J],NAACL HLT 2007,97–104.

Claims (1)

1.一种基于排序方法的人体动作识别方法,其特征在于,所述方法包括以下步骤:
(1)从视频图像序列中提取时空兴趣点以及相应的位置信息;
(2)构建词典;
(3)通过词袋模型分别对训练集和测试集进行处理,分别构建训练集和测试集的BoW特征;
(4)通过训练集的BoW特征训练分类器;
(5)将测试数据输入到分类器中,输出测试数据的判别标号,通过对比判别标号和测试数据的动作标号分别计算出6个动作判别正确的准确率;
其中,所述通过训练集的BoW特征训练分类器的操作具体为:
1)对训练集中视频序列的BoW特征,利用欧氏距离建立n维的相似度矩阵;
2)通过相似度矩阵的行归一化得到转移概率矩阵P;
3)根据转移概率矩阵计算平稳分布π1,选出概率最大的状态i,并记下此类的最大概率;
4)将状态i变为部分吸收状态,得到新的转移概率矩阵并计算此时的平稳分布π2,然后计算π1和π2中各状态的对应差值;
5)如果存在状态的差值大于阈值T的值,就认为此状态与状态i同类,选出与状态i同类的所有状态,将这些状态均变为部分吸收状态,并记下剩余状态的状态数m;
6)然后重复计算平稳分布,差值均小于阈值T的值,就直接判断m是否为0,m不等于0说明没有状态与此状态同类,并将此状态变为部分吸收状态,且将剩余状态的状态数m-1,然后重复计算平稳分布;m等于0说明所有状态均已分好类,分类器训练结束。
CN201310614110.2A 2013-11-27 2013-11-27 一种基于排序方法的人体动作识别方法 Active CN103593661B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310614110.2A CN103593661B (zh) 2013-11-27 2013-11-27 一种基于排序方法的人体动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310614110.2A CN103593661B (zh) 2013-11-27 2013-11-27 一种基于排序方法的人体动作识别方法

Publications (2)

Publication Number Publication Date
CN103593661A CN103593661A (zh) 2014-02-19
CN103593661B true CN103593661B (zh) 2016-09-28

Family

ID=50083793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310614110.2A Active CN103593661B (zh) 2013-11-27 2013-11-27 一种基于排序方法的人体动作识别方法

Country Status (1)

Country Link
CN (1) CN103593661B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10210391B1 (en) 2017-08-07 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting actions in videos using contour sequences

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242266B2 (en) 2016-03-02 2019-03-26 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting actions in videos
CN106384093B (zh) * 2016-09-13 2018-01-02 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN108960031A (zh) * 2018-03-29 2018-12-07 中国科学院软件研究所 一种基于分层动力解析与编码的视频动作分类***及方法
CN110110598A (zh) * 2019-04-01 2019-08-09 桂林电子科技大学 一种基于视觉特征与时空约束的行人再识别方法及***
CN110300230B (zh) * 2019-07-01 2021-03-19 腾讯科技(深圳)有限公司 应用控制方法、装置、存储介质以及终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945375A (zh) * 2012-11-20 2013-02-27 天津理工大学 多约束下的多视角监控视频行为检测和识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945375A (zh) * 2012-11-20 2013-02-27 天津理工大学 多约束下的多视角监控视频行为检测和识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于3D DAISY描述符的动作识别;邓超;《中国优秀硕士学位论文全文数据库 信息科技辑》;20120815(第08期);摘要,第6-9页,第20-22页,第26-27页 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10210391B1 (en) 2017-08-07 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting actions in videos using contour sequences

Also Published As

Publication number Publication date
CN103593661A (zh) 2014-02-19

Similar Documents

Publication Publication Date Title
CN103593661B (zh) 一种基于排序方法的人体动作识别方法
Liu et al. Improved human action recognition approach based on two-stream convolutional neural network model
CN107784293A (zh) 一种基于全局特征和稀疏表示分类的人体行为识别方法
Abdul-Azim et al. Human action recognition using trajectory-based representation
CN104616316B (zh) 基于阈值矩阵和特征融合视觉单词的人物行为识别方法
Jisi et al. A new feature fusion network for student behavior recognition in education
WO2017150032A1 (en) Method and system for detecting actions of object in scene
CN103605986A (zh) 一种基于局部特征的人体动作识别方法
Tekin et al. Predicting people’s 3D poses from short sequences
Vantigodi et al. Real-time human action recognition from motion capture data
CN105469050B (zh) 基于局部时空特征描述与金字塔词汇树的视频行为识别方法
CN115862136A (zh) 基于骨骼关节的轻量级加油员行为识别方法及装置
Kumar et al. 3D sign language recognition using spatio temporal graph kernels
Dewan et al. Spatio-temporal Laban features for dance style recognition
Zhou et al. A study on attention-based LSTM for abnormal behavior recognition with variable pooling
Hao et al. Recognition of basketball players’ action detection based on visual image and Harris corner extraction algorithm
Talukdar et al. Human action recognition system using good features and multilayer perceptron network
Jiang et al. A unified tree-based framework for joint action localization, recognition and segmentation
Pang et al. Analysis of computer vision applied in martial arts
Park et al. Binary dense sift flow based two stream CNN for human action recognition
Yuan et al. A systematic survey on human behavior recognition methods
CN114038011A (zh) 一种室内场景下人体异常行为的检测方法
CN111626197B (zh) 一种基于人体行为识别网络模型的识别方法
Gong et al. Research on an improved KCF target tracking algorithm based on CNN feature extraction
CN103020631B (zh) 基于星型模型的人体运动识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant