CN103854016B - 基于方向性共同发生特征的人体行为分类识别方法及*** - Google Patents

基于方向性共同发生特征的人体行为分类识别方法及*** Download PDF

Info

Publication number
CN103854016B
CN103854016B CN201410119629.8A CN201410119629A CN103854016B CN 103854016 B CN103854016 B CN 103854016B CN 201410119629 A CN201410119629 A CN 201410119629A CN 103854016 B CN103854016 B CN 103854016B
Authority
CN
China
Prior art keywords
space
feature
video
behavior
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410119629.8A
Other languages
English (en)
Other versions
CN103854016A (zh
Inventor
刘宏
刘梦源
孙倩茹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Shenzhen Graduate School
Original Assignee
Peking University Shenzhen Graduate School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Shenzhen Graduate School filed Critical Peking University Shenzhen Graduate School
Priority to CN201410119629.8A priority Critical patent/CN103854016B/zh
Publication of CN103854016A publication Critical patent/CN103854016A/zh
Application granted granted Critical
Publication of CN103854016B publication Critical patent/CN103854016B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于方向性共同发生特征的人体行为分类识别方法及***。该方法包括:在视频序列中检测人体目标并提取时空兴趣点;提取HOG和HOF特征,对时空兴趣点聚类;统计具有不同类别标签的时空兴趣点对出现在相同帧时的方向信息;统计方向性时空点对特征直方图,得到针对输入视频的特征描述;将该词袋模型中的直方图特征换成方向性时空点对特征直方图,针对不同类别行为进行训练,得到对应的特征描述;提取得到输入的测试视频的特征描述,与不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。本发明通过描述局部特征点对之间的方向信息有效提升了人体行为分类和识别的准确率和鲁棒性。

Description

基于方向性共同发生特征的人体行为分类识别方法及***
技术领域
本发明属于机器视觉中的目标识别和智能人机交互技术领域,具体涉及一种鲁棒的基于方向性共同发生特征的人体行为分类识别方法。
背景技术
人体行为分析早在二十世纪三十年代就开始了。但早期较成功的研究还主要是集中于对刚体运动的研究上。五十年代左右,对非刚体的研究逐渐兴起。尤其是人体运动分析,其在智能视频监控、机器人控制、人机交互等方面具有广泛的应用前景,激发了世界范围内的广大工作者的研究兴趣。
在现实场景中,人体行为识别尤其是分类具有众多难点:人体运动的执行者经常是处于不同的年龄阶段、拥有不同的外表,同时,运动速度和时空变化程度都因人而异;不同的运动看上去有很大的相似性,即类间相似,这是与上面提到的类内多样性相对的一种困难情况;同时人体行为分类面临众多图像处理的经典难点问题,如人体遮挡,室外场景中存在阴影,光照变化以及人群拥挤等。面对这些困难,如何实现鲁棒的人体行为分类,从而应用于真实场景中的智能监控,具有重要的研究意义。
人体行为描述方法分为两大类:全局特征和局部特征。全局特征即将人体行为视为一个整体提取得到运动描述,是一种自顶向下的过程。全局特征描述是一种很强的特征,能编码运动的大部分信息。然而,全局特征对视角、遮挡、噪声都极其敏感,并且,提取全局特征的前提是能很好的分割运动前景。这对复杂场景下的人体行为描述要求的预处理过程极为苛刻。考虑到全局特征的不足,针对复杂场景下的人体行为描述,局部特征被提出,作为全局特征的补充。局部特征的提取是一种自底向上的过程:首先检测时空兴趣点,然后在这些兴趣点周围提取局部纹理方块,最后将对这些方块的描述结合起来组成最终描述子。由于词袋模型(bag of visual words model)参见J.C.Niebles,H.Wang,and L.Fei-Fei,“Unsupervised learning of human action categories using spatialtemporalwords,”in BMVC,vol.3,pp.1249-1258,2006。)的提出,使得利用局部特征进行人体行为分类的框架被广泛采用。局部特征与全局特征不同,其对噪声和部分遮挡的敏感性较低,并且局部特征的提取不需要前景分割和跟踪的过程,因此能很好的适用于复杂场景中的人体行为分析。由于局部特征点忽略了点跟点之间的全局约束关系,因此需要更高一层的空间关系描述来提升现有的词袋模型分类效果。
发明内容
本发明针对上述问题,提出一种基于方向性共同发生特征的人体行为分类识别方法,使用局部特征点并通过描述特征点之间的空间结构关系来建立人体行为模型,最终实现人体行为分类和识别。本发明通过描述局部特征点对之间的方向信息有效提升了传统方法的准确率和鲁棒性。
本发明采用的技术方案如下:
一种基于方向性共同发生特征的人体行为分类识别方法,其步骤如下:
1)在视频序列中检测人体目标;
2)对包含人体目标的时空域提取时空兴趣点;
3)提取时空兴趣点的HOG和HOF特征,并将时空兴趣点聚类成若干类别;
4)对于具有不同类别标签的时空兴趣点对,统计其出现在相同帧时的方向信息;
5)利用所述方向信息统计方向性时空点对特征直方图,得到针对输入视频的特征描述;
6)利用词袋模型将局部特征的个数直方图分布作为整体的特征表达,将该词袋模型中的直方图特征换成由步骤1)~5)得到的方向性时空点对特征直方图,针对不同类别行为进行训练,得到不同行为类别对应的特征描述;
7)当输入测试视频时,根据步骤1)~5)提取得到该视频的特征描述,然后与步骤6)得到的不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。
更进一步,所述人体行为分类是针对视频中能够检测出的人体行为进行的,提取的时空兴趣点指的是时空域中灰度变换剧烈的点。
更进一步,时空兴趣点对的方向性指的是两点在空间中的上下或左右关系,并且优先考虑点对间的上下关系,当两点空间中的垂直距离小于一定阈值时,考虑左右关系;当两点空间中的水平距离也小于一定阈值时,在统计方向性时空点对特征直方图时舍弃该点对。
更进一步,使用均值聚类或其他聚类方法对时空兴趣点进行聚类,时空兴趣点的聚类个数优选为400~1000。
本发明还提出一种采用上述方法的基于方向性共同发生特征的人体行为分类识别***,其包括:
视频输入端,包括可获取视频序列的摄像设备;
特征提取输出端,提取视频中人体行为对应的方向性时空点对特征描述;
离线训练分类器,在视频输入端获取的视频序列中检测人体行为目标,利用特征提取输出端输出的人体行为的特征描述,针对每个行为类别,将对应的多个视频的直方图特征取平均,并将平均的直方图特征作为该行为类别对应的特征;
匹配输出模块,对于输入的测试视频,利用离线训练分类器得到视频中人体行为对应的特征,并将其与多个行为类别对应的特征分类匹配,将匹配度最高的作为测试视频对应的行为类别,并输出该类别标签。
更进一步,所述视频输入端获取的视频序列为RGB图像序列。
本发明实现了鲁棒的基于方向性共同发生特征的人体行为分类识别方法和***,即利用局部时空兴趣点对之间上下或者左右的相对方位关系编码局部时空兴趣点的空间结构特征,从而增加了不同行为类别之间的区分度。本发明属于对利用词袋模型和局部特征点做行为分类的框架的拓展。本发明的效果图如图3所示,可以看出与现有技术相比,本发明的人体行为分类效果最好。
附图说明
图1是本发明的基于方向性共同发生特征的人体行为分类识别方法的步骤流程图。
图2是本发明的视频描述子(即方向性时空点对特征直方图)提取流程图;
图3是本发明使用的数据库部分样例;
图4~图6是本发明的人体行为分类效果图;其中图3采用原始词袋模型和直方图特征,图4采用词袋模型和共同发生特征,图5采用词袋模型和本发明提出的方向性点对直方图特征。
具体实施方式
下面通过具体实施例和附图,对本发明做进一步说明。
本发明的基于方向性共同发生特征的人体行为识别方法,使用局部特征点并通过描述特征点之间的空间结构关系来建立人体行为模型,最终实现人体行为分类和识别。局部特征点的提取和描述参照"Evaluation of local spatio-temporal features foraction recognition"(2009),H.Wang,M.M.Ullah,A.I.Laptev and C.Schmid;inProc.BMVC'09。
图1所示为本发明方法的步骤流程图,包括:1)在视频序列中检测人体目标;2)对包含人体目标的时空域提取时空兴趣点;3)提取时空兴趣点的HOG和HOF特征,并将时空兴趣点聚类成若干类别;4)对于具有不同类别标签的时空兴趣点对,统计其出现在相同帧时的方向信息;5)利用所述方向信息统计方向性时空点对特征直方图,得到针对输入视频的特征描述;6)利用词袋模型将局部特征的个数直方图分布作为整体的特征表达,将该词袋模型中的直方图特征换成由步骤1)~5)得到的方向性时空点对特征直方图,针对不同类别行为进行训练,得到不同行为类别对应的特征描述;7)当输入测试视频时,根据步骤1)~5)提取得到该视频的特征描述,然后与步骤6)得到的不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。
下面结合图2说明本发明的人体行为的视频对应的方向性点对直方图特征的提取步骤:
1)时空兴趣点的提取和描述
本发明使用文献“C.Schuldt,I.Laptev,and B.Caputo,“Recognizing humanactions:a local svm approach,”in ICPR,pp.32-36,2004”中使用的时空兴趣点检测器和描述子。时空兴趣点检测器的参数与上述文献中的参数保持一致。时空兴趣点描述子采用维数为90维的HOG特征和72维多HOF特征,两种特征串联起来组成162维的描述子。图2中A、B、C表示时空兴趣点。
2)时空兴趣点的聚类
本发明采用K均值聚类方法,针对实验中的不同数据库设定不同的聚类个数。实验采用UT-Interaction和Rochester两个数据库,分别由文献“M.S.Ryoo,Human activityprediction:Early recognition of ongoing activities from streaming videos,inICCV,pp.1036-1043,2011”和“R.Messing,C.Pal,and H.Kautz,Activity recognitionusing the velocity histories of tracked keypoints,in ICCV,pp.104-111,2009”提出。对于UT-Interaction数据库,聚类个数设为450;对Rochester数据库,聚类个数设为500。
3)方向性点对直方图特征提取
本发明关注具有不同类别且出现在相同帧上的时空兴趣点对之间的关系。假设变量S={S1,...,Sk,...,SK}包含一个视频中提取到的所有时空兴趣点;Sk包含所有标签为k的时空兴趣点,其中k属于1到聚类个数K之间;代表标签为i的时空兴趣点;且分别代表该点的横纵坐标和所在的帧数。方向性点对直方图特征提取的主要步骤如下:
上述步骤用自然语言描述如下:
a)对具有不同类别标签的共发生点对,由公式(1)计算得到方向性点对特征,并由公式(2)计算得到阈值T。
b)由公式(3)得到整个输入视频中方向性共同发生特征的统计量N。
c)由公式(4)和(5)得到基于统计量N的概率分布P。
d)由公式(6)得到最终特征描述H,H由P级联组成。
其中公式(1)~(6)如下所示:
其中,Si代表标签为i的所有时空兴趣点的集合,Sj代表标签为j的所有时空兴趣点的集合;代表标签为i的时空兴趣点,且分别代表该点的横纵坐标和所在的帧数;T为阈值,表征空间点对的平均距离;K为聚类个数;N(i)和N(j)分别代表类别为i和j的时空兴趣点个数;n(pti,ptj)代表由类别i指向类别j的共同发生特征个数;N(i,j)代表方向性共同发生特征的统计量;P(DPFi st|DPFs)代表方向性共同发生特征中以标签i作为起点的概率;P(DPFi en|DPFs)代表方向性共同发生特征中以标签i作为终点的概率;H为最终表达视频中人体行为的特征向量。
图2中步骤3得到的直方图中,横坐标DPF表示方向性点对直方图特征,probability表示概率,纵坐标N表示特征个数,H表示概率值,AB、AC等表示由A指向B或由A指向C的方向性点对特征,Ast、Bst、Cst表示在所有方向性点对特征中分别由A、B、C作为起点的特征,Aen、Ben、Cen表示分别由A、B、C作为终点的特征。
图3所示为实验所用数据库Rochester和UT-Interaction,第1-2行为Rochester数据库行为实例,第3-4行为UT-Interaction中两个场景下的行为实例。其中Rochester包含10种人体行为动作,分别为:接电话(answer a phone),切香蕉(chop a banana),打电话(dial a phone),喝水(drink water),吃香蕉(eat a banana),吃零食(eat snacks),查询电话号码(look up a phone number in a phone book),剥香蕉(peel a banana),用银器进餐(eat food with silverware)和在白板上写字(write on a white board),由5个人重复表演3次得到,共150段视频。UT-Interaction包含6种人体行为动作,分别为:拥抱(hug),脚踢(kick),指向(point),击打(punch),推搡(push)和握手(shakehands),由表演者在两种场景下分别重复10次得到,共120段视频。
图4~图6所示为分类结果,其中参数K1、K2、avgRate分别为词袋模型所用聚类个数,时空方向点对特征所用聚类个数和运行10次的平均识别率。离线训练分类模块采用留一交叉验证,使用支持向量机作为分类器,比较测试样本与训练得到的模板的匹配度。支持向量机采用切比雪夫核。图4~图6中第一列(左边的图(a))代表在UT-interaction中场景一数据库(60段视频)上的分类结果,第二列(右边的图(b))代表在Rochester上的分类结果。图4采用原始词袋模型和直方图特征,图5采用词袋模型和共同发生特征,共同发生特征参考文献Q.Sun and H.Liu,“Action disambiguation analysis using normalized***-like distance correlogram,”in ACCV,2012,Part III,LNCS 7726,pp.425-437,2013。图6采用词袋模型和本发明提出的方向性点对直方图特征。可以看出,本发明提出的方法分类正确率最高。
尽管为说明目的公开了本发明的具体实施例和附图,其目的在于帮助理解本发明的内容并据以实施,但是本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换、变化和修改都是可能的。本发明不应局限于本说明书最佳实施例和附图所公开的内容,本发明的保护范围以权利要求书界定的范围为准。

Claims (8)

1.一种基于方向性共同发生特征的人体行为分类识别方法,其步骤包括:
1)在视频序列中检测人体目标;
2)对包含人体目标的时空域提取时空兴趣点;
3)提取时空兴趣点的HOG和HOF特征,并将时空兴趣点聚类成若干类别;
4)对于具有不同类别标签的时空兴趣点对,统计其出现在相同帧时的方向信息;
5)利用所述方向信息统计方向性时空点对特征直方图,得到针对输入视频的特征描述;
提取所述方向性时空点对特征直方图的方法是:
a)对具有不同类别标签的共发生点对,由公式(1)计算得到方向性点对特征,并由公式(2)计算得到阈值T;
b)由公式(3)得到整个输入视频中方向性共同发生特征的统计量N;
c)由公式(4)和(5)得到基于统计量N的概率分布P;
d)由公式(6)得到最终特征描述H,H由P级联组成;
其中公式(1)~(6)如下所示:
T = Σ i = 1 K Σ j = 1 K Σ ∀ pt i ∈ S i , ∀ pt j ∈ S j | x pt i - x pt j | Σ i = 1 K Σ j = 1 K Σ ∀ pt i ∈ S i , ∀ pt j ∈ S j 1 - - - ( 2 )
N ( i , j ) = Σ ∀ pt i ∈ S i , ∀ pt j ∈ S j n ( pt i , pt j ) - - - ( 3 )
P ( DPF i s t | D P F s ) = Σ j = 1 K N ( i , j ) Σ j = 1 K { N ( i ) · N ( j ) } - - - ( 4 )
P ( DPF i e n | D P F s ) = Σ j = 1 K N ( j , i ) Σ j = 1 K { N ( i ) · N ( j ) } - - - ( 5 )
H = { { P ( DPF i s t | D P F s ) } i = 1 K , { P ( DPF i e n | D P F s ) } i = 1 K } - - - ( 6 )
其中,Si代表标签为i的所有时空兴趣点的集合,Sj代表标签为j的所有时空兴趣点的集合;代表标签为i的时空兴趣点,且分别代表该点的横纵坐标和所在的帧数;T为阈值,表征空间点对的平均距离;K为聚类个数;N(i)和N(j)分别代表类别为i和j的时空兴趣点个数;n(pti,ptj)代表由类别i指向类别j的共同发生特征个数;N(i,j)代表方向性共同发生特征的统计量;P(DPFi st|DPFs)代表方向性共同发生特征中以标签i作为起点的概率;P(DPFi en|DPFs)代表方向性共同发生特征中以标签i作为终点的概率;H为最终表达视频中人体行为的特征向量;
6)利用词袋模型将局部特征的个数直方图分布作为整体的特征表达,将该词袋模型中的直方图特征换成由步骤1)~5)得到的方向性时空点对特征直方图,针对不同类别行为进行训练,得到不同行为类别对应的特征描述;
7)当输入测试视频时,根据步骤1)~5)提取得到该视频的特征描述,然后与步骤6)得到的不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。
2.如权利要求1所述的方法,其特征在于:所述时空兴趣点是时空域中灰度变换剧烈的点。
3.如权利要求1所述的方法,其特征在于:所述时空兴趣点对的方向性是指两点在空间中的上下或左右关系。
4.如权利要求3所述的方法,其特征在于:当两点空间中的垂直距离小于一定阈值时,考虑左右关系;当两点空间中的水平距离也小于一定阈值时,在统计方向性时空点对特征直方图时舍弃该点对。
5.如权利要求1所述的方法,其特征在于:使用均值聚类方法对时空兴趣点进行聚类。
6.如权利要求5所述的方法,其特征在于:所述时空兴趣点的聚类个数为400~1000。
7.一种采用权利要求1所述方法的人体行为分类识别***,其特征在于,包括:
视频输入端,包括可获取视频序列的摄像设备;
特征提取输出端,提取视频中人体行为对应的方向性时空点对特征描述;
离线训练分类器,在视频输入端获取的视频序列中检测人体行为目标,利用特征提取输出端输出的人体行为的特征描述,针对每个行为类别,将对应的多个视频的直方图特征取平均,并将平均的直方图特征作为该行为类别对应的特征;
匹配输出模块,对于输入的测试视频,利用离线训练分类器得到视频中人体行为对应的特征,将其与多个行为类别对应的特征分类匹配,将匹配度最高的作为测试视频对应的行为类别,并输出该类别标签。
8.如权利要求7所述的***,其特征在于:所述视频输入端获取的视频序列为RGB图像序列。
CN201410119629.8A 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及*** Expired - Fee Related CN103854016B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410119629.8A CN103854016B (zh) 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410119629.8A CN103854016B (zh) 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及***

Publications (2)

Publication Number Publication Date
CN103854016A CN103854016A (zh) 2014-06-11
CN103854016B true CN103854016B (zh) 2017-03-01

Family

ID=50861650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410119629.8A Expired - Fee Related CN103854016B (zh) 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及***

Country Status (1)

Country Link
CN (1) CN103854016B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881655B (zh) * 2015-06-03 2018-08-28 东南大学 一种基于多特征时空关系融合的人类行为识别方法
US11423651B2 (en) * 2016-02-09 2022-08-23 Hrl Laboratories, Llc System and method for the fusion of bottom-up whole-image features and top-down enttiy classification for accurate image/video scene classification
CN105893936B (zh) * 2016-03-28 2019-02-12 浙江工业大学 一种基于hoirm和局部特征融合的行为识别方法
CN105893967B (zh) * 2016-04-01 2020-04-10 深圳市感动智能科技有限公司 基于时序保留性时空特征的人体行为分类检测方法及***
CN108256434B (zh) * 2017-12-25 2021-09-28 西安电子科技大学 基于混淆矩阵的高层语义视频行为识别方法
CN109543590B (zh) * 2018-11-16 2023-04-18 中山大学 一种基于行为关联度融合特征的视频人体行为识别算法
CN109871736B (zh) * 2018-11-23 2023-01-31 腾讯科技(深圳)有限公司 自然语言描述信息的生成方法及装置
CN111353519A (zh) * 2018-12-24 2020-06-30 北京三星通信技术研究有限公司 用户行为识别方法和***、具有ar功能的设备及其控制方法
CN110837805B (zh) * 2019-11-07 2023-04-07 腾讯科技(深圳)有限公司 视频标签的置信度的测量方法、装置、设备及存储介质
CN111310806B (zh) * 2020-01-22 2024-03-15 北京迈格威科技有限公司 分类网络及图像处理方法、装置、***和存储介质
CN111339980B (zh) * 2020-03-04 2020-10-09 镇江傲游网络科技有限公司 基于时空直方图的动作识别方法及装置
CN113821681B (zh) * 2021-09-17 2023-09-26 深圳力维智联技术有限公司 视频标签生成方法、装置及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100568266C (zh) * 2008-02-25 2009-12-09 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
US8611670B2 (en) * 2010-02-25 2013-12-17 The Board Of Trustees Of The Leland Stanford Junior University Intelligent part identification for use with scene characterization or motion capture
CN102043967B (zh) * 2010-12-08 2013-09-25 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN102034096B (zh) * 2010-12-08 2013-03-06 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102354422B (zh) * 2011-10-19 2013-09-25 北京国创科视科技有限公司 一种面向周界防护的可疑目标监测方法
CN103020614B (zh) * 2013-01-08 2015-09-02 西安电子科技大学 基于时空兴趣点检测的人体运动识别方法
CN103279737B (zh) * 2013-05-06 2016-09-07 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN103413154A (zh) * 2013-08-29 2013-11-27 北京大学深圳研究生院 基于归一化类谷歌量度矩阵的人体运动识别方法

Also Published As

Publication number Publication date
CN103854016A (zh) 2014-06-11

Similar Documents

Publication Publication Date Title
CN103854016B (zh) 基于方向性共同发生特征的人体行为分类识别方法及***
CN109389055B (zh) 基于混合卷积和注意力机制的视频分类方法
Andrearczyk et al. Convolutional neural network on three orthogonal planes for dynamic texture classification
Yuan et al. Mid-level features and spatio-temporal context for activity recognition
Avgerinakis et al. Recognition of activities of daily living for smart home environments
Lu et al. A novel approach for video text detection and recognition based on a corner response feature map and transferred deep convolutional neural network
Wang et al. Object instance detection with pruned Alexnet and extended training data
CN102722712A (zh) 基于连续度的多尺度高分辨图像目标检测方法
Kobayashi et al. Three-way auto-correlation approach to motion recognition
Avgerinakis et al. Activity detection using sequential statistical boundary detection (ssbd)
CN104299003A (zh) 一种基于相似规则高斯核函数分类器的步态识别方法
CN103020614B (zh) 基于时空兴趣点检测的人体运动识别方法
Sekma et al. Human action recognition based on multi-layer fisher vector encoding method
Khelalef et al. An efficient human activity recognition technique based on deep learning
CN105469050B (zh) 基于局部时空特征描述与金字塔词汇树的视频行为识别方法
Zheng et al. Pedestrian detection based on gradient and texture feature integration
WO2013075295A1 (zh) 低分辨率视频的服装识别方法及***
CN115527269B (zh) 一种人体姿态图像智能识别方法及***
He et al. Scale space histogram of oriented gradients for human detection
CN106909883A (zh) 一种基于ros的模块化手部区域检测方法和装置
Wang et al. E3D: An efficient 3D CNN for the recognition of dairy cow's basic motion behavior
CN108509861B (zh) 一种基于样本学习和目标检测结合的目标跟踪方法和装置
Hu et al. Depth sensor based human detection for indoor surveillance
Shanthi et al. Algorithms for face recognition drones
Symeonidis et al. Neural attention-driven non-maximum suppression for person detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170301

CF01 Termination of patent right due to non-payment of annual fee