CN106529441A - 基于模糊边界分片的深度动作图人体行为识别方法 - Google Patents

基于模糊边界分片的深度动作图人体行为识别方法 Download PDF

Info

Publication number
CN106529441A
CN106529441A CN201610949051.8A CN201610949051A CN106529441A CN 106529441 A CN106529441 A CN 106529441A CN 201610949051 A CN201610949051 A CN 201610949051A CN 106529441 A CN106529441 A CN 106529441A
Authority
CN
China
Prior art keywords
timeslice
sample
depth
fuzzy
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610949051.8A
Other languages
English (en)
Other versions
CN106529441B (zh
Inventor
蒋敏
金科
孔军
昝宝锋
胡珂杰
徐海洋
刘天山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huirong Electronic System Engineering Ltd
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201610949051.8A priority Critical patent/CN106529441B/zh
Publication of CN106529441A publication Critical patent/CN106529441A/zh
Application granted granted Critical
Publication of CN106529441B publication Critical patent/CN106529441B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于模糊边界分片的深度动作图人体行为识别方法。模型训练方法包括以下步骤:将视频深度图序列分片并根据模糊参数α确定分片的模糊边界;对于每一个分片后的子序列分别计算它们主视图、左视图和俯视图的深度动作图DMM;利用插值法将这些深度动作图转换为固定的尺寸并归一化;将归一化后的每个视频序列子序列的深度动作图DMM串联,获得该视频序列的特征向量;采用概率协作表示分类器R‑ProCRC对特征进行分类,最终实现人体行为识别。本发明公开的人体行为识别方法,有效捕获了时域特征的变化规律,增强了行为特征对时域差异的抗干扰能力,能够实现对人体行为的鲁棒识别。

Description

基于模糊边界分片的深度动作图人体行为识别方法
技术领域:
本发明属于机器视觉领域,特别涉及一种基于模糊边界分片的深度动作图人体行为识别方法。
背景技术:
人体行为识别技术是通过处理人体行为的视频序列,从中提取行为特征,并通过这些特征识别动作的一种技术。
在机器视觉和模式识别领域,人体行为识别现在已经成为一个非常活跃的分支。这种技术在人机交互领域有着许多潜在的应用,包括视频分析、监控***,智能机器人等。前几年,人体行为识别方向的研究主要基于彩色摄像头采集的图像帧序列[1][2].这种数据有着固有的缺陷,它们对于光照、遮挡以及复杂的背景十分敏感,影响识别精度。如今深度摄像头得到了广泛的关注,这种传感器能够提供物体的3D结构信息,包括人体的形状以及动作信息。目前提取深度的特征方法主要有两个分支:基于估计的3D骨骼点的方法[3]和基于原始深度图像的方法。但是这种关节点估算有时会出现错误,特别是对于人体部分遮挡或者背景复杂的情况。C.Chen等[4]通过计算原始深度图像的深度动作图(DMM,DepthMotion Maps),并通过PCA降维后利用像素点作为特征得到了相对较好的结果。但这种方法将所有视频帧累加在一张DMM上,丢失了动作的时间信息。
本发明针对上述人体行为识别存在的问题,提出了一种基于模糊边界分片的深度动作图的人体行为识别方法,不仅吸取了原始深度图像信息相对于骨骼信息的优点,并且使用模糊边界分片的技术对DMM进行分片,提取了动作的时间信息,对光照、遮挡、复杂背景等因素具有较高鲁棒性。
发明内容:
本发明的主要目的是提出一种基于模糊边界分片的深度动作图人体行为识别方法,捕获动作的时间信息并使用鲁棒的概率协作表示分类器R-ProCRC(RobustProbabilistic Collaborative Representation based Classifier)[5]来进行分类,提高识别精度。
为了实现上述目的,本发明提供如下技术方案,包含训练阶段和测试阶段。
基于模糊边界分片的深度动作图的人体行为识别方法训练阶段技术方案如下:
步骤一:给定人体行为视频序列的深度图样本的训练集合 其中X(k)表示第k个训练样本的深度图序列, 为第k个样本中第i帧的原始深度图像,Nk为第k个样本的总帧数;Y(k)表示第k个训练样本所属行为类别;M表示训练集中样本个数;
步骤二:将训练集中每个视频序列训练样本X(k)按时间轴直接划分为DIV个等长时间片,每个时间片长度为划分后的时间片表示为其中
步骤三:选择合适的模糊参数α,对每个时间片进行分片模糊处理;模糊时间片表示为为避免下标溢出,对于第一个时间片不做前向模糊处理,对最后一个时间片不做后向模糊处理;
步骤四:计算每个模糊时间片在三个不同投影方向的深度动作图其中v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),主视图、左视图和俯视图;至此,计算获得所有训练样本对应的深度动作图集合
步骤五:利用双三次差值法将步骤四求解获得的深度动作图调整为一个相同的尺寸,并将这些深度动作图归一化为0到1之间,归一化后的记为
步骤六:将任一训练样本X(k)对应深度动作图集合进行向量化,并将所有向量化后的序列动作图串联,完成训练样本X(k)对应的特征构建,该特征记为H(k),则所有样本的特征集合表示为{H(k)}k∈[1M]
步骤七:将步骤六得到的所有样本的输出特征{H(k)}k∈[1M]通过PCA降维,并保存所有降维后的特征
基于模糊边界分片的深度动作图的人体行为识别方法的测试阶段技术方案如下:
步骤一:给定一个人体行为视频序列的深度图样本的测试样本(TestX,TestY),其中TestX表示测试样本的深度图序列,Xi为测试样本中第i帧的原始深度图像,NT为该测试样本的总帧数;TestY表示测试样本所属行为类别;
步骤二:将测试样本TestX按时间轴直接划分为DIV个等长时间片(分片方式与训练阶段相同),每个时间片长度为划分后的时间片表示为其中
步骤三:根据训练阶段采用的模糊参数α,对每个时间片进行分片模糊处理;模糊时间片表示为为避免下标溢出,对于第一个时间片不做前向模糊处理,对最后一个时间片不做后向模糊处理;
步骤四:计算每个模糊时间片在三个不同投影方向的深度动作图DMMj,v,其中v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),主视图、左视图和俯视图;至此,计算获得测试样本TestX对应的深度动作图集合{DMMj,v}j∈[1DIV],v∈[f,s,t]
步骤五:利用双三次差值法将步骤四求解获得的测试样本深度动作图{DMMj,v}j∈[1DIV],v∈[f,s,t]调整为训练阶段同一尺寸,并根据训练阶段归一化方法,将这些深度动作图归一化为0到1之间,归一化后的DMMj,v记为
步骤六:将测试样本TestX对应的深度动作图集合进行向量化,并将所有向量化后的序列动作图串联,完成测试样本TestX对应的特征构建,该特征记为HT
步骤七:将步骤六得到的测试样本TestX的输出特征HT通过PCA降维,得到降维后的特征PCA降维方法与训练阶段一致;
步骤八:然后将降维后的输出特征送入R-ProCRC[5]分类器,获得分类输出PridY;
步骤九:比较PridY和TestY,若PridY=TestY,则识别正确,否则识别错误。
与现有的技术相比,本发明具有以下有益效果:
1、本方法采用深度数据来进行人体行为识别,相比于传统的彩***数据,深度数据能够实现对人体的高效分割,同时保存了人体的形状和结构特征,有助于提高分类精度;
2、传统的利用深度动作图DMM的特征提取方法将整个视频帧投影到一张DMM图上,丢失时间了信息。本方法提出的模糊边界分片的深度动作图人体行为识别方法,将深度图序列进行时间维度的分片,有效捕获了时域特征的变化规律;
3、针对人体行为时域差异性,本方法提出的模糊边界分片的深度动作图的人体行为识别方法,使用模糊参数α来控制分片之间的边界,使得相邻分片信息得到共享,进一步提高了特征对人体行为时域差异的鲁棒性,配合使用R-ProCRC分类器识别精度得到显著提高。
附图说明:
图1基于模糊边界分片的深度动作图的人体行为识别特征构建方法流程图;
图2模糊边界分片策略示意图;
图3深度动作图在三个视角下的投影实例图;
具体实施方式
为了更好的说明本发明的目的、具体步骤以及特点,下面结合附图,以MSRAction3D数据集为例,对本发明作进一步详细的说明:
本发明提出的模糊边界分片的深度动作图的人体行为识别方法,其中特征提取的流程图如图1所示。首先对样本进行确定边界的等量分片,然后根据参数α来确定边界的模糊程度,对于每一个分片后的视频子序列都计算它的深度动作图DMM,利用双三次差值法将所有样本的DMM固定到一个相同的尺寸,并归一化,串联向量化后得到子序列的特征,完成训练样本的输出特征的构建。
本发明提出的一种基于模糊边界分片的深度动作图的人体行为识别方法,包含训练阶段和测试阶段。
基于模糊边界分片的深度动作图的人体行为识别方法训练阶段技术方案如下:
步骤一:给定人体行为视频序列的深度图样本的训练集合 其中X(k)表示第k个训练样本的深度图序列, 为第k个样本中第i帧的原始深度图像,Nk为第k个样本的总帧数;Y(k)表示第k个训练样本所属行为类别;M表示训练集中样本个数;
步骤二:将训练集中每个视频序列训练样本X(k)按时间轴直接划分为DIV个等长时间片,每个时间片长度为划分后的时间片表示为其中
步骤三:选择合适的模糊参数α,对每个时间片进行分片模糊处理;模糊时间片表示为为避免下标溢出,对于第一个时间片不做前向模糊处理,对最后一个时间片不做后向模糊处理;
步骤四:计算每个模糊时间片在三个不同投影方向的深度动作图其中v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),主视图、左视图和俯视图;至此,计算获得所有训练样本对应的深度动作图集合
步骤五:利用双三次差值法将步骤四求解获得的深度动作图调整为一个相同的尺寸,并将这些深度动作图归一化为0到1之间,归一化后的记为
步骤六:将任一训练样本X(k)对应深度动作图集合进行向量化,并将所有向量化后的序列动作图串联,完成训练样本X(k)对应的特征构建,该特征记为H(k),则所有样本的特征集合表示为{H(k)}k∈[1M]
步骤七:将步骤六得到的所有样本的输出特征{H(k)}k∈[1M]通过PCA降维,并保存所有降维后的特征
基于模糊边界分片的深度动作图的人体行为识别方法的测试阶段技术方案如下:
步骤一:给定一个人体行为视频序列的深度图样本的测试样本(TestX,TestY),其中TestX表示测试样本的深度图序列,Xi为测试样本中第i帧的原始深度图像,NT为该测试样本的总帧数;TestY表示测试样本所属行为类别;
步骤二:将测试样本TestX按时间轴直接划分为DIV个等长时间片(分片方式与训练阶段相同),每个时间片长度为划分后的时间片表示为其中
步骤三:根据训练阶段采用的模糊参数α,对每个时间片进行分片模糊处理;模糊时间片表示为为避免下标溢出,对于第一个时间片不做前向模糊处理,对最后一个时间片不做后向模糊处理;
步骤四:计算每个模糊时间片在三个不同投影方向的深度动作图DMMj,v,其中v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),主视图、左视图和俯视图;至此,计算获得测试样本TestX对应的深度动作图集合{DMMj,v}j∈[1DIV],v∈[f,s,t]
步骤五:利用双三次差值法将步骤四求解获得的测试样本深度动作图{DMMj,v}j∈[1DIV],v∈[f,s,t]调整为训练阶段同一尺寸,并根据训练阶段归一化方法,将这些深度动作图归一化为0到1之间,归一化后的DMMj,v记为
步骤六:将测试样本TestX对应的深度动作图集合进行向量化,并将所有向量化后的序列动作图串联,完成测试样本TestX对应的特征构建,该特征记为HT
步骤七:将步骤六得到的测试样本TestX的输出特征HT通过PCA降维,得到降维后的特征PCA降维方法与训练阶段一致;
步骤八:然后将降维后的输出特征送入R-ProCRC[5]分类器,获得分类输出PridY;
步骤九:比较PridY和TestY,若PridY=TestY,则识别正确,否则识别错误。
上述技术方案中,训练阶段步骤二对视频序列进行等长时间片划分的方法中,分片数DIV的选择根据具体的人体行为样本数据集来确定最优分片数,以MSR Action3D数据集为例,DIV=3。
上述技术方案中,训练阶段步骤二对视频序列进行等长时间片划分的方法中,每个时间片长度为时间片长度采用向下取整方式;最后一个时间片若长度不足则按实际长度选取;
上述技术方案中,训练阶段步骤三对时间片的分片模糊处理中,模糊参数α的选择根据具体的人体行为样本数据集来确定最优参数,以MSR Action3D数据集为例,α=0.8。
上述技术方案中,训练阶段步骤三对时间片的分片模糊处理中,对每个样本的第一个时间片不做前向模糊处理;对每个样本的最后一个时间片不做后向模糊处理。
上述技术方案中,训练阶段步骤二和步骤三共同完成了视频序列的模糊分片处理,如图2所示,模糊参数α控制了分片之间的边界,使得相邻分片信息得到共享,进一步提高了特征对人体行为时域差异的鲁棒性。
上述技术方案中,训练阶段步骤四对各个模糊时间片在三个不同投影方向的深度动作图的计算采用视频帧绝对差叠加的方法,具体为:
对同一时间片内的视频帧做三个视觉方向的投影,获得各个视频的主视图、左视图和俯视图,接着对相邻帧的同一视角投影相减,相减后绝对值进行叠加,这样动作的轨迹就被保存了下来,具体公式如下:
其中分别表示第k个样本中的第一个时间片和最后一个时间片,v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),即主视图、左视图和俯视图;表示第k个样本中第i帧深度图的v方向投影;j∈(2,…,DIV-1),α∈(0,1);如图3所示,各投影方向的DMM图有效保存了人体行为序列的单个模糊分片在三个投影方向的轨迹信息。
上述技术方案中,训练阶段步骤五采用双三次差值法将深度动作图调整为同一尺寸,本专利采用的主视图、左视图和俯视图的尺寸分别定义为:50×25,50×40,40×20;在实际实施中,可以选择不同的插值法实现深度动作图尺寸的缩放,选择前提为尽量减少图像信息的损失。
上述技术方案中,训练阶段步骤七对步骤六计算得到的所有样本 的输出特征{H(k)}k∈[1M]通过PCA降维,具体降维后的特征维数可根据训练样本的个数而定,在本专利实施实例中,若训练样本的个数为M,则最终的特征维数为(M-20)×1。
上述技术方案中,测试阶段步骤二至步骤六采用的特征构造方法及参数与训练阶段相同。
上述技术方案中,测试阶段步骤七采对PCA对步骤六计算得到的测试样本TestX的输出特征HT降维,降维后的维数为(M-20)×1,M为训练阶段样本个数。
上述技术方案中,测试阶段步骤八使用R-ProCRC分类对步骤七获得的降维后的行为特征进行分类的具体方法为:
(1)计算最优参数
其中是降维后的训练特征,HT为测试样本特征,是属于类别c(c∈C)的所有输入特征向量的集合,‖C‖为总类别数,λ和γ是0到1之间的参数; 其中的构造方法为:首先将初始化为与字典相同尺寸的0矩阵,接着将分配到中,位置为中的相对位置,即可得到例如的值为: 是一个对角化的权重矩阵:
这里,表示第i行的所有元素,表示测试样本特征向量的第i个值;
(2)估计测试样本输出特征属于类别c的概率
测试样本输出特征属于类别c的概率估计方法如下:
对于所有样本来说都是相同的,因此上式可以简化为:
由此可以得到特征所属的类别。
为验证本发明的有效性,本发明在著名的人体行为深度信息数据库MSRAction3D、Action Pair上先后进行了实验。表1给出了两种人体行为深度信息数据库的特性。
表1:深度数据库特性描述
如表2所示,在实验中我们将MSR Action3D数据库分成三个固定的子集,。每个子集都使用3种实验方式,Test One将每个subject的第一次演示行为作为训练集,剩余的作为测试集。Test Two将每个subject的前两次演示行为作为训练集,剩余的作为测试集。Cross Test使用1,3,5,7,9这些subject的所有视频序列作为训练集,其余用做测试。实验结果见表3,可见本发明的行为识别精度在大多数情况下都优于传统的DMM方法。
表2:MSR Action3D数据库子集
表3:MSR Action3D数据库子集对比
表4显示了本发明在Action Pair数据库上的识别率以及与DMM的对比。由于Action Pair数据库行为都是存在大量动作时序相反的行为,比如“捡起”和“放下”,“起立”和“坐下”等,因此对时间信息十分敏感。传统的DMM只有50.6%的识别率,而本发明的识别率达到了97.2%。
表4:Action Pair不同算法识别率
由于本发明采用深度数据来进行人体行为识别,相比于传统的彩***数据,深度数据能够快速精准地完成人体分隔,保存人体的形状和结构特征,利于提高精度,同时使用深度动作图DMM的处理方式,相对于基于骨骼跟踪技术估计获得的骨骼点有更好的鲁棒性;传统的利用深度动作图DMM的特征提取方法将整个视频帧投影到一张DMM图上,丢失时间了信息;本方法提出的模糊边界分片的深度动作图的人体行为识别,将现有的DMM进行分片,并使用模糊参数α来控制分片之间的边界,使得相邻分片信息得到共享,也使得DMM能够更好的捕获时间信息,配合使用R-ProCRC[5]分类器可以获得卓越的识别准确率。
上面结合附图对本发明的具体实施方式做了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
参考文献
[1].Bian W,Tao D,Rui Y.Cross-domain human action recognition.[J].IEEETransactions on Systems Man&Cybernetics Part B Cybernetics A Publication ofthe IEEE Systems Man&Cybernetics Society,2012,42(2):298-307.
[2].Niebles J C,Wang H,Li F F.Unsupervised Learning of Human ActionCategories Using Spatial-Temporal Words[J].International Journal of ComputerVision,2008,79(3):299-318.
[3].Wang J,Liu Z,Wu Y,et al.Mining actionlet ensemble for actionrecognition with depth cameras[C]//IEEE Conference on Computer Vision andPattern Recognition.IEEE Computer Society,2012:1290-1297.
[4].Chen C,Liu K,Kehtarnavaz N.Real-time human action recognitionbased on depth motion maps[J].Journal of Real-Time Image Processing,2013:1-9.
[5].Sijia C,Lei Z,et al.A Probabilistic Collaborative Representationbased Approach for Pattern Classification.IEEE Trans.on Pattern Analysis andMachine Intelligence,2016.
[6].Xu H,Chen E,Liang C,et al.Spatio-Temporal Pyramid Model based ondepth maps for action recognition[C]//Mmsp2015 IEEE,International Workshop onMultimedia Signal Processing.2015。

Claims (7)

1.基于模糊边界分片的深度动作图的人体行为识别,其特征在于,包括训练阶段和测试阶段。
2.根据权利要求1所述的基于模糊边界分片的深度动作图的人体行为识别,其特征在于,训练阶段包括下列步骤:
步骤一、给定人体行为视频序列的深度图样本的训练集合 其中X(k)表示第k个训练样本的深度图序列, 为第k个样本中第i帧的原始深度图像,Nk为第k个样本的总帧数;Y(k)表示第k个训练样本所属行为类别;M表示训练集中样本个数;
步骤二、将训练集中每个视频序列训练样本X(k)按时间轴直接划分为DIV个等长时间片,每个时间片长度为划分后的时间片表示为其中
步骤三、选择合适的模糊参数α,对每个时间片进行分片模糊处理;模糊时间片表示为为避免下标溢出,对于第一个时间片不做前向模糊处理,对最后一个时间片不做后向模糊处理;
步骤四、计算每个模糊时间片在三个不同投影方向的深度动作图其中v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),主视图、左视图和俯视图;至此,计算获得所有训练样本对应的深度动作图集合
步骤五、利用双三次差值法将步骤四求解获得的深度动作图调整为一个相同的尺寸,并将这些深度动作图归一化为0到1之间,归一化后的记为
步骤六、将任一训练样本X(k)对应深度动作图集合进行向量化,并将所有向量化后的序列动作图串联,完成训练样本X(k)对应的特征构建,该特征记为H(k),则所有样本的特征集合表示为{H(k)}k∈[1 M]
步骤七、将步骤六得到的所有样本的输出特征{H(k)}k∈[1 M]通过PCA降维,并保存所有降维后的特征
3.根据权利要求1所述的基于模糊边界分片的深度动作图的人体行为识别,其特征在于,测试阶段包括下列步骤:
步骤一、给定一个人体行为视频序列的深度图样本的测试样本(TestX,TestY),其中TestX表示测试样本的深度图序列, Xi为测试样本中第i帧的原始深度图像,NT为该测试样本的总帧数;TestY表示测试样本所属行为类别;
步骤二、将测试样本TestX按时间轴直接划分为DIV个等长时间片(分片方式与训练阶段相同),每个时间片长度为划分后的时间片表示为其中
步骤三、根据训练阶段采用的模糊参数α,对每个时间片进行分片模糊处理;模糊时间片记为为避免下标溢出,对于第一个时间片不做前向模糊处理,对最后一个时间片不做后向模糊处理;;
步骤四、计算每个模糊时间片在三个不同投影方向的深度动作图DMMj,v,其中v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),主视图、左视图和俯视图;至此,计算获得测试样本TestX对应的深度动作图集合{DMMj,v}j∈[1 DIV],v∈[f,s,t]
步骤五、利用双三次差值法将步骤四求解获得的测试样本深度动作图{DMMj,v}j∈[1 DIV],v∈[f,s,t]调整为训练阶段同一尺寸,并根据训练阶段归一化方法,将这些深度动作图归一化为0到1之间,归一化后的DMMj,v记为
步骤六、将测试样本TestX对应的深度动作图集合进行向量化,并将所有向量化后的序列动作图串联,完成测试样本TestX对应的特征构建,该特征记为HT
步骤七、将步骤六得到的测试样本TestX的输出特征HT通过PCA降维,得到降维后的特征PCA降维方法与训练阶段一致;
步骤八、然后将降维后的输出特征送入R-ProCRC分类器,获得分类输出PridY;
步骤九、比较PridY和TestY,若PridY=TestY,则识别正确,否则识别错误。
4.根据权利要求2所述的训练阶段步骤二对视频序列进行等长时间片划分的方法中,每个时间片长度为时间片长度采用向下取整方式;最后一个时间片若长度不足则按实际长度选取。
5.根据权利要求2所述的训练阶段步骤三对时间片的分片模糊处理中,对每个样本的第一个时间片不做前向模糊处理;对每个样本的最后一个时间片不做后向模糊处理。
6.根据权利要求2所述的训练阶段步骤四对各个模糊时间片在三个不同投影方向的深度动作图的计算采用视频帧绝对差叠加的方法,具体为:对同一时间片内的视频帧做三个视觉方向的投影,获得各个视频的主视图、左视图和俯视图,接着对相邻帧的同一视角投影相减,相减后绝对值进行叠加,这样动作的轨迹就被保存了下来,具体公式如下:
其中分别表示第k个样本中的第一个时间片和最后一个时间片,v∈{f,s,t}分别表示视频序列投影的三视图(三个方向),即主视图、左视图和俯视图;表示第k个样本中第i帧深度图的v方向投影;j∈(2,…,DIV-1),α∈(0,1);各投影方向的DMM图有效保存了人体行为序列的单个模糊分片在三个投影方向的轨迹信息。
7.根据权利要求3所述的测试阶段步骤八使用R-ProCRC分类对测试步骤七获得的降维后的行为特征进行分类的具体方法为:
(1)计算最优参数
其中是降维后的训练特征,HT为测试样本特征,是属于类别c(c∈C)的所有输入特征向量的集合,‖C‖为总类别数,λ和γ是0到1之间的参数;其中的构造方法为:首先将初始化为与字典相同尺寸的0矩阵,接着将分配到中,位置为中的相对位置,即可得到例如的值为: 是一个对角化的权重矩阵:
这里,表示第i行的所有元素,表示测试样本特征向量的第i个值;
(2)估计测试样本输出特征属于类别c的概率
测试样本输出特征属于类别c的概率估计方法如下:
对于所有样本来说都是相同的,因此上式可以简化为:
由此可以得到特征所属的类别。
CN201610949051.8A 2016-10-26 2016-10-26 基于模糊边界分片的深度动作图人体行为识别方法 Active CN106529441B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610949051.8A CN106529441B (zh) 2016-10-26 2016-10-26 基于模糊边界分片的深度动作图人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610949051.8A CN106529441B (zh) 2016-10-26 2016-10-26 基于模糊边界分片的深度动作图人体行为识别方法

Publications (2)

Publication Number Publication Date
CN106529441A true CN106529441A (zh) 2017-03-22
CN106529441B CN106529441B (zh) 2019-04-05

Family

ID=58292902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610949051.8A Active CN106529441B (zh) 2016-10-26 2016-10-26 基于模糊边界分片的深度动作图人体行为识别方法

Country Status (1)

Country Link
CN (1) CN106529441B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038420A (zh) * 2017-11-21 2018-05-15 华中科技大学 一种基于深度视频的人体行为识别方法
CN108564043A (zh) * 2018-04-17 2018-09-21 中国民航大学 一种基于时空分布图的人体行为识别方法
CN108573231A (zh) * 2018-04-17 2018-09-25 中国民航大学 基于运动历史点云生成的深度运动图的人体行为识别方法
CN109670401A (zh) * 2018-11-15 2019-04-23 天津大学 一种基于骨骼运动图的动作识别方法
CN111950320A (zh) * 2019-05-14 2020-11-17 四川大学 一种基于相对总变差和概率协同表示的虹膜识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100034462A1 (en) * 2008-06-16 2010-02-11 University Of Southern California Automated Single Viewpoint Human Action Recognition by Matching Linked Sequences of Key Poses
CN104598890A (zh) * 2015-01-30 2015-05-06 南京邮电大学 一种基于rgb-d视频的人体行为识别方法
CN105912991A (zh) * 2016-04-05 2016-08-31 湖南大学 基于3d点云与关键骨骼节点的行为识别

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100034462A1 (en) * 2008-06-16 2010-02-11 University Of Southern California Automated Single Viewpoint Human Action Recognition by Matching Linked Sequences of Key Poses
CN104598890A (zh) * 2015-01-30 2015-05-06 南京邮电大学 一种基于rgb-d视频的人体行为识别方法
CN105912991A (zh) * 2016-04-05 2016-08-31 湖南大学 基于3d点云与关键骨骼节点的行为识别

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHEN CHEN ; ROOZBEH JAFARI ; NASSER KEHTARNAVAZ: "UTD-MHAD: A multimodal dataset for human action recognition utilizing a depth camera and a wearable inertial sensor", 《2015 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 *
CHRISTIAN SCHULDT;IVAN LAPTEV;BARBARA CAPUTO: "Recognizing Human Actions: A Local SVM Approach", 《ICPR "04 PROCEEDINGS OF THE PATTERN RECOGNITION, 17TH INTERNATIONAL CONFERENCE ON (ICPR"04) VOLUME 3》 *
VENNILA MEGAVANNAN ; BHUVNESH AGARWAL ; R. VENKATESH BABU: "Human action recognition using depth maps", 《2012 INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING AND COMMUNICATIONS》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038420A (zh) * 2017-11-21 2018-05-15 华中科技大学 一种基于深度视频的人体行为识别方法
CN108564043A (zh) * 2018-04-17 2018-09-21 中国民航大学 一种基于时空分布图的人体行为识别方法
CN108573231A (zh) * 2018-04-17 2018-09-25 中国民航大学 基于运动历史点云生成的深度运动图的人体行为识别方法
CN108573231B (zh) * 2018-04-17 2021-08-31 中国民航大学 基于运动历史点云生成的深度运动图的人体行为识别方法
CN108564043B (zh) * 2018-04-17 2021-08-31 中国民航大学 一种基于时空分布图的人体行为识别方法
CN109670401A (zh) * 2018-11-15 2019-04-23 天津大学 一种基于骨骼运动图的动作识别方法
CN109670401B (zh) * 2018-11-15 2022-09-20 天津大学 一种基于骨骼运动图的动作识别方法
CN111950320A (zh) * 2019-05-14 2020-11-17 四川大学 一种基于相对总变差和概率协同表示的虹膜识别方法

Also Published As

Publication number Publication date
CN106529441B (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN108492319B (zh) 基于深度全卷积神经网络的运动目标检测方法
US20220092882A1 (en) Living body detection method based on facial recognition, and electronic device and storage medium
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
CN105069472B (zh) 一种基于卷积神经网络自适应的车辆检测方法
CN104268583B (zh) 基于颜色区域特征的行人重识别方法及***
CN104933414B (zh) 一种基于wld-top的活体人脸检测方法
CN109410168B (zh) 用于确定图像中的子图块类别的卷积神经网络的建模方法
CN108280397B (zh) 基于深度卷积神经网络的人体图像头发检测方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN113240691A (zh) 一种基于u型网络的医学图像分割方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN110032932B (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN109685045A (zh) 一种运动目标视频跟踪方法及***
CN111027377B (zh) 一种双流神经网络时序动作定位方法
CN104835182A (zh) 摄像机上实现动态目标实时跟踪的方法
CN110827304B (zh) 一种基于深度卷积网络与水平集方法的中医舌像定位方法和***
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及***
CN102194108A (zh) 一种聚类线性鉴别分析特征选择的笑脸表情识别方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN107808376A (zh) 一种基于深度学习的举手检测方法
CN104517095A (zh) 一种基于深度图像的人头分割方法
CN106295532A (zh) 一种视频图像中的人体动作识别方法
CN107230219A (zh) 一种单目机器人上的目标人发现与跟随方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221114

Address after: 201613 Room 302, 3 building, 299 Zhong Chen Road, Songjiang District, Shanghai.

Patentee after: HUIRONG ELECTRONIC SYSTEM ENGINEERING LTD.

Address before: No. 1800 road 214122 Jiangsu Lihu Binhu District City of Wuxi Province

Patentee before: Jiangnan University

TR01 Transfer of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Human behavior recognition method based on fuzzy boundary segmentation in deep action maps

Effective date of registration: 20230705

Granted publication date: 20190405

Pledgee: Agricultural Bank of China Limited Shanghai Songjiang Sub-branch

Pledgor: HUIRONG ELECTRONIC SYSTEM ENGINEERING LTD.

Registration number: Y2023980047238

PE01 Entry into force of the registration of the contract for pledge of patent right