CN112906438A - 人体动作行为的预测方法以及计算机设备 - Google Patents

人体动作行为的预测方法以及计算机设备 Download PDF

Info

Publication number
CN112906438A
CN112906438A CN201911224818.0A CN201911224818A CN112906438A CN 112906438 A CN112906438 A CN 112906438A CN 201911224818 A CN201911224818 A CN 201911224818A CN 112906438 A CN112906438 A CN 112906438A
Authority
CN
China
Prior art keywords
human body
characteristic
frame
behavior
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911224818.0A
Other languages
English (en)
Other versions
CN112906438B (zh
Inventor
李建军
李轲赛
刘慧婷
张宝华
张超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Science and Technology
Original Assignee
Inner Mongolia University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Science and Technology filed Critical Inner Mongolia University of Science and Technology
Priority to CN201911224818.0A priority Critical patent/CN112906438B/zh
Publication of CN112906438A publication Critical patent/CN112906438A/zh
Application granted granted Critical
Publication of CN112906438B publication Critical patent/CN112906438B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种人体动作行为的预测方法以及计算机设备,该预测方法包括:对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列;根据各帧的排序依次针对所述图像序列的多个帧的图像进行如下操作:针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值;根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对;根据比对结果确定每帧图像所属的人体动作行为类别。本发明能提高人体动作行为预测的识别精度。

Description

人体动作行为的预测方法以及计算机设备
技术领域
本发明涉及计算机视觉技术和模式识别领域,尤其涉及一种人体动作行为的预测方法以及计算机设备。
背景技术
人工智能的快速发展使计算机视觉技术在视频监控、运动检索、人机交互、智能家居以及医疗保健等众多领域得到了广泛应用。人体行为识别技术已经取得了一定的成果,能够对简单的人类行为,如行走,跑步,弯腰,挥手等动作行为进行准确的识别和分类。在动作行为检测过程中,往往希望能够快速的获得自己所需,减少不必要的时间浪费。因此,视频序列中的动作行为关键帧检索就有着重要的意义。人体动作行为的预测就是其中一个重要的基础。
人体动作行为预测就是对尚未完成整体行为的动作尽可能地推测出该动作的所属类别,较传统的人体动作识别缺少了完整动作的时序结构。Ryoo等通过改进的两种词袋模型,提取动作时序结构相关的中层特征,率先提出动作预测问题。Kong等人提出多时间尺度的概念,将视频进行固定数量的分割,对视频段逐个提取行为的动态特征,通过约束动作的时序关系完成对非完整动作的判别能力。Xu等人利用信息检索中的自动补全思想提出动作自动补全方法,将每个分割的视频段等价于一个句子的单个字符,不完整视频就构成了该语句的前缀,通过相似度进行视频中动作的预测。已知的人体动作行为预测算法识别精度较低。
发明内容
有鉴于此,本发明提供一种人体动作行为的预测方法以及计算机设备,以提高人体动作行为预测的识别精度。
一方面,本发明提供一种人体动作行为的预测方法,包括:对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列;根据各帧的排序依次针对所述图像序列的多个帧的图像进行如下操作:针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值;根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对;根据比对结果确定每帧图像所属的人体动作行为类别。
进一步地,上述针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值,包括:针对每帧图像,建立骨架模型,所述骨架模型包括上肢部分,下肢部分以及中间部分;所述上肢部分包括:左手、左肘、左肩、右手、右肘、以及右肩;所述下肢部分包括:左脚、左膝、右脚、以及右膝;所述中间部分包括胯部;
分别确定左手、左肘及左肩形成的第1个特征角度的实际值,左肘、左肩及胯部形成的第2个特征角度的实际值,右手、右肘及右肩形成的第3个特征角度的实际值,右肘、右肩及胯部形成的第4个特征角度的实际值,左脚、左膝及胯部形成的第5个特征角度的实际值,右脚、右膝及胯部形成的第6个特征角度的实际值,左膝、胯部及右膝形成的第7个特征角度的实际值;其中,所述第1个至第4个特征角度来源于所述上肢部分,所述第5个至第6个特征角度来源于所述下肢部分,第7个特征角度来源于所述中间部分。
进一步地,上述根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对,包括:依次判断第n个特征角度的实际值是否位于预定人体动作行为类别对应的第n个特征角度的基准值的预设偏差范围内,n为1-7之间的整数;对于每帧图像,统计位于特定人体动作行为的第1个至第7个特征角度的基准值的预设偏差范围内的各特征角度的数量;所述数量为所述比对结果;所述特定人体动作行为为预定人体动作行为类别中的任意一种。
进一步地,上述所述根据比对结果确定每帧图像所属的人体动作行为类别包括:若数量大于或等于5个,则将对应帧的图像所属的人体动作行为类别初步确定为所述特定人体动作行为;对于每帧图像,在未位于特定人体动作行为的各特征角度的基准值的预设偏差范围内的特征角度的数量为两个,且未位于特定人体动作行为的各特征角度的基准值的预设偏差范围内的两个特征角度分别仅来源于上肢部分,下肢部分以及中间部分中的任意一个时,则将对应帧的图像所属的人体动作行为类别最终确定为所述特定人体动作行为。
进一步地,上述所述骨架模型为左手、左肘、左肩、右手、右肘、右肩、左脚、左膝、右脚、右膝以及胯部连接的树状结构模型。
进一步地,上述所述第n个特征角度的基准值的预设偏差范围为第n个特征角度的基准值度的范围。
进一步地,上述通过如下操作得到预先训练学习得到的预定人体动作行为类别对应的多个特征角度的基准值,具体包括:输入动作行为训练学习数据集;提取所述训练学习数据集的特征信息;将所述特征信息输入支持向量机进行分类,得到各训练学习数据的动作行为类别;所述各训练学习数据的动作行为类别为预定人体动作行为类别;根据每类预定动作行为类别对应的动作行为训练学习数据确定相应预定动作行为类别的多个特征角度的基准值。
进一步地,上述对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列包括:对人体动作周期图像信息,将首位五帧融合为一帧,每间隔十帧进行采样,将采样到的五帧进行融合,得到帧数减少后的图像序列。
另一方面,本发明还提供一种计算机设备,包括处理器,所述处理器执行时实现根据上述的人体动作行为的预测方法。
又一方面,本发明还提供一种存储有计算机程序的计算机可读存储介质,当所述计算机程序在被处理器执行时实现上述的人体动作行为的预测方法。
本发明人体动作行为的预测方法以及计算机设备,通过对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列,能降低计算负担;根据各帧的排序依次针对所述图像序列的多个帧的图像进行如下操作:针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值;根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对;根据比对结果确定每帧图像所属的人体动作行为类别。通过预先训练学习得到的预定人体动作行为类别对应的多个特征角度的基准值,确定较为精确的多个特征角度的基准值,进而通过与多个特征角度的基准值的比对结果进行特征行为预测,以提高人体动作行为预测的识别精度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为根据本发明示例性第一实施例的人体动作行为的预测方法的流程图;
图2为根据本发明示例性第二实施例的人体动作行为的预测方法的流程图;
图3为图2中利用SVM分类得到各预定动作行为类别的流程图;
图4为图2中预测每帧图像所属的人体动作行为类别的流程图;
图5a及图5b分为第15帧以及第25帧的骨架细化示意图;
图6为每帧图像建立的骨架模型示意图;
图7为根据本发明示例性第三实施例的计算机设备的结构示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合;并且,基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
如图1所示,本发明一种人体动作行为的预测方法,包括:
步骤101:对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列;
步骤102:根据各帧的排序依次针对所述图像序列的多个帧的图像进行如下操作:
步骤102a:针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值;
步骤102b:根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对;
步骤102c:根据比对结果确定每帧图像所属的人体动作行为类别。
本实施例通过对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列,能降低计算负担;根据各帧的排序依次针对所述图像序列的多个帧的图像进行如下操作:针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值;根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对;根据比对结果确定每帧图像所属的人体动作行为类别。通过预先训练学习得到的预定人体动作行为类别对应的多个特征角度的基准值,确定较为精确的多个特征角度的基准值,进而通过与多个特征角度的基准值的比对结果进行特征行为预测,以提高人体动作行为预测的识别精度。
图2提供了本发明一种人体动作行为的预测方法优选的实施方式,本实施例主要包括两大流程,第一流程是通过预先训练学习得到的预定人体动作行为类别对应的多个特征角度的基准值,具体步骤对应于图2的步骤21-步骤32;第二流程是根据多个特征角度的基准值,对于待预测的图像信息进行具体识别的流程。结合图2-图6所示,本发明实施例另一种人体动作行为的预测方法,包括:
首先,结合SVM,建模得到预定人体动作行为类别对应的多个特征角度的基准值。本实施例先通过SVM从大量公开的动作行为数据集中进行人类日常动作行为的识别,即可得到预定人体动作行为类别。由于SVM对各种人类日常动作行为识别的精度较高,根据SVM的识别结果,即可以对每类预定人体动作行为类别进行特征建模,得到预定人体动作行为类别对应的多个特征角度的基准值。
根据SVM识别预定人体动作行为类别的流程具体详见步骤21-步骤24,也可以参见图3所示流程中的步骤301-步骤304;
步骤21:输入人体动作周期图像信息,该人体动作周期图像信息包括但不限于视频;
步骤22:预处理,比如滤波及去噪等信号常规处理,在此不在展开;
步骤23:对人体动作周期图像信息提取特征信息;具体可以利用HOG(方向梯度直方图,Histogram of Oriented Gradient)方法对动作行为进行特征提取,分别计算图像中像素点的水平方向梯度和垂直方向梯度,求出梯度幅值和梯度方向,利用直方图进行特征提取。如图像中像素点(x,y)的水平方向梯度、垂直方向梯度分别为:
Dx(x,y)=H(x+1,y)-H(x-1,y);
Dy(x,y)=H(x,y+1)-H(x,y-1);
其中,H(x,y)是输入图像中像素点在(x,y)点的像素值;像素点(x,y)处的梯度幅值和梯度方向分别是:
Figure BDA0002301886500000061
α(x,y)=tan-1(Gy(x,y)/Gx(x,y));
步骤24:将所述特征信息输入支持向量机SVM,进行动作行为分类,得到所述预定动作行为类别的分类结果。
SVM的本质是将最大几何间隔化的问题转化成一个凸函数进行数学求解优化,本实施例使用多个二分类器构造多分类的方法实现人体多种动作行为的分类。SVM在KTH和Weizmann两个动作行为数据集中的识别结果:
Figure BDA0002301886500000062
步骤25:对分类正确的动作行为序列进行分帧提取;
考虑到动作训练由于高速采集的原因,往往存在数据冗余现象,本实施例优选采用采样分帧的处理方法重新规整动作序列,减少后续工作的运算量,降低过程的复杂度。可以将首位五帧融合为一帧,每间隔十帧进行采样,将采样到的五帧进行融合,最终将行为动作序列分割为帧数较少的图像序列;例如,将一类动作行为视频分割为750帧的动作序列,按每15帧为一单元进行分割为50个基本单元,分别对每一个基本单元的前5帧进行采样,并将其融合为1帧图像,依次类推,规整后的序列为一个包含50帧图像的新序列。
步骤26:对图像中的人体外观模型(如图5a及图5b所示的模型,其中图5a及图5b中的左图为二维图像,右图为图像骨架)进行骨架细化处理(如图6所示);
考虑到人体是一个非刚性的结构,对于动作行为的执行,最显著的动作特征主要集中在人体四肢的运动,动作执行过程中,人体四肢运动的角度也随着时间进行变化,同时不同的角度变化之间还具有一定的关联性,比如跑步时膝盖的弯曲角度与手部和肩膀处的角度就有一定的关联性;手部和肩膀处的角度与手肘的弯曲角度也有一定的关联性等。所以本实施例提取人体四肢角度变化作为主要的角度特征。具体地,如图6所示,可以将骨架细化的图像,按照图形结构将人体骨架分为三部分:上肢部分,下肢部分以及中间部分,上肢部分包括:左手、左肘、左肩、右手、右肘、右肩;下肢部分包括:左脚、左膝、右脚、右膝;中间部分为胯部;
步骤27:计算特征角度,实现建模;
首先,进行独立关节点角度特征角度提取,具体分为左手-左肘-左肩,左肘-左肩-胯部,右手-右肘-右肩,右肘-右肩-胯部;左脚-左膝-胯部,右脚-右膝-胯部;左膝-胯部-右膝七个特征角度;
其次,设定特征角度的阈值范围,建立该类动作行为的人体骨架角度特征模型,依次建立多种动作行为的角度特征模型;
经过大量试验,得出选取特征角度的阈值设定以及误差允许的范围,误差大小选取偏差为5℃最佳。如跑的动作行为特征角度阈值设定及允许误差具体如下:
Figure BDA0002301886500000071
在通过上述步骤21-步骤27建模得到各动作行为的特征角度的基准值之后,对于各个待测试数据通过以下步骤28-210计算各帧图像的特征角度的大小,其中步骤28-步骤30基本对应步骤25-207的处理。步骤28-步骤31的流程可以参见图4的详细流程。
步骤28:对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列;
步骤29:针对每帧图像建立骨架模型(细化处理);所述骨架模型包括上肢部分,下肢部分以及中间部分;所述上肢部分包括:左手、左肘、左肩、右手、右肘、以及右肩;所述下肢部分包括:左脚、左膝、右脚、以及右膝;所述中间部分包括胯部;
步骤30:计算特征角度大小,具体分别确定左手、左肘及左肩形成的第1个特征角度的实际值,左肘、左肩及胯部形成的第2个特征角度的实际值,右手、右肘及右肩形成的第3个特征角度的实际值,右肘、右肩及胯部形成的第4个特征角度的实际值,左脚、左膝及胯部形成的第5个特征角度的实际值,右脚、右膝及胯部形成的第6个特征角度的实际值,左膝、胯部及右膝形成的第7个特征角度的实际值;
其中,所述第1个至第4个特征角度来源于所述上肢部分,所述第5个至第6个特征角度来源于所述下肢部分,第7个特征角度来源于所述中间部分。
步骤31:根据步骤27确定的基准值,确定各特征角度的实际值于基准值之间的误差范围。即:依次判断第n个特征角度的实际值是否位于预定人体动作行为类别对应的第n个特征角度的基准值的预设偏差范围内,n为1-7之间的整数;
对于每帧图像,统计位于特定人体动作行为的第1个至第7个特征角度的基准值的预设偏差范围内的各特征角度的数量;所述数量为所述比对结果;所述特定人体动作行为为预定人体动作行为类别中的任意一种。
步骤32:根据事先设置的规则,进行动作预判,之后对下一帧图像进行相应人体动作行为的预测。
具体可以通过模板匹配的方法进行动作行为预测,具体步骤包括:第一步,粗判断,分别将提取的待测序列的角度特征和模板进行比对,如果7个特征中有5个特征处于阈值变化范围之内,则可以初步预测出该类动作行为;第二步,精细判决,分别在上肢部分,下肢部分以及中心部分三个局部部分进行角度特征匹配,如果有两个局部的角度特征处于阈值变化范围内,则该类动作行为就可以被精准预测。粗判决仅仅进行7个独立角度特征的比对,在粗判决的基础上进行精细判决,即加入局部组合的整体特征角度判决。
本实施例以跑的动作行为为例展示预判效果。首先,在动作周期内提取第10帧,第15帧,第25帧,第35帧,第45帧,第50帧的图像,接着对提取图像进行骨架细化处理得出骨架模型。图5a及图5b为关键帧骨架细化图;其中,图5a为第15帧骨架细化图,图5b为第25帧骨架细化图。提取的特征角度分别如下:
Figure BDA0002301886500000091
精细判决:即局部整体特征角度比对,本实施例共设三个局部整体:将左手-肘-左肩,左肘-左肩-中(即胯部),右手-肘-右肩,右肘-右肩-中作为一个整体,即上肢部分,进行第一个局部整体角度变化比对;将左脚-左膝-中,右脚-右膝-中作为一个整体,即下肢部分,进行第二个局部整体角度变化比对;将左膝-中-右膝作为一个整体,即中心部分,进行胯部角度变化比对。选取在精细判决中,三个局部整体角度变化均处于阈值范围内作为约束条件,符合要求即可实现该类动作行为的预判,同时也可以确定视频序列中的动作关键帧。
通过公开的动作行为数据集进行人类日常简单动作的筛选,对6类日常行为(跑、走、拍手、弯曲、挥手、向上挥手)进行实验预判,结果如下表。
Figure BDA0002301886500000092
可以看出跑与行走比其他4类行为预判效果更好,其中跑和行走的动作行为在完成的二分之一周期就可以完全判决出具体的动作行为;而拍手,弯曲,向上挥手以及挥手只可以在行为周期完成的大部分时间后,预判行为的效果才会明显。出现这种现象的原因有两个:第一,跑与行走在运动过程中比其它4类型行为肢体活动范围更大,也就是特征角度变化更明显;第二,跑和行走动作行为预判效果显著区域集中在二分之一周期时刻,是因为在动作执行完成一半的时刻,是行为动作变化最大的时刻,特征角度变化幅度最明显。
本实施例首先对选取的数据集中人体动作行为进行识别分类,采用HOG特征提取和SVM分类器的方法进行正确的动作行为分类;接着对每一类的动作行为建立骨架模型,具体步骤包括:在该类行为动作周期内进间隔帧采样,重新构建该类行为的数据集,利用骨架细化图像处理方法对图像中的目标进行处理,分别提取7个独立的角度特征,设定特征角度的变化阈值,建立骨架模型,完成模型训练;然后对待测动作行为数据集进行特征角度提取,通过独立角度和局部整体角度两次判决,达到本实施例的预判目的和动作行为关键帧的确定。本实施例提出的人体骨架模型能够以较低的特征维度有效表示人体动作姿态;同时间隔采样融合帧算法能够较好的进行冗余信息的去除,更加有效地描述关键动作,较现有方案中的逐帧提取特征的运算量较少;此外,通过二次角度特征模板匹配,能够进一步提高动作行为的分类准确率和精准的预判动作行为关键帧。
如图7所示,一种计算机设备实施例包括处理器,所述处理器执行时实现上述图1或图2所示的人体动作行为的预测方法。其中,执行图2所示的方法具体包括:
(1)选取动作行为公开数据集进行动作识别,通过HOG特征提取,SVM分类器进行动作行为的正确分类;
(2)首先对分类正确的动作行为序列进行分帧提取,本实施例采用间隔分帧的方法进行分帧处理,将首位五帧融合为一帧,每间隔十帧进行采样,将采样到的五帧进行融合,最终将行为动作序列分割为帧数较少的图像序列;
(3)接着对图像中的人体外观模型进行骨架细化处理;
(4)将骨架细化的图像,按照图形结构将人体骨架分为三部分:上肢部分,下肢部分以及中心部分,上肢部分包括:左手、左肘、左肩、右手、右肘、右肩;下肢部分包括:左脚、左膝、右脚、右膝;中间部分为胯部;
(5)独立关节点角度特征提取,具体分为左手-肘-左肩,左肘-左肩-中,右手-肘-右肩,右肘-右肩-中;左脚-左膝-中,右脚-右膝-中;左膝-中-右膝七个特征角度;
(6)设定特征角度的阈值范围,建立该类动作行为的人体骨架角度特征模型,依次建立多种动作行为的角度特征模型;
(7)利用步骤(2)至步骤(6)中的方法对测试序列进行分割和角度特征提取;
(8)通过模板匹配的方法进行动作行为预测,具体步骤包括:第一步,粗判断,分别将提取的待测序列的角度特征和模板进行比对,如果7个特征中有5个特征处于阈值变化范围之内,则可以初步预测出该类动作行为;第二步,精细判决,分别在上肢部分,下肢部分以及中心部分三个局部部分进行角度特征匹配,如果有两个局部的角度特征处于阈值变化范围内,则该类动作行为就可以被精准预测;
(9)通过动作行为的预测步骤,确定动作行为的关键帧。
本实施例可以对人类日常简单动作行为进行动作关键帧检索和行为预判分类,具有较高的分类准确度。以从视频序列中提取到的人体骨架信息为基础,通过多角度特征匹配模型,进行动作关键帧检索并对后续时刻的动作行为进行预判。
本发明还提供一种存储有计算机程序的计算机可读存储介质实施例,当所述计算机程序在被处理器执行时实现上述的人体动作行为的预测方法。
本发明存储有计算机程序的计算机可读存储介质实施例具有上述人体动作行为的预测方法实施例相应的技术效果,在此不再赘述。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种人体动作行为的预测方法,其特征在于,包括:
对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列;
根据各帧的排序依次针对所述图像序列的多个帧的图像进行如下操作:
针对每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值;
根据预先训练学习得到的多个预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对;
根据比对结果确定每帧图像所属的人体动作行为类别。
2.根据权利要求1所述的人体动作行为的预测方法,其特征在于,针对所述多个帧中每帧图像建立骨架模型,并确定所述骨架模型的多个特征角度的实际值,包括:
针对每帧图像,建立骨架模型,所述骨架模型包括上肢部分,下肢部分以及中间部分;所述上肢部分包括:左手、左肘、左肩、右手、右肘、以及右肩;所述下肢部分包括:左脚、左膝、右脚、以及右膝;所述中间部分包括胯部;
分别确定左手、左肘及左肩形成的第1个特征角度的实际值,左肘、左肩及胯部形成的第2个特征角度的实际值,右手、右肘及右肩形成的第3个特征角度的实际值,右肘、右肩及胯部形成的第4个特征角度的实际值,左脚、左膝及胯部形成的第5个特征角度的实际值,右脚、右膝及胯部形成的第6个特征角度的实际值,左膝、胯部及右膝形成的第7个特征角度的实际值;
其中,所述第1个至第4个特征角度来源于所述上肢部分,所述第5个至第6个特征角度来源于所述下肢部分,第7个特征角度来源于所述中间部分。
3.根据权利要求2所述的人体动作行为的预测方法,其特征在于,根据预先训练学习得到的预定人体动作行为类别对应的多个特征角度的基准值,将所述骨架模型的多个特征角度的实际值与预定人体动作行为类别对应的多个特征角度的基准值进行比对,包括:
依次判断第n个特征角度的实际值是否位于预定人体动作行为类别对应的第n个特征角度的基准值的预设偏差范围内,n为1-7之间的整数;
对于每帧图像,统计位于特定人体动作行为的第1个至第7个特征角度的基准值的预设偏差范围内的各特征角度的数量;所述数量为所述比对结果;所述特定人体动作行为为预定人体动作行为类别中的任意一种。
4.根据权利要求3所述的人体动作行为的预测方法,其特征在于,所述根据比对结果确定每帧图像所属的人体动作行为类别包括:
若数量大于或等于5个,则将对应帧的图像所属的人体动作行为类别初步确定为所述特定人体动作行为;
对于每帧图像,在未位于特定人体动作行为的各特征角度的基准值的预设偏差范围内的特征角度的数量为两个,且未位于特定人体动作行为的各特征角度的基准值的预设偏差范围内的两个特征角度分别仅来源于上肢部分,下肢部分以及中间部分中的任意一个时,则将对应帧的图像所属的人体动作行为类别最终确定为所述特定人体动作行为。
5.根据权利要求2-4中任一项所述的人体动作行为的预测方法,其特征在于,所述骨架模型为左手、左肘、左肩、右手、右肘、右肩、左脚、左膝、右脚、右膝以及胯部连接的树状结构模型。
6.根据权利要求3或4所述的人体动作行为的预测方法,所述第n个特征角度的基准值的预设偏差范围为第n个特征角度的基准值±5度的范围。
7.根据权利要求1-4中任一项所述的人体动作行为的预测方法,其特征在于,通过如下操作得到预先训练学习得到的预定人体动作行为类别对应的多个特征角度的基准值,具体包括:
输入动作行为训练学习数据集;
提取所述训练学习数据集的特征信息;
将所述特征信息输入支持向量机进行分类,得到各训练学习数据的动作行为类别;所述各训练学习数据的动作行为类别为预定人体动作行为类别;
根据每类预定动作行为类别对应的动作行为训练学习数据确定相应预定动作行为类别的多个特征角度的基准值。
8.根据权利要求1-4中任一项所述的人体动作行为的预测方法,对人体动作周期图像信息进行分帧采样得到帧数减少后的图像序列包括:
对人体动作周期图像信息,将首位五帧融合为一帧,每间隔十帧进行采样,将采样到的五帧进行融合,得到帧数减少后的图像序列。
9.一种计算机设备,其特征在于,包括处理器,所述处理器执行时实现根据权利要求1至8中任意一项所述的人体动作行为的预测方法。
10.一种存储有计算机程序的计算机可读存储介质,其特征在于,当所述计算机程序在被处理器执行时实现根据权利要求1至8中任意一项所述的人体动作行为的预测方法。
CN201911224818.0A 2019-12-04 2019-12-04 人体动作行为的预测方法以及计算机设备 Active CN112906438B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911224818.0A CN112906438B (zh) 2019-12-04 2019-12-04 人体动作行为的预测方法以及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911224818.0A CN112906438B (zh) 2019-12-04 2019-12-04 人体动作行为的预测方法以及计算机设备

Publications (2)

Publication Number Publication Date
CN112906438A true CN112906438A (zh) 2021-06-04
CN112906438B CN112906438B (zh) 2023-05-02

Family

ID=76104735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911224818.0A Active CN112906438B (zh) 2019-12-04 2019-12-04 人体动作行为的预测方法以及计算机设备

Country Status (1)

Country Link
CN (1) CN112906438B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080137956A1 (en) * 2006-12-06 2008-06-12 Honda Motor Co., Ltd. Fast Human Pose Estimation Using Appearance And Motion Via Multi-Dimensional Boosting Regression
CN102129551A (zh) * 2010-02-16 2011-07-20 微软公司 基于关节跳过的姿势检测
US20150036879A1 (en) * 2013-07-30 2015-02-05 Canon Kabushiki Kaisha Posture estimating apparatus, posture estimating method and storing medium
CN105320944A (zh) * 2015-10-24 2016-02-10 西安电子科技大学 一种基于人体骨架运动信息的人体行为预测方法
CN107122752A (zh) * 2017-05-05 2017-09-01 北京工业大学 一种人体动作比对方法及装置
CN108416251A (zh) * 2018-01-08 2018-08-17 中国矿业大学 基于量子遗传算法优化的高效人体动作识别方法
CN108764120A (zh) * 2018-05-24 2018-11-06 杭州师范大学 一种人体规范动作评价方法
CN109101864A (zh) * 2018-04-18 2018-12-28 长春理工大学 基于关键帧和随机森林回归的人体上半身动作识别方法
CN109409384A (zh) * 2018-09-30 2019-03-01 内蒙古科技大学 基于细粒度图像的图像识别方法、装置、介质及设备
CN110414453A (zh) * 2019-07-31 2019-11-05 电子科技大学成都学院 一种基于机器视觉的多重视角下人体动作状态监测方法
US20190362139A1 (en) * 2018-05-28 2019-11-28 Kaia Health Software GmbH Monitoring the performance of physical exercises

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080137956A1 (en) * 2006-12-06 2008-06-12 Honda Motor Co., Ltd. Fast Human Pose Estimation Using Appearance And Motion Via Multi-Dimensional Boosting Regression
CN102129551A (zh) * 2010-02-16 2011-07-20 微软公司 基于关节跳过的姿势检测
US20150036879A1 (en) * 2013-07-30 2015-02-05 Canon Kabushiki Kaisha Posture estimating apparatus, posture estimating method and storing medium
US20180068461A1 (en) * 2013-07-30 2018-03-08 Canon Kabushiki Kaisha Posture estimating apparatus, posture estimating method and storing medium
CN105320944A (zh) * 2015-10-24 2016-02-10 西安电子科技大学 一种基于人体骨架运动信息的人体行为预测方法
CN107122752A (zh) * 2017-05-05 2017-09-01 北京工业大学 一种人体动作比对方法及装置
CN108416251A (zh) * 2018-01-08 2018-08-17 中国矿业大学 基于量子遗传算法优化的高效人体动作识别方法
CN109101864A (zh) * 2018-04-18 2018-12-28 长春理工大学 基于关键帧和随机森林回归的人体上半身动作识别方法
CN108764120A (zh) * 2018-05-24 2018-11-06 杭州师范大学 一种人体规范动作评价方法
US20190362139A1 (en) * 2018-05-28 2019-11-28 Kaia Health Software GmbH Monitoring the performance of physical exercises
CN109409384A (zh) * 2018-09-30 2019-03-01 内蒙古科技大学 基于细粒度图像的图像识别方法、装置、介质及设备
CN110414453A (zh) * 2019-07-31 2019-11-05 电子科技大学成都学院 一种基于机器视觉的多重视角下人体动作状态监测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IQBAL U: "PoseTrack: Joint Multi-person Pose Estimation and", 《COMPUTERVISIONANDPATTERNRECOGNITION》 *
MYKHAYLO ANDRILUKA: "2d human pose estimation: New benchmark and state of the art analysis", 《IN COMPUTER VISION AND PATTERN》 *
毛峡等: "一种基于RGB-D特征融合的人体行为识别框架", 《计算机科学》 *
甘玲等: "人体行为分析方法的研究与仿真", 《计算机仿真》 *

Also Published As

Publication number Publication date
CN112906438B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN109657631B (zh) 人体姿态识别方法及装置
CN108764065B (zh) 一种行人重识别特征融合辅助学习的方法
Ji et al. Interactive body part contrast mining for human interaction recognition
CN103942577B (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
CN109685013B (zh) 人体姿态识别中头部关键点的检测方法及装置
WO2016110005A1 (zh) 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法
Wu et al. Metric learning based structural appearance model for robust visual tracking
CN111310668B (zh) 一种基于骨架信息的步态识别方法
CN105956560A (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN108875586B (zh) 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法
CN112131908A (zh) 基于双流网络的动作识别方法、装置、存储介质及设备
Ronchetti et al. Handshape recognition for argentinian sign language using probsom
CN112800892B (zh) 一种基于openpose的人体姿态识别方法
CN105373810B (zh) 一种用于建立动作识别模型的方法及***
CN111950321A (zh) 步态识别方法、装置、计算机设备及存储介质
Paul et al. Extraction of facial feature points using cumulative histogram
Kakadiaris et al. Show me your body: Gender classification from still images
Yang et al. Combination of manual and non-manual features for sign language recognition based on conditional random field and active appearance model
CN104573722A (zh) 基于三维点云的三维人脸种族分类装置和方法
CN112287906A (zh) 一种基于深度特征融合的模板匹配跟踪方法及***
CN108268863A (zh) 一种图像处理方法、装置和计算机存储介质
Mallis et al. From keypoints to object landmarks via self-training correspondence: A novel approach to unsupervised landmark discovery
Hasan et al. Gesture feature extraction for static gesture recognition
CN110490088A (zh) 基于区域增长法的dbscan密度聚类方法
CN112906438B (zh) 人体动作行为的预测方法以及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant