CN107301370B - 一种基于Kinect三维骨架模型的肢体动作识别方法 - Google Patents

一种基于Kinect三维骨架模型的肢体动作识别方法 Download PDF

Info

Publication number
CN107301370B
CN107301370B CN201710315125.7A CN201710315125A CN107301370B CN 107301370 B CN107301370 B CN 107301370B CN 201710315125 A CN201710315125 A CN 201710315125A CN 107301370 B CN107301370 B CN 107301370B
Authority
CN
China
Prior art keywords
data
skeleton
joint
limb
kinect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710315125.7A
Other languages
English (en)
Other versions
CN107301370A (zh
Inventor
马世伟
芮玲
王建国
陈光化
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201710315125.7A priority Critical patent/CN107301370B/zh
Publication of CN107301370A publication Critical patent/CN107301370A/zh
Application granted granted Critical
Publication of CN107301370B publication Critical patent/CN107301370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于Kinect三维骨架模型的肢体动作识别方法,利用Kinect摄像头采集肢体动作的骨架数据流,包含了人体骨架关节点在三维空间中的坐标信息,对骨架数据流中的数据进行预处理,提取骨架关节角描述符作为肢体动作的特征数据,将特征数据分类并采用随机森林分离器进行肢体动作识别。本发明采用Kinect采集肢体运动的三维骨架数据,不受环境和光照的影响,利用Kinect骨架追踪的特点,解决了部分自遮挡的问题;采用数据预处理使得特征具有尺度不变性、平移不变性和视角无关性;采用关节角描述符特征,通过选取主要关节点去除了动作描述中的冗余数据,可以有效降低数据维度,使得特征提取更为有效。

Description

一种基于Kinect三维骨架模型的肢体动作识别方法
技术领域
本发明涉及视频图像中人体动作特征提取和分类技术领域,具体涉及一种基于Kinect三维骨架模型的肢体动作识别方法。
背景技术
基于计算机视觉和图像处理的人体肢体动作特征提取和分类技术,通常利用摄像头及传感器捕获的人体运动信息,通过动作特征描述、特征提取和动作分类等模式识别和机器学习方法来实现。这一技术在视频监控、人机交互、运动分析、虚拟现实和机器人等领域具有广泛的应用价值。现有的人体动作数据获取手段有两大类:一是通过可穿戴设备,虽然精度较高,但是由于其价格昂贵且穿戴不便影响人的运动,其应用受到了很大限制;二是利用普通摄像头,不影响人体运动,简单易行且成本低,但是获得的二维图像容易受到光照、纹理等环境噪声的干扰,难以取得有效的动作识别效果。另外,由于人类肢体动作可以看作是高度复杂的非钢体运动,呈现出复杂的动作特征,而不同人体的体型和动作习惯等差异,也导致不同人体做同种动作也会有明显的差异,这些都造成肢体动作识别技术的复杂性。
骨架模型是基于形态学特征的表示方法,利用了人体本身的结构特性,使得特征的选取具有更明确的物理意义,动作数据维度远远小于非模型的数据维度。由于三维运动图像包含了人体在三维空间运动的信息,而且不受光照、纹理等环境因素的影响,可以为肢体动作识别方法提供了更有效的数据信息。目前流行的Kinect摄像头可以同时捕获RGB彩色图像和场景深度信息,它提供的人体三维骨架模型可以给出骨架关节点的三维空间坐标数据。因此,采用基于Kinect三维骨架模型的人类肢体动作识别技术,结合了骨架模型与三维图像数据的优势,具有更好的鲁棒性。
发明内容
本发明提出了一种基于Kinect三维骨架模型的肢体动作识别方法,用于对视频图像中人体活动时的肢体动作进行特征提取和分类识别。该方法是实现智能视频监控、人机交互、运动分析、虚拟现实和智能机器人等技术的基础。
为达到上述目的,本发明的构思是:
针对三维骨架序列动作,设计一种关节角描述符特征,串联三个投影平面的关节角描述符以有效降低数据维度。在特征提取前对原始数据进行预处理,使得特征具有尺度不变性、平移不变性和视角无关性,并使用时间金字塔模型捕获动作的时序性,使得特征能够有效描述原始动作序列的时间和空间特性。最后对提取的特征使用随机森林分类器进行分类以达到肢体动作识别的目的。
根据上述构思,本发明采用如下技术方案:
一种基于Kinect三维骨架模型的肢体动作识别方法,利用Kinect摄像头采集肢体动作的骨架数据流,包含了人体骨架关节点在三维空间中的坐标信息,对骨架数据流中的数据进行预处理,提取骨架关节角描述符作为肢体动作的特征数据,将特征数据分类并采用随机森林分离器进行肢体动作识别。
所述数据预处理包括以下三个主要步骤:
1)归一化处理:选择脊柱关节点作为参考坐标系的坐标原点Jref(xref,yref,zref),则第i个关节点的坐标归一化后为J'i(xi,yizi)=Ji(xi,yizi)-Jref(xref,yref,zref),其中,Ji(xi,yizi)为第i个关节点坐标;
2)标准化处理:对关节点坐标数据按照以下公式进行标准化处理:
Figure BDA0001288236060000021
其中,μ是均值,σ是标准差;通过计算,得到新的关节点坐标为:
Figure BDA0001288236060000022
3)旋转变换:定义连接右肩和左肩的线段所在的直线为参考坐标系中的X轴,然后计算原始X轴与新的参考坐标系中X轴之间的夹角θ,并通过下式对所有骨架关节点沿着Y轴做旋转变换,即旋转-θ角度:
Figure BDA0001288236060000023
其中,(x y z)是旋转变换前的关节点坐标,(x' y' z')是旋转变换后的关节点坐标。
所述骨架关节角特征数据提取方法包括以下四个主要步骤:
1)从预处理后的数据中筛选出主要关节点,包括对上肢动作选取左手和右手关节点作为主要关节点,对全身肢体动作选取头部、左手、右手、左脚和右脚关节点作为主要关节点;
2)将三维骨架数据分别投影到XY、YZ和ZX这三个正交的二维平面上;
3)计算主要关节点与坐标原点所构成向量与水平轴之间夹角的分布情况,并使用时间金字塔模型捕获动作的时序性,使得特征能够有效描述原始动作序列的时间和空间特性;
4)串联三个投影面的夹角分布得到基于关节角的肢体动作特征。
所述特征数据分类与肢体动作识别包括以下三个主要步骤:
1)将经过数据预处理和特征提取得到的特征数据分为训练数据和测试数据两大类;
2)采用随机森林分类器,将训练数据作为分类器的输入,对其参数进行调整,达到训练分离器的目的;
3)将测试数据输入到已训练好的分类器进行测试,得出每个肢体动作样本的类别属性,完成识别任务。
与现有技术相比,本发明具有如下突出的实质性特点和显著的进步:
本发明采用Kinect采集肢体运动的三维骨架数据,不受环境和光照的影响,利用Kinect骨架追踪的特点,解决了部分自遮挡的问题;采用数据预处理使得特征具有尺度不变性、平移不变性和视角无关性;采用关节角描述符特征,通过选取主要关节点去除了动作描述中的冗余数据,可以有效降低数据维度,使得特征提取更为有效。
附图说明
图1为基于Kinect骨架模型的肢体动作识别方法的结构框图。
图2为Kinect获取的20个人体骨架关节点示意图。
图3为一主要关节点J的关节角示意图。
图4为一个两层时间金字塔模型示意图。
具体实施方式
下面结合附图对本发明的实施方式作进一步详细描述。
如图1所示,一种基于Kinect三维骨架模型的肢体动作识别方法,具体步骤如下:
步骤1:利用Kinec摄像头采集肢体动作的骨架数据流,该数据流包括了Kinect所提供的20个人体骨架关节点的三维空间坐标,具体为:
利用Kinect摄像头采集不同身高、性别人体样本的以下动作数据:高度挥手、水平挥手、敲打、抓取、前推、高处扔、画叉、画圆、画勾、拍手、双手高度拍手、单手拳击、弯腰、前踢腿、侧踢腿、挥网球拍、发网球、挥高尔夫球杆、捡起扔。因此,该数据流包括了Kinect所提供的20个骨架关节点的三维空间坐标,如图2所示,它们分别是头、肩中心、左肩、左肘、左手腕、左手、右肩、右手、右肘、右手腕、脊柱、髋关节中心、左臀部、左膝盖、左脚踝、左脚、右臀部、右膝盖、右脚踝和右脚。此外,动作不仅限于人体正面对着Kinect摄像头的视角数据,还可以包括左右侧面的视角数据。
步骤2:对骨架数据进行归一化、标准化和旋转变换等预处理,使得该方法具有尺度不变性、平移不变性和视角无关性,具体为:
1)归一化处理。选择脊柱关节点作为参考坐标系的原点坐标Jref(xref,yref,zref),则第i个关节点坐标归一化后为:J'i(xi,yizi)=Ji(xi,yizi)-Jref(xref,yref,zref)。
2)标准化处理,公式如下:
Figure BDA0001288236060000041
其中,μ是均值,σ是标准差。通过计算,可得到新的关节点坐标:
Figure BDA0001288236060000042
3)针对不同视角情况下采集的数据,在步骤2)的基础上,对骨架数据进行旋转变换,使其全部转换为正面视角数据,使得后续的特征提取与动作分类不受视角变化的影响。定义连接右肩和左肩的线段所在的直线为参考坐标系中的x轴,然后计算原始x轴与新的参考坐标系中x轴的夹角θ,通过下式对所有骨架关节点的做旋转变换,使其沿着y轴旋转-θ角度:
Figure BDA0001288236060000043
其中,(x y z)是旋转变换前的关节点坐标,(x' y' z')是旋转变换后的关节点坐标。
步骤3:提取骨架关节角描述符作为肢体动作的特征数据,具体为:
1)根据肢体动作中各肢体运动幅度情况,选取运动幅度较大的关节点作为主要关节点,减少关节点对动作的冗余描述。例如,对上肢动作选取左手、右手关节点作为主要关节点,对全身肢体动作选取头部、左手、右手、左脚和右脚关节点作为主要关节点。
2)将主要关节点的三维坐标投影到XY、YZ和ZX这三个正交的二维平面上,计算每一个主要关节点与坐标原点所构成向量与水平轴向量的夹角,统计其分布情况,得到关节角直方图。如图3所示是一个主要关节角J在XY平面上的投影,θ为OJ与OX的夹角,即上述两向量间的夹角。
3)为了捕获所提取动作特征的时间顺序,加入两层时间金字塔模型。如图4所示是一个两层时间金字塔模型,将所有特征作为顶层特征,然后将顶层特征平均分为三份,串联这三份作为下一层特征。
4)针对每一个主要关节点计算得到三个投影平面关节角直方图,将三个平面的直方图串联,得到关于每一个主要关节点的特征描述符。
步骤4:将特征数据分类并采用随机森林分离器进行肢体动作识别,具体为:
1)将通过上述步骤得到的特征数据分为两个部分,一部分是训练数据,另一部分是测试数据。
2)将训练数据作为随机森林分类器的输入,通过训练分离器,对其参数进行调整。
3)将测试数据输入到训练好的随机森林模型进行,得出每个肢体动作样本的类别属性,完成动作识别任务。

Claims (3)

1.一种基于Kinect三维骨架模型的肢体动作识别方法,其特征在于:利用Kinect摄像头采集肢体动作的骨架数据流,包含了人体骨架关节点在三维空间中的坐标信息,对骨架数据流中的数据进行数据预处理,提取骨架关节角描述符作为肢体动作的特征数据,将特征数据分类并采用随机森林分类器进行肢体动作识别;提取骨架关节角描述符作为肢体动作的特征数据包括以下四个主要步骤:
1)从预处理后的数据中筛选出主要关节点,包括对上肢动作选取左手和右手关节点作为主要关节点,对全身肢体动作选取头部、左手、右手、左脚和右脚关节点作为主要关节点;
2)将三维骨架数据分别投影到XY、YZ和ZX这三个正交的二维平面上;
3)计算主要关节点与坐标原点所构成向量与水平轴之间夹角的分布情况,并使用时间金字塔模型捕获动作的时序性,使得特征能够有效描述原始动作序列的时间和空间特性;
4)串联三个投影面的夹角分布得到基于关节角的肢体动作特征。
2.根据权利要求1所述的基于Kinect三维骨架模型的肢体动作识别方法,其特征在于:所述数据预处理包括以下三个主要步骤:
1)归一化处理:选择脊柱关节点作为参考坐标系的坐标原点Jref(xref,yref,zref),则第i个关节点的坐标归一化为J'i(xi,yizi)=Ji(xi,yizi)-Jref(xref,yref,zref),其中,Ji(xi,yizi)为第i个关节点坐标;
2)标准化处理:对关节点坐标数据按照以下公式进行标准化处理:
Figure FDA0002571176130000011
其中,μ是均值,σ是标准差;通过计算,得到新的关节点坐标为:
Figure FDA0002571176130000012
3)旋转变换:定义连接右肩和左肩的线段所在的直线为参考坐标系中的X轴,然后计算原始X轴与新的参考坐标系中X轴之间的夹角θ,并通过下式对所有骨架关节点沿着Y轴做旋转变换,即旋转-θ角度:
Figure FDA0002571176130000021
其中,(x y z)是旋转变换前的关节点坐标,(x' y' z')是旋转变换后的关节点坐标。
3.根据权利要求1所述的基于Kinect三维骨架模型的肢体动作识别方法,其特征在于:所述将特征数据分类并采用随机森林分类器进行肢体动作识别包括以下三个主要步骤:
1)将经过数据预处理和特征提取得到的特征数据分为训练数据和测试数据两大类;
2)采用随机森林分类器,将训练数据作为分类器的输入,对其参数进行调整,达到训练分类器的目的;
3)将测试数据输入到已训练好的分类器进行测试,得出每个肢体动作样本的类别属性,完成识别任务。
CN201710315125.7A 2017-05-08 2017-05-08 一种基于Kinect三维骨架模型的肢体动作识别方法 Active CN107301370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710315125.7A CN107301370B (zh) 2017-05-08 2017-05-08 一种基于Kinect三维骨架模型的肢体动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710315125.7A CN107301370B (zh) 2017-05-08 2017-05-08 一种基于Kinect三维骨架模型的肢体动作识别方法

Publications (2)

Publication Number Publication Date
CN107301370A CN107301370A (zh) 2017-10-27
CN107301370B true CN107301370B (zh) 2020-10-16

Family

ID=60137097

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710315125.7A Active CN107301370B (zh) 2017-05-08 2017-05-08 一种基于Kinect三维骨架模型的肢体动作识别方法

Country Status (1)

Country Link
CN (1) CN107301370B (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107908288A (zh) * 2017-11-30 2018-04-13 沈阳工业大学 一种面向人机交互的快速人体动作识别方法
CN109934881B (zh) * 2017-12-19 2022-02-18 华为技术有限公司 图像编码方法、动作识别的方法及计算机设备
CN108304819B (zh) * 2018-02-12 2021-02-02 北京世纪好未来教育科技有限公司 姿态识别***及方法、存储介质
CN108717531B (zh) * 2018-05-21 2021-06-08 西安电子科技大学 基于Faster R-CNN的人体姿态估计方法
CN108764107B (zh) * 2018-05-23 2020-09-11 中国科学院自动化研究所 基于人体骨架序列的行为与身份联合识别方法及装置
CN109446871B (zh) * 2018-06-01 2024-02-09 浙江理工大学 一种基于多项式拟合的模特走秀动作评价方法
CN109086706B (zh) * 2018-07-24 2021-06-15 西北工业大学 应用于人机协作中的基于分割人体模型的动作识别方法
CN109271845A (zh) * 2018-07-31 2019-01-25 浙江理工大学 基于计算机视觉的人体动作分析与评价方法
CN109255293B (zh) * 2018-07-31 2021-07-13 浙江理工大学 基于计算机视觉的模特走秀台步评价方法
CN109241853B (zh) * 2018-08-10 2023-11-24 平安科技(深圳)有限公司 行人特征采集方法、装置、计算机设备及存储介质
CN109344694B (zh) * 2018-08-13 2022-03-22 西安理工大学 一种基于三维人体骨架的人体基本动作实时识别方法
CN109389041B (zh) * 2018-09-07 2020-12-01 南京航空航天大学 一种基于关节点特征的跌倒检测方法
CN109670401B (zh) * 2018-11-15 2022-09-20 天津大学 一种基于骨骼运动图的动作识别方法
CN109508688B (zh) * 2018-11-26 2023-10-13 平安科技(深圳)有限公司 基于骨架的行为检测方法、终端设备及计算机存储介质
CN110458944B (zh) * 2019-08-08 2023-04-07 西安工业大学 一种基于双视角Kinect关节点融合的人体骨架重建方法
CN111079535B (zh) * 2019-11-18 2022-09-16 华中科技大学 一种人体骨架动作识别方法、装置及终端
CN111242982A (zh) * 2020-01-02 2020-06-05 浙江工业大学 一种基于渐进卡尔曼滤波的人体目标跟踪方法
CN111310590B (zh) * 2020-01-20 2023-07-11 北京西米兄弟未来科技有限公司 一种动作识别方法及电子设备
CN111353447B (zh) * 2020-03-05 2023-07-04 辽宁石油化工大学 一种基于图卷积网络的人体骨架行为识别方法
CN112101273B (zh) * 2020-09-23 2022-04-29 浙江浩腾电子科技股份有限公司 一种基于2d骨架的数据预处理方法
CN112233769A (zh) * 2020-10-12 2021-01-15 安徽动感智能科技有限公司 一种基于数据采集的患后康复***
CN112270276B (zh) * 2020-11-02 2022-05-06 重庆邮电大学 一种基于Kinect与WiFi数据联合的复杂环境中的行为识别的方法
CN112733704B (zh) * 2021-01-07 2023-04-07 浙江大学 图像处理方法、电子设备和计算机可读存储介质
CN113435236A (zh) * 2021-02-20 2021-09-24 哈尔滨工业大学(威海) 居家老人姿态检测方法、***、存储介质、设备及应用
CN113011381B (zh) * 2021-04-09 2022-09-02 中国科学技术大学 基于骨骼关节数据的双人动作识别方法
CN113065505B (zh) * 2021-04-15 2023-05-09 中国标准化研究院 身体动作快速识别方法及***
US11854305B2 (en) 2021-05-09 2023-12-26 International Business Machines Corporation Skeleton-based action recognition using bi-directional spatial-temporal transformer
CN113298938A (zh) * 2021-06-23 2021-08-24 东莞市小精灵教育软件有限公司 一种辅助建模方法、***、可穿戴智能设备及vr设备
CN116168350B (zh) * 2023-04-26 2023-06-27 四川路桥华东建设有限责任公司 基于物联网实现施工人员违规行为的智能监测方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708377B (zh) * 2012-04-25 2014-06-25 中国科学院计算技术研究所 虚拟人组合任务规划方法
CN103577793B (zh) * 2012-07-27 2017-04-05 中兴通讯股份有限公司 手势识别方法及装置
CN103529944B (zh) * 2013-10-17 2016-06-15 合肥金诺数码科技股份有限公司 一种基于Kinect的人体动作识别方法
CN103886588B (zh) * 2014-02-26 2016-08-17 浙江大学 一种三维人体姿态投影的特征提取方法
IN2014MU00986A (zh) * 2014-03-24 2015-10-02 Tata Consultancy Services Ltd
CN104573665B (zh) * 2015-01-23 2017-10-17 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN104750397B (zh) * 2015-04-09 2018-06-15 重庆邮电大学 一种基于体感的虚拟矿井自然交互方法
CN106022213B (zh) * 2016-05-04 2019-06-07 北方工业大学 一种基于三维骨骼信息的人体动作识别方法

Also Published As

Publication number Publication date
CN107301370A (zh) 2017-10-27

Similar Documents

Publication Publication Date Title
CN107301370B (zh) 一种基于Kinect三维骨架模型的肢体动作识别方法
WO2021129064A1 (zh) 姿态获取方法、关键点坐标定位模型的训练方法和装置
Li et al. Joint distance maps based action recognition with convolutional neural networks
CN105809144B (zh) 一种采用动作切分的手势识别***和方法
CN105930767B (zh) 一种基于人体骨架的动作识别方法
Zhu et al. A cuboid CNN model with an attention mechanism for skeleton-based action recognition
Baraldi et al. Gesture recognition in ego-centric videos using dense trajectories and hand segmentation
CN109597485B (zh) 一种基于双指角域特征的手势交互***及其工作方法
JP4860749B2 (ja) 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法
CN110544301A (zh) 一种三维人体动作重建***、方法和动作训练***
Elforaici et al. Posture recognition using an RGB-D camera: exploring 3D body modeling and deep learning approaches
CN104200200B (zh) 融合深度信息和灰度信息实现步态识别的***及方法
CN110738154A (zh) 一种基于人体姿态估计的行人摔倒检测方法
CN105389539A (zh) 一种基于深度数据的三维手势姿态估计方法及***
JP2012518236A (ja) ジェスチャー認識のための方法及びシステム
CN104050475A (zh) 基于图像特征匹配的增强现实的***和方法
CN108573231B (zh) 基于运动历史点云生成的深度运动图的人体行为识别方法
CN109325408A (zh) 一种手势判断方法及存储介质
Chaves et al. Human body motion and gestures recognition based on checkpoints
CN101826155A (zh) 一种基于哈尔特征和动态时序匹配的投篮动作识别方法
Li et al. A novel hand gesture recognition based on high-level features
Cao et al. Human posture recognition using skeleton and depth information
CN115035546A (zh) 三维人体姿态检测方法、装置及电子设备
Tiwari et al. Sign language recognition through kinect based depth images and neural network
CN207752527U (zh) 一种机器人动态抓取***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant