CN108376405A - 基于双体感追踪***的人体运动捕捉***及捕捉方法 - Google Patents

基于双体感追踪***的人体运动捕捉***及捕捉方法 Download PDF

Info

Publication number
CN108376405A
CN108376405A CN201810153371.1A CN201810153371A CN108376405A CN 108376405 A CN108376405 A CN 108376405A CN 201810153371 A CN201810153371 A CN 201810153371A CN 108376405 A CN108376405 A CN 108376405A
Authority
CN
China
Prior art keywords
vector
tracing
human
artis
sense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810153371.1A
Other languages
English (en)
Other versions
CN108376405B (zh
Inventor
王向东
李琪
李诗锐
李华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHINA INSTITUTE OF SPORTS SCIENCE
Original Assignee
CHINA INSTITUTE OF SPORTS SCIENCE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHINA INSTITUTE OF SPORTS SCIENCE filed Critical CHINA INSTITUTE OF SPORTS SCIENCE
Priority to CN201810153371.1A priority Critical patent/CN108376405B/zh
Publication of CN108376405A publication Critical patent/CN108376405A/zh
Application granted granted Critical
Publication of CN108376405B publication Critical patent/CN108376405B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于双体感追踪***的人体运动捕捉***及捕捉方法,所述基于双体感追踪***的人体运动捕捉***,包括两台体感追踪***、棋盘格、数据采集模块、运动分析模块。人体运动捕捉方法包括如下步骤:设备安置、标定图像采集、人体姿态采集、体感追踪***标定、体感追踪***同步、融合滤波、关节角输出。本发明的实用性强,避免了在受试者身上标记贴点的复杂操作,可直接对运动员的关节点三维坐标位置进行捕捉;设置简单,仅需要简单的标定图片采集即可完成设置;成本低,相比传统的人体运动捕捉设备的成本大大降低;针对性地对体感追踪传感器的人体姿态捕捉进行了改进,提高其人体运动捕捉的准确性与鲁棒性。

Description

基于双体感追踪***的人体运动捕捉***及捕捉方法
技术领域
本发明涉及运动影像分析领域,尤其涉及人体运行捕捉领域,具体是一种基于双体感追踪***的人体运动捕捉***及捕捉方法。
背景技术
人体运动捕捉是运动生物力学所研究的核心问题之一,准确而鲁棒的关节点位置与关节角变化是后续其他运动学分析的合理前提。现在主流的人体运动捕捉方法具有成本高昂,设置复杂和不利于推广使用等一系列缺陷,需要进一步的技术研究以解决并完善这些问题。
现阶段,常用于实验室环境的人体运动捕捉***与方法为基于红外光的带标记点的人体运动捕捉***与方法,典型代表是Vicon ***和Qualysis***。这一类***对人体动作的采集基于贴于人体表面的具有特殊反光性质的标记点,在具体生物力学实验之前需要在人体表面进行繁杂的贴点操作。这种贴点操作不仅耗时耗力,而且在实际的训练或比赛中运动员的身体上是不被允许贴有这样的标记物的。这种人体运动捕捉的***与方法还有的一个显著缺点就是成本高昂,全套设备的价格在百万左右,不利于推广,不利于携带,不利于在比赛现场进行使用。
Kinect是微软发明的用于人体姿态捕捉的具有深度相机的体感追踪***,其主要用途为体感游戏中的动作采集。Kinect2.0是微软于2014年推出的Kinect第二代产品,它的深度相机采用的是光飞跃技术,有效识别范围为相机前0.5m-4.5m,相机分辨率为 512*424,相机频率为30Hz,人体姿态的获取原理为基于采集到的深度图对人体深度图进行分类,分析出人体的不同部分进而得到关节点的具***置。将Kinect直接用于人体运动捕捉其精度一般难以达到要求,特别是在人体不面对Kinect或者有较多自遮挡动作时, Kinect就难以判断某些坐标点的具***置,进而影响到整个人体姿态的识别。
发明内容
本发明的目的是提供一种精确性和鲁棒性较高的基于双体感追踪***的人体运动捕捉***及捕捉方法。
实现上述发明目的,本发明的技术方案是:一种基于双体感追踪***的人体运动捕捉***,包括两台用以采集人体姿态与图像信息的体感追踪***,及将其连接于台式机的适配器;一块由黑白两色塑胶格板交错排列的棋盘格;数据采集模块;运动分析模块;
所述数据采集模块包括标定图像采集模块,采集用于标定的带有棋盘格的图像;人体姿态采集模块,采集运动过程中各体感追踪***坐标系内人体关节点随时间变化的具***置;
所述运动分析模块包括用以相机姿态标定的体感追踪***标定模块;用以对两台体感追踪***的时间流进行同步的体感追踪***同步模块;用以对两台体感追踪***采集的人体关节点进行数据融合与卡尔曼滤波平滑的融合滤波模块;用以基于稳定后的人体关节点位置输出各关节角度随时间的变化曲线的关节角输出模块。
一种基于双体感追踪***的人体运动捕捉方法,包括如下步骤:
步骤一,将两台体感追踪***分别通过三脚架放置于可拍摄到全部人体的合理位置,并通过适配器连接至台式机;
步骤二,标定图像采集模块采集棋盘格图像;
步骤三,人体姿态采集模块分别采集一个人体在运动过程中各关节点在两台体感追踪***的坐标系内随时间变化的三维坐标位置;
步骤四,体感追踪***标定模块基于采集的棋盘格图像进行体感追踪***姿态标定,并将两台体感追踪***内的人体关节点三维坐标位置进行空间转换至一个坐标系内;
步骤五,体感追踪***同步模块基于两台体感追踪***采集人体关节点时记录的***时间对两台体感追踪***的时间流进行同步;
步骤六,融合滤波模块对步骤四、步骤五中得到的经空间转换和时间融合后的人体关节点坐标位置进行数据融合与卡尔曼滤波平滑;
步骤七,关节点输出模块将步骤六得到的稳定的人体关节点坐标位置进行计算并输出各关节角度随时间的变化曲线。
进一步,所述步骤二中标定图像采集模块采集棋盘格图像的具体步骤包括:
步骤二-1,实验人I手持塑胶板棋盘格放于胸前,站于两台体感追踪***前,标定图像采集模块获取两台体感追踪***拍摄的带有完整棋盘格的图像,并进行存储;
步骤二-2,实验人I更换塑胶板棋盘格的在三维空间中的摆放朝向,重复步骤二-1,直至采集15至20副的两个视角下带有全部棋盘格的图像。
进一步,所述步骤三具体包括:
步骤三-1,两台体感追踪***开机预热十分钟,避免两台体感追踪***相互干扰;
步骤三-2,受试者站于两台体感追踪***拍摄画面的靠中位置,张开双臂完成两台体感追踪***对人体的识别,人体姿态采集模块采集画面中受试者及其人体关节点的棍图;
步骤三-3,分别将两台体感追踪***得到的棍图中关节点三维坐标位置进行记录保存;
步骤三-4,两组关节点三维坐标位置均按***时间,当前帧数,受试者 ID,左右肩、肘、腕、髋、膝、踝、颈、头部的三维坐标进行整理统计,并将两组数据各自记录到两个的文本文件。
进一步,所述步骤四具体包括:
步骤四-1,使用数学软件基于采集到的棋盘格图像进行体感追踪***的相机姿态标定,求得旋转矩阵和平移向量,利用棋盘格标定法进行分析;
步骤四-2,对其中一台体感追踪***得到的三维坐标位置进行坐标转换,转换公式为:
ptr′=R(ptr-T) (式1)
式1中R表示旋转矩阵,T表示平移向量,ptr表示原相机坐标系下的关节点三维坐标向量,ptr’表示转换后的关节点三维坐标向量;经上述转换,两台体感追踪***采集的人体关节点坐标空间转换至同一坐标系。
进一步,所述步骤五具体包括:
步骤五-1,基于一段完整运动过程的帧数应有的连续性对采集的人体关节点三维坐标数据进行分段,若后帧与前帧差距为20帧即可认为是两段运动过程;
步骤五-2,对两台体感追踪***的对应数据分段进行预处理,若两个数据分段的长度和起终点的帧数都一致,则被认为是有效跟踪过程,接下来进行时间上的同步,若存在不一致的状况,则放弃,并对下一组对应数据分段进行检测处理;
步骤五-3,基于记录的***时间对有效跟踪过程的对应数据分段进行时间同步,具体包括:
步骤五-3-1,比较两个数据分段的起点的***时间,取其中的较小值为 t1,则另一个***时间为t2,t1在其数据分段中下一时间的值为tnext,则可将t1所对应的关节点三维坐标pt进行线性插值,以求取它在t2时刻的具***置,公式如下:
步骤五-3-2,逐个比较两个数据分段除起点外的其他时间,对于当前帧数相同的两个对应时间,取其中较小值为t1,则另一个时间值为t2,t2在其数据分段中下一时间的值为tprev,则可将t2所对应的关节点三维坐标pt 进行线性插值,以求取它在t1时刻的具***置,公式如下:
步骤五-3-2,插值后的两个数据分段分别在对应时刻有着对应的关节点三维坐标,即在时间上完成了同步。
进一步,所述步骤六具体包括:
步骤六-1,基于一段完整运动过程的帧数应有的连续性对采集的人体关节点三维坐标数据进行分段,提取经过空间转换与时间同步后的对应的运动过程;
步骤六-2,对于需要融合的人体关节点三维坐标数据进行初始化,初始化方法为两个对应数据分段起始关节点三维坐标简单的算术平均值,分别初始化第一个时刻点和第二个时刻点,并基于两个时刻的时间差计算初始速度,每一时刻估计的关节点坐标位置和关节点速度用于对未来的关节点位置进行预测;
步骤六-3,基于卡尔曼滤波方法对两个对应数据分段人体关节点三维坐标位置进行融合与滤波,具体包括:
步骤六-3-1,从第三个时刻点开始,基于前一时刻融合后的关节点坐标位置和关节点速度对当前关节点位置进行预测,预测公式如下:
式4中,xi表示第i个时刻的关节点位置向量,ui表示第i个时刻的关节点速度向量,ti表示第i个时刻值,xi和ui的维度为42×1,由14个关节点的三维坐标排列成列向量组成;
预测状态的协方差矩阵计算为:
式5中Pi表示第i个时刻的状态协方差矩阵,Q表示转移噪声的协方差矩阵,Q设为单位矩阵;
步骤六-3-2,基于预测状态估计两台体感追踪***在当前时刻分别采集人体关节点三维坐标时测量噪声的协方差矩阵并以测量噪声协方差的逆为权重对两台体感追踪***采集的人体关节点三维坐标进行加权平均,包括以下步骤:
步骤六-3-2-1,基于预测状态估计两台体感追踪***在当前时刻分别采集人体关节点三维坐标时测量噪声向量v,估计公式表示为:
式6中,表示第k台体感追踪***在第i个时刻的关节点三维坐标的测量值向量,对测量噪声向量v的估计是基于测量值遵循分布于预测状态xhati的高斯分布的假设,当测量值预测状态越近时,其测量噪声越低,当测量值距离预测状态越远时,其测量噪声越大;
步骤六-3-2-2,对计算得到的两台体感追踪***的测量噪声向量v进行归一化处理,即向量的每一个元素除以该向量所有元素的均值;
步骤六-3-2-3,基于测量噪声向量构建测量噪声协方差矩阵,测量噪声协方差矩阵是一个对角阵,对角线上的每一个元素是测量噪声向量对应位置元素的平方值;
步骤六-3-2-4,基于测量噪声协方差矩阵对两台体感追踪***的测量值向量进行加权平均,具体公式为:
式7、式8中表示平均测量噪声协方差矩阵,表示第一台体感追踪***的测量噪声协方差矩阵的逆,表示第二台体感追踪***的测量噪声协方差矩阵的逆,表示测量值向量的平均值,表示第n台体感追踪***的测量值向量,其维度同关节点位置向量一致,由14个关节点的三维坐标排列成列向量组成;
步骤六-3-3,基于加权后的测量值向量对预测状态向量进行更新,求取当前时刻的状态向量,包括三维关节点位置向量与速度向量,具体公式为:
式9、式10、式11、式12中,Ki表示卡尔曼增益矩阵,表示平均测量噪声协方差矩阵,表示预测状态向量的协方差矩阵,表示预测的状态向量;
步骤六-3-4,根据这一时刻的计算结果和下一时刻的测量结果计算下一时刻的状态向量,重复步骤六-3-1至步骤六-3-3,直到该完整运动过程的最后一个时刻。
进一步,所述步骤七具体包括:
步骤七-1,基于一段完整运动过程的帧数应有的连续性对融合后的人体关节点三维坐标数据进行分段;
步骤七-2,基于国际运动生物力学协会对于关节角度的定义分别对对应的关节角进行计算,通过计算对应关节向量的内积完成关节角度计算,公式如下:
式13中,deg表示对应的关节角度,z1、z2表示计算特定关节角所需的关节向量,‖zi‖表示关节向量的L2范数,即关节长度;
步骤七-3,根据上步中的计算结果输出各关节角度随时间的变化曲线。
本发明的有益效果是:
(1)实用性强,避免了在受试者身上标记贴点的复杂操作,可直接对运动员的关节点三维坐标位置进行捕捉;
(2)设置简单,仅需要简单的标定图片采集即可完成设置;
(3)成本低,相比传统的人体运动捕捉设备的成本大大降低;
(4)针对性地对体感追踪传感器的人体姿态捕捉进行了改进,提高其人体运动捕捉的准确性与鲁棒性。
附图说明
图1为本发明的流程示意图;
图2为本发明的数据采集的程序流程示意图;
图3为本发明的运动分析的程序流程示意图。
具体实施方式
下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述。
一种基于双体感追踪***的人体运动捕捉***,包括两台用以采集人体姿态与图像信息的体感追踪***,及将其连接于台式机的适配器;一块由黑白两色塑胶格板交错排列的棋盘格;数据采集模块;运动分析模块;
所述数据采集模块包括标定图像采集模块,采集用于标定的带有棋盘格的图像;人体姿态采集模块,采集运动过程中各体感追踪***坐标系内人体关节点随时间变化的具***置;
所述运动分析模块包括用以相机姿态标定的体感追踪***标定模块;用以对两台体感追踪***的时间流进行同步的体感追踪***同步模块;用以对两台体感追踪***采集的人体关节点进行数据融合与卡尔曼滤波平滑的融合滤波模块;用以基于稳定后的人体关节点位置输出各关节角度随时间的变化曲线的关节角输出模块。
Kinect是微软发明的用于人体姿态捕捉的具有深度相机的体感追踪***,其主要用途为体感游戏中的动作采集。Kinect2.0是微软于2014年推出的Kinect第二代产品,它的深度相机采用的是光飞跃技术,有效识别范围为相机前0.5m-4.5m,相机分辨率为 512*424,相机最高频率为30Hz,人体姿态的获取原理为基于采集到的深度图对人体深度图进行分类,分析出人体的不同部分进而得到关节点的具***置。本发明体感追踪***采用Kinect2.0作为首选设备。
本发明的基于双Kinect2.0的人体运动捕捉方法,如图1-3所示, 包括如下步骤:
步骤一,将两台Kinect2.0分别通过三脚架放置于可拍摄到全部人体的合理位置,并通过适配器连接至台式机。
步骤二,标定图像采集模块采集棋盘格图像,具体步骤包括:
步骤二-1,实验人I手持塑胶板棋盘格放于胸前,站于两台 Kinect2.0前,标定图像采集模块获取两台Kinect2.0拍摄的带有完整棋盘格的图像,并进行存储;
步骤二-2,实验人I更换塑胶板棋盘格的在三维空间中的摆放朝向,重复步骤二-1,直至采集15至20副的两个视角下带有全部棋盘格的图像。
步骤三,人体姿态采集模块分别采集一个人体在运动过程中各关节点在两台Kinect2.0的坐标系内随时间变化的三维坐标位置,具体包括:
步骤三-1,两台Kinect2.0开机预热十分钟,避免两台Kinect2.0 相互干扰;
步骤三-2,受试者站于两台Kinect2.0拍摄画面的靠中位置,张开双臂完成两台Kinect2.0对人体的识别,人体姿态采集模块采集画面中受试者及其人体关节点的棍图;
步骤三-3,分别将两台Kinect2.0得到的棍图中关节点三维坐标位置进行记录保存;
步骤三-4,两组关节点三维坐标位置均按***时间,当前帧数,受试者ID,左右肩、肘、腕、髋、膝、踝、颈、头部的三维坐标进行整理统计,并将两组数据各自记录到两个的文本文件。
步骤四,Kinect2.0标定模块基于采集的棋盘格图像进行 Kinect2.0姿态标定,并将两台Kinect2.0内的人体关节点三维坐标位置进行空间转换至一个坐标系内,具体包括:
步骤四-1,使用数学软件基于采集到的棋盘格图像进行Kinect2.0的相机姿态标定,求得旋转矩阵和平移向量,利用棋盘格标定法进行分析;
步骤四-2,对其中一台Kinect2.0得到的三维坐标位置进行坐标转换,转换公式为:
ptr′=R(ptr-T) (式1)
式1中R表示旋转矩阵,T表示平移向量,ptr表示原相机坐标系下的关节点三维坐标向量,ptr’表示转换后的关节点三维坐标向量;经上述转换,两台Kinect2.0采集的人体关节点坐标空间转换至同一坐标系。
步骤五,Kinect2.0同步模块基于两台Kinect2.0采集人体关节点时记录的***时间对两台Kinect2.0的时间流进行同步,具体包括:
步骤五-1,基于一段完整运动过程的帧数应有的连续性对采集的人体关节点三维坐标数据进行分段,若后帧与前帧差距为20帧即可认为是两段运动过程;
步骤五-2,对两台Kinect2.0的对应数据分段进行预处理,若两个数据分段的长度和起终点的帧数都一致,则被认为是有效跟踪过程,接下来进行时间上的同步,若存在不一致的状况,则放弃,并对下一组对应数据分段进行检测处理;
步骤五-3,基于记录的***时间对有效跟踪过程的对应数据分段进行时间同步,具体包括:
步骤五-3-1,比较两个数据分段的起点的***时间,取其中的较小值为 t1,则另一个***时间为t2,t1在其数据分段中下一时间的值为tnext,则可将t1所对应的关节点三维坐标pt进行线性插值,以求取它在t2时刻的具***置,公式如下:
步骤五-3-2,逐个比较两个数据分段除起点外的其他时间,对于当前帧数相同的两个对应时间,取其中较小值为t1,则另一个时间值为t2,t2在其数据分段中下一时间的值为tprev,则可将t2所对应的关节点三维坐标pt 进行线性插值,以求取它在t1时刻的具***置,公式如下:
步骤五-3-2,插值后的两个数据分段分别在对应时刻有着对应的关节点三维坐标,即在时间上完成了同步。
步骤六,融合滤波模块对步骤四、步骤五中得到的经空间转换和时间融合后的人体关节点坐标位置进行数据融合与卡尔曼滤波平滑,具体包括:
步骤六-1,基于一段完整运动过程的帧数应有的连续性对采集的人体关节点三维坐标数据进行分段,提取经过空间转换与时间同步后的对应的运动过程;
步骤六-2,对于需要融合的人体关节点三维坐标数据进行初始化,初始化方法为两个对应数据分段起始关节点三维坐标简单的算术平均值,分别初始化第一个时刻点和第二个时刻点,并基于两个时刻的时间差计算初始速度,每一时刻估计的关节点坐标位置和关节点速度用于对未来的关节点位置进行预测;
步骤六-3,基于卡尔曼滤波方法对两个对应数据分段人体关节点三维坐标位置进行融合与滤波,具体包括:
步骤六-3-1,从第三个时刻点开始,基于前一时刻融合后的关节点坐标位置和关节点速度对当前关节点位置进行预测,预测公式如下:
式4中,xi表示第i个时刻的关节点位置向量,ui表示第i个时刻的关节点速度向量,ti表示第i个时刻值,xi和ui的维度为42×1,由14个关节点的三维坐标排列成列向量组成;
预测状态的协方差矩阵计算为:
式5中Pi表示第i个时刻的状态协方差矩阵,Q表示转移噪声的协方差矩阵,Q设为单位矩阵;
步骤六-3-2,基于预测状态估计两台Kinect2.0在当前时刻分别采集人体关节点三维坐标时测量噪声的协方差矩阵并以测量噪声协方差的逆为权重对两台Kinect2.0采集的人体关节点三维坐标进行加权平均,包括以下步骤:
步骤六-3-2-1,基于预测状态估计两台Kinect2.0在当前时刻分别采集人体关节点三维坐标时测量噪声向量v,估计公式表示为:
式6中,表示第k台Kinect2.0在第i个时刻的关节点三维坐标的测量值向量,对测量噪声向量v的估计是基于测量值遵循分布于预测状态xhati的高斯分布的假设,当测量值预测状态越近时,其测量噪声越低,当测量值距离预测状态越远时,其测量噪声越大;
步骤六-3-2-2,对计算得到的两台Kinect2.0的测量噪声向量v进行归一化处理,即向量的每一个元素除以该向量所有元素的均值;
步骤六-3-2-3,基于测量噪声向量构建测量噪声协方差矩阵,测量噪声协方差矩阵是一个对角阵,对角线上的每一个元素是测量噪声向量对应位置元素的平方值;
步骤六-3-2-4,基于测量噪声协方差矩阵对两台Kinect2.0的测量值向量进行加权平均,具体公式为:
式7、式8中表示平均测量噪声协方差矩阵,表示第一台 Kinect2.0的测量噪声协方差矩阵的逆,表示第二台Kinect2.0的测量噪声协方差矩阵的逆,表示测量值向量的平均值,表示第n台 Kinect2.0的测量值向量,其维度同关节点位置向量一致,由14个关节点的三维坐标排列成列向量组成;
步骤六-3-3,基于加权后的测量值向量对预测状态向量进行更新,求取当前时刻的状态向量,包括三维关节点位置向量与速度向量,具体公式为:
式9、式10、式11、式12中,Ki表示卡尔曼增益矩阵,表示平均测量噪声协方差矩阵,表示预测状态向量的协方差矩阵,表示预测的状态向量;
步骤六-3-4,根据这一时刻的计算结果和下一时刻的测量结果计算下一时刻的状态向量,重复步骤六-3-1至步骤六-3-3,直到该完整运动过程的最后一个时刻。
步骤七,关节点输出模块将步骤六得到的稳定的人体关节点坐标位置进行计算并输出各关节角度随时间的变化曲线,具体包括:
步骤七-1,基于一段完整运动过程的帧数应有的连续性对融合后的人体关节点三维坐标数据进行分段;
步骤七-2,基于国际运动生物力学协会对于关节角度的定义分别对对应的关节角进行计算,通过计算对应关节向量的内积完成关节角度计算,公式如下:
式13中,deg表示对应的关节角度,z1、z2表示计算特定关节角所需的关节向量,‖zi‖表示关节向量的L2范数,即关节长度;
步骤七-3,根据上步中的计算结果输出各关节角度随时间的变化曲线。
所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

Claims (8)

1.一种基于双体感追踪***的人体运动捕捉***,其特征在于,包括两台用以采集人体姿态与图像信息的体感追踪***,及将其连接于台式机的适配器;一块由黑白两色塑胶格板交错排列的棋盘格;数据采集模块;运动分析模块;
所述数据采集模块包括标定图像采集模块,采集用于标定的带有棋盘格的图像;人体姿态采集模块,采集运动过程中各体感追踪***坐标系内人体关节点随时间变化的具***置;
所述运动分析模块包括用以相机姿态标定的体感追踪***标定模块;用以对两台体感追踪***的时间流进行同步的体感追踪***同步模块;用以对两台体感追踪***采集的人体关节点进行数据融合与卡尔曼滤波平滑的融合滤波模块;用以基于稳定后的人体关节点位置输出各关节角度随时间的变化曲线的关节角输出模块。
2.一种基于双体感追踪***的人体运动捕捉方法,其特征在于,包括如下步骤:
步骤一,将两台体感追踪***分别通过三脚架放置于可拍摄到全部人体的合理位置,并通过适配器连接至台式机;
步骤二,标定图像采集模块采集棋盘格图像;
步骤三,人体姿态采集模块分别采集一个人体在运动过程中各关节点在两台体感追踪***的坐标系内随时间变化的三维坐标位置;
步骤四,体感追踪***标定模块基于采集的棋盘格图像进行体感追踪***姿态标定,并将两台体感追踪***内的人体关节点三维坐标位置进行空间转换至一个坐标系内;
步骤五,体感追踪***同步模块基于两台体感追踪***采集人体关节点时记录的***时间对两台体感追踪***的时间流进行同步;
步骤六,融合滤波模块对步骤四、步骤五中得到的经空间转换和时间融合后的人体关节点坐标位置进行数据融合与卡尔曼滤波平滑;
步骤七,关节点输出模块将步骤六得到的稳定的人体关节点坐标位置进行计算并输出各关节角度随时间的变化曲线。
3.根据权利要求2所述的基于双体感追踪***的人体运动捕捉方法,其特征在于,所述步骤二中标定图像采集模块采集棋盘格图像的具体步骤包括:
步骤二-1,实验人I手持塑胶板棋盘格放于胸前,站于两台体感追踪***前,标定图像采集模块获取两台体感追踪***拍摄的带有完整棋盘格的图像,并进行存储;
步骤二-2,实验人I更换塑胶板棋盘格的在三维空间中的摆放朝向,重复步骤二-1,直至采集15至20副的两个视角下带有全部棋盘格的图像。
4.根据权利要求2所述的基于双体感追踪***的人体运动捕捉方法,其特征在于,所述步骤三具体包括:
步骤三-1,两台体感追踪***开机预热十分钟,避免两台体感追踪***相互干扰;
步骤三-2,受试者站于两台体感追踪***拍摄画面的靠中位置,张开双臂完成两台体感追踪***对人体的识别,人体姿态采集模块采集画面中受试者及其人体关节点的棍图;
步骤三-3,分别将两台体感追踪***得到的棍图中关节点三维坐标位置进行记录保存;
步骤三-4,两组关节点三维坐标位置均按***时间,当前帧数,受试者ID,左右肩、肘、腕、髋、膝、踝、颈、头部的三维坐标进行整理统计,并将两组数据各自记录到两个的文本文件。
5.根据权利要求2所述的基于双体感追踪***的人体运动捕捉方法,其特征在于,所述步骤四具体包括:
步骤四-1,使用数学软件基于采集到的棋盘格图像进行体感追踪***的相机姿态标定,求得旋转矩阵和平移向量,利用棋盘格标定法进行分析;
步骤四-2,对其中一台体感追踪***得到的三维坐标位置进行坐标转换,转换公式为:
ptr′=R(ptr-T) (式1)
式1中R表示旋转矩阵,T表示平移向量,ptr表示原相机坐标系下的关节点三维坐标向量,ptr’表示转换后的关节点三维坐标向量;经上述转换,两台体感追踪***采集的人体关节点坐标空间转换至同一坐标系。
6.根据权利要求2所述的基于双体感追踪***的人体运动捕捉方法,其特征在于,所述步骤五具体包括:
步骤五-1,基于一段完整运动过程的帧数应有的连续性对采集的人体关节点三维坐标数据进行分段,若后帧与前帧差距为20帧即可认为是两段运动过程;
步骤五-2,对两台体感追踪***的对应数据分段进行预处理,若两个数据分段的长度和起终点的帧数都一致,则被认为是有效跟踪过程,接下来进行时间上的同步,若存在不一致的状况,则放弃,并对下一组对应数据分段进行检测处理;
步骤五-3,基于记录的***时间对有效跟踪过程的对应数据分段进行时间同步,具体包括:
步骤五-3-1,比较两个数据分段的起点的***时间,取其中的较小值为t1,则另一个***时间为t2,t1在其数据分段中下一时间的值为tnext,则可将t1所对应的关节点三维坐标pt进行线性插值,以求取它在t2时刻的具***置,公式如下:
步骤五-3-2,逐个比较两个数据分段除起点外的其他时间,对于当前帧数相同的两个对应时间,取其中较小值为t1,则另一个时间值为t2,t2在其数据分段中下一时间的值为tprev,则可将t2所对应的关节点三维坐标pt进行线性插值,以求取它在t1时刻的具***置,公式如下:
步骤五-3-2,插值后的两个数据分段分别在对应时刻有着对应的关节点三维坐标,即在时间上完成了同步。
7.根据权利要求2所述的基于双体感追踪***的人体运动捕捉方法,其特征在于,所述步骤六具体包括:
步骤六-1,基于一段完整运动过程的帧数应有的连续性对采集的人体关节点三维坐标数据进行分段,提取经过空间转换与时间同步后的对应的运动过程;
步骤六-2,对于需要融合的人体关节点三维坐标数据进行初始化,初始化方法为两个对应数据分段起始关节点三维坐标简单的算术平均值,分别初始化第一个时刻点和第二个时刻点,并基于两个时刻的时间差计算初始速度,每一时刻估计的关节点坐标位置和关节点速度用于对未来的关节点位置进行预测;
步骤六-3,基于卡尔曼滤波方法对两个对应数据分段人体关节点三维坐标位置进行融合与滤波,具体包括:
步骤六-3-1,从第三个时刻点开始,基于前一时刻融合后的关节点坐标位置和关节点速度对当前关节点位置进行预测,预测公式如下:
式4中,xi表示第i个时刻的关节点位置向量,ui表示第i个时刻的关节点速度向量,ti表示第i个时刻值,xi和ui的维度为42×1,由14个关节点的三维坐标排列成列向量组成;
预测状态的协方差矩阵计算为:
式5中Pi表示第i个时刻的状态协方差矩阵,Q表示转移噪声的协方差矩阵,Q设为单位矩阵;
步骤六-3-2,基于预测状态估计两台体感追踪***在当前时刻分别采集人体关节点三维坐标时测量噪声的协方差矩阵并以测量噪声协方差的逆为权重对两台体感追踪***采集的人体关节点三维坐标进行加权平均,包括以下步骤:
步骤六-3-2-1,基于预测状态估计两台体感追踪***在当前时刻分别采集人体关节点三维坐标时测量噪声向量v,估计公式表示为:
式6中,表示第k台体感追踪***在第i个时刻的关节点三维坐标的测量值向量,对测量噪声向量v的估计是基于测量值遵循分布于预测状态xhati的高斯分布的假设,当测量值预测状态越近时,其测量噪声越低,当测量值距离预测状态越远时,其测量噪声越大;
步骤六-3-2-2,对计算得到的两台体感追踪***的测量噪声向量v进行归一化处理,即向量的每一个元素除以该向量所有元素的均值;
步骤六-3-2-3,基于测量噪声向量构建测量噪声协方差矩阵,测量噪声协方差矩阵是一个对角阵,对角线上的每一个元素是测量噪声向量对应位置元素的平方值;
步骤六-3-2-4,基于测量噪声协方差矩阵对两台体感追踪***的测量值向量进行加权平均,具体公式为:
式7、式8中表示平均测量噪声协方差矩阵,表示第一台体感追踪***的测量噪声协方差矩阵的逆,表示第二台体感追踪***的测量噪声协方差矩阵的逆,表示测量值向量的平均值,表示第n台体感追踪***的测量值向量,其维度同关节点位置向量一致,由14个关节点的三维坐标排列成列向量组成;
步骤六-3-3,基于加权后的测量值向量对预测状态向量进行更新,求取当前时刻的状态向量,包括三维关节点位置向量与速度向量,具体公式为:
式9、式10、式11、式12中,Ki表示卡尔曼增益矩阵,表示平均测量噪声协方差矩阵,表示预测状态向量的协方差矩阵,表示预测的状态向量;
步骤六-3-4,根据这一时刻的计算结果和下一时刻的测量结果计算下一时刻的状态向量,重复步骤六-3-1至步骤六-3-3,直到该完整运动过程的最后一个时刻。
8.根据权利要求2所述的基于双体感追踪***的人体运动捕捉方法,其特征在于,所述步骤七具体包括:
步骤七-1,基于一段完整运动过程的帧数应有的连续性对融合后的人体关节点三维坐标数据进行分段;
步骤七-2,基于国际运动生物力学协会对于关节角度的定义分别对对应的关节角进行计算,通过计算对应关节向量的内积完成关节角度计算,公式如下:
式13中,deg表示对应的关节角度,z1、z2表示计算特定关节角所需的关节向量,‖zi‖表示关节向量的L2范数,即关节长度;
步骤七-3,根据上步中的计算结果输出各关节角度随时间的变化曲线。
CN201810153371.1A 2018-02-22 2018-02-22 基于双体感追踪***的人体运动捕捉***及捕捉方法 Expired - Fee Related CN108376405B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810153371.1A CN108376405B (zh) 2018-02-22 2018-02-22 基于双体感追踪***的人体运动捕捉***及捕捉方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810153371.1A CN108376405B (zh) 2018-02-22 2018-02-22 基于双体感追踪***的人体运动捕捉***及捕捉方法

Publications (2)

Publication Number Publication Date
CN108376405A true CN108376405A (zh) 2018-08-07
CN108376405B CN108376405B (zh) 2020-11-17

Family

ID=63017805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810153371.1A Expired - Fee Related CN108376405B (zh) 2018-02-22 2018-02-22 基于双体感追踪***的人体运动捕捉***及捕捉方法

Country Status (1)

Country Link
CN (1) CN108376405B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458944A (zh) * 2019-08-08 2019-11-15 西安工业大学 一种基于双视角Kinect关节点融合的人体骨架重建方法
CN110992454A (zh) * 2019-11-29 2020-04-10 南京甄视智能科技有限公司 基于深度学习的实时动作捕捉和三维动画生成方法与装置
CN111539299A (zh) * 2020-04-20 2020-08-14 上海曼恒数字技术股份有限公司 一种基于刚体的人体运动捕捉方法、装置、介质及设备
CN112581574A (zh) * 2020-12-25 2021-03-30 江苏环影动漫文化有限公司 一种人体动作捕捉***和方法
CN112891922A (zh) * 2021-03-18 2021-06-04 山东梦幻视界智能科技有限公司 一种虚拟现实体感交互方法
CN112927330A (zh) * 2021-03-17 2021-06-08 北京七维视觉传媒科技有限公司 用于生成虚拟人体图像的方法和***
TWI740659B (zh) * 2020-09-23 2021-09-21 國立臺灣科技大學 復健輔助檢測系統及方法
CN113421286A (zh) * 2021-07-12 2021-09-21 北京未来天远科技开发有限公司 一种动作捕捉***及方法
CN114494341A (zh) * 2021-12-31 2022-05-13 北京理工大学 一种融合时空约束的光学动作捕捉标记点实时补全方法
CN115389246A (zh) * 2022-10-31 2022-11-25 之江实验室 一种动作捕捉***的速度精度测量方法、***及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408760A (zh) * 2014-10-28 2015-03-11 燕山大学 一种基于双目视觉的高精度虚拟装配***算法
CN105551059A (zh) * 2015-12-08 2016-05-04 国网山西省电力公司技能培训中心 光学和惯性体感数据融合的变电仿真人体运动捕捉方法
CN107563295A (zh) * 2017-08-03 2018-01-09 中国科学院自动化研究所 基于多Kinect的全方位人体追踪方法及处理设备
CN107577451A (zh) * 2017-08-03 2018-01-12 中国科学院自动化研究所 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408760A (zh) * 2014-10-28 2015-03-11 燕山大学 一种基于双目视觉的高精度虚拟装配***算法
CN105551059A (zh) * 2015-12-08 2016-05-04 国网山西省电力公司技能培训中心 光学和惯性体感数据融合的变电仿真人体运动捕捉方法
CN107563295A (zh) * 2017-08-03 2018-01-09 中国科学院自动化研究所 基于多Kinect的全方位人体追踪方法及处理设备
CN107577451A (zh) * 2017-08-03 2018-01-12 中国科学院自动化研究所 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458944A (zh) * 2019-08-08 2019-11-15 西安工业大学 一种基于双视角Kinect关节点融合的人体骨架重建方法
CN110992454A (zh) * 2019-11-29 2020-04-10 南京甄视智能科技有限公司 基于深度学习的实时动作捕捉和三维动画生成方法与装置
CN110992454B (zh) * 2019-11-29 2020-07-17 南京甄视智能科技有限公司 基于深度学习的实时动作捕捉和三维动画生成方法与装置
CN111539299B (zh) * 2020-04-20 2024-03-01 上海曼恒数字技术股份有限公司 一种基于刚体的人体运动捕捉方法、装置、介质及设备
CN111539299A (zh) * 2020-04-20 2020-08-14 上海曼恒数字技术股份有限公司 一种基于刚体的人体运动捕捉方法、装置、介质及设备
TWI740659B (zh) * 2020-09-23 2021-09-21 國立臺灣科技大學 復健輔助檢測系統及方法
CN112581574A (zh) * 2020-12-25 2021-03-30 江苏环影动漫文化有限公司 一种人体动作捕捉***和方法
CN112927330A (zh) * 2021-03-17 2021-06-08 北京七维视觉传媒科技有限公司 用于生成虚拟人体图像的方法和***
CN112927330B (zh) * 2021-03-17 2024-04-26 北京七维视觉传媒科技有限公司 用于生成虚拟人体图像的方法和***
CN112891922A (zh) * 2021-03-18 2021-06-04 山东梦幻视界智能科技有限公司 一种虚拟现实体感交互方法
CN113421286A (zh) * 2021-07-12 2021-09-21 北京未来天远科技开发有限公司 一种动作捕捉***及方法
CN113421286B (zh) * 2021-07-12 2024-01-02 北京未来天远科技开发有限公司 一种动作捕捉***及方法
CN114494341A (zh) * 2021-12-31 2022-05-13 北京理工大学 一种融合时空约束的光学动作捕捉标记点实时补全方法
CN114494341B (zh) * 2021-12-31 2024-07-12 北京理工大学 一种融合时空约束的光学动作捕捉标记点实时补全方法
CN115389246B (zh) * 2022-10-31 2023-03-03 之江实验室 一种动作捕捉***的速度精度测量方法、***及装置
CN115389246A (zh) * 2022-10-31 2022-11-25 之江实验室 一种动作捕捉***的速度精度测量方法、***及装置

Also Published As

Publication number Publication date
CN108376405B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN108376405A (zh) 基于双体感追踪***的人体运动捕捉***及捕捉方法
Rogez et al. Mocap-guided data augmentation for 3d pose estimation in the wild
CN111881887A (zh) 基于多摄像头的运动姿态监测和指导方法及装置
Liu et al. Tracking-based 3D human skeleton extraction from stereo video camera toward an on-site safety and ergonomic analysis
Zelnik-Manor et al. Event-based analysis of video
CN110544301A (zh) 一种三维人体动作重建***、方法和动作训练***
CN103997624B (zh) 重叠域双摄像头目标跟踪***及方法
CN103839277B (zh) 一种户外大范围自然场景的移动增强现实注册方法
CN100583126C (zh) 基于快速图像配准的视角变化条件下视频前景提取方法
CN108597578A (zh) 一种基于二维骨架序列的人体运动评估方法
CN109190508A (zh) 一种基于空间坐标系的多摄像头数据融合方法
CN109344694B (zh) 一种基于三维人体骨架的人体基本动作实时识别方法
CN110544302A (zh) 基于多目视觉的人体动作重建***、方法和动作训练***
CN109758756B (zh) 基于3d相机的体操视频分析方法及***
Ning et al. People tracking based on motion model and motion constraints with automatic initialization
CN108209926A (zh) 基于深度图像的人体身高测量***
CN111012353A (zh) 一种基于人脸关键点识别的身高检测方法
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及***
CN110298279A (zh) 一种肢体康复训练辅助方法及***、介质、设备
CN110751100A (zh) 一种体育场馆辅助训练方法与***
Papic et al. Improving data acquisition speed and accuracy in sport using neural networks
CN110941996A (zh) 一种基于生成对抗网络的目标及轨迹增强现实方法和***
CN108389227A (zh) 一种基于多视图深感知器框架的三维姿势估计方法
CN115376034A (zh) 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置
CN101826155A (zh) 一种基于哈尔特征和动态时序匹配的投篮动作识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201117