CN106295616B - 运动数据分析比对方法及装置 - Google Patents

运动数据分析比对方法及装置 Download PDF

Info

Publication number
CN106295616B
CN106295616B CN201610714829.7A CN201610714829A CN106295616B CN 106295616 B CN106295616 B CN 106295616B CN 201610714829 A CN201610714829 A CN 201610714829A CN 106295616 B CN106295616 B CN 106295616B
Authority
CN
China
Prior art keywords
segment
data
frame data
target action
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610714829.7A
Other languages
English (en)
Other versions
CN106295616A (zh
Inventor
张斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201610714829.7A priority Critical patent/CN106295616B/zh
Publication of CN106295616A publication Critical patent/CN106295616A/zh
Application granted granted Critical
Publication of CN106295616B publication Critical patent/CN106295616B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明一种运动数据分析比对方法及装置,方法包括:获得指定时间范围内目标运动者的运动数据;从目标运动者的运动数据中提取目标动作片段的运动数据;分析目标动作片段的运动数据,获得目标动作片段中不同人体部位的关键部位姿态帧数据;将目标动作片段中各部位的关键部位姿态帧数据转换为人体坐标系中的空间动作参数;将目标动作片段中各部位的部位姿态帧数据的集合作为目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段;将目标动作片段与标准动作片段各部位的部位姿态帧数据进行比对,并输出比对结果。如此,将运动数据中关键动作数据转化为计算量小且表达直观的空间动作参数进行动作的匹配,有效提高了数据匹配的效率。

Description

运动数据分析比对方法及装置
技术领域
本发明涉及数据分析领域,具体而言,涉及一种运动数据分析比对方法及装置。
背景技术
随着数字技术的不断发展与完善,运动数据的数字化理性分析成为衡量运动状态的重要标准。通过将用户运动中的动作数据与标准动作数据的比对,可以使用户清楚地了解到运动中动作姿态的不足。动作数据的比对分析被广泛运用于运动姿态矫正、个人运动锻炼分析、运动员训练数据分析、体育竞赛数据分析等领域。
运动数据的比对分析一般先是建模识别动作类型,再将标准动作与目标动作进行比对信息。传统的运动数据分析比对方法中,运动数据的提取及建模方法复杂,数据体现方式不直观,且建立标准动作与目标动作匹配关系时的计算量大,严重影响了运动数据分析比对的效率。
发明内容
为了克服现有技术中的上述不足,本发明所要解决的技术问题是提供一种体现方式直观,且分析计算量小的运动数据分析比对方法及装置。
就方法而言,本发明提供一种运动数据分析比对方法,所述方法包括:
获得指定时间范围内目标运动者的运动数据,其中,所述运动数据包括所述指定时间范围内多个时间采样点下的整体姿态帧数据,所述整体姿态帧数据包括所述目标运动者各不同部位的部位姿态帧数据及人体空间数据,所述人体空间数据包括人体转向数据及人体空间位置;
从所述目标运动者的运动数据中提取目标动作片段的运动数据;
分析所述目标动作片段的运动数据,获得所述目标动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据;
以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将目标动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数;
将目标动作片段中各部位的所述部位姿态帧数据的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段;
将所述目标动作片段与标准动作片段各部位的部位姿态帧数据进行比对,并输出比对结果。
就装置而言,本发明提供一种运动数据分析比对装置,所述装置包括:
目标运动数据获取模块,用于获得指定时间范围内目标运动者的运动数据,其中,所述运动数据包括所述指定时间范围内多个时间采样点下的整体姿态帧数据,所述整体姿态帧数据包括所述目标运动者各不同部位的部位姿态帧数据及人体空间数据,所述人体空间数据包括人体转向数据及人体空间位置;
目标动作片段提取模块,用于从所述目标运动者的运动数据中提取目标动作片段的运动数据;
目标关键姿态帧分析模块,用于分析所述目标动作片段的运动数据,获得所述目标动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据;
目标运动数据转化模块,用于以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将目标动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数;
动作匹配模块,用于将目标动作片段中各部位的所述空间动作参数的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段;
动作比对模块,用于将所述目标动作片段与标准动作片段的整体姿态帧数据进行比对,并输出比对结果。
相对于现有技术而言,本发明具有以下有益效果:
本发明一提供了一种运动数据分析比对方法及装置,通过分析提取目标运动者运动数据中的所述目标动作片段,计算获得所述目标动作片段中的所述关键部位姿态帧数据,并结合所述人体空间数据将所述关键部位姿态帧数据转化为空间动作参数。通过所述空间动作参数在预设动作标准动作库中匹配标准动作片段,并进行比对分析。如此,将运动数据中的关键动作数据转化为计算量小且表达直观的空间动作参数进行动作的匹配,有效提高了数据匹配的效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的数据处理设备结构框图;
图2为本发明实施例提供的运动数据分析比对方法流程示意图;
图3为本发明实施例提供的人体运动部位划分示意图;
图4为本发明实施例提供的欧拉角示意图;
图5为本发明实施例提供的人体空间数据参考方向示意图;
图6为本发明实施例提供的人体转向数据参考方向示意图;
图7为本发明实施例提供的人体空间参数方向示意图;
图8为本发明实施例提供的部位空间参数参考方向示意图;
图9为本发明实施例提供的差异度对比分析界面示意图;
图10为本发明实施例提供的同步率分析界面示意图;
图11为本发明实施例提供的速度对比界面示意图;
图12为本发明实施例提供的运动数据比对分析装置结构框图。
上述附图中,各附图标记对应的名称为:
数据处理设备 100
处理器 130
存储器 120
通信单元 140
运动数据分析比对装置 110
目标运动数据获取模块 111
目标动作片段提取模块 112
目标关键姿态帧分析模块 113
目标运动数据转化模块 114
动作匹配模块 115
动作比对模块 116
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
此外,术语“水平”、“竖直”、“悬垂”等术语并不表示要求部件绝对水平或悬垂,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
本实施例提供的一种运动数据分析比对方法应用于数据处理设备,本实施例中,所述数据处理设备100可以是,但不限于服务器、智能手机、个人电脑(personal computer,PC)、平板电脑、个人数字助理(personal digital assistant,PDA)、移动上网设备(mobileInternet device,MID)等。
请参照图1,图1是本实施例提供的所述数据处理设备100的方框示意图。所述数据处理设备100包括运动数据分析比对装置110、存储器120、处理器130、通信单元140。
所述存储器120、处理器130以及通信单元140各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述运动数据分析比对装置110包括至少一个可以软件或固件(firmware)的形式存储于所述存储器120中或固化在所述数据处理设备100的操作***(operating system,OS)中的软件功能模块。所述处理器130用于执行所述存储器120中存储的可执行模块,例如所述运动数据分析比对装置110所包括的软件功能模块及计算机程序等。所述通信单元140用于与其他设备进行通信,获得数据或文件,例如运动数据。
请参照图2,图2为本实施例提供的运动数据分析比对方法的流程示意图,所述方法包括以下步骤。
步骤S110,获得指定时间范围内目标运动者的运动数据,其中,所述运动数据包括所述指定时间范围内多个时间采样点下的整体姿态帧数据,所述整体姿态帧数据包括所述目标运动者各不同部位的部位姿态帧数据及人体空间数据,所述人体空间数据包括人体转向数据及人体空间位置。
在本实施例中,所述运动数据由连续一段指定时间范围内,不同时间采样点下的所述整体姿态帧数据组成,每个所述整体数据帧数据包括当前时间采样点下多个不同运动部位的所述部位姿态帧数据,所述整体姿态帧数据还包括当前时间采样点下人体空间数据,即,
整体姿态帧数据={{不同部位的所述部位姿态帧数据},人体空间数据}
具体地,请参照图3,在本实施例中,对人体的结构以骶骨为原点,分为7大系,分别为躯干系、左下肢系、右下肢系、左上肢系、右上肢系、左手指系和右手指系。具体部位编号请参照表1。
表1
具体地,在本实施例中,通过欧拉角数据表征所述部位姿态帧数据。将人体主要运动部位看作连接于两个运动关节之间的刚体,其中,在身体部位延伸方向上靠近骶骨的关节为父关节。请参照图4,以身体部位的父关节为原点建立空间坐标系,通过欧拉角中的伸展角θ、自转角φ及旋转角ψ表征该部位的当前姿态。
即,部位姿态帧数据={θttt}
本实施例中,请参照图5,定义人体标准姿态站立时坐标轴参考方向如图5。请参照表1,不同部位坐标系的坐标轴方向如表1,其中,O为该部位的父关节,即坐标系原点。X、Y、Z分别为该部位欧拉角的三个坐标轴的方向。初始角度为人体标准站姿直立时各部位的欧拉角角度,具体请参照表2。
表2
具体地,在本实施例中,通过人体转向数据(转身角ω,俯仰角ε,侧倾角ξ)及人体空间位置(x,y,z)表征所述人体空间数据,即,
人体空间数据={(ωttt),(xt,yt,zt)}
请参照图6,本实施例中,以人体标准姿态直立时骶骨为原点,定义转身角ω、俯仰角ε及侧倾角ξ的起始位置及方向如图6所示。
在体标准姿态直立的初始状态下,以面部面向方向为x轴,竖直向上为z轴,右手为y轴建立坐标系,所述人体空间位置(xt,yt,zt)表示人体在当前时间点相对于初始位置时的空间位移量,在本实施例中,将人体看作以骶骨为参考点计算所述人体空间位置(xt,yt,zt)。
在本实施例中,通过设置在各人体关节处的传感装置采集到的三轴加速度和/或三轴磁偏角数据,经卡尔曼滤波算法做消除抖动和噪声的处理后,计算初始状态和当前状态的数据获得不同人体部位的部位姿态帧数据及人体空间数据。
步骤S120,从所述目标运动者的运动数据中提取目标动作片段的运动数据。
在实际应用中,所述指定时间范围内的运动数据可能包含有目标运动者还未开始运动时的数据,而未开始运动时的所述运动数据不需要进行比对分析。故本实施例中设计从指定时间范围内的运动数据中提取出需要进行分析比对的所述目标动作片段。具体地,步骤S120可以包括以下子步骤。
比较所述目标运动者的运动数据多个整体姿态帧数据中依次连续的第一整体姿态帧数据、第二整体姿态帧数据和第三整体姿态帧数据。在所述目标运动者的运动数据多个整体姿态帧数据k(t)中,对连续三个整体姿态帧k(i-1)、k(i)及k(i+1)进行比较。
当所述第一整体姿态帧数据与所述第二整体姿态帧数据中所有对应部位的部位姿态帧数据均相同,且第二整体姿态帧数据与第三整体姿态帧数据中有任一对应部位的部位姿态帧数据不同时,将所述第二整体姿态帧数据对应的帧作为整体动作起始帧。即,若存在k(i-1)=k(i),且k(i)≠k(i+1),则将k(i)对应的帧作为所述整体动作起始帧。
比较所述目标运动者的运动数据多个整体姿态帧数据中依次连续的第四整体姿态帧数据、第五整体姿态帧数据和第六整体姿态帧数据。在所述目标运动者的运动数据多个整体姿态帧数据k(t)中,对连续三个整体姿态帧k(j-1)、k(j)及k(j+1)进行比较。
当所述第四整体姿态帧数据与所述第五整体姿态帧数据中有任一对应部位的部位姿态帧数据不同,且第五整体姿态帧数据与第六整体姿态帧数据中所有对应部位的部位姿态帧数据均相同时,将所述第五整体姿态帧数据对应的帧作为整体动作结束帧。即若存在k(j-1)≠k(j),且k(j)=k(j+1),则将k(j)对应的帧作为所述整体动作结束帧。
提取所述整体动作起始帧与整体动作结束帧之间的所述整体姿态帧数据作为所述目标动作片段的运动数据,将该目标动作片段的运动数据记录为r。
步骤S130,分析所述目标动作片段的运动数据,获得所述目标动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据。
在目标动作片段的部位姿态帧数据hn(t)中,对连续三个部位姿态帧数据hn(p-1)、hn(p)及hn(p+1)进行比较。即若存在hn(p-1)=hn(p),且hn(p)≠hn(p+1),则将hn(p)作为该部位的部位动作起始帧数据。
在目标动作片段的部位姿态帧数据hn(t)中,对连续三个部位姿态帧数据hn(q-1)、hn(q)及hn(q+1)进行比较。即若存在hn(q-1)≠hn(q),且hn(q)=hn(q+1),则将hn(q)作为该部位的部位动作结束帧数据。
将各运动部位的所述部位动作起始帧数据及部位动作结束帧数据作为该部位的所述关键部位姿态帧数据。
步骤S140,以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将目标动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数。
在本实施例中,空间动作参数包括部位空间参数及人体空间参数。
在本实施中,所述人体空间参数通过俯仰方向α、转身方向β、侧倾斜方向γ及垂直方向μ来表征。
即,人体空间参数{α,β,γ,μ},其中,
俯仰方向α∈(朝前、朝后、朝上、朝下)
转身方向β∈(朝前、朝后、朝左、朝右)
侧倾方向γ∈(朝左、朝右、朝上、朝下)
垂直方向μ∈(向上、向中、向下)
具体地,在本实施中,将所述人体空间数据通过计算转换为所述俯仰方向α、转身方向β、侧倾斜方向γ所代方向上的转动朝向,通过所述转动朝向表征人体运动中的转动情况。
请参照图7,定义人体标准站姿直立时,人体空间数据中初始的人体转向数据为(ω000),所述目标动作片段结束时间点时为(ωttt),则所述俯仰方向α、转身方向β、侧倾斜方向γ的取值如表3、表4及表5所示。
α值 ω<sub>t</sub>-ω<sub>0</sub>
朝前 -45°&lt;(ω<sub>t</sub>-ω<sub>0</sub>)&lt;45°
朝左 45°&lt;(ω<sub>t</sub>-ω<sub>0</sub>)&lt;135°
朝后 135°&lt;(ω<sub>t</sub>-ω<sub>0</sub>)&lt;-135°
朝右 -135°&lt;(ω<sub>t</sub>-ω<sub>0</sub>)&lt;-45°
表3
β值 ε<sub>t</sub>-ε<sub>0</sub>
朝前 -45°&lt;(ε<sub>t</sub>-ε<sub>0</sub>)&lt;45°
朝上 45°&lt;(ε<sub>t</sub>-ε<sub>0</sub>)&lt;135°
朝后 135°&lt;(ε<sub>t</sub>-ε<sub>0</sub>)&lt;-135°
朝下 -135°&lt;(ε<sub>t</sub>-ε<sub>0</sub>)&lt;-45°
表4
ξ值 ξ<sub>t</sub>-ξ<sub>0</sub>
朝上 -45°&lt;(ξ<sub>t</sub>-ξ<sub>0</sub>)&lt;45°
朝右 45°&lt;(ξ<sub>t</sub>-ξ<sub>0</sub>)&lt;135°
朝下 135°&lt;(ξ<sub>t</sub>-ξ<sub>0</sub>)&lt;-135°
朝左 -135°&lt;(ξ<sub>t</sub>-ξ<sub>0</sub>)&lt;-45°
表5
在本实施例中,定义人体空间数据中人体空间位置初始状态为(x0,y0,z0),目标动作片段结束时为(xt,yt,zt),其中,z0站立时骶骨部位的高度。则所述垂直方向μ的取值如表6所示。
表6
在本实施中,所述部位空间参数通过部位正面空间方向U及部位侧面空间方向V表征。
即,部位空间参数={U,V},其中,
U∈(中位、左中位、右中位、中上位、左上位、右上位、中下位、左下位、右下位),
V∈(前位、后位、中位)
请参照图8,U为部位正面空间方向,其位置按上图8共划分为9个位置,其中骶骨与隆椎间距定义为“中高”(Wh),肩宽定义为“中宽”(Wm)。V为部位侧面空间方向,其空间位置定义如图8,身厚定义为“侧宽”(Ws)。
具体地,在本实施例中,指定骶骨为中心建立人体坐标系,将人体周围的空间划通过所述正面空间方向U及部位侧面空间方向V划分为27个空间,将人体部位所述部位姿态帧数据通过计算转换为这27个空间部分的部位空间参数,通过人体部位处于这27个空间中某一个,来表征该部位的位置。
所述正面空间方向U及部位侧面空间方向V通过所述部位姿态帧数据计算获得,具体计算步骤如下。
请参照表7,在本实施例中,定义人体部位连接关系如表6所示。
部位 连接维度d 说明
骶骨 0 人体原点最终参考坐标
隆椎 1 连接骶骨
头部 2 连接隆椎
右肩骨 2 连接隆椎
左肩骨 2 连接隆椎
右肘 3 连接右肩骨
左肘 3 连接左肩骨
右腕 4 连接右肘
左腕 4 连接左肘
右手掌 5 连接右腕
左手掌 5 连接左腕
左髋 1 连接骶骨,不变化
右髋 1 连接骶骨,不变化
左膝 2 连接左髋
右膝 2 连接右髋
右踝 3 连接右膝
左踝 3 连接左膝
右脚掌 4 连接右踝
左脚掌 4 连接左踝
表7
其中,所述连接维度d表示该运动部位为从人体坐标原点骶骨为起点,第d个连接部位。以人体标准姿态站立时骶骨为原点建立坐标,x为面向方向,y轴为右手方向,z轴为垂直向上方向。记所述部位空间参数为H(Ud,Vd),其计算公式如下:
f(Ud,Vd)=f(xd,yd,zd)=f(f0(xd-1,yd-1,zd-1)+f0(Δxd,Δyd,Δzd)),d≥1
其中,(xd,yd,zd)表示当前部位在人体坐标系D0中的坐标;
(xd-1,yd-1,zd-1)表示上一部位在人体坐标系D0中的坐标;
xd=xd-1+Δxd
yd=yd-1+Δyd
zd=zd-1+Δzd
f0(Δxd,Δyd,Δzd)示当前部位d在D0坐标系的三维坐标增量,其公式为:f0(Δxd,Δyd,Δzd)={Δxd=Ld×cos(ωd),Δyd=Ld×cos(εd),Δzd=Ld×cos(ξd)}其中,Ld表示部位长度,(ωddd)为部位d在D0的中对应XYZ三轴的偏转角。
f(Ud,Vd)=f(xd,yd,zd)对照关系如表8及表9所示:
表8
V z轴
中位 -Ws/2≤z<sub>d</sub>≤Ws/2
前位 Ws/2<z<sub>d</sub>
后位 z<sub>d</sub><-Ws/2
表9
在本实施中,所述方法还包括步骤S200。
步骤S200,预先建立动作模板库。具体步骤如下。
获得指定时间范围内标准运动者的运动数据。
从所述标准运动者的运动数据中提取标准动作片段的运动数据。
分析所述标准动作片段的运动数据,获得所述标准动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据。
以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将标准动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数。
保存所述标准动作片段的运动数据,并将标准动作片段中用户指定的主要运动部位的空间动作参数的集合作为所述标准动作片段的特征向量。
上述步骤中运动数据提取转换的具体方法请参照步骤S110至步骤S140,再次不再赘述。
在本实施例中,可以根据用户选择为多种不同运动动作类型创建对应的所述标准动作片段。
为了减少不重要运动部位的运动数据对动作类型识别造成影响,在本实施例中,设计并将标准动作片段中用户指定的主要运动部位的空间动作参数的集合作为所述标准动作片段的特征向量。如,在标准动作片段为下蹲动作时,选取左小腿、左大腿、左髋骨、右髋骨、右大腿及右小腿作为所述主要运动部位,将所述主要运动部位的所述空间动作参数作为该标准动作片段的特征向量。
步骤S150,将目标动作片段中各部位的所述空间动作参数的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段。
根据所述标准动作片段特征向量中指定主要运动部位,提取所述目标动作片段中对应部位的空间动作参数。如,所述标准动作片段中指定的主要运动部位为左小腿、左大腿、左髋骨、右髋骨、右大腿及右小腿,则从目标动作片段的特征向量中选取与之对应部位的所述空间动作参数。
计算判断从所述目标动作片段中提取出的空间动作参数与标准动作片段中空间动作参数的匹配程度。目标动作片段的空间动作参数与所述标准动作片段的空间动作参数的匹配程度越高,则说明目标动作片段与该标准动作片段的相似度越大。
选取与所述目标动作片段匹配程度最大的所述标准动作片段作为用于动作分析比对的标准动作片段。返回相似度最大的标准动作片段的部位姿态帧数据,作为与所述目标动作片段做对比的数据。
步骤S160,将所述目标动作片段与标准动作片段的整体姿态帧数据进行比对,并输出比对结果。
进一步地,在本实施例中,比对的步骤可以包括:
以标准动作片段的时间长度为参照,将目标动作片段的运动数据的时间长度做归一化处理,使所述目标动作片段的时间长度及帧数等于所述标准动作片段的时间长度与帧数。
比对不同时间采样点下所述目标动作片段与所述标准动作片段的各部位姿态帧数据的欧拉角数据,并输所述欧拉角数据的差异。
具体地,请参照图9,显示一差异度对比分析界面,在所述差异度对比分析界面上显示归一化处理后,所述目标动作片段与所述标准动作片段中各部位欧拉角以时间为变量的变化曲线。计算所述目标动作片段与所述标准动作片段欧拉角变化曲线在同一时间点下的差异度,并通过图形化的统计方式显示给用户。
进一步地,在本实施例中,比对的步骤还可以包括:
根据所述目标动作片段中各部位的部位动作起始帧数据与部位动作结束帧数据,获得所述目标动作片段的关键姿态片段。
根据所述标准动作片段中各部位的部位动作起始帧数据与部位动作结束帧数据,获得所述标准动作片段的关键姿态片段。
计算所述目标动作片段与标准动作片段的对应部位的关键姿态片段重叠时间的帧数。
计算所述重叠时间的帧数与所述标准动作片段的部位动作时间总帧数的比值,获得动作同步比率。
具体地,请参照图10,显示一同步率分析界面,在所述同步率分析界面上显示归一化处理后,所述目标动作关键姿态片段与标准动作关键姿态片段重叠的时间区域。分别计算各部位所述重叠时间的帧数与标准动作关键姿态片总帧数的比值,得到动作同步比率,并在所述同步率分析界面显示所述动作同步率。
进一步地,在本实施例中,比对的步骤还可以包括:
计算所述标准动作片段各部位的动作速度,获得所述标准动作片段的动作速度的平均值和最大值,所述动作速度通过单位时间内欧拉角的变化量表征;
计算所述目标动作片段中与所述标准动作片段指定主要运动部位对应的动作速度,获得所述目标动作片段的动作速度的平均值和最大值;
显示所述目标动作片段与标准动作片段的动作速度比对结果。
具体地,所述标准动作片段和目标动作片段整体姿态帧数据的时间间隔按实际时间间隔处理。将欧拉角(θ,φ,ψ)合并为一个姿态角η,计算公式为:
对目标动作片段和标准动作片段的对应部位进行计算,得出对应部位在每帧的姿态角η的角速度Si,其计算公式为:
Si=|ηii-1|/|ti-tt-1|
其中,i表示帧号,t表示时间。
分别计算每一个部位活动区间平均角速度计算公式为:
其中,(1,n)是部位活动区间的帧数。
具体地,请参照图11,显示一速度对比界面,并在所述速度对比界面中显示关键姿态片段覆盖的时间区域,并在每个所述关键姿态片段覆盖的时间区域标识出平均角速度和最高角速度Smax。
将每个部位的角速度相加,得到该帧的综合角速度:
其中,m表示部位,n表示帧号。
分别计算目标动作片段和标准动作片段,得出各自序列的最大综合角速度SAmax,并在相应帧位标记出位置及最大综合角速度SAmax的值。
进一步地,在本实施例中,所述方法还可以包括:
选取与同一所述标准动作片段匹配的多个目标动作片段。
比对所述多个目标动作片段的整体姿态帧数据,并输出比对结果。
具体地,在本实施例中,可以对不同目标运动者的运动数据进行相互对比。在两个不同目标动作片段均匀同一标准动作片段向匹配时,可认定所述两个不同的目标动作片段为同一类型的动作,并对所述两个不同的目标动作片段的数据进行对比。数据比对的具体步骤请参照目标动作片段与标准动作片段的比对方式,再次不再赘述。
请参照图12,本实施例还提供一种运动数据分析比对装置110,所述装置包括:
目标运动数据获取模块111,用于获得指定时间范围内目标运动者的运动数据,其中,所述运动数据包括所述指定时间范围内多个时间采样点下的整体姿态帧数据,所述整体姿态帧数据包括所述目标运动者各不同部位的部位姿态帧数据及人体空间数据,所述人体空间数据包括人体转向数据及人体空间位置。
目标动作片段提取模块112,用于从所述目标运动者的运动数据中提取目标动作片段的运动数据。
目标关键姿态帧分析模块113,用于分析所述目标动作片段的运动数据,获得所述目标动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据。
目标运动数据转化模块114,用于以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将目标动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数。
动作匹配模块115,用于将目标动作片段中各部位的所述空间动作参数的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段。
动作比对模块116,用于将所述目标动作片段与标准动作片段的整体姿态帧数据进行比对,并输出比对结果。
应当理解的是,上述的对各显示界面的描述及附图,并不构成对显示界面的限定,在不同的实施例中,显示界面中包括的功能窗口的数量及位置分布是可以不同。
综上所述,本发明一提供了一种运动数据分析比对方法及装置,通过分析提取目标运动者运动数据中的所述目标动作片段,计算获得所述目标动作片段中的所述关键部位姿态帧数据,并结合所述人体空间数据将所述关键部位姿态帧数据转化为空间动作参数。通过所述空间动作参数在预设动作标准动作库中匹配标准动作片段,并进行比对分析。如此,将运动数据中的关键动作数据转化为计算量小且表达直观的空间动作参数进行动作的匹配,有效提高了数据匹配的效率。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种运动数据分析比对方法,其特征在于,所述方法包括:
获得指定时间范围内目标运动者的运动数据,其中,所述运动数据包括所述指定时间范围内多个时间采样点下的整体姿态帧数据,所述整体姿态帧数据包括所述目标运动者各不同部位的部位姿态帧数据及人体空间数据,所述人体空间数据包括人体转向数据及人体空间位置;
从所述目标运动者的运动数据中提取目标动作片段的运动数据;
分析所述目标动作片段的运动数据,获得所述目标动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据;
以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将目标动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数;
将目标动作片段中各部位的所述部位姿态帧数据的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段;
将所述目标动作片段与标准动作片段各部位的部位姿态帧数据进行比对,并输出比对结果。
2.根据权利要求1所述方法,其特征在于:
所述部位姿态帧数据包括人体各部位的欧拉角数据,所述部位姿态帧数据及所述人体空间数据通过设置在人体关节处的传感装置采集的三轴加速度和/或三轴磁偏角计算获得。
3.根据权利要求1所述的方法,其特征在于,所述从所述目标运动者的运动数据中提取目标动作片段的运动数据的步骤包括:
比较所述目标运动者的运动数据多个整体姿态帧数据中依次连续的第一整体姿态帧数据、第二整体姿态帧数据和第三整体姿态帧数据;
当所述第一整体姿态帧数据与所述第二整体姿态帧数据中所有对应部位的部位姿态帧数据均相同,且第二整体姿态帧数据与第三整体姿态帧数据中有任一对应部位的部位姿态帧数据不同时,将所述第二整体姿态帧数据对应的帧作为整体动作起始帧;
比较所述目标运动者的运动数据多个整体姿态帧数据中依次连续的第四整体姿态帧数据、第五整体姿态帧数据和第六整体姿态帧数据;
当所述第四整体姿态帧数据与所述第五整体姿态帧数据中有任一对应部位的部位姿态帧数据不同,且第五整体姿态帧数据与第六整体姿态帧数据中所有对应部位的部位姿态帧数据均相同时,将所述第五整体姿态帧数据对应的帧作为整体动作结束帧;
提取所述整体动作起始帧与整体动作结束帧之间的所述整体姿态帧数据作为所述目标动作片段的运动数据。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
预先建立动作模板库,
所述预先建立动作模板库的步骤包括:
获得指定时间范围内标准运动者的运动数据;
从所述标准运动者的运动数据中提取标准动作片段的运动数据;
分析所述标准动作片段的运动数据,获得所述标准动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据;
以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将标准动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数;
保存所述标准动作片段的运动数据,并将标准动作片段中用户指定的主要运动部位的空间动作参数的集合作为所述标准动作片段的特征向量。
5.根据权利要求4所述的方法,其特征在于,所述将目标动作片段中各部位的所述空间动作参数的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段的步骤包括:
根据所述标准动作片段特征向量中指定主要运动部位,提取所述目标动作片段中对应部位的空间动作参数;
计算判断从所述目标动作片段中提取出的空间动作参数与标准动作片段中空间动作参数的匹配程度;
选取与所述目标动作片段匹配程度最大的所述标准动作片段作为用于动作分析比对的标准动作片段。
6.根据权利要求5所述的方法,其特征在于,所述将所述目标动作片段与标准动作片段各部位的部位姿态帧数据进行比对,并输出比对结果的步骤包括:
以标准动作片段的时间长度为参照,将目标动作片段的运动数据的时间长度做归一化处理,使所述目标动作片段的时间长度及帧数等于所述标准动作片段的时间长度与帧数;
比对不同时间采样点下所述目标动作片段与所述标准动作片段的各部位姿态帧数据的欧拉角数据,并分别输出所述欧拉角数据中伸展角θ、自转角Φ及旋转角Ψ的差异。
7.根据权利要求6所述的方法,其特征在于,所述将所述目标动作片段与标准动作片段各部位的部位姿态帧数据进行比对,并输出比对结果的步骤还包括:
根据所述目标动作片段中各部位的部位动作起始帧数据与部位动作结束帧数据,获得所述目标动作片段的关键姿态片段;
根据所述标准动作片段中各部位的部位动作起始帧数据与部位动作结束帧数据,获得所述标准动作片段的关键姿态片段;
计算所述目标动作片段与标准动作片段的对应部位的关键姿态片段重叠时间的帧数;
计算所述重叠时间的帧数与所述标准动作片段的部位动作时间总帧数的比值,获得动作同步比率。
8.根据权利要求7所述的方法,其特征在于,所述将所述目标动作片段与标准动作片段各部位的部位姿态帧数据进行比对,并输出比对结果的步骤还包括:
计算所述标准动作片段各部位的动作速度,获得所述标准动作片段的动作速度的平均值和最大值,所述动作速度通过单位时间内欧拉角的变化量表征;
计算所述目标动作片段中与所述标准动作片段指定主要运动部位对应的动作速度,获得所述目标动作片段的动作速度的平均值和最大值;
显示所述目标动作片段与标准动作片段的动作速度比对结果。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
选取与同一所述标准动作片段匹配的多个目标动作片段;
比对所述多个目标动作片段的整体姿态帧数据,并输出比对结果。
10.一种运动数据分析比对装置,其特征在于,所述装置包括:
目标运动数据获取模块,用于获得指定时间范围内目标运动者的运动数据,其中,所述运动数据包括所述指定时间范围内多个时间采样点下的整体姿态帧数据,所述整体姿态帧数据包括所述目标运动者各不同部位的部位姿态帧数据及人体空间数据,所述人体空间数据包括人体转向数据及人体空间位置;
目标动作片段提取模块,用于从所述目标运动者的运动数据中提取目标动作片段的运动数据;
目标关键姿态帧分析模块,用于分析所述目标动作片段的运动数据,获得所述目标动作片段中不同人体部位的关键部位姿态帧数据,其中,所述关键部位姿态帧数据包括人体的单个部位在运动起始时的部位动作起始帧数据和运动结束时的部位动作结束帧数据;
目标运动数据转化模块,用于以预设人体部位为中心建立人体坐标系,结合所述人体空间数据,将目标动作片段中各部位的所述关键部位姿态帧数据转换为所述人体坐标系中的空间动作参数;
动作匹配模块,用于将目标动作片段中各部位的所述空间动作参数的集合作为所述目标动作片段的特征向量,在预设动作模板库中匹配相应的标准动作片段;
动作比对模块,用于将所述目标动作片段与标准动作片段的整体姿态帧数据进行比对,并输出比对结果。
CN201610714829.7A 2016-08-24 2016-08-24 运动数据分析比对方法及装置 Active CN106295616B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610714829.7A CN106295616B (zh) 2016-08-24 2016-08-24 运动数据分析比对方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610714829.7A CN106295616B (zh) 2016-08-24 2016-08-24 运动数据分析比对方法及装置

Publications (2)

Publication Number Publication Date
CN106295616A CN106295616A (zh) 2017-01-04
CN106295616B true CN106295616B (zh) 2019-04-30

Family

ID=57615103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610714829.7A Active CN106295616B (zh) 2016-08-24 2016-08-24 运动数据分析比对方法及装置

Country Status (1)

Country Link
CN (1) CN106295616B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108392207B (zh) * 2018-02-09 2020-12-11 西北大学 一种基于姿态标签的动作识别方法
CN110516516A (zh) * 2018-05-22 2019-11-29 北京京东尚科信息技术有限公司 机器人姿态测量方法及装置、电子设备、存储介质
CN111080589A (zh) * 2019-12-05 2020-04-28 广州极泽科技有限公司 目标对象匹配方法、***、设备及机器可读介质
CN111091889A (zh) * 2019-12-12 2020-05-01 深圳英鸿骏智能科技有限公司 一种基于镜面显示的人体形态检测方法、存储介质及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894278A (zh) * 2010-07-16 2010-11-24 西安电子科技大学 基于变结构多模型的人体运动跟踪方法
CN103713739A (zh) * 2013-12-25 2014-04-09 北京握奇数据***有限公司 一种运动数据的采集处理方法及***
CN105068654A (zh) * 2015-08-14 2015-11-18 济南中景电子科技有限公司 基于can总线和惯性传感器的动作捕获***及方法
WO2016025460A1 (en) * 2014-08-11 2016-02-18 Icuemotion, Llc Codification and cueing system for human interactions in tennis and other sport and vocational activities

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8284990B2 (en) * 2008-05-21 2012-10-09 Honeywell International Inc. Social network construction based on data association

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894278A (zh) * 2010-07-16 2010-11-24 西安电子科技大学 基于变结构多模型的人体运动跟踪方法
CN103713739A (zh) * 2013-12-25 2014-04-09 北京握奇数据***有限公司 一种运动数据的采集处理方法及***
WO2016025460A1 (en) * 2014-08-11 2016-02-18 Icuemotion, Llc Codification and cueing system for human interactions in tennis and other sport and vocational activities
CN105068654A (zh) * 2015-08-14 2015-11-18 济南中景电子科技有限公司 基于can总线和惯性传感器的动作捕获***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
人体运动捕获数据的建模与重用研究;蓝荣祎;《中国博士学位论文全文数据库 信息科技辑》;20150615;I138-65

Also Published As

Publication number Publication date
CN106295616A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
CN106295616B (zh) 运动数据分析比对方法及装置
CN111144217B (zh) 一种基于人体三维关节点检测的动作评价方法
CN103839040B (zh) 基于深度图像的手势识别方法和装置
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
US8254627B2 (en) Method for automatically following hand movements in an image sequence
CN109299659A (zh) 一种基于rgb相机和深度学习的人体姿态识别方法与***
CN105664462A (zh) 基于人体姿态估计算法的辅助训练***
CN107169411B (zh) 一种基于关键帧和边界约束dtw的实时动态手势识别方法
CN104200200B (zh) 融合深度信息和灰度信息实现步态识别的***及方法
CN111127446B (zh) 一种面向步态分析的足底压力图像分区方法
JPWO2013051681A1 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
CN106778510B (zh) 一种超高分辨率遥感图像中高层建筑特征点匹配方法
CN113065505A (zh) 身体动作快速识别方法及***
CN103955680A (zh) 基于形状上下文的动作识别方法及装置
Shin et al. Hand region extraction and gesture recognition using entropy analysis
CN107132915A (zh) 一种基于动态脑功能网络连接的脑‑机接口方法
CN104898971B (zh) 一种基于视线跟踪技术的鼠标指针控制方法及***
Yamao et al. Development of human pose recognition system by using raspberry pi and posenet model
CN103186241B (zh) 一种交互桌面触点左右手识别方法
CN102156994A (zh) 一种单视角无标记人体运动跟踪的关节定位方法
Zhou et al. Finger vein recognition based on stable and discriminative superpixels
CN109255293A (zh) 基于计算机视觉的模特走秀台步评价方法
CN113282164A (zh) 一种处理方法和装置
Kim et al. Hand shape recognition using fingertips

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant