CN109200562A - 体感瑜珈实现方法及*** - Google Patents
体感瑜珈实现方法及*** Download PDFInfo
- Publication number
- CN109200562A CN109200562A CN201710515784.5A CN201710515784A CN109200562A CN 109200562 A CN109200562 A CN 109200562A CN 201710515784 A CN201710515784 A CN 201710515784A CN 109200562 A CN109200562 A CN 109200562A
- Authority
- CN
- China
- Prior art keywords
- angle
- yoga
- point
- relative
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/803—Motion sensors
Landscapes
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种体感瑜伽实现方法及***,方法包括以下步骤:对人体身上设置的多个跟踪点在不同时刻的空间位置数据进行采集;根据多个跟踪点的空间位置数据计算它们之间的相对空间位置关系;根据动作数据库预先存储的瑜珈标准动作数据及其判断标准对计算后数据做合格性判断;对判断结果进行输出提示。本发明还公开了使用上述方法的***。利用本发明公开的方法和***,可以在采集用户做瑜珈时各个时刻各跟踪部位的空间位置信息基础上,及时记录其运动轨迹,判定人体姿态与瑜珈动作之间的关系,通过多个跟踪点对瑜珈动作的形体进行定位、描述,更真实地反应人体做瑜珈运动的情况。
Description
技术领域
本发明属于计算机应用领域,更具体地说,涉及一种体感瑜珈实现方法及***。
背景技术
随着计算机应用技术的飞速发展,人们进行瑜珈健身的方式也发生了巨大的变化:人们不需要去特定的健身场所健身,只需要在虚拟健身大厅里选择瑜珈项目,程序通过计算机平台接入视频平台面向用户,播放的瑜珈视频可以是真人录像也可以是虚拟形象,到需要用户作出相应动作时数据采集设备对用户的运动信息进行采集,并将采集到的运动数据送入计算机进行计算分析,显示检测结果,根据检测结果决定下一步程序,如不标准可提示相应注意要求等。
目前一些利用动作进行识别控制的方法都是基于传统的图像识别方法,通过摄像头拍摄人体的行为姿态或动作,对拍摄的图像进行分析处理,利用相应的识别算法进行识别,判断出人体的行为姿态或动作。此种方法一方面需要相当大的存储空间以存放拍摄的图像,另一方面也需要非常优化的算法来精确识别人体姿态或动作。
针对上述传统方法的缺陷,发展了一种基于加速度传感器来识别人手动作的方式。该技术使用了加速度传感器和陀螺仪,一般是将加速度传感器和陀螺仪放置在手柄中。其中加速度传感器用于捕获人体运动的加速度信息,陀螺仪用于捕获人体运动的方向信息,采集硬件视频摄像头对加速度传感器和陀螺仪产生的数据进行采集,并送给终端计算机做处理。
任天堂公司的Wii Sport产品采用了实时捕捉人体运动信息的技术,该公司产品的手柄里面包含了重力传感器、陀螺仪这两个主要设备。其中重力传感器用于捕获人体运动的加速度信息,陀螺仪用于捕获人体运动的方向信息。通过蓝牙信号,可以将加速度信息和运动方向信息传递给终端计算机,终端计算机通过加速度信息和运动方向信息就可以建模人体运动的动作。
现有的瑜珈动作识别技术中使用了加速度传感器和陀螺仪,一般是将加速度传感器和陀螺仪放置在手柄中,由手柄发送手部运动的数据,此种方式存在多方面问题,比如:
1、不能进行身***置多个部位的跟踪,因此也就无法对娱乐健身者的整体身体运动做出分析;
2、发送的只有运动信息而无空间位置坐标信息,因此不能真实的反应出人体的运动情况;
3、由于无人体部位的空间位置坐标信息,因此不能对人体部位运动轨迹进行跟踪,更无法对人体姿态进行定位和描述。
因此,需要一种能提供空间位置信息,且能记录下跟踪部位轨迹,对人体姿态进行定位,更真实反映人体运动情况的方案,来克服现有技术中存在的上述缺陷。
发明内容
本发明所要解决的技术问题在于,针对现有瑜珈动作识别技术中实时捕捉人体运动信息技术时不能进行身***置多个部位的跟踪、无空间位置坐标信息而不能对人体部位运动轨迹进行跟踪的问题,提供一种体感瑜珈实现方法及***。
本发明解决其技术问题所采用的方案是:对人体身上设置的多个跟踪点在不同时刻的空间位置数据进行采集;根据不同动作要求选择预定的计算方法,对空间位置数据计算所述多个跟踪点之间相对空间距离或相对角度或相对空间距离和角度;根据动作数据库预先存储的瑜珈标准动作数据及其判断标准,判断计算出的数据是否符合瑜珈标准;对判断结果进行输出提示。
本发明提供了一种体感瑜珈实现方法,包括以下步骤:
S1)采集人体身上设置的多个跟踪点在不同时刻的空间位置数据;所述多个跟踪点分为两组:头部和双手上的三个跟踪点为上半身跟踪点,腰部和双脚上的三个跟踪点为下半身跟踪点;
S2)根据多个跟踪点的空间位置数据计算它们之间的相对空间位置关系;所述相对空间位置关系包括相对距离、相对角度或者所述相对距离与所述相对角度的组合;
S3)根据动作数据库存储的标准动作数据及其判断标准,对S2计算出的数据进行合格性判断;
S4)对判断结果进行输出提示。
步骤S1在采集动作数据时,包括:人体身上设置的跟踪点在头部、双手、腰部、手脚上,共设置有六个跟踪点,且头部和双手上的三个跟踪点上半身一组跟踪点,腰部和双脚上的三个跟踪点为下半身一组跟踪点,跟踪点上都使用了加速度传感器和陀螺仪的设备。视频采集到的数据都是以三元组(x,y,z)三维坐标的方式保存,水平右手方向为x轴,竖直方向为y轴,与视频采集正对的方向为Z轴,且每秒提供30组数据,这种高频率的信息采集可以得到很精确的位置信息。
步骤S2中计算跟踪点之间的相对空间位置关系的计算方法包括:相对距离的计算方法、相对角度的计算方法和相对距离与相对角度的组合的计算方法;相对角度的计算方法包括跟踪点连线的平面投影角度的计算方法或者跟踪点连线之间的相对夹角的计算方法。计算方法对人体的上半身和下半身是分开计算的,上半身的三个采集点构成一个空间三角形,下半身的三个采集点构成另一个空间三角形。
从几何学可以得知三条边只要不存在共线就可以构造唯一的三角形,也就是说可以证明形状一定是固定的,因为人的具***置是可以移动的,高矮也是有所区别,但是人的各身体部分的相对位置是稳定的,所以在一些动作上我们只需检测相对位置就可以了。此时步骤S2对简单动作采用相对距离的判定方法:计算空间两点之间的距离,点A(Xa,Ya,Za),点B(Xb,Yb,Zb),通过得到距离S。采集到的数据为两组,上半身一组三个点,下半身一组三个点,可以通过计算分别得到每组的三段相对距离,通过每组三段距离来判断上半身和下半身的动作。
从上面的算法可以看出,由于人与人之间存在差异,所以对距离的要求值注定只能是一个范围值,当然当范围值要求越精确对姿势的规范性也越强,但随之灵活性就降低了,要适应不同人群显然只由位置距离是比较粗糙的,而在本发明中距离判断虽然是几乎运用到所有动作检测上,但单独应用距离来判断动作的也只是特定一些简单动作而言,所以步骤S2还采用平面投影角度的计算方法:
获取了空间点位置后可以分析它们的相对位置,通过计算它们之间的角度来反映它们的相对位置。以Z轴为法线可以得到XOY平面,以Y轴为法线可以得到XOZ平面,以X轴为法线可以得到YOZ平面,根据几何正交投影原则,现在就可以将空间的角度问题转化到三个平面的角度问题上:任一组跟踪点任意两个点的连线L,投影到参考平面上,得到直线L1,直线L1与此参考平面的参考轴会形成一定的夹角,此夹角也即此两点所代表的身体部位在该参考平面上的投影角度。
进一步的,当所检测的动作是一个连续的过程,那么在平面上的投影角度是不断变化的,那么步骤S2在平面投影角度的计算方法的基础上,还采用相对夹角的计算方法,可以根据相对夹角是否有变化来判断这一过程。由余弦定理来判断相对夹角:,C 上半身或下半身三个采集点形成空间三角形的任一角,a、b、c为相应的空间三角形三边的空间距离。
在有了距离和角度判断的实现方式后,对既包括距离也包括各种角度要求的复杂动作,可以看到任何一种单独使用都有其局限性,所以综合利用两种方法进行动作判断,采用相对距离与相对角度的组合的计算方法,此方法的处理过程如下:
S61)根据距离的计算方法,计算每组跟踪点之间点的相对距离;
S62)根据角度的计算方法中的相对夹角的计算方法,计算每组跟踪点之间的相对夹角;
S63)根据角度的判断方法中的平面投影角度的计算方法,计算每组跟踪点在XOY、XOZ、YOZ平面投影的角度。
在适用时基于此判断顺序也可以区分动作的判断复杂程度,而无论多复杂的姿势也可以据此分解成多个较简单的条件判断。
实时计算健身者的运动状态,每组三个跟踪点之间的距离、角度,运动速度,当运动速度慢慢趋近于零时,可以判定健身者一个动作已经到位,此时,标记一个固定姿态开始,记录下开始时间,计算每组三个跟踪点组成的三角形的各个夹角或相对空间距离或夹角和相对空间距离,若满足判断标准,则表明健身者的固定姿态是符合标准的。此后的某时刻,如果有不满足的情况出现,标记一个固定姿势结束,记录下结束时间,结束时间和开始时间之差就是姿势保持的时间。姿势保持过程中,每组三个跟踪点的所有空间位置信息也被保存并利用,首先计算各个跟踪点的平均位置,然后计算各个跟踪点在姿势保持过程中所有经历过的位置到其平均位置的方差。一个瑜伽动作结束后,会对这个动作完成的情况进行打分,打分依据是姿态保持的时间和平均方差,平均方差为各个跟踪点方差之和的平均值。保持时间没有达到给定的阈值,直接判定保持动作失败;保持时间达到一定阈值以上,分数与保持时间成正比,与平均方差成反比。计算出每个动作的分数后,就可以计算整套动作的得分,整套动作的得分为各个动作得分的平均值,这个平均分可以用来衡量健身者的健身效果。
提供一种体感瑜珈实现***,包括:
动作数据库:用于存储表示瑜珈标准动作的数据及其判断标准;
基于视频采样的点数据采集单元:用于对人体身上设置的多跟踪点各个刻的空间位置点数据进行采集,并将采集到的运动数据送入计算单元;
计算单元:根据多个跟踪点的空间位置数据计算出它们之间的相对空间位置关系,并将计算后数据送入分析单元;
分析单元:根据动作数据库存储的标准动作数据及其判断标准对计算后数据做判断,并将判断结果送入输出单元;
输出单元:用于对判断结果进行输出提示。
利用本发明公开的方法和***,可以跟踪用户在做瑜珈健身时各个时刻各跟踪部位的空间位置信息,因此能够记录下跟踪部位的运动轨迹,对人体姿态进行定位、描述,更真实的反映用户做瑜珈时动作标准与否,通过人机交互,***对不正确动作给予提示和建议,以利于用户对瑜珈项目的学习。
附图说明
图1是本发明一较佳实施例的体感瑜珈实现方法流程图;
图2是本发明一较佳实施例的坐标图;
图3是本发明一较佳实施例的基于距离计算方法的动作示意图;
图4是本发明一较佳实施例的基于平面投影角度计算方法的动作示意图;
图5是本发明一较佳实施例的基于相对夹角计算方法的示意图;
图6是本发明一较佳实施例的相对距离与相对角度的组合的计算方法的处理流程图;
图7是本发明一较佳实施例的体感瑜伽实现***结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供的体感瑜珈实现方法需要用户做些必要的准备工作:戴上用于捕获人体运动数据的帽子、手柄、腰带、脚带作为数据采集点。然后体感瑜珈实现方法的流程是:对人体身上设置的多个跟踪点在不同时刻的空间位置数据进行采集;根据不同动作要求选择预定的计算方法,对空间位置数据计算所述多个跟踪点之间相对空间距离或相对角度或相对空间距离和角度;根据动作数据库预先存储的瑜珈标准动作数据及其判断标准,判断计算出的数据是否符合瑜珈标准;对判断结果进行输出提示。
图1是本发明实施例提供的体感瑜珈实现方法流程图。如图1所示,此实施例提供的方法包括如下四个步骤:
S1)采集人体身上设置的多个跟踪点在不同时刻的空间位置数据;所述多个跟踪点分为两组:头部和双手上的三个跟踪点为上半身跟踪点,腰部和双脚上的三个跟踪点为下半身跟踪点;
S2)根据多个跟踪点的空间位置数据计算它们之间的相对空间位置关系;所述相对空间位置关系包括相对距离、相对角度或者所述相对距离与所述相对角度的组合;
S3)根据动作数据库存储的标准动作数据及其判断标准,对S2计算出的数据进行合格性判断;
S4)对判断结果进行输出提示。
步骤S1中人体身上设置的跟踪点在头部、双手、腰部、手脚上,共有六个跟踪点,头部和双手上的三个跟踪点上半身一组跟踪点,腰部和双脚上的三个跟踪点为下半身一组跟踪点;视频采集每秒能提供30组数据,这种高频率的信息采集可以得到很精确的位置信息。
需要说明的是,本发明中设置跟踪点,并对其空间位置数据进行采集的过程可以通过多种方法实现。在一个实施例中,跟踪点可以为具有高反光特性的材料,由红外发射装置向其发射红外光,再通过视频采集跟踪点不同时刻的空间位置坐标,进行后续的处理。
图2是本发明实施例提供的坐标图。如图2所示,步骤S1中视频采集到的数据都是以三元组(x,y,z)三维坐标的方式保存,水平右手方向为x轴,竖直方向为y轴,与视频采集正对的方向为Z轴。
步骤S2中计算跟踪点之间的相对空间位置关系的计算方法包括:相对距离的计算方法、相对角度的计算方法和相对距离与相对角度的组合的计算方法,相对角度的计算方法包括跟踪点连线的平面投影角度的计算方法或者跟踪点连线之间的相对夹角的计算方法。计算方法对人体的上半身和下半身是分开计算的,上半身的三个采集点构成一个空间三角形,下半身的三个采集点构成另一个空间三角形。
尽管人的具***置是可以移动的,高矮也是有所区别,但是人的各身体部分的相对位置是稳定的,所以在一些动作上只需检测相对位置就可以了,此时步骤S2对简单动作采用相对距离的判定方法:计算空间两点之间的距离,点A(Xa,Ya,Za),点B(Xb,Yb,Zb),通过得到距离S。采集到的数据为两组,上半身一组三个点,下半身一组三个点,可以通过计算分别得到每组的三段相对距离,通过每组三段距离来判断上半身和下半身的动作。
图3是本发明实施例提供的基于相对距离计算方法的动作示意图。如图3所示,此动作为用户竖直站立,两手向上伸展并分别向外摊开一段距离。两个手为点A和点B,头部为点C。
这里假设采集到的上半身数据为:
A(1.1,2.0,0.4) B(0.6,2.2,0.5) C(1.2,2.1,0.4)
那么根据公式,,,。
将此计算数据送入分析单元,分析单元根据算得的与动作数据库存储的此动作标准数据及判断标准做比较,从而判断动作是否合格。
从上面的算法可以看出,由于人与人之间存在差异,所以对距离的要求值注定只能是一个范围值,当然当范围值要求越精确对姿势的规范性也越强,但随之灵活性就降低了,要适应不同人群显然只由位置距离是比较粗糙的,而在本发明中距离判断虽然是几乎运用到所有动作检测上,但单独应用距离来判断动作的也只是特定一些简单动作而言,所以步骤S2还采用平面投影角度的计算方法:获取了空间点位置后可以分析它们的相对位置,通过计算它们之间的角度来反映它们的相对位置。以Z轴为法线可以得到XOY平面,以Y轴为法线可以得到XOZ平面,以X轴为法线可以得到YOZ平面,根据几何正交投影原则,现在就可以将空间的角度问题转化到三个平面的角度问题上:任一组跟踪点任意两个点的连线L,投影到参考平面上,得到直线L1,直线L1与此参考平面的参考轴会形成一定的夹角,此夹角也即此两点所代表的身体部位在该参考平面上的投影角度。
如将头部与其中一只手的连线L投射到平面XZ上得到直线L1,可得到L1与X轴的夹角为,则对应于手向前倾的角度,可见在-~0时手是相对于身体头部向后的,在0~时手是相对于身体头部向前的。
图4是本发明实施例提供的平面投影角度计算方法的动作示意图,如图4所示,上半身两手合在头顶,向前微倾。两手合在一起,故左右手可视为一点,测得点情况为:
手(0.6,2.3,1.2) 头部(0.6,2.0,0.4)
投影到YZ平面可简化坐标:手(0.3,0.8),头部(0,0)
即夹角= arc tan(0.375) = 0.358
0.358×(360/) =
将此计算数据送入分析单元,分析单元根据算得的角度值与动作数据库存储的此动作标准角度及其判断做比较,从而判断此上半身动作是否合格。
进一步的,当所检测的动作是一个连续的过程,那么在平面上的投影角度是不断变化的,那么在采用平面投影角度的计算方法的基础上,还采用相对夹角的计算方法,可以根据相对夹角是否有变化来判断这一过程。可以根据相对夹角是否有变化来判断这一过程。由余弦定理来判断相对夹角:,C 上半身或下半身三个采集点形成空间三角形的任一角,a、b、c为相应的空间三角形的三边空间距离。
图5是本发明实施例提供的相对夹角计算方法的示意图,如图5所示,a、b、c为边长,A、B、C为边a、b、c所对应的角,边a、b、c可以通过基于距离的计算方法得到。利用余弦定理:
同样地,可以得到角A、B的值。将此计算数据送入分析单元,分析单元根据算得的角度值与动作数据库存储的此动作标准角度及其判断标准做比较,从而判断动作是否合格。
图6是本发明实施例提供的相对距离与相对角度的组合的计算方法的处理流程图。如图6所示,包括:
S61)根据距离的判定方法,计算每组跟踪点之间点的相对距离;
S62)根据角度的判断方法中的相对夹角的计算方法,计算每组跟踪点之间的相对夹角;
S63)根据角度的判断方法中的平面投影角度的计算方法,计算每组跟踪点在XOY、XOZ、YOZ平面投影的角度。
在适用时基于此判断顺序也可以区分动作的判断复杂程度,而无论多复杂的姿势也可以据此分解成多个较简单的条件判断。
瑜伽动作开始之前,健身者面向视频摄像头,处于准备状态,通过跟踪点坐标之间的相对位置,给各个跟踪点做上标记,健身开始后,实时计算健身者的运动状态,每组三个跟踪点之间的距离、角度,运动速度,当运动速度慢慢趋近于零时,可以判定健身者一个动作已经到位,此时,标记一个固定姿态开始,记录下开始时间,计算每组三个跟踪点组成的三角形的各个夹角或相对空间距离或夹角和相对空间距离,若满足判断标准,则表明健身者的固定姿态是符合标准的。此后的某时刻,如果有不满足的情况出现,标记一个固定姿势结束,记录下结束时间,结束时间和开始时间之差就是姿势保持的时间。姿势保持过程中,每组三个跟踪点的所有空间位置信息也被保存并利用,首先计算各个跟踪点的平均位置,然后计算各个跟踪点在姿势保持过程中所有经历过的位置到其平均位置的方差。一个瑜伽动作结束后,会对这个动作完成的情况进行打分,打分依据是姿态保持的时间和平均方差,平均方差为各个跟踪点方差之和的平均值。保持时间没有达到给定的阈值,直接判定保持动作失败;保持时间达到一定阈值以上,分数与保持时间成正比,与平均方差成反比。计算出每个动作的分数后,就可以计算整套动作的得分,整套动作的得分为各个动作得分的平均值,这个平均分可以用来衡量健身者的健身效果。至此,一个判断人体动作是否符合瑜伽健身项目、以及符合程度、健身效果的完整描述结束了。
图7是本发明实施例提供的体感瑜珈实现***结构示意图,如图7所示,基于视频采样的点数据采集单元71、动作数据库72、计算单元73、分析单元74和输出单元75。
基于视频采样的点数据采集单元71对人体身上设置的多跟踪点不同时刻的空间位置点数据进行采集,并将采集到的运动数据送入计算单元73,动作数据库72用于存储标准动作数据及其判断标准,计算单元73计算单元根据存储在动作数据库中的动作要求对空间位置点数据计算它们之间的相对空间位置关系,并将计算后数据送入分析单元74,分析单元74根据动作数据库存储的标准动作数据及其判断标准对输入的计算后数据做判断,并将判断结果送入输出单元75,输出单元75将分析单元送入的判断结果进行输出,并给予相应提示。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种体感瑜伽实现方法,其特征在于,包括以下步骤:
S1)采集人体身上设置的多个跟踪点在不同时刻的空间位置数据;所述多个跟踪点分为两组:头部和双手上的三个跟踪点为上半身跟踪点,腰部和双脚上的三个跟踪点为下半身跟踪点;
S2)根据多个跟踪点的空间位置数据计算它们之间的相对空间位置关系;所述相对空间位置关系包括相对距离、相对角度或者所述相对距离与所述相对角度的组合;
S3)根据动作数据库存储的标准动作数据及其判断标准,对S2计算出的数据进行合格性判断;
S4)对判断结果进行输出提示。
2.如权利要求1所述的体感瑜伽实现方法,其特征在于,所述步骤S2中的所述相对空间位置关系包括:相对距离、相对角度或者所述相对距离与所述相对角度的组合。
3.如权利要求2所述的体感瑜伽实现方法,其特征在于,所述相对距离的计算方法,是计算上半身三个跟踪点中任两点的距离或计算下半身三个跟踪点中任两点的相对距离方法:点(Xa,Ya,Za)与点(Xb,Yb,Zb)之间相对距离S计算为。
4.如权利要求2所述的体感瑜伽实现方法,其特征在于,所述相对角度包括所述跟踪点连线的平面投影角度或者所述跟踪点连线之间的相对夹角。
5.如权利要求4所述的体感瑜伽实现方法,其特征在于,所述平面投影角度的计算方法为,上半身三个跟踪点中任两点的连线或下半身三个跟踪点中任两点的连线L,投影到参考平面上,得到直线L1,直线L1与所述参考平面的参考轴会形成一定的夹角,此夹角也即此两点所代表的身体部位在该参考平面上的投影角度。
6.如权利要求4所述的体感瑜伽实现方法,其特征在于,所述相对夹角的计算方法,是计算上半身三个跟踪点形成的空间三角形的三个夹角或计算下半身三个跟踪点形成的空间三角形的三个夹角的方法,由余弦定理来判断相对夹角:,C为任一空间三角形的任一角,a、b、c为相应的空间三角形的三边空间距离。
7.如权利要求2所述的体感瑜伽实现方法,其特征在于,所述相对距离与所述相对角度的组合的计算方法包括如下步骤:
S61)相对距离的计算:计算上半身三个跟踪点中任两点的距离或计算下半身三个跟踪点中任两点的相对距离方法:点(Xa,Ya,Za)与点(Xb,Yb,Zb)之间相对距离S计算为;
S62)相对夹角的计算:计算上半身三个跟踪点形成的空间三角形的三个夹角或计算下半身三个跟踪点形成的空间三角形的三个夹角的方法,由余弦定理来判断相对夹角:,C为任一空间三角形的任一角,a、b、c为相应的空间三角形的三边空间距离;
S63)平面投影角度的计算:上半身三个跟踪点中任两点的连线或下半身三个跟踪点中任两点的连线L,投影到参考平面上,得到直线L1,直线L1与此参考平面的参考轴会形成一定的夹角,此夹角也即此两点所代表的身体部位在该参考平面上的投影角度。
8.如权利要求1所述的体感瑜伽实现方法,其特征在于,所述步骤S4中对判断结果输出进一步包括:在S3判断动作是否合格的基础上,根据不同动作要求的保持时间,计算每组跟踪点的平均方差和姿态保持的时间,对动作给予一个评价值。
9.一种体感瑜珈实现***,其特征在于,包括:
动作数据库:用于存储表示瑜珈标准动作的数据及其判断标准;
基于视频采样的点数据采集单元:用于对人体身上设置的多跟踪点各个时刻的空间位置点数据进行采集,并将采集到的运动数据送入计算单元;
计算单元:根据多个跟踪点的空间位置数据计算出它们之间的相对空间位置关系,并将计算后数据送入分析单元;
分析单元:根据动作数据库存储的标准动作数据及其判断标准对计算后数据做判断,并将判断结果送入输出单元;
输出单元:用于对判断结果进行输出提示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710515784.5A CN109200562A (zh) | 2017-06-29 | 2017-06-29 | 体感瑜珈实现方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710515784.5A CN109200562A (zh) | 2017-06-29 | 2017-06-29 | 体感瑜珈实现方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109200562A true CN109200562A (zh) | 2019-01-15 |
Family
ID=64960647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710515784.5A Pending CN109200562A (zh) | 2017-06-29 | 2017-06-29 | 体感瑜珈实现方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109200562A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110917604A (zh) * | 2019-11-14 | 2020-03-27 | 西安优信机电工程有限公司 | 一种室内瑜伽姿势矫正*** |
CN111275031A (zh) * | 2020-05-07 | 2020-06-12 | 西南交通大学 | 基于人体关键点的平板支撑检测方法、装置、设备及介质 |
-
2017
- 2017-06-29 CN CN201710515784.5A patent/CN109200562A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110917604A (zh) * | 2019-11-14 | 2020-03-27 | 西安优信机电工程有限公司 | 一种室内瑜伽姿势矫正*** |
CN111275031A (zh) * | 2020-05-07 | 2020-06-12 | 西南交通大学 | 基于人体关键点的平板支撑检测方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101996311A (zh) | 一种瑜珈动作识别方法及*** | |
KR101738569B1 (ko) | 제스쳐 인식 방법 및 시스템 | |
JP5858261B2 (ja) | 仮想ゴルフシミュレーション装置と、これに用いられるセンシング装置及びセンシング方法 | |
CN101964047B (zh) | 一种基于多跟踪点的人体动作识别方法 | |
US7457439B1 (en) | System and method for motion capture | |
US8565479B2 (en) | Extraction of skeletons from 3D maps | |
CN102243687A (zh) | 一种基于动作识别技术的体育教学辅助***及其实现方法 | |
CN202662011U (zh) | 一种基于动作识别技术的体育教学辅助*** | |
US10894186B2 (en) | Real time golf swing training aid | |
US11875697B2 (en) | Real time sports motion training aid | |
CN108536314A (zh) | 用户身份识别方法及装置 | |
US20200211412A1 (en) | Sports training aid with motion detector | |
KR20020017576A (ko) | 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법 | |
Malawski | Depth versus inertial sensors in real-time sports analysis: A case study on fencing | |
CN109200562A (zh) | 体感瑜珈实现方法及*** | |
Bradshaw et al. | Tracking conductors hand movements using multiple wiimotes | |
Utsumi et al. | Hand gesture recognition system using multiple cameras | |
KR101394279B1 (ko) | 뎁스 영상 분석을 통한 사용자 동작 인식 방법 및 이를 이용한 사용자 동작 분석 장치 | |
CN115223240A (zh) | 基于动态时间规整算法的运动实时计数方法和*** | |
Uchiyama et al. | AR display of visual aids for supporting pool games by online markerless tracking | |
Takano et al. | Classifying sports gesture using event-based matching in a multimedia e-learning system | |
US20200360789A1 (en) | Improved real time sports motion training aid | |
Elshami et al. | A Comparative Study of Recent 2D Human Pose Estimation Methods | |
Yoshimura et al. | Quantification and recognition of basic motion okuri in Japanese traditional dance | |
JP7027745B2 (ja) | 打具の挙動の解析装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190115 |