CN115830057A - 基于视觉识别的重心轨迹提取方法 - Google Patents

基于视觉识别的重心轨迹提取方法 Download PDF

Info

Publication number
CN115830057A
CN115830057A CN202211649551.1A CN202211649551A CN115830057A CN 115830057 A CN115830057 A CN 115830057A CN 202211649551 A CN202211649551 A CN 202211649551A CN 115830057 A CN115830057 A CN 115830057A
Authority
CN
China
Prior art keywords
gravity center
coordinate data
tester
center track
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211649551.1A
Other languages
English (en)
Inventor
刘铮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xinqing Tech Co ltd
Original Assignee
Beijing Xinqing Tech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xinqing Tech Co ltd filed Critical Beijing Xinqing Tech Co ltd
Priority to CN202211649551.1A priority Critical patent/CN115830057A/zh
Publication of CN115830057A publication Critical patent/CN115830057A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种基于视觉识别的重心轨迹提取方法,属于运动评估技术领域。所述基于视觉识别的重心轨迹提取方法包括:获取深度摄像头采集的测试者的视频图像;从所述视频图像中提取测试者的身体标记点的空间坐标数据;根据所述空间坐标数据,计算测试者的重心轨迹。本发明实施例通过视觉识别技术,可以直接提取并计算测试者的重心轨迹,操作简便,准确度高,能够提高测试综合评估水平。

Description

基于视觉识别的重心轨迹提取方法
技术领域
本发明涉及运动评估技术领域,特别是指一种基于视觉识别的重心轨迹提取方法。
背景技术
目前大部分平衡评估***中,多以压力为获得重心轨迹的主要手段,通过两脚或单脚进行重心轨迹提取,并对测试者平衡能力进行评估。这就导致平衡测试仪多以单独的测试仪器存在,在测试空间和步骤上都稍显繁琐。
现有技术中也有通过运动视频提取运动对象重心轨迹的方法,如发明专利申请CN1770204A公开了一种从具有静态背景的运动视频中提取运动对象重心轨迹的方法,发明专利申请CN1766928A公开了一种基于动态背景运动视频的运动对象重心轨迹提取方法,然而这些技术在提取运动对象重心轨迹时,均为提取运动对象在视频中的轮廓计算所得,但在人体中,各个身体部位所占重量不同,不能单纯以视频中轮廓计算,这些技术计算所得重心与人体真实重心位置可能出现较大误差。
发明内容
有鉴于此,本发明实施例提供一种操作简便,准确度高的基于视觉识别的重心轨迹提取方法。
一种基于视觉识别的重心轨迹提取方法,包括:
获取深度摄像头采集的测试者的视频图像;
从所述视频图像中提取测试者的身体标记点的空间坐标数据;
根据所述空间坐标数据,计算测试者的重心轨迹。
进一步的,所述身体标记点包括至少30个标记点,分别为:头、颈、脊柱上部、脊柱中部、脊柱底部、左/右肩、左/右肘、左/右腕、左/右手、左/右髋、左/右膝、左/右踝、左/右足、左/右指尖、左/右拇指、鼻子、左/右眼、左/右耳。
进一步的,所述空间坐标数据仅包括水平面内两坐标轴对应的坐标数据。
进一步的,所述根据所述空间坐标数据,计算测试者的重心轨迹,包括:
对于水平面内任一坐标轴,将各身体标记点在该坐标轴的坐标数据乘以预设权重后加和,即为所述重心轨迹在该坐标轴的坐标数据;
组合所述重心轨迹在水平面内两坐标轴的坐标数据,即得所述重心轨迹。
进一步的,所述预设权重的计算方法包括:
获取平衡测试板记录的测试者执行预设动作的重心轨迹Tb
获取深度摄像头采集的测试者执行所述预设动作的视频图像;
从测试者执行所述预设动作的视频图像中提取测试者的身体标记点的空间坐标数据L;
运用通径分析确定所述身体标记点的空间坐标数据L和重心轨迹Tb之间的相关系数,即得所述预设权重。
进一步的,所述预设动作包括双足睁眼站立、双足闭眼站立、单足睁眼站立和单足睁眼站立中的至少一个。
进一步的,所述运用通径分析确定所述身体标记点的空间坐标数据L和重心轨迹Tb之间的相关系数,即得所述预设权重,包括:
对于水平面内任一坐标轴,运用通径分析确定所述身体标记点在该坐标轴的坐标数据和所述重心轨迹Tb在该坐标轴的轨迹数据该两者之间的相关系数,即为所述身体标记点在该坐标轴的坐标数据的预设权重。
本发明实施例提供的基于视觉识别的重心轨迹提取方法,首先获取深度摄像头采集的测试者完成一定动作的视频图像,然后从所述视频图像中提取测试者身体标记点的空间坐标数据,最后根据所述空间坐标数据,计算测试者的重心轨迹。这样,本发明实施例通过视觉识别技术,可以直接提取并计算测试者的重心轨迹,操作简便,准确度高,能够提高测试综合评估水平。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明的基于视觉识别的重心轨迹提取方法的流程示意图;
图2为本发明中人体标记点示意图;
图3为本发明中预设权重的计算方法的流程示意图;
图4为图3中步骤A1利用平衡测试板记录的测试者重心轨迹的示意图;
图5为图3中步骤A4所使用的通径分析的多元回归模型结构图;
图6为图3中步骤A4所使用的通径分析中解释变量和被解释变量的通径结构图;
图7为本发明实施例和对比例得到的重心轨迹的对比示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例提供一种基于视觉识别的重心轨迹提取方法,如图1所示,包括:
步骤101:获取深度摄像头采集的测试者的视频图像;
本步骤中,测试者在测试时执行一定动作,在此过程中,深度摄像头采集测试者的视频图像,然后获取该视频图像,摄像头优选为具有3D功能的深度摄像头。
步骤102:从所述视频图像中提取测试者的身体标记点的空间坐标数据;
本步骤中,可利用视觉识别***从所述视频图像中提取测试者的身体标记点的空间坐标数据,具体提取方法可采用本领域常规技术,此处不再赘述。
作为一种可选的实施例,所述身体标记点包括至少30个标记点,分别为:头、颈、脊柱上部、脊柱中部、脊柱底部、左/右肩、左/右肘、左/右腕、左/右手、左/右髋、左/右膝、左/右踝、左/右足、左/右指尖、左/右拇指、鼻子、左/右眼、左/右耳。
提取的空间坐标数据例如可以如下:
ιi=xi,yi,zi),表示第i个身体标记点的坐标,测试者的身体标记点集合表示为R(x,y,z)。在测试过程中采集得到视频图像各时间序列中的30个身体标记点的空间坐标数据。
测试者的身体标记点及编号可以如表1和图2所示。
表1身体标记点及编号
编号 标记点 编号 标记点
0 脊柱底部 15 左脚
1 脊柱中部 16 右髋
2 17 右膝
3 18 右踝
4 左肩 19 右脚
5 左肘 20 脊柱上部
6 左腕 21 左手尖
7 左手 22 左拇指
8 右肩 23 右手尖
9 右肘 24 右拇指
10 右腕 25 鼻子
11 右手 26 左眼
12 左髋 27 左耳
13 左膝 28 右眼
14 左踝 29 右耳
作为另一种可选的实施例,所述空间坐标数据可以仅包括水平面内两坐标轴对应的坐标数据。这样,本发明实施例以水平面为重心轨迹提取面(与现有重心轨迹提取方式相同),具体来说,可以依据水平面内X轴和Y轴身体(部位)标记点坐标进行重心轨迹提取,例如:xn为第n个身体标记点在水平面上X轴坐标,yn为第n个身体标记点在水平面上Y轴坐标,n=0,1,…,29。
步骤103:根据所述空间坐标数据,计算测试者的重心轨迹。
作为一种可选的实施例,所述根据所述空间坐标数据,计算测试者的重心轨迹(步骤103),可以包括:
步骤1031:对于水平面内任一坐标轴,将各身体标记点在该坐标轴的坐标数据乘以预设权重后加和,即为所述重心轨迹在该坐标轴的坐标数据;
步骤1032:组合所述重心轨迹在水平面内两坐标轴的坐标数据,即得所述重心轨迹。
上述步骤1031-1032中,重心轨迹计算需要X轴和Y轴身体标记点的坐标,重心轨迹T的计算方法具体可以为:
x=k1x1+2x2+3x3+…+nxn
y=g1y1+2y2+3y3+…+nyn
组合X轴和Y轴的坐标数据,得到T(x,y),为重心点位集合,即为重心轨迹。
进一步的,如图3所示,所述步骤1031中预设权重的计算方法可以包括:
步骤A1:获取平衡测试板记录的测试者执行预设动作的重心轨迹Tb
本步骤中,运用现有的平衡测试板,测试者按照测试流程,参考国际静平衡测试方法,执行预设动作,预设动作可以包括双足睁眼站立、双足闭眼站立、单足睁眼站立和单足闭眼站立中的至少一个。每种预设动作可以测试15秒,测试时间可以共计1分钟,测试过程中尽量保持身体稳定站立。平衡测试板记录的测试者的重心轨迹可以如图4所示。
步骤A2:获取深度摄像头采集的测试者执行所述预设动作的视频图像;
本步骤与前述步骤101类似,此处不再赘述。
步骤A3:从测试者执行所述预设动作的视频图像中提取测试者的身体标记点的空间坐标数据L;
本步骤与前述步骤102类似,此处不再赘述。
步骤A4:运用通径分析确定所述身体标记点的空间坐标数据L和重心轨迹Tb之间的相关系数,即得所述预设权重。
上述步骤A1-A4,通过通径分析,计算测试者的身体标记点的空间坐标数据L和平衡测试板记录的测试者执行预设动作的重心轨迹Tb之间的相关系数,即得所述预设权重。
作为一种可选的实施例,所述运用通径分析确定所述身体标记点的空间坐标数据L和重心轨迹Tb之间的相关系数,即得所述预设权重(步骤A4),可以包括:
对于水平面内任一坐标轴,运用通径分析确定所述身体标记点在该坐标轴的坐标数据和所述重心轨迹Tb在该坐标轴的轨迹数据该两者之间的相关系数,即为所述身体标记点在该坐标轴的坐标数据的预设权重。
这样,本发明实施例通过两次通径分析,分别对Lx和Tbx之间的相关系数(即前述的系数k),Ly和Tby之间的相关系数(即前述的系数g)进行计算,即得所述预设权重,其中,Lx和Ly表示本发明视觉识别时重心轨迹在水平面两坐标轴上的坐标序列,Tbx和Tby表示平衡测试板记录的重心轨迹在水平面两坐标轴上的坐标序列。
本发明实施例中,运用通径分析计算各个身体标记点与重心轨迹之间的相关系数,具体步骤可以如下:
通径分析是相关分析的延续,是在多元回归模型(图5)的基础上对相关系数分解,分离出某一解释变量对解释变量的直接作用效果、通过其他解释变量对被解释变量的间接作用效果和总的作用效果。
假设解释变量为X1,X2,…,Xi,用最小二乘估计多元线性回归模型,结果为:
Figure BDA0004009694800000061
则直接通径系数PuY是系数
Figure BDA0004009694800000062
标准化后的结果,由式(2)计算而得:
Figure BDA0004009694800000063
其中,σXi、σY表示Xi、Y的标准差,X1,X2,…,Xi为解释变量,Y为被解释变量,rij表示解释变量Xi和Xj的简单相关系数,riY表示解释变量Xi和Y的相关系数,PiY是直接通径系数,表示固定其他解释变量时,Xi直接作用于Y的大小。
则可以把riY分解为下列方程组:
Figure BDA0004009694800000064
Xi通过其他解释变量Xj对解释变量Y的间接通径为rijPiY,式(3)可简写为:
riY=PiY+∑i≠jrijPjYi=1,2,…,k (4)
式(4)说明Xi和Y的简单相关系数等于Xi对Y的直接通径系数加上Xi通过其他k-1个解释变量对被解释变量Y的间接通径系数,其关系可以由图6表示。
Figure BDA0004009694800000071
是解释变量Xi对解释变量Y的直接决策系数,
Figure BDA0004009694800000072
是Xi对Y的间接决定系数。解释变量Xi对Y的间接决定系数。解释变量Xi对解释变量Y的总决定系数为:
Figure BDA0004009694800000073
解释变量Xi对解释变量Y的决定系数为:
Figure BDA0004009694800000074
计算未进入模型的解释变量和误差对被解释变量Y的通径效应系数PrY,即通径残差效应:
Figure BDA0004009694800000075
综上,本发明实施例的基于视觉识别的重心轨迹提取方法,首先获取深度摄像头采集的测试者完成一定动作的视频图像,然后从所述视频图像中提取测试者身体标记点的空间坐标数据,最后根据所述空间坐标数据,计算测试者的重心轨迹。这样,本发明实施例通过视觉识别技术,可以直接提取并计算测试者的重心轨迹,操作简便,准确度高,能够提高测试综合评估水平。
并且,本发明实施例以平衡测试板记录的测试者执行预设动作的重心轨迹为基准,然后运用通径分析确定身体标记点的空间坐标数据L和平衡测试板记录的重心轨迹Tb之间的相关系数,从而得到各身体标记点的预设权重,最后利用该预设权重计算测试者的重心轨迹。与现有技术提取运动对象在视频中的轮廓计算重心轨迹(身体各部位所占重量不同,该方式计算所得重心与人体真实重心位置可能出现较大误差)相比,本发明实施例准确度大大提高。
下面对本发明的基于视觉识别的重心轨迹提取方法的准确度进行对比实验分析。
以本发明图1-3所示的基于视觉识别的重心轨迹提取方法提取的重心轨迹作为实施例(简称为“视觉识别”),以现有的平衡测试板测得的重心轨迹作为对比例。也就是说,在表2和图7中,“视觉识别”代表本发明实施例,“平衡测试板”代表对比例。
表2实施例和对比例的重心轨迹对比数据表
Figure BDA0004009694800000081
由表2和图7可知,将本发明方法测试提取得到的重心轨迹与平衡测试板测得的重心轨迹进行对应,以平衡测试板测得的重心轨迹为标准,发现本发明相似度高达93.81%,说明本发明方法提取重心轨迹的准确性高。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种基于视觉识别的重心轨迹提取方法,其特征在于,包括:
获取深度摄像头采集的测试者的视频图像;
从所述视频图像中提取测试者的身体标记点的空间坐标数据;
根据所述空间坐标数据,计算测试者的重心轨迹。
2.根据权利要求1所述的方法,其特征在于,所述身体标记点包括至少30个标记点,分别为:头、颈、脊柱上部、脊柱中部、脊柱底部、左/右肩、左/右肘、左/右腕、左/右手、左/右髋、左/右膝、左/右踝、左/右足、左/右指尖、左/右拇指、鼻子、左/右眼、左/右耳。
3.根据权利要求1所述的方法,其特征在于,所述空间坐标数据仅包括水平面内两坐标轴对应的坐标数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述空间坐标数据,计算测试者的重心轨迹,包括:
对于水平面内任一坐标轴,将各身体标记点在该坐标轴的坐标数据乘以预设权重后加和,即为所述重心轨迹在该坐标轴的坐标数据;
组合所述重心轨迹在水平面内两坐标轴的坐标数据,即得所述重心轨迹。
5.根据权利要求4所述的方法,其特征在于,所述预设权重的计算方法包括:
获取平衡测试板记录的测试者执行预设动作的重心轨迹Tb
获取深度摄像头采集的测试者执行所述预设动作的视频图像;
从测试者执行所述预设动作的视频图像中提取测试者的身体标记点的空间坐标数据L;
运用通径分析确定所述身体标记点的空间坐标数据L和重心轨迹Tb之间的相关系数,即得所述预设权重。
6.根据权利要求5所述的方法,其特征在于,所述预设动作包括双足睁眼站立、双足闭眼站立、单足睁眼站立和单足睁眼站立中的至少一个。
7.根据权利要求5所述的方法,其特征在于,所述运用通径分析确定所述身体标记点的空间坐标数据L和重心轨迹Tb之间的相关系数,即得所述预设权重,包括:
对于水平面内任一坐标轴,运用通径分析确定所述身体标记点在该坐标轴的坐标数据和所述重心轨迹Tb在该坐标轴的轨迹数据该两者之间的相关系数,即为所述身体标记点在该坐标轴的坐标数据的预设权重。
CN202211649551.1A 2022-12-21 2022-12-21 基于视觉识别的重心轨迹提取方法 Pending CN115830057A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211649551.1A CN115830057A (zh) 2022-12-21 2022-12-21 基于视觉识别的重心轨迹提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211649551.1A CN115830057A (zh) 2022-12-21 2022-12-21 基于视觉识别的重心轨迹提取方法

Publications (1)

Publication Number Publication Date
CN115830057A true CN115830057A (zh) 2023-03-21

Family

ID=85517406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211649551.1A Pending CN115830057A (zh) 2022-12-21 2022-12-21 基于视觉识别的重心轨迹提取方法

Country Status (1)

Country Link
CN (1) CN115830057A (zh)

Similar Documents

Publication Publication Date Title
CN110969114B (zh) 一种人体动作功能检测***、检测方法及检测仪
CN104598867B (zh) 一种人体动作自动评估方法及舞蹈评分***
Leightley et al. Automated analysis and quantification of human mobility using a depth sensor
US11759126B2 (en) Scoring metric for physical activity performance and tracking
Dentamaro et al. Gait analysis for early neurodegenerative diseases classification through the kinematic theory of rapid human movements
CN112970074A (zh) 身体活动量化和监测
US11663845B2 (en) Method and apparatus for privacy protected assessment of movement disorder video recordings
CN111883229B (zh) 一种基于视觉ai的智能运动指导方法及***
JP2000251078A (ja) 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
Tsai et al. Enhancing accuracy of human action Recognition System using Skeleton Point correction method
US20220095959A1 (en) Feigned Injury Detection Systems And Methods
CN110991292A (zh) 动作识别比对方法、***、计算机存储介质和电子装置
Cotton et al. Markerless Motion Capture and Biomechanical Analysis Pipeline
KR20170106737A (ko) 다방향 인식을 이용한 태권도 동작 평가 장치 및 방법
CN117115922A (zh) 坐位体前屈评测方法、***、电子设备和存储介质
JP7103998B2 (ja) 骨格抽出方法、装置およびプログラム
CN111353345B (zh) 提供训练反馈的方法、装置、***、电子设备、存储介质
CN115830057A (zh) 基于视觉识别的重心轨迹提取方法
JP7490600B2 (ja) 情報処理装置、方法およびプログラム
WO2022137450A1 (ja) 情報処理装置、情報処理方法およびプログラム
Convertini et al. Sit-to-Stand Test for Neurodegenerative Diseases Video Classification
Khokhlova et al. Kinematic covariance based abnormal gait detection
Cotton et al. Optimizing Trajectories and Inverse Kinematics for Biomechanical Analysis of Markerless Motion Capture Data
Nguyen et al. Vision-based global localization of points of gaze in sport climbing
CN113643788B (zh) 基于多个图像获取设备确定特征点的方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination