CN116189301A - 一种基于姿态估计的立定跳远动作规范性评估方法 - Google Patents
一种基于姿态估计的立定跳远动作规范性评估方法 Download PDFInfo
- Publication number
- CN116189301A CN116189301A CN202310162836.0A CN202310162836A CN116189301A CN 116189301 A CN116189301 A CN 116189301A CN 202310162836 A CN202310162836 A CN 202310162836A CN 116189301 A CN116189301 A CN 116189301A
- Authority
- CN
- China
- Prior art keywords
- key
- actions
- long jump
- motion
- normalization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
一种基于姿态估计的立定跳远动作规范性评估方法,属于人体运动姿态校正技术领域。其特征在于:包括如下步骤:步骤1,采用基于深度学习的人体姿态估计算法,对视频流中的动作进行捕获,对人体姿态进行估计;步骤2,确定立定跳远中的关键动作,构建关键动作的关键点序列,与测试视频逐帧比较,最终选出测试的关键动作;步骤3,提取关键动作并与标准动作进行规范性分析,得到动作与标准动作的相似度。在本基于姿态估计的立定跳远动作规范性评估方法中,使用了基于深度学习的姿态估计算法获得跳远动作的关键点,通过对比每帧动作与目标动作的相似度,提取出跳远的关键动作,针对跳远的规范性进行分析,以便于对跳远的动作进行评价并给出改进建议。
Description
技术领域
一种基于姿态估计的立定跳远动作规范性评估方法,属于人体运动姿态校正技术领域。
背景技术
在体育运动中,动作的规范与否直接决定我们训练的效果,如果动作不规范会导致错误动作的条件反射、运动损伤的风险增加、肌肉协调性转移、本体感觉能力下降、训练效率降低等问题。而立定跳远是一种对动作规范性要求较为严格的田径项目,动作规范与否直接影响到运动员的训练效果以及最终成绩。在传统的立定跳远训练中一般是教师对学生的动作做出主观评价,学生无法直观地发现自己动作是否标准,所以需要一种客观的方法来评价跳远动作的规范性。
要分析跳远动作的规范性,首先要对运动姿态进行捕获。早期的人体动作识别都是需要外界设备的辅助,去感知人体姿态的变化从而进行人体动作的识别。在文献“Dowling AV,Favre J,Andriacchi T P.Inertial Sensor-Based Feedback Can ReduceKey Risk Metrics for Anterior Cruciate Ligament Injury During Jump Landings[J].American Journal of Sports Medicine,2012,40(5):1075-1083.”中采用惯性传感器设备检测膝盖弯曲角度、躯干倾斜和大腿冠状速度,并将其应用于前交叉韧带损伤检测识别中。在文献“Pansiot,Lo,Yang G Z.Swimming Stroke Kinematic Analysis with BSN[C]//International Conference on Body Sensor Networks.IEEE,2010.”公开的技术方案中基于加速度计的微型传感器进行游泳运动分析。通过记录加速度中提取的俯仰角和侧倾角特征,来识别人体的姿态及基本的运动指数,并开发了检测游泳表现的***,可以应用于指导训练。因此目前针对运动姿态捕获的技术方案中虽然使用传感器能准确地推理出人体的动作,但是由于每次使用都需要佩戴传感器,不具有便利性。
一个动作的规范性是通过计算与标准动作的相似度来判断的,关于动作之间的相似度提出了许多计算方法。在文献“蒋莹.基于Kinect的体育运动辅助训练研究[J].自动化技术与应用,2019,38(9):4.”中采用欧氏距离来计算相似度,根据获取的关节点的坐标来比较关节点间的差异,进行动作的评估。但该方法需要两个视频在同一时间点上动作高度对应,并且当学员高矮或胖瘦不相同时,会因坐标位置变换导致计算结果产生较大偏移,故欧氏距离逐渐被其它方法取代。在文献“于景华,王庆,陈洪.基于动作评价算法的体感舞蹈交互***[J].计算机与现代化,2018(6):9.”中使用插值小波提取参考动作的关键帧,通过DTW算法匹配参考动作和对比动作,最后归一化匹配的关键帧之间的平均距离,得到2个动作序列的相似度。采用DTW计算相似性,可以有效评估时间序列之间的相似性,但是只能给出动作大致的相似性,不能给出动作的细致性建议。
针对以上问题,设计一种针对立定跳远的规范性分析方法,并对立定跳远的动作进行评价并给出改进建议的技术方案,成为本领域亟待解决的问题。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种使用了基于深度学习的姿态估计算法获得跳远动作的关键点,通过对比每帧动作与目标动作的相似度,提取出跳远的关键动作,针对跳远的规范性进行分析,以便于对跳远的动作进行评价并给出改进建议的基于姿态估计的立定跳远动作规范性评估方法。
本发明解决其技术问题所采用的技术方案是:该基于姿态估计的立定跳远动作规范性评估方法,其特征在于:包括如下步骤:
步骤1,采用基于深度学习的人体姿态估计算法,对视频流中的动作进行捕获,对人体姿态进行估计;
步骤2,确定立定跳远中的关键动作,构建关键动作的关键点序列,与测试视频逐帧比较,最终选出测试的关键动作;
步骤3,提取关键动作,并将提取的关键动作与标准动作进行规范性分析,得到测试者的动作与标准动作的相似度。
优选的,步骤1包括如下步骤:
步骤1-1,确定人体姿态估计数据集;
步骤1-2,对输入图片进行降采样处理;
步骤1-3,确定人体姿态估计算法,输入图像中所有的关键点,并采用热力图的方式来实现人体关键点的识别;
步骤1-4,针对步骤1-3中所形成的热力图,分别使用不同的损失函数。
优选的,在步骤1-1中,采用了COCO(2017)和Al_Challenger(2018)的子集,并进行裁剪,使每张图都只有一个人。
优选的,在步骤1-3中,采用自底向上的方法:先识别输入图像中所有的关键点,再把所属于同一个人的关键点进行分类,在采用热力图的方式来实现人体关键点的识别时,使用MobileNet-v3作为主干网络,结合特征金字塔提取特征,生成四个热力图:人体的中心点、所有人体关键点的集合、关键点的偏移量、关键点的量化误差。
优选的,关键点包括人体的:左右眼、左右耳、鼻、左右肩关节、左右肘关节、左右手、左右髋关节、左右膝关节和左右脚。
优选的,步骤3,包括如下步骤:
步骤3-1,计算局部关节的规范性;
步骤3-2,计算整体动作规范性;
步骤3-3,计算足部轨迹的规范性;
步骤3-4,步骤3-4,动作规范性评分。
优选的,在步骤3-1中,在动作相似判定时,采用动态规划法来对动作的相似度进行计算,各关节的角度采用余弦相似度计算法实现。
优选的,在步骤3-2中,根据立定跳远项目的特征,结合优先度匹配规则,给予优先度高的特征更大的特征指数,最后按特征指数求取特征相似度作为评估结果,得到待测姿态和标准姿态骨骼关键点向量之间的总体相似度:
Ci=(1-λ)wd+λ(|cos(ai)|+1)q
其中,Ci表示各关节的特征相似度,cos(αi)表示各关节的余弦相似度,d表示两个动作的DTW值,λ∈(0,1),其最优值为0.73,w,q是特征指数。
优选的,在步骤3-4中,动作规范性计算采用阶梯型评分,各关节的特征余弦相似度与足部轨迹的积分差值进行加权:
其中,Si表示各关节点的阶梯型评分,Ci表示各关节的特征相似度,w,q是特征指数,每个关节的最高评分为20,各关节的评分累加再减去整体动作的积分差值,得到关键动作的评分,k表示评分阈值,a表示起跳点,b表示落地点。
与现有技术相比,本发明所具有的有益效果是:
在本基于姿态估计的立定跳远动作规范性评估方法中,使用了基于深度学习的姿态估计算法获得跳远动作的关键点,通过对比每帧动作与目标动作的相似度,提取出跳远的关键动作,针对跳远的规范性进行分析,以便于对跳远的动作进行评价并给出改进建议。
附图说明
图1为基于姿态估计的立定跳远动作规范性评估方法流程图。
图2为基于姿态估计的立定跳远动作规范性评估方法准备动作DTW值曲线图。
图3为基于姿态估计的立定跳远动作规范性评估方法空中动作DTW值曲线图。
图4为基于姿态估计的立定跳远动作规范性评估方法落地动作DTW值曲线图。
图5为基于姿态估计的立定跳远动作规范性评估方法缓冲动作DTW值曲线图。
图6为基于姿态估计的立定跳远动作规范性评估方法剔除非跳远关键点前的足部关键点分布图。
图7为基于姿态估计的立定跳远动作规范性评估方法剔除非跳远关键点后的足部关键点分布图。
具体实施方式
图1~7是本发明的最佳实施例,下面结合附图1~7对本发明做进一步说明。
如图1所示,一种基于姿态估计的立定跳远动作规范性评估方法(以下简称评估方法),包括如下步骤:
步骤1,人体姿态估计;
在现有技术中,针对人体进行姿态估计的方法包括CPM、AlphaPose等自顶向下的方法和OpenPose、PersonLab等自底向上的方法,然而传统的人体姿态估计方案存在关键点定位错误与模型速度过慢的问题,因此在本评估方法中,针对现有技术存在的问题,在本评估方法中采用了基于深度学习的人体姿态估计算法,对视频流中的动作进行捕获。基于视觉的智能人体姿态估计是近年来计算机视觉领域中最具有挑战的方向,其通过检测视频序列中人的动作、提取动作特征和学习动作特征,进而识别出视频中人的行为动作。具体包括如下步骤:
步骤1-1,确定人体姿态估计数据集;
在本评估方法中,采用了COCO(2017)和Al_Challenger(2018)的子集,并进行裁剪,使每张图都只有一个人,并标注了1362张立定跳远项目中的人体骨骼关键点加入到数据集中,同时对部分原有的图像进行镜像处理后进行标注。通过提高标注图片数量及质量的方式,有效降低了关键点定位错误的问题。
步骤1-2,对输入图片进行降采样处理。在模型训练中,通常会为了减少训练难度和资源占用率而降低输入图片的分辨率,在降采样后的分辨率上进行训练。为了让模型可以用热度图的方式进行训练,降采样的同时也需要将原图中的骨骼关键点坐标转化为降采样后分辨率下的关键点坐标,并用高斯模糊转换成热度图。在进行热度图预测后,将降采样后的图片分辨率恢复到原始像素,并在原始坐标空间找到预测的关键点坐标。
步骤1-3,确定人体姿态估计算法。
在本估计方法中,采用自底向上的方法:先识别输入图像中所有的关键点,再把所属于同一个人的关键点进行分类。本模型采用热力图的方式来实现人体关键点的识别,使用MobileNet-v3作为主干网络,结合特征金字塔(FPN)提取特征,生成四个热力图:人体的中心点(Center)、所有人体关键点的集合(Keypoints)、关键点的偏移量(Reg)、关键点的量化误差(Offset)。
对得到的热力图进行处理,header_Reg的2K个通道对应坐标位置取出2K个值,然后加上中心点坐标,得到了粗略的关键点位置。再把header_Keypoints除以一个权重矩阵,再分别通过K个通道求最大值的坐标,就得到了精细化的17个关键点坐标。17个关键点从上到下依次为:左右眼、左右耳、鼻、左右肩关节、左右肘关节、左右手、左右髋关节、左右膝关节和左右脚,按1至17分别编号。
步骤1-4,对每个热力图采用不同的损失函数。
在本估计方法中,损失函数使用了加权的MSE和L1 Loss。在步骤1-3所形成的热力图中,人体的中心点(Center)、所有人体关键点的集合(Keypoints)采用了加权MSE,平衡了正负样本,关键点的偏移量(Reg)、关键点的量化误差(Offset)采用了L1 Loss,最终各个Loss权重设置为1:1:1:1。
步骤2,关键动作提取;
一次跳远练习会包含几百帧动作,对每个动作都进行分析不仅会增加***的复杂度还会降低***的鲁棒性。所以对动作进行规范性分析之前,需要对跳远的关键动作进行提取。在本估计方法中,将起跳动作、腾空动作、落地动作、缓冲动作分别作为完成一次立定跳远过程的四个关键动作。构建了四个动作的关键点序列,与测试视频逐帧比较,最终选出测试的关键动作。
测试视频和关键动作的比较方法采用了动态时间规整方法(Dynamic TimeWarping,DTW),动态时间规整(Dynamic Time Warping,DTW)是一种结合距离测量和时间规整的非线性规整技术,用于衡量两个长度不等的时间序列之间的相似度:
目标点定义为(x,y),则目标点的DTW计算公式为:
其中,K∈[max(x,y),x+y-1],Wi是每条路径的序列距离值,最优路径W需要满足以下条件:
1、边界性:W的起点和终点必须是平面对角线的起点和终点,即W1=(1,1),WK=(x,y)。
2、连续性:对于相邻的两个点Wi(xi,yi)和Wi-1(xi-1,yi-1),其中xi-xi-1≤1,yi-yi-1≤1,使得相邻点是连续的。
3、单调性:对于相邻的两个点Wi(xi,yi)和Wi-1(xi-1,yi-1),其中xi-xi-1≥0,yi-yi-1≥0,W上的元素都是不可回退的。
计算所有帧中动作序列与标准动作序列的DTW值,当DTW值越小时,代表两个序列越相近。如图2~5所示,分别取四个曲线中的最小值作为关键动作。
步骤3,动作规范性分析;
提取关键动作之后,需要与标准动作进行规范性分析。在本估计方法中,采用了关节角度差结合特征指数来判断动作的规范性,通过关节角度差实现测试时间序列的分割,然后采用DTW计算测试序列与标准序列的距离差,从而得到测试者的动作与标准动作的相似度。在关节角度计算的基础上,添加了特征指数,提高了计算相似度的准确性,具体包括如下步骤:
步骤3-1,计算局部关节的规范性;
由于人的体型差异,在动作相似判定时,需要采用动态规划法来对动作的相似度进行计算,各关节的角度采用余弦相似度计算法来实现。余弦相似度用来衡量两个向量在方向上的差异:两个n维向量A=(a1,a2,...,an),B=(b1,b2,...,bn),夹角余弦的取值范围是[-1,1],余弦值与向量的夹角呈反比关系,当两个向量反向时取-1,两个向量同向时取1。
其中:Ai、Bi表示维向量,i取值为1~n,θ表好似各关节角度。
步骤3-2,计算整体动作规范性;
根据立定跳远项目的特征,结合优先度匹配规则,给予优先度高的特征更大的特征指数,最后按特征指数求取特征相似度作为评估结果,从而得到待测姿态和标准姿态骨骼关键点向量之间的总体相似度:
Ci=(1-λ)wd+λ(|cos(ai)|+1)q
其中,Ci表示各关节的特征相似度,数值越小,动作越规范。cos(αi)表示各关节的余弦相似度,d表示两个动作的DTW值,λ∈(0,1),其最优值为0.73,w,q是特征指数。
由于每个关节点活动的角度不同,得到的余弦相似度差值较大,所以w,q每个关节对应不同的值,以保证得分的权重是相同的,如下表所示:
表1各关节对应的特征指数
步骤3-3,计算足部轨迹的规范性;
对于整体跳远流程的规范性,过滤出足部关键点的轨迹,计算出足部关键点与最低点水平线之间的积分值与标准动作差的绝对值来判别。在计算之前,需要对足部关键点进行过滤,把非跳远过程中的关键点剔除,如图6~7所示。
由于每个节点之间是相互离散的,整体的抛物线并非是一个连续光滑的曲线,无法通过现成公式直接计算出标准答案,可以通过黎曼积分的定义来求得近似值,公式如下:
其中,约等式左边为连续函数的积分值,约等式右边为离散函数的积分近似值。其中xi+1-xi为相邻点的横坐标值差,f(ti)为xi+1与xi区间内的某一函数值,这里为了统一标准,默认取区间内最大值。将上述的值相乘并将i从0到取n-1的结果相加,即可得到积分的近似值a表示起跳点,b表示落地点。
步骤3-4,动作规范性评分。
最终的动作规范性计算采用阶梯型评分,各关节的特征余弦相似度与足部轨迹的积分差值进行加权。公式如下:
为了使评分统一化,Si是各关节点的阶梯型评分,每个关节的最高评分为20,各关节的评分累加再减去整体动作的积分差值,得到关键动作的评分,由于每个关节活动角度范围不同,要设定不同的评分阈值k,k通过特征指数w、q表示,使得特征相似度Ci能用同一评分准则进行表示,a表示起跳点,b表示落地点。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (9)
1.一种基于姿态估计的立定跳远动作规范性评估方法,其特征在于:包括如下步骤:
步骤1,采用基于深度学习的人体姿态估计算法,对视频流中的动作进行捕获,对人体姿态进行估计;
步骤2,确定立定跳远中的关键动作,构建关键动作的关键点序列,与测试视频逐帧比较,最终选出测试的关键动作;
步骤3,提取关键动作,并将提取的关键动作与标准动作进行规范性分析,得到测试者的动作与标准动作的相似度。
2.根据权利要求1所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:步骤1包括如下步骤:
步骤1-1,确定人体姿态估计数据集;
步骤1-2,对输入图片进行降采样处理;
步骤1-3,确定人体姿态估计算法,输入图像中所有的关键点,并采用热力图的方式来实现人体关键点的识别;
步骤1-4,针对步骤1-3中所形成的热力图,分别使用不同的损失函数。
3.根据权利要求2所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:在步骤1-1中,采用了COCO(2017)和Al_Challenger(2018)的子集,并进行裁剪,使每张图都只有一个人。
4.根据权利要求2所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:在步骤1-3中,采用自底向上的方法:先识别输入图像中所有的关键点,再把所属于同一个人的关键点进行分类,在采用热力图的方式来实现人体关键点的识别时,使用MobileNet-v3作为主干网络,结合特征金字塔提取特征,生成四个热力图:人体的中心点、所有人体关键点的集合、关键点的偏移量、关键点的量化误差。
5.根据权利要求1或4所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:关键点包括人体的:左右眼、左右耳、鼻、左右肩关节、左右肘关节、左右手、左右髋关节、左右膝关节和左右脚。
6.根据权利要求1所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:步骤3,包括如下步骤:
步骤3-1,计算局部关节的规范性;
步骤3-2,计算整体动作规范性;
步骤3-3,计算足部轨迹的规范性;
步骤3-4,步骤3-4,动作规范性评分。
7.根据权利要求6所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:在步骤3-1中,在动作相似判定时,采用动态规划法来对动作的相似度进行计算,各关节的角度采用余弦相似度计算法实现。
8.根据权利要求6所述的基于姿态估计的立定跳远动作规范性评估方法,其特征在于:在步骤3-2中,根据立定跳远项目的特征,结合优先度匹配规则,给予优先度高的特征更大的特征指数,最后按特征指数求取特征相似度作为评估结果,得到待测姿态和标准姿态骨骼关键点向量之间的总体相似度:
Ci=(1-λ)wd+λ(cos(ai)+1)q
其中,Ci表示各关节的特征相似度,cos(αi)表示各关节的余弦相似度,d表示两个动作的DTW值,λ∈(0,1),其最优值为0.73,w,q是特征指数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310162836.0A CN116189301A (zh) | 2023-02-24 | 2023-02-24 | 一种基于姿态估计的立定跳远动作规范性评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310162836.0A CN116189301A (zh) | 2023-02-24 | 2023-02-24 | 一种基于姿态估计的立定跳远动作规范性评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116189301A true CN116189301A (zh) | 2023-05-30 |
Family
ID=86438052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310162836.0A Pending CN116189301A (zh) | 2023-02-24 | 2023-02-24 | 一种基于姿态估计的立定跳远动作规范性评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116189301A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893953A (zh) * | 2024-03-15 | 2024-04-16 | 四川深蓝鸟科技有限公司 | 一种软式消化道内镜操作规范动作评估方法及*** |
-
2023
- 2023-02-24 CN CN202310162836.0A patent/CN116189301A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893953A (zh) * | 2024-03-15 | 2024-04-16 | 四川深蓝鸟科技有限公司 | 一种软式消化道内镜操作规范动作评估方法及*** |
CN117893953B (zh) * | 2024-03-15 | 2024-06-14 | 四川深蓝鸟科技有限公司 | 一种软式消化道内镜操作规范动作评估方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108256433B (zh) | 一种运动姿态评估方法及*** | |
US8213678B2 (en) | System and method of analyzing the movement of a user | |
CN109522850B (zh) | 一种基于小样本学习的动作相似度评估方法 | |
CN111881887A (zh) | 基于多摄像头的运动姿态监测和指导方法及装置 | |
CN110674785A (zh) | 一种基于人体关键点跟踪的多人姿态分析方法 | |
CN110688929B (zh) | 一种人体骨架关节点定位方法及装置 | |
CN110738154A (zh) | 一种基于人体姿态估计的行人摔倒检测方法 | |
WO2017161734A1 (zh) | 通过电视和体感配件矫正人体动作及*** | |
CN111860157B (zh) | 一种运动分析方法、装置、设备和存储介质 | |
CN113255522B (zh) | 基于时间一致性的个性化运动姿态估计与分析方法及*** | |
CN114550027A (zh) | 基于视觉的运动视频精细分析方法和装置 | |
CN116189301A (zh) | 一种基于姿态估计的立定跳远动作规范性评估方法 | |
CN112464793A (zh) | 一种在线***行为检测方法、***和存储介质 | |
CN115482580A (zh) | 一种基于机器视觉骨骼追踪术的多人评测*** | |
CN114973401A (zh) | 基于动作检测与多模态学习的标准化引体向上评估方法 | |
CN110956141A (zh) | 一种基于局部识别的人体连续动作快速分析方法 | |
CN112568898A (zh) | 一种基于视觉图像对人体运动动作自动进行伤病风险评估及动作矫正的方法、装置及设备 | |
CN113221815A (zh) | 一种基于骨骼关键点自动检测技术的步态鉴定方法 | |
CN114639168B (zh) | 一种用于跑步姿态识别的方法和*** | |
CN115761901A (zh) | 一种骑马姿势检测评估方法 | |
JP7396482B2 (ja) | 判定プログラム、判定装置、および判定方法 | |
CN114360052A (zh) | 一种基于AlphaPose和关节点角度匹配算法的智能体感教练*** | |
Connolly et al. | Automated identification of trampoline skills using computer vision extracted pose estimation | |
CN116630551B (zh) | 运动捕捉和评估装置及其方法 | |
CN113408434B (zh) | 一种智能监控的表情识别方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |