CN110956139A - 一种基于时间序列回归预测的人体运动动作分析方法 - Google Patents

一种基于时间序列回归预测的人体运动动作分析方法 Download PDF

Info

Publication number
CN110956139A
CN110956139A CN201911214899.6A CN201911214899A CN110956139A CN 110956139 A CN110956139 A CN 110956139A CN 201911214899 A CN201911214899 A CN 201911214899A CN 110956139 A CN110956139 A CN 110956139A
Authority
CN
China
Prior art keywords
coordinate
layer
video
model
regression prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911214899.6A
Other languages
English (en)
Other versions
CN110956139B (zh
Inventor
赵红领
李润知
崔莉亚
刘皓东
王菁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan Fiscal And Finance College
Zhengzhou University
Original Assignee
Zhengzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University filed Critical Zhengzhou University
Priority to CN201911214899.6A priority Critical patent/CN110956139B/zh
Publication of CN110956139A publication Critical patent/CN110956139A/zh
Application granted granted Critical
Publication of CN110956139B publication Critical patent/CN110956139B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时间序列回归预测的人体运动动作分析方法,主要包括跳绳视频采集、视频数据预处理、坐标点的获取、特征序列的构建、回归预测模型的建立、模型的调用,通过手机采集人体正面正摇双脚跳过程中的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、体重、所做动作名称,利用深度神经网络构建回归预测模型,解决了运动训练过程中的长时间动作分析和运动潜力发现问题,为运动过程中的动作分析和训练策略得提出提供了参考依据。

Description

一种基于时间序列回归预测的人体运动动作分析方法
技术领域
本发明涉及人体运动动作分析技术领域,特别是涉及一种基于时间序列回归预测的人体运动动作分析方法。
背景技术
近年来随着计算机技术与机器学习的发展和应用,基于视频的时间序列人体动作分析技术迅速兴起并得到了广泛的关注。当前基于视频的时间序列的人体动作分析仍是计算机视觉中一个极具挑战性的课题,涉及图像处理、模式识别、机器学习等多个学科,在智能监控、人机交互、康复运动、体育训练评估等领域有着广泛的应用前景。
时间序列,也称之为动态数列,是被研究对象按照时间的先后顺序进行排列而形成的一组数列,也是被研究对象在不同时间的相应,它反映了研究对象随时间变化的发展过程。时间序列的回归预测是通过对预测目标自身时间序列的分析来研究其变化趋势,在对目标数据简历数学模型的基础上,进一步分析目标数据的内在联系和规律性,从而对目标的未来做出决策。
现有的基于视频的时间序列在人体行为识别算法上存在复杂度高、鲁棒性差、计算负担过重等问题,不能做到实时。此外,在人体动作的回归预测和运动质量评估方面的研究工作较少,所以发明一种鲁棒性高,时间开销稳定的基于时间序列回归预测的人体动作分析方法,对于人体动作分析建模和动作质量评估,以及运动者的潜力挖掘都具有重要的意义。
发明内容
针对上述情况,为克服现有技术之缺陷,本发明之目的在于提供一种基于时间序列回归预测的人体运动动作分析方法,解决了运动训练过程中动作的长时间预测和评估以及运动者潜力挖掘的问题。
其解决的技术方案是,一种基于时间序列回归预测的人体运动动作分析方法,主要包括跳绳视频采集、视频数据预处理、坐标点的获取、特征序列的构建、回归预测模型的建立、模型的调用,具体步骤如下:
步骤1:通过手机采集人体正面正摇双脚跳过程中的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、体重、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,其步骤如下:
步骤A1:将不同手机拍摄的视频数据转换成统一的尺度,将视频高设定为530cm,宽设定为460cm;
步骤A2:利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、左肩、左手肘、左手腕、右臀部、右膝盖、右脚踝、左臀部、左膝盖、左脚踝这14个关节点的坐标位置,坐标表示为CPi=(xi,yi),其中i从1到14,其中,(xi,yi)为人体关键点的坐标;
步骤A3:Open-pose利用预测的关键点和真实值之间的高斯距离来定义关键点的置信度,并将置信度归一化到[0,1]的范围,在此定义为关键点的得分score并得到输出结果inputsi=(xi,yi,scorei);
步骤A4:对14个关键点得分求均值和标准差,并将均值和标准差的和作为整体关键点的得分结果,
Figure BDA0002299235610000021
Figure BDA0002299235610000022
score=score平均+score标准差
步骤3:为了进一步提升算法对拍摄角度、目标远近、录制过程抖动等因素的鲁棒性,分别将关键点以左臀部C1、右臀部C11、脖子C8三个坐标点的重心为原点进行坐标转换并得到数据
Figure BDA0002299235610000023
其中
Figure BDA0002299235610000024
即为转换后的相对坐标定义坐标原点,即,C1、C11、C8三点的重心点C0=(cx0,cy0),其中
Figure BDA0002299235610000025
Figure BDA0002299235610000031
并以原点坐标为参照更新所有坐标点;
步骤4:累计每帧得到的坐标矩阵inputs,得到每段视频的累计坐标矩阵,利用滑动窗口对累计坐标矩阵进行窗口分割,即,滑动窗口长度设置为k帧得到的累计坐标和得分,步长设置为1;
步骤5:利用深度神经网络构建回归预测模型,其步骤为:
骤B1:利用CNN融合RNN来构建网络模型,即,一个双向的LSTM(BiLSTM)模型和一个拥有两层卷积层加全局池化层的模型进行融合来构建深度神经网络模型;
步骤B2:将数据分为训练集和测试集两个部分,利用测试集训练训练网络模型,并保存预训练模型;
步骤B3:将测试数据输入到训练好的模型中,得到预测的结果。
由于以上技术方案的采用,本发明与现有技术相比具有如下优点;
1.通过跳绳视频采集、视频数据预处理、坐标点的获取、特征序列的构建、回归预测模型的建立、模型的调用,解决了运动训练过程中的长时间动作分析和运动潜力发现问题,为运动过程中的动作分析和训练策略得提出提供了参考依据,本发明的结果准确性高、适应性强、健壮性高、可扩展性好,完全能够满足实时人体运动动作分析场景下的需求。
附图说明
图1是本发明优选实施列中单摇双脚跳动作回归预测结构图;
图2是跳绳过程中的14个点的人体姿态估计图;
图3人体关键点坐标转换在直角坐标系中呈现图;
图4总体网络结构图;
图5网络结构各层可视化结果图。
具体实施方式
有关本发明的前述及其他技术内容、特点与功效,在以下配合参考附图1至图5对实施例的详细说明中,将可清楚的呈现。以下实施例中所提到的结构内容,均是以说明书附图为参考。
一种基于时间序列回归预测的人体运动动作分析方法,主要包括跳绳视频采集、视频数据预处理、坐标点的获取、特征序列的构建、回归预测模型的建立、模型的调用,具体步骤如下:
步骤1:通过手机采集人体正面正摇双脚跳过程中的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、体重、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,其步骤如下:
步骤A1:将不同手机拍摄的视频数据转换成统一的尺度,将视频高设定为530cm,宽设定为460cm;
步骤A2:利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、左肩、左手肘、左手腕、右臀部、右膝盖、右脚踝、左臀部、左膝盖、左脚踝这14个关节点的坐标位置,坐标表示为CPi=(xi,yi),其中i从1到14,其中,(xi,yi)为人体关键点的坐标;
步骤A3:Open-pose利用预测的关键点和真实值之间的高斯距离来定义关键点的置信度,并将置信度归一化到[0,1]的范围,在此定义为关键点的得分score并得到输出结果inputsi=(xi,yi,scorei);
步骤A4:对14个关键点得分求均值和标准差,并将均值和标准差的和作为整体关键点的得分结果,
Figure BDA0002299235610000041
Figure BDA0002299235610000042
score=score平均+score标准差
步骤3:为了进一步提升算法对拍摄角度、目标远近、录制过程抖动等因素的鲁棒性,分别将关键点以左臀部C1、右臀部C11、脖子C8三个坐标点的重心为原点进行坐标转换并得到数据
Figure BDA0002299235610000051
其中
Figure BDA0002299235610000052
即为转换后的相对坐标定义坐标原点,即,C1、C11、C8三点的重心点C0=(cx0,cy0),其中
Figure BDA0002299235610000053
Figure BDA0002299235610000054
并以原点坐标为参照更新所有坐标点;
步骤4:累计每帧得到的坐标矩阵inputs,得到每段视频的累计坐标矩阵,利用滑动窗口对累计坐标矩阵进行窗口分割,即,滑动窗口长度设置为k帧得到的累计坐标和得分,步长设置为1;
步骤5:利用深度神经网络构建回归预测模型,其步骤为:
骤B1:利用CNN融合RNN来构建网络模型,即,一个双向的LSTM(BiLSTM)模型和一个拥有两层卷积层加全局池化层的模型进行融合来构建深度神经网络模型;
步骤B2:将数据分为训练集和测试集两个部分,利用测试集训练训练网络模型,并保存预训练模型;
步骤B3:将测试数据输入到训练好的模型中,得到预测的结果。
在执行步骤5时,BiLSTM是一个双向LSTM,双向LSTM有两个LSTM上下叠加在一起组成,输出有两个LSTM的状共同决定,其中一个递归网络从前往后计算隐向量
Figure BDA0002299235610000055
另一个递归神经网络从后往前计算隐向量
Figure BDA0002299235610000056
最后的输出
Figure BDA0002299235610000057
卷积层第一层是一个卷积核为5×5的一维卷积,并加入正则化,第二层卷积核大小为3×3,并加入正则化,第三层是全局池化层,卷积过程中的滤器个数分别为64和32。
在BiLSTM层中加入Dropout层,为了实现线性回归,最后一层激活函数设置为linear激活函数,损失函数选择回归损失函数均方误差(MSE)损失函数;
为了加速网络模型的收敛、控制过拟合加速收敛、控制过拟合在每一卷积层加入批归一化层,批归一化层计算过程为:
Figure BDA0002299235610000061
Figure BDA0002299235610000062
Figure BDA0002299235610000063
Figure BDA0002299235610000064
其中B={z1,...,m}为批处理的输入,m为批处理的大小,μB为批处理数据的均值,
Figure BDA0002299235610000065
为批处理的方差,
Figure BDA0002299235610000066
为规范化结果,ε为一个极小值,hi为尺度变化和偏移后的结果,γ和β为输入网络模型中学习的参数;
在回归预测的输出中给出k连续的子段来预测下一帧的关键点坐标和得分并根据步骤2得到总的得分,利用递归将得到的帧加入到当前序列中预测下一帧的数据。
以上所述是结合具体实施方式对本发明所作的进一步详细说明,不能认定本发明具体实施仅局限于此;对于本发明所属及相关技术领域的技术人员来说,在基于本发明技术方案思路前提下,所作的拓展以及操作方法、数据的替换,都应当落在本发明保护范围之内。

Claims (3)

1.一种基于时间序列回归预测的人体运动动作分析方法,其特征在于,主要包括跳绳视频采集、视频数据预处理、坐标点的获取、特征序列的构建、回归预测模型的建立、模型的调用,具体步骤如下:
步骤1:通过手机采集人体正面正摇双脚跳过程中的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、体重、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,其步骤如下:
步骤A1:将不同手机拍摄的视频数据转换成统一的尺度,将视频高设定为530cm,宽设定为460cm;
步骤A2:利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、左肩、左手肘、左手腕、右臀部、右膝盖、右脚踝、左臀部、左膝盖、左脚踝这14个关节点的坐标位置,坐标表示为CPi=(xi,yi),其中i从1到14,其中,(xi,yi)为人体关键点的坐标;
步骤A3:Open-pose利用预测的关键点和真实值之间的高斯距离来定义关键点的置信度,并将置信度归一化到[0,1]的范围,在此定义为关键点的得分score并得到输出结果inputsi=(xi,yi,scorei);
步骤A4:对14个关键点得分求均值和标准差,并将均值和标准差的和作为整体关键点的得分结果,
Figure FDA0002299235600000011
Figure FDA0002299235600000012
score=score平均+score标准差
步骤3:为了进一步提升算法对拍摄角度、目标远近、录制过程抖动因素的鲁棒性,分别将关键点以左臀部C1、右臀部C11、脖子C8三个坐标点的重心为原点进行坐标转换并得到数据
Figure FDA0002299235600000021
其中
Figure FDA0002299235600000022
即为转换后的相对坐标定义坐标原点,即,C1、C11、C8三点的重心点C0=(cx0,cy0),其中
Figure FDA0002299235600000023
并以原点坐标为参照更新所有坐标点;
步骤4:累计每帧得到的坐标矩阵inputs,得到每段视频的累计坐标矩阵,利用滑动窗口对累计坐标矩阵进行窗口分割,即,滑动窗口长度设置为k帧得到的累计坐标和得分,步长设置为1;
步骤5:利用深度神经网络构建回归预测模型,其步骤为:
骤B1:利用CNN融合RNN来构建网络模型,即,一个双向的LSTM(BiLSTM)模型和一个拥有两层卷积层加全局池化层的模型进行融合来构建深度神经网络模型;
步骤B2:将数据分为训练集和测试集两个部分,利用测试集训练训练网络模型,并保存预训练模型;
步骤B3:将测试数据输入到训练好的模型中,得到预测的结果。
2.如权利要求1所述一种基于时间序列回归预测的人体运动动作分析方法,其特征在于,在执行步骤5时BiLSTM是一个双向LSTM,双向LSTM有两个LSTM上下叠加在一起组成,输出有两个LSTM的状共同决定,其中一个递归网络从前往后计算隐向量
Figure FDA0002299235600000024
另一个递归神经网络从后往前计算隐向量
Figure FDA0002299235600000025
最后的输出
Figure FDA0002299235600000026
卷积层第一层是一个卷积核为5×5的一维卷积,并加入正则化,第二层卷积核大小为3×3,并加入正则化,第三层是全局池化层,卷积过程中的滤器个数分别为64和32。
3.如权利要求1所述一种基于时间序列回归预测的人体运动动作分析方法,其特征在于,在BiLSTM层中加入Dropout层,为了实现线性回归,最后一层激活函数设置为linear激活函数,损失函数选择回归损失函数均方误差(MSE)损失函数;
为了加速网络模型的收敛、控制过拟合加速收敛、控制过拟合在每一卷积层加入批归一化层,批归一化层,计算过程为:
Figure FDA0002299235600000031
Figure FDA0002299235600000032
Figure FDA0002299235600000033
Figure FDA0002299235600000034
其中B={z1,...,m}为批处理的输入,m为批处理的大小,μB为批处理数据的均值,
Figure FDA0002299235600000035
为批处理的方差,
Figure FDA0002299235600000036
为规范化结果,ε为一个极小值,hi为尺度变化和偏移后的结果,γ和β为输入网络模型中学习的参数;
在回归预测的输出中给出k连续的子段来预测下一帧的关键点坐标和得分并根据步骤2得到总的得分,利用递归将得到的帧加入到当前序列中预测下一帧的数据。
CN201911214899.6A 2019-12-02 2019-12-02 一种基于时间序列回归预测的人体运动动作分析方法 Active CN110956139B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911214899.6A CN110956139B (zh) 2019-12-02 2019-12-02 一种基于时间序列回归预测的人体运动动作分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911214899.6A CN110956139B (zh) 2019-12-02 2019-12-02 一种基于时间序列回归预测的人体运动动作分析方法

Publications (2)

Publication Number Publication Date
CN110956139A true CN110956139A (zh) 2020-04-03
CN110956139B CN110956139B (zh) 2023-04-28

Family

ID=69979396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911214899.6A Active CN110956139B (zh) 2019-12-02 2019-12-02 一种基于时间序列回归预测的人体运动动作分析方法

Country Status (1)

Country Link
CN (1) CN110956139B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396001A (zh) * 2020-11-20 2021-02-23 安徽一视科技有限公司 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法
CN112597903A (zh) * 2020-12-24 2021-04-02 珠高电气检测有限公司 基于步幅测量的电力人员安全状态智能识别方法及介质
CN112766420A (zh) * 2021-03-12 2021-05-07 合肥共达职业技术学院 一种基于时频域信息的人体行为识别方法
CN113076936A (zh) * 2021-04-30 2021-07-06 华南理工大学 一种基于绳子目标提取的跳绳计数方法
CN114973403A (zh) * 2022-05-06 2022-08-30 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的高效行为预测方法
CN117612245A (zh) * 2023-09-26 2024-02-27 飞项科技(广州)有限公司 用于常规跳绳测试的自动计数方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN108446583A (zh) * 2018-01-26 2018-08-24 西安电子科技大学昆山创新研究院 基于姿态估计的人体行为识别方法
CN108537109A (zh) * 2018-02-13 2018-09-14 东南大学 基于OpenPose的单目相机手语识别方法
CN109919122A (zh) * 2019-03-18 2019-06-21 中国石油大学(华东) 一种基于3d人体关键点的时序行为检测方法
CN109949368A (zh) * 2019-03-14 2019-06-28 郑州大学 一种基于图像检索的人体三维姿态估计方法
CN110503077A (zh) * 2019-08-29 2019-11-26 郑州大学 一种基于视觉的实时人体动作分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN108446583A (zh) * 2018-01-26 2018-08-24 西安电子科技大学昆山创新研究院 基于姿态估计的人体行为识别方法
CN108537109A (zh) * 2018-02-13 2018-09-14 东南大学 基于OpenPose的单目相机手语识别方法
CN109949368A (zh) * 2019-03-14 2019-06-28 郑州大学 一种基于图像检索的人体三维姿态估计方法
CN109919122A (zh) * 2019-03-18 2019-06-21 中国石油大学(华东) 一种基于3d人体关键点的时序行为检测方法
CN110503077A (zh) * 2019-08-29 2019-11-26 郑州大学 一种基于视觉的实时人体动作分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周瑞等: "基于LSTM递归神经网络的番茄目标产量时间序列预测", 《节水灌溉》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396001A (zh) * 2020-11-20 2021-02-23 安徽一视科技有限公司 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法
CN112396001B (zh) * 2020-11-20 2022-07-12 安徽一视科技有限公司 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法
CN112597903A (zh) * 2020-12-24 2021-04-02 珠高电气检测有限公司 基于步幅测量的电力人员安全状态智能识别方法及介质
CN112766420A (zh) * 2021-03-12 2021-05-07 合肥共达职业技术学院 一种基于时频域信息的人体行为识别方法
CN113076936A (zh) * 2021-04-30 2021-07-06 华南理工大学 一种基于绳子目标提取的跳绳计数方法
CN113076936B (zh) * 2021-04-30 2022-05-24 华南理工大学 一种基于绳子目标提取的跳绳计数方法
CN114973403A (zh) * 2022-05-06 2022-08-30 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的高效行为预测方法
CN114973403B (zh) * 2022-05-06 2023-11-03 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的行为预测方法
CN117612245A (zh) * 2023-09-26 2024-02-27 飞项科技(广州)有限公司 用于常规跳绳测试的自动计数方法

Also Published As

Publication number Publication date
CN110956139B (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
CN110956139A (zh) 一种基于时间序列回归预测的人体运动动作分析方法
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
CN110956141B (zh) 一种基于局部识别的人体连续动作快速分析方法
CN110991340A (zh) 一种基于图像压缩的人体动作分析方法
CN110503077B (zh) 一种基于视觉的实时人体动作分析方法
CN109635820B (zh) 基于深度神经网络的帕金森病运动迟缓视频检测模型的构建方法
CN109753891A (zh) 基于人体关键点检测的足球运动员姿势校准方法及***
Zhou et al. Learning to estimate 3d human pose from point cloud
CN108399435A (zh) 一种基于动静特征的视频分类方法
CN110575663A (zh) 一种基于人工智能的体育辅助训练方法
CN114783611B (zh) 基于人工智能的神经康复动作检测***
CN112800892B (zh) 一种基于openpose的人体姿态识别方法
Jia et al. Two-stream temporal convolutional networks for skeleton-based human action recognition
CN108830170A (zh) 一种基于分层特征表示的端到端目标跟踪方法
CN112329513A (zh) 一种基于卷积神经网络的高帧率3d体态识别方法
WO2023226186A1 (zh) 神经网络训练方法、人体运动识别方法及设备、存储介质
CN111046715B (zh) 一种基于图像检索的人体动作对比分析方法
CN113408435B (zh) 一种安全监控方法、装置、设备和存储介质
Wu et al. An unsupervised real-time framework of human pose tracking from range image sequences
Yan et al. A review of basketball shooting analysis based on artificial intelligence
CN114782992A (zh) 一种超关节与多模态网络及其在行为识别方法
Xu et al. Scene-perception graph convolutional networks for human action prediction
CN113408433B (zh) 一种智能监控的手势识别方法、装置、设备和存储介质
Liu et al. Automated Evaluation System for Pull-Up Exercises in Physical Fitness Testing Scenarios
CN113408434B (zh) 一种智能监控的表情识别方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Shen Lili

Inventor after: Zhao Hongling

Inventor after: Li Runzhi

Inventor after: Cui Liya

Inventor after: Liu Haodong

Inventor after: Wang Jing

Inventor before: Zhao Hongling

Inventor before: Li Runzhi

Inventor before: Cui Liya

Inventor before: Liu Haodong

Inventor before: Wang Jing

CB03 Change of inventor or designer information
TA01 Transfer of patent application right

Effective date of registration: 20230331

Address after: No. 22 Longzihu North Road, Longzihu University Park, Zhengdong New District, Zhengzhou City, Henan Province

Applicant after: HENAN FISCAL AND FINANCE College

Applicant after: Zhengzhou University

Address before: 450001 No. 100 science Avenue, hi tech Zone, Henan, Zhengzhou

Applicant before: Zhengzhou University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant