CN112668531A - 一种基于动作识别的运动姿态矫正方法 - Google Patents
一种基于动作识别的运动姿态矫正方法 Download PDFInfo
- Publication number
- CN112668531A CN112668531A CN202110007355.3A CN202110007355A CN112668531A CN 112668531 A CN112668531 A CN 112668531A CN 202110007355 A CN202110007355 A CN 202110007355A CN 112668531 A CN112668531 A CN 112668531A
- Authority
- CN
- China
- Prior art keywords
- action
- exerciser
- motion
- network
- skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012937 correction Methods 0.000 title claims abstract description 10
- 230000009471 action Effects 0.000 claims abstract description 72
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000013135 deep learning Methods 0.000 claims abstract description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 210000000707 wrist Anatomy 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 210000001217 buttock Anatomy 0.000 claims description 4
- 210000003423 ankle Anatomy 0.000 claims description 3
- 210000005069 ears Anatomy 0.000 claims description 3
- 210000002683 foot Anatomy 0.000 claims description 3
- 210000003127 knee Anatomy 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 210000004247 hand Anatomy 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 3
- 238000002567 electromyography Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于动作识别的运动姿态矫正方法,属于计算机及运动识别技术领域。该方法包括:动作识别:通过摄像头采集用户运动视频,基于深度学习算法构建动作识别算法,并利用该算法对锻炼者视频中的动作进行类别整理;骨架提取:首先从标准健身数据库中提取对应锻炼者的标准动作,然后从标准动作视频同时进行骨架提取;同时利用采集到的锻炼者视频,从中提取锻炼者运动骨架模型;姿态比对:首先将锻炼者的骨架进行模板标准化;然后将标准化后锻炼者的骨架与标准动作视频进行相似度计算,提取动作相似度最高的一帧模板动作;最后所有动作测试完成,选取出相似度低于阈值的几帧动作,并将模板动作展示出来。本发明提高了计算速度和对比精度。
Description
技术领域
本发明属于计算机及运动识别技术领域,涉及一种基于动作识别的运动姿态矫正方法。
背景技术
健身APP是一类可以为普通人群提供专业的健身计划、标准动作视频等健身资源。但是健身APP只能提供参考的标准动作,无法像健身教练一样对用户进行动作实施和细节的指导。所以在实际运动过程的很多情况下,用户都会存在因只能对照标准动作简单模仿导致的动作不标准,而产生了受伤的情况。
目前,常用人体行为检测方法包括有肌电检测,气囊传感器信息获取,视觉图像方法等。
基于肌电检测的方法利用人体运动产生的生物肌电信号来识别人体的动作,但是在使用的时候需要用户佩戴传感器,其多用于特定场景下的科学研究,并不符合平常健身的需求。
基于气囊的方法与肌电检测法类似,同样需要在用户运动过程中佩戴相关传感器才能获取其运动信息。因此不管是肌电检测法还是气囊这一类基于使用佩戴传感器的方法需要用户佩戴传感器,并不适用于用户在日常健身锻炼中的姿态矫正。
基于视觉图像的方法,此类方法需使用用户设备所拍摄的图像实现包括用户轮廓估计、用户骨架图估计等来估计用户的姿势和动作。主要应用是Openpose,其利用大量人类活动数据以及标签来训练一个图神经网络,进而对人体的姿势进行识别。但是其缺点是对于设备的性能较高,而在一般的设备之中这种算法那的实时性较差,一般用于单帧图片在实验中的姿态识别应用,无法完成对用户姿态的实施估计和对比。
因此,亟需一种更加方便、更精准的健身辅助***来自行模仿比对的进行健身。
发明内容
有鉴于此,本发明的目的在于提供一种基于动作识别的运动姿态矫正方法,解决日常单独运动中缺乏专业指导,或者专业设备过于复杂、算法过大等问题,首先对锻炼者的动作视频进行了动作识别分类与骨架提取,得到了锻炼者自身动作视频与对应标准动作视频的骨架素材,然后设计了基于视频关键帧定位的姿态比对算法,以实现用户、标准动作间的高精度比对,为锻炼者提供碎片时间锻炼中难以获得的专业指导。最后根据人群运动情况,制作了相应的运动姿态辨识数据集。
为达到上述目的,本发明提供如下技术方案:
一种基于动作识别的运动姿态矫正方法,具体包括以下步骤:
S1:动作识别阶段:
通过用户PC端或移动端的摄像头采集用户运动视频,基于深度学习算法构建有足够精度的动作识别算法,并利用该算法对锻炼者视频中的动作进行类别整理;
S2:骨架提取阶段:
首先,从标准健身数据库中提取对应锻炼者的标准动作,然后从标准动作视频同时进行骨架提取;同时,利用采集到的锻炼者视频,从中提取锻炼者运动的骨架模型;
S3:姿态比对阶段:
首先将锻炼者的骨架进行模板标准化;然后,将标准化后锻炼者的骨架与标准动作视频进行相似度计算,提取出动作相似度最高的一帧模板动作;最后,锻炼者所有动作测试完成,选取出相似度低于阈值的几帧动作,并将模板动作展示出来。
进一步,步骤S1中,所述动作识别阶段中,具体采用C3D网络进行动作识别。
进一步,步骤S1中,所述C3D网络包括:8次卷积操作,5次池化操作,最终经过2次全连接层和softmax输出得到结果。
进一步,步骤S2中,所述骨架提取具体包括:首先利用Faster R-CNN网络和特征金字塔网络(Feature Pyramid Networks,FPN)进行检测,根据检测结果,提取在图像中占据面积最大的目标,将其默认为锻炼者;然后利用高分辨率网络(High resolution network,HRNet)对人体姿势进行估计。
进一步,步骤S2中,所述Faster R-CNN网络(Full convolution depth network)包括:全卷积深度网络(RegionProposal Network,RPN)和Fast R-CNN检测器;具体算法为:通过卷积神经网络得到特征映射,将特征映射输入到RPN网络中得到候选区域,并将候选区域和特征映射输入至全卷积层进行卷积分类,最后输出结果。
进一步,步骤S2中,所述FPN网络包括:1)自底向上的网络前向传播过程;2)自顶向下的过程是将顶层特征通过上采样和底层特征做融合,每个层级独立预测。
进一步,步骤S2中,Faster R-CNN和FPN的融合,主要是在RPN部分进行自底向上和自顶向下的融合,得到更加合适的ROI区域。
进一步,步骤S2中,所述HR网络内部结构包括:以高分辨率子网开始作为第一阶段,逐个添加从高到低分辨率子网以形成更多阶段,并且并行连接多分辨率子网。在整个过程中反复交换并行多分辨率子网络中的信息进行重复的多尺度融合。
进一步,步骤S3中,模板标准化具体包括:舍弃姿势估计得到的眼睛、耳朵4个位置,保留鼻子、肩膀、手肘等13关节点的位置,将关节点记为J,表示为J=(j0、j1、j2、...、j12),每一个关节点包含二维的x,y两个维度;模板动作信息记为待计算动作信息记为
根据关节点算出模板动作t和待计算动作a的各骨架长度,然后将a骨架长度变换到t的对应骨架长度;a骨架长度变换后,选取t和a的基准点,以基准点重合的方式将a平移到目标位置;
具体按照人体结构的关系,手上的关节位置手腕、手肘、肩膀,脚上的关键位置脚腕、膝盖、臀部,并以鼻子为定点,考虑鼻子和肩膀的位置,肩膀与臀部的位置;记起点为s,终点为e;
计算两两关节位置的距离为:
然后计算关节点与点之间需要变换的长度:
记变换长度为M;
最后以模板鼻子为基准点,平移估计图。
进一步,步骤S3中,计算相似度具体包括:将模板的关节点与测试视频的关节点一一对应,计算二者之间的距离,并将各个点之间的距离求和为D;所以,有此距离越小,二者动作越相似。仿照Sigmoid函数,ε为预设的误差因子,距离与相似度S的关系为:
对测试视频通过视频本身fps/5的方式间隔取帧进行计算。对得到图像进行向模板图片进行相似度计算,默认相似度最高的对应的模板帧和此时的图像中的人做同一个动作。最终得到整个视频提取的所有帧的相似度。最后人工设定了一个相似度阈值,当低于这个阈值的图片为不符合动作,并输出此时的标准动作和不符合动作,通过人为对比进行动作调整。
本发明的有益效果在于:本发明结合了目标检测、姿态识别、异常判断三个方面的内容集中到一个方面,这避免传统方法对于传感器的需求,同时利用用户在使用如“KEPP”等APP时所获得的图像与标准图像进行智能比对分析用户运动状态并纠正用户运动模式。在此基础上,用户可以得到更加精准的运动指导,且可以利用手机所自带的红外,RFID等技术对进一步了解自己的身体状况,获取包括温度,心率,各部位身体状况等信息,达到更好的锻炼效果。具体优点如下:
1)在功能方面,本发明具有人体检测,运动姿态获取,姿态比对等,异常检测以及智能调节等多种功能,是目前任何单一应用无法完成的。
2)在性能方面,本发明算法避免了例如openpose等方法对于计算机性能的要求,实现实时、快速人体姿态和运动检测。
3)在算法方面,本发明所提出的实时人体姿态检测算法无论是性能和准确度都属于较高水平,兼顾实时性和准确性,适合集成于不同的应用中;同时提出了基于关键帧定位的运动姿态比对算法,进一步提高了比对精度。
本发明所包含的运动姿态检测、比对算法实现了利用多模信息智能推断人体状态并给出用户所需的校准信息。同时利用专家***和模糊推理,结合用户的各种信息对用户的进一步锻炼方向和锻炼内容进行宏观调控。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明基于运动识别的动态矫正方法流程图;
图2为C3D网络结构图;
图3为Faster R-CNN网络结构图;
图4为FPN结构图;
图5为HR网络结构图;
图6为姿势估计图;
图7为模板图,图7(a)为模板原图,图7(b)为无背景人体模板关节点;
图8为姿势比对过程图,图8(a)为测试原图,图8(b)为无背景锻炼者节点,图8(c)为姿势对齐,图8(d)为平移后图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图8,本发明设计了一种基于动作识别的运动姿态矫正方法,具体包括以下步骤:
S1:动作识别阶段:通过用户PC端或移动端的摄像头采集用户运动视频,基于深度学习算法构建有足够精度的动作识别算法,并利用该算法对锻炼者视频中的动作进行类别整理。
优选的,动作识别阶段中,可采用C3D网络进行动作识别。C3D网络是以视频作为输入,保留输入的时间信息,输出仍然为3D的特征图。其中,C3D网络包括:8次卷积操作,5次池化操作,最终经过2次全连接层和softmax输出得到结果。
S2:骨架提取阶段:首先,从标准健身数据库中提取对应锻炼者的标准动作,然后从标准动作视频同时进行骨架提取;同时,利用采集到的锻炼者视频,从中提取锻炼者运动的骨架模型。
优选的,首先利用Faster R-CNN网络(第二位置)和FPN网络(第三位置)进行检测,根据检测结果,提取在图像中占据面积最大的目标,将其默认为锻炼者。最后利用人体姿势估计网络HR网络(第四位置)对人体姿势进行估计。
(1)锻炼者检测:
Faster R-CNN网络主要由两个模块结合而成,如图3所示,第一个模块是基于候选区域的全卷积深度网络(RPN),第二个模块是Fast R-CNN检测器。其中RPN模块能够给检测器提供候选区域,检测器再去识别物体。总体算法为,通过卷积神经网络得到特征映射,将特征映射输入到RPN网络中得到候选区域,并将候选区域和特征映射输入至全卷积层进行卷积分类,最后输出结果。
FPN网络由两个部分构成,如图4所示,自底向上的网络前向传播过程,在这一个部分,特征图的大小会逐渐变小,得到高级的特征。自顶向下的过程是将顶层特征通过上采样和底层特征做融合,每个层级独立预测。
Faster R-CNN和FPN的融合,主要是在RPN部分进行自底向上和自顶向下的融合,得到更加合适的ROI区域。
(2)人体姿势估计
高分辨率网络(HRNet)结构如图5所示,该网络的主要特点是,在整个过程中特征图始终保持高分辨率表征,利用重复的多分辨率表征信息交换增强其表达能力,使模型所学的表征在空间精度上有显著的提升。模型通过高分辨率特征图主网络逐渐并行加入到低分辨率特征图子网络,实现不同网络的多尺度融合与特征提取。HR网络与之前网络最大的不同是将分辨率进行并行的连接。
S3:姿态比对阶段:由于人体本身躯体的比例是不一致的,例如成人和小孩,女性和男性,老人和青年等等。为了让该算法能够适应任何阶段不同的人,在计算相似度之前,首先将锻炼者的骨架进行模板标准化;然后,将标准化后锻炼者的骨架与标准动作视频进行相似度计算,提取出动作相似度最高的一帧模板动作;最后,锻炼者所有动作测试完成,选取出相似度低于阈值的几帧动作,并将模板动作展示出来。
(1)标准化
舍弃姿势估计得到的眼睛、耳朵4个位置,保留鼻子、肩膀、手肘等13个关节点的位置,如图6所示,将关节点记为J,表示为J=(j0、j1、j2、...、j12),每一个关节点包含二维的x,y两个维度;模板动作信息记为待计算动作信息记为
根据关节点算出模板动作t和待计算动作a的各骨架长度,然后将a骨架长度变换到t的对应骨架长度;a骨架长度变换后,选取t和a的基准点,以基准点重合的方式将a平移到目标位置。
具体做法,按照人体结构的关系,手上的关节位置手腕、手肘、肩膀,脚上的关键位置脚腕、膝盖、臀部,并以鼻子为定点,考虑鼻子和肩膀的位置,肩膀与臀部的位置;记起点为s,终点为e。
表1姿态起始-终止表
s | e | ||
0-> | 1-> | 2-> | 3 |
0-> | 4-> | 5-> | 6 |
1-> | 7-> | 8-> | 9 |
4-> | 10-> | 11-> | 12 |
按照上述表1排序,计算两两关节位置的距离为:
然后计算关节点与点之间需要变换的长度:
记变换长度为M。
最后以模板鼻子为基准点,平移估计图。
(2)相似度计算与结果
将模板的关节点与测试视频的关节点一一对应,计算二者之间的距离,并将各个点之间的距离求和为D。所以,有此距离越小,二者动作越相似。仿照Sigmoid函数,ε为预设的误差因子,距离与相似度S的关系为:
对测试视频通过视频本身fps/5的方式间隔取帧进行计算。如图7~8所示,对得到图像进行向模板图片进行相似度计算,默认相似度最高的对应的模板帧和此时的图像中的人做同一个动作。最终得到整个视频提取的所有帧的相似度。最后人工设定了一个相似度阈值,当低于这个阈值的图片为不符合动作,并输出此时的标准动作和不符合动作,通过人为对比进行动作调整。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种基于动作识别的运动姿态矫正方法,其特征在于,该方法具体包括以下步骤:
S1:动作识别阶段:
通过摄像头采集用户运动视频,基于深度学习算法构建动作识别算法,并利用该算法对锻炼者视频中的动作进行类别整理;
S2:骨架提取阶段:
首先,从标准健身数据库中提取对应锻炼者的标准动作,然后从标准动作视频同时进行骨架提取;同时,利用采集到的锻炼者视频,从中提取锻炼者运动的骨架模型;
S3:姿态比对阶段:
首先将锻炼者的骨架进行模板标准化;然后,将标准化后锻炼者的骨架与标准动作视频进行相似度计算,提取出动作相似度最高的一帧模板动作;最后,锻炼者所有动作测试完成,选取出相似度低于阈值的几帧动作,并将模板动作展示出来。
2.根据权利要求1所述的运动姿态矫正方法,其特征在于,步骤S1中,所述动作识别阶段中,具体采用C3D网络进行动作识别。
3.根据权利要求2所述的运动姿态矫正方法,其特征在于,步骤S1中,所述C3D网络包括:8次卷积操作,5次池化操作,最终经过2次全连接层和softmax输出得到结果。
4.根据权利要求1所述的运动姿态矫正方法,其特征在于,步骤S2中,所述骨架提取具体包括:首先利用Faster R-CNN网络和特征金字塔网络(Feature Pyramid Networks,FPN)进行检测,根据检测结果,提取在图像中占据面积最大的目标,将其默认为锻炼者;然后利用高分辨率网络(High resolution network,HRNet)对人体姿势进行估计。
5.根据权利要求4所述的运动姿态矫正方法,其特征在于,步骤S2中,所述Faster R-CNN网络(Full convolution depth network)包括:全卷积深度网络(RegionProposalNetwork,RPN)和Fast R-CNN检测器;具体算法为:通过卷积神经网络得到特征映射,将特征映射输入到RPN网络中得到候选区域,并将候选区域和特征映射输入至全卷积层进行卷积分类,最后输出结果。
6.根据权利要求4所述的运动姿态矫正方法,其特征在于,步骤S2中,所述FPN网络包括:1)自底向上的网络前向传播过程;2)自顶向下的过程是将顶层特征通过上采样和底层特征做融合,每个层级独立预测。
7.根据权利要求4所述的运动姿态矫正方法,其特征在于,步骤S2中,Faster R-CNN和FPN的融合,是在RPN部分进行自底向上和自顶向下的融合,得到更加合适的ROI区域。
8.根据权利要求4所述的运动姿态矫正方法,其特征在于,步骤S2中,HR网络内部结构为:以高分辨率子网开始作为第一阶段,逐个添加从高到低分辨率子网以形成更多阶段,并且并行连接多分辨率子网;在整个过程中反复交换并行多分辨率子网络中的信息进行重复的多尺度融合。
9.根据权利要求1所述的运动姿态矫正方法,其特征在于,步骤S3中,模板标准化具体包括:舍弃姿势估计得到的眼睛、耳朵4个位置,保留13关节点的位置,将关节点记为J,表示为J=(j0、j1、j2、...、j12),每一个关节点包含二维的x,y两个维度;模板动作信息记为待计算动作信息记为
根据关节点算出模板动作t和待计算动作a的各骨架长度,然后将a骨架长度变换到t的对应骨架长度;a骨架长度变换后,选取t和a的基准点,以基准点重合的方式将a平移到目标位置;
具体按照人体结构的关系,手上的关节位置手腕、手肘、肩膀,脚上的关键位置脚腕、膝盖、臀部,并以鼻子为定点,考虑鼻子和肩膀的位置,肩膀与臀部的位置;记起点为s,终点为e;
计算两两关节位置的距离为:
然后计算关节点与点之间需要变换的长度:
记变换长度为M;
最后以模板鼻子为基准点,平移估计图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110007355.3A CN112668531A (zh) | 2021-01-05 | 2021-01-05 | 一种基于动作识别的运动姿态矫正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110007355.3A CN112668531A (zh) | 2021-01-05 | 2021-01-05 | 一种基于动作识别的运动姿态矫正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112668531A true CN112668531A (zh) | 2021-04-16 |
Family
ID=75412947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110007355.3A Pending CN112668531A (zh) | 2021-01-05 | 2021-01-05 | 一种基于动作识别的运动姿态矫正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112668531A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113065515A (zh) * | 2021-04-22 | 2021-07-02 | 上海交通大学 | 基于相似度图神经网络的异常行为智能检测方法及*** |
CN113368487A (zh) * | 2021-06-10 | 2021-09-10 | 福州大学 | 基于OpenPose的3D私人健身***及其工作方法 |
CN113392746A (zh) * | 2021-06-04 | 2021-09-14 | 北京格灵深瞳信息技术股份有限公司 | 动作标准挖掘方法、装置、电子设备和计算机存储介质 |
CN113657278A (zh) * | 2021-08-18 | 2021-11-16 | 成都信息工程大学 | 一种运动姿态识别方法、装置、设备及存储介质 |
CN116129524A (zh) * | 2023-01-04 | 2023-05-16 | 长沙观谱红外科技有限公司 | 一种基于红外图像的姿态自动识别***和方法 |
CN116186561A (zh) * | 2023-04-27 | 2023-05-30 | 华南师范大学 | 基于高维时序图网络的跑步姿势识别纠正方法及*** |
CN116665309A (zh) * | 2023-07-26 | 2023-08-29 | 山东睿芯半导体科技有限公司 | 一种步姿特征识别方法、装置、芯片及终端 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200491A (zh) * | 2014-08-15 | 2014-12-10 | 浙江省新华医院 | 一种人体运动姿态校正*** |
US20140373647A1 (en) * | 2013-06-20 | 2014-12-25 | Target Brands, Inc. | Lifting motion evaluation |
CN109871750A (zh) * | 2019-01-02 | 2019-06-11 | 东南大学 | 一种基于骨架图序列异常关节修复的步态识别方法 |
CN109919141A (zh) * | 2019-04-09 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架姿态的行人再识别方法 |
CN110120036A (zh) * | 2019-04-17 | 2019-08-13 | 杭州数据点金科技有限公司 | 一种多尺度的轮胎x光病疵检测方法 |
CN110458235A (zh) * | 2019-08-14 | 2019-11-15 | 广州大学 | 一种视频中运动姿势相似度比对方法 |
CN110796077A (zh) * | 2019-10-29 | 2020-02-14 | 湖北民族大学 | 姿态动作实时检测校正方法 |
CN111339903A (zh) * | 2020-02-21 | 2020-06-26 | 河北工业大学 | 一种多人人体姿态估计方法 |
CN111368703A (zh) * | 2020-02-29 | 2020-07-03 | 上海电力大学 | 一种基于fpn的台标检测与识别的方法 |
KR20200094915A (ko) * | 2019-01-31 | 2020-08-10 | 한국기술교육대학교 산학협력단 | 운동 자세 교정 시스템 및 이를 이용한 교정 방법 |
CN111881887A (zh) * | 2020-08-21 | 2020-11-03 | 董秀园 | 基于多摄像头的运动姿态监测和指导方法及装置 |
-
2021
- 2021-01-05 CN CN202110007355.3A patent/CN112668531A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140373647A1 (en) * | 2013-06-20 | 2014-12-25 | Target Brands, Inc. | Lifting motion evaluation |
CN104200491A (zh) * | 2014-08-15 | 2014-12-10 | 浙江省新华医院 | 一种人体运动姿态校正*** |
CN109871750A (zh) * | 2019-01-02 | 2019-06-11 | 东南大学 | 一种基于骨架图序列异常关节修复的步态识别方法 |
KR20200094915A (ko) * | 2019-01-31 | 2020-08-10 | 한국기술교육대학교 산학협력단 | 운동 자세 교정 시스템 및 이를 이용한 교정 방법 |
CN109919141A (zh) * | 2019-04-09 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架姿态的行人再识别方法 |
CN110120036A (zh) * | 2019-04-17 | 2019-08-13 | 杭州数据点金科技有限公司 | 一种多尺度的轮胎x光病疵检测方法 |
CN110458235A (zh) * | 2019-08-14 | 2019-11-15 | 广州大学 | 一种视频中运动姿势相似度比对方法 |
CN110796077A (zh) * | 2019-10-29 | 2020-02-14 | 湖北民族大学 | 姿态动作实时检测校正方法 |
CN111339903A (zh) * | 2020-02-21 | 2020-06-26 | 河北工业大学 | 一种多人人体姿态估计方法 |
CN111368703A (zh) * | 2020-02-29 | 2020-07-03 | 上海电力大学 | 一种基于fpn的台标检测与识别的方法 |
CN111881887A (zh) * | 2020-08-21 | 2020-11-03 | 董秀园 | 基于多摄像头的运动姿态监测和指导方法及装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113065515A (zh) * | 2021-04-22 | 2021-07-02 | 上海交通大学 | 基于相似度图神经网络的异常行为智能检测方法及*** |
CN113065515B (zh) * | 2021-04-22 | 2023-02-03 | 上海交通大学 | 基于相似度图神经网络的异常行为智能检测方法及*** |
CN113392746A (zh) * | 2021-06-04 | 2021-09-14 | 北京格灵深瞳信息技术股份有限公司 | 动作标准挖掘方法、装置、电子设备和计算机存储介质 |
CN113368487A (zh) * | 2021-06-10 | 2021-09-10 | 福州大学 | 基于OpenPose的3D私人健身***及其工作方法 |
CN113657278A (zh) * | 2021-08-18 | 2021-11-16 | 成都信息工程大学 | 一种运动姿态识别方法、装置、设备及存储介质 |
CN116129524A (zh) * | 2023-01-04 | 2023-05-16 | 长沙观谱红外科技有限公司 | 一种基于红外图像的姿态自动识别***和方法 |
CN116186561A (zh) * | 2023-04-27 | 2023-05-30 | 华南师范大学 | 基于高维时序图网络的跑步姿势识别纠正方法及*** |
CN116186561B (zh) * | 2023-04-27 | 2023-07-18 | 华南师范大学 | 基于高维时序图网络的跑步姿势识别纠正方法及*** |
CN116665309A (zh) * | 2023-07-26 | 2023-08-29 | 山东睿芯半导体科技有限公司 | 一种步姿特征识别方法、装置、芯片及终端 |
CN116665309B (zh) * | 2023-07-26 | 2023-11-14 | 山东睿芯半导体科技有限公司 | 一种步姿特征识别方法、装置、芯片及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112668531A (zh) | 一种基于动作识别的运动姿态矫正方法 | |
CN111144217B (zh) | 一种基于人体三维关节点检测的动作评价方法 | |
WO2017133009A1 (zh) | 一种基于卷积神经网络的深度图像人体关节定位方法 | |
Thar et al. | A proposal of yoga pose assessment method using pose detection for self-learning | |
Lakany | Extracting a diagnostic gait signature | |
Chaudhari et al. | Yog-guru: Real-time yoga pose correction system using deep learning methods | |
CN112861624A (zh) | 一种人体姿态检测方法、***、存储介质、设备及终端 | |
Yang et al. | Human upper limb motion analysis for post-stroke impairment assessment using video analytics | |
CN113255522B (zh) | 基于时间一致性的个性化运动姿态估计与分析方法及*** | |
Loureiro et al. | Using a skeleton gait energy image for pathological gait classification | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
CN112101235B (zh) | 一种基于老年人行为特征的老年人行为识别检测方法 | |
Ma et al. | Human motion gesture recognition based on computer vision | |
CN113229807A (zh) | 人体康复评估装置、方法、电子设备及存储介质 | |
CN115346272A (zh) | 基于深度图像序列的实时摔倒检测方法 | |
Kumar et al. | Human activity recognition (har) using deep learning: Review, methodologies, progress and future research directions | |
Sharma et al. | iYogacare: real-time Yoga recognition and self-correction for smart healthcare | |
Solongontuya et al. | Novel side pose classification model of stretching gestures using three-layer LSTM | |
Chen et al. | An effective swimming stroke recognition system utilizing deep learning based on inertial measurement units | |
CN116721471A (zh) | 一种基于多视角下多人三维姿态估计方法 | |
CN116543455A (zh) | 建立帕金森症步态受损评估模型、使用方法、设备及介质 | |
CN116343325A (zh) | 一种居家健身智能辅助*** | |
Yin et al. | Neural networks for pathological gait classification using wearable motion sensors | |
Pan et al. | Analysis and Improvement of Tennis Motion Recognition Algorithm Based on Human Body Sensor Network | |
Albuquerque et al. | Remote Pathological Gait Classification System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |