CN106067001A - 一种动作识别方法及*** - Google Patents

一种动作识别方法及*** Download PDF

Info

Publication number
CN106067001A
CN106067001A CN201610365861.9A CN201610365861A CN106067001A CN 106067001 A CN106067001 A CN 106067001A CN 201610365861 A CN201610365861 A CN 201610365861A CN 106067001 A CN106067001 A CN 106067001A
Authority
CN
China
Prior art keywords
action
user
data
heart rate
active user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610365861.9A
Other languages
English (en)
Other versions
CN106067001B (zh
Inventor
徐志德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Laikang Sports Technology Co ltd
Original Assignee
Dynamic (beijing) Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynamic (beijing) Network Technology Co Ltd filed Critical Dynamic (beijing) Network Technology Co Ltd
Priority to CN201610365861.9A priority Critical patent/CN106067001B/zh
Publication of CN106067001A publication Critical patent/CN106067001A/zh
Application granted granted Critical
Publication of CN106067001B publication Critical patent/CN106067001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明实施例公开了一种动作识别方法,其特征在于,包括:A、确定一训练场景,该训练场景对应预存的不同用户的不同时间段的动作数据;B、根据所述该训练场景对应的不同用户的动作数据,获取当前用户在所述训练场景下的当前运动期间内的预期动作数据;C、根据采集的当前用户在当前运动期间内实际动作数据与预期动作数据的匹配度,对当前用户动作进行识别。由上,本发明根据采集得到的实时动作数据与预期动作数据的匹配度,对当前用户动作进行识别,提高了对于连续动作捕捉的稳定性和准确性。

Description

一种动作识别方法及***
技术领域
本发明涉及数据测量领域,特别是指一种动作识别方法及***。
背景技术
现有的智能腕带能够通过心率传感器采集到用户的实时动态心率数据,通过动作识别模块采集到用户在运动中的加速度、角速度和运动空间轨迹信息,从而可得到用户当前运动信息;但是,当不同用户做同一个动作时,固定的动作识别算法很难计算准确;当同一个用户做非标准动作时,运动的加速度、角速度和轨迹变化也会非常不规范,智能腕带会很难检测准确获取用户的运动数据,此时需要其他手段来辅助智能腕带提高动作识别的准确性。
发明内容
有鉴于此,本发明的主要目的在于提供了一种动作识别方法及***,为克服现有技术中对于连续动作捕捉的结果不稳定且不准确的缺陷,根据采集得到的实时动作数据与预期动作数据的匹配度,对当前用户动作进行识别,提高了对于连续动作捕捉的稳定性和准确性。
本发明提供一种动作识别方法,所述方法包括以下步骤:
A、确定一训练场景,该训练场景对应不同用户在不同时间段的动作数据;
B、根据所述该训练场景对应的不同用户的动作数据,获取当前用户在所述训练场景下的当前运动期间内的预期动作数据;
C、根据采集的当前用户在当前运动期间内实际动作数据与预期动作数据的匹配度,对当前用户动作进行识别。
由上,根据采集得到的实时动作数据与预期动作数据的匹配度,对当前用户动作进行识别,提高了对于连续动作捕捉的稳定性和准确性。
优选地,所述步骤B,包括:
根据所述该训练场景对应的不同用户的动作数据,获取预存的所述不同用户中与当前用户的用户信息相同的各个用户在当前运动期间内的动作数据;
将所述各个用户在当前运动期间内的动作数据取平均值,获取当前用户在当前运动期间内的预期动作数据;
其中,所述用户信息至少包括但不限于以下其中之一:性别、体重、身高、年龄。
优选地,所述步骤C,包括:
根据采集的当前用户在当前运动期间内实际动作数据,获取实际动作数据变化曲线;且根据预期动作数据获取预期的动作数据变化曲线;
根据实际动作数据变化曲线和预期动作数据变化曲线的匹配度,获取实际动作数据变化曲线中的有效波峰数和有效波谷数;
根据所述有效波峰数和有效波谷数,识别当前用户的动作完成数。
优选地,所述识别当前用于的动作完成数的算法公式为:
N=(WP+WB)/2
其中,N为动作完成数,WP是用户的运动变化的有效波峰数,WB是用户的运动的有效波谷数。
优选地,还包括:
根据采集的当前用户在当前运动期间内实际动作数据,获取实际动作数据中的动作变化幅度;且根据预期动作数据获取预期的动作变化幅度;
根据实际动作数据中的动作变化幅度和预期的变化幅度的匹配度,识别当前用户的动作完成度。
优选地,所述识别当前用户的动作完成度的算法为:
P=(1/M)Σ(Max(Realaction_scale)/Max(Standard_scale)*100%)
其中,P为动作完成度;M是计算完成度的评判标准维度个数;Max(Realaction_scale)指该计算维度上本次动作中用户实际发生动作的关键计算维度的最大变化幅度;Max(Standard_scale)指该计算维度上本次运动中的维度变化标准值。
优选地,所述步骤C,还包括:
根据采集的当前用户在当前运动期间内的实际心率数据与预期心率数据的匹配度,对用户动作进行识别。
优选地,所述步骤C后,还包括:
D、根据当前用户的动作完成程度调整动作完成标准。
本发明还提供了一种动作识别***,包括云端服务器、移动客户端、智能腕带:
所述云端服务器,用于存储不同用户在不同训练场景下的不同运动时间段内心率数据范围和动作数据范围;
所述移动客户端,用于获取所述云端服务器的信息并将其传输到所述智能腕带;
所述智能腕带,包括:动作识别模块、心率测量模块和算法处理模块;
其中,所述动作识别模块,用于采集用户的实际动作数据;
心率测量模块,用于采集用户的实际心率数据;
算法处理模块,用于处理所述接收所述云端服务器发送的信息,所述动作识别模块采集的实际动作数据和所述心率测量模块采集的实际心率数据。
优选地,所述动作识别模块由六轴传感器实现;所述心率测量模块由心率传感器实现。
由上可以看出,本发明提供了一种动作识别方法及***,根据采集得到的实时动作数据与预期动作数据的匹配度,对当前用户动作进行识别,提高了对于连续动作捕捉的稳定性和准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种动作识别方法流程示意图;
图2为本发明实施例提供的一种动作识别***结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的区间。
为克服现有技术中的缺陷,本发明提供了一种动作识别方法,根据采集得到的实时动作数据与预期动作数据的匹配度,对当前用户动作进行识别,提高了对于连续动作捕捉的稳定性和准确性。
实施例一
如图1所示,为本发明该实施例中提供的一种动作识别方法的流程示意图,所述方法具体如下:
S101,确定一训练场景,该训练场景对应不同用户在不同时间段的动作数据。
该实施例中,将本发明的方法应用于运动训练***中,该运动训练***至少包括:智能腕带、云端服务器和移动客户端,该运动训练***中的云端服务器中存储有在不同训练场景下,不同用户在运动过程的不同时间段的心率数据和动作数据。移动客户端通过接口协议把当前训练场景和该训练场景对应的不同用户的不同时间段的动作数据发送给智能腕带。
S102,根据所述该训练场景对应的不同用户的动作数据,获取当前用户在所述训练场景下的当前运动期间内的预期动作数据;
具体地,在该实施例中,根据所述该训练场景对应的不同用户的动作数据,获取预存的所述不同用户中与当前用户的用户信息相同的各个用户在当前运动期间内的动作数据;将所述各个用户在当前运动期间内的动作数据取平均值,以获取当前用户在当前运动期间内的预期动作数据;其中,所述用户信息至少包括但不限于以下其中之一:性别、体重、身高、年龄。
S103,根据采集的当前用户在当前运动期间内实际动作数据与预期动作数据的匹配度,对当前用户动作进行识别。具体如下:
方法一
根据采集的当前用户在当前运动期间内实际动作数据,获取实际动作数据变化曲线;且根据预期动作数据获取预期的动作数据变化曲线;
根据实际动作数据变化曲线和预期动作数据变化曲线的匹配度,获取实际动作数据变化曲线中的有效波峰数和有效波谷数;
其中,将所述实际动作数据变化曲线的各个波峰值和各个波谷值与预期动作数据变化曲线各个波峰值和各个波谷值进行对比,若差值在指定阈值范围之内,则为有效波峰和有效波谷。
根据所述有效波峰数和有效波谷数,识别当前用于的动作完成数。
其中,所述识别当前用于的动作完成数的算法公式为:
N=(WP+WB)/2
其中,N为动作完成数,WP是用户的运动变化的有效波峰数,WB是用户的运动的有效波谷数,非整数部分作为未完成动作舍弃掉;
其中,所述实际动作数据包括:动作加速度、角速度、动作频率和动作轨迹变化。
方法二
根据采集的当前用户在当前运动期间内实际动作数据,获取实际动作数据中的动作变化幅度;且根据预期动作数据获取预期的动作变化幅度;
根据实际动作数据中的动作变化幅度和预期的变化幅度的匹配度,识别当前用户的动作完成度。
其中,识别当前用户的动作完成度的算法为:
P=(1/M)Σ(Max(Realaction_scale)/Max(Standard_scale)*100%)
其中,P为动作完成度;M是计算完成度的评判标准维度个数;Max(Realaction_scale)指该计算维度上本次动作中用户实际发生动作的关键计算维度的最大变化幅度;Max(Standard_scale)指该计算维度上本次运动中的维度变化标准值;Σ是对所有维度求和取平均,如果得到P值达到指定阈值,则当前动作完成,例如P为80%,则表示当前动作完成。
具体为,例如,对于某动作的横滚角(Roll)的变化标准区间为+20度到负33度之间,标准区间阈值(Standard_scale_roll)为:53度;然后用户在做该运动时的实际动作是+10到负20度之间,生成的实际动作运转范围Real action_scale_roll为30度;同理标准要求俯仰角Pitch角上的区间阈值(Standard_scale_pitch)为90度,用户动作实际运转范围是70度;标准要求在偏航角yaw自身旋转上的区间阈值(Standard_scale_yaw)为60度,用户动作实际运转范围是60度;那么这个动作用户的完成度为:
P=(1/3)((Real action_scale_roll/Standard_scale_roll)*100%+(Realaction_scale_pitch/Standard_scale_pitch)*100%+(Real action_scale_yaw/Standard_scale_yaw)*100%)
方法三
根据采集的当前用户在当前运动期间内的实际心率数据与预期心率数据的匹配度,对用户动作进行识别。
具体地,由于在同一训练场景下,用户在相同时间内进行相同运动的心率数据与运动数据是相对应的,因此,通过测定实际心率数据与预期心率数据的匹配度,以辅助证明当前识别的动作是否准确。
在该实施例中,获取预存的所述不同用户中与当前用户的用户信息相同的各个用户在当前运动期间内的心率数据;其中,所述用户信息至少包括但不限于以下其中之一:性别、体重、身高、年龄。将所述各个用户在当前运动期间内的不同时间段的心率数据取平均值,以获取当前用户在当前运动期间内的预期目标心率数据;通过心率传感器获取实时心率数据。将该实时心率数据和预期目标心率数据的对应关系作为判断用户动作是否标准的第一判断标准。
例如:如果实时心率数据和预期目标心率数据的差距在合理范围内(正负差值范围内),例如设置正负差值的阈值在-8~8bpm,则可以辅助证明该动作已经做到位;例如,如果用户进行了一组拉伸,一组颈后臂屈伸,一组核心肌群训练后,用户实际心率是为130bpm,而预期目标心率应该是在135bpm左右,此时的实际心率在正常范围之内,则认为用户是在正常运动。
当用户实际心率和目标心率差值绝对值在8以内时;
当前动作判断准确性Accuracy_Action=((H_calibrated–abs((H_calibrated-H_measured)/8)*3)/H_calibrated)*100%
当用户实际心率和目标心率差值绝对值在8以外时认为动作不标准。
另外,将用户瞬时心率与运动时长、运动变化规律的关系作为进一步判断用户动作是否标准的第二判断标准,提升动作识别结果的合理性。
例如,用户在做一段有氧运动后进行拉伸训练,标准心率变化应该是在初始为140bpm,在10秒内上升到150bpm左右,然后在30秒内缓慢下降下去到100bpm,而如果用户的心率持续在140bpm,该变化规律与标准心率变化规律不同,则此时的用户动作不准确,需要进行相应的调整,同时,对六轴传感器采集的用户运动数据的进行处理的数据模型计算标准要相应提高,避免计算错误。
此处随着时间变化,在一组动作中会有N个时间标记点,T1,T2,T3……对应的各个时间标记点的目标心率值是H_calibrated_1,H_calibrated_2,H_calibrated_3……每个时间间隔内,动作准确性的计算公式是:
当前动作判断准确性Accuracy_Action_T1=100%*(H_calibrated_1–abs(H_calibrated_1-H_measured_1)*0.5)/H_calibrated_1;
最终的整体动作准确性是:
Accuracy_Action=(1/N)(Accuracy_Action_T1+Accuracy_Action_T2+Accuracy_Action_T3+…);
以上三种方法分别单独使用,两两组合使用,或三种方法一起使用都在本发明的保护范围之内。
S104,根据当前用户的动作完成程度调整动作完成标准。
具体地,在用户运动一段时间后,通过对用户典型动作的运动轨迹和运动数据抓取,对比分析出用户的实际身高、臂长等静态数据以及用户的运动特征;基于用户的个人数据优化动作识别的判断标准,进而能够更准确的捕捉到用户的运动完成组数和每个动作的完成度,增加算法的准确性。例如***对用户做“俯身摸地推举”动作的要求是时候手部运动幅度Max(Standard_scale)是120度,但是因为该用户身高183cm,臂长较长,并且已经做过两个星期,30组该动作,动作完成情况良好,因此需要调整增加该动作的幅度要求Max(Standard_scale)到130度,以使计算更加准确。
实施例二
基于与上述动作识别方法同样的发明实施例构思,本发明实施例中还提供了一种动作识别***,如图2所示,所述***包括云端服务器201、移动客户端202、智能腕带203,具体为:
云端服务器201,用于存储不同用户在不同训练场景下的不同运动时间段内心率数据范围和动作数据范围;
移动客户端202,用于获取所述云端服务器的信息并将其传输到所述智能腕带;
智能腕带203,还包括:动作识别模块2031、心率测量模块2032和算法处理模块2033;
其中,所述动作识别模块2031,用于采集用户的实际动作数据;
心率测量模块2032,用于采集用户的实际心率数据;
算法处理模块2033,用于处理所述接收所述云端服务器发送的信息,所述动作识别模块采集的实际动作数据和所述心率测量模块采集的实际心率数据。

Claims (10)

1.一种动作识别方法,其特征在于,包括:
A、确定一训练场景,该训练场景对应不同用户在不同时间段的动作数据;
B、根据所述该训练场景对应的不同用户的动作数据,获取当前用户在所述训练场景下的当前运动期间内的预期动作数据;
C、根据采集的当前用户在当前运动期间内实际动作数据与预期动作数据的匹配度,对当前用户动作进行识别。
2.根据权利要求1所述的方法,其特征在于,所述步骤B,包括:
根据所述该训练场景对应的不同用户的动作数据,获取预存的所述不同用户中与当前用户的用户信息相同的各个用户在当前运动期间内的动作数据;
将所述各个用户在当前运动期间内的动作数据取平均值,获取当前用户在当前运动期间内的预期动作数据;
其中,所述用户信息至少包括但不限于以下其中之一:性别、体重、身高、年龄。
3.根据权利要求1所述的方法,其特征在于,所述步骤C,包括:
根据采集的当前用户在当前运动期间内实际动作数据,获取实际动作数据变化曲线;且根据预期动作数据获取预期的动作数据变化曲线;
根据实际动作数据变化曲线和预期动作数据变化曲线的匹配度,获取实际动作数据变化曲线中的有效波峰数和有效波谷数;
根据所述有效波峰数和有效波谷数,识别当前用户的动作完成数。
4.根据权利要求3所述的方法,其特征在于,所述识别当前用户的动作完成数的算法公式为:
N=(WP+WB)/2
其中,N为动作完成数,WP是用户的运动变化的有效波峰数,WB是用户的运动的有效波谷数。
5.根据权利要求3所述的方法,其特征在于,所述步骤C,还包括:
根据采集的当前用户在当前运动期间内实际动作数据,获取实际动作数据中的动作变化幅度;且根据预期动作数据获取预期的动作变化幅度;
根据实际动作数据中的动作变化幅度和预期的变化幅度的匹配度,识别当前用户的动作完成度。
6.根据权利要求5所述的方法,其特征在于,所述识别当前用户的动作完成度的算法为:
P=(1/M)Σ(Max(Realaction_scale)/Max(Standard_scale)*100%)
其中,P为动作完成度;M是计算完成度的评判标准维度个数;Max(Realaction_scale)指该计算维度上本次动作中用户实际发生动作的关键计算维度的最大变化幅度;Max(Standard_scale)指该计算维度上本次运动中的维度变化标准值。
7.根据权利要求5所述的方法,其特征在于,所述步骤C,还包括:
根据采集的当前用户在当前运动期间内的实际心率数据与预期心率数据的匹配度,对用户动作进行识别。
8.根据权利要求6所述的方法,其特征在于,所述步骤C后,还包括:
D、根据当前用户的动作完成程度调整动作完成标准。
9.一种动作识别***,其特征在于,包括云端服务器、移动客户端、智能腕带:
所述云端服务器,用于存储不同用户在不同训练场景下的不同运动时间段内心率数据范围和动作数据范围;
所述移动客户端,用于获取所述云端服务器的信息并将其传输到所述智能腕带;
所述智能腕带,包括:动作识别模块、心率测量模块和算法处理模块;
其中,所述动作识别模块,用于采集用户的实际动作数据;
心率测量模块,用于采集用户的实际心率数据;
算法处理模块,用于处理所述接收所述云端服务器发送的信息,所述动作识别模块采集的实际动作数据和所述心率测量模块采集的实际心率数据。
10.根据权利要求9所述的***,其特征在于,所述动作识别模块由六轴传感器实现;所述心率测量模块由心率传感器实现。
CN201610365861.9A 2016-05-27 2016-05-27 一种动作识别方法 Active CN106067001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610365861.9A CN106067001B (zh) 2016-05-27 2016-05-27 一种动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610365861.9A CN106067001B (zh) 2016-05-27 2016-05-27 一种动作识别方法

Publications (2)

Publication Number Publication Date
CN106067001A true CN106067001A (zh) 2016-11-02
CN106067001B CN106067001B (zh) 2019-06-11

Family

ID=57420957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610365861.9A Active CN106067001B (zh) 2016-05-27 2016-05-27 一种动作识别方法

Country Status (1)

Country Link
CN (1) CN106067001B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106897802A (zh) * 2017-04-07 2017-06-27 华为技术有限公司 数据处理方法、装置和健身机器人
CN106984027A (zh) * 2017-03-23 2017-07-28 华映科技(集团)股份有限公司 一种动作对比分析方法、装置及一种显示器
CN108109704A (zh) * 2016-11-23 2018-06-01 财团法人资讯工业策进会 行为侦测***及行为侦测方法
CN109003654A (zh) * 2018-06-29 2018-12-14 上海东巍体育科技有限公司 一种基于可穿戴式设备的老年人健身动作纠正***及方法
CN109102859A (zh) * 2018-07-24 2018-12-28 北京大学第医院 一种运动控制方法及***
CN109242099A (zh) * 2018-08-07 2019-01-18 中国科学院深圳先进技术研究院 强化学习网络的训练方法、装置、训练设备及存储介质
CN109316190A (zh) * 2018-09-25 2019-02-12 快快乐动(北京)网络科技有限公司 一种分析用户足底压力类型的***和方法
CN109737984A (zh) * 2018-12-24 2019-05-10 福建联迪商用设备有限公司 一种精度高的计步方法及终端
CN110522426A (zh) * 2019-09-05 2019-12-03 大连海事大学 一种基于多传感器的舰船人员行为智能监测***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102087712A (zh) * 2010-02-22 2011-06-08 艾利维公司 个性化动作控制的***和方法
CN103294184A (zh) * 2012-03-05 2013-09-11 北京千橡网景科技发展有限公司 一种用于识别动作的***、设备和方法
CN104007822A (zh) * 2014-05-30 2014-08-27 中山市永衡互联科技有限公司 基于大数据库的运动识别方法及其装置
CN104200234A (zh) * 2014-07-11 2014-12-10 杭州微纳科技有限公司 人体动作建模和识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102087712A (zh) * 2010-02-22 2011-06-08 艾利维公司 个性化动作控制的***和方法
CN103294184A (zh) * 2012-03-05 2013-09-11 北京千橡网景科技发展有限公司 一种用于识别动作的***、设备和方法
CN104007822A (zh) * 2014-05-30 2014-08-27 中山市永衡互联科技有限公司 基于大数据库的运动识别方法及其装置
CN104200234A (zh) * 2014-07-11 2014-12-10 杭州微纳科技有限公司 人体动作建模和识别方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108109704A (zh) * 2016-11-23 2018-06-01 财团法人资讯工业策进会 行为侦测***及行为侦测方法
CN106984027B (zh) * 2017-03-23 2019-07-26 华映科技(集团)股份有限公司 一种动作对比分析方法、装置及一种显示器
CN106984027A (zh) * 2017-03-23 2017-07-28 华映科技(集团)股份有限公司 一种动作对比分析方法、装置及一种显示器
WO2018184424A1 (zh) * 2017-04-07 2018-10-11 华为技术有限公司 数据处理方法、装置和健身机器人
CN106897802A (zh) * 2017-04-07 2017-06-27 华为技术有限公司 数据处理方法、装置和健身机器人
CN109003654A (zh) * 2018-06-29 2018-12-14 上海东巍体育科技有限公司 一种基于可穿戴式设备的老年人健身动作纠正***及方法
CN109003654B (zh) * 2018-06-29 2020-11-24 绍兴东巍体育科技有限公司 一种基于可穿戴式设备的老年人健身动作纠正***及方法
CN109102859A (zh) * 2018-07-24 2018-12-28 北京大学第医院 一种运动控制方法及***
CN109242099A (zh) * 2018-08-07 2019-01-18 中国科学院深圳先进技术研究院 强化学习网络的训练方法、装置、训练设备及存储介质
CN109242099B (zh) * 2018-08-07 2020-11-10 中国科学院深圳先进技术研究院 强化学习网络的训练方法、装置、训练设备及存储介质
CN109316190A (zh) * 2018-09-25 2019-02-12 快快乐动(北京)网络科技有限公司 一种分析用户足底压力类型的***和方法
CN109316190B (zh) * 2018-09-25 2022-03-01 快快利华(北京)网络科技有限公司 一种分析用户足底压力类型的***和方法
CN109737984A (zh) * 2018-12-24 2019-05-10 福建联迪商用设备有限公司 一种精度高的计步方法及终端
CN110522426A (zh) * 2019-09-05 2019-12-03 大连海事大学 一种基于多传感器的舰船人员行为智能监测***

Also Published As

Publication number Publication date
CN106067001B (zh) 2019-06-11

Similar Documents

Publication Publication Date Title
CN106067001A (zh) 一种动作识别方法及***
CN110111363A (zh) 一种基于目标检测的跟踪方法及设备
CN105975967B (zh) 一种目标定位方法和***
CN105868779B (zh) 一种基于特征增强和决策融合的行为识别方法
CN108021888A (zh) 一种跌倒检测方法
CN115497596B (zh) 一种基于物联网的人体运动过程姿态纠正方法及***
CN107339992A (zh) 一种基于行为的室内定位和地标语义标识的方法
CN109325456A (zh) 目标识别方法、装置、目标识别设备及存储介质
CN106210269A (zh) 一种基于智能手机的人体动作识别***及方法
CN110600132A (zh) 基于振动检测的数字孪生智能健康预测方法及装置
CN114495267A (zh) 基于多维数据融合的老人跌倒风险评估方法
CN107469326A (zh) 一种用于可穿戴设备的游泳监测方法与装置及可穿戴设备
CN108634960A (zh) 一种用于外骨骼穿戴者的步态在线检测方法
CN113705540A (zh) 一种无器械训练动作识别与计数方法及***
WO2019047410A1 (zh) 一种步数的统计方法及装置
CN106611153A (zh) 一种智能球训练动作识别***及方法
CN108827290A (zh) 一种人体运动状态反演装置及方法
CN107376305A (zh) 一种基于智能手环的拳击击打能量计算方法
CN109646902A (zh) 一种基于识别设备的健身运动计量方法
CN104318264A (zh) 一种基于人眼优先拟合的人脸特征点跟踪方法
CN116205914B (zh) 一种防水涂料生产智能监测***
Bačić Echo state network for 3D motion pattern indexing: A case study on tennis forehands
CN112967801A (zh) Pai值处理方法、装置、设备和存储介质
CN108079521A (zh) 一种跑步测试方法及***
CN103826202B (zh) 基于手机传感器信息改进WiFi定位结果跳动的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 101102, Beijing, Zhongguancun science and Technology Park, Tongzhou Park Jinqiao Technology Industrial base, No. 42, middle ring road, building 3, 16, 308, Tongzhou District

Patentee after: Fast Lihua (Beijing) Network Technology Co.,Ltd.

Address before: 101102, Beijing, Zhongguancun science and Technology Park, Tongzhou Park Jinqiao Technology Industrial base, No. 42, middle ring road, building 3, 16, 308, Tongzhou District

Patentee before: KUAIKUAILEDONG (BEIJING) NETWORK TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230526

Address after: 1130, 11th Floor, Building 29, Taihu North Lane, Tongzhou District, Beijing, 101100

Patentee after: Beijing Jiaguo Xincheng Enterprise Management Consulting Center (L.P.)

Address before: 101102 Room 308, 3 / F, building 42, No. 16, huanke Middle Road, Jinqiao Science and technology industrial base, Tongzhou Park, Zhongguancun Science and Technology Park, Tongzhou District, Beijing

Patentee before: Fast Lihua (Beijing) Network Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230906

Address after: No. 1-149, Wanganyuan Innovation Center, Xiji Town, Tongzhou District, Beijing, 101106

Patentee after: Beijing Laikang Sports Technology Co.,Ltd.

Address before: 1130, 11th Floor, Building 29, Taihu North Lane, Tongzhou District, Beijing, 101100

Patentee before: Beijing Jiaguo Xincheng Enterprise Management Consulting Center (L.P.)