CN111611859A - 一种基于gru的步态识别方法 - Google Patents

一种基于gru的步态识别方法 Download PDF

Info

Publication number
CN111611859A
CN111611859A CN202010315195.4A CN202010315195A CN111611859A CN 111611859 A CN111611859 A CN 111611859A CN 202010315195 A CN202010315195 A CN 202010315195A CN 111611859 A CN111611859 A CN 111611859A
Authority
CN
China
Prior art keywords
gru
gait
data
training
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010315195.4A
Other languages
English (en)
Other versions
CN111611859B (zh
Inventor
耿艳利
蔡晓东
杨鹏
宣伯凯
陈玲玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN202010315195.4A priority Critical patent/CN111611859B/zh
Publication of CN111611859A publication Critical patent/CN111611859A/zh
Application granted granted Critical
Publication of CN111611859B publication Critical patent/CN111611859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于GRU的步态识别方法,属于假肢技术领域,本发明解决了传统步态分类方法计算复杂、实时性差等问题,通过GRU省却了繁复的特征提取工程,只需使用模型参数进行分类即可,大大提升了计算速度,且实现了步态阶段的实时计算,摆脱了传统步态识别需要在线下进行分类的繁琐过程。其包括:利用穿戴于假肢足底的FSR薄膜压力传感器采集行走时的足底压力信息;根据目标典型行走特征和时间戳将各数据队列打上相应标签;搭建GRU网络模型;定义GRU单元、全连接层及各激活函数;得到的数据标签对分成训练集与测试集,训练集送入GRU网络模型进行训练,训练完成后利用测试集评估模型分类效果,进行线上实时分类。

Description

一种基于GRU的步态识别方法
技术领域
本发明属于假肢技术领域,具体是涉及一种基于GRU的步态识别方法,即一种下肢假肢步态识别***,能够对假肢穿戴者的步态阶段进行识别,提高步态识别的准确性和实时性。
背景技术
一个完整的周期步态称作“步态周期”。一个步态周期被分成了两个阶段,分别是“支撑期”和“摆动期”,并且可进一步分为多个子阶段。步态识别不仅可以为康复医师提供重要的分析依据,还能够为智能假肢提供控制信号,使之做出相应的控制策略与参数的调整,从而使患者的运动过程更加稳定,流畅,自然。
目前的步态识别方法大多存在计算复杂、实时性差、可靠性低等缺点。如201811241695.7号的中国发明专利申请即是通过采集肌电信号并提取相关特征识别步态阶段,然而检测信号受体表温度与汗液等因素影响,稳定性和准确率低,需要经过小波分解、计算威利森幅度等复杂的特征提取过程,过程繁琐实时性差,且电极需要与皮肤直接接触,舒适性不佳。201910976122.7号的中国发明专利申请采用IMU模块采集人体左、右大腿和小腿的旋转角度,并采用基于规则的分类算法实现对人体行走步态的实时识别,然而步态阶段过渡期短、信号变化复杂,不同路况、不同检测对象存在较大差异性,采用基于规则的分类算法尽管计算简便但其分类的准确性存疑,可靠性较低。
发明内容
本发明要解决的问题是提供一种实时性高、计算复杂度低、准确度高的基于GRU的步态识别方法。
为解决上述技术问题,本发明采用的技术方案是:一种基于GRU的步态识别方法,针对下肢动力型假肢所需的控制信号对步行的五个阶段(摆动期、脚跟着地期、全足着地期、前脚掌着地期和脚尖离地期)进行分类,所提供的步态识别方法是基于深度循环神经网络技术的,对采集到的原始信号进行预处理后直接分类,包括如下步骤:
步骤一,利用穿戴于假肢足底的八单元高动态FSR薄膜压力传感器鞋垫采集行走时的足底压力信息,将采集到的数据标注时间戳并通过无线通讯模块传送至树莓派或服务器;
步骤二,在线下根据目标典型行走步频和时间戳,结合足底压力信号进行数据分析处理,由五种步态阶段将各数据队列打上相应标签,形成数据标签对集;
步骤三,搭建门控循环单元(GRU)网络模型,该网络模型为四层结构,分别为两层GRU、全连接层、softmax输出层;其中,输入数据作为第一层GRU单元的输入,第一层GRU单元的输出作为第二层GRU单元的输入,第二层GRU单元的输出连接全连接隐藏层,全连接隐藏层连接至softmax输出层;定义GRU单元、全连接层及各激励函数;
步骤四,将步骤二中得到的数据标签对集分成训练集与测试集,其中训练集送入步骤三中搭建的GRU网络模型进行训练,训练完成后利用测试集评估模型分类效果;
步骤五,在步骤四中训练评估得到的较佳模型中进行线上实时分类。
本发明步骤一中,所述FSR薄膜压力传感器安置在假肢脚下方与脚掌贴合。
本发明步骤二中,所述标签共对应五种典型步态阶段,分别为:摆动期、脚跟着地期、全足着地期、前脚掌着地期和脚尖离地期,优选地,所述标签形式为独热编码。
优选地,本发明步骤二中,标签标定工作共分三步,包括(1)初步划分:由假肢穿戴者正常行走若干步,统计各步态阶段持续时间和步频,按照时间戳起始时间、终止时间和步频区分每一步,按照各步态持续时间比例和时间戳初步划分各步态阶段的数据队列;(2)各阶段典型特征分析:由假肢穿戴者做出各步态阶段的姿势并维持若干秒,分析各步态阶段的数据特点;(3)最终划分:综合考虑初步划分的步态阶段和各步态阶段的典型数据特点:由根据各步态阶段持续时间和步频初步划分的五种步态阶段,每种步态阶段的数据队列舍弃队列前的25%和队列后的25%,取其中部的50%,并且符合上述各步态阶段典型特点的数据组成训练集和测试集。
本发明步骤三中,所述输入数据为八通道足底压力信号经过AD转换后的八维度特征向量,每一维数据作为一个GRU节点的输入,整个序列长度为8个节点。
本发明使用STM32完成数据采集,树莓派和服务器配合实现识别算法:线下训练时由步骤一采集数据,步骤二至步骤四在服务器上进行模型训练;线上部署时,由步骤一采集数据,步骤五中在树莓派上加载步骤四中训练评估得到的较佳模型进行实时分类。
所述输出层结点数定义为当前模型中步态种类数,也即五种步态阶段。
优选地,GRU网络模型的权重优化方法为Adam优化算法。
优选地,全连接隐藏层激励函数为ReLU函数、Sigmod函数或tanh函数,输出层激励函数为Softmax函数。
与现有技术相比,本发明的有益效果在于:
构建了深度循环神经网络,利用GRU单元从全脚掌整体上自动寻找不同步态阶段下足底压力数据时间与空间上的特征,从而完成对五种步态阶段的直接分类。原始数据仅需进行简单的AD转换送入神经网络即可,从而省却了繁复的特征提取工程,与此同时在多分类任务较佳实施例中准确率可达到96.32%,提高了分类准确度与判别效率。
针对传统步态分类方法计算复杂、实时性差等缺点,本方法在服务器上进行模型的训练工作,具体应用时只需由树莓派加载模型参数进行一系列前向运算即可,所占存储空间不足2M,从加载模型到给出分类结果仅需0.0028s,大大提升了分类效率,且实现了步态阶段的实时计算,摆脱了传统步态识别需要在线下进行分类繁琐过程,具有较高的实际应用价值。
附图说明
下面通过参考附图并结合实例具体地描述本发明,本发明的优点和实现方式将会更加明显,其中附图所示内容仅用于对本发明的解释说明,而不构成对本发明的任何意义上的限制,在附图中:
图1是本发明的基于GRU的步态识别方法流程图;
图2是FSR薄膜压力传感器的力敏电阻分布图;
图3是本发明的足底压力采集装置的原理图;
图4是本发明实施例中正常步态下原始信号示例(截取100条);
图5是GRU原理结构图;
图6是本发明搭建的GRU网络模型的结构图;
图7是示例样本在网络模型中的识别过程示意图;
图8是本发明的步态识别效果图
图9是实施例测试集中的混淆矩阵
具体实施方式
下面结合实施例及其附图进一步叙述本发明:
本发明提供了一种基于GRU的步态识别方法,方法流程图如图1所示,包括如下步骤:
步骤一,将八单元高动态FSR薄膜压力传感器鞋垫置于假肢右足足底与假肢全脚掌贴合,使图2中的HALLUX与假肢脚大拇指重合,TOES与假肢脚小拇指重合即可,分压模块、蓝牙主机与STM32F103RCT6单片机(简称STM32)连接,以绑带固定在右小腿前侧,树莓派及蓝牙从机以腰带绑在腰间。
FSR薄膜压力传感器用于感受假肢足底八个位置的压力变化并将其转化为电阻值变化,一端接地,另外一端接STM32板载3.3V电源,由分压模块处引出至STM32上ADC1的低八位通道。由STM32软件启动AD转换,设置ADC的输入时钟为14MHz,采样周期为239.5个时钟周期,即转换时间=239.5+12.5=252周期=18us。蓝牙为HC05蓝牙模块,其主机接至STM32的串口1,从机接至树莓派,设置串口波特率为38400,无校验位,并在发送的数据包尾加缀时间戳。采集装置的硬件原理图如图3所示。
在线下训练时,当蓝牙从机接收到数据后,将数据经由USB接口送入服务器进行数据分析、模型训练评估;在线上部署时,当蓝牙从机接收到数据后,将数据经由USB接口送入树莓派事先训练好的模型中进行分类即可。实施例中,采集假肢穿戴者正常行走时的运动信号,采集步数不少于100步,得到正常步态足底压力信息,一段正常步态下原始信号示例(截取100条)如图4所示。
步骤二,根据目标典型行走步频将原始数据做分段切割,并根据步态类别将各数据队列打上相应标签。本实施的标签标定工作共分三步,例举五分类任务,序号标签为0至4,其中摆动期的标签为0,脚跟着地期的标签为1,全足着地期的标签为2,前脚掌着地期的标签为3,脚尖离地期的标签为4。
1.初步划分
在本实施例中首先由假肢穿戴者正常行走100步,统计各步态阶段持续时间和步频,按照时间戳起始时间、终止时间和步频区分每一步,按照各步态持续时间比例和时间戳初步划分各步态阶段的数据队列。实施例中统计得,摆动期占整个步态周期40%,脚跟着地期占1.19%,全足着地期占30.44%,前脚掌着地期占3.99%,脚尖离地期占24.38%。
2.各阶段典型特征分析
之后由假肢穿戴者做出各步态阶段的姿势并维持10s,分析各步态阶段的数据特点:
(1)摆动期:八个力敏电阻都几乎不受压力,采集到的电压值都很大;(2)脚跟着地期:HEEL R和HEEL L这两个脚跟处的力敏电阻受到的压力最大,电压值明显偏小;(3)全足着地期:脚跟处、前脚掌左侧和中侧的力敏电阻对应的电压值明显偏小;(4)前脚掌着地期:脚跟处对应的电压值明显增大,前脚掌、脚趾处力敏电阻对应的电压明显减小。(5)脚尖离地期:前脚掌中部和脚趾左侧的两个力敏电阻对应的电压明显小于别的电阻。
表1各步态阶段典型电压值
Figure BDA0002459295790000051
3.最终划分
最终的数据标签综合考虑初步划分的步态阶段和各步态阶段的典型数据特点:由根据各步态阶段持续时间和步频初步划分的五种步态阶段,每种步态阶段的数据队列舍弃队列前的25%和队列后的25%(去除各阶段临界处不确定的数据),取其中部的50%,并且符合上述各步态阶段典型特点的数据组成训练集和测试集。
步骤三,搭建门控循环单元网络(GRU)模型,如图6所示,该网络模型为四层结构,分别为两层GRU、全连接层、softmax输出层;其中,输入数据作为第一层GRU单元的输入,第一层GRU单元的输出作为第二层GRU单元的输入,第二层GRU单元的输出连接全连接隐藏层,全连接隐藏层连接至softmax输出层。
请参阅图5,GRU神经网络单元具体为:
GRU神经网络是RNN的改进方案,RNN是一种用于处理序列数据的神经网络,它能够捕捉并记录序列内数据间的依赖关系。门控循环单元GRU引入两种门信号,更新门和重置门;由于RNN会遭遇梯度消失或梯度***的问题,无法捕捉序列内的长期依赖关系。GRU通过更新门和重置门成为解决该问题的方案之一。
隐藏状态ht的计算如下:
Figure BDA0002459295790000061
Figure BDA0002459295790000062
其中,zt为更新门,rt为重置门:
zt=σ(Wz[ht-1,xt]+bz) (3)
rt=σ(Wr[ht-1,xt]+br) (4)
其中,W为权重矩阵,xt为t时刻的输入,b为偏置项,σ为激励函数sigmoid。这些门的计算公式由使用不同参数矩阵构成,所有门隐藏状态的大小相同。
请参阅图6,在实施例中,第一层GRU单元的输入为FSR足底压力传感器的八通道数据,其序列节点数总共为8,即每一个节点处输入一个通道的数据。为了彻底挖掘数据内部潜在特征,经过多次试验,隐藏状态ht的维度为125维。为了防止过拟合,在GRU单元的输出层处加入了Dropout进行随机屏蔽,概率为0.5。类似地,第二层GRU单元的输入为第一层GRU单元的输出,其隐藏状态ht的维度也为125维,并在输出层处加入了0.5的Dropout。在第三层全连接层处,由于GRU单元在最后一个序列节点处的输出综合了整个序列的信息,选取第二层GRU单元的最后一个序列节点的隐藏状态(125维)作为全连接层输入节点数,第三层的输出节点数为5,代表着五分类任务。最后,输出层采用softmax作为激励函数,其公式为:
Figure BDA0002459295790000071
其中,wj(j=0,1,2,3,4)为从隐含层到输出层的权重向量。本实施中GRU神经网络的损失函数选为交叉熵损失函数,交叉熵具体形式为:
Figure BDA0002459295790000072
式中m为当前batch中的样本量,n为类别数。
步骤四,将步骤二中得到的标签转为独热编码(00000,00010,00100,01000,10000),并将数据队列、标签一一对应后取70%做训练集,其余30%做测试集。将训练集送入步骤三中的GRU网络模型进行训练并做五折交叉验证。训练时,采用Adam优化器,为了防止梯度***,计算梯度时对梯度的L2范数进行裁剪,c为裁剪阈值(设置为5),g为梯度:
Figure BDA0002459295790000073
在本实施例中,batchsize也即每轮训练所取的数据队列长度为100,学习率取0.002,训练轮数取20轮进行训练。训练完成后利用测试集评估模型分类效果。
经验证,在本实施例中模型在测试集的五分类准确度为96.32%,F1值(精确率和召回率的调和均值)为97.45%。图7展示了GRU网络的分类过程,具体为一组测试数据经过每一层GRU单元后对五种分类的概率,该例的真实类别为3,网络在经3个GRU单元后即可正确预测类别,经全部8个单元后正确类别的概率已经极高。另截取多个步态周期的分类结果如图8所示,预测值与真实值已经基本重合。最后,在测试集中随机抽取了100组数据展示模型分类效果,测试结果的混淆矩阵如图9所示。
步骤五,在树莓派上加载步骤四中训练评估得到的较佳模型进行线上实时分类。模型的输入数据为步骤一中经AD转换后的8维足底压力数据,分类时仅需输入数据经过模型实施前向计算即可。树莓派型号为RPi4B,搭载TensorFlow1.13.1深度学习框架。
以上对本发明的实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。其各步骤的实现方式是可以有所变化的,凡依本发明范围所作的均等变化与改进等,均应仍归属于本专利涵盖范围之内。

Claims (9)

1.一种基于GRU的步态识别方法,其特征在于:包括如下步骤:
步骤一,利用穿戴于假肢足底的八单元高动态FSR薄膜压力传感器鞋垫采集行走时的足底压力信息,将采集到的数据标注时间戳并通过无线通讯模块传送至树莓派或服务器;
步骤二,在线下根据目标典型行走步频和时间戳,结合足底压力信号进行数据分析处理,由五种步态阶段将各数据队列打上相应标签,形成数据标签对集;
步骤三,搭建门控循环单元网络模型,该网络模型为四层结构,分别为两层GRU、全连接层、softmax输出层;其中,输入数据作为第一层GRU单元的输入,第一层GRU单元的输出作为第二层GRU单元的输入,第二层GRU单元的输出连接全连接隐藏层,全连接隐藏层连接至softmax输出层;定义GRU单元、全连接层及各激励函数;
步骤四,将步骤二中得到的数据标签对集分成训练集与测试集,其中训练集送入步骤三中搭建的GRU网络模型进行训练,训练完成后利用测试集评估模型分类效果;
步骤五,在步骤四中训练评估得到的模型中进行线上实时分类。
2.根据权利要求1所述的基于GRU的步态识别方法,其特征在于:步骤一中,所述FSR薄膜压力传感器安置在假肢脚下方与脚掌贴合。
3.根据权利要求1所述的基于GRU的步态识别方法,其特征在于:步骤二中,所述标签共对应五种典型步态阶段,分别为:摆动期、脚跟着地期、全足着地期、前脚掌着地期和脚尖离地期,所述标签形式为独热编码。
4.根据权利要求3所述的基于GRU的步态识别方法,其特征在于:步骤二中,标签标定工作共分三步,包括(1)初步划分:由假肢穿戴者正常行走若干步,统计各步态阶段持续时间和步频,按照时间戳起始时间、终止时间和步频区分每一步,按照各步态持续时间比例和时间戳初步划分各步态阶段的数据队列;(2)各阶段典型特征分析:由假肢穿戴者做出各步态阶段的姿势并维持若干秒,分析各步态阶段的数据特点;(3)最终划分:综合考虑初步划分的步态阶段和各步态阶段的典型数据特点:由根据各步态阶段持续时间和步频初步划分的五种步态阶段,每种步态阶段的数据队列舍弃队列前的25%和队列后的25%,取其中部的50%,并且符合上述各步态阶段典型特点的数据组成训练集和测试集。
5.根据权利要求1所述的基于GRU的步态识别方法,其特征在于:步骤三中,所述输入数据为八通道足底压力信号经过AD转换后的八维度特征向量,每一维数据作为一个GRU节点的输入,整个序列长度为8个节点。
6.根据权利要求1所述的基于GRU的步态识别方法,其特征在于:步骤三中,输出层结点数为当前模型中步态种类数。
7.根据权利要求1所述的基于GRU的步态识别方法,其特征在于:步骤三中,GRU网络模型的权重优化方法为Adam优化算法,全连接隐藏层激励函数为ReLU函数、Sigmod函数或tanh函数,输出层激励函数为Softmax函数。
8.根据权利要求7所述的基于GRU的步态识别方法,其特征在于:步骤三中,所述GRU单元的隐藏状态ht的维度为125维。
9.根据权利要求1所述的基于GRU的步态识别方法,其特征在于:本方法使用STM32完成数据采集,树莓派和服务器配合实现识别算法:线下训练时由步骤一采集数据,步骤二至步骤四在服务器上进行模型训练;线上部署时,由步骤一采集数据,步骤五中在树莓派上加载步骤四中训练评估得到的较佳模型进行实时分类。
CN202010315195.4A 2020-04-21 2020-04-21 一种基于gru的步态识别方法 Active CN111611859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010315195.4A CN111611859B (zh) 2020-04-21 2020-04-21 一种基于gru的步态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010315195.4A CN111611859B (zh) 2020-04-21 2020-04-21 一种基于gru的步态识别方法

Publications (2)

Publication Number Publication Date
CN111611859A true CN111611859A (zh) 2020-09-01
CN111611859B CN111611859B (zh) 2022-07-22

Family

ID=72204687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010315195.4A Active CN111611859B (zh) 2020-04-21 2020-04-21 一种基于gru的步态识别方法

Country Status (1)

Country Link
CN (1) CN111611859B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487902A (zh) * 2020-11-20 2021-03-12 杭州电子科技大学 面向外骨骼的基于tcn-hmm的步态相位分类方法
CN113673788A (zh) * 2021-09-23 2021-11-19 国网天津市电力公司 基于分解误差修正和深度学习的光伏发电功率预测方法
CN113780223A (zh) * 2021-09-09 2021-12-10 北京信息科技大学 假肢的步态识别方法、装置及存储介质
CN117079479A (zh) * 2023-10-17 2023-11-17 之江实验室 一种时空预测的后继强化学习的交通信号控制方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784412A (zh) * 2019-01-23 2019-05-21 复旦大学 用于步态分类的基于深度学习的多传感器信号融合方法
CN110537922A (zh) * 2019-09-09 2019-12-06 北京航空航天大学 基于深度学习的人体行走过程下肢运动识别方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784412A (zh) * 2019-01-23 2019-05-21 复旦大学 用于步态分类的基于深度学习的多传感器信号融合方法
CN110537922A (zh) * 2019-09-09 2019-12-06 北京航空航天大学 基于深度学习的人体行走过程下肢运动识别方法及***

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487902A (zh) * 2020-11-20 2021-03-12 杭州电子科技大学 面向外骨骼的基于tcn-hmm的步态相位分类方法
CN112487902B (zh) * 2020-11-20 2024-02-02 杭州电子科技大学 面向外骨骼的基于tcn-hmm的步态相位分类方法
CN113780223A (zh) * 2021-09-09 2021-12-10 北京信息科技大学 假肢的步态识别方法、装置及存储介质
CN113673788A (zh) * 2021-09-23 2021-11-19 国网天津市电力公司 基于分解误差修正和深度学习的光伏发电功率预测方法
CN117079479A (zh) * 2023-10-17 2023-11-17 之江实验室 一种时空预测的后继强化学习的交通信号控制方法及装置
CN117079479B (zh) * 2023-10-17 2024-01-16 之江实验室 一种时空预测的后继强化学习的交通信号控制方法及装置

Also Published As

Publication number Publication date
CN111611859B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN111611859B (zh) 一种基于gru的步态识别方法
CN110537922B (zh) 基于深度学习的人体行走过程下肢运动识别方法及***
CN110232412B (zh) 一种基于多模态深度学习的人体步态预测方法
CN110363152B (zh) 一种基于表面肌电信号的下肢假肢路况识别方法
Wang et al. Human Gait Recognition System Based on Support Vector Machine Algorithm and Using Wearable Sensors.
CN112754468A (zh) 一种基于多源信号的人体下肢运动检测及识别方法
Chinimilli et al. Human activity recognition using inertial measurement units and smart shoes
CN113314209B (zh) 一种基于加权knn的人体意图识别方法
Li et al. EEG signal classification method based on feature priority analysis and CNN
Zhang et al. Pathological gait detection of Parkinson's disease using sparse representation
Kang et al. Subject-independent continuous locomotion mode classification for robotic hip exoskeleton applications
CN111401435B (zh) 一种基于运动手环的人体运动模式识别方法
Sun et al. Continuous estimation of human knee joint angles by fusing kinematic and myoelectric signals
CN113780223A (zh) 假肢的步态识别方法、装置及存储介质
Hu et al. A novel fusion strategy for locomotion activity recognition based on multimodal signals
Benalcázar et al. A model for real-time hand gesture recognition using electromyography (EMG), covariances and feed-forward artificial neural networks
KR102194313B1 (ko) 검출정보별 신경망 분석을 실시하여 개인을 식별하는 장치 및 방법
KR102302719B1 (ko) 검출정보별 신경망 분석을 실시하여 보행 종류를 분류하는 장치 및 방법
KR102280291B1 (ko) 검출정보별 신경망 분석을 실시하여 파킨슨 환자 및 족관절염 환자를 식별하는 장치 및 방법
CN112487902A (zh) 面向外骨骼的基于tcn-hmm的步态相位分类方法
Negi et al. Human locomotion classification for different terrains using machine learning techniques
CN115019393A (zh) 一种基于卷积神经网络的外骨骼机器人步态识别***及方法
Ghalyan et al. Human gait cycle classification improvements using median and root mean square filters based on EMG signals
Nieuwoudt et al. Investigation of real-time control of finger movements utilising surface EMG signals
Cene et al. Upper-limb movement classification through logistic regression sEMG signal processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant