CN112949676B - 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 - Google Patents

一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 Download PDF

Info

Publication number
CN112949676B
CN112949676B CN202011587646.6A CN202011587646A CN112949676B CN 112949676 B CN112949676 B CN 112949676B CN 202011587646 A CN202011587646 A CN 202011587646A CN 112949676 B CN112949676 B CN 112949676B
Authority
CN
China
Prior art keywords
motion
imu
neural network
shank
minimum value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011587646.6A
Other languages
English (en)
Other versions
CN112949676A (zh
Inventor
郑建彬
彭辉辉
黄立平
殷凌寒
殷泽宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202011587646.6A priority Critical patent/CN112949676B/zh
Publication of CN112949676A publication Critical patent/CN112949676A/zh
Application granted granted Critical
Publication of CN112949676B publication Critical patent/CN112949676B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明公开了一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,包括以下步骤:1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;2)根据运动信息提取运动特征,选取小腿IMU的极小值时刻对应的运动特征信息;3)将运动特征信息归一化后输入到BP神经网络中进行训练,输出结果是各运动模式的识别概率,识别概率大者为最终的运动模式识别结果;4)获取小腿IMU的极小值时刻对应的特征向量;5)使用已经训练好的神经网络模型进行运动模式识别;6)使用有限状态转移算法对BP神经网络的识别结果进行修正。本发明通过区分运动模式的曲线信息位置,依据该位置的特征信息进行运动模式识别,提高了运动模式识别的准确性。

Description

一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法
技术领域
本发明涉及人体运动模式识别技术,尤其涉及一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法。
背景技术
柔性外骨骼机器人是一种穿在人身上辅助穿戴者运动的特殊机器人,可以辅助穿戴者的日常行动,被广泛应用于负重助力领域。
柔性下肢助力外骨骼依据人体的运动信息来产生下肢外骨骼的助力信号,从而对穿戴者的下肢运动进行助力。由于外骨骼的控制时机与助力大小决定了助力效果以及穿戴者的舒适度,而外骨骼的控制以人体的运动模式为依据,因此,快速准确地识别出人体的运动模式是很有必要的,同时也是研究的热点之一。目前传统方法对柔性助力外骨骼机器人的运动模式的识别主要包括以下几种:
1)基于足底压力分布检测的外骨骼步态划分及控制。其原理是人体在平地行走过程中,通过检测脚底压力的分布及变化趋势,来判断此时人体所处的步态周期相位,从而识别出人体的运动状态。该方法适合于平地行走的状态,而难以适应其他复杂地形下的运动状态。
2)基于肌电信号的运动意图识别。通过在人体下肢肌肉特殊部位粘贴肌电信号传感器,测量对应肌肉的激活程度,从而估计人体下肢意图。该方法的优点是:在肢体开始运动之前,人体肌肉处于激活状态,肌电传感器可以提前检测到肌肉信号,以到达快速响应的目的。其缺点是:肌电信号传感器受不同人、皮肤表面的出汗发热、各种外界噪声等多种因素影响,难以准确识别人体的运动意图。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法。
本发明解决其技术问题所采用的技术方案是:一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,包括以下步骤:
1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;所述传感器为设置在人体后背、大腿和小腿部位的IMU惯性传感器;
2)根据运动信息提取运动特征,所述运动特征信息包括大腿IMU、小腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差;
选取小腿IMU的极小值时刻对应的运动特征信息;
3)将运动特征信息归一化后输入到BP神经网络中进行训练,输出结果是各运动模式的识别概率,识别概率大者为最终的运动模式识别结果;当训练识别率达到预期要求,保存此时的神经网络模型;
4)获取小腿IMU的极小值时刻对应的大腿IMU、小腿IMU、膝关节角度、髋关节角度值,并提取当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差,将这些特征数据融合成特征向量;
5)使用已经训练好的神经网络模型进行运动模式识别;
6)使用有限状态转移算法对BP神经网络的识别结果进行修正;即:通过有限状态转移图,限制状态转移的方向以及转移条件,对异常的状态转移进行纠错。
按上述方案,所述步骤1)还包括对数据的一致性处理,处理过程如下:先去除异常跳变点,再取站立态的20至50个采样点数据计算左、右的大腿IMU、小腿IMU、膝关节角度、髋关节角度的初始值,利用这些初始值来修正对应的采集数据,使得每一次穿戴设备,站立态的数据经过修正后与初始状态相同。
按上述方案,所述神经网络的结构及其参数设定为:
所述神经网络包括输入层、隐藏层和输出层;其中,输入层的神经节点个数依据输入样本格式设置为10,隐藏层的神经节点个数可以在10至30范围中取,输出层为分类个数4,即站立、平地行走、上楼、下楼四种;损失函数选择交叉熵函数,梯度下降函数选择Adam函数,隐藏层激活函数选择Relu函数,输出层选择SoftMax函数。
按上述方案,所述步骤2)中,小腿IMU的极小值时刻通过实时差分寻峰算法获得,具体如下:
2.1)将摆动态的小腿IMU曲线进行差分处理;
2.2)使用均值滤波消除突变点;
2.3)记录满足极值点特征条件的点的位置时刻;
2.4)重复上述步骤将所有摆动态的小腿IMU峰值时刻全部实时获取。
本发明产生的有益效果是:
1、本发明通过快速定位能区分人体运动模式的曲线信息位置,依据该位置的特征信息,使用神经网络算法进行人体运动模式识别,提高了运动模式识别的准确性,各运动模式下的平均识别率达到95%。
2、本发明方法既可以适应在复杂地形中的各种运动模式,也避免了“曲线模板匹配法”的计算量大、曲线模板数量繁多的问题,提高了运动模式识别的实时性,这为柔性助力外骨骼的助力提供了有力保障。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的方法流程图;
图2是本发明实施例中采用的外骨骼机器人的传感器放置示意图;
图3是本发明实施例中的寻找峰值示意图;
图4是本发明实施例中的寻峰算法的结果图;
图5是本发明实施例采用的神经网络结构图;
图6是本发明实施例中的人体运动模式识别结果图;
图7是本发明实施例中的有限状态转移图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,包括以下步骤:
1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;所述传感器为设置在人体后背、大腿和小腿部位的IMU惯性传感器;所述采集数据包括不同人、不同运动模式的各传感器数据;
如图2所示,柔性助力外骨骼机器人的主要传感器是IMU(惯性测量单元),分别置于外骨骼机器人的左右小腿、大腿的正前方以及穿戴者的背部。通过大小腿IMU的曲线变化特征与运动模式的关系分析,可以准确判断人体的运动模式。本发明仅通过上述传感器的数据分析,来实现自适应识别人体运动模式,提高柔性助力外骨骼机器人的助力效率。
对采集的原始数据进行预处理,去除异常跳变点,同时取站立态的20~50个采样点数据计算左右的大腿IMU、小腿IMU、膝关节角度以及髋关节角度的初始修正值。然后利用这些初始值修正对应的采集数据,使得每一次穿戴设备,都使得站立态的数据经过修正后达到与初始状态相同的目的。
2)根据运动信息提取运动特征,所述运动特征信息包括大腿IMU、小腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差;
选取小腿IMU的极小值时刻对应的运动特征信息;
3)如图3所示,通过实时差分寻峰算法可以寻找摆动态的小腿IMU的波形峰值。主要步骤如下:
(a)将摆动态的小腿IMU曲线进行差分处理;
(b)使用均值滤波消除突变点;
(c)记录满足极值点特征条件的点的位置时刻;
(d)重复上述a,b,c步骤即可将所有摆动态的小腿IMU峰值时刻全部实时获取。其处理后的结果如图4所示。曲线为小腿IMU曲线,圆圈是通过实时寻峰算法获取的小腿IMU的极小值的时刻。
4)将小腿IMU的极小值时刻对应的左、右小腿IMU、大腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差以及当前摆动态中的大腿IMU的极大值与极小值之差组成一个特征向量,作为BP神经网络的训练样本。
5)利用已采集的离线数据可以生成大量训练样本,通过三层BP神经网络训练后,可以得到运动模式识别率较高的神经网络模型。
6)图5所示,神经网络的结构及其参数设定为:
①输入层的神经节点个数依据输入样本格式设置为10。
②隐藏层1的神经节点个数可以在10~30范围中取。
③输出层为分类个数4,即站立、平地行走、上楼、下楼四种。
④损失函数选择交叉熵函数。
⑤梯度下降函数选择Adam函数,该函数可以自适应学习率,达到较快的梯度下降,实现交叉熵函数快速收敛。
⑥隐藏层激活函数选择Relu函数。
⑦输出层选择SoftMax函数,依据输出概率值大者为正确的分类结果。
⑧训练次数5000次。
7)将4)中生成的特征向量输入到训练完成的BP神经网络中进行识别。如图6所示,离散的圆圈即为预测值与目标值不相同,BP神经网络的识别效果如表1所示。如图7所示,为了进一步提高人体运动模式识别结果的准确率,对BP神经网络的输出结果采用有限状态转移算法进行纠错,纠错后最终识别率接近100%。
8)重复上述2),3),4),7)步骤,即可实时输出不同人的不同运动模式的识别结果。通过大量数据测试,本发明方法的识别率见表1。
表1不同运动模式下的BP神经网络的识别率
站立 平地行走 上楼梯 下楼梯
识别率 100% 98% 94% 96%
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (2)

1.一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,其特征在于,包括以下步骤:
1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;所述传感器为设置在人体后背、大腿和小腿部位的IMU惯性传感器;
2)根据运动信息提取运动特征,所述运动特征信息包括大腿IMU、小腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差;
选取小腿IMU的极小值时刻对应的运动特征信息;
其中,小腿IMU的极小值时刻通过实时差分寻峰算法获得,具体如下:
2.1)将摆动态的小腿IMU曲线进行差分处理;
2.2)使用均值滤波消除突变点;
2.3)记录满足极值点特征条件的点的位置时刻;
2.4)重复上述步骤将所有摆动态的小腿IMU峰值时刻全部实时获取;
3)将运动特征信息归一化后输入到BP神经网络中进行训练,输出结果是各运动模式的识别概率,识别概率大者为最终的运动模式识别结果;当训练识别率达到预期要求,保存此时的神经网络模型;
其中,BP神经网络的结构及其参数设定为:
神经网络包括输入层、隐藏层和输出层;其中,输入层的神经节点个数依据输入样本格式设置为10,隐藏层的神经节点个数可以在10至30范围中取,输出层为分类个数4,即站立、平地行走、上楼、下楼四种;损失函数选择交叉熵函数,梯度下降函数选择Adam函数,隐藏层激活函数选择Relu函数,输出层选择SoftMax函数;
4)获取小腿IMU的极小值时刻对应的大腿IMU、小腿IMU、膝关节角度、髋关节角度值,并提取当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差,将这些特征数据融合成特征向量;
5)使用已经训练好的神经网络模型进行运动模式识别;
6)使用有限状态转移算法对BP神经网络的识别结果进行修正;即:通过有限状态转移图,限制状态转移的方向以及转移条件,对异常的状态转移进行纠错。
2.根据权利要求1所述的柔性下肢助力外骨骼机器人的自适应运动模式识别方法,其特征在于,所述步骤1)还包括对数据的一致性处理,处理过程如下:先去除异常跳变点,再取站立态的20至50个采样点数据计算左、右的大腿IMU、小腿IMU、膝关节角度、髋关节角度的初始值,利用这些初始值来修正对应的采集数据,使得每一次穿戴设备,站立态的数据经过修正后与初始状态相同。
CN202011587646.6A 2020-12-29 2020-12-29 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 Active CN112949676B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011587646.6A CN112949676B (zh) 2020-12-29 2020-12-29 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011587646.6A CN112949676B (zh) 2020-12-29 2020-12-29 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法

Publications (2)

Publication Number Publication Date
CN112949676A CN112949676A (zh) 2021-06-11
CN112949676B true CN112949676B (zh) 2022-07-08

Family

ID=76234944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011587646.6A Active CN112949676B (zh) 2020-12-29 2020-12-29 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法

Country Status (1)

Country Link
CN (1) CN112949676B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516063B (zh) * 2021-06-29 2024-07-12 北京精密机电控制设备研究所 一种基于K-Means及步态周期相似性的运动模式识别方法
CN114663775B (zh) * 2022-05-26 2022-08-12 河北工业大学 一种用于外骨骼机器人使役环境中楼梯识别方法
CN116738325A (zh) * 2023-08-16 2023-09-12 湖北工业大学 基于DenseNet-LSTM网络的下肢外骨骼运动模式识别方法及***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106466220A (zh) * 2015-08-17 2017-03-01 三星电子株式会社 运动辅助设备及控制运动辅助设备的方法
WO2018081986A1 (zh) * 2016-11-03 2018-05-11 浙江大学 一种可穿戴式设备及用于该设备的实时步长测量方法
CN110141239A (zh) * 2019-05-30 2019-08-20 东北大学 一种用于下肢外骨骼的运动意图识别及装置方法
CN110522458A (zh) * 2019-10-15 2019-12-03 北京理工大学 一种适用于膝关节外骨骼的步态实时识别方法
CN111469117A (zh) * 2020-04-14 2020-07-31 武汉理工大学 一种刚柔耦合有源外骨骼的人体运动模式检测方法
CN111639762A (zh) * 2020-05-22 2020-09-08 河北工业大学 一种基于自组织神经网络的下肢假肢步态识别方法
CN111898487A (zh) * 2020-07-15 2020-11-06 贵州航天控制技术有限公司 一种柔性外骨骼***的人体运动模式实时识别方法
CN112004511A (zh) * 2018-02-17 2020-11-27 哈佛学院院长及董事 用于预防肌肉骨骼损伤和增强性能的可穿戴设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8864846B2 (en) * 2005-03-31 2014-10-21 Massachusetts Institute Of Technology Model-based neuromechanical controller for a robotic leg
KR20130034082A (ko) * 2011-09-28 2013-04-05 삼성전자주식회사 로봇 및 그 제어 방법
KR102387378B1 (ko) * 2014-10-07 2022-04-15 삼성전자주식회사 보행 동작 인식을 위한 장치 및 방법
US10390973B2 (en) * 2015-05-11 2019-08-27 The Hong Kong Polytechnic University Interactive exoskeleton robotic knee system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106466220A (zh) * 2015-08-17 2017-03-01 三星电子株式会社 运动辅助设备及控制运动辅助设备的方法
WO2018081986A1 (zh) * 2016-11-03 2018-05-11 浙江大学 一种可穿戴式设备及用于该设备的实时步长测量方法
CN112004511A (zh) * 2018-02-17 2020-11-27 哈佛学院院长及董事 用于预防肌肉骨骼损伤和增强性能的可穿戴设备
CN110141239A (zh) * 2019-05-30 2019-08-20 东北大学 一种用于下肢外骨骼的运动意图识别及装置方法
CN110522458A (zh) * 2019-10-15 2019-12-03 北京理工大学 一种适用于膝关节外骨骼的步态实时识别方法
CN111469117A (zh) * 2020-04-14 2020-07-31 武汉理工大学 一种刚柔耦合有源外骨骼的人体运动模式检测方法
CN111639762A (zh) * 2020-05-22 2020-09-08 河北工业大学 一种基于自组织神经网络的下肢假肢步态识别方法
CN111898487A (zh) * 2020-07-15 2020-11-06 贵州航天控制技术有限公司 一种柔性外骨骼***的人体运动模式实时识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Adaptive control of exoskeleton robots for periodic assistive behaviours based on EMG feedback minimization;Luka Peternel等;《PLOS ONE》;20160216;第1-26页 *
Arm movement experiments with joint space force fields using an exoskeleton robot;Michael Mistry等;《2005 IEEE 9th International Conference on Rehabilitation Robotics》;20050701;第408-413页 *
下肢外骨骼机器人步态规划与控制方法研究;李石磊;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20190115;第I140-1672页 *

Also Published As

Publication number Publication date
CN112949676A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN112949676B (zh) 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法
CN110141239B (zh) 一种用于下肢外骨骼的运动意图识别及装置方法
CN110537922B (zh) 基于深度学习的人体行走过程下肢运动识别方法及***
Ding et al. Continuous estimation of human multi-joint angles from sEMG using a state-space model
Bijalwan et al. Heterogeneous computing model for post‐injury walking pattern restoration and postural stability rehabilitation exercise recognition
CN113043248B (zh) 基于多源传感器的搬运装配全身外骨骼***及控制方法
Ma et al. Design on intelligent perception system for lower limb rehabilitation exoskeleton robot
CN111531537B (zh) 基于多传感器的机械臂控制方法
CN102764167B (zh) 基于相关系数的肌电假肢控制源导联优化方法
CN110543922A (zh) 一种基于膝关节外骨骼的实时行走模式识别方法
Liu et al. Metric learning for robust gait phase recognition for a lower limb exoskeleton robot based on sEMG
CN114897012A (zh) 一种基于生机接口的智能假肢手臂控制方法
Rai et al. Mode-free control of prosthetic lower limbs
Kang et al. Continuous locomotion mode classification using a robotic hip exoskeleton
Zheng et al. A GMM-DTW-based locomotion mode recognition method in lower limb exoskeleton
Hu et al. A novel fusion strategy for locomotion activity recognition based on multimodal signals
KR101829356B1 (ko) Gpes 라이브러리와 ismf를 이용한 emg신호 기반 보행단계 인식 방법
CN111950460A (zh) 一种自适应肌力的卒中患者手部康复训练动作识别方法
Zhen et al. Human Motion Mode Recognition Based on Multi-parameter Fusion of Wearable Inertial Module Unit and Flexible Pressure Sensor.
KR102350593B1 (ko) 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법
KR102458459B1 (ko) 다채널 신경신호 실시간 디코딩 시스템 및 이를 이용한 다채널 신경신호 실시간 디코딩 방법
CN115019393A (zh) 一种基于卷积神经网络的外骨骼机器人步态识别***及方法
Yin et al. Real-Time Gait Trajectory Prediction Based on Convolutional Neural Network with Multi-Head Attention
Ding et al. A deep learning model with a self-attention mechanism for leg joint angle estimation across varied locomotion modes
Zhang et al. A Method for arm motions classification and a lower-limb exoskeleton control based on sEMG signals

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant