CN110193830A - 基于rbf神经网络的踝关节步态预测方法 - Google Patents

基于rbf神经网络的踝关节步态预测方法 Download PDF

Info

Publication number
CN110193830A
CN110193830A CN201910437364.9A CN201910437364A CN110193830A CN 110193830 A CN110193830 A CN 110193830A CN 201910437364 A CN201910437364 A CN 201910437364A CN 110193830 A CN110193830 A CN 110193830A
Authority
CN
China
Prior art keywords
gait
prediction
joint
ankle
rbf neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910437364.9A
Other languages
English (en)
Other versions
CN110193830B (zh
Inventor
任彬
罗序荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201910437364.9A priority Critical patent/CN110193830B/zh
Publication of CN110193830A publication Critical patent/CN110193830A/zh
Application granted granted Critical
Publication of CN110193830B publication Critical patent/CN110193830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明公开了一种基于RBF神经网络的踝关节步态预测方法,属于人体步态运动预测领域。本方法的操作步骤为:1)基于RBF神经网络,实现下肢模型参数的快速逼近。2)设计步态预测算法,并在算法中加入鲁棒项,提高***的鲁棒性。3)基于光学运动测量***,设计并实现了下肢步态捕捉,为步态预测奠定实验基础。4)分析步态预测结果,并步态预测方法的性能进行评估。本发明方法具有创新性和仿真依据,可解决现有传统的步态预测方法依赖于精确的肌肉骨骼模型,以及需要大量步态数据去训练步态模型等缺陷,具有较强的鲁棒性和较高的预测精度,对实现下肢外骨骼的随动控制具有重大的指导意义。

Description

基于RBF神经网络的踝关节步态预测方法
技术领域
本发明涉及一种基于RBF神经网络的踝关节步态预测方法,应用于下肢外骨骼人机协同运动控制领域。
背景技术
下肢外骨骼是一种可穿戴的人机一体化机械装置,可重建和增强穿戴者的下肢运动能力,在助老助残、医疗康复和军事救灾等领域具有广泛的应用前景。下肢外骨骼的随动控制是实现其辅助功能的关键。传统的下肢外骨骼人机协同控制,利用角度/角速度、力/力矩等物理型传感器,实时采集人体运动学或动力学数据作为外骨骼控制***的输入。这种方法由于信息传递的时间延迟通常会导致外骨骼的运动滞后于穿戴者的运动。此外,还有通过感知型传感器测量脑电信号(EEG)或者肌电信号(EMG)等人体生物信号作为外骨骼控制***的输入,尽管生物信号超前于人体运动,能够解决运动滞后的问题,但EEG和EMG信号不稳定,容易受到静电、汗液等的干扰。
人体下肢步态预测作为一种替代的方法,为下肢外骨骼的人机协同运动控制提供了潜在的可能。传统的步态预测方法依赖于精确的肌肉骨骼模型或者需要大量的步态数据训练步态模型。基于RBF神经网络的踝关节步态预测方法采用RBF神经网络对下肢模型进行预测,与传统的方法比,能够快速逼近下肢模型参数。
发明内容
本发明的目的在于克服已有技术存在的不足,提供一种基于RBF神经网络的踝关节步态预测方法,通过RBF神经网络逼近人体下肢踝关节模型,结合步态捕捉实验和步态预测策略,预测踝关节下一步态周期的步态轨迹。本方法收敛速度快,具有较强的鲁棒性和较高的预测精度。
为达到上述目的,本发明采用如下技术方案:
一种基于RBF神经网络的踝关节步态预测方法,操作步骤如下:
1)基于RBF神经网络,实现踝关节模型参数的快速逼近;
2)设计步态预测算法,并在算法中加入鲁棒项,提高***的鲁棒性;
3)基于光学运动测量***,设计并实现踝关节步态捕捉,为步态预测奠定实验基础;
4)分析步态预测结果,并步态预测方法的性能进行评估。
本发明与现有技术相比较,具有如下显而易见的突出特点和显著优点:
1.本发明解决了传统步态预测方法依赖于精确的肌肉骨骼模型及需要大量步态数据对模型进行训练等问题。2.本发明通过基于RBF神经网络的踝关节步态预测方法,实现了下肢踝关节的步态预测,预测方法具有较强的鲁棒性和预测精度。3.本发明可以应用于下肢外骨骼随动控制中,实现下肢外骨骼的人机协同运动。
附图说明
图1为本发明的基于RBF神经网络的踝关节步态预测流程图。
图2为本发明的NDI Optotrak Certus三维运动测量***示意图。
图3为本发明实施例一的踝关节屈伸步态预测结果。
图4为本发明实施例一的踝关节内翻外翻步态预测结果。
图5为本发明实施例一的踝关节内旋外旋步态预测结果。
具体实施方式
本发明的优选实施例结合附图详述如下:
如图1所示,一种基于RBF神经网络的踝关节步态预测方法,操作步骤如下:
1)基于RBF神经网络,实现踝关节模型参数的快速逼近:
定义下肢踝关节模型(9)的拉格朗日方程为:
其中,D(θ)是惯性项,是科氏力和离心力项,G(θ)是重力项,θ是关节在矢状面,即沿着人体前后方向将人体分为左右两部分的纵切面的旋转角度,T是外部因素;
由于无法对穿戴者下肢踝关节(9)进行精确建模,因此采用RBF神经网络(7)逼近D(θ),和G(θ)三个模型参数:
D(θ)=DSNN(θ)+ED (2)
G(θ)=GSNN(θ)+EG (4)
其中,ED,EC和EG分别为神经网络对D(θ),和G(θ)的建模误差,则:
式(5)中,WD,WC和WG为神经网络建模的权值,ΞD,ΞC和ΞG为隐层高斯基函数的输出, 如式(10)和式(11)所示;
对神经网络建模项GSNN(θ)、GSNN(θ)的估计(8)为:
其中,分别为权值WD,WC,WG的估计,
2)设计步态预测算法,并在算法中加入鲁棒项,提高***的鲁棒性:
基于RBF神经网络的踝关节步态预测方法的核心是用RBF神经网络(7)逼近踝关节模型(9)的模型矩阵:D,C和G;同时在算法中加入鲁棒项,使得步态预测算法(6)具有更强的抵抗干扰的能力,并基于比例积分项得到下一周期步态预测结果(11);
为了设计步态预测算法(6),给出如下定义:
e(t)=θd(t)-θ(t) (9)
其中θd(t)是目标轨迹(4),θ(t)是下一周期步态预测结果(11);
因此:
其中,Λ>0;则:
设计步态预测算法(6)如下:
其中,Kp>0,Ki>0,Tm为基于模型的估计项,Tr是用于克服神经网络建模误差的鲁棒项,且有:
Tr=Kr sgn(r) (18)
最后设置步态预测算法参数[Kp Ki Λ Kr];其中Kp和Ki为预测算法的PID参数,Λ为式(12)中r(t)的系数,Kr为鲁棒项系数。
3)基于光学运动测量***,设计并实现踝关节步态捕捉,为步态预测奠定实验基础:
步态捕捉实验的目的是实时获取人体行走过程中连续两个步态周期的步态数据;将上一周期步态作为目标轨迹(4),并输入步态预测(10)中,下一周期步态(5)的作用是与下一周期步态预测结果(11)进行对比,通过评估模块(13)对步态预测性能进行评估;
如图2所示,采用NDI Optotrak Certus三维运动测量***(3),采集人体下肢各种步态模式下的步态数据;步态捕捉实验流程包括步态捕捉(1)和步态分析(2)两个步骤;位置传感器(14,15)是一种光学仪器,能在特定范围内探测到物体内部发射的红外光;***控制单元(17)用于控制位置传感器和附加连接器的操作,***控制单元的端口(20)与交流电源连接;标识点(18)是红外发光二极管,当它们被频闪器激活时会被位置传感器跟踪;标志点连接器将所有标识点(18)进行汇总,同时与***控制单元(17)相连并受***控制单元(17)控制;支撑架(16)用于调整位置传感器的高度;
位置传感器(14,15)跟踪到贴在人体身上的标识点(18)后,将标识点(18)的三维坐标信息传输到***中的肌肉骨骼模型中,并对肌肉骨骼模型进行修正以匹配被测试者;然后,在主机(21)中进行步态分析(2),将贴在人体下肢的所有标识点的三维坐标数据,转换为各关节的旋转角度数据,并作为目标轨迹(4)实时输入步态预测(10)中。
本实施例中,设置步态预测1的参数为:[Kp Ki Λ Kr]=[200 100 100 0.1];设置步态预测2的参数为:[Kp Ki Λ Kr]=[10 5 0.1 0.1];进行步态捕捉实验,获取行走步态模式下,连续两个步态周期的屈伸、内翻外翻、内旋外旋步态数据。
4)分析步态预测结果,并步态预测方法的性能进行评估:
采用均方根误差作为步态预测的性能评估指标;首先计算下一周期步态预测结果(11)与步态采集实验获取的下一周期步态(5)之间的均方根误差,作为步态预测的性能评估指标,然后计算最大和最小预测误差。
步态预测结果表明,步态预测1和步态预测2的步态预测结果与实验所测的踝关节各个方向的实际轨迹的趋势基本一致。对于踝关节屈-伸运动,步态预测1和步态预测2的均方根误差分别为0.050rad和0.051rad,如图3所示;对于踝关节内翻外翻运动,步态预测1和步态预测2的均方根误差分别为0.129rad和0.121rad,如图4所示;对于踝关节内旋外旋运动,步态预测1和步态预测2的均方根误差分别为0.162rad和0.198rad,如图5所示;步态预测1的步态预测效果优于步态预测2。
本实施例通过基于RBF神经网络的踝关节步态预测方法,实现了对人体下肢踝关节的步态预测,预测方法结构简单,具有较强的鲁棒性和预测精度,可解决现有方法中的诸多缺陷。所提方法可运用于下肢外骨骼的随动控制中,对实现下肢外骨骼人机协同运动具有重大的指导意义。

Claims (5)

1.一种基于RBF神经网络的踝关节步态预测方法,其特征在于,操作步骤如下:
1)基于RBF神经网络,实现踝关节模型参数的快速逼近;
2)设计步态预测算法,并在算法中加入鲁棒项,提高***的鲁棒性;
3)基于光学运动测量***,设计并实现踝关节步态捕捉,为步态预测奠定实验基础;
4)分析步态预测结果,并步态预测方法的性能进行评估。
2.根据权利要求1所述的基于RBF神经网络的踝关节步态预测方法,其特征在于,所述步骤1)的具体过程如下:
定义下肢踝关节模型(9)的拉格朗日方程为:
其中,D(θ)是惯性项,是科氏力和离心力项,G(θ)是重力项,θ是关节在矢状面,即沿着人体前后方向将人体分为左右两部分的纵切面的旋转角度,T是外部因素;
由于无法对穿戴者下肢踝关节(9)进行精确建模,因此采用RBF神经网络(7)逼近D(θ),和G(θ)三个模型参数:
D(θ)=DSNN(θ)+ED (2)
G(θ)=GSNN(θ)+EG (4)
其中,ED,EC和EG分别为神经网络对D(θ),和G(θ)的建模误差,则:
式(5)中,WD,WC和WG为神经网络建模的权值,ΞD,ΞC和ΞG为隐层高斯基函数的输出, 如式(10)和式(11)所示;
对神经网络建模项DSNN(θ)、GSNN(θ)的估计(8)为:
其中,分别为权值WD,WC,WG的估计,
3.根据权利要求1所述的基于RBF神经网络的踝关节步态预测方法,其特征在于,所述步骤2)的具体过程如下:
本方法的核心是用RBF神经网络(7)逼近踝关节模型(9)的模型矩阵:D,C和G;同时在算法中加入鲁棒项,使得步态预测算法(6)具有更强的抵抗干扰的能力,并基于比例积分项得到下一周期步态预测结果(11);
为了设计步态预测算法(6),给出如下定义:
e(t)=θd(t)-θ(t) (9)
其中θd(t)是目标轨迹(4),θ(t)是下一周期步态预测结果(11);
因此:
其中,Λ>0;则:
设计步态预测算法(6)如下:
其中,Kp>0,Ki>0,Tm为基于模型的估计项,Tr是用于克服神经网络建模误差的鲁棒项,且有:
Tr=Kr sgn(r) (18)
最后设置步态预测算法参数[Kp Ki Λ Kr];其中Kp和Ki为预测算法的PID参数,Λ为式(12)中r(t)的系数,Kr为鲁棒项系数。
4.根据权利要求1所述的基于RBF神经网络的踝关节步态预测方法,其特征在于,所述步骤3)的具体过程如下:
步态捕捉实验的目的是实时获取人体行走过程中连续两个步态周期的步态数据;将上一周期步态作为目标轨迹(4),并输入步态预测(10)中,下一周期步态(5)的作用是与下一周期步态预测结果(11)进行对比,通过评估模块(13)对步态预测性能进行评估;
采用NDI Optotrak Certus三维运动测量***(3),采集人体下肢各种步态模式下的步态数据;步态捕捉实验流程包括步态捕捉(1)和步态分析(2)两个步骤;位置传感器(14,15)是一种光学仪器,能在特定范围内探测到物体内部发射的红外光;***控制单元(17)用于控制位置传感器和附加连接器的操作,***控制单元的端口(20)与交流电源连接;标识点(18)是红外发光二极管,当它们被频闪器激活时会被位置传感器跟踪;标志点连接器将所有标识点(18)进行汇总,同时与***控制单元(17)相连并受***控制单元(17)控制;支撑架(16)用于调整位置传感器的高度;
位置传感器(14,15)跟踪到贴在人体身上的标识点(18)后,将标识点(18)的三维坐标信息传输到***中的肌肉骨骼模型中,并对肌肉骨骼模型进行修正以匹配被测试者;然后,在主机(21)中进行步态分析(2),将贴在人体下肢的所有标识点的三维坐标数据,转换为各关节的旋转角度数据,并作为目标轨迹(4)实时输入步态预测(10)中。
5.根据权利要求1所述的基于RBF神经网络的踝关节步态预测方法,其特征在于,所述步骤4)的具体过程如下:
采用均方根误差作为步态预测的性能评估指标;首先计算下一周期步态预测结果(11)与步态采集实验获取的下一周期步态(5)之间的均方根误差,作为步态预测的性能评估指标,然后计算最大和最小预测误差。
CN201910437364.9A 2019-05-24 2019-05-24 基于rbf神经网络的踝关节步态预测方法 Active CN110193830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910437364.9A CN110193830B (zh) 2019-05-24 2019-05-24 基于rbf神经网络的踝关节步态预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910437364.9A CN110193830B (zh) 2019-05-24 2019-05-24 基于rbf神经网络的踝关节步态预测方法

Publications (2)

Publication Number Publication Date
CN110193830A true CN110193830A (zh) 2019-09-03
CN110193830B CN110193830B (zh) 2022-10-11

Family

ID=67751694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910437364.9A Active CN110193830B (zh) 2019-05-24 2019-05-24 基于rbf神经网络的踝关节步态预测方法

Country Status (1)

Country Link
CN (1) CN110193830B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111267071A (zh) * 2020-02-14 2020-06-12 上海航天控制技术研究所 外骨骼机器人多关节联合控制***和方法
CN112947071A (zh) * 2021-01-28 2021-06-11 河北工业大学 基于Backstepping的下肢外骨骼控制方法
CN113538514A (zh) * 2021-07-14 2021-10-22 厦门大学 一种踝关节运动跟踪方法、***和存储介质
CN113829339A (zh) * 2021-08-02 2021-12-24 上海大学 基于长短时记忆网络的外骨骼运动协同方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080133055A1 (en) * 2004-10-15 2008-06-05 Honda Motor Co., Ltd. Gait Generator of Legged Mobile Robot
CN101598618A (zh) * 2009-04-29 2009-12-09 天津大学 基于径向基函数神经网络的步行器精密测力***标定方法
US20130296746A1 (en) * 2012-02-24 2013-11-07 Massachusetts Institute Of Technology Elastic Element Exoskeleton and Method of Using Same
US20150120044A1 (en) * 2013-10-31 2015-04-30 Disney Enterprises, Inc. Method for gait generation and tracking control for a bipedal walking robot
CN105213153A (zh) * 2015-09-14 2016-01-06 西安交通大学 基于脑肌信息变阻抗的下肢康复机器人控制方法
CN106821391A (zh) * 2017-03-23 2017-06-13 北京精密机电控制设备研究所 基于惯性传感器信息融合的人体步态采集分析***及方法
WO2018066151A1 (ja) * 2016-10-06 2018-04-12 Cyberdyne株式会社 歩行障害支援装置及び歩行障害支援方法
CN108098736A (zh) * 2016-11-24 2018-06-01 广州映博智能科技有限公司 一种基于新型感知的外骨骼机器人辅助装置及方法
CN109381184A (zh) * 2018-10-15 2019-02-26 刘丹 一种辅助搬运的可穿戴智能设备控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080133055A1 (en) * 2004-10-15 2008-06-05 Honda Motor Co., Ltd. Gait Generator of Legged Mobile Robot
CN101598618A (zh) * 2009-04-29 2009-12-09 天津大学 基于径向基函数神经网络的步行器精密测力***标定方法
US20130296746A1 (en) * 2012-02-24 2013-11-07 Massachusetts Institute Of Technology Elastic Element Exoskeleton and Method of Using Same
US20150120044A1 (en) * 2013-10-31 2015-04-30 Disney Enterprises, Inc. Method for gait generation and tracking control for a bipedal walking robot
CN105213153A (zh) * 2015-09-14 2016-01-06 西安交通大学 基于脑肌信息变阻抗的下肢康复机器人控制方法
WO2018066151A1 (ja) * 2016-10-06 2018-04-12 Cyberdyne株式会社 歩行障害支援装置及び歩行障害支援方法
CN108098736A (zh) * 2016-11-24 2018-06-01 广州映博智能科技有限公司 一种基于新型感知的外骨骼机器人辅助装置及方法
CN106821391A (zh) * 2017-03-23 2017-06-13 北京精密机电控制设备研究所 基于惯性传感器信息融合的人体步态采集分析***及方法
CN109381184A (zh) * 2018-10-15 2019-02-26 刘丹 一种辅助搬运的可穿戴智能设备控制方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111267071A (zh) * 2020-02-14 2020-06-12 上海航天控制技术研究所 外骨骼机器人多关节联合控制***和方法
CN112947071A (zh) * 2021-01-28 2021-06-11 河北工业大学 基于Backstepping的下肢外骨骼控制方法
CN112947071B (zh) * 2021-01-28 2022-04-01 河北工业大学 基于Backstepping的下肢外骨骼控制方法
CN113538514A (zh) * 2021-07-14 2021-10-22 厦门大学 一种踝关节运动跟踪方法、***和存储介质
CN113538514B (zh) * 2021-07-14 2023-08-08 厦门大学 一种踝关节运动跟踪方法、***和存储介质
CN113829339A (zh) * 2021-08-02 2021-12-24 上海大学 基于长短时记忆网络的外骨骼运动协同方法
CN113829339B (zh) * 2021-08-02 2023-09-15 上海大学 基于长短时记忆网络的外骨骼运动协同方法

Also Published As

Publication number Publication date
CN110193830B (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
CN110193830A (zh) 基于rbf神经网络的踝关节步态预测方法
Huang et al. Posture estimation and human support using wearable sensors and walking-aid robot
CN102323854B (zh) 人体运动捕获装置
CN105437209B (zh) 一种具有人机交互动力学模型的外骨骼式上肢康复机器人
Fang et al. A novel data glove using inertial and magnetic sensors for motion capture and robotic arm-hand teleoperation
CN110327187B (zh) 一种外骨骼的带先验力矩无模型控制方法
Lim et al. Wearable wireless sensing system for capturing human arm motion
Zhang et al. Real-time gait phase recognition based on time domain features of multi-MEMS inertial sensors
Yang et al. Novel soft smart shoes for motion intent learning of lower limbs using LSTM with a convolutional autoencoder
Liu et al. Gait trajectory prediction for lower-limb exoskeleton based on Deep Spatial-Temporal Model (DSTM)
Liu et al. Metric learning for robust gait phase recognition for a lower limb exoskeleton robot based on sEMG
Liang et al. Synergy-based knee angle estimation using kinematics of thigh
Minh et al. Model Predictive Control for Modeling and Simulation of Human Gait Motions
CN202932930U (zh) 有关人体下肢关节作用力和力矩的穿戴式传感器测量装置
Dindo et al. Hankelet-based action classification for motor intention recognition
Qiu et al. Heterogeneous data fusion for three-dimensional gait analysis using wearable MARG sensors
CN111716334A (zh) 一种基于滑模阻抗的上肢外骨骼控制方法
CN108621164A (zh) 基于深度相机的太极推手机器人
Jin et al. Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind
Bae et al. Real-time estimation of lower extremity joint torques in normal gait
Luo et al. A virtual reality system for arm and hand rehabilitation
Lian et al. A three-step hill neuromusculoskeletal model parameter identification method based on exoskeleton robot
Xuan et al. Research on IMU-based Motion Attitude Acquisition and Motion Recognition
Ding et al. A deep learning model with a self-attention mechanism for leg joint angle estimation across varied locomotion modes
Chen et al. A Dual-Arm Participated Human-Robot Collaboration Method for Upper Limb Rehabilitation of Hemiplegic Patients

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant