CN111639762A - 一种基于自组织神经网络的下肢假肢步态识别方法 - Google Patents
一种基于自组织神经网络的下肢假肢步态识别方法 Download PDFInfo
- Publication number
- CN111639762A CN111639762A CN202010441030.1A CN202010441030A CN111639762A CN 111639762 A CN111639762 A CN 111639762A CN 202010441030 A CN202010441030 A CN 202010441030A CN 111639762 A CN111639762 A CN 111639762A
- Authority
- CN
- China
- Prior art keywords
- neural network
- lower limb
- gait
- self
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/60—Artificial legs or feet or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/60—Artificial legs or feet or parts thereof
- A61F2/64—Knee joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/60—Artificial legs or feet or parts thereof
- A61F2/66—Feet; Ankle joints
- A61F2/6607—Ankle joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2002/6827—Feedback system for providing user sensation, e.g. by force, contact or position
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Transplantation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Vascular Medicine (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Cardiology (AREA)
- Veterinary Medicine (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于自组织神经网络的下肢假肢步态识别方法。本方法建立基于自组织学习率的步态识别神经网络,以下肢假肢穿戴者运动过程中的下肢相关参数作为输入,通过自组织的方法在网络训练过程中根据所得误差对学习率进行实时优化,避免了传统BP神经网络学习率选取的盲目性和不确定性。在网络误差较大时增大学习率,加快网络训练速度,避免陷入局部极小;在网络误差较小时减小学习率,加快收敛速度,提高网络识别精度。本方法提高了BP神经网络的科学性和自适应能力,具有较广泛的使用价值和较强的通用性,实现了对假肢步态的高精度实时识别。
Description
技术领域
本发明涉及智能假肢控制领域,具体是一种基于自组织神经网络的下肢假肢步态识别方法。
背景技术
与日俱增的假肢穿戴患者的人数,使得对于智能假肢控制领域的研究愈发紧迫。在这其中,对于假肢穿戴者步态识别方法的研究是智能假肢控制的基础。正确识别假肢步态对假肢穿戴者运动的稳定性和安全性起到了决定性的作用。现阶段对于假肢智能控制主要侧重通过获取假肢穿戴者运动意图的信息来控制假肢。另外,假肢的智能控制作用在假肢穿戴者运动过程中,这也对步态识别的实时性提出了要求。因此,对于假肢步态的实时预测识别一直是智能假肢领域研究的热点。
人工神经网络(Artificial Neural Network,ANN)是现在阶段的热点性课题,它以独特、可变的网络结构,可逼近任何非线性函数。目前常用的神经网络模型包括误差反向传播(Back-propagation,BP)神经网络、径向基函数(Radial Basis Function,RBF)神经网络、模糊神经网络和Hopfield神经网络等。
近些年,基于BP算法的人工神经网络是利用前景最好的一种网络算法,在非线性***建模、辨识和工业过程参数预测中广泛应用。基于BP算法的三层结构神经网络有高性能逼近任意非线性函数的能力,但由于神经网络的参数具有不确定性,简单BP算法仍具有它自己的局限性,主要体现在BP网络运算中学习率的选取问题上。若学习率过大就会容易造成局部极小现象而不能取到全局最优结果;若学习率过小就会使训练时间剧增,进而影响收敛速度。文献《张君宽.基于BP神经网络步态识别的研究[J].中国安防,2006,Z1:99-101》利用BP三层神经网络识别不同类型的步态信息,从而判断出是否为嫌疑人,但由于网络模型参数尤其是学习率选取的不确定性,使得模型识别精度和速度都有待提高。
目前,研究者们在使用神经网络解决实际问题的过程中多数是通过足够的设计经验和充足的测试数据确定其算法学习率。在面对不同工作任务时,神经网络需要不断的改变学习率以适应新任务的变化。所以如何动态调整神经网络的学习率,一直是研究者们热衷解决的问题。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种基于自组织神经网络的下肢假肢步态识别方法。
本发明解决所述技术问题的技术方案是,提供一种基于自组织神经网络的下肢假肢步态识别方法,其特征在于该方法包括以下步骤:
步骤1、获得下肢假肢穿戴者膝关节和踝关节的采集数据;
步骤2、生成特征值数据,然后进行归一化处理,再将归一化处理后的数据分为训练样本和测试样本;
步骤3、设计基于自组织学习率的步态识别神经网络;
步态识别神经网络选用BP神经网络,包括输入层、隐含层和输出层;设置输入层、隐含层和输出层的神经元个数;以训练样本作为输入,由激励函数f(x)处理后,以下肢假肢穿戴者的步态类型作为输出;输入层的输入矩阵设置为X=[x1,x2,…,xi,…,xn]T,隐含层的输入矩阵设置为Y=[y1,y2,…,yj,…,ym]T,隐含层的输出矩阵设置为H=[h1,h2,…,hj,…,hm]T,输出层的输出矩阵设置为O=[o1,o2,…,ok,…,ol]T,期望输出矩阵设置为D=[d1,d2,…,dk,…,dl]T;输入层到隐含层之间的连接权值V=[v1,v2,…,vj,…,vm],列向量vj为隐含层第j个节点所需要的连接权值;隐含层到输出层之间的连接权值W=[w1,w2,…,wk,…,wm],列向量wk为隐含层第k个节点需要的连接权值;
步骤4、开始训练步态识别神经网络并设置训练次数z;
步骤5、步态识别神经网络信号正向传播,如果输出层的输出与期望输出不一致,则会产生误差E,并计算得出误差E;
步骤6、通过步态识别神经网络动态更新学习率η;判断当前计算出的误差E满足哪种更新条件,若满足增长条件则按照增长公式更新学习率,若满足衰减条件则按照衰减公式更新学习率;
增长公式为:
η=Rinc*η (6)
衰减公式为:
η=Rdec*η (7)
式6-7)中,Rinc为增长系数;Rdec为衰减系数;
步骤7、使用更新后的学习率η进行误差E的反向传播,更新连接权值,以减小误差E;
步骤8、判断是否达到设定的训练次数z;若达到则完成步态识别神经网络的训练,否则返回步骤5。
与现有技术相比,本发明有益效果在于:
1、本方法采用基于BP算法的神经网络进行步态识别,识别精度高,通用性强,满足下肢假肢穿戴者运动过程中稳定性和实时性的要求。
2、本方法建立基于自组织学习率的步态识别神经网络,以下肢假肢穿戴者运动过程中的下肢相关参数作为输入,通过自组织的方法在网络训练过程中根据所得误差对学习率进行实时优化,避免了传统BP神经网络学习率选取的盲目性和不确定性。在网络误差较大时增大学习率,加快网络训练速度,避免陷入局部极小;在网络误差较小时减小学习率,加快收敛速度,提高网络识别精度。本方法提高了BP神经网络的科学性和自适应能力,具有较广泛的使用价值和较强的通用性,实现了对假肢步态的高精度实时识别。
3、表面肌电信号虽可以显著识别运动类型,但是在采集过程中受外界影响较大,故本方法选择人体力学信号来识别步态类型。本方法采用频域分析法对采集的步态数据进行特征提取处理,通过运算和分析得出的膝关节和踝关节的相关数据作为网络输入,可以有效地提高识别精度。此方法可以提取训练数据中的有效信号并舍弃冗余信号,优化了数据样本,从而加快了网络识别的速度。
附图说明
图1为本发明的步态识别神经网络的结构示意图;
图2为本发明的实施例的步态识别结果图。
具体实施方式
下面结合实施例及附图对本发明作进一步说明。具体实施例仅用于进一步详细说明本发明,不限制本申请权利要求的保护范围。
本发明提供了一种基于自组织神经网络的下肢假肢步态识别方法(简称方法),其特征在于该方法包括以下步骤:
步骤1、获得下肢假肢穿戴者膝关节和踝关节的采集数据;
将两个角度传感器分别贴身放置在下肢假肢的膝关节和踝关节处,然后要求下肢假肢穿戴者做若干种步态类型,采集下肢假肢穿戴者膝关节和踝关节的角度数据和角加速度数据,得到采集数据;
步骤2、生成特征值数据,然后进行归一化处理,再将归一化处理后的数据分为训练样本和测试样本;
在采集数据时,由于下肢假肢穿戴者运动的周期性且平衡感较差,导致数据的时域特征信号不明显或缺失,因此在采集角度数据和角加速度数据的基础上,需要对所有的采集数据进行傅里叶变换,得到频域内膝关节和踝关节的特征值数据;
归一化的实际意义是归纳统一数据的统计分布性且有利于提高收敛速度;为减少不同种类的特征值数据之间的差异带来的误差,对识别前的所有特征值数据分别进行归一化处理,变换区间取[-1,1];归一化处理为:
t'=(t-tmin)÷(tmax-tmin) (1)
式1)中,t为所有的采集数据;t'为归一化处理后的数据,tmax和tmin为所有的采集数据中的最大值和最小值;
训练样本用于对步态识别神经网络的训练,测试样本用于测试该步态识别神经网络的识别精度;
步骤3、设计基于自组织学习率的步态识别神经网络;步态识别神经网络选用BP神经网络,确定BP神经网络的结构、参数、输入、输出和激励函数;
BP神经网络选用单隐含层BP神经网络结构,包括输入层、隐含层和输出层;设置输入层、隐含层和输出层的神经元个数;本方法是针对下肢假肢的步态识别,以训练样本作为输入,由激励函数f(x)处理后,以下肢假肢穿戴者的步态类型作为输出;输入层的输入矩阵设置为X=[x1,x2,…,xi,…,xn]T,隐含层的输入矩阵设置为Y=[y1,y2,…,yj,…,ym]T,隐含层的输出矩阵设置为H=[h1,h2,…,hj,…,hm]T,输出层的输出矩阵设置为O=[o1,o2,…,ok,…,ol]T,期望输出矩阵设置为D=[d1,d2,…,dk,…,dl]T;输入层到隐含层之间的连接权值V=[v1,v2,…,vj,…,vm],列向量vj为隐含层第j个节点所需要的连接权值;隐含层到输出层之间的连接权值W=[w1,w2,…,wk,…,wm],列向量wk为隐含层第k个节点需要的连接权值;激励函数f(x)选择单极性Sigmoid函数,即
步骤4、开始训练步态识别神经网络并设置训练次数z;
步骤5、步态识别神经网络信号正向传播,如果输出层的输出与设定的期望输出不一致,则会产生误差E,并计算得出误差E;
信号正向传播阶段中,输入数据从输入层传入,由每层隐含层一一传递后,送至输出层;那么,隐含层第j个节点的输入为:
隐含层第j个节点的输出为:
hj(z)=f(yj(z)) j=1,2,...,m (3)
输出层第k个节点的输出为:
误差E的数学模型为:
步骤6、通过步态识别神经网络动态更新学习率η;判断当前计算出的误差E满足哪种更新条件,若满足增长条件则按照增长公式更新学习率,若满足衰减条件则按照衰减公式更新学习率;
增长公式为:
η=Rinc*η (6)
衰减公式为:
η=Rdec*η (7)
式6-7)中,Rinc为增长系数;Rdec为衰减系数;η∈(0,1);
BP算法具有它自己的局限性,主要体现在学习率η的选取问题上。现阶段通常使用经验公式法确定神经网络的学习率,具有一定的盲目性,且通用性不强。
本方法采用自组织动态调整学习率,从上述更新条件可以看出,当误差E的绝对值较大时,距离目标期望也较大,此时应该适当增大学习率,使网络能够以较大幅度更新连接权值,提高网络收敛速度,同时避免陷入局部极小;当误差E的绝对值较小时,说明具体目标期望更近,此时适当减小学习步长,减缓连接权值的更新幅度,提高了网络识别精度;
步骤7、使用更新后的学习率η进行误差E的反向传播,更新连接权值,以减小误差E;
将式5)代入到隐含层,则
再将式8)代入到输入层,则
由式8)和式9可以看出,误差E的大小取决于每层间的连接权值wjk和vij,所以想要减小误差E就要对连接权值进行修正更新;
显然,调整连接权值的原则是使误差E不断地减小,因此应使连接权值的调整量Δwjk、Δvij与误差的负梯度成正比,即
式10-11)中,负号表示梯度方向为负;
连接权值的更新公式为:
wjk(z+1)=wjk(z)+Δwjk (12)
vij(z+1)=vij(z)+Δvij (13)
步骤8、判断是否达到设定的训练次数z;若达到则完成步态识别神经网络的训练,否则返回步骤5;
步骤9、输入测试样本,用训练好的步态识别神经网络识别测试样本,得出步态识别神经网络的识别精度即识别率。
实施例
为了避免给下肢假肢穿戴者带来不便,采集数据的传感器选择维特智能公司生产的BWT901CL角度传感器;将两个角度传感器分别贴身放置在下肢假肢的膝关节和踝关节的外侧,采样频率为150Hz,采集对象-下肢假肢穿戴者身高175cm,然后要求下肢假肢穿戴者分别在一分钟内做平地行走周期性运动、上楼梯周期性运动和下楼梯周期性运动三种步态类型作为识别目标,然后采集角度数据和角加速度数据;所得采集数据实时传输至终端并保存。
本实施例中,对所有的采集数据进行傅里叶变换后,得到频域内膝关节和踝关节的各6组特征值数据(6组特征值数据为角度数据xyz三个方向的值和角加速度数据xyz三个方向的值),这12组特征值数据可以保留原始信号特征并可以显著表征不同步态的特征,将该12组特征值数据设置为网络的输入可以有效地提高网络识别精度。由于此种角度传感器内带有卡尔曼滤波,所以不需进行降噪处理。
设置步态识别神经网络的输入层神经元个数为12个,隐含层神经元个数为11个,输出层神经元个数为3个;训练次数z=200。增长系数Rinc取1.05;衰减系数Rdec取0.95。
本实施例中,增长条件设置为|E|>0.06,衰减条件设置为|E|≤0.06。
得到归一化处理后的数据600组,其中500组数据作为训练样本,100组数据作为测试样本。
图2中,圆圈为期望输出,星号为本步态识别神经网络的实际输出。由图2可以看出,本步态识别神经网络的识别正确率可以达到96%。
本发明未述及之处适用于现有技术。
Claims (10)
1.一种基于自组织神经网络的下肢假肢步态识别方法,其特征在于该方法包括以下步骤:
步骤1、获得下肢假肢穿戴者膝关节和踝关节的采集数据;
步骤2、生成特征值数据,然后进行归一化处理,再将归一化处理后的数据分为训练样本和测试样本;
步骤3、设计基于自组织学习率的步态识别神经网络;
步态识别神经网络选用BP神经网络,包括输入层、隐含层和输出层;设置输入层、隐含层和输出层的神经元个数;以训练样本作为输入,由激励函数f(x)处理后,以下肢假肢穿戴者的步态类型作为输出;输入层的输入矩阵设置为X=[x1,x2,…,xi,…,xn]T,隐含层的输入矩阵设置为Y=[y1,y2,…,yj,…,ym]T,隐含层的输出矩阵设置为H=[h1,h2,…,hj,…,hm]T,输出层的输出矩阵设置为O=[o1,o2,…,ok,…,ol]T,期望输出矩阵设置为D=[d1,d2,…,dk,…,dl]T;输入层到隐含层之间的连接权值V=[v1,v2,…,vj,…,vm],列向量vj为隐含层第j个节点所需要的连接权值;隐含层到输出层之间的连接权值W=[w1,w2,…,wk,…,wm],列向量wk为隐含层第k个节点需要的连接权值;
步骤4、开始训练步态识别神经网络并设置训练次数z;
步骤5、步态识别神经网络信号正向传播,如果输出层的输出与期望输出不一致,则会产生误差E,并计算得出误差E;
步骤6、通过步态识别神经网络动态更新学习率η;判断当前计算出的误差E满足哪种更新条件,若满足增长条件则按照增长公式更新学习率,若满足衰减条件则按照衰减公式更新学习率;
增长公式为:
η=Rinc*η (6)
衰减公式为:
η=Rdec*η (7)
式6-7)中,Rinc为增长系数;Rdec为衰减系数;
步骤7、使用更新后的学习率η进行误差E的反向传播,更新连接权值,以减小误差E;
步骤8、判断是否达到设定的训练次数z;若达到则完成步态识别神经网络的训练,否则返回步骤5。
2.根据权利要求1所述的基于自组织神经网络的下肢假肢步态识别方法,其特征在于步骤1)中,将两个角度传感器分别放置在下肢假肢的膝关节和踝关节处,然后要求下肢假肢穿戴者做若干种步态类型,采集下肢假肢穿戴者膝关节和踝关节的角度数据和角加速度数据,得到采集数据。
3.根据权利要求1所述的基于自组织神经网络的下肢假肢步态识别方法,其特征在于步骤2)中,生成特征值数据的方法是:对所有的采集数据进行傅里叶变换,得到频域内膝关节和踝关节的特征值数据。
4.根据权利要求1所述的基于自组织神经网络的下肢假肢步态识别方法,其特征在于步骤2)中,归一化处理是:为减少不同种类的特征值数据之间的差异带来的误差,对识别前的所有特征值数据分别进行归一化处理,变换区间取[-1,1];归一化处理为:
t'=(t-tmin)÷(tmax-tmin)
(1)
式1)中,t为所有的采集数据;t'为归一化处理后的数据,tmax和tmin为所有的采集数据中的最大值和最小值。
5.根据权利要求1所述的基于自组织神经网络的下肢假肢步态识别方法,其特征在于步骤3)中,BP神经网络选用单隐含层BP神经网络结构。
6.根据权利要求1所述的基于自组织神经网络的下肢假肢步态识别方法,其特征在于步骤3)中,激励函数f(x)选择单极性Sigmoid函数。
10.根据权利要求1所述的基于自组织神经网络的下肢假肢步态识别方法,其特征在于所述方法还包括步骤9:输入测试样本,用训练好的步态识别神经网络识别测试样本,得出步态识别神经网络的识别精度即识别率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441030.1A CN111639762A (zh) | 2020-05-22 | 2020-05-22 | 一种基于自组织神经网络的下肢假肢步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441030.1A CN111639762A (zh) | 2020-05-22 | 2020-05-22 | 一种基于自组织神经网络的下肢假肢步态识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111639762A true CN111639762A (zh) | 2020-09-08 |
Family
ID=72329099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010441030.1A Pending CN111639762A (zh) | 2020-05-22 | 2020-05-22 | 一种基于自组织神经网络的下肢假肢步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639762A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836617A (zh) * | 2021-01-28 | 2021-05-25 | 北京理工大学前沿技术研究院 | 一种基于ipso-bpnn的长时人体下肢运动预测方法 |
CN112949676A (zh) * | 2020-12-29 | 2021-06-11 | 武汉理工大学 | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799937A (zh) * | 2012-06-26 | 2012-11-28 | 天津大学 | 肌电信号与关节角度信息融合的下肢运动轨迹预测方法 |
CN104983489A (zh) * | 2015-07-28 | 2015-10-21 | 河北工业大学 | 下肢假肢行走时的路况识别方法 |
CN106983589A (zh) * | 2017-04-07 | 2017-07-28 | 河北工业大学 | 一种基于干扰观测器的主动型膝上假肢终端滑模控制方法 |
CN108537335A (zh) * | 2017-03-06 | 2018-09-14 | 南京理工大学 | 一种自适应学习率的bp神经网络算法 |
-
2020
- 2020-05-22 CN CN202010441030.1A patent/CN111639762A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799937A (zh) * | 2012-06-26 | 2012-11-28 | 天津大学 | 肌电信号与关节角度信息融合的下肢运动轨迹预测方法 |
CN104983489A (zh) * | 2015-07-28 | 2015-10-21 | 河北工业大学 | 下肢假肢行走时的路况识别方法 |
CN108537335A (zh) * | 2017-03-06 | 2018-09-14 | 南京理工大学 | 一种自适应学习率的bp神经网络算法 |
CN106983589A (zh) * | 2017-04-07 | 2017-07-28 | 河北工业大学 | 一种基于干扰观测器的主动型膝上假肢终端滑模控制方法 |
Non-Patent Citations (1)
Title |
---|
陈振鑫: "基于多源信息的下肢运动状态识别研究", 《中国优秀硕士学位论文全文数据库医药卫生科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949676A (zh) * | 2020-12-29 | 2021-06-11 | 武汉理工大学 | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 |
CN112949676B (zh) * | 2020-12-29 | 2022-07-08 | 武汉理工大学 | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 |
CN112836617A (zh) * | 2021-01-28 | 2021-05-25 | 北京理工大学前沿技术研究院 | 一种基于ipso-bpnn的长时人体下肢运动预测方法 |
CN112836617B (zh) * | 2021-01-28 | 2023-02-03 | 北京理工大学前沿技术研究院 | 一种基于ipso-bpnn的长时人体下肢运动预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106067178B (zh) | 一种基于肌肉协同激活模型的手部关节运动连续估计方法 | |
Huang et al. | A cyber expert system for auto-tuning powered prosthesis impedance control parameters | |
Hargrove et al. | Non-weight-bearing neural control of a powered transfemoral prosthesis | |
CN111639762A (zh) | 一种基于自组织神经网络的下肢假肢步态识别方法 | |
CN110236550B (zh) | 一种基于多模态深度学习的人体步态预测装置 | |
CN109262618A (zh) | 基于肌肉协同的上肢多关节同步比例肌电控制方法与*** | |
CN108081266A (zh) | 一种基于深度学习的机械臂手部抓取物体的方法 | |
Tang et al. | Continuous estimation of human upper limb joint angles by using PSO-LSTM model | |
CN110232412A (zh) | 一种基于多模态深度学习的人体步态预测方法 | |
CN102764167B (zh) | 基于相关系数的肌电假肢控制源导联优化方法 | |
Huihui et al. | Estimation of ankle angle based on multi-feature fusion with random forest | |
CN115137351A (zh) | 一种基于肌电信号的上肢肘关节角度估计方法及*** | |
Shi et al. | Prediction of continuous motion for lower limb joints based on semg signal | |
CN115128978A (zh) | 物联网环境大数据检测与智能监控*** | |
CN114360066A (zh) | 一种基于bpsogwo-knn的下肢假肢运动意图识别算法 | |
Khong et al. | Multi-layer perceptron training algorithms for pattern recognition of myoelectric signals | |
Barrero et al. | Design and implementation of an intelligent interface for myoelectric controlled prosthesis | |
Putri et al. | Prediction of the Tuban Regency Open Unemployment Rate in 2022 with the Backpropagation Method | |
Ahmad et al. | Review of electromyographic control systems based on pattern recognition | |
CN114722870A (zh) | 一种基于gra-ics-svr模型和mmg信号的肌力估计方法 | |
Wang et al. | A neural network-based surface electromyography motion pattern classifier for the control of prostheses | |
Jongprasithporn et al. | Evaluation of activation function capability for intent recognition and development of a computerized prosthetic knee | |
Pontim et al. | Impact of sEMG Time-series Segmentation Parameters on the Recognition of Hand Gestures | |
Buymistriuk | Metrology of nerve-similar sensing systems in anthropomorphic robots and living organisms | |
Zeng et al. | Wind speed prediction based on improved grey neural network model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200908 |
|
WD01 | Invention patent application deemed withdrawn after publication |