CN114897012A - 一种基于生机接口的智能假肢手臂控制方法 - Google Patents
一种基于生机接口的智能假肢手臂控制方法 Download PDFInfo
- Publication number
- CN114897012A CN114897012A CN202210471905.1A CN202210471905A CN114897012A CN 114897012 A CN114897012 A CN 114897012A CN 202210471905 A CN202210471905 A CN 202210471905A CN 114897012 A CN114897012 A CN 114897012A
- Authority
- CN
- China
- Prior art keywords
- muscle
- current
- matrix
- control
- elbow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 210000003205 muscle Anatomy 0.000 claims abstract description 113
- 238000004458 analytical method Methods 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 108
- 210000003414 extremity Anatomy 0.000 claims description 53
- 230000000875 corresponding effect Effects 0.000 claims description 40
- 239000013598 vector Substances 0.000 claims description 40
- 230000004913 activation Effects 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 30
- 206010049565 Muscle fatigue Diseases 0.000 claims description 25
- 210000002310 elbow joint Anatomy 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 210000000245 forearm Anatomy 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 9
- 230000001276 controlling effect Effects 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 230000003183 myoelectrical effect Effects 0.000 claims description 6
- 238000013145 classification model Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000003066 decision tree Methods 0.000 claims description 3
- 238000002567 electromyography Methods 0.000 claims description 3
- 238000005452 bending Methods 0.000 claims description 2
- 238000007667 floating Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012821 model calculation Methods 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 229920000742 Cotton Polymers 0.000 description 1
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013038 hand mixing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
- A61B5/397—Analysis of electromyograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7221—Determining signal validity, reliability or quality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/54—Artificial arms or hands or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/54—Artificial arms or hands or parts thereof
- A61F2/58—Elbows; Wrists ; Other joints; Hands
- A61F2/582—Elbow joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2/72—Bioelectric control, e.g. myoelectric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2002/704—Operating or control means electrical computer-controlled, e.g. robotic control
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Transplantation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Software Systems (AREA)
- Pathology (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Vascular Medicine (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Cardiology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Physiology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Prostheses (AREA)
Abstract
本发明具体说是一种基于生机接口的智能假肢手臂控制方法。包括以下步骤:意图识别阶段:采集受试者的手部或肘部运动过程的sEMG信号,并进行肌肉协同提取,通过模型映射计算,预测相应的手部动作或肘部运动结果;任务分析阶段:采集一组手部或肘部运动过程的sEMG信号,并分别判断当前患者的肌电数据质量,并对期望输入修正,并得到修正后的期望输入;协调控制阶段:对修正的期望输入进行控制任务的计算,最终进行相应的底层控制,完成智能假肢的完整控制过程。本发明利用残障者患侧的上臂以及残肢部位肌肉的sEMG信号识别其运动意图,进而完成智能假肢手臂的控制,实现高频率、高鲁棒性、高柔顺性的人机交互。
Description
技术领域
本发明属于生物电信号识别技术与智能假肢控制领域,具体说是一种基于生机接口的智能假肢手臂控制方法。
背景技术
据第二次全国残疾人抽样调查公布,我国肢体残疾人已超过2400万。但通过对现实假肢佩戴情况的调查表明,所有肢体残障者中已装配假肢的人数仅90万,这主要是由于传统基于机电一体集成设计的假肢存在着功能单一、运动不协调、环境适应性差、训练周期长等缺点。
目前商业化的智能假肢大多按照机电一体化思路设计,集成电子、液压、微处理器等元器件,具有支撑、减震、位置检测等基本功能,但是大部分机电一体假肢的运动模式无法主动理解使用者的运动意图。与此同时,投入实际使用的智能假肢还很少,并且也仅是通过很少的通道sEMG信号控制执行2~3种动作模式,***的稳定性/安全性受sEMG的非平稳性、时变性影响很大。开发智能假肢的关键环节是通过肌电信号精确识别出人体运动意图,目前大多数识别方法是基于稀疏电极下的sEMG信号,对于手臂残障患者来说,通道较少的sEMG信号无法解码出足够的运动信息,需要使用高密度传感器提高信号量级,并使用肌肉协同理论进行数据降维重构,剔除冗余信息。在此基础上,根据相似度和肌肉疲劳理论,提高人机交互稳定性。
发明内容
针对现有技术的不足,本发明提出一种基于生机接口的智能假肢手臂控制方法,解决目前智能假肢只能使用较少通道进行识别的局限性,使用肌肉协同理论进行意图感知,并通过“监督-检测”双层支路实现智能假肢手臂的高鲁棒性控制,从而使手臂残障患者使用假肢完成更多功能。
本发明为实现上述目的所采用的技术方案是:一种基于生机接口的智能假肢手臂控制方法,包括以下步骤:
1)意图识别阶段:
通过肌电传感器采集受试者的手部或肘部运动过程的sEMG信号,并进行肌肉协同提取,通过模型映射计算,预测受试者的相应的手部动作或肘部运动结果;
2)任务分析阶段:
采集受试者一组手部或肘部运动过程的sEMG信号,并根据前馈数据监督和疲劳检测机制分别判断当前患者的肌电数据质量,并根据当前患者的肌电数据质量对期望输入修正,并得到修正后的期望输入;
3)协调控制阶段:
对修正的期望输入进行控制任务的计算,最终进行相应的底层控制,完成智能假肢的完整控制过程。
所述意图识别阶段,包括以下步骤:
1-1)采集手部或肘部运动相关的sEMG信号,对采集到的sEMG信号添加对应的动作标签和关节角度;
1-2)对采集到的sEMG信号进行预处理,然后对预处理后的数据进行最大最小归一化处理,得到归一化结果;
1-3)对归一化结果进行非负矩阵分解,将手部或肘部sEMG数据分解为协同矩阵和时间激活系数矩阵的乘积形式,分别滑动提取手部或肘部对应的肌肉协同矩阵序列;
1-4)分别使用手部和肘部的肌肉协同矩阵进行模型映射计算,得到相应的手部动作或肘部运动结果。
所述步骤1-4),包括以下步骤:
步骤1:对手部动作的肌肉协同矩阵采用决策树作为分类器进行离线模型训练,提取的手部协同矩阵为输入,动作标签为输出,进行模型训练,得到协同矩阵到手部离散动作的分类模型;
步骤2:对肘部运动的肌肉协同矩阵采用BP神经网络作为回归算法进行离线模型训练,提取的肘部协同矩阵为输入,关节角度为输出,得到协同矩阵到肘部连续运动的回归模型;
步骤3:使用离线模型训练得到的分类模型和回归模型,对于相同维度的输入数据,预测得到在线控制时的手部或肘部识别结果;
步骤4:将在线控制时的手部或肘部识别结果等待任务分析阶段进行调用。
所述任务分析阶段,包括以下步骤:
2-1)在线控制前,离线采集一组完整手部或肘部运动过程的sEMG信号,并进行肌肉协同提取,将其作为基准肌肉协同;
按照设定要求截取该组sEMG信号,得到一组设定长度的中值频率序列,对中值频率序列计算均值和标准差,将获取的均值和标准差之和作为基准上限,均值和标准差之差作为基准下限,作为肌肉疲劳的判断标准;
所述肌电数据质量,包括:当前肌肉协同与基准肌肉协同的相似度p和肌肉疲劳状态;
2-2)进行前馈数据判断:在线控制时,对当前采集的sEGM信号进行肌肉协同矩阵的计算,并与2-1)中的基准肌肉协同进行对比,计算二者的相似度;
2-3)进行肌肉疲劳判断:对当前在线采集的sEMG数据计算中值频率,对比当前中值频率浮动范围是否超出步骤2-1)中的基准上、下限,当超出范围时,认为当前处于肌肉疲劳状态,否则,不处于肌肉疲劳状态;
2-4)根据获取到的肌肉协同相似度、肌肉疲劳状态判断结果,判断是否将意图识别阶段的得到在线控制时的手部或肘部识别结果作为期望输入;
当相似度超过阈值且肌肉不处于疲劳状态时,使用识别结果作为期望输入;否则,根据预先规划的假肢运动轨迹进行期望输入调整,直到重新满足判断条件。
所述进行前馈数据判断,具体为:
采集基准sEMG信号进行预处理,预处理后提取的协同矩阵Wstandard和时间激活矩阵Hstan ard作为衡量基准;
对当前时间窗采集的sEMG数据进行非负矩阵分解得到当前的协同矩阵Wcurrent和时间激活系数矩阵Hcurrent,Wcurrent中的k个列向量代表当前运动模式下对应的k种肌肉激活模态,Hcurrent中的k个行向量表示对当前的k个肌肉模式在整个运动状态中时间顺序内的激活系数;
对比基准协同矩阵Wstandard与当前协同矩阵Wcurrent,计算协同矩阵相似性:
其中,CW[k*k]是维度为k的方阵,表示当前受试者提取的协同矩阵的第i列与基准协同矩阵的第j列匹配后得到的向量相似度,矩阵中元素范围均取0.0~1.0,元素的值越接近1说明对应的向量越相似,越接近0说明对应的向量相差越大;
对比基准时间激活系数矩阵Hstandard与当前时间激活系数矩阵Hcurrent,得到其相似性:
其中,CH[k*k]是维度为k的方阵,表示当前受试者提取的时间激活系数矩阵的第i行与基准时间激活系数矩阵的第j行匹配后得到的向量相似度,类似CW矩阵,CH中的元素的值越接近1说明向量越相似,越接近0说明相差越大;
得到当前受试者的k个协同列向量、k个时间激活系数行向量与基准协同对应向量的最大相似度:
VW=[max(CW[1,i]),…,max(CW[k,i])](i=1,2,…,k)
VH=[max(CH[1,i]),…,max(CH[k,i])](i=1,2,…,k)
其中,VW、VH为CW、CH矩阵中每行元素最大值组成的k维行向量,分别表示Wcurrent的各列与Wstandard最接近的列向量的相似度,Hcurrent的各行与Hstandard最接近的行向量的相似度;
分别对向量VW、VH中的元素进行均值求解,得到当前受试者与基准条件之间关于协同矩阵和时间激活系数矩阵的相似度pW、pH,即:
pW=sum(VW)/k
pH=sum(VH)/k
并对二者求均值,p=(pW+pH)/2,最终得到当前肌肉协同与基准肌肉协同的相似度p。
所述进行肌肉疲劳判断,具体为:
选择受试者在首次控制抬起假肢前臂到达肘部弯曲最大位置后开始进行肌肉疲劳数据的记录,从此时开始记录30秒内的数据作为基准,并对数据每10秒提取一次基准中值频率MFbase;
对三次提取的基准中值频率计算平均值mean和标准差std,根据在线控制时采集到的sEMG信号的中值频率MFbase是否在均值的标准差范围上下浮动,检测当前肌肉是否已经处于疲劳状态:
对于每个肌电传感器的采集通道,如果当前中值频率值连续3次超出设定范围(MFmax,MFmin),则对相应通道的疲劳标志置为1;如果当前中值频率值连续3次出现在设定范围内,则表示相应通道解除疲劳状态,疲劳标志置为0;
当手臂上三个大肌群信号所有通道中有80%的疲劳标志为1时,则对应肌群判定处于疲劳状态,即:Fatigue_flag为1;反之,当三个大肌群信号某一肌群对应所有通道中有80%的疲劳标志为0时,则对应肌群认为脱离疲劳状态,即:Fatigue_flag为0。
所述步骤2-4),具体为:
将协同相似度p与疲劳标志位Fatigued_flag作为任务分析策略的输入,设定相似度判别阈值pthreshold,当p≥pthreshold且Fatigued_flag=0,认为当前肌肉协同为有效协同,此时的肌肉没有达到疲劳状态,将预估的期望手部动作类别和肘关节角度作为控制输入,即:yr=yd,ar=ad;
当协同相似度p与疲劳标志位Fatigued_flag不满足p≥pthreshold,且Fatigued_flag=0,即当前sEMG提取出的肌肉协同与标准肌肉协同差距过大,或者肌肉为疲劳状态时,则丢弃意图识别阶段的识别结果,并以采集sEMG信号到假肢执行动作为一个控制周期,根据假肢反馈的当前所处状态规划当前控制周期的输入:
手部动作类别按上一控制周期的动作执行,肘关节通过电机反馈的当前位置ya、按照预先设定的固定运动轨迹计算当前控制周期的肘关节角度作为控制输入;
直到肌肉从疲劳状态恢复并且提取到有效肌肉协同数据时,重新将意图识别作为控制输入。
步骤3)中,所述协调控制阶段中,对修正的期望输入进行控制任务的计算,包括以下步骤:
3-1)手部力、位信息交替控制:根据手部运动结果作为修正的期望输入,获取的当前手指状态进行开关函数切换,决定对手指进行位置控制或力控制;
3.2)肘部阻抗控制:根据修正的期望输入和电机反馈的实际输出进行肘部阻抗控制构建,根据计算结果进行电机的力控制。
所述步骤3-1)具体为:
根据意图识别阶段获取的手部运动结果作为修正的期望输入,获取手指6个自由度的期望角度qd、力的期望值fd,根据假肢反馈当前手指实际位置qa计算位置误差,即:ε=qd-qa,用于进行位置控制;
在力信息、位置信息两个反馈环之间设置开关函数,并根据手指反馈的实际受力fa与设定的受力阈值fthreshold的关系决定是否进行开关函数的切换;
当fa<fthreshold时,表示手指实际位置qa与qd期望位置相差大,开关函数切换到位置控制,使各手指达到期望角度;
当fa≥fthreshold时,表示当前手指实际位置已经接触被抓握物体表面,开关函数切换到力的控制,并根据当前手部运动识别的动作是否为休息状态,调整期望力矩的增量,即:
当动作ar为抓握动作时,力的增量为(ε·fd)/qd;
当动作ar为休息状态时,力的增量为0,表示假肢保持在当前状态,完成当前动作的任务执行;
所述休息状态为,手部动作采集数据时每做一个动作休息设定时间,休息设定时间阶段为休息状态。
所述步骤3-2)具体为:
其中,kp为比例调节系数,kd为微分调节系数。
本发明具有以下有益效果及优点:
1.本发明使用患者残障一侧手臂的sEMG信号提取肌肉协同矩阵进行意图识别,在不添加其他传感器的情况下,仅根据sEMG完成控制框架的监督和检测支路搭建,以此实现“人在闭环”的理念,并基于控制输入进行手/肘的一体化控制,增强患者与假肢手臂之间的交互效果,令手臂残障患者能够通过假肢完成更多任务。
2.本发明利用残障者患侧的上臂以及残肢部位肌肉的sEMG信号识别其运动意图,进而完成智能假肢手臂的控制,实现高频率、高鲁棒性、高柔顺性的人机交互。
附图说明
图1为本发明三个阶段的总体方法流程框图;
图2为本发明前臂表面肌电电极粘贴位置示意图;
图3为本发明手部五种动作示意图;
图4为本发明上臂肌电电极和IMU位置示意图;
图5为本发明前馈数据监督判断流程框图;
图6为本发明任务判别分析流程框图;
图7为本发明手部混合信息控制流程框图;
图8为本发明肘部阻抗控制模型流程框图;
图9为本发明假肢穿戴效果示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但本发明能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
一种基于生机接口的智能假肢手臂控制方法,是一种利用手臂残障患者患侧肢体的sEMG信号运动意图解码,用于智能假肢控制的方法,包括肌肉协同理论下的意图识别、“监督-检测”支路下的任务分析、手/肘一体化协调控制三个阶段。
该方法分为意图识别阶段、任务分析阶段、协调控制阶段三个部分,如图1所示。
其中,意图识别阶段包括如下步骤:
1.1 sEMG信号采集,获取手臂关于控制手部动作和肘部运动的原始表面肌电信号数据;
1.2 sEMG的预处理,通过滤波处理去除原始表面肌电信号的噪声;
1.3 sEMG信号的最大最小归一化、肌肉协同提取
1.4进行意图识别,包括手部动作分类和肘部角度预估。
在任务分析阶段,通过“前馈数据监督”和“肌肉疲劳检测”对前述意图识别阶段的结果进行调整,得到修正的期望输入,具体包括如下步骤:
2.1 sEMG信号采集,采集用于进行“监督-检测”判断的sEMG信号。
2.2 sEMG信号的预处理,采用和意图识别阶段同样的预处理方法。
2.3前馈支路进行数据监督。通过在实验室理想条件下进行数据采集,得到质量较高的肌肉协同矩阵,将其作为基准协同,然后在实际进行假肢控制时,对当前提取的肌肉协同与基准协同之间的相似度进行计算,用于判断当前情况下的肌肉协同是否足够作为输入数据进行模型计算。
2.4检测支路进行肌肉疲劳检测。在使用假肢时,由于初始状态下肌肉情况较好,因此对初始一段时间内的sEMG信号提取中值频率,并计算其均值和方差,以此划定标准来判定肌肉是否疲劳。
2.5任务分析进行任务修正。通过2.1步骤和2.2步骤得到的相似度和肌肉疲劳状态,结合1.5步骤得到的意图识别结果,进行期望输入的修正。
协调控制阶段,根据修正的期望输入进行控制任务的计算,包括如下两个步骤:
3.1手部力、位信息交替控制。根据当前手指状态进行开关函数切换,决定对手指进行位置控制或力控制。
3.2肘部阻抗控制。根据修正的期望输入和电机反馈的实际输出进行肘部阻抗控制构建,然后根据计算结果进行电机的力控制。
一、意图识别阶段包括sEMG信号的采集、预处理、归一化、肌肉协同提取、模型训练/模型计算几个步骤,流程图如图1所示,通过几个步骤的处理,就可以得到意图识别结果。具体说明如下:
1.1 sEMG信号的采集
一般情况下,sEMG的采集是根据肌肉分布,使用稀疏电机粘贴在对应位置,而由于右臂残障患者的残肢部分可用于控制手部动作的肌肉面积较小,进行前臂数据采集时,传统的稀疏电极无法有效采集sEMG信息,因此需使用高密度肌电传感器包裹残肢靠近尺侧腕屈肌的位置,如图2所示,并选择如图3所示的5种手部动作类别进行数据采集。对于上臂数据的采集,由于肘关节属于连续运动,除了使用高密度肌电电极粘贴在肱二头肌侧以及肱三头肌侧采集sEMG数据以外,还需要通过IMU进行关节运动量的获取。
本发明中采用Quattrocento设备采集受试者的前臂和上臂的表面肌电信号数据,该设备采集的信号经过放大、数字转换等步骤,最终通过以太网接口传输到PC端,通过多个电缆适配器,可以同时使用多种电极配置,能够同时采集多个通道的高密度肌电信号,采集频率、采集通道等可根据需求在对应的OTBioLabs软件中进行修改,本发明中设定采集频率为2048Hz。
采集数据前,首先用酒精棉片对粘贴电极部位进行消毒,然后令受试者站立在电脑屏幕前。采集前臂肌电信号时,受试者根据电脑屏幕中的引导图片控制前臂肌肉做出相应动作。考虑到发力时间过长导致肌肉疲劳问题,要求受试者每个动作持续5秒,然后休息5秒,如此循环一遍所有动作为一组,共采集5组,组间休息2分钟;采集完前臂数据后,令受试者静坐进行5分钟的充分休息,然后采集上臂肌肉的肌电数据和关节运动数据。
针对肘关节运动预估问题,由于右臂残障受试者的患侧前臂缺失,无法通过IMU传感器或者Vicon动作捕捉设备采集到关节运动量,考虑到人体具有对称性,因此使用左臂的运动量数据作为镜像数据源,用以估计右臂运动,通过采集患侧肌电数据与健侧运动量数据,并在时序上进行时间戳对齐,得到可靠的训练数据。上臂肌电数据的采集过程中,将两个NoraxonmyoMOTION传感器分别固定在上臂和手腕位置采集用于模型训练的肘关节角度,采集频率为200Hz,如图4所示。每组实验中,受试者以自然运动速度进行患侧的肘关节屈伸动作,往复运动60s为一组,组件休息60s后进行下一组数据采集,共进行5组实验。
1.2 sEMG信号的预处理
采集到的原始肌电数据存在噪声干扰等问题,因此需要对其进行滤波处理去除噪声。首先对原始sEMG数据进行快速傅里叶变换,以确定数据的频率分布,然后使用陷波处理去除50Hz的工频噪声,最后,使用频率为20~400Hz的巴特沃兹带通滤波器去除sEMG信号中的噪声,保留肌电信号的主频带数据。
1.3肌肉协同提取
经过预处理后的sEMG信号已经去除噪声影响,可以进行肌肉协同提取,由于sEMG是一种非平稳信号,为保证数据信息不丢失、肌肉协同提取的连续性,设置时间窗250ms,滑动窗50ms。由于非负矩阵分解进行计算时要求数据均为正数,因此,对预处理后的sEMG数据进行最大最小归一化,然后进行分解计算,将sEMG数据分解为协同矩阵和时间激活系数矩阵的乘积形式。
1.4进行意图识别
意图识别需要在进行假肢控制前进行离线模型训练,手部分类模型选择决策树作为分类器,以提取的协同矩阵为输入,动作标签为输出,进行模型训练;肘部估计模型选择BP神经网络作为回归算法,以协同矩阵为输入,关节角度为输出,进行模型训练。经过离线模型训练后,在线控制时即可直接得到意图识别结果。
二、任务分析阶段通过“监督-检测”支路,结合意图识别结果,进行期望输入的修正,流程框图如图1所示。具体说明如下:
2.1 sEMG信号的采集
2.2 sEMG信号的预处理
2.3前馈数据监督
对于当前状态下提取的肌肉协同,将其作为前馈引到任务分析的输入进行前馈监督支路构建与任务判别分析,从肌肉协同矩阵与时间激活系数矩阵两方面衡量当前肌肉协同质量,具体如图5所示。首先在实验室理想条件下采集质量较高的肌电信号进行预处理,提取的协同矩阵Wstandard和时间激活矩阵Hstandard作为衡量基准。然后,对当前时间窗采集的sEMG进行非负矩阵分解得到当前的协同矩阵Wcurrent和时间激活系数矩阵Hcurrent,Wcurrent中的k个列向量代表当前运动模式下对应的k种肌肉激活模态,Hcurrent中的k个行向量表示对当前的k个肌肉模式在整个运动状态中时间顺序内的激活系数。
对比基准协同矩阵Wstandard与当前协同矩阵Wcurrent,计算协同矩阵相似性:
其中,CW[k*k]是维度为k的方阵,表示当前受试者提取的协同矩阵的第i列与基准协同矩阵的第j列匹配后得到的向量相似度,矩阵中元素范围均为0.0~1.0,元素的值越接近1说明对应的向量越相似,越接近0说明对应的向量相差越大。
同样地,对比基准时间激活系数矩阵Hstandard与当前时间激活系数矩阵Hcurrent,计算其相似性:
其中,CH[k*k]是维度为k的方阵,表示当前受试者提取的时间激活系数矩阵的第i行与基准时间激活系数矩阵的第j行匹配后得到的向量相似度,类似CW矩阵,CH中的元素的值越接近1说明向量越相似,越接近0说明相差越大。
进一步,得到当前受试者的k个协同列向量、k个时间激活系数行向量与基准协同对应向量的最大相似度:
VW=[max(CW[1,i]),…,max(CW[k,i])],VH=[max(CH[1,i]),…,max(CH[k,i])](i=1,2,…,k)
其中,VW、VH为CW、CH矩阵中每行元素最大值组成的k维行向量,分别表示Wcurrent的各列与Wstandard最接近的列向量的相似度,Hcurrent的各行与Hstandard最接近的行向量的相似度。
然后分别对向量VW、VH中的元素进行均值求解,得到当前受试者与基准条件之间关于协同矩阵和时间激活系数矩阵的相似度pW、pH,并对二者求均值,最终得到当前肌肉协同与基准肌肉协同的相似度p。
pW=sum(VW)/k
pH=sum(VH)/k
p=(pW+pH)/2
2.4肌肉疲劳检测
本发明中选用中值频率作为疲劳指标,提出一种专注于人体肌电信号的肌肉疲劳检测方法,用于作为肌肉疲劳检测支路,提高人机交互过程中意图识别的鲁棒性。为避免初始sEMG信号的尖峰干扰,选择受试者在首次控制抬起假肢前臂到达肘部弯曲最大位置后开始进行肌肉疲劳数据的记录,从此时开始记录30秒内的数据作为基准,并对数据每10秒提取一次基准中值频率(MFbase)。对三次提取的基准中值频率计算平均值(mean)和标准差(std),根据后续数据的中值频率是否在均值的标准差范围上下浮动检测当前肌肉是否已经处于疲劳状态:
由于肌肉的疲劳状态变化不是很快,中值频率也不会在较短时间内产生较大的变化,因此在计算基准中值频率后,对每10秒的数据进行一次中值频率计算。对于每个通道,如果当前中值频率值连续3次超出设定范围,则对相应通道的疲劳标志置为1;如果当前中值频率值连续3次出现在设定范围内,则表示相应通道解除疲劳状态,疲劳标志置为0。当三个大肌群信号所有通道中有80%的疲劳标志为1时,则对应肌群判定处于疲劳状态,Fatigue_flag为1;反之,当肌群对应所有通道中有80%的疲劳标志为0时,则对应肌群认为脱离疲劳状态,Fatigue_flag为0。
2.5任务分析后进行任务修正
经过监督-检测支路的数据监督处理后,可以将协同相似度p与疲劳标志位Fatigued_flag作为任务分析策略的输入,如图6所示。根据经验设定相似度判别阈值pthreshold为0.85,当p≥pthreshold,并且Fatigued_flag=0,认为当前肌肉协同为有效协同,此时的肌肉还没有达到疲劳状态,可以将预估的期望手部动作类别和肘关节角度作为控制输入,即yr=yd,ar=ad;当p的数值、Fatigued_flag不满足前述“且”判断,即当前sEMG提取出的肌肉协同与标准肌肉协同差距过大,或者肌肉已经出现疲劳状态时,数据易出现可靠性较低、误识别的问题,需要丢弃根据当前肌肉协同预估的意图识别结果,在肌肉从疲劳情况恢复之前,根据假肢反馈的当前状态规划当前控制周期的输入——手部类别按上一控制周期动作执行,肘关节电机反馈的当前位置ya、预先规划的固定运动轨迹计算下一时刻的肘关节角度作为控制输入。此时肌电信号只用来作为开关信号决定假肢是否继续运动或停止,只有当肌肉从疲劳状态恢复并且肌肉协同数据有效时,才重新进行主动控制。
三、协调控制阶段根据修正后的期望输入进行控制任务计算,具体说明如下:
3.1手部的力、位信息混合控制
经过任务分析后得到修正的分类结果,并根据分类动作进行控制,如图7所示。
根据识别的当前动作类别,获取手指6个自由度的期望角度qd、力的期望值fd,根据假肢返回的当前手指实际位置qa计算位置误差:ε=qd-qa,用于进行位置控制。在力信息、位置信息两个反馈环之间设置开关函数,并根据手指反馈的实际受力fa与设定的受力阈值fthreshold的关系决定是否进行开关函数的切换。
当fa<fthreshold时,手指实际位置qa与qd期望位置相差较大,开关函数切换到位置控制,以期使其尽快期望位置。
当fa≥fthreshold时,当前手指实际位置已经接触被抓握物体表面,开关函数切换到力的控制,通过动作类别变化调整期望力矩的增量:当动作ar为抓握等动作时,力的增量为(ε·fd)/qd;当动作ar为休息时,力的增量为0,表示假肢保持在当前状态,完成当前动作的任务执行。
3.2肘关节阻抗控制
为保证假肢使用者的舒适性、假肢的柔顺性,结合前述得到的期望角度yr,构建肘部的阻抗控制框架,如图8所示。针对生机电一体化假肢的肘关节,内环建立基于力闭环的PD控制,阻抗计算环节作为控制***外环,其外环的阻抗控制模型可以构建为:
其中,Md、Bd、Kd分别表示***的惯性参数、阻尼参数、刚度参数,e=yr-ya,表示当前实际位置与期望位置的误差;τext为阻抗控制模型根据位置误差计算出的期望力矩。
此外,假肢示意穿戴效果如图9,红色线为假肢任意时刻的位置,根据肘关节电机返回角度值估计当前关节力矩τest。
根据拉格朗日动力学方程:
得到关节力矩表达式:
其中,τest表示关节力矩估计值,m为前臂质量,l为质心到肘关节轴心长度,由于假肢受腔影响肩部活动,患侧穿戴假肢后上臂与躯干夹角忽略不计,则θ可近似为假肢前臂与垂直方向夹角,为角加速度,g为重力加速度;
根据人体各部位质量与长度关系:
m=M*1.62%,l=larm*45.74%
其中,M为人体质量,larm为前臂长度;
通过阻抗控制模型计算的期望力矩τext、估计力矩τest,进行力闭环的PD控制:
其中,kp为比例调节系数,kd为微分调节系数。
以上所述仅为本发明的实施方式,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进、扩展等,均包含在本发明的保护范围内。
Claims (10)
1.一种基于生机接口的智能假肢手臂控制方法,其特征在于,包括以下步骤:
1)意图识别阶段:
通过肌电传感器采集受试者的手部或肘部运动过程的sEMG信号,并进行肌肉协同提取,通过模型映射计算,预测受试者的相应的手部动作或肘部运动结果;
2)任务分析阶段:
采集受试者一组手部或肘部运动过程的sEMG信号,并根据前馈数据监督和疲劳检测机制分别判断当前患者的肌电数据质量,并根据当前患者的肌电数据质量对期望输入修正,并得到修正后的期望输入;
3)协调控制阶段:
对修正的期望输入进行控制任务的计算,最终进行相应的底层控制,完成智能假肢的完整控制过程。
2.根据权利要求1所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述意图识别阶段,包括以下步骤:
1-1)采集手部或肘部运动相关的sEMG信号,对采集到的sEMG信号添加对应的动作标签和关节角度;
1-2)对采集到的sEMG信号进行预处理,然后对预处理后的数据进行最大最小归一化处理,得到归一化结果;
1-3)对归一化结果进行非负矩阵分解,将手部或肘部sEMG数据分解为协同矩阵和时间激活系数矩阵的乘积形式,分别滑动提取手部或肘部对应的肌肉协同矩阵序列;
1-4)分别使用手部和肘部的肌肉协同矩阵进行模型映射计算,得到相应的手部动作或肘部运动结果。
3.根据权利要求2所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述步骤1-4),包括以下步骤:
步骤1:对手部动作的肌肉协同矩阵采用决策树作为分类器进行离线模型训练,提取的手部协同矩阵为输入,动作标签为输出,进行模型训练,得到协同矩阵到手部离散动作的分类模型;
步骤2:对肘部运动的肌肉协同矩阵采用BP神经网络作为回归算法进行离线模型训练,提取的肘部协同矩阵为输入,关节角度为输出,得到协同矩阵到肘部连续运动的回归模型;
步骤3:使用离线模型训练得到的分类模型和回归模型,对于相同维度的输入数据,预测得到在线控制时的手部或肘部识别结果;
步骤4:将在线控制时的手部或肘部识别结果等待任务分析阶段进行调用。
4.根据权利要求1所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述任务分析阶段,包括以下步骤:
2-1)在线控制前,离线采集一组完整手部或肘部运动过程的sEMG信号,并进行肌肉协同提取,将其作为基准肌肉协同;
按照设定要求截取该组sEMG信号,得到一组设定长度的中值频率序列,对中值频率序列计算均值和标准差,将获取的均值和标准差之和作为基准上限,均值和标准差之差作为基准下限,作为肌肉疲劳的判断标准;
所述肌电数据质量,包括:当前肌肉协同与基准肌肉协同的相似度p和肌肉疲劳状态;
2-2)进行前馈数据判断:在线控制时,对当前采集的sEGM信号进行肌肉协同矩阵的计算,并与2-1)中的基准肌肉协同进行对比,计算二者的相似度;
2-3)进行肌肉疲劳判断:对当前在线采集的sEMG数据计算中值频率,对比当前中值频率浮动范围是否超出步骤2-1)中的基准上、下限,当超出范围时,认为当前处于肌肉疲劳状态,否则,不处于肌肉疲劳状态;
2-4)根据获取到的肌肉协同相似度、肌肉疲劳状态判断结果,判断是否将意图识别阶段的得到在线控制时的手部或肘部识别结果作为期望输入;
当相似度超过阈值且肌肉不处于疲劳状态时,使用识别结果作为期望输入;否则,根据预先规划的假肢运动轨迹进行期望输入调整,直到重新满足判断条件。
5.根据权利要求4所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述进行前馈数据判断,具体为:
采集基准sEMG信号进行预处理,预处理后提取的协同矩阵Wstandard和时间激活矩阵Hstandard作为衡量基准;
对当前时间窗采集的sEMG数据进行非负矩阵分解得到当前的协同矩阵Wcurrent和时间激活系数矩阵Hcurrent,Wcurrent中的k个列向量代表当前运动模式下对应的k种肌肉激活模态,Hcurrent中的k个行向量表示对当前的k个肌肉模式在整个运动状态中时间顺序内的激活系数;
对比基准协同矩阵Wstandard与当前协同矩阵Wcurrent,计算协同矩阵相似性:
其中,CW[k*k]是维度为k的方阵,表示当前受试者提取的协同矩阵的第i列与基准协同矩阵的第j列匹配后得到的向量相似度,矩阵中元素范围均取0.0~1.0,元素的值越接近1说明对应的向量越相似,越接近0说明对应的向量相差越大;
对比基准时间激活系数矩阵Hstandard与当前时间激活系数矩阵Hcurrent,得到其相似性:
其中,CH[k*k]是维度为k的方阵,表示当前受试者提取的时间激活系数矩阵的第i行与基准时间激活系数矩阵的第j行匹配后得到的向量相似度,类似CW矩阵,CH中的元素的值越接近1说明向量越相似,越接近0说明相差越大;
得到当前受试者的k个协同列向量、k个时间激活系数行向量与基准协同对应向量的最大相似度:
VW=[max(CW[1,i]),…,max(CW[k,i])](i=1,2,…,k)
VH=[max(CH[1,i]),…,max(CH[k,i])](i=1,2,…,k)
其中,VW、VH为CW、CH矩阵中每行元素最大值组成的k维行向量,分别表示Wcurrent的各列与Wstandard最接近的列向量的相似度,Hcurrent的各行与Hstandard最接近的行向量的相似度;
分别对向量VW、VH中的元素进行均值求解,得到当前受试者与基准条件之间关于协同矩阵和时间激活系数矩阵的相似度pW、pH,即:
pW=sum(VW)/k
pH=sum(VH)/k
并对二者求均值,p=(pW+pH)/2,最终得到当前肌肉协同与基准肌肉协同的相似度p。
6.根据权利要求4所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述进行肌肉疲劳判断,具体为:
选择受试者在首次控制抬起假肢前臂到达肘部弯曲最大位置后开始进行肌肉疲劳数据的记录,从此时开始记录30秒内的数据作为基准,并对数据每10秒提取一次基准中值频率MFbase;
对三次提取的基准中值频率计算平均值mean和标准差std,根据在线控制时采集到的sEMG信号的中值频率MFbase是否在均值的标准差范围上下浮动,检测当前肌肉是否已经处于疲劳状态:
对于每个肌电传感器的采集通道,如果当前中值频率值连续3次超出设定范围(MFmax,MFmin),则对相应通道的疲劳标志置为1;如果当前中值频率值连续3次出现在设定范围内,则表示相应通道解除疲劳状态,疲劳标志置为0;
当手臂上三个大肌群信号所有通道中有80%的疲劳标志为1时,则对应肌群判定处于疲劳状态,即:Fatigue_flag为1;反之,当三个大肌群信号某一肌群对应所有通道中有80%的疲劳标志为0时,则对应肌群认为脱离疲劳状态,即:Fatigue_flag为0。
7.根据权利要求4所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述步骤2-4),具体为:
将协同相似度p与疲劳标志位Fatigued_flag作为任务分析策略的输入,设定相似度判别阈值pthreshold,当p≥pthreshold且Fatigued_flag=0,认为当前肌肉协同为有效协同,此时的肌肉没有达到疲劳状态,将预估的期望手部动作类别和肘关节角度作为控制输入,即:yr=yd,ar=ad;
当协同相似度p与疲劳标志位Fatigued_flag不满足p≥pthreshold,且Fatigued_flag=0,即当前sEMG提取出的肌肉协同与标准肌肉协同差距过大,或者肌肉为疲劳状态时,则丢弃意图识别阶段的识别结果,并以采集sEMG信号到假肢执行动作为一个控制周期,根据假肢反馈的当前所处状态规划当前控制周期的输入:
手部动作类别按上一控制周期的动作执行,肘关节通过电机反馈的当前位置ya、按照预先设定的固定运动轨迹计算当前控制周期的肘关节角度作为控制输入;
直到肌肉从疲劳状态恢复并且提取到有效肌肉协同数据时,重新将意图识别作为控制输入。
8.根据权利要求1所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,步骤3)中,所述协调控制阶段中,对修正的期望输入进行控制任务的计算,包括以下步骤:
3-1)手部力、位信息交替控制:根据手部运动结果作为修正的期望输入,获取的当前手指状态进行开关函数切换,决定对手指进行位置控制或力控制;
3.2)肘部阻抗控制:根据修正的期望输入和电机反馈的实际输出进行肘部阻抗控制构建,根据计算结果进行电机的力控制。
9.根据权利要求8所述的一种基于生机接口的智能假肢手臂控制方法,其特征在于,所述步骤3-1)具体为:
根据意图识别阶段获取的手部运动结果作为修正的期望输入,获取手指6个自由度的期望角度qd、力的期望值fd,根据假肢反馈当前手指实际位置qa计算位置误差,即:ε=qd-qa,用于进行位置控制;
在力信息、位置信息两个反馈环之间设置开关函数,并根据手指反馈的实际受力fa与设定的受力阈值fthreshold的关系决定是否进行开关函数的切换;
当fa<fthreshold时,表示手指实际位置qa与qd期望位置相差大,开关函数切换到位置控制,使各手指达到期望角度;
当fa≥fthreshold时,表示当前手指实际位置已经接触被抓握物体表面,开关函数切换到力的控制,并根据当前手部运动识别的动作是否为休息状态,调整期望力矩的增量,即:
当动作ar为抓握动作时,力的增量为(ε·fd)/qd;
当动作ar为休息状态时,力的增量为0,表示假肢保持在当前状态,完成当前动作的任务执行;
所述休息状态为,手部动作采集数据时每做一个动作休息设定时间,休息设定时间阶段为休息状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210471905.1A CN114897012B (zh) | 2022-04-29 | 一种基于生机接口的智能假肢手臂控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210471905.1A CN114897012B (zh) | 2022-04-29 | 一种基于生机接口的智能假肢手臂控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114897012A true CN114897012A (zh) | 2022-08-12 |
CN114897012B CN114897012B (zh) | 2024-07-26 |
Family
ID=
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115317207A (zh) * | 2022-10-12 | 2022-11-11 | 深圳市心流科技有限公司 | 一种仿生肢体动作控制方法和控制装置 |
CN117012362A (zh) * | 2023-10-07 | 2023-11-07 | 中国康复科学所(中国残联残疾预防与控制研究中心) | 一种适配数据识别方法、***、设备及存储介质 |
CN117281667A (zh) * | 2023-11-09 | 2023-12-26 | 浙江强脑科技有限公司 | 运动模式识别方法、装置、智能假肢、终端及存储介质 |
CN117442400A (zh) * | 2023-12-21 | 2024-01-26 | 深圳市心流科技有限公司 | 一种智能假肢的校正方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150072326A1 (en) * | 2012-03-27 | 2015-03-12 | B10Nix S.R.L. | System for the acquisition and analysis of muscle activity and operation method thereof |
CN106109174A (zh) * | 2016-07-14 | 2016-11-16 | 燕山大学 | 一种基于肌电反馈式阻抗自适应的康复机器人控制方法 |
US20190343662A1 (en) * | 2017-06-20 | 2019-11-14 | Southeast University | Multi-dimensional surface electromyogram signal prosthetic hand control method based on principal component analysis |
CN111367399A (zh) * | 2018-12-26 | 2020-07-03 | 中国科学院沈阳自动化研究所 | 一种表面肌电信号手势识别方法 |
CN111616847A (zh) * | 2020-06-02 | 2020-09-04 | 中国科学技术大学先进技术研究院 | 基于肌肉协同和人机语音交互的上臂假肢控制***和方法 |
CN113534960A (zh) * | 2021-07-29 | 2021-10-22 | 中国科学技术大学 | 基于imu和表面肌电信号的上臂假肢控制方法及*** |
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150072326A1 (en) * | 2012-03-27 | 2015-03-12 | B10Nix S.R.L. | System for the acquisition and analysis of muscle activity and operation method thereof |
CN106109174A (zh) * | 2016-07-14 | 2016-11-16 | 燕山大学 | 一种基于肌电反馈式阻抗自适应的康复机器人控制方法 |
US20190343662A1 (en) * | 2017-06-20 | 2019-11-14 | Southeast University | Multi-dimensional surface electromyogram signal prosthetic hand control method based on principal component analysis |
CN111367399A (zh) * | 2018-12-26 | 2020-07-03 | 中国科学院沈阳自动化研究所 | 一种表面肌电信号手势识别方法 |
CN111616847A (zh) * | 2020-06-02 | 2020-09-04 | 中国科学技术大学先进技术研究院 | 基于肌肉协同和人机语音交互的上臂假肢控制***和方法 |
CN113534960A (zh) * | 2021-07-29 | 2021-10-22 | 中国科学技术大学 | 基于imu和表面肌电信号的上臂假肢控制方法及*** |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115317207A (zh) * | 2022-10-12 | 2022-11-11 | 深圳市心流科技有限公司 | 一种仿生肢体动作控制方法和控制装置 |
CN117012362A (zh) * | 2023-10-07 | 2023-11-07 | 中国康复科学所(中国残联残疾预防与控制研究中心) | 一种适配数据识别方法、***、设备及存储介质 |
CN117012362B (zh) * | 2023-10-07 | 2024-01-12 | 中国康复科学所(中国残联残疾预防与控制研究中心) | 一种适配数据识别方法、***、设备及存储介质 |
CN117281667A (zh) * | 2023-11-09 | 2023-12-26 | 浙江强脑科技有限公司 | 运动模式识别方法、装置、智能假肢、终端及存储介质 |
CN117281667B (zh) * | 2023-11-09 | 2024-04-09 | 浙江强脑科技有限公司 | 运动模式识别方法、装置、智能假肢、终端及存储介质 |
CN117442400A (zh) * | 2023-12-21 | 2024-01-26 | 深圳市心流科技有限公司 | 一种智能假肢的校正方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108785997B (zh) | 一种基于变导纳的下肢康复机器人柔顺控制方法 | |
CN106726030B (zh) | 基于临床脑电信号控制机械手运动的脑机接口***及其应用 | |
CN110675933B (zh) | 一种手指镜像康复训练*** | |
CN100594858C (zh) | 一种脑电肌电联合控制的电动假手的控制方法 | |
CN100515366C (zh) | 二自由度肌电假手实时控制装置及控制方法 | |
CN102499797B (zh) | 假肢控制方法及*** | |
CN109009586B (zh) | 一种假手腕关节人机自然驱动角度的肌电连续解码方法 | |
CN108478189A (zh) | 一种基于脑电信号的人体外骨骼机械臂控制***及方法 | |
CN110179643A (zh) | 一种基于环带传感器的颈部康复训练***和训练方法 | |
CN202288542U (zh) | 假肢控制装置 | |
CN202223388U (zh) | 一种可穿戴的脑控智能假肢 | |
Ye et al. | Optimal feature selection for EMG-based finger force estimation using LightGBM model | |
Gauthaam et al. | EMG controlled bionic arm | |
Yu et al. | Attenuating the impact of limb position on surface EMG pattern recognition using a mixed-LDA classifier | |
Turgunov et al. | Comparative analysis of the results of EMG signal classification based on machine learning algorithms | |
Liu et al. | A novel method for detecting misclassifications of the locomotion mode in lower-limb exoskeleton robot control | |
Zangene et al. | Continuous estimation of knee joint angle during squat from sEMG using artificial neural networks | |
KR100994408B1 (ko) | 손가락 힘 추정 방법 및 추정 장치, 손가락 힘 추정을 위한근육 판별 방법 및 근육 판별 장치 | |
CN114897012B (zh) | 一种基于生机接口的智能假肢手臂控制方法 | |
CN114897012A (zh) | 一种基于生机接口的智能假肢手臂控制方法 | |
Sun et al. | A fault-tolerant algorithm to enhance generalization of EMG-based pattern recognition for lower limb movement | |
KR100706065B1 (ko) | 근전도를 이용한 사용자 의도 인식 방법 및 그 시스템 | |
Soma et al. | Classification of upper limb motions from around-shoulder muscle activities | |
Guo et al. | Study of the control mechanism of robot-prosthesis based-on the EMG processed | |
CN112085169B (zh) | 肢体外骨骼辅助康复脑-肌电融合感知的自主学习与进化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |