CN106420124B - 一种肌电控制虚拟机器人假手仿真***的方法 - Google Patents
一种肌电控制虚拟机器人假手仿真***的方法 Download PDFInfo
- Publication number
- CN106420124B CN106420124B CN201610885613.7A CN201610885613A CN106420124B CN 106420124 B CN106420124 B CN 106420124B CN 201610885613 A CN201610885613 A CN 201610885613A CN 106420124 B CN106420124 B CN 106420124B
- Authority
- CN
- China
- Prior art keywords
- signal
- another person
- analogue system
- evil
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 29
- 238000002567 electromyography Methods 0.000 claims abstract description 26
- 210000003205 muscle Anatomy 0.000 claims abstract description 25
- 230000009471 action Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 210000000245 forearm Anatomy 0.000 claims abstract description 14
- 238000012805 post-processing Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims abstract description 11
- 230000000694 effects Effects 0.000 claims abstract description 6
- 230000003321 amplification Effects 0.000 claims abstract description 5
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 5
- 210000004556 brain Anatomy 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 210000003811 finger Anatomy 0.000 claims description 18
- 210000003813 thumb Anatomy 0.000 claims description 9
- 238000002474 experimental method Methods 0.000 claims description 8
- 230000005057 finger movement Effects 0.000 claims description 5
- 230000001066 destructive effect Effects 0.000 claims description 4
- 239000002003 electrode paste Substances 0.000 claims description 4
- 208000012902 Nervous system disease Diseases 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 claims description 2
- 210000005224 forefinger Anatomy 0.000 claims description 2
- 235000013372 meat Nutrition 0.000 claims description 2
- 210000000707 wrist Anatomy 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims 1
- 238000002266 amputation Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000002203 pretreatment Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/54—Artificial arms or hands or parts thereof
- A61F2/58—Elbows; Wrists ; Other joints; Hands
- A61F2/583—Hands; Wrist joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2/72—Bioelectric control, e.g. myoelectric
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2002/6827—Feedback system for providing user sensation, e.g. by force, contact or position
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Transplantation (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Cardiology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Vascular Medicine (AREA)
- Physiology (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Rehabilitation Tools (AREA)
- Prostheses (AREA)
- Manipulator (AREA)
Abstract
本发明提出一种肌电控制虚拟机器人假手仿真***的方法,包括如下步骤:①对测试者右前臂进行数据采集;②用贴在相关前臂肌肉上方皮肤层的电极来采集肌电信号;③对肌电信号进行整流、放大和滤波的信号预处理;④对肌电信号进行特征提取,提取出肌电信号的稳态特征量;⑤将采集好的稳态特征量分割为训练集和测试集,利用训练集训练选择好的分类器,然后对测试集的信号进行分类;⑥将进行信号分类过程之后的信号数据传递至后处理环节;⑦信号后处理后,即为控制命令信号,将其发送至虚拟手仿真***;⑧机器人假手仿真***中的虚拟手,承担起视觉反馈的作用,将虚拟手的实时状态反馈给大脑;⑨使用者通过视觉反馈来判断该手部动作是否为设想的动作。
Description
技术领域
本发明涉及生物电信号处理、***仿真及自动控制***领域,尤其涉及到一种肌电控制虚拟机器人假手仿真***的方法。
背景技术
目前,国内市场上的肌电控制机器人假手缺乏对机器人操作***(ROS)虚拟仿真***的应用。对于机器人的相关功能,不使用ROS也能实现,但ROS使得机器人软件搭载的工作更方便,效率更高。因此,随着科学技术的迅速发展,对于ROS***应用于肌电控制机器人假手显得尤为重要。
现有的肌电假手虚拟交互技术,通常是将手部运动虚拟成游戏场景中的物体完成规定的动作和任务,这种情况在很大程度上对肌电假手产生了一种制约和束缚,使得肌电假手的局限性显著提升。通过采用的是虚拟游戏场景中的物体动作而并非采用真实的手臂手指进行仿真,使得人们在使用时十分不便利。
尽管近年来的商业肌电假手已经取得了非常明显的进步,但因其昂贵的价格导致仍有很多截肢患者不去购买肌电假手。而那些已经购买了肌电假手的患者,由于在初期使用肌电假手的过程中需要花费大量精力来训练肌肉以适应肌电假手,肌电假手通常比真实的人手要重,与残肢的配合过程也会导致截肢患者的不适,因此也不经常使用已经购买的肌电假手。
截肢者在使用将手部运动虚拟成游戏场景中的物体完成规定的动作或任务的肌电假手虚拟交互技术时,需要将具体的手部动作转换为虚拟游戏中的开始、停止、向上、向下、向左或向右等运动,对于没有游戏经验的截肢者而言,这种训练方式仍然不是一种好选择。
因此,我们有必要对这样一种结构进行改善,以克服上述缺陷。
发明内容
本发明的目的是基于机器人操作***的虚拟机器人假手仿真***可以取代传统上佩戴真实肌电假手进行训练的过程,采用真实的手臂手指来进行仿真,截肢者能够在训练的过程中看到假手手指的运动过程,减少截肢患者在训练过程中所遭受的痛苦,缩短训练时间,能帮助截肢患者更好地适应肌电假手,提供一种肌电控制虚拟机器人假手仿真***的方法。
本发明为解决其技术问题所采用的技术方案是:
一种肌电控制虚拟机器人假手仿真***的方法,包括如下步骤:
①.对若干健康测试者的右前臂进行数据采集;
②.用贴在相关前臂肌肉上方皮肤层的电极来采集表面肌电信号;
③.对表面肌电信号进行整流、放大和滤波的信号预处理;
④.经过信号预处理后,对肌电信号进行特征提取,提取出肌电信号的稳态特征量;
⑤.将采集好的肌电信号稳态特征量分割为训练集和测试集,利用训练集训练选择的好的分类器,然后对测试集的信号进行分类。;
⑥.将进行信号分类过程之后的信号数据传递至用于消除破坏性的跳跃和使控制假手的信号数据足够平滑的后处理工作环节;
⑦.信号后处理之后,即为控制命令信号,将其发送至虚拟手仿真***中;
⑧.虚拟机器人假手仿真***中的虚拟手,承担起视觉反馈的作用,将虚拟手的实时状态反馈给使用者的大脑;
⑨.使用者通过视觉反馈来判断该手部动作是否为设想的手部动作,如有差别,需调整肌肉动作,使设想动作与实际分类出的动作保持一致,达到利用虚拟机器人假手仿真***进行训练的目的。
进一步的,所述肌电信号是从四个从没做过类似实验的健康测试者处进行数据采集,其中三名为男性,一名为女性的右前臂记录得到;测试者的平均年龄是28±6岁,身体质量指数(BMI)是23.6±3.6公斤/米,四位测试者都没有任何一个有已知的神经***疾病,他们在数据采集之前都训练和操作过虚拟机器人假手仿真***。
进一步的,所述视觉反馈环节是由基于机器人操作***(ROS)实现的虚拟机器人假手仿真***构成的。
本发明的优点在于:
1、基于机器人操作***的肌电控制虚拟机器人假手仿真***,有着较高的分类效果、可靠的仿真训练环境、直观的视觉反馈等优点;
2、对截肢患者更高比例的使用肌电假手起到了积极的作用。
附图说明
图1是本发明的虚拟机器人假手仿真***结构图;
图2是本发明的八个多指屈伸动作图;
图3是本发明的上臂中七个与多手指动作相关的肌肉图;
图4是本发明的虚拟机器人假手仿真***的视觉反馈图;
图5是本发明的虚拟机器人假手仿真***的信号流程图;
图6是本发明的基于视觉反馈的WAM特征SVM分类器下,八个多指手部动作的分类结果混淆矩阵;
图7是本发明的部分虚拟手的多指手部运动。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合图示与具体实施例,进一步阐述本发明。
如图1所示,本发明提出的一种肌电控制虚拟机器人假手仿真***的方法,包括如下步骤:
①.对若干健康测试者的右前臂进行数据采集;
②.用贴在相关前臂肌肉上方皮肤层的电极来采集表面肌电信号;
③.对表面肌电信号进行整流、放大和滤波的8信号预处理;
④.经过信号预处理后,对肌电信号进行特征提取,提取出肌电信号的稳态特征量;
⑤.将采集好的肌电信号稳态特征量分割为训练集和测试集,利用训练集训练选择的好的分类器,然后对测试集的信号进行分类。;
⑥.将进行信号分类过程之后的信号数据传递至用于消除破坏性的跳跃和使控制假手的信号数据足够平滑的后处理工作环节;
⑦.信号后处理之后,即为控制命令信号,将其发送至虚拟手仿真***中;
⑧.虚拟机器人假手仿真***中的虚拟手,承担起视觉反馈的作用,将虚拟手的实时状态反馈给使用者的大脑;
⑨.使用者通过视觉反馈来判断该手部动作是否为设想的手部动作,如有差别,需调整肌肉动作,使设想动作与实际分类出的动作保持一致,达到利用虚拟机器人假手仿真***进行训练的目的。
进一步的,所述肌电信号是从四个从没做过类似实验的健康测试者处进行数据采集,其中三名为男性,一名为女性的右前臂记录得到;测试者的平均年龄是28±6岁,身体质量指数(BMI)是23.6±3.6公斤/米,四位测试者都没有任何一个有已知的神经***疾病,他们在数据采集之前都训练和操作过虚拟机器人假手仿真***。
进一步的,所述视觉反馈环节是由基于机器人操作***(ROS)实现的虚拟机器人假手仿真***构成的。
以虚拟机器人假手作为视觉反馈的虚拟机器人假手仿真***设计结构如图1所示。首先是用贴在相关前臂肌肉上方皮肤层的电极来采集表面肌电信号,然后信号会被进行整流、放大和滤波等预处理。经过信号的预处理后,提取出肌电信号的稳态特征量,接下来将这些特征量给合适的分类器来对事先定义好类别的数据进行分类。后处理方法是用来消除破坏性的跳跃和使控制假手的信号数据足够平滑。视觉反馈环节是由基于机器人操作***(ROS)实现的虚拟机器人假手仿真***构成的。
本发明所提出的一种肌电控制虚拟机器人假手仿真***的方法共采集和分类了八个多指屈伸运动,包括(a)平托、(b)小直径抓、(c)中直径抓、(d)球形抓、(e)三指抓、(f)两指捏、(g)食指伸展和(h)放松状态,如图2所示。
七个与多指动作有关的上臂肌肉包括食指固有伸肌、指伸肌、拇长展肌、拇短伸肌、拇长伸肌、拇长屈肌和指深屈肌。本发明共使用十个电极进行十通道数据采集。考虑到上臂肌肉的纵向分布,先按照上臂后侧的整体长度,几何等分为三个部分,然后在每个部分贴上两个电极。其余四个电极贴在前臂的前侧,其中两个贴在拇长屈肌上,另外两个电极贴在靠手腕侧,十个电极的布置如图3所示。
为了获取最有效的肌电信号,测试者需要用酒精擦拭测试部位,如有需要还要将测试处的毛发刮掉。所有电极都与肌肉纤维的走势平行并特殊的医用粘合绷带粘在皮肤上。
信号采集采用的主要的采集设备是Delsys Trigno无线肌电传感器***,信号的采样频率为1926kHz,增益值为300。基带噪声小于750nV,并带有50Hz陷波滤波器来去除在线交流噪声,然后通过一个20-450Hz巴特沃斯带通滤波器来消除直流偏移消除信号中的伪点。
数据采集过程如下:基站接收到传感器通过专有无线通信协议传来的肌电信号流,将其通过标准的USB口连接到负责数据采集的台式电脑中。MATLAB2013b(Mathworks公司,内蒂克,美国)软件被用于两个实验阶段的数值处理。对于在线测试阶段,在机器人操作***(ROS)中运行的虚拟手,具有无根手指和20个自由度,这个虚拟手是英国Shadow公司生产的Shadow灵巧手模型。图4给出了虚拟机器人假手仿真***的视觉反馈效果。
数据是指室温23℃和湿度20-30%的情况下采集的。为了获得重复性的测试者数据,每一个测试者的姿势都是可重复的。每个测试者都是采取坐姿,他们的手臂与桌面成垂直角度,这样他们的姿势能够在整个实验过程中不被改变。整个实验分为离线训练模型和在线测试两个阶段,在离线测试阶段,所有测试者在数据采集之前都要看每一个多手指动作的照片,他们需要练习目标的运动,以便将动作执行正确。
离线训练模型阶段,每一个动作都有两个试验。每个实验都是持续100秒,测试者须将每个多手指动作保持4秒钟,然后放松4秒钟,共重复12次。不同组次的试验中间都需要休息1分钟,每个动作之间需要休息2分钟,这样做的目的是防止肌肉疲劳。在在线测试阶段,测试者随机执行训练过的多指动作,每一个动作都需保持15秒。
离线训练的数据每一个4秒的数据,只截取中间的3秒,这是为了防止暂态过程的数据影响模型的参数,肌电信号以200ms为单位划分滑动窗口,增量窗口的长度设定为81ms。
本发明共选择时域特征中的威利森振幅(WAM)特征进行提取,选择支持向量机(SVM)作为分类器,多数投票法(MV)作为后处理方法。经过在线测试,八个多指动作的分类准确率达到了98.79%,分类效果很好。分类的混淆矩阵如图6所示,该图表明,所有动作中,分类的错误率主要来自于球形抓会被误分类为平托,因为这两个动作采用的肌肉群是一致的,所以比较难分类。
采用虚拟机器人假手仿真***作为视觉反馈,能够得到较准确的分类结果,也就是说,通过这个仿真***来给截肢者进行适应肌电假手的训练是非常可靠的。文中涉及到的部分虚拟手的多指手部运动如图7所示。
ROS是一个开放的标准平台,它提供了一系列的软件框架和工具以帮助软件开发者创建机器人应用软件,是目前应用最广泛的机器人操作***。最先是由斯坦福开发的开源机器人操作***,它基于Linux的***,可以做的很小而且高效可靠,适合嵌入式设备,而且它是分布式***,只要不同设备处于同一局域网中就可以把整个***看作一个整体,在***层级不分设备,可以相当于在同一设备上任意调用资源。本***的虚拟仿真***正式基于机器人操作***(ROS),因此其接口及应用能力是其他虚拟仿真***所无法比拟的。
本***采用是动作数据长度的稳态部分(4秒动作中,截取了中间的3秒)、时域特征威利森振幅WAM、分类器支持向量机SVM以及后处理方法多数投票法(MV),这些方法能够使得***的延迟时间最短,确保了在线分类的准确率。
采用与真实的假手外形一直的虚拟手进行仿真,虚拟手的所有手指动作都能够与真实手指的一致,可以有效的帮助截肢患者进行训练。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等同物界定。
Claims (3)
1.一种肌电控制虚拟机器人假手仿真***的方法,其特征在于,包括如下步骤:
①对若干健康测试者的右前臂进行数据采集;
②用贴在相关前臂肌肉上方皮肤层的电极来采集表面肌电信号:采集的上臂肌肉包括食指固有伸肌、指伸肌、拇长展肌、拇短伸肌、拇长伸肌、拇长屈肌以及指深屈肌,所述电极的数量为十个,考虑到上臂肌肉的纵向分布,先按照上臂后侧的整体长度,几何等分为三个部分,然后在每个部分贴上两个电极,其余四个电极贴在前臂的前侧,其中两个贴在拇长屈肌上,另外两个电极贴在靠手腕侧;
③表面肌电信号采集处理:基站接收到传感器通过专有无线通信协议传来的肌电信号流,将其通过标准的USB口连接到负责数据采集的台式电脑中,数据是在室温23℃和湿度20-30%的情况下采集,为了获得重复性数据的测试者数据,每一个测试者的姿势都是可重复的,每个测试者都是采取坐姿,他们的手臂与桌面呈垂直角度,这样他们的姿势能够在整个实验过程中不被改变,整个实验分为离线训练模型和在线测试两个阶段,在离线测试阶段,所有测试者在数据采集之前都要看每一个多手指动作的照片,他们需要练习目标的运动,以便将动作执行正确,离线训练模型阶段每一个动作都有两个试验,每个实验都是持续100秒,测试者须将每个多手指动作保持4秒钟,然后放松4秒钟,共重复12次,不同组次的试验中间都需要休息1分钟,每个动作之间需要休息2分钟,在在线测试阶段,测试者随机执行训练过的多指动作,每一个动作都需保持15秒,离线训练的数据每一个4秒的数据,只截取中间的3秒,肌电信号以200ms为单位划分滑动窗口,增量窗口的长度设定为81ms;
④对表面肌电信号进行整流、放大和滤波的信号预处理;
⑤经过信号预处理后,对肌电信号进行特征提取,提取出肌电信号的稳态特征量;
⑥将采集好的肌电信号稳态特征量分割为训练集和测试集,利用训练集训练选择的好的分类器,然后对测试集的信号进行分类;
⑦将进行信号分类过程之后的信号数据传递至用于消除破坏性的跳跃和使控制假手的信号数据足够平滑的后处理工作环节;
⑧信号后处理之后,即为控制命令信号,将其发送至虚拟手仿真***中;
⑨虚拟机器人假手仿真***中的虚拟手,承担起视觉反馈的作用,将虚拟手的实时状态反馈给使用者的大脑;
⑩使用者通过视觉反馈来判断手部动作是否为设想的手部动作,如有差别,需调整肌肉动作,使设想动作与实际分类出的动作保持一致,达到利用虚拟机器人假手仿真***进行训练的目的。
2.根据权利要求1所述的一种肌电控制虚拟机器人假手仿真***的方法,其特征在于:所述肌电信号是从四个从没做过类似实验的健康测试者处进行数据采集,其中三名为男性,一名为女性的右前臂记录得到;测试者的平均年龄是28±6岁,身体质量指数(BMI)是23.6±3.6公斤/米,四位测试者都没有任何一个有已知的神经***疾病,他们在数据采集之前都训练和操作过虚拟机器人假手仿真***。
3.根据权利要求1所述的一种肌电控制虚拟机器人假手仿真***的方法,其特征在于:所述视觉反馈环节是由基于机器人操作***(ROS)实现的虚拟机器人假手仿真***构成的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610885613.7A CN106420124B (zh) | 2016-10-10 | 2016-10-10 | 一种肌电控制虚拟机器人假手仿真***的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610885613.7A CN106420124B (zh) | 2016-10-10 | 2016-10-10 | 一种肌电控制虚拟机器人假手仿真***的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106420124A CN106420124A (zh) | 2017-02-22 |
CN106420124B true CN106420124B (zh) | 2018-08-24 |
Family
ID=58173240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610885613.7A Expired - Fee Related CN106420124B (zh) | 2016-10-10 | 2016-10-10 | 一种肌电控制虚拟机器人假手仿真***的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106420124B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107456300A (zh) * | 2017-09-21 | 2017-12-12 | 哈尔滨工业大学 | 基于fsm的多自由度假手快速肌电编码控制*** |
CN107618018B (zh) * | 2017-10-26 | 2020-08-25 | 杭州电子科技大学 | 一种基于肌电的机械手动作速度比例控制方法 |
CN108197607A (zh) * | 2018-02-01 | 2018-06-22 | 四川东鼎里智信息技术有限责任公司 | 一种基于可穿戴的运动神经元预警*** |
CN108319368A (zh) * | 2018-02-01 | 2018-07-24 | 四川东鼎里智信息技术有限责任公司 | 一种可穿戴的ai动作学习*** |
CN108309240A (zh) * | 2018-02-01 | 2018-07-24 | 四川东鼎里智信息技术有限责任公司 | 一种基于可穿戴的脑部疲劳预警*** |
CN108305682A (zh) * | 2018-02-01 | 2018-07-20 | 四川东鼎里智信息技术有限责任公司 | 一种基于可穿戴的脚部肌肉恢复*** |
CN108453736A (zh) * | 2018-03-22 | 2018-08-28 | 哈尔滨工业大学 | 一种基于深度学习的多自由度同步肌电控制方法 |
CN108958620A (zh) * | 2018-05-04 | 2018-12-07 | 天津大学 | 一种基于前臂表面肌电的虚拟键盘设计方法 |
CN109814716B (zh) * | 2019-01-29 | 2021-07-27 | 福州大学 | 一种基于动态表面肌电信号的运动意图解码方法 |
CN110232976B (zh) * | 2019-07-01 | 2023-05-02 | 上海电机学院 | 一种基于腰肩表面肌电测量的行为识别方法 |
CN114138111B (zh) * | 2021-11-11 | 2022-09-23 | 深圳市心流科技有限公司 | 一种肌电智能仿生手的全***控制交互方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101667346B (zh) * | 2009-09-18 | 2011-04-27 | 国家康复辅具研究中心 | 基于虚拟现实的截肢上肢康复训练*** |
CN102799937A (zh) * | 2012-06-26 | 2012-11-28 | 天津大学 | 肌电信号与关节角度信息融合的下肢运动轨迹预测方法 |
CN103892945B (zh) * | 2012-12-27 | 2017-03-08 | 中国科学院深圳先进技术研究院 | 肌电假肢控制*** |
CN103815991B (zh) * | 2014-03-06 | 2015-10-28 | 哈尔滨工业大学 | 双通道操作感知虚拟假手训练***及方法 |
CN105640677B (zh) * | 2015-12-25 | 2018-07-13 | 上海交通大学 | 一种用于假肢手感知反馈的电刺激感知反馈*** |
-
2016
- 2016-10-10 CN CN201610885613.7A patent/CN106420124B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN106420124A (zh) | 2017-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106420124B (zh) | 一种肌电控制虚拟机器人假手仿真***的方法 | |
Scheme et al. | Electromyogram pattern recognition for control of powered upper-limb prostheses: state of the art and challenges for clinical use. | |
Twardowski et al. | Motor unit drive: a neural interface for real-time upper limb prosthetic control | |
Benatti et al. | Analysis of robust implementation of an EMG pattern recognition based control | |
Chen et al. | Exploring the relation between EMG sampling frequency and hand motion recognition accuracy | |
Robinson et al. | Pattern classification of hand movements using time domain features of electromyography | |
Narayan et al. | SEMG signal classification with novel feature extraction using different machine learning approaches | |
Yang et al. | Experimental study of an EMG-controlled 5-DOF anthropomorphic prosthetic hand for motion restoration | |
Li et al. | Wireless sEMG-based identification in a virtual reality environment | |
Samuel et al. | A novel time-domain descriptor for improved prediction of upper limb movement intent in EMG-PR system | |
Moura et al. | Support vectors machine classification of surface electromyography for non-invasive naturally controlled hand prostheses | |
Wang et al. | Multi-finger myoelectric signals for controlling a virtual robotic prosthetic hand | |
Aishwarya et al. | Feature extraction for EMG based prostheses control | |
Wilson et al. | Gesture recognition through classification of acoustic muscle sensing for prosthetic control | |
Wu et al. | Classification and simulation of process of linear change for grip force at different grip speeds by using supervised learning based on sEMG | |
Pan et al. | A reliable multi-user EMG interface based on a generic-musculoskeletal model against loading weight changes | |
Teng et al. | Evaluation of synergy-based hand gesture recognition method against force variation for robust myoelectric control | |
CN110604578A (zh) | 基于semg的人手手内动作识别方法 | |
Hristov et al. | Classification of individual and combined finger flexions using machine learning approaches | |
Castellini et al. | EMG-based prediction of multi-DOF activations using single-DOF training: a preliminary result | |
Cabegin et al. | Electromyography-based control of prosthetic arm for transradial amputees using principal component analysis and support vector machine algorithms | |
Zhang et al. | Research on gesture definition and electrode placement in pattern recognition of hand gesture action SEMG | |
Pan et al. | Simultaneous and proportional estimation of finger joint angles from surface EMG signals during mirrored bilateral movements | |
Villarejo et al. | Pattern recognition of hand movements with low density sEMG for prosthesis control purposes | |
Toczko et al. | ReFlexeNN-the Wearable EMG Interface with Neural Network Based Gesture Classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180824 |