CN111631923A - 基于意图识别的外骨骼机器人的神经网络控制*** - Google Patents

基于意图识别的外骨骼机器人的神经网络控制*** Download PDF

Info

Publication number
CN111631923A
CN111631923A CN202010490739.0A CN202010490739A CN111631923A CN 111631923 A CN111631923 A CN 111631923A CN 202010490739 A CN202010490739 A CN 202010490739A CN 111631923 A CN111631923 A CN 111631923A
Authority
CN
China
Prior art keywords
wearer
exoskeleton
neural network
intention
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010490739.0A
Other languages
English (en)
Inventor
李智军
高洪波
郝正源
阚震
皮明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Advanced Technology University of Science and Technology of China
Original Assignee
Institute of Advanced Technology University of Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Advanced Technology University of Science and Technology of China filed Critical Institute of Advanced Technology University of Science and Technology of China
Priority to CN202010490739.0A priority Critical patent/CN111631923A/zh
Publication of CN111631923A publication Critical patent/CN111631923A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H2003/005Appliances for aiding patients or disabled persons to walk about with knee, leg or stump rests
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H2003/007Appliances for aiding patients or disabled persons to walk about secured to the patient, e.g. with belts

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Dentistry (AREA)
  • Pathology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Physiology (AREA)
  • Epidemiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Rehabilitation Therapy (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明提供了一种基于意图识别的外骨骼机器人的神经网络控制***,包括:意图分类模块:对穿戴者的意图进行分类;动作及轨迹规划模块:设定患者的康复训练动作,对人体的下肢肌电信号进行采集,采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹;外骨骼状态判断模块:采集外骨骼的状态信息,并进行处理、分析,获得外骨骼的当前的状态信息。本发明解决了基于模型控制的计算力矩控制中的***未知项问题,并解决了不同状态转换时控制的实时性以及控制的鲁棒性。避免了穿戴者学习复杂的外骨骼操作方法,并使康复过程更加适应患者,加强了人机交互,能够有效提升康复效果。

Description

基于意图识别的外骨骼机器人的神经网络控制***
技术领域
本发明涉及康复用下肢外骨骼机器人的意图识别领域和控制领域,具体地,涉及基于意图识别的外骨骼机器人的神经网络控制***。尤其地,涉及基于穿戴者意图识别的康复下肢外骨骼机器人的神经网络控制***。进一步的,涉及一种基于隐马尔可夫模型和贝叶斯网络的穿戴者意图识别方法和径向基神经网络的下肢外骨骼控制方法。
背景技术
目前中国各类残疾人数已经超过了8000万人,因为年老而生活能力减退的群体占全国人口的14.3%。其中每年因为患帕金森、脑中风、颅脑损伤等造成的运动功能障碍的患者就高达300多万人。同时,因为下肢受伤而导致残疾的人口也是行动不便甚至残疾人口的主要部分。患者的病态步态、关节僵硬、肌肉萎缩等问题给患者的生活带来了严重的不便,并很容易因为摔倒造成二次伤害。在研究中证明,对于因为中枢神经受损而带来的运动障碍,可以通过康复训练来进行恢复。对于传统的康复训练来说,通常是康复训练师使用电子辅助轮椅、助力假肢等对患者进行康复治疗。但是因为其主要依靠理疗师,治疗周期很长,且理疗师价格昂贵,康复效果很大程度上依赖于训练师的水平。而康复用下肢外骨骼可以改善失去腿部行走能力的患者的生活质量,实现***辅助行走或恢复由于疾病或意外伤害而丢失的其他运动,可以减少所需治疗师的数量。此外,使用外骨骼能让培训将更加统一,更易于回顾性分析,并且可以针对每位患者进行专门定制,通过在任务导向和重复步态治疗中提供主动的肌肉激活来安全地恢复人类的运动机能。因此,下肢外骨骼辅助人体下肢康复的方式正在逐渐普及。
目前康复用下肢外骨骼主要依赖已经规划好的轨迹,缺乏一种简单可靠的识别穿戴者运动意图的方法。康复用下肢外骨骼需要识别出穿戴者的行动意图,才能通过训练好的轨迹帮助穿戴者进行康复训练。检测人的意图分为两种类型,一种是通过在人体内植入传感器,但是这种方式不仅价格昂贵,而且对人体是否有伤害目前还没有定论,因此这种方法不能普及。另一种方式是在人体外部通过各种间接的方法来测量。申请号为CN201210355661的专利请求提到了一种脑电帽,通过贴在脑外的若干干电极检查大脑兴奋点来判断外骨骼机器人穿戴者的行动意图。不过并没有提到大脑兴奋点是如何具体反映人的运动想法的,目前来说,通过脑电信号来采集并识别穿戴者意图的方法也不成熟且操作复杂。需要一种简单方便的穿戴者运动意图识别方法。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于意图识别的外骨骼机器人的神经网络控制***。
根据本发明提供的一种基于意图识别的外骨骼机器人的神经网络控制***,包括:
意图分类模块:对穿戴者的意图进行分类;
动作及轨迹规划模块:设定患者的康复训练动作,对人体的下肢肌电信号进行采集,采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹;
外骨骼状态判断模块:采集外骨骼的状态信息,并进行处理、分析,获得外骨骼的当前的状态信息;
意图信息采集模块:对外骨骼穿戴者的面部特征进行采集,获得穿戴者运动意图信息;
意图识别模块:根据采集的穿戴者运动意图信息,对穿戴者运动意图进行分析,识别出穿戴者的运动意图;
外骨骼控制模块:根据识别的穿戴者的运动意图,通过神经网络控制,对下一步的轨迹进行自适应控制。
优选地,所述对穿戴者的意图进行分类,分为:正常行走、停止行走、正常左转、正常右转、跨越障碍。
优选地,所述动作及轨迹规划模块:
设定患者的康复训练动作,通过肌电仪对人体的下肢肌电信号进行采集,并通过陀螺仪、加速度计辅助采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹。
优选地,所述外骨骼状态判断模块:
通过力矩传感器采集外骨骼机器人左腿髋关节、左腿膝关节、右腿髋关节以及右腿膝关节的力矩值,通过编码器采集当前各关节的角速度,对采集到的力矩值和角速度值进行卡尔曼滤波,通过正运动学推算出当前的步态,对外骨骼当前的运动状态进行识别,识别结果包括:当前的动作状态、当前的行走速度。
优选地,所述意图信息采集模块:
通过摄像头采集的穿戴者头部原始头像传递给图像处理器,图像处理器对原始图像进行预处理,采用中值滤波方法,保护图像的边缘并去除噪声;
采用直方图均衡的方法对图像细节进行增强,采用拉普拉斯金字塔对人进行特征提取,并通过图像中人眼的特性识别出人眼位置,再通过头部边缘的半圆形特征识别到头部的中心。
优选地,所述意图识别模块:
在识别出人眼位置和头部的中心后,计算出头部偏转的角度在得到穿戴者的转头角度后,根据训练好的转角角度和转向动作的关系,当穿戴者在一段持续时间中向同一方向转头超过预设次数或转头持续时间大于预设时长,且均超过预设角度时,即判断穿戴者有往某方向转向的意图,然后结合识别出的外骨骼当前的运动状态,通过隐马尔可夫和贝叶斯网络对穿戴者的意图进行识别,获得穿戴者的运动意图,并建立穿戴者行为数据库,从而采用相应的预先设定的运动轨迹。
优选地,所述外骨骼控制模块:
采用自适应径向基神经网络控制方法对在关节空间中对关节角度进行控制;
根据识别出的不同动作,通过使用自适应神经网络跟踪不同的期望角度,从而实现动作的平滑转换;
采用RBFNN网络逼近***模型中的不确定项,解决基于模型控制的计算力矩控制中的***未知项问题;
通过自适应神经网络来解决不同状态转换时控制的实时性以及控制的鲁棒性。
与现有技术相比,本发明具有如下的有益效果:
1、本发明利用穿戴式摄像头,通过采集下肢外骨骼穿戴者在运动过程中的面部信息,识别穿戴者的对下肢外骨骼穿戴者的运动意图进行识别。能够解决其他识别方式带来的不便性,并可以随时调整。
2、本发明通过对穿戴者的面部进行图像的几何分析,得到头部的转动角度,同时采集下肢外骨骼机器人的关节力矩、关节角度、关节角加速度等信息,识别出下肢外骨骼机器人的运动状态,作为意图识别的依据,解决了单一信息出现异常带来的错误识别问题,提高识别的准确性,并为外骨骼的控制提供了方便。
3、本发明通过隐马尔可夫模型和朴素贝叶斯的双层结构对采集到的穿戴者头部运动信息进行识别,有效提高了识别的准确率和泛化性能。
4、本发明通过对下肢外骨骼机器人使用径向基神经网络控制,采用RBFNN网络逼近***模型中的不确定项,解决基于模型控制的计算力矩控制中的***未知项问题。通过自适应神经网络来解决不同状态转换时控制的实时性以及控制的鲁棒性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的结构框图示意图。
图2为本发明中穿戴者的摄像头穿戴方式示意图。
图3为本发明中穿戴者正前方直视图示意图。
图4为本发明中穿戴者的头部角度示意图。
图5为本发明中意图识别过程流程示意图。
图6为本发明中使用的下肢外骨骼结构示意图。
图7为本发明中下肢外骨骼建模坐标系示意图。
图8为本发明中隐马尔可夫模型和贝叶斯方法双层识别的结构框图示意图。
图9为本发明中隐马尔可夫模型的结构框图示意图。
图中示出:
1--是下肢外骨骼穿戴者穿戴的帽子,2--是帽子上架设的摄像头,3--是下肢外骨骼穿戴者的头部中心,4--是下肢外骨骼穿戴者的双眼中心。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的一种基于意图识别的外骨骼机器人的神经网络控制***,包括:
意图分类模块:对穿戴者的意图进行分类;
动作及轨迹规划模块:设定患者的康复训练动作,对人体的下肢肌电信号进行采集,采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹;
外骨骼状态判断模块:采集外骨骼的状态信息,并进行处理、分析,获得外骨骼的当前的状态信息;
意图信息采集模块:对外骨骼穿戴者的面部特征进行采集,获得穿戴者运动意图信息;
意图识别模块:根据采集的穿戴者运动意图信息,对穿戴者运动意图进行分析,识别出穿戴者的运动意图;
外骨骼控制模块:根据识别的穿戴者的运动意图,通过神经网络控制,对下一步的轨迹进行自适应控制。
具体地,所述对穿戴者的意图进行分类,分为:正常行走、停止行走、正常左转、正常右转、跨越障碍。
具体地,所述动作及轨迹规划模块:
设定患者的康复训练动作,通过肌电仪对人体的下肢肌电信号进行采集,并通过陀螺仪、加速度计辅助采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹。
具体地,所述外骨骼状态判断模块:
通过力矩传感器采集外骨骼机器人左腿髋关节、左腿膝关节、右腿髋关节以及右腿膝关节的力矩值,通过编码器采集当前各关节的角速度,对采集到的力矩值和角速度值进行卡尔曼滤波,通过正运动学推算出当前的步态,对外骨骼当前的运动状态进行识别,识别结果包括:当前的动作状态、当前的行走速度。
具体地,所述意图信息采集模块:
通过摄像头采集的穿戴者头部原始头像传递给图像处理器,图像处理器对原始图像进行预处理,采用中值滤波方法,保护图像的边缘并去除噪声;
采用直方图均衡的方法对图像细节进行增强,采用拉普拉斯金字塔对人进行特征提取,并通过图像中人眼的特性识别出人眼位置,再通过头部边缘的半圆形特征识别到头部的中心。
具体地,所述意图识别模块:
在识别出人眼位置和头部的中心后,计算出头部偏转的角度在得到穿戴者的转头角度后,根据训练好的转角角度和转向动作的关系,当穿戴者在一段持续时间中向同一方向转头超过预设次数或转头持续时间大于预设时长,且均超过预设角度时,即判断穿戴者有往某方向转向的意图,然后结合识别出的外骨骼当前的运动状态,通过隐马尔可夫和贝叶斯网络对穿戴者的意图进行识别,获得穿戴者的运动意图,并建立穿戴者行为数据库,从而采用相应的预先设定的运动轨迹。
具体地,所述外骨骼控制模块:
采用自适应径向基神经网络控制方法对在关节空间中对关节角度进行控制;
根据识别出的不同动作,通过使用自适应神经网络跟踪不同的期望角度,从而实现动作的平滑转换;
采用RBFNN网络逼近***模型中的不确定项,解决基于模型控制的计算力矩控制中的***未知项问题;
通过自适应神经网络来解决不同状态转换时控制的实时性以及控制的鲁棒性。
下面通过优选例,对本发明进行更为具体地说明。
优选例1:
本发明涉及下肢外骨骼机器人领域,具体地说是一种基于穿戴者意图识别的康复下肢外骨骼机器人的神经网络控制***。该方法设计通过使用可穿戴式摄像头,方便穿戴和调整;设计图像算法而不是目前流行的深度学习方法对穿戴者的面部信息进行提取识别,减轻计算量;设计通过提取的特征,对穿戴者的头部转动角度和下肢外骨骼机器人的运动状态进行识别,提高了意图识别网络输入数据的数量,从而提高识别准确性;设计基于隐马尔可夫模型和贝叶斯方法的识别方法对穿戴者的运动意图进行识别,判断穿戴者下一步式要进行左转弯、右转弯、直行、跨障还是停止的运动;设计采用自适应径向基神经网络控制方法对可穿戴下肢外骨骼机器人进行控制,解决基于模型控制的计算力矩控制中的***未知项问题,并解决了不同状态转换时控制的实时性以及控制的鲁棒性。避免了穿戴者学习复杂的外骨骼操作方法,并使康复过程更加适应患者,加强了人机交互,能够有效提升康复效果。
为实现上述目的,本发明所述的方法包括以下步骤:
步骤1:对穿戴者的意图进行分类,分为:正常行走、停止行走、正常左转、正常右转、跨越障碍。
步骤2,设定患者的康复训练动作,通过肌电仪对人体的下肢肌电信号进行采集,并通过陀螺仪、加速度计辅助采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹。
步骤3,判断外骨骼当前的运动状态。通过力矩传感器采集外骨骼机器人左腿髋关节、左腿膝关节、右腿髋关节、右腿膝关节的力矩值,通过编码器采集当前各关节的角速度。对采集到的力矩值和角速度值进行卡尔曼滤波,通过正运动学,推算出现在的步态,对现在的外骨骼状态进行识别,包括现在的动作状态,现在的行走速度。
步骤4,穿戴者运动意图信息采集。通过摄像头采集穿戴者的面部行为,将摄像头采集的穿戴者头部原始头像传递给图像处理器,图像处理器对原始图像进行预处理,考虑到穿戴机器人没有很强的GPU资源,难以使用深度学习等方法对图像进行处理,因此使用直接对图像进行处理的方法。采用中值滤波方法,保护图像的边缘并去除噪声;采用直方图均衡的方法对图像细节进行增强。采用拉普拉斯金字塔对人进行特征提取,并通过图像中人眼的特性:灰度最小、圆形特征且对称出现的部分识别出人眼位置,通过双眼的中心和头部的中心的连线计算出。然后通过头部边缘的半圆形特征识别到头部的中心,然后计算头部偏转的角度。
步骤5,根据步骤4计算出的头部偏转角度,以及根据训练好的转角角度和转向动作的关系,当穿戴者在一段持续时间中向同一方向转头5次或转头持续时间大于2s且均超过某一角度时,即判断穿戴者有往某方向转向的意图,然后结合识别出的外骨骼现在的行动状态,通过隐马尔可夫和贝叶斯网络对穿戴者的意图进行识别,得出现在的穿戴者意图,并建立穿戴者行为数据库。从而采用相应的预先设定的运动轨迹。
步骤6采用自适应径向基神经网络控制方法对在关节空间中对关节角度进行控制。根据识别出的不同动作进行控制。首先使用下肢外骨骼的动力学模型,对控制所需要的控制量τ进行分析,得到在控制过程中无法精确得到的控制量F,然后采用RBFNN网络逼近***模型中的不确定项,解决基于模型控制的计算力矩控制中的***未知项问题。通过使用自适应神经网络跟踪不同的期望角度,从而实现动作的平滑转换。通过自适应神经网络来解决不同状态转换时控制的实时性以及控制的鲁棒性。
优选例2:
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚详细地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对前述各实施的技术方案进行若干改进和修饰,或者对其中部分技术方案进行等同替换。这些改进、修饰和替换并不会同理本发明各实施技术方案的范围,而且也属于本发明权利要求的保护范围内。
在具体实施例中,我们使用的下肢外骨骼机器人的控制计算机***底层已经完成自动平衡得功能,能够依据各个传感器的状态,控制动力机构采取相应的动作在各种地形上维持穿戴者平衡站立,无需穿戴者下肢采取任何动作。下肢外骨骼的穿戴者的运动意图分为:正常行走、停止行走、正常左转、正常右转、跨越障碍。图1是整个的意图识别控制下肢外骨骼***的结构框图。整体上介绍了本发明的主体思路,先进行数据采集与预处理得到所需要的穿戴者行为数据集和下肢外骨骼的状态数据集,然后同时训练第一层的隐马尔可夫模型和第二层的贝叶斯模型。将第一层中的易混淆意图对应的数据导入第二层贝叶斯模型中,通过求得的概率最大值来得到最终穿戴者的意图。
参见图2,所述的摄像头与图像处理器之间采用串口连接,所述的摄像头固定在帽子上,帽子穿戴在穿戴者头部,摄像头的主光轴与水平面的夹角为30°到60°,摄像头镜头朝着穿戴者;摄像头通过采集穿戴者面部的原始图像,并通过视频线传送给图像处理器;摄像头通常要求动态范围达到110dB以上、像素值达到300万以上。所述的图像处理器与意图识别处理器相连接,图像处理器用于对穿戴者头部图像进行图像处理,计算出穿戴者的头部偏转角度,识别出如图4所示的,Pitch是俯仰角,Roll是旋转角,Yaw是偏航角,我们只需要得到偏航角和俯仰角即可。并将计算结果传给意图识别处理器。所述的意图识别处理器通过以太网总线与下肢外骨骼机器人相连接;意图识别处理器通过以太网总线获取下肢外骨骼的电流、力矩、转动角度、角速度、角加速度等信息,并进行处理,获得下肢外骨骼机器人当前的运动状态,包括当前的运动形式、当前的运动速度等方面。
参见图5,穿戴者员头信息并通过串口发送给意图识别处理器。意图识别处理器通过以太网总线获取外骨骼当前速度、运动状态等信号,实时计算分析下肢外骨骼穿戴者的正常行走、停止行走、正常左转、正常右转、跨越障碍意图,并将识别意图结果发到外骨骼以太网总线上。即本传感装置采集基于视觉的穿戴者意图信息和外骨骼运动信息进行综合分析来识别穿戴者运动意图,通过多种信息的融合判断,提升了穿戴者意图识别的准确性;同时,能够将穿戴者意图信息发到外骨骼总线上,为径向基神经网络控制器提供穿戴者意图信息;保证了信息的一致。
参见图2至图9,一种基于穿戴者意图识别的康复下肢外骨骼机器人的神经网络控制方法,具体包括以下步骤:
步骤1、设定患者的康复训练动作,通过肌电仪对人体的下肢肌电信号进行采集,并通过陀螺仪、加速度计辅助采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹。
步骤2、判断外骨骼当前的运动状态。通过力矩传感器采集外骨骼机器人左腿髋关节、左腿膝关节、右腿髋关节、右腿膝关节的力矩值,通过编码器采集当前各关节的角速度。对采集到的力矩值和角速度值进行卡尔曼滤波,通过正运动学,推算出现在的步态,对现在的外骨骼状态进行识别,包括现在的动作状态,现在的行走速度。参见图7,对下肢外骨骼进行正运动学建模,可以得到各坐标系之间的变换矩阵。
步骤3、穿戴者运动意图信息采集。通过摄像头采集穿戴者的面部行为,将摄像头采集的穿戴者头部原始头像传递给图像处理器,图像处理器对原始图像进行预处理,考虑到穿戴机器人没有很强的计算资源,难以使用深度学习等方法对图像进行处理,因此使用直接对图像进行处理的方法。采用中值滤波方法,保护图像的边缘并去除噪声;采用直方图均衡的方法对图像细节进行增强。采用拉普拉斯金字塔对人进行特征提取,并通过图像中人眼的特性:灰度最小、圆形特征且对称出现的部分识别出人眼位置。具体的检测步骤如下
a)将图像一分为二,分别记为g(x1,y1),p(x2,y2)。g(x1,y1)和p(x2,y2)分别表示人脸对称的左侧和右侧。
b)通过判断圆形区域判断眼睛位置,对要判断的第k个圆,计算第k个圆的表达式:
Figure BDA0002520987640000091
其中,ω是权重,0<ω<1,Nk为第k个圆上的像素的总数,Sk为第k个圆上像素的梯度值之和,Mk为待测圆内像素的总数,Hk为第k个圆内像素的灰度值总和。
c)对两个图像g(x1,y1),p(x2,y2)分别带入式(1),使Fk值最大的那个圆,判决为瞳孔圆,而其余圆则删除。
然后通过头部边缘的半圆形特征识别到头部的中心,然后通过双眼的中心和头部的中心的连线可以计算出头部偏转的角度,具***置参见图3。
步骤4、穿戴者运动意图识别:根据步骤3中所述的方法,在识别出人眼中心和头部中心后,计算出头部偏转的角度在得到穿戴者的转头角度。转头角度θ的计算公式为:
θ=arctan[(Y1-Y2)/(X1-X2)]*β (2)
其中X1、Y1为头部中心所在像素的位置,X2、Y2为双眼中心所在的像素位置,β为图像转换系数。根据训练好的转角角度和转向动作的关系,当穿戴者在一段持续时间中向同一方向转头5次或转头持续时间大于2s且均超过某一角度时,即判断穿戴者有往某方向转向的意图,然后结合识别出的外骨骼现在的行动状态,参考图8和图9,通过隐马尔可夫和贝叶斯网络对穿戴者的意图进行识别,得出现在的穿戴者意图,并建立穿戴者行为数据库。从而采用相应的预先设定的运动轨迹。
a)隐马尔可夫模型的构建
隐马尔可夫模型包括两组状态集合和三组概率集合,可以表示为λ=N,M,A,B,π,其中,N代表隐含的状态数目,S=s1,s2,…,sN为状态集合。M表示可以观测到的数目,观察值的组合的集合V,A表示状态转移概率;B表示在状态S下出现观察值V的概率,π表示初始状态分布概率。将处理后的数据输入第一层隐马尔可夫模型,通过得到的穿戴者的最大似然估计组对穿戴者意图进行初步分类。
b)贝叶斯模型的构建
根据第一层隐马尔可夫模型输出的易混淆穿戴者意图对应的序列种类输入到第二层贝叶斯网络中,最后通过求出概率最大值判断出穿戴者的行为意图。贝叶斯模型的公式为:
P(A|B)=P(B|A)P(A)/P(B) (3)
其中,P(A|B)是指事件B发生的情况下事件A发生的概率(条件概率);P(A|B)是已知B发生后A的条件概率,也由于得知B的取值而被称作A的后验概率;P(A)是A的先验概率(或边缘概率)。之所以称为"先验"是因为它不考虑任何B方面的因素;P(B|A)是已知A发生后B的条件概率,也由于得知A的取值而成称作B的后验概率;P(B)是B的先验概率(或边缘概率)。我们需要得到的就是最大的概率值然后判断出穿戴者的行为意图。
步骤5、采用自适应径向基神经网络控制方法对在关节空间中对关节角度进行控制。根据识别出的不同动作进行控制。首先使用下肢外骨骼的动力学模型,对控制所需要的控制量τ进行分析,得到在控制过程中无法精确得到的控制量F,然后采用RBFNN网络逼近***模型中的不确定项,解决基于模型控制的计算力矩控制中的***未知项问题。通过使用自适应神经网络跟踪不同的期望角度,从而实现动作的平滑转换。通过自适应神经网络来解决不同状态转换时控制的实时性以及控制的鲁棒性。
外骨骼的动力学模型为:
Figure BDA0002520987640000101
其中,
M(q)是正定惯性矩阵,
Figure BDA0002520987640000102
是惯性矩阵,G(q)是重力矩阵,fdis是摩擦力和未知干扰项,τ是控制输入,q为关节矢量,
Figure BDA0002520987640000103
为q的导数;
通过自适应神经网络对未知项进行逼近,神经网络的输出为:
Figure BDA0002520987640000111
其中,W为神经网络参数矩阵,
Figure BDA0002520987640000112
为神经网络输入;
控制率为:
Figure BDA0002520987640000113
其中
Figure BDA0002520987640000114
e为***误差,ω为克服神经网络逼近误差的鲁棒项,
Figure BDA0002520987640000115
为***误差的导数。
上文中,针对基于穿戴者意图识别的康复下肢外骨骼机器人的神经网络控制方法进行了详细介绍。通过摄像头采集并分析出穿戴者的运动意图,将穿戴者的运动意图传递给外骨骼机器人,然后通过自适应径向基神经网络控制方法对外骨骼机器人进行自适应控制。可以很大程度地提高外骨骼机器人的控制效果,从而提升下肢外骨骼机器人的康复效果。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的***、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的***、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的***、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (7)

1.一种基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,包括:
意图分类模块:对穿戴者的意图进行分类;
动作及轨迹规划模块:设定患者的康复训练动作,对人体的下肢肌电信号进行采集,采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹;
外骨骼状态判断模块:采集外骨骼的状态信息,并进行处理、分析,获得外骨骼的当前的状态信息;
意图信息采集模块:对外骨骼穿戴者的面部特征进行采集,获得穿戴者运动意图信息;
意图识别模块:根据采集的穿戴者运动意图信息,对穿戴者运动意图进行分析,识别出穿戴者的运动意图;
外骨骼控制模块:根据识别的穿戴者的运动意图,通过神经网络控制,对下一步的轨迹进行自适应控制。
2.根据权利要求1所述的基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,所述对穿戴者的意图进行分类,分为:正常行走、停止行走、正常左转、正常右转、跨越障碍。
3.根据权利要求1所述的基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,所述动作及轨迹规划模块:
设定患者的康复训练动作,通过肌电仪对人体的下肢肌电信号进行采集,并通过陀螺仪、加速度计辅助采集人体行走时的步态数据,并在下肢外骨骼机器人的关节空间中规划出运动轨迹。
4.根据权利要求1所述的基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,所述外骨骼状态判断模块:
通过力矩传感器采集外骨骼机器人左腿髋关节、左腿膝关节、右腿髋关节以及右腿膝关节的力矩值,通过编码器采集当前各关节的角速度,对采集到的力矩值和角速度值进行卡尔曼滤波,通过正运动学推算出当前的步态,对外骨骼当前的运动状态进行识别,识别结果包括:当前的动作状态、当前的行走速度。
5.根据权利要求1所述的基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,所述意图信息采集模块:
通过摄像头采集的穿戴者头部原始头像传递给图像处理器,图像处理器对原始图像进行预处理,采用中值滤波方法,保护图像的边缘并去除噪声;
采用直方图均衡的方法对图像细节进行增强,采用拉普拉斯金字塔对人进行特征提取,并通过图像中人眼的特性识别出人眼位置,再通过头部边缘的半圆形特征识别到头部的中心。
6.根据权利要求5所述的基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,所述意图识别模块:
在识别出人眼位置和头部的中心后,计算出头部偏转的角度在得到穿戴者的转头角度后,根据训练好的转角角度和转向动作的关系,当穿戴者在一段持续时间中向同一方向转头超过预设次数或转头持续时间大于预设时长,且均超过预设角度时,即判断穿戴者有往某方向转向的意图,然后结合识别出的外骨骼当前的运动状态,通过隐马尔可夫和贝叶斯网络对穿戴者的意图进行识别,获得穿戴者的运动意图,并建立穿戴者行为数据库,从而采用相应的预先设定的运动轨迹。
7.根据权利要求6所述的基于意图识别的外骨骼机器人的神经网络控制***,其特征在于,所述外骨骼控制模块:
采用自适应径向基神经网络控制方法对在关节空间中对关节角度进行控制;
根据识别出的不同动作,通过使用自适应神经网络跟踪不同的期望角度,从而实现动作的平滑转换;
采用RBFNN网络逼近***模型中的不确定项,解决基于模型控制的计算力矩控制中的***未知项问题;
通过自适应神经网络来解决不同状态转换时控制的实时性以及控制的鲁棒性。
CN202010490739.0A 2020-06-02 2020-06-02 基于意图识别的外骨骼机器人的神经网络控制*** Pending CN111631923A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010490739.0A CN111631923A (zh) 2020-06-02 2020-06-02 基于意图识别的外骨骼机器人的神经网络控制***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010490739.0A CN111631923A (zh) 2020-06-02 2020-06-02 基于意图识别的外骨骼机器人的神经网络控制***

Publications (1)

Publication Number Publication Date
CN111631923A true CN111631923A (zh) 2020-09-08

Family

ID=72323811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010490739.0A Pending CN111631923A (zh) 2020-06-02 2020-06-02 基于意图识别的外骨骼机器人的神经网络控制***

Country Status (1)

Country Link
CN (1) CN111631923A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112336340A (zh) * 2020-10-15 2021-02-09 宁波工业互联网研究院有限公司 一种腰部助力外骨骼机器人的人体运动意图识别方法
CN112494282A (zh) * 2020-12-01 2021-03-16 天津理工大学 一种基于深度强化学习的外骨骼主助力参数的优化方法
CN112546553A (zh) * 2020-12-01 2021-03-26 河南工业大学 一种基于可穿戴设备的辅助动作学习***及方法
CN112870028A (zh) * 2021-01-21 2021-06-01 上海傅利叶智能科技有限公司 识别用户行走意图的方法、装置、智能拐杖和辅助***
CN112947093A (zh) * 2021-04-07 2021-06-11 长春工业大学 一种机器人分散鲁棒跟踪控制方法、***及存储介质
CN112932898A (zh) * 2021-01-28 2021-06-11 东南大学 一种基于贝叶斯优化的按需辅助康复机器人训练方法
CN113081671A (zh) * 2021-03-31 2021-07-09 东南大学 一种基于贝叶斯优化提高按需辅助康复训练参与度的方法
CN113143697A (zh) * 2020-12-18 2021-07-23 深圳市迈步机器人科技有限公司 一种髋关节外骨骼的控制方法及装置
CN113478462A (zh) * 2021-07-08 2021-10-08 中国科学技术大学 基于表面肌电信号的上肢外骨骼机器人意图同化控制方法和***
CN113509349A (zh) * 2021-04-12 2021-10-19 杭州风行医疗器械有限公司 一种关节康复设备及其控制方法
CN113681541A (zh) * 2021-08-12 2021-11-23 杭州程天科技发展有限公司 一种基于物联网的外骨骼控制***及方法
CN113952092A (zh) * 2021-10-25 2022-01-21 长春理工大学 一种下肢康复机器人控制方法及控制***
CN113995629A (zh) * 2021-11-03 2022-02-01 中国科学技术大学先进技术研究院 基于镜像力场的上肢双臂康复机器人导纳控制方法及***
CN114797007A (zh) * 2022-04-02 2022-07-29 中国科学技术大学先进技术研究院 用于康复的穿戴式水下外骨骼机器人及其使用方法
WO2022174662A1 (zh) * 2021-02-22 2022-08-25 中国科学院深圳先进技术研究院 一种外骨骼康复机器人共享控制***和方法
CN114948609A (zh) * 2022-04-12 2022-08-30 北京航空航天大学 一种瘫痪病人的助行辅助装置及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150057186A (ko) * 2013-11-18 2015-05-28 전남대학교산학협력단 근전도 센서를 이용하여 제어하는 보행 보조기 제어방법
CN108681396A (zh) * 2018-04-28 2018-10-19 北京机械设备研究所 基于脑-肌电双模态神经信号的人机交互***及其方法
CN109623835A (zh) * 2018-12-05 2019-04-16 济南大学 基于多模态信息融合的轮椅机械手***
CN110141239A (zh) * 2019-05-30 2019-08-20 东北大学 一种用于下肢外骨骼的运动意图识别及装置方法
CN110303471A (zh) * 2018-03-27 2019-10-08 清华大学 助力外骨骼控制***及控制方法
CN110653817A (zh) * 2019-08-20 2020-01-07 南京航空航天大学 一种基于神经网络的外骨骼机器人助力控制***与方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150057186A (ko) * 2013-11-18 2015-05-28 전남대학교산학협력단 근전도 센서를 이용하여 제어하는 보행 보조기 제어방법
CN110303471A (zh) * 2018-03-27 2019-10-08 清华大学 助力外骨骼控制***及控制方法
CN108681396A (zh) * 2018-04-28 2018-10-19 北京机械设备研究所 基于脑-肌电双模态神经信号的人机交互***及其方法
CN109623835A (zh) * 2018-12-05 2019-04-16 济南大学 基于多模态信息融合的轮椅机械手***
CN110141239A (zh) * 2019-05-30 2019-08-20 东北大学 一种用于下肢外骨骼的运动意图识别及装置方法
CN110653817A (zh) * 2019-08-20 2020-01-07 南京航空航天大学 一种基于神经网络的外骨骼机器人助力控制***与方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112336340A (zh) * 2020-10-15 2021-02-09 宁波工业互联网研究院有限公司 一种腰部助力外骨骼机器人的人体运动意图识别方法
CN112494282A (zh) * 2020-12-01 2021-03-16 天津理工大学 一种基于深度强化学习的外骨骼主助力参数的优化方法
CN112546553A (zh) * 2020-12-01 2021-03-26 河南工业大学 一种基于可穿戴设备的辅助动作学习***及方法
CN113143697B (zh) * 2020-12-18 2022-03-08 深圳市迈步机器人科技有限公司 一种髋关节外骨骼的控制方法及装置
CN113143697A (zh) * 2020-12-18 2021-07-23 深圳市迈步机器人科技有限公司 一种髋关节外骨骼的控制方法及装置
CN112870028A (zh) * 2021-01-21 2021-06-01 上海傅利叶智能科技有限公司 识别用户行走意图的方法、装置、智能拐杖和辅助***
CN112870028B (zh) * 2021-01-21 2023-03-31 上海傅利叶智能科技有限公司 识别用户行走意图的方法、装置、智能拐杖和辅助***
CN112932898A (zh) * 2021-01-28 2021-06-11 东南大学 一种基于贝叶斯优化的按需辅助康复机器人训练方法
WO2022174662A1 (zh) * 2021-02-22 2022-08-25 中国科学院深圳先进技术研究院 一种外骨骼康复机器人共享控制***和方法
CN113081671A (zh) * 2021-03-31 2021-07-09 东南大学 一种基于贝叶斯优化提高按需辅助康复训练参与度的方法
CN112947093A (zh) * 2021-04-07 2021-06-11 长春工业大学 一种机器人分散鲁棒跟踪控制方法、***及存储介质
CN112947093B (zh) * 2021-04-07 2023-05-05 长春工业大学 一种机器人分散鲁棒跟踪控制方法、***及存储介质
CN113509349A (zh) * 2021-04-12 2021-10-19 杭州风行医疗器械有限公司 一种关节康复设备及其控制方法
CN113478462A (zh) * 2021-07-08 2021-10-08 中国科学技术大学 基于表面肌电信号的上肢外骨骼机器人意图同化控制方法和***
CN113478462B (zh) * 2021-07-08 2022-12-30 中国科学技术大学 基于表面肌电信号的上肢外骨骼机器人意图同化控制方法和***
CN113681541A (zh) * 2021-08-12 2021-11-23 杭州程天科技发展有限公司 一种基于物联网的外骨骼控制***及方法
CN113952092A (zh) * 2021-10-25 2022-01-21 长春理工大学 一种下肢康复机器人控制方法及控制***
CN113995629A (zh) * 2021-11-03 2022-02-01 中国科学技术大学先进技术研究院 基于镜像力场的上肢双臂康复机器人导纳控制方法及***
CN113995629B (zh) * 2021-11-03 2023-07-11 中国科学技术大学先进技术研究院 基于镜像力场的上肢双臂康复机器人导纳控制方法及***
CN114797007A (zh) * 2022-04-02 2022-07-29 中国科学技术大学先进技术研究院 用于康复的穿戴式水下外骨骼机器人及其使用方法
CN114948609A (zh) * 2022-04-12 2022-08-30 北京航空航天大学 一种瘫痪病人的助行辅助装置及方法

Similar Documents

Publication Publication Date Title
CN111631923A (zh) 基于意图识别的外骨骼机器人的神经网络控制***
Chen et al. A novel gait pattern recognition method based on LSTM-CNN for lower limb exoskeleton
Paulo et al. ISR-AIWALKER: Robotic walker for intuitive and safe mobility assistance and gait analysis
Ding et al. Continuous estimation of human multi-joint angles from sEMG using a state-space model
Bijalwan et al. Heterogeneous computing model for post‐injury walking pattern restoration and postural stability rehabilitation exercise recognition
Huang et al. Posture estimation and human support using wearable sensors and walking-aid robot
CN104524742A (zh) 一种基于Kinect传感器的脑瘫儿童康复训练方法
Zhang et al. Unsupervised cross-subject adaptation for predicting human locomotion intent
CN113043248B (zh) 基于多源传感器的搬运装配全身外骨骼***及控制方法
CN113143256B (zh) 步态特征提取方法、下肢评估、控制方法、设备及介质
Liu et al. A muscle synergy-inspired method of detecting human movement intentions based on wearable sensor fusion
Tang et al. Wearable supernumerary robotic limb system using a hybrid control approach based on motor imagery and object detection
Chalvatzaki et al. User-adaptive human-robot formation control for an intelligent robotic walker using augmented human state estimation and pathological gait characterization
Han et al. Rehabilitation posture correction using deep neural network
Papageorgiou et al. Hidden markov modeling of human pathological gait using laser range finder for an assisted living intelligent robotic walker
Gong et al. BPNN-based real-time recognition of locomotion modes for an active pelvis orthosis with different assistive strategies
CN113066260A (zh) 一种基于日常行为分析的帕金森症预警***
Lu et al. A deep learning based end-to-end locomotion mode detection method for lower limb wearable robot control
Amer et al. Wheelchair control system based eye gaze
Hollinger et al. The influence of gait phase on predicting lower-limb joint angles
Zheng et al. A GMM-DTW-based locomotion mode recognition method in lower limb exoskeleton
Goffredo et al. A neural tracking and motor control approach to improve rehabilitation of upper limb movements
Chalvatzaki et al. Comparative experimental validation of human gait tracking algorithms for an intelligent robotic rollator
Feng et al. Small-data-driven temporal convolutional capsule network for locomotion mode recognition of robotic prostheses
Lim et al. Depth image based gait tracking and analysis via robotic walker

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200908