CN113011458B - 负载机动型外骨骼人体运动意图识别方法及外骨骼*** - Google Patents

负载机动型外骨骼人体运动意图识别方法及外骨骼*** Download PDF

Info

Publication number
CN113011458B
CN113011458B CN202110188446.1A CN202110188446A CN113011458B CN 113011458 B CN113011458 B CN 113011458B CN 202110188446 A CN202110188446 A CN 202110188446A CN 113011458 B CN113011458 B CN 113011458B
Authority
CN
China
Prior art keywords
fuzzy
knee joint
low
human body
exoskeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110188446.1A
Other languages
English (en)
Other versions
CN113011458A (zh
Inventor
屈盛官
尹鹏
杨靓
曲希帅
曾德政
姜笑天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110188446.1A priority Critical patent/CN113011458B/zh
Publication of CN113011458A publication Critical patent/CN113011458A/zh
Application granted granted Critical
Publication of CN113011458B publication Critical patent/CN113011458B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0237Stretching or bending or torsioning apparatus for exercising for the lower limbs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/164Feet or leg, e.g. pedal
    • A61H2201/1642Holding means therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5069Angle sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5071Pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/10Leg

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Robotics (AREA)

Abstract

本发明公开了一种负载机动型外骨骼人体运动意图识别方法及外骨骼***,方法包括先通过外骨骼的传感***获取足部GCF信号、IMU信号;然后通过信号特征的周期性判定,将坐姿与站立归为非周期性活动,将跑步、走路与上下楼梯归为周期性活动;再对于非周期活动,根据IMU信号计算两腿膝关节角度,根据坐姿的两腿膝关节角度大于站立的两腿膝关节角度来区分坐姿与站立;对于周期性活动,根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理***,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。本发明能够平滑连续地识别人体运动意图。

Description

负载机动型外骨骼人体运动意图识别方法及外骨骼***
技术领域
本发明涉及外骨骼人体运动意图识别技术领域,特别涉及一种负载机动型外骨骼人体运动意图识别方法及外骨骼***。
背景技术
负载机动性外骨骼是一套由机械***、传感***、动力***、控制***等组成的高科技智能化装备,穿戴者既是外骨骼的操作对象,也是使用对象,外骨骼***可用于实现运动意图感知,认知决策、动力驱动和动力执行,能与穿戴者协调运动、增强穿戴者体能、减轻和预防穿戴者损伤等。在外骨骼***的实际使用中,为了避免传感器错位与穿戴者不适,人体的运动信息不是通过安装在人体上的传感器直接测量的,相反,整个传感***被嵌入到外骨骼结构中,以获取外骨骼的运动信息,然后根据外骨骼到人体模型的运动映射,得到穿戴者的运动数据。
在实现运动映射上,通常是采用机器学***滑连续的检测方法,并且在快速变化的运动过程中,平滑连续的检测也有助于算法的平稳过渡。
发明内容
本发明的第一目的在于克服现有技术的缺点与不足,提供一种负载机动型外骨骼人体运动意图识别方法,该方法可以平滑连续地识别人体运动意图。
本发明的第二目的在于提供一种负载机动型外骨骼***。
本发明的第一目的通过下述技术方案实现:
一种负载机动型外骨骼人体运动意图识别方法,所述方法采用智能模糊推理算法识别人体运动意图,包括如下步骤:
S1、通过外骨骼的传感***获取足部GCF信号、IMU信号;
S2、通过信号特征的周期性判定,将坐姿与站立分为一类,该类为非周期性活动,将跑步、走路与上下楼梯分为另一类,该类为周期性活动;
S3、对于非周期活动,根据IMU信号计算两腿膝关节角度,根据坐姿的两腿膝关节角度大于站立的两腿膝关节角度来区分坐姿与站立;
对于周期性活动,根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理***,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。
优选的,在步骤S2中,根据脚趾、脚掌与足跟这3个感知点的GCF信息,将非周期性活动与周期性活动进行分类,在处于坐姿和站立状态时,3个感知点的地面接触力不会发生显著变化,也不会发生脚跟撞击或脚趾撞击情况。
优选的,在步骤S3中,模糊推理***分为独立的左、右模糊推理***,左、右脚跟撞击和左、右脚趾撞击事件均采用这两个模糊推理***进行模糊推理。
更进一步的,模糊推理***的模糊推理过程如下:
S31、以已知人体活动状态的足部GCF信号和IMU信号作为输入,基于隶属度函数对输入进行模糊化,建立模糊数据库;
S32、对于每个模糊推理***,建立模糊规则库;
S33、对于步骤S1获取的足部GCF信号和IMU信号,先利用模糊数据库的模糊逻辑进行初步判断人体活动类型,在无法直接确定的情况下再利用模糊规则库的模糊规则执行推理,求得模糊规则的输出,即推理出人体活动类型;
S34、将两个***的模糊规则输出结果结合在一起,形成一个单一的模糊集,然后对该模糊集进行反模糊化以求得一个具体数值,以便外骨骼***根据该数值辅助人体活动。
更进一步的,模糊数据库如下:
周期性 脚趾压力 脚掌压力 足跟压力 膝关节角度 隶属度
u<sub>坐姿</sub>→1
u<sub>站立</sub>→1
u<sub>步行</sub>→1
u<sub>步行</sub>→0.5
u<sub>上楼梯</sub>→1
u<sub>上楼梯</sub>→0.5
u<sub>下楼梯</sub>→1
u<sub>下楼梯</sub>→0.5
其中,隶属度表示膝关节角度与人体实际活动状态的从属状态,用于判断属于某一种人体实际活动状态的可能性,隶属度为1表示膝关节角度完全属于某一种人体实际活动状态。
更进一步的,采用高斯隶属度函数处理膝关节角度特征,高斯隶属度函数为:
Figure BDA0002944082070000031
式中,uA(x)是模糊隶属度,x是膝关节角度,模糊子集A是人体活动状态,包括坐姿、站立、步行、上楼梯、下楼梯;σi是隶属度函数的分布,ci为隶属度函数的中心;
然后使隶属度函数重叠,则ci定义如下:
Figure BDA0002944082070000032
式中,xi是位于xmin~xmax之间的膝关节角度,xmin是膝关节角度最小值,xmax是膝关节角度最大值;c是要素的数量;
其中,如果发生左腿脚跟撞击或脚趾撞击,则为左腿膝关节角度定义高和低两个要素,右腿膝关节角度定义为低、中、高三个要素;如果发生右腿脚跟撞击或脚趾撞击,则为右腿膝关节角度定义高和低两个要素,左腿膝关节角度定义为低、中、高三个要素。
更进一步的,在步骤S32中,左、右模糊推理***的模糊规则库如下:
Figure BDA0002944082070000041
其中,L1代表当前时刻下左膝关节角度,R1代表当前时刻下右膝关节角度,推理***输出的是相应的某项人体活动的确定度。
更进一步的,在步骤S34中,采用max法对两个***的模糊规则输出结果进行聚集,采用面积重心法进行反模糊化,面积重心法计算公式如下:
Figure BDA0002944082070000042
式中,y是模糊规则输出结果;
Figure BDA0002944082070000043
是公式输出值;s是由一时间段中各步态时刻的隶属度所构成的模糊集,μB是模糊曲线,由模糊集中的多个隶属度所连成。
本发明的第二目的通过下述技术方案实现:
一种负载机动型外骨骼***,所述负载机动型外骨骼***通过本发明第一目的所述的负载机动型外骨骼人体运动意图识别方法实现人体运动意图识别。
本发明相对于现有技术具有如下的优点及效果:
(1)本发明负载机动型外骨骼人体运动意图识别方法有别于传统的机器学***滑连续地识别人体运动意图,识别结果的可靠性和准确度更高。
(2)本发明所设计的智能模糊推理算法先对人体6种基本活动进行了初始分类,并准确区分了坐姿、站立与跑步活动,随后采用模糊推理***对剩下的活动进行分类,分类过程从传感器提取的特征作为输入,而模糊输出结果为活动类型(步行、上楼梯、下楼梯),可见,算法非常简单,有利于提高意图识别效率和节约计算资源。
(3)本发明左右HS或TS事件均采用两个独立的模糊推理***,可以避免相互干扰,提高识别准确度。两个模糊推理***的结果都被用作分类活动识别,因此可以更准确地识别人体活动。
附图说明
图1是本发明负载机动型外骨骼人体运动意图识别方法的流程图。
图2是模糊推理***的原理图。
图3是负载机动型外骨骼***的示意图。
图4是仿生腿的示意图。
图5是传感***、控制***和上位机的连接示意图。
标号说明:
负载机动型外骨骼***100,仿生躯干1,仿生腿2,仿生脚3,仿生髋关节21,仿生大腿22,仿生膝关节23,仿生小腿24,仿生踝关节25,液压站4,油源41,电源5,髋关节液压缸6,膝关节液压缸7,控制***8。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例公开了一种负载机动型外骨骼人体运动意图识别方法,该方法可应用在负载机动型外骨骼***中,使得外骨骼******可以实现平滑连续的人体运动意图识别。
方法采用智能模糊推理算法识别人体运动意图,如图1所示,包括如下步骤:
S1、通过外骨骼的传感***获取足部GCF信号、IMU信号。足部GCF信号即地面接触力,也可称为脚底压力信号。
S2、通过信号特征的周期性判定,将坐姿与站立分为一类,该类为非周期性活动,将跑步、走路与上下楼梯分为另一类,该类为周期性活动。
具体来说,根据脚趾、脚掌与足跟这3个感知点的GCF信息,将非周期性活动与周期性活动进行分类,在处于坐姿和站立状态时,3个感知点的地面接触力不会发生显著变化,也不会发生脚跟撞击(HS)或脚趾撞击(TS)情况;如果发生HS或TS,则该活动可以是跑步、步行、上楼梯、下楼梯这四个活动之一。
S3、对于非周期活动,根据IMU信号计算两腿膝关节角度,根据两腿膝关节角度来区分坐姿与站立,如果角度小则表示当前人体处于站立状态,角度大则表示当前人体处于坐姿状态。划分角度大小的阀值可根据实际确定。
对于周期性活动,由于跑步过程中,双脚在某些时刻不接触地面,因此可以先根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理***,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。
对于步行与上下楼梯状态,膝关节在HS或TS时刻表现出不同的屈伸程度。在上楼梯过程中,HS时的膝关节角度与下楼梯或步行活动相比,膝关节的屈曲角度更大。下楼梯过程与之相反,TS时的膝关节表现出更大的伸展角度。通常,在下楼梯过程会观察到TS,对于步行活动,HS时膝关节的角度较小且在未撞击的时候角度为中等大小。
其中,模糊推理***(也可称为推理机)分为独立的左、右模糊推理***,左、右脚跟撞击和左、右脚趾撞击事件均采用这两个模糊推理***进行模糊推理。
图2为模糊推理***的原理图,模糊推理***的模糊推理过程如下:
S31、以已知人体活动状态的足部GCF信号和IMU信号作为输入,基于隶属度函数对输入进行模糊化,建立模糊数据库。这里,模糊推理的模糊逻辑具体是对模糊现象或事件进行处理,以达到消除模糊的目的。先给定论域U上的一个模糊子集A,则对于任意x∈U,都确定一个隶属度函数uA,称uA为x对A的隶属度,且uA∈[0,1]。数据集结合隶属度函数之后,数据集的每个数据都有对应的一个隶属度,从而可以得到由隶属度构成的模糊集合。模糊推理取消了二值之间非此即彼的对立,用隶属度表示二值间的从属状态,即x可以“部分地属于”集合A。隶属度函数uA值越大,则x隶属于A的程度就越高。
本实施例A为人体活动状态(坐姿、站立、步行、上楼梯、下楼梯),x是膝关节角度特征。选择高斯隶属度函数处理膝关节角度特征,高斯隶属度函数为:
Figure BDA0002944082070000071
式中,uA(x)是模糊隶属度,σi是隶属度函数的分布,ci为隶属度函数的中心;
然后使隶属度函数重叠,则ci定义如下:
Figure BDA0002944082070000072
式中,xi是位于xmin~xmax之间的膝关节角度,xmin是膝关节角度最小值,xmax是膝关节角度最大值;c是要素的数量。
其中,如果发生左腿脚跟撞击或脚趾撞击,则为左腿膝关节角度定义高和低两个要素,右腿膝关节角度定义为低、中、高三个要素;如果发生右腿脚跟撞击或脚趾撞击,则为右腿膝关节角度定义高和低两个要素,左腿膝关节角度定义为低、中、高三个要素。
划分脚趾、脚掌与足跟的GCF信息、膝关节角度的高、中、低程度的阀值可通过机器学习已知人体实际活动状态的足部GCF信号和IMU信号来确定。
最终,建立的模糊数据库如表1所示:
表1
周期性 脚趾压力 脚掌压力 足跟压力 膝关节角度 隶属度
u<sub>坐姿</sub>→1
u<sub>站立</sub>→1
u<sub>步行</sub>→1
u<sub>步行</sub>→0.5
u<sub>上楼梯</sub>→1
u<sub>上楼梯</sub>→0.5
u<sub>下楼梯</sub>→1
u<sub>下楼梯</sub>→0.5
模糊数据库的阀值可以区分出感知点压力及膝关节角度的高、中、低程度,并且,隶属度可以表示膝关节角度与人体实际活动状态的从属状态,来判断属于某一种人体实际活动状态的可能性。当某一阶段的隶属度接近于1时,则表示该阶段的膝关节角度完全地属于某一种人体实际活动状态;如果两相邻阶段的隶属度同时约为0.5,则表示膝关节角度可能处于两阶段之间的过渡阶段。因此,利用上述模糊数据库可反映人体活动的渐变性。
S32、对于每个模糊推理***,建立模糊规则库。
模糊规则用于将模糊的输入映射到输出。根据模糊规则执行推理类似于查表,由于模糊化了,输入变量的值较小的变化不会导致输出变量值的瞬间跳变,如此有利于意图识别的平稳性。这里,在模糊推理***的每条腿HS或TS事件中,定义了三个规则,对于每个规则,使用与两个要素相对应的两个输入(图2中的输入1、输入2)来映射一个输出。左、右模糊推理***的模糊规则库如表2所示:
表2
Figure BDA0002944082070000081
其中,L1代表当前时刻下左膝关节角度,R1代表当前时刻下右膝关节角度,均作为推理***的输入。推理***的输出是根据左、右膝关节角度计算出的符合表2中的一行所对应的某项人体活动的确定度。这里,划分关节角度高、中、低程度的阀值,输出的确定度可利用已知人体实际活动状态的IMU信号进行机器学习来确定。
S33、对于步骤S1获取的足部GCF信号和IMU信号,先利用模糊数据库的模糊逻辑进行初步判断人体活动类型,在无法直接确定的情况下再利用模糊规则库的模糊规则执行推理,求得模糊规则的输出,即推理出人体活动类型;
在模糊逻辑下,人的步态循环被分析为一组完整的步态时刻,先利用模糊数据库判断各时刻的脚趾、脚掌与足跟的GCF信息、膝关节角度的高/中/低,同时根据膝关节角度计算隶属度。当表1中有符合的某一行且隶属度接近1,则可以直接确定当前人体活动为该行所对应的人体活动。如果利用表1无法确定当前人体活动,如出现隶属度趋向于0.5的情况,则需要利用模糊规则库,结合两条腿的GCF信息和膝关节角度做进一步的推理。
例如,通过模糊数据库的阀值判断T时刻下左腿的脚趾发生撞击,脚趾GCF信息为高,脚掌GCF信息为低,足跟GCF信息为低、膝关节角度为低,假设uA(x)接近1,则判断T时刻所对应的人体姿态为下楼梯。假设uA(x)为0.5左右,说明T时刻所对应的人体姿态是下楼梯的概率约为0.5,根据表1还是无法直接确定人体活动,此时则还需要利用T时刻右腿的膝关节角度,利用模糊规则库的阀值先评估各条腿的膝关节角度高/中/低程度,再查询表2,找出符合的一行,该行所对应的人体活动即为当前人体活动,模糊规则库也相应输出一个确定度。
S34、由于经过模糊规则库推理之后的输出一般是逻辑值,不能直接供外骨骼***使用,因此需要进行反模糊化的操作,这里,是将两个***的模糊规则输出结果结合在一起,形成一个单一的模糊集,然后对该模糊集进行反模糊化以求得一个具体数值,以便外骨骼***可以根据该数值辅助人体活动。
在本实施例中,具体是先采用max法对两个***的模糊规则输出结果进行聚集,即从一时间段内各时刻下的模糊规则输出选取出最大值,然后采用面积重心法进行反模糊化,根据计算结果和模糊规则库,确定出当前的人体活动。
面积重心法的计算公式如下:
Figure BDA0002944082070000091
式中,y是模糊规则输出结果;
Figure BDA0002944082070000092
是公式输出值;s是由一时间段中各步态时刻的隶属度所构成的模糊集,μB是模糊曲线,由模糊集中的多个隶属度所连成。当然,在其他实施例中也可以用其他去模糊方法实现反模糊,例如最大平均法、高度法等。
例如,假设当前人体是处于上楼梯活动状态,脚趾、脚掌与足跟这3个感知点在这段时间内连续有足部GCF信息,且出现显著变化,也有发生脚跟撞击或脚趾撞击事件。因此,负载机动型外骨骼可以先以此判定是周期性活动,排除坐姿和站立状态;然后根据感知点是属于非间歇性地有足部GCF信息来排除跑步活动;
接着通过模糊数据库对这段时间内各个时刻的人体活动进行初步判断,例如第一时刻下左腿弯曲,左脚趾和左脚掌撞击,左脚跟没有撞击,右腿没有弯曲,通过表1的模糊逻辑得知,第一时刻下左脚趾GCF信息属于低的程度,左脚掌GCF信息属于低的程度,左足跟GCF信息属于高的程度,左膝关节角度属于高的程度,根据左膝关节角度计算出来的隶属度趋向于0.5,则再通过表2左腿模糊推理***的规则来判断,得知左膝关节角度高、右膝关节角度低,因此判定第一时刻为上楼梯状态。
第二时刻右腿弯曲,右脚趾和右脚掌撞击,由表1得知第二时刻下,右脚趾GCF信息属于高的程度,右脚掌GCF信息属于高的程度,右足跟GCF信息属于低的程度,右膝关节角度属于高的程度,计算出来的隶属度接近0.5,此时无法直接确定是上楼梯状态,因此还需要利用两条腿的膝关节角度关系来判断:根据右腿模糊推理***的规则确定当前两条腿的膝关节角度高/中/低程度,得知左膝关节角度低、右膝关节角度高,找出相符的一行规则,最终推理出,当前人体属于上楼梯状态。第三时刻、第四时刻……第N个时刻的活动状态以此类推进行识别,哪条腿发生脚跟/脚趾撞击事件,就采用该条腿对应的模糊推理***。
最后,对于含有N个时刻的整一时段,根据N个时刻的隶属度和模糊规则输出结果,通过采用面积重心法进行反模糊化,求得具体数值,使得外骨骼***可以根据该具体数值来控制仿生腿按照人体运动意图发生动作。
可见,本实施例方法可对坐姿、站立、步行、上楼梯、下楼梯这多类人体活动状态进行识别,通过模糊推理可以对整个人体运动过程进行判断,取代现有技术中离散地对各时刻进行判断,因此能够更准确和平滑地识别人体活动。
负载机动型外骨骼***100可穿戴在人身上,其包括机械***、液压执行机构、传感***和控制***。传感***用于实现运动意图感知,控制***作为整个外骨骼***的控制中心,用于实现认知决策,液压执行机构用于实现动力驱动,机械***用于实现动力执行,做出相关动作。
其中,如图3和图4所示,机械***包括依次连接的仿生躯干1、仿生腿2和仿生脚3,仿生腿2由仿生髋关节21、仿生大腿22、仿生膝关节23、仿生小腿24、仿生踝关节25构成。仿生脚可采用安装有脚底压力传感器的智能鞋。
仿生髋关节具有3个髋关节自由度,分别为1个主动自由度和2个被动自由度,其中,1个主动自由度是指髋关节前屈/后伸,2个被动自由度是指髋关节内旋/外旋、髋关节外摆/内收。仿生膝关节具有1个膝关节自由度,该膝关节自由度为主动自由度,是指膝关节屈曲/伸展,仿生踝关节具有3个踝关节自由度,均为被动自由度,分别是指踝关节趾屈/背伸、踝关节内旋/外旋、踝关节外展/内收。
液压执行机构包括液压站4、电源5、髋关节液压缸6和膝关节液压缸7,液压站和电源、控制***均设置在仿生躯干背部,液压站包括电机、液压泵、油源41和液压阀。电源连接液压阀、电机和液压泵,用于供电。油源一端通过液压管连接液压泵,电机驱动液压泵来抽取油源中的油液。油源另一端通过液压管连接液压阀,液压阀再通过液压管分别连接髋关节液压缸和膝关节液压缸,从而形成完整封闭的油液回路。
控制***8连接液压阀,并通过控制液压阀的阀电压来控制液压阀的开度,进而控制髋关节液压缸和膝关节液压缸运动过程中的流量,流量可影响膝关节液压缸和髋关节液压缸的伸展和收缩运动。电机可连接至控制***,由控制***来控制其工作状态。
髋关节液压缸设置在仿生髋关节处并连接仿生躯干和仿生髋关节,髋关节液压缸用于驱动仿生髋关节的旋转运动。膝关节液压缸设置在仿生膝关节处并连接仿生大腿和仿生小腿,膝关节液压缸用于驱动仿生膝关节的旋转运动。
传感***包括脚底压力传感器和IMU传感器,控制***连接脚底压力传感器和位置传感器,脚底压力传感器可用于实时检测足部GCF信号,以便控制***计算脚趾、脚掌与足跟这三个感知点的压力。IMU传感器数量可为四个,分别安装在左、右仿生大腿和左、右仿生小腿上,用于检测仿生大腿和仿生小腿的速度、加速度和角速度,以便控制***计算膝关节角度。
在本实施例中,脚底压力传感器可采用薄膜压力传感器,IMU传感器可选用ADIS16475 IMU传感器,该IMU内置一个三轴陀螺仪和一个三轴加速度计。
如图5所示,控制***主要为微处理器,控制***连接并控制电机和液压阀、传感***。微处理器可以是低功耗高性能的ATmega16U2-AU微处理器,可对输入的传感数据进行信号收集、滤波和模数转化。微处理器的输出数据可以采用RS232串口即时传输到远端的上位机进行显示,具有传输误差小、延迟时间短、结果相对稳定的特点。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种负载机动型外骨骼人体运动意图识别方法,其特征在于,所述方法采用智能模糊推理算法识别人体运动意图,包括如下步骤:
S1、通过外骨骼的传感***获取足部GCF信号、IMU信号;
S2、通过信号特征的周期性判定,将坐姿与站立分为一类,该类为非周期性活动,将跑步、走路与上下楼梯分为另一类,该类为周期性活动;
S3、对于非周期活动,根据IMU信号计算两腿膝关节角度,根据坐姿的两腿膝关节角度大于站立的两腿膝关节角度来区分坐姿与站立;
对于周期性活动,根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理***,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态;
所述模糊推理***分为独立的左、右模糊推理***,左、右脚跟撞击和左、右脚趾撞击事件均采用这两个模糊推理***进行模糊推理;
所述模糊推理***的模糊推理过程如下:
S31、以已知人体活动状态的足部GCF信号和IMU信号作为输入,基于隶属度函数对输入进行模糊化,建立模糊数据库;
模糊数据库如下:
周期性 脚趾压力 脚掌压力 足跟压力 膝关节角度 隶属度 u<sub>坐姿</sub>→1 u<sub>站立</sub>→1 u<sub>步行</sub>→1 u<sub>步行</sub>→0.5 u<sub>上楼梯</sub>→1 u<sub>上楼梯</sub>→0.5 u<sub>下楼梯</sub>→1 u<sub>下楼梯</sub>→0.5
其中,隶属度表示膝关节角度与人体实际活动状态的从属状态,用于判断属于某一种人体实际活动状态的可能性,隶属度为1表示膝关节角度完全属于某一种人体实际活动状态;
S32、对于每个模糊推理***,建立模糊规则库;
左、右模糊推理***的模糊规则库如下:
Figure FDA0003829983310000021
其中,L1代表当前时刻下左膝关节角度,R1代表当前时刻下右膝关节角度,推理***输出的是相应的某项人体活动的确定度;
S33、对于步骤S1获取的足部GCF信号和IMU信号,先利用模糊数据库的模糊逻辑进行初步判断人体活动类型,在无法直接确定的情况下再利用模糊规则库的模糊规则执行推理,求得模糊规则的输出,即推理出人体活动类型;
S34、将两个***的模糊规则输出结果结合在一起,形成一个单一的模糊集,然后对该模糊集进行反模糊化以求得一个具体数值,以便外骨骼***根据该数值辅助人体活动。
2.根据权利要求1所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,在步骤S2中,根据脚趾、脚掌与足跟这3个感知点的GCF信息,将非周期性活动与周期性活动进行分类,在处于坐姿和站立状态时,3个感知点的地面接触力不会发生显著变化,也不会发生脚跟撞击或脚趾撞击情况。
3.根据权利要求1所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,采用高斯隶属度函数处理膝关节角度特征,高斯隶属度函数为:
Figure FDA0003829983310000022
式中,uA(x)是模糊隶属度,x是膝关节角度,模糊子集A是人体活动状态,包括坐姿、站立、步行、上楼梯、下楼梯;σi是隶属度函数的分布,ci为隶属度函数的中心;
然后使隶属度函数重叠,则ci定义如下:
Figure FDA0003829983310000031
式中,xi是位于xmin~xmax之间的膝关节角度,xmin是膝关节角度最小值,xmax是膝关节角度最大值;c是要素的数量;
其中,如果发生左腿脚跟撞击或脚趾撞击,则为左腿膝关节角度定义高和低两个要素,右腿膝关节角度定义为低、中、高三个要素;如果发生右腿脚跟撞击或脚趾撞击,则为右腿膝关节角度定义高和低两个要素,左腿膝关节角度定义为低、中、高三个要素。
4.根据权利要求1所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,在步骤S34中,采用max法对两个***的模糊规则输出结果进行聚集,采用面积重心法进行反模糊化,面积重心法计算公式如下:
Figure FDA0003829983310000032
式中,y是模糊规则输出结果;
Figure FDA0003829983310000033
是公式输出值;s是由一时间段中各步态时刻的隶属度所构成的模糊集,μB是模糊曲线,由模糊集中的多个隶属度所连成。
5.一种负载机动型外骨骼***,其特征在于,所述负载机动型外骨骼***通过权利要求1至4中任一项所述的负载机动型外骨骼人体运动意图识别方法实现人体运动意图识别。
CN202110188446.1A 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼*** Active CN113011458B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110188446.1A CN113011458B (zh) 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110188446.1A CN113011458B (zh) 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼***

Publications (2)

Publication Number Publication Date
CN113011458A CN113011458A (zh) 2021-06-22
CN113011458B true CN113011458B (zh) 2022-12-16

Family

ID=76402874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110188446.1A Active CN113011458B (zh) 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼***

Country Status (1)

Country Link
CN (1) CN113011458B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114041783B (zh) * 2021-11-11 2024-04-26 吉林大学 一种基于经验规则结合机器学习的下肢运动意图识别方法
CN115167234B (zh) * 2022-07-29 2023-06-20 哈尔滨工业大学 仿人足脚板双足机器人的多传感器信息融合步态识别方法
CN116227606B (zh) * 2023-05-05 2023-08-15 中南大学 一种关节角度预测方法、终端设备及介质
CN117959146B (zh) * 2024-04-02 2024-06-25 江西求是高等研究院 一种六自由度的上肢康复机器人控制方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108836342A (zh) * 2018-04-19 2018-11-20 北京理工大学 一种基于惯性传感器的无特征人体运动识别方法
CN110543922A (zh) * 2019-10-15 2019-12-06 北京理工大学 一种基于膝关节外骨骼的实时行走模式识别方法
CN110603021A (zh) * 2017-02-03 2019-12-20 漫游机械人技术公司 用于用户意图识别的***和方法
CN110742712A (zh) * 2019-11-05 2020-02-04 哈工大机器人湖州国际创新研究院 基于源端融合的假肢运动意图识别方法及其装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RO125970B1 (ro) * 2010-01-21 2019-03-29 Institutul De Mecanica Solidelor Al Academiei Române Metodă şi dispozitiv pentru controlul dinamic al unui robot păşitor
EP2951533A4 (en) * 2013-02-01 2016-08-10 Trusted Positioning Inc METHOD AND SYSTEM FOR VARIATING THE STEP LENGTH ASSESSMENT USING A NONLINEAR SYSTEM IDENTIFICATION
US20190307583A1 (en) * 2016-11-08 2019-10-10 Massachusetts Institute Of Technology Kinetic Sensing, Signal Generation, Feature Extraction, And Pattern Recognition For Control Of Autonomous Wearable Leg Devices
CN111123945A (zh) * 2019-12-30 2020-05-08 同济大学 一种基于混合控制的双足机器人步态轨迹生成方法及应用

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603021A (zh) * 2017-02-03 2019-12-20 漫游机械人技术公司 用于用户意图识别的***和方法
CN108836342A (zh) * 2018-04-19 2018-11-20 北京理工大学 一种基于惯性传感器的无特征人体运动识别方法
CN110543922A (zh) * 2019-10-15 2019-12-06 北京理工大学 一种基于膝关节外骨骼的实时行走模式识别方法
CN110742712A (zh) * 2019-11-05 2020-02-04 哈工大机器人湖州国际创新研究院 基于源端融合的假肢运动意图识别方法及其装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
下肢康复运动辅助外骨骼机器人的人机信息监测与运动状态识别***研发;彩虹的微笑;《https://www.doc88.com/p-18361830957179.html》;20201209;第1-89页 *
基于Android 多传感采集***的下肢动作识别研究;张新浩;《万方中国学位论文全文数据库》;20201224;第1-88页 *
面向重物搬运的气动腰部助力外骨骼;姜笑天;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20210215(第2期);第I140-1028页 *

Also Published As

Publication number Publication date
CN113011458A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN113011458B (zh) 负载机动型外骨骼人体运动意图识别方法及外骨骼***
Novak et al. Automated detection of gait initiation and termination using wearable sensors
Huo et al. Fast gait mode detection and assistive torque control of an exoskeletal robotic orthosis for walking assistance
CN110169850B (zh) 被动型液压膝关节假肢的控制方法
Martinez-Hernandez et al. Simultaneous Bayesian recognition of locomotion and gait phases with wearable sensors
Chen et al. A novel gait pattern recognition method based on LSTM-CNN for lower limb exoskeleton
Parri et al. Real-time hybrid locomotion mode recognition for lower limb wearable robots
EP1786370B1 (en) A control system for a lower limb prosthesis or orthosis
Khodabandelou et al. A fuzzy convolutional attention-based GRU network for human activity recognition
Farrell et al. A method to determine the optimal features for control of a powered lower-limb prostheses
Kolaghassi et al. Systematic review of intelligent algorithms in gait analysis and prediction for lower limb robotic systems
Kang et al. Subject-independent continuous locomotion mode classification for robotic hip exoskeleton applications
Eslamy et al. Estimation of knee angles based on thigh motion: A functional approach and implications for high-level controlling of active prosthetic knees
Zhang et al. Gait phase recognition of lower limb exoskeleton system based on the integrated network model
Gong et al. BPNN-based real-time recognition of locomotion modes for an active pelvis orthosis with different assistive strategies
Song et al. Adaptive neural fuzzy reasoning method for recognizing human movement gait phase
Yu et al. Artificial neural network-based activities classification, gait phase estimation, and prediction
CN112949676A (zh) 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法
Ye et al. An adaptive method for gait event detection of gait rehabilitation robots
CN114224326A (zh) 一种穿戴式步态相位和动作识别装置及方法
Jang et al. Preliminary study of online gait recognizer for lower limb exoskeletons
Helmi et al. Human activity recognition using a fuzzy inference system
Farrell Pattern classification of terrain during amputee walking
Martinez-Hernandez et al. Learning architecture for the recognition of walking and prediction of gait period using wearable sensors
Qiu et al. Research on motion recognition based on multi-dimensional sensing data and deep learning algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant