CN211742054U - 一种基于意图识别和阻抗匹配的人机柔***互*** - Google Patents
一种基于意图识别和阻抗匹配的人机柔***互*** Download PDFInfo
- Publication number
- CN211742054U CN211742054U CN202020362173.9U CN202020362173U CN211742054U CN 211742054 U CN211742054 U CN 211742054U CN 202020362173 U CN202020362173 U CN 202020362173U CN 211742054 U CN211742054 U CN 211742054U
- Authority
- CN
- China
- Prior art keywords
- operator
- arm
- interaction
- man
- mechanical arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明提供了一种基于意图识别和阻抗匹配的人机柔***互***,它应由机械臂、计算机主机、肌肉电信号传感器、位姿捕捉模块、力传感器五个部分组成。所述机械臂是人机交互的主体,作为与操作者交互的对象。所述肌肉电信号传感器佩戴于操作者的手臂上,用于采集操作者手臂的表面肌电信号。所述位姿捕捉模块佩戴于操作者手臂上,用于采集操作者上臂与前臂的位姿信息。所述力传感器安装在机械臂末端,用于采集操作者与机械臂的交互力。本发明结构简单,制造成本低,工作稳定可靠,通用性和互换性良好,可适用于多种机器人,使用者可以在安全距离内高效、精确地与机器人进行物理层面的人机柔***互,提高了人机交互的效率和安全性,使得该发明适用于包括工业领域在内的多种机器人应用场合当中。
Description
技术领域
本发明属于机器人应用领域,具体地涉及一种基于意图识别和阻抗匹配的人机柔***互***及方法。
背景技术
近年来,随着机器人需求的提升和以智能制造为代表的工业4.0概念的提出,现有的基于固化编程机器人的制造体系和制造水平已经难以满足高端化、个性化、智能化产品和服务增值升级的需求,成为智能制造面临的巨大瓶颈和挑战。新一代的智能制造的典型特征之一是应突出人的中心地位,一方面要满足用户的个性化需求,一方面生产过程要充分考虑人的因素。通过“人在回路”的混合增强智能,人机深度融合将从本质上提高制造***处理复杂性、不确定性问题的能力,极大地优化制造***的柔性。在这种情况下,迫切需要一种新型的,高效灵活且用户友好的人机交互框架。
中国专利号:CN104714645A,名称:人机交互方法和人机交互设备,该发明公开了一种人机交互方法和人机交互设备。所述方法包括:从第一表面肌电信号解析出与力度相关的第一力度信号,所述第一表面肌电信号是从用户期望控制的肌肉群采集的第二表面肌电信号得到;根据所述第一力度信号确定用户的力度;在所述力度属于预设力度范围的持续时间达到预设时间时,触发控制人机交互设备动作的预设指令;以该预设指令控制人机交互设备动作。整个过程,只需用户控制对肌肉群的用力大小即可完成,极具实用性;另因不需要显式地做出特定手势、特定手型,基于隐蔽性,不易被他人观察到,造成信息泄露,一定程度上具有信息安全作用。然而,该发明仅简单地通过对用户的用力大小进行在线检测从而作为控制预设指令的触发信号,不能很好地适应多变的操作者姿态和力度,因而难以适应当今工业制造复杂的人机交互场景。
中国专利号:CN108127673A,名称:一种基于多传感器融合的非接触式机器人人机交互***,该发明公开了本发明提供了一种基于多传感器融合的非接触式机器人人机交互***,包括:多通道表面肌电传感器、惯性测量单元、微处理器测量控制装置、数据通信装置、Kinect体感设备、振动反馈设备以及PC终端。本发明融合多种传感器,可实现通过操作者的手臂以及手部动作直接控制机器人,降低了对操作者的空间束缚以及操作技巧的要求,有效提高了人机交互的自然性;构建了基于Unity3D游戏引擎的机器人虚拟场景,能够实时渲染机器人的运动状态,辅助操作者快速调整动作,让操作者直观的感受遥操作过程;加入了振动反馈设备,在遥操作过程关键时间点为操作者提供振动反馈,可提高***人机功效,同时增加遥操作安全性和可靠性。然而,该发明仅限于使操作者在虚拟场景下进行人机交互,难以满足物理层面上的人机柔***互场景。
综上,在生产实际应用中,为了适应柔性制造的要求,机器人***须突出人的中心地位,在保证人安全的前提下,将人的灵活性和应变能力纳入到机器人***之中,因此,迫切需要高效灵活的人机柔***互方法。近年来,机器人控制技术得到了快速发展,新型的机器人控制技术具有灵活性高、适用性强等优势,利用这些优势可以进一步优化机器人的控制算法,这就为实现灵活高效的人机柔***互提供了可能。本发明正是结合了上述优点,提出了一种新型有效的人机柔***互技术。
发明内容
本发明提供了一种基于意图识别和阻抗匹配的人机柔***互技术,用以实现灵活高效且安全的人机柔***互控制。其目的在于克服现有技术的缺点与不足,将人的优势有效地融入到复杂的生产环境中,使得机器人具备类人化的作业能力,从而提高人机交互的效率。
本发明的目的通过下述技术方案予以实现:
一种基于意图识别和阻抗匹配的人机柔***互***,其特征在于:所述***主要由肌肉电信号传感器(1),位姿捕捉模块(2),机械臂(3),计算机主机(4)以及力传感器(5)组成。所述机械臂(3)是人机交互的主体,作为与操作者交互的对象,与所述计算机主机(4)相连接。所述肌肉电信号传感器(1)佩戴于操作者的手臂上,用于采集操作者手臂的表面肌电信号,通过蓝牙以无线的方式与计算机主机(4)相连。所述位姿捕捉模块(2)佩戴于操作者手臂上,用于采集操作者上臂与前臂的位姿信息,通过蓝牙以无线的方式与计算机主机(4)进行通讯。所述力传感器(5)安装在机械臂(3)末端,用于操作者与机械臂(3)之间交互力的采集,以有线的方式与计算机主机(4)进行通讯。
优选的,所述机械臂(3)可以是具有任意形式的具有三自由度以上的机械臂机器人,可以在力矩控制模式和位置控制模式下工作,同时可以接收计算机主机(4)发出的控制指令并作出相应的响应且响应速度少于1毫秒。
优选的,所述肌肉电信号传感器(1)可便捷地佩戴于操作者的手臂,具有多通道肌肉电信号采集功能,且运行频率大于200Hz。
优选的,所述位姿捕捉模块(2)可便捷地佩戴于操作者的手臂且运行频率大于200Hz,所述位姿捕捉模块(2)可以是但不限于可穿戴式设备和光学跟踪设备。
优选的,所述力传感器(5)安装于机械臂(3)的末端,可以是任意形式的具有三轴以上的运行频率大于1000Hz且精度可达0.1N的力传感器。
本发明的一种技术方案为提供一种基于意图识别和阻抗匹配的人机柔***互方法,其特征在于:
***启动人机交互模式后,操作者的肌电信号和位姿信息分别通过肌肉电信号传感器(1)和位姿捕捉模块(2)实时地与计算机主机(4)通讯。根据所得操作者信息,通过阻抗参数估计算法根据操作者的肌肉活跃水平以及手臂位姿对操作者的阻抗参数进行实时的估计,同时根据所得肌电信息估计的疲劳度,对阻抗匹配过程中的权重进行调整。在阻抗匹配完成后,机器人可以获得交互力与末端位移的输入输出关系,并根据逆运动学将其映射到关节空间,最后根据所设计的神经网络控制器对所得期望轨迹进行有效的跟踪,实现有效的柔性人机交互。
优选的,上述方法中在人机交互开始前,需要对基础阻抗参数进行离线随机扰动实验估算,根据所记录的交互力与末端位移对基础阻抗参数进行拟合。
优选的,上述方法中在人机交互时,利用肌电信号提取计算所得肌肉活跃水平以及位姿捕捉模块(2)所得手臂位姿信息对操作者阻抗参数进行估计并与机械臂(3)的导纳模型进行匹配。
优选的,上述方法中根据操作者肌电信息所提取的疲劳程度作为人机阻抗匹配中的权重对交互过程中的操作者和机器人匹配进行在线调整。
优选的,上述方法中机械臂(3)的控制器能够对未知动力学进行有效地补偿,使得跟踪误差得以有效地减少。
1. 本发明结合阻抗匹配技术,一方面,通过对操作者手臂基础阻抗参数的测量以及肌肉活跃信息的提取,对操作者手臂的末端阻抗参数进行有效估计;另一方面,根据所估计的操作者手臂阻抗,对机械臂的控制模型进行有效匹配,调节机械臂的控制策略。
2. 本发明结合意图识别相关技术,对操作者手臂的姿势与疲劳程度进行识别,结合肌电信号的振幅、频率、中心频率和平均频率等指标,对人体肌肉的疲劳程度以及手臂动作姿态进行分析以用作人类意图的表征信息。
3. 本发明提供力反馈机制,增强人机交互时的沉浸感,在基于机器人的位置控制的基础上,加上力反馈机制后,可同时实现机器人对交互力的精确控制,实现个性化的操作。
本发明与现有技术相比,具有如下优点和有益效果:
1. 本发明能够有效估计操作者的阻抗参数,通过离线的随机扰动实验以及在线的位姿跟踪以及肌肉活跃度水平跟踪,有效地估计出交互者的阻抗模型参数。
2. 本发明结合了阻抗匹配的相关技术,机械臂能够与操作者手臂的阻抗参数进行匹配,使机械臂有效地规划其最优交互轨迹以实现柔***互,获得类人化的交互性能。
3. 本发明将在人机交互控制的基础上结合环境状态和交互者生理信息等,在交互者进行操控的同时,针对任务的类型收集交互者对机器人的操作信息,以不同的动作序列作为输入,得出对应交互者意图的映射关系,使机器人能够识别交互者的真实意图,提升机器人在任务执行过程中的自主性。
4. 本发明将变阻抗控制这一思想延伸和运用到人机交互模型中,使得操作者的运动意图在阻抗模型的运动目标中得到反映。机器人可以在阻抗控制下对人的意图进行自主跟随,积极向人的预期位置移动,而不是被动地服从相互作用力,从而提高人机交互效率。
5. 本发明通过人-人合作过程中的任务分配和交互力调控的机制,建立任务动态分配模型及基于阻抗控制的交互力调控机制;并进一步地将人-人合作完成任务模型借鉴到人-机交互***中,实现人和机器人阻抗的衔接以及高效的匹配。
6. 本发明结合神经网络相关技术,设计了基于神经网络逼近的机器人控制器以补偿由于机器人的未知动力学参数产生的误差,使得机器人得以更好地跟踪并匹配操作者的运动。
附图说明
图1为本发明的基础阻抗参数离线识别流程图
图2为本发明的运行场景结构示意图
图3为本发明人机柔***互的整体框架图
其中1为肌肉电信号传感器,2为位姿捕捉模块,3为机械臂,4为计算机主机,5为力传感器。
具体实施方式
本发明实例提供了一种基于意图识别和阻抗匹配的人机柔***互技术,结合意图识别技术和阻抗估计识别以及匹配技术,以实现人机柔***互以及提高交互效率。
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本实施例中实现了一种基于意图识别和阻抗匹配的人机柔***互技术。
附图1是本发明的基础阻抗参数离线识别流程图,在进行操作者与机器人阻抗匹配之前,需要先对操作者自身的基础参数进行有效的识别,以便后续基于基础参数在线地估计操作者时变的阻抗参数。本发明基于操作者的手臂姿态和肌肉活跃水平对阻抗参数进行估计,在进行基础阻抗参数离线识别时,通过对不同操作者的多组不同姿态和不同肌肉活跃水平下施加随机扰动,同时记录不同情况下手臂末端的位移以及与机器人的交互力,根据所记录数据运用最小二乘法对手臂末端的基础阻抗参数进行拟合。
附图2为本发明的运行场景结构示意图。如图2所示,本人机交互***由肌肉电信号传感器(1),位姿捕捉模块(2),机械臂(3)和计算机主机(4)以及力传感器(5)组成。其中,所述机械臂可以是具有任意形式的具有三自由度以上的机械臂机器人,可以在力矩控制模式和位置控制模式下工作,同时可以接收计算机发出的控制指令并作出相应反应且响应速度少于1毫秒;所述肌肉电信号传感器佩戴于操作者的手臂上,用于检测手臂表面的肌电信号,并通过蓝牙与计算机主机进行通讯,具有多通道肌电信号采集功能,且运行频率大于200Hz;位姿捕捉模块佩戴于操作者的手臂上,运行频率大于200Hz,用于获取操作者手臂的姿态,并通过蓝牙与计算机主机进行通讯, 所述位姿捕捉模块可以是但不限于可穿戴式装置和光学跟踪设备;所述力传感器可以是任意形式的具有三轴以上的运行频率大于1000Hz且精度可达0.1N的力传感器,用于操作者与机械臂之间交互力的采集。根据上述五部分设备,构建起基于意图识别和阻抗匹配的人机柔性***,本发明的整体框架如附图3所示。
在人机交互开始时,***开始记录操作者的运动状态,根据离线识别所得的基础参数,结合操作者的肌电信号以及位姿信号,对操作者的阻抗参数进行在线估计用以进一步的阻抗匹配以实现人机柔***互。结合所得实时阻抗参数,利用线性二次型调节器对机器人的导纳模型进行求解,获取机器人的交互力与末端位移的输入输出关系,使得机器人能适应操作者的运动状态变化。
更优的,为了进一步提升人机交互中人的地位,本发明在阻抗匹配的过程中加入了对操作者的疲劳程度的考虑,加强机器人对操作者运动意图的识别能力。通过对从操作者肌电信号提取所得的振幅、频率等特征信息,对操作者的疲劳度进行实时检测,进一步地将其作为阻抗匹配过程中的权重以适应操作者因长时间进行重复工作而造成的低工作效率。
当人机阻抗匹配完成后,根据所得机器人导纳模型的期望末端位移输出,结合机器人的逆运动学,可以得到机械臂各关节的期望关节轨迹。本发明设计了基于神经网络逼近的机器人控制器以补偿由于机器人的未知动力学参数产生的误差,使得机器人得以更好地跟踪并匹配操作者的运动。
为了使本发明所解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图,对本发明作进一步详细的说明。
在本发明中,操作者能与机器人进行物理层面上的交互接触,而在此过程中,机器人***能够自主地根据操作者的阻抗参数调整交互的力与位置,从而实现柔性的人机交互。
更优的,由于本发明结合了意图识别的相关技术,机器人能够定量地分析出操作者的运动意图,根据操作者的肌电信号获取其肌肉疲劳度,从而对进行阻抗匹配的人机双方进行权重调整,使机器人能够进一步地迎合操作者,优化人机交互的过程。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.一种基于意图识别和阻抗匹配的人机柔***互***,其特征在于:所述***主要由肌肉电信号传感器(1),位姿捕捉模块(2),机械臂(3),计算机主机(4)以及力传感器(5)组成;所述机械臂(3)是人机交互的主体,作为与操作者交互的对象,与所述计算机主机(4)相连接;所述肌肉电信号传感器(1)佩戴于操作者的手臂上,用于采集操作者手臂的表面肌电信号,通过蓝牙以无线的方式与计算机主机(4)相连;所述位姿捕捉模块(2)佩戴于操作者手臂上,用于采集操作者上臂与前臂的位姿信息,以无线的方式与计算机主机(4)进行通讯;所述力传感器(5)安装在机械臂(3)末端,用于操作者与机械臂(3)之间交互力的采集。
2.根据权利要求1所述的人机柔***互***,其特征在于:所述机械臂(3)可以是具有任意形式的具有三自由度以上的机械臂机器人,可以在力矩控制模式和位置控制模式下工作,同时可以接收计算机主机(4)发出的控制指令并作出相应响应且响应速度少于1毫秒。
3.根据权利要求1所述的人机柔***互***,其特征在于:所述肌肉电信号传感器(1)可便捷地佩戴于操作者的手臂,具有多通道肌电信号采集功能,且运行频率大于200Hz。
4.根据权利要求1所述的人机柔***互***,其特征在于:所述位姿捕捉模块(2)可便捷地佩戴于操作者的手臂且运行频率大于200Hz,所述位姿捕捉模块(2)可以是但不限于可穿戴式设备和光学跟踪设备。
5.根据权利要求1所述的人机柔***互***,其特征在于:所述力传感器(5)安装于机械臂(3)的末端,可以是任意形式的具有三轴以上的运行频率大于1000Hz且精度可达0.1N的力传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202020362173.9U CN211742054U (zh) | 2020-03-20 | 2020-03-20 | 一种基于意图识别和阻抗匹配的人机柔***互*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202020362173.9U CN211742054U (zh) | 2020-03-20 | 2020-03-20 | 一种基于意图识别和阻抗匹配的人机柔***互*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN211742054U true CN211742054U (zh) | 2020-10-23 |
Family
ID=72853139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202020362173.9U Expired - Fee Related CN211742054U (zh) | 2020-03-20 | 2020-03-20 | 一种基于意图识别和阻抗匹配的人机柔***互*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN211742054U (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309152A (zh) * | 2020-03-20 | 2020-06-19 | 华南理工大学 | 一种基于意图识别和阻抗匹配的人机柔***互***及方法 |
-
2020
- 2020-03-20 CN CN202020362173.9U patent/CN211742054U/zh not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309152A (zh) * | 2020-03-20 | 2020-06-19 | 华南理工大学 | 一种基于意图识别和阻抗匹配的人机柔***互***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111309152A (zh) | 一种基于意图识别和阻抗匹配的人机柔***互***及方法 | |
US11409357B2 (en) | Natural human-computer interaction system based on multi-sensing data fusion | |
CN111773027B (zh) | 一种柔性驱动的手功能康复机器人控制***及控制方法 | |
CN112276944A (zh) | 一种基于意图识别的人机协作***控制方法 | |
CN106695794A (zh) | 一种基于表面肌电信号的移动机器臂***及其控制方法 | |
CN109676615A (zh) | 一种利用手臂肌电信号与动作捕捉信号的喷涂机器人示教方法及装置 | |
CN109521880B (zh) | 一种基于混合生物电信号驱动的遥操作机器人***及方法 | |
CN102309366A (zh) | 用眼动信号控制上假肢运动的控制***和控制方法 | |
CN108453735B (zh) | 一种基于摩擦纳米发电机仿生机械手的抓取方法、装置 | |
CN113843801B (zh) | 复合机器人的控制方法、装置及*** | |
US20220063091A1 (en) | Robot control device, robot system and robot control method | |
CN211742054U (zh) | 一种基于意图识别和阻抗匹配的人机柔***互*** | |
CN112775964B (zh) | 一种力感知阻抗控制方法 | |
CN112706158A (zh) | 基于视觉和惯导定位的工业人机交互***及方法 | |
CN113876556A (zh) | 一种三维激光扫描按摩机器人*** | |
CN203552178U (zh) | 腕带式手部运动识别装置 | |
CN202161439U (zh) | 用眼动信号控制上假肢运动的控制*** | |
CN114131617A (zh) | 一种工业机器人的智能柔顺控制方法和装置 | |
CN114055461A (zh) | 基于肌电接口的机器人力位同步遥操作控制方法及装置 | |
CN109521784A (zh) | 一种触觉感知式可穿戴上肢外骨骼无人机控制***及方法 | |
CN110103226B (zh) | 一种辅助机器人控制方法及*** | |
CN108062102A (zh) | 一种手势控制具有辅助避障功能的移动机器人遥操作*** | |
US20240149458A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
CN111230872B (zh) | 一种基于多传感器的物体递交意图识别***及方法 | |
KR101428857B1 (ko) | 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201023 |
|
CF01 | Termination of patent right due to non-payment of annual fee |