CN107363813B - 一种基于可穿戴设备的桌面工业机器人示教***和方法 - Google Patents
一种基于可穿戴设备的桌面工业机器人示教***和方法 Download PDFInfo
- Publication number
- CN107363813B CN107363813B CN201710707674.9A CN201710707674A CN107363813B CN 107363813 B CN107363813 B CN 107363813B CN 201710707674 A CN201710707674 A CN 201710707674A CN 107363813 B CN107363813 B CN 107363813B
- Authority
- CN
- China
- Prior art keywords
- arm
- module
- data
- tail end
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
本发明公开了一种基于可穿戴设备的桌面工业机器人示教***和方法,所述示教***包括示教数据获取部分、数据处理部分和工业机器人。所述示教***通过获取人体手臂上各个传感器位置处的欧拉角,计算获得手臂末端的位置和各个关节的转动角度,对上述离散的运动数据进行编码表示和泛化输出之后,获得连续的手臂末端运动轨迹和相应关节的转动角度。本发明根据末端位置对机器人进行运动学逆解,从而获得多组逆解,根据相应关节的转动角度评估上述多组逆解,选取最接近手臂姿态的一组逆解作为机器人的关节角度。本发明提供的示教***无需示教盒或拖动机械臂进行示教,仅仅需要按照正常的人工操作就可以完成对工业机器人的示教,从而提高了示教效率。
Description
技术领域
本发明涉及自动化技术领域,尤其涉及一种基于可穿戴设备的桌面工业机器人示教***和方法。
背景技术
各种六自由度机械臂由于其运动的灵活性及其机构设计的合理性,在目前的自动化生产***中得到广泛的应用。机器人的主要任务是代替人类进行一些重复性、环境差、危险性高的手工操作,其完成的前提是预先对机器人发出指示,规定机器人应该完成的动作和作业的具体内容,这个过程就是对机器人的示教。示教再现是机器人普遍采用的编程方式,这需要操作人员用示教盒来反复调整每个示教点处机器人的作业参数。整个示教过程结束后,机器人按照记录的数据反复作业。手把手示教也是示教再现***的一种形式,操作员通过操纵安装在机器人末端的控制手柄对机器人进行作业轨迹演示,作业时机器人通过存储的数据,按照先前示教的轨迹运行。现有的示教再现***对操作员的操作技能要求较高,示教过程繁琐、费时效率不高。为了提高示教速度,绝大多数的机械臂控制***都提供了操作便捷的示教盒,但是这种方式仍然无法从根本上提升六自由度机械臂的示教效率。
发明内容
为解决上述问题,本发明提供一种基于可穿戴设备的桌面工业机器人示教***和方法,至少部分解决上述技术问题。
为此,本发明提供一种基于可穿戴设备的桌面工业机器人示教***,包括示教数据获取部分、数据处理部分和工业机器人,所述数据处理部分分别与所述示教数据获取部分和所述工业机器人连接;
所述示教数据获取部分包括可穿戴设备,所述可穿戴设备包括数据控制节点、数据发送模块和6个传感器节点,6个传感器节点分别平均设置在左臂和右臂,每只手臂的3个传感器节点分别设置在上臂远肩关节端、前臂远肘关节端和手臂末端,所述数据控制节点设置在人体背部;
所述传感器节点用于获取手臂关节在运动过程之中的运动信息;
所述数据控制节点用于汇聚各个传感器节点的运动信息,而且根据预设的姿态估计算法对所述运动信息进行融合处理,以获得传感器对应位置的欧拉角数据;
所述数据发送模块用于通过无线传输方式将所述欧拉角数据传输给所述数据处理部分;
所述数据处理部分包括数据接收模块、手臂运动信息计算模块、数据编码学习与泛化输出模块、机器人运动学逆解模块和最优解评估模块,所述手臂运动信息计算模块分别与所述数据接收模块和所述数据编码学习与泛化输出模块连接,所述数据编码学习与泛化输出模块分别与所述机器人运动学逆解模块和所述最优解评估模块连接,所述最优解评估模块与所述机器人运动学逆解模块连接;
所述数据接收模块用于接收所述欧拉角数据,而且将所述欧拉角数据传输给所述手臂运动信息计算模块;
所述手臂运动信息计算模块用于根据所述欧拉角计算出手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述数据编码学习与泛化输出模块用于对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述机器人运动学逆解模块用于对连续的手臂末端位置和手臂末端姿态进行机器人运动学逆解,以获得对应的多组逆解;
所述最优解评估模块用于根据最小的评估因子从所述多组逆解之中选择一组逆解作为机器人的关节转动角度,所述评估因子根据所述多组逆解和连续的手臂关节转动角度形成;
所述工业机器人包括工业机器人本体和底层控制模块,所述工业机器人本体和所述底层控制模块连接;
所述底层控制模块用于根据机器人的关节转动角度对所述工业机器人本体进行控制,以使得所述工业机器人再现示教者的手臂运动。
可选的,还包括信息融合模块,所述信息融合模块分别与所述手臂运动信息计算模块和所述数据编码学习与泛化输出模块连接;
所述信息融合模块用于将所述手臂末端位置、所述手臂末端姿态和所述手臂关节转动角度进行融合处理,以形成预设的向量数据集;
所述数据编码学习与泛化输出模块用于对离散的向量数据集进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度。
可选的,所述向量数据集为向量D,D={x,y,z,αW,βW,γW,θ1,θ2,θ3,θ4,θ5,θ6},其中x、y和z为手臂末端在世界坐标系中的位置,αW、βW和γW为手臂末端在世界坐标系中的姿态,θ1、θ2、θ3、θ4、θ5和θ6为手臂关节相应的转动角度。
可选的,所述评估因子的计算公式如下:
其中,λi(i=1,2,···,6)为各个手臂关节对所述工业机器人的机械臂的位置与姿态的影响因子;
Ni={θR1,θR2,θR3,θR4,θR5,θR6}(i=1,2,3···)为同一手臂末端位置下的i组逆解;
DP={θ’1,θ’2,θ’3,θ’4,θ’5,θ’6}为同一时刻的手臂关节转动角度。
可选的,所述欧拉角数据包括所述远肩关节端的欧拉角ΨB,所述前臂远肘关节端的欧拉角ΨF,所述手臂末端的欧拉角ΨH,ΨB={αB,βB,γB}T,ΨF={αF,βF,γF}T,ΨH={αH,βH,γH}T,其中αB、βB和γB分别为欧拉角ΨB中的章动角、旋进角和自转角,αF、βF和γF分别为欧拉角ΨF中的章动角、旋进角和自转角,αH、βH和γH分别为欧拉角ΨH中的章动角、旋进角和自转角。
本发明还提供一种基于可穿戴设备的桌面工业机器人示教方法,所述示教方法采用基于可穿戴设备的桌面工业机器人示教***,所述示教***包括示教数据获取部分、数据处理部分和工业机器人,所述数据处理部分分别与所述示教数据获取部分和所述工业机器人连接;
所述示教数据获取部分包括可穿戴设备,所述可穿戴设备包括数据控制节点、数据发送模块和6个传感器节点,6个传感器节点分别平均设置在左臂和右臂,每只手臂的3个传感器节点分别设置在上臂远肩关节端、前臂远肘关节端和手臂末端,所述数据控制节点设置在人体背部;
所述数据处理部分包括数据接收模块、手臂运动信息计算模块、数据编码学习与泛化输出模块、机器人运动学逆解模块和最优解评估模块,所述手臂运动信息计算模块分别与所述数据接收模块和所述数据编码学习与泛化输出模块连接,所述数据编码学习与泛化输出模块分别与所述机器人运动学逆解模块和所述最优解评估模块连接,所述最优解评估模块与所述机器人运动学逆解模块连接;
所述工业机器人包括工业机器人本体和底层控制模块,所述工业机器人本体和所述底层控制模块连接;
所述示教方法包括:
所述传感器节点获取手臂关节在运动过程之中的运动信息;
所述数据控制节点汇聚各个传感器节点的运动信息,而且根据预设的姿态估计算法对所述运动信息进行融合处理,以获得传感器对应位置的欧拉角数据;
所述数据发送模块通过无线传输方式将所述欧拉角数据传输给所述数据处理部分;
所述数据接收模块接收所述欧拉角数据,而且将所述欧拉角数据传输给所述手臂运动信息计算模块;
所述手臂运动信息计算模块根据所述欧拉角计算出手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述机器人运动学逆解模块对连续的手臂末端位置和手臂末端姿态进行机器人运动学逆解,以获得对应的多组逆解;
所述最优解评估模块根据最小的评估因子从所述多组逆解之中选择一组逆解作为机器人的关节转动角度,所述评估因子根据所述多组逆解和连续的手臂关节转动角度形成;
所述底层控制模块根据机器人的关节转动角度对所述工业机器人本体进行控制,以使得所述工业机器人再现示教者的手臂运动。
可选的,所述示教***还包括信息融合模块,所述信息融合模块分别与所述手臂运动信息计算模块和所述数据编码学习与泛化输出模块连接;
所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出的步骤之前包括:
所述信息融合模块将所述手臂末端位置、所述手臂末端姿态和所述手臂关节转动角度进行融合处理,以形成预设的向量数据集;
所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出的步骤包括:
所述数据编码学习与泛化输出模块对离散的向量数据集进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度。
可选的,所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出的步骤包括:
所述数据编码学习与泛化输出模块利用高斯混合模型对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示,以实现离散的手臂末端位置、手臂末端姿态和手臂关节转动角度的表征学习;
所述数据编码学习与泛化输出模块利用高斯混合回归模型对编码之后的手臂末端位置、手臂末端姿态和手臂关节转动角度进行数据重构和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度。
本发明具有下述有益效果:
本发明提供的基于可穿戴设备的桌面工业机器人示教***和方法之中,所述示教***包括示教数据获取部分、数据处理部分和工业机器人。所述示教***通过获取示教过程之中人体手臂上各个传感器位置处的欧拉角,计算获得手臂末端的位置和各个关节的转动角度,对上述离散的运动数据进行编码表示和泛化输出之后获得连续的末端运动轨迹和相应关节的转动角度。本发明根据末端位置对机器人进行运动学逆解,从而获得多组逆解,根据相应关节的转动角度评估上述多组逆解,选取最接近手臂姿态的一组逆解作为机器人的关节角度。本发明提供的示教***实现了示教人员无需示教盒或拖动机械臂进行示教,仅仅需要按照正常的人工操作就可以完成对工业机器人的示教,从而提高了示教效率。所述示教***的示教过程简单方便,对示教人员没有较高的操作技能要求,只需穿戴可穿戴设备即可。所述示教***使得机器人运动过程之中的姿态接近于人体手臂运动的姿态,从而能够最大程度地还原人体手臂的运动过程,运动平滑稳定,运动精度可控,示教效果良好。
附图说明
图1为本发明实施例一提供的基于可穿戴设备的桌面工业机器人示教***的结构示意图;
图2为本发明实施例一提供的基于可穿戴设备的桌面工业机器人示教***的信息传递示意图;
图3为本发明实施例一提供的人体手臂简化为三连杆七自由度模型的示意图;
图4为本发明实施例二提供的基于可穿戴设备的桌面工业机器人示教方法的流程示意图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图对本发明提供的基于可穿戴设备的桌面工业机器人示教***和方法进行详细描述。
实施例一
图1为本发明实施例一提供的基于可穿戴设备的桌面工业机器人示教***的结构示意图,图2为本发明实施例一提供的基于可穿戴设备的桌面工业机器人示教***的信息传递示意图。如图1和图2所示,本实施例提供的基于可穿戴设备的桌面工业机器人示教***包括示教数据获取部分、数据处理部分和工业机器人,所述数据处理部分分别与所述示教数据获取部分和所述工业机器人连接。所述示教***通过获取示教过程之中人体手臂上各个传感器位置处的欧拉角,计算获得手臂末端的位置和各个关节的转动角度,对上述离散的运动数据进行编码表示和泛化输出之后获得连续的末端运动轨迹和相应关节的转动角度。本实施例根据末端位置对机器人进行运动学逆解,从而获得多组逆解,根据相应关节的转动角度评估上述多组逆解,选取最接近手臂姿态的一组逆解作为机器人的关节角度。
本实施例提供的示教数据获取部分包括可穿戴设备,所述可穿戴设备包括数据控制节点、数据发送模块和6个传感器节点,6个传感器节点分别平均设置在左臂和右臂,每只手臂的3个传感器节点分别设置在上臂远肩关节端、前臂远肘关节端和手臂末端,所述数据控制节点设置在人体背部。所述传感器节点用于获取手臂关节在运动过程之中的运动信息,所述数据控制节点用于汇聚各个传感器节点的运动信息,而且根据预设的姿态估计算法对所述运动信息进行融合处理,以获得传感器对应位置的欧拉角数据,所述数据发送模块用于通过无线传输方式将所述欧拉角数据传输给所述数据处理部分。本实施例提供的示教***实现了示教人员无需示教盒或拖动机械臂进行示教,仅仅需要按照正常的人工操作就可以完成对工业机器人的示教,从而提高了示教效率。本实施例提供的示教***的示教过程简单方便,对示教人员没有较高的操作技能要求,只需穿戴可穿戴设备即可。本实施例提供的示教***使得机器人运动过程之中的姿态接近于人体手臂运动的姿态,从而能够最大程度地还原人体手臂的运动过程,运动平滑稳定,运动精度可控,示教效果良好。
本实施例提供的数据控制节点为汇聚控制节点。基于惯性传感器的穿戴设备包括6个传感器节点和1个汇聚控制节点。传感器节点采集手臂关节在运动过程中的运动信息,所述传感器节点主要包含三轴加速度计、三轴陀螺仪和三轴地磁仪,分别用于采集手臂关节的三轴加速度(ax,ay,az)、三轴旋转角速度(gx,gy,gz)和三轴磁场强度(mx,my,mz)。汇聚控制节点汇聚各个传感器节点的数据,对上述数据进行处理,再通过无线传输方式将其发送给数据处理部分。
本实施例提供的6个传感器节点分布在左右两臂,左右两臂各3个。每只手臂的3个传感器节点分别分布在上臂远肩关节端、前臂远肘关节端和掌心。本实施例提供的掌心即为手臂末端。每个传感器节点由1个三轴加速度计、1个三轴陀螺仪和1个三轴地磁仪组成。三轴加速度计用来采集各个关节处的三轴加速度(ax,ay,az),三轴陀螺仪用来采集各个关节处的三轴旋转角速度(gx,gy,gz),三轴地磁仪用来采集各关节处的三轴磁场强度(mx,my,mz)。汇聚控制节点分布在人体背部,用来汇集各个关节的加速度、角速度和地磁仪数据,而且对上述数据进行融合处理。陀螺仪传感器分别测量载体沿X、Y和Z坐标系方向的角速度,再结合采样时间进行积分,计算出传感器的姿态,通过欧拉角的形式进行表示。本实施例结合加速度传感器和磁力传感器来对姿态信息进行修正和联合解算,然后基于卡尔曼滤波的姿态估计算法对传感器数据进行融合计算,再将数据打包通过无线传输给数据处理部分。
本实施例提供的数据处理部分包括数据接收模块、手臂运动信息计算模块、数据编码学***滑稳定,运动精度可控,示教效果良好。
本实施例中,数据接收模块接收发自视角数据获取模块的示教数据,再将示教数据传递给手臂关节转动角度计算模块。手臂运动信息计算模块的计算内容分为两部分:手臂末端位置和手臂关节角度。在示教过程之中,手臂末端的位姿是重要的示教数据,用来示教工业机器人的末端执行器。本实施例中,手臂末端即为掌心。末端执行器位姿的正确示教是工业机器人完成操作任务的重要前提。根据可穿戴设备所采集的示教数据的特性,手臂末端位姿计算子模块对手臂的位置和姿态分别进行计算。惯性传感器所采集的数据是惯性传感器所在位置相对于世界坐标系的欧拉角,本实施例提供的可穿戴设备所采集的数据是肘关节处、腕关节处和掌心处相对于世界坐标系的欧拉角。因此,手臂末端的位姿可以由掌心处的惯性传感器的数据得出。掌心处的位置需要结合肘关节处、腕关节处和掌心处的惯性传感器数据计算获得。
本实施例建立如下坐标系:示教人员双臂水平前举,掌心向上。以肩关节为坐标原点建立世界坐标系WCS,X轴沿手臂向前,Z轴垂直向上,Y轴由右手定则确定,世界坐标系WCS不随手臂运动。本实施例在肩关节、肘关节和腕关节处分别建立坐标系S、坐标系E和坐标系W:坐标系S以肩关节为坐标原点,沿手臂方向向前为X轴,Z轴垂直向上,采用右手法则确定Y轴,坐标系S固连在大臂上,随大臂运动,即在初始位置时坐标系S和世界坐标系WCS重合;坐标系E以肘关节为坐标原点,沿手臂方向向前为X轴,Z轴垂直向上,采用右手法则确定Y轴,坐标系E固连在小臂上,随小臂运动;坐标系W以腕关节为坐标原点,沿手掌方向向前为X轴,Z轴垂直向上,采用右手法则确定Y轴,坐标系W固连在手掌上,随手掌运动。因此,肘关节处(大臂远肩关节处)的惯性传感器所采集的数据是坐标系S相对于世界坐标系WCS的欧拉角ΨS={αS,βS,γS}T;腕关节处(小臂远肘关节处)的惯性传感器所采集的数据是坐标系E相对于世界坐标系WCS的欧拉角ΨE={αE,βE,γE}T;掌心处的惯性传感器所采集的数据是坐标系W相对于世界坐标系WCS的欧拉角ΨW={αW,βW,γW}T。人体手臂的大臂长度为r1,小臂长度为r2,手掌处的传感器到腕关节的长度作为手掌的计算长度r3。
本实施例在计算手臂末端的位置时,将手臂看作是世界坐标系WCS中的一组首尾相连的向量:其中为表示大臂的向量,为表示小臂的向量,为表示手掌的向量。因此,手臂末端的位置即为3个向量的和向量的坐标。有向量的计算可知,一组首尾相连的向量的和向量可以等价于一组共起点的向量的和向量,而且3个向量的和向量的坐标可由3个向量分别在X、Y、Z方向上的投影而获得。即
本实施例中,坐标系S相对于世界坐标系WCS的欧拉角ΨS={αS,βS,γS}T,坐标系E相对于世界坐标系WCS的欧拉角ΨE={αE,βE,γE}T,坐标系W相对于世界坐标系WCS的欧拉角ΨW={αW,βW,γW}T。由两个坐标系之间的欧拉角转换可以获得其旋转矩阵R,旋转顺序按照Z-X-Z:
本实施例将ΨS={αS,βS,γS}T、ΨE={αE,βE,γE}T以及ΨW={αW,βW,γW}T代入上述公式可以获得:
本实施例中,手臂末端姿态即为掌心姿态,由于传感器固定在手掌上,所以传感器和掌心都有相同的旋转状态,即由传感器数据计算出的欧拉角可以用来表示手掌的姿态。因此,掌心的姿态矩阵即为为了方便后续模块的处理,仍以欧拉角的形式往下传递,即ΨW={αW,βW,γW}T。
图3为本发明实施例一提供的人体手臂简化为三连杆七自由度模型的示意图。如图3所示,人体手臂的肩关节、肘关节、腕关节分别有3个、2个、2个自由度,根据人体手臂的运动特点和刚体假设理论,可以将人体手臂简化为三连杆七自由度模型。手臂关节转动角度计算模块接收数据接收模块传递的示教数据,计算出手臂的7个关节的转动角度。本实施例通过可穿戴设备获得的运动数据,分别测得大臂、小臂和手掌的欧拉角ΨS,ΨE,ΨW,ΨS={αS,βS,γS}T,ΨE={αE,βE,γE}T,ΨW={αW,βW,γW}T,其中αB,βB,γB分别为大臂欧拉角中的章动角、旋进角和自转角;αF,βF,γF分别为小臂欧拉角中的章动角、旋进角和自转角;αH,βH,γH分别为手掌欧拉角中的章动角、旋进角和自转角。为计算人体手臂的关节角,本实施例采用基于四元数的关节空间非奇异映射算法,计算步骤如下:
(1)肩关节的旋转角度为:θ1=βS,θ2=αS,θ3=γS
(2)通过计算小臂相对于大臂的欧拉角和手掌相对于小臂的欧拉角,得到手臂的其余4个关节角。本实施例将测量的欧拉角转换为人体手臂的大臂、小臂和手腕的四元数QS,QE,QW,以避免奇异性。欧拉角Ψr向四元数Qr的转换公式为:
其中,q1r,q2r,q3r,q4r为四元数Qr的4个参数;αr,βr,γr分别为欧拉角Ψr中的章动角、旋进角和自转角。
(3)假定小臂相对于大臂的四元数为QES,手掌相对于小臂的四元数为QWE,则QE=QESQS,QW=QWEQE,即相对四元数为QES=QEQS -1,QWE=QWQE -1
(4)将相对四元数QES和QWE转换为相对欧拉角ΨES={αES,βES,γES}T,ΨWE={αWE,βWE,γWE}T,其中ΨES为小臂相对于大臂的欧拉角,αES,βES,γES分别为其对应的章动角、旋进角和自转角;ΨWE为手掌相对于小臂的欧拉角,αWE,βWE,γWE分别为其对应的章动角、旋进角和自转角。四元数QS向欧拉角ΨS的转换公式为:
(5)肘关节的旋转角为θ4=αES,θ5=γES
(6)腕关节的旋转角为θ6=αWE,θ7=βWE
最后,本实施例将计算得到的7个关节角传递给信息融合模块。
本实施例中,手臂末端位置计算子模块和手臂关节角度计算子模块分别通过计算得到手臂末端位置、手臂末端姿态和手臂各关节的转动角度。上述两个数据是同一组传感器数据通过不同的计算方法得到的,它们为同一时刻的手臂运动数据。同时,人体手臂有7个自由度,然而用于运动复现的工业机器人只有6个自由度,在评估最优解时只需要6个自由度,因此需要舍弃人体手臂的1个自由度。考虑到对人体手臂姿态的影响程度,舍弃手腕处的最后一个自由度,即θ7。舍弃θ7并不会影响工业机器人的姿态精度,因为θ7只在最优解评估阶段才会用到。同时,为了方便后续模块的处理,本实施例将这两组数据融合为一组数据,用向量D来表示:
D={x,y,z,αW,βW,γW,θ1,θ2,θ3,θ4,θ5,θ6}
其中x,y,z和αW,βW,γW分别表示手臂末端在世界坐标系WCS中的位置和姿态,θ1,θ2,θ3,θ4,θ5,θ6为手臂相应的关节角度。整个示教过程之中的所有运动信息以数据集的形式传递给后续模块,记为数据集{D}。
本实施例中,示教数据是在一定的时间间隔下获取的,获取的数据是离散的。在之后的运动复现过程中,机器人运动学逆解模块所采用的位姿并不一定是示教过程中所采集的点。因此,需要利用离散的手臂运动信息生成连续的手臂运动信息。本实施例将上面所得的运动信息,即不同时刻的向量D分别利用GMM高斯混合模型进行编码,实现表征学习,再通过GMR高斯混合回归模型进行数据重构和泛化输出,以得到连续的手臂末端位置和各个关节的转动角度。给出任意时刻,本实施例均可得到相应的手臂运动数据,用D'表示。
假设第i个数据为di={Di,Ti},i={1,2,3,···,N},其中N是一次手臂运动过程之中示教数据获取模块所采集的数据次数,Di为第i次获取的手臂运动信息,Ti为时间值。假使每个数据点di服从如下概率分布:
其中,p(k)是先验概率,p(di|k)是条件概率分布,服从高斯分布。因此,整个示教数据集合可以用高斯混合模型来表示,K即组成高斯混合模型的高斯分布个数。先验概率和条件概率分布的公式如下:
p(k)=πk (10)
其中,D是编码示教数据的GMM的维度。因此,高斯混合模型需要确定的参数是{πk,μk,∑k},分别表示第k个成分的先验概率、期望和方差。采用最大期望算法,即EM算法估计GMM的参数,通过在概率模型中寻找参数的最大似然估计进行参数学习。示教数据的时间值Ti用作查询点,对应的运动信息的Di’利用GMR进行估计。已知p(di|k)满足高斯分布,即{Dk,Tk}~N(μk,∑k),其中,
μk={μD,k,μT,k} (12)
在给定Tk的条件下,Dk的条件概率也满足高斯分布,即Dk|Tk~N(μ’D,k,∑’D,k)。其中
μ’D,k=μD,k+∑DT,k(∑T,k)-1(Tk-μT,k) (14)
∑’D,k=∑D,k-∑DT,k(∑T,k)-1∑TD,k (15)
由上述公式可知,K个高斯成分的高斯混合模型的均值μ’D和方差∑’D,其中
由Dk|Tk~N(μ’D,k,∑’D,k)分布估计条件期望E(D|T),即μ’D为T对应的重构空间值,因此泛化的数据点为d’={D’,T},该点不包含在前述模块提供的手臂运动信息之中,但是封装了手臂运动的所有本质特征,在协方差约束∑’D下能够生成连续的手臂运动信息。
根据运动复现技术对工业机器人运动的要求,按照相应的时间间隔,使用Ti为查询点查询手臂运动信息D’。本实施例提供的后续模块对手臂运动信息向量D’之中的手臂末端位姿和手臂关节转角具有不同的用途。手臂末端位置的准确计算与传递是保证示教***准确性的重要一环,而手臂转动角度是最优解评估的重要评估依据,是保证工业机械臂姿态与人体手臂姿态近似的基础。因此,数据表征学***滑稳定,运动精度可控,示教效果良好。
本实施例提供的机器人运动学逆解模块得到数据表征学习与泛化输出模块传输的手臂末端位姿数据x’、y’、z’、α’W、β’W、γ’W后,将欧拉角α’W,β’W,γ’W按前述方法转换成旋转矩阵再结合手臂末端位置x,y,z构成机器人学习之中的位姿矩阵其中P’=[x’,y’,z’]’。运用机器人运动学逆解,求得相应的机器人各个关节的转动角度,结果用向量Ni表示,Ni={θR1,θR2,θR3,θR4,θR5,θR6},其中i为逆解的个数。
对于同一末端位置,机器人运动学逆解模块将会得到多组解。在多组解之中选择最优解,常用的做法是从大关节开始,选取与该关节角上一时刻的值距离最近的可能解为唯一解。这种方法保证了工业机器人的运动量最小,运动更平稳,但是并不能保证工业机器人运动过程之中的姿态与示教手臂的姿态的相似性。
本实施例中,Ni={θR1,θR2,θR3,θR4,θR5,θR6,}(i=1,2,3···)为同一末端位置下的i组逆解,DP={θ’1,θ’2,θ’3,θ’4,θ’5,θ’6}为同一时刻的手臂关节角度,评估因子为:
其中λi(i=1,2,···,6)为各个关节对机械臂位姿的影响因子。在人体手臂的运动之中,手臂的摆动对手臂位置的影响远远大于手臂的扭动,手臂的扭动仅仅对手臂的姿态有较大影响。同样地,在工业机器人运动过程中,不同关节的转动对机械臂的位置影响效果大不一样。一些关节的转动效果等同于人体手臂的摆动。针对具体的机械臂,根据具体的结构特征,分析不同关节对机械臂位姿的影响,类比于人体手臂,赋予机械臂不同关节相应的影响因子,关节对机械臂的位姿影响越大,影响因子越大。
各组解的评估因子的数值越大,说明该组解所对应的机械臂位姿与人体手臂的位姿相差越大。相反,评估因子的数值越小,说明该组解所对应的机械臂位姿与人体手臂的位姿越相近。因此,最优解评估模块在多组逆解中选用评估因子最小的一组解,使得机器人运动过程之中的姿态接近于人体手臂运动的姿态,从而能够最大程度地还原人体手臂的运动过程,运动平滑稳定,运动精度可控,示教效果良好。
本实施例提供的工业机器人包括工业机器人本体和底层控制模块,所述工业机器人本体和所述底层控制模块连接,所述底层控制模块用于根据机器人的关节转动角度对所述工业机器人本体进行控制,以使得所述工业机器人再现示教者的手臂运动。本实施例提供的工业机器人本体及其底层控制模块作为示教***的运动再现的执行部分,底层控制模块接收最优解评估模块选取的一组解,将这组解作为各个关节的转动角度对机器人本体进行控制,使得机器人本体再现示教者的手臂运动过程,示教过程简单方便,对示教人员没有较高的操作技能要求,只需穿戴可穿戴设备即可。
本实施例提供的基于可穿戴设备的桌面工业机器人示教***包括示教数据获取部分、数据处理部分和工业机器人。所述示教***通过获取示教过程之中人体手臂上各个传感器位置处的欧拉角,计算获得手臂末端的位置和各个关节的转动角度,对上述离散的运动数据进行编码表示和泛化输出之后获得连续的末端运动轨迹和相应关节的转动角度。本实施例根据末端位置对机器人进行运动学逆解,从而获得多组逆解,根据相应关节的转动角度评估上述多组逆解,选取最接近手臂姿态的一组逆解作为机器人的关节角度。本实施例提供的示教***实现了示教人员无需示教盒或拖动机械臂进行示教,仅仅需要按照正常的人工操作就可以完成对工业机器人的示教,从而提高了示教效率。本实施例提供的示教***的示教过程简单方便,对示教人员没有较高的操作技能要求,只需穿戴可穿戴设备即可。本实施例提供的示教***使得机器人运动过程之中的姿态接近于人体手臂运动的姿态,从而能够最大程度地还原人体手臂的运动过程,运动平滑稳定,运动精度可控,示教效果良好。
实施例二
本实施例提供一种基于可穿戴设备的桌面工业机器人示教方法,所述示教方法采用基于可穿戴设备的桌面工业机器人示教***,所述示教***包括示教数据获取部分、数据处理部分和工业机器人,所述数据处理部分分别与所述示教数据获取部分和所述工业机器人连接,所述示教数据获取部分包括可穿戴设备,所述可穿戴设备包括数据控制节点、数据发送模块和6个传感器节点,6个传感器节点分别平均设置在左臂和右臂,每只手臂的3个传感器节点分别设置在上臂远肩关节端、前臂远肘关节端和手臂末端,所述数据控制节点设置在人体背部,所述数据处理部分包括数据接收模块、手臂运动信息计算模块、数据编码学习与泛化输出模块、机器人运动学逆解模块和最优解评估模块,所述手臂运动信息计算模块分别与所述数据接收模块和所述数据编码学习与泛化输出模块连接,所述数据编码学习与泛化输出模块分别与所述机器人运动学逆解模块和所述最优解评估模块连接,所述最优解评估模块与所述机器人运动学逆解模块连接,所述工业机器人包括工业机器人本体和底层控制模块,所述工业机器人本体和所述底层控制模块连接。本实施例提供的示教***实现了示教人员无需示教盒或拖动机械臂进行示教,仅仅需要按照正常的人工操作就可以完成对工业机器人的示教,从而提高了示教效率。本实施例提供的示教***的示教过程简单方便,对示教人员没有较高的操作技能要求,只需穿戴可穿戴设备即可。
图4为本发明实施例二提供的基于可穿戴设备的桌面工业机器人示教方法的流程示意图。如图4所示,所述示教方法包括:所述传感器节点获取手臂关节在运动过程之中的运动信息;所述数据控制节点汇聚各个传感器节点的运动信息,而且根据预设的姿态估计算法对所述运动信息进行融合处理,以获得传感器对应位置的欧拉角数据;所述数据发送模块通过无线传输方式将所述欧拉角数据传输给所述数据处理部分;所述数据接收模块接收所述欧拉角数据,而且将所述欧拉角数据传输给所述手臂运动信息计算模块;所述手臂运动信息计算模块根据所述欧拉角计算出手臂末端位置、手臂末端姿态和手臂关节转动角度;所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度;所述机器人运动学逆解模块对连续的手臂末端位置和手臂末端姿态进行机器人运动学逆解,以获得对应的多组逆解;所述最优解评估模块根据最小的评估因子从所述多组逆解之中选择一组逆解作为机器人的关节转动角度,所述评估因子根据所述多组逆解和连续的手臂关节转动角度形成;所述底层控制模块根据机器人的关节转动角度对所述工业机器人本体进行控制,以使得所述工业机器人再现示教者的手臂运动。关于示教方法的具体实施过程,请参见实施例一针对示教***的示教过程的具体描述,此处不再赘述。
本实施例提供的基于可穿戴设备的桌面工业机器人示教方法之中,所述示教***包括示教数据获取部分、数据处理部分和工业机器人。所述示教***通过获取示教过程之中人体手臂上各个传感器位置处的欧拉角,计算获得手臂末端的位置和各个关节的转动角度,对上述离散的运动数据进行编码表示和泛化输出之后获得连续的末端运动轨迹和相应关节的转动角度。本实施例根据末端位置对机器人进行运动学逆解,从而获得多组逆解,根据相应关节的转动角度评估上述多组逆解,选取最接近手臂姿态的一组逆解作为机器人的关节角度。本实施例提供的示教***实现了示教人员无需示教盒或拖动机械臂进行示教,仅仅需要按照正常的人工操作就可以完成对工业机器人的示教,从而提高了示教效率。本实施例提供的示教***的示教过程简单方便,对示教人员没有较高的操作技能要求,只需穿戴可穿戴设备即可。本实施例提供的示教***使得机器人运动过程之中的姿态接近于人体手臂运动的姿态,从而能够最大程度地还原人体手臂的运动过程,运动平滑稳定,运动精度可控,示教效果良好。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (6)
1.一种基于可穿戴设备的桌面工业机器人示教***,其特征在于,包括示教数据获取部分、数据处理部分和工业机器人,所述数据处理部分分别与所述示教数据获取部分和所述工业机器人连接;
所述示教数据获取部分包括可穿戴设备,所述可穿戴设备包括数据控制节点、数据发送模块和6个传感器节点,6个传感器节点分别平均设置在左臂和右臂,每只手臂的3个传感器节点分别设置在上臂远肩关节端、前臂远肘关节端和手臂末端,所述数据控制节点设置在人体背部;
所述传感器节点用于获取手臂关节在运动过程之中的运动信息;
所述数据控制节点用于汇聚各个传感器节点的运动信息,而且根据预设的姿态估计算法对所述运动信息进行融合处理,以获得传感器对应位置的欧拉角数据;
所述数据发送模块用于通过无线传输方式将所述欧拉角数据传输给所述数据处理部分;
所述数据处理部分包括数据接收模块、手臂运动信息计算模块、数据编码学习与泛化输出模块、机器人运动学逆解模块和最优解评估模块,所述手臂运动信息计算模块分别与所述数据接收模块和所述数据编码学习与泛化输出模块连接,所述数据编码学习与泛化输出模块分别与所述机器人运动学逆解模块和所述最优解评估模块连接,所述最优解评估模块与所述机器人运动学逆解模块连接;
所述数据接收模块用于接收所述欧拉角数据,而且将所述欧拉角数据传输给所述手臂运动信息计算模块;
所述手臂运动信息计算模块用于根据所述欧拉角计算出手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述数据编码学习与泛化输出模块用于对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述机器人运动学逆解模块用于对连续的手臂末端位置和手臂末端姿态进行机器人运动学逆解,以获得对应的多组逆解;
所述最优解评估模块用于根据最小的评估因子从所述多组逆解之中选择一组逆解作为机器人的关节转动角度,所述评估因子根据所述多组逆解和连续的手臂关节转动角度形成;
所述工业机器人包括工业机器人本体和底层控制模块,所述工业机器人本体和所述底层控制模块连接;
所述底层控制模块用于根据机器人的关节转动角度对所述工业机器人本体进行控制,以使得所述工业机器人再现示教者的手臂运动;
所述的基于可穿戴设备的桌面工业机器人示教***还包括信息融合模块,所述信息融合模块分别与所述手臂运动信息计算模块和所述数据编码学习与泛化输出模块连接;
所述信息融合模块用于将所述手臂末端位置、所述手臂末端姿态和所述手臂关节转动角度进行融合处理,以形成预设的向量数据集;
所述数据编码学习与泛化输出模块用于对离散的向量数据集进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度。
2.根据权利要求1所述的基于可穿戴设备的桌面工业机器人示教***,其特征在于,所述向量数据集为向量D,D={x,y,z,αW,βW,γW,θ1,θ2,θ3,θ4,θ5,θ6},其中x、y和z为手臂末端在世界坐标系中的位置,αW、βW和γW为手臂末端在世界坐标系中的姿态,θ1、θ2、θ3、θ4、θ5和θ6为手臂关节相应的转动角度。
4.根据权利要求1所述的基于可穿戴设备的桌面工业机器人示教***,其特征在于,所述欧拉角数据包括所述远肩关节端的欧拉角ΨB,所述前臂远肘关节端的欧拉角ΨF,所述手臂末端的欧拉角ΨH,ΨB={αB,βB,γB}T,ΨF={αF,βF,γF}T,ΨH={αH,βH,γH}T,其中αB、βB和γB分别为欧拉角ΨB中的章动角、旋进角和自转角,αF、βF和γF分别为欧拉角ΨF中的章动角、旋进角和自转角,αH、βH和γH分别为欧拉角ΨH中的章动角、旋进角和自转角。
5.一种基于可穿戴设备的桌面工业机器人示教方法,其特征在于,所述示教方法采用基于可穿戴设备的桌面工业机器人示教***,所述示教***包括示教数据获取部分、数据处理部分和工业机器人,所述数据处理部分分别与所述示教数据获取部分和所述工业机器人连接;
所述示教数据获取部分包括可穿戴设备,所述可穿戴设备包括数据控制节点、数据发送模块和6个传感器节点,6个传感器节点分别平均设置在左臂和右臂,每只手臂的3个传感器节点分别设置在上臂远肩关节端、前臂远肘关节端和手臂末端,所述数据控制节点设置在人体背部;
所述数据处理部分包括数据接收模块、手臂运动信息计算模块、数据编码学习与泛化输出模块、机器人运动学逆解模块和最优解评估模块,所述手臂运动信息计算模块分别与所述数据接收模块和所述数据编码学习与泛化输出模块连接,所述数据编码学习与泛化输出模块分别与所述机器人运动学逆解模块和所述最优解评估模块连接,所述最优解评估模块与所述机器人运动学逆解模块连接;
所述工业机器人包括工业机器人本体和底层控制模块,所述工业机器人本体和所述底层控制模块连接;
所述示教方法包括:
所述传感器节点获取手臂关节在运动过程之中的运动信息;
所述数据控制节点汇聚各个传感器节点的运动信息,而且根据预设的姿态估计算法对所述运动信息进行融合处理,以获得传感器对应位置的欧拉角数据;
所述数据发送模块通过无线传输方式将所述欧拉角数据传输给所述数据处理部分;
所述数据接收模块接收所述欧拉角数据,而且将所述欧拉角数据传输给所述手臂运动信息计算模块;
所述手臂运动信息计算模块根据所述欧拉角计算出手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度;
所述机器人运动学逆解模块对连续的手臂末端位置和手臂末端姿态进行机器人运动学逆解,以获得对应的多组逆解;
所述最优解评估模块根据最小的评估因子从所述多组逆解之中选择一组逆解作为机器人的关节转动角度,所述评估因子根据所述多组逆解和连续的手臂关节转动角度形成;
所述底层控制模块根据机器人的关节转动角度对所述工业机器人本体进行控制,以使得所述工业机器人再现示教者的手臂运动;
所述示教***还包括信息融合模块,所述信息融合模块分别与所述手臂运动信息计算模块和所述数据编码学习与泛化输出模块连接;
所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出的步骤之前包括:
所述信息融合模块将所述手臂末端位置、所述手臂末端姿态和所述手臂关节转动角度进行融合处理,以形成预设的向量数据集;
所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出的步骤包括:
所述数据编码学习与泛化输出模块对离散的向量数据集进行编码表示和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度。
6.根据权利要求5所述的基于可穿戴设备的桌面工业机器人示教方法,其特征在于,所述数据编码学习与泛化输出模块对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示和泛化输出的步骤包括:
所述数据编码学习与泛化输出模块利用高斯混合模型对离散的手臂末端位置、手臂末端姿态和手臂关节转动角度进行编码表示,以实现离散的手臂末端位置、手臂末端姿态和手臂关节转动角度的表征学习;
所述数据编码学习与泛化输出模块利用高斯混合回归模型对编码之后的手臂末端位置、手臂末端姿态和手臂关节转动角度进行数据重构和泛化输出,以获得连续的手臂末端位置、手臂末端姿态和手臂关节转动角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710707674.9A CN107363813B (zh) | 2017-08-17 | 2017-08-17 | 一种基于可穿戴设备的桌面工业机器人示教***和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710707674.9A CN107363813B (zh) | 2017-08-17 | 2017-08-17 | 一种基于可穿戴设备的桌面工业机器人示教***和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107363813A CN107363813A (zh) | 2017-11-21 |
CN107363813B true CN107363813B (zh) | 2020-08-04 |
Family
ID=60309162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710707674.9A Active CN107363813B (zh) | 2017-08-17 | 2017-08-17 | 一种基于可穿戴设备的桌面工业机器人示教***和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107363813B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214495A (zh) * | 2018-03-21 | 2018-06-29 | 北京无远弗届科技有限公司 | 一种工业机器人示教***和方法 |
CN108500966A (zh) * | 2018-03-30 | 2018-09-07 | 阜阳师范学院 | 一种新型无线机械臂及控制方法 |
CN108427282A (zh) * | 2018-03-30 | 2018-08-21 | 华中科技大学 | 一种基于示教学习的机器人逆运动学求解方法 |
CN110919639A (zh) * | 2018-09-19 | 2020-03-27 | 华东至正工业自动化(常熟)有限公司 | 一种关节式示教臂及基于该示教臂的示教方法 |
CN109799771B (zh) * | 2018-12-29 | 2021-01-05 | 深圳市越疆科技有限公司 | 一种工业机器人的控制***、方法及装置 |
CN109732610A (zh) * | 2019-03-01 | 2019-05-10 | 北京航空航天大学 | 人机协作机器人抓取***及其工作方法 |
CN112659115B (zh) * | 2019-10-15 | 2022-12-09 | 深圳市大族机器人有限公司 | 工业机器人控制方法、装置、设备及存储介质 |
CN110919638B (zh) * | 2019-11-15 | 2021-11-02 | 华中科技大学 | 一种3+4构型双臂协作机器人加工***及方法 |
CN110815188A (zh) * | 2019-11-19 | 2020-02-21 | 福州大学 | 基于肢体运动进行工业机器人示教的***及方法 |
CN111390941B (zh) * | 2020-05-08 | 2021-08-10 | 中国船舶科学研究中心 | 一种水下机械臂操控用命令输入装置及操控方法 |
CN111730601B (zh) * | 2020-07-20 | 2021-01-01 | 季华实验室 | 一种穿戴式示教器示教控制方法、装置及电子设备 |
CN112549025B (zh) * | 2020-11-27 | 2022-06-21 | 北京工业大学 | 一种基于融合人体运动学约束的协调图双臂协作控制方法 |
CN112706150B (zh) * | 2020-12-17 | 2022-06-07 | 武汉大学 | 一种可穿戴的外肢体辅助抓取装置及控制方法 |
CN112959330B (zh) * | 2021-02-02 | 2022-05-17 | 浙江大学 | 基于主从动态运动基元的机器人双臂运动人机对应装置及方法 |
CN113386128B (zh) * | 2021-05-11 | 2022-06-10 | 华南理工大学 | 一种面向多自由度机器人的体势交互方法 |
CN113180738A (zh) * | 2021-05-25 | 2021-07-30 | 山东大学 | 一种用于远程心脏超声的虚拟探头及诊疗*** |
CN113618710B (zh) * | 2021-07-21 | 2023-03-24 | 慧灵科技(深圳)有限公司 | 一种拖动示教方法、装置及拖动示教机器人 |
CN113618717B (zh) * | 2021-09-07 | 2023-01-24 | 浙江理工大学 | 人体上肢技能动作感测学习装置及方法 |
CN114631687B (zh) * | 2022-03-07 | 2023-05-12 | 深圳市瑞必达科技有限公司 | 升降桌不计算欧拉角做敲击保护和倾斜保护的控制方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090132088A1 (en) * | 2007-04-24 | 2009-05-21 | Tairob Ltd. | Transfer of knowledge from a human skilled worker to an expert machine - the learning process |
CN102735260B (zh) * | 2012-06-18 | 2015-02-11 | 航天东方红卫星有限公司 | 一种星敏感器在轨测量误差的确定方法 |
CN103895022A (zh) * | 2014-03-17 | 2014-07-02 | 东南大学 | 穿戴式体感控制机械手 |
CN104267815B (zh) * | 2014-09-25 | 2018-03-27 | 黑龙江节点动画有限公司 | 基于惯性传感技术的动作捕捉***及方法 |
CN106064378A (zh) * | 2016-06-07 | 2016-11-02 | 南方科技大学 | 一种无人机机械臂的控制方法和装置 |
-
2017
- 2017-08-17 CN CN201710707674.9A patent/CN107363813B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107363813A (zh) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107363813B (zh) | 一种基于可穿戴设备的桌面工业机器人示教***和方法 | |
CN108549322B (zh) | 一种针对机器人圆弧轨迹运动的位姿同步方法和装置 | |
US11337652B2 (en) | System and method for measuring the movements of articulated rigid bodies | |
CN106625666B (zh) | 冗余机械臂的控制方法及装置 | |
CN107943283B (zh) | 基于手势识别的机械臂位姿控制*** | |
Fang et al. | A robotic hand-arm teleoperation system using human arm/hand with a novel data glove | |
US8467904B2 (en) | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems | |
JP2022542241A (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
CN107253192A (zh) | 一种基于Kinect的无标定人机交互控制***及方法 | |
CN110986939A (zh) | 一种基于imu预积分的视觉惯性里程计方法 | |
US20120072022A1 (en) | Robot and control method thereof | |
CN109079794B (zh) | 一种基于人体姿态跟随的机器人控制与示教方法 | |
JP2018024082A (ja) | 多軸運動制御デバイス、ロボットアームシステム、ロボットアームシステムの動きを制御する方法及び多軸運動駆動デバイスの動きを制御するための方法 | |
CN112207835B (zh) | 一种基于示教学习实现双臂协同作业任务的方法 | |
CN108098780A (zh) | 一种新型的机器人仿人运动*** | |
CN107696033B (zh) | 一种基于视觉测量的空间机械臂轨迹滚动规划方法 | |
CN115464659A (zh) | 一种基于视觉信息的深度强化学习ddpg算法的机械臂抓取控制方法 | |
Zhang et al. | A real-time upper-body robot imitation system | |
CN110609621A (zh) | 姿态标定方法及基于微传感器的人体运动捕获*** | |
CN115469576A (zh) | 一种基于人-机械臂异构运动空间混合映射的遥操作*** | |
Guilamo et al. | Manipulability optimization for trajectory generation | |
Biess et al. | Simulating discrete and rhythmic multi-joint human arm movements by optimization of nonlinear performance indices | |
Hunt et al. | Predictive trajectory estimation during rehabilitative tasks in augmented reality using inertial sensors | |
Lin et al. | The arm planning with dynamic movement primitive for humanoid service robot | |
CN114417738A (zh) | 稀疏imu实时人体动作捕捉及关节受力预测方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |