CN103112007A - 基于混合传感器的人机交互方法 - Google Patents

基于混合传感器的人机交互方法 Download PDF

Info

Publication number
CN103112007A
CN103112007A CN201310047285XA CN201310047285A CN103112007A CN 103112007 A CN103112007 A CN 103112007A CN 201310047285X A CN201310047285X A CN 201310047285XA CN 201310047285 A CN201310047285 A CN 201310047285A CN 103112007 A CN103112007 A CN 103112007A
Authority
CN
China
Prior art keywords
operator
sin
cos
centerdot
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310047285XA
Other languages
English (en)
Other versions
CN103112007B (zh
Inventor
张平
杜广龙
卢晓敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201310047285.XA priority Critical patent/CN103112007B/zh
Publication of CN103112007A publication Critical patent/CN103112007A/zh
Application granted granted Critical
Publication of CN103112007B publication Critical patent/CN103112007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

本发明提供了基于混合传感器的人机交互方法,包括步骤:(1)实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;(2)使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;(3)根据上述步骤获取的操作员手部位姿驱动机器人。本发明允许操作者通过三维的手部动作来控制机器人。本发明允许操作员使用手部和手臂的动作控制机器人而没有物理装置的限制,只需要把精力集中在手头的任务也不用把任务都分解为那些有限的指令。

Description

基于混合传感器的人机交互方法
技术领域
本发明属于机器人运动领域,特别涉及一种基于混合传感器的人机交互方法。
背景技术
当人类不适合出现在机器人现场,在非结构化动态环境中利用操作员操纵远程机器人是十分必要的。为达成目标操作任务,遥操作使用的机械和其他接触接口需要不自然的人类动作,它们往往会妨碍人体动作。现有的基于视觉的人机交换方式要么只用到人手的少数自由度,要么需要操作者做大幅度运动,操作起来非常费力。这篇发明提出了一种不接触的基于多传感器的机器人遥操作方法,它允许操作者通过自然的人手三维动作控制六自由度虚拟机器人来完成操作任务。基于多传感器的人机接口帮助操作者使用人手动作控制机器人和了解机器人动作和周围环境。
通常使用的遥操作机械式人机接口包括了多种操作员佩戴的装置,比如骨骼式机械装置,工具手套,电磁或惯性动作跟踪传感器,或者肌电灵敏度传感器。然而,这些佩戴的装置,传感器还有它们的连线可能妨碍操作员灵活的动作。其他接触式的接口比如仿机器人机械手,转盘,摇杆,电脑鼠标和计算机图形界面等都需要操作员不自然的动作或者需要操作者学习如何操作。基于视觉的交互技术使用了手势识别和语音识别结合的控制方式,它允许操作者更自然直观的给出命令而没有物理装置上的限制。然而在这种控制下,被控的机器人的动作都是由一些简单的命令组成,比如确定末端执行器的位置和方位,抓取还有一系列更小的任务如上移下移,旋转,暂停,继续还有改变操作的模式。当要求的机器人操作器动作的复杂度比较高的时候,这个技术都会难以操作。单摄像头的手部动作跟踪已经被应用在机器人遥操作和遥操作的模拟上。然而,动作命令只局限在真正的末端执行器自由度的子集里。此外,那些与特定的操作任务无关的手势被用来改变机器人的操作模式,所以这些都造成了操作任务的交流不自然。理想地,一种自然的不用将复杂的任务分解为有限指令和没有接触式物理装置限制的方法被人们所需要。
发明内容
这个发明提出了一种基于混合传感器的人机交互方法,允许操作者通过三维的手部动作来控制机器人。这个方法使用了非接触式的基于基于混合传感器的人机接口,它可以通过操作者动作控制机器人还有反馈机器人动作和机器人与周围环境物体的交互的情况,具体技术方案如下。
基于混合传感器的人机交互方法,其包括如下步骤:
S1、实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;
S2、使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;
S3、根据上述步骤获取的操作员手部位姿驱动机器人。
进一步的,所述步骤S1包括以下步骤:
操作员通过手部运动进行机器人操作任务时,由固定在操作员前面的Kinect捕获RGB图像和深度图像,连续处理该过程中的RGB图像和深度图像实现人手跟踪和定位;Kinect有三种自动对焦摄像头:两个优化深度检测的红外摄像头和一个标准的用于视觉识别的视觉光谱摄像头;
从深度图像中提取人体骨架关节点;所提取出来的这十五个关节点如图1所示,从上到下和从左到右排序为:(1)头;(2)肩中心;(3)右肩;(4)右手肘;(5)右手腕;(6)左肩;(7)左手肘;(8)左手腕;(9)髋关节中心;(10)右髋;(11)右膝;(12)右脚;(13)左髋;(14)左膝;(15)左脚;这十五个关节点的坐标被称为Kinect坐标;如图2所示,操作员右手的位置可定义为右手腕P5的位置,但这样直接利用P5的位置信息来控制机器人可能导致机器人的位置受操作员身体移动或颤抖的影响;为了解决这个问题,将肩关节P3作为参考点并构建参考点
Figure BDA00002824072600021
的右手框架;
相对于参考点
Figure BDA00002824072600022
的P5位置P′5为:
P′5=P5-P3                        (1)
定义右手相对于右肩的移动范围为 W RH 1 < x < W RH 2 , H RH 1 < y < H RH 2 , L RH 1 < z < L RH 2 , 而机器人的移动范围为 W RR 1 < x < W RR 2 , H RR 1 < y < H RR 2 , L RR 1 < z < L RR 2 , 机器人移动范围的映射点为:
R x R = ( P 8 _ x &prime; - W RH 1 ) ( W RH 2 - W RH 1 ) &CenterDot; ( W RR 2 - W RR 1 ) + W RR 1 R y R = ( P 8 _ y &prime; - H RH 1 ) ( H RH 2 - H RH 1 ) &CenterDot; H RR 2 - H RR 1 + H RR 1 R z R = ( P 8 _ z &prime; - L RH 1 ) ( L RH 2 - L RH 1 ) &CenterDot; ( L RR 2 - L RR 1 ) + L RR 1 - - - ( 2 )
所述步骤S2包括以下步骤:
操作员通过手部运动进行机器人操作任务时,右手拿着一个惯性测量仪,这个惯性测量仪可以确定操作员右手的滚动、俯仰和偏转姿态;惯性测量仪由一个三轴加速计,两个两轴陀螺仪和一个三轴磁力计组成;
定义三个坐标系:操作员本体坐标系xbybzb,惯性测量仪坐标系xsyszs和地球坐标系xeyeze;惯性测量仪坐标系xsyszs对应三个正交安装的加速计和磁力计的轴;由于惯性测量仪被刚性地安装在机器人末端上,假定操作员本体坐标系xbybzb与惯性测量仪坐标系xsyszs结合;地球固定坐标系xeyeze遵循北-东-下(NED)公约,其中xe指向北,ye指向东而ze指向下;惯性测量仪能测量其自身的滚动、俯仰和偏转姿态;定义绕xe的旋转φ表示滚动,绕ye轴的旋转θ表示俯仰而绕ze轴的旋转ψ表示偏转;根据欧拉旋转定理,从欧拉角φ、θ和ψ到四元数q的转换为:
q = q 0 q 1 q 2 q 3 = cos ( &phi; / 2 ) cos ( &theta; / 2 ) cos ( &psi; / 2 ) + sin ( &phi; / 2 ) sin ( &theta; / 2 ) sin ( &psi; / 2 ) sin ( &phi; / 2 ) cos ( &theta; / 2 ) cos ( &psi; / 2 ) - cos ( &phi; / 2 ) sin ( &theta; / 2 ) sin ( &psi; / 2 ) cos ( &phi; / 2 ) sin ( &theta; / 2 ) cos ( &psi; / 2 ) + sin ( &phi; / 2 ) cso ( &theta; / 2 ) sin ( &psi; / 2 ) cos ( &phi; / 2 ) cos ( &theta; / 2 ) sin ( &psi; / 2 ) - sin ( &phi; / 2 ) sin ( &theta; / 2 ) cos ( &psi; / 2 ) - - - ( 3 )
而四个欧拉参数的约束为:
q 0 2 + q 1 2 + q 2 2 + q 3 2 = 1 - - - ( 4 )
这里q0是标量部分而(q1,q2,q3)是矢量部分;所以从惯性测量仪坐标系到地球固定坐标系的姿态余弦矩阵可以被表示为:
M s e = q 0 2 + q 1 2 - q 2 2 - q 3 2 2 ( q 1 q 2 - q 0 q 3 ) 2 ( q 0 q 2 + q 1 q 3 ) 2 ( q 1 q 2 + q 0 q 3 ) q 0 2 - q 1 2 + q 2 2 - q 3 2 2 ( q 2 q 3 - q 0 q 1 ) 2 ( q 1 q 3 - q 0 q 2 ) 2 ( q 0 q 1 + q 2 q 3 ) q 0 2 - q 1 2 - q 2 2 - q 3 2 - - - ( 5 ) ;
由于陀螺仪和磁力计都有白噪声和随机游走,为了得到稳定的数据,利用卡尔曼滤波从一组嘈杂和不完整的测量中估计惯性测量仪的状态;从时刻k-1的惯性测量仪状态xk-1估计时刻k的惯性测量仪状态xk的转换方程为:
xk=Ak·xk-1+B·uk-1+wk-1                (6)
zk=H·xk+vk
这里xk是n×1的状态向量,代表时刻k的惯性测量仪状态;A是n×n的状态转换矩阵;B是n×p的***输入矩阵;uk-1是p×1的k-1时刻确定性输入向量,p为确定性输入的个数;wk-1是k-1时刻的n×1过程噪声向量;zk是k时刻的m×1测量向量;H是m×n的观察矩阵而vk是m×1的测量噪声向量;此处n=7,m=6;与时间相关的四元数微分方程为:
&PartialD; q 0 / &PartialD; t &PartialD; q 1 / &PartialD; t &PartialD; q 2 / &PartialD; t &PartialD; q 3 / &PartialD; t = q 0 - q 1 - q 2 - q 3 q 1 q 0 - q 3 q 2 q 2 q 3 q 0 - q 1 q 3 - q 2 q 1 q 0 &CenterDot; 0 v x / 2 v y / 2 v z / 2 - - - ( 7 )
其中vx,vy,vz是惯性测量仪在轴xs,ys,zs的角速度;由于状态xk包括四元数状态和角速度,所以xk有以下形式:
xk=[q0,kq1,kq2,kq3,kvx,kvy,kvz,k]                  (8)
这里q0k,q1k,q2k,q3k,vxk,vyk,vz,k是k时刻的四元数状态和角速度,从方程(7)可得,状态转换方程为:
A k = 1 0 0 0 - q 1 , k &CenterDot; &Delta;t / 2 - q 2 , k &CenterDot; &Delta;t / 2 - q 3 , k &CenterDot; &Delta;t / 2 0 1 0 0 q 0 , k &CenterDot; &Delta;t / 2 q 3 , k &CenterDot; &Delta;t / 2 q 2 , k &CenterDot; &Delta;t / 2 0 0 1 0 q 3 , k &CenterDot; &Delta;t / 2 q 0 , k &CenterDot; &Delta;t / 2 - q 1 , k &CenterDot; &Delta;t / 2 0 0 0 1 - q 2 , k &CenterDot; &Delta;t / 2 q 1 , k &CenterDot; &Delta;t / 2 q 0 , k &CenterDot; &Delta;t / 2 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 - - - ( 9 )
这里Δt是取样时间,由于没有控制输入,让B=0n×p,则B·uk-1=0n×1;使用角速度来估计四元数状态,得到过程噪声向量为
wk=[0000 wx wy wz]T                          (10)
这里wx,wy,wz是角速度的过程噪声;由于使用陀螺仪来测量角速度,观察矩阵H为
H=[03×4I3×3]                        (11)
为了满足(4),定义
Figure BDA00002824072600051
k时刻的确定性四元数qk可被标准化为:
qk=[q0,k/D q1,k/D q2,k/D q3,k/D]                      (12)
结合公式(6)到公式(12),可从时刻k-1的惯性测量仪状态xk-1估计出时刻k的惯性测量仪状态xk
所述步骤S3包括以下步骤:
利用机器人的末端位姿进行反解,然后每个关节按反解的角度运动,当全部关节运动完毕虚拟机器人的手抓末端就到达指定的位置。这种情况适合于周围没有障碍物的情况,虚拟机器人手臂运动不会与周围环境障碍物发生碰撞。
而在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换矩阵,一般地有:
A i = cos &theta; i - sin i cos &alpha; i sin &theta; i sin &alpha; i l i cos &theta; i sin &theta; i cos &theta; i cos &alpha; i - cos &theta; i sin &alpha; i l i sin &theta; i 0 sin &alpha; i cos &alpha; i r i 0 0 0 1 - - - ( 13 )
对于一个具有六关节的机器人,定义机座坐标系为坐标系1,最后一个坐标系为坐标系6,从机座坐标架到最后一个坐标架的齐次变换矩阵T6定义为:
T 6 = A 1 A 2 . . . A 6 = n 6 0 s 6 0 a 6 0 p 6 0 0 0 0 1 - - - ( 14 )
式中
Figure BDA00002824072600054
为手爪的法向矢量,
Figure BDA00002824072600055
为滑动矢量,
Figure BDA00002824072600056
为接近矢量,
Figure BDA00002824072600057
为位置矢量。
利用(14),(5)有:
T6=M                           (15)
通过求解(15)得到六个关节运动角度值:(θ1,θ2,...θ6)。
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种基于混合传感器的人机交互方法,允许操作者通过三维的手部动作来控制机器人。这种基于混合传感器的接口允许操作员使用手部和手臂的动作控制机器人而没有物理装置的限制,只需要把精力集中在手头的任务也不用把任务都分解为那些有限的指令。
附图说明
图1是骨架关节点图;
图2是右手关节点图;
图3是基于混合传感器的人机交互流程图。
具体实施方式
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
本发明基于混合传感器进行人机交互方法包括如下步骤:
S1、实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;
S2、使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;
S3、根据上述步骤获取的操作员手部位姿驱动机器人。
所述步骤S1包括以下步骤:
操作员通过手部运动进行机器人操作任务时,由固定在操作员前面的Kinect捕获RGB图像和深度图像,连续处理该过程中的RGB图像和深度图像实现人手跟踪和定位;Kinect有三种自动对焦摄像头:两个优化深度检测的红外摄像头和一个标准的用于视觉识别的视觉光谱摄像头;
从深度图像中提取人体骨架关节点;所提取出来的这十五个关节点如图1所示,从上到下和从左到右排序为:(1)头;(2)肩中心;(3)右肩;(4)右手肘;(5)右手腕;(6)左肩;(7)左手肘;(8)左手腕;(9)髋关节中心;(10)右髋;(11)右膝;(12)右脚;(13)左髋;(14)左膝;(15)左脚;这十五个关节点的坐标被称为Kinect坐标;如图2所示,操作员右手的位置可定义为右手腕P5的位置,但这样直接利用P5的位置信息来控制机器人可能导致机器人的位置受操作员身体移动或颤抖的影响;为了解决这个问题,将肩关节P3作为参考点并构建参考点
Figure BDA00002824072600071
的右手框架;
相对于参考点
Figure BDA00002824072600072
的P5位置P′5为:
P5=P5-P3                     (1)
定义右手相对于右肩的移动范围为 w Rh 1 < x < w RH 2 , H RH 1 < y < H RH 2 , L RH 1 < z < L RH 2 , 而机器人的移动范围为 W RR 1 < x < W RR 2 , H RR 1 < y < H RR 2 , L RR 1 < z < L RR 2 , 机器人移动范围的映射点为:
R x R = ( P 8 _ x &prime; - W RH 1 ) ( W RH 2 - W RH 1 ) &CenterDot; ( W RR 2 - W RR 1 ) + W RR 1 R y R = ( P 8 _ y &prime; - H RH 1 ) ( H RH 2 - H RH 1 ) &CenterDot; H RR 2 - H RR 1 + H RR 1 R z R = ( P 8 _ z &prime; - L RH 1 ) ( L RH 2 - L RH 1 ) &CenterDot; ( L RR 2 - L RR 1 ) + L RR 1 - - - ( 2 )
所述步骤S2包括以下步骤:
操作员通过手部运动进行机器人操作任务时,右手拿着一个惯性测量仪,这个惯性测量仪可以确定操作员右手的滚动、俯仰和偏转姿态;惯性测量仪由一个三轴加速计,两个两轴陀螺仪和一个三轴磁力计组成;
定义三个坐标系:操作员本体坐标系xbybzb,惯性测量仪坐标系xsyszs和地球坐标系xeyeze;惯性测量仪坐标系xsyszs对应三个正交安装的加速计和磁力计的轴;由于惯性测量仪被刚性地安装在机器人末端上,假定操作员本体坐标系xbybzb与惯性测量仪坐标系xsyszs结合;地球固定坐标系xeyeze遵循北-东-下(NED)公约,其中xe指向北,ye指向东而ze指向下;惯性测量仪能测量其自身的滚动、俯仰和偏转姿态;定义绕xe的旋转φ表示滚动,绕ye轴的旋转θ表示俯仰而绕ze轴的旋转ψ表示偏转;根据欧拉旋转定理,从欧拉角φ、θ和ψ到四元数q的转换为:
q = q 0 q 1 q 2 q 3 = cos ( &phi; / 2 ) cos ( &theta; / 2 ) cos ( &psi; / 2 ) + sin ( &phi; / 2 ) sin ( &theta; / 2 ) sin ( &psi; / 2 ) sin ( &phi; / 2 ) cos ( &theta; / 2 ) cos ( &psi; / 2 ) - cos ( &phi; / 2 ) sin ( &theta; / 2 ) sin ( &psi; / 2 ) cos ( &phi; / 2 ) sin ( &theta; / 2 ) cos ( &psi; / 2 ) + sin ( &phi; / 2 ) cso ( &theta; / 2 ) sin ( &psi; / 2 ) cos ( &phi; / 2 ) cos ( &theta; / 2 ) sin ( &psi; / 2 ) - sin ( &phi; / 2 ) sin ( &theta; / 2 ) cos ( &psi; / 2 ) - - - ( 3 )
而四个欧拉参数的约束为:
q 0 2 + q 1 2 + q 2 2 + q 3 2 = 1 - - - ( 4 )
这里q0是标量部分而(q1,q2,q3)是矢量部分;所以从惯性测量仪坐标系到地球固定坐标系的姿态余弦矩阵
Figure BDA00002824072600083
可以被表示为:
M s e = q 0 2 + q 1 2 - q 2 2 - q 3 2 2 ( q 1 q 2 - q 0 q 3 ) 2 ( q 0 q 2 + q 1 q 3 ) 2 ( q 1 q 2 + q 0 q 3 ) q 0 2 - q 1 2 + q 2 2 - q 3 2 2 ( q 2 q 3 - q 0 q 1 ) 2 ( q 1 q 3 - q 0 q 2 ) 2 ( q 0 q 1 + q 2 q 3 ) q 0 2 - q 1 2 - q 2 2 - q 3 2 - - - ( 5 ) ;
由于陀螺仪和磁力计都有白噪声和随机游走,为了得到稳定的数据,利用卡尔曼滤波从一组嘈杂和不完整的测量中估计惯性测量仪的状态;从时刻k-1的惯性测量仪状态xk-1估计时刻k的惯性测量仪状态xk的转换方程为:
xk=Ak·xk-1+B·uk-1+wk-1                        (6)
zk=H·xk+vk
这里xk是n×1的状态向量,代表时刻k的惯性测量仪状态;A是n×n的状态转换矩阵;B是n×p的***输入矩阵;uk-1是p×1的k-1时刻确定性输入向量,p为确定性输入的个数;wk-1是k-1时刻的n×1过程噪声向量;zk是k时刻的m×1测量向量;H是m×n的观察矩阵而vk是m×1的测量噪声向量;此处n=7,m=6;与时间相关的四元数微分方程为:
&PartialD; q 0 / &PartialD; t &PartialD; q 1 / &PartialD; t &PartialD; q 2 / &PartialD; t &PartialD; q 3 / &PartialD; t = q 0 - q 1 - q 2 - q 3 q 1 q 0 - q 3 q 2 q 2 q 3 q 0 - q 1 q 3 - q 2 q 1 q 0 &CenterDot; 0 v x / 2 v y / 2 v z / 2 - - - ( 7 )
其中vx,vy,vz是惯性测量仪在轴xs,ys,zs的角速度;由于状态xk包括四元数状态和角速度,所以xk有以下形式:
xk=[q0,kq1,kq2,kq3,kvx,kvy,kvz,k]                      (8)
这里q0,k,q1,k,q2,k,q3,k,vx,k,vy,k,vz,k是k时刻的四元数状态和角速度,从方程(7)可得,状态转换方程为:
A k = 1 0 0 0 - q 1 , k &CenterDot; &Delta;t / 2 - q 2 , k &CenterDot; &Delta;t / 2 - q 3 , k &CenterDot; &Delta;t / 2 0 1 0 0 q 0 , k &CenterDot; &Delta;t / 2 q 3 , k &CenterDot; &Delta;t / 2 q 2 , k &CenterDot; &Delta;t / 2 0 0 1 0 q 3 , k &CenterDot; &Delta;t / 2 q 0 , k &CenterDot; &Delta;t / 2 - q 1 , k &CenterDot; &Delta;t / 2 0 0 0 1 - q 2 , k &CenterDot; &Delta;t / 2 q 1 , k &CenterDot; &Delta;t / 2 q 0 , k &CenterDot; &Delta;t / 2 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 - - - ( 9 )
这里Δt是取样时间,由于没有控制输入,让B=0n×p,则B·uk-1=0n×1;使用角速度来估计四元数状态,得到过程噪声向量为
wk=[0000wx wy wz]T                           (10)
这里wx,wy,wz是角速度的过程噪声;由于使用陀螺仪来测量角速度,观察矩阵H为
H=[03×4 I3×3]                            (11)
为了满足(4),定义
Figure BDA00002824072600092
k时刻的确定性四元数qk可被标准化为:
qk=[q0,k/D q1,k/D q2,k/D q3,k/D]                     (12)
结合公式(6)到公式(12),可从时刻k-1的惯性测量仪状态xk-1估计出时刻k的惯性测量仪状态xk
所述步骤S3包括以下步骤:
利用机器人的末端位姿进行反解,然后每个关节按反解的角度运动,当全部关节运动完毕虚拟机器人的手抓末端就到达指定的位置。这种情况适合于周围没有障碍物的情况,虚拟机器人手臂运动不会与周围环境障碍物发生碰撞。
而在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换矩阵,一般地有:
A i = cos &theta; i - sin i cos &alpha; i sin &theta; i sin &alpha; i l i cos &theta; i sin &theta; i cos &theta; i cos &alpha; i - cos &theta; i sin &alpha; i l i sin &theta; i 0 sin &alpha; i cos &alpha; i r i 0 0 0 1 - - - ( 13 )
对于一个具有六关节的机器人,定义机座坐标系为坐标系1,最后一个坐标系为坐标系6,从机座坐标架到最后一个坐标架的齐次变换矩阵T6定义为:
T 6 = A 1 A 2 . . . A 6 = n 6 0 s 6 0 a 6 0 p 6 0 0 0 0 1 - - - ( 14 )
式中为手爪的法向矢量,为滑动矢量,
Figure BDA00002824072600105
为接近矢量,
Figure BDA00002824072600106
为位置矢量。
利用(14),(5)有:
T6=M                             (15)
通过求解(15)得到六个关节运动角度值:(θ12,...,θ6)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.基于混合传感器的人机交互方法,其特征在于,包括以下步骤:
S1、实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;
S2、使用惯性测量仪测量操作员的手部姿态,并结合四元数算法和卡尔曼滤波对姿态数据进行估计,从而得到稳定的操作员的手部姿态;
S3、根据上述步骤获取的操作员手部位姿驱动机器人。
2.根据权利要求1所述的基于混合传感器的人机交互方法,其特征在于,所述步骤S1包括:
操作员通过手部运动进行机器人操作任务时,由固定在操作员前面的Kinect捕获RGB图像和深度图像,连续处理该过程中的RGB图像和深度图像实现人手跟踪和定位;Kinect有三种自动对焦摄像头:两个优化深度检测的红外摄像头和一个标准的用于视觉识别的视觉光谱摄像头;
从深度图像中提取人体骨架关节点;所提取出来的这十五个关节点从上到下和从左到右排序为:(1)头;(2)肩中心;(3)右肩;(4)右手肘;(5)右手腕;(6)左肩;(7)左手肘;(8)左手腕;(9)髋关节中心;(10)右髋;(11)右膝;(12)右脚;(13)左髋;(14)左膝;(15)左脚;这十五个关节点的坐标被称为Kinect坐标;操作员右手的位置定义为右手腕P5的位置,将肩关节P3作为参考点并构建参考点
Figure FDA00002824072500011
的右手框架;
相对于参考点
Figure FDA00002824072500012
的P5位置P′5为:
P′5=P5-P3                           (1)
设定右手相对于右肩的移动范围为 W RH 1 < x < W RH 2 , H RH 1 < y < H RH 2 , L RH 1 < z < L RH 2 , 而机器人的移动范围为 W RR 1 < x < W RR 2 , H RR 1 < y < H RR 2 , L RR 1 < z < L RR 2 , 机器人移动范围的映射点为:
R x R = ( P 8 _ x &prime; - W RH 1 ) ( W RH 2 - W RH 1 ) &CenterDot; ( W RR 2 - W RR 1 ) + W RR 1 R y R = ( P 8 _ y &prime; - H RH 1 ) ( H RH 2 - H RH 1 ) &CenterDot; H RR 2 - H RR 1 + H RR 1 R z R = ( P 8 _ z &prime; - L RH 1 ) ( L RH 2 - L RH 1 ) &CenterDot; ( L RR 2 - L RR 1 ) + L RR 1 . - - - ( 2 )
3.根据权利要求1所述的基于混合传感器的人机交互方法,其特征在于,所述步骤S2包括以下步骤:
操作员通过手部运动进行机器人操作任务时,右手拿着一个惯性测量仪,这个惯性测量仪可以确定操作员右手的滚动、俯仰和偏转姿态;惯性测量仪由一个三轴加速计,两个两轴陀螺仪和一个三轴磁力计组成;
定义三个坐标系:操作员本体坐标系xbybzb,惯性测量仪坐标系xsyszs和地球坐标系xeyeze;惯性测量仪坐标系xsyszs对应三个正交安装的加速计和磁力计的轴;由于惯性测量仪被刚性地安装在机器人末端上,假定操作员本体坐标系xbybzb与惯性测量仪坐标系xsyszs结合;地球固定坐标系xeyeze遵循北-东-下(NED)公约,其中xe指向北,ye指向东而ze指向下;惯性测量仪能测量其自身的滚动、俯仰和偏转姿态;定义绕xe的旋转φ表示滚动,绕ye轴的旋转θ表示俯仰而绕ze轴的旋转ψ表示偏转;根据欧拉旋转定理,从欧拉角φ、θ和ψ到四元数q的转换为:
q = q 0 q 1 q 2 q 3 = cos ( &phi; / 2 ) cos ( &theta; / 2 ) cos ( &psi; / 2 ) + sin ( &phi; / 2 ) sin ( &theta; / 2 ) sin ( &psi; / 2 ) sin ( &phi; / 2 ) cos ( &theta; / 2 ) cos ( &psi; / 2 ) - cos ( &phi; / 2 ) sin ( &theta; / 2 ) sin ( &psi; / 2 ) cos ( &phi; / 2 ) sin ( &theta; / 2 ) cos ( &psi; / 2 ) + sin ( &phi; / 2 ) cso ( &theta; / 2 ) sin ( &psi; / 2 ) cos ( &phi; / 2 ) cos ( &theta; / 2 ) sin ( &psi; / 2 ) - sin ( &phi; / 2 ) sin ( &theta; / 2 ) cos ( &psi; / 2 ) - - - ( 3 )
而四个欧拉参数的约束为:
q 0 2 + q 1 2 + q 2 2 + q 3 2 = 1 - - - ( 4 )
这里q0是标量部分而(q1,q2,q3)是矢量部分;所以从惯性测量仪坐标系到地球固定坐标系的姿态余弦矩阵
Figure FDA00002824072500023
可以被表示为:
M s e = q 0 2 + q 1 2 - q 2 2 - q 3 2 2 ( q 1 q 2 - q 0 q 3 ) 2 ( q 0 q 2 + q 1 q 3 ) 2 ( q 1 q 2 + q 0 q 3 ) q 0 2 - q 1 2 + q 2 2 - q 3 2 2 ( q 2 q 3 - q 0 q 1 ) 2 ( q 1 q 3 - q 0 q 2 ) 2 ( q 0 q 1 + q 2 q 3 ) q 0 2 - q 1 2 - q 2 2 - q 3 2 - - - ( 5 ) ;
由于陀螺仪和磁力计都有白噪声和随机游走,为了得到稳定的数据,利用卡尔曼滤波从一组嘈杂和不完整的测量中估计惯性测量仪的状态;从时刻k-1的惯性测量仪状态xk-1估计时刻k的惯性测量仪状态xk的转换方程为:
xk=Ak·xk-1+B·uk-1+wk-1                        (6)
zk=H·xk+vk
这里xk是n×1的状态向量,代表时刻k的惯性测量仪状态;A是n×n的状态转换矩阵;B是n×p的***输入矩阵;uk-1是p×1的k-1时刻确定性输入向量,p为确定性输入的个数;wk-1是k-1时刻的n×1过程噪声向量;zk是k时刻的m×1测量向量;H是m×n的观察矩阵而vk是m×1的测量噪声向量;此处n=7,m=6;与时间相关的四元数微分方程为:
&PartialD; q 0 / &PartialD; t &PartialD; q 1 / &PartialD; t &PartialD; q 2 / &PartialD; t &PartialD; q 3 / &PartialD; t = q 0 - q 1 - q 2 - q 3 q 1 q 0 - q 3 q 2 q 2 q 3 q 0 - q 1 q 3 - q 2 q 1 q 0 &CenterDot; 0 v x / 2 v y / 2 v z / 2 - - - ( 7 )
其中vx,vy,vz是惯性测量仪在轴xs,ys,zs的角速度;由于状态xk包括四元数状态和角速度,所以xk有以下形式:
xk=[q0,kq1,kq2,kq3,kvx,kvy,kvz,k]                          (8)
其中q0,k,q1,k,q2,k,q3,k,vx,k,vy,k,vz,k是k时刻的四元数状态和角速度,从方程(7)可得,状态转换方程为:
A k = 1 0 0 0 - q 1 , k &CenterDot; &Delta;t / 2 - q 2 , k &CenterDot; &Delta;t / 2 - q 3 , k &CenterDot; &Delta;t / 2 0 1 0 0 q 0 , k &CenterDot; &Delta;t / 2 q 3 , k &CenterDot; &Delta;t / 2 q 2 , k &CenterDot; &Delta;t / 2 0 0 1 0 q 3 , k &CenterDot; &Delta;t / 2 q 0 , k &CenterDot; &Delta;t / 2 - q 1 , k &CenterDot; &Delta;t / 2 0 0 0 1 - q 2 , k &CenterDot; &Delta;t / 2 q 1 , k &CenterDot; &Delta;t / 2 q 0 , k &CenterDot; &Delta;t / 2 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 - - - ( 9 )
其中Δt是取样时间,由于没有控制输入,让B=0n×p,则B·uk-1=0n×1;使用角速度来估计四元数状态,得到过程噪声向量为
wk=[0000wxwywz]T                              (10)
其中wx,wy,wz是角速度的过程噪声;由于使用陀螺仪来测量角速度,观察矩阵H为
H=[03×4I3×3]                               (11)
为了满足(4),定义
Figure FDA00002824072500033
k时刻的确定性四元数qk可被标准化为:
qk=[q0,k/D q1,k/D q2,k/D q3,k/D]                       (12)
结合公式(6)到公式(12),可从时刻k-1的惯性测量仪状态xk-1估计出时刻k的惯性测量仪状态xk
4.根据权利要求1所述的基于混合传感器的人机交互方法,其特征在于,所述步骤S3包括以下步骤:
利用机器人的末端位姿进行反解,然后每个关节按反解的角度运动,当全部关节运动完毕虚拟机器人的手抓末端就到达指定的位置;这种情况适合于周围没有障碍物的情况,虚拟机器人手臂运动不会与周围环境障碍物发生碰撞;
在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换矩阵,则有:
A i = cos &theta; i - sin i cos &alpha; i sin &theta; i sin &alpha; i l i cos &theta; i sin &theta; i cos &theta; i cos &alpha; i - cos &theta; i sin &alpha; i l i sin &theta; i 0 sin &alpha; i cos &alpha; i r i 0 0 0 1 - - - ( 13 )
对于一个具有六关节的机器人,定义机座坐标系为坐标系1,最后一个坐标系为坐标系6,从机座坐标架到最后一个坐标架的齐次变换矩阵T6定义为:
T 6 = A 1 A 2 . . . A 6 = n 6 0 s 6 0 a 6 0 p 6 0 0 0 0 1 - - - ( 14 )
式中为手爪的法向矢量,为滑动矢量,
Figure FDA00002824072500045
为接近矢量,
Figure FDA00002824072500046
为位置矢量。
利用(14),(5)有:
T6=M                                   (15)
通过求解(15)得到六个关节运动角度值:(θ12,...,θ6)。
CN201310047285.XA 2013-02-06 2013-02-06 基于混合传感器的人机交互方法 Active CN103112007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310047285.XA CN103112007B (zh) 2013-02-06 2013-02-06 基于混合传感器的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310047285.XA CN103112007B (zh) 2013-02-06 2013-02-06 基于混合传感器的人机交互方法

Publications (2)

Publication Number Publication Date
CN103112007A true CN103112007A (zh) 2013-05-22
CN103112007B CN103112007B (zh) 2015-10-28

Family

ID=48410425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310047285.XA Active CN103112007B (zh) 2013-02-06 2013-02-06 基于混合传感器的人机交互方法

Country Status (1)

Country Link
CN (1) CN103112007B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN103398702A (zh) * 2013-08-05 2013-11-20 青岛海通机器人***有限公司 一种移动机器人远程操控装置及其操控技术
CN103412649A (zh) * 2013-08-20 2013-11-27 苏州跨界软件科技有限公司 基于非接触式手部动作捕捉的控制***
CN103544713A (zh) * 2013-10-17 2014-01-29 芜湖金诺数字多媒体有限公司 一种基于刚体物理模拟***的人体投影交互方法
CN104252228A (zh) * 2013-06-28 2014-12-31 三星电子株式会社 显示装置及控制显示装置的方法
CN104484574A (zh) * 2014-12-25 2015-04-01 东华大学 一种基于四元数的实时人体姿态监督训练矫正***
CN104772756A (zh) * 2015-01-26 2015-07-15 杭州师范大学 基于惯性测量单元的机械臂及其控制方法
CN104959984A (zh) * 2015-07-15 2015-10-07 深圳市优必选科技有限公司 一种智能机器人的控制***
CN105252538A (zh) * 2015-11-06 2016-01-20 邹海英 一种新型工业机器人示教器
CN105487660A (zh) * 2015-11-25 2016-04-13 北京理工大学 基于虚拟现实技术的沉浸式舞台表演交互方法及***
CN106127788A (zh) * 2016-07-04 2016-11-16 触景无限科技(北京)有限公司 一种视觉避障方法和装置
CN106182003A (zh) * 2016-08-01 2016-12-07 清华大学 一种机械臂示教方法、装置及***
CN106293103A (zh) * 2016-10-21 2017-01-04 北京工商大学 基于惯性传感器的四轴飞行器手势控制装置和控制方法
TWI574800B (zh) * 2016-07-19 2017-03-21 Robot control system
CN106647248A (zh) * 2017-01-13 2017-05-10 中国科学院深圳先进技术研究院 一种确定串联机器人反解结果的方法及装置
CN108284444A (zh) * 2018-01-25 2018-07-17 南京工业大学 人机协作下基于Tc-ProMps算法的多模式人体动作预测方法
CN108762495A (zh) * 2018-05-18 2018-11-06 深圳大学 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实***
CN108748144A (zh) * 2018-05-28 2018-11-06 上海优尼斯工业服务有限公司 一种人机协作机械臂的碰撞识别方法
CN108777081A (zh) * 2018-05-31 2018-11-09 华中师范大学 一种虚拟舞蹈教学方法及***
CN110480634A (zh) * 2019-08-08 2019-11-22 北京科技大学 一种针对机械臂运动控制的手臂引导运动控制方法
CN111923043A (zh) * 2020-07-30 2020-11-13 苏州富鑫林光电科技有限公司 一种基于多传感器融合的多机械手定位方法
CN113829357A (zh) * 2021-10-25 2021-12-24 香港中文大学(深圳) 机器人手臂遥操作方法、装置、***及介质
CN115641647A (zh) * 2022-12-23 2023-01-24 海马云(天津)信息技术有限公司 数字人手腕驱动方法与装置、存储介质及电子设备
CN116330305A (zh) * 2023-05-30 2023-06-27 常州旭泰克***科技有限公司 多模态人机交互装配方法、***、设备及其介质
WO2023168849A1 (zh) * 2022-03-08 2023-09-14 江南大学 机械臂动作捕捉方法、介质、电子设备及***
US11766784B1 (en) 2022-03-08 2023-09-26 Jiangnan University Motion capture method and system of robotic arm, medium, and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102818524A (zh) * 2012-07-31 2012-12-12 华南理工大学 一种基于视觉测量的在线机器人参数校准方法
CN102814814A (zh) * 2012-07-31 2012-12-12 华南理工大学 一种双臂机器人基于Kinect的人机交互方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102818524A (zh) * 2012-07-31 2012-12-12 华南理工大学 一种基于视觉测量的在线机器人参数校准方法
CN102814814A (zh) * 2012-07-31 2012-12-12 华南理工大学 一种双臂机器人基于Kinect的人机交互方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FLETCHER DUUN,LAN PARBERRY: "《3D数学基础 图形与游戏开发》", 31 December 2005, 清华大学出版社, article "从欧拉角转换到四元数", pages: 170-171 *
SENG-HOON PETER WON等: "A fasting tool tracking system using an IMU and a position sensor with kalman filters and a fuzzy expert system", 《TRANSACTIONS ON INDUSTRIAL ELECTRONICS》, vol. 56, no. 5, 31 May 2009 (2009-05-31), XP 011249133 *
曹雏清,李瑞峰,赵立军: "基于深度图像技术的手势识别方法", 《计算机工程》, vol. 38, no. 8, 30 April 2012 (2012-04-30) *
王明东: "基于kinect骨骼跟踪功能实现PC的手势控制", 《漳州职业技术学院学报》, vol. 14, no. 2, 30 June 2012 (2012-06-30), pages 11 - 16 *

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104252228A (zh) * 2013-06-28 2014-12-31 三星电子株式会社 显示装置及控制显示装置的方法
CN104252228B (zh) * 2013-06-28 2019-08-23 三星电子株式会社 显示装置及控制显示装置的方法
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN103399637B (zh) * 2013-07-31 2015-12-23 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN103398702A (zh) * 2013-08-05 2013-11-20 青岛海通机器人***有限公司 一种移动机器人远程操控装置及其操控技术
CN103398702B (zh) * 2013-08-05 2015-08-19 青岛海通机器人***有限公司 一种移动机器人远程操控装置及其操控技术
CN103412649A (zh) * 2013-08-20 2013-11-27 苏州跨界软件科技有限公司 基于非接触式手部动作捕捉的控制***
CN103544713A (zh) * 2013-10-17 2014-01-29 芜湖金诺数字多媒体有限公司 一种基于刚体物理模拟***的人体投影交互方法
CN104484574A (zh) * 2014-12-25 2015-04-01 东华大学 一种基于四元数的实时人体姿态监督训练矫正***
CN104772756A (zh) * 2015-01-26 2015-07-15 杭州师范大学 基于惯性测量单元的机械臂及其控制方法
CN104959984A (zh) * 2015-07-15 2015-10-07 深圳市优必选科技有限公司 一种智能机器人的控制***
CN105252538A (zh) * 2015-11-06 2016-01-20 邹海英 一种新型工业机器人示教器
CN105487660A (zh) * 2015-11-25 2016-04-13 北京理工大学 基于虚拟现实技术的沉浸式舞台表演交互方法及***
CN106127788A (zh) * 2016-07-04 2016-11-16 触景无限科技(北京)有限公司 一种视觉避障方法和装置
CN106127788B (zh) * 2016-07-04 2019-10-25 触景无限科技(北京)有限公司 一种视觉避障方法和装置
TWI574800B (zh) * 2016-07-19 2017-03-21 Robot control system
CN106182003A (zh) * 2016-08-01 2016-12-07 清华大学 一种机械臂示教方法、装置及***
CN106293103A (zh) * 2016-10-21 2017-01-04 北京工商大学 基于惯性传感器的四轴飞行器手势控制装置和控制方法
CN106293103B (zh) * 2016-10-21 2023-09-26 北京工商大学 基于惯性传感器的四轴飞行器手势控制装置和控制方法
CN106647248A (zh) * 2017-01-13 2017-05-10 中国科学院深圳先进技术研究院 一种确定串联机器人反解结果的方法及装置
CN106647248B (zh) * 2017-01-13 2020-02-07 中国科学院深圳先进技术研究院 一种确定串联机器人反解结果的方法及装置
CN108284444B (zh) * 2018-01-25 2021-05-11 南京工业大学 人机协作下基于Tc-ProMps算法的多模式人体动作预测方法
CN108284444A (zh) * 2018-01-25 2018-07-17 南京工业大学 人机协作下基于Tc-ProMps算法的多模式人体动作预测方法
CN108762495A (zh) * 2018-05-18 2018-11-06 深圳大学 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实***
CN108762495B (zh) * 2018-05-18 2021-06-29 深圳大学 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实***
CN108748144B (zh) * 2018-05-28 2020-06-30 上海优尼斯工业服务有限公司 一种人机协作机械臂的碰撞识别方法
CN108748144A (zh) * 2018-05-28 2018-11-06 上海优尼斯工业服务有限公司 一种人机协作机械臂的碰撞识别方法
CN108777081A (zh) * 2018-05-31 2018-11-09 华中师范大学 一种虚拟舞蹈教学方法及***
CN110480634A (zh) * 2019-08-08 2019-11-22 北京科技大学 一种针对机械臂运动控制的手臂引导运动控制方法
CN111923043A (zh) * 2020-07-30 2020-11-13 苏州富鑫林光电科技有限公司 一种基于多传感器融合的多机械手定位方法
CN113829357A (zh) * 2021-10-25 2021-12-24 香港中文大学(深圳) 机器人手臂遥操作方法、装置、***及介质
CN113829357B (zh) * 2021-10-25 2023-10-03 香港中文大学(深圳) 机器人手臂遥操作方法、装置、***及介质
WO2023168849A1 (zh) * 2022-03-08 2023-09-14 江南大学 机械臂动作捕捉方法、介质、电子设备及***
US11766784B1 (en) 2022-03-08 2023-09-26 Jiangnan University Motion capture method and system of robotic arm, medium, and electronic device
CN115641647A (zh) * 2022-12-23 2023-01-24 海马云(天津)信息技术有限公司 数字人手腕驱动方法与装置、存储介质及电子设备
CN116330305A (zh) * 2023-05-30 2023-06-27 常州旭泰克***科技有限公司 多模态人机交互装配方法、***、设备及其介质
CN116330305B (zh) * 2023-05-30 2023-10-31 常州旭泰克***科技有限公司 多模态人机交互装配方法、***、设备及其介质

Also Published As

Publication number Publication date
CN103112007B (zh) 2015-10-28

Similar Documents

Publication Publication Date Title
CN103112007B (zh) 基于混合传感器的人机交互方法
US20210205986A1 (en) Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose
Wolf et al. Gesture-based robot control with variable autonomy from the JPL BioSleeve
Frank et al. Realizing mixed-reality environments with tablets for intuitive human-robot collaboration for object manipulation tasks
CN102814814B (zh) 一种双臂机器人基于Kinect的人机交互方法
Fang et al. A robotic hand-arm teleoperation system using human arm/hand with a novel data glove
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
CN104570731A (zh) 一种基于Kinect的无标定人机交互控制***及方法
Fang et al. A novel data glove using inertial and magnetic sensors for motion capture and robotic arm-hand teleoperation
Bhuyan et al. Gyro-accelerometer based control of a robotic arm using AVR microcontroller
CN109243575B (zh) 一种基于移动交互和增强现实的虚拟针灸方法及***
US20130202212A1 (en) Information processing apparatus, information processing method, and computer program
Pierce et al. A data-driven method for determining natural human-robot motion mappings in teleoperation
Dwivedi et al. Combining electromyography and fiducial marker based tracking for intuitive telemanipulation with a robot arm hand system
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
Odesanmi et al. Skill learning framework for human–robot interaction and manipulation tasks
Kumar et al. Computer vision based object grasping 6DoF robotic arm using picamera
Zhang et al. A handheld master controller for robot-assisted microsurgery
Li et al. A dexterous hand-arm teleoperation system based on hand pose estimation and active vision
Kryuchkov et al. Simulation of the «cosmonaut-robot» system interaction on the lunar surface based on methods of machine vision and computer graphics
Tanzini et al. New interaction metaphors to control a hydraulic working machine's arm
Bai et al. Kinect-based hand tracking for first-person-perspective robotic arm teleoperation
Tsitos et al. Handling vision noise through robot motion control in a real-time teleoperation system
Weng et al. Applications of light-weight wearable devices to online programming of industrial dual-arm robots
Mohammad et al. Tele-operation of robot using gestures

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant