CN103112007A - 基于混合传感器的人机交互方法 - Google Patents
基于混合传感器的人机交互方法 Download PDFInfo
- Publication number
- CN103112007A CN103112007A CN201310047285XA CN201310047285A CN103112007A CN 103112007 A CN103112007 A CN 103112007A CN 201310047285X A CN201310047285X A CN 201310047285XA CN 201310047285 A CN201310047285 A CN 201310047285A CN 103112007 A CN103112007 A CN 103112007A
- Authority
- CN
- China
- Prior art keywords
- operator
- sin
- cos
- centerdot
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明提供了基于混合传感器的人机交互方法,包括步骤:(1)实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;(2)使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;(3)根据上述步骤获取的操作员手部位姿驱动机器人。本发明允许操作者通过三维的手部动作来控制机器人。本发明允许操作员使用手部和手臂的动作控制机器人而没有物理装置的限制,只需要把精力集中在手头的任务也不用把任务都分解为那些有限的指令。
Description
技术领域
本发明属于机器人运动领域,特别涉及一种基于混合传感器的人机交互方法。
背景技术
当人类不适合出现在机器人现场,在非结构化动态环境中利用操作员操纵远程机器人是十分必要的。为达成目标操作任务,遥操作使用的机械和其他接触接口需要不自然的人类动作,它们往往会妨碍人体动作。现有的基于视觉的人机交换方式要么只用到人手的少数自由度,要么需要操作者做大幅度运动,操作起来非常费力。这篇发明提出了一种不接触的基于多传感器的机器人遥操作方法,它允许操作者通过自然的人手三维动作控制六自由度虚拟机器人来完成操作任务。基于多传感器的人机接口帮助操作者使用人手动作控制机器人和了解机器人动作和周围环境。
通常使用的遥操作机械式人机接口包括了多种操作员佩戴的装置,比如骨骼式机械装置,工具手套,电磁或惯性动作跟踪传感器,或者肌电灵敏度传感器。然而,这些佩戴的装置,传感器还有它们的连线可能妨碍操作员灵活的动作。其他接触式的接口比如仿机器人机械手,转盘,摇杆,电脑鼠标和计算机图形界面等都需要操作员不自然的动作或者需要操作者学习如何操作。基于视觉的交互技术使用了手势识别和语音识别结合的控制方式,它允许操作者更自然直观的给出命令而没有物理装置上的限制。然而在这种控制下,被控的机器人的动作都是由一些简单的命令组成,比如确定末端执行器的位置和方位,抓取还有一系列更小的任务如上移下移,旋转,暂停,继续还有改变操作的模式。当要求的机器人操作器动作的复杂度比较高的时候,这个技术都会难以操作。单摄像头的手部动作跟踪已经被应用在机器人遥操作和遥操作的模拟上。然而,动作命令只局限在真正的末端执行器自由度的子集里。此外,那些与特定的操作任务无关的手势被用来改变机器人的操作模式,所以这些都造成了操作任务的交流不自然。理想地,一种自然的不用将复杂的任务分解为有限指令和没有接触式物理装置限制的方法被人们所需要。
发明内容
这个发明提出了一种基于混合传感器的人机交互方法,允许操作者通过三维的手部动作来控制机器人。这个方法使用了非接触式的基于基于混合传感器的人机接口,它可以通过操作者动作控制机器人还有反馈机器人动作和机器人与周围环境物体的交互的情况,具体技术方案如下。
基于混合传感器的人机交互方法,其包括如下步骤:
S1、实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;
S2、使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;
S3、根据上述步骤获取的操作员手部位姿驱动机器人。
进一步的,所述步骤S1包括以下步骤:
操作员通过手部运动进行机器人操作任务时,由固定在操作员前面的Kinect捕获RGB图像和深度图像,连续处理该过程中的RGB图像和深度图像实现人手跟踪和定位;Kinect有三种自动对焦摄像头:两个优化深度检测的红外摄像头和一个标准的用于视觉识别的视觉光谱摄像头;
从深度图像中提取人体骨架关节点;所提取出来的这十五个关节点如图1所示,从上到下和从左到右排序为:(1)头;(2)肩中心;(3)右肩;(4)右手肘;(5)右手腕;(6)左肩;(7)左手肘;(8)左手腕;(9)髋关节中心;(10)右髋;(11)右膝;(12)右脚;(13)左髋;(14)左膝;(15)左脚;这十五个关节点的坐标被称为Kinect坐标;如图2所示,操作员右手的位置可定义为右手腕P5的位置,但这样直接利用P5的位置信息来控制机器人可能导致机器人的位置受操作员身体移动或颤抖的影响;为了解决这个问题,将肩关节P3作为参考点并构建参考点的右手框架;
P′5=P5-P3 (1)
定义右手相对于右肩的移动范围为 而机器人的移动范围为 机器人移动范围的映射点为:
所述步骤S2包括以下步骤:
操作员通过手部运动进行机器人操作任务时,右手拿着一个惯性测量仪,这个惯性测量仪可以确定操作员右手的滚动、俯仰和偏转姿态;惯性测量仪由一个三轴加速计,两个两轴陀螺仪和一个三轴磁力计组成;
定义三个坐标系:操作员本体坐标系xbybzb,惯性测量仪坐标系xsyszs和地球坐标系xeyeze;惯性测量仪坐标系xsyszs对应三个正交安装的加速计和磁力计的轴;由于惯性测量仪被刚性地安装在机器人末端上,假定操作员本体坐标系xbybzb与惯性测量仪坐标系xsyszs结合;地球固定坐标系xeyeze遵循北-东-下(NED)公约,其中xe指向北,ye指向东而ze指向下;惯性测量仪能测量其自身的滚动、俯仰和偏转姿态;定义绕xe的旋转φ表示滚动,绕ye轴的旋转θ表示俯仰而绕ze轴的旋转ψ表示偏转;根据欧拉旋转定理,从欧拉角φ、θ和ψ到四元数q的转换为:
而四个欧拉参数的约束为:
这里q0是标量部分而(q1,q2,q3)是矢量部分;所以从惯性测量仪坐标系到地球固定坐标系的姿态余弦矩阵可以被表示为:
由于陀螺仪和磁力计都有白噪声和随机游走,为了得到稳定的数据,利用卡尔曼滤波从一组嘈杂和不完整的测量中估计惯性测量仪的状态;从时刻k-1的惯性测量仪状态xk-1估计时刻k的惯性测量仪状态xk的转换方程为:
xk=Ak·xk-1+B·uk-1+wk-1 (6)
zk=H·xk+vk
这里xk是n×1的状态向量,代表时刻k的惯性测量仪状态;A是n×n的状态转换矩阵;B是n×p的***输入矩阵;uk-1是p×1的k-1时刻确定性输入向量,p为确定性输入的个数;wk-1是k-1时刻的n×1过程噪声向量;zk是k时刻的m×1测量向量;H是m×n的观察矩阵而vk是m×1的测量噪声向量;此处n=7,m=6;与时间相关的四元数微分方程为:
其中vx,vy,vz是惯性测量仪在轴xs,ys,zs的角速度;由于状态xk包括四元数状态和角速度,所以xk有以下形式:
xk=[q0,kq1,kq2,kq3,kvx,kvy,kvz,k] (8)
这里q0,k,q1,k,q2,k,q3,k,vx,k,vy,k,vz,k是k时刻的四元数状态和角速度,从方程(7)可得,状态转换方程为:
这里Δt是取样时间,由于没有控制输入,让B=0n×p,则B·uk-1=0n×1;使用角速度来估计四元数状态,得到过程噪声向量为
wk=[0000 wx wy wz]T (10)
这里wx,wy,wz是角速度的过程噪声;由于使用陀螺仪来测量角速度,观察矩阵H为
H=[03×4I3×3] (11)
qk=[q0,k/D q1,k/D q2,k/D q3,k/D] (12)
结合公式(6)到公式(12),可从时刻k-1的惯性测量仪状态xk-1估计出时刻k的惯性测量仪状态xk。
所述步骤S3包括以下步骤:
利用机器人的末端位姿进行反解,然后每个关节按反解的角度运动,当全部关节运动完毕虚拟机器人的手抓末端就到达指定的位置。这种情况适合于周围没有障碍物的情况,虚拟机器人手臂运动不会与周围环境障碍物发生碰撞。
而在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换矩阵,一般地有:
对于一个具有六关节的机器人,定义机座坐标系为坐标系1,最后一个坐标系为坐标系6,从机座坐标架到最后一个坐标架的齐次变换矩阵T6定义为:
利用(14),(5)有:
T6=M (15)
通过求解(15)得到六个关节运动角度值:(θ1,θ2,...θ6)。
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种基于混合传感器的人机交互方法,允许操作者通过三维的手部动作来控制机器人。这种基于混合传感器的接口允许操作员使用手部和手臂的动作控制机器人而没有物理装置的限制,只需要把精力集中在手头的任务也不用把任务都分解为那些有限的指令。
附图说明
图1是骨架关节点图;
图2是右手关节点图;
图3是基于混合传感器的人机交互流程图。
具体实施方式
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
本发明基于混合传感器进行人机交互方法包括如下步骤:
S1、实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;
S2、使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;
S3、根据上述步骤获取的操作员手部位姿驱动机器人。
所述步骤S1包括以下步骤:
操作员通过手部运动进行机器人操作任务时,由固定在操作员前面的Kinect捕获RGB图像和深度图像,连续处理该过程中的RGB图像和深度图像实现人手跟踪和定位;Kinect有三种自动对焦摄像头:两个优化深度检测的红外摄像头和一个标准的用于视觉识别的视觉光谱摄像头;
从深度图像中提取人体骨架关节点;所提取出来的这十五个关节点如图1所示,从上到下和从左到右排序为:(1)头;(2)肩中心;(3)右肩;(4)右手肘;(5)右手腕;(6)左肩;(7)左手肘;(8)左手腕;(9)髋关节中心;(10)右髋;(11)右膝;(12)右脚;(13)左髋;(14)左膝;(15)左脚;这十五个关节点的坐标被称为Kinect坐标;如图2所示,操作员右手的位置可定义为右手腕P5的位置,但这样直接利用P5的位置信息来控制机器人可能导致机器人的位置受操作员身体移动或颤抖的影响;为了解决这个问题,将肩关节P3作为参考点并构建参考点的右手框架;
P5=P5-P3 (1)
定义右手相对于右肩的移动范围为 而机器人的移动范围为 机器人移动范围的映射点为:
所述步骤S2包括以下步骤:
操作员通过手部运动进行机器人操作任务时,右手拿着一个惯性测量仪,这个惯性测量仪可以确定操作员右手的滚动、俯仰和偏转姿态;惯性测量仪由一个三轴加速计,两个两轴陀螺仪和一个三轴磁力计组成;
定义三个坐标系:操作员本体坐标系xbybzb,惯性测量仪坐标系xsyszs和地球坐标系xeyeze;惯性测量仪坐标系xsyszs对应三个正交安装的加速计和磁力计的轴;由于惯性测量仪被刚性地安装在机器人末端上,假定操作员本体坐标系xbybzb与惯性测量仪坐标系xsyszs结合;地球固定坐标系xeyeze遵循北-东-下(NED)公约,其中xe指向北,ye指向东而ze指向下;惯性测量仪能测量其自身的滚动、俯仰和偏转姿态;定义绕xe的旋转φ表示滚动,绕ye轴的旋转θ表示俯仰而绕ze轴的旋转ψ表示偏转;根据欧拉旋转定理,从欧拉角φ、θ和ψ到四元数q的转换为:
而四个欧拉参数的约束为:
由于陀螺仪和磁力计都有白噪声和随机游走,为了得到稳定的数据,利用卡尔曼滤波从一组嘈杂和不完整的测量中估计惯性测量仪的状态;从时刻k-1的惯性测量仪状态xk-1估计时刻k的惯性测量仪状态xk的转换方程为:
xk=Ak·xk-1+B·uk-1+wk-1 (6)
zk=H·xk+vk
这里xk是n×1的状态向量,代表时刻k的惯性测量仪状态;A是n×n的状态转换矩阵;B是n×p的***输入矩阵;uk-1是p×1的k-1时刻确定性输入向量,p为确定性输入的个数;wk-1是k-1时刻的n×1过程噪声向量;zk是k时刻的m×1测量向量;H是m×n的观察矩阵而vk是m×1的测量噪声向量;此处n=7,m=6;与时间相关的四元数微分方程为:
其中vx,vy,vz是惯性测量仪在轴xs,ys,zs的角速度;由于状态xk包括四元数状态和角速度,所以xk有以下形式:
xk=[q0,kq1,kq2,kq3,kvx,kvy,kvz,k] (8)
这里q0,k,q1,k,q2,k,q3,k,vx,k,vy,k,vz,k是k时刻的四元数状态和角速度,从方程(7)可得,状态转换方程为:
这里Δt是取样时间,由于没有控制输入,让B=0n×p,则B·uk-1=0n×1;使用角速度来估计四元数状态,得到过程噪声向量为
wk=[0000wx wy wz]T (10)
这里wx,wy,wz是角速度的过程噪声;由于使用陀螺仪来测量角速度,观察矩阵H为
H=[03×4 I3×3] (11)
qk=[q0,k/D q1,k/D q2,k/D q3,k/D] (12)
结合公式(6)到公式(12),可从时刻k-1的惯性测量仪状态xk-1估计出时刻k的惯性测量仪状态xk。
所述步骤S3包括以下步骤:
利用机器人的末端位姿进行反解,然后每个关节按反解的角度运动,当全部关节运动完毕虚拟机器人的手抓末端就到达指定的位置。这种情况适合于周围没有障碍物的情况,虚拟机器人手臂运动不会与周围环境障碍物发生碰撞。
而在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换矩阵,一般地有:
对于一个具有六关节的机器人,定义机座坐标系为坐标系1,最后一个坐标系为坐标系6,从机座坐标架到最后一个坐标架的齐次变换矩阵T6定义为:
利用(14),(5)有:
T6=M (15)
通过求解(15)得到六个关节运动角度值:(θ1,θ2,...,θ6)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.基于混合传感器的人机交互方法,其特征在于,包括以下步骤:
S1、实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;
S2、使用惯性测量仪测量操作员的手部姿态,并结合四元数算法和卡尔曼滤波对姿态数据进行估计,从而得到稳定的操作员的手部姿态;
S3、根据上述步骤获取的操作员手部位姿驱动机器人。
2.根据权利要求1所述的基于混合传感器的人机交互方法,其特征在于,所述步骤S1包括:
操作员通过手部运动进行机器人操作任务时,由固定在操作员前面的Kinect捕获RGB图像和深度图像,连续处理该过程中的RGB图像和深度图像实现人手跟踪和定位;Kinect有三种自动对焦摄像头:两个优化深度检测的红外摄像头和一个标准的用于视觉识别的视觉光谱摄像头;
从深度图像中提取人体骨架关节点;所提取出来的这十五个关节点从上到下和从左到右排序为:(1)头;(2)肩中心;(3)右肩;(4)右手肘;(5)右手腕;(6)左肩;(7)左手肘;(8)左手腕;(9)髋关节中心;(10)右髋;(11)右膝;(12)右脚;(13)左髋;(14)左膝;(15)左脚;这十五个关节点的坐标被称为Kinect坐标;操作员右手的位置定义为右手腕P5的位置,将肩关节P3作为参考点并构建参考点的右手框架;
P′5=P5-P3 (1)
设定右手相对于右肩的移动范围为 而机器人的移动范围为 机器人移动范围的映射点为:
3.根据权利要求1所述的基于混合传感器的人机交互方法,其特征在于,所述步骤S2包括以下步骤:
操作员通过手部运动进行机器人操作任务时,右手拿着一个惯性测量仪,这个惯性测量仪可以确定操作员右手的滚动、俯仰和偏转姿态;惯性测量仪由一个三轴加速计,两个两轴陀螺仪和一个三轴磁力计组成;
定义三个坐标系:操作员本体坐标系xbybzb,惯性测量仪坐标系xsyszs和地球坐标系xeyeze;惯性测量仪坐标系xsyszs对应三个正交安装的加速计和磁力计的轴;由于惯性测量仪被刚性地安装在机器人末端上,假定操作员本体坐标系xbybzb与惯性测量仪坐标系xsyszs结合;地球固定坐标系xeyeze遵循北-东-下(NED)公约,其中xe指向北,ye指向东而ze指向下;惯性测量仪能测量其自身的滚动、俯仰和偏转姿态;定义绕xe的旋转φ表示滚动,绕ye轴的旋转θ表示俯仰而绕ze轴的旋转ψ表示偏转;根据欧拉旋转定理,从欧拉角φ、θ和ψ到四元数q的转换为:
而四个欧拉参数的约束为:
由于陀螺仪和磁力计都有白噪声和随机游走,为了得到稳定的数据,利用卡尔曼滤波从一组嘈杂和不完整的测量中估计惯性测量仪的状态;从时刻k-1的惯性测量仪状态xk-1估计时刻k的惯性测量仪状态xk的转换方程为:
xk=Ak·xk-1+B·uk-1+wk-1 (6)
zk=H·xk+vk
这里xk是n×1的状态向量,代表时刻k的惯性测量仪状态;A是n×n的状态转换矩阵;B是n×p的***输入矩阵;uk-1是p×1的k-1时刻确定性输入向量,p为确定性输入的个数;wk-1是k-1时刻的n×1过程噪声向量;zk是k时刻的m×1测量向量;H是m×n的观察矩阵而vk是m×1的测量噪声向量;此处n=7,m=6;与时间相关的四元数微分方程为:
其中vx,vy,vz是惯性测量仪在轴xs,ys,zs的角速度;由于状态xk包括四元数状态和角速度,所以xk有以下形式:
xk=[q0,kq1,kq2,kq3,kvx,kvy,kvz,k] (8)
其中q0,k,q1,k,q2,k,q3,k,vx,k,vy,k,vz,k是k时刻的四元数状态和角速度,从方程(7)可得,状态转换方程为:
其中Δt是取样时间,由于没有控制输入,让B=0n×p,则B·uk-1=0n×1;使用角速度来估计四元数状态,得到过程噪声向量为
wk=[0000wxwywz]T (10)
其中wx,wy,wz是角速度的过程噪声;由于使用陀螺仪来测量角速度,观察矩阵H为
H=[03×4I3×3] (11)
qk=[q0,k/D q1,k/D q2,k/D q3,k/D] (12)
结合公式(6)到公式(12),可从时刻k-1的惯性测量仪状态xk-1估计出时刻k的惯性测量仪状态xk。
4.根据权利要求1所述的基于混合传感器的人机交互方法,其特征在于,所述步骤S3包括以下步骤:
利用机器人的末端位姿进行反解,然后每个关节按反解的角度运动,当全部关节运动完毕虚拟机器人的手抓末端就到达指定的位置;这种情况适合于周围没有障碍物的情况,虚拟机器人手臂运动不会与周围环境障碍物发生碰撞;
在Denavit-Hartenberg表示法中,Ai表示从坐标系i-1到坐标系i的齐次坐标变换矩阵,则有:
对于一个具有六关节的机器人,定义机座坐标系为坐标系1,最后一个坐标系为坐标系6,从机座坐标架到最后一个坐标架的齐次变换矩阵T6定义为:
利用(14),(5)有:
T6=M (15)
通过求解(15)得到六个关节运动角度值:(θ1,θ2,...,θ6)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310047285.XA CN103112007B (zh) | 2013-02-06 | 2013-02-06 | 基于混合传感器的人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310047285.XA CN103112007B (zh) | 2013-02-06 | 2013-02-06 | 基于混合传感器的人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103112007A true CN103112007A (zh) | 2013-05-22 |
CN103112007B CN103112007B (zh) | 2015-10-28 |
Family
ID=48410425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310047285.XA Active CN103112007B (zh) | 2013-02-06 | 2013-02-06 | 基于混合传感器的人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103112007B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103399637A (zh) * | 2013-07-31 | 2013-11-20 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
CN103398702A (zh) * | 2013-08-05 | 2013-11-20 | 青岛海通机器人***有限公司 | 一种移动机器人远程操控装置及其操控技术 |
CN103412649A (zh) * | 2013-08-20 | 2013-11-27 | 苏州跨界软件科技有限公司 | 基于非接触式手部动作捕捉的控制*** |
CN103544713A (zh) * | 2013-10-17 | 2014-01-29 | 芜湖金诺数字多媒体有限公司 | 一种基于刚体物理模拟***的人体投影交互方法 |
CN104252228A (zh) * | 2013-06-28 | 2014-12-31 | 三星电子株式会社 | 显示装置及控制显示装置的方法 |
CN104484574A (zh) * | 2014-12-25 | 2015-04-01 | 东华大学 | 一种基于四元数的实时人体姿态监督训练矫正*** |
CN104772756A (zh) * | 2015-01-26 | 2015-07-15 | 杭州师范大学 | 基于惯性测量单元的机械臂及其控制方法 |
CN104959984A (zh) * | 2015-07-15 | 2015-10-07 | 深圳市优必选科技有限公司 | 一种智能机器人的控制*** |
CN105252538A (zh) * | 2015-11-06 | 2016-01-20 | 邹海英 | 一种新型工业机器人示教器 |
CN105487660A (zh) * | 2015-11-25 | 2016-04-13 | 北京理工大学 | 基于虚拟现实技术的沉浸式舞台表演交互方法及*** |
CN106127788A (zh) * | 2016-07-04 | 2016-11-16 | 触景无限科技(北京)有限公司 | 一种视觉避障方法和装置 |
CN106182003A (zh) * | 2016-08-01 | 2016-12-07 | 清华大学 | 一种机械臂示教方法、装置及*** |
CN106293103A (zh) * | 2016-10-21 | 2017-01-04 | 北京工商大学 | 基于惯性传感器的四轴飞行器手势控制装置和控制方法 |
TWI574800B (zh) * | 2016-07-19 | 2017-03-21 | Robot control system | |
CN106647248A (zh) * | 2017-01-13 | 2017-05-10 | 中国科学院深圳先进技术研究院 | 一种确定串联机器人反解结果的方法及装置 |
CN108284444A (zh) * | 2018-01-25 | 2018-07-17 | 南京工业大学 | 人机协作下基于Tc-ProMps算法的多模式人体动作预测方法 |
CN108762495A (zh) * | 2018-05-18 | 2018-11-06 | 深圳大学 | 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实*** |
CN108748144A (zh) * | 2018-05-28 | 2018-11-06 | 上海优尼斯工业服务有限公司 | 一种人机协作机械臂的碰撞识别方法 |
CN108777081A (zh) * | 2018-05-31 | 2018-11-09 | 华中师范大学 | 一种虚拟舞蹈教学方法及*** |
CN110480634A (zh) * | 2019-08-08 | 2019-11-22 | 北京科技大学 | 一种针对机械臂运动控制的手臂引导运动控制方法 |
CN111923043A (zh) * | 2020-07-30 | 2020-11-13 | 苏州富鑫林光电科技有限公司 | 一种基于多传感器融合的多机械手定位方法 |
CN113829357A (zh) * | 2021-10-25 | 2021-12-24 | 香港中文大学(深圳) | 机器人手臂遥操作方法、装置、***及介质 |
CN115641647A (zh) * | 2022-12-23 | 2023-01-24 | 海马云(天津)信息技术有限公司 | 数字人手腕驱动方法与装置、存储介质及电子设备 |
CN116330305A (zh) * | 2023-05-30 | 2023-06-27 | 常州旭泰克***科技有限公司 | 多模态人机交互装配方法、***、设备及其介质 |
WO2023168849A1 (zh) * | 2022-03-08 | 2023-09-14 | 江南大学 | 机械臂动作捕捉方法、介质、电子设备及*** |
US11766784B1 (en) | 2022-03-08 | 2023-09-26 | Jiangnan University | Motion capture method and system of robotic arm, medium, and electronic device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102818524A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种基于视觉测量的在线机器人参数校准方法 |
CN102814814A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种双臂机器人基于Kinect的人机交互方法 |
-
2013
- 2013-02-06 CN CN201310047285.XA patent/CN103112007B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102818524A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种基于视觉测量的在线机器人参数校准方法 |
CN102814814A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种双臂机器人基于Kinect的人机交互方法 |
Non-Patent Citations (4)
Title |
---|
FLETCHER DUUN,LAN PARBERRY: "《3D数学基础 图形与游戏开发》", 31 December 2005, 清华大学出版社, article "从欧拉角转换到四元数", pages: 170-171 * |
SENG-HOON PETER WON等: "A fasting tool tracking system using an IMU and a position sensor with kalman filters and a fuzzy expert system", 《TRANSACTIONS ON INDUSTRIAL ELECTRONICS》, vol. 56, no. 5, 31 May 2009 (2009-05-31), XP 011249133 * |
曹雏清,李瑞峰,赵立军: "基于深度图像技术的手势识别方法", 《计算机工程》, vol. 38, no. 8, 30 April 2012 (2012-04-30) * |
王明东: "基于kinect骨骼跟踪功能实现PC的手势控制", 《漳州职业技术学院学报》, vol. 14, no. 2, 30 June 2012 (2012-06-30), pages 11 - 16 * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104252228A (zh) * | 2013-06-28 | 2014-12-31 | 三星电子株式会社 | 显示装置及控制显示装置的方法 |
CN104252228B (zh) * | 2013-06-28 | 2019-08-23 | 三星电子株式会社 | 显示装置及控制显示装置的方法 |
CN103399637A (zh) * | 2013-07-31 | 2013-11-20 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
CN103399637B (zh) * | 2013-07-31 | 2015-12-23 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
CN103398702A (zh) * | 2013-08-05 | 2013-11-20 | 青岛海通机器人***有限公司 | 一种移动机器人远程操控装置及其操控技术 |
CN103398702B (zh) * | 2013-08-05 | 2015-08-19 | 青岛海通机器人***有限公司 | 一种移动机器人远程操控装置及其操控技术 |
CN103412649A (zh) * | 2013-08-20 | 2013-11-27 | 苏州跨界软件科技有限公司 | 基于非接触式手部动作捕捉的控制*** |
CN103544713A (zh) * | 2013-10-17 | 2014-01-29 | 芜湖金诺数字多媒体有限公司 | 一种基于刚体物理模拟***的人体投影交互方法 |
CN104484574A (zh) * | 2014-12-25 | 2015-04-01 | 东华大学 | 一种基于四元数的实时人体姿态监督训练矫正*** |
CN104772756A (zh) * | 2015-01-26 | 2015-07-15 | 杭州师范大学 | 基于惯性测量单元的机械臂及其控制方法 |
CN104959984A (zh) * | 2015-07-15 | 2015-10-07 | 深圳市优必选科技有限公司 | 一种智能机器人的控制*** |
CN105252538A (zh) * | 2015-11-06 | 2016-01-20 | 邹海英 | 一种新型工业机器人示教器 |
CN105487660A (zh) * | 2015-11-25 | 2016-04-13 | 北京理工大学 | 基于虚拟现实技术的沉浸式舞台表演交互方法及*** |
CN106127788A (zh) * | 2016-07-04 | 2016-11-16 | 触景无限科技(北京)有限公司 | 一种视觉避障方法和装置 |
CN106127788B (zh) * | 2016-07-04 | 2019-10-25 | 触景无限科技(北京)有限公司 | 一种视觉避障方法和装置 |
TWI574800B (zh) * | 2016-07-19 | 2017-03-21 | Robot control system | |
CN106182003A (zh) * | 2016-08-01 | 2016-12-07 | 清华大学 | 一种机械臂示教方法、装置及*** |
CN106293103A (zh) * | 2016-10-21 | 2017-01-04 | 北京工商大学 | 基于惯性传感器的四轴飞行器手势控制装置和控制方法 |
CN106293103B (zh) * | 2016-10-21 | 2023-09-26 | 北京工商大学 | 基于惯性传感器的四轴飞行器手势控制装置和控制方法 |
CN106647248A (zh) * | 2017-01-13 | 2017-05-10 | 中国科学院深圳先进技术研究院 | 一种确定串联机器人反解结果的方法及装置 |
CN106647248B (zh) * | 2017-01-13 | 2020-02-07 | 中国科学院深圳先进技术研究院 | 一种确定串联机器人反解结果的方法及装置 |
CN108284444B (zh) * | 2018-01-25 | 2021-05-11 | 南京工业大学 | 人机协作下基于Tc-ProMps算法的多模式人体动作预测方法 |
CN108284444A (zh) * | 2018-01-25 | 2018-07-17 | 南京工业大学 | 人机协作下基于Tc-ProMps算法的多模式人体动作预测方法 |
CN108762495A (zh) * | 2018-05-18 | 2018-11-06 | 深圳大学 | 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实*** |
CN108762495B (zh) * | 2018-05-18 | 2021-06-29 | 深圳大学 | 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实*** |
CN108748144B (zh) * | 2018-05-28 | 2020-06-30 | 上海优尼斯工业服务有限公司 | 一种人机协作机械臂的碰撞识别方法 |
CN108748144A (zh) * | 2018-05-28 | 2018-11-06 | 上海优尼斯工业服务有限公司 | 一种人机协作机械臂的碰撞识别方法 |
CN108777081A (zh) * | 2018-05-31 | 2018-11-09 | 华中师范大学 | 一种虚拟舞蹈教学方法及*** |
CN110480634A (zh) * | 2019-08-08 | 2019-11-22 | 北京科技大学 | 一种针对机械臂运动控制的手臂引导运动控制方法 |
CN111923043A (zh) * | 2020-07-30 | 2020-11-13 | 苏州富鑫林光电科技有限公司 | 一种基于多传感器融合的多机械手定位方法 |
CN113829357A (zh) * | 2021-10-25 | 2021-12-24 | 香港中文大学(深圳) | 机器人手臂遥操作方法、装置、***及介质 |
CN113829357B (zh) * | 2021-10-25 | 2023-10-03 | 香港中文大学(深圳) | 机器人手臂遥操作方法、装置、***及介质 |
WO2023168849A1 (zh) * | 2022-03-08 | 2023-09-14 | 江南大学 | 机械臂动作捕捉方法、介质、电子设备及*** |
US11766784B1 (en) | 2022-03-08 | 2023-09-26 | Jiangnan University | Motion capture method and system of robotic arm, medium, and electronic device |
CN115641647A (zh) * | 2022-12-23 | 2023-01-24 | 海马云(天津)信息技术有限公司 | 数字人手腕驱动方法与装置、存储介质及电子设备 |
CN116330305A (zh) * | 2023-05-30 | 2023-06-27 | 常州旭泰克***科技有限公司 | 多模态人机交互装配方法、***、设备及其介质 |
CN116330305B (zh) * | 2023-05-30 | 2023-10-31 | 常州旭泰克***科技有限公司 | 多模态人机交互装配方法、***、设备及其介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103112007B (zh) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103112007B (zh) | 基于混合传感器的人机交互方法 | |
US20210205986A1 (en) | Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose | |
Wolf et al. | Gesture-based robot control with variable autonomy from the JPL BioSleeve | |
Frank et al. | Realizing mixed-reality environments with tablets for intuitive human-robot collaboration for object manipulation tasks | |
CN102814814B (zh) | 一种双臂机器人基于Kinect的人机交互方法 | |
Fang et al. | A robotic hand-arm teleoperation system using human arm/hand with a novel data glove | |
WO2011065035A1 (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
CN104570731A (zh) | 一种基于Kinect的无标定人机交互控制***及方法 | |
Fang et al. | A novel data glove using inertial and magnetic sensors for motion capture and robotic arm-hand teleoperation | |
Bhuyan et al. | Gyro-accelerometer based control of a robotic arm using AVR microcontroller | |
CN109243575B (zh) | 一种基于移动交互和增强现实的虚拟针灸方法及*** | |
US20130202212A1 (en) | Information processing apparatus, information processing method, and computer program | |
Pierce et al. | A data-driven method for determining natural human-robot motion mappings in teleoperation | |
Dwivedi et al. | Combining electromyography and fiducial marker based tracking for intuitive telemanipulation with a robot arm hand system | |
US11422625B2 (en) | Proxy controller suit with optional dual range kinematics | |
Odesanmi et al. | Skill learning framework for human–robot interaction and manipulation tasks | |
Kumar et al. | Computer vision based object grasping 6DoF robotic arm using picamera | |
Zhang et al. | A handheld master controller for robot-assisted microsurgery | |
Li et al. | A dexterous hand-arm teleoperation system based on hand pose estimation and active vision | |
Kryuchkov et al. | Simulation of the «cosmonaut-robot» system interaction on the lunar surface based on methods of machine vision and computer graphics | |
Tanzini et al. | New interaction metaphors to control a hydraulic working machine's arm | |
Bai et al. | Kinect-based hand tracking for first-person-perspective robotic arm teleoperation | |
Tsitos et al. | Handling vision noise through robot motion control in a real-time teleoperation system | |
Weng et al. | Applications of light-weight wearable devices to online programming of industrial dual-arm robots | |
Mohammad et al. | Tele-operation of robot using gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |