CN111975756B - 一种3d视觉测量***的手眼标定***及方法 - Google Patents

一种3d视觉测量***的手眼标定***及方法 Download PDF

Info

Publication number
CN111975756B
CN111975756B CN202010448062.4A CN202010448062A CN111975756B CN 111975756 B CN111975756 B CN 111975756B CN 202010448062 A CN202010448062 A CN 202010448062A CN 111975756 B CN111975756 B CN 111975756B
Authority
CN
China
Prior art keywords
coordinate
coordinate system
robot
vision sensor
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010448062.4A
Other languages
English (en)
Other versions
CN111975756A (zh
Inventor
李文亮
曾恺田
陈海亮
李佳昌
王平江
郑康
吴梓鸿
洪东方
苏惠阳
何钊滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quanzhou-Hust Intelligent Manufacturing Future
Huazhong University of Science and Technology
Original Assignee
Quanzhou-Hust Intelligent Manufacturing Future
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quanzhou-Hust Intelligent Manufacturing Future, Huazhong University of Science and Technology filed Critical Quanzhou-Hust Intelligent Manufacturing Future
Priority to CN202010448062.4A priority Critical patent/CN111975756B/zh
Publication of CN111975756A publication Critical patent/CN111975756A/zh
Application granted granted Critical
Publication of CN111975756B publication Critical patent/CN111975756B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种3D视觉测量***的手眼标定***及方法,其方法包括以下步骤:将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,获取三个第一特征点的坐标位置;通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;计算3D视觉传感器的平移向量,计算出三条直线交点在第二次测量坐标系中的位姿;标定出机器人基坐标系,进行坐标转换,获取手眼矩阵。相对现有技术,本发明步骤简单,减少工作量和工作时间,手眼标定稳定性高。

Description

一种3D视觉测量***的手眼标定***及方法
技术领域
本发明涉及机器人视觉传感技术领域,具体而言,特别涉及一种3D视觉测量***的手眼标定***及标定方法。
背景技术
现有技术中,如申请号为201910446270.8的一种用于四自由度4-R(2-SS)并联机器人立体视觉手眼***的在线手眼标定和抓取位姿计算方法,包括如下步骤:具有运动误差补偿的立体视觉Eye-to-hand模型改进:构建相机固定在机器人本体外的Eye-to-hand手眼基础模型,以及手眼***中基于非线性畸变的立体视觉模型,同时,根据相机间位姿关系构建立体视觉中各相机与机器人的手眼模型组,以改进单相机的Eye-to-hand基础模型;并对改进后的Eye-to-hand模型进行机器人运动误差补偿;基于垂直分量修正的Eye-to-hand模型求解:根据各相机获取的机器人多次运动的标定数据,基于并联机器人中标定板和末端夹持机构的垂直约束对手眼标定位姿参数中的垂直分量进行修正,实现对具有旋转运动约束的四自由度4-R(2-SS)并联机器人的手眼标定中所有位姿和运动误差的准确求取;基于Eye-to-hand模型非平凡解约束的4-R(2-SS)并联机器人标定运动规划:基于末端夹持机构标定运动间的位姿关系,构建Eye-to-hand模型的非平凡解约束,用于剔除标定运动中的无效位姿,以规划并联机器人末端夹持机构的手眼标定运动,实现高精度高效率的四自由度4-R(2-SS)并联机器人在线手眼标定;基于立体视觉和4-R(2-SS)并联机器人的抓取位姿计算:采用基于手眼标定获取的机器人运动误差构建具有误差补偿的并联机器人抓取模型,同时,基于立体视觉模型计算相机坐标系下对象的最优抓取位姿,基于并联机器人运动学方程计算末端夹持机构在并联机器人基础坐标系下的当前位姿,并结合抓取模型和在线手眼标定得到的相机基础坐标系在并联机器人基础坐标系下的位姿,计算末端夹持机构当前位姿与最优抓取位姿之间的转换矩阵,实现基于立体视觉和4-R(2-SS)并联机器人的末端夹持机构的抓取位姿计算。由上述记载可知,现有技术中,机器人的线手眼标定方法,步骤复杂,需要花费大量的手眼标定工作量和时间,对技术人员的专业水平要求高,手眼标定稳定性差。所以有必要对这些问题进行解决。
发明内容
本发明旨在至少在一定程度上解决现有技术中的上述技术问题之一。为此,本发明的一个目的在于提出一种步骤简单,减少工作量和工作时间,手眼标定稳定性高的3D视觉测量***的手眼标定***及方法。
本发明解决上述技术问题的技术方案如下:一种3D视觉测量***的手眼标定方法,包括以下步骤:
一种3D视觉测量***的手眼标定方法,包括以下步骤:
步骤1.将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
步骤2.通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;
步骤3.利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点在3D视觉传感器第二次测量坐标系{C}中的位姿;
步骤4.通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述步骤1中三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2 Z2]T;直线OC的第一特征点P3的坐标位置为[X3 Y3 Z3]T
所述步骤2中直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6 Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标
Figure GDA0002699984570000035
其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
进一步,所述步骤3中计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为
Figure GDA0002699984570000031
(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T
利用第二特征点的坐标系中点P1和点P4组成向量为
Figure GDA0002699984570000032
(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为
Figure GDA0002699984570000033
(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为
Figure GDA0002699984570000034
(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
Figure GDA0002699984570000041
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
Figure GDA0002699984570000042
也就是:
Figure GDA0002699984570000043
展开得:
Figure GDA0002699984570000044
每2个等式做差:
Figure GDA0002699984570000045
写成矩阵形式:
Figure GDA0002699984570000046
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即3D视觉传感器的平移向量记为
Figure GDA0002699984570000047
(a,b,c)。
进一步,所述步骤3中三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
Figure GDA0002699984570000051
将上述方程组展开,得到:
Figure GDA0002699984570000052
解得:
Figure GDA0002699984570000053
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T
进一步,所述步骤3中,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量
Figure GDA0002699984570000054
的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure GDA0002699984570000055
具体为:
Figure GDA0002699984570000056
其中,列向量
Figure GDA0002699984570000057
表示笛卡尔直角坐标系{O}的原点在3D视觉传感器第二次测量坐标系{C}中的位置,即所求得的三条直线交点O点的坐标[i j k]T
进一步,所述步骤4中:
通过机器人在三条直线交点O点标定出机器人基坐标系,得到矩阵
Figure GDA0002699984570000058
进行坐标转换,即
Figure GDA0002699984570000059
根据矩阵运算规则,推导出
Figure GDA00026999845700000510
其中,
Figure GDA00026999845700000511
矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;
Figure GDA00026999845700000512
矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,
Figure GDA00026999845700000513
矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,
Figure GDA0002699984570000061
矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure GDA0002699984570000062
本发明的有益效果是:步骤简单,可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
本发明解决上述技术问题的另一技术方案如下:一种3D视觉测量***的手眼标定***,包括:
第一获取坐标模块,所述第一获取坐标模块将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
第二获取坐标模块,所述第一获取坐标模块通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后机器人的位姿;
计算模块,所述计算模块利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位置;
坐标转换模块,所述坐标转换模块通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
本发明的有益效果是:可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
附图说明
图1为本发明一种3D视觉测量***的手眼标定方法的流程图;
图2为本发明平移3D视觉传感器第二次进行测量的示意图;
图3为本发明建立笛卡尔直角坐标系{O}的示意图;
图4为本发明一种3D视觉测量***的手眼标定***的模块框图。
附图中,各标号所代表的部件列表如下:
1、第一获取坐标模块,2、第二获取坐标模块,3、计算模块,4、坐标转换模块。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
实施例1:
如图1至图3所示,一种3D视觉测量***的手眼标定方法,包括以下步骤:
步骤1.将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
步骤2.通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;
步骤3.利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点在3D视觉传感器第二次测量坐标系{C}中的位姿;
步骤4.通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
上述实施例中,所述步骤1中三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2 Z2]T;直线OC的第一特征点P3的坐标位置为[X3 Y3 Z3]T
所述步骤2中直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6 Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标
Figure GDA0002699984570000086
其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
上述实施例中,所述步骤3中计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为
Figure GDA0002699984570000081
(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T
利用第二特征点的坐标系中点P1和点P4组成向量为
Figure GDA0002699984570000082
(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为
Figure GDA0002699984570000083
(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为
Figure GDA0002699984570000084
(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
Figure GDA0002699984570000085
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
Figure GDA0002699984570000091
也就是:
Figure GDA0002699984570000092
展开得:
Figure GDA0002699984570000093
每2个等式做差:
Figure GDA0002699984570000094
写成矩阵形式:
Figure GDA0002699984570000095
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即3D视觉传感器的平移向量记为
Figure GDA0002699984570000096
(a,b,c)。
上述实施例中,所述步骤3中三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
Figure GDA0002699984570000097
将上述方程组展开,得到:
Figure GDA0002699984570000098
解得:
Figure GDA0002699984570000101
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T
上述实施例中,所述步骤3中,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量
Figure GDA0002699984570000102
的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure GDA0002699984570000103
具体为:
Figure GDA0002699984570000104
展开:
Figure GDA0002699984570000105
其中,列向量
Figure GDA0002699984570000106
表示笛卡尔直角坐标系{O}的原点在3D视觉传感器第二次测量坐标系{C}中的位置,即所求得的三条直线交点O点的坐标[i j k]T
上述实施例中,所述步骤4中:
通过机器人在三条直线交点O点标定出机器人基坐标系,得到矩阵
Figure GDA0002699984570000107
进行坐标转换,即
Figure GDA0002699984570000108
根据矩阵运算规则,推导出
Figure GDA0002699984570000109
其中,
Figure GDA00026999845700001010
矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;
Figure GDA00026999845700001011
矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,
Figure GDA00026999845700001012
矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,
Figure GDA0002699984570000111
矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure GDA0002699984570000112
本实施例的3D视觉测量***的手眼标定方法步骤简单,可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
实施例2:
如图2至图4所示,一种3D视觉测量***的手眼标定***,包括:
第一获取坐标模块1,所述第一获取坐标模块1将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
第二获取坐标模块2,所述第一获取坐标模块1通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后机器人的位姿;
计算模块3,所述计算模块3利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位置;
坐标转换模块4,所述坐标转换模块4通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
上述实施例中,所述第一获取坐标模块的三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2 Z2]T;直线OC的第一特征点P3的坐标位置为[X3Y3 Z3]T
所述第二获取坐标模块2的直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标
Figure GDA0002699984570000121
其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
上述实施例中,所述计算模块3计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为
Figure GDA0002699984570000122
(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T
利用第二特征点的坐标系中点P1和点P4组成向量为
Figure GDA0002699984570000123
(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为
Figure GDA0002699984570000124
(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为
Figure GDA0002699984570000125
(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
Figure GDA0002699984570000126
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
Figure GDA0002699984570000127
也就是:
Figure GDA0002699984570000131
展开得:
Figure GDA0002699984570000132
每2个等式做差:
Figure GDA0002699984570000133
写成矩阵形式:
Figure GDA0002699984570000134
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即3D视觉传感器的平移向量记为
Figure GDA0002699984570000135
(a,b,c)。
上述实施例中,所述计算模块3的三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
Figure GDA0002699984570000136
将上述方程组展开,得到:
Figure GDA0002699984570000137
解得:
Figure GDA0002699984570000138
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T
上述实施例中,所述计算模块3,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量
Figure GDA0002699984570000141
的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure GDA0002699984570000142
具体为:
Figure GDA0002699984570000143
展开:
Figure GDA0002699984570000144
其中,列向量
Figure GDA0002699984570000145
表示笛卡尔直角坐标系{O}的原点在3D视觉传感器第二次测量坐标系{C}中的位置,即所求得的三条直线交点O点的坐标[i j k]T
上述实施例中,所述坐标转换模块4:
通过机器人在三条直线交点O点标定出机器人基坐标系,得到矩阵
Figure GDA0002699984570000146
进行坐标转换,即
Figure GDA0002699984570000147
根据矩阵运算规则,推导出
Figure GDA0002699984570000148
其中,
Figure GDA0002699984570000149
矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;
Figure GDA00026999845700001410
矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,
Figure GDA00026999845700001411
矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,
Figure GDA00026999845700001412
矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure GDA00026999845700001413
本实施例的3D视觉测量***的手眼标定***可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种3D视觉测量***的手眼标定方法,其特征在于,包括以下步骤:
步骤1.将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
步骤2.通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;
步骤3.利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位姿;
步骤4.通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
2.根据权利要求1所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤1中三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2Z2]T;直线OC的第一特征点P3的坐标位置为[X3 Y3 Z3]T
所述步骤2中直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6 Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标
Figure FDA0002699984560000011
其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
3.根据权利要求2所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤3中计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为
Figure FDA0002699984560000025
(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T
利用第二特征点的坐标系中点P1和点P4组成向量为
Figure FDA0002699984560000026
(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为
Figure FDA0002699984560000027
(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为
Figure FDA0002699984560000028
(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
Figure FDA0002699984560000021
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
Figure FDA0002699984560000022
也就是:
Figure FDA0002699984560000023
展开得:
Figure FDA0002699984560000024
每2个等式做差:
Figure FDA0002699984560000031
写成矩阵形式:
Figure FDA0002699984560000032
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即3D视觉传感器的平移向量记为
Figure FDA0002699984560000033
(a,b,c)。
4.根据权利要求3所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤3中三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
Figure FDA0002699984560000034
将上述方程组展开,得到:
Figure FDA0002699984560000035
解得:
Figure FDA0002699984560000036
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T
5.根据权利要求4所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤3中,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量
Figure FDA0002699984560000041
的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure FDA0002699984560000042
Figure FDA0002699984560000043
具体为:
Figure FDA0002699984560000044
其中,列向量
Figure FDA0002699984560000045
表示笛卡尔直角坐标系{O}的原点在3D视觉传感器第二次测量坐标系{C}中的位置,即所求得的三条直线交点O点的坐标[i j k]T
6.根据权利要求4所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤4中:
通过机器人在三条直线交点O点标定出机器人基坐标系,得到矩阵
Figure FDA0002699984560000046
进行坐标转换,即
Figure FDA0002699984560000047
根据矩阵运算规则,推导出
Figure FDA0002699984560000048
其中,
Figure FDA0002699984560000049
矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;
Figure FDA00026999845600000410
矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,
Figure FDA00026999845600000411
矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,
Figure FDA00026999845600000412
矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
Figure FDA00026999845600000413
7.一种3D视觉测量***的手眼标定***,其特征在于,包括:
第一获取坐标模块(1),所述第一获取坐标模块(1)将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
第二获取坐标模块(2),所述第一获取坐标模块(1)通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后机器人的位姿;
计算模块(3),所述计算模块(3)利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位置;
坐标转换模块(4),所述坐标转换模块(4)通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
CN202010448062.4A 2020-05-25 2020-05-25 一种3d视觉测量***的手眼标定***及方法 Active CN111975756B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010448062.4A CN111975756B (zh) 2020-05-25 2020-05-25 一种3d视觉测量***的手眼标定***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010448062.4A CN111975756B (zh) 2020-05-25 2020-05-25 一种3d视觉测量***的手眼标定***及方法

Publications (2)

Publication Number Publication Date
CN111975756A CN111975756A (zh) 2020-11-24
CN111975756B true CN111975756B (zh) 2022-02-15

Family

ID=73442019

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010448062.4A Active CN111975756B (zh) 2020-05-25 2020-05-25 一种3d视觉测量***的手眼标定***及方法

Country Status (1)

Country Link
CN (1) CN111975756B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113514017B (zh) * 2021-05-06 2022-08-16 南京理工大学 一种并联驱动机构动平台位姿测量方法
CN113500584B (zh) * 2021-07-15 2022-06-28 西北工业大学 一种三自由度并联机器人的末端误差校正***及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101377404A (zh) * 2008-07-11 2009-03-04 北京航空航天大学 一种基于角度约束的空间圆姿态识别二义性消除方法
CN102460065A (zh) * 2009-06-25 2012-05-16 佳能株式会社 信息处理设备、信息处理方法和程序
CN104006825A (zh) * 2013-02-25 2014-08-27 康耐视公司 沿至少三个不连续平面对机器视觉摄像机进行校准的***和方法
US9821466B2 (en) * 2014-12-21 2017-11-21 X Development Llc Devices and methods for encoder calibration
WO2019019136A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated SYSTEMS AND METHODS FOR USING SEMANTIC INFORMATION FOR NAVIGATING A ROBOTIC DEVICE
CN209820416U (zh) * 2019-04-29 2019-12-20 泉州华数机器人有限公司 一种用于单目视觉***的标定装置
CN110645956A (zh) * 2019-09-24 2020-01-03 南通大学 仿昆虫复眼立体视觉的多通道视觉测距法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8989897B2 (en) * 2004-11-19 2015-03-24 Dynalog, Inc. Robot-cell calibration
CN106940894A (zh) * 2017-04-12 2017-07-11 无锡职业技术学院 一种基于主动视觉的手眼***自标定方法
CN110827359A (zh) * 2019-10-29 2020-02-21 武汉大学 基于棋盘格三面体的相机与激光器外参检校方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101377404A (zh) * 2008-07-11 2009-03-04 北京航空航天大学 一种基于角度约束的空间圆姿态识别二义性消除方法
CN102460065A (zh) * 2009-06-25 2012-05-16 佳能株式会社 信息处理设备、信息处理方法和程序
CN104006825A (zh) * 2013-02-25 2014-08-27 康耐视公司 沿至少三个不连续平面对机器视觉摄像机进行校准的***和方法
US9821466B2 (en) * 2014-12-21 2017-11-21 X Development Llc Devices and methods for encoder calibration
WO2019019136A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated SYSTEMS AND METHODS FOR USING SEMANTIC INFORMATION FOR NAVIGATING A ROBOTIC DEVICE
CN209820416U (zh) * 2019-04-29 2019-12-20 泉州华数机器人有限公司 一种用于单目视觉***的标定装置
CN110645956A (zh) * 2019-09-24 2020-01-03 南通大学 仿昆虫复眼立体视觉的多通道视觉测距法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于主动视觉的手眼矩阵和光平面标定方法;郭新年等;《计算机工程与应用》;20150930;56-60 *

Also Published As

Publication number Publication date
CN111975756A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
EP3091405B1 (en) Method, device and system for improving system accuracy of x-y motion platform
CN110640745B (zh) 基于视觉的机器人自动标定方法、设备和存储介质
CN110108208B (zh) 五轴非接触式测量机的误差补偿方法
JP4021413B2 (ja) 計測装置
CN111975756B (zh) 一种3d视觉测量***的手眼标定***及方法
CN106777656B (zh) 一种基于pmpsd的工业机器人绝对精度校准方法
JP5618770B2 (ja) ロボットの校正装置および校正方法
CN110136204B (zh) 基于双侧远心镜头相机机床位置标定的音膜球顶装配***
CN105066884A (zh) 一种机器人末端定位偏差校正方法及***
CN113211431B (zh) 基于二维码修正机器人***的位姿估计方法
CN112629499B (zh) 基于线扫描仪的手眼标定重复定位精度测量方法及装置
CN112873213B (zh) 一种提升六关节机器人工具坐标系标定精度的方法
CN114347013A (zh) 印刷电路板与fpc柔性电缆线的装配方法及相关设备
CN112454366A (zh) 一种手眼标定方法
US7957834B2 (en) Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system
CN115284292A (zh) 基于激光相机的机械臂手眼标定方法及装置
CN115179323A (zh) 基于远心视觉约束的机器末位姿测量装置及精度提升方法
CN114029982A (zh) 一种相机在机器臂外的手眼标定装置及其标定方法
CN112975959B (zh) 一种基于机器视觉的散热器装配定位方法、***及介质
CN112762822B (zh) 一种基于激光跟踪仪的机械臂校准方法及***
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
CN108109179B (zh) 基于***模型的摄像机姿态校正方法
CN116652970A (zh) 一种四轴机械臂2d手眼标定方法及***、存储介质
CN109177138B (zh) 一种玻璃与膜片的对位方法及装置
CN116394254A (zh) 机器人的零点标定方法、装置、计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20201124

Assignee: QUANZHOU HUASHU ROBOT CO.,LTD.

Assignor: QUANZHOU-HUST INTELLIGENT MANUFACTURING FUTURE

Contract record no.: X2024350000062

Denomination of invention: A Hand Eye Calibration System and Method for 3D Vision Measurement System

Granted publication date: 20220215

License type: Common License

Record date: 20240429