CN111975756B - 一种3d视觉测量***的手眼标定***及方法 - Google Patents
一种3d视觉测量***的手眼标定***及方法 Download PDFInfo
- Publication number
- CN111975756B CN111975756B CN202010448062.4A CN202010448062A CN111975756B CN 111975756 B CN111975756 B CN 111975756B CN 202010448062 A CN202010448062 A CN 202010448062A CN 111975756 B CN111975756 B CN 111975756B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- coordinate system
- robot
- vision sensor
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 31
- 239000011159 matrix material Substances 0.000 claims abstract description 64
- 239000013598 vector Substances 0.000 claims abstract description 45
- 238000013519 translation Methods 0.000 claims abstract description 31
- 238000006243 chemical reaction Methods 0.000 claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/02—Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
- B25J9/023—Cartesian coordinate type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/087—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/08—Programme-controlled manipulators characterised by modular constructions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种3D视觉测量***的手眼标定***及方法,其方法包括以下步骤:将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,获取三个第一特征点的坐标位置;通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;计算3D视觉传感器的平移向量,计算出三条直线交点在第二次测量坐标系中的位姿;标定出机器人基坐标系,进行坐标转换,获取手眼矩阵。相对现有技术,本发明步骤简单,减少工作量和工作时间,手眼标定稳定性高。
Description
技术领域
本发明涉及机器人视觉传感技术领域,具体而言,特别涉及一种3D视觉测量***的手眼标定***及标定方法。
背景技术
现有技术中,如申请号为201910446270.8的一种用于四自由度4-R(2-SS)并联机器人立体视觉手眼***的在线手眼标定和抓取位姿计算方法,包括如下步骤:具有运动误差补偿的立体视觉Eye-to-hand模型改进:构建相机固定在机器人本体外的Eye-to-hand手眼基础模型,以及手眼***中基于非线性畸变的立体视觉模型,同时,根据相机间位姿关系构建立体视觉中各相机与机器人的手眼模型组,以改进单相机的Eye-to-hand基础模型;并对改进后的Eye-to-hand模型进行机器人运动误差补偿;基于垂直分量修正的Eye-to-hand模型求解:根据各相机获取的机器人多次运动的标定数据,基于并联机器人中标定板和末端夹持机构的垂直约束对手眼标定位姿参数中的垂直分量进行修正,实现对具有旋转运动约束的四自由度4-R(2-SS)并联机器人的手眼标定中所有位姿和运动误差的准确求取;基于Eye-to-hand模型非平凡解约束的4-R(2-SS)并联机器人标定运动规划:基于末端夹持机构标定运动间的位姿关系,构建Eye-to-hand模型的非平凡解约束,用于剔除标定运动中的无效位姿,以规划并联机器人末端夹持机构的手眼标定运动,实现高精度高效率的四自由度4-R(2-SS)并联机器人在线手眼标定;基于立体视觉和4-R(2-SS)并联机器人的抓取位姿计算:采用基于手眼标定获取的机器人运动误差构建具有误差补偿的并联机器人抓取模型,同时,基于立体视觉模型计算相机坐标系下对象的最优抓取位姿,基于并联机器人运动学方程计算末端夹持机构在并联机器人基础坐标系下的当前位姿,并结合抓取模型和在线手眼标定得到的相机基础坐标系在并联机器人基础坐标系下的位姿,计算末端夹持机构当前位姿与最优抓取位姿之间的转换矩阵,实现基于立体视觉和4-R(2-SS)并联机器人的末端夹持机构的抓取位姿计算。由上述记载可知,现有技术中,机器人的线手眼标定方法,步骤复杂,需要花费大量的手眼标定工作量和时间,对技术人员的专业水平要求高,手眼标定稳定性差。所以有必要对这些问题进行解决。
发明内容
本发明旨在至少在一定程度上解决现有技术中的上述技术问题之一。为此,本发明的一个目的在于提出一种步骤简单,减少工作量和工作时间,手眼标定稳定性高的3D视觉测量***的手眼标定***及方法。
本发明解决上述技术问题的技术方案如下:一种3D视觉测量***的手眼标定方法,包括以下步骤:
一种3D视觉测量***的手眼标定方法,包括以下步骤:
步骤1.将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
步骤2.通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;
步骤3.利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点在3D视觉传感器第二次测量坐标系{C}中的位姿;
步骤4.通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述步骤1中三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2 Z2]T;直线OC的第一特征点P3的坐标位置为[X3 Y3 Z3]T;
所述步骤2中直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6 Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
进一步,所述步骤3中计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T;
利用第二特征点的坐标系中点P1和点P4组成向量为(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
也就是:
展开得:
每2个等式做差:
写成矩阵形式:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
进一步,所述步骤3中三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
将上述方程组展开,得到:
解得:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T。
进一步,所述步骤3中,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿具体为:
进一步,所述步骤4中:
其中,矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
本发明的有益效果是:步骤简单,可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
本发明解决上述技术问题的另一技术方案如下:一种3D视觉测量***的手眼标定***,包括:
第一获取坐标模块,所述第一获取坐标模块将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
第二获取坐标模块,所述第一获取坐标模块通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后机器人的位姿;
计算模块,所述计算模块利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位置;
坐标转换模块,所述坐标转换模块通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
本发明的有益效果是:可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
附图说明
图1为本发明一种3D视觉测量***的手眼标定方法的流程图;
图2为本发明平移3D视觉传感器第二次进行测量的示意图;
图3为本发明建立笛卡尔直角坐标系{O}的示意图;
图4为本发明一种3D视觉测量***的手眼标定***的模块框图。
附图中,各标号所代表的部件列表如下:
1、第一获取坐标模块,2、第二获取坐标模块,3、计算模块,4、坐标转换模块。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
实施例1:
如图1至图3所示,一种3D视觉测量***的手眼标定方法,包括以下步骤:
步骤1.将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
步骤2.通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;
步骤3.利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点在3D视觉传感器第二次测量坐标系{C}中的位姿;
步骤4.通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
上述实施例中,所述步骤1中三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2 Z2]T;直线OC的第一特征点P3的坐标位置为[X3 Y3 Z3]T;
所述步骤2中直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6 Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
上述实施例中,所述步骤3中计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T;
利用第二特征点的坐标系中点P1和点P4组成向量为(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
也就是:
展开得:
每2个等式做差:
写成矩阵形式:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
上述实施例中,所述步骤3中三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
将上述方程组展开,得到:
解得:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T。
上述实施例中,所述步骤3中,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿具体为:
展开:
上述实施例中,所述步骤4中:
其中,矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
本实施例的3D视觉测量***的手眼标定方法步骤简单,可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
实施例2:
如图2至图4所示,一种3D视觉测量***的手眼标定***,包括:
第一获取坐标模块1,所述第一获取坐标模块1将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
第二获取坐标模块2,所述第一获取坐标模块1通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后机器人的位姿;
计算模块3,所述计算模块3利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位置;
坐标转换模块4,所述坐标转换模块4通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
上述实施例中,所述第一获取坐标模块的三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2 Z2]T;直线OC的第一特征点P3的坐标位置为[X3Y3 Z3]T;
所述第二获取坐标模块2的直线OA的第二特征点P4的坐标位置为[X4 Y4 Z4]T;直线OB的第二特征点P5的坐标位置为[X5 Y5 Z5]T;直线OC的第二特征点P6的坐标位置为[X6Y6 Z6]T;3D视觉传感器平移后的机器人位姿为齐次坐标其中{T}表示机器人工具坐标系,{B}表示机器人的基坐标系。
上述实施例中,所述计算模块3计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T;
利用第二特征点的坐标系中点P1和点P4组成向量为(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
也就是:
展开得:
每2个等式做差:
写成矩阵形式:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
上述实施例中,所述计算模块3的三条直线交点O的坐标位置的通过点法式得到平面OAB的平面方程如下:
(X6-X3-a)(x-X4)+(Y6-Y3-b)(y-Y4)+(Z6-Z3-c)(z-Z4)=0;
同理得到求解三条直线交点O点坐标值的方程组:
将上述方程组展开,得到:
解得:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
可解得x、y、z的值,即解得三条直线交点O点的坐标,记为[i j k]T。
上述实施例中,所述计算模块3,以三条直线交点O点为坐标系原点,建立笛卡尔直角坐标系{O};笛卡尔直角坐标系{O}的X轴与直线OA重合,笛卡尔直角坐标系{O}的Y轴与直线OB重合,笛卡尔直角坐标系{O}的Z轴与直线OC重合;利用向量的坐标值计算笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿具体为:
展开:
上述实施例中,所述坐标转换模块4:
其中,矩阵描述的就是3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即要求解的手眼矩阵;矩阵是控制3D视觉传感器进行第二次测量时的机器人的位姿数据,矩阵是通过机器人在三条直线交点O点标定机器人基坐标系标定出来的,矩阵为笛卡尔直角坐标系{O}在3D视觉传感器第二次测量坐标系{C}中的位姿
本实施例的3D视觉测量***的手眼标定***可以大大减少机器人视觉***手眼标定的工作量和工作时间,对技术人员的专业水平要求低,手眼标定稳定性高。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种3D视觉测量***的手眼标定方法,其特征在于,包括以下步骤:
步骤1.将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
步骤2.通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后的机器人的位姿;
步骤3.利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位姿;
步骤4.通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
2.根据权利要求1所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤1中三条直线分别为直线OA、直线OB和直线OC,直线OA、直线OB和直线OC相交于O点;直线OA的第一特征点P1的坐标位置为[X1 Y1 Z1]T;直线OB的第一特征点P2的坐标位置为[X2 Y2Z2]T;直线OC的第一特征点P3的坐标位置为[X3 Y3 Z3]T;
3.根据权利要求2所述的一种3D视觉测量***的手眼标定方法,其特征在于,所述步骤3中计算3D视觉传感器平移向量的算法为:
设3D视觉传感器的平移向量为(x,y,z);将三个第一特征点的坐标位置转换到三个第二特征点的坐标系中,即3D视觉传感器的第二次测量坐标系{C}中;点P1的坐标位置转换为[X1+x Y1+y Z1+z]T,点P2的坐标位置转换为[X2+x Y2+y Z2+z]T,点P3的坐标位置转换为[X3+x Y3+y Z3+z]T;
利用第二特征点的坐标系中点P1和点P4组成向量为(X4-X1-x,Y4-Y1-y,Z4-Z1-z);P2和点P5组成向量为(X5-X2-x,Y5-Y2-y,Z5-Z2-z);P3和点P6组成向量为(X6-X3-x,Y6-Y3-y,Z6-Z3-z);
利用直线OA、直线OB和直线OC之间的夹角,构建算法:
由于直线OA、直线OB和直线OC两两相互垂直,故上式可简化为下式:
也就是:
展开得:
每2个等式做差:
写成矩阵形式:
其中,矩阵右上角+的含义:A+表示A矩阵的广义逆矩阵;
7.一种3D视觉测量***的手眼标定***,其特征在于,包括:
第一获取坐标模块(1),所述第一获取坐标模块(1)将3D视觉传感器安装在机器人的末端,设定空间内不共面的三条直线,且三条直线互相垂直并相交于同一点;利用3D视觉传感器测量三条直线上的三个第一特征点,且三个第一特征点处于同一激光平面上,并获取三个第一特征点的坐标位置;
第二获取坐标模块(2),所述第一获取坐标模块(1)通过机器人平移3D视觉传感器,测量三条直线上的三个第二特征点,且三个第二特征点处于同一激光平面上,并获取三个第二特征点的坐标位置;并记录3D视觉传感器平移后机器人的位姿;
计算模块(3),所述计算模块(3)利用三个第一特征点的坐标位置和三个第二特征点的坐标位置,计算3D视觉传感器的平移向量,并利用平移向量计算出三条直线交点处的坐标系在3D视觉传感器第二次测量坐标系{C}中的位置;
坐标转换模块(4),所述坐标转换模块(4)通过机器人在三条直线交点O点处标定出机器人基坐标系,进行坐标转换,计算3D视觉传感器的第二次测量坐标系{C}在机器人工具坐标系{T}中的位姿,即手眼矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010448062.4A CN111975756B (zh) | 2020-05-25 | 2020-05-25 | 一种3d视觉测量***的手眼标定***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010448062.4A CN111975756B (zh) | 2020-05-25 | 2020-05-25 | 一种3d视觉测量***的手眼标定***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111975756A CN111975756A (zh) | 2020-11-24 |
CN111975756B true CN111975756B (zh) | 2022-02-15 |
Family
ID=73442019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010448062.4A Active CN111975756B (zh) | 2020-05-25 | 2020-05-25 | 一种3d视觉测量***的手眼标定***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111975756B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113514017B (zh) * | 2021-05-06 | 2022-08-16 | 南京理工大学 | 一种并联驱动机构动平台位姿测量方法 |
CN113500584B (zh) * | 2021-07-15 | 2022-06-28 | 西北工业大学 | 一种三自由度并联机器人的末端误差校正***及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101377404A (zh) * | 2008-07-11 | 2009-03-04 | 北京航空航天大学 | 一种基于角度约束的空间圆姿态识别二义性消除方法 |
CN102460065A (zh) * | 2009-06-25 | 2012-05-16 | 佳能株式会社 | 信息处理设备、信息处理方法和程序 |
CN104006825A (zh) * | 2013-02-25 | 2014-08-27 | 康耐视公司 | 沿至少三个不连续平面对机器视觉摄像机进行校准的***和方法 |
US9821466B2 (en) * | 2014-12-21 | 2017-11-21 | X Development Llc | Devices and methods for encoder calibration |
WO2019019136A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | SYSTEMS AND METHODS FOR USING SEMANTIC INFORMATION FOR NAVIGATING A ROBOTIC DEVICE |
CN209820416U (zh) * | 2019-04-29 | 2019-12-20 | 泉州华数机器人有限公司 | 一种用于单目视觉***的标定装置 |
CN110645956A (zh) * | 2019-09-24 | 2020-01-03 | 南通大学 | 仿昆虫复眼立体视觉的多通道视觉测距法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8989897B2 (en) * | 2004-11-19 | 2015-03-24 | Dynalog, Inc. | Robot-cell calibration |
CN106940894A (zh) * | 2017-04-12 | 2017-07-11 | 无锡职业技术学院 | 一种基于主动视觉的手眼***自标定方法 |
CN110827359A (zh) * | 2019-10-29 | 2020-02-21 | 武汉大学 | 基于棋盘格三面体的相机与激光器外参检校方法及装置 |
-
2020
- 2020-05-25 CN CN202010448062.4A patent/CN111975756B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101377404A (zh) * | 2008-07-11 | 2009-03-04 | 北京航空航天大学 | 一种基于角度约束的空间圆姿态识别二义性消除方法 |
CN102460065A (zh) * | 2009-06-25 | 2012-05-16 | 佳能株式会社 | 信息处理设备、信息处理方法和程序 |
CN104006825A (zh) * | 2013-02-25 | 2014-08-27 | 康耐视公司 | 沿至少三个不连续平面对机器视觉摄像机进行校准的***和方法 |
US9821466B2 (en) * | 2014-12-21 | 2017-11-21 | X Development Llc | Devices and methods for encoder calibration |
WO2019019136A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | SYSTEMS AND METHODS FOR USING SEMANTIC INFORMATION FOR NAVIGATING A ROBOTIC DEVICE |
CN209820416U (zh) * | 2019-04-29 | 2019-12-20 | 泉州华数机器人有限公司 | 一种用于单目视觉***的标定装置 |
CN110645956A (zh) * | 2019-09-24 | 2020-01-03 | 南通大学 | 仿昆虫复眼立体视觉的多通道视觉测距法 |
Non-Patent Citations (1)
Title |
---|
基于主动视觉的手眼矩阵和光平面标定方法;郭新年等;《计算机工程与应用》;20150930;56-60 * |
Also Published As
Publication number | Publication date |
---|---|
CN111975756A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3091405B1 (en) | Method, device and system for improving system accuracy of x-y motion platform | |
CN110640745B (zh) | 基于视觉的机器人自动标定方法、设备和存储介质 | |
CN110108208B (zh) | 五轴非接触式测量机的误差补偿方法 | |
JP4021413B2 (ja) | 計測装置 | |
CN111975756B (zh) | 一种3d视觉测量***的手眼标定***及方法 | |
CN106777656B (zh) | 一种基于pmpsd的工业机器人绝对精度校准方法 | |
JP5618770B2 (ja) | ロボットの校正装置および校正方法 | |
CN110136204B (zh) | 基于双侧远心镜头相机机床位置标定的音膜球顶装配*** | |
CN105066884A (zh) | 一种机器人末端定位偏差校正方法及*** | |
CN113211431B (zh) | 基于二维码修正机器人***的位姿估计方法 | |
CN112629499B (zh) | 基于线扫描仪的手眼标定重复定位精度测量方法及装置 | |
CN112873213B (zh) | 一种提升六关节机器人工具坐标系标定精度的方法 | |
CN114347013A (zh) | 印刷电路板与fpc柔性电缆线的装配方法及相关设备 | |
CN112454366A (zh) | 一种手眼标定方法 | |
US7957834B2 (en) | Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system | |
CN115284292A (zh) | 基于激光相机的机械臂手眼标定方法及装置 | |
CN115179323A (zh) | 基于远心视觉约束的机器末位姿测量装置及精度提升方法 | |
CN114029982A (zh) | 一种相机在机器臂外的手眼标定装置及其标定方法 | |
CN112975959B (zh) | 一种基于机器视觉的散热器装配定位方法、***及介质 | |
CN112762822B (zh) | 一种基于激光跟踪仪的机械臂校准方法及*** | |
JP6912529B2 (ja) | 視覚誘導ロボットアームの補正方法 | |
CN108109179B (zh) | 基于***模型的摄像机姿态校正方法 | |
CN116652970A (zh) | 一种四轴机械臂2d手眼标定方法及***、存储介质 | |
CN109177138B (zh) | 一种玻璃与膜片的对位方法及装置 | |
CN116394254A (zh) | 机器人的零点标定方法、装置、计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20201124 Assignee: QUANZHOU HUASHU ROBOT CO.,LTD. Assignor: QUANZHOU-HUST INTELLIGENT MANUFACTURING FUTURE Contract record no.: X2024350000062 Denomination of invention: A Hand Eye Calibration System and Method for 3D Vision Measurement System Granted publication date: 20220215 License type: Common License Record date: 20240429 |