CN108789404B - 一种基于视觉的串联机器人运动学参数标定方法 - Google Patents
一种基于视觉的串联机器人运动学参数标定方法 Download PDFInfo
- Publication number
- CN108789404B CN108789404B CN201810510980.8A CN201810510980A CN108789404B CN 108789404 B CN108789404 B CN 108789404B CN 201810510980 A CN201810510980 A CN 201810510980A CN 108789404 B CN108789404 B CN 108789404B
- Authority
- CN
- China
- Prior art keywords
- robot
- optical axis
- kinematic parameter
- kinematic
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种基于视觉的串联机器人运动学参数标定方法,将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵;通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,成本低、易操作,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。
Description
技术领域
本发明涉及一种基于视觉的串联机器人运动学参数标定方法,属于机器人标定领域。
背景技术
随着机器人越来越多的应用于装配、手术、协作等任务,对机器人的末端定位精度有着越来越高的要求。目前机器人末端的位置和姿态误差无法直接进行测量,通常使用运动学模型与关节角数据间接计算得到。由于制造公差、磨损、传输误差、安装位置、环境变化等因素的影响,机器人模型中实际的运动学参数与其名义值间存在偏差,若用名义运动学参数计算机器人的末端位姿,将导致机器人末端位姿的绝对定位精度降低。为了提高机器人的绝对定位精度,必须对机器人的运动学参数进行有效的标定,这也是机器人学研究领域的难点之一
通常,在机器人标定算法中使用高精度的测量设备测量机器人末端的实际位姿,但是这类测量仪器非常昂贵且标定过程十分复杂,对安装调试及测量过程的技术要求较高。基于视觉的标定方法通常使用相机作为测量工具测量实际的末端位姿,相机视野及相机参数误差对运动学参数标定结果有很大影响。为了避免使用高精度测量设备,使用一种成本低、易操作的标定方法,并降低测量设备对标定结果的影响,对于各应用场景中机器人的绝对定位精度的提高十分必要。
本发明涉及的方法针对典型的六自由度工业机械臂,通过定义相机光轴为虚拟直线约束,解决了机器人末端定位精度低的问题。基于视觉的串联机器人运动学参数标定方法对提高串联机械臂的绝对定位精度具有重要的借鉴意义,可直接应用于串联机械臂的运动学参数标定。
发明内容
本发明的目的是为了实现机器人基于相机光轴虚拟约束完成运动学参数标定而提供一种基于视觉的串联机器人运动学参数标定方法。
本发明的目的是这样实现的:步骤如下:
步骤一:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;
步骤二:在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;
步骤三:根据机器人的关节角数据,基于正运动学模型计算特征点的名义位置,计算位置对齐误差矩阵;
步骤四:通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数,完成串联机器人的运动学参数标定。
本发明还包括这样一些结构特征:
1.步骤一所述的建立运动学误差模型具体为:
(1)基于改进的DH方法建立串联机器人的运动学模型,得到机器人基坐标到末端执行器的变换矩阵;
2.步骤二所述的基于图像的视觉控制具体为:
(1)机器人末端安装一块标定板,选择标定板上一个点位特征点,标定板完全位于相机的视野中;
(2)基于图像的视觉控制方法由图像特征外环和机器人控制内环组成,期望的图像特征为特征点到达相机的光轴上,根据期望图像特征与相机采集的当前的图像特征的偏差,通过末端位姿调整策略将图像坐标偏差转化为机器人末端的偏差
3.步骤三所述的位置对齐误差矩阵计算具体为:
(2)控制机器人运动,使特征点依次到达光轴上多个位置,计算在每个位置处机器人末端的名义位置;
(3)选择多条光轴向量进行测量,特征点分别运动到每条光轴上的多个位置点,根据每个位置处机械臂末端的名义位置计算位置对齐误差矩阵E:
E(i,j,k)=[μk×](v(j,k)-v(i,k))
4.步骤四所述的运动学参数辨识具体为:
(1)根据光轴上每个位置处特征点的名义位置,使用最小二乘法拟合光轴向量μk;
与现有技术相比,本发明的有益效果是:本发明利用相机光轴作为虚拟直线约束进行串联机器人的运动学参数标定,仅使用相机的光轴和机械臂的关节角数据即可完成标定,无需其他昂贵的高精度测量仪器或特定的标定设备,成本低且易操作。建立的基于直线约束的运动学误差模型对较低的相机深度测量精度具有鲁棒性,除了相机光轴中心点的图像坐标,不需要标定其他的相机参数,降低了相机参数误差对运动学参数标定结果的影响。对提高串联机械臂的绝对定位精度具有重要的借鉴意义,可直接应用于各领域中的串联机械臂的运动学参数标定。
附图说明
图1是本发明的标定板上的特征点位置示意图;
图2是本发明的基于图像的视觉控制方法原理图;
图3是本发明的基于图像的视觉控制框图;
图4是本发明的特征点在光轴上的位置图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
本发明提供了一种基于视觉的串联机器人运动学参数标定方法。针对目前机器人的绝对定位精度较低,而在越来越多的应用领域对机器人的定位精度要求越来越高的问题,提出了机器人的运动学参数标定方法;另外针对目前机器人运动学参数标定方法需要昂贵的高精度测量仪器或特定的标定设备,标定结果受测量仪器影响等问题,设计了基于视觉的运动学参数标定方法。首先,将相机光轴作为虚拟直线约束,在使用改进的DH方法建立机器人的运动学模型的基础上,建立基于直线约束的运动学误差模型;然后,在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上,选择多条光轴,在每条光轴上使特征点依次到达光轴上的多个位置,记录每个位置处机器人的关节角;最后,根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵,基于运动学误差模型,通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,具有成本低、易操作的特点,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。
本发明采用了以下技术方案:
基于视觉的串联机器人运动学参数标定方法,包括建立运动学误差模型、基于图像的视觉控制、位置对齐误差矩阵计算和运动学参数辨识。其中:
步骤一:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;
步骤二:在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;
步骤三:根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算位置对齐误差矩阵;
步骤四:通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数,完成串联机器人的运动学参数标定。
步骤一中的建立运动学误差模型具体为:
(1)基于改进的DH方法建立串联机器人的运动学模型,得到机器人基坐标到末端执行器的变换矩阵;
步骤二中的基于图像的视觉控制具体为:
(1)机器人末端安装一块标定板,选择标定板上一个点位特征点,标定板完全位于相机的视野中;
(2)基于图像的视觉控制方法由图像特征外环和机器人控制内环组成,期望的图像特征为特征点到达相机的光轴上,根据期望图像特征与相机采集的当前的图像特征的偏差,通过末端位姿调整策略将图像坐标偏差转化为机器人末端的偏差
步骤三中的位置对齐误差矩阵计算具体为:
(1)特征点到达相机的光轴上后,记录此时机器人的关节角;
(3)选择多条光轴向量进行测量,特征点分别运动到每条光轴上的多个位置点,根据每个位置处机械臂末端的名义位置计算对齐误差矩阵E:
E(i,j,k)=[μk×](v(j,k)-v(i,k))
步骤四中的运动学参数辨识具体为:
(1)根据光轴上每个位置处特征点的名义位置,使用最小二乘法拟合光轴向量μk;
下面结合具体数值给出本发明的一个具体实施例:
(1)建立运动学误差模型
定义连杆参数向量为:与前一个关节轴近似平行的连杆的参数向量其他连杆的参数向量其中,ai,di,αi,θi,βi为第i(i=1,2,3,4,5,6)个连杆的运动学参数,分别为连杆长度、连杆偏距、连杆转角、关节角及平行关节轴的连杆转角。
其中,0R6′为机械臂基座到末端的名义姿态变换矩阵。
将虚拟约束上的两个不同位置Pe (i,k)和Pe (j,k)分别代入方程,两个方程作差得到:
E(i,j,k)=[μk×](v(j,k)-v(i,k))
(2)基于图像的视觉控制
参见图2,机器人末端标定板上的特征点为Fp,特征点当前位置Pf与光轴μk的距离为d,特征点的图像坐标为(uf,vf),光轴中心点的图像坐标为(u0,v0),视觉控制的目的是使Pf运动到光轴上的位置点P′f,此时d→0,uf→u0,vf→v0。
参见图3,基于图像的视觉控制框图由图像特征外环和机器人位置控制内环组成,控制目标是使特征点的图像坐标(uf,vf)与光轴中心点的图像坐标(u0,v0)重合,相机采集的当前图像作为视觉反馈,特征点在图像坐标中当前的实际坐标与期望坐标的偏差为(uf-u0,vf-v0),根据末端位姿调整策略将图像坐标偏差转化为机械臂末端在基坐标系下的偏差,实现图像空间偏差到笛卡尔空间偏差的转换。在机器人控制内环中,根据反馈的机器人末端位姿偏差计算得到期望位姿,根据逆运动学计算期望关节角,利用机器人的关节位置控制器控制机器人运动到期望的位置和姿态。其中在末端位姿调整策略中,图像偏差到笛卡尔空间偏差的转换矩阵为:
其中,为特征点在基坐标系下实际位置与期望位置的偏差,为相机坐标系到机器人基坐标系的旋转矩阵,为特征点在相机坐标系下的位置偏差,可根据相机模型计算得到,(u0,v0)可以通过相机标定得到,kx,ky为常系数。
在位置控制内环中,由于存在运动学参数误差,不能根据逆运动学将机械臂运动到期望位置,需要控制机械臂以小增量的方式运动,使特征点逐渐靠近光轴,直至特征点与光轴的距离到达可接受的误差范围。设k为小于1的正常数,机械臂末端的实际运动增量为:
(3)位置对齐误差矩阵计算
其中,n为机器人的连杆数,i-1Ti为第i-1个坐标系与第i个坐标系之间的变换矩阵,对于关节轴与前一个关节轴近似平行的连杆:
其他连杆的变换矩阵i-1Ti为:
(4)运动学参数辨识
其中,参数x0,y0,m,n为:
其中,h通常为2~10之间的常数,λ(0)为0.001~0.1之间的常数。
综上,本发明属于机器人标定领域,涉及一种基于视觉的串联机器人运动学参数标定方法。本发明包括:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵;通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,具有成本低、易操作的特点,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。
Claims (3)
1.一种基于视觉的串联机器人运动学参数标定方法,其特征在于:步骤如下:
步骤一:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;
(1)基于改进的DH方法建立串联机器人的运动学模型,得到机器人基坐标到末端执行器的变换矩阵;
步骤二:在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;
(1)机器人末端安装一块标定板,选择标定板上一个点位特征点,标定板完全位于相机的视野中;
(2)基于图像的视觉控制方法由图像特征外环和机器人控制内环组成,期望的图像特征为特征点到达相机的光轴上,根据期望图像特征与相机采集的当前的图像特征的偏差,通过末端位姿调整策略将图像坐标偏差转化为机器人末端的偏差
步骤三:根据机器人的关节角数据,基于正运动学模型计算特征点的名义位置,计算位置对齐误差矩阵;
步骤四:通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数,完成串联机器人的运动学参数标定。
2.根据权利要求1所述的一种基于视觉的串联机器人运动学参数标定方法,其特征在于:步骤三所述的位置对齐误差矩阵计算具体为:
(2)控制机器人运动,使特征点依次到达光轴上多个位置,计算在每个位置处机器人末端的名义位置;
(3)选择多条光轴向量进行测量,特征点分别运动到每条光轴上的多个位置点,根据每个位置处机械臂末端的名义位置计算位置对齐误差矩阵E:
E(i,j,k)=[μk×](v(j,k)-v(i,k))
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510980.8A CN108789404B (zh) | 2018-05-25 | 2018-05-25 | 一种基于视觉的串联机器人运动学参数标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510980.8A CN108789404B (zh) | 2018-05-25 | 2018-05-25 | 一种基于视觉的串联机器人运动学参数标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108789404A CN108789404A (zh) | 2018-11-13 |
CN108789404B true CN108789404B (zh) | 2021-06-18 |
Family
ID=64091681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810510980.8A Active CN108789404B (zh) | 2018-05-25 | 2018-05-25 | 一种基于视觉的串联机器人运动学参数标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108789404B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109571477B (zh) * | 2018-12-17 | 2020-09-22 | 西安工程大学 | 一种改进的机器人视觉与传送带综合标定方法 |
CN111360812B (zh) * | 2018-12-26 | 2022-11-29 | 中国科学院沈阳自动化研究所 | 一种基于相机视觉的工业机器人dh参数标定方法及标定装置 |
CN110125944B (zh) * | 2019-05-14 | 2023-07-04 | 中国地质大学(武汉) | 一种机械臂示教***和方法 |
CN110480658B (zh) * | 2019-08-15 | 2022-10-25 | 同济大学 | 一种融合视觉自标定的六轴机器人控制*** |
CN112643658A (zh) * | 2019-10-10 | 2021-04-13 | 南京邮电大学 | 基于sir降维dh模型的串联机器人自适应误差建模的标定方法 |
CN111421552B (zh) * | 2020-05-09 | 2022-06-07 | 云南电网有限责任公司电力科学研究院 | 一种巡检机器人双操作臂的协同控制方法 |
CN111912310B (zh) * | 2020-08-10 | 2021-08-10 | 深圳市智流形机器人技术有限公司 | 校准方法、装置、设备 |
CN112894814B (zh) * | 2021-01-25 | 2023-06-30 | 江苏集萃智能制造技术研究所有限公司 | 一种基于最小二乘法的机械臂dh参数辨识方法 |
CN112975913B (zh) * | 2021-03-10 | 2022-05-27 | 清华大学 | 一种索驱动并联机构自标定方法和*** |
CN113733088B (zh) * | 2021-09-07 | 2024-05-14 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
CN113977574B (zh) * | 2021-09-16 | 2023-02-14 | 南京邮电大学 | 一种机械臂点约束控制方法 |
CN114161411B (zh) * | 2021-11-18 | 2023-09-01 | 浙江大学 | 一种基于视觉的多足机器人运动学参数标定方法 |
CN114043528B (zh) * | 2021-11-25 | 2023-08-04 | 成都飞机工业(集团)有限责任公司 | 一种机器人定位性能测试方法、***、设备及介质 |
CN114536347A (zh) * | 2022-04-08 | 2022-05-27 | 上海电气集团股份有限公司 | 机械臂的标定位置确定方法、标定方法、***及电子设备 |
CN115026814B (zh) * | 2022-06-01 | 2024-04-12 | 中科苏州智能计算技术研究院 | 用于机械臂运动空间重建的相机自动标定方法 |
CN115890654B (zh) * | 2022-10-09 | 2023-08-11 | 北京微链道爱科技有限公司 | 基于三维特征点的深度相机自动标定算法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4675499A (en) * | 1985-01-31 | 1987-06-23 | Shibuya Kogyo Co., Ltd. | Laser beam machining robot |
CN101096101A (zh) * | 2006-06-26 | 2008-01-02 | 北京航空航天大学 | 机器人足目标定方法和标定装置 |
CN104608129A (zh) * | 2014-11-28 | 2015-05-13 | 江南大学 | 基于平面约束的机器人标定方法 |
CN106017339A (zh) * | 2016-06-06 | 2016-10-12 | 河北工业大学 | 一种在非完全约束***中投影非均匀条纹的三维测量方法 |
CN106061427A (zh) * | 2014-02-28 | 2016-10-26 | 索尼公司 | 机器人臂设备、机器人臂控制方法和程序 |
CN107214703A (zh) * | 2017-07-11 | 2017-09-29 | 江南大学 | 一种基于视觉辅助定位的机器人自标定方法 |
-
2018
- 2018-05-25 CN CN201810510980.8A patent/CN108789404B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4675499A (en) * | 1985-01-31 | 1987-06-23 | Shibuya Kogyo Co., Ltd. | Laser beam machining robot |
CN101096101A (zh) * | 2006-06-26 | 2008-01-02 | 北京航空航天大学 | 机器人足目标定方法和标定装置 |
CN106061427A (zh) * | 2014-02-28 | 2016-10-26 | 索尼公司 | 机器人臂设备、机器人臂控制方法和程序 |
CN104608129A (zh) * | 2014-11-28 | 2015-05-13 | 江南大学 | 基于平面约束的机器人标定方法 |
CN106017339A (zh) * | 2016-06-06 | 2016-10-12 | 河北工业大学 | 一种在非完全约束***中投影非均匀条纹的三维测量方法 |
CN107214703A (zh) * | 2017-07-11 | 2017-09-29 | 江南大学 | 一种基于视觉辅助定位的机器人自标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108789404A (zh) | 2018-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108789404B (zh) | 一种基于视觉的串联机器人运动学参数标定方法 | |
CN110253574B (zh) | 一种多任务机械臂位姿检测和误差补偿方法 | |
CN109877840B (zh) | 一种基于相机光轴约束的双机械臂标定方法 | |
CA1331795C (en) | Device and method for correction of robot inaccuracy | |
CN106777656B (zh) | 一种基于pmpsd的工业机器人绝对精度校准方法 | |
CN111055273B (zh) | 一种用于机器人的两步误差补偿方法 | |
CN113001535B (zh) | 机器人工件坐标系自动校正***与方法 | |
CN110757504B (zh) | 高精度可移动机器人的定位误差补偿方法 | |
JP2006110705A (ja) | ロボットのキャリブレーション方法 | |
CN111590566B (zh) | 一种适用于全构型的空间机械臂运动学参数在轨标定方法 | |
CN113459094B (zh) | 一种工业机器人工具坐标系及零点自标定方法 | |
CN112767493B (zh) | Stewart平台运动学参数的机器视觉标定方法 | |
CN110977963A (zh) | 一种工业机器人标定***的自适应对准控制方法 | |
CN112318498A (zh) | 一种考虑参数耦合的工业机器人标定方法 | |
CN114474003A (zh) | 一种基于参数辨识的车载建筑机器人误差补偿方法 | |
CN115816448A (zh) | 基于光学定位仪的机械臂标定方法、装置、设备及介质 | |
CN112894814B (zh) | 一种基于最小二乘法的机械臂dh参数辨识方法 | |
CN113211436B (zh) | 基于遗传算法的六自由度串联机器人误差标定方法 | |
CN115609586A (zh) | 一种基于抓取位姿约束的机器人高精度装配方法 | |
CN112847441B (zh) | 基于梯度下降法的六轴机器人坐标偏移检测方法和装置 | |
CN115446847A (zh) | 用于提高机器人***的3d眼手协调准确度的***和方法 | |
CN113043264B (zh) | 一种一体化关节七轴机器人的零位标定方法 | |
CN113733155A (zh) | 六轴工业机器人标定装置和标定方法 | |
Kong et al. | An experimental comparison for the accuracy improvement of a 6-PSS parallel manipulator by choosing different sets of measurement data | |
CN111958640A (zh) | 多基站激光跟踪仪协同转站的双臂机器人测试方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |