CN108789404B - 一种基于视觉的串联机器人运动学参数标定方法 - Google Patents

一种基于视觉的串联机器人运动学参数标定方法 Download PDF

Info

Publication number
CN108789404B
CN108789404B CN201810510980.8A CN201810510980A CN108789404B CN 108789404 B CN108789404 B CN 108789404B CN 201810510980 A CN201810510980 A CN 201810510980A CN 108789404 B CN108789404 B CN 108789404B
Authority
CN
China
Prior art keywords
robot
optical axis
kinematic parameter
kinematic
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810510980.8A
Other languages
English (en)
Other versions
CN108789404A (zh
Inventor
朱齐丹
谢心如
李超
夏桂华
张智
蔡成涛
吕晓龙
刘志林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201810510980.8A priority Critical patent/CN108789404B/zh
Publication of CN108789404A publication Critical patent/CN108789404A/zh
Application granted granted Critical
Publication of CN108789404B publication Critical patent/CN108789404B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种基于视觉的串联机器人运动学参数标定方法,将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵;通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,成本低、易操作,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。

Description

一种基于视觉的串联机器人运动学参数标定方法
技术领域
本发明涉及一种基于视觉的串联机器人运动学参数标定方法,属于机器人标定领域。
背景技术
随着机器人越来越多的应用于装配、手术、协作等任务,对机器人的末端定位精度有着越来越高的要求。目前机器人末端的位置和姿态误差无法直接进行测量,通常使用运动学模型与关节角数据间接计算得到。由于制造公差、磨损、传输误差、安装位置、环境变化等因素的影响,机器人模型中实际的运动学参数与其名义值间存在偏差,若用名义运动学参数计算机器人的末端位姿,将导致机器人末端位姿的绝对定位精度降低。为了提高机器人的绝对定位精度,必须对机器人的运动学参数进行有效的标定,这也是机器人学研究领域的难点之一
通常,在机器人标定算法中使用高精度的测量设备测量机器人末端的实际位姿,但是这类测量仪器非常昂贵且标定过程十分复杂,对安装调试及测量过程的技术要求较高。基于视觉的标定方法通常使用相机作为测量工具测量实际的末端位姿,相机视野及相机参数误差对运动学参数标定结果有很大影响。为了避免使用高精度测量设备,使用一种成本低、易操作的标定方法,并降低测量设备对标定结果的影响,对于各应用场景中机器人的绝对定位精度的提高十分必要。
本发明涉及的方法针对典型的六自由度工业机械臂,通过定义相机光轴为虚拟直线约束,解决了机器人末端定位精度低的问题。基于视觉的串联机器人运动学参数标定方法对提高串联机械臂的绝对定位精度具有重要的借鉴意义,可直接应用于串联机械臂的运动学参数标定。
发明内容
本发明的目的是为了实现机器人基于相机光轴虚拟约束完成运动学参数标定而提供一种基于视觉的串联机器人运动学参数标定方法。
本发明的目的是这样实现的:步骤如下:
步骤一:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;
步骤二:在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;
步骤三:根据机器人的关节角数据,基于正运动学模型计算特征点的名义位置,计算位置对齐误差矩阵;
步骤四:通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数,完成串联机器人的运动学参数标定。
本发明还包括这样一些结构特征:
1.步骤一所述的建立运动学误差模型具体为:
(1)基于改进的DH方法建立串联机器人的运动学模型,得到机器人基坐标到末端执行器的变换矩阵;
(2)建立串联机器人的运动学误差模型,得到末端位姿误差向量
Figure BDA0001672643160000021
与运动学参数误差向量
Figure BDA0001672643160000022
间的线性关系,其中ΔPe和ΔRe分别表示机器人末端微小的平移和旋转误差;
(3)以相机光轴作为虚拟直线约束,建立基于虚拟直线约束的误差模型,得到对齐误差矩阵E与运动学参数误差向量
Figure BDA0001672643160000023
之间的关系。
2.步骤二所述的基于图像的视觉控制具体为:
(1)机器人末端安装一块标定板,选择标定板上一个点位特征点,标定板完全位于相机的视野中;
(2)基于图像的视觉控制方法由图像特征外环和机器人控制内环组成,期望的图像特征为特征点到达相机的光轴上,根据期望图像特征与相机采集的当前的图像特征的偏差,通过末端位姿调整策略将图像坐标偏差
Figure BDA0001672643160000024
转化为机器人末端的偏差
Figure BDA0001672643160000025
(3)根据机器人末端位姿偏差
Figure BDA0001672643160000026
计算末端期望位姿,通过机器人控制内环控制机器人到达期望位姿。
3.步骤三所述的位置对齐误差矩阵计算具体为:
(1)特征点到达相机的光轴上后,记录此时机器人的关节角,基于正运动学模型计算机器人末端的名义位置
Figure BDA0001672643160000027
(2)控制机器人运动,使特征点依次到达光轴上多个位置,计算在每个位置处机器人末端的名义位置;
(3)选择多条光轴向量进行测量,特征点分别运动到每条光轴上的多个位置点,根据每个位置处机械臂末端的名义位置计算位置对齐误差矩阵E:
Figure BDA0001672643160000028
E(i,j,k)=[μk×](v(j,k)-v(i,k))
其中:p为每条光轴上的位置点数,q为光轴数,μk为光轴向量,v(i,k)与v(j,k)分别为点
Figure BDA0001672643160000031
Figure BDA0001672643160000032
到约束向量μk的距离。
4.步骤四所述的运动学参数辨识具体为:
(1)根据光轴上每个位置处特征点的名义位置,使用最小二乘法拟合光轴向量μk
(2)基于运动学误差模型,使用迭代最小二乘法求解运动学参数误差
Figure BDA0001672643160000033
并计算实际的运动学参数
Figure BDA0001672643160000034
与现有技术相比,本发明的有益效果是:本发明利用相机光轴作为虚拟直线约束进行串联机器人的运动学参数标定,仅使用相机的光轴和机械臂的关节角数据即可完成标定,无需其他昂贵的高精度测量仪器或特定的标定设备,成本低且易操作。建立的基于直线约束的运动学误差模型对较低的相机深度测量精度具有鲁棒性,除了相机光轴中心点的图像坐标,不需要标定其他的相机参数,降低了相机参数误差对运动学参数标定结果的影响。对提高串联机械臂的绝对定位精度具有重要的借鉴意义,可直接应用于各领域中的串联机械臂的运动学参数标定。
附图说明
图1是本发明的标定板上的特征点位置示意图;
图2是本发明的基于图像的视觉控制方法原理图;
图3是本发明的基于图像的视觉控制框图;
图4是本发明的特征点在光轴上的位置图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
本发明提供了一种基于视觉的串联机器人运动学参数标定方法。针对目前机器人的绝对定位精度较低,而在越来越多的应用领域对机器人的定位精度要求越来越高的问题,提出了机器人的运动学参数标定方法;另外针对目前机器人运动学参数标定方法需要昂贵的高精度测量仪器或特定的标定设备,标定结果受测量仪器影响等问题,设计了基于视觉的运动学参数标定方法。首先,将相机光轴作为虚拟直线约束,在使用改进的DH方法建立机器人的运动学模型的基础上,建立基于直线约束的运动学误差模型;然后,在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上,选择多条光轴,在每条光轴上使特征点依次到达光轴上的多个位置,记录每个位置处机器人的关节角;最后,根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵,基于运动学误差模型,通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,具有成本低、易操作的特点,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。
本发明采用了以下技术方案:
基于视觉的串联机器人运动学参数标定方法,包括建立运动学误差模型、基于图像的视觉控制、位置对齐误差矩阵计算和运动学参数辨识。其中:
步骤一:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;
步骤二:在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;
步骤三:根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算位置对齐误差矩阵;
步骤四:通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数,完成串联机器人的运动学参数标定。
步骤一中的建立运动学误差模型具体为:
(1)基于改进的DH方法建立串联机器人的运动学模型,得到机器人基坐标到末端执行器的变换矩阵;
(2)建立串联机器人的运动学误差模型,得到末端位姿误差向量
Figure BDA0001672643160000041
与运动学参数误差向量
Figure BDA0001672643160000042
间的线性关系,其中ΔPe和ΔRe分别表示机器人末端微小的平移和旋转误差;
(3)以相机光轴作为虚拟直线约束,建立基于虚拟直线约束的误差模型,得到对齐误差矩阵E与运动学参数误差向量
Figure BDA0001672643160000043
之间的关系。
步骤二中的基于图像的视觉控制具体为:
(1)机器人末端安装一块标定板,选择标定板上一个点位特征点,标定板完全位于相机的视野中;
(2)基于图像的视觉控制方法由图像特征外环和机器人控制内环组成,期望的图像特征为特征点到达相机的光轴上,根据期望图像特征与相机采集的当前的图像特征的偏差,通过末端位姿调整策略将图像坐标偏差
Figure BDA0001672643160000044
转化为机器人末端的偏差
Figure BDA0001672643160000045
(3)根据机器人末端位姿偏差
Figure BDA0001672643160000046
计算末端期望位姿,通过机器人控制内环控制机器人到达期望位姿。
步骤三中的位置对齐误差矩阵计算具体为:
(1)特征点到达相机的光轴上后,记录此时机器人的关节角;
(2)控制机器人运动,使特征点依次到达光轴上多个位置,根据关节角计算在每个位置处机器人末端的名义位置
Figure BDA0001672643160000051
(3)选择多条光轴向量进行测量,特征点分别运动到每条光轴上的多个位置点,根据每个位置处机械臂末端的名义位置计算对齐误差矩阵E:
Figure BDA0001672643160000052
E(i,j,k)=[μk×](v(j,k)-v(i,k))
其中,p为每条光轴上的位置点数,q为光轴数,μk为光轴向量,v(i,k)与v(j,k)分别为点
Figure BDA0001672643160000053
Figure BDA0001672643160000054
到约束向量μk的距离。
步骤四中的运动学参数辨识具体为:
(1)根据光轴上每个位置处特征点的名义位置,使用最小二乘法拟合光轴向量μk
(2)基于运动学误差模型,使用迭代最小二乘法求解运动学参数误差
Figure BDA0001672643160000055
并计算实际的运动学参数
Figure BDA0001672643160000056
下面结合具体数值给出本发明的一个具体实施例:
(1)建立运动学误差模型
定义连杆参数向量为:
Figure BDA0001672643160000057
与前一个关节轴近似平行的连杆的参数向量
Figure BDA0001672643160000058
其他连杆的参数向量
Figure BDA0001672643160000059
其中,ai,diiii为第i(i=1,2,3,4,5,6)个连杆的运动学参数,分别为连杆长度、连杆偏距、连杆转角、关节角及平行关节轴的连杆转角。
假设机器人实际的运动学参数向量为
Figure BDA00016726431600000510
其名义值为
Figure BDA00016726431600000511
运动学参数误差向量
Figure BDA00016726431600000512
基于改进的DH模型可以得到机器人运动学误差模型:
Figure BDA00016726431600000513
其中,ΔPe和ΔRe分别表示机器人末端微小的平移和旋转误差,
Figure BDA00016726431600000514
Figure BDA00016726431600000515
分别为相对于位置和姿态的误差雅克比矩阵。
定义第k条光轴约束向量为μk,设特征点在光轴上的第i个实际位置为Pe (i,k),对应的机器人的关节角为θe (i,k)。根据运动学名义参数计算的特征点名义位置为
Figure BDA0001672643160000061
特征点的名义位置与实际位置的差为:
Figure BDA0001672643160000062
其中,0R6′为机械臂基座到末端的名义姿态变换矩阵。
参见图1,
Figure BDA0001672643160000063
为相机的坐标原点,
Figure BDA0001672643160000064
Figure BDA0001672643160000065
为特征点在光轴向量μk上的实际位置,
Figure BDA0001672643160000066
Figure BDA0001672643160000067
为对应的名义位置,Pe (i,k)
Figure BDA0001672643160000068
分别表示为:
Figure BDA0001672643160000069
Figure BDA00016726431600000610
其中,s(i,k)是点Pe (i,k)到相机坐标原点
Figure BDA00016726431600000611
的垂直距离;s′(i,k)为点
Figure BDA00016726431600000612
到相机坐标原点
Figure BDA00016726431600000613
的垂直距离,v(i,k)为点
Figure BDA00016726431600000614
到约束向量μk的距离。
定义算子[μk×]为:
Figure BDA00016726431600000615
显然[μk×]μk=0。特征点的名义位置与实际位置的差经过变换得到:
Figure BDA00016726431600000616
将虚拟约束上的两个不同位置Pe (i,k)和Pe (j,k)分别代入方程,两个方程作差得到:
Figure BDA00016726431600000617
定义E(i,j,k)为对齐误差,
Figure BDA00016726431600000618
为相对对齐误差雅克比矩阵:
E(i,j,k)=[μk×](v(j,k)-v(i,k))
Figure BDA00016726431600000619
得到
Figure BDA00016726431600000620
选择q条光轴进行测量,特征点分别运动到每条光轴上的p个位置点,构建位置对齐误差矩阵E和回归矩阵Φ:
Figure BDA00016726431600000621
Figure BDA00016726431600000622
得到求解运动学参数误差向量
Figure BDA00016726431600000623
的运动学误差模型:
Figure BDA00016726431600000624
(2)基于图像的视觉控制
参见图2,机器人末端标定板上的特征点为Fp,特征点当前位置Pf与光轴μk的距离为d,特征点的图像坐标为(uf,vf),光轴中心点的图像坐标为(u0,v0),视觉控制的目的是使Pf运动到光轴上的位置点P′f,此时d→0,uf→u0,vf→v0
参见图3,基于图像的视觉控制框图由图像特征外环和机器人位置控制内环组成,控制目标是使特征点的图像坐标(uf,vf)与光轴中心点的图像坐标(u0,v0)重合,相机采集的当前图像作为视觉反馈,特征点在图像坐标中当前的实际坐标与期望坐标的偏差为(uf-u0,vf-v0),根据末端位姿调整策略将图像坐标偏差转化为机械臂末端在基坐标系下的偏差,实现图像空间偏差到笛卡尔空间偏差的转换。在机器人控制内环中,根据反馈的机器人末端位姿偏差计算得到期望位姿,根据逆运动学计算期望关节角,利用机器人的关节位置控制器控制机器人运动到期望的位置和姿态。其中在末端位姿调整策略中,图像偏差到笛卡尔空间偏差的转换矩阵为:
Figure BDA0001672643160000071
其中,
Figure BDA0001672643160000072
为特征点在基坐标系下实际位置与期望位置的偏差,
Figure BDA0001672643160000073
为相机坐标系到机器人基坐标系的旋转矩阵,
Figure BDA0001672643160000074
为特征点在相机坐标系下的位置偏差,可根据相机模型计算得到,(u0,v0)可以通过相机标定得到,kx,ky为常系数。
在位置控制内环中,由于存在运动学参数误差,不能根据逆运动学将机械臂运动到期望位置,需要控制机械臂以小增量的方式运动,使特征点逐渐靠近光轴,直至特征点与光轴的距离到达可接受的误差范围。设k为小于1的正常数,机械臂末端的实际运动增量为:
Figure BDA0001672643160000075
(3)位置对齐误差矩阵计算
参见图4,特征点依次到达光轴μk上的多个位置,记录每个位置处机器人的关节角θ,基于机器人的正运动学模型计算特征点在基坐标系下的名义位置
Figure BDA0001672643160000076
为机器人基坐标系到末端坐标系的变换矩阵0Tn中的元素,其中:
Figure BDA0001672643160000077
其中,n为机器人的连杆数,i-1Ti为第i-1个坐标系与第i个坐标系之间的变换矩阵,对于关节轴与前一个关节轴近似平行的连杆:
Figure BDA0001672643160000081
其他连杆的变换矩阵i-1Ti为:
Figure BDA0001672643160000082
选择多个光轴向量,特征点依次到达每条光轴上的多个位置点,根据计算的每个位置处特征点的名义位置
Figure BDA0001672643160000083
计算位置对齐误差矩阵E。
(4)运动学参数辨识
根据计算的一条光轴上特征点的名义位置
Figure BDA0001672643160000084
使用最小二乘法拟合得到误差模型中的光轴向量μk。假设第k条光轴上位置i(i≤s)的名义值坐标为(xi,yi,zi),光轴k的直线方程为:
Figure BDA0001672643160000085
其中,参数x0,y0,m,n为:
Figure BDA0001672643160000086
根据回归矩阵Φ和上文计算的测量矩阵E,基于误差模型使用使用迭代最小二乘法估计得到运动学参数误差向量
Figure BDA0001672643160000087
第t次迭代的估计值
Figure BDA0001672643160000088
为:
Figure BDA0001672643160000089
其中,Φ(t)和E(t)分别为每次迭代更新
Figure BDA00016726431600000810
后计算的回归矩阵与测量矩阵,λ(t)为惩罚因子:
Figure BDA00016726431600000811
Figure BDA00016726431600000812
其中,h通常为2~10之间的常数,λ(0)为0.001~0.1之间的常数。
根据估计的串联机器人的运动学参数误差
Figure BDA0001672643160000091
计算实际运动学参数
Figure BDA0001672643160000092
综上,本发明属于机器人标定领域,涉及一种基于视觉的串联机器人运动学参数标定方法。本发明包括:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵;通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,具有成本低、易操作的特点,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。

Claims (3)

1.一种基于视觉的串联机器人运动学参数标定方法,其特征在于:步骤如下:
步骤一:将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;
(1)基于改进的DH方法建立串联机器人的运动学模型,得到机器人基坐标到末端执行器的变换矩阵;
(2)建立串联机器人的运动学误差模型,得到末端位姿误差向量
Figure FDA0002815658130000011
与运动学参数误差向量
Figure FDA0002815658130000012
间的线性关系,其中ΔPe和ΔRe分别表示机器人末端微小的平移和旋转误差;
(3)以相机光轴作为虚拟直线约束,建立基于虚拟直线约束的误差模型,得到对齐误差矩阵E与运动学参数误差向量
Figure FDA0002815658130000013
之间的关系;
步骤二:在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;
(1)机器人末端安装一块标定板,选择标定板上一个点位特征点,标定板完全位于相机的视野中;
(2)基于图像的视觉控制方法由图像特征外环和机器人控制内环组成,期望的图像特征为特征点到达相机的光轴上,根据期望图像特征与相机采集的当前的图像特征的偏差,通过末端位姿调整策略将图像坐标偏差
Figure FDA0002815658130000014
转化为机器人末端的偏差
Figure FDA0002815658130000015
(3)根据机器人末端位姿偏差
Figure FDA0002815658130000016
计算末端期望位姿,通过机器人控制内环控制机器人到达期望位姿;
步骤三:根据机器人的关节角数据,基于正运动学模型计算特征点的名义位置,计算位置对齐误差矩阵;
步骤四:通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数,完成串联机器人的运动学参数标定。
2.根据权利要求1所述的一种基于视觉的串联机器人运动学参数标定方法,其特征在于:步骤三所述的位置对齐误差矩阵计算具体为:
(1)特征点到达相机的光轴上后,记录此时机器人的关节角,基于正运动学模型计算机器人末端的名义位置
Figure FDA0002815658130000017
(2)控制机器人运动,使特征点依次到达光轴上多个位置,计算在每个位置处机器人末端的名义位置;
(3)选择多条光轴向量进行测量,特征点分别运动到每条光轴上的多个位置点,根据每个位置处机械臂末端的名义位置计算位置对齐误差矩阵E:
Figure FDA0002815658130000025
E(i,j,k)=[μk×](v(j,k)-v(i,k))
其中:p为每条光轴上的位置点数,q为光轴数,μk为光轴向量,v(i,k)与v(j,k)分别为点
Figure FDA0002815658130000021
Figure FDA0002815658130000022
到约束向量μk的距离。
3.根据权利要求2所述的一种基于视觉的串联机器人运动学参数标定方法,其特征在于:步骤四所述的运动学参数辨识具体为:
(1)根据光轴上每个位置处特征点的名义位置,使用最小二乘法拟合光轴向量μk
(2)基于运动学误差模型,使用迭代最小二乘法求解运动学参数误差
Figure FDA0002815658130000023
并计算实际的运动学参数
Figure FDA0002815658130000024
CN201810510980.8A 2018-05-25 2018-05-25 一种基于视觉的串联机器人运动学参数标定方法 Active CN108789404B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810510980.8A CN108789404B (zh) 2018-05-25 2018-05-25 一种基于视觉的串联机器人运动学参数标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810510980.8A CN108789404B (zh) 2018-05-25 2018-05-25 一种基于视觉的串联机器人运动学参数标定方法

Publications (2)

Publication Number Publication Date
CN108789404A CN108789404A (zh) 2018-11-13
CN108789404B true CN108789404B (zh) 2021-06-18

Family

ID=64091681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810510980.8A Active CN108789404B (zh) 2018-05-25 2018-05-25 一种基于视觉的串联机器人运动学参数标定方法

Country Status (1)

Country Link
CN (1) CN108789404B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571477B (zh) * 2018-12-17 2020-09-22 西安工程大学 一种改进的机器人视觉与传送带综合标定方法
CN111360812B (zh) * 2018-12-26 2022-11-29 中国科学院沈阳自动化研究所 一种基于相机视觉的工业机器人dh参数标定方法及标定装置
CN110125944B (zh) * 2019-05-14 2023-07-04 中国地质大学(武汉) 一种机械臂示教***和方法
CN110480658B (zh) * 2019-08-15 2022-10-25 同济大学 一种融合视觉自标定的六轴机器人控制***
CN112643658A (zh) * 2019-10-10 2021-04-13 南京邮电大学 基于sir降维dh模型的串联机器人自适应误差建模的标定方法
CN111421552B (zh) * 2020-05-09 2022-06-07 云南电网有限责任公司电力科学研究院 一种巡检机器人双操作臂的协同控制方法
CN111912310B (zh) * 2020-08-10 2021-08-10 深圳市智流形机器人技术有限公司 校准方法、装置、设备
CN112894814B (zh) * 2021-01-25 2023-06-30 江苏集萃智能制造技术研究所有限公司 一种基于最小二乘法的机械臂dh参数辨识方法
CN112975913B (zh) * 2021-03-10 2022-05-27 清华大学 一种索驱动并联机构自标定方法和***
CN113733088B (zh) * 2021-09-07 2024-05-14 河南大学 一种基于双目视觉的机械臂运动学自标定方法
CN113977574B (zh) * 2021-09-16 2023-02-14 南京邮电大学 一种机械臂点约束控制方法
CN114161411B (zh) * 2021-11-18 2023-09-01 浙江大学 一种基于视觉的多足机器人运动学参数标定方法
CN114043528B (zh) * 2021-11-25 2023-08-04 成都飞机工业(集团)有限责任公司 一种机器人定位性能测试方法、***、设备及介质
CN114536347A (zh) * 2022-04-08 2022-05-27 上海电气集团股份有限公司 机械臂的标定位置确定方法、标定方法、***及电子设备
CN115026814B (zh) * 2022-06-01 2024-04-12 中科苏州智能计算技术研究院 用于机械臂运动空间重建的相机自动标定方法
CN115890654B (zh) * 2022-10-09 2023-08-11 北京微链道爱科技有限公司 基于三维特征点的深度相机自动标定算法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4675499A (en) * 1985-01-31 1987-06-23 Shibuya Kogyo Co., Ltd. Laser beam machining robot
CN101096101A (zh) * 2006-06-26 2008-01-02 北京航空航天大学 机器人足目标定方法和标定装置
CN104608129A (zh) * 2014-11-28 2015-05-13 江南大学 基于平面约束的机器人标定方法
CN106017339A (zh) * 2016-06-06 2016-10-12 河北工业大学 一种在非完全约束***中投影非均匀条纹的三维测量方法
CN106061427A (zh) * 2014-02-28 2016-10-26 索尼公司 机器人臂设备、机器人臂控制方法和程序
CN107214703A (zh) * 2017-07-11 2017-09-29 江南大学 一种基于视觉辅助定位的机器人自标定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4675499A (en) * 1985-01-31 1987-06-23 Shibuya Kogyo Co., Ltd. Laser beam machining robot
CN101096101A (zh) * 2006-06-26 2008-01-02 北京航空航天大学 机器人足目标定方法和标定装置
CN106061427A (zh) * 2014-02-28 2016-10-26 索尼公司 机器人臂设备、机器人臂控制方法和程序
CN104608129A (zh) * 2014-11-28 2015-05-13 江南大学 基于平面约束的机器人标定方法
CN106017339A (zh) * 2016-06-06 2016-10-12 河北工业大学 一种在非完全约束***中投影非均匀条纹的三维测量方法
CN107214703A (zh) * 2017-07-11 2017-09-29 江南大学 一种基于视觉辅助定位的机器人自标定方法

Also Published As

Publication number Publication date
CN108789404A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
CN108789404B (zh) 一种基于视觉的串联机器人运动学参数标定方法
CN110253574B (zh) 一种多任务机械臂位姿检测和误差补偿方法
CN109877840B (zh) 一种基于相机光轴约束的双机械臂标定方法
CA1331795C (en) Device and method for correction of robot inaccuracy
CN106777656B (zh) 一种基于pmpsd的工业机器人绝对精度校准方法
CN111055273B (zh) 一种用于机器人的两步误差补偿方法
CN113001535B (zh) 机器人工件坐标系自动校正***与方法
CN110757504B (zh) 高精度可移动机器人的定位误差补偿方法
JP2006110705A (ja) ロボットのキャリブレーション方法
CN111590566B (zh) 一种适用于全构型的空间机械臂运动学参数在轨标定方法
CN113459094B (zh) 一种工业机器人工具坐标系及零点自标定方法
CN112767493B (zh) Stewart平台运动学参数的机器视觉标定方法
CN110977963A (zh) 一种工业机器人标定***的自适应对准控制方法
CN112318498A (zh) 一种考虑参数耦合的工业机器人标定方法
CN114474003A (zh) 一种基于参数辨识的车载建筑机器人误差补偿方法
CN115816448A (zh) 基于光学定位仪的机械臂标定方法、装置、设备及介质
CN112894814B (zh) 一种基于最小二乘法的机械臂dh参数辨识方法
CN113211436B (zh) 基于遗传算法的六自由度串联机器人误差标定方法
CN115609586A (zh) 一种基于抓取位姿约束的机器人高精度装配方法
CN112847441B (zh) 基于梯度下降法的六轴机器人坐标偏移检测方法和装置
CN115446847A (zh) 用于提高机器人***的3d眼手协调准确度的***和方法
CN113043264B (zh) 一种一体化关节七轴机器人的零位标定方法
CN113733155A (zh) 六轴工业机器人标定装置和标定方法
Kong et al. An experimental comparison for the accuracy improvement of a 6-PSS parallel manipulator by choosing different sets of measurement data
CN111958640A (zh) 多基站激光跟踪仪协同转站的双臂机器人测试方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant