CN1672881A - 基于运动选择的机器人在线手眼标定方法 - Google Patents
基于运动选择的机器人在线手眼标定方法 Download PDFInfo
- Publication number
- CN1672881A CN1672881A CN 200510025252 CN200510025252A CN1672881A CN 1672881 A CN1672881 A CN 1672881A CN 200510025252 CN200510025252 CN 200510025252 CN 200510025252 A CN200510025252 A CN 200510025252A CN 1672881 A CN1672881 A CN 1672881A
- Authority
- CN
- China
- Prior art keywords
- motion
- trick
- hand
- time
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
一种基于运动选择的机器人在线手眼标定方法,首先设定机器人手爪前后两次运动的旋转轴之间夹角的最小阈值α、机器人手爪每次运动的旋转角的最小阈值β和机器人手爪每次运动的平移分量的模的最大阈值d,然后从第一次手眼采样运动开始,依次选择出两个符合要求的手眼运动对,最后以选择出的两个手眼运动对利用Andreff线性算法计算得到手眼变换关系矩阵,完成一次手眼标定。继续下一次标定时,将上次标定的第二个运动对作为第一个运动对,并从后续采样运动数据中搜索选择另一个运动对,然后进行标定计算。如此循环往复,可连续不断地进行机器人的在线手眼标定操作。本发明可广泛应用于机器人三维视觉测量、视觉伺服和触觉感知等实际工作中。
Description
技术领域
本发明涉及一种基于运动选择的机器人在线手眼标定方法,可广泛应用于机器人三维视觉测量、视觉伺服和触觉感知等方面。属于先进制造与自动化领域。
背景技术
在计算机视觉应用于机器人时,经常将摄像机固定在机器人手臂的末端执行器(机器人手爪)上。机器人手眼标定就是测量相机和机器人手爪之间的相对位置和方向关系,它是机器人学中的一个基本问题。在解决这类问题时,以前大部分方法都是通过迭代优化的方式求解齐次变换方程AX=XB(Y.C.Shiu andS.Ahmad,″Calibration of wrist-mounted robotic sensors by solving homogeneoustransform equations of the form AX=XB,″IEEE Trans.Robot.Automat.,vol.5,pp.16-29,Feb.1989.)来进行标定的,这里A代表机器人手爪的运动,B代表相应的摄像机运动,X为所要标定的摄像机和机器人手爪之间的空间变换关系。由于迭代优化计算过程是非实时的,所以这种情况下手眼标定只能脱机进行。Angeles等(J.Angeles,G.Soucy and F.P.Ferrie,“The online solution of the hand-eyeproblem”,IEEE Trans.Robot.Automat.,vol.16,pp.720-731,Dec.2000.)和Andreff等(N.Andreff,R.Horaud,and B.Espiau,“Robot hand-eye calibration usingstructure-from-motion”,Int.J.Robot.Res.,20(3):228-248,2001.)几乎同时提出了手眼标定的在线实现技术,这样就克服了传统方法不能进行实时标定的缺点。Angeles的方法是基于旋转矩阵的线性不变量,采用递归的线性最小二乘实现的。Andreff则受Sylvester方程的启发,直接将手眼运动方程化成线性形式来求解。
无论采用何种方法进行手眼标定,手眼关系的计算都要求机器人至少独立运动两次,而且两次运动的旋转轴不得平行。因此,当采集到的手眼运动数据存在退化情况时,如纯旋转或纯平移等,就无法得到手眼变换关系的完整解。现有方法的不足之处在于:机器人在工作过程当中进行在线手眼标定时,机器人的运动是由具体应用确定的而并非为手眼标定而设计,所以此时采集到的用于手眼标定的运动数据就很有可能存在退化情形。另外,采样运动中旋转角很小或者平移比较大,或者两次运动的旋转轴之间的夹角很小时,会产生比较大的标定误差。以上情形的出现都会使现有算法不能正常工作或失效。
发明内容
本发明的目的在于针对现有技术的不足和缺点,充分利用现有采样到的手眼运动数据,提出了一种基于运动选择的在线手眼标定方法,以去除退化手眼运动对手眼变换关系正常计算的影响,同时还可以通过避免小角度旋转等措施来减小计算误差,提高机器人手眼标定精度。
本发明的技术方案:首先设定运动选择的三个阈值,即机器人手爪前后两次运动的旋转轴之间夹角的最小阈值α、机器人手爪每次运动的旋转角的最小阈值β和机器人手爪每次运动的平移分量的模的最大阈值d。然后,从第一次手眼采样运动开始,依次选择出两个符合要求的手眼运动对,最后以选择出的两个手眼运动对利用Andreff线性算法计算得到手眼变换关系。继续下一次标定时,可将上一次用于标定的第二个运动对作为下一次标定的第一个运动对,并从后续采样运动数据中搜索选择另一个运动对,然后进行新的手眼标定计算。如此循环往复,可连续不断地进行机器人的在线手眼标定操作。
本发明的在线手眼标定方法主要包括以下几个步骤:
1.设定运动选择的三个阈值:机器人手爪前后两次运动的旋转轴之间夹角的最小阈值α、机器人手爪每次运动的旋转角的最小阈值β和机器人手爪每次运动的平移分量的模的最大阈值d。
2.搜索选择第一个满足阈值条件的手眼运动对(A′,B′)。首先由第一次和第二次采样到的手眼姿态可以计算得到一个手眼运动对(A′,B′),如果A′的旋转角大于等于β且A′的平移分量的模小于等于d,则得到第一个满足阈值条件的运动对(A′,B′)。否则,再由第一次和第三次采样的手眼姿态计算手眼运动对(A′,B′)并判断A′的旋转角和平移分量的模是否满足设定条件。如此循环往复,直至找到符合条件的第一个手眼运动对(A′,B′),假设该运动对是由第一次和第i+1次采样的手眼姿态计算得到的。
3.搜索选择第二个满足阈值条件的手眼运动对(A″,B″)。首先由第i+1次和第i+2次采样到的手眼姿态可以计算得到一个手眼运动对(A″,B″),如果A″的旋转角大于等于β、A″的平移分量的模小于等于d和A′与A″的旋转轴之间的夹角大于等于α,则得到第二个满足阈值条件的运动对(A″,B″)。否则,再由第i+1次和第i+3次采样的手眼姿态计算手眼运动(A″,B″)并判断A″的旋转角、A″的平移分量的模以及A′与A″的旋转轴之间的夹角是否满足设定条件。如此循环往复,直至找到符合条件的第二个手眼运动对(A″,B″)。
4.利用两个手眼运动对(A′,B′)和(A″,B″)进行手眼标定。即利用手眼运动对(A′,B′)和(A″,B″)列出Andreff的线性方程,求解该线性方程得到手眼变换关系矩阵,完成一次手眼标定。
5.若继续下一次手眼标定时,可将上次用于标定的手眼运动对(A″,B″)作为新的手眼运动对(A′,B′),重复步骤3从后续采样数据中继续搜索选择新的手眼运动对(A″,B″),重复步骤4进行新的手眼标定。
实际应用时,根据事先设定的三个阈值,由软件自动进行运动选择和手眼标定计算。本发明所提出的手眼标定方法,不但可以防止采样数据中出现的退化运动影响手眼标定的正常求解,而且还可以避免小旋转角的运动引起较大的标定误差,因而提高标定精度。
本发明提出的在线手眼标定方法,可广泛应用于机器人三维视觉测量、视觉伺服和触觉感知等方面,具有相当的实用价值。
附图说明
图1为本发明的机器人手眼标定模型示意图。
图2为本发明的用于在线手眼标定的运动选择算法示意图。
具体实施方式
为了更好地讲解本发明的技术方案,以下结合附图和实施例作进一步的详细描述。
1.设定运动选择的三个阈值:机器人手爪前后两次运动的旋转轴之间夹角的最小阈值α、机器人手爪每次运动的旋转角的最小阈值β和机器人手爪每次运动的平移分量的模的最大阈值d。一般情况下选α=β=30°,d=100。设第i(i为自然数)次采样到的摄像机和手爪姿态的齐次矩阵分别为Pi、Qi,X为所需要求解的手眼变换关系齐次矩阵。
2.搜索选择第一个满足条件的手眼运动对(A′,B′)。首先从前两次的手眼姿态可以求出第一次手爪运动的齐次矩阵A1和相机运动的齐次矩阵B1,如图1所示,P1、P2分别为摄像机在第1和第2时刻相对于标定参照物的姿态齐次矩阵,Q1、Q2分别为机器人手爪在第1和第2时刻在机器人基坐标系下的姿态齐次矩阵,则有:
设(A′,B′)=(A1,B1)。如果A′的旋转角大于等于β而且A′平移分量的模小于等于d,则当前运动对(A′,B′)满足给定阈值条件,否则再由第一次和第三次采样的手眼姿态计算手眼运动对(A′,B′)并判断A′的旋转角和A′的平移的模是否满足以上条件。如此循环往复,直至找到符合条件的手眼运动对作为(A′,B′),设此时(A′,B′)由第一次和第i+1次采样的手眼姿态(即经过了i次手眼运动)计算得到的。图2示出了搜索第一个满足条件的手眼运动对的完整过程。
3.从第i+1次采样的手眼姿态开始(即第i次运动后)搜索选择第二个满足条件的手眼运动对(A″,B″),如图二所示。首先从第i+1次和第i+2次的手眼姿态可以求出手爪运动齐次矩阵Ai+1和相机运动齐次矩阵Bi+1,即有:
设(A″,B″)=(Ai+1,Bi+1)。如果A″的旋转角大于等于β、A″的平移分量的模小于等于d而且A′与A″的旋转轴之间的夹角大于等于α,则当前运动对(A″,B″)满足给定阈值条件,否则再由第i+1次和第i+3次采样的手眼姿态计算手眼运动对(A″,B″)并判断A″的旋转角、A″的平移分量的模和A′与A″的旋转轴之间的夹角是否满足以上条件,如此循环往复,直至找到符合条件的手眼运动对作为(A″,B″)。
4.利用步骤2、3中选择出的两个手眼运动对(A′,B′)和(A″,B″)进行手眼标定。根据手眼运动对(A′,B′)和(A″,B″)列出Andreff手眼标定线性方程,求解该方程得到手眼变换关系矩阵X,完成一次手眼标定。
5.如果需要继续标定,可将上次用于标定的手眼运动对(A″,B″)作为新的手眼运动对(A′,B′),重复步骤3从后续手眼姿态采样数据中开始搜索选择新的手眼运动对(A″,B″),重复步骤4进行新的手眼标定。
Claims (1)
1、一种基于运动选择的机器人在线手眼标定方法,其特征在于包括如下具体步骤:
1)设定运动选择的三个阈值:设定机器人手爪前后两次运动的旋转轴之间夹角的最小阈值α、机器人手爪每次运动的旋转角的最小阈值β和机器人手爪每次运动的平移分量的模的最大阈值d;
2)搜索选择第一个满足条件的手眼运动对(A′,B′):由第一次和第二次采样到的手眼姿态计算得到一个手眼运动对(A′,B′),如果A′的旋转角大于等于β且A′的平移分量的模小于等于d,则认为(A′,B′)找到,否则,再由第一次和第三次采样的手眼姿态计算手眼运动对(A′,B′)并判断A′的旋转角和平移分量的模是否满足设定条件,如此循环往复,直至找到符合条件的手眼运动对作为(A′,B′),设此时的(A′,B′)由第一次和第i+1次采样的手眼姿态计算得到;
3)搜索选择第二个满足条件的手眼运动对(A″,B″):由第i+1次和第i+2次采样到的手眼姿态计算得到一个手眼运动对(A″,B″),如果A″的旋转角大于等于β、A″的平移分量的模小于等于d而且A′与A″的旋转轴之间的夹角大于等于α,则认为(A″,B″)找到,否则,再由第i+1次和第i+3次采样的手眼姿态计算手眼运动对(A″,B″)并判断A″的旋转角、A″的平移分量的模和A′与A″的旋转轴之间的夹角是否满足设定条件,如此循环往复,直至找到符合条件的手眼运动对(A″,B″);
4)利用两个手眼运动对(A′,B′)和(A″,B″)进行手眼标定:由(A′,B′)和(A″,B″)列出Andreff线性方程,求解该方程得到手眼变换关系矩阵,完成一次手眼标定;
5)若继续标定时,将上次用于标定的手眼运动对(A″,B″)作为新的手眼运动对(A′,B′),重复步骤3从后续采样数据中继续搜索选择新的手眼运动对(A″,B″),重复步骤4进行新的手眼标定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2005100252520A CN1330466C (zh) | 2005-04-21 | 2005-04-21 | 基于运动选择的机器人在线手眼标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2005100252520A CN1330466C (zh) | 2005-04-21 | 2005-04-21 | 基于运动选择的机器人在线手眼标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1672881A true CN1672881A (zh) | 2005-09-28 |
CN1330466C CN1330466C (zh) | 2007-08-08 |
Family
ID=35045785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100252520A Expired - Fee Related CN1330466C (zh) | 2005-04-21 | 2005-04-21 | 基于运动选择的机器人在线手眼标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1330466C (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100408279C (zh) * | 2006-06-26 | 2008-08-06 | 北京航空航天大学 | 机器人足目标定方法和标定装置 |
CN103925879A (zh) * | 2014-04-24 | 2014-07-16 | 中国科学院合肥物质科学研究院 | 基于3d图像传感器的室内机器人视觉手眼关系标定方法 |
CN107993227A (zh) * | 2017-12-15 | 2018-05-04 | 深圳先进技术研究院 | 一种获取3d腹腔镜手眼矩阵的方法和装置 |
CN108413896A (zh) * | 2018-02-27 | 2018-08-17 | 博众精工科技股份有限公司 | 一种机械手标定方法 |
CN108942934A (zh) * | 2018-07-23 | 2018-12-07 | 珠海格力电器股份有限公司 | 确定手眼标定的方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62214403A (ja) * | 1986-03-17 | 1987-09-21 | Yaskawa Electric Mfg Co Ltd | 視覚センサ付ロボツトシステムにおけるキヤリブレ−シヨン方法 |
KR100468857B1 (ko) * | 2002-11-21 | 2005-01-29 | 삼성전자주식회사 | 2차원 형상에 대한 투사 불변형 표현자를 이용한핸드/아이 캘리브레이션 방법 |
CN1292878C (zh) * | 2003-09-03 | 2007-01-03 | 中国科学院自动化研究所 | 一种基于机器人运动的摄像机自标定方法 |
-
2005
- 2005-04-21 CN CNB2005100252520A patent/CN1330466C/zh not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100408279C (zh) * | 2006-06-26 | 2008-08-06 | 北京航空航天大学 | 机器人足目标定方法和标定装置 |
CN103925879A (zh) * | 2014-04-24 | 2014-07-16 | 中国科学院合肥物质科学研究院 | 基于3d图像传感器的室内机器人视觉手眼关系标定方法 |
CN107993227A (zh) * | 2017-12-15 | 2018-05-04 | 深圳先进技术研究院 | 一种获取3d腹腔镜手眼矩阵的方法和装置 |
CN107993227B (zh) * | 2017-12-15 | 2020-07-24 | 深圳先进技术研究院 | 一种获取3d腹腔镜手眼矩阵的方法和装置 |
CN108413896A (zh) * | 2018-02-27 | 2018-08-17 | 博众精工科技股份有限公司 | 一种机械手标定方法 |
CN108413896B (zh) * | 2018-02-27 | 2019-12-13 | 博众精工科技股份有限公司 | 一种机械手标定方法 |
CN108942934A (zh) * | 2018-07-23 | 2018-12-07 | 珠海格力电器股份有限公司 | 确定手眼标定的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN1330466C (zh) | 2007-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106873550B (zh) | 模拟装置以及模拟方法 | |
Wilson et al. | Relative end-effector control using cartesian position based visual servoing | |
JP7326911B2 (ja) | 制御システムおよび制御方法 | |
CN107457783B (zh) | 基于pd控制器的六自由度机械臂自适应智能检测方法 | |
JP2022542239A (ja) | 視角エンベディングに基づいた自律タスク実行 | |
CN107414827B (zh) | 基于线性反馈控制器的六自由度机械臂自适应检测方法 | |
CN110053044B (zh) | 一种并联机器人串类水果夹取无模型自适应光滑滑模阻抗控制方法 | |
CN110181500B (zh) | 一种仿生机械手的控制***及其控制方法 | |
CN110370271B (zh) | 工业串联机器人的关节传动比误差校准方法 | |
CN110253574A (zh) | 一种多任务机械臂位姿检测和误差补偿方法 | |
CN1672881A (zh) | 基于运动选择的机器人在线手眼标定方法 | |
Gratal et al. | Visual servoing on unknown objects | |
EP1862813A1 (en) | A method for estimating the position of a sound source for online calibration of auditory cue to location transformations | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作*** | |
Gratal et al. | Virtual visual servoing for real-time robot pose estimation | |
Lippiello et al. | Position and orientation estimation based on Kalman filtering of stereo images | |
CN114029982A (zh) | 一种相机在机器臂外的手眼标定装置及其标定方法 | |
CN1686682A (zh) | 用于机器人在线手眼标定的自适应运动选择方法 | |
CN114067210A (zh) | 一种基于单目视觉导引的移动机器人智能抓取方法 | |
CN113021329B (zh) | 一种机器人运动控制方法、装置、可读存储介质及机器人 | |
CN116423520A (zh) | 一种基于视觉和动态运动基元的机械臂轨迹规划方法 | |
CN110110469A (zh) | 基于奇异值分解的并联机器人动力学参数辨识方法 | |
Wei et al. | Multisensory visual servoing by a neural network | |
Liu et al. | A new method for mobile robot arm blind grasping using ultrasonic sensors and Artificial Neural Networks | |
CN111915718B (zh) | 适用于船岸lng装卸臂的自动对接*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070808 Termination date: 20100421 |