CN113211433A - 一种基于复合特征的分离式视觉伺服控制方法 - Google Patents
一种基于复合特征的分离式视觉伺服控制方法 Download PDFInfo
- Publication number
- CN113211433A CN113211433A CN202110427272.XA CN202110427272A CN113211433A CN 113211433 A CN113211433 A CN 113211433A CN 202110427272 A CN202110427272 A CN 202110427272A CN 113211433 A CN113211433 A CN 113211433A
- Authority
- CN
- China
- Prior art keywords
- camera
- curve
- control
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于复合特征的分离式视觉伺服控制方法。首先为了能够准确地表述物体的全局几何信息,减小环境噪声对图像特征提取的干扰,本发明采用非均匀有理B样条曲线拟合技术提取物体的轮廓特征;然后提出利用复合特征来对机器人进行平移和旋转分离式控制,即利用曲线拟合控制点特征、相邻点连线的线特征以及两点间的距离特征实现对机器人的平移和旋转姿态控制;最后,针对机器人姿态控制与位置控制间的强耦合问题,发明了一种旋转补偿模块对机器人因相机旋转运动而造成的图像特征位置偏差进行补偿,提高了伺服***的性能。本发明方法不依赖于全局特征,实时性好,带有旋转补偿,可靠性高,是一种高精度的机器人视觉伺服控制方法。
Description
技术领域
本发明属于机器人视觉伺服控制领域,具体涉及一种基于复合特征的分离式视觉伺服控制方法。
背景技术
视觉伺服是利用视觉信息对机器人或者相机位姿进行的伺服控制,其目标是控制机器人或者相机快速到达期望的位姿。对视觉伺服***的设计涉及两个关键问题,其一是图像特征的提取,其二是视觉伺服控制律的设计。图像特征的选取一般分为三类,即点特征、线特征和全局特征。点特征包括角点、拐点、质点等,采用点特征的优势是模型简单,计算速度快,但应对干扰能力差。线特征包括直线特征和曲线特征,直线特征要求对象是规范形体,应用场景有限;曲线特征灵活性强,但需要提取物体的轮廓信息。全局特征包括图像矩、图像熵、光度矩等,其优势是对环境变化的鲁棒性高,但计算复杂,***收敛时间较长。
综合比较上述特征提取方法,以物体轮廓曲线作为图像特征,既可以较好地描述物体的全局特征信息又能满足实时性的要求。但由于机器人或相机的旋转控制对位置控制有较大影响,特别是采用曲线拟合技术提取目标物体的轮廓特征时,旋转运动会使曲线控制点特征的位置改变较大,容易造成目标丢失的情况。因此,考虑利用复合性的图像特征对机器人实现姿态和位置的分离式控制,并对姿态控制造成的图像特征位置偏差进行补偿是非常可行的,对提高机器人伺服***的性能具有重要意义。
发明内容
针对现有的基于曲线特征的机器人视觉伺服方法存在的问题,本发明提出了一种基于复合特征的分离式视觉伺服控制方法,利用曲线拟合特征点的点特征、相邻点的连线特征、两点间的距离特征实现对机器人的平移和旋转姿态的分离式控制,并设计旋转补偿模块对因相机旋转运动而造成的图像特征位置偏差进行补偿,克服了现有技术的不足,具有良好的效果。
本发明采用如下技术方案:
一种基于复合特征的分离式视觉伺服控制方法,包括图像特征提取、旋转补偿模块的设计、分离式视觉伺服控制律的设计,包括如下步骤:
S1、基于NURBS曲线拟合技术反算出曲线控制顶点,获取曲线控制点特征;
S2、计算空间NURBS曲线在相机成像平面上的二维投影曲线;
S3、在通过曲线拟合方法对物体的轮廓投影曲线进行实时拟合运算后,利用得到的曲线控制点计算基于曲线控制点特征的交互矩阵;
S4、选择曲线控制点连线特征,并计算基于曲线控制点连线特征的交互矩阵;
S5、计算曲线控制点间的距离作为距离特征,并计算基于两点间距离特征的交互矩阵;
S6、针对相机旋转姿态的变化而导致的图像特征位置的改变进行补偿,使***获得较好的解耦特性,提高伺服***的性能;
S7、由于视觉伺服***采用的是单目摄像机,无法直接获取空间控制顶点的深度信息,为了获取曲线控制顶点的深度信息,利用曲线控制点特征的图像平面上的投影变化量与相机的运动速度对交互矩阵中的深度信息进行在线深度估计;
S8、利用相邻曲线控制点连线的直线特征对相机的旋转姿态进行控制,利用两个曲线控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用曲线控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量,最终完成机器人伺服任务。
优选地,步骤S1包括下列子步骤:
S11、对相机成像平面上的投影轮廓曲线进行图像处理,提取出投影曲线的数据点云坐标;
S12、按照相同间隔将曲线点云数据坐标等分成r个区间;
S13、在每个区间内选取每个数据点的n领域进行多项式运算求得分段多项式,再分别计算每段多项式中数据点处的曲率;
S14、选取曲率绝对值最大处的数据点以及曲线的首末数据端点作为曲线型值点;
S15、根据De Boor-Cox算法反算出曲线控制点。
优选地,在S15中,记一条k次NURBS曲线型值点为qi(i=0,1,…,n),其节点矢量U=[u0,u1,…,un+6]的计算为:
其中,
在求得曲线型值点以及节点矢量后,根据De Boor-Cox算法反算出曲线控制点,节点插值的NURBS方程组如下:
其中,dj是曲线控制点,ωj是曲线控制点的权因子,令ωj=1,Bj,k(uj)是由节点矢量按De Boor-Cox递推公式推导出的B样条基函数。
在求得全部的曲线控制顶点后,若发现拟合曲线精度达不到要求,则通过增加节点数量来提高拟合精度,直到拟合精度满足要求为止。
优选地,在S2中,已知在空间中存在一套机器人视觉伺服***,摄像机安装在机械臂末端,即眼在手构型;定义机器人的末端执行器坐标系为{T},相机坐标系为{C},机器人坐标系为{R};设在用NURBS曲线描述该空间曲线时,其空间控制顶点为di(i=0,1,…,n),di在相机成像平面上的投影控制顶点记为Cdi(i=0,1,…,n);根据相机的透视投影模型,任意时刻t中,空间曲线的控制顶点di在相机图像平面上的投影控制点Cdi表示为:
其中,M是相机的内参矩阵,相机的内参矩阵由相机标定获得;H(q(t))是机器人基坐标系到机器人末端坐标系的齐次变换矩阵,q(t)是t时刻机器人的关节变量;H(q(t))由机器人的D-H参数以及机器人在t时刻的关节角度算出;
由NURBS曲线定义及式(4)知,
式(5)为t时刻下,空间NURBS曲线在相机成像平面上的二维投影曲线。
优选地,在S3中,设安装于机械臂末端的相机在空间中的刚体移动速度为V=(vc,ωc),P(Xd,Yd,Zd)是空间控制顶点P相对于相机的坐标,则曲线控制顶点P在相机坐标系下运动速度为:
式(6)的标量形式为:
其中,vc=[vcx,vcy,vcz]T是相机的线速度,ωc=[ωcx,ωcy,ωcz]T是相机的角速度。
根据相机的投影透视关系,图像归一化平面上的曲线控制点坐标表示为:
xdc=Xd/Zd,ydc=Yd/Zd (8)
将式(8)两边分别对时间求导得:
将式(8)、式(9)代入式(7)并进行整理得:
式(10)是在相机归一化成像平面上控制点特征的变化与机械臂末端相机移动的关系式,由式(10)可知,一个点图像特征对应两个分量,在控制一台6自由度机械臂时,为了避免出现欠驱动情况,应至少选择3个曲线控制顶点作为图像特征。当所选择的特征点的数目大于3个时,可以更好地唯一确定一台6自由度机器人的位姿。故本发明在兼顾视觉伺服***实时性的同时,选择4个NURBS曲线控制点作为图像特征进行伺服任务。
优选地,在S4中,设点A、B是对目标物体轮廓进行NURBS曲线拟合后得到的两个相邻的曲线控制点,O是相机光轴与图像归一化平面的交点;利用A、B两个控制点的图像坐标求得lAB的直线方程,设直线lAB的斜率为k1,则与其垂直的直线p1o的斜率为k2,k2=-1/k1;根据原点O的坐标以及斜率k2,求得点p1在焦距归一化成像平面上的坐标;
设p1坐标为p1(xp1,yp1,1),则p1点的极坐标参数表示为:
沿直线lAB设置两个关于点p1对称的点p2和p3,其极坐标参数分别为ρ2,α2和ρ3,α3。将p2,p3的参数代入直线的极坐标参数方程,得到:
其中,α2=α+Δα,α3=α-Δα,ρ2=ρ3,Δα是一个近似为0的正数,则利用p2,p3的极坐标表示直线lAB的参数α为:
将式(13)对时间求导并进行整理得:
将点的极坐标参数变化率带入式(14),进行整理得到基于直线极坐标参数α的交互矩阵:
其中,v=[vx,vy,vz]T为相机在x,y,z轴的平移运动速率,ω=[ωx,ωy,ωz]T为相机在x,y,z轴的旋转运动速率,
且z2,z3是点p2和p3的深度信息,其值在相机运动过程中通过在线估计来获得;当线特征与相机光轴垂直时,z2=z3,直线特征参数α的变化近似看作只由相机的旋转姿态变化产生;将式(15)改写为:
在利用两个控制点连线计算出相关直线特征参数后,用式(17)所示的交互矩阵对相机姿态进行控制。
优选地,在S5中,设A、B为焦距归一化成像平面上的两个NURBS曲线控制顶点且A、B两个控制顶点的像素坐标为A(xA,yA),B(xB,yB);根据几何知识知,A、B两个点间的距离表示为:
将上式两边同时对时间求导,求得两控制点间的距离变化率为:
将点特征交互矩阵式(10)带入式(18)中,得到两点间距离特征的交互矩阵:
其中,
且zA,zB是曲线控制顶点A、B的深度值,在相机的运动过程中通过在线估计获得。
优选地,在S6中,利用直线特征交互矩阵求得相机的旋转运动速率为:
其中,Llω是两个控制点连线的线特征交互矩阵,ρ、α是控制点连线的直线特征参数。
相机的旋转运动速率与控制点特征在图像平面上的投影位置变化率之间的关系为:
其中,Lpω是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpω为:
其中,xcn、ycn是第n个曲线控制点在相机成像平面上的像素坐标;
利用像平面上特征的变化量及交互矩阵设计曲线控制点的旋转补偿量为:
其中,Lpv是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpv为:
其中,zcn是第n个曲线控制点的深度值。
优选地,在S7中,设zci是第i个曲线控制顶点的深度值,其像素坐标为Pci(xci,yci,1),则zi的估算如下:
在相机焦距归一化成像平面上两个相邻控制点连线的线特征上的点Plj(xlj,ylj,1)的深度信息zlj通过直线特征参数的变化率与相机的运动速度来进行在线估计;zlj的估计方法如下:
优选地,在S8中,采用相邻控制点连线的直线特征对相机的旋转姿态进行控制,利用两个控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量。
在图像特征空间中分别定义曲线控制点误差为ep(t),相邻曲线控制点连线的角度误差为eα(t),两个控制点间的距离误差为ed(t);
式(29)中,fph是期望的曲线控制点特征,fpc(t)是相机当前位姿下的控制点特征;式(30)中,fαh是期望的相邻曲线控制点连线的角度特征,fαc(t)是相机当前位姿下相邻曲线控制点连线的角度特征;式(31)中,fdh是期望的两个控制点间的距离特征,fdc是相机当前位姿下两个控制点间的距离特征,分别是完成伺服任务所需要的点特征、控制点连线的线特征、两点间距离特征的图像特征变化量;
无标定视觉伺服***的目标是使在图像平面上定义的各图像特征误差的差值收敛到0,因此,定义式(32)、式(33)、式(34)如下:
其中,kp,kα,kd是***控制器增益系数;
分别将式(32)、式(33)、式(34)与图像雅可比的定义式联立并分别带入式(29)、式(30)与式(31)中得:
取式(35)中矩阵Jp的前3列构成矩阵Jpv,取矩阵Jp的后3列构成矩阵Jpω,则曲线旋转补偿模块对位置控制的补偿量为:
本发明具有如下有益效果:
本发明提供的一种基于复合特征的分离式视觉伺服控制方法,在通过曲线拟合技术得到的图像特征基础上,分别构造了点特征、两点间的距离特征以及相邻点连线的线特征,实现了对机器人的平移与旋转姿态进行控制,其有益效果包括1)设计了一种复合特征,包含了更多的图像信息;2)实现了机器人平移与旋转控制的部分分离式控制,使机器人能够快速且平滑地收敛到期望位置;3)在位置控制律中设计旋转补偿模块补偿因机器人旋转而造成的特征平移方向的移动,使机器人获得良好的解耦特性,能够在一定程度上防止目标物体在相机视野范围内的丢失。
附图说明
图1是本发明的伺服***结构框图;
图2是本发明的NURBS曲线拟合流程图;
图3是本发明的视觉伺服***示意图;
图4是本发明的相邻控制点连线构成的线特征图;
具体实施方式
下面结合附图和具体实施例对本发明的具体实施方式做进一步说明:
如图1所示,一种基于复合特征的分离式视觉伺服控制方法,以六自由度工业机器人伺服任务为例,相机安装在机械臂末端,即眼在手构型,包括下列步骤:
S1、基于NURBS曲线拟合技术反算出曲线控制顶点,获取曲线控制点特征;
具体地,步骤S1包括下列子步骤:
S11、对相机成像平面上的投影轮廓曲线进行图像处理,提取出投影曲线的数据点云坐标;
S12、按照相同间隔将曲线点云数据坐标等分成r个区间;
S13、在每个区间内选取每个数据点的n领域进行多项式运算求得分段多项式,再分别计算每段多项式中数据点处的曲率;
S14、选取曲率绝对值最大处的数据点以及曲线的首末数据端点作为曲线型值点;
S15、根据De Boor-Cox算法反算出曲线控制点。
具体地,在S15中,记一条k次NURBS曲线型值点为qi(i=0,1,…,n),其节点矢量U=[u0,u1,…,un+6]的计算为:
其中,
在求得曲线型值点以及节点矢量后,根据De Boor-Cox算法反算出曲线控制点,节点插值的NURBS方程组如下:
其中,dj是曲线控制点,ωj是曲线控制点的权因子,令ωj=1,Bj,k(uj)是由节点矢量按De Boor-Cox递推公式推导出的B样条基函数。
如图2所示,在求得全部的曲线控制顶点后,若发现拟合曲线精度达不到要求,则通过增加节点数量来提高拟合精度,直到拟合精度满足要求为止。
S2、计算空间NURBS曲线在相机成像平面上的二维投影曲线;
具体地,如图3所示,已知在空间中存在一套机器人视觉伺服***,摄像机安装在机械臂末端,即眼在手构型;定义机器人的末端执行器坐标系为{T},相机坐标系为{C},机器人坐标系为{R};设在用NURBS曲线描述该空间曲线时,其空间控制顶点为di(i=0,1,…,n),di在相机成像平面上的投影控制顶点记为Cdi(i=0,1,…,n);根据相机的透视投影模型,任意时刻t中,空间曲线的控制顶点di在相机图像平面上的投影控制点Cdi表示为:
其中,M是相机的内参矩阵,相机的内参矩阵由相机标定获得;H(q(t))是机器人基坐标系到机器人末端坐标系的齐次变换矩阵,q(t)是t时刻机器人的关节变量;H(q(t))由机器人的D-H参数以及机器人在t时刻的关节角度算出;
由NURBS曲线定义及式(4)知,t时刻下,空间NURBS曲线在相机成像平面上的二维投影曲线可以表示为:
S3、在通过曲线拟合方法对物体的轮廓投影曲线进行实时拟合运算后,利用得到的曲线控制点计算基于曲线控制点特征的交互矩阵;
具体地,设安装于机械臂末端的相机在空间中的刚体移动速度为V=(vc,ωc),P(Xd,Yd,Zd)是空间控制顶点P相对于相机的坐标,则曲线控制顶点P在相机坐标系下运动速度为:
式(6)的标量形式为:
其中,vc=[vcx,vcy,vcz]T是相机的线速度,ωc=[ωcx,ωcy,ωcz]T是相机的角速度。
根据相机的投影透视关系,图像归一化平面上的曲线控制点坐标表示为:
xdc=Xd/Zd,ydc=Yd/Zd (8)
将式(8)两边分别对时间求导得:
将式(8)、式(9)代入式(7)并进行整理得:
式(10)是在相机归一化成像平面上控制点特征的变化与机械臂末端相机移动的关系式,由式(10)可知,一个点图像特征对应两个分量,在控制一台6自由度机械臂时,为了避免出现欠驱动情况,应至少选择3个曲线控制顶点作为图像特征。当所选择的特征点的数目大于3个时,可以更好地唯一确定一台6自由度机器人的位姿。故本发明在兼顾视觉伺服***实时性的同时,选择4个NURBS曲线控制点作为图像特征进行伺服任务。
S4、选择曲线控制点连线特征,并计算基于曲线控制点连线特征的交互矩阵;
具体地,如图4所示,设点A、B是对目标物体轮廓进行NURBS曲线拟合后得到的两个相邻的曲线控制点,O是相机光轴与图像归一化平面的交点,设置其坐标为O[500,500];利用A、B两个控制点的图像坐标求得lAB的直线方程,设直线lAB的斜率为k1,则与其垂直的直线p1o的斜率为k2,k2=-1/k1;根据原点O的坐标以及斜率k2,求得点p1在焦距归一化成像平面上的坐标;
设p1坐标为p1(xp1,yp1,1),则p1点的极坐标参数表示为:
沿直线lAB设置两个关于点p1对称的点p2和p3,其极坐标参数分别为ρ2,α2和ρ3,α3。将p2,p3的参数代入直线的极坐标参数方程,得到:
其中,α2=α+Δα,α3=α-Δα,ρ2=ρ3,Δα是一个近似为0的正数,则利用p2,p3的极坐标表示直线lAB的参数α为:
将式(13)对时间求导并进行整理得:
将点的极坐标参数变化率带入式(14),进行整理得到基于直线极坐标参数α的交互矩阵:
其中,
且z2,z3是点p2和p3的深度信息,其值在相机运动过程中通过在线估计来获得;当线特征与相机光轴垂直时,z2=z3,直线特征参数α的变化近似看作只由相机的旋转姿态变化产生;将式(15)改写为:
在利用两个控制点连线计算出相关直线特征参数后,用式(17)所示的交互矩阵对相机姿态进行控制。
S5、计算曲线控制点间的距离作为距离特征,并计算基于两点间距离特征的交互矩阵;
具体地,设A、B为焦距归一化成像平面上的两个NURBS曲线控制顶点且A、B两个控制顶点的像素坐标为A(xA,yA),B(xB,yB);根据几何知识知,A、B两个点间的距离表示为:
将上式两边同时对时间求导,求得两控制点间的距离变化率为:
将点特征交互矩阵式(10)带入式(18)中,得到两点间距离特征的交互矩阵:
其中,
且zA,zB是曲线控制顶点A、B的深度值,在相机的运动过程中通过在线估计获得。
S6、针对相机旋转姿态的变化而导致的图像特征位置的改变进行补偿,使***获得较好的解耦特性,提高伺服***的性能;
具体地,利用直线特征交互矩阵求得相机的旋转运动速率为:
其中,Llω是两个控制点连线的线特征交互矩阵,ρ、α是控制点连线的直线特征参数。
相机的旋转运动速率与控制点特征在图像平面上的投影位置变化率之间的关系为:
其中,Lpω是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpω为:
其中,xcn、ycn是第n个曲线控制点在相机成像平面上的像素坐标;
利用像平面上特征的变化量及交互矩阵设计曲线控制点的旋转补偿量为:
其中,Lpv是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpv为:
其中,zcn是第n个曲线控制点的深度值。
S7、由于视觉伺服***采用的是单目摄像机,无法直接获取空间控制顶点的深度信息,为了获取曲线控制顶点的深度信息,利用曲线控制点特征的图像平面上的投影变化量与相机的运动速度对交互矩阵中的深度信息进行在线深度估计;
具体地,在S7中,设zci是第i个曲线控制顶点的深度值,其像素坐标为Pci(xci,yci,1),则zi的估算如下:
在相机焦距归一化成像平面上两个相邻控制点连线的线特征上的点Plj(xlj,ylj,1)的深度信息zlj通过直线特征参数的变化率与相机的运动速度来进行在线估计;zlj的估计方法如下:
S8、在机器人姿态控制器中,利用相邻曲线控制点连线的直线特征对相机的旋转姿态进行控制;在机器人Z轴平移控制器中,利用两个曲线控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制;在机器人X、Y轴平移控制器中,利用曲线控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量,最终完成机器人伺服任务。
具体地,采用相邻控制点连线的直线特征对相机的旋转姿态进行控制,利用两个控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量。
在图像特征空间中分别定义曲线控制点误差为ep(t),相邻曲线控制点连线的角度误差为eα(t),两个控制点间的距离误差为ed(t);
式(29)中,fph是期望的曲线控制点特征,fpc(t)是相机当前位姿下的控制点特征;式(30)中,fαh是期望的相邻曲线控制点连线的角度特征,fαc(t)是相机当前位姿下相邻曲线控制点连线的角度特征;式(31)中,fdh是期望的两个控制点间的距离特征,fdc是相机当前位姿下两个控制点间的距离特征,分别是完成伺服任务所需要的点特征、控制点连线的线特征、两点间距离特征的图像特征变化量;
无标定视觉伺服***的目标是使在图像平面上定义的各图像特征误差的差值收敛到0,因此,定义式(32)、式(33)、式(34)如下:
其中,kp,kα,kd是***控制器增益系数;
分别将式(32)、式(33)、式(34)与图像雅可比的定义式联立并分别带入式(29)、式(30)与式(31)中得:
其中,Jp(t)是基于点特征的图像雅克比矩阵,是控制点特征交互矩阵Jp的伪逆矩阵;Jα(t)是基于点距离特征的图像雅克比矩阵,是线特征交互矩阵的伪逆矩阵;Jd(t)是基于点连线特征的图像雅克比矩阵,是两控制点间距离特征交互矩阵的伪逆矩阵; 共同构成关节控制所需要的6个关节值,即x,y,z三个方向的平移姿态和旋转姿态;对应x,y轴方向的平移姿态,对应z轴方向的平移姿态,对应x,y,z轴方向的旋转姿态。
取式(35)中矩阵Jp的前3列构成矩阵Jpv,取矩阵Jp的后3列构成矩阵Jpω,则曲线旋转补偿模块对位置控制的补偿量为:
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。
Claims (10)
1.一种基于复合特征的分离式视觉伺服控制方法,其特征在于,包括如下步骤:
S1、基于NURBS曲线拟合技术反算出曲线控制顶点,获取曲线控制点特征;
S2、计算空间NURBS曲线在相机成像平面上的二维投影曲线;
S3、在通过曲线拟合方法对物体的轮廓投影曲线进行实时拟合运算后,利用得到的曲线控制点计算基于曲线控制点特征的交互矩阵;
S4、选择曲线控制点连线特征,并计算基于曲线控制点连线特征的交互矩阵;
S5、计算曲线控制点间的距离作为距离特征,并计算基于两点间距离特征的交互矩阵;
S6、针对相机旋转姿态的变化而导致的图像特征位置的改变进行补偿;
S7、为了获取曲线控制顶点的深度信息,利用曲线控制点特征的图像平面上的投影变化量与相机的运动速度对交互矩阵中的深度信息进行在线深度估计;
S8、利用相邻曲线控制点连线的直线特征对相机的旋转姿态进行控制,利用两个曲线控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用曲线控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量,最终完成机器人伺服任务。
2.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,步骤S1包括下列子步骤:
S11、对相机成像平面上的投影轮廓曲线进行图像处理,提取出投影曲线的数据点云坐标;
S12、按照相同间隔将曲线点云数据坐标等分成r个区间;
S13、在每个区间内选取每个数据点的n领域进行多项式运算求得分段多项式,再分别计算每段多项式中数据点处的曲率;
S14、选取曲率绝对值最大处的数据点以及曲线的首末数据端点作为曲线型值点;
S15、根据De Boor-Cox算法反算出曲线控制点。
4.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S2中,已知在空间中存在一套机器人视觉伺服***,摄像机安装在机械臂末端,即眼在手构型;定义机器人的末端执行器坐标系为{T},相机坐标系为{C},机器人坐标系为{R},设在用NURBS曲线描述该空间曲线时,其空间控制顶点为di(i=0,1,…,n),di在相机成像平面上的投影控制顶点记为Cdi(i=0,1,…,n);根据相机的透视投影模型,任意时刻t中,空间曲线的控制顶点di在相机图像平面上的投影控制点Cdi表示为:
其中,M是相机的内参矩阵,相机的内参矩阵由相机标定获得;H(q(t))是机器人基坐标系到机器人末端坐标系的齐次变换矩阵,q(t)是t时刻机器人的关节变量;H(q(t))由机器人的D-H参数以及机器人在t时刻的关节角度算出;
由NURBS曲线定义及式(4)知,
式(5)为t时刻下,空间NURBS曲线在相机成像平面上的二维投影曲线。
5.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S3中,设安装于机械臂末端的相机在空间中的刚体移动速度为V=(vc,ωc),P(Xd,Yd,Zd)是空间控制顶点P相对于相机的坐标,则曲线控制顶点P在相机坐标系下运动速度为:
式(6)的标量形式为:
其中,vc=[vcx,vcy,vcz]T是相机的线速度,ωc=[ωcx,ωcy,ωcz]T是相机的角速度;
根据相机的投影透视关系,图像归一化平面上的曲线控制点坐标表示为:
xdc=Xd/Zd,ydc=Yd/Zd (8)
将式(8)两边分别对时间求导得:
将式(8)、式(9)代入式(7)并进行整理得:
式(10)是在相机归一化成像平面上控制点特征的变化与机械臂末端相机移动的关系式,由式(10)知,一个点图像特征对应两个分量。
6.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S4中,设点A、B是对目标物体轮廓进行NURBS曲线拟合后得到的两个相邻的曲线控制点,O是相机光轴与图像归一化平面的交点;利用A、B两个控制点的图像坐标求得lAB的直线方程,设直线lAB的斜率为k1,则与其垂直的直线p1o的斜率为k2,k2=-1/k1;根据原点O的坐标以及斜率k2,求得点p1在焦距归一化成像平面上的坐标;
设p1坐标为p1(xp1,yp1,1),则p1点的极坐标参数表示为:
沿直线lAB设置两个关于点p1对称的点p2和p3,其极坐标参数分别为ρ2,α2和ρ3,α3,将p2,p3的参数代入直线的极坐标参数方程,得到:
其中,α2=α+Δα,α3=α-Δα,ρ2=ρ3,Δα是一个近似为0的正数,则利用p2,p3的极坐标表示直线lAB的参数α为:
将式(13)对时间求导并进行整理得:
将点的极坐标参数变化率带入式(14),得到基于直线极坐标参数α的交互矩阵:
其中,v=[vx,vy,vz]T为相机在x,y,z轴的平移运动速率,ω=[ωx,ωy,ωz]T为相机在x,y,z轴的旋转运动速率,
且z2,z3是点p2和p3的深度信息,其值在相机运动过程中通过在线估计来获得;当线特征与相机光轴垂直时,z2=z3,直线特征参数α的变化近似看作只由相机的旋转姿态变化产生;将式(15)改写为:
在利用两个控制点连线计算出相关直线特征参数后,用式(17)所示的交互矩阵对相机姿态进行控制。
8.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S6中,利用直线特征交互矩阵求得相机的旋转运动速率为:
其中,Llω是两个控制点连线的线特征交互矩阵,ρ、α是控制点连线的直线特征参数;
相机的旋转运动速率与控制点特征在图像平面上的投影位置变化率之间的关系为:
其中,Lpω是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpω为:
其中,xcn、ycn是第n个曲线控制点在相机成像平面上的像素坐标;
利用像平面上特征的变化量及交互矩阵设计曲线控制点的旋转补偿量为:
其中,Lpv是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpv为:
其中,zcn是第n个曲线控制点的深度值。
10.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S8中,在图像特征空间中分别定义曲线控制点误差为ep(t),相邻曲线控制点连线的角度误差为eα(t),两个控制点间的距离误差为ed(t);
式(29)中,fph是期望的曲线控制点特征,fpc(t)是相机当前位姿下的控制点特征;式(30)中,fαh是期望的相邻曲线控制点连线的角度特征,fαc(t)是相机当前位姿下相邻曲线控制点连线的角度特征;式(31)中,fdh是期望的两个控制点间的距离特征,fdc是相机当前位姿下两个控制点间的距离特征,分别是完成伺服任务所需要的点特征、控制点连线的线特征、两点间距离特征的图像特征变化量;
定义式(32)、式(33)、式(34)如下:
其中,kp,kα,kd是***控制器增益系数;
分别将式(32)、式(33)、式(34)与图像雅可比的定义式联立并分别带入式(29)、式(30)与式(31)中得:
取式(35)中矩阵Jp的前3列构成矩阵Jpv,取矩阵Jp的后3列构成矩阵Jpω,则曲线旋转补偿模块对位置控制的补偿量为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110427272.XA CN113211433B (zh) | 2021-04-21 | 2021-04-21 | 一种基于复合特征的分离式视觉伺服控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110427272.XA CN113211433B (zh) | 2021-04-21 | 2021-04-21 | 一种基于复合特征的分离式视觉伺服控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113211433A true CN113211433A (zh) | 2021-08-06 |
CN113211433B CN113211433B (zh) | 2022-09-20 |
Family
ID=77088106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110427272.XA Active CN113211433B (zh) | 2021-04-21 | 2021-04-21 | 一种基于复合特征的分离式视觉伺服控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113211433B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113985255A (zh) * | 2021-10-29 | 2022-01-28 | 北京航星科技有限公司 | 一种电路板静态测试***及测试方法 |
CN116339141A (zh) * | 2023-03-10 | 2023-06-27 | 山东科技大学 | 一种机械臂全局固定时间轨迹跟踪滑模控制方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5317682A (en) * | 1989-10-24 | 1994-05-31 | International Business Machines Corporation | Parametric curve evaluation method and apparatus for a computer graphics display system |
JP2001154719A (ja) * | 1999-11-30 | 2001-06-08 | Yaskawa Electric Corp | 自由曲線補間方法 |
CN101926678A (zh) * | 2005-09-30 | 2010-12-29 | 修复型机器人公司 | 用于采集和植入毛囊单位的自动化***和方法 |
CN102794767A (zh) * | 2012-08-31 | 2012-11-28 | 江南大学 | 视觉引导的机器人关节空间b样条轨迹规划方法 |
CN105773620A (zh) * | 2016-04-26 | 2016-07-20 | 南京工程学院 | 基于倍四元数的工业机器人自由曲线的轨迹规划控制方法 |
CN106271281A (zh) * | 2016-09-27 | 2017-01-04 | 华南理工大学 | 一种复杂异型工件自动焊接轨迹生成***及方法 |
CN106424877A (zh) * | 2016-10-15 | 2017-02-22 | 中国计量大学 | 一种新型机器人铣削加工刀具轨迹生成方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
CN108621167A (zh) * | 2018-07-23 | 2018-10-09 | 中南大学 | 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法 |
CN108927807A (zh) * | 2018-08-14 | 2018-12-04 | 河南工程学院 | 一种基于点特征的机器人视觉控制方法 |
CN109048911A (zh) * | 2018-08-31 | 2018-12-21 | 河南工程学院 | 一种基于矩形特征的机器人视觉控制方法 |
CN109551307A (zh) * | 2018-11-22 | 2019-04-02 | 太原理工大学 | 一种在线更换抛磨头实现机器人分区域抛磨叶片的方法 |
CN110136169A (zh) * | 2019-04-26 | 2019-08-16 | 哈尔滨工业大学(深圳) | 一种基于nurbs的无标记面状柔性体变形跟踪方法 |
CN111366070A (zh) * | 2018-12-25 | 2020-07-03 | 苏州笛卡测试技术有限公司 | 一种复合式线激光测量***多轴空间坐标系标定方法 |
-
2021
- 2021-04-21 CN CN202110427272.XA patent/CN113211433B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5317682A (en) * | 1989-10-24 | 1994-05-31 | International Business Machines Corporation | Parametric curve evaluation method and apparatus for a computer graphics display system |
JP2001154719A (ja) * | 1999-11-30 | 2001-06-08 | Yaskawa Electric Corp | 自由曲線補間方法 |
CN101926678A (zh) * | 2005-09-30 | 2010-12-29 | 修复型机器人公司 | 用于采集和植入毛囊单位的自动化***和方法 |
CN102794767A (zh) * | 2012-08-31 | 2012-11-28 | 江南大学 | 视觉引导的机器人关节空间b样条轨迹规划方法 |
CN105773620A (zh) * | 2016-04-26 | 2016-07-20 | 南京工程学院 | 基于倍四元数的工业机器人自由曲线的轨迹规划控制方法 |
CN106271281A (zh) * | 2016-09-27 | 2017-01-04 | 华南理工大学 | 一种复杂异型工件自动焊接轨迹生成***及方法 |
CN106424877A (zh) * | 2016-10-15 | 2017-02-22 | 中国计量大学 | 一种新型机器人铣削加工刀具轨迹生成方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
CN108621167A (zh) * | 2018-07-23 | 2018-10-09 | 中南大学 | 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法 |
CN108927807A (zh) * | 2018-08-14 | 2018-12-04 | 河南工程学院 | 一种基于点特征的机器人视觉控制方法 |
CN109048911A (zh) * | 2018-08-31 | 2018-12-21 | 河南工程学院 | 一种基于矩形特征的机器人视觉控制方法 |
CN109551307A (zh) * | 2018-11-22 | 2019-04-02 | 太原理工大学 | 一种在线更换抛磨头实现机器人分区域抛磨叶片的方法 |
CN111366070A (zh) * | 2018-12-25 | 2020-07-03 | 苏州笛卡测试技术有限公司 | 一种复合式线激光测量***多轴空间坐标系标定方法 |
CN110136169A (zh) * | 2019-04-26 | 2019-08-16 | 哈尔滨工业大学(深圳) | 一种基于nurbs的无标记面状柔性体变形跟踪方法 |
Non-Patent Citations (2)
Title |
---|
YAO ZHANG, NA WANG, HAIXIA WANG,ET.AL: "Curve Control Points-based Feature Extraction for Visual Servo with rotational pose compensation", 《IEEE XPLORE》 * |
简杰: "工业机器人伺服电机控制及运动控制***研究", 《中国优秀硕士论文全文数据库》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113985255A (zh) * | 2021-10-29 | 2022-01-28 | 北京航星科技有限公司 | 一种电路板静态测试***及测试方法 |
CN116339141A (zh) * | 2023-03-10 | 2023-06-27 | 山东科技大学 | 一种机械臂全局固定时间轨迹跟踪滑模控制方法 |
CN116339141B (zh) * | 2023-03-10 | 2023-10-03 | 山东科技大学 | 一种机械臂全局固定时间轨迹跟踪滑模控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113211433B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110116407B (zh) | 柔性机器人位姿测量方法及装置 | |
Chen et al. | Adaptive homography-based visual servo tracking for a fixed camera configuration with a camera-in-hand extension | |
US20180066934A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
CN113211433B (zh) | 一种基于复合特征的分离式视觉伺服控制方法 | |
CN108408080A (zh) | 一种飞机翼身对接装配装置、方法及*** | |
CN108621167B (zh) | 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法 | |
CN110775288B (zh) | 一种基于仿生的飞行机械颈眼***及控制方法 | |
CN113744340A (zh) | 用轴向视点偏移的非中心相机模型校准相机并计算点投影 | |
CN112184812A (zh) | 提升无人机相机对AprilTag识别定位精度方法及定位方法和*** | |
Fang et al. | Self-supervised camera self-calibration from video | |
KR20210118414A (ko) | 로봇 디바이스의 상태를 사용한 환경 맵핑 | |
CN110928311B (zh) | 一种基于全景相机下直线特征的室内移动机器人导航方法 | |
CN117218210A (zh) | 一种基于仿生眼的双目主动视觉半稠密深度估计方法 | |
CN113240597B (zh) | 基于视觉惯性信息融合的三维软件稳像方法 | |
Kim et al. | Robust extrinsic calibration for arbitrarily configured dual 3D LiDARs using a single planar board | |
Caron et al. | Tracking planes in omnidirectional stereovision | |
Allotta et al. | On the use of linear camera-object interaction models in visual servoing | |
CN115446836A (zh) | 一种基于多种图像特征信息混合的视觉伺服方法 | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
CN113379840B (zh) | 一种基于共面目标的单目视觉位姿估计方法 | |
Chen et al. | Vision-based Pythagorean hodograph spline command generation and adaptive disturbance compensation for planar contour tracking | |
CN114820984A (zh) | 一种基于激光雷达的三维重建方法及*** | |
Alkhalil et al. | Stereo visual servoing with decoupling control | |
Barajas et al. | Visual servoing of uav using cuboid model with simultaneous tracking of multiple planar faces | |
Conticelli et al. | Two-level visual control of dynamic look-and-move systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |