CN113211433A - 一种基于复合特征的分离式视觉伺服控制方法 - Google Patents

一种基于复合特征的分离式视觉伺服控制方法 Download PDF

Info

Publication number
CN113211433A
CN113211433A CN202110427272.XA CN202110427272A CN113211433A CN 113211433 A CN113211433 A CN 113211433A CN 202110427272 A CN202110427272 A CN 202110427272A CN 113211433 A CN113211433 A CN 113211433A
Authority
CN
China
Prior art keywords
camera
curve
control
point
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110427272.XA
Other languages
English (en)
Other versions
CN113211433B (zh
Inventor
盛春阳
张垚
卢晓
王海霞
张治国
聂君
宋诗斌
李玉霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202110427272.XA priority Critical patent/CN113211433B/zh
Publication of CN113211433A publication Critical patent/CN113211433A/zh
Application granted granted Critical
Publication of CN113211433B publication Critical patent/CN113211433B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于复合特征的分离式视觉伺服控制方法。首先为了能够准确地表述物体的全局几何信息,减小环境噪声对图像特征提取的干扰,本发明采用非均匀有理B样条曲线拟合技术提取物体的轮廓特征;然后提出利用复合特征来对机器人进行平移和旋转分离式控制,即利用曲线拟合控制点特征、相邻点连线的线特征以及两点间的距离特征实现对机器人的平移和旋转姿态控制;最后,针对机器人姿态控制与位置控制间的强耦合问题,发明了一种旋转补偿模块对机器人因相机旋转运动而造成的图像特征位置偏差进行补偿,提高了伺服***的性能。本发明方法不依赖于全局特征,实时性好,带有旋转补偿,可靠性高,是一种高精度的机器人视觉伺服控制方法。

Description

一种基于复合特征的分离式视觉伺服控制方法
技术领域
本发明属于机器人视觉伺服控制领域,具体涉及一种基于复合特征的分离式视觉伺服控制方法。
背景技术
视觉伺服是利用视觉信息对机器人或者相机位姿进行的伺服控制,其目标是控制机器人或者相机快速到达期望的位姿。对视觉伺服***的设计涉及两个关键问题,其一是图像特征的提取,其二是视觉伺服控制律的设计。图像特征的选取一般分为三类,即点特征、线特征和全局特征。点特征包括角点、拐点、质点等,采用点特征的优势是模型简单,计算速度快,但应对干扰能力差。线特征包括直线特征和曲线特征,直线特征要求对象是规范形体,应用场景有限;曲线特征灵活性强,但需要提取物体的轮廓信息。全局特征包括图像矩、图像熵、光度矩等,其优势是对环境变化的鲁棒性高,但计算复杂,***收敛时间较长。
综合比较上述特征提取方法,以物体轮廓曲线作为图像特征,既可以较好地描述物体的全局特征信息又能满足实时性的要求。但由于机器人或相机的旋转控制对位置控制有较大影响,特别是采用曲线拟合技术提取目标物体的轮廓特征时,旋转运动会使曲线控制点特征的位置改变较大,容易造成目标丢失的情况。因此,考虑利用复合性的图像特征对机器人实现姿态和位置的分离式控制,并对姿态控制造成的图像特征位置偏差进行补偿是非常可行的,对提高机器人伺服***的性能具有重要意义。
发明内容
针对现有的基于曲线特征的机器人视觉伺服方法存在的问题,本发明提出了一种基于复合特征的分离式视觉伺服控制方法,利用曲线拟合特征点的点特征、相邻点的连线特征、两点间的距离特征实现对机器人的平移和旋转姿态的分离式控制,并设计旋转补偿模块对因相机旋转运动而造成的图像特征位置偏差进行补偿,克服了现有技术的不足,具有良好的效果。
本发明采用如下技术方案:
一种基于复合特征的分离式视觉伺服控制方法,包括图像特征提取、旋转补偿模块的设计、分离式视觉伺服控制律的设计,包括如下步骤:
S1、基于NURBS曲线拟合技术反算出曲线控制顶点,获取曲线控制点特征;
S2、计算空间NURBS曲线在相机成像平面上的二维投影曲线;
S3、在通过曲线拟合方法对物体的轮廓投影曲线进行实时拟合运算后,利用得到的曲线控制点计算基于曲线控制点特征的交互矩阵;
S4、选择曲线控制点连线特征,并计算基于曲线控制点连线特征的交互矩阵;
S5、计算曲线控制点间的距离作为距离特征,并计算基于两点间距离特征的交互矩阵;
S6、针对相机旋转姿态的变化而导致的图像特征位置的改变进行补偿,使***获得较好的解耦特性,提高伺服***的性能;
S7、由于视觉伺服***采用的是单目摄像机,无法直接获取空间控制顶点的深度信息,为了获取曲线控制顶点的深度信息,利用曲线控制点特征的图像平面上的投影变化量与相机的运动速度对交互矩阵中的深度信息进行在线深度估计;
S8、利用相邻曲线控制点连线的直线特征对相机的旋转姿态进行控制,利用两个曲线控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用曲线控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量,最终完成机器人伺服任务。
优选地,步骤S1包括下列子步骤:
S11、对相机成像平面上的投影轮廓曲线进行图像处理,提取出投影曲线的数据点云坐标;
S12、按照相同间隔将曲线点云数据坐标等分成r个区间;
S13、在每个区间内选取每个数据点的n领域进行多项式运算求得分段多项式,再分别计算每段多项式中数据点处的曲率;
S14、选取曲率绝对值最大处的数据点以及曲线的首末数据端点作为曲线型值点;
S15、根据De Boor-Cox算法反算出曲线控制点。
优选地,在S15中,记一条k次NURBS曲线型值点为qi(i=0,1,…,n),其节点矢量U=[u0,u1,…,un+6]的计算为:
Figure BDA0003030030870000021
其中,
Figure BDA0003030030870000022
在求得曲线型值点以及节点矢量后,根据De Boor-Cox算法反算出曲线控制点,节点插值的NURBS方程组如下:
Figure BDA0003030030870000031
其中,dj是曲线控制点,ωj是曲线控制点的权因子,令ωj=1,Bj,k(uj)是由节点矢量按De Boor-Cox递推公式推导出的B样条基函数。
在求得全部的曲线控制顶点后,若发现拟合曲线精度达不到要求,则通过增加节点数量来提高拟合精度,直到拟合精度满足要求为止。
优选地,在S2中,已知在空间中存在一套机器人视觉伺服***,摄像机安装在机械臂末端,即眼在手构型;定义机器人的末端执行器坐标系为{T},相机坐标系为{C},机器人坐标系为{R};设在用NURBS曲线描述该空间曲线时,其空间控制顶点为di(i=0,1,…,n),di在相机成像平面上的投影控制顶点记为Cdi(i=0,1,…,n);根据相机的透视投影模型,任意时刻t中,空间曲线的控制顶点di在相机图像平面上的投影控制点Cdi表示为:
Figure BDA0003030030870000032
其中,M是相机的内参矩阵,相机的内参矩阵由相机标定获得;H(q(t))是机器人基坐标系到机器人末端坐标系的齐次变换矩阵,q(t)是t时刻机器人的关节变量;H(q(t))由机器人的D-H参数以及机器人在t时刻的关节角度算出;
由NURBS曲线定义及式(4)知,
Figure BDA0003030030870000033
式(5)为t时刻下,空间NURBS曲线在相机成像平面上的二维投影曲线。
优选地,在S3中,设安装于机械臂末端的相机在空间中的刚体移动速度为V=(vcc),P(Xd,Yd,Zd)是空间控制顶点P相对于相机的坐标,则曲线控制顶点P在相机坐标系下运动速度为:
Figure BDA0003030030870000034
式(6)的标量形式为:
Figure BDA0003030030870000041
其中,vc=[vcx,vcy,vcz]T是相机的线速度,ωc=[ωcxcycz]T是相机的角速度。
根据相机的投影透视关系,图像归一化平面上的曲线控制点坐标表示为:
xdc=Xd/Zd,ydc=Yd/Zd (8)
将式(8)两边分别对时间求导得:
Figure BDA0003030030870000042
将式(8)、式(9)代入式(7)并进行整理得:
Figure BDA0003030030870000043
式(10)是在相机归一化成像平面上控制点特征的变化与机械臂末端相机移动的关系式,由式(10)可知,一个点图像特征对应两个分量,在控制一台6自由度机械臂时,为了避免出现欠驱动情况,应至少选择3个曲线控制顶点作为图像特征。当所选择的特征点的数目大于3个时,可以更好地唯一确定一台6自由度机器人的位姿。故本发明在兼顾视觉伺服***实时性的同时,选择4个NURBS曲线控制点作为图像特征进行伺服任务。
优选地,在S4中,设点A、B是对目标物体轮廓进行NURBS曲线拟合后得到的两个相邻的曲线控制点,O是相机光轴与图像归一化平面的交点;利用A、B两个控制点的图像坐标求得lAB的直线方程,设直线lAB的斜率为k1,则与其垂直的直线p1o的斜率为k2,k2=-1/k1;根据原点O的坐标以及斜率k2,求得点p1在焦距归一化成像平面上的坐标;
设p1坐标为p1(xp1,yp1,1),则p1点的极坐标参数表示为:
Figure BDA0003030030870000044
沿直线lAB设置两个关于点p1对称的点p2和p3,其极坐标参数分别为ρ22和ρ33。将p2,p3的参数代入直线的极坐标参数方程,得到:
Figure BDA0003030030870000051
其中,α2=α+Δα,α3=α-Δα,ρ2=ρ3,Δα是一个近似为0的正数,则利用p2,p3的极坐标表示直线lAB的参数α为:
Figure BDA0003030030870000052
将式(13)对时间求导并进行整理得:
Figure BDA0003030030870000053
将点的极坐标参数变化率带入式(14),进行整理得到基于直线极坐标参数α的交互矩阵:
Figure BDA0003030030870000054
其中,v=[vx,vy,vz]T为相机在x,y,z轴的平移运动速率,ω=[ωxyz]T为相机在x,y,z轴的旋转运动速率,
Figure BDA0003030030870000055
且z2,z3是点p2和p3的深度信息,其值在相机运动过程中通过在线估计来获得;当线特征与相机光轴垂直时,z2=z3,直线特征参数α的变化近似看作只由相机的旋转姿态变化产生;将式(15)改写为:
Figure BDA0003030030870000056
在利用两个控制点连线计算出相关直线特征参数后,用式(17)所示的交互矩阵对相机姿态进行控制。
优选地,在S5中,设A、B为焦距归一化成像平面上的两个NURBS曲线控制顶点且A、B两个控制顶点的像素坐标为A(xA,yA),B(xB,yB);根据几何知识知,A、B两个点间的距离表示为:
Figure BDA0003030030870000057
将上式两边同时对时间求导,求得两控制点间的距离变化率为:
Figure BDA0003030030870000061
将点特征交互矩阵式(10)带入式(18)中,得到两点间距离特征的交互矩阵:
Figure BDA0003030030870000062
其中,
Figure BDA0003030030870000063
且zA,zB是曲线控制顶点A、B的深度值,在相机的运动过程中通过在线估计获得。
优选地,在S6中,利用直线特征交互矩阵求得相机的旋转运动速率为:
Figure BDA0003030030870000064
其中,L是两个控制点连线的线特征交互矩阵,ρ、α是控制点连线的直线特征参数。
Figure BDA0003030030870000065
相机的旋转运动速率与控制点特征在图像平面上的投影位置变化率之间的关系为:
Figure BDA0003030030870000066
其中,L是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,L为:
Figure BDA0003030030870000071
其中,xcn、ycn是第n个曲线控制点在相机成像平面上的像素坐标;
利用像平面上特征的变化量及交互矩阵设计曲线控制点的旋转补偿量为:
Figure BDA0003030030870000072
其中,Lpv是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpv为:
Figure BDA0003030030870000073
其中,zcn是第n个曲线控制点的深度值。
优选地,在S7中,设zci是第i个曲线控制顶点的深度值,其像素坐标为Pci(xci,yci,1),则zi的估算如下:
Figure BDA0003030030870000074
在相机焦距归一化成像平面上两个相邻控制点连线的线特征上的点Plj(xlj,ylj,1)的深度信息zlj通过直线特征参数的变化率与相机的运动速度来进行在线估计;zlj的估计方法如下:
Figure BDA0003030030870000075
优选地,在S8中,采用相邻控制点连线的直线特征对相机的旋转姿态进行控制,利用两个控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量。
在图像特征空间中分别定义曲线控制点误差为ep(t),相邻曲线控制点连线的角度误差为eα(t),两个控制点间的距离误差为ed(t);
Figure BDA0003030030870000081
Figure BDA0003030030870000082
Figure BDA0003030030870000083
式(29)中,fph是期望的曲线控制点特征,fpc(t)是相机当前位姿下的控制点特征;式(30)中,fαh是期望的相邻曲线控制点连线的角度特征,fαc(t)是相机当前位姿下相邻曲线控制点连线的角度特征;式(31)中,fdh是期望的两个控制点间的距离特征,fdc是相机当前位姿下两个控制点间的距离特征,
Figure BDA0003030030870000084
分别是完成伺服任务所需要的点特征、控制点连线的线特征、两点间距离特征的图像特征变化量;
无标定视觉伺服***的目标是使在图像平面上定义的各图像特征误差的差值收敛到0,因此,定义式(32)、式(33)、式(34)如下:
Figure BDA0003030030870000085
Figure BDA0003030030870000086
Figure BDA0003030030870000087
其中,kp,kα,kd是***控制器增益系数;
分别将式(32)、式(33)、式(34)与图像雅可比的定义式联立并分别带入式(29)、式(30)与式(31)中得:
Figure BDA0003030030870000088
Figure BDA0003030030870000089
Figure BDA00030300308700000810
其中,
Figure BDA00030300308700000811
是控制点特征交互矩阵Jp的伪逆矩阵,
Figure BDA00030300308700000812
Figure BDA00030300308700000813
分别是线特征交互矩阵的伪逆矩阵和两控制点间距离特征交互矩阵的伪逆矩阵;
取式(35)中矩阵Jp的前3列构成矩阵Jpv,取矩阵Jp的后3列构成矩阵J,则曲线旋转补偿模块对位置控制的补偿量为:
Figure BDA00030300308700000814
其中,
Figure BDA00030300308700000815
为矩阵Jpv的伪逆矩阵;
Figure BDA0003030030870000091
的前2行为
Figure BDA0003030030870000092
则机器人末端移动的位置控制量为:
Figure BDA0003030030870000093
进行伺服任务所需要的总关节控制量
Figure BDA0003030030870000094
为:
Figure BDA0003030030870000095
本发明具有如下有益效果:
本发明提供的一种基于复合特征的分离式视觉伺服控制方法,在通过曲线拟合技术得到的图像特征基础上,分别构造了点特征、两点间的距离特征以及相邻点连线的线特征,实现了对机器人的平移与旋转姿态进行控制,其有益效果包括1)设计了一种复合特征,包含了更多的图像信息;2)实现了机器人平移与旋转控制的部分分离式控制,使机器人能够快速且平滑地收敛到期望位置;3)在位置控制律中设计旋转补偿模块补偿因机器人旋转而造成的特征平移方向的移动,使机器人获得良好的解耦特性,能够在一定程度上防止目标物体在相机视野范围内的丢失。
附图说明
图1是本发明的伺服***结构框图;
图2是本发明的NURBS曲线拟合流程图;
图3是本发明的视觉伺服***示意图;
图4是本发明的相邻控制点连线构成的线特征图;
具体实施方式
下面结合附图和具体实施例对本发明的具体实施方式做进一步说明:
如图1所示,一种基于复合特征的分离式视觉伺服控制方法,以六自由度工业机器人伺服任务为例,相机安装在机械臂末端,即眼在手构型,包括下列步骤:
S1、基于NURBS曲线拟合技术反算出曲线控制顶点,获取曲线控制点特征;
具体地,步骤S1包括下列子步骤:
S11、对相机成像平面上的投影轮廓曲线进行图像处理,提取出投影曲线的数据点云坐标;
S12、按照相同间隔将曲线点云数据坐标等分成r个区间;
S13、在每个区间内选取每个数据点的n领域进行多项式运算求得分段多项式,再分别计算每段多项式中数据点处的曲率;
S14、选取曲率绝对值最大处的数据点以及曲线的首末数据端点作为曲线型值点;
S15、根据De Boor-Cox算法反算出曲线控制点。
具体地,在S15中,记一条k次NURBS曲线型值点为qi(i=0,1,…,n),其节点矢量U=[u0,u1,…,un+6]的计算为:
Figure BDA0003030030870000101
其中,
Figure BDA0003030030870000102
在求得曲线型值点以及节点矢量后,根据De Boor-Cox算法反算出曲线控制点,节点插值的NURBS方程组如下:
Figure BDA0003030030870000103
其中,dj是曲线控制点,ωj是曲线控制点的权因子,令ωj=1,Bj,k(uj)是由节点矢量按De Boor-Cox递推公式推导出的B样条基函数。
如图2所示,在求得全部的曲线控制顶点后,若发现拟合曲线精度达不到要求,则通过增加节点数量来提高拟合精度,直到拟合精度满足要求为止。
S2、计算空间NURBS曲线在相机成像平面上的二维投影曲线;
具体地,如图3所示,已知在空间中存在一套机器人视觉伺服***,摄像机安装在机械臂末端,即眼在手构型;定义机器人的末端执行器坐标系为{T},相机坐标系为{C},机器人坐标系为{R};设在用NURBS曲线描述该空间曲线时,其空间控制顶点为di(i=0,1,…,n),di在相机成像平面上的投影控制顶点记为Cdi(i=0,1,…,n);根据相机的透视投影模型,任意时刻t中,空间曲线的控制顶点di在相机图像平面上的投影控制点Cdi表示为:
Figure BDA0003030030870000104
其中,M是相机的内参矩阵,相机的内参矩阵由相机标定获得;H(q(t))是机器人基坐标系到机器人末端坐标系的齐次变换矩阵,q(t)是t时刻机器人的关节变量;H(q(t))由机器人的D-H参数以及机器人在t时刻的关节角度算出;
由NURBS曲线定义及式(4)知,t时刻下,空间NURBS曲线在相机成像平面上的二维投影曲线可以表示为:
Figure BDA0003030030870000111
S3、在通过曲线拟合方法对物体的轮廓投影曲线进行实时拟合运算后,利用得到的曲线控制点计算基于曲线控制点特征的交互矩阵;
具体地,设安装于机械臂末端的相机在空间中的刚体移动速度为V=(vcc),P(Xd,Yd,Zd)是空间控制顶点P相对于相机的坐标,则曲线控制顶点P在相机坐标系下运动速度为:
Figure BDA0003030030870000112
式(6)的标量形式为:
Figure BDA0003030030870000113
其中,vc=[vcx,vcy,vcz]T是相机的线速度,ωc=[ωcxcycz]T是相机的角速度。
根据相机的投影透视关系,图像归一化平面上的曲线控制点坐标表示为:
xdc=Xd/Zd,ydc=Yd/Zd (8)
将式(8)两边分别对时间求导得:
Figure BDA0003030030870000114
将式(8)、式(9)代入式(7)并进行整理得:
Figure BDA0003030030870000115
式(10)是在相机归一化成像平面上控制点特征的变化与机械臂末端相机移动的关系式,由式(10)可知,一个点图像特征对应两个分量,在控制一台6自由度机械臂时,为了避免出现欠驱动情况,应至少选择3个曲线控制顶点作为图像特征。当所选择的特征点的数目大于3个时,可以更好地唯一确定一台6自由度机器人的位姿。故本发明在兼顾视觉伺服***实时性的同时,选择4个NURBS曲线控制点作为图像特征进行伺服任务。
S4、选择曲线控制点连线特征,并计算基于曲线控制点连线特征的交互矩阵;
具体地,如图4所示,设点A、B是对目标物体轮廓进行NURBS曲线拟合后得到的两个相邻的曲线控制点,O是相机光轴与图像归一化平面的交点,设置其坐标为O[500,500];利用A、B两个控制点的图像坐标求得lAB的直线方程,设直线lAB的斜率为k1,则与其垂直的直线p1o的斜率为k2,k2=-1/k1;根据原点O的坐标以及斜率k2,求得点p1在焦距归一化成像平面上的坐标;
设p1坐标为p1(xp1,yp1,1),则p1点的极坐标参数表示为:
Figure BDA0003030030870000121
沿直线lAB设置两个关于点p1对称的点p2和p3,其极坐标参数分别为ρ22和ρ33。将p2,p3的参数代入直线的极坐标参数方程,得到:
Figure BDA0003030030870000122
其中,α2=α+Δα,α3=α-Δα,ρ2=ρ3,Δα是一个近似为0的正数,则利用p2,p3的极坐标表示直线lAB的参数α为:
Figure BDA0003030030870000123
将式(13)对时间求导并进行整理得:
Figure BDA0003030030870000124
将点的极坐标参数变化率带入式(14),进行整理得到基于直线极坐标参数α的交互矩阵:
Figure BDA0003030030870000125
其中,
Figure BDA0003030030870000131
且z2,z3是点p2和p3的深度信息,其值在相机运动过程中通过在线估计来获得;当线特征与相机光轴垂直时,z2=z3,直线特征参数α的变化近似看作只由相机的旋转姿态变化产生;将式(15)改写为:
Figure BDA0003030030870000132
在利用两个控制点连线计算出相关直线特征参数后,用式(17)所示的交互矩阵对相机姿态进行控制。
S5、计算曲线控制点间的距离作为距离特征,并计算基于两点间距离特征的交互矩阵;
具体地,设A、B为焦距归一化成像平面上的两个NURBS曲线控制顶点且A、B两个控制顶点的像素坐标为A(xA,yA),B(xB,yB);根据几何知识知,A、B两个点间的距离表示为:
Figure BDA0003030030870000133
将上式两边同时对时间求导,求得两控制点间的距离变化率为:
Figure BDA0003030030870000134
将点特征交互矩阵式(10)带入式(18)中,得到两点间距离特征的交互矩阵:
Figure BDA0003030030870000135
其中,
Figure BDA0003030030870000136
且zA,zB是曲线控制顶点A、B的深度值,在相机的运动过程中通过在线估计获得。
S6、针对相机旋转姿态的变化而导致的图像特征位置的改变进行补偿,使***获得较好的解耦特性,提高伺服***的性能;
具体地,利用直线特征交互矩阵求得相机的旋转运动速率为:
Figure BDA0003030030870000141
其中,L是两个控制点连线的线特征交互矩阵,ρ、α是控制点连线的直线特征参数。
Figure BDA0003030030870000142
相机的旋转运动速率与控制点特征在图像平面上的投影位置变化率之间的关系为:
Figure BDA0003030030870000143
其中,L是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,L为:
Figure BDA0003030030870000144
其中,xcn、ycn是第n个曲线控制点在相机成像平面上的像素坐标;
利用像平面上特征的变化量及交互矩阵设计曲线控制点的旋转补偿量为:
Figure BDA0003030030870000145
其中,Lpv是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpv为:
Figure BDA0003030030870000146
其中,zcn是第n个曲线控制点的深度值。
S7、由于视觉伺服***采用的是单目摄像机,无法直接获取空间控制顶点的深度信息,为了获取曲线控制顶点的深度信息,利用曲线控制点特征的图像平面上的投影变化量与相机的运动速度对交互矩阵中的深度信息进行在线深度估计;
具体地,在S7中,设zci是第i个曲线控制顶点的深度值,其像素坐标为Pci(xci,yci,1),则zi的估算如下:
Figure BDA0003030030870000151
在相机焦距归一化成像平面上两个相邻控制点连线的线特征上的点Plj(xlj,ylj,1)的深度信息zlj通过直线特征参数的变化率与相机的运动速度来进行在线估计;zlj的估计方法如下:
Figure BDA0003030030870000152
S8、在机器人姿态控制器中,利用相邻曲线控制点连线的直线特征对相机的旋转姿态进行控制;在机器人Z轴平移控制器中,利用两个曲线控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制;在机器人X、Y轴平移控制器中,利用曲线控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量,最终完成机器人伺服任务。
具体地,采用相邻控制点连线的直线特征对相机的旋转姿态进行控制,利用两个控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量。
在图像特征空间中分别定义曲线控制点误差为ep(t),相邻曲线控制点连线的角度误差为eα(t),两个控制点间的距离误差为ed(t);
Figure BDA0003030030870000153
Figure BDA0003030030870000154
Figure BDA0003030030870000155
式(29)中,fph是期望的曲线控制点特征,fpc(t)是相机当前位姿下的控制点特征;式(30)中,fαh是期望的相邻曲线控制点连线的角度特征,fαc(t)是相机当前位姿下相邻曲线控制点连线的角度特征;式(31)中,fdh是期望的两个控制点间的距离特征,fdc是相机当前位姿下两个控制点间的距离特征,
Figure BDA0003030030870000156
分别是完成伺服任务所需要的点特征、控制点连线的线特征、两点间距离特征的图像特征变化量;
无标定视觉伺服***的目标是使在图像平面上定义的各图像特征误差的差值收敛到0,因此,定义式(32)、式(33)、式(34)如下:
Figure BDA0003030030870000161
Figure BDA0003030030870000162
Figure BDA0003030030870000163
其中,kp,kα,kd是***控制器增益系数;
分别将式(32)、式(33)、式(34)与图像雅可比的定义式联立并分别带入式(29)、式(30)与式(31)中得:
Figure BDA0003030030870000164
Figure BDA0003030030870000165
Figure BDA0003030030870000166
其中,Jp(t)是基于点特征的图像雅克比矩阵,
Figure BDA0003030030870000167
是控制点特征交互矩阵Jp的伪逆矩阵;Jα(t)是基于点距离特征的图像雅克比矩阵,
Figure BDA0003030030870000168
是线特征交互矩阵的伪逆矩阵;Jd(t)是基于点连线特征的图像雅克比矩阵,
Figure BDA0003030030870000169
是两控制点间距离特征交互矩阵的伪逆矩阵;
Figure BDA00030300308700001610
Figure BDA00030300308700001611
共同构成关节控制所需要的6个关节值,即x,y,z三个方向的平移姿态和旋转姿态;
Figure BDA00030300308700001612
对应x,y轴方向的平移姿态,
Figure BDA00030300308700001613
对应z轴方向的平移姿态,
Figure BDA00030300308700001614
对应x,y,z轴方向的旋转姿态。
取式(35)中矩阵Jp的前3列构成矩阵Jpv,取矩阵Jp的后3列构成矩阵J,则曲线旋转补偿模块对位置控制的补偿量为:
Figure BDA00030300308700001615
其中,
Figure BDA00030300308700001616
为矩阵Jpv的伪逆矩阵;
Figure BDA00030300308700001617
的前2行为
Figure BDA00030300308700001618
则机器人末端移动的位置控制量为:
Figure BDA00030300308700001619
进行伺服任务所需要的总关节控制量
Figure BDA00030300308700001620
为:
Figure BDA0003030030870000171
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (10)

1.一种基于复合特征的分离式视觉伺服控制方法,其特征在于,包括如下步骤:
S1、基于NURBS曲线拟合技术反算出曲线控制顶点,获取曲线控制点特征;
S2、计算空间NURBS曲线在相机成像平面上的二维投影曲线;
S3、在通过曲线拟合方法对物体的轮廓投影曲线进行实时拟合运算后,利用得到的曲线控制点计算基于曲线控制点特征的交互矩阵;
S4、选择曲线控制点连线特征,并计算基于曲线控制点连线特征的交互矩阵;
S5、计算曲线控制点间的距离作为距离特征,并计算基于两点间距离特征的交互矩阵;
S6、针对相机旋转姿态的变化而导致的图像特征位置的改变进行补偿;
S7、为了获取曲线控制顶点的深度信息,利用曲线控制点特征的图像平面上的投影变化量与相机的运动速度对交互矩阵中的深度信息进行在线深度估计;
S8、利用相邻曲线控制点连线的直线特征对相机的旋转姿态进行控制,利用两个曲线控制点间的距离特征对机器人沿相机Z轴方向的平移运动进行控制,利用曲线控制点特征对机器人沿相机X、Y轴方向的平移运动进行控制,并在机器人的位置控制中加入旋转运动补偿量,最终完成机器人伺服任务。
2.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,步骤S1包括下列子步骤:
S11、对相机成像平面上的投影轮廓曲线进行图像处理,提取出投影曲线的数据点云坐标;
S12、按照相同间隔将曲线点云数据坐标等分成r个区间;
S13、在每个区间内选取每个数据点的n领域进行多项式运算求得分段多项式,再分别计算每段多项式中数据点处的曲率;
S14、选取曲率绝对值最大处的数据点以及曲线的首末数据端点作为曲线型值点;
S15、根据De Boor-Cox算法反算出曲线控制点。
3.如权利要求2所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S15中,记一条k次NURBS曲线型值点为qi(i=0,1,…,n),其节点矢量U=[u0,u1,…,un+6]的计算为:
Figure FDA0003030030860000011
其中,
Figure FDA0003030030860000021
在求得曲线型值点以及节点矢量后,根据De Boor-Cox算法反算出曲线控制点,节点插值的NURBS方程组如下:
Figure FDA0003030030860000022
其中,dj是曲线控制点,ωj是曲线控制点的权因子,令ωj=1,Bj,k(uj)是由节点矢量按De Boor-Cox递推公式推导出的B样条基函数;
在求得全部的曲线控制顶点后,若发现拟合曲线精度达不到要求,则通过增加节点数量来提高拟合精度,直到拟合精度满足要求为止。
4.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S2中,已知在空间中存在一套机器人视觉伺服***,摄像机安装在机械臂末端,即眼在手构型;定义机器人的末端执行器坐标系为{T},相机坐标系为{C},机器人坐标系为{R},设在用NURBS曲线描述该空间曲线时,其空间控制顶点为di(i=0,1,…,n),di在相机成像平面上的投影控制顶点记为Cdi(i=0,1,…,n);根据相机的透视投影模型,任意时刻t中,空间曲线的控制顶点di在相机图像平面上的投影控制点Cdi表示为:
Figure FDA0003030030860000023
其中,M是相机的内参矩阵,相机的内参矩阵由相机标定获得;H(q(t))是机器人基坐标系到机器人末端坐标系的齐次变换矩阵,q(t)是t时刻机器人的关节变量;H(q(t))由机器人的D-H参数以及机器人在t时刻的关节角度算出;
由NURBS曲线定义及式(4)知,
Figure FDA0003030030860000024
式(5)为t时刻下,空间NURBS曲线在相机成像平面上的二维投影曲线。
5.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S3中,设安装于机械臂末端的相机在空间中的刚体移动速度为V=(vcc),P(Xd,Yd,Zd)是空间控制顶点P相对于相机的坐标,则曲线控制顶点P在相机坐标系下运动速度为:
Figure FDA0003030030860000031
式(6)的标量形式为:
Figure FDA0003030030860000032
其中,vc=[vcx,vcy,vcz]T是相机的线速度,ωc=[ωcxcycz]T是相机的角速度;
根据相机的投影透视关系,图像归一化平面上的曲线控制点坐标表示为:
xdc=Xd/Zd,ydc=Yd/Zd (8)
将式(8)两边分别对时间求导得:
Figure FDA0003030030860000033
将式(8)、式(9)代入式(7)并进行整理得:
Figure FDA0003030030860000034
式(10)是在相机归一化成像平面上控制点特征的变化与机械臂末端相机移动的关系式,由式(10)知,一个点图像特征对应两个分量。
6.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S4中,设点A、B是对目标物体轮廓进行NURBS曲线拟合后得到的两个相邻的曲线控制点,O是相机光轴与图像归一化平面的交点;利用A、B两个控制点的图像坐标求得lAB的直线方程,设直线lAB的斜率为k1,则与其垂直的直线p1o的斜率为k2,k2=-1/k1;根据原点O的坐标以及斜率k2,求得点p1在焦距归一化成像平面上的坐标;
设p1坐标为p1(xp1,yp1,1),则p1点的极坐标参数表示为:
Figure FDA0003030030860000035
沿直线lAB设置两个关于点p1对称的点p2和p3,其极坐标参数分别为ρ22和ρ33,将p2,p3的参数代入直线的极坐标参数方程,得到:
Figure FDA0003030030860000041
其中,α2=α+Δα,α3=α-Δα,ρ2=ρ3,Δα是一个近似为0的正数,则利用p2,p3的极坐标表示直线lAB的参数α为:
Figure FDA0003030030860000042
将式(13)对时间求导并进行整理得:
Figure FDA0003030030860000043
将点的极坐标参数变化率带入式(14),得到基于直线极坐标参数α的交互矩阵:
Figure FDA0003030030860000044
其中,v=[vx,vy,vz]T为相机在x,y,z轴的平移运动速率,ω=[ωxyz]T为相机在x,y,z轴的旋转运动速率,
Figure FDA0003030030860000045
且z2,z3是点p2和p3的深度信息,其值在相机运动过程中通过在线估计来获得;当线特征与相机光轴垂直时,z2=z3,直线特征参数α的变化近似看作只由相机的旋转姿态变化产生;将式(15)改写为:
Figure FDA0003030030860000046
在利用两个控制点连线计算出相关直线特征参数后,用式(17)所示的交互矩阵对相机姿态进行控制。
7.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S5中,设A、B为焦距归一化成像平面上的两个NURBS曲线控制顶点且A、B两个控制顶点的像素坐标为A(xA,yA),B(xB,yB);根据几何知识知,A、B两个点间的距离表示为:
Figure FDA0003030030860000047
将上式两边同时对时间求导,求得两控制点间的距离变化率为:
Figure FDA0003030030860000051
将点特征交互矩阵式(10)带入式(18)中,得到两点间距离特征的交互矩阵:
Figure FDA0003030030860000052
其中,
Figure FDA0003030030860000053
且zA,zB是曲线控制顶点A、B的深度值,在相机的运动过程中通过在线估计获得。
8.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S6中,利用直线特征交互矩阵求得相机的旋转运动速率为:
Figure FDA0003030030860000054
其中,L是两个控制点连线的线特征交互矩阵,ρ、α是控制点连线的直线特征参数;
Figure FDA0003030030860000055
相机的旋转运动速率与控制点特征在图像平面上的投影位置变化率之间的关系为:
Figure FDA0003030030860000056
其中,L是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,L为:
Figure FDA0003030030860000061
其中,xcn、ycn是第n个曲线控制点在相机成像平面上的像素坐标;
利用像平面上特征的变化量及交互矩阵设计曲线控制点的旋转补偿量为:
Figure FDA0003030030860000062
其中,Lpv是成像平面上控制点特征变化率与相机旋转运动速率的交互矩阵,Lpv为:
Figure FDA0003030030860000063
其中,zcn是第n个曲线控制点的深度值。
9.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S7中,设zci是第i个曲线控制顶点的深度值,其像素坐标为Pci(xci,yci,1),则zi的估算如下:
Figure FDA0003030030860000064
在相机焦距归一化成像平面上两个相邻控制点连线的线特征上的点Plj(xlj,ylj,1)的深度信息zlj通过直线特征参数的变化率与相机的运动速度来进行在线估计;zlj的估计方法如下:
Figure FDA0003030030860000065
10.如权利要求1所述的一种基于复合特征的分离式视觉伺服控制方法,其特征在于,在S8中,在图像特征空间中分别定义曲线控制点误差为ep(t),相邻曲线控制点连线的角度误差为eα(t),两个控制点间的距离误差为ed(t);
Figure FDA0003030030860000066
Figure FDA0003030030860000067
Figure FDA0003030030860000071
式(29)中,fph是期望的曲线控制点特征,fpc(t)是相机当前位姿下的控制点特征;式(30)中,fαh是期望的相邻曲线控制点连线的角度特征,fαc(t)是相机当前位姿下相邻曲线控制点连线的角度特征;式(31)中,fdh是期望的两个控制点间的距离特征,fdc是相机当前位姿下两个控制点间的距离特征,
Figure FDA0003030030860000072
分别是完成伺服任务所需要的点特征、控制点连线的线特征、两点间距离特征的图像特征变化量;
定义式(32)、式(33)、式(34)如下:
Figure FDA0003030030860000073
Figure FDA0003030030860000074
Figure FDA0003030030860000075
其中,kp,kα,kd是***控制器增益系数;
分别将式(32)、式(33)、式(34)与图像雅可比的定义式联立并分别带入式(29)、式(30)与式(31)中得:
Figure FDA0003030030860000076
Figure FDA0003030030860000077
Figure FDA0003030030860000078
其中,
Figure FDA0003030030860000079
是控制点特征交互矩阵Jp的伪逆矩阵,
Figure FDA00030300308600000710
Figure FDA00030300308600000711
分别是线特征交互矩阵的伪逆矩阵和两控制点间距离特征交互矩阵的伪逆矩阵;
取式(35)中矩阵Jp的前3列构成矩阵Jpv,取矩阵Jp的后3列构成矩阵J,则曲线旋转补偿模块对位置控制的补偿量为:
Figure FDA00030300308600000712
其中,
Figure FDA00030300308600000713
为矩阵Jpv的伪逆矩阵;
Figure FDA00030300308600000714
的前2行为
Figure FDA00030300308600000715
则机器人末端移动的位置控制量为:
Figure FDA00030300308600000716
进行伺服任务所需要的总关节控制量
Figure FDA00030300308600000717
为:
Figure FDA0003030030860000081
CN202110427272.XA 2021-04-21 2021-04-21 一种基于复合特征的分离式视觉伺服控制方法 Active CN113211433B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110427272.XA CN113211433B (zh) 2021-04-21 2021-04-21 一种基于复合特征的分离式视觉伺服控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110427272.XA CN113211433B (zh) 2021-04-21 2021-04-21 一种基于复合特征的分离式视觉伺服控制方法

Publications (2)

Publication Number Publication Date
CN113211433A true CN113211433A (zh) 2021-08-06
CN113211433B CN113211433B (zh) 2022-09-20

Family

ID=77088106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110427272.XA Active CN113211433B (zh) 2021-04-21 2021-04-21 一种基于复合特征的分离式视觉伺服控制方法

Country Status (1)

Country Link
CN (1) CN113211433B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113985255A (zh) * 2021-10-29 2022-01-28 北京航星科技有限公司 一种电路板静态测试***及测试方法
CN116339141A (zh) * 2023-03-10 2023-06-27 山东科技大学 一种机械臂全局固定时间轨迹跟踪滑模控制方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5317682A (en) * 1989-10-24 1994-05-31 International Business Machines Corporation Parametric curve evaluation method and apparatus for a computer graphics display system
JP2001154719A (ja) * 1999-11-30 2001-06-08 Yaskawa Electric Corp 自由曲線補間方法
CN101926678A (zh) * 2005-09-30 2010-12-29 修复型机器人公司 用于采集和植入毛囊单位的自动化***和方法
CN102794767A (zh) * 2012-08-31 2012-11-28 江南大学 视觉引导的机器人关节空间b样条轨迹规划方法
CN105773620A (zh) * 2016-04-26 2016-07-20 南京工程学院 基于倍四元数的工业机器人自由曲线的轨迹规划控制方法
CN106271281A (zh) * 2016-09-27 2017-01-04 华南理工大学 一种复杂异型工件自动焊接轨迹生成***及方法
CN106424877A (zh) * 2016-10-15 2017-02-22 中国计量大学 一种新型机器人铣削加工刀具轨迹生成方法
CN107901041A (zh) * 2017-12-15 2018-04-13 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法
CN108621167A (zh) * 2018-07-23 2018-10-09 中南大学 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法
CN108927807A (zh) * 2018-08-14 2018-12-04 河南工程学院 一种基于点特征的机器人视觉控制方法
CN109048911A (zh) * 2018-08-31 2018-12-21 河南工程学院 一种基于矩形特征的机器人视觉控制方法
CN109551307A (zh) * 2018-11-22 2019-04-02 太原理工大学 一种在线更换抛磨头实现机器人分区域抛磨叶片的方法
CN110136169A (zh) * 2019-04-26 2019-08-16 哈尔滨工业大学(深圳) 一种基于nurbs的无标记面状柔性体变形跟踪方法
CN111366070A (zh) * 2018-12-25 2020-07-03 苏州笛卡测试技术有限公司 一种复合式线激光测量***多轴空间坐标系标定方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5317682A (en) * 1989-10-24 1994-05-31 International Business Machines Corporation Parametric curve evaluation method and apparatus for a computer graphics display system
JP2001154719A (ja) * 1999-11-30 2001-06-08 Yaskawa Electric Corp 自由曲線補間方法
CN101926678A (zh) * 2005-09-30 2010-12-29 修复型机器人公司 用于采集和植入毛囊单位的自动化***和方法
CN102794767A (zh) * 2012-08-31 2012-11-28 江南大学 视觉引导的机器人关节空间b样条轨迹规划方法
CN105773620A (zh) * 2016-04-26 2016-07-20 南京工程学院 基于倍四元数的工业机器人自由曲线的轨迹规划控制方法
CN106271281A (zh) * 2016-09-27 2017-01-04 华南理工大学 一种复杂异型工件自动焊接轨迹生成***及方法
CN106424877A (zh) * 2016-10-15 2017-02-22 中国计量大学 一种新型机器人铣削加工刀具轨迹生成方法
CN107901041A (zh) * 2017-12-15 2018-04-13 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法
CN108621167A (zh) * 2018-07-23 2018-10-09 中南大学 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法
CN108927807A (zh) * 2018-08-14 2018-12-04 河南工程学院 一种基于点特征的机器人视觉控制方法
CN109048911A (zh) * 2018-08-31 2018-12-21 河南工程学院 一种基于矩形特征的机器人视觉控制方法
CN109551307A (zh) * 2018-11-22 2019-04-02 太原理工大学 一种在线更换抛磨头实现机器人分区域抛磨叶片的方法
CN111366070A (zh) * 2018-12-25 2020-07-03 苏州笛卡测试技术有限公司 一种复合式线激光测量***多轴空间坐标系标定方法
CN110136169A (zh) * 2019-04-26 2019-08-16 哈尔滨工业大学(深圳) 一种基于nurbs的无标记面状柔性体变形跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YAO ZHANG, NA WANG, HAIXIA WANG,ET.AL: "Curve Control Points-based Feature Extraction for Visual Servo with rotational pose compensation", 《IEEE XPLORE》 *
简杰: "工业机器人伺服电机控制及运动控制***研究", 《中国优秀硕士论文全文数据库》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113985255A (zh) * 2021-10-29 2022-01-28 北京航星科技有限公司 一种电路板静态测试***及测试方法
CN116339141A (zh) * 2023-03-10 2023-06-27 山东科技大学 一种机械臂全局固定时间轨迹跟踪滑模控制方法
CN116339141B (zh) * 2023-03-10 2023-10-03 山东科技大学 一种机械臂全局固定时间轨迹跟踪滑模控制方法

Also Published As

Publication number Publication date
CN113211433B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN110116407B (zh) 柔性机器人位姿测量方法及装置
Chen et al. Adaptive homography-based visual servo tracking for a fixed camera configuration with a camera-in-hand extension
US20180066934A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
CN113211433B (zh) 一种基于复合特征的分离式视觉伺服控制方法
CN108408080A (zh) 一种飞机翼身对接装配装置、方法及***
CN108621167B (zh) 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法
CN110775288B (zh) 一种基于仿生的飞行机械颈眼***及控制方法
CN113744340A (zh) 用轴向视点偏移的非中心相机模型校准相机并计算点投影
CN112184812A (zh) 提升无人机相机对AprilTag识别定位精度方法及定位方法和***
Fang et al. Self-supervised camera self-calibration from video
KR20210118414A (ko) 로봇 디바이스의 상태를 사용한 환경 맵핑
CN110928311B (zh) 一种基于全景相机下直线特征的室内移动机器人导航方法
CN117218210A (zh) 一种基于仿生眼的双目主动视觉半稠密深度估计方法
CN113240597B (zh) 基于视觉惯性信息融合的三维软件稳像方法
Kim et al. Robust extrinsic calibration for arbitrarily configured dual 3D LiDARs using a single planar board
Caron et al. Tracking planes in omnidirectional stereovision
Allotta et al. On the use of linear camera-object interaction models in visual servoing
CN115446836A (zh) 一种基于多种图像特征信息混合的视觉伺服方法
CN109542094B (zh) 无期望图像的移动机器人视觉镇定控制
CN113379840B (zh) 一种基于共面目标的单目视觉位姿估计方法
Chen et al. Vision-based Pythagorean hodograph spline command generation and adaptive disturbance compensation for planar contour tracking
CN114820984A (zh) 一种基于激光雷达的三维重建方法及***
Alkhalil et al. Stereo visual servoing with decoupling control
Barajas et al. Visual servoing of uav using cuboid model with simultaneous tracking of multiple planar faces
Conticelli et al. Two-level visual control of dynamic look-and-move systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant