CN109146957B - 一种基于三角形特征的机器人视觉控制方法 - Google Patents

一种基于三角形特征的机器人视觉控制方法 Download PDF

Info

Publication number
CN109146957B
CN109146957B CN201810924633.XA CN201810924633A CN109146957B CN 109146957 B CN109146957 B CN 109146957B CN 201810924633 A CN201810924633 A CN 201810924633A CN 109146957 B CN109146957 B CN 109146957B
Authority
CN
China
Prior art keywords
deviation
centroid
triangle
robot
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810924633.XA
Other languages
English (en)
Other versions
CN109146957A (zh
Inventor
卢金燕
栗科峰
李小魁
熊欣
郭壮志
黄全振
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan Institute of Engineering
Original Assignee
Henan Institute of Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan Institute of Engineering filed Critical Henan Institute of Engineering
Priority to CN201810924633.XA priority Critical patent/CN109146957B/zh
Publication of CN109146957A publication Critical patent/CN109146957A/zh
Application granted granted Critical
Publication of CN109146957B publication Critical patent/CN109146957B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于三角形特征的机器人视觉控制方法,该方法以三角形为视觉特征,根据三角形的质心以及三条边进行视觉控制,利用质心当前信息和期望信息的偏差,得到机器人的位置偏差,利用三条边的极坐标参数以及直线雅克比矩阵,得到机器人的姿态偏差,最终实现机器人的六自由度控制;本发明根据三角形的质心和三条边实现机器人的六自由度控制,计算量少,控制过程简单。相对于使用单一图像特征的传统视觉控制方法,本发明能够提高视觉***的鲁棒性,便于推广应用。

Description

一种基于三角形特征的机器人视觉控制方法
技术领域
本发明属于机器人控制领域,更具体地涉及一种基于三角形特征的视觉控制方法。
背景技术
在机器人控制领域,视觉控制是当前的一个重要研究方向,也是目前的研究热点之一。所谓视觉控制就是根据摄像机获得的视觉信息对机器人进行的控制,它仅利用视觉传感器就能够为机器人提高丰富的工作环境信息,被国内外研究者广泛应用在机器人视觉定位、目标跟踪、视觉避障等方面。
机器人视觉控制过程中,图像特征一般是作为反馈信号直接用于控制器设计或者位姿估计,因此特征的选择与提取是视觉***的一个基本且关键的问题,会对视觉***的性能产生重要影响。传统视觉控制过程中,点、边缘、直线是常用特征。此类特征提取简单,使用方便,但包含的特征信息有限,且易受目标物体的形状、纹理、噪声、光照条件等影响。
为了提高视觉控制的鲁棒性,研究人员探索使用更加复杂的目标特征进行机器人控制。Tahri等基于球面投影模型,提出一种解耦合控制机制,该机制利用点特征和多边形特征,结合特征在球面投影的特点,推导出深度无关的交互矩阵,实现目标的伺服控制(Tahri O,Mezouar Y,Chaumette F.Decoupled Image-based Visual Servoing forcameras obeying the unified projection model[J].IEEE Transactions onRobotics.2010,26(4):684-697.)。然而,该方法主要针对球面投影模型,不适用于基于小孔成像模型的传统相机。Song等将视觉控制用到机器人的轴-孔装配中,利用目标的轮廓和颜色信息,计算位置和姿态信息,实现复杂几何外形零件的位姿对准(Song H C,Kim Y L,Song J B.Automated guidance of peg-in-hole assembly tasks for complex-shapedparts.IEEE/RSJ International Conference on Intelligent Robots andSystems.Chicago,USA,2014.4517-4522)。该方法利用了能表征目标全局特性的轮廓和颜色信息,能够提高视觉控制的可靠性和准确性,但所选特征只能适用于特定的目标对象,应用受到制约。Xu等根据不同图像特征对不同自由度的敏感性,采用点、直线以及面积等多种视觉特征,实现视觉伺服过程中位置控制和姿态控制的解耦,进而完成六自由度机器人的高精度对准。(Xu D,Lu J Y,Wang P,Zhang Z T,Liang Z Z.Image-based visualservoing with separate design for orientation and position control usingdifferent sensitive features[J],IEEE Transactions on Systems,Man andCybernetics:Systems,2017,47(8):2233-2243.)。该方法充分利用了各个视觉特征的优势,能够获得较高的控制精度,但是需要估计点特征和直线特征垂点的深度,并求取各个视觉特征的雅克比矩阵,计算过程复杂。
发明内容
基于上述背景,本发明的主要目的在于提供一种基于三角形特征的机器人六自由度控制方法。
为达到上述目的,本发明以三角形为视觉特征,利用三角形的的质心以及三条边进行视觉控制。根据质心当前信息和期望信息的偏差,得到机器人的位置偏差,根据三条边的极坐标参数以及直线雅克比矩阵,得到机器人的姿态偏差,最终实现机器人的六自由度控制。
该方法包括步骤如下:
步骤S0,使用一个RGB-D相机获取目标图像;
步骤S1:从所述相机获得的目标图像中提取三角形的三个顶点信息,并计算三角形的质心,离线得到所述质心的期望特征,在线提取所述质心的当前特征,比较当前值和期望值,得到当前质心和期望质心之间的偏差;
步骤S2:任意选择三角形的一条边,根据该边在图像中的长度,以及目标的实际空间尺寸,得到目标的当前像素当量;
步骤S3:基于小孔模型,根据S1的三个顶点的信息,得到三个顶点在焦距归一化成像平面的坐标;
步骤S4:根据S3的三个顶点的归一化坐标,得到三角形的三条边在焦距归一化成像平面上的极坐标参数,离线得到三条边的期望极坐标参数,在线计算三条边的当前极坐标参数,比较当前值和期望值,得到二者之间的偏差;
步骤S5:根据S4所述的极坐标参数,得到直线的雅克比矩阵;
步骤S6:根据S4所述的极坐标参数偏差,以及S5的直线雅克比矩阵,得到机器人的姿态偏差;
步骤S7:根据S1的质心偏差,以及S2的当前像素当量,得到机器人的位置偏差;
步骤S8:根据S6的姿态偏差和S7的位置偏差,得到机器人的运动调整量,实现机器人的六自由度控制。
进一步的说,其中步骤S1中所述质心的偏差是计算如下的:
根据从RGB-D图像提取的三角形的三个顶点的信息(ui,vi,di)(i=1,2,3),得到三角形质心的信息:
Figure BDA0001765061550000031
其中,ui是第i个顶点在U方向的图像坐标,vi是第i个顶点在V方向的图像坐标,di是第i个顶点的深度,u0是质心在U方向的图像坐标,v0是质心在V方向的图像坐标,d0是质心的深度。
基于质心的当前特征和期望特征,得到偏差如下:
Figure BDA0001765061550000041
其中,△u、△v分别表示质心在U方向和V方向的图像坐标偏差,△z表示质心在笛卡尔空间的深度偏差。(u0d,v0d)表示质心的期望图像坐标,(u0,v0)表示质心的当前图像坐标,z0d和z0c分别表示质心在笛卡尔空间的期望深度和当前深度。
进一步的说,其中步骤S2中所述的当前像素当量是通过下式来计算的:
ts=L/L0 (3)
其中,ts表示当前的像素当量,S表示三角形某一条边在图像中的长度,S0表示该边的实际空间长度。
进一步的说,其中步骤S3中所述的三个顶点在焦距归一化成像平面的坐标如下:
根据三个顶点的图像坐标,以及摄像机的内参数,得到第i个顶点(ui,vi)(i=1,2,3)在焦距归一化成像平面上的坐标:
Figure BDA0001765061550000042
进一步的说,其中步骤S4中所述的三角形的三条边的极坐标参数偏差计算如下:
以第1个顶点和第2个顶点构成的一条边为例,首先求取该边的直线方程如下:
(x-x1c1)/(x1c2-x1c1)=(y-y1c1)/(y1c2-y1c1) (5)
然后求取过成像坐标系原点,且与式(5)所示直线垂直的垂线方程,进而得到式(5)所示直线的垂点坐标(x1c0,y1c0,1)。根据直线的极坐标参数定义,将该垂点的坐标转化为极坐标,即可得到式(5)所示直线的参数ρi和θi
Figure BDA0001765061550000051
三角形剩余两条边的直线参数求解与上述过程完全相同。因此,得到三角形三条边的参数偏差如下(本发明中,直线特征参数只用到了θ,下式只列出了参数θ的偏差):
Δθi=θdii;i=1,2,3 (7)
进一步的说,其中步骤S5中所述的直线特征雅克比矩阵计算如下:
利用式(6)计算的三角形三条边的极坐标参数(ρii)(i=1,2,3),基于申请人提出的直线雅克比矩阵(徐德,卢金燕。直线特征的交互矩阵求取,自动化学报,2015,41(10):1762-1771),得到直线雅克比矩阵Llw如下:
Figure BDA0001765061550000052
进一步的说,其中步骤S6中所述的机器人的姿态偏差[wrx,wry,wrz]T如下:
根据雅克比矩阵定义,得到相机的姿态偏差:
Figure BDA0001765061550000053
式中:Llw +是直线交互矩阵Llw的伪逆。
Llw +=(Llw TLlw)-1Llw T (10)
式中,Llw T是Llw的转置。
根据式(9)和手眼关系矩阵Tm,得到机器人姿态偏差:
Figure BDA0001765061550000061
进一步的说,其中步骤S7中所述的机器人的位置偏差[vrx,vry,vrz]T如下:
Figure BDA0001765061550000062
其中,(△u,△v,△z)是式(2)得到的三角形质心偏差,ts是式(3)得到的像素当量。
进一步的说,其中步骤S8中所述的机器人调整量△T如下:
Figure BDA0001765061550000063
其中,λp是调整系数,[vrx,vry,vrz]T是式(12)计算的机器人当前的位置偏差,[wrx,wry,wrz]T是式(11)计算的机器人当前的姿态偏差。
基于上述技术方案可知,本发明具有以下有益效果:传统视觉控制使用的点、边缘、直线特征提取简单,使用方便,但包含的特征信息有限,且易受目标物体的形状、纹理、噪声、光照条件等影响。
本发明以三角形为视觉特征,利用三角形的的质心以及三条边,进行视觉控制。根据质心的当前信息和期望信息的偏差,得到机器人的位置偏差,根据三条边的极坐标参数以及直线雅克比矩阵,得到机器人的姿态偏差,最终实现机器人的六自由度控制。
本发明利用信息丰富的三角形作为视觉特征,由于任意两两相交的三条直线都可以构成一个三角形,因此所选特征容易获取,使用方便。本发明根据三角形的质心和三条边实现机器人的六自由度控制,计算量少,控制过程简单。相对于使用单一图像特征的传统视觉控制方法,本发明能够提高视觉***的鲁棒性,便于推广应用。
附图说明
图1为本发明的基于三角形特征的视觉控制方法的控制框图。
具体实施方式
下面结合附图对本发明的实施例作详细的说明:本实施例在以本发明技术方案为前提下进行实施,结合详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述实施例。
本发明公开了一种基于三角形特征的机器人视觉控制方法,该方法以三角形为视觉特征,利用三角形的质心以及三条边进行视觉控制。根据质心当前信息和期望信息的偏差,得到机器人的位置偏差,根据三条边的极坐标参数以及直线雅克比矩阵,得到机器人的姿态偏差,最终实现机器人的六自由度控制。
更具体地,作为本发明的一个优选实施例,如图1示出本发明的基于三角形特征的机器人视觉控制方法的框图。在控制过程中,基于提取的三角形特征,先得到三角形的质心,然后根据质心的图像偏差和深度偏差,得到机器人的位置偏差,根据三条边的极坐标参数,得到直线雅克比矩阵,进而得到机器人的姿态偏差,最终实现机器人的六自由度控制。该方法包括以下步骤:
第一步:从目标图像中提取三角形的三个顶点信息,并计算三角形的质心,离线得到所述质心的期望特征,在线提取所述质心的当前特征,比较当前值和期望值,得到当前质心和期望质心之间的偏差;
第二步:任意选择三角形的一条边,根据该边在图像中的长度,以及目标的实际空间尺寸,得到目标的当前像素当量;
第三步:基于小孔模型,根据第一步提取的三个顶点信息,得到三个顶点在焦距归一化成像平面的坐标;
第四步:根据第三步计算的三个顶点的归一化坐标,得到三角形的三条边在焦距归一化成像平面上的极坐标参数,离线得到所述三条边的期望极坐标参数,在线计算三条边的当前极坐标参数,比较当前值和期望值,得到二者之间的偏差;
第五步:根据第四步计算的极坐标参数,得到直线雅克比矩阵;
第六步:根据第四步计算的极坐标参数偏差,以及第五步的直线雅克比矩阵,得到机器人的姿态偏差;
第七步:根据第一步的质心偏差,以及第二步的当前像素当量,得到机器人的位置偏差;
第八步:根据第六步的姿态偏差和第七步的位置偏差,得到机器人的运动调整量,实现机器人的六自由度控制。
所述第一步,具体如下:
根据获取的目标图像,提取三角形特征,得到式(2)所示的质心偏差。
所述第二步,具体如下:
任意选择三角形的一条边,根据该边在图像中的长度,以及目标的实际空间尺寸,得到式(3)所示的当前像素当量。
所述第三步,具体如下:
基于小孔模型,根据三角形的三个顶点坐标,得到如式(4)所示的三个顶点在焦距归一化成像平面的坐标;
所述第四步,具体如下:
根据三角形三条边的直线方程,得到式(6)所示的极坐标参数,进而得到式(7)所示的参数偏差。
所述第五步,具体如下:
基于第四步的极坐标参数,得到式(8)所示的直线雅克比矩阵。
所述第六步,具体如下:
根据第四步的极坐标参数偏差,以及第五步的直线雅克比矩阵,得到式(11)所示的机器人姿态偏差。
所述第七步,具体如下:
根据第一步的质心偏差,以及第二步的像素当量,得到式(12)所示的机器人位置偏差。
所述第八步,具体如下:
根据第六步的姿态偏差和第七步的位置偏差,得到式(13)所示的机器人运动调整量,实现机器人的六自由度控制。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于三角形特征的机器人视觉控制方法,包括以下步骤:
步骤S0,使用一个RGB-D相机获取目标图像;
步骤S1:从所述相机获得的目标图像中提取三角形特征,并计算三角形的质心,离线得到所述质心的期望特征,在线提取所述质心的当前特征,比较当前值和期望值,得到当前质心和期望质心之间的偏差;
步骤S2:任意选择三角形的一条边,根据该边在图像中的长度,以及目标的实际空间尺寸,得到目标的当前像素当量;
步骤S3:基于小孔模型,根据三角形的顶点信息,得到三个顶点在焦距归一化成像平面的坐标;
步骤S4:根据S3的三个顶点的归一化坐标,得到三角形的三条边在焦距归一化成像平面上的极坐标参数方程,离线得到三条边的期望参数,在线计算三条边的当前参数,比较当前值和期望值,得到二者之间的偏差;
步骤S5:根据S4所述的极坐标参数,得到直线的雅克比矩阵;
步骤S6:根据S4所述的极坐标参数偏差,以及S5的直线雅克比矩阵,得到机器人的姿态偏差;
步骤S7:根据S1的质心偏差,以及S2的当前像素当量,得到机器人的位置偏差;
步骤S8:根据S6的姿态偏差和S7的位置偏差,得到机器人的运动调整量,实现机器人的六自由度控制;
其中步骤S1中所述质心的偏差是计算如下的:
根据从RGB-D图像提取的三角形的三个顶点的信息(ui,vi,di),i=1,2,3,得到三角形质心的信息:
Figure FDA0002612925280000011
其中,ui是第i个顶点在U方向的图像坐标,vi是第i个顶点在V方向的图像坐标,di是第i个顶点的深度,u0是质心在U方向的图像坐标,v0是质心在V方向的图像坐标,z0是质心的深度;
基于质心的当前特征和期望特征,得到偏差如下:
Figure FDA0002612925280000021
其中,△u、△v分别表示质心在U方向和V方向的图像坐标偏差,△z表示质心在笛卡尔空间的深度偏差;(u0d,v0d)表示质心的期望图像坐标,(u0,v0)表示质心的当前图像坐标,z0d和z0分别表示质心在笛卡尔空间的期望深度和当前深度;
其中步骤S2中所述的当前像素当量是通过下式来计算的:
ts=L/L0 (3)
其中,ts表示当前的像素当量,L表示三角形某一条边在图像中的长度,L0表示该边的实际空间长度;
其中步骤S4中所述的三角形的三条边的极坐标参数偏差计算如下:
针对第1个顶点和第2个顶点构成的一条边,首先求取该边的直线方程如下:
(x-x1c1)/(x1c2-x1c1)=(y-y1c1)/(y1c2-y1c1) (5)
然后求取过成像坐标系原点,且与式(5)所示直线垂直的垂线方程,进而得到式(5)所示直线的垂点坐标(x1c0,y1c0,1);根据直线的极坐标参数定义,将该垂点的坐标转化为极坐标,即可得到式(5)所示直线的参数ρi和θi
Figure FDA0002612925280000022
三角形剩余两条边的直线参数求解与上述过程完全相同;因此,得到三角形三条边的参数偏差如下:
Δθi=θdii;i=1,2,3 (7);
其中步骤S6中所述的机器人的姿态偏差[wrx,wry,wrz]T如下:
根据雅克比矩阵定义,得到相机的姿态偏差:
Figure FDA0002612925280000031
式中:Llw +是直线雅克比矩阵Llw的伪逆;
Llw +=(Llw TLlw)-1Llw T (10)
式中,Llw T是Llw的转置;
根据式(9)和手眼关系矩阵Tm,得到机器人姿态偏差:
Figure FDA0002612925280000032
其中步骤S7中所述的机器人的位置偏差[vrx,vry,vrz]T如下:
Figure FDA0002612925280000033
其中,(△u,△v,△z)是式(2)得到的三角形质心偏差,ts是式(3)得到的像素当量。
2.根据权利要求1所述的基于三角形特征的机器人视觉控制方法,其中步骤S3中所述的三个顶点在焦距归一化成像平面的坐标如下:
根据三个顶点的图像坐标(ui,vi),i=1,2,3,以及摄像机的内参数,得到第i个顶点在焦距归一化成像平面上的坐标(x1ci,y1ci,1),i=1,2,3:
Figure FDA0002612925280000034
3.根据权利要求1所述的基于三角形特征的机器人视觉控制方法,其中步骤S5中所述的直线特征雅克比矩阵计算如下:
利用式(6)计算的三角形三条边的极坐标参数(ρii),i=1,2,3,基于现有的直线雅克比矩阵,得到直线雅克比矩阵Llw如下:
Figure FDA0002612925280000041
4.根据权利要求1所述的基于三角形特征的机器人视觉控制方法,其中步骤S8中所述的机器人调整量△T如下:
Figure FDA0002612925280000042
其中,λp是调整系数,[vrx,vry,vrz]T是式(12)计算的机器人当前的位置偏差,[wrx,wry,wrz]T是式(11)计算的机器人当前的姿态偏差。
CN201810924633.XA 2018-08-14 2018-08-14 一种基于三角形特征的机器人视觉控制方法 Active CN109146957B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810924633.XA CN109146957B (zh) 2018-08-14 2018-08-14 一种基于三角形特征的机器人视觉控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810924633.XA CN109146957B (zh) 2018-08-14 2018-08-14 一种基于三角形特征的机器人视觉控制方法

Publications (2)

Publication Number Publication Date
CN109146957A CN109146957A (zh) 2019-01-04
CN109146957B true CN109146957B (zh) 2020-09-25

Family

ID=64793099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810924633.XA Active CN109146957B (zh) 2018-08-14 2018-08-14 一种基于三角形特征的机器人视觉控制方法

Country Status (1)

Country Link
CN (1) CN109146957B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112461130A (zh) * 2020-11-16 2021-03-09 北京平恒智能科技有限公司 一种胶粘制品视觉检测工具框定位方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146121A (ja) * 1993-10-01 1995-06-06 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
CN105091744A (zh) * 2015-05-07 2015-11-25 中国科学院自动化研究所 一种基于视觉传感器和激光测距仪的位姿检测装置与方法
CN106826873A (zh) * 2015-12-03 2017-06-13 中国科学院沈阳自动化研究所 一种输电线路巡检机器人视觉伺服抓线控制方法
CN107443385A (zh) * 2017-09-26 2017-12-08 珠海市微半导体有限公司 基于视觉的机器人直线导航的检测方法和芯片及机器人
CN107901041A (zh) * 2017-12-15 2018-04-13 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103085060B (zh) * 2012-12-31 2015-04-22 中国科学院自动化研究所 基于力视混合检测的对接/分离装置及其方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
JPH07146121A (ja) * 1993-10-01 1995-06-06 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
CN105091744A (zh) * 2015-05-07 2015-11-25 中国科学院自动化研究所 一种基于视觉传感器和激光测距仪的位姿检测装置与方法
CN106826873A (zh) * 2015-12-03 2017-06-13 中国科学院沈阳自动化研究所 一种输电线路巡检机器人视觉伺服抓线控制方法
CN107443385A (zh) * 2017-09-26 2017-12-08 珠海市微半导体有限公司 基于视觉的机器人直线导航的检测方法和芯片及机器人
CN107901041A (zh) * 2017-12-15 2018-04-13 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Polygon Detection Algorithm for Robot Visual Servoing;Ge Song et al;《 International Conference on Intelligent Robotics and Applications》;20081031;726-733 *
基于模糊神经网络的无标定全自由度手眼协调;苏剑波;《华中科技大学学报(自然科学版)》;20041031;第32卷;42-44 *
无标定视觉伺服移动机械臂运动控制研究与实现;方钰;《中国优秀硕士学位论文全文数据库信息科技辑》;20180615;第2018年卷(第6期);I140-415 *
空间机器人自主捕获目标的轨迹规划与控制研究;史也;《中国博士学位论文全文数据库信息科技辑》;20140115;第2014年卷(第1期);I140-41 *

Also Published As

Publication number Publication date
CN109146957A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
CN110116407B (zh) 柔性机器人位姿测量方法及装置
CN108972549B (zh) 基于Kinect深度摄像头的工业机械臂实时避障规划抓取***
Song et al. CAD-based pose estimation design for random bin picking using a RGB-D camera
CN109794963B (zh) 一种面向曲面构件的机器人快速定位方法
Gong et al. An uncalibrated visual servo method based on projective homography
CN105096341A (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
CN110928311B (zh) 一种基于全景相机下直线特征的室内移动机器人导航方法
CN109146957B (zh) 一种基于三角形特征的机器人视觉控制方法
CN112700505B (zh) 一种基于双目三维跟踪的手眼标定方法、设备及存储介质
CN108927807A (zh) 一种基于点特征的机器人视觉控制方法
CN109048911B (zh) 一种基于矩形特征的机器人视觉控制方法
Jang et al. Metric localization using a single artificial landmark for indoor mobile robots
CN116012442A (zh) 一种机械臂末端位姿自动回正的视觉伺服方法
Liu et al. An adaptive controller for image-based visual servoing of robot manipulators
CN107443369A (zh) 一种基于视觉测量模型逆辨识的机器臂无标定伺服控制方法
Lu et al. Weld seam extraction of intersecting pipelines based on point cloud entropy
Zhang et al. A visual servoing method based on point cloud
Zhang et al. Calibration-free and model-independent method for high-DOF image-based visual servoing
Fan et al. Robot gluing localization method based on monocular vision
Xiong et al. 3d depth map based optimal motion control for wheeled mobile robot
CN112123329A (zh) 一种机器人3d视觉手眼标定方法
CN111986258B (zh) 基于点云法矢方向聚类伺服的机器人定位控制方法及***
Zhang et al. Research on obstacle avoidance method of robot manipulator based on binocular vision
Hiramatsu et al. Image-based path following control of mobile robots with central catadioptric cameras
Deng et al. High-precision control of robotic arms based on active visual under unstructured scenes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant