CN101186038A - 一种机器人延伸手眼标定方法 - Google Patents
一种机器人延伸手眼标定方法 Download PDFInfo
- Publication number
- CN101186038A CN101186038A CNA2007101790040A CN200710179004A CN101186038A CN 101186038 A CN101186038 A CN 101186038A CN A2007101790040 A CNA2007101790040 A CN A2007101790040A CN 200710179004 A CN200710179004 A CN 200710179004A CN 101186038 A CN101186038 A CN 101186038A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- intermediary
- transformational relation
- hand
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明提供了一种机器人延伸手眼标定方法,在该方法中,设置辅助摄像机,分别计算辅助摄像机坐标系与延伸手坐标系之间的空间转换关系、以及辅助摄像机坐标系与中介靶标坐标系之间的空间转换关系;计算眼摄像机坐标系与中介靶标坐标系之间的空间转换关系;之后,根据计算出的上述空间转换关系计算得到眼摄像机坐标系与延伸手坐标系之间的空间转换关系,即实现了机器人延伸手眼的标定。本发明提供的机器人延伸手眼标定方法应用成本低,易于操作,且能够增强现场标定的便捷性和可靠性。
Description
技术领域
本发明涉及机器人延伸手眼标定技术,尤其涉及一种机器人延伸手眼标定方法。
背景技术
在实际应用中,机器人手臂上常需加装特定工件或操作工具等对象,以实现自主装配或自动对接等任务。如空间站对接的地面模拟实验中,通过在两机器人手臂上安装两个对接舱工件来实现模拟,而机器手臂的作用是在眼摄像机的导引下驱动对接舱实现对接任务。所述对接任务实现的前提是精确标定机器人手臂上的对接舱等对象与眼摄像机的空间关系。所述安装在机器人手臂上的对接舱等对象称为延伸手,相应的,将标定延伸手和眼摄像机之间的空间关系的方法称为延伸手眼标定。通常,机器人手臂上的眼摄像机只能拍摄到眼摄像机对面的场景,而无法拍摄到延伸手的图像,因此,不能采用眼看延伸手的方式实现延伸手与眼摄像机之间空间关系的标定。
现有技术中,一般采用触点法(Product manuals,ABB Robot Documentation-IRB 1400 M2004,2005)进行延伸手眼标定,所述触点法通过人眼观察,使延伸手上的某一点多次(一般为三次以上)碰触空间中某一固定点,并使机器人在任意两方向做正交运动,实现机器人延伸手眼的标定,该方法简单易行,但由于存在人为因素,标定精度难以保证,且在该方法中,往往需要沿固定路径反复对延伸手眼进行标定。另外,还可采用高精度的外部三维坐标测量设备,如电子经纬仪对(周富强、张广军,现场双经纬仪三维坐标测量***[J].机械工程学报,Vol.40,No.1,2004,pp.165-169)实现机器人延伸手眼的标定,但该方法成本高,且不适于现场标定。
发明内容
有鉴于此,本发明的主要目的在于提供一种机器人延伸手眼标定方法,该方法应用成本低,易于操作,且能够增强现场标定的便捷性和可靠性。
为达到上述目的,本发明的技术方案是这样实现的:
本发明提供了一种机器人延伸手眼标定方法,调整中介标定靶标与机器人上的眼摄像机的空间位置,将中介标定靶标充满眼摄像机视场;设置辅助摄像机,将中介标定靶标与机器人上的延伸手同时包含在辅助摄像机视场内,该方法进一步包括:
A、通过眼摄像机拍摄的包含中介标定靶标的图像,计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系;通过辅助摄像机拍摄的包含中介标定靶标和延伸手的图像,分别计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系;
B、根据计算得到的眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系,计算眼摄像机坐标系与延伸手坐标系之间的空间转换关系。
其中,步骤B具体为:先根据计算得到的辅助摄像机坐标系与中介标定靶标坐标系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系,计算延伸手坐标系与中介标定靶标坐标系之间的空间转换关系;再根据计算得到的延伸手坐标系与中介标定靶标坐标系之间的空间转换关系、以及眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系,计算延伸手坐标系与眼摄像机坐标系之间的空间转换关系。
步骤B具体为:根据计算得到的眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系,直接计算眼摄像机坐标系与延伸手坐标系之间的空间转换关系。
辅助摄像机拍摄图像之前进一步包括:标定并存储辅助摄像机的内参数。
所述计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系具体为:
a1、提取所述眼摄像机拍摄的包含中介标定靶标的图像中中介标定靶标的一定数量的特征点;
b1、根据所提取的特征点相应的空间坐标及图像坐标计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。
所述计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系具体为:
a2、提取所述辅助摄像机拍摄的包含中介标定靶标和延伸手的图像中中介标定靶标的一定数量的特征点;
b2、根据所提取的特征点相应的空间坐标及图像坐标计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。
所述计算延伸手坐标系与辅助摄像机坐标系之间的空间转换关系具体为:
a3、使用基于矩形平面特征的衍生特征点生成方法,提取延伸手上空间矩形的一定数量的衍生特征点;
b3、根据所提取的衍生特征点相应的空间坐标及图像坐标,计算延伸手坐标系与辅助摄像机坐标系之间的空间转换关系。
本发明提供的机器人延伸手眼标定方法,通过设置辅助摄像机,并进行相关计算即实现了机器人延伸手眼的标定,应用成本低,易于操作,适用于现场标定,且增强了现场标定的便捷性;整个标定过程中,无需人工参与,增强了延伸手眼标定的可靠性。本发明中使用基于矩形平面特征的衍生特征点生成方法提取一定数量的延伸手的特征点,弥补了延伸手上特征点较少的缺点,进一步增强了延伸手眼标定的精确性。
附图说明
图1为本发明所述方法中所使用的组件位置关系示意图;
图2为本发明机器人延伸手眼标定方法流程示意图;
图3为本发明空间矩形及其对应的透视投影图像关系示意图。
具体实施方式
本发明的基本思想是:设置辅助摄像机;分别计算辅助摄像机坐标系与延伸手坐标系以及辅助摄像机坐标系与中介靶标坐标系之间的空间转换关系;计算眼摄像机坐标系与中介靶标坐标系之间的空间转换关系;之后,根据计算出的上述空间转换关系计算得到眼摄像机坐标系与延伸手坐标系之间的空间转换关系,即实现了机器人延伸手眼的标定。
以下通过具体实施例结合附图详细说明本发明机器人延伸手眼标定方法的实现。
图1为本发明所述方法中所使用的组件位置关系示意图,如图1所示,在机器人手臂上安装眼摄像机130及延伸手110,并合理放置中介标定靶标120,使中介标定靶标120充满眼摄像机130视场;合理摆入辅助摄像机140并调整所述辅助摄像机140的位置,使机器人的延伸手110和中介标定靶标120同时位于辅助摄像机140视场内。其中,一旦延伸手110、眼摄像机130、中介标定靶标120、以及辅助摄像机140的空间位置确定后,则在整个处理过程中,需保持延伸手110、眼摄像机130、中介标定靶标120以及辅助摄像机140的空间位置不变。之后,执行图2所示的本发明机器人延伸手眼标定方法,如图2所示,该方法包括:
步骤201:眼摄像机拍摄中介标定靶标的图像,计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。
其中,一般拍摄一幅中介标定靶标的图像即可实现本发明,但是,在实际应用中,也可能需要拍摄多幅所述图像,这里不再赘述。
其中,计算空间转换关系的方法可以为:首先,提取所拍摄图像中中介标定靶标上的特征点,计算其图像坐标及其在中介标定靶标坐标系中的空间坐标,之后使用与步骤206中的计算延伸手坐标系与辅助摄像机坐标系之间空间转换关系的方法相同的方法,计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。其中,所述提取特征点可以使用现有技术中相应的特征点提取方法,这里不再赘述。其中,特征点的图像坐标为该像点在图像坐标系中的二维像坐标,特征点的空间坐标为该特征点在中介标定靶标坐标系中的三维物坐标。
另外,在实际应用中,也可以使用其它计算眼摄像机坐标系与中介标定靶标坐标系之间空间转换关系的方法,这里不再赘述。
其中,设眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系为(Rco,Tco)。
进一步的,眼摄像机坐标系oc-xcyczc以及中介标定靶标坐标系oo-xoyozo可以在实际应用中任意设定,例如,可以使用如图1所示的建立方法,眼摄像机坐标系oc-xcyczc以眼摄像机的光轴为zc轴,以光心为原点oc,之后,在与zc轴垂直且过原点的平面中设定xc轴与yc轴;中介标定靶标坐标系oo-xoyozo,以该靶标左上角的顶点为原点oo,以矩形的两条边为xo轴及yo轴,用右手定则得到zo轴,其中,xo轴、yo轴、zo轴的方向如图1所示。其中,如何建立坐标系不影响本步骤中需实现的最终目的,但是,会对计算过程的复杂程度产生影响。
步骤202:标定并存储辅助摄像机的内参数。
其中,具体标定辅助摄像机的内参数的方法可采用Zhang的摄像机标定方法(A flexible new technique for camera calibration[J].IEEE Trans.Pattern Analysisand Machine Intelligence.2000,22(11):1330-1334.),也可以采用其它标定辅助摄像机内参数的方法,这里不再赘述。
步骤203:辅助摄像机拍摄包含中介标定靶标和机器人延伸手的图像。
其中,一般拍摄一幅包含中介标定靶标和机器人延伸手的图像即可实现本发明,但是,在实际应用中,也可能需要拍摄多幅所述图像,这里不再赘述。
步骤204:计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。
其中,上述计算空间转换关系的方法可以为:首先,提取步骤203中所拍摄的图像中中介标定靶标上的特征点,计算其图像坐标及其在中介标定靶标坐标系中的空间坐标,之后,使用与步骤206中的计算空间转换关系方法相同的方法,计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。其中,所述提取特征点可以使用现有技术中相应的特征点提取方法,这里不再赘述。
在实际应用中,也可以使用其它计算辅助摄像机坐标系与中介标定靶标坐标系之间空间转换关系的方法,这里不再赘述。
其中,设辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系为(Raco,Taco)。
另外,辅助摄像机坐标系oac-xacyaczac以及中介标定靶标坐标系oo-xoyozo可以在实际应用中任意设定,例如,可以使用如图1所示的建立方法,辅助摄像机坐标系oac-xacyaczac以摄像机的光心为原点oac,以光轴为zac轴,之后,在与zac轴垂直且过原点的平面中设定xac轴与yac轴,使其分别与图像的x轴与y轴平行。其中,xac轴、yac轴、zac轴的方法如图1所示;中介标定靶标坐标系oo-xoyozo的建立在步骤201中已进行描述,这里不再赘述。其中,如何建立中介标定靶标坐标系不影响本步骤中需实现的最终目的,但是,会对计算过程的复杂程度产生影响。
步骤205:计算延伸手坐标系与辅助摄像机坐标系之间的空间转换关系。
其中,可使用现有技术中的相关方法计算所述空间转换关系,例如,基于延伸手对象本身的几何特征信息,即可完成延伸手坐标系与辅助摄像机坐标系之间空间转换关系,也即(Race,Tace)的标定。
但是,由于延伸手本身所包含的显式特征点较少,因此,如在计算过程中,只提取少量的显式特征点,将会影响延伸手眼标定的精度,因此,为了达到更高的标定精度,可以使用基于矩形平面特征的衍生特征点生成方法,进行衍生特征点的提取,之后,利用所提取到的衍生特征点及其对应像点计算所述坐标系之间的空间转换关系。其中,提取衍生特征点的方法为:提取步骤203中拍摄的图像中延伸手上的空间矩形p1p2p3p4对应的透视投影图像p1′p2′p3′p4′的4个顶点,使用基于矩形特征的衍生特征点生成方法,得到一定数量的空间矩形平面上点的空间坐标及其对应的图像坐标,所述点即为衍生特征点,之后,存储空间点p1、p2、p3、p4和对应的像点p1′、p2′、p3′、p4′以及衍生出的一定组数的标定点对。所述空间点以及空间点所对应的像点均可称为衍生特征点,一个空间点与其对应的像点组成一对标定点对,也可以认为:每个衍生特征点均包含其对应的空间坐标及图像坐标。根据基于矩形平面特征的衍生特征点生成方法,可以获得任意数量的标定点对,在本方法中,只需取其中一定数量的标定点对进行运算。其中,点的空间坐标为该点的三维物坐标,而该点对应的图像坐标为二维像坐标;所述衍生特征点以及标定点对的数量取决于本发明的标定方法所希望达到的精度,一般情况下,所提取的衍生特征点的数量越多,本发明所述标定方法的精度越高。
下面,通过举例详细说明所述基于矩形特征的衍生特征点生成方法:
图3为空间矩形p1p2p3p4及其对应的透视投影图像p1′p2′p3′p4′关系示意图。如图3所示,p0为空间矩形p1p2p3p4的对角线交点,p0′为透视投影图像p1′p2′p3′p4′的对角线交点。由射影几何不变量原理可知,两直线的交点是透视投影不变量,即p0′为p0的透视投影不变量。
若空间矩形p1p2p2p4的边长已知,则可计算出点p1、p2、p3、p4、p0的空间坐标,其对应像点p1′、p2′、p3′、p4′、p0′的图像坐标也可精确提取。其中,具体如何提取p1′、p2′、p3′、p4′、p0′等所述对应像点的图像坐标,可以使用ChenD.所提出的相应的图像坐标提取方法(Chen D.、Wang Y.,A New Sub PixelDetector for Grid Target Points in Camera Calibration,Optical InformationProcessing,Proceedings of the SPIE,Volume 6027,pp.675-680,2005.C.Harris,M.Stephen,A Combined Corner and Edge Detection,in Proc.of 4th Alvey VisionConference,Manchester,UK,pp.147-151,1988)。
当上述空间坐标以及图像坐标确定后,任取空间矩形p1p2p2p4对角线p1p3上一点p,其对应的透视投影为图像对角线p1′p3′上的点p′。p′的图像坐标可通过图像处理的方法获得。于是,p1、p3、p0、p共线四点的交比定义为:
对应的p1′,p3′,p0′,p′四点的交比为:
基于共线四点的交比为透视投影不变量的结论,由共线四点交比不变的性质可得:
CR(p1,p3,p0,p)=CR(p1′,p3′,p0′,p′)
基于上式即可求得p点的空间坐标。以此类推,可以获得空间矩形p1p2p2p4对角线p1p3和p2p4上任意点的空间坐标及其对应像点的图像坐标。
根据上述得到的一定数量的衍生特征点的空间坐标及其对应的图像坐标,即可计算延伸手坐标系与辅助摄像机坐标系之间的空间转换关系。具体计算方法为:
首先建立延伸手坐标系,延伸手坐标系可根据实际情况任意建立,在本实施方案中,将延伸手上空间矩形的两条邻边作为延伸手坐标系oe-xeyeze的xe轴与ye轴,ze轴为该平面的法向,方向由右手法则定出。因此,空间矩形平面上点的坐标皆有ze=0。于是,记空间矩形平面上p点的齐次坐标为 在辅助摄像机像平面上对应的像点p′的齐次坐标为 则有如下关系:
其中,H=A[r1 r2 Tace],r1,r2分别为正交旋转矩阵Race的第一、第二列矢量,Tace为平移矢量。 为辅助摄像机内参数矩阵,αx,αy为横轴和纵轴的尺度因子,(u0,v0)为主点坐标,s为任意非零比例因子。
将获得的一个衍生特征点代入式 中消去s后,可得两个关于r1,r2和Tace的方程,分别记为f1(x)=0和f2(x)=0,其中x=(r11,r12,r21,r22,r31,r32,r1,t2,t3)。则由N个衍生特征点可得到2N个方程构成的线性超定方程组:
利用线性最小二乘法可求得r1,r2和Tace的线性解。进一步,引入Race的正交约束:
构造如下目标函数:
其中,Mi,i=1,2,...,6为任意正实数。
利用Levenberg-Marquardt非线性优化算法,并以r1,r2和Tace的线性解为初值,可求得r1,r2和Tace的最优解。进一步地,由r3=r1×r2,可求得延伸手坐标系与辅助摄像机坐标系之间的空间转换关系(Race,Tace)。
进一步的,除了使用上述基于矩形平面特征的衍生特征点生成方法外,还可以基于六边形、圆形等几何图形的平面特征提取衍生特征点,其原理与所述基于矩形平面特征的衍生特征点生成方法相似,这里不再赘述。
步骤206:由步骤201、204以及205中得到的各个空间转换关系计算得到延伸手坐标系与眼摄像机坐标系之间的空间转换关系,即实现了延伸手眼的标定。
由步骤201中得到的(Rco,Tco),步骤204中得到的(Raco,Taco),步骤205中得到的(Race,Tace),可得: 由式 计算得到最终的延伸手坐标系与眼摄像机坐标系之间的空间转换关系(Rce,Tce)。
其中,本步骤也可分成两个步骤,即:可根据步骤204与步骤205得到的所述空间转换关系计算得到延伸手坐标系与中介标定靶标坐标系之间的空间转换关系,之后,再根据计算得到的延伸手坐标系与中介标定靶标坐标系之间的空间转换关系与步骤201中所述空间转换关系计算得到最终的延伸手坐标系与眼摄像机坐标系之间的空间转换关系(Rce,Tce)。具体为:首先计算 之后,计算 从而得到(Rce,Tce),实现延伸手眼的标定。
在图2所示的延伸手眼标定方法中,步骤201可以在步骤206之前随意调整执行顺序,另外,步骤204与步骤205可以交换执行顺序,步骤202与步骤203也可以交换执行顺序。
另外,步骤202为可选步骤。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
Claims (7)
1.一种机器人延伸手眼标定方法,其特征在于,调整中介标定靶标与机器人上的眼摄像机的空间位置,将中介标定靶标充满眼摄像机视场;设置辅助摄像机,将中介标定靶标与机器人上的延伸手同时包含在辅助摄像机视场内,该方法进一步包括:
A、通过眼摄像机拍摄的包含中介标定靶标的图像,计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系;通过辅助摄像机拍摄的包含中介标定靶标和延伸手的图像,分别计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系;
B、根据计算得到的眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系,计算眼摄像机坐标系与延伸手坐标系之间的空间转换关系。
2.根据权利要求1所述的机器人延伸手眼标定方法,其特征在于,步骤B具体为:先根据计算得到的辅助摄像机坐标系与中介标定靶标坐标系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系,计算延伸手坐标系与中介标定靶标坐标系之间的空间转换关系;再根据计算得到的延伸手坐标系与中介标定靶标坐标系之间的空间转换关系、以及眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系,计算延伸手坐标系与眼摄像机坐标系之间的空间转换关系。
3.根据权利要求1所述的机器人延伸手眼标定方法,其特征在于,步骤B具体为:根据计算得到的眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系、以及延伸手坐标系与辅助摄像机坐标系之间的空间转换关系,直接计算眼摄像机坐标系与延伸手坐标系之间的空间转换关系。
4.根据权利要求1至3任一项所述的机器人延伸手眼标定方法,其特征在于,辅助摄像机拍摄图像之前进一步包括:标定并存储辅助摄像机的内参数。
5.根据权利要求1至3任一项所述的机器人延伸手眼标定方法,其特征在于,所述计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系具体为:
a1、提取所述眼摄像机拍摄的包含中介标定靶标的图像中中介标定靶标的一定数量的特征点;
b1、根据所提取的特征点相应的空间坐标及图像坐标计算眼摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。
6.根据权利要求1至3任一项所述的机器人延伸手眼标定方法,其特征在于,所述计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系具体为:
a2、提取所述辅助摄像机拍摄的包含中介标定靶标和延伸手的图像中中介标定靶标的一定数量的特征点;
b2、根据所提取的特征点相应的空间坐标及图像坐标计算辅助摄像机坐标系与中介标定靶标坐标系之间的空间转换关系。
7.根据权利要求1至3任一项所述的机器人延伸手眼标定方法,其特征在于,所述计算延伸手坐标系与辅助摄像机坐标系之间的空间转换关系具体为:
a3、使用基于矩形平面特征的衍生特征点生成方法,提取延伸手上空间矩形的一定数量的衍生特征点;
b3、根据所提取的衍生特征点相应的空间坐标及图像坐标,计算延伸手坐标系与辅助摄像机坐标系之间的空间转换关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2007101790040A CN100526024C (zh) | 2007-12-07 | 2007-12-07 | 一种机器人延伸手眼标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2007101790040A CN100526024C (zh) | 2007-12-07 | 2007-12-07 | 一种机器人延伸手眼标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101186038A true CN101186038A (zh) | 2008-05-28 |
CN100526024C CN100526024C (zh) | 2009-08-12 |
Family
ID=39478770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2007101790040A Expired - Fee Related CN100526024C (zh) | 2007-12-07 | 2007-12-07 | 一种机器人延伸手眼标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100526024C (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102294695A (zh) * | 2010-06-25 | 2011-12-28 | 鸿富锦精密工业(深圳)有限公司 | 机器人标定方法及标定*** |
CN103456016A (zh) * | 2013-09-06 | 2013-12-18 | 同济大学 | 一种视角无关的体感摄像机网标定方法 |
CN103558850A (zh) * | 2013-07-26 | 2014-02-05 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN103817699A (zh) * | 2013-09-25 | 2014-05-28 | 浙江树人大学 | 一种快速的工业机器人手眼协调方法 |
CN103925879A (zh) * | 2014-04-24 | 2014-07-16 | 中国科学院合肥物质科学研究院 | 基于3d图像传感器的室内机器人视觉手眼关系标定方法 |
CN104260112A (zh) * | 2014-09-18 | 2015-01-07 | 西安航天精密机电研究所 | 一种机器人手眼定位方法 |
CN104842371A (zh) * | 2015-05-29 | 2015-08-19 | 山东大学 | 一种基于非最小化最优化算法的机器人手眼标定方法 |
CN105451461A (zh) * | 2015-11-25 | 2016-03-30 | 四川长虹电器股份有限公司 | 基于scara机器人的pcb板定位方法 |
CN106272444A (zh) * | 2016-08-31 | 2017-01-04 | 山东中清智能科技有限公司 | 一种实现手眼关系和双机器人关系同时标定的方法 |
CN106625774A (zh) * | 2016-12-27 | 2017-05-10 | 中国科学院长春光学精密机械与物理研究所 | 一种空间机械臂几何参数标定方法 |
CN107993227A (zh) * | 2017-12-15 | 2018-05-04 | 深圳先进技术研究院 | 一种获取3d腹腔镜手眼矩阵的方法和装置 |
CN108582076A (zh) * | 2018-05-10 | 2018-09-28 | 武汉库柏特科技有限公司 | 一种基于标准球的机器人手眼标定方法及装置 |
CN109278044A (zh) * | 2018-09-14 | 2019-01-29 | 合肥工业大学 | 一种手眼标定及坐标转换方法 |
CN112171664A (zh) * | 2020-09-10 | 2021-01-05 | 敬科(深圳)机器人科技有限公司 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和*** |
CN113635311A (zh) * | 2021-10-18 | 2021-11-12 | 杭州灵西机器人智能科技有限公司 | 固定标定板的眼在手外标定方法和*** |
WO2022061673A1 (zh) * | 2020-09-24 | 2022-03-31 | 西门子(中国)有限公司 | 用于机器人的标定方法和装置 |
CN114406985A (zh) * | 2021-10-18 | 2022-04-29 | 苏州迪凯尔医疗科技有限公司 | 一种目标追踪的机械臂方法、***、设备及存储介质 |
-
2007
- 2007-12-07 CN CNB2007101790040A patent/CN100526024C/zh not_active Expired - Fee Related
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102294695A (zh) * | 2010-06-25 | 2011-12-28 | 鸿富锦精密工业(深圳)有限公司 | 机器人标定方法及标定*** |
CN103558850A (zh) * | 2013-07-26 | 2014-02-05 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN103558850B (zh) * | 2013-07-26 | 2017-10-24 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN103456016B (zh) * | 2013-09-06 | 2016-07-13 | 同济大学 | 一种视角无关的体感摄像机网标定方法 |
CN103456016A (zh) * | 2013-09-06 | 2013-12-18 | 同济大学 | 一种视角无关的体感摄像机网标定方法 |
CN103817699A (zh) * | 2013-09-25 | 2014-05-28 | 浙江树人大学 | 一种快速的工业机器人手眼协调方法 |
CN103925879A (zh) * | 2014-04-24 | 2014-07-16 | 中国科学院合肥物质科学研究院 | 基于3d图像传感器的室内机器人视觉手眼关系标定方法 |
CN104260112A (zh) * | 2014-09-18 | 2015-01-07 | 西安航天精密机电研究所 | 一种机器人手眼定位方法 |
CN104260112B (zh) * | 2014-09-18 | 2016-05-18 | 西安航天精密机电研究所 | 一种机器人手眼定位方法 |
CN104842371A (zh) * | 2015-05-29 | 2015-08-19 | 山东大学 | 一种基于非最小化最优化算法的机器人手眼标定方法 |
CN105451461A (zh) * | 2015-11-25 | 2016-03-30 | 四川长虹电器股份有限公司 | 基于scara机器人的pcb板定位方法 |
CN105451461B (zh) * | 2015-11-25 | 2018-08-14 | 四川长虹电器股份有限公司 | 基于scara机器人的pcb板定位方法 |
CN106272444B (zh) * | 2016-08-31 | 2018-11-13 | 山东中清智能科技股份有限公司 | 一种实现手眼关系和双机器人关系同时标定的方法 |
CN106272444A (zh) * | 2016-08-31 | 2017-01-04 | 山东中清智能科技有限公司 | 一种实现手眼关系和双机器人关系同时标定的方法 |
CN106625774A (zh) * | 2016-12-27 | 2017-05-10 | 中国科学院长春光学精密机械与物理研究所 | 一种空间机械臂几何参数标定方法 |
CN107993227A (zh) * | 2017-12-15 | 2018-05-04 | 深圳先进技术研究院 | 一种获取3d腹腔镜手眼矩阵的方法和装置 |
CN107993227B (zh) * | 2017-12-15 | 2020-07-24 | 深圳先进技术研究院 | 一种获取3d腹腔镜手眼矩阵的方法和装置 |
CN108582076A (zh) * | 2018-05-10 | 2018-09-28 | 武汉库柏特科技有限公司 | 一种基于标准球的机器人手眼标定方法及装置 |
CN109278044A (zh) * | 2018-09-14 | 2019-01-29 | 合肥工业大学 | 一种手眼标定及坐标转换方法 |
CN112171664A (zh) * | 2020-09-10 | 2021-01-05 | 敬科(深圳)机器人科技有限公司 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和*** |
CN112171664B (zh) * | 2020-09-10 | 2021-10-08 | 敬科(深圳)机器人科技有限公司 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和*** |
WO2022061673A1 (zh) * | 2020-09-24 | 2022-03-31 | 西门子(中国)有限公司 | 用于机器人的标定方法和装置 |
CN113635311A (zh) * | 2021-10-18 | 2021-11-12 | 杭州灵西机器人智能科技有限公司 | 固定标定板的眼在手外标定方法和*** |
CN114406985A (zh) * | 2021-10-18 | 2022-04-29 | 苏州迪凯尔医疗科技有限公司 | 一种目标追踪的机械臂方法、***、设备及存储介质 |
CN114406985B (zh) * | 2021-10-18 | 2024-04-12 | 苏州迪凯尔医疗科技有限公司 | 一种目标追踪的机械臂方法、***、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN100526024C (zh) | 2009-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100526024C (zh) | 一种机器人延伸手眼标定方法 | |
Li et al. | Adaptive trajectory tracking of nonholonomic mobile robots using vision-based position and velocity estimation | |
Elqursh et al. | Line-based relative pose estimation | |
Scaramuzza | Omnidirectional vision: from calibration to root motion estimation | |
Zheng et al. | Odometry-vision-based ground vehicle motion estimation with SE (2)-constrained SE (3) poses | |
Gennery | Least-squares camera calibration including lens distortion and automatic editing of calibration points | |
CN105091744A (zh) | 一种基于视觉传感器和激光测距仪的位姿检测装置与方法 | |
Kobayashi | A new proposal for self-localization of mobile robot by self-contained 2d barcode landmark | |
Xia et al. | Global calibration of non-overlapping cameras: State of the art | |
Xia et al. | Global calibration of multi-cameras with non-overlapping fields of view based on photogrammetry and reconfigurable target | |
CN103900504A (zh) | 纳米尺度下的实时三维视觉信息反馈方法 | |
KR20220025028A (ko) | 시각적 비콘 기반의 비콘 맵 구축 방법, 장치 | |
Mariottini et al. | An accurate and robust visual-compass algorithm for robot-mounted omnidirectional cameras | |
Zheng et al. | SE (2)-constrained visual inertial fusion for ground vehicles | |
Horanyi et al. | Generalized pose estimation from line correspondences with known vertical direction | |
Yang et al. | Aided inertial navigation: Unified feature representations and observability analysis | |
Kitanov et al. | Mobile robot self-localization in complex indoor environments using monocular vision and 3D model | |
Ren et al. | Plj-slam: monocular visual slam with points, lines, and junctions of coplanar lines | |
Yu et al. | Tightly-coupled fusion of VINS and motion constraint for autonomous vehicle | |
Casarrubias-Vargas et al. | EKF-SLAM and machine learning techniques for visual robot navigation | |
Fang et al. | A motion tracking method by combining the IMU and camera in mobile devices | |
Scaramuzza et al. | A practical toolbox for calibrating omnidirectional cameras | |
Gokhool et al. | A dense map building approach from spherical RGBD images | |
Bousaid et al. | Perspective distortion modeling for image measurements | |
Kröse et al. | Heading direction of a mobile robot from the optical flow |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090812 Termination date: 20151207 |
|
EXPY | Termination of patent right or utility model |