CN103372862B - 机器人***及其校准方法、机器人、校准装置及数码相机 - Google Patents
机器人***及其校准方法、机器人、校准装置及数码相机 Download PDFInfo
- Publication number
- CN103372862B CN103372862B CN201310122560.XA CN201310122560A CN103372862B CN 103372862 B CN103372862 B CN 103372862B CN 201310122560 A CN201310122560 A CN 201310122560A CN 103372862 B CN103372862 B CN 103372862B
- Authority
- CN
- China
- Prior art keywords
- labelling
- coordinate
- view data
- robot
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39008—Fixed camera detects reference pattern held by end effector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39022—Transform between measuring and manipulator coordinate system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/09—Closed loop, sensor feedback controls arm movement
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明涉及机器人***、机器人***的校准方法、机器人、校准装置以及数码相机,该机器人***具备:带标记的可动构件;基于控制信息在三维坐标系中控制所述可动构件的控制部;通过拍摄所述标记的可动范围来输出图像数据的数码相机;以及校准设备,其基于拍摄被控制在相互不同位置的所述标记而得的所述图像数据与所述控制信息来生成将所述图像数据的二维坐标系与所述三维坐标系建立对应的变换参数。
Description
技术领域
本发明涉及机器人***、机器人***的校准方法、机器人、校准装置以及数码相机。
背景技术
以往,公知有一边用数码相机拍摄工件,一边用臂操作工件的机器人***。为使这样的***运转,需要进行将从数码相机输出的图像数据的坐标系与控制臂的坐标系建立对应的校准。专利文献1中公开了下述技术,即通过一边在使机器人的臂把持形成了特定的图像的图案板的状态下使臂移动,一边拍摄图案板,来实施校准。
专利文献1:日本特开平4-35885号公报
但是,如专利文献1所记载那样,在使用了校准用图案板的情况下,机器人***的用户必须保管图案板,每当校准时必须准备图案板,从而比较繁琐。
发明内容
本发明的目的之一是使机器人***的校准简便。
用于实现上述目的的机器人***具备:带标记的可动构件;基于控制信息在三维坐标系中控制所述可动构件的控制部;通过拍摄所述标记的可动范围来输出图像数据的数码相机;基于拍摄被控制在相互不同位置的所述标记而得的所述图像数据与所述控制信息来生成将所述图像数据的二维坐标系与所述三维坐标系建立对应的变换参数的校准设备。
根据本发明,由于标记被标注于可动构件,因此用户不需要保管图案构件,或者不需要在每次校准时准备图案构件。由此,机器人***的校准会更简便。
在用于实现上述目的的机器人***中,所述校准设备还可以基于拍摄被控制在相互不同的6个位置的所述标记而得的所述图像数据来生成所述变换参数。
在采用了该构成的情况下,能够如下那样将所述二维坐标系与所述三维坐标系建立对应。即,当假设所述二维坐标系中的所述标记的坐标为(xi,yi)(i=1,2,...,6),所述三维坐标系中的所述标记的坐标为(Xi,Yi,Zi),m=(M11,...,M34),用下式表示所述二维坐标系与所述三维坐标系的对应关系时,
【数式1】
能够将用下式表示的矩阵的固有矢量m=(M11,...,M34)作为所述变换参数
【数式2】
Si:参数A:矩阵T:倒置。
此外,本发明作为机器人***的校准方法,作为与机器人以及数码相机独立的校准装置,作为具备校准功能的数码相机都可以成立。
附图说明
图1是本发明的实施方式的框图。
图2是本发明的实施方式的示意图。
图3是本发明的实施方式的框图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。此外,在各图中对对应的构成要素标注相同的附图标记,并省略重复的说明。
1.机器人***的构成
图1是表示本发明的机器人***100的构成的框图。机器人***100具备PC(PersonalComputer)10、机器人20和数码相机30。
机器人20具备作为可动构件的第一臂22和第二臂23,以及控制部21。第一臂22以及第二臂23分别具备多个连杆、连杆间的旋转机构、手部、多个致动器以及驱动电路。第一臂22的姿势由第一臂22所具备的多个连杆的姿势决定。即第一臂22的姿势由第一臂22所具备的各连杆的旋转机构的旋转角度θj(j=1,2,3)决定。另外,第二臂23的姿势由第二臂23所具备的各连杆的旋转机构的旋转角度θj决定。在第一臂22的连杆的表面附有标记22a。标记22a是可以光学识别的图形。控制部21是具备CPU、RAM、ROM、输入输出机构等的计算机。控制部21通过执行从PC10的输出部10c输出的命令组,来一边使用数码相机30识别工件,一边控制连杆间的旋转机构的致动器,使第一臂22以及第二臂23执行“抓住工件”,“移动工件”,“释放工件”这样的操作。另外,控制部21通过将存储于ROM的校准程序加载到RAM中并利用CPU执行,而一边从数码相机30获取图像数据,一边实施后述的校准。即,控制部21也作为校准设备发挥作用。
数码相机30被固定于可以拍摄第一臂22以及第二臂23的可动范围的位置,与控制部21按照可进行通信的方式连接。数码相机30具备:包含未图示的区域影像传感器和光学***的拍摄部;以及修正并输出从拍摄部输出的图像数据的计算机。
PC10具备CPU、RAM、ROM、输入输出机构、硬盘装置等,并与键盘12、鼠标13、显示器11等操作装置连接。PC10通过将存储于硬盘装置的机器人控制程序加载于RAM中并利用CPU执行,来作为用户界面10a以及输出部10c发挥作用。用户界面10a在显示器11上显示GUI(GraphicalUserInterface:图形用户界面),从用户获取用于机器人示教(teaching)的指令。用于机器人示教的指令通过用户操作键盘12以及鼠标13而被输入到PC10。输出部10c将用于机器人示教的指令变换为用于控制控制部21的命令组,并向控制部21输出命令组。
2.机器人***的校准
以下说明的机器人***的校准是求取将数码相机30输出的图像数据的二维坐标系与控制部21在控制第一臂22以及第二臂23时使用的三维坐标系建立对应的变换参数的处理。具体地说,在数码相机30输出的图像数据中与拍摄到的标记22a的像素的位置对应的二维坐标系的坐标被设定为(xi,yi)(i=1,2,...,6),与控制部21在控制第一臂22以及第二臂23时使用的控制信息对应的三维坐标系的坐标被设定为(Xi,Yi,Zi),当用下式(1)表示这些二维坐标系与三维坐标系的对应关系时,求取变换参数m:m=(M11,...,M34)的处理相当于校准。此外,Si与M11~M34是标量。
【数式3】
Si:参数
在此,式(1)中有M11~M34这12个未知数。若将表示相同的位置的(xi,yi)与(Xi,Yi,Zi)的1组代入到式(1),则能够消去2个未知数,因此若获取6组表示6个不同位置的(xi,yi)与(Xi,Yi,Zi),则能够经解析地求取12个未知数(M11,...,M34)。
通过求取变换参数m,能够将数码相机30所输出的图像数据的任意的坐标(x,y)变换为控制部21在控制第一臂22以及第二臂23时使用的任意的坐标(X,Y,Z),或者能够将坐标(X,Y,Z)变换为坐标(x,y)。通过求取这样的变换参数,可以一边使用数码相机30识别工件,一边使第一臂22以及第二臂23执行“抓住工件”、“移动工件”、“释放工件”这样的操作。另外,用户根据机器人20的设置环境任意地设定了针对机器人20的数码相机30的位置和姿势后,能够设定变换参数m,因此用户能够自由地设定机器人20与数码相机30的位置关系。
图2是表示由控制部21执行的机器人***的校准的流程的流程图。参照图2说明的以下的处理例如通过由PC10指示校准的开始,或者通过按压设置于机器人20的复位开关而开始。
首先,控制部21将规定为了校准而预先确定的第一臂22的6个姿势的控制信息Fi(i=1,2,...,6)从ROM读入RAM,基于控制信息F1将第一臂22控制为最初的姿势(S100)。第一臂22的姿势由第一臂22所具备的连杆间的旋转机构的旋转角度决定,因此能够用下式(2)表示。此外,虽第一臂22的旋转机构的数量为3,并将各旋转机构的旋转角度表示为θ1、θ2、θ3,但第一臂22的旋转机构的数量可以为2以下,也可以为4以上。
Fi=(θ1,θ2,θ3)…(2)
具体地说,控制部21设定i=1后,将控制信息Fi(i=1,2,…,6)从RAM读入CPU,将F1作为目标值来控制第一臂22的各旋转机构的致动器。此外,在本实施例中,校准用的控制信息Fi被预先确定,因此在由Fi确定的姿势下,必须按照能够从数码相机30看见第一臂22的标记22a的方式设定机器人20与数码相机30的位置关系,但也可以是用户在可以从数码相机30看见第一臂22的标记22a的范围内,能够设定用于校准的控制信息Fi。
然后,控制部21指示数码相机30进行拍摄,从数码相机30获取图像数据(S101)。由此,控制部21获取拍摄第一臂22的标记22a而得的图像数据。
然后,控制部21对获取到的图像数据进行解析,在图像数据的二维坐标系中检测标记22a的位置(S102)。对于标记22a的检测,能够使用公知的图案匹配等技术。对于标记22a的位置而言,例如将图像数据的4个顶点之一的像素作为原点,并假设标记22a的重心所处位置的像素的坐标(xi,yi)。控制部21存储这样计算出的二维坐标系的坐标(xi,yi)直至计算出变换参数。
然后,控制部21基于在控制第一臂22时使用的控制信息Fi,来计算标记22a的三维坐标(Xi,Yi,Zi)(S103)。标记22a的位置用第一臂22的各旋转机构的旋转角度θj、第一臂22的各旋转机构的旋转轴的相对的位置与姿势、标记22a相对于带标记22a的连杆的旋转轴的相对的位置来表示。具体地说,当带标记22a的第三连杆的位置与姿势由第一臂22所具备的3个旋转机构的旋转角度决定时,标记22a的位置由(Fi,p1,p2,p3,p4)来表示。在此。p1是固定于机器人20的非可动部分的坐标系的矢量,即是在控制第一臂22时使用的三维坐标系的矢量,表示固定于机器人20的非可动部分的第一连杆的旋转轴的位置与姿势。p2是固定于第一连杆的坐标系的矢量,表示连结第一连杆与第二连杆的旋转轴的位置与姿势。p3是固定于第二连杆的坐标系的坐标,表示连结第二连杆与第三连杆的旋转轴的位置与姿势。p4是固定于第三连杆的坐标系的坐标,表示标记22a的重心相对于连结第二连杆与第三连杆的旋转轴的位置。控制部21对这样表示的标记22a的位置进行线性变换,而变换为固定于机器人20的非可动部分的三维坐标系的坐标(Xi,Yi,Zi)。控制部21存储通过线性变换计算出的三维坐标系的坐标(Xi,Yi,Zi),直至计算出变换参数。
然后,控制部21判断对预先确定的6个姿势的上述步骤S101到步骤S103的处理是否结束(S104)。
在对预先确定的6个姿势的上述步骤S101到步骤S103的处理未结束的情况下,控制部21使i=i+1,进行自增1,基于下一控制信息Fi来控制第一臂22,再次执行从S101到S104的处理。
在对预先确定的6个姿势的上述步骤S101到步骤S103的处理结束的情况下,控制部21基于在步骤S102中检测出的二维坐标系的坐标(xi,yi)与在步骤S103中计算出的三维坐标系的坐标(Xi,Yi,Zi),计算将图像数据的二维坐标系与控制第一臂22时使用的三维坐标系建立对应的变换参数。具体而言,如下所述。
首先,式(1)能够省略地表示为下式(3)。
sixi=MXi…(3)
式(3)中存在标量倍的不定性。从式(3)中消去si,对M11~M34进行归纳,可写为下式(4)。
A(xi,Xi)m=0…(4)
在此,为
【数式4】
A:矩阵
【数式5】
m=(M11,...,M34)T…(6)
T:倒置
m相当于将图像数据的二维坐标系与在控制第一臂22时使用的三维坐标系建立对应的变换参数。
现在,考虑求取将使用在步骤S102中检测出的二维坐标系的坐标(xi,yi)和在步骤S103中计算出的三维坐标系的坐标(Xi,Yi,Zi)以下式(7)表示的函数f(m)最小化的m。
【数式6】
当使用拉格朗日的待定乘数法时,这就变为导入待定乘数λ与约束条件g(m)=0来求取用下式(8)表示的函数h(m,λ)的极值的问题。
h(m,λ)=f(m)+λg(m)…(8)
在此,为了消除不定性,将约束条件设定为∥m∥=1,若假设
g(m)=1-∥m∥2…(9)
则使函数f(m)最小化的m变为满足下式(10)的m。
【数式7】
式(10)的左边能够按下式(11)的方式进行变形。
【数式8】
由此,控制部21能够将用下式(12)表示的矩阵的固有矢量作为变换参数m来进行计算。
【数式9】
在以上说明的机器人***100的校准中,不需要用户保管在操作工件时没有使用的附带的校准用图案构件,或者不需要使机器人20的臂把持图案构件,因此机器人***100的校准简便。另外,由于不需要使机器人20的臂把持图案构件,因此在机器人20的运转中也可以实施校准。
3.其他的实施方式
此外,当然,本发明的技术的范围不限于上述的实施例,可以在不脱离本发明的要旨的范围内施以各种变更。例如,也可以在第一臂22的2个以上的连杆的表面分别标注标记。由此,能够缩短校准的所需时间。例如,在第一臂22的2个连杆的表面上分别标注标记的情况下,将第一臂22控制为3个姿势,按每个姿势获取图像数据,从而能够基于拍摄了被控制成相互不同的6个位置的标记的图像数据,使用上述的算法来计算变换参数。另外,即使在第一臂22、第二臂23的每一个上标注标记并同时使第一臂22以及第二臂23运动来实施校准,也能够缩短校准的所需时间。此外,由于标记的数量增加,即使使用上述的算法,为计算变换参数所需的图像数据是一个就足够了。
另外,由于针对数码相机的标记的自由度是6,因此作为求取变换参数用的信息,标记的6个位置信息具有冗余性。即,为了求取变换参数所需的标记的位置信息的数量由求取变换参数的数学算法来决定,可以是5以下,也可以是7以上。另外,上述的校准中使用的算法是统计手法,因此为求取变换参数所需的标记的位置信息的数量越多,则也就越能够提高校准的精度。
另外,标注标记的可动构件的种类可以是旋转运动的臂,也可以是手部,还可以是直线运动的杆、圆筒。另外,可以用光源、磁性体、热源、音源等构成标记。由磁性体构成的标记的位置使用磁传感器,由热源构成的标记使用热传感器,由音源构成的标记使用声学传感器,从而可以在二维坐标系中确定出各个的位置。
另外,可以使PC10作为机器人20和独立的校准装置发挥作用等,还可以在机器人20的外部设置校准设备。在使PC10作为校准装置发挥作用的情况下,如图3所示那样,使PC10作为控制信息获取部10d、图像数据获取部10e以及校准设备10f发挥作用的校准程序被存储于PC10的硬盘装置。在此,控制信息获取部10d获取用于控制标注了标记22a的机器人20的第一臂22的控制信息。控制信息也可以获取作为校准程序的常量预先存储在硬盘装置中的信息,也可以从机器人20的控制部21获取。在使用作为校准程序的常量预先存储在硬盘装置中的控制信息进行校准的情况下,PC10将从硬盘装置读入的控制信息Fi输出给机器人20的控制部21来控制第一臂22。图像数据获取部10e根据控制信息,从数码相机30获取拍摄了被控制在相互不同位置的标记22a而得的图像数据。校准设备10f基于拍摄标记22a而得的图像数据与控制信息来生成变换参数m,并输出给机器人20的控制部21。
另外,通过在数码相机30的CPU中执行包含这样的控制信息获取部10d、图像数据获取部10e和校准设备10f的校准程序,还可以使数码相机30作为校准装置发挥作用。
附图标记的说明:
10…PC,10a…用户界面,10a…输出部,11…显示器,12…键盘,13…鼠标,20…机器人,21…控制部,22…第一臂,22a…标记,23…第二臂,30…数码相机,100…机器人***。
Claims (7)
1.一种机器人***,其特征在于,具备:
具有第一标记的第一可动构件;
具有第二标记的第二可动构件;
控制部,其基于控制信息在三维坐标系中分别控制所述第一以及第二可动构件;
数码相机,其通过分别拍摄所述第一以及第二标记来输出图像数据;以及
校准设备,其基于分别拍摄被控制于相互不同位置的所述第一以及第二标记而得的所述图像数据和所述控制信息,来生成将所述图像数据的二维坐标系与所述三维坐标系建立对应的变换参数。
2.根据权利要求1所述的机器人***,其特征在于,
具备输出部,该输出部向所述第一以及第二可动构件的控制部输出所述变换参数。
3.根据权利要求1所述的机器人***,其特征在于,
所述校准设备基于拍摄被控制于相互不同的6个位置的所述第一以及第二标记而得的所述图像数据来生成所述变换参数。
4.根据权利要求3所述的机器人***,其特征在于,
当将所述二维坐标系中的所述第一以及第二标记的坐标设为(xi,yi),将所述三维坐标系中的所述第一以及第二标记的坐标设为(Xi,Yi,Zi),其中i=1,2,...,6,用下式表示所述二维坐标系与所述三维坐标系的对应关系时,
……数式1
将用下式表示的矩阵的固有矢量m=(M11,...,M34)作为所述变换参数
Si:参数A:矩阵T:倒置……数式2。
5.一种机器人***的校准方法,其特征在于,包含:
基于控制信息在三维坐标系中使带第一以及第二标记的第一以及第二可动构件分别移动,
通过用数码相机分别拍摄所述第一以及第二标记来获取图像数据,
基于分别拍摄被控制于相互不同位置的所述第一以及第二标记而得的所述图像数据和所述控制信息,来将所述图像数据的二维坐标系与所述三维坐标系建立对应。
6.一种机器人,其特征在于,具备:
具有第一标记的第一可动构件;
具有第二标记的第二可动构件;
控制部,其基于控制信息在三维坐标系中分别控制所述第一以及第二可动构件;以及
数码相机,其通过分别拍摄所述第一以及第二标记来输出图像数据,
所述机器人通过基于分别拍摄被控制于相互不同位置的所述第一以及第二标记而得的所述图像数据和所述控制信息来生成将所述图像数据的二维坐标系与所述三维坐标系建立对应的变换参数的校准设备进行校准。
7.一种机器人,其特征在于,具备:
控制信息获取部,其获取在三维坐标系中控制带第一以及第二标记的第一以及第二可动构件的控制信息;
图像数据获取部,其从数码相机获取拍摄被控制于相互不同位置的所述第一以及第二标记而得的图像数据;以及
校准设备,其基于分别拍摄所述第一以及第二标记而得的所述图像数据和所述控制信息,来生成将所述图像数据的二维坐标系与所述三维坐标系建立对应的变换参数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012090844A JP5928114B2 (ja) | 2012-04-12 | 2012-04-12 | ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット |
JP2012-090844 | 2012-04-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103372862A CN103372862A (zh) | 2013-10-30 |
CN103372862B true CN103372862B (zh) | 2016-06-29 |
Family
ID=49325796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310122560.XA Active CN103372862B (zh) | 2012-04-12 | 2013-04-10 | 机器人***及其校准方法、机器人、校准装置及数码相机 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9075411B2 (zh) |
JP (1) | JP5928114B2 (zh) |
CN (1) | CN103372862B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108297096A (zh) * | 2017-01-12 | 2018-07-20 | 发那科株式会社 | 校准装置、校准方法以及计算机能够读取的介质 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5713047B2 (ja) * | 2013-04-18 | 2015-05-07 | 株式会社安川電機 | 移動ロボット、移動ロボットの位置決めシステム、及び、移動ロボットの位置決め方法 |
US9157795B1 (en) * | 2013-07-16 | 2015-10-13 | Bot & Dolly, Llc | Systems and methods for calibrating light sources |
JP2015089575A (ja) * | 2013-11-05 | 2015-05-11 | セイコーエプソン株式会社 | ロボット、制御装置、ロボットシステム及び制御方法 |
JP2015174191A (ja) * | 2014-03-17 | 2015-10-05 | 株式会社安川電機 | ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法 |
CN106457562B (zh) | 2014-06-23 | 2019-09-13 | Abb瑞士股份有限公司 | 用于校准机器人的方法和机器人*** |
JP6812095B2 (ja) * | 2015-10-22 | 2021-01-13 | キヤノン株式会社 | 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法 |
TWI578269B (zh) * | 2015-12-14 | 2017-04-11 | 財團法人工業技術研究院 | 三維座標縫合方法及應用其之三維座標資訊縫合裝置 |
JP2017189856A (ja) * | 2016-04-15 | 2017-10-19 | オムロン株式会社 | アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体 |
CN105835060A (zh) * | 2016-05-23 | 2016-08-10 | 先驱智能机械(深圳)有限公司 | 控制方法、控制装置及机械手*** |
CN107571290B (zh) * | 2016-07-04 | 2020-04-28 | 北京航空航天大学 | 工业机器人末端执行器的校准装置、方法及*** |
DE102016223841A1 (de) * | 2016-11-30 | 2018-05-30 | Siemens Healthcare Gmbh | Berechnen eines Kalibrierungsparameters eines Roboterwerkzeugs |
JP6396516B2 (ja) * | 2017-01-12 | 2018-09-26 | ファナック株式会社 | 視覚センサのキャリブレーション装置、方法及びプログラム |
JP7003462B2 (ja) * | 2017-07-11 | 2022-01-20 | セイコーエプソン株式会社 | ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法 |
JP6886620B2 (ja) * | 2017-08-09 | 2021-06-16 | オムロン株式会社 | キャリブレーション方法、キャリブレーションシステム及びプログラム |
WO2019237223A1 (zh) * | 2018-06-11 | 2019-12-19 | 深圳蓝胖子机器人有限公司 | 机器人***及自动校准方法、存储装置 |
JP6740288B2 (ja) * | 2018-07-13 | 2020-08-12 | ファナック株式会社 | 物体検査装置、物体検査システム、及び検査位置を調整する方法 |
CN109129466B (zh) * | 2018-07-26 | 2021-07-20 | 清华大学 | 一种用于立体定向机器人的主动视觉装置及其控制方法 |
EP3755970A4 (en) * | 2018-09-03 | 2021-11-24 | ABB Schweiz AG | ROBOT SYSTEM MANAGEMENT METHOD AND APPARATUS |
JP6871220B2 (ja) * | 2018-11-08 | 2021-05-12 | ファナック株式会社 | 制御システム |
US11918297B2 (en) | 2019-01-10 | 2024-03-05 | Mazor Robotics Ltd. | System and method for registration between coordinate systems and navigation |
US11135025B2 (en) | 2019-01-10 | 2021-10-05 | Medtronic Navigation, Inc. | System and method for registration between coordinate systems and navigation |
US11823937B2 (en) | 2019-08-19 | 2023-11-21 | Applied Materials, Inc. | Calibration of an aligner station of a processing system |
US11370121B2 (en) | 2019-10-29 | 2022-06-28 | Mujin, Inc. | Method and system for determining poses for camera calibration |
CN111131813B (zh) * | 2019-10-29 | 2020-12-25 | 牧今科技 | 用于确定相机校准的姿态的方法、***和介质 |
US11759954B2 (en) | 2020-03-17 | 2023-09-19 | Applied Materials, Inc. | Calibration of an electronics processing system |
US20230255699A1 (en) * | 2020-06-30 | 2023-08-17 | Mazor Robotics Ltd. | Time-spaced robotic reference frames |
TWI782709B (zh) * | 2021-09-16 | 2022-11-01 | 財團法人金屬工業研究發展中心 | 手術機械臂控制系統以及手術機械臂控制方法 |
CN116277035B (zh) * | 2023-05-15 | 2023-09-12 | 北京壹点灵动科技有限公司 | 机器人的控制方法、装置、处理器及电子设备 |
CN117301078B (zh) * | 2023-11-24 | 2024-03-12 | 浙江洛伦驰智能技术有限公司 | 一种机器手视觉校准方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6300974B1 (en) * | 1997-02-28 | 2001-10-09 | Commissariat A L'energie Atomique | Process and device for locating an object in space |
CN1980775A (zh) * | 2004-05-04 | 2007-06-13 | 库卡罗伯特有限公司 | 机器人控制的光测量装置以及测量该测量装置的方法和辅助装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07120211B2 (ja) * | 1986-12-26 | 1995-12-20 | トヨタ自動車株式会社 | 知能ロボツトにおける座標合わせ方法 |
JPH02262991A (ja) | 1989-03-31 | 1990-10-25 | Mitsubishi Electric Corp | ロボット動作監視装置 |
JP2690603B2 (ja) | 1990-05-30 | 1997-12-10 | ファナック株式会社 | 視覚センサのキャリブレーション方法 |
JPH0538688A (ja) | 1991-07-30 | 1993-02-19 | Nok Corp | 産業用ロボツトシステムの座標系較正方法 |
JP3541980B2 (ja) * | 1995-03-28 | 2004-07-14 | 株式会社安川電機 | 視覚センサ付きロボットにおけるキャリブレーション方法 |
JP3402021B2 (ja) | 1995-11-07 | 2003-04-28 | 株式会社明電舎 | ロボット装置の相対位置姿勢検出方法 |
KR20060015557A (ko) * | 2003-04-28 | 2006-02-17 | 스티븐 제임스 크램톤 | 외골격을 구비한 cmm 암 |
JP3946711B2 (ja) * | 2004-06-02 | 2007-07-18 | ファナック株式会社 | ロボットシステム |
JP2006110705A (ja) * | 2004-09-15 | 2006-04-27 | Yaskawa Electric Corp | ロボットのキャリブレーション方法 |
JP4837116B2 (ja) * | 2010-03-05 | 2011-12-14 | ファナック株式会社 | 視覚センサを備えたロボットシステム |
-
2012
- 2012-04-12 JP JP2012090844A patent/JP5928114B2/ja not_active Expired - Fee Related
-
2013
- 2013-04-10 US US13/860,182 patent/US9075411B2/en active Active
- 2013-04-10 CN CN201310122560.XA patent/CN103372862B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6300974B1 (en) * | 1997-02-28 | 2001-10-09 | Commissariat A L'energie Atomique | Process and device for locating an object in space |
CN1980775A (zh) * | 2004-05-04 | 2007-06-13 | 库卡罗伯特有限公司 | 机器人控制的光测量装置以及测量该测量装置的方法和辅助装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108297096A (zh) * | 2017-01-12 | 2018-07-20 | 发那科株式会社 | 校准装置、校准方法以及计算机能够读取的介质 |
CN108297096B (zh) * | 2017-01-12 | 2020-02-07 | 发那科株式会社 | 校准装置、校准方法以及计算机能够读取的介质 |
Also Published As
Publication number | Publication date |
---|---|
JP5928114B2 (ja) | 2016-06-01 |
JP2013215866A (ja) | 2013-10-24 |
US9075411B2 (en) | 2015-07-07 |
US20130274921A1 (en) | 2013-10-17 |
CN103372862A (zh) | 2013-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103372862B (zh) | 机器人***及其校准方法、机器人、校准装置及数码相机 | |
CN103459102B (zh) | 机器人控制装置、机器人控制方法、程序和记录介质 | |
CN103302666B (zh) | 信息处理设备和信息处理方法 | |
CN103909525B (zh) | 机器人***显示装置 | |
CN104511900B (zh) | 机器人校准装置及校准方法、机器人装置及其控制方法 | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
US20150045949A1 (en) | Robot control apparatus and method for controlling robot | |
US20150045955A1 (en) | Robot control apparatus and method for controlling robot | |
CN105705302B (zh) | 用于运动学位姿误差的校准方法与结构及相应的计算机程序和计算机可读的数据存储介质 | |
CN106910223A (zh) | 一种基于凸松弛全局优化算法的机器人手眼标定方法 | |
US20120290130A1 (en) | Method to Model and Program a Robotic Workcell | |
CN109807937B (zh) | 一种基于自然场景的机器人手眼标定方法 | |
CN104057447A (zh) | 机器人拾取***以及被加工物的制造方法 | |
US20150262415A1 (en) | Image processing device, system, image processing method, and image processing program | |
JP2006329903A (ja) | 3次元計測方法および3次元計測システム | |
CN111300484B (zh) | 确定机器人的关节定位误差的方法、机器人及存储介质 | |
JP7070127B2 (ja) | ロボット制御システム | |
TW201217123A (en) | Parameters adjustment method of robotic arm system and adjustment apparatus | |
US20200378793A1 (en) | Method for calibrating a multi-sensor system using an artificial neural network | |
JP7258516B2 (ja) | キャリブレーション方法および把持システム | |
Bösemann | Advances in photogrammetric measurement solutions | |
KR102152217B1 (ko) | Vr 장비와 ar 장비간의 좌표계 일치용 지그 및 이를 이용한 물리 공간 공유 방법 | |
JP2005157784A (ja) | 小型アーティファクトを用いた運動機構の校正方法 | |
Cosenza et al. | Rgb-d vision device for tracking a moving target | |
Jeon et al. | Cost-effective calibration of collaborative robot arm with single wire encoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |