CN104608121B - 机器人、控制装置、机器人***以及控制方法 - Google Patents

机器人、控制装置、机器人***以及控制方法 Download PDF

Info

Publication number
CN104608121B
CN104608121B CN201410598525.XA CN201410598525A CN104608121B CN 104608121 B CN104608121 B CN 104608121B CN 201410598525 A CN201410598525 A CN 201410598525A CN 104608121 B CN104608121 B CN 104608121B
Authority
CN
China
Prior art keywords
robot
calibration
carried out
control
jth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410598525.XA
Other languages
English (en)
Other versions
CN104608121A (zh
Inventor
山口如洋
石毛太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN104608121A publication Critical patent/CN104608121A/zh
Application granted granted Critical
Publication of CN104608121B publication Critical patent/CN104608121B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39012Calibrate arm during scanning operation for identification of object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39343Force based impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39394Compensate hand position with camera detected deviation, new end effector attitude
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/27Arm part
    • Y10S901/28Joint

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明提供机器人、控制装置、机器人***以及控制方法。机器人在第i(i为自然数)个作业后进行与第i个作业不同的第i+1个作业,第j(j为满足j≠i的自然数)个作业后进行与第j个作业不同的第j+1个作业,在第i个作业后,不变更第i个作业的作业时的与机器人的关节中的校正相关的信息,而进行第i+1个作业,在第j个作业后进行机器人校准,在进行完机器人校准后进行第j+1个作业。

Description

机器人、控制装置、机器人***以及控制方法
技术领域
本发明涉及机器人、控制装置、机器人***以及控制方法等。
背景技术
在目前的机器人的校准中,通过确定进行作业的位置、姿势,来实现目前该位置、姿势中的高精度的定位。若改变使机器人进行的作业,则由于需要根据该作业来实现高精度的定位,因此需要再次进行校准。例如,在使一台机器人进行10种作业的情况下,需要进行10次校准。因此,若每次作业改变时都要严格地进行校准,则需要非常多的时间。
因此,例如如专利文献1中所记载的那样,考虑使用视觉伺服,以便即使不严格地进行校准(即,即便是简单的校准),也高精度地控制臂的位置姿势。在严格地进行校准的情况下,有时也会花费一整天,相对于此,若是简单的校准,则有时在1小时以内结束。因此,通过使用视觉伺服能够缩短校准所花费的时间。
专利文献1:日本特开2003-311670号公报
然而,在多品种制造的现场中,使机器人进行的作业数量较多,而频繁地改变这些作业。因此,即便是简单的校准,在每次改变使机器人进行的作业时进行校准的情况下,时间、工时变多,从而阻碍多品种制造的现场中的生产性。
发明内容
本发明的一实施方式涉及一种机器人,该机器人在第i(i为自然数)个作业后进行与上述第i个作业不同的第i+1个作业,在第j(j为满足j≠i的自然数)个作业后进行与上述第j个作业不同的第j+1个作业,该机器人在上述第i个作业后,不变更上述第i个作业的作业时的与机器人的关节中的校正相关的信息而进行上述第i+1个作业,在上述第j个作业后进行机器人校准,在进行完上述机器人校准后该机器人进行上述第j+1个作业。
在本发明的一实施方式中,即便是在所给予的作业后进行不同的作业的情况,在不需要进行校准的情况下,不进行校准。因此,即便是现有方法中每次改变作业时都需要进行校准的多品种制造的情况,也能够降低与校准相关的处理负荷,提高生产性。
另外,在本发明的一实施方式中,也可以在上述第i个作业后,通过在从第一姿势向与上述第一姿势不同的第二姿势移动期间多次拍摄被拍摄物来进行上述第i+1个作业。
由此,通过多次拍摄被拍摄物,能够进行与第i个作业不同的第i+1个作业等。
另外,在本发明的一实施方式中,也可以包括设置有力觉传感器的末端执行器,在上述第i个作业后,通过在从第一姿势向与上述第一姿势不同的第二姿势移动期间使上述末端执行器与物体接触,来进行上述第i+1个作业。
由此,通过使设置有力觉传感器的末端执行器与物体接触,能够进行与第i个作业不同的第i+1个作业等。
另外,本发明的其他实施方式涉及一种控制装置,其使机器人动作,该机器人在第i(i为自然数)个作业后进行与上述第i个作业不同的第i+1个作业、在第j(j为满足j≠i的自然数)个作业后进行与上述第j个作业不同的第j+1个作业,使上述机器人在上述第i个作业后,不变更上述第i个作业的作业时的与机器人的关节中的校正相关的信息而进行上述第i+1个作业,在上述第j个作业后进行机器人校准,在进行完上述机器人校准后使上述机器人进行上述第j+1个作业。
在本发明的其他实施方式中,即便是在所给予的作业后进行不同的作业的情况,在不需要进行校准的情况下,不进行校准。因此,即便是现有方法中每次改变作业时都需要进行校准的多品种制造的情况,也能够降低与校准相关的处理负荷,提高生产性。
另外,本发明的其他实施方式涉及一种机器人***,其包括机器人,该机器人在第i(i为自然数)个作业后进行与上述第i个作业不同的第i+1个作业、在第j(j为满足j≠i的自然数)个作业后进行与上述第j个作业不同的第j+1个作业,上述机器人在上述第i个作业后,不变更上述第i个作业的作业时的与机器人的关节中的校正相关的信息而进行上述第i+1个作业,在上述第j个作业后进行机器人校准,在进行完上述机器人校准后该机器人进行上述第j+1个作业。
在本发明的其他实施方式中,即便是在所给予的作业后进行不同的作业的情况,在不需要进行校准的情况下,不进行校准。因此,即便是现有方法中每次改变作业时都需要进行校准的多品种制造的情况,也能够减少与校准相关的处理负荷,提高生产性。
另外,本发明的其他实施方式涉及一种控制方法,其是机器人的控制方法,该机器人在第i(i为自然数)个作业后进行与上述第i个作业不同的第i+1个作业、在第j(j为满足j≠i的自然数)个作业后进行与上述第j个作业不同的第j+1个作业,在该控制方法中,使上述机器人在上述第i个作业后,不变更上述第i个作业的作业时的与机器人的关节中的校正相关的信息而进行上述第i+1个作业,在上述第j个作业后进行机器人校准,在进行完上述机器人校准后使上述机器人进行上述第j+1个作业。
在本发明的其他实施方式中,即便是在所给予的作业后进行不同的作业的情况,在不需要进行校准的情况下,不进行校准。因此,即便是现有方法中每次改变作业时都需要进行校准的多品种制造的情况,也能够降低与校准相关的处理负荷,提高生产性。
这样,根据本发明的几个实施方式,能够提供即便在所给予的作业后进行不同的作业的情况下,也根据状况跳过校准,从而降低与校准相关的处理负荷的机器人、控制装置、机器人***以及控制方法等。
附图说明
图1是本实施方式所涉及的机器人的构成例。
图2是本实施方式所涉及的机器人的其他构成例。
图3是本实施方式所涉及的机器人的详细的构成例。
图4是包括拍摄部的机器人***的配置的例子。
图5是相机校准的概念图。
图6是相机校准中的坐标系的关系图。
图7是说明校准的流程的图。
图8是说明本实施方式的处理的流程图。
图9是力控制的例子。
具体实施方式
以下,对本实施方式进行说明。此外,以下说明的本实施方式并不过度地限定权利要求书中所记载的本发明的内容。另外,在本实施方式说明的全部结构未必都是本发明的必须构成要件。
1.本实施方式的方法
首先对本实施方式的方法进行说明。在由机器人进行作业的情况下,机器人的定位精度、即能够多准确地使钳爪(手)等移动至目标位置姿势对所进行的作业造成较大的影响。理想情况下,若确定了机器人的模型(model),则能够根据该模型唯一地求出钳爪位置姿势。这里的模型是指例如设置于两个关节之间的框架(连杆)的长度、关节的构造(关节的旋转方向、是否有偏移等)等信息。
然而,机器人中包括各种误差。具体而言,在机器人的误差要因中考虑几何学的误差要因、非几何学的误差要因,前者是连杆的长度的偏差等,后者是因重力导致的弯曲等。由于上述误差要因,在进行使机器人获取所给予的姿势的控制(例如确定各关节的角度的控制)的情况下,在机器人基准坐标系(理想的空间)中的钳爪位置与在机器人钳爪坐标系(实测空间)中的钳爪位置成为不同值。
对此,对基于上述误差要因的偏差进行修正的机器人校准被广泛使用。机器人校准是指,用户根据制造商手册等,通过利用示教等使机器人动作来校正机器人的关节的情况,不包括机器人自身进行判断且机器人自身运动来校正机器人自身的关节的情况。对机器人校准的详细内容稍后叙述,但只要进行求出例如机器人基准坐标系与机器人钳爪坐标系的对应关系的处理即可。若知道如何在两个坐标系(空间)之间进行转换,就能够知道关节角等控制参数与机器人钳爪坐标系的对应关系,因此能够准确地求出,进行什么样的机器人控制时,机器人的钳爪实际上(在实测空间中)移动到什么位置。
然而,机器人钳爪坐标系与机器人基准坐标系的对应关系(例如进行坐标转换的行列等转换参数)一般根据位置而不同。例如,若是以因重力导致的弯曲为误差要因的误差,则将臂伸得较长的情况相比将臂折叠得较短的情况,臂会弯曲得更大,所以误差变得较大。即,若臂的状态以及由该状态确定的钳爪位置发生变化,则误差发生变化,表示该误差的两个坐标系的对应关系也发生变化。
因此,考虑到作为机器人的钳爪位置而不同的N个点的位置(广义上为N个区域),若对其全部以高精度进行校准,则基本需要预先生成、存储N个转换参数。由于机器人的钳爪能够获取非常多的位置,所以以高精度来执行与所有的钳爪位置的情况都能够对应的校准是不现实的。
作为结果,即便是现有的机器人在出厂前也由机器人制造商进行了机器人校准,但在该机器人被用户设置于作业环境后,需要再次由用户进行机器人校准。具体而言,进行有如下处理,即在确定用户所期望的作业下的钳爪位置,并以高精度求出修正该钳爪位置的误差的转换参数。然而,机器人校准要求专业的知识,特别对于使用户以高精度(例如使校准后的误差为mm以下的级别的精度)进行校准而言,负担较大。
即,若为现有方法,则除了对相同的对象物继续进行相同的作业的情况之外,必然需要进行高精度的校准。因此,本申请人提出一种例如使用通过拍摄部的多次拍摄而进行的控制(广义上为视觉伺服控制),从而根据状况不进行(跳过)校准的方法。与人们能够边用眼睛观察作业状况边微调臂、手的动作相同,在视觉伺服控制中反馈对拍摄图像的图像处理结果,因此即便偏离目标位置,也能够识别并修正该偏差。通常,若跳过校准则产生偏差(难以以高精度使钳爪移动至目标位置),但通过利用视觉伺服控制能够修正该偏差。
另外,在专利文献1存在如下记载,即“即便不严格地进行校准,也能够准确且迅速地控制机器人臂的位置姿势”。然而,这被考虑为在进行校准时,即便精度较低亦可这一宗旨的记载,不能说明确地启示了跳过校准本身。
并且,本申请人假设了一种能够使用各种工具对各种工件执行各种作业的通用性高的机器人。作为结果,本申请人假设的机器人可用于多品种制造(狭义上为每个品种少量制造)。若改变作业的对象物,则作业台等作业环境也会发生变化,作业位置(作业时的钳爪位置)也发生变化。因此,如上所述,假设在作业发生变化的情况下,依靠此前的校准结果得不到足够的精度。在现有方法中,在这种情况下,必然需要执行再次的校准,因此在进行多品种制造的机器人中,与校准相关的负担非常重。
根据以上的点,本申请人提出一种机器人,该机器人在第i(i为自然数)个作业后进行与第i个作业不同的第i+1个作业,在第j(j为满足j≠i的自然数)个作业后进行与第j个作业不同的第j+1个作业,在第i个作业后,不变更第i个作业的作业时的与机器人的关节中的校正相关的信息而进行第i+1个作业,在第j个作业后进行机器人校准,在进行完机器人校准后进行第j+1个作业。例如,也可以是进行至少包括两种以上的作业的多个作业的机器人,如图1所示,其包括机器人机构300(若为图1的例子则是指臂310与末端执行器319)、机器人控制部100,机器人控制部100在多个作业中的第k(k为自然数)个作业后,进行与第k个作业不同的第k+1个作业的情况下,当不需要校准时,不进行校准,而是通过在机器人作业中利用拍摄部进行多次拍摄的机器人控制来进行第k+1个作业,当需要校准时,在进行完校准后,通过在机器人作业中利用拍摄部进行多次拍摄的机器人控制来进行第k+1个作业。
这里,i为自然数,在机器人的作业由第一个作业~第N(N2以上的整数)个作业构成的情况下,i为满足1≤i≤N-1的整数。另外,在自然数s与自然数t满足s<t的关系的情况下,在时间顺序上,第t个作业比第s个作业后执行。即,第i+1个作业是比第i个作业在时间顺序上后执行的作业,狭义上,第i+1个作业是接着第i个作业而进行的作业。另外,对这一点而言,自然数j、k也同样。
另外,多个作业的各作业是机器人反复进行的作业,处理前工序、处理工序、处理后工序这一系列的流程是一个作业。处理前工序是在处理工序前进行的工序,例如,是使在处理工序中所使用的工件从该工件的第一载置区域移动至作业台等作业空间的工序。作为第一载置区域中的工件的载置方法,具有例如托盘放置、随意放置、容器放置等。处理工序是对在处理前工序中移动的工件进行处理的工序。在工件为2个以上的情况下,在处理工序中,进行例如组装工件、将一方的工件嵌合于另一方的工件、以及将一方的工件***另一方的工件这样的处理。另外,进行例如使用螺钉等固定件来使工件彼此结合这样的处理。另一方面,在工件为一个的情况下,在处理工序中,进行例如弯曲该工件这样的处理。处理后工序是在处理工序后进行的工序,是将例如组装2个以上的工件而成的组装品、使用螺钉来使工件彼此结合而成的结合品等处理工序中的完成品载置于第二载置区域的工序。此外,在本实施方式中,例如仅在组装工件、将一方的工件嵌合于另一方的工件这样的处理的情况下,不相当于一个作业。
对第i个作业与第i+1个作业而言,处理前工序、处理工序、处理后工序的任一个工序内容的至少一部分不同。例如,在处理工序中包括“组装工件”的处理的作业、与在处理工序中包括“将一方的工件嵌合于另一方的工件”的处理的作业被认为是不同的作业。另外,“将随意放置的工件A与工件B组装,并载置于第二载置区域”的作业、与“将随意放置的工件A和工件B与种类不同的工件C组装,并载置于第二载置区域”的作业被认为是不同的作业。并且,即便是在处理工序中包括“使用螺钉来使工件彼此结合”的处理的作业,在例如被结合的工件不同的情况下、或者在虽然被结合的工件相同、但***螺钉的位置不同情况下,也是不同的作业。
另外,在从第一姿势向与该第一姿势不同的第二姿势移动期间多次拍摄被拍摄物的机器人的动作也可以通过视觉伺服控制来实现。视觉伺服控制是对来自拍摄部的拍摄图像与表示作业的目标状态的参照图像(目标图像)进行比较处理,并进行使两个图像的差别变小的反馈控制的控制。通过进行视觉伺服控制能够逐渐地使目前的状态(拍摄图像中所拍摄的状态)与目标状态接近,最终实现目标状态。在视觉伺服控制中,逐渐更新关节角等参数,以使得接近目标状态。与位置控制那样使参数向固定的目标值变化的方法不同,能够边观察目前的状态边使参数向适当的方向接近,因此能够以高精度进行定位。但是,作为利用拍摄部进行多次拍摄的机器人控制并不局限于视觉伺服控制。例如,也可以是根据基于模式匹配的识别的机器人控制。
通过这种方式,在第i个作业后,进行与该第i个作业不同的第i+1个作业的情况下,也能够实现适当的机器人控制。从第i个作业向第i+1个作业的变化时机是处理前工序、处理工序、处理后工序中的任一工序中的内容发生变化的时机,是若直接使用至此为止的与机器人的关节相关的校正信息(这是校准结果,例如也可以是表示在第i个作业中使用的机器人基准坐标系与机器人钳爪坐标系的对应关系的转换参数),则精度中有可能产生问题的时机。在该情况下,在现有方法中,必然只好执行校准,但在本实施方式的方法中,能够跳过校准。
在跳过校准的情况下,由于例如直接使用此前求出的校准的结果,因此产生误差的可能性较高,但在本实施方式中,利用例如视觉伺服控制来吸收该误差。在多品种少量生产的现场中,高频率地发生作业变更的情况、即若为现有方法则再次进行校准的情况,但若为本实施方式的方法则能够省略校准,因此能够降低处理负荷。
例如,本实施方式所涉及的机器人也可以包括设置有力觉传感器的末端执行器,在第i个作业后,至少在从第一姿势向与第一姿势不同的第二姿势移动期间使末端执行器与物体接触,从而进行第i+1个作业。
这里,使设置有力觉传感器的末端执行器与物体接触的机器人的动作也可以通过例如将作用于机器人的末端执行器的外力作为力觉值而检测的阻抗控制等力控制来实现。例如,在考虑如图9所示那样将由末端执行器把持的物体OB嵌入孔部HL的作业的情况下,若为位置控制则预先取得与孔部HL的位置相关的信息,使机器人的臂移动以使得与该位置对准。因此,在省略机器人校准从而在钳爪位置产生误差的情况下,无法将物体OB适当地嵌入孔部HL。关于这一点,若根据力控制,则如图9所示,在粗定位后,试探着进行对位,从而也能够将物体OB嵌入孔部HL。即,即便定位本身精度或多或少比较低,也能够完成作业,因此能够不变更第i个作业的作业时的机器人的关节中的校正信息而进行第i+1个作业。
此外,以下对省略机器人校准时使用视觉伺服控制的情况进行说明。然而,也可以通过视觉伺服控制以外来实现多次拍摄被拍摄物,还可以首先不对被拍摄物进行多次拍摄,而如使设置有力觉传感器的末端执行器与物体接触的机器人的动作那样,通过使用其他方法来实现机器人校准的省略,以下的说明能够考虑为对上述方法的扩展。
此外,是否需要校准可以由用户判断,也可以在机器人侧自动地判断。若是用户,则能够通过目视等容易地判断机器人是否进行所希望的动作等,因此机器人通过后述的接口部600等获取判断结果,并根据该判断结果进行校准的跳过或执行即可。或者,机器人也可以通过取得拍摄图像、传感器信息,来自动判定自身是否正在进行用户所希望的动作。机器人自动判定是否需要校准的方法稍后叙述。另外,也可以如机器人自动判定后将结果告知用户,并将最终的判断交由用户的情况那样,由用户与机器人双方进行判定。
以下,在对本实施方式所涉及的机器人以及控制装置等详细的***构成例进行了说明后,对校准的详细内容进行说明。具体而言,说明上述机器人校准的详细内容、以及对相机进行的相机校准。最后,说明从机器人出厂前到设置、实际的作业等各阶段中的校准的流程。
2.***构成例
示出本实施方式所涉及的机器人的***构成例。如图1所示,本实施方式的机器人包括机器人控制部100和机器人机构300。在图1的例子中,机器人机构300包括臂310、和设置于该臂310的前端等的末端执行器319。这里的末端执行器319可以是把持工件的手,也可以是安装于臂310的工具等。
但是,本实施方式所涉及的机器人的构成例并不限定于图1。例如,如图2所示,机器人也可以包括机器人机构300、基座单元部400。图2所示的机器人机构300除了包括相当于头部、躯体的部分之外,还包括第一臂310和第二臂320。在图2中,第一臂310由关节311、313、和设置于关节之间的框架315、317构成,第二臂320也是同样的结构,但并不限定于此。此外,在图2中示出具有2条臂的双臂机器人的例子,但本实施方式的机器人也可以具有3条以上的臂。
基座单元部400设置于机器人机构300的下部,并支承机器人机构300。在图2的例子中,在基座单元部400设置有车轮等,成为机器人整体可移动的结构。但是,基座单元部400也可以是不具有车轮等,而固定于地板面等的结构。在图2的机器人中,在基座单元部400储存有控制装置(机器人控制部100),从而机器人机构300与控制装置作为一体而构成。
另外,如图2所示,本实施方式所涉及的机器人也可以包括设置于头部的全域相机Gcam。在图2的例子中,假设Gcam是立体相机。而且,在图2中,作为末端执行器319记载了具有指构造的把持部,但作为末端执行器319也可以使用手眼相机Hcam。或者,也可以在一个臂设置把持部和手眼相机Hcam双方。
除此之外,本实施方式的机器人所包括的机器人机构的结构也可以进行各种变形实施。
图3中示出本实施方式所涉及的机器人的详细的***构成例。如图3所示,机器人包括机器人控制部100、存储部200、机器人机构300以及接口部600。
存储部200为机器人控制部100等的工作区域,且其功能能够通过RAM等存储器、HDD(硬盘驱动器)等来实现。而且,存储部200存储表示校准的结果的与机器人的关节的校正相关的信息(例如校准信息)。这里,机器人的关节是指包括有驱动机器人的促动器的部分。
这里的与机器人的关节的校正相关的信息只要是如上述那样表示校准的结果的信息即可,其形式是任意的。例如,若为理想的机器人模型,则在所给予的关节角为x度时,机器人的钳爪位置成为所希望的位置,但作为校准的结果,可知在实际的机器人中,在该关节角为x’度时,机器人的钳爪位置成为所希望的位置。在该情况下,能够通过使关节角从理想的值偏离x’-x来进行所希望的控制,因此该偏差量成为与校正相关的信息。
根据以上的点,在通过本实施方式的方法跳过校准的情况下,自然流用以前的校准的结果。即,预先将校准信息储存在存储部200,机器人控制部100在第i+1个作业中不需要校准的情况下,使用在第i个作业中使用的校正信息(校准信息)来进行第i+1个作业。
接口部600受理来自用户的信息输入。这里所受理的信息输入也可以是关于是否需要校准的信息。在该情况下,机器人控制部100基于对接口部600的信息输入来判断是否需要校准。
例如,也可以在机器人控制部100进行是否需要校准的自动判定,将其结果作为参考信息来告知,并将最终的判断交由用户。在该情况下,接口部600从用户受理执行校准、不执行校准的信息输入,并根据该输入判断是否需要校准。此外,针对关于是否需要校准的自动判定的方法的例子稍后叙述。另外,接口部600也可以从用户受理执行校准、不执行校准的信息输入,而在机器人控制部100不进行自动判定。这里的接口部600例如由图1所示的操作部610、显示部620等实现。
此外,在视觉伺服控制所使用的拍摄部(广义上是为了机器人控制而在机器人作业中进行多次拍摄的拍摄部)也可以是安装于机器人的拍摄部。具体而言,也可以将上述的Gcam、Hcam用于视觉伺服控制。但是,也可以不将机器人所包括的Gcam、Hcam用于视觉伺服控制,而利用设置于机器人的外部的拍摄部。在该情况下,通过包括取得视觉伺服用的拍摄图像的拍摄部的机器人控制***,来实现本实施方式的方法。
另外,本实施方式的方法能够应用于如下控制装置:使在第i(i为自然数)个作业后进行与第i个作业不同的第i+1个作业、在第j(j为满足j≠i的自然数)个作业后进行与第j个作业不同的第j+1个作业的机器人动作的控制装置,该控制装置使机器人在第i个作业后,不变更第i个作业的作业时的机器人的关节中的校正信息,而进行第i+1个作业,在第j个作业后进行机器人校准,并在进行完机器人校准后使机器人进行第j+1个作业。
这里的控制装置是设置于机器人的外部的装置,例如,在图3所示的机器人中,也可以是包括机器人控制部100、存储部200以及接口部600的装置。
另外,本实施方式的方法能够应用于如下机器人***:该***包括在第i(i为自然数)个作业后进行与第i个作业不同的第i+1个作业、在第j(j为满足j≠i的自然数)个作业后进行与第j个作业不同的第j+1个作业的机器人,机器人在第i个作业后,不变更第i个作业的作业时的机器人的关节中的校正信息,而进行第i+1个作业,在第j个作业后进行机器人校准,在进行完机器人校准后进行第j+1个作业。
这里的机器人***例如也可以是包括机器人、上述控制装置的***。或者,机器人***除了包括机器人之外,还可以包括控制装置以外的设备。
具体而言,本实施方式的方法能够应用于进行至少包括两种以上的作业的多个作业的机器人控制***,该机器人控制***包括机器人机构300、机器人控制部100以及在机器人的作业中进行多次拍摄的拍摄部500,机器人控制部100在多个作业中的第k个作业后,进行与第k个作业不同的第k+1个作业的情况下,当不需要校准时,不进行校准,而通过拍摄部500的多次拍摄的机器人控制来进行第k+1个作业,当需要校准时,在进行完校准后,通过拍摄部500的多次拍摄的机器人控制来进行第k+1个作业。
该情况下的拍摄部500的配置例如图4所示。在图4的例子中,作为拍摄部500设置有第一拍摄部500-1、第二拍摄部500-2,第一拍摄部500-1与第二拍摄部500-2均放置在作业台上。但是,拍摄部500并不限定于图4的例子,也可以变更所配置的位置、个数等。
3.校准
接下来对本实施方式中的校准的详细内容进行说明。作为校准,考虑机器人校准、和相机校准。另外,作为校准,存在精度为μm以下的严格的的校准、精度为mm单位的简单的校准,在本实施方式中,可以是任意的校准。严格的校准由具有专业知识的用户(***集成商等)进行,或者由没有专业知识的用户花费更多的工时来进行,相对于此,对简单的校准而言,即便是没有专业知识的用户也能够通过比较少的工时实现。以下,对各校准的详细内容进行说明。
3.1机器人校准
首先对机器人校准进行说明。机器人校准如上所述那样是求出机器人基准坐标系(理想的空间)与机器人钳爪坐标系(实测空间)的对应关系的处理。
机器人基准坐标系与机器人钳爪坐标系的偏差因如上所述几何学的误差要因与非几何学的误差要因而产生。几何学的误差要因是机器人机构300的要素加工时的制作误差、组装时的尺寸误差等,具体而言,除上述连杆长度之外,还考虑设定于连杆上的邻接关节间的位置与扭转角的偏差、各关节角的偏移值的偏差等。另外,作为非几何学的误差要因,除上述的因重力等导致的弯曲之外,还考虑齿轮间的传递误差、齿轮中的齿隙等。
在进行机器人校准中,只要求出使用实际的机器人使钳爪位置向机器人钳爪坐标系所给予的位置移动的情况下的、各关节角的值(或着驱动各关节的促动器的驱动量等)即可。若确定各关节角的值,则根据机器人的模型求出机器人基准坐标系下的钳爪位置(理想的情况下的钳爪位置),因此能够求出机器人钳爪坐标系与机器人基准坐标系的对应关系。
因此,需要通过某些方法求出关节角与钳爪位置的组。作为一个例子,只要制作高精度的定位夹具,使钳爪位置与该夹具对准即可。若这样做,则与夹具对准时的钳爪位置已知,因此,若读取此时的关节角的值,则能够求出钳爪位置与关节角的组。或者,也可以以成为所给予的关节角的方式进行控制,并测定此时的钳爪的三维位置。具体而言,通过使用超声波的距离测定方法、使用测量仪的方法、在钳爪设置LED等来检测该LED并测量的方法、以及使用机械式的三维测定器的方法等来求出钳爪位置即可。在该情况下,关节角是已知的,因此使该关节角与测定出的钳爪位置成为组即可。
3.2相机校准
接下来对针对相机的校准即相机校准进行说明。相机校准是如图5所示那样将现实世界的相机与相机模型建立对应的处理。若准确地建立该对应,则基于拍摄图像,能够运算在该拍摄图像中所拍摄的被拍摄体的现实空间中的三维位置等。
例如,在图2所示的全域相机Gcam等中,存在对配置在作业台上的工件等对象物进行识别处理来识别该对象物的位置(狭义上为相对于机器人的相对位置)的情况。在该情况下,考虑使末端执行器319向识别的位置移动而进行作业等,所以为了高精度地进行作业,需要根据拍摄图像高精度地运算位置,因此需要进行相机校准。
通过相机校准求出的对象是在拍摄到所给予的被拍摄体的情况下对该被拍摄体在图像上的位置姿势(包括尺寸)造成影响的要素,能够分为外部参数和内部参数。
外部参数是表示相机被配置的位置姿势的参数,例如是透镜的中心位置的坐标、透镜的光轴的方向。另外,内部参数是若确定相机则与配置位置无关地被确定的参数,例如考虑焦点距离、图像中心、图像尺寸(像素尺寸)、畸变像差系数等。
上述信息在设计时被设定。例如,若是图2的全域相机Gcam,则相对于机器人的位置(例如在机器人基准坐标系中的坐标值)、光轴的方向是已知的,根据相机的规格,焦点距离等信息也是已知的。然而,与机器人校准的机器人模型相同,上述是理想的状况下的值,且可能产生误差,因此需要相机校准。
相机校准能够考虑为如图6所示那样求出世界坐标系与图像坐标系的关系的处理,若求出世界坐标系与相机坐标系的关系、以及相机坐标系与图像坐标系的关系,则能够运算世界坐标系与图像坐标系的关系。上述外部参数是表示世界坐标系与相机坐标系的关系的参数,内部参数是表示相机坐标系与图像坐标系的关系的参数。
具体而言,拍摄几何学的特性以及光学的特性已知的对象物,并将对象物固有的特征与图像特征建立对应。该对应建立能够通过例如将特征点在整体坐标系中的坐标值、和与该特征点对应的图像坐标系中的坐标值建立对应的处理等来实现。然后,基于相机模型来推断参数。对于更具体的方法而言,已知各种方法来作为相机校准,本实施方式中的相机校准能够广泛地应用上述方法,因此省略详细的说明。
针对本实施方式所使用的拍摄部中的、图2所示的全域相机Gcam、手眼相机Hcam,如上所述,有可能用于物体的位置识别等。因此,针对Gcam、Hcam,需要对外部参数和内部参数双方进行相机校准。
另一方面,图4所示的机器人***的拍摄部500是视觉伺服用的拍摄部。在视觉伺服控制中,只要能够进行目标图像与拍摄图像的比较即可,原理上不需要求出拍摄图像中所拍摄的被拍摄体的三维位置。因此,也可以不对外部参数进行相机校准。相对于此,若透镜等发生变化,则导致被拍摄体的观察方法发生变化,所以需要预先求出内部参数。即,对如拍摄部500那样,明确视觉伺服用而不用于位置识别等的拍摄部而言,进行以内部参数为对象的相机校准即可。在本说明书中,为了与以外部参数和内部参数双方为对象的校准区别,将以内部参数为对象的校准记作第二相机校准。
即设置于机器人的相机与视觉伺服用的机器人***的拍摄部500的校准以其他视角进行。因此,在视觉伺服控制所使用的拍摄部500的透镜变更了的情况下,机器人控制部100无论是否需要校准(机器人校准、或以外部参数和内部参数双方为对象的相机校准),均进行对拍摄部500的第二校准(第二相机校准)。这里,作为进行第二相机校准的条件而举出透镜的变更是由于,第二相机校准以内部参数为对象,内部参数如上所述包括焦点距离等取决于透镜的信息。
另外,在将相机校准自动化的情况下,在机器人侧执行上述顺序。若对内部参数的校准进行说明,则例如将以多个姿势对作为几何学的特性以及光学的特性已知的对象物而描绘了所给予的图案的棋盘(checkerboard)进行拍摄,来求出各图像的特征点信息的对应的处理自动化即可。具体而言,利用机器人的末端执行器319(狭义上为手等把持部)把持棋盘,并在该状态下移动机器人机构300使棋盘处于各种姿势而由拍摄部进行拍摄。若预先设定此时的机器人机构300的动作,则能够将相机校准自动化。但是,与机器人校准相同,开始校准的指示(例如由用户在接口部600按下开始按钮而进行的指示)需要由用户进行。
4.校准的流程
分阶段说明以何种流程进行针对本实施方式所涉及的机器人的校准。此外,图8是机器人(机器人控制部100)的处理流程,但图7是对校准的流程进行说明的图,也包括由用户进行的行为,因此不是表示机器人的处理流程。
如图7所示,在与机器人出厂前对应的STEP0中,由机器人的制造商进行机器人校准和相机校准。这里的校准是在机器人向作业空间设置前进行的校准,因此也记作设置前校准。即,设置前校准是机器人校准以及相机校准。
设置前校准中的相机校准是对设置于机器人的拍摄部(Gcam、Hcam)的校准,以外部参数和内部参数双方为对象。即便是现有的机器人也进行设置前校准。另外,存储部200将设置前校准的结果作为校准信息进行存储。
在进行了设置前校准后,进行机器人的出厂,在STEP1中将机器人设置于工厂等动作位置。然后,在执行机器人的动作之前,在STEP2中执行用于在视觉伺服控制的相机的相机校准。这里的相机校准是如上所述那样以内部参数为对象的第二相机校准。这里,将第二相机校准与设置前校准分开是因为假设机器人与视觉伺服用的拍摄部500分别销售的情况。在该情况下,机器人制造商无法进行第二相机校准,因此第二相机校准是在设置后由用户进行的。或者,即便机器人制造商与视觉伺服用的拍摄部500一起进行销售,也存在使用户准备透镜,或者能够由用户自由更换透镜的情况。在该情况下,机器人制造商也无法进行与内部参数相关的校准,因此第二相机校准由用户进行。即,若作为视觉伺服用的拍摄部500而直接使用制造商准备好的包括透镜在内的部分,则也可以在STEP0由制造商进行第二相机校准。
而且,在STEP3中,实际上使机器人动作。在本实施方式中,由于进行例如视觉伺服控制,因此认为即便跳过设置后的校准,而直接使用设置前校准的结果也能够进行高精度的定位。
即,存储部200预先将在机器人向作业空间设置前进行的设置前校准的结果作为校准信息进行存储。然后,机器人控制部100在多个作业中的第一作业中,不进行校准,而读出存储于存储部200的校准信息,并通过在机器人作业中利用拍摄部(狭义上为图4的拍摄部500)进行多次拍摄的机器人控制来进行第一作业。
具体而言,这里的第一作业是在机器人设置后初次进行的作业,但并不限定于此。在从制造商至用户的工厂等的输送、用户环境下的机器人的设置作业等中,若没有机器人碰撞、跌倒等使误差要因发生变化的情况,则即便在设置后直接使用设置前校准的结果也没有问题。在该情况下,在用户看来,若设置所购入的机器人,则能够实现不进行复杂的校准而能够执行作业、非常易于使用的机器人。但是,若发生上述碰撞等,在流用了设置前校准的结果的情况下,有可能产生即便利用视觉伺服控制也无法完全吸收的误差。即,虽然在第一作业中能够跳过校准的效果较大,但并不限定于必须跳过,也可以在需要的情况下执行校准。
而且,在重复执行STEP3的机器人动作中,在判断为需要校准的情况下,如STEP4所示那样执行机器人校准以及相机校准。
具体而言,机器人控制部100在第i+1个作业中,在判断为需要校准的情况下,以与设置前校准不同的设置后校准为校准来进行,更新校准信息,并使用更新后的校准信息,通过在机器人作业中利用拍摄部进行多次拍摄的机器人控制来进行第i+1个作业。
这里,相对于设置前校准在机器人设置前由机器人制造商侧进行,设置后校准在机器人设置后,由购入机器人的用户侧进行,因此,由于执行时机以及执行主体不同这一点,而作为不同的校准。即,不妨碍设置前校准与设置后校准的校准方法本身使用相同的方法。但是,设置前校准在某一确定的环境(已知作业台、环境光线等)中进行,因此例如标记识别、棋盘识别的精度较高。另外,即便在作业台设置夹具,若作业台轻微地移动则校准精度也降低,但在设置前校准中,制造商侧能够准备精度高的(稳定的)作业台。即,即便校准方法相同,对于其精度,也存在产生设置前比设置后高的差别的情况。
即,基本上如STEP3所示,边跳过校准边由机器人执行作业,根据需要,如STEP4所示那样进行校准并更新校准信息。更新后,再次返回到STEP3,使用更新后的校准信息而由机器人执行作业即可。
图8示出STEP3、STEP4中的机器人的处理流程。在图8的流程图中,以将设置前校准的结果作为校准信息而取得为前提。若开始该处理,则首先使用所取得的校准信息进行第一作业(S101)。但如上所述,也可以在S101之前,进行是否需要校准的判断,根据需要追加进行校准的步骤。
而且,在机器人作业后,判定目前是否是进行需不需要校准的判定(以下,也记作需要性判定)的时机(S102)。在图8的流程图的例子中,在执行机器人作业后,不是每次都进行需要性判定,而假设在K次(K为2以上的整数)作业结束后进行需要性判定,或在经过所给予的时间后进行需要性判定的情况。但是,也可以每一次作业结束都进行校准的需要性判定,在该情况下能够省略S102的步骤。除此之外,何时进行需要性判定、或者以何种程度的频率进行需要性判定能够进行各种变形实施。
在S102为否的情况下,不进行校准而返回到S101,并流用到此为止的校准信息而继续机器人作业。另一方面,在S102为是的情况下,进行校准的需要性判定(S103)。
如上所述,用户也可以进行校准的需要性判定,并将表示其结果的信息经由接口部600输入。在该情况下,S103成为由接口部600受理用户的输入,并进行按照该输入的控制的处理。或者,也可以在机器人侧(狭义上为机器人控制部100)自动地进行校准的需要性判定。
作为校准的需要性判定的条件,例如,在第i个作业与作为和该第i个作业不同的作业的第i+1个作业实际上可以说是相同作业的情况下,判定为不需要校准。另一方面,例如,在第i+1个作业在机器人的动作区域的边界附近进行的情况下,判定为需要校准。
在S103判定为不需要校准的情况下,返回到S101,不进行校准而继续机器人作业。另一方面,在S103判定为需要校准的情况下,执行校准(S104),并使用其结果来更新校准信息(S105)。在S105后返回到S101,使用更新后的校准信息来执行机器人作业。
此外,在本实施方式中,作为机器人控制,举出使用由拍摄部拍摄的拍摄图像的视觉伺服控制的例子,但并不限定于此。例如如上所述,也可以将力觉传感器等力传感器设置于末端执行器,利用该力传感器检测施加于末端执行器的力,并根据该检测结果来进行机器人控制。
另外,本实施方式的机器人控制部100等也可以通过程序实现该处理的一部分或大部分。在该情况下,通过CPU等处理器执行程序来实现本实施方式的机器人控制部100等。具体而言,读出储存在非暂时性的信息存储介质中的程序,由CPU等处理器执行所读出的程序。这里,信息存储介质(能够被计算机读取的介质)是储存程序、数据等的介质,该功能能够由光盘(DVD、CD等)、HDD(硬盘驱动器)、或者存储器(卡片式存储器、ROM等)等来实现。而且,CPU等处理器基于储存于信息存储介质的程序(数据)进行本实施方式的各种处理。即,在信息存储介质存储用于作为本实施方式的各部而使计算机(具备操作部、处理部、存储部、输出部的装置)发挥功能的程序(用于使计算机执行各部的处理的程序)。
此外,如上所述,对本实施方式详细地进行了说明,但本领域技术人员能够容易地理解,本发明能够进行不实质上脱离新事项以及效果的众多变形。因此,这样的变形例全部包含于本发明的范围。例如,在说明书或者附图中,至少一次与更广义或同义的不同用语共同记载的用语在说明书或者附图的任何位置都能够替换为该不同用语。而且,机器人、机器人控制***等结构、动作也不限定于在本实施方式所说明的内容,能够进行各种变形实施。
附图标记的说明:
100…机器人控制部;200…存储部;300…机器人机构;310…臂;311、313…关节;315、317…框架;319…末端执行器;320…第二臂;400…基座单元部;500…拍摄部;600…接口部;610…操作部;620…显示部;Gcam…全域相机;Hcam…手眼相机。

Claims (4)

1.一种机器人,其特征在于,
在第i个作业后进行与所述第i个作业不同的第i+1个作业,在第j个作业后进行与所述第j个作业不同的第j+1个作业,
该机器人在所述第i个作业后,不变更所述第i个作业的作业时的与机器人的关节中的校正相关的信息,而进行包括视觉伺服控制的所述第i+1个作业,
在所述第j个作业后进行机器人校准,在进行完所述机器人校准后该机器人进行不包括所述视觉伺服控制的所述第j+1个作业,
其中,i为自然数,j为满足j≠i的自然数。
2.一种控制装置,其特征在于,
使机器人动作,该机器人在第i个作业后进行与所述第i个作业不同的第i+1个作业,在第j个作业后进行与所述j个作业不同的第j+1个作业,
使所述机器人在所述第i个作业后,不变更所述第i个作业的作业时的与机器人的关节中的校正相关的信息,而进行包括视觉伺服控制的所述第i+1个作业,
在所述第j个作业后进行机器人校准,在进行完所述机器人校准后使所述机器人进行不包括所述视觉伺服控制的所述第j+1个作业,
其中,i为自然数,j为满足j≠i的自然数。
3.一种机器人***,其特征在于,
包括机器人,该机器人在第i个作业后进行与所述第i个作业不同的第i+1个作业,在第j个作业后进行与所述第j个作业不同的第j+1个作业,
所述机器人在所述第i个作业后,不变更所述第i个作业的作业时的与机器人的关节中的校正相关的信息,而进行包括视觉伺服控制的所述第i+1个作业,
在所述第j个作业后进行机器人校准,在进行完所述机器人校准后所述机器人进行不包括所述视觉伺服控制的所述第j+1个作业,
其中,i为自然数,j为满足j≠i的自然数。
4.一种控制方法,其特征在于,
是机器人的控制方法,该机器人在第i个作业后进行与所述第i个作业不同的第i+1个作业,在第j个作业后进行与所述第j个作业不同的第j+1个作业,
在该控制方法中,使所述机器人在所述第i个作业后,不变更所述第i个作业的作业时的与机器人的关节中的校正相关的信息,而进行包括视觉伺服控制的所述第i+1个作业,
在所述第j个作业后进行机器人校准,在进行完所述机器人校准后使所述机器人进行不包括所述视觉伺服控制的所述第j+1个作业,
其中,i为自然数,j为满足j≠i的自然数。
CN201410598525.XA 2013-11-05 2014-10-30 机器人、控制装置、机器人***以及控制方法 Active CN104608121B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-229059 2013-11-05
JP2013229059A JP2015089575A (ja) 2013-11-05 2013-11-05 ロボット、制御装置、ロボットシステム及び制御方法

Publications (2)

Publication Number Publication Date
CN104608121A CN104608121A (zh) 2015-05-13
CN104608121B true CN104608121B (zh) 2018-05-08

Family

ID=51868812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410598525.XA Active CN104608121B (zh) 2013-11-05 2014-10-30 机器人、控制装置、机器人***以及控制方法

Country Status (4)

Country Link
US (1) US9616571B2 (zh)
EP (1) EP2891547A3 (zh)
JP (1) JP2015089575A (zh)
CN (1) CN104608121B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
WO2017033247A1 (ja) * 2015-08-21 2017-03-02 株式会社安川電機 処理システム及びロボットの制御方法
JP6566037B2 (ja) 2015-09-11 2019-08-28 株式会社安川電機 処理システム及びロボットの制御方法
DE102016116702B4 (de) * 2015-09-14 2019-01-24 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
CN107443389B (zh) * 2016-05-31 2019-12-31 发那科株式会社 机器人控制装置及机器人控制方法
JP7069155B2 (ja) * 2017-06-29 2022-05-17 株式会社ソニー・インタラクティブエンタテインメント ロボットの制御装置、制御方法および制御プログラム
JP7062911B2 (ja) * 2017-10-11 2022-05-09 セイコーエプソン株式会社 ロボットシステム
CN109992093B (zh) * 2017-12-29 2024-05-03 博世汽车部件(苏州)有限公司 一种手势比较方法以及手势比较***
JP6848903B2 (ja) * 2018-03-08 2021-03-24 オムロン株式会社 部品挿入装置、部品挿入方法、およびプログラム
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
KR102577448B1 (ko) 2019-01-22 2023-09-12 삼성전자 주식회사 핸드 아이 캘리브레이션 방법 및 시스템
WO2020175425A1 (ja) * 2019-02-25 2020-09-03 国立大学法人 東京大学 ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム
WO2022224358A1 (ja) * 2021-04-20 2022-10-27 ファナック株式会社 ロボット

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103153553A (zh) * 2010-08-27 2013-06-12 Abb研究有限公司 视觉引导对准***和方法
CN103372862A (zh) * 2012-04-12 2013-10-30 精工爱普生株式会社 机器人***及其校准方法、机器人、校准装置及数码相机

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
JP2003311670A (ja) * 2002-04-17 2003-11-05 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
DE10302592A1 (de) * 2003-01-22 2004-07-29 Claas Fertigungstechnik Gmbh Verfahren und Vorrichtung zum Betreiben eines Arbeitsroboters
US8170715B1 (en) * 2005-01-25 2012-05-01 Redzone Robotics, Inc. Methods and devices for automated work in pipes based on impedance control
US20080027580A1 (en) * 2006-07-28 2008-01-31 Hui Zhang Robot programming method and apparatus with both vision and force
JP4960038B2 (ja) * 2006-08-09 2012-06-27 オークマ株式会社 パラレルメカニズム機械の制御方法及び制御装置
US7979160B2 (en) * 2007-07-31 2011-07-12 Spirit Aerosystems, Inc. System and method for robotic accuracy improvement
JP4418841B2 (ja) * 2008-01-24 2010-02-24 キヤノン株式会社 作業装置及びその校正方法
US8333129B2 (en) * 2008-10-29 2012-12-18 S.A. Robotics Robotic manipulator arm
WO2012142587A1 (en) * 2011-04-15 2012-10-18 Irobot Corporation Method for path generation for an end effector of a robot
JP5834545B2 (ja) * 2011-07-01 2015-12-24 セイコーエプソン株式会社 ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
US8805584B2 (en) * 2011-11-22 2014-08-12 Disney Enterprises, Inc Kinematic and dynamic calibration methods for legged robots with force-controlled joints
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
US9452533B2 (en) * 2013-05-15 2016-09-27 Hexagon Technology Center Gmbh Robot modeling and positioning
JP6511715B2 (ja) * 2013-10-31 2019-05-15 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、及びロボット

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103153553A (zh) * 2010-08-27 2013-06-12 Abb研究有限公司 视觉引导对准***和方法
CN103372862A (zh) * 2012-04-12 2013-10-30 精工爱普生株式会社 机器人***及其校准方法、机器人、校准装置及数码相机

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Model-Based Compliant Motion Control Scheme for Assembly Tasks Using Vision and Force Information;Takashi Nammoto;《International Conference on Automation Science and Engineering》;20130817;全文 *

Also Published As

Publication number Publication date
JP2015089575A (ja) 2015-05-11
EP2891547A2 (en) 2015-07-08
CN104608121A (zh) 2015-05-13
EP2891547A3 (en) 2016-06-08
US9616571B2 (en) 2017-04-11
US20150127153A1 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
CN104608121B (zh) 机器人、控制装置、机器人***以及控制方法
CN103991078B (zh) 机器人***和用于控制该机器人***的方法
EP2682710B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
JP4021413B2 (ja) 計測装置
JP5670416B2 (ja) ロボットシステム表示装置
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
TW202023767A (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
CN107639653A (zh) 控制装置、机器人以及机器人***
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
CN108700408A (zh) 三维形状数据及纹理信息生成***、拍摄控制程序、以及三维形状数据及纹理信息生成方法
CN103459102A (zh) 机器人控制装置、机器人控制方法、程序和记录介质
CN106003021A (zh) 机器人、机器人控制装置以及机器人***
CN111452048B (zh) 多机器人相对空间位置关系的标定方法和装置
JP5523392B2 (ja) キャリブレーション装置及びキャリブレーション方法
JP2015182144A (ja) ロボットシステムおよびロボットシステムの校正方法
CN106457562A (zh) 用于校准机器人的方法和机器人***
CN109493389B (zh) 一种基于深度学习的相机标定方法及***
JP2013043271A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2006110705A5 (zh)
JP2005074600A (ja) ロボット及びロボット移動方法
JP2019052983A (ja) 校正方法、および校正装置
CN107598977A (zh) 一种使用视觉和激光测距仪实现机器人自动示教的方法和***
CN104802186A (zh) 制作用于拍摄工件的机器人程序的机器人程序设计装置
CN110465946B (zh) 一种像素坐标与机器人坐标关系标定方法
KR100644174B1 (ko) 로봇 용접의 보정방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant