CN110039520A - 一种基于图像对比的示教、加工*** - Google Patents

一种基于图像对比的示教、加工*** Download PDF

Info

Publication number
CN110039520A
CN110039520A CN201910267314.0A CN201910267314A CN110039520A CN 110039520 A CN110039520 A CN 110039520A CN 201910267314 A CN201910267314 A CN 201910267314A CN 110039520 A CN110039520 A CN 110039520A
Authority
CN
China
Prior art keywords
data
building
robot
module
visual response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910267314.0A
Other languages
English (en)
Other versions
CN110039520B (zh
Inventor
陈小龙
陈诗琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN110039520A publication Critical patent/CN110039520A/zh
Application granted granted Critical
Publication of CN110039520B publication Critical patent/CN110039520B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

本发明公开了一种基于图像对比的示教、加工***,包括:机器人,所述机器人设有夹装部并具有机械坐标系;视觉感应模块,所述视觉感应模块包括能够在工作坐标系内移动的本体,所述本体上设有第一姿态传感器、定位摄像头、结构光生成器;构建模块,所述构建模块上设有第二姿态传感器、构建摄像头、结构光生成器,所述机器人右侧设有工作台面,所述构建模块设置在所述工作台面的旁侧和/或上方,用于构建所述工作坐标系、录入所述视觉感应模块的行走轨迹。本发明提供了一种重复精度和加工精度高的示教、加工***。

Description

一种基于图像对比的示教、加工***
技术领域
本发明涉及机器人领域,特别涉及一种基于图像对比的示教、加工***。
背景技术
当前工业机器人的示教编程需要编程操作人员对机器人非常熟悉,熟练掌握相关的编程知识,这导致要花费较长的时间和较高的成本用于培训工业机器人编程操作人员,进而提高了工业机器人应用的门槛,也提高了工业机器人应用的成本。
目前使用视觉***多数用于解决某个专业领域的技术应用,而用于示教编程的视觉***,存在工业机器人***重复精度较低,运算量大,响应速度较慢,易受遮挡的问题。
发明内容
本发明的目的在于至少解决现有技术中存在的技术问题之一,提供一种高加工精度的基于图像对比的示教、加工***。
根据本发明的第一方面,提供一种基于图像对比的示教***,包括:
机器人,所述机器人设有夹装部并具有机械坐标系;
视觉感应模块,所述视觉感应模块能够在工作坐标系内移动,所述视觉感应模块包括本体,所述本体上设有第一姿态传感器、定位摄像头、结构光生成器,所述定位摄像头为双目摄像头测量模组或多目摄像头测量模组;
构建模块,所述构建模块上设有第二姿态传感器、构建摄像头、结构光生成器,所述机器人右侧设有工作台面,所述构建模块设置在所述工作台面的旁侧和/或上方,用于构建所述工作坐标系、录入所述视觉感应模块的行走轨迹。
上述基于图像对比的示教***至少具有以下有益效果:一种基于图像对比的示教***,包括本体,本体上设有第一姿态传感器、定位摄像头、结构光生成器。因为具有第一姿态传感器,所以在将视觉感应模块对着工件并进行示教游走时,能将视觉感应模块上的每个轨迹点都对应有姿态数据和图像数据,将轨迹点的坐标数据称为母数据,而其对应的姿态数据和图像数据称为子数据,通过整合母数据及母数据对应的子数据,可以对工件进行实物建模,也可以将视觉感应模块安装到机械人上,让机械人带动视觉感应模块对着工件进行加工游走,而加工游走的位置判断基于加工游走时实时获得的姿态数据、图像数据与子数据的对比结果。本发明用于工业机器人,利用本发明提供的示教***进行示教的时候,先通过人工手持加工设备对工件进行加工,获取标准的姿态数据和图像数据;对机器人进行示教的时候,将加工设备连接到机器人的夹装部上,根据视觉感应模块的定位摄像头、第一姿态传感器实时获取到当前的姿态数据和图像数据,根据当前的数据与标准的数据间的误差,调整加工设备与工件之间的位置关系,使得当前的数据与标准的数据间的误差缩小到可接受的公差范围内。因此,利用本发明第一方面提供的基于图像对比的示教***,可以对机器人示教的时候,根据图像数据、姿态数据的对比,实时调整加工设备与工件的位置关系,使加工设备获得更高的重复精度,从而提升加工精度。
作为上述方案的进一步改进,还包括加工设备,所述加工设备与所述视觉感应模块固定连接后,用于对放置在工作台面上的工件进行加工;
所述加工设备对工件进行加工时:所述构建模块的构建摄像头用于录入所述视觉感应模块在工作坐标系内的轨迹,形成包含多个轨迹点的轨迹数据;所述视觉感应模块的定位摄像头用于对工件进行拍照形成图像数据,所述视觉感应模块的第一姿态传感器用于感知视觉感应模块的姿态形成姿态数据。
作为上述方案的进一步改进,还包括编程设备,所述编程设备用于将带有图像数据、姿态数据的轨迹数据形成对比数据集,所述对比数据集让轨迹数据的轨迹点作为母数据,每个母数据均对应一组子数据,所述子数据包含有视觉感应模块在每个轨迹点的位置时的图像数据、姿态数据;
在将加工设备连接到机器人上并对机器人进行示教时:所述对比数据集的母数据所包含的轨迹数据用于引导机器人带动视觉感应模块依次经过所有母数据所确定的实际空间点;在所述视觉感应模块到达每个母数据的位置时,根据每个母数据对应的子数据的图像数据、姿态数据,驱动机器人调节视觉感应模块相对于工件的位置,并记录当前位置机器人的机器人位姿数据,将处于所有母数据对应的实际空间点的位置的机器人位姿数据整合形成加工轨迹数据。
作为上述方案的进一步改进,包括至少两个构建模块,工作台面的左侧或右侧或前侧或后侧设有至少一个构建模块,工作台面的上方设有至少一个构建模块。
作为上述方案的进一步改进,构建模块内设有第二姿态传感器,包括至少两个构建模块,工作台面的左侧或右侧或前侧或后侧设有至少一个构建模块,工作台面的上方设有至少一个构建模块,至少有一个构建模块称为全局构建模块,所述全局构建模块的构建摄像头的监视范围覆盖其他所有的构建模块;全局构建模块的构建摄像头的监视范围与其他所有的构建模块的构建摄像头监视范围相交。
作为上述方案的进一步改进,机器人由全局构建模块监控区进入全局构建模块与其他的构建模块监控区相交的范围时,将所有的构建模块中与机器人空间距离最近的构建模块用于构建所述工作坐标系、录入所述视觉感应模块的行走轨迹。
作为上述方案的进一步改进,还包括移动工作台,移动工作台的上表面为所述的工作台面。
作为上述方案的进一步改进,所述第一姿态传感器为陀螺仪。
作为上述方案的进一步改进,构建摄像头为双目摄像头测量模组或多目摄像头测量模组。
根据本发明的第二方面,提供一种基于图像对比的加工***,包括上述第一方面所述的一种基于图像对比的示教***;
所述机器人根据加工轨迹数据带动加工设备对放置在工作台面上的工件进行加工。
上述基于图像对比的加工***至少具有以下有益效果:本发明第二方面提供的一种基于图像对比的加工***,包括上述第一方面所述的一种基于图像对比的示教***,在上述的示教***通过图形对比的方法获取到加工轨迹数据的基础上,机器人根据获得的加工轨迹数据带动加工设备对放置在工作台面上的工件进行加工,加工精度高。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单说明。显然,所描述的附图只是本发明的一部分实施例,而不是全部实施例,本领域的技术人员在不付出创造性劳动的前提下,还可以根据这些附图获得其他设计方案和附图。
图1是本发明实施例的结构示意图;
图2是本发明加工***实施例的使用方法流程图。
图中,1-装夹部、2-构建模块、3-视觉感应模块、4-移动工作台。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整地描述,以充分地理解本发明的目的、特征和效果。显然,所描述的实施例只是本发明的一部分实施例,而不是全部实施例,基于本发明的实施例,本领域的技术人员在不付出创造性劳动的前提下所获得的其他实施例,均属于本发明保护的范围。另外,文中所提到的所有联接/连接关系,并非单指构件直接相接,而是指可根据具体实施情况,通过添加或减少联接辅件,来组成更优的联接结构。本发明中的各个技术特征,在不互相矛盾冲突的前提下可以交互组合。
参照图1,本发明的第一方面,提供了一种基于图像对比的示教***,包括:
机器人,所述机器人设有夹装部并具有机械坐标系;
视觉感应模块3,所述视觉感应模块3包括能够在工作坐标系内移动的本体,所述本体上设有第一姿态传感器、定位摄像头、结构光生成器;本实施采用的第一姿态传感器为陀螺仪。
构建模块2,所述构建模块2上设有第二姿态传感器、构建摄像头、结构光生成器,所述机器人右侧设有工作台面,所述构建模块2设置在所述工作台面的旁侧和/或上方,用于构建所述工作坐标系、录入所述视觉感应模块3的行走轨迹;
加工设备,所述加工设备与所述视觉感应模块3固定连接后,用于对放置在工作台面上的工件进行加工;
所述加工设备对工件进行加工时:所述构建模块2的构建摄像头用于录入所述视觉感应模块3在工作坐标系内的轨迹,形成包含多个轨迹点的轨迹数据;所述视觉感应模块3的定位摄像头用于对工件进行拍照形成图像数据,所述视觉感应模块3的第一姿态传感器用于感知视觉感应模块3的姿态形成姿态数据。
使用本发明的基于图像对比的示教***获取轨迹数据、图像数据和姿态数据获取的过程,如下具体实施例所述(为了便于区分,由定位摄像头获取的图像数据在不同状态下分别被命名为对焦数据和对照数据):
机器人具有机械坐标系,机器人上设有装夹部1,还包括在工作坐标系内移动的视觉感应模块3,视觉感应模块3包括本体,本体上设有第一姿态传感器、定位摄像头、结构光生成器,所述定位摄像头为双目摄像头测量模组或多目摄像头测量模组。因为具有第一姿态传感器,所以在将视觉感应模块3对着工件并进行示教游走时,能将视觉感应模块3上的每个轨迹点都对应有姿态数据和图像数据,将轨迹点的坐标数据称为母数据,而其对应的姿态数据和图像数据称为子数据,通过整合母数据及母数据对应的子数据,可以对工件进行实物建模,也可以将视觉感应模块3安装到机械人上,让机械人带动视觉感应模块3对着工件进行加工游走,而加工游走的位置判断基于加工游走时实时获得的姿态数据、图像数据与子数据的对比结果。机器人的右侧设有工作台面,工作台面的旁侧和/或工作台面的上方设有用于构建所述工作坐标系的、录入视觉感应模块3的行走轨迹的构建模块2,所述构建模块22上设有第二姿态传感器、构建摄像头、结构光生成器。使用时,启动构建模块2,将工件作为工作坐标系得基准,将视觉感应模块3固定在加工设备上,让定位摄像头的拍摄方向与加工设备的加工方向相同,然后人工操作加工设备对工件进行示教加工,与此同时,构建模块2会对视觉感应模块3或加工设备的轨迹进行记录形成轨迹数据,而定位摄像头会不断地对工件进行图片拍摄形成对焦数据,而第一姿态传感器可同时获得视觉感应模块3的姿态数据,机器人的控制***获得轨迹数据、对焦数据、姿态数据后,将带有视觉感应模块3的加工设备固在装夹部1定上,让机器人驱动带有视觉感应模块3的加工设备以遵循轨迹数据在工作坐标系内进行移动,同时用姿态数据让加工设备调整至示教时的姿态,而用定位摄像头对工件进行拍照形成对照数据,控制***用对照数据与对焦数据进行对比,并微调加工设备从而实现精确定位。由于示教时无需拖动机器人,所以示教时的动作灵活,而在加工时,坐标系是以工件为基准的,所以不管工件是否处于移动状态,也能实现很好的加工,且机器人的机械坐标并不参与示教和加工的定位,所以在机器人发生故障时,能让备用机器人无缝地接上,而无需再次进行示教。
在上述实施例的基础上,为了便于在示教后将机器人投入实际的生产中,还包括编程设备,所述编程设备用于将带有图像数据、姿态数据的轨迹数据形成对比数据集,所述对比数据集让轨迹数据的轨迹点作为母数据,每个母数据均对应一组子数据,所述子数据包含有视觉感应模块3在每个轨迹点的位置时的图像数据、姿态数据;
在将加工设备连接到机器人上并对机器人进行示教时:所述对比数据集的母数据所包含的轨迹数据用于引导机器人带动视觉感应模块3依次经过所有母数据所确定的实际空间点;在所述视觉感应模块3到达每个母数据的位置时,根据每个母数据对应的子数据的图像数据、姿态数据,驱动机器人调节视觉感应模块3相对于工件的位置,并记录当前位置机器人的机器人位姿数据,将处于所有母数据对应的实际空间点的位置的机器人位姿数据整合形成加工轨迹数据。
为了便于本领域技术人员使用本发明的基于图像对比的示教***获得加工轨迹数据,提供如下实施例,具体包括以下步骤(以下为了区分,将两个状态下获取的图像数据分别命名为给定图像数据和当前图像数据):
步骤a)装备加工设备、具有示教工作坐标系的示教***设备、设在示教***设备旁侧的机器人,所述示教***设备包括在示教工作坐标系内移动的视觉感应模块3,视觉感应模块3的旁侧设有工作台面,工作台面的旁侧和/或工作台面的上方设有用于构建示教工作坐标系的、录入视觉感应模块3的行走轨迹的带有构建摄像头的构建模块2,视觉感应模块3上设有第一姿态传感器、给定摄像头;构建摄像头为双目摄像头或多目摄像头;给定摄像头为双目摄像头或多目摄像头;
将工件放置在工作台面上,将视觉感应模块3与加工设备固定连接在一起;
步骤b)启动构建模块2、第一姿态传感器、给定摄像头,让操作人员手持加工设备对工件进行加工,让构建模块2的构建摄像头录入视觉感应模块3在示教工作坐标系内的轨迹,在视觉感应模块3在示教工作坐标系内运动时同步地生成视觉感应模块3的第一姿态传感器的姿态数据,从而形成包含多个轨迹点的轨迹数据,让构建摄像头对工件进行拍照形成给定图像数据,让第一姿态传感器感知视觉感应模块3的姿态形成姿态数据,将带有给定图像数据、姿态数据的轨迹数据送至编程设备,从而形成对比数据集,所述对比数据集让轨迹数据的轨迹点作为母数据,而每个母数据均对应一组子数据,所述子数据包含有视觉感应模块3在每个轨迹点的位置时的给定图像数据、姿态数据;
步骤c)将带有视觉感应模块3的加工设备与机器人连接,用轨迹数据来引导机器人带动视觉感应模块3依次经过所有的母数据所确定的实际空间点,视觉感应模块3到达每个母数据的位置时的姿态调整成给定姿态,所述给定姿态均根据该母数据对应的子数据的姿态数据进行设置,相邻的两个母数据分别称为母数据M、母数据N,在视觉感应模块3从母数据M的位置到母数据N的位置前,让给定摄像头对工件进行图像拍摄形成当前图像数据,同时让将当前图像数据与母数据M对应的子数据中的给定图像数据进行图像对比得出给定图像偏差,并根据给定图像偏差和示教姿态偏差来驱动机器人来调节视觉感应模块3相对于工件的位置,最终让当前图像数据与母数据M对应的子数据中的给定图像数据的给定图像对比偏差在公差范围内,然后记录当前机器人的机器人位姿数据,当前机器人的机器人位姿数据称为机器人基础数据;将所有的机器人基础数据整合形成加工轨迹数据。
视觉感应模块3具有第一姿态传感器,所以在将视觉感应模块3对着工件并进行示教游走时,能将视觉感应模块3上的每个轨迹点都对应有姿态数据和图像数据,在完成人手示教后,将带有视觉感应模块3的加工设备安装在机器人手上,通过图像对比确认的方法来实现工作坐标系到机器人坐标系的转换,大大降低了对操作人员的专业要求和***数据转换运算量,操作人员可以不懂示教编程,只需要按部就班来执行上述步骤就能生成加工轨迹数据的轨迹,而步骤c)中的加工轨迹数据的轨迹正是基于机器人的机器人坐标建立的,能直接驱动机器人。
对比数据集、机器人位姿数据、机器人基础数据、驱动流水加工设备遵循加工机器人运行轨迹来对工件进行加工均可进行读取、修改,这样方便将其移植给其他的机器人用于加工,而避免了现有技术的,需要对每个机器人都进行至少一次的示教。
步骤c)中,机器人带动视觉感应模块3从母数据M的位置到母数据N前的过程,视觉感应模块3的位置变化过程是这样的:
过程a)视觉感应模块3所在的位置为P,获取在P的当前图像数据并与母数据M对应的子数据中的给定图像数据进行对比生成给定图像偏差,执行过程b);
过程b)对给定图像偏差进行判断,若给定图像偏差超出公差范围,执行过程c);若给定图像偏差在公差范围内,记录当前机器人的机器人位姿数据,驱动机器人带动视觉感应模块3向母数据N确定的位置移动;
过程c)根据给定图像偏差来让机器人带动视觉感应模块3进行位置和/或姿态的调整,然后执行过程a)。
这样的调节方式,能很好地实现快速的调节机器人的机器人位姿,降低***的运算负担。
在上述实施例的基础上,由第一姿态传感器直接测量出姿态数据、并调正姿态,图像对比时机器人只需作上下、左右、前后的平移运动,省去了大量、复杂的运输,使***得以高效运行。
优选地,为了防止工件对加工设备的遮挡,包括至少两个构建模块2,工作台面的左侧或右侧或前侧或后侧设有至少一个构建模块2,工作台面的上方设有至少一个构建模块2。具体地,构建模块2内设有第二姿态传感器,包括至少两个构建模块2,工作台面的左侧或右侧或前侧或后侧设有至少一个构建模块2,工作台面的上方设有至少一个构建模块2,至少有一个构建模块2称为全局构建模块2,所述全局构建模块2的构建摄像头的监视范围覆盖其他所有的构建模块2;全局构建模块2的构建摄像头的监视范围与其他所有的构建模块2的构建摄像头监视范围相交。步骤c)中每一个机器人基础数据形成后,能监视到机器人的构建模块2的构建摄像头对机器人拍照,从而形成与机器人基础数据一一对应的机器人姿态图像数据。这样的设置可以防止中断对机器人的监视,而且能对机器人进行多个加工位置的定位,也能在加工的时候通过图片对比的方法,将构建摄像头获得的实时图片与机器人姿态图像数据进行对比,从而实现快速的的机器人位置导航、机器人自身的姿态调整。
在上述实施例的基础上,可知在示教的过程中,全局构建模块和其他的构建模块采用全局的同步工作方式,即所有的构建模块的构建摄像头都会对机器人拍照产生相应的数据(也可以采用局部的同步工作方式,即只有能观察得到机器人的构建模块进行同步工作),如何通过多个构建模块协同工作来提高机器人的重复精度,如何从多个构建模块产生的数据中选择出最佳的数据,需要从以下几个方面进行考虑,从而得到最佳的选择策略:
一是位置关系:全局构建模块与其他的构建模块的位置关系可以通过测量监视相交范围上的不同一直线的三个或三个以上点的数据并计算得到彼此间的位置关系、且校正第二姿态传感器的偏差。由此,全局构建模块与其他的构建模块测量监视到的机器人姿态图像数据是通用的且可以互换的,只是精度有所区分。
二是按工作需求:全局构建模块与其他的构建模块应该覆盖机器人的活动空间;若长时间观测不到机器人的末端(模块),***将发出报警,按设置指令将机器人移动到一个安全的、在全局构建模块检测下的停泊空间。
通过上述两点的考虑,得到机器人姿态图像数据的选择策略:由于位置关系,其他的构建模块的数据精度比全局构建模块的数据精度高,在示教过程中,所有要求高精度的位置都置于其他的构建模块的监测下。1、当在高精度工作模式下,机器人由全局构建模块监控区进入全局构建模块与其他的构建模块监控区相交范围时,自动采用其他的构建模块的高精度数据,而且只要机器人在其他的构建模块监控区范围就一直使用高精度数据;直到机器人离开其他的构建模块监控区范围,才自动采用全局构建模块的数据。2、当在高效率工作模式下,机器人自动采用全局构建模块的数据;只有在离开全局构建模块监控区时,自动采用其他的构建模块的高精度数据。3、在其他工作模式,按需求手工设置采用全局构建模块的数据或其他的构建模块的高精度数据。
以上的选择策略考虑到了机器人同时进入到一个其他的构建模块与全局构建模块监控区相交范围的情况,对于机器人进入两个或两个以上的其他的构建模块监控区时,由***自动选择最高精度数据或由手工设定。一般地,定义所有的构建模块中与机器人空间距离最近的构建模块具有最高的精度。即机器人由全局构建模块监控区进入全局构建模块与其他的构建模块监控区相交的范围时,将所有的构建模块中与机器人空间距离最近的构建模块用于构建所述工作坐标系、录入所述视觉感应模块的行走轨迹。设置多个构建***不仅避免了机器人再示教过程中被遮挡的问题,而且通过以上的选择策略可以大大提高构建模块获得的数据精度,从而提高示教过程中机器人的重复精度。
优选地,所述构建模块2上设有第二姿态传感器、构建摄像头、结构光生成器。构建摄像头为双目摄像头测量模组或多目摄像头测量模组。这样通过对比两个摄像头的图像,就能获得加工设备的三维坐标数据。
为了便于连续加工,本实施例还包括移动工作台4,移动工作台4的上表面为所述的工作台面。而正是由于本发明的用工件的图像对比的示教***,才能实现移动工件的精确加工。
如图2所示,在上述实施例的基础上,本发明的第二方面还提供了一种基于图像对比的加工***,该加工***使用本方面第一方面提供的一种基于图像对比的示教***装备的机器人和加工设备对放置在工作台面上的工件进行加工,加工***是在示教***获取到加工轨迹数据之后,利用连接有加工设备的机器人根据加工轨迹数据带动加工设备对放置在工作台面上的工件进行加工,因此,加工***所运用的设施与示教***相同。
具体实施例包括如下步骤:
步骤d1)装备工作台面、设在工作台面旁侧的机器人,机器人上设有加工设备,将工件放在工作台面上,驱动机器人根据加工轨迹数据来带动加工设备对工件进行加工。
这样的加工方法适用于对加工精度一般、加工精度较高情况,而对于加工精度要求非常高的情况,需要采用如下的方法:
步骤d2)装备加工设备、具有工作坐标系的加工***设备、设在加工***设备旁侧的加工机器人,加工***设备包括在工作坐标系内移动的视觉感应模块3,视觉感应模块3的旁侧工作台面,工作台面的旁侧和/或工作台面的上方设有用于构建工作坐标系的、录入视觉感应模块3的行走轨迹的构建模块2,视觉感应模块3上设有第一姿态传感器、给定摄像头;给定摄像头为双目摄像头或多目摄像头;
将工件放置在工作台面上,将视觉感应模块3与加工设备固定连接在一起,加工设备与机器人连接;
步骤e)在工作台面上放置工件,让构建模块2以工件为基点构建工作坐标系,机器人根据加工轨迹数据带动视觉感应模块3依次经过轨迹点;
在视觉感应模块3到达对比数据集的轨迹点后,机器人根据轨迹点对应的子数据中的姿态数据来确认或调整视觉感应模块3的姿态,使得视觉感应模块3的在加工时的姿态与在人手持加工设备进行示教时的视觉感应模块3在同一轨迹点上的姿态相同;
让给定摄像头对工件进行图像拍摄形成图像数据,将图像数据与人手持加工设备进行示教时的视觉感应模块3所在的轨迹点对应的子数据中的图像数据进行对比,若二者对比结果在公差范围内时,启动或保持加工设备对工件进行加工,而若二者对比结果超出公差范围时,暂停加工设备对工件的加工,让加工机器人带动视觉感应模块3调整姿态、位置,并持续让给定摄像头获得当前的图像数据并让新获得的当前的图像数据与人手持加工设备进行示教时的图像数据的进行图像对比,从而让当前的视觉感应模块3的姿态、位置与子数据相同,然后启动加工设备对工件进行加工;
此加工方法会一直跟踪工件,所以不管是在实际的流水加工中采用何种机器人、工件是否在运动,加工机器人都能精确地完成示教程序所规定的动作,能非常好地还原示教动作。而且,示教程序非常便于移植,一次示教,可用于多个加工***,而且每个加工***旁侧的机器人一旦发生损坏,那么将备用的加工机器人装载示教程序,随便安装在原加工机器人的旁侧,就能实现加工。而加工构建摄像头能让加工感应模块进行快速定位,而当前图像数据与给定图像数据的图片对比结果可让加工机器人能对加工感应模块进行精确的位置、姿态调整,从而让实现精确的实现示教动作,甚至示教的地点与加工的地点都可以不同。根据图像的对比分析的方法,这样能自动补偿加工误差,避免了通过算法来降低误差所带来的***运算负荷重的问题,能大大提高重复精度。所述误差包括机械人的运动误差、轨迹数据的累积误差、加工时机械人的自身振动导致的误差、机器人长时间使用后出现磨损带来的的误差、机器人抓取重物导致机器人的各个臂出现挠度导致的为误差。
为了便于连续加工,本实施例还包括移动工作台4,移动工作台4的上表面为所述的加工工作台面。而正是由于本发明的用工件的图像对比的跟踪示教、加工方法,才能实现移动工件的精确加工。
以上对本发明的较佳实施方式进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变型或替换,这些等同的变型或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种基于图像对比的示教***,其特征在于,包括:
机器人,所述机器人设有夹装部并具有机械坐标系;
视觉感应模块,所述视觉感应模块能够在工作坐标系内移动,所述视觉感应模块包括本体,所述本体上设有第一姿态传感器、定位摄像头、结构光生成器,所述定位摄像头为双目摄像头测量模组或多目摄像头测量模组;
构建模块,所述构建模块上设有第二姿态传感器、构建摄像头、结构光生成器,所述机器人右侧设有工作台面,所述构建模块设置在所述工作台面的旁侧和/或上方,用于构建所述工作坐标系、录入所述视觉感应模块的行走轨迹。
2.根据权利要求1所述的一种基于图像对比的示教***,其特征在于:还包括加工设备,所述加工设备与所述视觉感应模块固定连接后,用于对放置在工作台面上的工件进行加工;
所述加工设备对工件进行加工时:所述构建模块的构建摄像头用于录入所述视觉感应模块在工作坐标系内的轨迹,形成包含多个轨迹点的轨迹数据;所述视觉感应模块的定位摄像头用于对工件进行拍照形成图像数据,所述视觉感应模块的第一姿态传感器用于感知视觉感应模块的姿态形成姿态数据。
3.根据权利要求2所述的一种基于图像对比的示教***,其特征在于:还包括编程设备,所述编程设备用于将带有图像数据、姿态数据的轨迹数据形成对比数据集,所述对比数据集让轨迹数据的轨迹点作为母数据,每个母数据均对应一组子数据,所述子数据包含有视觉感应模块在每个轨迹点的位置时的图像数据、姿态数据;
在将加工设备连接到机器人上并对机器人进行示教时:所述对比数据集的母数据所包含的轨迹数据用于引导机器人带动视觉感应模块依次经过所有母数据所确定的实际空间点;在所述视觉感应模块到达每个母数据的位置时,根据每个母数据对应的子数据的图像数据、姿态数据,驱动机器人调节视觉感应模块相对于工件的位置,并记录当前位置机器人的机器人位姿数据,将处于所有母数据对应的实际空间点的位置的机器人位姿数据整合形成加工轨迹数据。
4.根据权利要求1所述的一种基于图像对比的示教***,其特征在于:包括至少两个构建模块,工作台面的左侧或右侧或前侧或后侧设有至少一个构建模块,工作台面的上方设有至少一个构建模块。
5.根据权利要求1所述的一种基于图像对比的示教***,其特征在于:构建模块内设有第二姿态传感器,包括至少两个构建模块,工作台面的左侧或右侧或前侧或后侧设有至少一个构建模块,工作台面的上方设有至少一个构建模块,至少有一个构建模块称为全局构建模块,所述全局构建模块的构建摄像头的监视范围覆盖其他所有的构建模块;全局构建模块的构建摄像头的监视范围与其他所有的构建模块的构建摄像头监视范围相交。
6.根据权利要求5所述的一种基于图像对比的示教***,其特征在于:机器人由全局构建模块监控区进入全局构建模块与其他的构建模块监控区相交的范围时,将所有的构建模块中与机器人空间距离最近的构建模块用于构建所述工作坐标系、录入所述视觉感应模块的行走轨迹。
7.根据权利要求1所述的一种基于图像对比的示教***,其特征在于:还包括移动工作台,移动工作台的上表面为所述的工作台面。
8.根据权利要求1所述的一种基于图像对比的示教***,其特征在于:所述第一姿态传感器为陀螺仪。
9.根据权利要求1所述的一种基于图像对比的示教***,其特征在于:构建摄像头为双目摄像头测量模组或多目摄像头测量模组。
10.一种基于图像对比的加工***,其特征在于:包括上述权利要求3-9任一所述的一种基于图像对比的示教***;
所述机器人根据加工轨迹数据带动加工设备对放置在工作台面上的工件进行加工。
CN201910267314.0A 2018-04-11 2019-04-03 一种基于图像对比的示教、加工*** Active CN110039520B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201820515520X 2018-04-11
CN201820515520 2018-04-11

Publications (2)

Publication Number Publication Date
CN110039520A true CN110039520A (zh) 2019-07-23
CN110039520B CN110039520B (zh) 2020-11-10

Family

ID=67296882

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910267314.0A Active CN110039520B (zh) 2018-04-11 2019-04-03 一种基于图像对比的示教、加工***

Country Status (1)

Country Link
CN (1) CN110039520B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110625597A (zh) * 2019-09-27 2019-12-31 陈小龙 一种基于slam的机器人***及其示教方法
CN111002295A (zh) * 2019-12-30 2020-04-14 中国地质大学(武汉) 一种二指抓取机器人的示教手套及示教***
CN111002294A (zh) * 2019-12-30 2020-04-14 中国地质大学(武汉) 一种二指抓取机器人的示教器及示教***
CN114670212A (zh) * 2022-04-26 2022-06-28 南通新蓝机器人科技有限公司 基于imu与视觉的机器人引导手柄及其使用方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103406905A (zh) * 2013-08-20 2013-11-27 西北工业大学 一种具有视觉伺服及检测功能的机器人***
CN107144236A (zh) * 2017-05-25 2017-09-08 西安交通大学苏州研究院 一种机器人自动扫描仪及扫描方法
CN107309882A (zh) * 2017-08-14 2017-11-03 青岛理工大学 一种机器人示教编程***及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103406905A (zh) * 2013-08-20 2013-11-27 西北工业大学 一种具有视觉伺服及检测功能的机器人***
CN107144236A (zh) * 2017-05-25 2017-09-08 西安交通大学苏州研究院 一种机器人自动扫描仪及扫描方法
CN107309882A (zh) * 2017-08-14 2017-11-03 青岛理工大学 一种机器人示教编程***及方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110625597A (zh) * 2019-09-27 2019-12-31 陈小龙 一种基于slam的机器人***及其示教方法
CN110625597B (zh) * 2019-09-27 2021-01-01 陈小龙 一种基于slam的机器人***及其示教方法
CN111002295A (zh) * 2019-12-30 2020-04-14 中国地质大学(武汉) 一种二指抓取机器人的示教手套及示教***
CN111002294A (zh) * 2019-12-30 2020-04-14 中国地质大学(武汉) 一种二指抓取机器人的示教器及示教***
CN114670212A (zh) * 2022-04-26 2022-06-28 南通新蓝机器人科技有限公司 基于imu与视觉的机器人引导手柄及其使用方法

Also Published As

Publication number Publication date
CN110039520B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN110039520A (zh) 一种基于图像对比的示教、加工***
CN112122840B (zh) 一种基于机器人焊接的视觉定位焊接***及焊接方法
US7818091B2 (en) Process and device for determining the position and the orientation of an image reception means
CN106338245B (zh) 一种工件非接触移动测量方法
JP4021413B2 (ja) 計測装置
CN100465833C (zh) 离线编程装置
CN111119887B (zh) 一种全息技术下矿井综采工作面的远程干预ar巡检***
CN109794938A (zh) 一种适用于曲面结构的机器人制孔误差补偿装置及其方法
CN103988049A (zh) 具有摄像头的坐标测量机
CN101261118A (zh) 基于机器人的快速自动化三维形貌在线测量方法和***
CN103192386A (zh) 基于图像视觉的洁净机器人自动化标定方法
CN107414474A (zh) 一种狭窄空间螺栓定位安装机器人及控制方法
WO2022171199A1 (zh) 一种用于机床几何误差测量的13步测量方法
DE10349361B4 (de) Verfahren und Vorrichtung zum Positionieren eines Handhabungsgeräts
CN108656120B (zh) 一种基于图像对比的示教、加工方法
CN109862989A (zh) 激光焊接时的基于图像的技术选择
JP2682763B2 (ja) ロボット機体の作動誤差の自動測定方法
CN110202581A (zh) 机器人末端执行器工作误差的补偿方法、装置及电子设备
JPH07237158A (ja) 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム
CN103192399A (zh) 一种基于目标运动的显微视觉手眼标定方法
RU139478U1 (ru) Система управления роботизированным объектом
CN110370272A (zh) 一种基于垂直反射的机器人tcp标定***
JPH11338532A (ja) 教示装置
CN108466264B (zh) 一种用于轨道板点云数据采集的机器人最优路径形成方法
CN114670212A (zh) 基于imu与视觉的机器人引导手柄及其使用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant