CN111300490A - 一种基于深度视觉传感器的机器人轨迹生成***及方法 - Google Patents

一种基于深度视觉传感器的机器人轨迹生成***及方法 Download PDF

Info

Publication number
CN111300490A
CN111300490A CN201811519631.9A CN201811519631A CN111300490A CN 111300490 A CN111300490 A CN 111300490A CN 201811519631 A CN201811519631 A CN 201811519631A CN 111300490 A CN111300490 A CN 111300490A
Authority
CN
China
Prior art keywords
track
vision sensor
robot
industrial robot
depth vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811519631.9A
Other languages
English (en)
Inventor
张锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Steam Giant Robot Technology Co ltd
Original Assignee
Chengdu Steam Giant Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Steam Giant Robot Technology Co ltd filed Critical Chengdu Steam Giant Robot Technology Co ltd
Priority to CN201811519631.9A priority Critical patent/CN111300490A/zh
Publication of CN111300490A publication Critical patent/CN111300490A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种基于深度视觉传感器的机器人轨迹生成***及方法,涉及智能工业机器人领域,所述***包括工业机器人本体、机器人控制器、示教器、深度视觉传感器、离线编程***、轨迹生成指令软件包以及轨迹生产控制器,所述深度视觉传感器通过夹具固定于工业机器人本体的法兰盘的工具上。本发明通过对工件的测量来计算工业机器人轨迹的起点、辅助点、终点,解决了现有工业机器人的轨迹生成工作量较大、环境适应能力差、效率较低以及难以满足精度要求较高的工作场景的问题。

Description

一种基于深度视觉传感器的机器人轨迹生成***及方法
技术领域
本发明涉及智能工业机器人领域,尤其涉及一种基于深度视觉传感器的机器人轨迹生成***及方法。
背景技术
目前,工业机器人的工业加工生产轨迹生成方式主要包括两种,方式一:通过工业机器人示教器生成轨迹;不同的工业机器人厂商给工业机器人配备的示教器各不相同,操作略有差别,工作原理和工作方式基本相同,示教器的轨迹生成操作步骤如下:1.通过示教器手动控制工业机器人运行到轨迹的起点,并记录起点位置;2.通过示教器手动控制工业机器人运行到轨迹的终点,并记录终点位置;3.通过示教器指定轨迹插补方式(包括关节插补、直线插补圆弧插补)进行轨迹补偿;4.根据工业机器人的工艺要求制定机器人的运行速度、运行加速度以及姿态控制方式;5.重复步骤1至4,进行反复调整;方式二:通过工业机器人离线编程软件生成轨迹;离线编程软件的轨迹生成步骤如下:1.在计算机上对工业机器人工作站、工业机器人、工业机器生产的产品以及周围环境进行三维建模;2三维几何模型上指定工业机器人的运行轨迹的起点和终点;3.通过计算机生成工业机器人的可运行程序。
其中,通过工业机器人示教器生成轨迹存在以下问题:1.每个轨迹的起点和终点都需要精确示教,工作量较大;2.在工作过程中,会因为生产的产品批次或者个体尺寸不同、摆放位置发生微小变化以及周围环境发生变化时,工业机器人无法随着工作环境的变化而变化,导致生产出不合格产品,甚至设备损坏和生产线停产,环境适应能力差;3.在轨迹生成中,需要占用大量的时间,效率较低。通过工业机器人离线编程软件生成轨迹时,三维几何模型和工业机器人工作站之间存在一定偏差,导致工业机器人无法正常完成生产工作,无法应用于有精度要求的工作场景。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种基于深度视觉传感器的工业机器人轨迹生成***及方法,通过对工件的测量来计算工业机器人轨迹的起点、辅助点、终点,解决了现有工业机器人的轨迹生成工作量较大、环境适应能力差、效率较低以及难以满足精度要求较高的工作场景的问题。
本发明提供一种基于深度视觉传感器的机器人轨迹生成***,所述***包括工业机器人本体、机器人控制器、示教器、深度视觉传感器、离线编程***、轨迹生成指令软件包以及轨迹生产控制器,所述深度视觉传感器通过夹具固定于工业机器人本体的法兰盘的工具上。
进一步的,夹具包括绝缘开口套A、绝缘开口套B、夹块A、夹块B以及连接板,所述绝缘开口套A和绝缘开口套B紧密结合,夹块A和夹块B通过螺杆连接,用于夹紧绝缘开口套A和绝缘开口套B,连接板安装在夹具A上,深度视觉传感器通过两个角度调节螺栓设置于连接板上,通过角度调节螺栓调节深度视觉传感器的安装角度。
进一步的,所述工业机器人本体、机器人控制器以及轨迹生产控制器之间通过以太网进行指令传输。
一种基于深度视觉传感器的机器人轨迹生成方法,所述方法包括以下步骤:
步骤1:将深度视觉传感器安装固定于工业机器人本体的法兰盘工具上;
步骤2:对深度视觉传感器进行标定,确定工业机器人法兰盘坐标系与深度视觉传感器坐标系的相对关系;
步骤3:通过离线编程***完成测量的轨迹规划,并生成工业机器人可运行指令程序后导入机器人控制器,所述可运行指令包括运动类指令、测量类指令以及轨迹生成类指令;
步骤4:机器人控制器调用运动类指令,控制工业机器人本体运动到测量位置;
步骤5:机器人控制器调用测量类指令,轨迹生成控制器接收到指令后进行轨迹测量;
步骤6:轨迹测量完成后,机器人控制器调用轨迹生成类指令,轨迹生成控制器接收到指令后根据轨迹测量信息生成轨迹,工业机器人按照生成轨迹进行工业加工生成工作。
进一步的,所述轨迹测量具体步骤如下:
步骤5.1:记录工业机器人当前测量位置;
步骤5.2:获取深度视觉传感器采集的断面轮廓图像;
步骤5.3:对断面轮廓图像进行特征识别,获取特征点位置;
步骤5.4:将特征点位置和工业机器人当前测量位置进行匹配,统一到同一个坐标系中,并将特征点作为测量点,并记录测量点。
进一步的,所述生成轨迹的具体步骤如下:
步骤6.1:根据测量点计算工业机器人的起点位置、终点位置以及辅助点位置;
步骤6.2:机器人控制器调用运行类指令,并结合起点位置、终点位置以及辅助点位置生成轨迹
如上所述,本发明的一种基于深度视觉传感器的机器人轨迹生成***及方法,具有以下有益效果:
1.本发明中,采用离线编程***的示教过程不再占用工业加工生成时间,提高了设备使用效率。
2.本发明中,示教过程在电脑上(机器人控制器和轨迹生成控制器都是工业电脑)完成,而不是在工业机器人上完成,降低了示教的工作强度。
3.本发明中,示教时间缩短了30%以上,减少了工业机器人***的部署时间。
4.本发明中,各种生产工艺可以通过离线编程软件逐渐固化沉淀下来,并逐渐形成行业标准,进而提高工业机器人加工的生产水平。
5.本发明中,采用轨迹测量的方法使得工业机器人在工件个体差异的情况下能正常工作,提高了工业机器人的环境适应能力。
6.本发明中,***的整体柔性提高,使得工业机器人能够适用小批量生产。
7.本发明中,使得示教器的硬件作用被弱化,可以让多个工业机器人共同使用一台示教器,减少硬件成本。
附图说明
图1显示为本发明实施例中公开的基于深度视觉传感器的机器人轨迹生成***组成图;
图2显示为本发明实施例中公开的深度视觉传感器安装结构示意图;
图中标记:1-夹块A,2-夹块B,3-绝缘开口套A,4-绝缘开口套B,5-连接板,6-深度视觉传感器。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
如图1所示,本发明提供一种基于深度视觉传感器的机器人轨迹生成***,包括工业机器人***和轨迹生成***,所述工业机器人***包括机器人本体、机器人控制器、示教器,所述轨迹生成***包括深度视觉传感器、离线编程***、轨迹生成指令软件包以及轨迹生成控制器,所述机器人控制包括运动控制器和本体驱动单元,所述深度视觉传感器通过夹具固定于工业机器人本体的法兰盘工具上,其中,法兰盘上设置了多种工业加工工具(例如切割、夹取、焊接等)。
其中,工业机器人本体、机器人控制器以及轨迹生产控制器之间通过以太网进行指令传输。
如图2所示,通过夹具将深度视觉传感器安装固定在管状或者圆柱状的工业加工工具上,所述夹具包括绝缘开口套A、绝缘开口套B、夹块A、夹块B以及连接板,所述绝缘开口套A和绝缘开口套B紧密结合,夹块A和夹块B通过螺杆连接,用于夹紧绝缘开口套A和绝缘开口套B,连接板安装在夹具B上,深度视觉传感器通过两个角度调节螺栓设置于连接板上,通过角度调节螺栓调节深度视觉传感器的安装角度。
一种基于深度视觉传感器的机器人轨迹生成方法包括以下步骤:
步骤1:将深度视觉传感器安装固定于工业机器人本体的法兰盘工具上;
步骤2:当深度视觉传感器安装固定后,对深度视觉传感器进行标定,用于寻找工业机器人法兰盘坐标系和深度视觉传感器坐标系的相对关系,也就是深度视觉传感器坐标系在工业机器人法兰盘坐标系下的位置和姿态。
步骤3:当深度视觉传感器标定完成后,***进行轨迹生成;
所述轨迹生成步骤如下:
(1)通过离线编程***完成测量轨迹的生成;
在离线编程***中,完成对工件的测量轨迹规划,并生成工业机器人可运行指令程序,所述指令程序由三类指令组成:1.运动类指令;2.测量类指令;3.轨迹生成类指令。
其中,测量轨迹的规划方法类似于背景技术方式一采用的示教器生成轨迹的方法,区别在于,只是需要进行简单的轨迹规划,不需要很精确,因此规划的测量轨迹只需要与工件的几何边有一个交点。
(2)将工业机器人可运行指令程序通过以太网导入机器人控制器。
(3)机器人控制器调用运动类指令,控制工业机器人本体运动到测量位置。
(4)机器人控制器调用测量类指令,轨迹生成控制器接收到指令并发出测量命令完成以下动作:
i.记录工业机器人当前测量位置;
ii.获取深度视觉传感器断面轮廓图像;
iii.对断面轮廓图像进行特征识别,识别特征点位置,例如:角顶点、台阶拐点等;
iv.将特征点位置和工业机器人当前测量位置进行匹配,统一到同一个坐标系中,将特征点作为测量点;
v.记录测量点;
(5)完成所有测量后,机器人控制器调用轨迹生成类指令,轨迹生成控制器收到指令并根据之前记录的测量点计算工业机器人的起点位置、终点位置以及辅助点位置。
(6)工业机器人机器人控制器调用运动类指令,按照计算得到的起点位置、终点位置以及辅助点位置运行,完成对工件的工业加工生产工作。
其中,深度视觉传感器是实现测量功能的主要硬件设备,深度视觉传感器能够通过内置的激光发生器阵列、CMOS传感器阵列以及配套的光学结构,测量工件在激光所在断面轮廓图像,测量结果由640~1280个坐标点构成,每个坐标点都单独描述了测量点在深度视觉传感器坐标系下的位置,所以坐标点的集合就构成了一帧断面轮廓图像;
虽然工件的三维空间几何形状各不相同,但是在有限的区间内,工件的断面轮廓图像形式是有限的,在本发明中,将断面轮廓图像分为:V型、A型、单层台阶、双层台阶、圆弧切线、N型、M型、U型、梯形、单层凸台、单层凹槽、双层凸台、双层凹槽,13中轮廓类型,这些轮廓类型都通过10个以内有序的特征点来描述,每一种断面轮廓图像都有与之匹配的轮廓特征识别算法。
在实际的工业加工生成过程中,因为工件的几何形状都是已知的,所以断面轮廓图像的类型具体选用哪一些特征点属于先验知识,可以提前输入***,因此轨迹生成步骤(4)在执行测量类指令时,步骤如下:
i.调用提前输入***的断面轮廓图像特征识别算法和特征点序号,作为断面轮廓图像处理算法的参数,对断面轮廓图像进行图像,计算出唯一的特征点位置;
ii.将特征点位置通过深度视觉传感器标定数据转换到工业机器人法兰盘坐标系中,作为测量点;
运动类指令分为三类:a.点到点指令;b.直线指令;c.圆弧指令,其中,点到点指令和直线指令需要指定起点和终点,圆弧指令需要指定起点、终点以及辅助点。因此,只要能够确定工业机器人的运行过程中所有的起点、终点和辅助点就可以结合现有的运行类指令生成工业机器人的运行轨迹。
其中,辅助点可以直接采用测量点作为辅助点;起点和终点采用曲线相交(包括直线相交)的方式或者点面相交的方式间接获得,因此可以进一步将该问题分解为如何通过测量点计算曲线和平面。
因为所有的测量点都已经统一到同一个机器人坐标系下,因此两个测量点就可以构造直线,三个测量点就可以构造圆弧,三个测量点还可以构造一个空间平面。通过三种指令的组合就可以通过空间几何算法算出精度极高的起点和终点。
综上所述,本发明通过对工件的测量来计算工业机器人轨迹的起点、辅助点、终点,解决了现有工业机器人的轨迹生成工作量较大、环境适应能力差、效率较低以及难以满足精度要求较高的工作场景的问题。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (6)

1.一种基于深度视觉传感器的机器人轨迹生成***,其特征在于:所述***包括工业机器人本体、机器人控制器、示教器、深度视觉传感器、离线编程***、轨迹生成指令软件包以及轨迹生产控制器,所述深度视觉传感器通过夹具固定于工业机器人本体的法兰盘的工具上。
2.根据权利要求1所述的基于深度视觉传感器的工业机器人轨迹生成***,其特征在于:夹具包括绝缘开口套A、绝缘开口套B、夹块A、夹块B以及连接板,所述绝缘开口套A和绝缘开口套B紧密结合,夹块A和夹块B通过螺杆连接,用于夹紧绝缘开口套A和绝缘开口套B,连接板安装在夹具A上,深度视觉传感器通过两个角度调节螺栓设置于连接板上,通过角度调节螺栓调节深度视觉传感器的安装角度。
3.根据权利要求1所述的基于深度视觉传感器的机器人轨迹生成***,其特征在于:所述工业机器人本体、机器人控制器以及轨迹生产控制器之间通过以太网进行指令传输。
4.一种基于深度视觉传感器的机器人轨迹生成方法,其特征在于,所述方法包括以下步骤:
步骤1:将深度视觉传感器安装固定于工业机器人本体的法兰盘工具上;
步骤2:对深度视觉传感器进行标定,确定工业机器人法兰盘坐标系与深度视觉传感器坐标系的相对关系;
步骤3:通过离线编程***完成测量的轨迹规划,并生成工业机器人可运行指令程序后导入机器人控制器,所述可运行指令包括运动类指令、测量类指令以及轨迹生成类指令;
步骤4:机器人控制器调用运动类指令,控制工业机器人本体运动到测量位置;
步骤5:机器人控制器调用测量类指令,轨迹生成控制器接收到指令后进行轨迹测量;
步骤6:轨迹测量完成后,机器人控制器调用轨迹生成类指令,轨迹生成控制器接收到指令后根据轨迹测量信息生成轨迹,工业机器人按照生成轨迹进行工业加工生成工作。
5.根据权利要求4所述的基于深度视觉传感器的机器人轨迹生成方法,其特征在于,所述轨迹测量具体步骤如下:
步骤5.1:记录工业机器人当前测量位置;
步骤5.2:获取深度视觉传感器采集的断面轮廓图像;
步骤5.3:对断面轮廓图像进行特征识别,获取特征点位置;
步骤5.4:将特征点位置和工业机器人当前测量位置进行匹配,统一到同一个坐标系中,并将特征点作为测量点,并记录测量点。
6.根据权利要求1所述的基于深度视觉传感器的机器人轨迹生成方法,其特征在于,所述生成轨迹的具体步骤如下:
步骤6.1:根据测量点计算工业机器人的起点位置、终点位置以及辅助点位置;步骤6.2:机器人控制器调用运行类指令,并结合起点位置、终点位置以及辅助点位置生成轨迹。
CN201811519631.9A 2018-12-12 2018-12-12 一种基于深度视觉传感器的机器人轨迹生成***及方法 Pending CN111300490A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811519631.9A CN111300490A (zh) 2018-12-12 2018-12-12 一种基于深度视觉传感器的机器人轨迹生成***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811519631.9A CN111300490A (zh) 2018-12-12 2018-12-12 一种基于深度视觉传感器的机器人轨迹生成***及方法

Publications (1)

Publication Number Publication Date
CN111300490A true CN111300490A (zh) 2020-06-19

Family

ID=71159813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811519631.9A Pending CN111300490A (zh) 2018-12-12 2018-12-12 一种基于深度视觉传感器的机器人轨迹生成***及方法

Country Status (1)

Country Link
CN (1) CN111300490A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043151A (zh) * 2021-11-29 2022-02-15 国网四川省电力公司映秀湾水力发电总厂 一种焊接轨迹自动快速生成***、方法及焊接机器人
CN114654469A (zh) * 2022-04-12 2022-06-24 东莞理工学院 基于深度学习的焊接机器人控制***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002018754A (ja) * 2000-07-10 2002-01-22 Toyota Central Res & Dev Lab Inc ロボット装置及びその制御方法
CN101053953A (zh) * 2004-07-15 2007-10-17 上海交通大学 焊接机器人单目视觉传感器的手-眼关系快速标定方法
CN101226640A (zh) * 2007-12-21 2008-07-23 西北工业大学 基于多双目立体视觉的运动捕获方法
CN101612736A (zh) * 2009-07-23 2009-12-30 上海交通大学 机器人mig焊双目视觉传感***
US20100274391A1 (en) * 2007-12-15 2010-10-28 Abb Ag Determining the position of an object
CN108453439A (zh) * 2018-03-14 2018-08-28 清华大学天津高端装备研究院洛阳先进制造产业研发基地 基于视觉传感的机器人焊接轨迹自主编程***及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002018754A (ja) * 2000-07-10 2002-01-22 Toyota Central Res & Dev Lab Inc ロボット装置及びその制御方法
CN101053953A (zh) * 2004-07-15 2007-10-17 上海交通大学 焊接机器人单目视觉传感器的手-眼关系快速标定方法
US20100274391A1 (en) * 2007-12-15 2010-10-28 Abb Ag Determining the position of an object
CN101226640A (zh) * 2007-12-21 2008-07-23 西北工业大学 基于多双目立体视觉的运动捕获方法
CN101612736A (zh) * 2009-07-23 2009-12-30 上海交通大学 机器人mig焊双目视觉传感***
CN108453439A (zh) * 2018-03-14 2018-08-28 清华大学天津高端装备研究院洛阳先进制造产业研发基地 基于视觉传感的机器人焊接轨迹自主编程***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴林等编著: "《智能化焊接技术》", 陕西科学技术出版社, pages: 196 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043151A (zh) * 2021-11-29 2022-02-15 国网四川省电力公司映秀湾水力发电总厂 一种焊接轨迹自动快速生成***、方法及焊接机器人
CN114654469A (zh) * 2022-04-12 2022-06-24 东莞理工学院 基于深度学习的焊接机器人控制***

Similar Documents

Publication Publication Date Title
EP1592536B1 (en) A method and a system for programming an industrial robot to move relative to defined positions on an object, including generation of a surface scanning program
CN111152229B (zh) 3d机械视觉的机械手引导方法和装置
CN107052950A (zh) 一种复杂曲面打磨抛光***及方法
US20050273199A1 (en) Robot system
EP3203181A1 (en) Aligning parts using multi-part scanning and feature based coordinate systems
US9205525B2 (en) System and method for offsetting measurement of machine tool
CN109163675B (zh) 一种基于激光跟踪仪检测角摆轴位置精度的方法
JP2019081230A (ja) 教示点又は教示線の位置ずれを警告又は修正するロボット教示装置
CN105806251A (zh) 基于线激光传感器的四轴测量***及其测量方法
CN103759635A (zh) 一种精度与机器人无关的扫描测量机器人检测方法
CN111596614B (zh) 基于云边协同的运动控制误差补偿***及方法
CN109848989B (zh) 一种基于红宝石探针的机器人执行末端自动标定及检测方法
CN105538015A (zh) 一种叶片类复杂薄壁型面零件自适应定位方法
CN111300490A (zh) 一种基于深度视觉传感器的机器人轨迹生成***及方法
Fan et al. An automated reconfigurable flexible fixture for aerospace pipeline assembly before welding
JP2006289580A (ja) プログラムの教示点修正方法及びプログラム教示点修正装置
Bhatt et al. Optimizing part placement for improving accuracy of robot-based additive manufacturing
Geng et al. A method of welding path planning of steel mesh based on point cloud for welding robot
US6597967B2 (en) System and method for planning a tool path along a contoured surface
CN114310897A (zh) 机器人测量的位姿优化及运动光顺计算方法、***及应用
Yu et al. Multiseam tracking with a portable robotic welding system in unstructured environments
Vosniakos et al. Industrial robot path planning in a constraint-based computer-aided design and kinematic analysis environment
CN112344868A (zh) 用于飞机壁板制造的精度自修正方法及***
JP2021186929A (ja) 多軸ロボットの制御方法
Yusen et al. A method of welding path planning of steel mesh based on point cloud for welding robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200619