CN112207804A - 带电作业机器人及多传感器识别定位方法 - Google Patents

带电作业机器人及多传感器识别定位方法 Download PDF

Info

Publication number
CN112207804A
CN112207804A CN202011414234.2A CN202011414234A CN112207804A CN 112207804 A CN112207804 A CN 112207804A CN 202011414234 A CN202011414234 A CN 202011414234A CN 112207804 A CN112207804 A CN 112207804A
Authority
CN
China
Prior art keywords
data
mechanical arm
binocular camera
local
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011414234.2A
Other languages
English (en)
Inventor
李惠宇
王新建
李帅
梁保秋
任青亭
吕鹏
李威
冬旭
林德政
冯俐
王朝松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Ruijia Tianjin Intelligent Robot Co ltd
Original Assignee
State Grid Ruijia Tianjin Intelligent Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Ruijia Tianjin Intelligent Robot Co ltd filed Critical State Grid Ruijia Tianjin Intelligent Robot Co ltd
Priority to CN202011414234.2A priority Critical patent/CN112207804A/zh
Publication of CN112207804A publication Critical patent/CN112207804A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本发明提供了一种带电作业机器人及多传感器识别定位方法,多轴转台带动激光雷达及全局双目相机运动至预设位置;激光雷达采集预设位置对应的全局范围的点云数据;全局双目相机采集全局范围的第一图像数据;控制器根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;机械臂带动局部双目相机运动至运动数据对应的局部位置;局部双目相机采集局部位置对应的局部范围的第二图像数据;控制器基于第二图像数据及机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系;基于相对位姿关系,更新机械臂的运动数据,以使机械臂运动至作业位置进行作业。本发明通过对机械臂的运动进行全局及局部的定位,提高了定位精度,从而提高了作业效率。

Description

带电作业机器人及多传感器识别定位方法
技术领域
本发明涉及自动化技术领域,尤其是涉及一种带电作业机器人及多传感器识别定位方法。
背景技术
目前,激光雷达传感器与视觉传感器、IMU(Inertial Measurement Unit,惯性测量单元)、转台、深度相机等传感器相互融合实现自动建图、定位的方式被广泛应用到自动驾驶、智能机器人、智能物流等多个行业中。相关技术中,上述方式中的激光雷达位置发生移动后会产生畸变,导致融合后的定位精度仍然不高,从而导致作业效率低。
发明内容
鉴于此,本发明的目的在于提供一种带电作业机器人及多传感器识别定位方法,以提高定位精度,从而提高带电作业机器人的作业效率。
第一方面,本发明实施例提供了一种带电作业机器人,该带电作业机器人包括激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机、工作台及控制器;激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机分别与控制器通信连接;激光雷达及全局双目相机的位置相对固定,激光雷达及全局双目相机通过多轴转台设置于工作台;局部双目相机固定于机械臂的末端;机械臂的底座固定于工作台;多轴转台用于带动激光雷达及全局双目相机运动至预设位置;激光雷达用于采集预设位置对应的全局范围的点云数据;全局双目相机用于采集全局范围的第一图像数据;控制器用于根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;机械臂用于带动局部双目相机运动至运动数据对应的局部位置;局部双目相机用于采集局部位置对应的局部范围的第二图像数据;所述第二图像数据包括待作业物体的图像;控制器用于基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系;基于相对位姿关系,更新机械臂的运动数据,以使机械臂运动至预期的作业位置,并对待作业物体进行作业。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,上述控制器还用于基于角度数据、第一图像数据以及预先获取的标定数据,将第一图像数据对齐至预设的基准坐标系中;基于预设的标定数据,对点云数据、对齐后的第一图像数据以及角度数据进行融合,生成机械臂的运动数据。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,上述控制器还用于基于第二图像数据及预设的深度学习模型获取待作业物体的特征点;基于极线约束进行特征点的匹配,得到待作业物体的目标位置;根据目标位置及多轴数据,确定待作业物体与机械臂的相对位姿关系。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,上述控制器还用于根据第二图像数据,判断机械臂是否完成作业;如果完成,则停止作业。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,当机械臂运动至预期的作业位置,机械臂用于安装零部件或者卸载零部件。
结合第一方面,本发明实施例提供了第一方面的第五种可能的实施方式,其中,上述机械臂包括第一机械臂及第二机械臂;局部双目相机包括第一局部双目相机及第二局部双目相机;第一局部双目相机设置于第一机械臂的末端;第二局部双目相机设置于第二机械臂的末端。
第二方面,本发明实施例还提供一种多传感器识别定位方法,该方法应用于上述带电作业机器人;该带电作业机器人包括激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机、工作台及控制器;激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机分别与控制器通信连接;激光雷达及全局双目相机的位置相对固定,激光雷达及全局双目相机通过多轴转台设置于工作台;局部双目相机固定于机械臂的末端;机械臂的底座固定于工作台;该方法包括:多轴转台带动激光雷达及全局双目相机运动至预设位置;激光雷达采集预设位置对应的全局范围的点云数据;全局双目相机采集全局范围的第一图像数据;控制器根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;机械臂带动局部双目相机运动至运动数据对应的局部位置;局部双目相机采集局部位置对应的局部范围的第二图像数据;所述第二图像数据包括待作业物体的图像;控制器基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系;基于相对位姿关系,更新机械臂的运动数据,以使机械臂运动至预期的作业位置,并对待作业物体进行作业。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,上述根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据的步骤,包括:基于角度数据、第一图像数据以及预先获取的标定数据,将第一图像数据对齐至预设的基准坐标系中;基于预设的标定数据,对点云数据、对齐后的第一图像数据以及角度数据进行融合,生成机械臂的运动数据。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,上述基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系的步骤,包括:基于第二图像数据及预设的深度学习模型获取待作业物体的特征点;基于极线约束进行特征点的匹配,得到待作业物体的目标位置;根据目标位置及多轴数据,确定待作业物体与机械臂的相对位姿关系。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,上述方法还包括:控制器根据第二图像数据,判断机械臂是否完成作业;如果完成,则停止作业。
本发明实施例带来了以下有益效果:
本发明实施例提供了一种带电作业机器人及多传感器识别定位方法,多轴转台带动激光雷达及全局双目相机运动至预设位置;激光雷达采集预设位置对应的全局范围的点云数据;全局双目相机采集全局范围的第一图像数据;控制器根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;机械臂带动局部双目相机运动至运动数据对应的局部位置;局部双目相机采集局部位置对应的局部范围的第二图像数据;控制器基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系;基于相对位姿关系,更新机械臂的运动数据,以使机械臂运动至预期的作业位置,并对待作业物体进行作业。该方式通过对机械臂进行全局及局部的定位,提高了机械臂的定位精度,从而提高带电作业机器人的作业效率。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种带电作业机器人的结构示意图;
图2为本发明实施例提供的一种带电工作机器人***的工作示意图;
图3为本发明实施例提供的神经网络的结构示意图;
图4为本发明实施例提供的另一种带电作业机器人的结构图;
图5为本发明实施例提供的一种多传感器识别定位方法的流程图。
图标:1-激光雷达;2-全局双目相机;3-多轴转台;4-机械臂;5-局部双目相机;6-工作台;7-控制器;4a-机械臂一;5a-局部定位双目相机一; 5b-局部定位双目相机二;4b-机械臂二。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,双目相机、激光雷达、深度相机、IMU等传感器由于其自身的属性均存在着不可规避的缺点,单一的传感器不能完成精确定位(毫米级)的需求;例如:双目相机易受到光照强度和纹理特征的影响,激光雷达获取的点云数据较稀疏且误差在几厘米级,IMU惯性测量单元存在零点漂移,随着时间推移累计误差增加显著等。因此,在工业生产过程中,通常采用多传感器融合的定位方式;激光雷达传感器与视觉传感器、IMU、转台、深度相机等传感器相互融合实现自动建图、定位的方式已经广泛应用到自动驾驶、智能机器人、智能物流等多个行业中。
然而,目前,激光雷达与视觉相融合的方法,未考虑激光雷达位置发生移动存在的畸变问题,导致融合后的定位精度仍然不高,且易受到干扰。例如,基于低线束激光雷达和双目相机的融合方法主要采用利用图像数据与激光雷达数据的重叠区域数据,生成误差系数,并对图像数据进行校准。该方法在复杂测量场景下获取的图像数据易受到干扰,生成错误的误差图。
基于此,本发明实施例提供的一种带电作业机器人及多传感器识别定位方法,可以应用于多种作业场景。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种带电作业机器人进行详细介绍。
本发明实施例提供了一种带电作业机器人,其结构示意图如图1所示;该带电作业机器人包括激光雷达1、全局双目相机2、多轴转台3、机械臂4、局部双目相机5、工作台6及控制器7;激光雷达1、全局双目相机2、多轴转台3、机械臂4、局部双目相机5分别与控制器7通信连接;激光雷达1及全局双目相机2的位置相对固定,激光雷达1及全局双目相机2通过多轴转台3设置于工作台6;局部双目相机5固定于机械臂4的末端;机械臂4的底座固定于工作台。
多轴转台用于带动激光雷达及全局双目相机运动至预设位置;该多轴转台可以包括X轴、Y轴的转动自由度,还可以包括X轴、Y轴及Z轴的转动自由度。
当激光雷达及全局双目相机处于预设位置时,激光雷达用于采集预设位置对应的全局范围的点云数据;全局双目相机用于采集全局范围的第一图像数据。
控制器基于用于根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;该运动数据为机械臂的行走路径的初步数据。具体而言,控制器可以基于角度数据、第一图像数据以及预先获取的标定数据,将第一图像数据对齐至预设的基准坐标系中;基于预设的标定数据,对点云数据、对齐后的第一图像数据以及角度数据进行融合,生成机械臂的运动数据。该标定数据的获取过程可以在作业之前进行。
机械臂用于该运动数据带动局部双目相机运动至运动数据对应的局部位置;局部双目相机用于采集局部位置对应的局部范围的第二图像数据;其中,第二图像数据包括待作业物体的图像。在具体实现过程中,上述机械臂可以有两个,模拟人的手臂,分别为第一机械臂及第二机械臂;对应地,局部双目相机也有两个,分别为第一局部双目相机及第二局部双目相机;第一局部双目相机设置于第一机械臂的末端;第二局部双目相机设置于第二机械臂的末端。
控制器用于基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系;基于相对位姿关系,更新机械臂的运动数据,以使机械臂运动至预期的作业位置,并对待作业物体进行作业。具体而言,控制器可以基于第二图像数据及预设的深度学习模型获取待作业物体的特征点;基于极线约束进行特征点的匹配,从而得到待作业物体的目标位置;根据目标位置及多轴数据,确定待作业物体与机械臂的相对位姿关系。
在作业过程中,上述控制器还用于根据局部双目相机拍摄的第二图像数据,判断机械臂是否完成作业;如果完成,则停止作业。
本发明实施例提供了一种带电作业机器人,多轴转台带动激光雷达及全局双目相机运动至预设位置;激光雷达采集预设位置对应的全局范围的点云数据;全局双目相机采集全局范围的第一图像数据;控制器根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;机械臂带动局部双目相机运动至运动数据对应的局部位置;局部双目相机采集局部位置对应的局部范围的第二图像数据;控制器基于第二图像数据及局部位置对应的机械臂的多轴数据,更新机械臂的运动数据,以使机械臂运动至预期的作业位置,并进行作业。该方式通过对机械臂进行全局及局部的定位,提高了机械臂的定位精度,从而提高带电作业机器人的作业效率。
基于上述实施例,本发明还提供了一种基于全局定位双目相机传感器(相当于上述“全局双目相机”,也简称为“全局定位双目相机”)、局部定位双目相机传感器(相当于上述“局部双目相机”,也简称为“局部定位双目相机”)、激光雷达、多轴转台等测量数据的相互融合实现精确定位的带电工作机器人***。该***包括了多传感器数据融合实现精确定位的方法以及带电工作机器人的双机械臂配合的执行机构,实现双目相机、激光雷达和多轴转台的多级联合高精度测量与定位,以及指导机械臂执行相应的操作,并检测机械臂执行操作是否成功,构成一个集定位-执行-检测的闭环***。
如图2所示,该***的工作过程如下:
(1)全局定位双目相机用于获取全局检测范围(也可称为“全局范围”)的图像数据。
(2)激光雷达传感器用于获取全局范围内的三维点云数据。
(3)所述多轴转台根据其转动角度获取相对于归零位置的转换矩阵数据。
(4)利用多轴转台角度数据及全局双目相机数据,基于两者的外参矩阵及多轴转台的角度数据实现全局双目相机多帧数据的坐标系对齐。具体而言该过程中需要用到预先获取的标定数据。在标定过程中,对激光雷达、全局定位双目相机、多轴转台、局部定位双目相机及机械臂进行标定,获取各传感器相对基准坐标系(标定板所在坐标系)的转换矩阵。
(5)对所述激光雷达数据/全局双目相机数据/多轴转台角度数据进行数据融合,融合数据用于全局定位,对机械臂行走路径提供初步指导数据;具体而言,多轴转台带动激光雷达和全局定位双目相机移动,位姿的转换矩阵与多轴转台角度之间的关系如下述公式所述:
Figure 159093DEST_PATH_IMAGE001
其中,
Figure 554302DEST_PATH_IMAGE002
为位姿的转换矩阵,
Figure 368675DEST_PATH_IMAGE003
Figure 613973DEST_PATH_IMAGE004
Figure 881007DEST_PATH_IMAGE005
分别为多轴转台在X轴、Y轴、Z轴的角度。
激光雷达获取检测区域内的点云数据
Figure 79907DEST_PATH_IMAGE006
,全局定位双目相机获取多片点云数据
Figure 748786DEST_PATH_IMAGE007
,其中
Figure 679833DEST_PATH_IMAGE008
为全局定位双目相机坐标系下的点云坐标,
Figure 434162DEST_PATH_IMAGE009
为基准坐标系下点云坐标。
激光雷达获取的点云数据
Figure 623704DEST_PATH_IMAGE006
与全局定位双目相机获取的点云数据
Figure 147089DEST_PATH_IMAGE010
进行点云融合,为了在保证细节的情况下减小冗余或者重叠点云的数量,采用八叉树的方式划分立体空间为多层空间体素,每个最小体素空间内仅仅输出1个点,从而保证了点云数据的完整和精简性,输出点的坐标则根据激光雷达数据与全局定位双目相机的数据分别采用不同的权重值获取,并进行点云的平滑滤波及杂散点去除。
(6)所述局部定位双目相机用于获取当前机械臂末端执行范围的图像数据;具体而言,机械臂根据全局建模数据初步找到目标位置,局部定位双目相机采用深度学习(如神经网络)的方式获取被测物体的特征点集,双目相机基于极线约束进行特征点的匹配,并重建三维点坐标
Figure 576933DEST_PATH_IMAGE011
,从而更加准确的定位机械臂末端与被测目标的位姿关系,指导机械臂精确执行下一个操作。其中,神经网络的结构示意图如图3所示,包括输入层、隐藏层及输出层,上述双目相机采集的数据可以作为输入数据输入到训练好的神经网络中,由神经网络输出被测物体的特征点集。
(7)所述局部定位双目相机数据与机械臂运动时的多轴数据相配合,将局部双目相机测量数据对齐到基准坐标系上,便于数据融合和定位操作。
(8)所述机械臂根据多传感器的测量数据进行相应的执行操作,如安装零部件和卸载零部件。
(9)局部定位双目相机检测相应机械臂执行操作是否完成;具体而言,7) 机械臂执行完操作后,局部定位双目相机获取当前位姿下图像数据,进一步检测机械臂执行操作是否完成,形成一个检测-执行-检测的闭环操作流程。
当带电作业机器人包括两个机械臂时,其结构图如图4所示;其中,其中4a为机械臂一;5a为局部双目相机一;1为激光雷达(也称为“全局定位激光雷达”);3为多轴转台;5b为局部双目相机二;4b为机械臂二;2为全局双目相机。机械臂一和机械臂二的定位、执行及检测的原理相同,实现两机械臂相互配合作业。
上述机器人通过多传感器进行数据融合提高了***定位的准确性和精度;通过多传感器数据融合进行全局定位避免了单一激光雷达定位的不稳定性因素,保障了全局定位的可靠性;通过局部双目相机进行精确测量,为机械臂成功操作提供了保障;通过融合定位-执行操作-检测-执行的闭环操作保障了机械臂操作的鲁棒性;上述非接触式多传感器融合进行测量定位及机械臂执行的闭环***大大减小了人为干预的程度,提高了自动化程度。
对应于上述实施例,本发明实施例还提供一种多传感器识别定位方法,该带电作业机器人包括激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机、工作台及控制器;激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机分别与控制器通信连接;激光雷达及全局双目相机的位置相对固定,激光雷达及全局双目相机通过多轴转台设置于工作台;局部双目相机固定于机械臂的末端;机械臂的底座固定于工作台;如图5所示,该方法包括以下步骤:
步骤S500,多轴转台带动激光雷达及全局双目相机运动至预设位置;
步骤S502,激光雷达采集预设位置对应的全局范围的点云数据;
步骤S504,全局双目相机采集全局范围的第一图像数据;
步骤S506,控制器根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据;
步骤S508,机械臂带动局部双目相机运动至运动数据对应的局部位置;
步骤S510,局部双目相机采集局部位置对应的局部范围的第二图像数据;
步骤S512,控制器用于基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系;
步骤S514,基于相对位姿关系,更新机械臂的运动数据,以使机械臂运动至预期的作业位置,并对待作业物体进行作业。
进一步地,上述根据点云数据、第一图像数据及多轴转台的角度数据,确定机械臂的运动数据的步骤,包括:基于角度数据、第一图像数据以及预先获取的标定数据,将第一图像数据对齐至预设的基准坐标系中;基于预设的标定数据,对点云数据、对齐后的第一图像数据以及角度数据进行融合,生成机械臂的运动数据。
进一步地,上述基于第二图像数据及局部位置对应的机械臂的多轴数据,确定待作业物体与机械臂的相对位姿关系的步骤,包括:基于第二图像数据及预设的深度学习模型获取待作业物体的特征点;基于极线约束进行特征点的匹配,得到待作业物体的目标位置;根据目标位置及多轴数据,确定待作业物体与机械臂的相对位姿关系。
进一步地,上述方法还包括:控制器根据第二图像数据,判断机械臂是否完成作业;如果完成,则停止作业。
本发明实施例提供的多传感器识别定位方法,与上述实施例提供的带电作业机器人具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
本发明实施例所提供的带电作业机器人及多传感器识别定位方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种带电作业机器人,其特征在于,所述带电作业机器人包括激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机、工作台及控制器;所述激光雷达、所述全局双目相机、所述多轴转台、所述机械臂、所述局部双目相机分别与所述控制器通信连接;所述激光雷达及所述全局双目相机的位置相对固定,所述激光雷达及所述全局双目相机通过所述多轴转台设置于所述工作台;所述局部双目相机固定于所述机械臂的末端;所述机械臂的底座固定于所述工作台;
所述多轴转台用于带动所述激光雷达及所述全局双目相机运动至预设位置;
所述激光雷达用于采集所述预设位置对应的全局范围的点云数据;
所述全局双目相机用于采集所述全局范围的第一图像数据;
所述控制器用于根据所述点云数据、所述第一图像数据及所述多轴转台的角度数据,确定所述机械臂的运动数据;
所述机械臂用于带动局部双目相机运动至所述运动数据对应的局部位置;
所述局部双目相机用于采集所述局部位置对应的局部范围的第二图像数据;所述第二图像数据包括待作业物体的图像;
所述控制器用于基于所述第二图像数据及所述局部位置对应的所述机械臂的多轴数据,确定所述待作业物体与所述机械臂的相对位姿关系;基于相对位姿关系,更新所述机械臂的运动数据,以使所述机械臂运动至预期的作业位置,并对待作业物体进行作业。
2.根据权利要求1所述的带电作业机器人,其特征在于,所述控制器还用于基于所述角度数据、所述第一图像数据以及预先获取的标定数据,将所述第一图像数据对齐至预设的基准坐标系中;基于预设的标定数据,对点云数据、对齐后的第一图像数据以及角度数据进行融合,生成所述机械臂的运动数据。
3.根据权利要求1所述的带电作业机器人,其特征在于,所述控制器还用于基于第二图像数据及预设的深度学习模型获取所述待作业物体的特征点;基于极线约束进行所述特征点的匹配,得到所述待作业物体的目标位置;根据所述目标位置及所述多轴数据,确定待作业物体与所述机械臂的相对位姿关系。
4.根据权利要求1所述的带电作业机器人,其特征在于,所述控制器还用于根据所述第二图像数据,判断所述机械臂是否完成作业;如果完成,则停止作业。
5.根据权利要求1所述的带电作业机器人,其特征在于,当所述机械臂运动至预期的作业位置,所述机械臂用于安装零部件或者卸载零部件。
6.根据权利要求1所述的带电作业机器人,其特征在于,所述机械臂包括第一机械臂及第二机械臂;所述局部双目相机包括第一局部双目相机及第二局部双目相机;所述第一局部双目相机设置于所述第一机械臂的末端;所述第二局部双目相机设置于所述第二机械臂的末端。
7.一种多传感器识别定位方法,其特征在于,所述方法应用于如权利要求1-6任一项所述的带电作业机器人;所述带电作业机器人包括激光雷达、全局双目相机、多轴转台、机械臂、局部双目相机、工作台及控制器;所述激光雷达、所述全局双目相机、所述多轴转台、所述机械臂、所述局部双目相机分别与所述控制器通信连接;所述激光雷达及所述全局双目相机的位置相对固定,所述激光雷达及所述全局双目相机通过所述多轴转台设置于所述工作台;所述局部双目相机固定于所述机械臂的末端;所述机械臂的底座固定于所述工作台;所述方法包括:
所述多轴转台带动所述激光雷达及所述全局双目相机运动至预设位置;
所述激光雷达采集所述预设位置对应的全局范围的点云数据;
所述全局双目相机采集所述全局范围的第一图像数据;
所述控制器根据所述点云数据、所述第一图像数据及所述多轴转台的角度数据,确定所述机械臂的运动数据;
所述机械臂带动局部双目相机运动至所述运动数据对应的局部位置;
所述局部双目相机采集所述局部位置对应的局部范围的第二图像数据;所述第二图像数据包括待作业物体的图像;
所述控制器基于所述第二图像数据及所述局部位置对应的所述机械臂的多轴数据,确定所述待作业物体与所述机械臂的相对位姿关系;基于相对位姿关系,更新所述机械臂的运动数据,以使所述机械臂运动至预期的作业位置,并对待作业物体进行作业。
8.根据权利要求7所述的方法,其特征在于,所述根据所述点云数据、所述第一图像数据及所述多轴转台的角度数据,确定所述机械臂的运动数据的步骤,包括:
基于所述角度数据、所述第一图像数据以及预先获取的标定数据,将所述第一图像数据对齐至预设的基准坐标系中;
基于预设的标定数据,对点云数据、对齐后的第一图像数据以及角度数据进行融合,生成所述机械臂的运动数据。
9.根据权利要求7所述的方法,其特征在于,所述基于所述第二图像数据及所述局部位置对应的所述机械臂的多轴数据,确定所述待作业物体与所述机械臂的相对位姿关系的步骤,包括:
基于第二图像数据及预设的深度学习模型获取所述待作业物体的特征点;
基于极线约束进行所述特征点的匹配,得到所述待作业物体的目标位置;
根据所述目标位置及所述多轴数据,确定待作业物体与所述机械臂的相对位姿关系。
10.根据权利要求7所述的方法,其特征在于,所述方法还包括:
所述控制器根据所述第二图像数据,判断所述机械臂是否完成作业;
如果完成,则停止作业。
CN202011414234.2A 2020-12-07 2020-12-07 带电作业机器人及多传感器识别定位方法 Pending CN112207804A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011414234.2A CN112207804A (zh) 2020-12-07 2020-12-07 带电作业机器人及多传感器识别定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011414234.2A CN112207804A (zh) 2020-12-07 2020-12-07 带电作业机器人及多传感器识别定位方法

Publications (1)

Publication Number Publication Date
CN112207804A true CN112207804A (zh) 2021-01-12

Family

ID=74067987

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011414234.2A Pending CN112207804A (zh) 2020-12-07 2020-12-07 带电作业机器人及多传感器识别定位方法

Country Status (1)

Country Link
CN (1) CN112207804A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743385A (zh) * 2021-11-05 2021-12-03 陕西欧卡电子智能科技有限公司 一种无人船水面目标检测方法、装置及无人船

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104842362A (zh) * 2015-06-18 2015-08-19 厦门理工学院 一种机器人抓取物料包的方法和机器人抓取装置
CN105157680A (zh) * 2015-08-28 2015-12-16 北京控制工程研究所 一种全局特征与局部特征结合的视觉测量***及测量方法
CN106959080A (zh) * 2017-04-10 2017-07-18 上海交通大学 一种大型复杂曲面构件三维形貌光学测量***和方法
CN108015764A (zh) * 2017-11-20 2018-05-11 中国运载火箭技术研究院 一种基于多源视觉信息融合的空间零先验目标捕获方法
CN108326845A (zh) * 2017-12-11 2018-07-27 浙江捷尚人工智能研究发展有限公司 基于双目相机和激光雷达的机器人定位方法、装置及***
CN109081026A (zh) * 2018-07-13 2018-12-25 山东省科学院自动化研究所 基于激光测距雷达定位引导的机器人拆垛***及方法
CN109129474A (zh) * 2018-08-10 2019-01-04 上海交通大学 基于多模态融合的机械手主动抓取装置及方法
CN109230580A (zh) * 2018-10-11 2019-01-18 西安中科光电精密工程有限公司 一种基于混放物料信息采集的拆垛机器人***及方法
CN110080326A (zh) * 2019-04-29 2019-08-02 北京拓疆者智能科技有限公司 一种卸料方法、控制器、挖掘机、电子设备及存储介质
CN110599546A (zh) * 2019-08-28 2019-12-20 贝壳技术有限公司 一种获取三维空间数据的方法、***、装置和存储介质
CN110988586A (zh) * 2019-10-28 2020-04-10 国电南瑞科技股份有限公司 一种配网带电作业机器人作业精准定位方法及***

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104842362A (zh) * 2015-06-18 2015-08-19 厦门理工学院 一种机器人抓取物料包的方法和机器人抓取装置
CN105157680A (zh) * 2015-08-28 2015-12-16 北京控制工程研究所 一种全局特征与局部特征结合的视觉测量***及测量方法
CN106959080A (zh) * 2017-04-10 2017-07-18 上海交通大学 一种大型复杂曲面构件三维形貌光学测量***和方法
CN108015764A (zh) * 2017-11-20 2018-05-11 中国运载火箭技术研究院 一种基于多源视觉信息融合的空间零先验目标捕获方法
CN108326845A (zh) * 2017-12-11 2018-07-27 浙江捷尚人工智能研究发展有限公司 基于双目相机和激光雷达的机器人定位方法、装置及***
CN109081026A (zh) * 2018-07-13 2018-12-25 山东省科学院自动化研究所 基于激光测距雷达定位引导的机器人拆垛***及方法
CN109129474A (zh) * 2018-08-10 2019-01-04 上海交通大学 基于多模态融合的机械手主动抓取装置及方法
CN109230580A (zh) * 2018-10-11 2019-01-18 西安中科光电精密工程有限公司 一种基于混放物料信息采集的拆垛机器人***及方法
CN110080326A (zh) * 2019-04-29 2019-08-02 北京拓疆者智能科技有限公司 一种卸料方法、控制器、挖掘机、电子设备及存储介质
CN110599546A (zh) * 2019-08-28 2019-12-20 贝壳技术有限公司 一种获取三维空间数据的方法、***、装置和存储介质
CN110988586A (zh) * 2019-10-28 2020-04-10 国电南瑞科技股份有限公司 一种配网带电作业机器人作业精准定位方法及***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743385A (zh) * 2021-11-05 2021-12-03 陕西欧卡电子智能科技有限公司 一种无人船水面目标检测方法、装置及无人船

Similar Documents

Publication Publication Date Title
CN107741234B (zh) 一种基于视觉的离线地图构建及定位方法
CN102914293B (zh) 信息处理设备和信息处理方法
CN112476434A (zh) 一种基于协作机器人的视觉3d取放方法及***
RU2664257C2 (ru) Системы и способы отслеживания местоположения подвижного целевого объекта
JP3735344B2 (ja) キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
JP6261016B2 (ja) マーカ画像処理システム
CN103020952B (zh) 信息处理设备和信息处理方法
CN113074727A (zh) 基于蓝牙与slam的室内定位导航装置及其方法
CN109540140B (zh) 一种融合ssd目标识别和里程计信息的移动机器人定位方法
CN108981687A (zh) 一种视觉与惯性融合的室内定位方法
CN109145902B (zh) 一种利用泛化特征对几何标识进行识别及定位的方法
CN115200572B (zh) 三维点云地图构建方法、装置、电子设备及存储介质
Nissler et al. Evaluation and improvement of global pose estimation with multiple apriltags for industrial manipulators
CN116619358A (zh) 一种矿山自主探测机器人自适应定位优化与建图方法
CN112207804A (zh) 带电作业机器人及多传感器识别定位方法
CN113778096B (zh) 室内机器人的定位与模型构建方法及***
US10248131B2 (en) Moving object controller, landmark, and moving object control method
Grudziński et al. Stereovision tracking system for monitoring loader crane tip position
CN112762929B (zh) 一种智能导航方法、装置和设备
CN115847426A (zh) 机器人运动控制方法、装置、电子设备和存储介质
CN113379850B (zh) 移动机器人控制方法、装置、移动机器人及存储介质
CN114862908A (zh) 一种基于深度相机的动态目标追踪方法与***
Ozkan et al. Surface profile-guided scan method for autonomous 3D reconstruction of unknown objects using an industrial robot
CN113340310A (zh) 一种移动机器人台阶地形识别定位方法及相关装置
CN113066133A (zh) 一种基于路面标识几何特征的车载摄像头在线自标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210112

RJ01 Rejection of invention patent application after publication