CN113506344A - 一种核辐射环境机器人高精度三维定位装置及方法 - Google Patents

一种核辐射环境机器人高精度三维定位装置及方法 Download PDF

Info

Publication number
CN113506344A
CN113506344A CN202110768801.2A CN202110768801A CN113506344A CN 113506344 A CN113506344 A CN 113506344A CN 202110768801 A CN202110768801 A CN 202110768801A CN 113506344 A CN113506344 A CN 113506344A
Authority
CN
China
Prior art keywords
positioning
dimensional
structured light
robot
light camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110768801.2A
Other languages
English (en)
Inventor
徐锋
李瑾
张文凯
陈妍洁
陈国栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University of Science and Technology
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN202110768801.2A priority Critical patent/CN113506344A/zh
Publication of CN113506344A publication Critical patent/CN113506344A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

本发明公开了一种核辐射环境机器人高精度三维定位装置及方法,涉及三维重建技术领域,包括以下步骤:S1,移动机器人获得三维环境点云地图;S2,基于三维环境点云地图信息,机器人完成对作业目标的初步定位;S3,移动机器人通过驱动机械臂运动,使得作业目标进入机器人结构光相机的定位范围内;S4,移动机器人计算出结构光相机的定位范围内的三维数据信息;S5,根据结构光相机的定位范围内的三维数据信息对作业目标进行高精度的三维定位;通过初步定位与高精度三维定位结合的方式,获得对目标物毫米级的空间位置。

Description

一种核辐射环境机器人高精度三维定位装置及方法
技术领域
本发明涉及三维重建技术领域,具体为一种核辐射环境机器人高精度三维定位装置及方法。
背景技术
核电站在建设时虽然在设计阶段对可能发生的意外情况进行了预防和缓解,但由于运行设备的老化和操作失误等原因,仍可能引发严重的事故。因此,必须对核电站设备进行严格的检测和维护,及时发现并更换老化故障设备,并对废弃核装置进行拆卸,搬运,分拣,装运等操作,而由于辐射等因素人无法直接进入目标场地进行长时间的作业。传统的方式主要通过工作人员穿戴厚重的防护服分批次进行作业,这样的方式不仅工作效率低而且对工作人员有极高的风险。随着科技的进步,采用在机械臂上安装传感器的机器人来远程控制,在作业中通过相机采集环境图像,工作人员远程控制机器人以及机械臂进行操作的方法得到较为广泛的应用。但是由于机械臂的运动控制往往存在一定的误差以及远程图像传输存在一定的延迟,造成无法准确的完成对目标的精准作业。
随着传感器技术的发展,市场上出现了许多传感器可以获取空间目标位置信息。其中,利用超声波获得相关距离信息,其优点是原理简单、操作方便,不足之处在于此方法在密闭空间中声波与声波之间会互相干扰,且精度较低;利用毫米波雷达实现测距有测量距离远、测距精度高等优点,但是易受电磁波干扰且产品成本相对较高。3D激光雷达测量广泛用于三维感知以及定位,但是其测量的精度只有厘米级。结构光视觉测距技术通过高分辨率工业相机进行精确标定后可以达到毫米级精度但是由于镜头的焦距在测量时必须固定,只有一定的工作距离内才可以获得清晰图像。核电站是一个辐射复杂、空间范围较大以及特征较为单一的场景,为了对目标实施高精度的作业,只使用单一的传感器无法做到精准操作,因此需要提出新的技术方案。
发明内容
本发明的目的在于克服现有技术的不足,提供一种核辐射环境机器人高精度三维定位装置及方法。
本发明的目的是通过以下技术方案来实现的:
一种核辐射环境机器人高精度三维定位方法,包括以下步骤:
S1,移动机器人获得作业目标的三维环境点云地图,执行步骤S2;
S2,基于三维环境点云地图信息,机器人完成对作业目标的初步定位,执行步骤S3;
S3,移动机器人通过驱动机械臂运动,使得作业目标进入机器人结构光相机(4)的定位范围内,执行步骤S4;
S4,移动机器人计算出结构光相机的定位范围内的三维数据信息,执行步骤S5;
S5,根据结构光相机的定位范围内的三维数据信息对作业目标进行高精度的三维定位。
进一步的,所述步骤S1中,三维环境点云地图是通过移动机器人的移动结合激光雷达扫描进行点云融合获得的。
进一步的,所述步骤S2中,初步定位是通过机器人与机械臂的移动结合激光雷达扫描完成的。
进一步的,所述步骤S2中,初步定位包括点云获取、点云数据预处理、相似度测量、重定位。
进一步的,所述步骤S3中,移动机器人驱动机械臂运动是基于激光雷达与结构光相机的相对位姿关系进行驱动的,激光雷达与结构光相机的相对位姿关系由激光雷达与结构光相机的标定获得,然后根据作业目标与激光雷达的相位位姿关系对机械臂进行路径规划。
进一步的,所述步骤S4中,所述结构光相机定位范围内的三维数据信息是通过结构光解码方法得到的,结构光解码方法为通过结构光相机投射结构光、结构光相机采集被作业目标编码后的结构光信息、对采集的被编码的结构光信息进行解码,根据解码信息获得作业目标相对于结构光相机定位范围内的三维数据信息。
进一步的,所述步骤S5中,所述高精度的三维定位包括:结构光相机与机械臂末端之间的相对位姿关系、机械臂的行驶路径,高精度三维定位首先需要对结构光相机与机械臂末端进行标定获取两种之间的相对位姿关系,然后根据作业目标相对于结构光相机测量范围内的三维数据信息选取定位点,然后根据标定的位置关系进行机械臂的路径规划,最后驱动机械臂使得其末端到达定位点。
一种核辐射环境机器人高精度三维定位装置,包括移动机器人、激光雷达以及结构光相机,所述移动机器人包括移动平台、机械臂,所述机械臂与移动平台固定连接,机械臂与移动平台连接的一端上固定设置有激光雷达,机械臂另一端上固定设置有结构光相机;移动平台根据实际场景可以是轮式或者滑轨式,激光雷达为3D激光雷达,其位置位于机械臂上,具***置可根据核辐射场景实际情况选择,固定位置后与结构光相机进行标定,结构光相机(4)投射光源可以采用白光、LED光、激光、红外光,投射方式可以采用点结构投射、线结构投射、面结构投射,采集方式可以为单目、双目或多目。
本发明的有益效果是:
本发明通过3D激光雷达初定位精确的模拟出工作场景,通过结构光视觉方法更精确的获得目标的三维信息,通过初步定位与高精度三维定位结合的方式,获得对目标物毫米级的空间位置。
附图说明
图1为本发明核辐射环境机器人三维定位方法的流程图;
图2为本发明核辐射环境机器人三维定位装置的结构示意图;
图3为本发明双目相机标定示意图;
图4为本发明手眼标定示意图;
图5为本发明3D激光雷达初定位流程图;
图6为本发明双目结构光视觉***精确定位流程图。
本发明中:1-移动平台,2-机械臂,3-激光雷达,4-结构光相机。
具体实施方式
下面结合本发明的附图1~6,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施。
在本发明的描述中,需要理解的是,术语“逆时针”、“顺时针”“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本次发明中优先选择双目结构光***,仅是为了便于描述本发明,而不是指示或暗示本发明只能使用双目结构光***。
一种核辐射环境机器人高精度三维定位方法,包括以下步骤:
S1,移动机器人获得作业目标的三维环境点云地图,执行步骤S2;
S2,基于三维环境点云地图信息,机器人完成对作业目标的初步定位,执行步骤S3;
S3,移动机器人通过驱动机械臂运动,使得作业目标进入机器人结构光相机的定位范围内,执行步骤S4;
S4,移动机器人计算出结构光相机的定位范围内的三维数据信息,执行步骤S5;
S5,根据结构光相机的定位范围内的三维数据信息对作业目标进行高精度的三维定位。
本方案的工作原理简述:
在本发明中,3D激光雷达发射激光束实现对工作场景的初定位,结构光相机安装在机械臂的末端,结构光相机***利用结构光视觉测量算法实现对目标的精定位,从而指导机械臂进行指定操作;
根据图1,首先进行***的标定工作;其次结合给定的全局三维地图进行移动机器人路径规划;然后移动机器人使得3D激光雷达进入作业场景进行初定位;然后再结合目标位置和结构光相机进行精确定位,获取作业目标在结构光相机坐标系下的三维坐标;然后根据相机与机械臂末端标定的外部参数计算出目标在机械臂末端的位置,进行路径规划,最终控制机械臂进行指定操作,最后完成所有指定操作结束工作。本项目中涉及的关键技术有三大部分:***标定,用于确定结构光相机、3D激光雷达和机器人之间的位姿关系;基于3D激光雷达的初步感知定位和基于结构光***视觉测量的精确感知定位,下面分别对三项关键技术进行叙述:
***标定主要完成3D激光雷达、结构光相机与移动机器人之间位姿关系的确定,用于识别作业目标后通过机器人的运动将机械臂末端将送到需要作业的位置。主要包括结构光相机的标定;机械臂与结构光相机之间标定和激光雷达与结构光相机之间标定;
在本次发明中采用双目相机采集图像,两个相机同时拍摄空间中不同位置的标定板,然后根据拍摄的序列标定图像,两个相机分别进行单目相机标定,获得相机的内部参数和外部参数。这里的外部参数是指相机坐标系和每一步标定中建立的世界坐标系之间的旋转平移关系。然后结合左右相机中标定板图像和双目视觉中的极线约束、一致性约束等关系将两相机的位姿关***一到一个相机坐标下(通常统一到左相机坐标系)。对求出的双目标定参数需要进一步对标定参数进行优化,以获得更加精确的标定参数。考虑到标定板在制作过程中存在着不可忽略的几何误差,在双目摄像机标定过后需要对标定参数进行第二次优化(第一次优化是求取摄像机畸变参数的优化);
机械臂进行目标指定操作之前需要得到目标物体相对于机械臂末端位置,通过双目视觉测量***已确定目标与双目相机的位姿关系,因此,需要标定机械臂(手)与双目相机(眼)之间的相对位姿,将他们的坐标统一在同一个世界坐标系下;
手眼标定是为了获得搭载于机械臂上的相机的坐标系与机械臂基座的坐标系之间的转换关系,使得机械臂可以利用相机所获取的信息。为了作业方便,将坐标系归一化至机械臂基座点。通过机械臂子带的参数可以计算出机械臂移动前后两个工具坐标系之间的转换矩阵。为了求解旋转和平移矩阵,实验中需要将机械臂移动多次,获得三个机械臂抓手工具的位置坐标,从而得到多组求解手眼关系的方程。对方程进行联立求解,即可获得手眼标定的参数。将抓取位置的目标坐标通过手眼标定的参数可以变换到机械臂基座坐标,实现机械臂对目标的操作;
由于在基于3D激光雷达的初定位完成后,便已确定激光雷达与作业目标的位姿关系,从初定位到精确定位过程中,需要通过3D激光雷达与双目相机进行标定获取激光雷达与相机之间的位姿关系,进而通过三者之间的位姿关系进行路径规划,将双目结构光视觉测量***移动到其测量作业目标的最佳位置。其标定过程为:双目相机前放置标定板并采集图像,同时3D激光雷达对标定板方向进行扫描,通过截取每个位姿的点云和相应相机的图像,在点云中选择定板上的点云,估计出标定板所在激光雷达检测数据中的位姿,以及平面法向量的矩阵。在标定图片中使用角点检测等方法计算出内角点的像素坐标,通过对应角点的坐标计算出标定板在相机坐标系中的位置和姿态及其法向量的方向矩阵。通过两个坐标系中的法向量矩阵计算出旋转矩阵,并通过最小化点云到平面的距离优化出平移向量,完成激光雷达与相机外参标定;
3D激光雷达定位流程:首先通过3D激光雷达在作业场景扫描获取点云数据;其次对扫描的点云数据进行预处理,以此来过滤掉不合理的异常点保证后续算法处理的准确性,同时降低点云数据的信息量,进而降低计算压力,提高运算效率。预处理主要包括三个部分:离群点的去除,机械臂点的去除以及点云下采样;然后根据提供的全局三维地图进行相似度测量,在进行相似性度量之前,需要先对建立两个聚成集合的几何对应,根据每个聚成集合点的数目建立待检测的两个聚成集合,然后根据集合直方图的余弦相似度,最后选取出相似性最高的候选场景,即认为完成了场景的匹配;最后使用3D-NDT等算法来实现激光雷达的重定位。当匹配完成后可以得到激光雷达在全局三维地图的初定位,获得激光雷达在全局三维地图的坐标,再结合整体流程中全局三维地图中作业目标的三维坐标,可以指导后面的机器人运动规划。该方案在采用给定的全局三维地图时,除了地图还需要提供相应的初始扫描位置、移动轨迹以及点云的索引信息等以增加重定位的成功与计算量的减少;
双目结构光视觉***精确定位流程:双目结构光相机***是由两个相机和一个投影仪构成,投影仪放置在两个相机中间,用来投射结构光光栅图像。首先通过固定于机械臂上的投影仪对作业目标投射具有一定编码的结构光图像,然后通过双目相机采集目标物体的投影图像;接着根据结构光编码对应的解码算法对捕获的投影图像展开相位,获得作业目标的连续相位图;再通过双目立体匹配算法获取作业目标的深度图,基于获取的深度信息再结合双目标定的内外参数计算出作业目标位置与双目相机之间的距离、相对位置和方向,进行目标的三维重建;最后实现作业目标的位姿估计与定位。由于作业目标近似为规则的形状,因此对于目标的空间位置可以由目标点云的质点来等效。对根据结构光算法获取的目标点云进行质点计算,获得质点坐标和法线信息,再结合手眼标定得到的旋转平移矩阵,从而将质点坐标变换到机械臂所在坐标系中,从而控制机械臂对目标进行操作。
进一步的,所述步骤S1中,三维环境点云地图是通过移动机器人的移动结合激光雷达扫描进行点云融合获得的。
进一步的,所述步骤S2中,初步定位是通过机器人与机械臂的移动结合激光雷达扫描完成的。
进一步的,所述步骤S2中,初步定位包括点云获取、点云数据预处理、相似度测量、重定位。
进一步的,所述步骤S3中,移动机器人驱动机械臂运动是基于激光雷达与结构光相机的相对位姿关系进行驱动的,激光雷达与结构光相机的相对位姿关系由激光雷达与结构光相机的标定获得,然后根据作业目标与激光雷达的相位位姿关系对机械臂进行路径规划。
进一步的,所述步骤S4中,所述结构光相机定位范围内的三维数据信息是通过结构光解码方法得到的,结构光解码方法为通过结构光相机投射结构光、结构光相机采集被作业目标编码后的结构光信息、对采集的被编码的结构光信息进行解码,根据解码信息获得作业目标相对于结构光相机定位范围内的三维数据信息。
进一步的,所述步骤S5中,所述高精度的三维定位包括:结构光相机与机械臂末端之间的相对位姿关系、机械臂的行驶路径,高精度三维定位首先需要对结构光相机与机械臂末端进行标定获取两种之间的相对位姿关系,然后根据作业目标相对于结构光相机测量范围内的三维数据信息选取定位点,然后根据标定的位置关系进行机械臂的路径规划,最后驱动机械臂使得其末端到达定位点。
一种核辐射环境机器人高精度三维定位装置,包括移动机器人、激光雷达3以及结构光相机4,所述移动机器人包括移动平台1、机械臂2,所述机械臂2与移动平台1固定连接,机械臂2与移动平台1连接的一端上固定设置有激光雷达3,机械臂2另一端上固定设置有结构光相机4;移动平台1根据实际场景可以是轮式或者滑轨式,激光雷达3为3D激光雷达3,其位置位于机械臂2上,具***置可根据核辐射场景实际情况选择,固定位置后与结构光相机4进行标定,结构光相机4投射光源可以采用白光、LED光、激光、红外光,投射方式可以采用点结构投射、线结构投射、面结构投射,采集方式可以为单目、双目或多目。
以上所述仅是本发明的优选实施方式,应当理解所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (8)

1.一种核辐射环境机器人高精度三维定位方法,其特征在于,包括以下步骤:
S1,移动机器人获得作业目标的三维环境点云地图,执行步骤S2;
S2,基于三维环境点云地图信息,机器人完成对作业目标的初步定位,执行步骤S3;
S3,移动机器人通过驱动机械臂运动,使得作业目标进入机器人结构光相机的定位范围内,执行步骤S4;
S4,移动机器人计算出结构光相机的定位范围内的三维数据信息,执行步骤S5;
S5,根据结构光相机的定位范围内的三维数据信息对作业目标进行高精度的三维定位。
2.根据权利要求1所述的一种核辐射环境机器人高精度三维定位方法,其特征在于,所述步骤S1中,三维环境点云地图是通过移动机器人的移动结合激光雷达扫描进行点云融合获得的。
3.根据权利要求1所述的一种核辐射环境机器人高精度三维定位方法,其特征在于,所述步骤S2中,初步定位是通过机器人与机械臂的移动结合激光雷达扫描完成的。
4.根据权利要求2所述的一种核辐射环境机器人高精度三维定位方法,其特征在于,所述步骤S2中,初步定位包括点云获取、点云数据预处理、相似度测量、重定位。
5.根据权利要求1所述的一种核辐射环境机器人高精度三维定位方法,其特征在于,所述步骤S3中,移动机器人驱动机械臂运动是基于激光雷达与结构光相机的相对位姿关系进行驱动的。
6.根据权利要求1所述的一种核辐射环境机器人高精度三维定位方法,其特征在于,所述步骤S4中,所述结构光相机定位范围内的三维数据信息是通过结构光解码方法得到的。
7.根据权利要求1所述的一种核辐射环境机器人高精度三维定位方法,其特征在于,所述步骤S5中,所述高精度的三维定位包括:结构光相机与机械臂末端之间的相对位姿关系、机械臂的行驶路径。
8.一种核辐射环境机器人高精度三维定位装置,其特征在于,包括移动机器人、激光雷达(3)以及结构光相机(4),所述移动机器人包括移动平台(1)、机械臂(2),所述机械臂(2)与移动平台(1)固定连接,机械臂(2)与移动平台(1)连接的一端上固定设置有激光雷达(3),机械臂(2)另一端上固定设置有结构光相机(4)。
CN202110768801.2A 2021-07-07 2021-07-07 一种核辐射环境机器人高精度三维定位装置及方法 Pending CN113506344A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110768801.2A CN113506344A (zh) 2021-07-07 2021-07-07 一种核辐射环境机器人高精度三维定位装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110768801.2A CN113506344A (zh) 2021-07-07 2021-07-07 一种核辐射环境机器人高精度三维定位装置及方法

Publications (1)

Publication Number Publication Date
CN113506344A true CN113506344A (zh) 2021-10-15

Family

ID=78011574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110768801.2A Pending CN113506344A (zh) 2021-07-07 2021-07-07 一种核辐射环境机器人高精度三维定位装置及方法

Country Status (1)

Country Link
CN (1) CN113506344A (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104460671A (zh) * 2014-11-12 2015-03-25 西南科技大学 三维空间中的放射源交叉定位方法及***
US20160016312A1 (en) * 2013-03-15 2016-01-21 Carnegie Mellon University A Supervised Autonomous Robotic System for Complex Surface Inspection and Processing
CN107091643A (zh) * 2017-06-07 2017-08-25 旗瀚科技有限公司 一种基于多台3d结构光相机拼接的室内导航方法
WO2018103694A1 (zh) * 2016-12-07 2018-06-14 苏州笛卡测试技术有限公司 一种机器人三维扫描装置及方法
CN110497373A (zh) * 2019-08-07 2019-11-26 大连理工大学 一种移动作业机器人的三维激光雷达与机械臂间的联合标定方法
CN110599546A (zh) * 2019-08-28 2019-12-20 贝壳技术有限公司 一种获取三维空间数据的方法、***、装置和存储介质
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及***
CN111123911A (zh) * 2019-11-22 2020-05-08 北京空间飞行器总体设计部 一种腿足式智能星表探测机器人感知***及其工作方法
CN111459166A (zh) * 2020-04-22 2020-07-28 北京工业大学 一种灾后救援环境下含受困人员位置信息的情景地图构建方法
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN112132894A (zh) * 2020-09-08 2020-12-25 大连理工大学 一种基于双目视觉引导的机械臂实时跟踪方法
CN112650255A (zh) * 2020-12-29 2021-04-13 杭州电子科技大学 一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160016312A1 (en) * 2013-03-15 2016-01-21 Carnegie Mellon University A Supervised Autonomous Robotic System for Complex Surface Inspection and Processing
CN104460671A (zh) * 2014-11-12 2015-03-25 西南科技大学 三维空间中的放射源交叉定位方法及***
WO2018103694A1 (zh) * 2016-12-07 2018-06-14 苏州笛卡测试技术有限公司 一种机器人三维扫描装置及方法
CN107091643A (zh) * 2017-06-07 2017-08-25 旗瀚科技有限公司 一种基于多台3d结构光相机拼接的室内导航方法
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN110497373A (zh) * 2019-08-07 2019-11-26 大连理工大学 一种移动作业机器人的三维激光雷达与机械臂间的联合标定方法
CN110599546A (zh) * 2019-08-28 2019-12-20 贝壳技术有限公司 一种获取三维空间数据的方法、***、装置和存储介质
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及***
CN111123911A (zh) * 2019-11-22 2020-05-08 北京空间飞行器总体设计部 一种腿足式智能星表探测机器人感知***及其工作方法
CN111459166A (zh) * 2020-04-22 2020-07-28 北京工业大学 一种灾后救援环境下含受困人员位置信息的情景地图构建方法
CN112132894A (zh) * 2020-09-08 2020-12-25 大连理工大学 一种基于双目视觉引导的机械臂实时跟踪方法
CN112650255A (zh) * 2020-12-29 2021-04-13 杭州电子科技大学 一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张伟伟 等: "融合激光与视觉点云信息的定位与建图方法", 计算机应用与软件, no. 07, pages 114 - 119 *
王刚 等: "融合Kinect与γ相机图像的放射性区域重建与定位", 应用光学, no. 05, pages 965 - 972 *
韩明瑞 等: "基于激光雷达的室外移动机器人三维定位和建图", 华中科技大学学报(自然科学版), no. 1, pages 315 - 318 *

Similar Documents

Publication Publication Date Title
CN112132972B (zh) 一种激光与图像数据融合的三维重建方法及***
CN106097300B (zh) 一种基于高精度运动平台的多相机标定方法
CN106767399B (zh) 基于双目立体视觉和点激光测距的物流货物体积的非接触测量方法
CN104626206B (zh) 一种非结构环境下机器人作业的位姿信息测量方法
CN103292695B (zh) 一种单目立体视觉测量方法
CN109927036A (zh) 一种三维视觉引导机械手抓取的方法及***
CN104315995B (zh) 基于虚拟多立方体标准目标的tof深度相机三维坐标标定装置和方法
CN111028340B (zh) 精密装配中的三维重构方法、装置、设备及***
CN105014678A (zh) 基于激光测距的机器人手眼标定方法
CN106041937A (zh) 一种基于双目立体视觉的机械手抓取控制***的控制方法
CN104034263A (zh) 一种锻件尺寸的非接触测量方法
CN101504275A (zh) 一种基于空间无线定位的手持式线激光三维测量***
CN112045655B (zh) 用于大尺度多站点场景的移动机器人位姿测量方法及***
CN110017852B (zh) 一种导航定位误差测量方法
CN111640156A (zh) 针对室外弱纹理目标的三维重建方法、设备及存储设备
CN104316083A (zh) 一种虚拟多球体球心定位的tof深度相机三维坐标标定装置和方法
CN114543787B (zh) 基于条纹投影轮廓术的毫米级室内建图定位方法
CN111028280A (zh) 井字结构光相机***及进行目标有尺度三维重建的方法
CN112254670A (zh) 一种基于光扫描和智能视觉融合的3d信息采集设备
Hosseininaveh et al. A low-cost and portable system for 3D reconstruction of texture-less objects
CN112257536B (zh) 一种空间与物体三维信息采集匹配设备及方法
CN112525106B (zh) 基于三相机协同激光的3d探测方法及装置
CN112253913B (zh) 一种与旋转中心偏离的智能视觉3d信息采集设备
CN110310371B (zh) 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法
CN113506344A (zh) 一种核辐射环境机器人高精度三维定位装置及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination