CN115420276A - 一种面向室外场景的多机器人协同定位与建图方法 - Google Patents

一种面向室外场景的多机器人协同定位与建图方法 Download PDF

Info

Publication number
CN115420276A
CN115420276A CN202211047352.3A CN202211047352A CN115420276A CN 115420276 A CN115420276 A CN 115420276A CN 202211047352 A CN202211047352 A CN 202211047352A CN 115420276 A CN115420276 A CN 115420276A
Authority
CN
China
Prior art keywords
robot
point cloud
key frame
factor
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211047352.3A
Other languages
English (en)
Inventor
曹政才
胡小博
张东
谢红玉
王伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Chemical Technology
Original Assignee
Beijing University of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Chemical Technology filed Critical Beijing University of Chemical Technology
Priority to CN202211047352.3A priority Critical patent/CN115420276A/zh
Publication of CN115420276A publication Critical patent/CN115420276A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种面向室外场景的多机器人协同定位与建图方法,属于同步定位与建图领域。针对室外场景复杂多样的特点,为兼顾***鲁棒性与高效性,本发明首先采用多个机器人所搭载的激光雷达、IMU、GPS获取环境及自身运动信息以建立多传感器紧耦合框架保证***鲁棒性;其次构建因子图优化框架并加入雷达里程计因子、IMU预积分因子、回环因子实现单一机器人同步定位与地图构建,所述回环因子通过联合GPS实时观测数据与三维点云描述符构建;再次,机器人端以数据包的形式上传所提取点云描述子与自身位姿等信息至服务器端。最后,采用一种高效的描述子匹配算法在服务器端实现机器人间关键帧匹配,据此实现多机器人位姿融合与全局地图构建。

Description

一种面向室外场景的多机器人协同定位与建图方法
技术领域
本发明涉及同步定位与建图领域,具体是指一种面向室外场景的多机器人协同定位与建图方法。
背景技术
同时定位与建图是在未知环境中完成环境模型构建任务的同时估计自身运动的技术,是实现机器人路径规划和自主导航的基础。相较使用单个移动机器人实现定位与环境构建任务,使用多个机器人完成定位与地图构建任务在提高建图效率的同时能够提升***鲁棒性,其具有不可替代的优势。
针对室外环境单一机器人定位与地图构建任务,使用三维激光雷达能够获取丰富的环境几何纹理信息,但当环境空旷及机器人运动剧烈时仅使用激光雷达无法得到鲁棒的位姿估计与环境地图,使用IMU获取瞬时姿态与加速度数据以和激光雷达所获取环境点云数据构建紧耦合框架联合估计位姿能够有效提升***鲁棒性,提升定位精度。
对于多机器人协作定位与地图构建,主要研究问题是实现机器人间位姿融合与地图拼接,现已有基于视觉或激光雷达的多机器人协同定位与建图方案,基于视觉的方案可利用回环检测阶段所常用的词袋模型将每个机器人端关键帧图像表示为数值向量,通过匹配不同机器人间关键帧图像根据词袋模型生成的数值向量,依此建立起不同机器人间鲁棒的位姿关联。在基于三维激光雷达方案中,由于三维点云的庞杂与无序性,故难以直接建立起不同帧间的数据关联,往往会要求机器人由同一起点出发或提供额外辅助定位装置,这在很大程度上限制了其应用范畴。
基于三维点云的识别场景算法可被用于多机器人间的数据关联,以实现机器人间位姿融合,常用的基于直方图的三维特征描述子计算复杂度高,难以直接用于检测多机器人间逐帧的数据关联,部分基于非直方图的三维点云全局描述符能够提供更加高效鲁棒的三维点云场景识别,可被用于实现机器人内与机器人间点云数据关联。
发明内容
有鉴于此,本发明提出了一种基于激光点云场景识别的多机器人协同定位与建图方法,针对现有技术存在的缺陷和不足,及室外场景的特点,解决了多机器人间位姿融合与地图拼接问题。为实现全局一致地图构建,本发明首先改进了单机器人同时定位与建图方法,在回环检测中联合GPS数据与三维点云描述子遴选回环匹配帧,进而建立可靠的回环约束以得到精确的自身位姿估计与单机局部地图;其次改进还在于引入三维点云描述子实现激光点云场景识别,根据识别结果建立机器人间点云数据关联,实现机器人间位姿融合与地图拼接。
为实现上述目的,本发明采用如下技术方案:
一种多机器人协同定位与建图方法,包括以下步骤:
步骤1:机器人端局部地图构建阶段
每个机器人端通过各机器人搭载的激光雷达获取机器人周围环境几何纹理信息,IMU获取机器人运动过程中姿态及加速度信息,GPS获取机器人经纬度海拔信息。采用因子图优化理论构建优化框架以处理不同种类传感器所获取数据,根据激光雷达数据构建激光雷达里程计因子、IMU数据构建IMU预积分因子添加至因子图中以得到当前时刻机器人的位姿估计及局部地图;
步骤2:机器人端回环检测阶段
在机器人端,对关键帧处激光特征点云采用一种三维点云描述子加以计算,提出使用每个关键帧处点云描述子信息与GPS数据联合搜索回环匹配关系,以此构建回环因子并添加至因子图优化框架中;
步骤2.1:在每个机器人端保存其关键帧处三维点云信息并计算该三维点云描述子,同时构建k-维树存储描述子,当有新的关键帧***时首先在k-维树中进行搜索,判断是否存在满足设定阈值的相近描述子,若存在则加入候选回环关键帧队列;
步骤2.2:根据当前关键帧时刻及历史关键帧时刻的GPS数据,判断在历史关键帧中是否存在满足与当前关键帧直线距离小于设定阈值的关键帧,存在则视为候选帧加入候选回环关键帧队列,距离计算公式的模型为:
两给定经纬度点间距离计算:
Figure BDA0003820417240000031
其中
Figure BDA0003820417240000032
Figure BDA0003820417240000033
其中P是两点纬度平均值,dP及dR表示两点纬度及经度的差值。
步骤2.3:采用点云匹配算法匹配当前关键帧点云数据与候选回环关键帧队列中每个候选帧点云数据,若存在匹配度满足设定阈值的帧对便依此构建回环因子加入因子图优化框架中。
步骤3:机器人端数据上传阶段
在机器人端,保存关键帧处三维激光点云数据、点云描述子及位姿估计等数据,以待发送至服务器端,其中三维激光点云数据与点云描述子按照时间先后顺序一一对应并统一编号以数据包的形式发送至服务器端以供匹配;
步骤4:服务器端机器人位姿融合
在服务器端,根据所接收的各机器人所存储的三维点云描述子,建立起不同机器人间的位姿关联以得到各机器人全局一致的位姿估计;
步骤4.1:服务器端构建一个数据库用以保存从各个机器人端发送至服务器端的三维点云描述子,以实现机器人间的关键帧匹配;
步骤4.2:服务器端根据所得到的帧间匹配关系,以及接收到的各关键帧处机器人位姿、因子图中优化完成后的节点与边将各机器人的位姿转换到同一坐标系下生成全局一致的位姿估计。
步骤5:服务器端机器人地图拼接
服务器端根据各个机器人端所发送的关键帧三维点云信息及所得到的机器人全局一致位姿估计,在设定全局坐标系下合并各机器人局部定位与建图结果进而生成全局一致地图。
采用上述技术方案带来的有益效果:
1.本发明提出了一种多机器人协同定位与建图方法,用于集中式多机器人协作定位与地图构建。与现有方法相比,本发明能够基于激光点云场景识别在室外环境下实现多机器人间位姿融合与地图拼接。
2.本发明通过在各机器人端运行的回环检测模块来根据GPS数据与三维点云描述子遴选候选匹配帧,有效避免了回环误匹配与漏匹配的发生,在特定场景下提高了位姿估计与建图的精确度,提升了***鲁棒性。
3.本发明通过在服务器端运行的位姿融合与地图拼接模块,能够根据各机器人发送至服务器的三维点云全局描述符信息高效高准确率的检索出机器人间候选匹配帧对,实现多机器人的位姿融合进而构建全局地图。
附图说明
图1是本发明的整体框架示意图;
图2是本发明机器人端生成的子地图;
图3是本发明机器人端发送至服务器端的关键帧点云;
图4是本发明用两个机器人在室外场景的位姿融合结果;
图5是本发明用两个机器人在室外场景的地图拼接结果;
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图和具体例子对本发明的实施方式作进一步的介绍。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
一种面向室外场景的多机器人协同定位与建图方法如图1所示:
步骤1:机器人端局部地图构建
步骤1.1:选用两台轮式机器人在室外约4000平方实验场地中移动,每台机器人搭载Velodyne VLP-16激光雷达实时采集环境点云信息,Xsens-680G组合导航单元获取当前机器人运动姿态、加速度以及所处位置经纬度数据,不要求两台机器人由同一起点出发但两台机器人间的移动路线需要有一定重叠区域,以便建立起机器人间的数据关联。
步骤1.2:根据机器人所装配的激光雷达与组合导航单元实时获取外界环境与自身运动数据,通过建立因子图优化框架估计自身位姿的同时构建局部地图,在因子图中纳入雷达里程计因子与IMU预积分因子,雷达里程计因子通过当前关键帧与前n个关键帧间进行帧-局部地图匹配得到,IMU预积分因子由相邻关键帧之间的IMU测量积分计算得出。
步骤2:机器人端回环匹配阶段
将GPS数据与三维点云描述子作为输入并输出检索到的回环匹配帧对,具体步骤说明如下:
步骤2.1:三维点云描述子的提取是采用一种非直方图三维点云全局描述符,首先将所获取的场景三维信息压缩,将笛卡尔坐标系下的庞杂的点云信息转换到极坐标系下计算,通过使用这种具有旋转不变性且能高效利用场景点云分布特征的描述子能够有效建立起机器人内当前关键帧与历史关键帧关联。
步骤2.2:通过GPS数据能够简单有效的判断是否存在某一历史帧时刻机器人所处位置使得其与当前帧的机器人位置足够接近,进而被判定为候选回环匹配。本发明主要着重于地面机器人的应用,故仅根据GPS获取的经纬度数据计算不同时刻机器人间距离,海拔信息忽略不计,在实施中,若根据经纬度求得两帧间直线距离小于5m,则该帧对可被视为候选回环帧。
步骤2.3:被判定为候选回环匹配的帧对会进一步应用点云匹配算法ICP计算匹配度,仅有匹配度满足设定阈值的帧对选定为回环匹配关键帧从而作为回环因子添加至因子图优化框架中,在实施中,该阈值设定为0.7。
步骤3:机器人端数据上传阶段
机器人端保存三种类型的数据发送至服务器端,包括:
1)关键帧处三维点云数据
2)关键帧处三维点云数据描述子与GPS数据
3)机器人自身坐标系下位姿估计
步骤4:服务器端多机器人位姿融合
步骤4.1:服务器端维护机器人端上传的点云描述子信息,将其存储至k-维树中,搜索匹配机器人间是否存在相近度满足设定阈值的帧对,存在则将其保存至候选关键帧队列并进一步根据点云匹配算法计算匹配度,若匹配度满足设定阈值则标记为机器人间关联帧对。
步骤4.2:在已获得机器人间位姿关联的基础上,定义一个变换矩阵T,包括平移和旋转两部分,并设定一个机器人为基坐标系,通过不断迭代优化得到一个最佳变换矩阵后将其它机器人的位姿估计转换到基坐标系下以实现位姿融合。
步骤5:服务器端地图拼接模块
服务器端根据机器人端上传的三维激光点云数据,按照上传时所设定统一编号将其与导入机器人位姿融合后的位姿估计结果一一对应,根据预先训练好的模型实现逐帧的点云拼接以生成全局一致地图。
实施例
为进一步展示本发明的实施效果,使用两台轮式机器人在室外环境测试作为例证,测评本发明的位姿融合效果与全局一致地图精确度。
使用两台机器人在室外校园环境实现了单个机器人局部地图构建及多机器人位姿融合与全局一致地图构建任务,机器人端运行在Intel NUC10i7FNH迷你电脑上,服务器端运行在Intel Core i7-10875H笔记本电脑上,图4展示了两序列位姿融合的结果,图5展示了两序列地图拼接的结果。
根据实验可以得出以下结论:
本发明的多机器人协作定位与地图构建方法能够在真实环境下完成位姿融合与全局地图构建任务。
为了使得文章的解释更简单化,已上述的图文描述为一系列步骤,但是应该理解并领会,这些方法不受操作的次序所限制,因为按照一个或多个步骤进行实施,一些动作可按不同的顺序发生,但本领域技术人员可以理解其动作发生的原理。
尽管已对本发明说明性的具体实施方式逐步进行了描述,以便于本技术领域的技术人员能够进行领会,但是本发明不仅限于具体实施方式的范围,本领域技术人员可以在权利要求的范围内做出各种变形或修改,只要各种变化只要在所附的权利要求限定和确定的本发明精神和范围内。

Claims (6)

1.一种面向室外场景的多机器人协同定位与建图方法,其中定位与建图任务基于多传感器融合框架,该框架指每个机器人搭载有激光雷达、IMU以及GPS,其特征在于,所述方法包括如下步骤:
步骤1:机器人端局部地图构建:通过各机器人搭载的激光雷达获取机器人周围环境几何纹理信息,IMU获取机器人运动过程中姿态及加速度信息,GPS获取机器人经纬度海拔信息,采用因子图优化理论构建优化框架以处理不同种类传感器所获取数据,根据激光雷达数据构建激光雷达里程计因子、IMU数据构建IMU预积分因子添加至因子图中以得到当前时刻机器人的位姿估计及局部地图;
步骤2:机器人端回环检测:为有效解决局部地图构建过程中机器人在长时间运动时存在的定位累计误差问题,对每个机器人在执行局部建图过程中所选取关键帧处激光特征点云采用一种三维点云描述子加以计算,提出使用每个关键帧处点云描述子信息与GPS数据联合搜索回环匹配关系,以此构建回环因子并添加至因子图优化框架中以消除定位累积误差;
步骤3:机器人端数据存储与上传:保存关键帧处三维激光点云数据、点云描述子及位姿估计数据,以待发送至服务器端;
步骤4:服务器端多机器人位姿融合:服务器端根据所接收的各机器人所存储的三维点云描述子,建立起不同机器人间的位姿关联以得到各机器人在全局坐标系下的位姿估计;
步骤5:服务器端多机器人地图拼接:服务器端由所接收到的各机器人关键帧处三维点云信息及所得到的各机器人在全局坐标系下的位姿估计,在设定全局坐标系下合并各机器人局部定位与建图结果进而生成全局一致地图。
2.根据权利要求1所述的多机器人协同定位与建图方法,其特征在于,步骤1中使用包括激光雷达里程计因子与IMU预积分因子的因子图优化框架得到机器人每一时刻位姿估计,GPS仅用于后续搜索回环匹配关系,并不加入至因子图优化框架之中。
3.根据权利要求1所述的多机器人协同定位与建图方法,其特征在于,步骤2中所述通过联合搜索以得到回环匹配关系,具体为:
步骤2.1:在每个机器人端保存其关键帧处三维点云信息并计算该三维点云描述子,同时构建k-维树存储描述子,每当有新的关键帧***时首先在k-维树中进行搜索,判断是否存在满足设定阈值的相近描述子,若存在则加入候选回环关键帧队列;
步骤2.2:根据当前关键帧时刻及历史关键帧时刻的GPS数据,判断在历史关键帧中是否存在满足与当前关键帧直线距离小于设定阈值的关键帧,存在则视为候选帧加入候选回环关键帧队列;
步骤2.3:采用点云匹配算法匹配当前关键帧点云数据与候选回环关键帧队列中每个候选帧点云数据,若存在匹配度满足设定阈值的帧对便依此构建回环因子加入因子图优化框架中。
4.根据权利要求1所述的多机器人协同定位与建图方法,其特征在于,步骤3中对三维激光点云数据与点云描述子按照时间先后顺序一一对应并统一编号后以数据包的形式发送至服务器端以供匹配。
5.根据权利要求1所述的多机器人协同定位与建图方法,其特征在于,步骤4中所述建立机器人间位姿关联,具体为:
步骤4.1:服务器构建一个数据库用以保存从各个机器人端发送至服务器端的三维点云描述子,以实现机器人间的关键帧匹配。
步骤4.2:服务器端根据所得到的帧间匹配关系,以及接收到的各关键帧处机器人位姿将各机器人的位姿转换到同一坐标系下生成全局一致的位姿估计。
6.根据权利要求1所述的多机器人协同定位与建图方法,其特征在于,步骤5中服务器端解析由各个机器人端发送至服务器端的数据包,并从中提取出关键帧处三维激光点云数据,根据步骤4所获取的各机器人全局一致的位姿估计,在全局坐标系下得到合并各机器人建图结果后的全局一致地图。
CN202211047352.3A 2022-08-29 2022-08-29 一种面向室外场景的多机器人协同定位与建图方法 Pending CN115420276A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211047352.3A CN115420276A (zh) 2022-08-29 2022-08-29 一种面向室外场景的多机器人协同定位与建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211047352.3A CN115420276A (zh) 2022-08-29 2022-08-29 一种面向室外场景的多机器人协同定位与建图方法

Publications (1)

Publication Number Publication Date
CN115420276A true CN115420276A (zh) 2022-12-02

Family

ID=84201036

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211047352.3A Pending CN115420276A (zh) 2022-08-29 2022-08-29 一种面向室外场景的多机器人协同定位与建图方法

Country Status (1)

Country Link
CN (1) CN115420276A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115661255A (zh) * 2022-12-15 2023-01-31 中国科学技术大学 一种激光slam回环检测与校正方法
CN117289298A (zh) * 2023-10-19 2023-12-26 广州行深智能科技有限公司 基于激光雷达的多机协同在线建图方法、***及终端设备
CN118037823A (zh) * 2024-01-23 2024-05-14 中科南京智能技术研究院 一种机器人建图方法及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180210087A1 (en) * 2017-01-26 2018-07-26 The Regents Of The University Of Michigan Localization Using 2D Maps Which Capture Vertical Structures In 3D Point Data
CN109307508A (zh) * 2018-08-29 2019-02-05 中国科学院合肥物质科学研究院 一种基于多关键帧的全景惯导slam方法
CN112362072A (zh) * 2020-11-17 2021-02-12 西安恒图智源信息科技有限责任公司 一种复杂城区环境中的高精度点云地图创建***及方法
CN114777775A (zh) * 2022-05-06 2022-07-22 浙江师范大学 一种多传感器融合的定位方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180210087A1 (en) * 2017-01-26 2018-07-26 The Regents Of The University Of Michigan Localization Using 2D Maps Which Capture Vertical Structures In 3D Point Data
CN109307508A (zh) * 2018-08-29 2019-02-05 中国科学院合肥物质科学研究院 一种基于多关键帧的全景惯导slam方法
CN112362072A (zh) * 2020-11-17 2021-02-12 西安恒图智源信息科技有限责任公司 一种复杂城区环境中的高精度点云地图创建***及方法
CN114777775A (zh) * 2022-05-06 2022-07-22 浙江师范大学 一种多传感器融合的定位方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
欧阳仕晗 等: "移动机器人三维激光SLAM算法研究", 微处理机, no. 05, 31 October 2020 (2020-10-31), pages 60 - 66 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115661255A (zh) * 2022-12-15 2023-01-31 中国科学技术大学 一种激光slam回环检测与校正方法
CN117289298A (zh) * 2023-10-19 2023-12-26 广州行深智能科技有限公司 基于激光雷达的多机协同在线建图方法、***及终端设备
CN118037823A (zh) * 2024-01-23 2024-05-14 中科南京智能技术研究院 一种机器人建图方法及相关装置

Similar Documents

Publication Publication Date Title
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
CN107741234B (zh) 一种基于视觉的离线地图构建及定位方法
EP3660618B1 (en) Map building and positioning of robot
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN115420276A (zh) 一种面向室外场景的多机器人协同定位与建图方法
CN107967457A (zh) 一种适应视觉特征变化的地点识别与相对定位方法及***
Huang Review on LiDAR-based SLAM techniques
CN107907124B (zh) 基于场景重识的定位方法、电子设备、存储介质、***
CN107193279A (zh) 基于单目视觉和imu信息的机器人定位与地图构建***
CN103712617A (zh) 一种基于视觉内容的多层语义地图的创建方法
CN110969648B (zh) 一种基于点云序列数据的3d目标跟踪方法及***
Yin et al. Radar-on-lidar: metric radar localization on prior lidar maps
CN111652929A (zh) 一种视觉特征的识别定位方法及***
CN114088081B (zh) 一种基于多段联合优化的用于精确定位的地图构建方法
Qian et al. Wearable-assisted localization and inspection guidance system using egocentric stereo cameras
CN113763549A (zh) 融合激光雷达和imu的同时定位建图方法、装置和存储介质
CN116429116A (zh) 一种机器人定位方法及设备
CN116989772B (zh) 一种空地多模态多智能体协同定位与建图方法
CN113570716A (zh) 云端三维地图构建方法、***及设备
Clark et al. Increasing the efficiency of 6-DoF visual localization using multi-modal sensory data
CN116295406A (zh) 一种室内三维定位方法及***
CN116429112A (zh) 多机器人协同定位方法和装置、设备及存储介质
CN113379915B (zh) 一种基于点云融合的行车场景构建方法
CN115615436A (zh) 一种多机重定位的无人机定位方法
CN115112123A (zh) 基于视觉-imu融合的多移动机器人协同定位方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination