CN115265534A - 基于AprilTag码的多传感器融合定位导航方法、装置及*** - Google Patents

基于AprilTag码的多传感器融合定位导航方法、装置及*** Download PDF

Info

Publication number
CN115265534A
CN115265534A CN202210921400.0A CN202210921400A CN115265534A CN 115265534 A CN115265534 A CN 115265534A CN 202210921400 A CN202210921400 A CN 202210921400A CN 115265534 A CN115265534 A CN 115265534A
Authority
CN
China
Prior art keywords
robot
pose
code
grid map
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210921400.0A
Other languages
English (en)
Inventor
任妮
张文翔
张兵园
贡宇
卢鑫羽
周玲莉
程雅雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Sunongxin Data Technology Co ltd
Jiangsu Academy of Agricultural Sciences
Original Assignee
Nanjing Sunongxin Data Technology Co ltd
Jiangsu Academy of Agricultural Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Sunongxin Data Technology Co ltd, Jiangsu Academy of Agricultural Sciences filed Critical Nanjing Sunongxin Data Technology Co ltd
Priority to CN202210921400.0A priority Critical patent/CN115265534A/zh
Publication of CN115265534A publication Critical patent/CN115265534A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于AprilTag码的多传感器融合定位导航方法、装置及***,其中方法包括:根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径;基于定位算法控制所述机器人沿着所述规划路径行走,同时通过相机采集图像数据;当所述相机采集到包含AprilTag码的图像,利用AprilTag库对图像中的所述AprilTag码进行解码,获得所述AprilTag码的ID数据以及所述相机与所述AprilTag码的相对位姿;根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿;定位算法根据所述精确位姿在所述格栅地图上对所述机器人进行重定位;更新所述机器人在所述格栅地图中的移动路径。本发明的技术方案使机器人能够长时间稳定地在温室中进行自主定位与导航。

Description

基于AprilTag码的多传感器融合定位导航方法、装置及***
技术领域
本发明涉及农业机器人的定位导航技术领域,特别是涉及一种基于AprilTag码的多传感器融合定位导航方法、装置及***。
背景技术
在农业智慧化的发展背景下,巡检机器人等自主作业装备出现在温室中,为了让其实现自主导航并移动、进而作业的功能,需要能够在温室环境中进行精确地感知定位。机器人操作***(ROS)下的navigation功能包是现有的实现机器人定位导航的基本技术。目前在温室环境中的机器人主要使用激光雷达结合车轮编码器、惯性测量单元等传感器获取周边环境的特征信息和机器人本身的运动信息,将多源信息使用navigation功能包进行融合,进而实现自身的定位与导航。
现有技术的不足之处在于,当环境中特征点不足、地图场景相似因素过多时,激光雷达的可靠性较差,而车轮编码器、惯性测量单元等传感器的数据会随着时间的增加累计误差,导致传感器数据可信度降低。目前温室的种植垄道间存在环境相似且栽培架特征单一的问题,依靠现有的激光雷达结合车轮编码器、惯性测量单元等传感器的融合定位导航技术不能有效解决机器人在全局地图中丢失自身位置的问题,使得机器人无法长时间稳定地在温室中进行自主定位与导航。
现有技术中也有通过二维码对机器人进行导航的,传统的二维码编码结构复杂,解算复杂度高造成解算时间长,实时性差且对光照变化敏感,且需要在地面上大量铺设二维码,实施时需要对二维码的位置进行精确测量,工作量大,且二维码易脏污磨损,维护困难。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种能够使机器人长时间稳定地在温室中进行自主定位与导航的基于AprilTag码的多传感器融合定位导航方法、装置及***。
技术方案:为实现上述目的,本发明的基于AprilTag码的多传感器融合定位导航方法,所述方法包括:
根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径,所述规划路径经过至少一个AprilTag码;每个AprilTag码在所述格栅地图中都有着对应的位姿数据,且不同AprilTag码对应的ID数据不同;
基于定位算法控制所述机器人沿着所述规划路径行走,同时通过相机采集图像数据;
当所述相机采集到包含AprilTag码的图像,利用AprilTag库对图像中的所述AprilTag码进行解码,获得所述AprilTag码的ID数据以及所述相机与所述AprilTag码的相对位姿;
根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿;
将所述精确位姿反馈给所述定位算法,定位算法在所述格栅地图上对所述机器人进行重定位;
更新所述机器人在所述格栅地图中的移动路径。
进一步地,所述方法还包括格栅地图构建流程,所述格栅地图构建流程包括:
使用SLAM方法控制所述机器人在温室内行走并通过传感器模块采集数据,根据采集的数据建立原始格栅地图;
执行编辑操作,对所述原始格栅地图进行编辑,得到所述格栅地图。
进一步地,所述格栅地图构建流程之后还包括:
将各所述AprilTag码在所述格栅地图中对应的所述位姿数据写入控制单元中的位姿变换程序中。
进一步地,所述根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿包括:
通过相机坐标系与机器人底盘坐标系的TF变换关系,计算得到所述机器人与AprilTag码的相对位姿;
根据所述AprilTag码的ID数据查询其在所述栅格地图中的位姿数据;
根据所述相对位姿与所述位姿数据计算得出所述机器人的精确位姿。
进一步地,所述基于定位算法控制所述机器人沿着所述规划路径行走包括:
控制激光雷达对周围环境进行扫描,得到点云信息;
基于所述点云信息、其他传感器的数据以及所述格栅地图,利用AMCL定位算法估计当前时刻所述机器人所处的位置,得到估计位置;
根据所述估计位置实时修正所述机器人的移动路径。
进一步地,所述定位算法在所述格栅地图上对所述机器人进行重定位包括:
通过AMCL定位算法重新散布粒子云;
获取激光雷达传回的点云数据,对机器人在所述格栅地图上的位置进行重新定位。
基于AprilTag码的多传感器融合定位导航装置,其包括:
规划模块,其用于根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径,所述规划路径经过至少一个AprilTag码;每个AprilTag码在所述格栅地图中都有着对应的位姿数据,且不同AprilTag码对应的ID数据不同;
导航采集模块,其用于基于定位算法控制所述机器人沿着所述规划路径行走,同时通过相机采集图像数据;
第一计算模块,其用于在所述相机采集到包含AprilTag码的图像时,利用AprilTag库对图像中的所述AprilTag码进行解码,获得所述AprilTag码的ID数据以及所述相机与所述AprilTag码的相对位姿;
第二计算模块,其用于根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿;
定位更新模块,其用于将所述精确位姿反馈给所述定位算法,定位算法在所述格栅地图上对所述机器人进行重定位;
路径更新模块,其用于更新所述机器人在所述格栅地图中的移动路径。
基于AprilTag码的多传感器融合定位***,其包括在温室内执行作业的机器人,还包括内置和/或外置于所述机器人的控制单元;所述温室内的地面上分散贴有AprilTag码;所述机器人具备传感器模块以及相机,所述相机镜头向下以获取地面图像;所述控制单元能够与所述传感器模块及所述相机进行数据交互,以执行上述的基于AprilTag码的多传感器融合定位导航方法。
有益效果:本发明的本发明的基于AprilTag码的多传感器融合定位导航方法、装置及***,利用AprilTag库能够直接计算出AprilTag码相对于相机的精确3D位置、方向以及AprilTag码的ID数据,解算效率高,相比而言,传统的二维码编码结构复杂,解算复杂度高造成解算时间长,实时性差且对光照变化敏感,本发明中借助AprilTag库对AprilTag码的解算优势,可大幅提升解算实时性。此外,本发明中,由于机器人主要依靠传感器模块进行导航运行,因此,AprilTag码可以布局得很稀疏,大幅减少AprilTag码的用量,只需要在每次进行定位修正时使规划路径经过AprilTag码即可在控制机器人运动时及时对机器人的位姿进行校正,保证机器人运动的精确性。
附图说明
图1为温室区域内的布局示意图;
图2为机器人的构成示意图;
图3为基于AprilTag码进行多传感器融合的温室农业机器人定位导航方法的流程示意图;
图4为基于AprilTag码进行多传感器融合的温室农业机器人定位导航的构成示意图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
本发明之基于AprilTag码进行多传感器融合的温室农业机器人定位导航方法由控制单元实施,控制单元能够控制机器人10运行,如图2所示,机器人10具有行走机构11与传感器模块,还包括用于获取地面图像的相机12,相机12为工业CCD相机,其安装在机器人底盘前部,且镜头水平朝下,安装完毕后需使相机图像的方向与实际环境相对应,即图像上方对应车头方向,图像左边对应车身左边。本实施例中,传感器模块包括激光雷达13、IMU与里程计。机器人10运行的温室的地面上设置有多个AprilTag码20,如图1所示,所有AprilTag码20分散固定在温室内的地面上,温室内排列设置有栽培架30。上述控制单元是一种统称,其可以包括多个能够相互通信的控制元件,如可以包括上位机与下位机等。
基于上述基础,如图3所示,本发明之基于AprilTag码进行多传感器融合的温室农业机器人10定位导航方法包括如下步骤S101-S106:
步骤S101,根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径,所述规划路径经过至少一个AprilTag码20;
本步骤中,格栅地图为预先通过地图构建流程构建得到,每个AprilTag码20在所述格栅地图中都有着对应的位姿数据,且不同AprilTag码20对应的ID数据不同;规划路径包括全局路径与局部路径。机器人10运行时,控制单元执行任务列表中的任务,每个任务均具有任务点位姿这个数据,控制单元在步骤S101之前可先根据预设条件对任务进行分组,以使得至少任务与其相邻的任务合并成一个阶段任务,并在执行步骤S101时对该阶段任务进行规划路径,对阶段任务进行规划路径时,阶段任务中最后的任务对应的任务点位姿为目标点位姿,其他任务对应的任务点位姿作为途径点位姿,也即执行步骤S101时,除了要使规划路径经过至少一个AprilTag码20,还要经过阶段任务中的所有途径点位姿。通过上述方案,可避免直接对单一任务进行路径规划时难以找到合适的AprilTag码20作为途经的AprilTag码20,或者需要绕较长的路径使规划路径经过某个AprilTag码20。
步骤S102,基于定位算法控制所述机器人10沿着所述规划路径行走,同时通过相机采集图像数据;
本步骤中,控制单元利用传感器模块探测的数据控制机器人10沿规划路径行走,如,控制单元利用激光雷达采集的点云信息控制机器人10行走,或融合激光雷达与里程计采集的数据控制机器人10运动。相机只是在机器人10运动的同时采集图像。
步骤S103,当所述相机采集到包含AprilTag码20的图像,利用AprilTag库对图像中的所述AprilTag码20进行解码,获得所述AprilTag码20的ID数据以及所述相机与所述AprilTag码20的相对位姿;
步骤S104,根据所述相对位姿以及所述AprilTag码20在所述格栅地图中的位姿数据计算所述机器人10的精确位姿;
步骤S105,将所述精确位姿反馈给所述定位算法,定位算法在所述格栅地图上对所述机器人10进行重定位;
步骤S106,更新所述机器人10在所述格栅地图中的移动路径。
本步骤中,具体为:调用move_base包实时更新机器人10在地图中的全局路径和局部路径。
此步骤之后,控制机器人10根据更新后的位姿以及移动路径在垄道内继续移动,传感器模块(如激光雷达)不间断扫描垄道间环境,持续传回探测数据(如点云信息)维持机器人10定位信息,相机不间断捕捉地面图像,直到识别到下一个AprilTag码20,执行步骤S103-S106,完成机器人10的重定位和导航规划修正。
上述步骤中,利用AprilTag库能够直接计算出AprilTag码20相对于相机的精确3D位置、方向以及AprilTag码20的ID数据,解算效率高,相比而言,传统的二维码编码结构复杂,解算复杂度高造成解算时间长,实时性差且对光照变化敏感,本发明中借助AprilTag库对AprilTag码20的解算优势,可大幅提升解算实时性。此外,本发明中,由于机器人10主要依靠传感器模块进行导航运行,因此,AprilTag码20可以布局得很稀疏,大幅减少AprilTag码20的用量,只需要在每次进行定位修正时使规划路径经过AprilTag码20即可在控制机器人10运动时及时对机器人10的位姿进行校正,保证机器人10运动的精确性。
上述格栅地图构建流程包括如下步骤S201-S202:
步骤S201,使用SLAM方法控制所述机器人10在温室内行走并通过传感器模块采集数据,根据采集的数据建立原始格栅地图;
本步骤中,采集的数据具体包括激光雷达、IMU和编码器的融合里程计三者的数据,控制单元使用Gmapping算法建立温室内原始格栅地图,并保存地图。
步骤S202,执行编辑操作,对所述原始格栅地图进行编辑,得到所述格栅地图;
本步骤中,编辑操作的目的主要是对原始格栅地图进行修整,去除噪点以及填补空缺点,使得地图中没有影响使用的异常数据。控制单元可自行执行编辑操作,也可以借助人工进行编辑操作,后一种情况下,在ubuntu***下使用kolourpaint软件对建立的格栅地图进行预处理,控制单元先将二维栅格地图输出,人工利用编辑工具将二维栅格地图编辑后再输入***,控制单元接收编辑后的地图,作为预处理栅格地图。
优选地,上述格栅地图构建流程之后还包括如下步骤:将各所述AprilTag码20在所述格栅地图中的位姿数据写入控制单元中的位姿变换程序中。
本步骤中,人工在温室垄道内地面上选取路径点并张贴AprilTag中的TAG36H11码,然后根据已有的格栅地图精确测定每个AprilTag码20的精确位姿数据,然后将AprilTag码20的位姿数据录入控制单元中的位姿变换程序中。
优选地,上述步骤S102中所述基于定位算法控制所述机器人10沿着所述规划路径行走包括如下步骤S301-S303:
步骤S301,控制激光雷达对周围环境进行扫描,得到点云信息;
步骤S302,基于所述点云信息、其他传感器的数据以及所述格栅地图,利用AMCL定位算法估计当前时刻所述机器人10所处的位置,得到估计位置;
本步骤中,其他传感器的数据包括IMU数据以及编码器的融合里程计数据,还可以包括其他类别的传感器数据。
步骤S303,根据所述估计位置实时修正所述机器人10的规划路径。
优选地,上述步骤S104中所述根据所述相对位姿以及所述AprilTag码20在所述格栅地图中的位姿数据计算所述机器人10的精确位姿包括如下步骤S401-S403:
步骤S401,通过相机坐标系与机器人10底盘坐标系的TF变换关系,计算得到所述机器人10与AprilTag码20的相对位姿;
步骤S402,根据所述AprilTag码20的ID数据查询其在所述栅格地图中的位姿数据;
步骤S403,根据所述相对位姿与所述位姿数据计算得出所述机器人10的精确位姿。
优选地,上述步骤S105中所述定位算法在所述格栅地图上对所述机器人10进行重定位包括包括如下步骤S501-S502:
步骤S501,把所述精确位姿反馈给AMCL定位算法,通过AMCL定位算法重新散布粒子云;
步骤S502,获取激光雷达传回的点云数据,对机器人10在所述格栅地图上的位置进行重新定位。
优选地,上述格栅地图内具有由拓扑线构成的拓扑线网络(如图1中虚线所示),拓扑线网络沿着温室内的通道延伸并穿过所有AprilTag码20,上述对任务进行分组以生成阶段任务可按照如下方法进行:首先,获取一批任务,对其中每个任务进行评估,得到任务的任务点(任务点位置对应的点位)与前一任务的任务点之间的参考路径,具体方法为,计算评估任务的任务点在其对应的最近拓扑线上的投影点,以及前一任务的任务点在其对应的最近拓扑线上的投影点,参考路径为两个投影点之间的、且沿着拓扑线网络延伸的最短路径;判断参考路径的距离是否大于预设值且参考路径是否经过至少一个AprilTag码20,两个判断结构均为是,则该被评估的任务能够作为可独立成组的任务,其他任务为不可独立成组的任务;最后将不可独立成组的任务与相邻的若干任务合并至同一组,具体为:将连续的不可独立成组的任务先合并,按照上述方法判断合并后的任务组是否能够独立成组,是则将该任务组作为一个阶段任务,否则将任务组与其之前或之后的可独立成组的任务进行合并形成一个阶段任务;最后将独立的不可独立成组的任务(其前后的任务均为可独立成组的任务)与其之前或之后的可独立成组的任务进行合并形成一个阶段任务。采用上述方法,通过参考路径的方式对任务进行评估,可快速完成评估与分组,相比于预先进行路径规划进行评估,计算任务量小得多,可提升运行效率。
本发明还提供了一种基于AprilTag码进行多传感器融合的温室农业机器人定位导航装置600(以下简称“定位导航装置600”),定位导航装置600可以包括或被分割成一个或多个程序模块,一个或者多个程序模块被存储于存储介质中,并由一个或多个处理器所执行,以完成本发明,并可实现上述基于AprilTag码20的多传感器融合定位导航方法。本发明实施例所称的程序模块是指能够完成特定功能的一系列计算机程序指令段,比程序本身更适合于描述基于AprilTag码20的多传感器融合定位导航方法在存储介质中的执行过程。以下描述将具体介绍本实施例各程序模块的功能,如图4所示,定位导航装置600其包括:
规划模块610,其用于根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径,所述规划路径经过至少一个AprilTag码20;每个AprilTag码20在所述格栅地图中都有着对应的位姿数据,且不同AprilTag码20对应的ID数据不同;
导航采集模块620,其用于控制所述机器人10沿着所述规划路径行走,并通过相机采集图像数据;
第一计算模块630,其用于在所述相机采集到包含AprilTag码20的图像时,利用AprilTag库对图像中的所述AprilTag码20进行解码,获得所述AprilTag码20的ID数据以及所述相机与所述AprilTag码20的相对位姿;
第二计算模块640,其用于根据所述相对位姿以及所述AprilTag码20在所述格栅地图中的位姿数据计算所述机器人10的精确位姿;
定位更新模块650,其用于将所述精确位姿反馈给所述定位算法,定位算法在所述格栅地图上对所述机器人10进行重定位;
路径更新模块660,其用于更新所述机器人10在所述格栅地图中的规划路径。
其他基于定位导航装置600实现上述基于AprilTag码的多传感器融合定位导航方法的内容在之前实施例中已经详细介绍,可参考之前实施例中的对应内容,此处不再赘述。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (8)

1.基于AprilTag码的多传感器融合定位导航方法,其特征在于,所述方法包括:
根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径,所述规划路径经过至少一个AprilTag码;每个AprilTag码在所述格栅地图中都有着对应的位姿数据,且不同AprilTag码对应的ID数据不同;
基于定位算法控制所述机器人沿着所述规划路径行走,同时通过相机采集图像数据;
当所述相机采集到包含AprilTag码的图像,利用AprilTag库对图像中的所述AprilTag码进行解码,获得所述AprilTag码的ID数据以及所述相机与所述AprilTag码的相对位姿;
根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿;
将所述精确位姿反馈给所述定位算法,定位算法在所述格栅地图上对所述机器人进行重定位;
更新所述机器人在所述格栅地图中的移动路径。
2.根据权利要求1所述的基于AprilTag码的多传感器融合定位导航方法,其特征在于,所述方法还包括格栅地图构建流程,所述格栅地图构建流程包括:
使用SLAM方法控制所述机器人在温室内行走并通过传感器模块采集数据,根据采集的数据建立原始格栅地图;
执行编辑操作,对所述原始格栅地图进行编辑,得到所述格栅地图。
3.根据权利要求2所述的基于AprilTag码的多传感器融合定位导航方法,其特征在于,所述格栅地图构建流程之后还包括:
将各所述AprilTag码在所述格栅地图中对应的所述位姿数据写入控制单元中的位姿变换程序中。
4.根据权利要求1所述的基于AprilTag码的多传感器融合定位导航方法,其特征在于,所述根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿包括:
通过相机坐标系与机器人底盘坐标系的TF变换关系,计算得到所述机器人与AprilTag码的相对位姿;
根据所述AprilTag码的ID数据查询其在所述栅格地图中的位姿数据;
根据所述相对位姿与所述位姿数据计算得出所述机器人的精确位姿。
5.根据权利要求1所述的基于AprilTag码的多传感器融合定位导航方法,其特征在于,所述基于定位算法控制所述机器人沿着所述规划路径行走包括:
控制激光雷达对周围环境进行扫描,得到点云信息;
基于所述点云信息、其他传感器的数据以及所述格栅地图,利用AMCL定位算法估计当前时刻所述机器人所处的位置,得到估计位置;
根据所述估计位置实时修正所述机器人的移动路径。
6.根据权利要求5所述的基于AprilTag码的多传感器融合定位导航方法,其特征在于,所述定位算法在所述格栅地图上对所述机器人进行重定位包括:
通过AMCL定位算法重新散布粒子云;
获取激光雷达传回的点云数据,对机器人在所述格栅地图上的位置进行重新定位。
7.基于AprilTag码的多传感器融合定位导航装置,其特征在于,其包括:
规划模块,其用于根据初始位姿与目标点位姿在格栅地图上进行路径规划,得到规划路径,所述规划路径经过至少一个AprilTag码;每个AprilTag码在所述格栅地图中都有着对应的位姿数据,且不同AprilTag码对应的ID数据不同;
导航采集模块,其用于基于定位算法控制所述机器人沿着所述规划路径行走,同时通过相机采集图像数据;
第一计算模块,其用于在所述相机采集到包含AprilTag码的图像时,利用AprilTag库对图像中的所述AprilTag码进行解码,获得所述AprilTag码的ID数据以及所述相机与所述AprilTag码的相对位姿;
第二计算模块,其用于根据所述相对位姿以及所述AprilTag码在所述格栅地图中的位姿数据计算所述机器人的精确位姿;
定位更新模块,其用于将所述精确位姿反馈给所述定位算法,定位算法在所述格栅地图上对所述机器人进行重定位;
路径更新模块,其用于更新所述机器人在所述格栅地图中的移动路径。
8.基于AprilTag码的多传感器融合定位***,其特征在于,其包括在温室内执行作业的机器人,还包括内置和/或外置于所述机器人的控制单元;所述温室内的地面上分散贴有AprilTag码;所述机器人具备传感器模块以及相机,所述相机镜头向下以获取地面图像;所述控制单元能够与所述传感器模块及所述相机进行数据交互,以执行如权利要求1-6任一项所述的基于AprilTag码的多传感器融合定位导航方法。
CN202210921400.0A 2022-08-02 2022-08-02 基于AprilTag码的多传感器融合定位导航方法、装置及*** Pending CN115265534A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210921400.0A CN115265534A (zh) 2022-08-02 2022-08-02 基于AprilTag码的多传感器融合定位导航方法、装置及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210921400.0A CN115265534A (zh) 2022-08-02 2022-08-02 基于AprilTag码的多传感器融合定位导航方法、装置及***

Publications (1)

Publication Number Publication Date
CN115265534A true CN115265534A (zh) 2022-11-01

Family

ID=83747992

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210921400.0A Pending CN115265534A (zh) 2022-08-02 2022-08-02 基于AprilTag码的多传感器融合定位导航方法、装置及***

Country Status (1)

Country Link
CN (1) CN115265534A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118010008A (zh) * 2024-04-08 2024-05-10 西北工业大学 基于双目slam和机间回环优化双无人机协同定位方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118010008A (zh) * 2024-04-08 2024-05-10 西北工业大学 基于双目slam和机间回环优化双无人机协同定位方法
CN118010008B (zh) * 2024-04-08 2024-06-07 西北工业大学 基于双目slam和机间回环优化双无人机协同定位方法

Similar Documents

Publication Publication Date Title
CN110673115B (zh) 雷达与组合导航***的联合标定方法、装置、设备及介质
EP3672762B1 (en) Self-propelled robot path planning method, self-propelled robot and storage medium
CN103064416B (zh) 巡检机器人室内外自主导航***
US11288526B2 (en) Method of collecting road sign information using mobile mapping system
Harapanahalli et al. Autonomous Navigation of mobile robots in factory environment
JP5018458B2 (ja) 座標補正方法、座標補正プログラム、及び自律移動ロボット
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
CN105486311A (zh) 室内机器人定位导航方法及装置
CN113405544B (zh) 一种移动机器人的建图与定位方法及***
CN111881239A (zh) 构建方法、构建装置、智能机器人及可读存储介质
CN111762519B (zh) 引导拣选机器人作业的方法、***和调度装置
US20220388170A1 (en) Alternate Route Finding for Waypoint-based Navigation Maps
CN110597265A (zh) 一种扫地机器人回充方法和装置
CN111487960A (zh) 一种基于定位能力估计的移动机器人路径规划方法
CN110716559A (zh) 一种用于商场超市拣货机器人的综合控制方法
CN112894758A (zh) 机器人清洗控制***、方法、装置和计算机设备
CN111857114A (zh) 一种机器人编队移动方法、***、设备和存储介质
CN115265534A (zh) 基于AprilTag码的多传感器融合定位导航方法、装置及***
CN111168669A (zh) 机器人控制方法、机器人和可读存储介质
CN113654558A (zh) 导航方法及装置、服务器、设备、***及存储介质
JP2022530246A (ja) 自己位置推定及び環境地図作成の同時実行
CN113932825B (zh) 机器人导航路径宽度获取***、方法、机器人及存储介质
CN111580530B (zh) 一种定位方法、装置、自主移动设备及介质
US20230413712A1 (en) Path finding method and system for weeding robot
CN116576859A (zh) 路径导航方法、作业控制方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination