CN115307646B - 一种多传感器融合的机器人定位方法、***及装置 - Google Patents

一种多传感器融合的机器人定位方法、***及装置 Download PDF

Info

Publication number
CN115307646B
CN115307646B CN202211219785.2A CN202211219785A CN115307646B CN 115307646 B CN115307646 B CN 115307646B CN 202211219785 A CN202211219785 A CN 202211219785A CN 115307646 B CN115307646 B CN 115307646B
Authority
CN
China
Prior art keywords
robot
information
coordinate system
positioning
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211219785.2A
Other languages
English (en)
Other versions
CN115307646A (zh
Inventor
余小欢
徐露露
黄泽仕
哈融厚
白云峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yixun Technology Co ltd
Original Assignee
Zhejiang Guangpo Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Guangpo Intelligent Technology Co ltd filed Critical Zhejiang Guangpo Intelligent Technology Co ltd
Priority to CN202211219785.2A priority Critical patent/CN115307646B/zh
Publication of CN115307646A publication Critical patent/CN115307646A/zh
Application granted granted Critical
Publication of CN115307646B publication Critical patent/CN115307646B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种多传感器融合的机器人定位方法,包括以下步骤:S1:通过惯性测量单元、里程计、单线激光雷达的数据信息建立离线二维栅格地图;S2:将离线二维栅格地图坐标系与全局坐标系建立变换关系;S3:设定机器人初始化状态信息,获取单线激光雷达、光流传感器、差分GPS的输出信息;S4:根据光流传感器的输出信息,计算得到机器人的运动的速度信息和姿态信息;本发明通过机器人定位方法和***,设置包括惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的定位传感器,对机器人进行综合数据采集,实现了兼顾定位精度前提下的低成本,具有高可靠性,在单一传感器失效的情况下,仍旧能提供稳定准确的定位结果输出。

Description

一种多传感器融合的机器人定位方法、***及装置
技术领域
本发明涉及机器人技术领域,尤其涉及一种多传感器融合的机器人定位方法、***及装置。
背景技术
随着人工智能技术和传感器技术等的飞速发展,机器人领域的整体技术水平不断提升。各种类型的机器人越来越多的出现在各个领域,不断提升对应领域的自动化水平。而机器人的定位技术作为机器人的核心组成部分,其性能很大程度上直接影响了机器人整体的性能。
传统的机器人定位技术主要包括面向室内的机器人定位和面向室外的机器人定位。
CN105411490B提出一种“移动机器人的实时定位方法及移动机器人”。其采用里程计、陀螺仪、双目相机融合的方案。先通过里程计和陀螺仪的输出融合得到一个初步的位姿信息,然后将其作为预测输入结合双目相机获取的场景信息运行SLAM算法得到一个优化后的定位信息。该方案在室内小场景下基本能满足定位需求,但其缺陷非常的明显:1. 适用的场景比较有限,在室外场景、室内高动态室内场景、室内低纹理或是重复纹理场景下,双目的SLAM算法很难获取有效的位姿估计。2. 在线跑SLAM算法对机器人平台的计算和功耗压力非常大,进而增加了定位方案的成本。3. 无法解决类似里程计打滑等传感器异常的情况。
CN107340522A提出“一种激光雷达定位的方法、装置及***”,其采用三维激光雷达、惯性测量单元、里程计融合的方案。先采用三个传感器的数据做融合获得当前场景的三维点云地图,然后采用卡尔曼滤波方法结合惯性测量单元和里程计得到的位姿递推值和三维激光雷达的实时数据与三维点云地图匹配得到的位姿观测值得到最优位姿估计。该方案采用三维激光雷达来进行数据融合可以一定程度上适应室外场景的机器人定位需求,但其存在如下的缺陷点:1.方案的成本太高,包括昂贵的三维激光雷达的使用成本,稠密的三维点云地图的存储成本,实时点云数据与三维点云地图之间匹配的计算成本。2.无法解决类似里程计打滑等传感器异常的情况。
发明内容
本发明主要解决现有的技术中对于机器人的定位方法可靠性差的问题;提供一种多传感器融合的机器人定位方法,实现了低成本、高可靠性、室内外均能正常工作的机器人实时定位功能。
本发明的上述技术问题主要是通过下述技术方案得以解决的:一种多传感器融合的机器人定位方法,包括以下步骤:
S1:通过惯性测量单元、里程计、单线激光雷达的数据信息建立离线二维栅格地图;
S2:将离线二维栅格地图坐标系与全局坐标系建立变换关系;
S3:设定机器人初始化状态信息,获取单线激光雷达、光流传感器、差分GPS的输出信息;
S4:根据光流传感器的输出信息,计算得到机器人的运动的速度信息和姿态信息;
S5:将单线激光雷达的数据同离线二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息;
S6:将差分GPS得到的全局坐标系下的机器人位置信息通过步骤S2中标定到的变换关系转换到离线二维栅格地图坐标系下;
S7:采用全向运动模型来预测当前机器人的位置信息、姿态信息和速度信息的预测值;
S8:基于步骤S7中的机器人状态信息的预测值,采用扩展卡尔曼滤波融合定位传感器得到的观测值,得到机器人当前状态信息的最优估计,并将此估计值作为最终机器人当前的定位信息。
作为优选,步骤S4中,机器人当前的位置信息和姿态信息的具体获得方法为:
S41:通过垂直往下安装的光流传感器获得图像的不同时刻的帧数据,得到像素的移动速度;
S42:将像素的移动速度转换成机器人的运动的速度信息和姿态信息。
作为优选,步骤S42的具体实现方法为:
基于离线二维栅格地图坐标系与全局坐标系的变换关系以及像素坐标系到光流传感器坐标系的变换关系,得到:
Figure 100002_DEST_PATH_IMAGE002
其中,
Figure 100002_DEST_PATH_IMAGE004
为离线二维栅格地图坐标系与光流传感器坐标系的变换矩阵,/>
Figure 100002_DEST_PATH_IMAGE006
Figure 100002_DEST_PATH_IMAGE008
为机器人在离线二维栅格地图坐标系下的变化量,/>
Figure 100002_DEST_PATH_IMAGE010
和/>
Figure 100002_DEST_PATH_IMAGE012
为相机焦距f除以dx、dy得到的值,dx、dy为感光芯片上像素的实际物理大小,/>
Figure 100002_DEST_PATH_IMAGE014
、/>
Figure 100002_DEST_PATH_IMAGE016
为像素坐标系下的变化量,/>
Figure 100002_DEST_PATH_IMAGE018
、/>
Figure 100002_DEST_PATH_IMAGE020
为像素坐标系下的原点,/>
Figure 100002_DEST_PATH_IMAGE022
为光流传感器坐标系下的坐标,离线二维栅格地图坐标系下的变化量除以对应的变化时间得到机器人运动的速度信息。
作为优选,步骤S5中,采用自适应蒙特卡罗定位方法实现基于单线激光雷达数据在离线二维栅格地图下的机器人定位匹配。
一种多传感器融合的机器人定位***,包括:地图构建模块和实时定位模块;所述地图构建模块根据惯性测量数据、里程数据和二维点云数据生成离线二维栅格地图;在离线二维栅格地图的数据采集过程中采用闭环的约束修正位姿和地图信息;所述实时定位模块:用于获取惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出信息。
作为优选,所述的实时定位模块包括:初始化定位单元,用于获取机器人启动后初始化位姿信息;数据接收及预处理单元,用于获取惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出信息,并处理光流传感器得到的数据,计算得到机器人运动的速度信息和姿态信息,将差分GPS得到的全局坐标系下的机器人位置信息转换到地图坐标系下;机器人位姿预测值计算单元,用于采用全向运动模型来预测当前机器人的位置信息、姿态信息和速度信息的预测值;机器人位姿观测值计算单元,用于实时将单线激光雷达的数据同离线的二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息;扩展卡尔曼滤波单元,基于机器人状态信息的预测值,采用扩展卡尔曼滤波融合惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出信息,得到机器人当前状态信息的估计值,并将估计值作为机器人当前最终的定位信息。
一种多传感器融合的机器人定位装置,包括:惯性测量单元,用于获取机器人的惯性测量数据;里程计,用于获取机器人的里程数据;单线激光雷达,用于获取机器人平台周围环境的二维点云数据;光流传感器,通过计算像素的光流变化,得到机器人在平面上两个方向上的位移变化的数据;差分GPS,获取机器人全局坐标系下的位置关系。
本发明的有益效果是:通过机器人定位方法和***,设置包括惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的定位传感器,对机器人进行综合数据采集,实现了兼顾定位精度前提下的低成本,包括低硬件成本和低储存和计算成本;具有高可靠性,在单一传感器失效的情况下,仍旧能提供稳定准确的定位结果输出;应用范围广,室内外均可正常运行。
附图说明
图1是本发明实施例的机器人定位方法的流程示意图。
图2是本发明实施例的机器人定位***的结构框图。
图中1、地图构建模块,2、实时定位模块,3、初始化定位单元,4、数据接收及预处理单元,5、机器人位姿预测值计算单元,6、机器人位姿观测值计算单元,7、扩展卡尔曼滤波单元。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,通过下述实施例并结合附图,对本发明实施例中的技术方案的进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定发明。
实施例:一种多传感器融合的机器人定位方法,如图1所示,包括以下步骤:
S1:通过惯性测量单元、里程计、单线激光雷达的数据信息建立离线二维栅格地图;具体的实现为:通过惯性测量单元获取机器人的惯性测量数据、通过里程计获取机器人的里程数据、通过单线激光雷达获取机器人平台周围环境的二维点云数据,生成离线二维栅格地图。并在地图的采集的过程中,采用闭环数据采集的方式,用于在离线二维栅格地图的过程中采用闭环的约束修正位姿和地图信息;生成的离线二维栅格地图包括栅格化处理,空间域滤波以及去噪点等地图后处理操作。
S2:将离线二维栅格地图坐标系与全局坐标系建立变换关系;标定得到两个坐标系的变换矩阵为
Figure DEST_PATH_IMAGE024
(m表示离线二维栅格地图坐标系,w表示全局坐标系)。
S3:设定机器人初始化状态信息,获取单线激光雷达、光流传感器、差分GPS的输出信息;机器人初始化状态信息可通过机器人启动时直接获取得到,惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出频率对应为100hz、100hz、10hz、60hz和1hz。
S4:根据光流传感器的输出信息,计算得到机器人的运动的速度信息和姿态信息;机器人当前的位置信息和姿态信息的具体获得方法为:
S41:通过垂直往下安装的光流传感器获得图像的不同时刻的帧数据,得到像素的移动速度;
S42:将像素的移动速度转换成机器人的运动的速度信息和姿态信息;
步骤S42的具体实现方法为:
像素坐标系到光流传感器坐标系的变换公式为:
Figure DEST_PATH_IMAGE026
(1)
此处u、v为像素坐标系下的坐标,
Figure 371838DEST_PATH_IMAGE010
和/>
Figure 757820DEST_PATH_IMAGE012
为相机焦距f除以dx、dy得到的值,dx、dy为感光芯片上像素的实际物理大小,(/>
Figure DEST_PATH_IMAGE028
,/>
Figure DEST_PATH_IMAGE030
,/>
Figure 865453DEST_PATH_IMAGE022
)为光流传感器坐标系下的坐标。
对公式(1)进行转换得到:
Figure DEST_PATH_IMAGE032
(2)
对公式(2)进行微分操作有:
Figure DEST_PATH_IMAGE034
(3)
设定地图坐标系到光流传感器坐标系之间的变换矩阵为
Figure 667187DEST_PATH_IMAGE004
,则机器人在地图坐标系下的变化量为:
Figure 950401DEST_PATH_IMAGE002
(4)
基于公式(4)即可获得基于光流传感器在地图坐标系下的位姿态的变化量,
Figure 117071DEST_PATH_IMAGE006
和/>
Figure 852946DEST_PATH_IMAGE008
为机器人在离线二维栅格地图坐标系下的变化量,/>
Figure 645321DEST_PATH_IMAGE014
、/>
Figure 783042DEST_PATH_IMAGE016
为像素坐标系下的变化量,/>
Figure 855034DEST_PATH_IMAGE018
、/>
Figure 78205DEST_PATH_IMAGE020
为像素坐标系下的原点,变化量除以对应的变化时间即可得到运动的速度信息。
S5:将单线激光雷达的数据同离线二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息;采用自适应蒙特卡罗定位方法实现基于单线激光雷达数据在离线二维栅格地图下的机器人定位匹配,或采用KLD采样的定位方法进行机器人的定位匹配。
S6:实时将差分GPS得到的全局坐标系下的机器人位置信息通过步骤S2中标定到的变换关系转换到离线二维栅格地图坐标系下。
S7:采用全向运动模型来预测当前机器人的位置信息、姿态信息和速度信息的预测值。
S8:基于步骤S7中的机器人状态信息的预测值,采用扩展卡尔曼滤波融合定位传感器得到的观测值,得到机器人当前状态信息的最优估计,并将此估计值作为最终机器人当前的定位信息;此处的观测值包括直接或间接来自惯性测量单元、里程计、单线激光雷达、光流传感器、差分GPS的测量值。
如图2所示,本发明还提供一种多传感器融合的机器人定位***,包括地图构建模块1和实时定位模块2。
地图构建模块用于通过惯性测量单元获取机器人的惯性测量数据、通过里程计获取机器人的里程数据、通过单线激光雷达获取机器人平台周围环境的二维点云数据,生成离线二维栅格地图。并在地图的采集的过程中,采用闭环数据采集的方式,用于在离线二维栅格地图的过程中采用闭环的约束修正位姿和地图信息。
实时定位模块用于获取惯性测量单元、里程计、单线激光雷达、光流传感器、差分GPS的输出信息。实时处理光流传感器得到的数据,并计算得到机器人的运动的速度信息和姿态信息。实时将单线激光雷达的数据同离线的二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息。实时将差分GPS得到的全局坐标系下的机器人位置信息通过标定到的变换关系转换到地图坐标系下。采用全向运动模型来预测当前机器人的位置信息、姿态信息、速度信息的预测值。基于机器人状态信息的预测值,采用扩展卡尔曼滤波融合各传感器得到的观测值,得到机器人当前状态信息的最优估计,并将此估计值作为最终机器人当前的定位信息。
定位模块包括初始化定位单元3、数据接收及预处理单元4、机器人位姿预测值计算单元5、机器人位姿观测值计算单元6和扩展卡尔曼滤波单元7。
初始化定位单元用于获取机器人启动后初始化位姿信息。
数据接收及预处理单元用于获取惯性测量单元、里程计、单线激光雷达、光流传感器、差分GPS的输出信息,并实时处理光流传感器得到的数据,并计算得到机器人的运动的速度信息和姿态信息。实时将差分GPS得到的全局坐标系下的机器人位置信息转换到地图坐标系下。
机器人位姿预测值计算单元用于采用全向运动模型来预测当前机器人的位置信息、姿态信息、速度信息的预测值。
机器人位姿观测值计算单元用于实时将单线激光雷达的数据同离线的二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息。
扩展卡尔曼滤波单元用于基于机器人状态信息的预测值,采用扩展卡尔曼滤波融合各传感器得到的观测值,得到机器人当前状态信息的最优估计,并将此估计值作为最终机器人当前的定位信息。
本发明还提供一种多传感器融合的机器人定位装置,包括惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS,惯性测量单元,用于获取机器人的惯性测量数据;里程计,用于获取机器人的里程数据;单线激光雷达,用于获取机器人平台周围环境的二维点云数据;光流传感器,通过计算像素的光流变化,得到机器人在平面上两个方向上的位移变化的数据;差分GPS,获取机器人全局坐标系下的位置关系。
惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS均与处理器连接,处理器包括机器人定位***的地图构建模块和实时定位模块,处理器基于惯性测量单元、里程计、单线激光雷达的数据生成离线二维栅格地图。并根据惯性测量单元数据、里程计数据、单线激光雷达实时二维点云数据与离线二维栅格地图匹配的结果、光流传感器的数据、差分GPS装置的数据生成当前机器人的位姿信息。
还设置有存储器,用于存储离线二维栅格地图、各传感器的测量数据、机器人状态预测值、机器人状态观测值和机器人当前定位信息。
本发明设置了光流传感器对机器人的速度信息和姿态信息进行采集,结合其余的定位传感器进行多传感器的融合定位,当出现其他定位传感器故障时,光流传感器工作依然可以实现机器人的定位,同时,光流传感器能很好的适应光线、季节等环境变化的影响,不会因为光线的因素导致精度降低,保证精度的前提下实现了机器人定位的硬件成本、软件成本和存储成本的降低。
以上所述的实施例只是本发明的一种较佳的方案,并非对本发明作任何形式上的限制,在不超出权利要求所记载的技术方案的前提下还有其它的变体及改型。

Claims (5)

1.一种多传感器融合的机器人定位方法,其特征在于,包括以下步骤:
S1:通过惯性测量单元、里程计、单线激光雷达的数据信息建立离线二维栅格地图;
S2:将离线二维栅格地图坐标系与全局坐标系建立变换关系;
S3:设定机器人初始化状态信息,获取单线激光雷达、光流传感器、差分GPS的输出信息;
S4:根据光流传感器的输出信息,计算得到机器人的运动的速度信息和姿态信息;
S5:将单线激光雷达的数据同离线二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息;
S6:将差分GPS得到的全局坐标系下的机器人位置信息通过步骤S2中标定到的变换关系转换到离线二维栅格地图坐标系下;
S7:采用全向运动模型来预测当前机器人的位置信息、姿态信息和速度信息的预测值;
S8:基于步骤S7中的机器人状态信息的预测值,采用扩展卡尔曼滤波融合定位传感器得到的观测值,得到机器人当前状态信息的最优估计,并将此估计值作为最终机器人当前的定位信息;
步骤S4中,机器人当前的位置信息和姿态信息的具体获得方法为:
S41:通过垂直往下安装的光流传感器获得图像的不同时刻的帧数据,得到像素的移动速度;
S42:将像素的移动速度转换成机器人的运动的速度信息和姿态信息;
步骤S42的具体实现方法为:
基于离线二维栅格地图坐标系与全局坐标系的变换关系以及像素坐标系到光流传感器坐标系的变换关系,得到:
Figure DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE004
为离线二维栅格地图坐标系与光流传感器坐标系的变换矩阵,
Figure DEST_PATH_IMAGE006
Figure DEST_PATH_IMAGE008
为机器人在离线二维栅格地图坐标系下的变化量,
Figure DEST_PATH_IMAGE010
Figure DEST_PATH_IMAGE012
为相机焦距f除以dx、dy得到的值,dx、dy为感光芯片上像素的实际物理大小,
Figure DEST_PATH_IMAGE014
Figure DEST_PATH_IMAGE016
为像素坐标系下的变化量,
Figure DEST_PATH_IMAGE018
Figure DEST_PATH_IMAGE020
为像素坐标系下的原点,
Figure DEST_PATH_IMAGE022
为光流传感器坐标系下的坐标,离线二维栅格地图坐标系下的变化量除以对应的变化时间得到机器人运动的速度信息。
2.根据权利要求1所述的一种多传感器融合的机器人定位方法,其特征在于,
步骤S5中,采用自适应蒙特卡罗定位方法实现基于单线激光雷达数据在离线二维栅格地图下的机器人定位匹配。
3.一种多传感器融合的机器人定位***,适用于如权利要求1至2任一项所述的一种多传感器融合的机器人定位方法,其特征在于,包括:
地图构建模块和实时定位模块;
所述地图构建模块根据惯性测量数据、里程数据和二维点云数据生成离线二维栅格地图;在离线二维栅格地图的数据采集过程中采用闭环的约束修正位姿和地图信息;
所述实时定位模块:用于获取惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出信息。
4.根据权利要求3所述的一种多传感器融合的机器人定位***,其特征在于,
所述实时定位模块包括:
初始化定位单元,用于获取机器人启动后初始化位姿信息;
数据接收及预处理单元,用于获取惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出信息,并处理光流传感器得到的数据,计算得到机器人运动的速度信息和姿态信息,将差分GPS得到的全局坐标系下的机器人位置信息转换到地图坐标系下;
机器人位姿预测值计算单元,用于采用全向运动模型来预测当前机器人的位置信息、姿态信息和速度信息的预测值;
机器人位姿观测值计算单元,用于实时将单线激光雷达的数据同离线的二维栅格地图进行匹配,得到机器人当前的位置信息和姿态信息;
扩展卡尔曼滤波单元,基于机器人状态信息的预测值,采用扩展卡尔曼滤波融合惯性测量单元、里程计、单线激光雷达、光流传感器和差分GPS的输出信息,得到机器人当前状态信息的估计值,并将估计值作为机器人当前最终的定位信息。
5.一种多传感器融合的机器人定位装置,应用于如权利要求3所述的一种多传感器融合的机器人定位***,其特征在于,包括:
惯性测量单元,用于获取机器人的惯性测量数据;
里程计,用于获取机器人的里程数据;
单线激光雷达,用于获取机器人平台周围环境的二维点云数据;
光流传感器,通过计算像素的光流变化,得到机器人在平面上两个方向上的位移变化的数据;
差分GPS,获取机器人全局坐标系下的位置关系。
CN202211219785.2A 2022-10-08 2022-10-08 一种多传感器融合的机器人定位方法、***及装置 Active CN115307646B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211219785.2A CN115307646B (zh) 2022-10-08 2022-10-08 一种多传感器融合的机器人定位方法、***及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211219785.2A CN115307646B (zh) 2022-10-08 2022-10-08 一种多传感器融合的机器人定位方法、***及装置

Publications (2)

Publication Number Publication Date
CN115307646A CN115307646A (zh) 2022-11-08
CN115307646B true CN115307646B (zh) 2023-03-24

Family

ID=83866042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211219785.2A Active CN115307646B (zh) 2022-10-08 2022-10-08 一种多传感器融合的机器人定位方法、***及装置

Country Status (1)

Country Link
CN (1) CN115307646B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115655302B (zh) * 2022-12-08 2023-03-21 安徽蔚来智驾科技有限公司 激光里程计的实现方法、计算机设备、存储介质及车辆
CN117415811A (zh) * 2023-11-01 2024-01-19 天合光能股份有限公司 光伏悬挂式清扫机器人位姿调整方法、装置和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知***和方法
KR20190041315A (ko) * 2017-10-12 2019-04-22 한화디펜스 주식회사 관성 기반 항법 장치 및 상대사전적분에 따른 관성 기반 항법 방법
WO2022142992A1 (zh) * 2020-12-29 2022-07-07 深圳市普渡科技有限公司 融合定位方法、装置、设备和计算机可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108181636B (zh) * 2018-01-12 2020-02-18 中国矿业大学 石化工厂巡检机器人环境建模与地图构建装置和方法
CN108680156B (zh) * 2018-02-26 2022-01-07 青岛克路德机器人有限公司 一种多传感器数据融合的机器人定位方法
US11243081B2 (en) * 2019-03-29 2022-02-08 Trimble Inc. Slam assisted INS
CN110873883B (zh) * 2019-11-29 2023-08-29 上海有个机器人有限公司 融合激光雷达和imu的定位方法、介质、终端和装置
CN111077907A (zh) * 2019-12-30 2020-04-28 哈尔滨理工大学 一种室外无人机的自主定位方法
CN111089585A (zh) * 2019-12-30 2020-05-01 哈尔滨理工大学 一种基于传感器信息融合的建图及定位方法
CN113253297B (zh) * 2021-06-21 2021-09-17 中国人民解放军国防科技大学 融合激光雷达和深度相机的地图构建方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知***和方法
KR20190041315A (ko) * 2017-10-12 2019-04-22 한화디펜스 주식회사 관성 기반 항법 장치 및 상대사전적분에 따른 관성 기반 항법 방법
WO2022142992A1 (zh) * 2020-12-29 2022-07-07 深圳市普渡科技有限公司 融合定位方法、装置、设备和计算机可读存储介质

Also Published As

Publication number Publication date
CN115307646A (zh) 2022-11-08

Similar Documents

Publication Publication Date Title
CN110243358B (zh) 多源融合的无人车室内外定位方法及***
CN115307646B (zh) 一种多传感器融合的机器人定位方法、***及装置
CN108181636B (zh) 石化工厂巡检机器人环境建模与地图构建装置和方法
CN109100730B (zh) 一种多车协同快速建图方法
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
Alonso et al. Accurate global localization using visual odometry and digital maps on urban environments
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN103411621B (zh) 一种面向室内移动机器人的光流场视觉/ins组合导航方法
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、***及介质
CN110751123B (zh) 一种单目视觉惯性里程计***及方法
CN112967392A (zh) 一种基于多传感器触合的大规模园区建图定位方法
CN113238554A (zh) 一种基于激光与视觉融合slam技术的室内导航方法及***
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN114608561A (zh) 一种基于多传感器融合的定位与建图方法及***
CN111623773A (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
CN108646760B (zh) 基于单目视觉移动机器人目标跟踪及平台控制***和方法
CN113701750A (zh) 一种井下多传感器的融合定位***
CN105807083A (zh) 一种无人飞行器实时测速方法及***
CN109903309B (zh) 一种基于角度光流法的机器人运动信息估计方法
CN117075158A (zh) 基于激光雷达的无人变形运动平台的位姿估计方法及***
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN117029802A (zh) 一种基于深度学习的多模态slam方法
CN112747752B (zh) 基于激光里程计的车辆定位方法、装置、设备和存储介质
Liu et al. A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240409

Address after: Room 509-2, 5th Floor, Building 1, Dingchuang Wealth Center, Cangqian Street, Yuhang District, Hangzhou City, Zhejiang Province, 311100

Patentee after: Hangzhou Yixun Technology Co.,Ltd.

Country or region after: China

Address before: Room 303-5, block B, building 1, 268 Shiniu Road, nanmingshan street, Liandu District, Lishui City, Zhejiang Province 323000

Patentee before: Zhejiang Guangpo Intelligent Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right