CN116242372A - 一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法 - Google Patents

一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法 Download PDF

Info

Publication number
CN116242372A
CN116242372A CN202310002241.9A CN202310002241A CN116242372A CN 116242372 A CN116242372 A CN 116242372A CN 202310002241 A CN202310002241 A CN 202310002241A CN 116242372 A CN116242372 A CN 116242372A
Authority
CN
China
Prior art keywords
uwb
observation
positioning
matrix
laser radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310002241.9A
Other languages
English (en)
Other versions
CN116242372B (zh
Inventor
潘树国
刘宏
高旺
吴鹏博
贾***
赵庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202310002241.9A priority Critical patent/CN116242372B/zh
Publication of CN116242372A publication Critical patent/CN116242372A/zh
Application granted granted Critical
Publication of CN116242372B publication Critical patent/CN116242372B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种GNSS拒止环境下UWB‑激光雷达(LiDAR)‑惯导(INS)融合定位方法,包括:首先对UWB的测距信息进行非视距误差的剔除,LiDAR点云进行原始观测运动畸变的补偿;UWB利用扩展卡尔曼滤波算法实现位置解算,计算初始位置和姿态,完成INS***的初始化;UWB定位的同时需经过精度因子(DOP)、基站数量,观测残差进行质量判断,剔除误差较大的定位点;INS***采用机械编排算法,实现高频位姿解算的同时,将结果作为先验用于LiDAR的动态匹配过程;后端构造维护一个轻量化的因子图,将激光雷达里程计的观测值、IMU预积分、UWB绝对观测进行融合以减少累积误差。本发明能为GNSS拒止环境下的实时定位问题提供一种可靠的解决方案,并能保持分米级的定位精度。

Description

一种GNSS拒止环境下的UWB-激光雷达-惯导融合定位方法
技术领域
本发明属于GNSS拒止环境下的定位应用领域,涉及多源融合定位方法,特别涉及滤波与因子图的后端优化算法。
背景技术
可靠的状态估计是自动驾驶等自主无人***的基本需求。在室外开阔环境下,RTK可提供厘米级的定位精度。惯导(INS)是现有导航手段中仅依赖自身就可实现定位的传感器,短时精度高,在GNSS部分拒止环境维持定位,但长时间惯性导航也会迅速发散。现如今,在地下空间、城市商场等GNSS拒止场景,如何实现高精度且鲁棒定位仍然是技术难点。
为了解决这样的问题,依靠激光雷达、视觉相机等传感器实现定位近年取得了飞速发展。同时其基于周边环境实现自身状态估计,根据环境建立感知地图,可作为导航规划的基础。视觉相机成本低,但容易受到光照影响,尤其是单目相机初始化要求较高,对无纹理环境较为敏感。激光雷达对环境鲁棒性强,并可直接测量深度,定位精度较高。另外,随着社会科技的发展,激光雷达的硬件成本在不断降低,在民用和商用领域,近年来受到广泛欢迎。
但是在GNSS长时间拒止环境下,仅依靠激光雷达这种相对定位传感器,仍然会有累计误差。UWB传输速率高,发射功率较低,穿透能力强,但也容易受到多路径误差、非视距误差(NLOS)的影响。
发明内容
为解决上述问题,本发明公开了一种GNSS拒止环境下的UWB-激光雷达-惯导融合定位方法,本发明利用多传感器融合方式,利用LiDAR-IMU-UWB的原始观测信息,可充分利用之间的特性,达到优势互补。
为实现上述目的,本发明的技术方案如下:
步骤1、首先对UWB的测距信息进行非视距误差的剔除,LiDAR点云进行原始观测运动畸变的补偿;
步骤2、UWB利用扩展卡尔曼滤波算法实现位置解算,计算初始位置和姿态,完成INS***的初始化;
步骤3、UWB定位同时需经过精度因子(DOP)、基站数量,观测残差进行质量判断,剔除误差较大的定位点;
步骤4、INS***采用的是机械编排算法,实现高频位姿解算的同时,将结果作为先验用于LiDAR的动态匹配过程;
步骤5、后端构造维护一个轻量化的因子图,将激光雷达里程计的观测值、IMU预积分、UWB绝对观测进行融合以减少累积误差,同时动态维护特征地图。
具体步骤为:
步骤1.非视距误差剔除和点云运动补偿
UWB定位和非视距误差剔除,按下式获得:
Figure BDA0004035578200000021
Figure BDA0004035578200000022
Figure BDA0004035578200000023
式(1)中,Ak为状态转移矩阵,
Figure BDA0004035578200000024
为其对应转置矩阵,/>
Figure BDA0004035578200000025
为上一时刻的观测量估计,/>
Figure BDA0004035578200000026
为状态方程的预测状态量,/>
Figure BDA0004035578200000027
代表状态方程的预测协方差,∑Q为过程噪声,Kk、R、Hk分别是卡尔曼增益、观测方程的观测噪声矩阵和状态观测矩阵,/>
Figure BDA0004035578200000028
为状态观测矩阵的转置矩阵,Zk为观测向量,residual为观测和预测的残差,当残差大于设定的阈值(threshold为0.35),将此观测视为非视距误差,令卡尔曼增益为0实现剔除,
LiDAR点云运动补偿公式按下式:
Figure BDA0004035578200000029
式中
Figure BDA00040355782000000210
为INS测量的相对帧间变换,/>
Figure BDA00040355782000000211
为LiDAR和INS的外参矩阵,/>
Figure BDA00040355782000000212
为当前帧下的需要补偿激光点,/>
Figure BDA00040355782000000213
为把当前点补偿到最后一点的坐标表示形式。
步骤2.UWB定位解算位置
UWB利用扩展卡尔曼滤波算法实现位置解算,计算初始位置和姿态,完成INS***的初始化,按下式计算:
Figure BDA00040355782000000214
式中,Xk为后验状态量,
Figure BDA00040355782000000215
为卡尔曼滤波求解的协方差矩阵。
步骤3.UWB质量控制
UWB定位同时需经过精度因子(DOP)、基站数量,观测残差进行质量判断,剔除误差较大的定位点,按下式:
Figure BDA0004035578200000031
式中,COV为由观测矩阵计算得到的观测协方差矩阵,PDOP为测量的误差精度因子,tr表示求迹运算;当PDOP值最小时,对应的基站几何布局最优;以此当UWB基站质量差时,可根据PDOP的值进行剔除(阈值设为3.0);引入基站数量和平均残差作为质量控制的判断,当基站数量少于4个,此时UWB定位结果不可用,在去除非视觉误差后,基站的平均值小于阈值(本文设置为0.15),定位有效。
步骤4.INS***采用的是机械编排算法,实现高频位姿解算的同时,将结果作为先验用于LiDAR的动态匹配过程,动力学模型如下式:
Figure BDA0004035578200000032
Figure BDA0004035578200000033
Figure BDA0004035578200000034
Figure BDA0004035578200000035
式中,W表示为地球坐标系,定义为初始时刻的东北天坐标,B为载体系,gW为世界坐标系下的重力向量;aB为测量的载体系下的加速度,
Figure BDA0004035578200000036
是地球旋转的变化率,[]×为向量对应的反对称矩阵;/>
Figure BDA0004035578200000037
为世界坐标系下W系指向B系的位置向量,速度向量,/>
Figure BDA0004035578200000038
为W系中B系的姿态,/>
Figure BDA0004035578200000039
为其旋转矩阵表达方式,上标·代表求导运算,/>
Figure BDA00040355782000000310
表示INS***测量的角速度,/>
Figure BDA00040355782000000311
为真实值,/>
Figure BDA00040355782000000312
为B系下W系的姿态。
步骤5.后端构造维护一个轻量化的因子图,将激光雷达里程计的观测值、IMU预积分、UWB绝对观测进行融合以减少累积误差,同时动态维护特征地图,优化求解方程如下:
Figure BDA00040355782000000313
式中,min表示优化中的最小化问题,
Figure BDA00040355782000000314
为雷达相邻两帧变换的雷达里程计因子,/>
Figure BDA00040355782000000315
为INS***中的IMU预积分约束,RU(x)为UWB全局约束。
本发明的有益效果包括:
本发明提出的一种GNSS拒止环境下的UWB-激光雷达-惯导融合定位方法,灵活利用滤波和因子图优化的模型理论,实现了UWB/LiDAR/INS的多源融合定位算法,在不依赖卫星情况下实现实时的高精度定位结果输出。本方案充分挖掘了三种传感器的互补特性,利用多源数据信息,能有效避免长时间GNSS拒止环境下的定位缺失,为室内外连续定位提供一种新的解决方案。所提方法可应用于大型商场、地下空间等室内环境,为规划控制、感知等无人驾驶模块提供可靠的定位基础,对于其他自主无人***具有借鉴意义。
附图说明
图1是本发明所述的基于UWB/激光雷达/INS定位建图算法流程图;
图2是图优化模型求解的示意图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
实施例1:如附图1所示,本发明公开一种GNSS拒止环境下的UWB-激光雷达-惯导融合定位方法,具体步骤如下:
步骤1.非视距误差剔除和点云运动补偿
UWB定位和非视距误差剔除,按下式获得:
Figure BDA0004035578200000041
Figure BDA0004035578200000042
Figure BDA0004035578200000043
式(1)中,Ak为状态转移矩阵,
Figure BDA0004035578200000044
为其对应转置矩阵,/>
Figure BDA0004035578200000045
为上一时刻的观测量估计,/>
Figure BDA0004035578200000046
为状态方程的预测状态量,/>
Figure BDA0004035578200000047
代表状态方程的预测协方差,∑Q为过程噪声,Kk、R、Hk分别是卡尔曼增益、观测方程的观测噪声矩阵和状态观测矩阵,/>
Figure BDA0004035578200000048
为状态观测矩阵的转置矩阵,Zk为观测向量,residual为观测和预测的残差,当残差大于设定的阈值(threshold为0.35),将此观测视为非视距误差,令卡尔曼增益为0实现剔除,
LiDAR点云运动补偿公式按下式:
Figure BDA0004035578200000049
式中
Figure BDA00040355782000000410
为INS测量的相对帧间变换,/>
Figure BDA00040355782000000411
为LiDAR和INS的外参矩阵,/>
Figure BDA00040355782000000412
为当前帧下的需要补偿激光点,/>
Figure BDA0004035578200000051
为把当前点补偿到最后一点的坐标表示形式。
步骤2.UWB定位解算位置
UWB利用扩展卡尔曼滤波算法实现位置解算,计算初始位置和姿态,完成INS***的初始化,按下式计算:
Figure BDA0004035578200000052
式中,Xk为后验状态量,
Figure BDA0004035578200000053
为卡尔曼滤波求解的协方差矩阵。
步骤3.UWB质量控制
UWB定位同时需经过精度因子(DOP)、基站数量,观测残差进行质量判断,剔除误差较大的定位点,按下式:
Figure BDA0004035578200000054
式中,COV为由观测矩阵计算得到的观测协方差矩阵,PDOP为测量的误差精度因子,tr表示求迹运算;当PDOP值最小时,对应的基站几何布局最优;以此当UWB基站质量差时,可根据PDOP的值进行剔除(阈值设为3.0);引入基站数量和平均残差作为质量控制的判断,当基站数量少于4个,此时UWB定位结果不可用,在去除非视觉误差后,基站的平均值小于阈值(本文设置为0.15),定位有效。
步骤4.INS***采用的是机械编排算法,实现高频位姿解算的同时,将结果作为先验用于LiDAR的动态匹配过程,动力学模型如下式:
Figure BDA0004035578200000055
/>
Figure BDA0004035578200000056
Figure BDA0004035578200000057
Figure BDA0004035578200000058
式中,W表示为地球坐标系,定义为初始时刻的东北天坐标,B为载体系,gW为世界坐标系下的重力向量;aB为测量的载体系下的加速度,
Figure BDA0004035578200000059
是地球旋转的变化率,[]×为向量对应的反对称矩阵;/>
Figure BDA00040355782000000510
为世界坐标系下W系指向B系的位置向量,速度向量,/>
Figure BDA00040355782000000511
为W系中B系的姿态,/>
Figure BDA0004035578200000061
为其旋转矩阵表达方式,上标·代表求导运算,/>
Figure BDA0004035578200000062
表示INS***测量的角速度,/>
Figure BDA0004035578200000063
为真实值,/>
Figure BDA0004035578200000064
为B系下W系的姿态。
步骤五.如附图2所示后端构造维护一个轻量化的因子图,将激光雷达里程计的观测值、IMU预积分、UWB绝对观测进行融合以减少累积误差,同时动态维护特征地图,优化求解方程如下:
Figure BDA0004035578200000065
式中,min表示优化中的最小化问题,
Figure BDA0004035578200000066
为雷达相邻两帧变换的雷达里程计因子,/>
Figure BDA0004035578200000067
为INS***中的IMU预积分约束,RU(x)为UWB全局约束。
本方案中,采用UWB型号为nooploop公司的LinkTrack P-B;INS型号为ADIS16497;LiDAR为Velodyne VLP-16,具有16条扫描线,机械旋转式雷达,角分辨率为0.2°,探测距离为100m;RTK/INS组合导航作为评估基准,定位精度为厘米级。双天线和LiDAR/IMU/UWB的空间位置已经精确测量。在实测车载实验中,行驶路径包含UWB良好和遮挡区域,使用UWB的定位精度(均方根误差)为0.54m。融合了UWB/LiDAR/INS的多源融合***定位精度(均方根误差)为0.28m,相比提升了48.1%。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。

Claims (6)

1.一种GNSS拒止环境下UWB-激光雷达-惯导融合定位方法,其特征在于,所述方法包括以下步骤:
步骤1、首先对UWB的测距信息进行非视距误差的剔除,LiDAR点云进行原始观测运动畸变的补偿;
步骤2、UWB利用扩展卡尔曼滤波算法实现位置解算,计算初始位置和姿态,完成INS***的初始化;
步骤3、UWB定位同时需经过精度因子(DOP)、基站数量,观测残差进行质量判断,剔除误差较大的定位点;
步骤4、INS***采用的是机械编排算法,实现高频位姿解算的同时,将结果作为先验用于LiDAR的动态匹配过程;
步骤5、后端构造维护一个轻量化的因子图,将激光雷达里程计的观测值、IMU预积分、UWB绝对观测进行融合以减少累积误差,同时动态维护特征地图。
2.如权利要求1所述的一种GNSS拒止环境下UWB-激光雷达-惯导融合定位方法,其特征在于,步骤1中UWB定位和非视距误差剔除,LiDAR点云运动补偿按下式获得:
Figure FDA0004035578190000011
Figure FDA0004035578190000012
Figure FDA0004035578190000013
式(1)中,Ak为状态转移矩阵,
Figure FDA0004035578190000014
为其对应转置矩阵,/>
Figure FDA0004035578190000015
为上一时刻的观测量估计,
Figure FDA0004035578190000016
为状态方程的预测状态量,/>
Figure FDA0004035578190000017
代表状态方程的预测协方差,∑Q为过程噪声,Kk、R、Hk分别是卡尔曼增益、观测方程的观测噪声矩阵和状态观测矩阵,/>
Figure FDA0004035578190000018
为状态观测矩阵的转置矩阵,Zk为观测向量,residual为观测和预测的残差,当残差大于设定的阈值(threshold为0.35),将此观测视为非视距误差,令卡尔曼增益为0实现剔除,-
LiDAR点云运动补偿公式按下式:
Figure FDA0004035578190000019
式中
Figure FDA00040355781900000110
为INS测量的相对帧间变换,/>
Figure FDA00040355781900000111
为LiDAR和INS的外参矩阵,/>
Figure FDA00040355781900000112
为当前帧下的需要补偿激光点,/>
Figure FDA00040355781900000113
为把当前点补偿到最后一点的坐标表示形式。
3.如权利要求1所述的一种GNSS拒止环境下UWB-激光雷达-惯导融合定位方法,其特征在于,步骤2中的UWB利用扩展卡尔曼滤波算法实现位置解算,计算初始位置和姿态,完成INS***的初始化
Figure FDA0004035578190000021
/>
式中,Xk为后验状态量,
Figure FDA0004035578190000022
为卡尔曼滤波求解的协方差矩阵。
4.如权利要求1所述的一种GNSS拒止环境下UWB-激光雷达-惯导融合定位方法,其特征在于,步骤3中UWB定位同时需经过精度因子(DOP)、基站数量,观测残差进行质量判断,剔除误差较大的定位点,按下式:
Figure FDA0004035578190000023
式中,COV为由观测矩阵计算得到的观测协方差矩阵,PDOP为测量的误差精度因子,tr表示求迹运算;当PDOP值最小时,对应的基站几何布局最优;以此当UWB基站质量差时,可根据PDOP的值进行剔除(阈值设为3.0);引入基站数量和平均残差作为质量控制的判断,当基站数量少于4个,此时UWB定位结果不可用,在去除非视觉误差后,基站的平均值小于阈值(本文设置为0.15),定位有效。
5.如权利要求1所述的一种GNSS拒止环境下UWB-激光雷达-惯导融合定位方法,其特征在于,步骤4中INS***采用的是机械编排算法,实现高频位姿解算的同时,将结果作为先验用于LiDAR的动态匹配过程,INS动力学模型如下:
Figure FDA0004035578190000024
Figure FDA0004035578190000025
Figure FDA0004035578190000026
Figure FDA0004035578190000027
式中,W表示为地球坐标系,定义为初始时刻的东北天坐标,B为载体系,gW为世界坐标系下的重力向量;aB为测量的载体系下的加速度,
Figure FDA0004035578190000028
是地球旋转的变化率,[]×为向量对应的反对称矩阵;/>
Figure FDA0004035578190000029
为世界坐标系下W系指向B系的位置向量,速度向量,/>
Figure FDA00040355781900000210
为W系中B系的姿态,/>
Figure FDA0004035578190000031
为其旋转矩阵表达方式,上标·代表求导运算,/>
Figure FDA0004035578190000032
表示INS***测量的角速度,
Figure FDA0004035578190000033
为真实值,/>
Figure FDA0004035578190000034
为B系下W系的姿态。
6.如权利要求1所述的一种GNSS拒止环境下UWB-激光雷达-惯导融合定位方法,其特征在于,步骤5中后端构造维护一个轻量化的因子图,将激光雷达里程计的观测值、IMU预积分、UWB绝对观测进行融合以减少累积误差,同时动态维护特征地图,优化求解方程如下:
Figure FDA0004035578190000035
式中,min表示优化中的最小化问题,
Figure FDA0004035578190000036
为雷达相邻两帧变换的雷达里程计因子,
Figure FDA0004035578190000037
为INS***中的IMU预积分约束,RU(x)为UWB全局约束。/>
CN202310002241.9A 2023-01-03 2023-01-03 一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法 Active CN116242372B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310002241.9A CN116242372B (zh) 2023-01-03 2023-01-03 一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310002241.9A CN116242372B (zh) 2023-01-03 2023-01-03 一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法

Publications (2)

Publication Number Publication Date
CN116242372A true CN116242372A (zh) 2023-06-09
CN116242372B CN116242372B (zh) 2024-07-19

Family

ID=86628876

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310002241.9A Active CN116242372B (zh) 2023-01-03 2023-01-03 一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法

Country Status (1)

Country Link
CN (1) CN116242372B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117804448A (zh) * 2024-02-23 2024-04-02 北京理工大学 一种自主***定位方法、装置、计算机设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030149528A1 (en) * 2002-02-06 2003-08-07 Ching-Fang Lin Positioning and navigation method and system thereof
CN113124856A (zh) * 2021-05-21 2021-07-16 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113382354A (zh) * 2021-06-08 2021-09-10 东南大学 一种基于因子图的无线定位非视距信号判别方法
CN114501300A (zh) * 2021-12-16 2022-05-13 江苏集萃未来城市应用技术研究所有限公司 一种基于空间环境误差模型的分布式定位算法
CN114527481A (zh) * 2022-02-24 2022-05-24 东南大学 一种面向遮挡测评环境的多传感高精度融合测量方法
CN114915913A (zh) * 2022-05-17 2022-08-16 东南大学 一种基于滑窗因子图的uwb-imu组合室内定位方法
CN115308684A (zh) * 2022-07-05 2022-11-08 广州晓网电子科技有限公司 一种uwb超宽带室内定位方法及装置
CN115407357A (zh) * 2022-07-05 2022-11-29 东南大学 基于大场景的低线束激光雷达-imu-rtk定位建图算法
US11543530B1 (en) * 2021-08-06 2023-01-03 Guangdong University Of Technology Indoor SLAM method based on 3D lidar and UWB

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030149528A1 (en) * 2002-02-06 2003-08-07 Ching-Fang Lin Positioning and navigation method and system thereof
CN113124856A (zh) * 2021-05-21 2021-07-16 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113382354A (zh) * 2021-06-08 2021-09-10 东南大学 一种基于因子图的无线定位非视距信号判别方法
US11543530B1 (en) * 2021-08-06 2023-01-03 Guangdong University Of Technology Indoor SLAM method based on 3D lidar and UWB
CN114501300A (zh) * 2021-12-16 2022-05-13 江苏集萃未来城市应用技术研究所有限公司 一种基于空间环境误差模型的分布式定位算法
CN114527481A (zh) * 2022-02-24 2022-05-24 东南大学 一种面向遮挡测评环境的多传感高精度融合测量方法
CN114915913A (zh) * 2022-05-17 2022-08-16 东南大学 一种基于滑窗因子图的uwb-imu组合室内定位方法
CN115308684A (zh) * 2022-07-05 2022-11-08 广州晓网电子科技有限公司 一种uwb超宽带室内定位方法及装置
CN115407357A (zh) * 2022-07-05 2022-11-29 东南大学 基于大场景的低线束激光雷达-imu-rtk定位建图算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HE XUAN等: "LiDAR-Inertial-GNSS Fusion Positioning System in Urban Environment: Local Accurate Registration and Global Drift-Free", REMOTE SENSING, 27 April 2022 (2022-04-27) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117804448A (zh) * 2024-02-23 2024-04-02 北京理工大学 一种自主***定位方法、装置、计算机设备及存储介质
CN117804448B (zh) * 2024-02-23 2024-04-30 北京理工大学 一种自主***定位方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN116242372B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN110262546B (zh) 一种隧道智能无人机巡检方法
Fan et al. Data fusion for indoor mobile robot positioning based on tightly coupled INS/UWB
CN110428467B (zh) 一种相机、imu和激光雷达联合的机器人定位方法
CN110702091B (zh) 一种沿地铁轨道移动机器人的高精度定位方法
CN110243358A (zh) 多源融合的无人车室内外定位方法及***
CN109752725A (zh) 一种低速商用机器人、定位导航方法及定位导航***
CN103983263A (zh) 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN110764506B (zh) 移动机器人的航向角融合方法、装置和移动机器人
CN112987065B (zh) 一种融合多传感器的手持式slam装置及其控制方法
CN104197928A (zh) 多摄像机协同的无人机检测、定位及跟踪方法
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN111025366B (zh) 基于ins及gnss的网格slam的导航***及方法
CN113124856A (zh) 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113155124B (zh) 一种多源辅助导航方法及装置
CN112444245B (zh) 一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法
CN114019552A (zh) 一种基于贝叶斯多传感器误差约束的定位置信度优化方法
CN116242372B (zh) 一种gnss拒止环境下的uwb-激光雷达-惯导融合定位方法
CN115930977A (zh) 特征退化场景的定位方法、***、电子设备和可读存介质
CN115435779A (zh) 一种基于gnss/imu/光流信息融合的智能***姿估计方法
CN114915913A (zh) 一种基于滑窗因子图的uwb-imu组合室内定位方法
Kong et al. Hybrid indoor positioning method of BLE and monocular VINS based smartphone
CN115951369A (zh) 面向复杂港口环境的多传感器融合定位方法
CN115183767A (zh) 一种基于arkf的单目vio/uwb室内组合定位方法
CN114485623B (zh) 一种聚焦距离的相机-imu-uwb融合精准定位方法
CN115930948A (zh) 一种果园机器人融合定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant