CN114241050B - 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 - Google Patents

一种基于曼哈顿世界假设及因子图的相机位姿优化方法 Download PDF

Info

Publication number
CN114241050B
CN114241050B CN202111562336.3A CN202111562336A CN114241050B CN 114241050 B CN114241050 B CN 114241050B CN 202111562336 A CN202111562336 A CN 202111562336A CN 114241050 B CN114241050 B CN 114241050B
Authority
CN
China
Prior art keywords
plane
coordinate system
line
features
errors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111562336.3A
Other languages
English (en)
Other versions
CN114241050A (zh
Inventor
张小国
李尚哲
孙宇轩
刘启汉
邓奎刚
王庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202111562336.3A priority Critical patent/CN114241050B/zh
Publication of CN114241050A publication Critical patent/CN114241050A/zh
Application granted granted Critical
Publication of CN114241050B publication Critical patent/CN114241050B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于曼哈顿世界假设及因子图的相机位姿优化方法,可以在弱纹理环境下的同步定位与制图(SLAM,Simultaneously positioning and mapping)***中增加定位的准确性和鲁棒性,其思路是计算特征的重投影误差以及结构化特征的结构误差项,构建因子图模型并进行位姿优化。该算法首先计算特征的重投影误差,然后根据曼哈顿世界假设构造结构化特征的结构误差项,最后在SLAM后端中对上述误差项构建因子图模型并进行位姿优化。本发明通过将结构化特征的重投影误差和结构误差加入到后端优化中,可以提高弱纹理场景下SLAM***位姿解算的准确度和鲁棒性,以便满足机器人更加广阔的应用场景。

Description

一种基于曼哈顿世界假设及因子图的相机位姿优化方法
技术领域
本发明属于图像图形领域,涉及一种同时定位与建图技术,具体涉及一种基于曼哈顿世界假设及因子图的相机位姿优化方法。
背景技术
近年来,智能机器人已成为学术界和工业界的一个重要的研究方向。要使机器人更加智能、更加自主,机器人必须提高对未知环境的认知能力。同时定位与地图构建技术(SLAM,Simultaneously positioning and mapping)是构建三维场景地图以及机器自身定位的关键技术,已经成功应用到无人车、无人机、快递机器人、智能清洁机器人等产品上。
目前一些基于点特征的SLAM***在大部分场景下已经能够稳定运行,然而在一些弱纹理场景下(白墙,地面),由于纹理特征不够丰富,基于特征点匹配的SLAM,容易出现跟踪失败的情况,导致SLAM***定位失败。因此,考虑基于点线面特征的可以保证SLAM***稳定跟踪,并提高定位精度,同时现实世界中的线和平面存在着大量的平行和垂直关系(曼哈顿假设),可以通过这些结构性条件约束SLAM***的优化过程,从而增加***的定位精度和鲁棒性,扩展机器人的应用场景。
目前一些基于结构特征的SLAM***正逐渐被重视起来,虽然基于点特征的SLAM***在大部分场景下已经能够稳定运行,但在一些弱纹理场景下(白墙,地面),由于纹理特征不够丰富容易出现跟踪失败的情况,从而导致SLAM***定位失败。由于结构化场景中墙面、地面和书桌等存在较多的互相垂直或平行的平面,在弱纹理环境下考虑加入这些结构化特征,虽然有一些研究已经将结构化特征加入到SLAM的后端优化中,但是大多数研究都忽略了结构化特征之间存在的约束,导致其构建的图优化模型过于单一,如果提取到的特征存在结构性误差和漂移,若把误差加入到后端优化,将严重影响***性能。根据曼哈顿世界假设,将结构化特征之间存在的平行和垂直关系加入到后端优化的过程中,对SLAM***的定位求解加以约束,提高SLAM***在弱纹理环境下定位的准确性和鲁棒性。
发明内容
为解决上述问题,本发明公开了一种基于曼哈顿世界假设及因子图的相机位姿优化方法,通过将结构化特征的重投影误差和结构误差加入到后端优化中,可以提高弱纹理场景下SLAM***位姿解算的准确度和鲁棒性,以便满足机器人更加广阔的应用场景。
为达到上述目的,本发明的技术方案如下:
一种基于曼哈顿世界假设及因子图的相机位姿优化方法,用于弱纹理大场景的SLAM稳健定位,包括如下步骤:
(1)提取点、线、面特征;
(2)计算点、线、面特征的重投影误差;
(3)根据曼哈顿世界假设计算线特征和面特征的结构性误差;
(4)利用重投影误差和结构性误差构建因子图模型并进行位姿优化。
其中步骤(1)中,提取点、线、面特征,具体步骤为:
(1.1)根据灰度图提取图像的ORB特征点;
(1.2)根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
步骤(2)中,计算点、线、面特征的重投影误差,具体步骤为:
(2.1)根据匹配关系得到点特征的观测值,计算所有点特征的重投影误差;
(2.2)根据匹配关系得到平面特征的观测值,计算所有平面特征的重投影误差Eπ1
其中q(·)表示参数降维变换,πij为第j个平面在第i个时刻的观测值,为世界坐标系下的第j个平面,/>为第i个世界坐标系到相机坐标系的变换矩阵;
(2.3)根据匹配关系得到线特征的观测值计算所有线特征的重投影误差El1
其中s(·)代表参数降维变换,lij为第j个平面在第i个时刻的观测值,为世界坐标系下的第j个平面,/>为第i个世界坐标系到相机坐标系的变换矩阵。
步骤(3)中,根据曼哈顿世界假设计算线特征和面特征的结构性误差,具体步骤为:
(3.1)计算面特征的结构性误差Eπ2,根据曼哈顿世界假设,面特征之间存在平行约束eπp和垂直约束eπv,计算所有相关面特征之间的结构性误差:
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,nij是第j个平面的法向量在i时刻的观测值,是第j个平面的法向量在世界坐标系的值,/>是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将法向量nij旋转到其垂直方向的附加旋转矩阵;
(3.2)计算线特征的结构性误差El2,根据曼哈顿世界假设,线特征之间存在平行约束elp和垂直约束elv,计算所有相关线特征之间的结构误差:
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,nij是第j条线的方向向量在i时刻的观测值,是第j条线的方向向量在世界坐标系的值,/>是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将方向向量nij旋转到其垂直方向的附加旋转矩阵。
步骤(4)中,利用重投影误差和结构性误差构建因子图模型并进行位姿优化,具体步骤为:
(4.1)利用重投影误差和结构性误差构建因子图模型,总误差为:
Tcw=argmin(∑Hp(Ep)+∑Hπ1(Eπ1)+∑Hπ2(Eπ2)+∑Hl1(El1)+∑Hl2(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
(4.2)在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿;
(4.3)当检测到***存在回环时(到达以前经过的地方),停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累计误差,并更新关键帧位姿和全局地图。
本发明的有益效果是:
针对目前SLAM***在弱纹理环境下运行不稳定的问题,本发明提出了基于曼哈顿世界假设及因子图的相机位姿优化方法。首先计算点、线、面特征的重投影误差,然后根据曼哈世界顿假设构造线特征和面特征的结构误差项,最后将上述误差项加入到后端因子图中对位姿进行优化。
本发明对弱纹理环境下SLAM***定位误差大的问题,提出一种可以在弱纹理环境下稳定实时运行的定位算法,提高了视觉里程计位姿结算的准确性和鲁棒性,能够广泛应用于自动驾驶、室内导航等场景。
附图说明
图1为一种基于曼哈顿世界假设及因子图的相机位姿优化方法***结构图。
图2为一种基于曼哈顿世界假设及因子图的相机位姿优化方法流程图。
图3为融合结构化特征的因子图优化模型。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
图1为本发明的方法流程示意图。
本发明所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,
步骤S1:提取点、线、面特征。具体包括:
S1.1、根据灰度图提取图像的ORB特征点;
S1.2、根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
步骤S2:计算点、线、面特征的重投影误差。具体包括:
S2.1、计算点特征的重投影误差,单次观测点的重投影误差为:
ep(pw,Tcw)=||z-ρ(Tcwpw)||
其中,是像素坐标系下的点,pw是世界坐标系下的点,Tcw是世界坐标系到相机坐标系的变换矩阵,ρ是相机坐标系到像素坐标系的变换,考虑其他时刻的观测量后,设zij是在位姿/>处观测到路标点/>的像素坐标,那么整体的代价函数为::
S2.2、计算面特征的重投影误差,用点法式来表示平面,nπ=(nx,ny,nz)为平面的法线,d为常数项,相比于三维空间平面上的刚体运动只有三个自由度(两个平移自由度和一个旋转自由度),在优化时存在超参数问题,需要降维:
其中q(·)表示参数降维变换,和ψ∈(-π,π]分别代表法线的方位角和俯仰角。
则单次平面观测的重投影误差为:
其中πw为世界坐标系下的平面,Tcw为世界坐标系到相机坐标系的变换矩阵,
由此得到所有平面的投影误差:
其中q(·)表示参数降维变换,πij为第j个平面在第i个时刻的观测值,为世界坐标系下的第j个平面,/>为第i个世界坐标系到相机坐标系的变换矩阵;q(πij)、分别为平面/>在位姿/>下的观测值和计算值。
S2.3、计算线的重投影误差,用点向式表示线,nl=(nx,ny,nz)为方向向量,pl=(x,y,z)为直线中一点,,相比于三维空间平面上的刚体运动只有三个自由度(两个平移自由度和一个旋转自由度),在优化时存在超参数问题,需要降维:
其中s(·)代表参数降维变换,和ψ∈(-π,π]分别代表线的方位角和俯仰角。
则单次线观测的重投影误差为:
其中lw为世界坐标系下的线,Tcw为世界坐标系到相机坐标系的变换矩阵。
由此得到所有线的重投影误差为:
其中s(·)代表参数降维变换,lij为第j个平面在第i个时刻的观测值,为世界坐标系下的第j个平面,/>为第i个世界坐标系到相机坐标系的变换矩阵;s(lij)、分别为线/>在位姿/>下的观测值和计算值;
步骤S3:根据曼哈顿世界假设计算线特征和面特征的结构性误差。具体包括:
S3.1、计算面特征的结构性误差,根据曼哈顿世界假设,面特征之间存在平行和垂直关系,构造平行约束eπp和垂直约束eπv
eπp=||qn(n)-qn(Rcwnw)||
eπv=||qn(Rtgn)-qn(Rcwnw)||
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,n是成像平面的法线,nw是平面πw的法线,Rcw是世界坐标系到相机坐标系的旋转矩阵,Rtg是将法线n旋转到其垂直方向的附加旋转矩阵。
所有面的结构性误差为:
其中nij是第j个平面的法向量在i时刻的观测值,是第j个平面的法向量在世界坐标系的值,/>是i时刻世界坐标系到相机坐标系的旋转矩阵;
S3.2、计算线特征的结构性误差,根据曼哈顿世界假设,线特征之间存在平行和几何关系,构造平行约束elp和垂直约束elv
elp=||sn(n)-sn(Rcwnw)||
elv=||sn(Rtgn)-sn(Rcwnw)||
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,n是成像平面的法线,nw是线lw的方向向量,Rcw是世界坐标系到相机坐标系旋转矩阵,Rtg是将法向量n旋转到其垂直方向的附加旋转矩阵。
所有线的结构误差为:
其中nij是第j条线的方向向量在i时刻的观测值,是第j条线的方向向量在世界坐标系的值,/>是i时刻世界坐标系到相机坐标系的旋转矩阵;
步骤S4:利用重投影误差和结构性误差构建因子图模型并进行位姿优化。具体步骤为:
S4.1、利用重投影误差和结构性误差构建因子图模型,构造的图优化模型如图3所示,其中图形代表节点,黑线代表观测数据,其中五角星是平面路标,圆形代表关键帧的相机位姿,正方形代表点路标,三角形代表线路标,总误差表达式为:
Tcw=argmin(ΣHp(Ep)+ΣHπ1(Eπ1)+ΣHπ2(Eπ2)+ΣHl1(El1)+ΣHl2(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
S4.2、在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿,使用Levenberg-Marquadt方法进行优化,为了控制BA规模,使用滑动窗口法并只优化关键帧的观测到的点、线、面特征,被滑动窗口丢弃的关键帧的变量会通过边缘化固定下来从而对后续优化产生影响;
S4.3、当检测到***存在回环时(到达以前经过的地方),停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累积误差,并更新关键帧位姿和全局地图,没有被直接优化的特征会根据参考关键帧和摄像机的相对姿态进行更新。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。

Claims (4)

1.一种基于曼哈顿世界假设及因子图的相机位姿优化方法,用于弱纹理大场景的SLAM稳健定位,其特征在于,包括如下步骤:
(1)提取点、线、面特征;
(2)计算点、线、面特征的重投影误差;
(3)根据曼哈顿世界假设计算线特征和面特征的结构性误差;
具体步骤为:
(3.1)计算面特征的结构性误差Eπ2,根据曼哈顿世界假设,面特征之间存在平行约束eπp和垂直约束eπv,计算所有相关面特征之间的结构性误差:
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,nij是第j个平面的法向量在i时刻的观测值,是第j个平面的法向量在世界坐标系的值,/>是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将法向量nij旋转到其垂直方向的附加旋转矩阵;
(3.2)计算线特征的结构性误差El2,根据曼哈顿世界假设,线特征之间存在平行约束elp和垂直约束elv,计算所有相关线特征之间的结构误差:
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,nij是第j条线的方向向量在i时刻的观测值,是第j条线的方向向量在世界坐标系的值,/>是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将方向向量nij旋转到其垂直方向的附加旋转矩阵;
(4)利用重投影误差和结构性误差构建因子图模型并进行位姿优化。
2.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(1)中,提取点、线、面特征,具体步骤为:
(1.1)根据灰度图提取图像的ORB特征点;
(1.2)根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
3.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(2)中,计算点、线、面特征的重投影误差,具体步骤为:
(2.1)根据匹配关系得到点特征的观测值,计算所有点特征的重投影误差;
(2.2)根据匹配关系得到平面特征的观测值,计算所有平面特征的重投影误差Eπ1
其中q(·)表示参数降维变换,πij为第j个平面在第l个时刻的观测值,为世界坐标系下的第j个平面,/>为第i个世界坐标系到相机坐标系的变换矩阵;
(2.3)根据匹配关系得到线特征的观测值计算所有线特征的重投影误差El1
其中s(·)代表参数降维变换,lij为第j个平面在第i个时刻的观测值,为世界坐标系下的第j个平面,/>为第i个世界坐标系到相机坐标系的变换矩阵。
4.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(4)中,利用重投影误差和结构性误差构建因子图模型并进行位姿优化,具体步骤为:
(4.1)利用重投影误差和结构性误差构建因子图模型,总误差为:
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
(4.2)在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿;
(4.3)当检测到***存在回环时,即到达以前经过的地方,停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累计误差,并更新关键帧位姿和全局地图。
CN202111562336.3A 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 Active CN114241050B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111562336.3A CN114241050B (zh) 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111562336.3A CN114241050B (zh) 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法

Publications (2)

Publication Number Publication Date
CN114241050A CN114241050A (zh) 2022-03-25
CN114241050B true CN114241050B (zh) 2024-05-07

Family

ID=80759252

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111562336.3A Active CN114241050B (zh) 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法

Country Status (1)

Country Link
CN (1) CN114241050B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114862949B (zh) * 2022-04-02 2024-05-17 华南理工大学 一种基于点线面特征的结构化场景视觉slam方法
CN115063485B (zh) * 2022-08-19 2022-11-29 深圳市其域创新科技有限公司 三维重建方法、装置及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111693047A (zh) * 2020-05-08 2020-09-22 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法
CN112734845A (zh) * 2021-01-08 2021-04-30 浙江大学 一种融合场景语义的室外单目同步建图与定位方法
CN113376669A (zh) * 2021-06-22 2021-09-10 东南大学 一种基于点线特征的单目vio-gnss融合定位算法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8896660B2 (en) * 2003-05-30 2014-11-25 Alcatel Lucent Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111693047A (zh) * 2020-05-08 2020-09-22 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法
CN112734845A (zh) * 2021-01-08 2021-04-30 浙江大学 一种融合场景语义的室外单目同步建图与定位方法
CN113376669A (zh) * 2021-06-22 2021-09-10 东南大学 一种基于点线特征的单目vio-gnss融合定位算法

Also Published As

Publication number Publication date
CN114241050A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN111739063B (zh) 一种基于多传感器融合的电力巡检机器人定位方法
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN112068154B (zh) 一种激光建图定位方法、装置、存储介质及电子设备
CN114241050B (zh) 一种基于曼哈顿世界假设及因子图的相机位姿优化方法
Huang Review on LiDAR-based SLAM techniques
CN112484746B (zh) 一种基于地平面的单目视觉辅助激光雷达里程计方法
CN116182837A (zh) 基于视觉激光雷达惯性紧耦合的定位建图方法
CN103994755A (zh) 一种基于模型的空间非合作目标位姿测量方法
CN114323033A (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
CN108520543B (zh) 一种对相对精度地图进行优化的方法、设备及存储介质
Liu A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure
CN112197773A (zh) 基于平面信息的视觉和激光定位建图方法
Wang et al. Vanishing point aided LiDAR-visual-inertial estimator
CN115218889A (zh) 一种基于点线特征融合的多传感器室内定位方法
WO2022110767A1 (zh) 定位与地图构建方法、装置、机器人及计算机存储介质
CN118010024A (zh) 基于点线面解耦6-DoF位姿估计优化方法及***
CN116681733B (zh) 一种空间非合作目标近距离实时位姿跟踪方法
Qiao et al. Online monocular lane mapping using catmull-rom spline
CN116577801A (zh) 一种基于激光雷达和imu的定位与建图方法及***
CN115239899B (zh) 位姿图生成方法、高精地图生成方法和装置
Chen et al. LIO-PPF: fast LiDAR-inertial odometry via incremental plane pre-fitting and skeleton tracking
CN113483769A (zh) 基于粒子滤波器的车辆自定位方法、***、设备和介质
CN113554705A (zh) 一种变化场景下的激光雷达鲁棒定位方法
Hu et al. Efficient Visual-Inertial navigation with point-plane map
CN112446885A (zh) 一种动态环境下基于改进的语义光流法的slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant