CN114241050A - 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 - Google Patents

一种基于曼哈顿世界假设及因子图的相机位姿优化方法 Download PDF

Info

Publication number
CN114241050A
CN114241050A CN202111562336.3A CN202111562336A CN114241050A CN 114241050 A CN114241050 A CN 114241050A CN 202111562336 A CN202111562336 A CN 202111562336A CN 114241050 A CN114241050 A CN 114241050A
Authority
CN
China
Prior art keywords
error
coordinate system
features
line
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111562336.3A
Other languages
English (en)
Other versions
CN114241050B (zh
Inventor
张小国
李尚哲
孙宇轩
刘启汉
邓奎刚
王庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202111562336.3A priority Critical patent/CN114241050B/zh
Publication of CN114241050A publication Critical patent/CN114241050A/zh
Application granted granted Critical
Publication of CN114241050B publication Critical patent/CN114241050B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于曼哈顿世界假设及因子图的相机位姿优化方法,可以在弱纹理环境下的同步定位与制图(SLAM,Simultaneously positioning and mapping)***中增加定位的准确性和鲁棒性,其思路是计算特征的重投影误差以及结构化特征的结构误差项,构建因子图模型并进行位姿优化。该算法首先计算特征的重投影误差,然后根据曼哈顿世界假设构造结构化特征的结构误差项,最后在SLAM后端中对上述误差项构建因子图模型并进行位姿优化。本发明通过将结构化特征的重投影误差和结构误差加入到后端优化中,可以提高弱纹理场景下SLAM***位姿解算的准确度和鲁棒性,以便满足机器人更加广阔的应用场景。

Description

一种基于曼哈顿世界假设及因子图的相机位姿优化方法
技术领域
本发明属于图像图形领域,涉及一种同时定位与建图技术,具体涉及一种基于曼哈顿世界假设及因子图的相机位姿优化方法。
背景技术
近年来,智能机器人已成为学术界和工业界的一个重要的研究方向。要使机器人更加智能、更加自主,机器人必须提高对未知环境的认知能力。同时定位与地图构建技术(SLAM,Simultaneously positioning and mapping)是构建三维场景地图以及机器自身定位的关键技术,已经成功应用到无人车、无人机、快递机器人、智能清洁机器人等产品上。
目前一些基于点特征的SLAM***在大部分场景下已经能够稳定运行,然而在一些弱纹理场景下(白墙,地面),由于纹理特征不够丰富,基于特征点匹配的SLAM,容易出现跟踪失败的情况,导致SLAM***定位失败。因此,考虑基于点线面特征的可以保证SLAM***稳定跟踪,并提高定位精度,同时现实世界中的线和平面存在着大量的平行和垂直关系(曼哈顿假设),可以通过这些结构性条件约束SLAM***的优化过程,从而增加***的定位精度和鲁棒性,扩展机器人的应用场景。
目前一些基于结构特征的SLAM***正逐渐被重视起来,虽然基于点特征的SLAM***在大部分场景下已经能够稳定运行,但在一些弱纹理场景下(白墙,地面),由于纹理特征不够丰富容易出现跟踪失败的情况,从而导致SLAM***定位失败。由于结构化场景中墙面、地面和书桌等存在较多的互相垂直或平行的平面,在弱纹理环境下考虑加入这些结构化特征,虽然有一些研究已经将结构化特征加入到SLAM的后端优化中,但是大多数研究都忽略了结构化特征之间存在的约束,导致其构建的图优化模型过于单一,如果提取到的特征存在结构性误差和漂移,若把误差加入到后端优化,将严重影响***性能。根据曼哈顿世界假设,将结构化特征之间存在的平行和垂直关系加入到后端优化的过程中,对SLAM***的定位求解加以约束,提高SLAM***在弱纹理环境下定位的准确性和鲁棒性。
发明内容
为解决上述问题,本发明公开了一种基于曼哈顿世界假设及因子图的相机位姿优化方法,通过将结构化特征的重投影误差和结构误差加入到后端优化中,可以提高弱纹理场景下SLAM***位姿解算的准确度和鲁棒性,以便满足机器人更加广阔的应用场景。
为达到上述目的,本发明的技术方案如下:
一种基于曼哈顿世界假设及因子图的相机位姿优化方法,用于弱纹理大场景的SLAM稳健定位,包括如下步骤:
(1)提取点、线、面特征;
(2)计算点、线、面特征的重投影误差;
(3)根据曼哈顿世界假设计算线特征和面特征的结构性误差;
(4)利用重投影误差和结构性误差构建因子图模型并进行位姿优化。
其中步骤(1)中,提取点、线、面特征,具体步骤为:
(1.1)根据灰度图提取图像的ORB特征点;
(1.2)根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
步骤(2)中,计算点、线、面特征的重投影误差,具体步骤为:
(2.1)根据匹配关系得到点特征的观测值,计算所有点特征的重投影误差;
(2.2)根据匹配关系得到平面特征的观测值,计算所有平面特征的重投影误差Eπ1
Figure BDA0003420927510000021
其中q(·)表示参数降维变换,πij为第j个平面在第i个时刻的观测值,
Figure BDA0003420927510000024
为世界坐标系下的第j个平面,
Figure BDA0003420927510000025
为第i个世界坐标系到相机坐标系的变换矩阵;
(2.3)根据匹配关系得到线特征的观测值计算所有线特征的重投影误差El1
Figure BDA0003420927510000022
其中s(·)代表参数降维变换,lij为第j个平面在第i个时刻的观测值,
Figure BDA0003420927510000026
为世界坐标系下的第j个平面,
Figure BDA0003420927510000027
为第i个世界坐标系到相机坐标系的变换矩阵。
步骤(3)中,根据曼哈顿世界假设计算线特征和面特征的结构性误差,具体步骤为:
(3.1)计算面特征的结构性误差Eπ2,根据曼哈顿世界假设,面特征之间存在平行约束eπp和垂直约束eπv,计算所有相关面特征之间的结构性误差:
Figure BDA0003420927510000023
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,nij是第j个平面的法向量在i时刻的观测值,
Figure BDA0003420927510000028
是第j个平面的法向量在世界坐标系的值,
Figure BDA0003420927510000029
是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将法向量nij旋转到其垂直方向的附加旋转矩阵;
(3.2)计算线特征的结构性误差El2,根据曼哈顿世界假设,线特征之间存在平行约束elp和垂直约束elv,计算所有相关线特征之间的结构误差:
Figure BDA0003420927510000031
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,nij是第j条线的方向向量在i时刻的观测值,
Figure BDA0003420927510000032
是第j条线的方向向量在世界坐标系的值,
Figure BDA0003420927510000033
是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将方向向量nij旋转到其垂直方向的附加旋转矩阵。
步骤(4)中,利用重投影误差和结构性误差构建因子图模型并进行位姿优化,具体步骤为:
(4.1)利用重投影误差和结构性误差构建因子图模型,总误差为:
Tcw=argmin(∑Hp(Ep)+∑Hπ1(Eπ1)+∑Hπ2(Eπ2)+∑Hl1(El1)+∑Hl2(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
(4.2)在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿;
(4.3)当检测到***存在回环时(到达以前经过的地方),停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累计误差,并更新关键帧位姿和全局地图。
本发明的有益效果是:
针对目前SLAM***在弱纹理环境下运行不稳定的问题,本发明提出了基于曼哈顿世界假设及因子图的相机位姿优化方法。首先计算点、线、面特征的重投影误差,然后根据曼哈世界顿假设构造线特征和面特征的结构误差项,最后将上述误差项加入到后端因子图中对位姿进行优化。
本发明对弱纹理环境下SLAM***定位误差大的问题,提出一种可以在弱纹理环境下稳定实时运行的定位算法,提高了视觉里程计位姿结算的准确性和鲁棒性,能够广泛应用于自动驾驶、室内导航等场景。
附图说明
图1为一种基于曼哈顿世界假设及因子图的相机位姿优化方法***结构图。
图2为一种基于曼哈顿世界假设及因子图的相机位姿优化方法流程图。
图3为融合结构化特征的因子图优化模型。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
图1为本发明的方法流程示意图。
本发明所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,
步骤S1:提取点、线、面特征。具体包括:
S1.1、根据灰度图提取图像的ORB特征点;
S1.2、根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
步骤S2:计算点、线、面特征的重投影误差。具体包括:
S2.1、计算点特征的重投影误差,单次观测点的重投影误差为:
ep(pw,Tcw)=||z-ρ(Tcwpw)||
其中,
Figure BDA0003420927510000046
是像素坐标系下的点,pw是世界坐标系下的点,Tcw是世界坐标系到相机坐标系的变换矩阵,ρ是相机坐标系到像素坐标系的变换,考虑其他时刻的观测量后,设zij是在位姿
Figure BDA0003420927510000047
处观测到路标点
Figure BDA0003420927510000048
的像素坐标,那么整体的代价函数为::
Figure BDA0003420927510000041
S2.2、计算面特征的重投影误差,用点法式
Figure BDA0003420927510000049
来表示平面,nπ=(nx,ny,nz)为平面的法线,d为常数项,相比于三维空间平面上的刚体运动只有三个自由度(两个平移自由度和一个旋转自由度),在优化时存在超参数问题,需要降维:
Figure BDA0003420927510000042
其中q(·)表示参数降维变换,
Figure BDA00034209275100000410
和ψ∈(-π,π]分别代表法线的方位角和俯仰角。
则单次平面观测的重投影误差为:
Figure BDA0003420927510000043
其中πw为世界坐标系下的平面,Tcw为世界坐标系到相机坐标系的变换矩阵,
由此得到所有平面的投影误差:
Figure BDA0003420927510000044
其中q(·)表示参数降维变换,πij为第j个平面在第i个时刻的观测值,
Figure BDA00034209275100000411
为世界坐标系下的第j个平面,
Figure BDA00034209275100000412
为第i个世界坐标系到相机坐标系的变换矩阵;q(πij)、
Figure BDA0003420927510000045
分别为平面
Figure BDA00034209275100000413
在位姿
Figure BDA00034209275100000414
下的观测值和计算值。
S2.3、计算线的重投影误差,用点向式
Figure BDA00034209275100000415
表示线,nl=(nx,ny,nz)为方向向量,pl=(x,y,z)为直线中一点,,相比于三维空间平面上的刚体运动只有三个自由度(两个平移自由度和一个旋转自由度),在优化时存在超参数问题,需要降维:
Figure BDA0003420927510000051
其中s(·)代表参数降维变换,
Figure BDA0003420927510000056
和ψ∈(-π,π]分别代表线的方位角和俯仰角。
则单次线观测的重投影误差为:
Figure BDA0003420927510000052
其中lw为世界坐标系下的线,Tcw为世界坐标系到相机坐标系的变换矩阵。
由此得到所有线的重投影误差为:
Figure BDA0003420927510000053
其中s(·)代表参数降维变换,lij为第j个平面在第i个时刻的观测值,
Figure BDA0003420927510000057
为世界坐标系下的第j个平面,
Figure BDA0003420927510000058
为第i个世界坐标系到相机坐标系的变换矩阵;s(lij)、
Figure BDA0003420927510000054
分别为线
Figure BDA0003420927510000059
在位姿
Figure BDA00034209275100000510
下的观测值和计算值;
步骤S3:根据曼哈顿世界假设计算线特征和面特征的结构性误差。具体包括:
S3.1、计算面特征的结构性误差,根据曼哈顿世界假设,面特征之间存在平行和垂直关系,构造平行约束eπp和垂直约束eπv
eπp=||qn(n)-qn(Rcwnw)||
eπv=||qn(Rtgn)-qn(Rcwnw)||
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,n是成像平面的法线,nw是平面πw的法线,Rcw是世界坐标系到相机坐标系的旋转矩阵,Rtg是将法线n旋转到其垂直方向的附加旋转矩阵。
所有面的结构性误差为:
Figure BDA0003420927510000055
其中nij是第j个平面的法向量在i时刻的观测值,
Figure BDA00034209275100000511
是第j个平面的法向量在世界坐标系的值,
Figure BDA00034209275100000512
是i时刻世界坐标系到相机坐标系的旋转矩阵;
S3.2、计算线特征的结构性误差,根据曼哈顿世界假设,线特征之间存在平行和几何关系,构造平行约束elp和垂直约束elv
elp=||sn(n)-sn(Rcwnw)||
elv=||sn(Rtgn)-sn(Rcwnw)||
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,n是成像平面的法线,nw是线lw的方向向量,Rcw是世界坐标系到相机坐标系旋转矩阵,Rtg是将法向量n旋转到其垂直方向的附加旋转矩阵。
所有线的结构误差为:
Figure BDA0003420927510000061
其中nij是第j条线的方向向量在i时刻的观测值,
Figure BDA0003420927510000062
是第j条线的方向向量在世界坐标系的值,
Figure BDA0003420927510000063
是i时刻世界坐标系到相机坐标系的旋转矩阵;
步骤S4:利用重投影误差和结构性误差构建因子图模型并进行位姿优化。具体步骤为:
S4.1、利用重投影误差和结构性误差构建因子图模型,构造的图优化模型如图3所示,其中图形代表节点,黑线代表观测数据,其中五角星是平面路标,圆形代表关键帧的相机位姿,正方形代表点路标,三角形代表线路标,总误差表达式为:
Tcw=argmin(ΣHp(Ep)+ΣHπ1(Eπ1)+ΣHπ2(Eπ2)+ΣHl1(El1)+ΣHl2(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
S4.2、在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿,使用Levenberg-Marquadt方法进行优化,为了控制BA规模,使用滑动窗口法并只优化关键帧的观测到的点、线、面特征,被滑动窗口丢弃的关键帧的变量会通过边缘化固定下来从而对后续优化产生影响;
S4.3、当检测到***存在回环时(到达以前经过的地方),停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累积误差,并更新关键帧位姿和全局地图,没有被直接优化的特征会根据参考关键帧和摄像机的相对姿态进行更新。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。

Claims (5)

1.一种基于曼哈顿世界假设及因子图的相机位姿优化方法,用于弱纹理大场景的SLAM稳健定位,其特征在于,包括如下步骤:
(1)提取点、线、面特征;
(2)计算点、线、面特征的重投影误差;
(3)根据曼哈顿世界假设计算线特征和面特征的结构性误差;
(4)利用重投影误差和结构性误差构建因子图模型并进行位姿优化。
2.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(1)中,提取点、线、面特征,具体步骤为:
(1.1)根据灰度图提取图像的ORB特征点;
(1.2)根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
3.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(2)中,计算点、线、面特征的重投影误差,具体步骤为:
(2.1)根据匹配关系得到点特征的观测值,计算所有点特征的重投影误差;
(2.2)根据匹配关系得到平面特征的观测值,计算所有平面特征的重投影误差Eπ1
Figure FDA0003420927500000011
其中q(·)表示参数降维变换,πij为第j个平面在第i个时刻的观测值,
Figure FDA0003420927500000012
为世界坐标系下的第j个平面,
Figure FDA0003420927500000013
为第i个世界坐标系到相机坐标系的变换矩阵;
(2.3)根据匹配关系得到线特征的观测值计算所有线特征的重投影误差El1
Figure FDA0003420927500000014
其中s(·)代表参数降维变换,lij为第j个平面在第i个时刻的观测值,
Figure FDA0003420927500000015
为世界坐标系下的第j个平面,
Figure FDA0003420927500000016
为第i个世界坐标系到相机坐标系的变换矩阵。
4.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(3)中,根据曼哈顿世界假设计算线特征和面特征的结构性误差,具体步骤为:
(3.1)计算面特征的结构性误差Eπ2,根据曼哈顿世界假设,面特征之间存在平行约束eπp和垂直约束eπv,计算所有相关面特征之间的结构性误差:
Figure FDA0003420927500000021
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,nij是第j个平面的法向量在i时刻的观测值,
Figure FDA0003420927500000026
是第j个平面的法向量在世界坐标系的值,
Figure FDA0003420927500000025
是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将法向量nij旋转到其垂直方向的附加旋转矩阵;
(3.2)计算线特征的结构性误差El2,根据曼哈顿世界假设,线特征之间存在平行约束elp和垂直约束elv,计算所有相关线特征之间的结构误差:
Figure FDA0003420927500000022
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,nij是第j条线的方向向量在i时刻的观测值,
Figure FDA0003420927500000023
是第j条线的方向向量在世界坐标系的值,
Figure FDA0003420927500000024
是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将方向向量nij旋转到其垂直方向的附加旋转矩阵。
5.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(4)中,利用重投影误差和结构性误差构建因子图模型并进行位姿优化,具体步骤为:
(4.1)利用重投影误差和结构性误差构建因子图模型,总误差为:
Tcw=argmin(∑Hp(Ep)+∑Hπ1(Eπ1)+∑Hπ2(Eπ2)+∑Hl1(El1)+∑H12(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
(4.2)在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿;
(4.3)当检测到***存在回环时,即到达以前经过的地方,停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累计误差,并更新关键帧位姿和全局地图。
CN202111562336.3A 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 Active CN114241050B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111562336.3A CN114241050B (zh) 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111562336.3A CN114241050B (zh) 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法

Publications (2)

Publication Number Publication Date
CN114241050A true CN114241050A (zh) 2022-03-25
CN114241050B CN114241050B (zh) 2024-05-07

Family

ID=80759252

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111562336.3A Active CN114241050B (zh) 2021-12-20 2021-12-20 一种基于曼哈顿世界假设及因子图的相机位姿优化方法

Country Status (1)

Country Link
CN (1) CN114241050B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115063485A (zh) * 2022-08-19 2022-09-16 深圳市其域创新科技有限公司 三维重建方法、装置及计算机可读存储介质
WO2023184968A1 (zh) * 2022-04-02 2023-10-05 华南理工大学 一种基于点线面特征的结构化场景视觉slam方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239756A1 (en) * 2003-05-30 2004-12-02 Aliaga Daniel G. Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
CN111693047A (zh) * 2020-05-08 2020-09-22 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法
CN112734845A (zh) * 2021-01-08 2021-04-30 浙江大学 一种融合场景语义的室外单目同步建图与定位方法
CN113376669A (zh) * 2021-06-22 2021-09-10 东南大学 一种基于点线特征的单目vio-gnss融合定位算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239756A1 (en) * 2003-05-30 2004-12-02 Aliaga Daniel G. Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
CN111693047A (zh) * 2020-05-08 2020-09-22 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法
CN112734845A (zh) * 2021-01-08 2021-04-30 浙江大学 一种融合场景语义的室外单目同步建图与定位方法
CN113376669A (zh) * 2021-06-22 2021-09-10 东南大学 一种基于点线特征的单目vio-gnss融合定位算法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184968A1 (zh) * 2022-04-02 2023-10-05 华南理工大学 一种基于点线面特征的结构化场景视觉slam方法
CN115063485A (zh) * 2022-08-19 2022-09-16 深圳市其域创新科技有限公司 三维重建方法、装置及计算机可读存储介质
WO2024037562A1 (zh) * 2022-08-19 2024-02-22 深圳市其域创新科技有限公司 三维重建方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN114241050B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
WO2021232470A1 (zh) 基于多传感器融合的slam制图方法、***
Shan et al. Lio-sam: Tightly-coupled lidar inertial odometry via smoothing and mapping
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN114862949B (zh) 一种基于点线面特征的结构化场景视觉slam方法
CN111275763B (zh) 闭环检测***、多传感器融合slam***及机器人
CN114241050A (zh) 一种基于曼哈顿世界假设及因子图的相机位姿优化方法
Qian et al. Rf-lio: Removal-first tightly-coupled lidar inertial odometry in high dynamic environments
CN112484746B (zh) 一种基于地平面的单目视觉辅助激光雷达里程计方法
CN114001733A (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN112556719A (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
Liu A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure
CN115355904A (zh) 一种针对地面移动机器人的Lidar-IMU融合的slam方法
CN115218889A (zh) 一种基于点线特征融合的多传感器室内定位方法
CN116429116A (zh) 一种机器人定位方法及设备
CN118010024A (zh) 基于点线面解耦6-DoF位姿估计优化方法及***
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Sun et al. A multisensor-based tightly coupled integrated navigation system
Liu et al. A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM
CN115031735A (zh) 基于结构特征的单目视觉惯性里程计***的位姿估计方法
Hu et al. Efficient Visual-Inertial navigation with point-plane map
CN112446885A (zh) 一种动态环境下基于改进的语义光流法的slam方法
CN116468858B (zh) 一种基于人工智能的地图融合方法及***
CN117671022B (zh) 一种室内弱纹理环境的移动机器人视觉定位***及方法
CN114119805B (zh) 点线面融合的语义建图slam方法
Wang et al. Autonomous UAV-Based Position and 3D Reconstruction of Structured Indoor Scene

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant