CN114241050A - 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 - Google Patents
一种基于曼哈顿世界假设及因子图的相机位姿优化方法 Download PDFInfo
- Publication number
- CN114241050A CN114241050A CN202111562336.3A CN202111562336A CN114241050A CN 114241050 A CN114241050 A CN 114241050A CN 202111562336 A CN202111562336 A CN 202111562336A CN 114241050 A CN114241050 A CN 114241050A
- Authority
- CN
- China
- Prior art keywords
- error
- coordinate system
- features
- line
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000009466 transformation Effects 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000013507 mapping Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 abstract 1
- 230000001360 synchronised effect Effects 0.000 abstract 1
- 230000009467 reduction Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000005034 decoration Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于曼哈顿世界假设及因子图的相机位姿优化方法,可以在弱纹理环境下的同步定位与制图(SLAM,Simultaneously positioning and mapping)***中增加定位的准确性和鲁棒性,其思路是计算特征的重投影误差以及结构化特征的结构误差项,构建因子图模型并进行位姿优化。该算法首先计算特征的重投影误差,然后根据曼哈顿世界假设构造结构化特征的结构误差项,最后在SLAM后端中对上述误差项构建因子图模型并进行位姿优化。本发明通过将结构化特征的重投影误差和结构误差加入到后端优化中,可以提高弱纹理场景下SLAM***位姿解算的准确度和鲁棒性,以便满足机器人更加广阔的应用场景。
Description
技术领域
本发明属于图像图形领域,涉及一种同时定位与建图技术,具体涉及一种基于曼哈顿世界假设及因子图的相机位姿优化方法。
背景技术
近年来,智能机器人已成为学术界和工业界的一个重要的研究方向。要使机器人更加智能、更加自主,机器人必须提高对未知环境的认知能力。同时定位与地图构建技术(SLAM,Simultaneously positioning and mapping)是构建三维场景地图以及机器自身定位的关键技术,已经成功应用到无人车、无人机、快递机器人、智能清洁机器人等产品上。
目前一些基于点特征的SLAM***在大部分场景下已经能够稳定运行,然而在一些弱纹理场景下(白墙,地面),由于纹理特征不够丰富,基于特征点匹配的SLAM,容易出现跟踪失败的情况,导致SLAM***定位失败。因此,考虑基于点线面特征的可以保证SLAM***稳定跟踪,并提高定位精度,同时现实世界中的线和平面存在着大量的平行和垂直关系(曼哈顿假设),可以通过这些结构性条件约束SLAM***的优化过程,从而增加***的定位精度和鲁棒性,扩展机器人的应用场景。
目前一些基于结构特征的SLAM***正逐渐被重视起来,虽然基于点特征的SLAM***在大部分场景下已经能够稳定运行,但在一些弱纹理场景下(白墙,地面),由于纹理特征不够丰富容易出现跟踪失败的情况,从而导致SLAM***定位失败。由于结构化场景中墙面、地面和书桌等存在较多的互相垂直或平行的平面,在弱纹理环境下考虑加入这些结构化特征,虽然有一些研究已经将结构化特征加入到SLAM的后端优化中,但是大多数研究都忽略了结构化特征之间存在的约束,导致其构建的图优化模型过于单一,如果提取到的特征存在结构性误差和漂移,若把误差加入到后端优化,将严重影响***性能。根据曼哈顿世界假设,将结构化特征之间存在的平行和垂直关系加入到后端优化的过程中,对SLAM***的定位求解加以约束,提高SLAM***在弱纹理环境下定位的准确性和鲁棒性。
发明内容
为解决上述问题,本发明公开了一种基于曼哈顿世界假设及因子图的相机位姿优化方法,通过将结构化特征的重投影误差和结构误差加入到后端优化中,可以提高弱纹理场景下SLAM***位姿解算的准确度和鲁棒性,以便满足机器人更加广阔的应用场景。
为达到上述目的,本发明的技术方案如下:
一种基于曼哈顿世界假设及因子图的相机位姿优化方法,用于弱纹理大场景的SLAM稳健定位,包括如下步骤:
(1)提取点、线、面特征;
(2)计算点、线、面特征的重投影误差;
(3)根据曼哈顿世界假设计算线特征和面特征的结构性误差;
(4)利用重投影误差和结构性误差构建因子图模型并进行位姿优化。
其中步骤(1)中,提取点、线、面特征,具体步骤为:
(1.1)根据灰度图提取图像的ORB特征点;
(1.2)根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
步骤(2)中,计算点、线、面特征的重投影误差,具体步骤为:
(2.1)根据匹配关系得到点特征的观测值,计算所有点特征的重投影误差;
(2.2)根据匹配关系得到平面特征的观测值,计算所有平面特征的重投影误差Eπ1:
(2.3)根据匹配关系得到线特征的观测值计算所有线特征的重投影误差El1:
步骤(3)中,根据曼哈顿世界假设计算线特征和面特征的结构性误差,具体步骤为:
(3.1)计算面特征的结构性误差Eπ2,根据曼哈顿世界假设,面特征之间存在平行约束eπp和垂直约束eπv,计算所有相关面特征之间的结构性误差:
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,nij是第j个平面的法向量在i时刻的观测值,是第j个平面的法向量在世界坐标系的值,是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将法向量nij旋转到其垂直方向的附加旋转矩阵;
(3.2)计算线特征的结构性误差El2,根据曼哈顿世界假设,线特征之间存在平行约束elp和垂直约束elv,计算所有相关线特征之间的结构误差:
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,nij是第j条线的方向向量在i时刻的观测值,是第j条线的方向向量在世界坐标系的值,是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将方向向量nij旋转到其垂直方向的附加旋转矩阵。
步骤(4)中,利用重投影误差和结构性误差构建因子图模型并进行位姿优化,具体步骤为:
(4.1)利用重投影误差和结构性误差构建因子图模型,总误差为:
Tcw=argmin(∑Hp(Ep)+∑Hπ1(Eπ1)+∑Hπ2(Eπ2)+∑Hl1(El1)+∑Hl2(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
(4.2)在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿;
(4.3)当检测到***存在回环时(到达以前经过的地方),停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累计误差,并更新关键帧位姿和全局地图。
本发明的有益效果是:
针对目前SLAM***在弱纹理环境下运行不稳定的问题,本发明提出了基于曼哈顿世界假设及因子图的相机位姿优化方法。首先计算点、线、面特征的重投影误差,然后根据曼哈世界顿假设构造线特征和面特征的结构误差项,最后将上述误差项加入到后端因子图中对位姿进行优化。
本发明对弱纹理环境下SLAM***定位误差大的问题,提出一种可以在弱纹理环境下稳定实时运行的定位算法,提高了视觉里程计位姿结算的准确性和鲁棒性,能够广泛应用于自动驾驶、室内导航等场景。
附图说明
图1为一种基于曼哈顿世界假设及因子图的相机位姿优化方法***结构图。
图2为一种基于曼哈顿世界假设及因子图的相机位姿优化方法流程图。
图3为融合结构化特征的因子图优化模型。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
图1为本发明的方法流程示意图。
本发明所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,
步骤S1:提取点、线、面特征。具体包括:
S1.1、根据灰度图提取图像的ORB特征点;
S1.2、根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
步骤S2:计算点、线、面特征的重投影误差。具体包括:
S2.1、计算点特征的重投影误差,单次观测点的重投影误差为:
ep(pw,Tcw)=||z-ρ(Tcwpw)||
其中,是像素坐标系下的点,pw是世界坐标系下的点,Tcw是世界坐标系到相机坐标系的变换矩阵,ρ是相机坐标系到像素坐标系的变换,考虑其他时刻的观测量后,设zij是在位姿处观测到路标点的像素坐标,那么整体的代价函数为::
S2.2、计算面特征的重投影误差,用点法式来表示平面,nπ=(nx,ny,nz)为平面的法线,d为常数项,相比于三维空间平面上的刚体运动只有三个自由度(两个平移自由度和一个旋转自由度),在优化时存在超参数问题,需要降维:
则单次平面观测的重投影误差为:
其中πw为世界坐标系下的平面,Tcw为世界坐标系到相机坐标系的变换矩阵,
由此得到所有平面的投影误差:
S2.3、计算线的重投影误差,用点向式表示线,nl=(nx,ny,nz)为方向向量,pl=(x,y,z)为直线中一点,,相比于三维空间平面上的刚体运动只有三个自由度(两个平移自由度和一个旋转自由度),在优化时存在超参数问题,需要降维:
则单次线观测的重投影误差为:
其中lw为世界坐标系下的线,Tcw为世界坐标系到相机坐标系的变换矩阵。
由此得到所有线的重投影误差为:
步骤S3:根据曼哈顿世界假设计算线特征和面特征的结构性误差。具体包括:
S3.1、计算面特征的结构性误差,根据曼哈顿世界假设,面特征之间存在平行和垂直关系,构造平行约束eπp和垂直约束eπv:
eπp=||qn(n)-qn(Rcwnw)||
eπv=||qn(Rtgn)-qn(Rcwnw)||
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,n是成像平面的法线,nw是平面πw的法线,Rcw是世界坐标系到相机坐标系的旋转矩阵,Rtg是将法线n旋转到其垂直方向的附加旋转矩阵。
所有面的结构性误差为:
S3.2、计算线特征的结构性误差,根据曼哈顿世界假设,线特征之间存在平行和几何关系,构造平行约束elp和垂直约束elv:
elp=||sn(n)-sn(Rcwnw)||
elv=||sn(Rtgn)-sn(Rcwnw)||
其中sn(·)为s(·)的前两维,表示对线的方向向量的参数降维变换,n是成像平面的法线,nw是线lw的方向向量,Rcw是世界坐标系到相机坐标系旋转矩阵,Rtg是将法向量n旋转到其垂直方向的附加旋转矩阵。
所有线的结构误差为:
步骤S4:利用重投影误差和结构性误差构建因子图模型并进行位姿优化。具体步骤为:
S4.1、利用重投影误差和结构性误差构建因子图模型,构造的图优化模型如图3所示,其中图形代表节点,黑线代表观测数据,其中五角星是平面路标,圆形代表关键帧的相机位姿,正方形代表点路标,三角形代表线路标,总误差表达式为:
Tcw=argmin(ΣHp(Ep)+ΣHπ1(Eπ1)+ΣHπ2(Eπ2)+ΣHl1(El1)+ΣHl2(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
S4.2、在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿,使用Levenberg-Marquadt方法进行优化,为了控制BA规模,使用滑动窗口法并只优化关键帧的观测到的点、线、面特征,被滑动窗口丢弃的关键帧的变量会通过边缘化固定下来从而对后续优化产生影响;
S4.3、当检测到***存在回环时(到达以前经过的地方),停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累积误差,并更新关键帧位姿和全局地图,没有被直接优化的特征会根据参考关键帧和摄像机的相对姿态进行更新。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。
Claims (5)
1.一种基于曼哈顿世界假设及因子图的相机位姿优化方法,用于弱纹理大场景的SLAM稳健定位,其特征在于,包括如下步骤:
(1)提取点、线、面特征;
(2)计算点、线、面特征的重投影误差;
(3)根据曼哈顿世界假设计算线特征和面特征的结构性误差;
(4)利用重投影误差和结构性误差构建因子图模型并进行位姿优化。
2.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(1)中,提取点、线、面特征,具体步骤为:
(1.1)根据灰度图提取图像的ORB特征点;
(1.2)根据深度图对点云进行分割后得到平面特征,提取平面边缘得到线特征。
3.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(2)中,计算点、线、面特征的重投影误差,具体步骤为:
(2.1)根据匹配关系得到点特征的观测值,计算所有点特征的重投影误差;
(2.2)根据匹配关系得到平面特征的观测值,计算所有平面特征的重投影误差Eπ1:
(2.3)根据匹配关系得到线特征的观测值计算所有线特征的重投影误差El1:
4.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(3)中,根据曼哈顿世界假设计算线特征和面特征的结构性误差,具体步骤为:
(3.1)计算面特征的结构性误差Eπ2,根据曼哈顿世界假设,面特征之间存在平行约束eπp和垂直约束eπv,计算所有相关面特征之间的结构性误差:
其中qn(·)为q(·)的前两维,表示对平面法向量的参数降维变换,nij是第j个平面的法向量在i时刻的观测值,是第j个平面的法向量在世界坐标系的值,是i时刻世界坐标系到相机坐标系的旋转矩阵,Rtg是将法向量nij旋转到其垂直方向的附加旋转矩阵;
(3.2)计算线特征的结构性误差El2,根据曼哈顿世界假设,线特征之间存在平行约束elp和垂直约束elv,计算所有相关线特征之间的结构误差:
5.根据权利要求1所述的一种基于曼哈顿世界假设及因子图的相机位姿优化方法,其特征在于,所述步骤(4)中,利用重投影误差和结构性误差构建因子图模型并进行位姿优化,具体步骤为:
(4.1)利用重投影误差和结构性误差构建因子图模型,总误差为:
Tcw=argmin(∑Hp(Ep)+∑Hπ1(Eπ1)+∑Hπ2(Eπ2)+∑Hl1(El1)+∑H12(El2))
其中H(·)是Huber核函数,Ep、Eπ1、El1、Eπ2、El2是步骤(2)(3)中的误差项;
(4.2)在跟踪期间进行局部BA,通过减小重投影误差和结构性误差优化相机位姿;
(4.3)当检测到***存在回环时,即到达以前经过的地方,停止局部BA转而执行全局BA,所有的相机位姿和点、线、平面路标都会根据当前的观测结果进行修正,消除累计误差,并更新关键帧位姿和全局地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111562336.3A CN114241050B (zh) | 2021-12-20 | 2021-12-20 | 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111562336.3A CN114241050B (zh) | 2021-12-20 | 2021-12-20 | 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114241050A true CN114241050A (zh) | 2022-03-25 |
CN114241050B CN114241050B (zh) | 2024-05-07 |
Family
ID=80759252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111562336.3A Active CN114241050B (zh) | 2021-12-20 | 2021-12-20 | 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114241050B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115063485A (zh) * | 2022-08-19 | 2022-09-16 | 深圳市其域创新科技有限公司 | 三维重建方法、装置及计算机可读存储介质 |
WO2023184968A1 (zh) * | 2022-04-02 | 2023-10-05 | 华南理工大学 | 一种基于点线面特征的结构化场景视觉slam方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040239756A1 (en) * | 2003-05-30 | 2004-12-02 | Aliaga Daniel G. | Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments |
CN111693047A (zh) * | 2020-05-08 | 2020-09-22 | 中国航空工业集团公司西安航空计算技术研究所 | 一种高动态场景下的微小型无人机视觉导航方法 |
CN112734845A (zh) * | 2021-01-08 | 2021-04-30 | 浙江大学 | 一种融合场景语义的室外单目同步建图与定位方法 |
CN113376669A (zh) * | 2021-06-22 | 2021-09-10 | 东南大学 | 一种基于点线特征的单目vio-gnss融合定位算法 |
-
2021
- 2021-12-20 CN CN202111562336.3A patent/CN114241050B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040239756A1 (en) * | 2003-05-30 | 2004-12-02 | Aliaga Daniel G. | Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments |
CN111693047A (zh) * | 2020-05-08 | 2020-09-22 | 中国航空工业集团公司西安航空计算技术研究所 | 一种高动态场景下的微小型无人机视觉导航方法 |
CN112734845A (zh) * | 2021-01-08 | 2021-04-30 | 浙江大学 | 一种融合场景语义的室外单目同步建图与定位方法 |
CN113376669A (zh) * | 2021-06-22 | 2021-09-10 | 东南大学 | 一种基于点线特征的单目vio-gnss融合定位算法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023184968A1 (zh) * | 2022-04-02 | 2023-10-05 | 华南理工大学 | 一种基于点线面特征的结构化场景视觉slam方法 |
CN115063485A (zh) * | 2022-08-19 | 2022-09-16 | 深圳市其域创新科技有限公司 | 三维重建方法、装置及计算机可读存储介质 |
WO2024037562A1 (zh) * | 2022-08-19 | 2024-02-22 | 深圳市其域创新科技有限公司 | 三维重建方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114241050B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021232470A1 (zh) | 基于多传感器融合的slam制图方法、*** | |
Shan et al. | Lio-sam: Tightly-coupled lidar inertial odometry via smoothing and mapping | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN114862949B (zh) | 一种基于点线面特征的结构化场景视觉slam方法 | |
CN111275763B (zh) | 闭环检测***、多传感器融合slam***及机器人 | |
CN114241050A (zh) | 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 | |
Qian et al. | Rf-lio: Removal-first tightly-coupled lidar inertial odometry in high dynamic environments | |
CN112484746B (zh) | 一种基于地平面的单目视觉辅助激光雷达里程计方法 | |
CN114001733A (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
CN112556719A (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
Liu | A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure | |
CN115355904A (zh) | 一种针对地面移动机器人的Lidar-IMU融合的slam方法 | |
CN115218889A (zh) | 一种基于点线特征融合的多传感器室内定位方法 | |
CN116429116A (zh) | 一种机器人定位方法及设备 | |
CN118010024A (zh) | 基于点线面解耦6-DoF位姿估计优化方法及*** | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
Sun et al. | A multisensor-based tightly coupled integrated navigation system | |
Liu et al. | A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM | |
CN115031735A (zh) | 基于结构特征的单目视觉惯性里程计***的位姿估计方法 | |
Hu et al. | Efficient Visual-Inertial navigation with point-plane map | |
CN112446885A (zh) | 一种动态环境下基于改进的语义光流法的slam方法 | |
CN116468858B (zh) | 一种基于人工智能的地图融合方法及*** | |
CN117671022B (zh) | 一种室内弱纹理环境的移动机器人视觉定位***及方法 | |
CN114119805B (zh) | 点线面融合的语义建图slam方法 | |
Wang et al. | Autonomous UAV-Based Position and 3D Reconstruction of Structured Indoor Scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |