CN111415417A - 一种集成稀疏点云的移动机器人拓扑经验地图构建方法 - Google Patents
一种集成稀疏点云的移动机器人拓扑经验地图构建方法 Download PDFInfo
- Publication number
- CN111415417A CN111415417A CN202010291189.XA CN202010291189A CN111415417A CN 111415417 A CN111415417 A CN 111415417A CN 202010291189 A CN202010291189 A CN 202010291189A CN 111415417 A CN111415417 A CN 111415417A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- map
- experience
- pose
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明属于机器人技术与应用领域,涉及一种集成稀疏点云的移动机器人拓扑经验地图构建方法,该方法根据稀疏点云获取的关键帧数据与相机采集的视觉图像增量式构建可直接用于移动机器人的路径规划与导航的拓扑经验地图。本发明解决了稀疏点云地图用于自主导航任务的信息不充分问题,通过稀疏点云在线构建环境的拓扑经验地图,拓扑经验地图可以直接用于移动机器人导航。
Description
技术领域
本发明属于机器人技术与应用领域,涉及一种集成稀疏点云的移动机器人拓扑经验地图构建方法。
背景技术
随着机器人技术的发展,移动机器人在科学研究、工业领域、家庭和商业环境中的应用日益普遍。定位与导航是移动机器人的核心能力,而地图构建是完成定位与导航任务的基础。近年来,随着计算能力的提高与图像处理技术的发展,基于视觉的同步定位与地图构建技术(Visual Simultaneous Localization and Mapping,vSLAM)成为了热门研究课题并实现快速发展。vSLAM算法构建地图包含稠密地图与稀疏地图,在实际应用中,稀疏地图用于导航任务具有信息不充分的问题。稠密地图对于导航任务提供了很多冗余信息,而且稠密地图的构建、优化、存储与更新是具有挑战性的。
发明内容
针对现有技术存在的问题,本发明提出一种集成稀疏点云的移动机器人拓扑经验地图构建方法,基于稀疏点云进行定位,利用相机采集的外部环境的视觉图像信息重建环境的稀疏点云,在线增量学习并构建拓扑经验地图用于路径规划与导航。
本发明所述的一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,该方法根据稀疏点云获取的关键帧数据与相机采集的视觉图像增量式构建可直接用于移动机器人的路径规划与导航的拓扑经验地图。
优选的,具体按照以下步骤进行:
(1)构建稀疏点云;
(2)拓扑经验地图建模;拓扑经验地图建模为经验节点集合与节点转移网络两者的集合;
(3)构建拓扑经验地图;拓扑经验地图的构建基于稀疏点云进行定位,根据相机位姿计算移动机器人位姿,采集视觉经验,封装成经验信息的节点三元组;最后将移动机器人位姿和经验信息应用到拓扑经验地图建模中完成拓扑经验地图的构建。
其中,优选的,步骤(1)中的构建稀疏点云包含前端跟踪与后端优化两部分;所述前端跟踪采用基于特征点法的视觉前端对每帧图像提取特征点,然后根据特征匹配关系求解当前帧位姿的初始估计并对初始位姿评估进行调优;所述后端优化首先加入新的关键帧,优化更新局部地图,并对每一个关键帧做闭环检测处理,一旦检测到闭环,则使用全局位姿图优化纠正前端视觉里程计的累积误差。
优选的,步骤(2)中的拓扑经验地图G建模为经验节点集合E与节点转移网络W两者的集合:
G={E,W}
其中,经验节点集合E的序列根据移动机器人的位姿与当前场景的经验信息构建,具体为:
E={e1,e2,…,ek-1,ek}
每个节点e由三元组构成:
e=(id,pose,exp)
上式中,id为节点编号;pose为移动机器人在世界坐标系下的位姿posk=(xk,yk,yawk),包含移动机器人在世界坐标系的二维坐标与航向角;exp为经验信息,即视觉特征,具有可观测特性,可以在线学习与更新。
节点转移网络W由节点间的权值组成,任意权值wij表示移动机器人从节点i到节点j的转移代价,由节点间的欧式距离与其视觉经验的匹配度两部分计算得到。
优选的,步骤(3)中的移动机器人位姿具体实现过程如下:
首先,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC:
其中,R是旋转矩阵,维度为3×3,t是平移向量,维度为3×1,0T为3×1的零向量;
然后,利用相机采集图像信息,根据提取的视觉特征与稀疏点云匹配计算得到相机位姿Xc:
Xc=[timestamp,x,y,z,qx,qy,qz,qw]
其中,timestamp为时间戳,x,y,z为相机空间位置,qx,qy,qz,qw为旋转四元数。
最后,根据变换矩阵和相机位姿计算移动机器人位姿:
XR=TRC·XC
其中,XR为移动机器人位姿。
优选的,步骤(3)中的经验信息具体实现过程如下:为了实时且高效的应用经验信息,引入BOW词袋模型,首先应用大量相似场景图片信息,提取描述子,使用聚类算法将差异较小的描述子归为一个单词,最终获得由大量单词构成的字典,在每个经验节点提取固定数量的描述子后,每个描述子在字典中找到对应的单词并计算单词的TF-IDF(TermFrequency-Inverse Document Frequency,译频率-逆文档频率)权重,最终用单词向量作为经验信息存储在节点三元组中:
其中,ωi表示第i个单词,ηi为单词ωi的TF-IDF权重,vi为图像的词袋向量描述。
优选的,所述的相机为视觉传感器Kinect2。
本发明的优点在于:解决稀疏点云地图用于自主导航任务的信息不充分问题,通过稀疏点云在线构建环境的拓扑经验地图,拓扑经验地图可以直接用于移动机器人导航。
附图说明
图1为本发明实施例1中所述的构建稀疏点云中的前端跟踪流程;
图2为本发明实施例1中拓扑经验地图构建过程示意图;
图3为本发明实施例1中“相机-移动机器人”坐标关系示意图;
图4为本发明实施例1中构建的关键帧与拓扑经验地图。
具体实施方式
为使本发明实施的目的、技术方案和优点更加清楚,下面将结合本发明实例中的附图,对本发明实例中的技术方案进行清楚、完整的描述,显然,所描述的实例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
一种集成稀疏点云的移动机器人拓扑经验地图构建方法,按照以下步骤进行:
(1)构建稀疏点云;
(2)拓扑经验地图建模;拓扑经验地图建模为经验节点集合与节点转移网络两者的集合;
(3)构建拓扑经验地图;拓扑经验地图的构建基于稀疏点云进行定位,根据相机位姿计算移动机器人位姿,采集视觉经验,封装成经验信息的节点三元组;最后将移动机器人位姿和经验信息应用到拓扑经验地图建模中完成拓扑经验地图的构建。
图1为本实施例构建稀疏点云中的前端跟踪流程,如图1所示,视觉前端跟踪算法作为视觉里程计实时跟踪相机位姿并决定当前帧是否作为关键帧。首先,先进行特征检测,对每一帧图像提取FAST关键点和BRIEF描述符,帧间特征匹配得到3D-2D匹配点集,使用RANSAC算法优化匹配关系,利用PnP算法求解当前帧位姿。然后,根据相机投影约束使用motion-only BA算法位姿调优,即固定地图点仅优化当前帧位姿。如果跟踪失败,则进行重定位。前端跟踪过程中,移动机器人长时间根据视觉里程计估计位姿会出现累积误差,为得到更加准确的位姿估计,在后端优化中,根据局部地图不断优化局部相机位姿与空间地图点位置,同时对每一帧图像做闭环检测处理,一旦检测到闭环则进行全局位姿图优化,从而消除大尺度环境下的累积误差。
图2为本发明实例拓扑经验地图构建过程示意图,如图2所示,拓扑经验地图的构建基于稀疏点云进行定位,根据相机位姿计算移动机器人位姿,采集视觉经验,封装成经验信息的节点三元组。具体过程如下:
首先,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC,移动机器人与相机的位姿关系如图3所示,其包含旋转R和平移t两部分:
其中,R是旋转矩阵,维度为3×3,t是平移向量,维度为3×1,0T为3×1的零向量。
然后,利用视觉传感器Kinect2采集图像信息,根据特征匹配进行相机定位得到相机位姿。
Xc=[timestamp,x,y,z,qx,qy,qz,qw]
其中,timestamp为时间戳,x,y,z为相机空间位置,qx,qy,qz,qw为旋转四元数。
最后,根据外参矩阵计算移动机器人位姿。
XR=TRC·XC
其中,XR为移动机器人位姿。
为了实时且高效的应用经验信息,引入BOW词袋模型,首先应用大量相似场景图片信息,提取描述子,使用聚类算法将差异较小的描述子归为一个单词。最终获得由大量单词构成的字典。在每个经验节点提取固定数量的描述子后,每个描述子在字典中找到对应的单词并计算单词的TF-IDF(Term Frequency-Inverse Document Frequency,译频率-逆文档频率)权重,最终用单词向量作为经验信息存储在节点三元组中:
其中,ωi表示第i个单词,ηi为单词ωi的TF-IDF权重,vi为图像的词袋向量描述。
由上述获得的机器人位姿和经验信息,构建拓扑经验地图为经验节点与节点转移网络G={E,W}。根据移动机器人的位姿与当前场景的视觉信息构建序列经验节点E的集合。
E={e1,e2,…,ek-1,ek}
其中,每个节点e由三元组构成:e=(id,pose,exp)。各元素的含义如下:id:节点编号;pos:机器人在世界坐标系下的位姿,posk=(xk,yk,yawk),包含机器人在世界坐标系的二维坐标与航向角;exp:经验信息,即视觉特征,具有可观测特性,可以在线学习与更新。
节点转移网络W由节点间的权值组成,任意权值wij表示移动机器人从节点i到节点j的转移代价,连接权值由节点间的欧式距离与其视觉经验的匹配度两部分计算得到。
图4为本发明实施例中构建的关键帧数据与拓扑经验地图,如图4所示,实验平台为移动机器人搭载视觉传感器Kinect2,实验场合为典型的办公室环境。移动机器人根据视觉信息获取环境序列图像,利用特征点法的前端与基于优化的后端重建环境的显著视觉路标点,实现稀疏点云构建并保存,关键帧的位姿由基于RANSAC优化的PnP算法计算得到,记录关键帧数据,如图4(a)所示,其中每个点记录关键帧相机的位姿信息:Xc=[timestamp,x,y,z,qx,qy,qz,qw]。根据“相机-机器人”坐标关系,计算得到移动机器人位姿:(x,y,yaw)。利用词袋模型获取当前帧图像的经验信息exp,封装成节点三元组,构建经验节点,根据节点间的欧式距离与视觉经验的匹配度计算节点转移权值,由此实现拓扑经验地图的构建,如图4(b)所示,图中每一个圆圈表示一个经验节点,包含三元组信息。根据节点三元组信息与节点转移网络,移动机器人可以规划路径并实现导航。
最后应说明的是:以上实例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照本实施实例对本发明进行了详细的说明,本领域的普通人员应当理解;其依然可以对前述各实例所记载的技术方案进行修改,或者对其中部分技术特征进行同等替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实例技术方案的精神和范围。
Claims (7)
1.一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,该方法根据稀疏点云获取的关键帧数据与相机采集的视觉图像增量式构建可直接用于移动机器人的路径规划与导航的拓扑经验地图。
2.根据权利要求1所述的一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,按照以下步骤进行:
(1)构建稀疏点云;
(2)拓扑经验地图建模;拓扑经验地图建模为经验节点集合与节点转移网络两者的集合;
(3)构建拓扑经验地图;拓扑经验地图的构建基于稀疏点云进行定位,根据相机位姿计算移动机器人位姿,采集视觉经验,封装成经验信息的节点三元组;最后将移动机器人位姿和经验信息应用到拓扑经验地图建模中完成拓扑经验地图的构建。
3.根据权利要求2所述的一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,步骤(1)中的构建稀疏点云包含前端跟踪与后端优化两部分;所述前端跟踪采用基于特征点法的视觉前端对每帧图像提取特征点,然后根据特征匹配关系求解当前帧位姿的初始估计并对初始位姿评估进行调优;所述后端优化首先加入新的关键帧,优化更新局部地图,并对每一个关键帧做闭环检测处理,一旦检测到闭环,则使用全局位姿图优化纠正前端视觉里程计的累积误差。
4.根据权利要求3所述的一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,步骤(2)中的拓扑经验地图G建模为经验节点集合E与节点转移网络W两者的集合:
G={E,W}
其中,经验节点集合E的序列根据移动机器人的位姿与当前场景的经验信息构建,具体为:
E={e1,e2,…,ek-1,ek}
每个节点e由三元组构成:
e=(id,pose,exp)
上式中,id为节点编号;pose为移动机器人在世界坐标系下的位姿posk=(xk,yk,yawk),包含移动机器人在世界坐标系的二维坐标与航向角;exp为经验信息;
节点转移网络W由节点间的权值组成,任意权值wij表示移动机器人从节点i到节点j的转移代价,由节点间的欧式距离与其视觉经验的匹配度两部分计算得到。
5.根据权利要求4所述的一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,步骤(3)中的移动机器人位姿具体实现过程如下:
首先,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC:
其中,R是旋转矩阵,维度为3×3,t是平移向量,维度为3×1,0T为3×1的零向量;
然后,利用相机采集图像信息,根据提取的视觉特征与稀疏点云匹配计算得到相机位姿Xc:
Xc=[timestamp,x,y,z,qx,qy,qz,qw]
其中,timestamp为时间戳,x,y,z为相机空间位置,qx,qy,qz,qw为旋转四元数。
最后,根据变换矩阵和相机位姿计算移动机器人位姿:
XR=TRC·XC
其中,XR为移动机器人位姿。
7.根据权利要求1、2、3、4、5或6所述的一种集成稀疏点云的移动机器人拓扑经验地图构建方法,其特征在于,所述的相机为视觉传感器Kinect2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010291189.XA CN111415417B (zh) | 2020-04-14 | 2020-04-14 | 一种集成稀疏点云的移动机器人拓扑经验地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010291189.XA CN111415417B (zh) | 2020-04-14 | 2020-04-14 | 一种集成稀疏点云的移动机器人拓扑经验地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111415417A true CN111415417A (zh) | 2020-07-14 |
CN111415417B CN111415417B (zh) | 2023-09-05 |
Family
ID=71494857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010291189.XA Active CN111415417B (zh) | 2020-04-14 | 2020-04-14 | 一种集成稀疏点云的移动机器人拓扑经验地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111415417B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116664A (zh) * | 2020-09-04 | 2020-12-22 | 季华实验室 | 手眼标定轨迹生成方法、装置、电子设备及存储介质 |
CN112365537A (zh) * | 2020-10-13 | 2021-02-12 | 天津大学 | 一种基于三维点云对齐的主动相机重定位方法 |
CN114199243A (zh) * | 2020-09-18 | 2022-03-18 | 浙江舜宇智能光学技术有限公司 | 用于机器人的位姿估计和运动规划方法、装置和机器人 |
CN114440892A (zh) * | 2022-01-27 | 2022-05-06 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于拓扑地图和里程计的自定位方法 |
CN114526739A (zh) * | 2022-01-25 | 2022-05-24 | 中南大学 | 移动机器人室内重定位方法、计算机装置及产品 |
CN114820751A (zh) * | 2022-03-10 | 2022-07-29 | 中国海洋大学 | 用于场景三维重建的方法及装置、三维重建*** |
CN115731287A (zh) * | 2022-09-07 | 2023-03-03 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107063258A (zh) * | 2017-03-07 | 2017-08-18 | 重庆邮电大学 | 一种基于语义信息的移动机器人室内导航方法 |
CN109583457A (zh) * | 2018-12-03 | 2019-04-05 | 荆门博谦信息科技有限公司 | 一种机器人定位与地图构建的方法及机器人 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN110675307A (zh) * | 2019-08-19 | 2020-01-10 | 杭州电子科技大学 | 基于vslam的3d稀疏点云到2d栅格图的实现方法 |
-
2020
- 2020-04-14 CN CN202010291189.XA patent/CN111415417B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107063258A (zh) * | 2017-03-07 | 2017-08-18 | 重庆邮电大学 | 一种基于语义信息的移动机器人室内导航方法 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN109583457A (zh) * | 2018-12-03 | 2019-04-05 | 荆门博谦信息科技有限公司 | 一种机器人定位与地图构建的方法及机器人 |
CN110675307A (zh) * | 2019-08-19 | 2020-01-10 | 杭州电子科技大学 | 基于vslam的3d稀疏点云到2d栅格图的实现方法 |
Non-Patent Citations (2)
Title |
---|
张潇 等: "一种改进的RatSLAM仿生导航算法" * |
邹强 等: "基于生物认知的移动机器人路径规划方法" * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116664B (zh) * | 2020-09-04 | 2024-05-28 | 季华实验室 | 手眼标定轨迹生成方法、装置、电子设备及存储介质 |
CN112116664A (zh) * | 2020-09-04 | 2020-12-22 | 季华实验室 | 手眼标定轨迹生成方法、装置、电子设备及存储介质 |
CN114199243A (zh) * | 2020-09-18 | 2022-03-18 | 浙江舜宇智能光学技术有限公司 | 用于机器人的位姿估计和运动规划方法、装置和机器人 |
CN114199243B (zh) * | 2020-09-18 | 2024-05-24 | 浙江舜宇智能光学技术有限公司 | 用于机器人的位姿估计和运动规划方法、装置和机器人 |
CN112365537B (zh) * | 2020-10-13 | 2023-06-27 | 天津大学 | 一种基于三维点云对齐的主动相机重定位方法 |
CN112365537A (zh) * | 2020-10-13 | 2021-02-12 | 天津大学 | 一种基于三维点云对齐的主动相机重定位方法 |
CN114526739A (zh) * | 2022-01-25 | 2022-05-24 | 中南大学 | 移动机器人室内重定位方法、计算机装置及产品 |
CN114526739B (zh) * | 2022-01-25 | 2024-05-07 | 中南大学 | 移动机器人室内重定位方法、计算机装置及产品 |
CN114440892B (zh) * | 2022-01-27 | 2023-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于拓扑地图和里程计的自定位方法 |
CN114440892A (zh) * | 2022-01-27 | 2022-05-06 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于拓扑地图和里程计的自定位方法 |
CN114820751A (zh) * | 2022-03-10 | 2022-07-29 | 中国海洋大学 | 用于场景三维重建的方法及装置、三维重建*** |
CN115731287B (zh) * | 2022-09-07 | 2023-06-23 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
CN115731287A (zh) * | 2022-09-07 | 2023-03-03 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111415417B (zh) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111415417A (zh) | 一种集成稀疏点云的移动机器人拓扑经验地图构建方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN111795704B (zh) | 一种视觉点云地图的构建方法、装置 | |
Cieslewski et al. | Data-efficient decentralized visual SLAM | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
CN106940704B (zh) | 一种基于栅格地图的定位方法及装置 | |
CN112304307A (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
WO2019157925A1 (zh) | 视觉惯性里程计的实现方法及*** | |
CN107657640A (zh) | 基于orb slam的智能巡防巡检管理方法 | |
WO2021035669A1 (zh) | 位姿预测方法、地图构建方法、可移动平台及存储介质 | |
CN107888828A (zh) | 空间定位方法及装置、电子设备、以及存储介质 | |
CN111127524A (zh) | 一种轨迹跟踪与三维重建方法、***及装置 | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
CN102607532B (zh) | 一种利用飞控数据的低空影像快速匹配方法 | |
CN112802096A (zh) | 实时定位和建图的实现装置和方法 | |
CN111474932B (zh) | 一种集成情景经验的移动机器人建图与导航方法 | |
WO2023087758A1 (zh) | 定位方法、定位装置、计算机可读存储介质和计算机程序产品 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN112967340A (zh) | 同时定位和地图构建方法、装置、电子设备及存储介质 | |
CN114255323A (zh) | 机器人、地图构建方法、装置和可读存储介质 | |
CN114565728A (zh) | 地图构建方法、位姿确定方法及相关装置、设备 | |
WO2023087681A1 (zh) | 定位初始化方法、装置、计算机可读存储介质和计算机程序产品 | |
CN116929338A (zh) | 地图构建方法、设备及存储介质 | |
Eade | Monocular simultaneous localisation and mapping | |
WO2023072269A1 (zh) | 对象跟踪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |