CN110645974B - 一种融合多传感器的移动机器人室内地图构建方法 - Google Patents
一种融合多传感器的移动机器人室内地图构建方法 Download PDFInfo
- Publication number
- CN110645974B CN110645974B CN201910915091.4A CN201910915091A CN110645974B CN 110645974 B CN110645974 B CN 110645974B CN 201910915091 A CN201910915091 A CN 201910915091A CN 110645974 B CN110645974 B CN 110645974B
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- pose
- constructing
- information
- vertex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种融合多传感器的移动机器人室内地图构建方法,包括以下步骤:通过UWB、里程计和激光雷达分别采集移动机器人与锚点的距离信息、移动机器人的位姿信息和环境信息;根据距离信息、位姿信息和环境信息,构建顶点‑约束图;通过图优化算法对顶点‑约束图进行优化,获取优化后的移动机器人轨迹数据;通过优化后的移动机器人轨迹数据和环境信息构建栅格地图。本发明的里程计提供了机器人短时间内精确的位姿变化,融合UWB定位信息能够提供长时间精确的位姿变化,结合激光雷达的数据进行地图构建,解决了激光雷达在构建室内复杂环境地图时精度不高的问题。
Description
技术领域
本发明属于移动机器人室内建图技术领域,具体涉及一种融合多传感器的移动机器人室内地图构建方法。
背景技术
近年来,移动机器人技术在工业领域、医疗领域和服务领域都发挥了重要作用,且在国防和空间探测领域等有害与危险场合也得到了很好的应用。在移动机器人的研究领域中,SLAM一直是一个热门的研究话题,它为机器人提供导航地图和实时位置,而这些都是机器人执行路径规划、路径跟踪的前提,因此它在移动机器人导航中占有十分重要的位置。
由于激光雷达具有精度高、范围广和传输速度快的优点,激光雷达在移动机器人导航应用中日益广泛,基于激光扫描***的室内环境地图的构建技术被广泛地运用到机器人的导航中,常用于机器人定位,环境地图的构建以及路径规划。一般的激光扫描仪价格十分昂贵,虽然目前市面上有很多便宜的激光出现,但是往往测量范围有限,而且分辨率较低。机器人的里程计往往可以通过光电编码器获取,其所带来的误差,会随着时间的增长越来越大,从而造成机器人位姿估计出现严重偏差。所以二维激光雷达在面对复杂的室内环境时建图精度会严重降低。
发明内容
针对现有技术中的上述不足,本发明提供的一种融合多传感器的移动机器人室内地图构建方法解决了现有技术室内建图精度低的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种融合多传感器的移动机器人室内地图构建方法,包括以下步骤:
S1、通过UWB、里程计和激光雷达分别采集移动机器人与锚点的距离信息、移动机器人的位姿信息和环境信息;
S2、根据距离信息、位姿信息和环境信息,构建顶点-约束图;
S3、通过图优化算法对顶点-约束图进行优化,获取优化后的移动机器人轨迹数据;
S4、通过优化后的移动机器人轨迹数据和环境信息构建栅格地图。
进一步地,所述步骤S1包括以下步骤:
S1.1、在移动机器人上搭载UWB标签和激光雷达,所述机器人上设置有里程计和编码器;
S1.2、通过UWB标签采集移动机器人与锚点的距离信息;
S1.3、通过里程计获得机器人的位姿数据,所述里程计通过编码器获取数据;
S1.4、通过激光雷达扫描得到环境信息。
进一步地,所述步骤S2包括以下步骤:
S2.1、根据移动机器人的位姿信息构成顶点,构建基于里程计的边,得到第一初始图;
S2.2、在第一初始图上添加UWB约束,构建基于UWB的边,得到第二初始图;
S2.3、通过环境数据进行闭环检测,在第二初始图上添加基于激光的边,构建激光-闭环边,得到顶点-约束图。
进一步地,所述步骤S2.3中激光-闭环边的构建步骤如下:
A1、构建源点云集合Q={q1,q2,…,qN}和目标点云集合P={p1,p2,…,pN};
A2、构建目标点云集合P的旋转矩阵R和平移矩阵T,通过旋转矩阵R和平移矩阵T构建目标函数E(R,T);
A3、设定一个阈值,并判断E(R,T)是否小于阈值,若是则判断为闭环,并结束本次激光-闭环边的构建,若否则进入步骤A4;
A4、将旋转矩阵R和平移矩阵T代入源点云集合Q中,得到点集M;
A5、将点集M代入目标点云集合P,得到新的旋转矩阵R'和新的平移矩阵T';
A6令R=R',T=T',将更新过后的R和T代入目标函数E(R,T)中,并返回步骤A3。
进一步地,所述目标函数E(R,T)为:
其中,N表示目标点云集合中点的总数,i=1,2,...,N,qi表示源点云集合中的第i个点,pi表示目标点云集合中的第i个点。
进一步地,所述步骤S3中通过图优化算法对顶点-约束图进行优化的具体方法为:调整顶点-约束图中的位姿顶点,使位姿信息的误差函数F(x)最小,得到最大化满足约束的位姿顶点。
进一步地,所述误差函数F(x)为:
其中,xi表示位姿顶点i,xj表示位姿顶点j,C表示图的顶点间存在约束关系的集合,Ωij表示xi和xj之间观察值的信息矩阵,eij(xi,xj,zij)表示xi和xj满足约束zij的程度,zij表示位姿顶点i和位姿顶点j之间通过传感器获取的实际观察值,所述实际观察值zij包括相邻位姿顶点i与位姿顶点j之间的位姿变换、位姿顶点i与锚点j之间的距离和非相邻位姿顶点i与位姿顶点j之间的位姿变换。
进一步地,所述步骤S4包括以下分步骤:
S4.1、根据环境信息,将环境分割为若干个栅格单元;
S4.2、计算每个栅格单元被占用的概率lt,ij,被占用的概率lt,ij大于或等于0.8的栅格单元表示为障碍物,将有障碍物的栅格用灰色表示,将无障碍物的栅格用白色表示,得到栅格地图。
进一步地,所述每个栅格单元被占用的概率lt,ij:
其中,lt-1,ij表示前一刻时间栅格被占用的概率,p(mij|zt,xt)表示栅格mij被占用的后验概率,mij表示横坐标为i纵坐标为j的栅格单元,zt为t时刻的观测值,xt为t时刻移动机器人的位姿。
本发明的有益效果为:
(1)本发明通过UWB、里程计和激光雷达分别采集移动机器人与锚点的距离信息、移动机器人的位姿信息和环境信息进行地图构建,多种传感器采集数据,使构建的地图更为准确。
(2)本发明通过构建顶点-约束图,并用图优化算法对顶点-约束图进行优化,使移动机器人的位姿信息更加准确,为构建精准的室内地图打好了基础。
(3)本发明使用里程计获得了机器人短时间内精确的位姿变化,融合UWB的定位信息能够获得机器人长时间的精确位姿变化,同时结合激光雷达的测量数据进行精准的地图构建,解决了激光雷达在构建室内复杂环境地图时精度不高的问题。
附图说明
图1为本发明提出的一种融合多传感器的移动机器人室内地图构建方法的流程图。
图2为本发明的实验结果对比图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
下面结合附图详细说明本发明的实施例。
如图1所示,一种融合多传感器的移动机器人室内地图构建方法,包括以下步骤:
S1、通过UWB、里程计和激光雷达分别采集移动机器人与锚点的距离信息、移动机器人的位姿信息和环境信息;
S2、根据距离信息、位姿信息和环境信息,构建顶点-约束图;
S3、通过图优化算法对顶点-约束图进行优化,获取优化后的移动机器人轨迹数据;
S4、通过优化后的移动机器人轨迹数据和环境信息构建栅格地图。
步骤S1包括以下步骤:
S1.1、在移动机器人上搭载UWB标签和激光雷达,所述机器人上设置有里程计和编码器;
S1.2、通过UWB标签采集移动机器人与锚点的距离信息;
S1.3、通过里程计获得机器人的位姿数据,所述里程计通过编码器获取数据;
S1.4、通过激光雷达扫描得到环境信息。
步骤S2包括以下步骤:
S2.1、根据移动机器人的位姿信息构成顶点,构建基于里程计的边,得到第一初始图;
S2.2、在第一初始图上添加UWB约束,构建基于UWB的边,得到第二初始图;
S2.3、通过环境数据进行闭环检测,在第二初始图上添加基于激光的边,构建激光-闭环边,得到顶点-约束图。
步骤S2.3中激光-闭环边的计算步骤如下:
A1、构建源点云集合Q={q1,q2,…,qN}和目标点云集合P={p1,p2,…,pN};
A2、构建目标点云集合P的旋转矩阵R和平移矩阵T,通过旋转矩阵R和平移矩阵T构建目标函数E(R,T);
A3、设定一个阈值,并判断E(R,T)是否小于阈值,若是则判断为闭环,并结束本次激光-闭环边的构建,若否则进入步骤A4;
A4、将旋转矩阵R和平移矩阵T代入源点云集合Q中,得到点集M;
A5、将点集M代入目标点云集合P,得到新的旋转矩阵R'和新的平移矩阵T';
A6令R=R',T=T',将更新过后的R和T代入目标函数E(R,T)中,并返回步骤A3。
目标函数E(R,T)为:
其中,N表示目标点云集合中点的总数,i=1,2,...,N,qi表示源点云集合中的第i个点,pi表示目标点云集合中的第i个点。
步骤S3中通过图优化算法对顶点-约束图进行优化的具体方法为:调整顶点-约束图中的位姿顶点,使位姿信息的误差函数F(x)最小,得到最大化满足约束的位姿顶点。
误差函数F(x)为:
其中,xi表示位姿顶点i,xj表示位姿顶点j,C表示图的顶点间存在约束关系的集合,Ωij表示xi和xj之间观察值的信息矩阵,eij(xi,xj,zij)表示xi和xj满足约束zij的程度,zij表示位姿顶点i和位姿顶点j之间通过传感器获取的实际观察值,所述实际观察值zij包括相邻位姿顶点i与位姿顶点j之间的位姿变换、位姿顶点i与锚点j之间的距离和非相邻位姿顶点i与位姿顶点j之间的位姿变换。
步骤S4包括以下分步骤:
S4.1、根据环境信息,将环境分割为若干个栅格单元;
S4.2、计算每个栅格单元被占用的概率lt,ij,被占用的概率lt,ij大于或等于0.8的栅格单元表示为障碍物,将有障碍物的栅格用灰色表示,将无障碍物的栅格用白色表示,得到栅格地图。
所述每个栅格单元被占用的概率lt,ij:
其中,lt-1,ij表示前一刻时间栅格被占用的概率,p(mij|zt,xt)表示栅格mij被占用的后验概率,mij表示横坐标为i纵坐标为j的栅格单元,zt为t时刻的观测值,所述观测值表示激光雷达测量得到的移动机器人与障碍物之间的距离和角度,xt为t时刻移动机器人的位姿。
在本实施例中,实验场景选择为两对边为墙体的走廊。
如图2所示,a图为原始里程计所构建的地图,b图为里程计和UWB共同构建的地图,c图为本发明通过UWB、里程计和激光雷达构建的地图;通过实验结果对比分析,可以发现本发明所构建的地图对墙体的构建更为精准,且有效的识别了障碍物。
本发明通过UWB、里程计和激光雷达分别采集移动机器人与锚点的距离信息、移动机器人的位姿信息和环境信息进行地图构建,多种传感器采集数据,使构建的地图更为准确。
本发明通过构建顶点-约束图,并用图优化算法对顶点-约束图进行优化,使移动机器人的位姿信息更加准确,为构建精准的室内地图打好了基础。
本发明使用里程计获得了机器人短时间内精确的位姿变化,融合UWB的定位信息能够获得机器人长时间的精确位姿变化,同时结合激光雷达的测量数据进行精准的地图构建,解决了激光雷达在构建室内复杂环境地图时精度不高的问题。
Claims (6)
1.一种融合多传感器的移动机器人室内地图构建方法,其特征在于,包括以下步骤:
S1、通过UWB、里程计和激光雷达分别采集移动机器人与锚点的距离信息、移动机器人的位姿信息和环境信息;
S2、根据距离信息、位姿信息和环境信息,构建顶点-约束图;
S3、通过图优化算法对顶点-约束图进行优化,获取优化后的移动机器人轨迹数据;
S4、通过优化后的移动机器人轨迹数据和环境信息构建栅格地图;
所述步骤S2包括以下步骤:
S2.1、根据移动机器人的位姿信息构成顶点,构建基于里程计的边,得到第一初始图;
S2.2、在第一初始图上添加UWB约束,构建基于UWB的边,得到第二初始图;
S2.3、通过环境数据进行闭环检测,在第二初始图上添加基于激光的边,构建激光-闭环边,得到顶点-约束图;
所述步骤S4包括以下分步骤:
S4.1、根据环境信息,将环境分割为若干个栅格单元;
S4.2、计算每个栅格单元被占用的概率lt,ij,将被占用的概率lt,ij大于或等于0.8的栅格单元表示为障碍物,将有障碍物的栅格用灰色表示,将无障碍物的栅格用白色表示,得到栅格地图;
所述每个栅格单元被占用的概率lt,ij为:
其中,lt-1,ij表示前一刻时间栅格被占用的概率,p(mij|zt,xt)表示栅格mij被占用的后验概率,mij表示横坐标为i纵坐标为j的栅格单元,zt为t时刻的观测值,xt为t时刻移动机器人的位姿。
2.根据权利要求1所述的融合多传感器的移动机器人室内地图构建方法,其特征在于,所述步骤S1包括以下步骤:
S1.1、在移动机器人上搭载UWB标签和激光雷达,所述机器人上设置有里程计和编码器;
S1.2、通过UWB标签采集移动机器人与锚点的距离信息;
S1.3、通过里程计获得机器人的位姿数据,所述里程计通过编码器获取数据;
S1.4、通过激光雷达扫描得到环境信息。
3.根据权利要求1所述的融合多传感器的移动机器人室内地图构建方法,其特征在于,所述步骤S2.3中激光-闭环边的构建步骤如下:
A1、构建源点云集合Q={q1,q2,…,qN}和目标点云集合P={p1,p2,…,pN};
A2、构建目标点云集合P的旋转矩阵R和平移矩阵T,通过旋转矩阵R和平移矩阵T构建目标函数E(R,T);
A3、设定一个阈值,并判断E(R,T)是否小于阈值,若是则判断为闭环,并结束本次激光-闭环边的构建,若否则进入步骤A4;
A4、将旋转矩阵R和平移矩阵T代入源点云集合Q中,得到点集M;
A5、将点集M代入目标点云集合P,得到新的旋转矩阵R'和新的平移矩阵T′;
A6令R=R',T=T',将更新过后的R和T代入目标函数E(R,T)中,并返回步骤A3。
5.根据权利要求1所述的融合多传感器的移动机器人室内地图构建方法,其特征在于,所述步骤S3中通过图优化算法对顶点-约束图进行优化的具体方法为:调整顶点-约束图中的位姿顶点,使位姿信息的误差函数F(x)最小,得到最大化满足约束的位姿顶点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910915091.4A CN110645974B (zh) | 2019-09-26 | 2019-09-26 | 一种融合多传感器的移动机器人室内地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910915091.4A CN110645974B (zh) | 2019-09-26 | 2019-09-26 | 一种融合多传感器的移动机器人室内地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110645974A CN110645974A (zh) | 2020-01-03 |
CN110645974B true CN110645974B (zh) | 2020-11-27 |
Family
ID=68992647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910915091.4A Active CN110645974B (zh) | 2019-09-26 | 2019-09-26 | 一种融合多传感器的移动机器人室内地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110645974B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111551184B (zh) * | 2020-03-27 | 2021-11-26 | 上海大学 | 一种移动机器人slam的地图优化方法及*** |
CN111427047B (zh) * | 2020-03-30 | 2023-05-05 | 哈尔滨工程大学 | 一种大场景下自主移动机器人slam方法 |
CN111694006A (zh) * | 2020-05-29 | 2020-09-22 | 杭州电子科技大学 | 一种用于室内无人***的导航传感*** |
CN111862216B (zh) * | 2020-07-29 | 2023-05-26 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN111862162B (zh) * | 2020-07-31 | 2021-06-11 | 湖北亿咖通科技有限公司 | 回环检测方法及***、可读存储介质、电子设备 |
CN111983636A (zh) * | 2020-08-12 | 2020-11-24 | 深圳华芯信息技术股份有限公司 | 位姿融合方法、***、终端、介质以及移动机器人 |
CN112179353B (zh) * | 2020-09-30 | 2023-07-18 | 深圳银星智能集团股份有限公司 | 自移动机器人的定位方法、装置、机器人及可读存储介质 |
CN112325872B (zh) * | 2020-10-27 | 2022-09-30 | 上海懒书智能科技有限公司 | 一种基于多传感器耦合的移动设备的定位方法 |
CN112230243B (zh) * | 2020-10-28 | 2022-04-08 | 西南科技大学 | 一种移动机器人室内地图构建方法 |
CN112362045B (zh) * | 2020-11-19 | 2022-03-29 | 佛山科学技术学院 | 一种基于激光slam建图的装置及内存优化方法 |
CN112578798B (zh) * | 2020-12-18 | 2024-02-27 | 珠海格力智能装备有限公司 | 机器人地图获取方法、装置、处理器和电子装置 |
CN112833876B (zh) * | 2020-12-30 | 2022-02-11 | 西南科技大学 | 一种融合里程计与uwb的多机器人协作定位方法 |
CN112965063B (zh) * | 2021-02-11 | 2022-04-01 | 深圳市安泽智能机器人有限公司 | 一种机器人建图定位方法 |
CN113111081A (zh) * | 2021-04-16 | 2021-07-13 | 四川阿泰因机器人智能装备有限公司 | 一种弱特征环境下的移动机器人建图方法 |
CN113124880B (zh) * | 2021-05-18 | 2023-06-13 | 杭州迦智科技有限公司 | 一种基于两种传感器数据融合的建图及定位方法、装置 |
CN113252042B (zh) * | 2021-05-18 | 2023-06-13 | 杭州迦智科技有限公司 | 一种隧道内基于激光和uwb定位方法、装置 |
CN113311452B (zh) * | 2021-05-26 | 2022-12-30 | 上海新纪元机器人有限公司 | 一种基于多传感器的定位方法及其*** |
CN113640738B (zh) * | 2021-06-24 | 2023-05-09 | 西南科技大学 | 一种结合imu与单组uwb的旋转式目标定位方法 |
CN113670290B (zh) * | 2021-06-30 | 2023-05-12 | 西南科技大学 | 一种基于多机器人协作的移动机器人室内地图构建方法 |
CN113741473A (zh) * | 2021-09-13 | 2021-12-03 | 深圳本云国际发展有限公司 | 光触媒移动机器人及地图构建方法 |
CN113848912A (zh) * | 2021-09-28 | 2021-12-28 | 北京理工大学重庆创新中心 | 基于自主探索的室内地图建立方法及装置 |
CN113916232B (zh) * | 2021-10-18 | 2023-10-13 | 济南大学 | 一种改进图优化的地图构建方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106643720A (zh) * | 2016-09-28 | 2017-05-10 | 深圳市普渡科技有限公司 | 一种基于uwb室内定位技术与激光雷达的地图构建方法 |
CN107179080A (zh) * | 2017-06-07 | 2017-09-19 | 纳恩博(北京)科技有限公司 | 电子设备的定位方法和装置、电子设备、电子定位*** |
CN109059942A (zh) * | 2018-08-22 | 2018-12-21 | 中国矿业大学 | 一种井下高精度导航地图构建***及构建方法 |
CN109848996A (zh) * | 2019-03-19 | 2019-06-07 | 西安交通大学 | 基于图优化理论的大规模三维环境地图创建方法 |
CN109974712A (zh) * | 2019-04-22 | 2019-07-05 | 广东亿嘉和科技有限公司 | 一种基于图优化的变电站巡检机器人建图方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100843085B1 (ko) * | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
-
2019
- 2019-09-26 CN CN201910915091.4A patent/CN110645974B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106643720A (zh) * | 2016-09-28 | 2017-05-10 | 深圳市普渡科技有限公司 | 一种基于uwb室内定位技术与激光雷达的地图构建方法 |
CN107179080A (zh) * | 2017-06-07 | 2017-09-19 | 纳恩博(北京)科技有限公司 | 电子设备的定位方法和装置、电子设备、电子定位*** |
CN109059942A (zh) * | 2018-08-22 | 2018-12-21 | 中国矿业大学 | 一种井下高精度导航地图构建***及构建方法 |
CN109848996A (zh) * | 2019-03-19 | 2019-06-07 | 西安交通大学 | 基于图优化理论的大规模三维环境地图创建方法 |
CN109974712A (zh) * | 2019-04-22 | 2019-07-05 | 广东亿嘉和科技有限公司 | 一种基于图优化的变电站巡检机器人建图方法 |
Non-Patent Citations (1)
Title |
---|
Incremental Mapping of Large Cyclic Environments;Jens-Steffen Gutmann et al.;《Proc the Conference on Intelligent Robots & Applications》;19991231;第318-325页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110645974A (zh) | 2020-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110645974B (zh) | 一种融合多传感器的移动机器人室内地图构建方法 | |
CN107239076B (zh) | 基于虚拟扫描与测距匹配的agv激光slam方法 | |
CN111693047B (zh) | 一种高动态场景下的微小型无人机视觉导航方法 | |
CN112882053B (zh) | 一种主动标定激光雷达和编码器外参的方法 | |
CN104964683B (zh) | 一种室内环境地图创建的闭环校正方法 | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
Zhang et al. | Line-based automatic extrinsic calibration of lidar and camera | |
CN111522022B (zh) | 基于激光雷达的机器人进行动态目标检测方法 | |
CN113108773A (zh) | 一种融合激光与视觉传感器的栅格地图构建方法 | |
CN113776519B (zh) | 一种无光动态开放环境下agv车辆建图与自主导航避障方法 | |
CN112904358B (zh) | 基于几何信息的激光定位方法 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
Ceriani et al. | Pose interpolation slam for large maps using moving 3d sensors | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN111856499B (zh) | 基于激光雷达的地图构建方法和装置 | |
Niewola et al. | PSD–probabilistic algorithm for mobile robot 6D localization without natural and artificial landmarks based on 2.5 D map and a new type of laser scanner in GPS-denied scenarios | |
CN116758153A (zh) | 用于机器人精准位姿获取的基于多因子图的后端优化方法 | |
Ivancsits et al. | Visual navigation system for small unmanned aerial vehicles | |
CN113741550B (zh) | 移动机器人跟随方法和*** | |
CN113376638A (zh) | 一种无人物流小车环境感知方法及*** | |
CN117387604A (zh) | 基于4d毫米波雷达和imu融合的定位与建图方法及*** | |
CN116466712A (zh) | 基于cml-avg激光雷达小车的自主巡航方法及*** | |
CN115950414A (zh) | 一种不同传感器数据的自适应多重融合slam方法 | |
Lee et al. | Development of advanced grid map building model based on sonar geometric reliability for indoor mobile robot localization | |
Zhi et al. | Research on Cartographer Algorithm based on Low Cost Lidar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |