CN109682382A - 基于自适应蒙特卡洛和特征匹配的全局融合定位方法 - Google Patents

基于自适应蒙特卡洛和特征匹配的全局融合定位方法 Download PDF

Info

Publication number
CN109682382A
CN109682382A CN201910149967.9A CN201910149967A CN109682382A CN 109682382 A CN109682382 A CN 109682382A CN 201910149967 A CN201910149967 A CN 201910149967A CN 109682382 A CN109682382 A CN 109682382A
Authority
CN
China
Prior art keywords
pose
particle
laser radar
robot
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910149967.9A
Other languages
English (en)
Other versions
CN109682382B (zh
Inventor
杨帆
章洋
胡丁文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910149967.9A priority Critical patent/CN109682382B/zh
Publication of CN109682382A publication Critical patent/CN109682382A/zh
Application granted granted Critical
Publication of CN109682382B publication Critical patent/CN109682382B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于自适应蒙特卡洛和特征匹配的全局融合定位方法,其包括提取栅格地图中的地图线特征存储至地图特征数据库中;提取非第二帧激光雷达扫描图的扫描图线特征,采用第一帧激光雷达扫描图计算的估算位姿对自适应蒙特卡洛的粒子集位姿初始化;对于第二帧激光雷达扫描图,采用里程计数据、运动模型、激光雷达扫描图和测量模型更新粒子的位姿和权重;对于余下帧激光雷达扫描图,采用激光雷达扫描图计算的估算位姿更新粒子集中部分粒子的初始位姿,之后更新相应粒子的权重,同时采用里程计数据、运动模型、激光雷达扫描图和测量模型更新粒子集中余下部分粒子的位姿和权重,最后将两个更新过位姿和权重的粒子集合并成新的粒子集。

Description

基于自适应蒙特卡洛和特征匹配的全局融合定位方法
技术领域
本发明涉及机器人定位技术领域,具体涉及一种基于自适应蒙特卡洛和特征匹配的全局融合定位方法。
背景技术
移动机器人是指在未知环境或者部分未知环境中,完成环境感知、动态决策与规划、行为控制以及自主移动等功能的装置。对于移动机器人来说,定位就是确定机器人在环境地图中的位姿(包括位置和航向角),它不仅是移动机器人完成环境地图的基本环节,也是机器人实现自主导航的关键技术。
目前机器人在实现全局定位时,仅仅根据传感器信息来估计自身在环境地图中的全局位置,由于没有初始位姿的先验信息,不能使用单峰分布来表示位姿误差,因此全局定位问题比位姿跟踪更困难,而且包含位姿跟踪问题。此外,全局定位问题也至关重要,它能够为移动机器人提供初始位姿,当机器人遇到跟踪失败或者机器人绑架问题时,能够重新定位机器人。
针对机器人的全局定位,目前有采用基于自适应蒙特卡洛(Adaptive MonteCarlo Localization,AMCL)的全局定位算法,其采用输入栅格地图m,激光雷达的观测信息z1:t以及里程计的运动信息u1:t,输出估计位姿其处理的大体思路参考图1,其虽能解决定位失效的问题,但是仍存在如下缺点:
1、定位误差较低,定位误差与随机产生的粒子是否出现在真实位姿的附近有关,AMCL采用的方式是增加粒子数,增加粒子的多样性,另一方面,重采样过程使得粒子的多样性不断减少,当粒子没有出现在真实位姿的附近或者当出现一组不正确的随机粒子的权重大于真实位姿附近的粒子权重时,随着粒子的重采样过程,真实位姿附近的粒子将逐渐耗尽,定位误差也将逐渐增大。
2、粒子数的确定,AMCL使用有限粒子数来估计位姿的后验分布,在对大规模地图进行全局定位中,当粒子数较低时,无法正确的估计位姿的后验分布,当粒子数较高时,将增加定位的时间。
3、定位收敛时间较慢,AMCL需要经过多次的激光雷达的观测信息来更新粒子权重,从而使估算粒子的位姿接近真实位姿。
发明内容
针对现有技术中的上述不足,本发明提供的基于自适应蒙特卡洛和特征匹配的全局融合定位方法解决了现有的自适应蒙特卡洛的全局定位算法存在的缺点。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于自适应蒙特卡洛和特征匹配的全局融合定位方法,其包括:
S1、获取机器人在检测环境行走时生成的栅格地图,并提取栅格地图中的地图线特征存储至地图特征数据库中;
S2、当不存在机器人的激光雷达扫描图和里程计数据输入时,退出全局融合定位;
S3、当存在机器人的激光雷达扫描图和里程计数据输入时,进入步骤S4;
S4、判断当前激光雷达扫描图是否为第一帧、第二帧或余下帧,若是第一帧进入步骤S5,若是第二帧进入步骤S9,若是余下帧进入步骤S12;
S5、提取激光雷达扫描图中的扫描图线特征存储至地图特征模板中,查找地图特征数据库与地图特征模板中长度差小于长度阈值的地图线特征和扫描图线特征;
S6、计算长度差小于长度阈值的地图线特征和扫描图线特征重合时,激光雷达坐标系与栅格地图坐标系的转换关系,并利用转换关系平移和旋转激光雷达坐标系中原点计算得到候选位姿;
S7、计算候选位姿上的所有全局扫描数据点到栅格地图中最近栅格占据点的距离的累加作为候选位姿的匹配拟合度,并将匹配拟合度最小的候选位姿作为估算位姿;
S8、采用第一帧激光雷达扫描图计算的估算位姿对自适应蒙特卡洛的粒子集χt位姿初始化,其中粒子用于评估机器人的位姿,之后返回步骤S4;
S9、根据机器人的里程计数据和运动模型,更新粒子的位姿;根据激光雷达扫描图和测量模型,计算粒子的权重;
S10、根据粒子集χt中粒子的权重和位姿,计算粒子位姿的期望作为机器人的估计位姿,之后计算粒子权重的平均值、长期均值、短期均值及长期均值与短期均值的相对差值;
S11、根据相对差值与零的大小关系,将粒子集χt划分成粒子集和粒子集并对粒子集进行重采样,之后返回步骤S4;
S12、采用步骤S9更新粒子集中粒子的位姿和权重;
S13、根据当前激光雷达扫描图执行步骤S5至步骤S7,并采用得到的估算位姿更新粒子集中粒子的位姿,之后采用当前激光雷达扫描图和测量模型,计算粒子集中粒子的权重;
S14、采用更新了权重和位姿的粒子集和粒子集合并的新粒子集更新粒子集χt,之后返回步骤S10。
进一步地,所述根据相对差值与零的大小关系,将粒子集χt划分成粒子集和粒子集进一步包括:
判断相对差值是否大于零;
若是,则令max=相对差值;否则令max=零;
根据粒子集χt中的总粒子数量M和max,划分粒子集的粒子总数为M·(1-max),粒子集的粒子总数为M·max。
进一步地,所述提取激光雷达扫描图中的扫描图线特征存储至地图特征模板中进一步包括:
计算当前激光雷达扫描图中相邻数据点之间的距离;
判断所述距离是否大于预设阈值;
若是,则将两个数据点划分至不同的区域;否则,将两个数据点划分至同一区域;
采用分割-合并算法提取每个区域覆盖的激光雷达扫描图中的扫描图线特征存储至地图特征模板中。
进一步地,计算候选位姿的匹配拟合度时,全局扫描数据点的获取方法为:
根据候选位姿表征的在重合过程中计算出来的从激光雷达坐标系转换为栅格地图坐标系的平移和旋转量,将激光雷达坐标系中的扫描数据点转换为栅格地图坐标系下的全局扫描数据点。
进一步地,每对长度差小于长度阈值的地图线特征和扫描图线特征重合时,存在四个候选位姿及四个相对应的平移和旋转。
进一步地,更新粒子的位姿的计算公式为:
其中,p(xt|xt-1,ut)为运动模型;ut为里程计数据;xt-1和xt分别为t-1时刻和t时刻的机器人在栅格地图坐标系下的位姿;分别为t-1时刻和t时刻第m个粒子在栅格地图坐标系下的位姿。
进一步地,所述根据机器人的里程计数据和运动模型,更新粒子的位姿进一步包括:
A1、根据里程计数据计算初次旋转δrot1、平移δtrans和第二次旋转δrot2
其中,里程计数据ut表示从t-1时刻到t时刻机器人的相对运动;为t时刻的机器人在其内部坐标系下的位姿,的横坐标,的纵坐标,的航向角;为t时刻的机器人在其内部坐标系下的位姿,的横坐标;的纵坐标;的航向角;atan2(.)为反正切函数;
A2、对初次旋转δrot1、平移δtrans和第二次旋转δrot2进行高斯采样:
其中,sample(σ)表示均值为0,偏差为σ的高斯采样,αi(i=1,…,4)表示给定的参数;
A3、根据上一时刻的位姿xt-1=(x y θ)T和采样的旋转平移量 更新粒子的位姿xt=(x′ y′ θ′)T
其中,x′为更新后机器人的横坐标;y′为更新后机器人的纵坐标;θ′为更新后机器人的航向角。
进一步地,粒子的权重的计算公式为:
其中,p(zt|xt)为激光雷达的测量模型;xt为t时刻的机器人在栅格地图坐标系下的位姿;为t时刻第m个粒子在栅格地图坐标系下的位姿;为t时刻第m个粒子的权重;zt为t时刻激光雷达测量值。
进一步地,所述激光雷达的测量模型为激光雷达测量值的局部测量误差phit与随机测量误差prand和的累乘,K为激光雷达测量数的总和,其计算步骤为:
B1、计算每个测量值的测量误差qk
其中,zhit为局部测量误差权重参数;zrand为随机测量误差权重参数;为激光雷达第k个测量数据;m为栅格地图信息;xt为机器人位姿;prand为随机测量误差;phit为局部测量误差;zmax为激光雷达最大测量距离;为测量的真实距离;为具有均值为标准偏差σhit的正态分布;为归一化因子;zmax为激光雷达的最大测量值;
B2、计算所有测量值的测量误差p(zt|xt):
进一步地,所述估计位姿的计算公式为:
其中,为粒子归一化;为机器人的估计位姿。
本发明的有益效果为:
1、具有较高的定位精度,特征匹配的度量采用全局扫描数据点到栅格地图中最近栅格占据点的距离的累加,与栅格地图特征更贴切,从而使得定位精度更准确。
2、使用粒子数目较少,当蒙特卡洛定位用作于位姿跟踪时,可以用比较少的粒子数完成定位,用作全局定位时,需要比较多的粒子数才能完成定位,由于本方案仅在位姿跟踪时采用蒙特卡洛定位,故使用较少的粒子数来完成位姿跟踪。
3、具有较快的收敛时间,先使用特征匹配完成全局定位,再进行位姿跟踪,使得在全局定位中只用少量的观测信息就能完成收敛,具有较快的收敛时间。
4、具有较低的经济成本,在全局定位时,仅需要传感器上的里程计数据和激光雷达测量数据,无需部署其他任何信标,从而减少***部署成本。
附图说明
图1为现有技术基于自适应蒙特卡洛的全局定位算法的流程图。
图2为本方案的基于自适应蒙特卡洛和特征匹配的全局融合定位方法的流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
参考图2,图2示出了基于自适应蒙特卡洛和特征匹配的全局融合定位方法的流程图;如图2所示,该方法S包括步骤S1至步骤S14。
在步骤S1中,获取机器人在检测环境行走时生成的栅格地图,并提取栅格地图中的地图线特征存储至地图特征数据库中;步骤S1可以进一步细化为:
接收到栅格地图m后,首先将栅格地图m转换为二值图像,图像中的像素值即为栅格地图中的栅格值,之后采用LSD(Line Segment Detector)算法提取栅格地图的线特征,地图线特征是在全局地图坐标系(栅格地图坐标系)下,通过计算栅格地图中每条线段的斜率k,截距b,起点A坐标(x1,y1),终点B坐标(x2,y2),线段长度len五个参数来描述,地图特征数据库记录栅格地图中所有线特征。
在步骤S2中,当不存在机器人的激光雷达扫描图和里程计数据输入时,退出全局融合定位;在步骤S3中,当存在机器人的激光雷达扫描图和里程计数据输入时,进入步骤S4。
在步骤S4中,判断当前激光雷达扫描图是否为第一帧、第二帧或余下帧,若是第一帧进入步骤S5,若是第二帧进入步骤S9,若是余下帧进入步骤S12。
在步骤S5中,提取激光雷达扫描图中的扫描图线特征存储至地图特征模板中,查找地图特征数据库与地图特征模板中长度差小于长度阈值的地图线特征和扫描图线特征。
在本发明的一个实施例中,所述提取激光雷达扫描图中的扫描图线特征存储至地图特征模板中进一步包括:
计算当前激光雷达扫描图中相邻数据点之间的距离;
判断所述距离是否大于预设阈值;
若是,则将两个数据点划分至不同的区域;否则,将两个数据点划分至同一区域;
采用分割-合并算法提取每个区域覆盖的激光雷达扫描图中的扫描图线特征存储至地图特征模板中。
采用上述分成若干区域的方式进行扫描图线特征的提取,可以避免分开合并算法引入错误的线特征。
在步骤S6中,计算长度差小于长度阈值的地图线特征和扫描图线特征重合时,激光雷达坐标系与栅格地图坐标系的转换关系,并利用转换关系平移和旋转激光雷达坐标系中原点计算得到候选位姿。
下面以一个具体的实例对候选位姿的计算进行说明:
以地图特征模板中一条扫描图线特征lM中的线段长度len为标准,在地图特征数据库中寻找长度差小于阈值的地图线特征lD,通过平移和旋转激光雷达坐标系,使得扫描图线特征lM和地图线特征lD能够重合,而将激光雷达坐标系中原点通过上述的平移和旋转后即为候选位姿。
其中每对长度差小于长度阈值的地图线特征和扫描图线特征重合时,存在四个候选位姿及四个相对应的平移和旋转。下面继续以扫描图线特征lM和地图线特征lD为例对四个候选位姿及四个相对应的平移和旋转进行说明:
由于扫描图线特征lM和地图线特征lD的长度不完全相等,则存在四种重合情况,即其中,AM,BM为扫描图线特征lM的起点和终点,AD,BD为地图线特征lD的起点和终点,表示lM和lD重合时,起点AM与起点AD重合,表示lM和lD重合时,起点AM与终点BD重合,表示lM和lD重合时,终点BM与起点AD重合,表示lM和lD重合时,终点BM与终点BD重合。因此,每对线特征lM和lD重合时,会有四个候选位姿以及四个相应的平移和旋转。
在步骤S7中,计算候选位姿上的所有全局扫描数据点到栅格地图中最近栅格占据点的距离的累加作为候选位姿的匹配拟合度,并将匹配拟合度最小的候选位姿作为估算位姿。
其中,选位姿上的所有全局扫描数据点到栅格地图中最近栅格占据点的距离di的计算公式为:
匹配拟合度的计算公式为:
估算位姿为所有候选位姿集中最小匹配拟合度的候选位姿:
其中,(x′,y′)为栅格地图m中占据点的位置,{(x′,y′)}为所有占据点位置的集合,di为全局扫描数据点i到最近栅格占据点的距离;为候选位姿集中的候选位姿,为估算位姿。
实施时,本方案优选计算候选位姿的匹配拟合度时,全局扫描数据点的获取方法为:
根据候选位姿表征的在重合过程中计算出来的从激光雷达坐标系转换为栅格地图坐标系的平移和旋转量,将激光雷达坐标系中的扫描数据点转换为栅格地图坐标系下的全局扫描数据点。
在步骤S8中,采用第一帧激光雷达扫描图计算的估算位姿对自适应蒙特卡洛的粒子集χt位姿初始化,之后返回步骤S4,其中粒子用于评估机器人的位姿;
在步骤S9中,根据机器人的里程计数据和运动模型,更新粒子的位姿;根据激光雷达扫描图和测量模型,计算粒子的权重。
在本发明的一个实施例中,更新粒子的位姿的计算公式为:
其中,p(xt|xt-1,ut)为运动模型;ut为里程计数据;xt-1和xt分别为t-1时刻和t时刻的机器人在栅格地图坐标系下的位姿;分别为t-1时刻和t时刻第m个粒子在栅格地图坐标系下的位姿。
实施时,本方案优选所述根据机器人的里程计数据和运动模型,更新粒子的位姿进一步包括:
A1、根据里程计数据计算初次旋转δrot1、平移δtrans和第二次旋转δrot2
其中,里程计数据ut表示从t-1时刻到t时刻机器人的相对运动;为t时刻的机器人在其内部坐标系下的位姿,的横坐标,的纵坐标,的航向角;为t时刻的机器人在其内部坐标系下的位姿,的横坐标;的纵坐标;的航向角;atan2(.)为反正切函数;
A2、对初次旋转δrot1、平移δtrans和第二次旋转δrot2进行高斯采样:
其中,sample(σ)表示均值为0,偏差为σ的高斯采样,αi(i=1,…,4)表示给定的参数;
A3、根据上一时刻的位姿xt-1=(x y θ)T和采样的旋转平移量 更新粒子的位姿xt=(x′ y′ θ′)T
其中,x′为更新后机器人的横坐标;y′为更新后机器人的纵坐标;θ′为更新后机器人的航向角。
在本发明的一个实施例中,,粒子的权重的计算公式为:
其中,p(zt|xt)为激光雷达的测量模型;xt为t时刻的机器人在栅格地图坐标系下的位姿;为t时刻第m个粒子在栅格地图坐标系下的位姿;为t时刻第m个粒子的权重;zt为t时刻激光雷达测量值。
实施时,本方案优选所述激光雷达的测量模型为激光雷达测量值的局部测量误差phit与随机测量误差prand和的累乘,K为激光雷达测量数的总和,其计算步骤为:
B1、计算每个测量值的测量误差qk
其中,zhit为局部测量误差权重参数;zrand为随机测量误差权重参数;为激光雷达第k个测量数据;m为栅格地图信息;xt为机器人位姿;prand为随机测量误差;phit为局部测量误差;zmax为激光雷达最大测量距离;为测量的真实距离;为具有均值为标准偏差σhit的正态分布;为归一化因子;zmax为激光雷达的最大测量值;
B2、计算所有测量值的测量误差p(zt|xt):
在步骤S10中,根据粒子集χt中粒子的权重和位姿,计算粒子位姿的期望作为机器人的估计位姿,之后计算粒子权重的平均值、长期均值、短期均值及长期均值与短期均值的相对差值。
其中,所述估计位姿的计算公式为:
其中,为粒子归一化;为机器人的估计位姿。
实施时,本方案优选粒子权重的平均值wavg,长期均值wslow,短期均值wfast以及长期均值与短期均值的相对差值wdiff的计算公式分别为:
wslow=wslowslow(wavg-wslow)
wfast=wfastfast(wavg-wfast)
其中,M为粒子集χt的总数,0≤αfast<<αslow,αfast,αslow分别为短期均值和长期均值的衰减率。
在步骤S11中,根据相对差值与零的大小关系,将粒子集χt划分成粒子集和粒子集并对粒子集进行重采样,之后返回步骤S4。
在本发明的一个实施例中,所述根据相对差值与零的大小关系,将粒子集χt划分成粒子集和粒子集进一步包括:
判断相对差值是否大于零;
若是,则令max=相对差值;否则令max=零;
根据粒子集χt中的总粒子数量M和max,划分粒子集的粒子总数为M·(1-max),粒子集的粒子总数为M·max。
在步骤S12中,采用步骤S9更新粒子集中粒子的位姿和权重;
在步骤S13中,根据当前激光雷达扫描图执行步骤S5至步骤S7,并采用得到的估算位姿更新粒子集中粒子的位姿,之后采用当前激光雷达扫描图和测量模型,计算粒子集中粒子的权重;
在步骤S14中,采用更新了权重和位姿的粒子集和粒子集合并的新粒子集更新粒子集χt,之后返回步骤S10。
综上所述,本方案采用MCL与特征匹配相联合进行机器人全局定位,首先先使用特征匹配完成全局定位,再使用MCL完成位姿跟踪,通过该种方式具有定位精准、采用粒子数量少、收敛时间快和经济成本低等优点。

Claims (10)

1.基于自适应蒙特卡洛和特征匹配的全局融合定位方法,其特征在于,包括:
S1、获取机器人在检测环境行走时生成的栅格地图,并提取栅格地图中的地图线特征存储至地图特征数据库中;
S2、当不存在机器人的激光雷达扫描图和里程计数据输入时,退出全局融合定位;
S3、当存在机器人的激光雷达扫描图和里程计数据输入时,进入步骤S4;
S4、判断当前激光雷达扫描图是否为第一帧、第二帧或余下帧,若是第一帧进入步骤S5,若是第二帧进入步骤S9,若是余下帧进入步骤S12;
S5、提取激光雷达扫描图中的扫描图线特征存储至地图特征模板中,查找地图特征数据库与地图特征模板中长度差小于长度阈值的地图线特征和扫描图线特征;
S6、计算长度差小于长度阈值的地图线特征和扫描图线特征重合时,激光雷达坐标系与栅格地图坐标系的转换关系,并利用转换关系平移和旋转激光雷达坐标系中原点计算得到候选位姿;
S7、计算候选位姿上的所有全局扫描数据点到栅格地图中最近栅格占据点的距离的累加作为候选位姿的匹配拟合度,并将匹配拟合度最小的候选位姿作为估算位姿;
S8、采用第一帧激光雷达扫描图计算的估算位姿对自适应蒙特卡洛的粒子集χt位姿初始化,其中粒子用于评估机器人的位姿,之后返回步骤S4;
S9、根据机器人的里程计数据和运动模型,更新粒子的位姿;根据激光雷达扫描图和测量模型,计算粒子的权重;
S10、根据粒子集χt中粒子的权重和位姿,计算粒子位姿的期望作为机器人的估计位姿,之后计算粒子权重的平均值、长期均值、短期均值及长期均值与短期均值的相对差值;
S11、根据相对差值与零的大小关系,将粒子集χt划分成粒子集和粒子集并对粒子集进行重采样,之后返回步骤S4;
S12、采用步骤S9更新粒子集中粒子的位姿和权重;
S13、根据当前激光雷达扫描图执行步骤S5至步骤S7,并采用得到的估算位姿更新粒子集中粒子的位姿,之后采用当前激光雷达扫描图和测量模型,计算粒子集中粒子的权重;
S14、采用更新了权重和位姿的粒子集和粒子集合并的新粒子集更新粒子集χt,之后返回步骤S10。
2.根据权利要求1所述的全局融合定位方法,其特征在于,所述根据相对差值与零的大小关系,将粒子集χt划分成粒子集和粒子集进一步包括:
判断相对差值是否大于零;
若是,则令max=相对差值;否则令max=零;
根据粒子集χt中的总粒子数量M和max,划分粒子集的粒子总数为M·(1-max),粒子集的粒子总数为M·max。
3.根据权利要求1所述的全局融合定位方法,其特征在于,所述提取激光雷达扫描图中的扫描图线特征存储至地图特征模板中进一步包括:
计算当前激光雷达扫描图中相邻数据点之间的距离;
判断所述距离是否大于预设阈值;
若是,则将两个数据点划分至不同的区域;否则,将两个数据点划分至同一区域;
采用分割-合并算法提取每个区域覆盖的激光雷达扫描图中的扫描图线特征存储至地图特征模板中。
4.根据权利要求1所述的全局融合定位方法,其特征在于,计算候选位姿的匹配拟合度时,全局扫描数据点的获取方法为:
根据候选位姿表征的在重合过程中计算出来的从激光雷达坐标系转换为栅格地图坐标系的平移和旋转量,将激光雷达坐标系中的扫描数据点转换为栅格地图坐标系下的全局扫描数据点。
5.根据权利要求1所述的全局融合定位方法,其特征在于,每对长度差小于长度阈值的地图线特征和扫描图线特征重合时,存在四个候选位姿及四个相对应的平移和旋转。
6.根据权利要求1所述的全局融合定位方法,其特征在于,更新粒子的位姿的计算公式为:
其中,p(xt|xt-1,ut)为运动模型;ut为里程计数据;xt-1和xt分别为t-1时刻和t时刻的机器人在栅格地图坐标系下的位姿;分别为t-1时刻和t时刻第m个粒子在栅格地图坐标系下的位姿。
7.根据权利要求6所述的全局融合定位方法,其特征在于,所述根据机器人的里程计数据和运动模型,更新粒子的位姿进一步包括:
A1、根据里程计数据计算初次旋转δrot1、平移δtrans和第二次旋转δrot2
其中,里程计数据ut表示从t-1时刻到t时刻机器人的相对运动;为t时刻的机器人在其内部坐标系下的位姿,的横坐标,的纵坐标,的航向角;为t时刻的机器人在其内部坐标系下的位姿,的横坐标;的纵坐标;的航向角;atan2(.)为反正切函数;
A2、对初次旋转δrot1、平移δtrans和第二次旋转δrot2进行高斯采样:
其中,sample(σ)表示均值为0,偏差为σ的高斯采样,αi(i=1,…,4)表示给定的参数;
A3、根据上一时刻的位姿xt-1=(x y θ)T和采样的旋转平移量 更新粒子的位姿xt=(x′ y′ θ′)T
其中,x′为更新后机器人的横坐标;y′为更新后机器人的纵坐标;θ′为更新后机器人的航向角。
8.根据权利要求1所述的全局融合定位方法,其特征在于,粒子的权重的计算公式为:
其中,p(zt|xt)为激光雷达的测量模型;xt为t时刻的机器人在栅格地图坐标系下的位姿;为t时刻第m个粒子在栅格地图坐标系下的位姿;为t时刻第m个粒子的权重;zt为t时刻激光雷达测量值。
9.根据权利要求8所述的全局融合定位方法,其特征在于,所述激光雷达的测量模型为激光雷达测量值的局部测量误差phit与随机测量误差prand和的累乘,K为激光雷达测量数的总和,其计算步骤为:
B1、计算每个测量值的测量误差qk
其中,zhit为局部测量误差权重参数;zrand为随机测量误差权重参数;为激光雷达第k个测量数据;m为栅格地图信息;xt为机器人位姿;prand为随机测量误差;phit为局部测量误差;zmax为激光雷达最大测量距离;为测量的真实距离;为具有均值为标准偏差σhit的正态分布;为归一化因子;zmax为激光雷达的最大测量值;
B2、计算所有测量值的测量误差p(zt|xt):
10.根据权利要求6-9任一所述的全局融合定位方法,其特征在于,所述估计位姿的计算公式为:
其中,为粒子归一化;为机器人的估计位姿。
CN201910149967.9A 2019-02-28 2019-02-28 基于自适应蒙特卡洛和特征匹配的全局融合定位方法 Active CN109682382B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910149967.9A CN109682382B (zh) 2019-02-28 2019-02-28 基于自适应蒙特卡洛和特征匹配的全局融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910149967.9A CN109682382B (zh) 2019-02-28 2019-02-28 基于自适应蒙特卡洛和特征匹配的全局融合定位方法

Publications (2)

Publication Number Publication Date
CN109682382A true CN109682382A (zh) 2019-04-26
CN109682382B CN109682382B (zh) 2020-09-08

Family

ID=66197011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910149967.9A Active CN109682382B (zh) 2019-02-28 2019-02-28 基于自适应蒙特卡洛和特征匹配的全局融合定位方法

Country Status (1)

Country Link
CN (1) CN109682382B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110208783A (zh) * 2019-05-21 2019-09-06 同济人工智能研究院(苏州)有限公司 基于环境轮廓的智能车辆定位方法
CN110412596A (zh) * 2019-07-10 2019-11-05 上海电机学院 一种基于图像信息和激光点云的机器人定位方法
CN110686676A (zh) * 2019-09-12 2020-01-14 深圳市银星智能科技股份有限公司 机器人重定位方法、装置及机器人
CN110888125A (zh) * 2019-12-05 2020-03-17 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN110986956A (zh) * 2019-12-23 2020-04-10 苏州寻迹智行机器人技术有限公司 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
CN111421548A (zh) * 2020-04-21 2020-07-17 武汉理工大学 一种移动机器人定位方法及***
CN111578958A (zh) * 2020-05-19 2020-08-25 山东金惠新达智能制造科技有限公司 移动机器人导航实时定位方法、***、介质及电子设备
CN111754566A (zh) * 2020-05-12 2020-10-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 机器人场景定位方法和施工操作方法
CN111830985A (zh) * 2020-07-24 2020-10-27 中南大学 一种多机器人定位方法、***及集中式通信***
CN111895990A (zh) * 2020-07-14 2020-11-06 武汉科技大学 一种基于多指标绑架检测及移动机器人重定位的方法
CN112268561A (zh) * 2020-10-12 2021-01-26 西北工业大学 一种融合磁场信息的机器人蒙特卡罗定位方法
CN112325871A (zh) * 2020-09-16 2021-02-05 安徽意欧斯物流机器人有限公司 一种自动导引运输车的激光导航方法
CN112344966A (zh) * 2020-11-24 2021-02-09 深兰科技(上海)有限公司 一种定位失效检测方法、装置、存储介质及电子设备
CN112612862A (zh) * 2020-12-24 2021-04-06 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于点云配准的栅格地图定位方法
CN112750161A (zh) * 2020-12-22 2021-05-04 苏州大学 用于移动机器人的地图更新方法及移动机器人定位方法
CN112781591A (zh) * 2019-11-06 2021-05-11 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
CN112909576A (zh) * 2021-02-02 2021-06-04 西安电子科技大学 分布式大型相控阵天线的平面度控制方法、装置及应用
CN112987027A (zh) * 2021-01-20 2021-06-18 长沙海格北斗信息技术有限公司 一种基于高斯模型的amcl算法的定位方法及存储介质
CN113376650A (zh) * 2021-08-09 2021-09-10 浙江华睿科技股份有限公司 移动机器人定位方法及装置、电子设备及存储介质
CN113932790A (zh) * 2021-09-01 2022-01-14 北京迈格威科技有限公司 一种地图更新方法、装置、***、电子设备及存储介质
CN114199251A (zh) * 2021-12-03 2022-03-18 江苏集萃智能制造技术研究所有限公司 一种机器人的防碰撞定位方法
CN115014352A (zh) * 2022-06-01 2022-09-06 浙江大学 一种基于建议分布地图的室内全局定位方法
CN116399328A (zh) * 2023-04-17 2023-07-07 石家庄铁道大学 一种基于bim的室内移动机器人的地图构建与定位方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101625572A (zh) * 2009-08-10 2010-01-13 浙江大学 基于改进重采样方法和粒子选取的FastSLAM算法
CN102818567A (zh) * 2012-08-08 2012-12-12 浙江大学 集合卡尔曼滤波-粒子滤波相结合的auv组合导航方法
CN104180799A (zh) * 2014-07-15 2014-12-03 东北大学 一种基于自适应蒙特卡罗定位的机器人定位方法
US20150212521A1 (en) * 2013-05-23 2015-07-30 Irobot Corporation Simultaneous Localization And Mapping For A Mobile Robot
CN105509755A (zh) * 2015-11-27 2016-04-20 重庆邮电大学 一种基于高斯分布的移动机器人同步定位与地图构建方法
CN107289951A (zh) * 2017-07-31 2017-10-24 电子科技大学 一种基于惯性导航的室内移动机器人定位方法
CN107390681A (zh) * 2017-06-21 2017-11-24 华南理工大学 一种基于激光雷达与地图匹配的移动机器人实时定位方法
CN108458715A (zh) * 2018-01-18 2018-08-28 亿嘉和科技股份有限公司 一种基于激光地图的机器人定位初始化方法
CN109144056A (zh) * 2018-08-02 2019-01-04 上海思岚科技有限公司 移动机器人的全局自定位方法及设备
WO2019033712A1 (zh) * 2017-08-18 2019-02-21 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及基于该地图的路径规划方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101625572A (zh) * 2009-08-10 2010-01-13 浙江大学 基于改进重采样方法和粒子选取的FastSLAM算法
CN102818567A (zh) * 2012-08-08 2012-12-12 浙江大学 集合卡尔曼滤波-粒子滤波相结合的auv组合导航方法
US20150212521A1 (en) * 2013-05-23 2015-07-30 Irobot Corporation Simultaneous Localization And Mapping For A Mobile Robot
CN104180799A (zh) * 2014-07-15 2014-12-03 东北大学 一种基于自适应蒙特卡罗定位的机器人定位方法
CN105509755A (zh) * 2015-11-27 2016-04-20 重庆邮电大学 一种基于高斯分布的移动机器人同步定位与地图构建方法
CN107390681A (zh) * 2017-06-21 2017-11-24 华南理工大学 一种基于激光雷达与地图匹配的移动机器人实时定位方法
CN107289951A (zh) * 2017-07-31 2017-10-24 电子科技大学 一种基于惯性导航的室内移动机器人定位方法
WO2019033712A1 (zh) * 2017-08-18 2019-02-21 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及基于该地图的路径规划方法
CN108458715A (zh) * 2018-01-18 2018-08-28 亿嘉和科技股份有限公司 一种基于激光地图的机器人定位初始化方法
CN109144056A (zh) * 2018-08-02 2019-01-04 上海思岚科技有限公司 移动机器人的全局自定位方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SONG XU 等: ""An Improved Indoor Localization Method for Mobile Robot Based on WiFi Fingerprint and AMCL"", 《2017 10TH INTERNATIONAL SYMPOSIUM ON COMPUTATIONAL INTELLIGENCE AND DESIGN 》 *
操凤萍 等: ""基于自适应蒙特卡洛算法的实时定位研究"", 《计算机工程》 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110208783A (zh) * 2019-05-21 2019-09-06 同济人工智能研究院(苏州)有限公司 基于环境轮廓的智能车辆定位方法
CN110412596A (zh) * 2019-07-10 2019-11-05 上海电机学院 一种基于图像信息和激光点云的机器人定位方法
CN110686676A (zh) * 2019-09-12 2020-01-14 深圳市银星智能科技股份有限公司 机器人重定位方法、装置及机器人
CN112781591A (zh) * 2019-11-06 2021-05-11 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
CN110888125A (zh) * 2019-12-05 2020-03-17 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN110888125B (zh) * 2019-12-05 2020-06-19 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN110986956A (zh) * 2019-12-23 2020-04-10 苏州寻迹智行机器人技术有限公司 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
CN110986956B (zh) * 2019-12-23 2023-06-30 苏州寻迹智行机器人技术有限公司 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
CN111421548A (zh) * 2020-04-21 2020-07-17 武汉理工大学 一种移动机器人定位方法及***
CN111421548B (zh) * 2020-04-21 2021-10-19 武汉理工大学 一种移动机器人定位方法及***
CN111754566A (zh) * 2020-05-12 2020-10-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 机器人场景定位方法和施工操作方法
CN111578958A (zh) * 2020-05-19 2020-08-25 山东金惠新达智能制造科技有限公司 移动机器人导航实时定位方法、***、介质及电子设备
CN111895990A (zh) * 2020-07-14 2020-11-06 武汉科技大学 一种基于多指标绑架检测及移动机器人重定位的方法
CN111830985A (zh) * 2020-07-24 2020-10-27 中南大学 一种多机器人定位方法、***及集中式通信***
CN112325871A (zh) * 2020-09-16 2021-02-05 安徽意欧斯物流机器人有限公司 一种自动导引运输车的激光导航方法
CN112268561A (zh) * 2020-10-12 2021-01-26 西北工业大学 一种融合磁场信息的机器人蒙特卡罗定位方法
CN112344966A (zh) * 2020-11-24 2021-02-09 深兰科技(上海)有限公司 一种定位失效检测方法、装置、存储介质及电子设备
CN112750161A (zh) * 2020-12-22 2021-05-04 苏州大学 用于移动机器人的地图更新方法及移动机器人定位方法
CN112750161B (zh) * 2020-12-22 2023-11-03 苏州大学 用于移动机器人的地图更新方法
CN112612862A (zh) * 2020-12-24 2021-04-06 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于点云配准的栅格地图定位方法
CN112987027A (zh) * 2021-01-20 2021-06-18 长沙海格北斗信息技术有限公司 一种基于高斯模型的amcl算法的定位方法及存储介质
CN112987027B (zh) * 2021-01-20 2024-03-15 长沙海格北斗信息技术有限公司 一种基于高斯模型的amcl算法的定位方法及存储介质
CN112909576B (zh) * 2021-02-02 2022-04-15 西安电子科技大学 分布式大型相控阵天线的平面度控制方法、装置及应用
CN112909576A (zh) * 2021-02-02 2021-06-04 西安电子科技大学 分布式大型相控阵天线的平面度控制方法、装置及应用
CN113376650A (zh) * 2021-08-09 2021-09-10 浙江华睿科技股份有限公司 移动机器人定位方法及装置、电子设备及存储介质
CN113932790A (zh) * 2021-09-01 2022-01-14 北京迈格威科技有限公司 一种地图更新方法、装置、***、电子设备及存储介质
CN114199251A (zh) * 2021-12-03 2022-03-18 江苏集萃智能制造技术研究所有限公司 一种机器人的防碰撞定位方法
CN114199251B (zh) * 2021-12-03 2023-09-15 江苏集萃智能制造技术研究所有限公司 一种机器人的防碰撞定位方法
CN115014352A (zh) * 2022-06-01 2022-09-06 浙江大学 一种基于建议分布地图的室内全局定位方法
CN116399328A (zh) * 2023-04-17 2023-07-07 石家庄铁道大学 一种基于bim的室内移动机器人的地图构建与定位方法
CN116399328B (zh) * 2023-04-17 2024-06-21 石家庄铁道大学 一种基于bim的室内移动机器人的地图构建与定位方法

Also Published As

Publication number Publication date
CN109682382B (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
CN109682382A (zh) 基于自适应蒙特卡洛和特征匹配的全局融合定位方法
Awrangjeb et al. An automatic and threshold-free performance evaluation system for building extraction techniques from airborne LIDAR data
EP2249311B1 (en) Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
CN108801268A (zh) 目标对象的定位方法、装置及机器人
CN110501010A (zh) 确定移动设备在地理区域中的位置
CN109544612A (zh) 基于特征点几何表面描述的点云配准方法
CN104838281A (zh) 基于虚拟地标的定位和建图
CN104536009A (zh) 一种激光红外复合的地面建筑物识别及导航方法
Zhang et al. Entropy based feature selection scheme for real time simultaneous localization and map building
Li et al. Semiautomatic airport runway extraction using a line-finder-aided level set evolution
Hou et al. Handheld 3D reconstruction based on closed-loop detection and nonlinear optimization
Christensen et al. 3-d modelling and robot localization from visual and range data in natural scenes
Zhang et al. Continuous indoor visual localization using a spatial model and constraint
Wietrzykowski et al. Adopting the FAB-MAP algorithm for indoor localization with WiFi fingerprints
Haner et al. Optimal view path planning for visual SLAM
Sohn et al. Sequential modelling of building rooftops by integrating airborne LiDAR data and optical imagery: preliminary results
CN107808160B (zh) 三维建筑物提取方法和装置
Olson Landmark selection for terrain matching
Ginhoux et al. Model-based object tracking using stereo vision
Rossmann et al. Semantic navigation maps for mobile robot localization on planetary surfaces
Rossmann et al. Advanced self-localization and navigation for mobile robots in extraterrestrial environments
Lu et al. Autonomous vision-based safe area selection algorithm for UAV emergency forced landing
Persson et al. Fusion of aerial images and sensor data from a ground vehicle for improved semantic mapping
Inostroza et al. Semantic feature detection statistics in set based simultaneous localization and mapping
Brink et al. FastSLAM with stereo vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant