CN105865449B - 基于激光和视觉的移动机器人的混合定位方法 - Google Patents

基于激光和视觉的移动机器人的混合定位方法 Download PDF

Info

Publication number
CN105865449B
CN105865449B CN201610198296.1A CN201610198296A CN105865449B CN 105865449 B CN105865449 B CN 105865449B CN 201610198296 A CN201610198296 A CN 201610198296A CN 105865449 B CN105865449 B CN 105865449B
Authority
CN
China
Prior art keywords
mobile robot
time
particle
probability
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610198296.1A
Other languages
English (en)
Other versions
CN105865449A (zh
Inventor
邓龙
李崇国
杨勇
宫海涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen City, Shan Chuan robot Co., Ltd.
Original Assignee
Shenzhen 3irobotix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen 3irobotix Co Ltd filed Critical Shenzhen 3irobotix Co Ltd
Priority to CN201610198296.1A priority Critical patent/CN105865449B/zh
Publication of CN105865449A publication Critical patent/CN105865449A/zh
Application granted granted Critical
Publication of CN105865449B publication Critical patent/CN105865449B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明揭示了一种基于激光和视觉的移动机器人的混合定位方法,所述移动机器人包括激光雷达和视觉传感器,本发明根据激光雷达采集的数据和视觉传感器采集的数据对各粒子的预测位置的权值进行更新,然后对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。与现有技术相比,本发明技术方案综合了激光雷达的精度高特性和视觉的信息完整性,可适用范围更广,并弥补了视觉定位不稳定的缺点;此外,在本发明的一个实施例中还对传统的粒子滤波采样模型进行了改进,使粒子的多样性得到了保证。

Description

基于激光和视觉的移动机器人的混合定位方法
技术领域
本发明涉及移动机器人的定位方法,特别是基于激光和视觉的移动机器人的混合定位方法。
背景技术
随着移动机器人的不断发展,同时定位与建图(SLAM)已经成为了移动机器人发展的一个重大命题。如何解决此问题,有多种方法,从模型上分,分为概率定位模型(如粒子滤波)和绝对定位模型(如GPS)等;从地图来分有栅格地图,拓扑地图等;从传感器角度分有超声定位,激光雷达定位,视觉定位等。
概率模型内存和CPU的限制,绝对定位模型需要一些设备如:人工信标,或者一些特殊环境,如室内就不适合GPS;栅格地图会存在着栅格误差,拓扑地图维护成本比较大,摧毁后难以恢复;超声存在着精度问题;目前正常的激光雷达都是二维激光雷达,维度低,对环境的识别度不高;视觉定位主要有基于特征的定位,基于三维图匹配的定位,基于三维点簇的定位等,视觉定位算法目前不是很成熟。
但是,对于移动机器人来说,定位不仅要有一定的精度,并且对于快速性也有很高的要求。
基于上述问题,发明人分别基于激光雷达定位和视觉定位的现有成果,综合考虑激光雷达的快速准确优点和视觉传感器信息丰富的优点,通过粒子滤波算法,实现移动机器人的快速、精确的定位。
发明内容
本发明专利申请的目的在于提供一种用于移动机器人的快速、精确的定位方法,以解决背景技术中的问题。
为达到以上目的,本发明专利申请的技术方案如下:
S1:初始化各粒子位置及各粒子的栅格地图和视觉特征地图,建立各粒子的全局栅格地图和全局视觉特征地图;
S2:初始化移动机器人的位置Pt0及建立移动机器人的激光雷达全局点图;
S3:根据里程计和陀螺仪得到移动机器人在t时刻的预测位置Pt
S4:根据移动机器人的估计位置Pt和激光雷达在t时刻采集到的数据得到修正后的预测位置P't
S5:根据移动机器人在t-1时刻和t时刻的位置变化和各粒子在t-1时刻的位置,采样得到t时刻各粒子的估计位置;
S6:根据t时刻激光雷达采集的数据得到t时刻各粒子的估计位置的概率PL;
S7:根据t时刻视觉传感器采集的图像得到t时刻各粒子的估计位置的概率PV;
S8:根据各粒子的估计位置的概率PL、PV对粒子权值进行更新;
S9:对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。
与现有技术相比,本发明申请具有以下优点:
1、本发明技术方案综合了激光雷达的精度高特性和视觉的信息完整性,可适用范围更广(室内室外都可),通过激光雷达与视觉传感器的结合,弥补了视觉定位不稳定的缺点;
2、本发明技术方案对传统的粒子滤波采样模型进行了改进,使粒子的多样性得到了保证;
3、本发明技术方案因引入自适应因子,可根据环境的情况实时调度激光雷达与视觉传感器的权重。
附图说明
图1为本发明申请的流程图;
图2为本发明实施例中的移动机器人的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明方案进行进一步详细说明。
如图2所示,本实施例中的移动机器人包括里程计、陀螺仪、激光雷达、摄像机(视觉传感器)、驱动***和核心控制板(MCU),具体地,本实施例中的驱动***由左、右轮构成,并分别由不同的马达驱动,应该可以理解的是,移动机器人还可包括其他部分(如吸尘***、传感器***、报警***等),由于与本发明的技术方案无关,因此不在此说明。
如图1所示,本发明移动机器人的基于粒子滤波算法的定位方法包括以下步骤:
S1:初始化各粒子位置及各粒子的栅格地图和视觉特征地图,建立各粒子的全局栅格地图和全局视觉特征地图。
初始化各粒子位置及各粒子的栅格地图的过程如下:
在栅格地图中,将移动机器人的初始位置坐标设定为(0,0,0),则在坐标点(0,0,0)附近随机生成由N个粒子s0 k、权值为w0 k的组成的粒子集S0={s0 k, w0 k},其中k=1,2,...N,这N个粒子都是移动机器人下一时刻可能达到的位置,由于不知道移动机器人的运动速度和方向,假定移动机器人下个时刻到这些粒子的概率相等,因此各粒子的概率为1/N,在本实施例中,粒子N的个数为50个,因此S0={s0 k, 0.02}。由于此时移动机器人的各粒子只有一个栅格地图,因此可将该栅格地图作为各粒子的全局栅格地图进行存储。
初始化各粒子的视觉特征地图的过程如下:
将视觉传感器(如摄像机)采集的图像通过SIFT算法,建立图像金字塔,并对每层金字塔提取特征,然后得到128维描述子的视觉特征地图。同样地,由于此时各粒子只有一个视觉特征地图,因此将其作为各粒子的全局视觉特征地图进行存储。
S2:初始化移动机器人的位置Pt0及建立移动机器人的激光雷达全局点图。
激光雷达可以直接获得环境的水平剖面图,测得的环境点的信息是2D极坐标,表示为,其中,r表示2D激光雷达扫描获得的距离值,Ψ为水平扫描角。激光雷达通过TOF、三角测距等原理将移动机器人在位置Pt0的障碍信息转换为特征点坐标,由此建立起初始的激光雷达全局点图并存储。
S3:根据里程计和陀螺仪得到移动机器人在t时刻的预测位置Pt。
本步骤是通过以下子步骤实现的:
S31:通过航迹推算得到移动机器人的预测位置Pt=[x(t),y(t),theta(t)],航迹推算公式如下:
Figure 64022DEST_PATH_IMAGE001
其中,[x(t), y(t)]为移动机器人t时刻的位置,theta(t)为移动机器人t时刻航向,[x(t-1) y(t-1)]为移动机器人t-1时刻的位置,theta(t-1)为移动机器人t-1时刻航向,sr(t-1)、sl(t-1)为移动机器人t-1时刻到t时刻右轮、左轮行走的距离,b为左、右轮之间的轮轴距。
为了便于理解,假设t-1时刻为移动机器人初始化的时刻,移动机器人在初始化时朝着x轴正方向,因此,[x(t-1) , y(t-1) ,theta(t-1)]=[0,0,0],进而得到[x(t) , y(t),theta(t)]= [(sr(t-1)+sl(t-1))/2,0, (sr(t-1)+sl(t-1))/b]。
S32:陀螺仪更新航迹推算所得到的航向theta(t);
theta(t)=thetaG(t),其中thetaG(t)为t时刻陀螺仪的读数,本实施例中直接用陀螺仪读数替换了里程计航迹推导出来的角度theta(t),原因是陀螺仪得到的角度非常高。
S4:根据移动机器人的估计位置Pt和激光雷达在t时刻采集到的数据得到修正后的预测位置P't
步骤S4是通过以下方式实现的:
S41:将t时刻采集到的激光雷达数据坐标转换到激光雷达全局点图;
XG(k)=XL(k)*cos(theta(t))-YL(k)*sin(theta(t))+x(t);
YG(k)=XL(k)*sin(theta(t))+YL(k)*cos(theta(t))+y(t);
其中[XL(k),YL(k)]为当前移动机器人位置激光雷达采到的某一个(第k个)数据;[XG(k),YL(k)]为将第k个数据转换到全局的全局坐标;[x(t),y(t),theta(t)]为t时刻移动机器人的位置和航向,即Pt
S42:对转换后的各激光雷达数据坐标寻找满足阈值条件的匹配点,并保存所有的匹配对;
每个转换后的激光雷达数据坐标只有一个匹配点。比如一个点在10cm范围(阈值一般10cm或者5cm)内有多个匹配点存在,那就选取离它最近的那个匹配点,如果存在两个或两个以上的最近匹配点,则随机选择一个。
S43:通过最小二乘法求得使匹配对模型函数最小的移动机器人位置;
即通过里程计和陀螺仪结合运动模型计算出来的初始预测Pt,再融合激光定位算法,通过ICP匹配相连俩帧激光数据,通过最小二乘法得到修正后的移动机器人预测位置,具体如下:
Figure 512321DEST_PATH_IMAGE002
Figure 823217DEST_PATH_IMAGE003
其中X为所有匹配对的局部坐标,即激光雷达采集到的数据,坐标转换之前的坐标所组成的矩阵;X形式为
Figure 749584DEST_PATH_IMAGE004
;Y为所有匹配对的全局坐标,即采集到的数据匹配上的全局地图上的点组成的矩阵,Y的形式为:
Figure 563957DEST_PATH_IMAGE005
,XT,YT为X,Y的转置;A为转换关系,A的形式为
Figure 917578DEST_PATH_IMAGE006
,其中[x(t),y(t),theta(t)]为t时刻移动机器人位置;
S44:重复步骤S41至S43直到移动机器人位置收敛,得到修正后的移动机器人位姿P't
此处的收敛条件是通过迭代计算得到的移动机器人位置和航向几乎不再发生变化,即在在极小的范围(可以忽略不计的范围)内波动或者不再变化。
S5:根据移动机器人在t-1时刻和t时刻的位置变化和各粒子在t-1时刻的位置,采样得到t时刻各粒子的估计位置。
如果t时刻是第一次对移动个机器人进行定位,在t-1时刻为移动机器人初始化的时刻,具体实现过程如下:
xp(i,t)=xp(i,t-1)+(x(t)-x(t-1));yp(i,t)=yp(i,t-1)+(y(t)-y(t-1));
其中[xp(i,t) yp(i,t)],[xp(i,t-1) yp(i,t-1)]分别为某一个粒子(第i个粒子)t时刻和t-1时刻的位置;[x(t) y(t)],[x(t-1) y(t-1)]为ICP定位出来的移动机器人t时刻和t-1时刻的位置。
S6:根据t时刻激光雷达采集的数据得到t时刻各粒子的估计位置的概率PL;
步骤S6在本实施例中根据scan matching算法得到t时刻各粒子位置坐标的估计概率PL,具体实现过程如下:
S61:采集t时刻激光雷达扫描的数据信息并通过某一粒子的位置坐标转换到该粒子全局坐标系;
XG(k)=XL(k)*cos(thetap(i,t))-YL(k)*sin(theta(i))+xp(i,t);
YG(k)=XL(k)*sin(thetap(i,t))+YL(k)*cos(theta(i))+yp(i,t);
其中[XL(k),YL(k)]为当前移动机器人位置激光雷达采到的某一个(第k个)数据;[XG(k),YL(k)]为将第k个数据转换到全局坐标系(即世界坐标系)的全局坐标,即在全局坐标系(即世界坐标系)形成一个坐标点,在下面简称为点图;[xp(i,t),yp(i,t),thetap(i,t)]为某一个粒子(第i个粒子)t时刻的位置和航向。
S62:将转换后得到的点图转换为该粒子的概率栅格地图;
该步骤在本实施例中的具体如下:
首先,将转换后的点图中各位置的概率设置为0.5;接着,将0.5用log算子log化得到log形式概率PL(xg,yg)=log(P(xg,yg)/(1-P(xg,yg))),其中P(x,y)为log化之后位置(xg,yg)的log概率,P(xg,yg)为真实概率即转换之前的概率;然后,转换采集到的数据到栅格地图:
xgrid(k)=XG(k)/d;ygrid(k)=YG(k)/d;其中,[XG(k),YG(k)]步骤S61得到的某一个数据的在全局坐标系下的全局坐标;d为栅格的分辨率(一般为5cm);[xgrid(k) ygrid(k)]为转换之后的栅格位置;再按照二维高斯分布得到此栅格位置周围3*3范围内的概率;最后将得到的概率用log算子公式转换为log形式概率;从而各栅格位置log形式概率为
PL(xg,yg)=PLb(xg,yg)+PLa(xg,yg);其中PL(xg,yg),PLb(xg,yg),PLa(xg,yg)分别为位置[xg,yg]处的更新之后,更新之前,和要更新进去(加入进去)的概率。
S63:通过条件概率公式和log算子得到该粒子的位置坐标的估计概率pl;
先将各栅格位置的概率从log形式转换到真实概率,即用上面log化算子的反函数转换到真实概率;
P(xg,yg)=1-1/(1+exp(PL(xg,yg));其中exp为自然指数函数;然后根据
Figure 715769DEST_PATH_IMAGE007
得到pl的估计概率。
S64:重复步骤S61至S63直到完成所有粒子的位置坐标的估计概率。
S7:根据t时刻视觉传感器采集的图像得到t时刻各粒子的估计位置的概率PV。
S71:对t时刻采集到的视觉图像进行高斯滤波得到高斯金字塔;
将摄像机采集的图像通过SIFT算法,建立图像金字塔,并对每层金字塔提取特征,然后得到128维描述子的视觉特征地图。
S72:寻找关键点并删除错误的关键点;
关键点就是突变点,或者说局部极值点(分界点),错误的关键点即是不能完全满足突变点的条件的点,它满足一部分,有可能一开始会被误选中。由于关键点的寻找和错误点的删除是本领域技术人员的一般常识,在这里就不详细说明了。
S73:求得关键点的主方向并生成SIFT描述子,从而得到特征地图;
S74:由t时刻的各粒子的位置坐标将特征地图进行坐标转换,从而得到各粒子的视觉特征地图;
S75:通过匹配各粒子的视觉特征地图和全局视觉特征地图得到各粒子的估计位置的概率PV;
S8:根据各粒子的估计位置的概率PL、PV对粒子权值进行更新。
对各粒子的权值更新过程如下:
S81:根据t时刻各粒子的栅格地图匹配率得到t时刻栅格地图匹配率的分布;
S82:根据t时刻各粒子的视觉特征地图匹配率得到t时刻视觉特征地图匹配率的分布;
S83:通过联合概率抽样统计方法得到自适应因子omega;
S84:由自适应因子omega加权各粒子的激光雷达栅格地图估计概率PL和视觉特征地图估计概率PV,得到各粒子的概率P(k),计算公式如下:
Figure 445828DEST_PATH_IMAGE008
,其中,P(k)为第k个粒子的权值,PL(k),PV(k)分别为第k个粒子激光雷达地图概率和视觉特征地图概率。
S9:对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。
通过设定阈值,舍弃权值小于阈值的粒子,复制权值高的粒子,使得粒子总数保持不变。
以上是本发明的较佳实施例的详细说明,不认定本发明只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下所作出的等同替代或明显变形,且性能或用途相同,都应当视为本发明所提交的权利要求书确定的保护范围内。

Claims (6)

1.一种基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述移动机器人包括里程计和陀螺仪、激光雷达和视觉传感器,所述方法包括以下步骤:
S1:初始化各粒子位置及各粒子的栅格地图和视觉特征地图,建立各粒子的全局栅格地图和全局视觉特征地图;
S2:初始化移动机器人的位置Pt0及建立移动机器人的激光雷达全局点图;
S3:根据里程计和陀螺仪得到移动机器人在t时刻的预测位置Pt
S4:根据移动机器人的预测位置Pt和激光雷达在t时刻采集到的数据得到修正后的预测位置P’t
S5:根据移动机器人在t-1时刻和t时刻的位置变化和各粒子在t-1时刻的位置,采样得到t时刻各粒子的估计位置;
S6:根据t时刻激光雷达采集的数据得到t时刻各粒子的估计位置的概率PL;
S7:根据t时刻视觉传感器采集的图像得到t时刻各粒子的估计位置的概率PV;
S8:根据各粒子的估计位置的概率PL、PV对粒子权值进行更新;
S9:对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。
2.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述移动机器人为包括左右轮的移动机器人,所述步骤S2包括以下子步骤:
S31:通过航迹推算得到移动机器人的位姿Pi[x(t),y(t),theta(t)],航迹推算公式如下:
Figure FDA0002218840980000021
Figure FDA0002218840980000022
Figure FDA0002218840980000023
其中,[x(t),y(t)]为移动机器人t时刻的位置,theta(t)为移动机器人t时刻航向,[x(t-1)y(t-1)]为移动机器人t-1时刻的位置,theta(t-1)为移动机器人t-1时刻航向,sr(t-1)、sl(t-1)为移动机器人t-1时刻到t时刻右轮、左轮行走的距离,b为左、右轮之间的轮轴距;
S32:陀螺仪更新航迹推算所得到的航向theta(t)。
3.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S4包括以下子步骤:
S41:将t时刻采集到的激光雷达数据坐标转换到激光雷达全局点图;
S42:对转换后的各激光雷达数据坐标寻找满足阈值条件的匹配点,并保存所有的匹配对;
S43:通过最小二乘法求得使匹配对模型函数最小的移动机器人位置;
S44:重复步骤S41至S43直到移动机器人位置收敛,得到修正后的移动机器人位姿P't。
4.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S6包括:
S61:采集t时刻激光雷达扫描的数据信息并通过某一粒子的位置坐标转换到该粒子全局坐标系;
S62:将转换后得到的点图转换为该粒子的概率栅格地图;
S63:通过条件概率公式和log算子得到该粒子的位置坐标的估计概率pl;
S64:重复步骤S61至S63直到完成所有粒子的位置坐标的估计概率。
5.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S7包括:
S71:对t时刻采集到的视觉图像进行高斯滤波得到高斯金字塔;
S72:寻找关键点并删除错误的关键点;
S73:求得关键点的主方向并生成SIFT描述子,从而得到特征地图;
S74:由t时刻的各粒子的位置坐标将特征地图进行坐标转换,从而得到各粒子的视觉特征地图;
S75:通过匹配各粒子的视觉特征地图和全局视觉特征地图得到各粒子的估计位置的概率PV。
6.如权利要求1所述的基于激光和视觉的移动机器人的混合定位方法,其特征在于,所述步骤S8包括:
S81:根据t时刻各粒子的栅格地图匹配率得到t时刻栅格地图匹配率的分布;
S82:根据t时刻各粒子的视觉特征地图匹配率得到t时刻视觉特征地图匹配率的分布;
S83:通过联合概率抽样统计方法得到自适应因子omega;
S84:由自适应因子omega加权各粒子的激光雷达栅格地图估计概率PL和视觉特征地图估计概率PV,得到各粒子的概率P(k),计算公式如下:
P(k)=PL(k)*omega+(1-omega)*PV(k)
其中,P(k)为第k个粒子的权值,PL(k),PV(k)分别为第k个粒子激光雷达地图概率和视觉特征地图概率。
CN201610198296.1A 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法 Active CN105865449B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610198296.1A CN105865449B (zh) 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610198296.1A CN105865449B (zh) 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法

Publications (2)

Publication Number Publication Date
CN105865449A CN105865449A (zh) 2016-08-17
CN105865449B true CN105865449B (zh) 2020-05-05

Family

ID=56626757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610198296.1A Active CN105865449B (zh) 2016-04-01 2016-04-01 基于激光和视觉的移动机器人的混合定位方法

Country Status (1)

Country Link
CN (1) CN105865449B (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106525025B (zh) * 2016-10-28 2019-10-11 武汉大学 一种变电站巡检机器人路线规划导航方法
CN106597435A (zh) * 2016-12-08 2017-04-26 北京康力优蓝机器人科技有限公司 实现基于粒子滤波slam算法的方法及***
CN106950985B (zh) * 2017-03-20 2020-07-03 成都通甲优博科技有限责任公司 一种自动送货方法及装置
CN107218939B (zh) * 2017-06-04 2018-10-09 安徽果力智能科技有限公司 一种基于运动分解的移动机器人航迹推算定位方法
CN107390681B (zh) * 2017-06-21 2019-08-20 华南理工大学 一种基于激光雷达与地图匹配的移动机器人实时定位方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及***
CN109323701A (zh) * 2017-08-01 2019-02-12 郑州宇通客车股份有限公司 基于地图与多传感器检测相结合的定位方法及***
CN107589749B (zh) * 2017-09-19 2019-09-17 浙江大学 水下机器人自主定位与节点地图构建方法
CN107741745B (zh) * 2017-09-19 2019-10-22 浙江大学 一种实现移动机器人自主定位与地图构建的方法
CN107677279B (zh) * 2017-09-26 2020-04-24 上海思岚科技有限公司 一种定位建图的方法及***
CN107450080B (zh) * 2017-09-27 2019-11-08 北京特种机械研究所 基于视觉定位及激光测距的两车自动对接方法
CN107907124B (zh) * 2017-09-30 2020-05-15 杭州迦智科技有限公司 基于场景重识的定位方法、电子设备、存储介质、***
CN109765569B (zh) * 2017-11-09 2022-05-17 电子科技大学中山学院 一种基于激光雷达实现虚拟航迹推算传感器的方法
CN108088446B (zh) * 2017-12-01 2019-07-19 合肥优控科技有限公司 移动机器人航向角检测方法、装置与计算机可读存储介质
CN108151727B (zh) * 2017-12-01 2019-07-26 合肥优控科技有限公司 移动机器人定位方法、***与计算机可读存储介质
CN108007453A (zh) * 2017-12-11 2018-05-08 北京奇虎科技有限公司 基于点云的地图更新方法、装置及电子设备
CN109960254B (zh) * 2017-12-25 2022-09-23 深圳市优必选科技有限公司 机器人及其路径规划方法
CN108717710B (zh) * 2018-05-18 2022-04-22 京东方科技集团股份有限公司 室内环境下的定位方法、装置及***
CN109739226A (zh) * 2018-12-27 2019-05-10 国网北京市电力公司 目标巡检位置的确定方法及装置
CN110333513B (zh) * 2019-07-10 2023-01-10 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
CN110243381B (zh) * 2019-07-11 2020-10-30 北京理工大学 一种陆空机器人协同感知监测方法
CN112781591A (zh) * 2019-11-06 2021-05-11 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
CN110888125B (zh) * 2019-12-05 2020-06-19 奥特酷智能科技(南京)有限公司 一种基于毫米波雷达的自动驾驶车辆定位方法
CN112917467B (zh) * 2019-12-06 2022-09-23 深圳市优必选科技股份有限公司 机器人的定位及地图构建方法、装置及终端设备
CN111044036B (zh) * 2019-12-12 2021-10-15 浙江大学 基于粒子滤波的远程定位方法
CN111337943B (zh) * 2020-02-26 2022-04-05 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111397594B (zh) * 2020-03-20 2021-10-15 广东博智林机器人有限公司 一种全局初始化定位方法、装置、电子设备及存储介质
CN112639821B (zh) * 2020-05-11 2021-12-28 华为技术有限公司 一种车辆可行驶区域检测方法、***以及采用该***的自动驾驶车辆
CN114200481A (zh) * 2020-08-28 2022-03-18 华为技术有限公司 一种定位方法、定位***和车辆
CN112067006B (zh) * 2020-09-14 2022-06-21 上海汽车集团股份有限公司 一种基于语义的视觉定位方法及装置
CN112712107B (zh) * 2020-12-10 2022-06-28 浙江大学 一种基于优化的视觉和激光slam融合定位方法
CN113465728B (zh) * 2021-06-25 2023-08-04 重庆工程职业技术学院 一种地形感知方法、***、存储介质、计算机设备
CN113804182B (zh) * 2021-09-16 2023-09-29 重庆邮电大学 一种基于信息融合的栅格地图创建方法
CN114037807B (zh) * 2021-11-24 2023-03-28 深圳市云鼠科技开发有限公司 低内存占用的链式栅格地图构建方法、装置及计算机设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105333879A (zh) * 2015-12-14 2016-02-17 重庆邮电大学 同步定位与地图构建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105333879A (zh) * 2015-12-14 2016-02-17 重庆邮电大学 同步定位与地图构建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
融合视觉和激光测距的机器人Monte Carlo自定位方法;李永坚;《农业机械学报》;20120131;第43卷(第1期);第170-174页 *

Also Published As

Publication number Publication date
CN105865449A (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
CN105865449B (zh) 基于激光和视觉的移动机器人的混合定位方法
CN111429574B (zh) 基于三维点云和视觉融合的移动机器人定位方法和***
CN108647646B (zh) 基于低线束雷达的低矮障碍物的优化检测方法及装置
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
Nieto et al. Recursive scan-matching SLAM
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
AU2022275479A1 (en) Computer vision systems and methods for detecting and modeling features of structures in images
CN106599108A (zh) 一种三维环境中多模态环境地图构建方法
CN113108773A (zh) 一种融合激光与视觉传感器的栅格地图构建方法
CN111060888A (zh) 一种融合icp和似然域模型的移动机器人重定位方法
CN112880694B (zh) 确定车辆的位置的方法
CN112184736A (zh) 一种基于欧式聚类的多平面提取方法
CN110749895B (zh) 一种基于激光雷达点云数据的定位方法
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
CN111273312A (zh) 一种智能车辆定位与回环检测方法
CN110986956A (zh) 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
Meng et al. Efficient and reliable LiDAR-based global localization of mobile robots using multiscale/resolution maps
Chen et al. Heuristic monte carlo algorithm for unmanned ground vehicles realtime localization and mapping
CN112733971B (zh) 扫描设备的位姿确定方法、装置、设备及存储介质
Li et al. Novel indoor mobile robot navigation using monocular vision
Yan et al. RH-Map: Online Map Construction Framework of Dynamic Object Removal Based on 3D Region-wise Hash Map Structure
Chang et al. Robust accurate LiDAR-GNSS/IMU self-calibration based on iterative refinement
Zeng et al. An Indoor 2D LiDAR SLAM and Localization Method Based on Artificial Landmark Assistance
Thallas et al. Particle filter—Scan matching hybrid SLAM employing topological information
CN115436968A (zh) 一种基于激光雷达的位图化重定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
TA01 Transfer of patent application right

Effective date of registration: 20161221

Address after: 518057 Guangdong city of Shenzhen province Nanshan District Guangdong streets High-tech Park North Beihuan Road No. 9018 building C building 10 layer's innovation

Applicant after: Shenzhen City, Shan Chuan robot Co., Ltd.

Address before: Nanshan District Guangdong streets south ring road of Shenzhen city Guangdong province 518057 No. 29 students start building room 1003

Applicant before: SHENZHEN SHANCHUAN TECHNOLOGY CO., LTD.

TA01 Transfer of patent application right
CB02 Change of applicant information

Address after: A District No. 9018 building 518057 Guangdong Han innovation city of Shenzhen province Nanshan District high tech park, North Central Avenue, 5 floor Room 501

Applicant after: Shenzhen City, Shan Chuan robot Co., Ltd.

Address before: 518057 Guangdong city of Shenzhen province Nanshan District Guangdong streets High-tech Park North Beihuan Road No. 9018 building C building 10 layer's innovation

Applicant before: Shenzhen City, Shan Chuan robot Co., Ltd.

CB02 Change of applicant information
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant