CN109959377A - 一种机器人导航定位***及方法 - Google Patents
一种机器人导航定位***及方法 Download PDFInfo
- Publication number
- CN109959377A CN109959377A CN201711420969.4A CN201711420969A CN109959377A CN 109959377 A CN109959377 A CN 109959377A CN 201711420969 A CN201711420969 A CN 201711420969A CN 109959377 A CN109959377 A CN 109959377A
- Authority
- CN
- China
- Prior art keywords
- robot
- map
- path
- path planning
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 50
- 239000002245 particle Substances 0.000 claims abstract description 24
- 239000000203 mixture Substances 0.000 claims abstract description 22
- 230000003044 adaptive effect Effects 0.000 claims abstract description 11
- 230000004807 localization Effects 0.000 claims description 22
- 230000004888 barrier function Effects 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 9
- 238000002939 conjugate gradient method Methods 0.000 claims description 8
- 230000001133 acceleration Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 2
- 230000002045 lasting effect Effects 0.000 claims 1
- 238000009738 saturating Methods 0.000 claims 1
- 230000007246 mechanism Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 16
- 230000003716 rejuvenation Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000001235 sensitizing effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开一种机器人导航定位***及方法,用于一机器人进行地图构建、定位以及路径规划,其方法包括如下步骤:S100,定位步骤:机器人通过多个传感器检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配不同的里程计完成实时地图构建与定位;以及S200,路径规划步骤:采用基于双相混合状态A*的路径规划算法,包括:S210,在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;以及S220,将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。本发明不仅能够适应于不同环境,且能够动态路径规划。
Description
技术领域
本发明涉及一种机器人导航定位***及方法,具体地说,是涉及一种适应于不同环境的、动态路径规划的机器人导航定位***及方法。
背景技术
一个理想化完善的移动式服务机器人***通常由4个部分组成,分别为移动机构、功能机构、感知***和控制***。
移动机构为机器人提供移动功能,常见的移动机构有轮式机构、履带式机构、关节式机构和混合机构等。功能机构用于机器人实现各种服务功能,例如护理、搬运等,常见的形式为机械臂等。感知***由各种传感器组成,为服务机器人采集自身及外部环境信息。服务机器人上常用传感器有摄像头、激光雷达、超声传感器、接触和接近传感器、惯性测量单元、里程计等。控制***相当于服务机器人的“大脑”。自主服务机器人具备图像识别、环境感知、路径规划、障碍物检测等多项技术,能够根据设定的功能要求进行自主行进和完成服务任务。
导航是移动机器人的核心和关键技术,也是反映移动机器人实现智能化的关键指标。移动机器人导航就是机器人能够自主按照存储在其内部的地图信息,或根据传感器获得的外部环境信号规划出移动路径,并能够沿着该路径在没有人工干预的情况下,移动到预定目标点。由于服务机器人工作环境往往具有结构复杂,动态物体多的特点,因此,如何在该类环境中正确、安全地完成即时定位与地图构建、动态路径规划等功能也是目前亟待解决的问题之一。目前的定位技术大都只能在某些环境下能够取得很好的定位效果,不能够有效地解决所有环境下的机器人的定位问题。
移动机器人的路径规划是指机器人在向目标点移动的过程中要避开环境中的障碍物,以距离、时间、能耗等某一指标规划出一条从起始点到目标点的最优或者次最优路径。目前该技术仍存在于障碍物阻碍、环境动态变化的情况中路径规划不完善的问题。
发明内容
本发明的目的是提供一种机器人导航定位***及方法,不仅能够适应于不同环境,且能够动态路径规划。
为了实现上述目的,本发明的机器人导航定位方法,用于一机器人进行地图构建、定位以及路径规划,其包括如下步骤:
S100,定位步骤:机器人通过多个传感器检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配不同的里程计完成实时地图构建与定位;
S200,路径规划步骤:采用基于双相混合状态A*的路径规划算法,包括:S210,在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;S220,将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。
上述的机器人导航定位方法的一实施方式中,所述步骤S100包括如下步骤:S110,利用传感器反馈的数据建立地图;S120,采用里程计进行航位推算,粒子滤波器获取航位推算信息并作为机器人位姿的初始估计,之后利用传感器的当前帧数据与局部地图进行匹配,消除里程计的积累误差;
S130,当当前帧匹配结果达到一匹配阈值时,则在地图中加入当前帧信息,同时利用当前帧信息消除地图中原有的错误信息,当匹配结果持续达到该匹配阈值时,则持续进行地图更新;当当前帧匹配结果没有达到该匹配阈值时,地图保持不变,只更新机器人的位姿信息。
上述的机器人导航定位方法的一实施方式中,所述步骤S100中,自适应粒子滤波的SLAM算法使用轮式里程计、视觉里程计或惯性导航器件进行航位推算。
上述的机器人导航定位方法的一实施方式中,使用轮式里程计的航位推算过程表示为:
其中,为tk时刻机器人位置的估计值,为tk时刻机器人的转角,B为左右轮间的距离,分别为tk-1至tk时间段内左轮和右轮的走过的距离。
上述的机器人导航定位方法的一实施方式中,使用视觉里程计进行航位推算的步骤为:首先采集新一帧图像,提取图像中的ORB特征点,并计算特征点对应的BRIEF描述子;接着将当前图像的特征点与上一帧图像的特征点进行匹配;最后进行3D-2D位姿求解,即通过最小化重投影误差获得前后帧的旋转平移矩阵,从而累计获得机器人当前姿态。
上述的机器人导航定位方法的一实施方式中,使用惯性导航器件进行航位推算的步骤为:通过陀螺仪和加速度计获得机器人的加速度和角速度,对其进行积分从而推算机器人的当前姿态。
上述的机器人导航定位方法的一实施方式中,所述步骤S130还包括如下步骤:多个传感器设置为至少一个超声传感器、至少一个激光雷达以及至少一个RGB-D相机,当在一区域中超声传感器检测的数据与激光雷达以及RGB-D相机检测的数据的偏差超出一偏差阈值时,则重复校核该些数据,若该些数据不稳定,则认为该区域内存在反光/透明/半透明的物体,并在地图中进行标注。
上述的机器人导航定位方法的一实施方式中,所述步骤S220还包括解析扩展步骤221:忽略环境中的障碍物,计算当前节点到目标节点的路径,如果该路径是无碰撞的,则将该路径的节点直接添加到节点列表中。
上述的机器人导航定位方法的一实施方式中,所述步骤解析扩展步骤之后还包括如下处理优化步骤S222:使用共轭梯度法平滑规划路径;进行插值以增加路径中点列的密度;再次使用共轭梯度法使路径远离障碍物。
本发明的机器人导航定位***,连接在一机器人上,用于所述机器人进行地图构建、定位以及路径规划,其包括:
传感器单元,连接在所述机器人上;定位单元,包括里程计模块,连接所述传感器单元,所述机器人通过所述传感器单元检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配所述里程计模块完成实时地图构建与定位;以及路径规划单元,连接所述传感器单元与定位单元,在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;以及将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。
上述的机器人导航定位***的一实施方式中,所述里程计模块包括轮式里程计、视觉里程计以及惯性导航器件。
本发明的有益功效在于:
1、定位方面,提出了一种基于自适应粒子滤波的SLAM框架,该框架可以匹配不同的里程计技术在室内外等多种环境下完成实时地图构建与定位功能。其基本思想为通过分析当前帧激光数据结构特征,进行当前帧与局部地图匹配,消除里程计的累积误差,从而达到精确定位与构图的功能。本方法还融合了激光雷达、RGB-D相机、超声传感器和里程计等多种传感器信息,解决了传统方法无法应对的环境光线变化、动态障碍物、透明/半透明物体等各方面的难题。此外,本项目设计编写了地图编辑上位机,可以人工编辑构建的环境地图,实现地图优化、虚拟墙设置等一系列功能,通过地图重复使用提高机器人的易用性。
2、路径规划方面,提出了一种基于双相混合状态A*的路径规划算法。该算法对传统的启发式A*搜索算法进行了改进,首先对环境复杂度进行评估,并计算出算法启发式权重,然后结合启发式权重、机器人当前状态、目标状态以及机器人运动学模型在环境的高分辨率地图中进行高维路径规划,直接输出接下来一段时间的机器人目标位姿和目标速度。该算法考虑了机器人的运动学模型,所规划路径符合运动学约束,故在行驶过程中可保证机器人运行的平顺性。同时,由于高维规划结果包括了目标速度信息,因此无需再设计复杂的运动控制器即可使机器人对路径进行高精度跟踪。
以下结合附图和具体实施例对本发明进行详细描述,但不作为对本发明的限定。
附图说明
图1为本发明的机器人导航定位***应用于一机器人的一实施例的结构示意图;
图2a和图2b分别为图1所示结构的不同角度的分解***图;
图3为本发明的机器人导航定位***的组成图;
图4为本发明的机器人导航定位方法步骤图;
图5为本发明的机器人导航定位***的定位单元的组成图;
图6为本发明的机器人导航定位***的里程计模块的两轮差动转向模型图;
图7为本发明的机器人导航定位***的里程计模块的视觉差动转向模型图;
图8为本发明地图的更新时序的示例图;
图9为本发明地图更新及错误历史消除示意图;
图10为本发明所构建的地图;
图11为VGG-Net网络结构示意图;
图12为本发明的机器人导航定位方法的基于双相混合状态A*算法的算法架构图;
图13为传统的基于栅格地图的A*的路径搜索算法;
图14为传统的基于栅格地图的A*的路径规划示例;
图15为本发明方法的基于双相混合状态A*算法路径规划示例;
图16为本发明方法的基于双相混合状态A*算法的单次循环流程图;
图17为采用插值前后的路径对比图;
图18为实际情况下机器人采用基于双相混合状态A*的路径规划结果图。
其中,附图标记
10 机器人
100 固定板
200 行走机构
300 驱动控制机构
400 碰撞检测机构
401 超声传感器
402 RGB-D相机
500 激光雷达机构
501 激光雷达
600 电池机构
700 扩展机构
20 机器人导航定位***
23 传感器单元
24 传感器单元
241 里程计模块
242 粒子滤波器模块
243 地图更新模块
25 路径规划单元
S100、S110-S130、S200、S210-S 220、S221-S222 步骤
具体实施方式
下面结合附图和具体实施例对本发明技术方案进行详细的描述,以更进一步了解本发明的目的、方案及功效,但并非作为本发明所附权利要求保护范围的限制。
如图1以及图2a、图2b所示,机器人10包括固定板100、行走机构200、驱动控制机构300、碰撞检测机构400、激光雷达机构500、电池机构600以及扩展机构700。需说明是的,图示为一机器人移动平台,其可以通过扩展机构700与多种机器人功能部件进行连接,形成例如教育机器人、家庭机器人、迎宾导引机器人、送餐机器人等等。
本发明的机器人导航定位***20连接在机器人10上,用于机器人10进行地图构建、定位以及路径规划,如图3所示,机器人导航定位***20包括传感器单元23、传感器单元24以及路径规划单元25。传感器单元23连接在机器人10上。传感器单元23例如为激光雷达机构500的激光雷达501,碰撞检测机构400的多个超声传感器401、RGB-D相机402等。
传感器单元24连接传感器单元23,传感器单元24包括里程计模块241,机器人10通过传感器单元23检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配里程计模块241完成实时地图构建与定位。路径规划单元25连接传感器单元23与传感器单元24,路径规划单元25在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;并将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。
如图4所示,本发明的机器人导航定位方法,用于一机器人进行地图构建、定位以及路径规划,其包括如下步骤:
S100,定位步骤:机器人通过多个传感器检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配不同的里程计完成实时地图构建与定位;
S200,路径规划步骤:采用基于双相混合状态A*的路径规划算法,包括:
S210,在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;
S220,将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。
所述步骤S100包括如下步骤:
S110,利用传感器反馈的数据建立地图;
S120,采用里程计进行航位推算,粒子滤波器获取航位推算信息并作为机器人位姿的初始估计,之后利用传感器的当前帧数据与局部地图进行匹配,消除里程计的积累误差;
S130,当当前帧匹配结果达到一匹配阈值时,则在地图中加入当前帧信息,同时利用当前帧信息消除地图中原有的错误信息,当匹配结果持续达到该匹配阈值时,则持续进行地图更新;当当前帧匹配结果没有达到该匹配阈值时,地图保持不变,只更新机器人的位姿信息。
本发明的基于多传感器融合的SLAM算法主要使用机器人10搭载的激光雷达501、RGB-D相机402以及里程计的组合SLAM算法对机器人10进行定位,同时使用超声传感器401对视觉检测有困难的反光/透明/半透明物体进行检测,对基于光学的检测方法进行补充。
基于多传感器融合的SLAM算法提出基于激光雷达501的CRSPF-SLAM作为主要的定位手段。该算法基于自适应粒子滤波,可以匹配不同的里程计技术在室内外等多种环境下完成实时地图构建与定位功能。其基本思想为通过分析当前帧的激光数据结构特征,将当前帧与局部地图进行匹配,消除里程计的积累误差,从而达到精确定位与构图的功能。
以下将详述上述内容。
如图5所示,本发明的定位单元21的主要包括三个模块,分别为里程计模块241、粒子滤波器模块242和地图更新模块243,具体如下。
1)、里程计模块241
基于多传感器融合的SLAM算法分别使用了三种不同的里程计——轮式里程计、视觉里程计以及惯性导航器件(IMU)进行航位推算。三种里程计可以满足各种不同的平台或应用环境,他们主要用来为粒子滤波器提供初始的机器人10姿态信息。
其中,轮式里程计模块通过航位推算获得粗略的机器人10的实时姿态,两轮差动转向模型如图6所示。
两轮差动模型航位推算过程表示为:
其中,为tk时刻机器人位置的估计值,为tk时刻机器人10的转角,B为左右轮间的距离,分别为tk-1至tk时间段内左轮和右轮的走过的距离。
轮式里程计适用于地面平整且有一定摩擦力的环境中,机器人10运动中若发生打滑或者地面不平整时精度会降低。
视觉里程计的主要算法流程为:首先采集新一帧图像,提取图像中的ORB特征点,并计算特征点对应的BRIEF描述子。接着将当前图像的特征点与上一帧图像的特征点进行匹配,由于可能产生误匹配,因此使用RANSAC算法对匹配的特征点进行提纯。最后进行3D-2D位姿求解,即通过最小化重投影误差获得前后帧的旋转平移矩阵,从而累计获得机器人10当前姿态。
如图6所示,P=[XYZ]T为空间中的已知的三维点,和为通过特征匹配得到的三维点P在第k-1帧和第k帧中对应点,为P点通过针孔相机模型计算得到的P在第二帧图像的实际投影点。理想情况下,第一副图中的匹配点对应的三维点P投影到第二幅图像得到的应该与特征匹配点严格重合,实际上由于误差的存在,与并不会重合,而是存在一定距离e,对于两幅图像中所有的特征匹配点的误差距离进行累加,并最小化这个误差就可以得到优化目标如下
通过优化该目标函数,可以得到相邻两帧图像间的位姿变换关系,进而可以推算出机器人10的里程和航向信息。
视觉里程计适用于特征丰富的环境中,若环境颜色单一或者光线太亮太暗都会影响里程计的精度。
惯性导航器件可通过陀螺仪和加速度计获得机器人10的加速度和角速度,对其进行积分从而推算机器人10的当前姿态,但是本发明采用的微机电(MEMS)陀螺仪及加速度计存在较大的漂移误差,仅能提供较短时间内的较准确的位移和姿态信息。
2)、粒子滤波器模块242
粒子滤波器(Particle Filter)获取上述三种里程计的航位推测信息,作为机器人10位姿的初始估计,之后利用激光雷达501的数据与地图信息匹配,得到较精确的位姿,再消除里程计的积累误差。在本项目的***中,该模块主要进行了当前激光结构分析,基于IPAN算法寻找当前激光帧中的关键结构点,加大结构点的影响因子,然后基于Monte Carlo局部迭代收敛过程,寻找机器人10在局部空间下的最优姿态。其中,每一粒子姿态通过下式获得:
Sm(t)=[pm(1)...pm(i)...pm(Ns(t))]
Sb(t)=[pb(1)...pb(i)...pb(Ns(t))]
pm(i)=[xm(i) ym(i)]T
pb(i)=[xb(i) yb(i)]T
其中Sm(t)为当待匹配粒子,Sb(t)为当前观测数据,pm及pb分别为粒子中各激光点坐标和观测数据中各激光点坐标。通过对连续匹配帧分析,寻找出当前时段最优关键帧及其匹配结果M(t)。同时,该最优匹配结果被用作反馈值,作用于下一帧粒子匹配过程,粒子分布范围(XM,YM,AM)及迭代次数(loopnum)通过历史匹配值及预设参数确定方式为:
另一方面,该结果也将被返回给里程计模块241和地图更新模块243,分别用于积累误差消除和地图信息更新。
3)、地图更新模块243
地图更新模块(Map Update)223主要包括三类执行动作:当关键帧匹配结果足够优异时,则不仅在全局地图中加入当前帧扫描信息,同时会利用当前帧扫描信息消除地图中原有的错误信息;当匹配值持续保持优异时,则持续进行地图更新;当关键帧匹配结果不够优异时,全局地图将保持不变,只更新机器人10的姿态信息。
地图的更新时序的示例图如图8所示。
图中线①为各个时刻匹配结果M(t)的值;图中线②为1时表示进行地图更新,为0时表示不进行更新。
地图更新及错误历史消除示意图如图9所示。图中灰色区域范围为当前关键帧的扫描范围,该区域内的地图原有信息将作为错误历史予以消除。
三个模块分别在不同的时钟周期下独立工作,通过实时数据共享及反馈从而实现机器人10实时定位及地图构建功能,构建结果示意图如图10所示。
此外,对于反光/透明/半透明的物体,机器人10导航定位***使用围绕机器人10移动机构平台上的多个超声传感器401对其进行检测。由于超声传感器401的敏感区域是一个扇区,因此当超声波返回的距离与激光雷达501和RGB-D相机402的数据有较大偏差时,***就对这些数据进行校核,如果此时数据不稳定即测量方差较大,则认为该扇区内存在反光/透明/半透明的物体,此时***将在地图中进行标注。
为确保各传感器所获得的观测数据是同一时刻对同一批目标的观测所得,需要将观测数据进行同步。数据的同步主要包括两个方面:空间配准和时间同步。在空间上,观测数据的坐标都是以各个传感器所处的局部坐标系为基准,为了便于数据融合,需要将各传感器的位置和角度信息统一到全局坐标系中。本发明借助各台传感器获取的静态数据,依靠静态数据的配准即可求取各传感器的相对位姿,对各传感器的相对位置进行离线标定。为保证数据的时间同步,在控制***获取各传感器信息时,使用本地时间作为此帧数据的时间戳,实现时钟同步。
基于多传感器融合的SLAM算法具有较好的鲁棒性,然而该方法构建的2D点云对于场景识别的能力较弱。如果场景识别算法不够鲁棒,则机器人10每次启动时就不得不要求机器人10静止在地图的某一固定位置,否则可能无法正确定位。而鲁棒的场景识别算法可以使机器人10得到较精确的位姿,使机器人10可以在任意位置启动。
机器人10导航定位***采用以视觉为主的场景识别方法对机器人10的初始位置和初始姿态进行估计。在进行地图构建的同时,机器人10每运行一段距离就将图像传感器采集的图像以及当前的位置和姿态记录下来,保存到图像数据库。这样在机器人10每次开机后,将加载构建地图时保存的一系列历史图像以及拍摄该图像时机器人10的位姿等信息,通过对比当前图像和图像数据库中的图像,查找和当前图像相似的场景,找到相似场景后求解透视n点定位问题(PnP),得到当前图像与图像数据库中历史图像的位姿变换关系,由于历史图像在全局地图中的位姿已知,因此可以得到机器人10当前在全局地图中的位置估计。之后,算法利用当前激光雷达点云通过蒙特卡洛定位算法对场景识别的位置估计进行进一步调整,得到较高精度的定位效果,实现随时随地启动的功能。
基于多传感器融合的SLAM算法主要通过词袋模型对场景图像进行识别,词袋模型在应用过程中主要分为离线训练和在线使用两部分。
离线训练部分是对大量图片数据利用聚类算法通过离线的方式训练。首先提取数据集中所有图片的FAST特征点,之后提取特征点周围64×64像素范围内的图像块,通过去掉全连接层的卷积神经网络VGG-Net得到特征图,将特征图进行空间金字塔池化,得到该特征点对应的描述子,对图像中所有特征点的描述子进行聚类,聚类得到的类别数n是视觉词典的单词数。VGG-Net网络结构示意图如图11所示。
在线使用部分利用离线训练得到的视觉单词进行回环检测,对于每一幅新采集的图像,采集图像中的特征点,用与训练过程相同的方法计算每一个特征点的描述子,得到最近邻的视觉单词,统计图像中所有特征点对应的视觉单词,用n维特征向量来表示,如果两幅图像的特征向量距离相近,则可以认为两幅图像比较相似。视觉词袋模型的优势在于通过聚类可以降低数据的维数,增加存储效率,并且可以增加***对亮度或视角变化的鲁棒性。
移动机器人10的路径规划是指机器人10在向目标点移动的过程中要避开环境中的障碍物,以距离、时间、能耗等某一指标规划出一条从起始点到目标点的最优或者次最优路径。移动机器人10的路径规划分为全局路径规划和局部路径规划两种。全局路径规划是指在环境信息完全己知的情况下,寻找从出发点到目标点的最优路径。全局路径规划对计算的实时性要求不髙,但是对环境地图的依赖性却很大。但是移动机器人10的工作环境一般都为非结构化的环境,且存在动态变化,因此仅仅依靠全局路径规划往往无法取得很好的规划效果。局部路径规划不需要全部的环境地图信息,其根据传感器反馈的信息在局部环境地图中进行路径搜索规划,这就要求机器人10具有较好的信息处理能力,对计算的实时性要求比较高,同时要有较好的鲁棒性。
对于移动机器人***,一个比较合理的解决方法是首先在全局地图中依据长时不变的地图信息进行一次全局规划,接着在机器人局部地图中沿着规划出的全局路径进行持续的局部路径规划,以此来解决环境变化和动态物体对机器人的影响。
在全局规划中,为了能够快速地搜索出抵达任务点的路径,采用基于模糊推理的双相混合状态A*算法,算法架构图如图12所示。
所谓双相是指算法分为两个阶段,第一阶段的搜索为在低分辨率地图上使用传统A*算法进行路径规划得到路径长度和扩展节点数。将这两个量作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在高分辨率地图上进行路径规划。
首先介绍传统的基于栅格地图的A*路径搜索算法,如图13所示。
A*算法采用启发式搜索的思想,所谓启发式搜索就是在状态空间中对每一个待评估的位置进行评估,从中得到最好的位置,再从该位置进行搜索和评估直到到达目标位置。对于已建立好的低分辨率栅格地图,建立路径节点的OPEN表和CLOSE表,将起点置入CLOSE表,接着将CLOSE表周围一定范围内的点置入OPEN表,并依次计算其对应的路径评分。路径代价函数为f(n)=g(n)+h(n),其中,g(n)代表从起点到任意顶点n的实际距离(G代价),h(n)表示任意顶点n到目标顶点的估算距离(H代价)。h(n)采用不同的距离函数会得到不同的规划结果。通过不断将具有最小代价的节点置入CLOSE表,同时计算其邻域内节点代价,并调整节点连接关系,最终获得从终点到起点的最小代价的路径。
本发明的基于模糊推理的双相混合状态A*算法是传统A*算法的改进算法。传统的A*规划算法将地图栅格化,然后以栅格中点作为搜索节点,导致规划路径不连续,如图14所示。
本发明的基于模糊推理的双相混合状态A*则将每个栅格与一个连续状态联系起来,这些连续状态利用机器人运动学模型,通过前向仿真计算而来,因此,本发明的基于模糊推理的双相混合状态A*规划的路径光滑且符合机器人的运动学约束,如图15所示。
本***方法采用的基于模糊推理的双相混合状态A*算法的单次循环流程图如图16所示。
与传统A*相同,算法首先将当前机器人的连续状态与起始栅格关联起来,然后通过前向仿真计算当前连续状态的子状态,并计算这些子状态落入的栅格,如果该栅格从未出现在OPEN列表中,那么将其添加到OPEN列表中;如果该栅格已经出现在OPEN列表中,则计算该栅格当前的G代价,若其小于原有的G代价,则更新该栅格的代价与父节点,并重新对OPEN列表进行排序。由于前向仿真很难精确抵达目标状态,同时也为了进一步提高混合状态A*搜索的实时性与路径光滑度,在节点扩展过程中还进行了解析扩展步骤221,该步骤忽略环境中的障碍物,计算当前节点到目标节点的Reed-Shepp路径,如果该路径是无碰撞的,则将该路径的直接点添加到OPEN列表中。
后处理优化步骤222中包含三步,第一步是使用共轭梯度法平滑规划路径,第二步是进行插值以增加路径中点列的密度,第三步是再次使用共轭梯度法使路径远离障碍物。
第一步的优化即使用共轭梯度法平滑规划路径,待优化的目标函数为:
其中κmax为最小转弯半径,σκ是代价系数,ωκ和ωs是加权系数,N为路径中的路点数量,Δxi和Δφi分别是位置向量和角度向量,计算方法如下:
Δxi=xi-xi-1
其中x和y分别是路点的横、纵坐标,为了提高混合状态A*搜索的实时性,搜索使用的栅格地图分辨率通常较低,因此路径中的路点间距较大,不利于底层程序进行跟踪控制,为此进行第二步的优化,即插值操作。插值前后的路径对比如图17所示。
两张图是一种底盘路径的平滑方法,其中左图是平滑以后的路径,右图是平滑以前的,每张图各一条路径。路径是很多等间隔的点连起来形成的,右图里的路径点和点之间的间隔很大,虽然肉眼看着是一条光滑路径,但实际上是由很多短小的直线拼接成的,机器人如果按照这种路径行驶方向变化就会很剧烈,通过差值操作可以在原来的点和点之间***很多中间点,使得新路径里点和点的间隔变小,这样路径就更光滑,其结果就是左图。
为了使得规划路径在无碰撞的基础上进一步远离障碍物,算法进行第三步优化,再次使用共轭梯度法优化路径,待优化的目标函数为
其中σo是代价系数,ωo是加权系数,oi是障碍物坐标,dmax是机器人与障碍物的最大距离。
在局部规划中,本***使用基于与目标点距离模糊推理的混合状态A*路径规划算法。该局部路径规划的输入包括建立好的栅格地图、机器人的当前状态(坐标、姿态、速度等)、机器人的目标状态,输出包括规划路径,即机器人的状态序列,以及每个状态对应的控制量,用于跟踪控制。
该局部路径规划方法使用前阶段全局规划的结果,从而得知机器人当前状态与目标状态的距离,为之后推理启发式权重做准备;接着在局部高分辨率地图上进行混合状态A*搜索,该算法搜索综合考虑了机器人坐标、姿态角以及速度,并且结合了机器人的运动学模型,可以规划出一条安全、高效、无碰撞的光滑路径。在混合状态A*搜索中,合理选取启发式权重可以提高搜索算法的运行速度,将全局阶段传统A*搜索输出的扩展节点数和路径长度进行模糊化处理,然后进行模糊推理,最后去模糊化即可在线对启发式权重进行选取。
此外,双相混合状态A*搜索在进行碰撞检测时,考虑了机器人的体积大小,因此规划的路径不会导致机器人撞击障碍物,避障后将搜索目标状态设置在全局路径上即可回到正确路径。如前所述,双相混合状态A*搜索考虑了机器人的运动学模型,所规划路径符合运动学约束,故在行驶过程中可保证机器人运行的平顺性。
图18展示了实际情况下机器人基于混合状态A*的路径规划结果。图中圆形R代表机器人当前位置,短线方向代表机器人航向;方形和短线T代表机器人目标位姿;实黑线L1为全局路径规划结果,黑色曲线L2为局部路径规划结果。
其中,图(a)中,由于环境中不存在移动障碍物,机器人的局部路径L2可快速收敛至全局路径L1附近。而图(b)中,由于机器人全局路径L1上存在动态障碍物D(黑色激光点云),因此在局部路径L2规划过程中,机器人会绕过该障碍物D,然后再沿着全局路径L1运行。
由于使用双相混合状态的A*规划方法可以输出机器人的一系列最优状态,包括位姿和速度,因此,通过机器人的运动学模型进行反推,即可获得机器人的最优控制参数。然而,机器人工作场所存在许多未知因素,诸如地面的粗糙光滑程度等,这使得机器人必须通过闭环控制器来实现行驶路径和状态的精确跟踪。
在工程实际中,应用最为广泛的闭环控制器为比例、积分、微分控制器,简称PID控制器。PID控制器问世至今已有近70年历史,其由于结构简单、稳定性好、工作可靠、调整方便而成为工业控制的主要技术之一。PID控制器是一种线性控制器,它根据给定值与实际输出值构成控制偏差。将偏差的比例项、积分项和微分项通过线性组合构成控制量。
双相混合状态的A*方法采用模糊PID控制器,控制器在线使用之前需要通过实验或经验得到比例、积分、微分这三个参数与误差、误差变化率之间的模糊推理关系,将该推理关系制成知识库。在线使用时,控制器首先将误差和误差变化率模糊化,将其输入知识库中,得到模糊推理输出结果,将结果解模糊化后得到比例、积分、微分三个参数,实现参数的在线调整,以满足不同误差与误差变化率的要求,并改善被控过程的动态和稳态性能。模糊控制器的输入为机器人的航向、位置误差及其变化率,输出量为机器人两轮速度的设定值。为保证机器人运行的稳定性,路径跟踪模块也需要对控制参数进行平滑滤波处理,以避免机器人由于急停、急启动造成的加速度剧烈变化导致的危险。
当需要部署机器人时,首先使用上位机遥控机器人扫描所属区域,构建环境地图,然后使用上位机对地图进行编辑优化,如设置虚拟墙以限定机器人工作空间,最后根据业务需求设定若干任务点。
机器人工作时,客户通过人机交互获取服务,顶层业务***可根据顾客需求向导航***下发指令,导航***的规划决策模块根据任务点和自身定位,在已构建好的地图中进行路径规划。同时,即时定位与地图构建模块利用各类传感器采集的信息计算当前位姿,并将位姿和周围环境信息一同反馈到规划决策模块。规划决策模块综合任务点、机器人当前状态和周围环境信息,进行路径规划并生成运动控制量,发送至机器人运动***。此外,规划决策模块会实时监控任务执行状态,并将状态反馈至顶层的金融业务应用,并通过人机交互功能告知用户。
当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (11)
1.一种机器人导航定位方法,用于一机器人进行地图构建、定位以及路径规划,其特征在于,包括如下步骤:
S100,定位步骤:机器人通过多个传感器检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配不同的里程计完成实时地图构建与定位;以及
S200,路径规划步骤:采用基于双相混合状态A*的路径规划算法,包括:
S210,在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;以及
S220,将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。
2.根据权利要求1所述的机器人导航定位方法,其特征在于,所述步骤S100包括如下步骤:
S110,利用传感器反馈的数据建立地图;
S120,采用里程计进行航位推算,粒子滤波器获取航位推算信息并作为机器人位姿的初始估计,之后利用传感器的当前帧数据与局部地图进行匹配,消除里程计的积累误差;
S130,当当前帧匹配结果达到一匹配阈值时,则在地图中加入当前帧信息,同时利用当前帧信息消除地图中原有的错误信息,当匹配结果持续达到该匹配阈值时,则持续进行地图更新;当当前帧匹配结果没有达到该匹配阈值时,地图保持不变,只更新机器人的位姿信息。
3.根据权利要求1或2所述的机器人导航定位方法,其特征在于,所述步骤S100中,自适应粒子滤波的SLAM算法使用轮式里程计、视觉里程计或惯性导航器件进行航位推算。
4.根据权利要求3所述的机器人导航定位方法,其特征在于,使用轮式里程计的航位推算过程表示为:
其中,为tk时刻机器人位置的估计值,为tk时刻机器人的转角,B为左右轮间的距离,分别为tk-1至tk时间段内左轮和右轮的走过的距离。
5.根据权利要求3所述的机器人导航定位方法,其特征在于,使用视觉里程计进行航位推算的步骤为:首先采集新一帧图像,提取图像中的ORB特征点,并计算特征点对应的BRIEF描述子;接着将当前图像的特征点与上一帧图像的特征点进行匹配;最后进行3D-2D位姿求解,即通过最小化重投影误差获得前后帧的旋转平移矩阵,从而累计获得机器人当前姿态。
6.根据权利要求3所述的机器人导航定位方法,其特征在于,使用惯性导航器件进行航位推算的步骤为:通过陀螺仪和加速度计获得机器人的加速度和角速度,对其进行积分从而推算机器人的当前姿态。
7.根据权利要求2所述的机器人导航定位方法,其特征在于,所述步骤S130还包括如下步骤:多个传感器设置为至少一个超声传感器、至少一个激光雷达以及至少一个RGB-D相机,当在一区域中超声传感器检测的数据与激光雷达以及RGB-D相机检测的数据的偏差超出一偏差阈值时,则重复校核该些数据,若该些数据不稳定,则认为该区域内存在反光/透明/半透明的物体,并在地图中进行标注。
8.根据权利要求1所述的机器人导航定位方法,其特征在于,所述步骤S220还包括解析扩展步骤221:忽略环境中的障碍物,计算当前节点到目标节点的路径,如果该路径是无碰撞的,则将该路径的节点直接添加到节点列表中。
9.根据权利要求8所述的机器人导航定位方法,其特征在于,所述步骤解析扩展步骤之后还包括如下处理优化步骤S222:使用共轭梯度法平滑规划路径;进行插值以增加路径中点列的密度;再次使用共轭梯度法使路径远离障碍物。
10.一种机器人导航定位***,连接在一机器人上,用于所述机器人进行地图构建、定位以及路径规划,其特征在于,包括:
传感器单元,连接在所述机器人上;
定位单元,包括里程计模块,连接所述传感器单元,所述机器人通过所述传感器单元检测周围环境信息,而后基于自适应粒子滤波的SLAM算法,并匹配所述里程计模块完成实时地图构建与定位;以及
路径规划单元,连接所述传感器单元与定位单元,在栅格化的地图上进行路径规划得到路径长度和扩展节点数后,通过解析扩展获得更高栅格化的地图;以及将获得的路径长度和扩展节点数作为模糊推理的输入,经过模糊推理得到启发式权重,作为第二阶段的搜索的输入,在更高栅格化的地图上进行路径规划。
11.根据权利要求10所述的机器人导航定位***,其特征在于,所述里程计模块包括轮式里程计、视觉里程计以及惯性导航器件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711420969.4A CN109959377A (zh) | 2017-12-25 | 2017-12-25 | 一种机器人导航定位***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711420969.4A CN109959377A (zh) | 2017-12-25 | 2017-12-25 | 一种机器人导航定位***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109959377A true CN109959377A (zh) | 2019-07-02 |
Family
ID=67021025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711420969.4A Withdrawn CN109959377A (zh) | 2017-12-25 | 2017-12-25 | 一种机器人导航定位***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109959377A (zh) |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110260867A (zh) * | 2019-07-29 | 2019-09-20 | 浙江大华技术股份有限公司 | 一种机器人导航中位姿确定、纠正的方法、设备及装置 |
CN110531766A (zh) * | 2019-08-27 | 2019-12-03 | 熵智科技(深圳)有限公司 | 基于已知占据栅格地图的持续激光slam构图定位方法 |
CN110568447A (zh) * | 2019-07-29 | 2019-12-13 | 广东星舆科技有限公司 | 视觉定位的方法、装置及计算机可读介质 |
CN110632919A (zh) * | 2019-08-28 | 2019-12-31 | 广东工业大学 | 一种基于履带式救援机器人的自主定位导航方法 |
CN110648353A (zh) * | 2019-08-30 | 2020-01-03 | 北京影谱科技股份有限公司 | 一种基于单目传感器的机器人室内定位方法和装置 |
CN110763225A (zh) * | 2019-11-13 | 2020-02-07 | 内蒙古工业大学 | 一种小车路径导航方法及***、运输车*** |
CN110823225A (zh) * | 2019-10-29 | 2020-02-21 | 北京影谱科技股份有限公司 | 室内动态情景下的定位方法和装置 |
CN111012251A (zh) * | 2019-12-17 | 2020-04-17 | 哈工大机器人(合肥)国际创新研究院 | 一种清扫机器人的全覆盖路径的规划方法及装置 |
CN111060108A (zh) * | 2019-12-31 | 2020-04-24 | 江苏徐工工程机械研究院有限公司 | 路径规划方法和装置、工程车辆 |
CN111142514A (zh) * | 2019-12-11 | 2020-05-12 | 深圳市优必选科技股份有限公司 | 一种机器人及其避障方法和装置 |
CN111176288A (zh) * | 2020-01-07 | 2020-05-19 | 深圳南方德尔汽车电子有限公司 | 基于Reedsshepp全局路径规划方法、装置、计算机设备及存储介质 |
CN111308490A (zh) * | 2020-02-05 | 2020-06-19 | 浙江工业大学 | 基于单线激光雷达的平衡车室内定位与导航*** |
CN111309015A (zh) * | 2020-02-25 | 2020-06-19 | 华南理工大学 | 一种融合多传感器的变电站巡检机器人定位导航*** |
CN111432341A (zh) * | 2020-03-11 | 2020-07-17 | 大连理工大学 | 一种环境自适应定位方法 |
CN111427047A (zh) * | 2020-03-30 | 2020-07-17 | 哈尔滨工程大学 | 一种大场景下自主移动机器人slam方法 |
CN111487986A (zh) * | 2020-05-15 | 2020-08-04 | 中国海洋大学 | 基于全局信息传递机制的水下机器人协同目标搜索方法 |
CN111812668A (zh) * | 2020-07-16 | 2020-10-23 | 南京航空航天大学 | 绕机检查装置及其定位方法、存储介质 |
CN111812669A (zh) * | 2020-07-16 | 2020-10-23 | 南京航空航天大学 | 绕机检查装置及其定位方法、存储介质 |
CN111830977A (zh) * | 2020-07-02 | 2020-10-27 | 中国兵器科学研究院 | 一种移动机器人自主导航软件框架及导航方法 |
CN111964682A (zh) * | 2020-08-10 | 2020-11-20 | 北京轩宇空间科技有限公司 | 适应未知动态空间的快速路径规划方法、装置及存储介质 |
CN112130445A (zh) * | 2020-11-24 | 2020-12-25 | 四川写正智能科技有限公司 | 基于儿童行驶路线进行安全预警的智能手表及方法 |
CN112146660A (zh) * | 2020-09-25 | 2020-12-29 | 电子科技大学 | 一种基于动态词向量的室内地图定位方法 |
CN112336267A (zh) * | 2019-08-07 | 2021-02-09 | 杭州萤石软件有限公司 | 一种清洁机器人及其控制方法 |
CN112476433A (zh) * | 2020-11-23 | 2021-03-12 | 深圳怪虫机器人有限公司 | 一种基于识别阵列边界的移动机器人定位方法 |
CN112509056A (zh) * | 2020-11-30 | 2021-03-16 | 中国人民解放军32181部队 | 一种动态战场环境实时路径规划***及方法 |
CN112652001A (zh) * | 2020-11-13 | 2021-04-13 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位*** |
CN113050140A (zh) * | 2019-12-27 | 2021-06-29 | 中移智行网络科技有限公司 | 一种定位方法、装置、存储介质和服务器 |
CN113093761A (zh) * | 2021-04-08 | 2021-07-09 | 浙江中烟工业有限责任公司 | 一种基于激光雷达的仓储机器人室内建图导航*** |
CN113109821A (zh) * | 2021-04-28 | 2021-07-13 | 武汉理工大学 | 一种基于超声波雷达与激光雷达的建图方法、装置及*** |
CN113189977A (zh) * | 2021-03-10 | 2021-07-30 | 新兴际华集团有限公司 | 一种用于机器人的智能导航路径规划***及方法 |
CN113232025A (zh) * | 2021-06-07 | 2021-08-10 | 上海大学 | 一种基于接近觉感知的机械臂避障方法 |
CN113359714A (zh) * | 2021-05-25 | 2021-09-07 | 国网江苏省电力有限公司电力科学研究院 | 基于粒子滤波算法的巡检机器人动态路径规划方法及装置 |
CN113608170A (zh) * | 2021-07-07 | 2021-11-05 | 云鲸智能(深圳)有限公司 | 雷达标定方法、雷达、机器人、介质及计算机程序产品 |
CN113835428A (zh) * | 2021-08-27 | 2021-12-24 | 华东交通大学 | 一种用于餐厅的机器人路径规划方法 |
CN114035562A (zh) * | 2021-07-20 | 2022-02-11 | 新兴际华集团有限公司 | 一种用于***性环境的多信息融合采集机器人 |
CN114217622A (zh) * | 2021-12-16 | 2022-03-22 | 南京理工大学 | 一种基于bim的机器人自主导航方法 |
CN114489036A (zh) * | 2021-07-25 | 2022-05-13 | 西北农林科技大学 | 一种基于slam的室内机器人导航控制方法 |
CN115290098A (zh) * | 2022-09-30 | 2022-11-04 | 成都朴为科技有限公司 | 一种基于变步长的机器人定位方法和*** |
WO2022247045A1 (zh) * | 2021-05-28 | 2022-12-01 | 浙江大学 | 一种基于激光雷达信息的移动机器人位置重识别方法 |
CN115884853A (zh) * | 2020-09-23 | 2023-03-31 | 应用材料公司 | 机器人关节空间图路径规划与移动执行 |
CN116541574A (zh) * | 2023-07-07 | 2023-08-04 | 湖北珞珈实验室 | 地图敏感信息的智能提取方法、装置、存储介质及设备 |
CN117405178A (zh) * | 2023-12-15 | 2024-01-16 | 成都电科星拓科技有限公司 | 一种自动化检测室内环境参数的移动监测平台及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110125323A1 (en) * | 2009-11-06 | 2011-05-26 | Evolution Robotics, Inc. | Localization by learning of wave-signal distributions |
CN103644903A (zh) * | 2013-09-17 | 2014-03-19 | 北京工业大学 | 基于分布式边缘无味粒子滤波的同步定位与地图构建方法 |
CN104236551A (zh) * | 2014-09-28 | 2014-12-24 | 北京信息科技大学 | 一种蛇形机器人基于激光测距仪的地图创建方法 |
CN106446815A (zh) * | 2016-09-14 | 2017-02-22 | 浙江大学 | 一种同时定位与地图构建方法 |
CN107092264A (zh) * | 2017-06-21 | 2017-08-25 | 北京理工大学 | 面向银行厅堂环境的服务机器人自主导航与自动充电方法 |
-
2017
- 2017-12-25 CN CN201711420969.4A patent/CN109959377A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110125323A1 (en) * | 2009-11-06 | 2011-05-26 | Evolution Robotics, Inc. | Localization by learning of wave-signal distributions |
CN103644903A (zh) * | 2013-09-17 | 2014-03-19 | 北京工业大学 | 基于分布式边缘无味粒子滤波的同步定位与地图构建方法 |
CN104236551A (zh) * | 2014-09-28 | 2014-12-24 | 北京信息科技大学 | 一种蛇形机器人基于激光测距仪的地图创建方法 |
CN106446815A (zh) * | 2016-09-14 | 2017-02-22 | 浙江大学 | 一种同时定位与地图构建方法 |
CN107092264A (zh) * | 2017-06-21 | 2017-08-25 | 北京理工大学 | 面向银行厅堂环境的服务机器人自主导航与自动充电方法 |
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110568447A (zh) * | 2019-07-29 | 2019-12-13 | 广东星舆科技有限公司 | 视觉定位的方法、装置及计算机可读介质 |
CN110260867A (zh) * | 2019-07-29 | 2019-09-20 | 浙江大华技术股份有限公司 | 一种机器人导航中位姿确定、纠正的方法、设备及装置 |
CN112336267A (zh) * | 2019-08-07 | 2021-02-09 | 杭州萤石软件有限公司 | 一种清洁机器人及其控制方法 |
CN110531766A (zh) * | 2019-08-27 | 2019-12-03 | 熵智科技(深圳)有限公司 | 基于已知占据栅格地图的持续激光slam构图定位方法 |
CN110531766B (zh) * | 2019-08-27 | 2022-06-28 | 熵智科技(深圳)有限公司 | 基于已知占据栅格地图的持续激光slam构图定位方法 |
CN110632919A (zh) * | 2019-08-28 | 2019-12-31 | 广东工业大学 | 一种基于履带式救援机器人的自主定位导航方法 |
CN110648353A (zh) * | 2019-08-30 | 2020-01-03 | 北京影谱科技股份有限公司 | 一种基于单目传感器的机器人室内定位方法和装置 |
CN110823225A (zh) * | 2019-10-29 | 2020-02-21 | 北京影谱科技股份有限公司 | 室内动态情景下的定位方法和装置 |
CN110763225A (zh) * | 2019-11-13 | 2020-02-07 | 内蒙古工业大学 | 一种小车路径导航方法及***、运输车*** |
CN111142514A (zh) * | 2019-12-11 | 2020-05-12 | 深圳市优必选科技股份有限公司 | 一种机器人及其避障方法和装置 |
CN111142514B (zh) * | 2019-12-11 | 2024-02-13 | 深圳市优必选科技股份有限公司 | 一种机器人及其避障方法和装置 |
CN111012251A (zh) * | 2019-12-17 | 2020-04-17 | 哈工大机器人(合肥)国际创新研究院 | 一种清扫机器人的全覆盖路径的规划方法及装置 |
CN113050140A (zh) * | 2019-12-27 | 2021-06-29 | 中移智行网络科技有限公司 | 一种定位方法、装置、存储介质和服务器 |
CN111060108A (zh) * | 2019-12-31 | 2020-04-24 | 江苏徐工工程机械研究院有限公司 | 路径规划方法和装置、工程车辆 |
CN111060108B (zh) * | 2019-12-31 | 2021-10-12 | 江苏徐工工程机械研究院有限公司 | 路径规划方法和装置、工程车辆 |
CN111176288A (zh) * | 2020-01-07 | 2020-05-19 | 深圳南方德尔汽车电子有限公司 | 基于Reedsshepp全局路径规划方法、装置、计算机设备及存储介质 |
CN111308490A (zh) * | 2020-02-05 | 2020-06-19 | 浙江工业大学 | 基于单线激光雷达的平衡车室内定位与导航*** |
CN111308490B (zh) * | 2020-02-05 | 2021-11-19 | 浙江工业大学 | 基于单线激光雷达的平衡车室内定位与导航*** |
CN111309015A (zh) * | 2020-02-25 | 2020-06-19 | 华南理工大学 | 一种融合多传感器的变电站巡检机器人定位导航*** |
CN111432341A (zh) * | 2020-03-11 | 2020-07-17 | 大连理工大学 | 一种环境自适应定位方法 |
CN111427047A (zh) * | 2020-03-30 | 2020-07-17 | 哈尔滨工程大学 | 一种大场景下自主移动机器人slam方法 |
CN111427047B (zh) * | 2020-03-30 | 2023-05-05 | 哈尔滨工程大学 | 一种大场景下自主移动机器人slam方法 |
CN111487986A (zh) * | 2020-05-15 | 2020-08-04 | 中国海洋大学 | 基于全局信息传递机制的水下机器人协同目标搜索方法 |
CN111830977A (zh) * | 2020-07-02 | 2020-10-27 | 中国兵器科学研究院 | 一种移动机器人自主导航软件框架及导航方法 |
CN111830977B (zh) * | 2020-07-02 | 2024-06-18 | 中国兵器科学研究院 | 一种移动机器人自主导航软件框架及导航方法 |
CN111812669A (zh) * | 2020-07-16 | 2020-10-23 | 南京航空航天大学 | 绕机检查装置及其定位方法、存储介质 |
CN111812668A (zh) * | 2020-07-16 | 2020-10-23 | 南京航空航天大学 | 绕机检查装置及其定位方法、存储介质 |
CN111964682A (zh) * | 2020-08-10 | 2020-11-20 | 北京轩宇空间科技有限公司 | 适应未知动态空间的快速路径规划方法、装置及存储介质 |
CN115884853B (zh) * | 2020-09-23 | 2024-01-16 | 应用材料公司 | 机器人关节空间图路径规划与移动执行 |
CN115884853A (zh) * | 2020-09-23 | 2023-03-31 | 应用材料公司 | 机器人关节空间图路径规划与移动执行 |
CN112146660B (zh) * | 2020-09-25 | 2022-05-03 | 电子科技大学 | 一种基于动态词向量的室内地图定位方法 |
CN112146660A (zh) * | 2020-09-25 | 2020-12-29 | 电子科技大学 | 一种基于动态词向量的室内地图定位方法 |
CN112652001A (zh) * | 2020-11-13 | 2021-04-13 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位*** |
CN112476433A (zh) * | 2020-11-23 | 2021-03-12 | 深圳怪虫机器人有限公司 | 一种基于识别阵列边界的移动机器人定位方法 |
CN112476433B (zh) * | 2020-11-23 | 2023-08-04 | 深圳怪虫机器人有限公司 | 一种基于识别阵列边界的移动机器人定位方法 |
CN112130445A (zh) * | 2020-11-24 | 2020-12-25 | 四川写正智能科技有限公司 | 基于儿童行驶路线进行安全预警的智能手表及方法 |
CN112509056A (zh) * | 2020-11-30 | 2021-03-16 | 中国人民解放军32181部队 | 一种动态战场环境实时路径规划***及方法 |
CN112509056B (zh) * | 2020-11-30 | 2022-12-20 | 中国人民解放军32181部队 | 一种动态战场环境实时路径规划***及方法 |
CN113189977A (zh) * | 2021-03-10 | 2021-07-30 | 新兴际华集团有限公司 | 一种用于机器人的智能导航路径规划***及方法 |
CN113093761A (zh) * | 2021-04-08 | 2021-07-09 | 浙江中烟工业有限责任公司 | 一种基于激光雷达的仓储机器人室内建图导航*** |
CN113109821A (zh) * | 2021-04-28 | 2021-07-13 | 武汉理工大学 | 一种基于超声波雷达与激光雷达的建图方法、装置及*** |
CN113359714A (zh) * | 2021-05-25 | 2021-09-07 | 国网江苏省电力有限公司电力科学研究院 | 基于粒子滤波算法的巡检机器人动态路径规划方法及装置 |
WO2022247045A1 (zh) * | 2021-05-28 | 2022-12-01 | 浙江大学 | 一种基于激光雷达信息的移动机器人位置重识别方法 |
CN113232025B (zh) * | 2021-06-07 | 2022-04-22 | 上海大学 | 一种基于接近觉感知的机械臂避障方法 |
CN113232025A (zh) * | 2021-06-07 | 2021-08-10 | 上海大学 | 一种基于接近觉感知的机械臂避障方法 |
CN113608170B (zh) * | 2021-07-07 | 2023-11-14 | 云鲸智能(深圳)有限公司 | 雷达标定方法、雷达、机器人、介质及计算机程序产品 |
CN113608170A (zh) * | 2021-07-07 | 2021-11-05 | 云鲸智能(深圳)有限公司 | 雷达标定方法、雷达、机器人、介质及计算机程序产品 |
CN114035562B (zh) * | 2021-07-20 | 2024-05-28 | 新兴际华集团有限公司 | 一种用于***性环境的多信息融合采集机器人 |
CN114035562A (zh) * | 2021-07-20 | 2022-02-11 | 新兴际华集团有限公司 | 一种用于***性环境的多信息融合采集机器人 |
CN114489036A (zh) * | 2021-07-25 | 2022-05-13 | 西北农林科技大学 | 一种基于slam的室内机器人导航控制方法 |
CN113835428A (zh) * | 2021-08-27 | 2021-12-24 | 华东交通大学 | 一种用于餐厅的机器人路径规划方法 |
CN114217622A (zh) * | 2021-12-16 | 2022-03-22 | 南京理工大学 | 一种基于bim的机器人自主导航方法 |
CN114217622B (zh) * | 2021-12-16 | 2023-09-01 | 南京理工大学 | 一种基于bim的机器人自主导航方法 |
CN115290098B (zh) * | 2022-09-30 | 2022-12-23 | 成都朴为科技有限公司 | 一种基于变步长的机器人定位方法和*** |
CN115290098A (zh) * | 2022-09-30 | 2022-11-04 | 成都朴为科技有限公司 | 一种基于变步长的机器人定位方法和*** |
CN116541574B (zh) * | 2023-07-07 | 2023-10-03 | 湖北珞珈实验室 | 地图敏感信息的智能提取方法、装置、存储介质及设备 |
CN116541574A (zh) * | 2023-07-07 | 2023-08-04 | 湖北珞珈实验室 | 地图敏感信息的智能提取方法、装置、存储介质及设备 |
CN117405178A (zh) * | 2023-12-15 | 2024-01-16 | 成都电科星拓科技有限公司 | 一种自动化检测室内环境参数的移动监测平台及方法 |
CN117405178B (zh) * | 2023-12-15 | 2024-03-15 | 成都电科星拓科技有限公司 | 一种自动化检测室内环境参数的移动监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109959377A (zh) | 一种机器人导航定位***及方法 | |
Thorpe et al. | Vision and navigation for the Carnegie Mellon Navlab | |
Gao et al. | Review of wheeled mobile robots’ navigation problems and application prospects in agriculture | |
Weiss | Vision based navigation for micro helicopters | |
Facchinetti et al. | Self-Positioning Robot Navigation Using Ceiling Images Sequences | |
CN107092264A (zh) | 面向银行厅堂环境的服务机器人自主导航与自动充电方法 | |
CN106840148A (zh) | 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法 | |
CN106406338A (zh) | 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法 | |
Chen et al. | Milestones in autonomous driving and intelligent vehicles—part ii: Perception and planning | |
Sales et al. | Adaptive finite state machine based visual autonomous navigation system | |
CN113116224B (zh) | 机器人及其控制方法 | |
CN106767791A (zh) | 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法 | |
Sanfourche et al. | Perception for UAV: Vision-Based Navigation and Environment Modeling. | |
CN112734765A (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 | |
CN113189613B (zh) | 一种基于粒子滤波的机器人定位方法 | |
Li et al. | Hybrid filtering framework based robust localization for industrial vehicles | |
Burnett et al. | Zeus: A system description of the two‐time winner of the collegiate SAE autodrive competition | |
CN113239072A (zh) | 一种终端设备定位方法及其相关设备 | |
CN115639823A (zh) | 崎岖起伏地形下机器人地形感知与移动控制方法及*** | |
Thorpe et al. | The new generation system for the CMU Navlab | |
Liu et al. | Dloam: Real-time and robust lidar slam system based on cnn in dynamic urban environments | |
Alliez et al. | Indoor localization and mapping: Towards tracking resilience through a multi-slam approach | |
CN115690343A (zh) | 一种基于视觉跟随的机器人激光雷达扫描建图方法 | |
Bajracharya et al. | Target tracking, approach, and camera handoff for automated instrument placement | |
Han et al. | Novel cartographer using an oak-d smart camera for indoor robots location and navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190702 |