CN106153048A - 一种基于多传感器的机器人室内定位及制图*** - Google Patents
一种基于多传感器的机器人室内定位及制图*** Download PDFInfo
- Publication number
- CN106153048A CN106153048A CN201610673579.7A CN201610673579A CN106153048A CN 106153048 A CN106153048 A CN 106153048A CN 201610673579 A CN201610673579 A CN 201610673579A CN 106153048 A CN106153048 A CN 106153048A
- Authority
- CN
- China
- Prior art keywords
- closed loop
- laser
- detection
- vision
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于多传感器的机器人室内定位及制图***,该***包括激光定位、视觉闭环检测和地图优化模块,所述激光定位由激光帧间匹配和激光闭环检测两部分组成,所述激光帧间匹配获取激光传感器的信息,并将匹配结果输入视觉闭环检测;所述视觉闭环检测使用视觉信息进行闭环检测,并根据检测结果判断是否需要执行激光闭环检测,同时将检测结果输入地图优化模块;所述地图优化模块根据闭环检测结果进行姿态估计,并将估计结果用于反馈闭环检测。本方案中的视觉信息仅用于建立视觉特征,省去了建立视觉地图、更新视觉地图的步骤,在利用激光SLAM快速定位的同时,引入准确的视觉闭环检测。
Description
技术领域
本发明涉及机器人自主导航,具体涉及一种基于多传感器的机器人室内定位及制图***。
背景技术
伴随着信号处理、人工智能、机械制造等技术的进步,拥有环境感知、自主导航以及人机交互的机器人的需求也越来越强烈。具有自主意识的机器人要求机器人对于环境有很好的感知、判断和适应能力,从而可以完成很多人类希望它们去完成的任务。机器人的自主性就是在未知的环境中通过机器人的自主决策来完成一些任务。而在未知的环境中,机器人的自主导航是研究中的一个难点。
对于家庭服务式机器人来说,大部分的运行环境都是在室内,而室内环境一般比较复杂,所以室内导航的好坏直接影响家庭服务机器人的各种功能。要完成地图的创建,首先要获取周围环境的信息,这就要用到传感器来完成。现在机器人的制图研究热点大体上集中在两种传感器上,一种是激光传感器,这种传感器有很好的快速性,并且可以得到很准确地距离等信息;另一种比较常用的传感器就是视觉传感器,包括单目、双目以及深度相机等。这两种常用的传感器各自有自己的优点以及缺点,适用于不同的环境。对于机器人来说,制图不仅要有一定的精度,并且对于快速性也有很高的要求,否则无法完成同步定位与制图。
在小型环境中,激光传感器拥有很高的制图精度,而到了大型环境中,机器人运行一段时间后,由于累积误差的存在地图会有较大程度的形变。现有的激光SLAM算法中,对于这个问题的解决,一般是引进闭环检测来消除累积误差。但是由于激光传感器所采集的信息量较少,所以在判断闭环时从实际闭环点到判断出来的闭环点之间有一个较大的误差。而且当机器人处在几何环境特征重复率很高的环境中时,单独根据激光传感器所得的信息来判断闭环有一定概率出现错误匹配。
发明内容
本发明目的在于克服现有技术的不足,尤其解决现有的基于激光传感器的机器人室内定位方法累积误差高、采集的信息量较少、匹配精度不高的问题。
本发明方案用单目视觉信息来辅助进行激光SLAM室内定位,利用单目视觉方法来检测闭环并给出一个闭环检测信号帮助解决激光闭环检测成功率过低的问题,提出使用对极几何约束过滤错误匹配的视觉局部特征,提高了视觉局部特征的匹配准确率,保证了视觉匹配的准确性;同时,本方案中的视觉信息仅用于建立视觉特征而无需建立视觉地图,省去了建立视觉地图、更新视觉地图耗时的步骤,利用了激光SLAM快速定位的同时,引入准确的视觉闭环检测。
为解决上述技术问题,本发明采用如下的技术方案:
一种基于多传感器的机器人室内定位及制图***,该***包括激光定位、视觉闭环检测和地图优化模块三个部分,其特征在于,其中:
所述激光定位由激光帧间匹配和激光闭环检测两部分组成,其中:激光帧间检测用于获取激光传感器以实现匹配,并将匹配结果用于激光闭环检测;激光闭环检测用于使用当前点和以往走过的点的激光信息进行比较,判断机器人是否已经走过该点,并以此作为地图是否需要更新的依据。
所述视觉闭环检测用于使用当前点和以往走过的点的视觉信息进行比较,判断机器人是否已经走过该点,并以此作为是否需进行激光闭环检测的依据。
所述地图优化模块用于计算预计观测值与通过传感器采集到的实际观测值的偏差,然后对激光闭环检测进行校正,并且更新已有地图。
一种基于多传感器的机器人室内定位及制图***所实现的一种基于多传感器的机器人室内定位及制图方法,其过程包括以下步骤:
S1:激光帧间匹配,根据激光传感器获取到的两帧数据,建立帧间的对应关系以及转换坐标;
S2:视觉闭环检测,视觉闭环检测使用视觉信息对机器人当前位置进行闭环检测,根据视觉闭环检测的结果决定是否执行激光闭环检测;
S3:激光闭环检测,根据一个检测到的地图碎片以及已有地图集合,计算机器人当前处于位置,并以此判断当前是否处于闭环;
S4:地图优化,根据闭环检测的结果迭代调整特征点和摄像头位姿。
进一步地,本发明的步骤S1,具体过程描述如下:
(1)对于当前机器人位姿图像中的每一点,都找出离他最近的线段,称为目标线段,并对应保存起来;
(2)找到一个当前最优的变换。这个最优的变换可以使当前图像中的所有点到它的目标线段的距离的平方和最小;
(3)根据第二步中找出的最优变换来变换当前图像中的所有点,以及旋转当前地图;
(4)重复上面(1)到(3)的步骤,直到第二步中的结果小于一个阈值。
附图说明
图1是本发明的一个具体实施例的结构示意图。
图2为本发明的一个具体实施方式特征精确匹配的方法流程图。
具体实施方式
下面结合附图及具体实施例对本发明进行更加详细与完整的说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。
参见图1,一种基于多传感器的机器人室内定位及制图***,该***包括激光定位1、视觉闭环检测2和地图优化模块3,其中:
所述激光定位1由激光帧间匹配1-1和激光闭环检测1-2两部分组成,其中:激光帧间检测1-1用于获取激光传感器4以实现匹配,并将匹配结果用于激光闭环检测1-2;激光闭环检测1-2用于使用当前点和以往走过的点的激光信息进行比较,判断机器人是否已经走过该点,并以此作为地图是否需要更新的依据。
所述视觉闭环检测2使用单目摄像头5采集当前点和以往走过的点的视觉信息进行比较,判断机器人是否已经走过该点,并以此作为是否需进行激光闭环检测1-2的依据。
所述地图优化模块3接收来自激光定位1的计算观测值与通过激光传感器4采集到的实际观测值的偏差,然后对激光闭环检测1-2进行校正,并且更新已有地图。
一种基于多传感器的机器人室内定位及制图***所实现的一种基于多传感器的机器人室内定位及制图方法,其过程包括以下步骤:
S1:激光帧间匹配,根据激光传感器获取到的两帧数据,建立帧间的对应关系以及转换坐标,具体描述如下:
计算出当前帧中每一个变换后的目标点到变换后的目标线段的距离:当前最优变换用平移向量t和转角θ来表示,当前帧中第i个目标点为vi,为所有目标点的重心,第i条目标线段的正交单位向量为ui。
在目标线段上任取一点z,将z围绕按以下变换来旋转θ角度,则z如公式1所示:
当机器人的激光传感器采样频率较高时,转角θ可以近似为极小,则z可以变换如公式2所示:
对于目标点vi同时如果考虑加入平移因子t,则变换后的目标点vi如公式3如下:
则变换后的目标点到变换后的目标线段的距离d如公式4所示:
d=|ui·(vi-z)|2 (4)
计算出当前帧中的所有目标点到目标线段的距离,寻找使得累加距离最小的变换,即是满足激光帧间匹配的最优变换。
S2:视觉闭环检测,视觉闭环检测使用视觉信息对机器人当前位置进行闭环检测,根据视觉闭环检测的结果决定是否执行激光闭环检测,具体步骤如下:
(1)参见图2,根据激光帧间检测的匹配结果进行特征精确匹配,从匹配的局部特征集合中选取任意一对局部特征,用于计算要匹配的图像与目标图像的基础矩阵F,具体做法如下:
设M为三维空间中一点,在左右两幅图像上的投影分别为m1和m2,C1和C2为两相机的光心,C1C2连线与左右两幅图像分别交于点e1和e2,称为对极点。其中投影点m1和m2与基础矩阵F满足下面的关系。在代数上,这一几何关系可以表示为公式5所示:
根据上述描述,两个匹配的局部特征相当于m1和m2,则可以根据公式5计算出基础矩阵F。
(2)将集合中剩余的局部特征对用于校验基础矩阵,如能满足的将该局部特征对作为内点保留,同时计算要匹配的图像与目标图像的能量函数,具体做法如下:
如果剩余的局部特征对与所述基础矩阵相匹配,则满足对极几何约束关系,约束关系描述为:一幅图像上的点m1,在另一幅图像上的匹配点m2位于该点的对极线Fm1上;相反的,一幅图像上的点m2,在另一幅图像上的匹配点m1位于该点的对极线FTm2上。这个描述可以形式化为公式6,其中d2表示空间中点到直线的欧式距离。
根据上述描述,将剩余的局部特征对代入公式6,如能满足则将该局部特征对作为内点保留。过滤完所有的局部特征对后,将所有的内点用于计算要匹配的图像与目标图像的能量函数,如公式7所示:
参数β是归一化能量函数的值,能量函数E(I1,I2)表示两幅图像I1和I2的兴趣点对应集合与估计的基础矩阵F之间的一致程度。当能量函数最大时,表示两幅图像的兴趣点对应的几何约束程度最高。
(3)从匹配的局部特征集合中重新选取任意多对局部特征,重复上述流程(1)和(2)并计算基础矩阵;
(4)多次循环后,比较每次循环的基础矩阵能量函数和内点个数,保留最优基础矩阵F,并用该最优基础矩阵过滤匹配的局部特征集合,实现局部特征的精确匹配。
根据视觉精确匹配的结果,判断当前机器人位置是否处于之前经过的位置,如果是,则输出闭环结果,否则该位置并非闭环位置,则无需进行下一步激光闭环检测操作。
S3:激光闭环检测,根据一个检测到的地图碎片r以及已有地图集合mi∈m,计算机器人当前处于位置l的先验概率p(l|r,m),选取出先验概率最大的位置作为机器人当前位置,并依此判断机器人是否实现闭环,具体步骤如下:
根据贝叶斯法则,先验概率p(l|r,m)表示如公式8所示:
将地图分割为多个单元格,对于每个单元格mi∈m计算机器人出现在当前单元格的概率p(mi),则p(r|l,m)可以近似的表示为公式9:
由于地图m是以前已经构建好的,p(l,m)可以简化为p(l),在匹配区域上是均匀分布的,可以用均匀分布概率来表示;p(r,m)则表示为检测到的地图碎片r以及已有地图m的概率,则p(r,m)=1;则先验概率p(l|r,m)可用公式10表示:
选取出先验概率最大的位置作为机器人当前位置,并依此判断机器人是否实现闭环。
S4:地图优化,根据闭环检测的结果迭代调整特征点和摄像头位姿,具体过程如下:
机器人在全局下的坐标ci用公式11表示为:
其中,i=1,2,…,n表示第i个机器人位姿在世界坐标系的平移的转置,θi,i=1,2,…,n表示第i个机器人位姿在世界坐标系的方向,n表示图中所有机器人位姿的个数。则对于任意两个点ci和cj,两点相对距离h(ci,cj)用公式12表示为:
其中,表示方向的θi旋转矩阵的转置,zij表示点ci和cj的测量距离,则距离误差表示为eij≡zij-h(ci,cj),距离误差的约束函数用公式13表示为:
最小化公式13的约束函数用于查找坐标c优化的估计值,采用LM方法进行求解,具体过程如下:
(1)引入函数:
(H+λ·Hdiag)Δc=JTΛe (14)
其中,H=JTΛe,Λ=diag(Λij),e表示坐标c的误差,J表示求导,H表示矩阵,Hdiag表示矩阵H对角线上的函数值构造的一个对角矩阵,λ表示一个较小的正系数,Δc表示增量,Λij表示测量距离协方差的平方。
(2)初始化λ和H,分别赋予初值。
(3)用梯度下降法求解公式14。
(4)根据求解结果更新Δc,如果误差e减小,则将λ的值缩小一半,并更新坐标为c=c+Δc;如果误差e增大,则将λ的值增大一倍,仍然保留当前姿态c。
该发明方案的有益效果在于,用单目视觉信息来辅助进行激光SLAM室内定位,利用单目视觉方法来检测闭环并给出一个闭环检测信号帮助解决激光闭环检测成功率过低的问题,提出使用对极几何约束过滤错误匹配的视觉局部特征,提高了视觉局部特征的匹配准确率,保证了视觉匹配的准确性;同时,本方案中的视觉信息仅用于建立视觉特征而无需建立视觉地图,省去了建立视觉地图、更新视觉地图耗时的步骤,利用了激光SLAM快速定位的同时,引入准确的视觉闭环。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (3)
1.一种基于多传感器的机器人室内定位及制图***,该***包括激光定位、视觉闭环检测和地图优化模块三个部分,其特征在于,其中:
所述激光定位由激光帧间匹配和激光闭环检测两部分组成,其中:激光帧间检测用于获取激光传感器以实现匹配,并将匹配结果用于激光闭环检测;激光闭环检测用于使用当前点和以往走过的点的激光信息进行比较,判断机器人是否已经走过该点,并以此作为地图是否需要更新的依据。
所述视觉闭环检测用于使用当前点和以往走过的点的视觉信息进行比较,判断机器人是否已经走过该点,并以此作为是否需进行激光闭环检测的依据。
所述地图优化模块用于计算预计观测值与通过传感器采集到的实际观测值的偏差,然后对激光闭环检测进行校正,并且更新已有地图。
2.根据权利要求1所述的一种基于多传感器的机器人室内定位及制图***所实现的一种基于多传感器的机器人室内定位及制图方法,其特征在于,过程包括以下步骤:
S1:激光帧间匹配,根据激光传感器获取到的两帧数据,建立帧间的对应关系以及转换坐标;
S2:视觉闭环检测,视觉闭环检测使用视觉信息对机器人当前位置进行闭环检测,根据视觉闭环检测的结果决定是否执行激光闭环检测;
S3:激光闭环检测,根据一个检测到的地图碎片以及已有地图集合,计算机器人当前处于位置,并以此判断当前是否处于闭环;
S4:地图优化,根据闭环检测的结果迭代调整特征点和摄像头位姿。
3.根据权利要求1所述的一种基于多传感器的机器人室内定位及制图***所实现的一种基于多传感器的机器人室内定位及制图方法,其特征在于,步骤S1,具体过程描述如下:
(1)对于当前机器人位姿图像中的每一点,都找出离他最近的线段,称为目标线段,并对应保存起来;
(2)找到一个当前最优的变换。这个最优的变换可以使当前图像中的所有点到它的目标线段的距离的平方和最小;
(3)根据第二步中找出的最优变换来变换当前图像中的所有点,以及旋转当前地图;
(4)重复上面(1)到(3)的步骤,直到第二步中的结果小于一个阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610673579.7A CN106153048A (zh) | 2016-08-11 | 2016-08-11 | 一种基于多传感器的机器人室内定位及制图*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610673579.7A CN106153048A (zh) | 2016-08-11 | 2016-08-11 | 一种基于多传感器的机器人室内定位及制图*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106153048A true CN106153048A (zh) | 2016-11-23 |
Family
ID=57330950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610673579.7A Withdrawn CN106153048A (zh) | 2016-08-11 | 2016-08-11 | 一种基于多传感器的机器人室内定位及制图*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106153048A (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107741743A (zh) * | 2017-11-06 | 2018-02-27 | 深圳精智机器有限公司 | 改进的图优化slam方法 |
CN108319976A (zh) * | 2018-01-25 | 2018-07-24 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN108332752A (zh) * | 2018-01-09 | 2018-07-27 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN109084732A (zh) * | 2018-06-29 | 2018-12-25 | 北京旷视科技有限公司 | 定位与导航方法、装置及处理设备 |
CN109839118A (zh) * | 2017-11-24 | 2019-06-04 | 北京京东尚科信息技术有限公司 | 路径规划方法、***、机器人和计算机可读存储介质 |
CN109855645A (zh) * | 2019-03-27 | 2019-06-07 | 小驴机器人(武汉)有限公司 | 一种agv小车混合视觉导航方法 |
WO2019136714A1 (zh) * | 2018-01-12 | 2019-07-18 | 浙江国自机器人技术有限公司 | 一种基于3d激光的地图构建方法及*** |
WO2019140745A1 (zh) * | 2018-01-16 | 2019-07-25 | 广东省智能制造研究所 | 机器人定位方法及装置 |
CN110174107A (zh) * | 2019-04-30 | 2019-08-27 | 厦门大学 | 一种导览机器人定位建图激光视觉融合方法和机器人 |
CN110587597A (zh) * | 2019-08-01 | 2019-12-20 | 深圳市银星智能科技股份有限公司 | 一种基于激光雷达的slam闭环检测方法及检测*** |
CN110633336A (zh) * | 2018-06-05 | 2019-12-31 | 杭州海康机器人技术有限公司 | 激光数据搜索范围的确定方法、装置及存储介质 |
CN110796683A (zh) * | 2019-10-15 | 2020-02-14 | 浙江工业大学 | 一种基于视觉特征联合激光slam的重定位方法 |
CN111060101A (zh) * | 2018-10-16 | 2020-04-24 | 深圳市优必选科技有限公司 | 视觉辅助的距离slam方法及装置、机器人 |
CN111707272A (zh) * | 2020-06-28 | 2020-09-25 | 湖南大学 | 一种地下车库自动驾驶激光定位*** |
CN112214019A (zh) * | 2020-09-21 | 2021-01-12 | 国网浙江省电力有限公司 | 一种无人巡检设备无盲区智能反馈控制***、方法、终端 |
CN112595322A (zh) * | 2020-11-27 | 2021-04-02 | 浙江同善人工智能技术有限公司 | 一种融合orb闭环检测的激光slam方法 |
CN113552864A (zh) * | 2020-04-15 | 2021-10-26 | 深圳市镭神智能***有限公司 | 自移动主体的定位方法、装置、自移动主体及存储介质 |
WO2021232470A1 (zh) * | 2020-05-19 | 2021-11-25 | 北京数字绿土科技有限公司 | 基于多传感器融合的slam制图方法、*** |
CN114166218A (zh) * | 2021-11-30 | 2022-03-11 | 上海智能网联汽车技术中心有限公司 | 基于多定位融合的室内定位导航***及方法 |
CN115267796A (zh) * | 2022-08-17 | 2022-11-01 | 深圳市普渡科技有限公司 | 定位方法、装置、机器人和存储介质 |
-
2016
- 2016-08-11 CN CN201610673579.7A patent/CN106153048A/zh not_active Withdrawn
Non-Patent Citations (1)
Title |
---|
梁潇: ""基于激光与单目视觉融合的机器人室内定位与制图研究"", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107741743A (zh) * | 2017-11-06 | 2018-02-27 | 深圳精智机器有限公司 | 改进的图优化slam方法 |
CN109839118A (zh) * | 2017-11-24 | 2019-06-04 | 北京京东尚科信息技术有限公司 | 路径规划方法、***、机器人和计算机可读存储介质 |
CN108332752A (zh) * | 2018-01-09 | 2018-07-27 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN108332752B (zh) * | 2018-01-09 | 2021-04-20 | 深圳市无限动力发展有限公司 | 机器人室内定位的方法及装置 |
WO2019136714A1 (zh) * | 2018-01-12 | 2019-07-18 | 浙江国自机器人技术有限公司 | 一种基于3d激光的地图构建方法及*** |
US10801855B2 (en) | 2018-01-12 | 2020-10-13 | Zhejiang Guozi Technology Co., Ltd. | Method and system for creating map based on 3D laser |
WO2019140745A1 (zh) * | 2018-01-16 | 2019-07-25 | 广东省智能制造研究所 | 机器人定位方法及装置 |
CN108319976A (zh) * | 2018-01-25 | 2018-07-24 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN110633336A (zh) * | 2018-06-05 | 2019-12-31 | 杭州海康机器人技术有限公司 | 激光数据搜索范围的确定方法、装置及存储介质 |
CN109084732A (zh) * | 2018-06-29 | 2018-12-25 | 北京旷视科技有限公司 | 定位与导航方法、装置及处理设备 |
CN111060101B (zh) * | 2018-10-16 | 2022-06-28 | 深圳市优必选科技有限公司 | 视觉辅助的距离slam方法及装置、机器人 |
CN111060101A (zh) * | 2018-10-16 | 2020-04-24 | 深圳市优必选科技有限公司 | 视觉辅助的距离slam方法及装置、机器人 |
CN109855645A (zh) * | 2019-03-27 | 2019-06-07 | 小驴机器人(武汉)有限公司 | 一种agv小车混合视觉导航方法 |
CN110174107B (zh) * | 2019-04-30 | 2021-07-27 | 厦门大学 | 一种导览机器人定位建图激光视觉融合方法和机器人 |
CN110174107A (zh) * | 2019-04-30 | 2019-08-27 | 厦门大学 | 一种导览机器人定位建图激光视觉融合方法和机器人 |
CN110587597A (zh) * | 2019-08-01 | 2019-12-20 | 深圳市银星智能科技股份有限公司 | 一种基于激光雷达的slam闭环检测方法及检测*** |
WO2021017072A1 (zh) * | 2019-08-01 | 2021-02-04 | 深圳市银星智能科技股份有限公司 | 基于激光雷达的 slam 闭环检测方法及检测*** |
CN110587597B (zh) * | 2019-08-01 | 2020-09-22 | 深圳市银星智能科技股份有限公司 | 一种基于激光雷达的slam闭环检测方法及检测*** |
CN110796683A (zh) * | 2019-10-15 | 2020-02-14 | 浙江工业大学 | 一种基于视觉特征联合激光slam的重定位方法 |
CN113552864A (zh) * | 2020-04-15 | 2021-10-26 | 深圳市镭神智能***有限公司 | 自移动主体的定位方法、装置、自移动主体及存储介质 |
WO2021232470A1 (zh) * | 2020-05-19 | 2021-11-25 | 北京数字绿土科技有限公司 | 基于多传感器融合的slam制图方法、*** |
CN111707272A (zh) * | 2020-06-28 | 2020-09-25 | 湖南大学 | 一种地下车库自动驾驶激光定位*** |
CN112214019A (zh) * | 2020-09-21 | 2021-01-12 | 国网浙江省电力有限公司 | 一种无人巡检设备无盲区智能反馈控制***、方法、终端 |
CN112595322A (zh) * | 2020-11-27 | 2021-04-02 | 浙江同善人工智能技术有限公司 | 一种融合orb闭环检测的激光slam方法 |
CN112595322B (zh) * | 2020-11-27 | 2024-05-07 | 浙江同善人工智能技术有限公司 | 一种融合orb闭环检测的激光slam方法 |
CN114166218A (zh) * | 2021-11-30 | 2022-03-11 | 上海智能网联汽车技术中心有限公司 | 基于多定位融合的室内定位导航***及方法 |
CN115267796A (zh) * | 2022-08-17 | 2022-11-01 | 深圳市普渡科技有限公司 | 定位方法、装置、机器人和存储介质 |
CN115267796B (zh) * | 2022-08-17 | 2024-04-09 | 深圳市普渡科技有限公司 | 定位方法、装置、机器人和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106153048A (zh) | 一种基于多传感器的机器人室内定位及制图*** | |
CN107193279A (zh) | 基于单目视觉和imu信息的机器人定位与地图构建*** | |
CN102915039B (zh) | 一种仿动物空间认知的多机器人联合目标搜寻方法 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN104732518A (zh) | 一种基于智能机器人地面特征的ptam改进方法 | |
CN105512621A (zh) | 一种基于Kinect的羽毛球动作指导*** | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN107909614A (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN105957105A (zh) | 基于行为学习的多目标跟踪方法及*** | |
CN102629329B (zh) | 基于自适应sift算法的人员室内定位方法 | |
CN103150728A (zh) | 一种动态环境中的视觉定位方法 | |
CN111161334B (zh) | 一种基于深度学习的语义地图构建方法 | |
CN116205947A (zh) | 基于相机运动状态的双目-惯性融合的位姿估计方法、电子设备及存储介质 | |
CN115731268A (zh) | 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法 | |
CN112595322A (zh) | 一种融合orb闭环检测的激光slam方法 | |
CN109282810A (zh) | 一种惯导和角度传感器融合的蛇形机器人姿态估计方法 | |
CN110119768B (zh) | 用于车辆定位的视觉信息融合***及方法 | |
CN112767546B (zh) | 移动机器人基于双目图像的视觉地图生成方法 | |
Jiao et al. | 2-entity random sample consensus for robust visual localization: Framework, methods, and verifications | |
CN110490933A (zh) | 基于单点ransac的非线性状态空间中心差分滤波器方法 | |
CN111812978A (zh) | 一种多无人机协作slam方法与*** | |
Yu et al. | A deep-learning-based strategy for kidnapped robot problem in similar indoor environment | |
CN110163915B (zh) | 一种多rgb-d传感器的空间三维扫描方法及装置 | |
Suzuki et al. | SLAM using ICP and graph optimization considering physical properties of environment | |
Ma et al. | Precision pose measurement of an object with flange based on shadow distribution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20161123 |
|
WW01 | Invention patent application withdrawn after publication |