CN114264297B - Uwb和视觉slam融合算法的定位建图方法及*** - Google Patents

Uwb和视觉slam融合算法的定位建图方法及*** Download PDF

Info

Publication number
CN114264297B
CN114264297B CN202111455381.9A CN202111455381A CN114264297B CN 114264297 B CN114264297 B CN 114264297B CN 202111455381 A CN202111455381 A CN 202111455381A CN 114264297 B CN114264297 B CN 114264297B
Authority
CN
China
Prior art keywords
map
uwb
coordinate system
key frame
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111455381.9A
Other languages
English (en)
Other versions
CN114264297A (zh
Inventor
张新钰
苑婧
郭世纯
高国柱
吴新刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202111455381.9A priority Critical patent/CN114264297B/zh
Publication of CN114264297A publication Critical patent/CN114264297A/zh
Application granted granted Critical
Publication of CN114264297B publication Critical patent/CN114264297B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了UWB和视觉SLAM融合算法的定位建图方法及***,该方法包括:实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的图像,建立相机坐标系;对图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;根据轨迹匹配方法,统一相机坐标系和UWB坐标系;将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。

Description

UWB和视觉SLAM融合算法的定位建图方法及***
技术领域
本发明涉及移动机器人定位及建图领域,尤其涉及UWB和视觉SLAM融合算法的定位建图方法及***。
背景技术
近年来,基于视觉的定位方法(如视觉里程计VO和同时定位兼绘制地图VSLAM)已经成为移动机器人技术研究的重点和难点之一。视觉SLAM通过相机探索未知区域,建立匹配当前环境的地图而不需要先验信息。
视觉定位通过相机获取周围图像来得到环境信息,关键帧的选取也会影响定位精度。并且,在运行过程中,由于相机传感器本身构造,在一些光线昏暗的地方会出现特征点提取过少甚至没有以导致跟踪失败的问题,或者由于一些相似场景导致感知异常,而UWB(ultra-wideband,超宽带)技术以其精确的定位性能和远距离支持可以弥补这个缺陷,不易受到环境变化的干扰,及时纠正轨迹累计误差。
UWB超宽带定位技术具有厘米级定位潜力的无线通信技术,其信号拥有GHz量级频率带宽的脉冲波,也因此具有较好的抗干扰能力;且UWB信号传输速率高,时间分辨力强,有良好的保密性和共存性的特点来实现对静止或移动物体的导航和追踪。
发明内容
本发明的目的在于克服现有技术缺陷,提出了UWB和视觉SLAM融合算法的定位建图方法及***。
为了实现上述目的,本发明提出了一种UWB和视觉SLAM融合算法的定位建图方法,基于部署在移动车辆上的UWB定位标签和相机传感器以及设置在地面上的UWB定位锚点实现,所述方法包括:
步骤1)实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
步骤2)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
步骤3)根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
步骤4)根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
作为上述方法的一种改进,所述方法还包括将UWB定位标签设置在车辆后轴重心,设置在地面上的UWB定位锚点多于2个。
作为上述方法的一种改进,所述步骤1)具体包括:
以移动车辆的初始位置为原点,初始朝向为X坐标轴,建立UWB坐标系,使用MDS算法初始化第一次的UWB位置,并用EKF算法进行更新,得到移动车辆在UWB坐标系下的坐标;在车辆运行过程中,同步获取相机采集的包含环境信息的图像,建立相机坐标系。
作为上述方法的一种改进,所述步骤2)具体包括:
步骤2-1)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;通过估计不同关键帧之间相机运动得到相机位姿;
步骤2-2)通过UWB锚点获取完整的3D定位,根据提取的特征点,确定关键帧,并实时更新一帧位置。
作为上述方法的一种改进,所述步骤2-1)具体包括:
将包含环境信息的图像分为不同水平,在每个水平进行FAST角点提取,并添加旋转不变性;
将包含环境信息的图像做成高斯金字塔模型,对包含环境信息的图像用高斯卷积核进行高斯模糊处理,然后采用较小分辨率进行降采样,以添加尺度不变性,选取满足条件的图像作为关键帧;
通过估计不同关键帧之间相机运动得到相机位姿。
作为上述方法的一种改进,所述步骤2-1)的FAST角点提取具体包括:
步骤2-1-1)对包含环境信息的图像进行处理,以待检测像素为圆心,以预设的长度值为半径做圆,设置待检测像素的亮度为Ip;
步骤2-1-2)在与圆相交的像素中,找寻与圆中心点的像素差大于Ip+T或小于Ip-T的像素点,阈值T为Ip的20%;
步骤2-1-3)随机选取圆上的16个点,从16个点中间隔选取4个点,判断是否其中3个点与中心点的像素差大于阈值T,判断为是,则记录下满足阈值条件的点,继续选取余下的点,直至遍历完16个点,得到N个像素差大于阈值T的点,从而得到该待检测像素的角点;判断是否遍历完每个待测像素,判断为否,转至步骤2-1-1);否则,转至步骤2-1-4);
步骤2-1-4)得到该图像的FAST角点。
作为上述方法的一种改进,所述步骤3)具体包括:
从视觉轨迹中采样m个点,m≥4,得到UWB坐标系下的矩阵XU以及相机坐标系下的矩阵XL
从矩阵XL和XU上去除均值得到估计后的变换矩阵
Figure BDA0003387503370000031
为:
Figure BDA0003387503370000032
其中,
Figure BDA0003387503370000033
为UWB坐标系下一个点,
Figure BDA0003387503370000034
为相机坐标系下一个点,
Figure BDA0003387503370000035
表示UWB坐标系到相机坐标系的转换,上角标T表示转置矩阵,I表示单位矩阵,下标F表示矩阵的迹,
根据估计后的变换矩阵
Figure BDA0003387503370000039
由下式对UWB坐标系下的坐标
Figure BDA0003387503370000036
进行转换,得到相机坐标系的坐标
Figure BDA0003387503370000037
Figure BDA0003387503370000038
其中,xu,means为UWB坐标系下x值的均值,xL,means为相机坐标系下x值的均值;从而统一相机坐标系和UWB坐标系。
作为上述方法的一种改进,所述步骤4)具体包括:
步骤4-1)利用最小化重投影误差的方式实现位姿的最大后验估计;
步骤4-2)根据坐标系的转换,将关键帧由相机坐标系映射到UWB坐标系,得到带有绝对坐标的关键帧;
步骤4-3)对带有绝对坐标的关键帧进行闭环检测,判断该关键帧是否已跟踪,判断为否,采用DBoW2词袋模型方法进行重定位,根据该关键帧建立地图点,将建立的图放入地图集保存,并将新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图,计算比例因子,并对关键帧和地图点进行调整。
一种UWB和视觉SLAM融合算法的定位建图***,所述***包括:获取模块、关键帧提取模块、坐标系转换模块和检测建图模块;其中,
所述获取模块,用于实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述关键帧提取模块,用于对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
所述坐标系转换模块,用于根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
所述检测建图模块,用于根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
与现有技术相比,本发明的优势在于:
本发明的方法在没有传感器位置的先验信息条件下实时计算UWB全局坐标系与相机坐标系之间的转换关系,并且在环境光线亮度低或者场景相似的情况下,也能在线进行跟踪,减少累积位置误差。
附图说明
图1是本发明的UWB和视觉SLAM融合算法的定位建图方法流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例1
如图1所示,本发明的实施例1提出了一种UWB和相机传感器融合的定位建图方法,该方法包括如下步骤:
1.以移动机器人初始位置为原点,初始朝向为X坐标轴,建立世界坐标系,UWB定位标签位于车身框架原点也就是车后轴重心,其他UWB定位锚点地面。在移动机器人运动过程中,通过实时获取UWB定位标签和UWB定位锚点传输的UWB信号,使用经典的MDS算法(Multiple Dimensional Scalling,降维算法)初始化第一次的UWB位置,并用EKF算法(Extended Kalman Filter,扩展卡尔曼滤波)来更新获取UWB坐标。在小车运行过程中,相机实时运行记录下小车的运行轨迹计算位置关系。
2.对于相机传感器得到的图像数据进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧,具体步骤如下:
2-1.提取FAST角点,以待检测像素为圆心,3为半径,做一个圆,设置像素亮度为Ip
2-2.检测与圆相交的像素中与中心点的像素差大于Ip+T或小于Ip-T(T可设为Ip的20%)即像素差大于T;
2-3.预测试步骤:随机选取P为中心的圆上的16个像素点,从中选择四个点,不要太过集中,以1、5、9、13四点为例,若其中有三个与中心像素值的差大于阈值T,则继续执行,否则不继续筛查;
2-3.若16个点检测完成时,选取的圆上连续N个点大于Ip+T或小于Ip-T则认定该像素为角点;
2-4.对每个像素循环以上步骤,执行相同操作;
2-5.添加尺度不变性:将采集得到的原始图像做成高斯金字塔模型,对原始图像用高斯卷积核进行高斯模糊处理,然后对其进行分辨率较小的降采样图像
2-6.将图像分为不同水平,在若干个水平进行FAST角点提取;
3.通过UWB锚点获取完整的3D定位,根据相机实时采集的图像提取的特征点,确定满足条件的关键帧,初始关键帧的特征数必须大于100,当前关键帧的描述子转为BoW,并实时计算当前帧相对于活动地图的位姿,用当前帧更新上一帧,实时跟踪最新一帧位置;
4.统一视觉坐标系和UWB坐标系,利用轨迹匹配方法:
4-1:从视觉轨迹中采样m个点(m≥4)
Figure BDA0003387503370000051
4-2:从矩阵XL和XU上去除均值得到变换矩阵R的估计值
Figure BDA0003387503370000061
4-3:通过以下公式进行坐标转换
Figure BDA0003387503370000062
5.初始化和收集UWB线程的第一批数据;使用滑动窗口法同时优化固定比例因子S和UWB标签位置,UWB接受的位置距离测量值为D,机器人估计位姿定义为
Figure BDA0003387503370000063
是真实位姿,
6.小车获得从N个静态UWB基站得到的距离测量值Dn;
7.待估计的状态向量为x
Figure BDA0003387503370000064
8.纯视觉状态向量方程为
Figure BDA0003387503370000065
UWB线程状态方程为
Figure BDA0003387503370000066
据优化后获得的比例因子作为单目初始帧的尺度,获得关键帧的3D点,用三角测量初始化得到的三维点来生成地图点,更新关键帧间的连接关系;
9.利用最小化重投影误差的方式实现位姿的最大后验估计(MAP),且决定新一帧是否作为关键帧加入地图;
10.将关键帧坐标通过像素平面映射到统一后的UWB坐标系下,获得带有绝对定位的关键帧坐标;
11.若跟踪丢失,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图
随着每一次视觉线程和UWB线程的更新,关键帧和地图点会按照估计得到的比例因子进行调整。随后任何新的位姿数据将拥有新的比例
12.采用DBoW2词袋模型方法进行重定位,对于每个新的关键帧都会在DBoW2数据库中查询到Atltas中的几个通过检测汉明距离确立的相似关键帧。Ka定义为待匹配帧来查询数据库,Km为匹配候选帧来匹配地图点,每个Ka挑选三个Km进行匹配,通过词袋库的正向索引得到各个匹配点的2D匹配关系,从而建立匹配点的匹配关系检测可能存在的回环;
13.验证环节:
检查时间的一致性:是否在一段时间内可以多次检测到回环;
检查空间一致性:引入通过UWB线程获得的关键帧坐标,进行坐标匹配;
14.每次跟踪失败时,***会构建一个子地图,可以增加***的鲁棒性。每次新建立的地图与子地图有共同的部分会进行地图融合,将有不限数量的子地图且带有UWB关键帧的词袋数据库保存至多地图中,以保证地图场景重识别的效率。
实施例2
本发明的实施例2提出了一种UWB和视觉SLAM融合算法的定位建图***,基于实施例1的方法实现,该***包括:获取模块、关键帧提取模块、坐标系转换模块和检测建图模块;其中,
获取模块,用于实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
关键帧提取模块,用于对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
坐标系转换模块,用于根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
检测建图模块,用于根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.一种UWB和视觉SLAM融合算法的定位建图方法,基于部署在移动车辆上的UWB定位标签和相机传感器以及设置在地面上的UWB定位锚点实现,所述方法包括:
步骤1)实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
步骤2)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
步骤3)根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
步骤4)根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图;
所述步骤1)具体包括:
以移动车辆的初始位置为原点,初始朝向为X坐标轴,建立UWB坐标系,使用MDS算法初始化第一次的UWB位置,并用EKF算法进行更新,得到移动车辆在UWB坐标系下的坐标;在车辆运行过程中,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述步骤4)具体包括:
步骤4-1)利用最小化重投影误差的方式实现位姿的最大后验估计;
步骤4-2)根据坐标系的转换,将关键帧由相机坐标系映射到UWB坐标系,得到带有绝对坐标的关键帧;
步骤4-3)对带有绝对坐标的关键帧进行闭环检测,判断该关键帧是否已跟踪,判断为否,采用DBoW2词袋模型方法进行重定位,根据该关键帧建立地图点,将建立的图放入地图集保存,并将新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图,计算比例因子,并对关键帧和地图点进行调整。
2.根据权利要求1所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述方法还包括将UWB定位标签设置在车辆后轴重心,设置在地面上的UWB定位锚点多于2个。
3.根据权利要求1所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤2)具体包括:
步骤2-1)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;通过估计不同关键帧之间相机运动得到相机位姿;
步骤2-2)通过UWB锚点获取完整的3D定位,根据提取的特征点,确定关键帧,并实时更新一帧位置。
4.根据权利要求3所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤2-1)具体包括:
将包含环境信息的图像分为不同水平,在每个水平进行FAST角点提取,并添加旋转不变性;
将包含环境信息的图像做成高斯金字塔模型,对包含环境信息的图像用高斯卷积核进行高斯模糊处理,然后采用较小分辨率进行降采样,以添加尺度不变性,选取满足条件的图像作为关键帧;
通过估计不同关键帧之间相机运动得到相机位姿。
5.根据权利要求4所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤2-1)的FAST角点提取具体包括:
步骤2-1-1)对包含环境信息的图像进行处理,以待检测像素为圆心,以预设的长度值为半径做圆,设置待检测像素的亮度为Ip;
步骤2-1-2)在与圆相交的像素中,找寻与圆中心点的像素差大于Ip+T或小于Ip-T的像素点,阈值T为Ip的20%;
步骤2-1-3)随机选取圆上的16个点,从16个点中间隔选取4个点,判断是否其中3个点与中心点的像素差大于阈值T,判断为是,则记录下满足阈值条件的点,继续选取余下的点,直至遍历完16个点,得到N个像素差大于阈值T的点,从而得到该待检测像素的角点;判断是否遍历完每个待测像素,判断为否,转至步骤2-1-1);否则,转至步骤2-1-4);
步骤2-1-4)得到该图像的FAST角点。
6.根据权利要求1所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤3)具体包括:
从视觉轨迹中采样m个点,m≥4,得到UWB坐标系下的矩阵XU以及相机坐标系下的矩阵XL
从矩阵XL和XU上去除均值得到估计后的变换矩阵
Figure FDA0003772081610000031
为:
Figure FDA0003772081610000032
其中,
Figure FDA0003772081610000033
为UWB坐标系下一个点,
Figure FDA0003772081610000034
为相机坐标系下一个点,
Figure FDA0003772081610000035
表示UWB坐标系到相机坐标系的转换,上角标T表示转置矩阵,I表示单位矩阵,下标F表示矩阵的迹,
根据估计后的变换矩阵
Figure FDA0003772081610000036
由下式对UWB坐标系下的坐标
Figure FDA0003772081610000037
进行转换,得到相机坐标系的坐标
Figure FDA0003772081610000038
Figure FDA0003772081610000039
其中,xu,means为UWB坐标系下x值的均值,xL,means为相机坐标系下x值的均值;
从而统一相机坐标系和UWB坐标系。
7.一种UWB和视觉SLAM融合算法的定位建图***,其特征在于,所述***包括:获取模块、关键帧提取模块、坐标系转换模块和检测建图模块;其中,
所述获取模块,用于实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述关键帧提取模块,用于对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
所述坐标系转换模块,用于根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
所述检测建图模块,用于根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图;
所述获取模块的处理过程具体包括:
以移动车辆的初始位置为原点,初始朝向为X坐标轴,建立UWB坐标系,使用MDS算法初始化第一次的UWB位置,并用EKF算法进行更新,得到移动车辆在UWB坐标系下的坐标;在车辆运行过程中,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述检测建图模块的处理过程具体包括:
利用最小化重投影误差的方式实现位姿的最大后验估计;
根据坐标系的转换,将关键帧由相机坐标系映射到UWB坐标系,得到带有绝对坐标的关键帧;
对带有绝对坐标的关键帧进行闭环检测,判断该关键帧是否已跟踪,判断为否,采用DBoW2词袋模型方法进行重定位,根据该关键帧建立地图点,将建立的图放入地图集保存,并将新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图,计算比例因子,并对关键帧和地图点进行调整。
CN202111455381.9A 2021-12-01 2021-12-01 Uwb和视觉slam融合算法的定位建图方法及*** Active CN114264297B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111455381.9A CN114264297B (zh) 2021-12-01 2021-12-01 Uwb和视觉slam融合算法的定位建图方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111455381.9A CN114264297B (zh) 2021-12-01 2021-12-01 Uwb和视觉slam融合算法的定位建图方法及***

Publications (2)

Publication Number Publication Date
CN114264297A CN114264297A (zh) 2022-04-01
CN114264297B true CN114264297B (zh) 2022-10-18

Family

ID=80826298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111455381.9A Active CN114264297B (zh) 2021-12-01 2021-12-01 Uwb和视觉slam融合算法的定位建图方法及***

Country Status (1)

Country Link
CN (1) CN114264297B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116105720B (zh) * 2023-04-10 2023-06-23 中国人民解放军国防科技大学 低照度场景机器人主动视觉slam方法、装置和设备
CN117459898A (zh) * 2023-12-22 2024-01-26 浙江深寻科技有限公司 一种应急定位通信方法及***

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101149800B1 (ko) * 2011-12-01 2012-06-08 국방과학연구소 초광대역 레이더 와 스테레오 카메라를 이용한 은폐장애물 감지장치 및 방법
CN106570888A (zh) * 2016-11-10 2017-04-19 河海大学 一种基于fast角点和金字塔klt的目标跟踪方法
CN111373393B (zh) * 2017-11-24 2022-05-31 华为技术有限公司 图像检索方法和装置以及图像库的生成方法和装置
CN110657803B (zh) * 2018-06-28 2021-10-29 深圳市优必选科技有限公司 机器人定位方法、装置以及存储装置
CN112197770B (zh) * 2020-12-02 2021-03-12 北京欣奕华数字科技有限公司 一种机器人的定位方法及其定位装置
CN112907580B (zh) * 2021-03-26 2024-04-19 东南大学 一种应用于弱纹理场景下的综合点线特征的图像特征提取和匹配算法
CN113124856B (zh) * 2021-05-21 2023-03-14 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113706612B (zh) * 2021-10-28 2022-02-11 天地(常州)自动化股份有限公司 融合uwb和单目视觉slam的煤矿井下车辆定位方法

Also Published As

Publication number Publication date
CN114264297A (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN112014857B (zh) 用于智能巡检的三维激光雷达定位导航方法及巡检机器人
CN114264297B (zh) Uwb和视觉slam融合算法的定位建图方法及***
CN113359097B (zh) 一种毫米波雷达和相机联合标定的方法
CN111882612A (zh) 一种基于三维激光检测车道线的车辆多尺度定位方法
CN110073362A (zh) 用于车道标记检测的***及方法
CN111830953A (zh) 车辆自定位方法、装置及***
CN110599545B (zh) 一种基于特征的构建稠密地图的***
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、***及介质
CN114088081B (zh) 一种基于多段联合优化的用于精确定位的地图构建方法
CN112505671B (zh) Gnss信号缺失环境下毫米波雷达目标定位方法及装置
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN114119659A (zh) 一种多传感器融合的目标跟踪方法
CN111553342B (zh) 一种视觉定位方法、装置、计算机设备和存储介质
CN112432653A (zh) 基于点线特征的单目视觉惯性里程计方法
CN115235478B (zh) 基于视觉标签和激光slam的智能汽车定位方法及***
CN114219836B (zh) 一种基于时空信息辅助的无人机视频车辆跟踪方法
CN111239761B (zh) 一种用于室内实时建立二维地图的方法
CN113870317B (zh) 基于增强型视觉目标跟踪的可见光定位方法及***
CN113850864B (zh) 一种面向室外移动机器人的gnss/lidar回环检测方法
CN114782689A (zh) 一种基于多帧数据融合的点云平面分割方法
Li et al. 3D semantic map construction based on point cloud and image fusion
CN114913224A (zh) 基于视觉slam的用于移动机器人的构图方法
Wang et al. Raillomer: Rail vehicle localization and mapping with LiDAR-IMU-odometer-GNSS data fusion
CN117315268B (zh) 一种基于毫米波雷达的slam方法及***
CN114268918B (zh) 一种快速离线建库的室内csi指纹定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant