CN114264297B - Uwb和视觉slam融合算法的定位建图方法及*** - Google Patents
Uwb和视觉slam融合算法的定位建图方法及*** Download PDFInfo
- Publication number
- CN114264297B CN114264297B CN202111455381.9A CN202111455381A CN114264297B CN 114264297 B CN114264297 B CN 114264297B CN 202111455381 A CN202111455381 A CN 202111455381A CN 114264297 B CN114264297 B CN 114264297B
- Authority
- CN
- China
- Prior art keywords
- map
- uwb
- coordinate system
- key frame
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了UWB和视觉SLAM融合算法的定位建图方法及***,该方法包括:实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的图像,建立相机坐标系;对图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;根据轨迹匹配方法,统一相机坐标系和UWB坐标系;将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
Description
技术领域
本发明涉及移动机器人定位及建图领域,尤其涉及UWB和视觉SLAM融合算法的定位建图方法及***。
背景技术
近年来,基于视觉的定位方法(如视觉里程计VO和同时定位兼绘制地图VSLAM)已经成为移动机器人技术研究的重点和难点之一。视觉SLAM通过相机探索未知区域,建立匹配当前环境的地图而不需要先验信息。
视觉定位通过相机获取周围图像来得到环境信息,关键帧的选取也会影响定位精度。并且,在运行过程中,由于相机传感器本身构造,在一些光线昏暗的地方会出现特征点提取过少甚至没有以导致跟踪失败的问题,或者由于一些相似场景导致感知异常,而UWB(ultra-wideband,超宽带)技术以其精确的定位性能和远距离支持可以弥补这个缺陷,不易受到环境变化的干扰,及时纠正轨迹累计误差。
UWB超宽带定位技术具有厘米级定位潜力的无线通信技术,其信号拥有GHz量级频率带宽的脉冲波,也因此具有较好的抗干扰能力;且UWB信号传输速率高,时间分辨力强,有良好的保密性和共存性的特点来实现对静止或移动物体的导航和追踪。
发明内容
本发明的目的在于克服现有技术缺陷,提出了UWB和视觉SLAM融合算法的定位建图方法及***。
为了实现上述目的,本发明提出了一种UWB和视觉SLAM融合算法的定位建图方法,基于部署在移动车辆上的UWB定位标签和相机传感器以及设置在地面上的UWB定位锚点实现,所述方法包括:
步骤1)实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
步骤2)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
步骤3)根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
步骤4)根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
作为上述方法的一种改进,所述方法还包括将UWB定位标签设置在车辆后轴重心,设置在地面上的UWB定位锚点多于2个。
作为上述方法的一种改进,所述步骤1)具体包括:
以移动车辆的初始位置为原点,初始朝向为X坐标轴,建立UWB坐标系,使用MDS算法初始化第一次的UWB位置,并用EKF算法进行更新,得到移动车辆在UWB坐标系下的坐标;在车辆运行过程中,同步获取相机采集的包含环境信息的图像,建立相机坐标系。
作为上述方法的一种改进,所述步骤2)具体包括:
步骤2-1)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;通过估计不同关键帧之间相机运动得到相机位姿;
步骤2-2)通过UWB锚点获取完整的3D定位,根据提取的特征点,确定关键帧,并实时更新一帧位置。
作为上述方法的一种改进,所述步骤2-1)具体包括:
将包含环境信息的图像分为不同水平,在每个水平进行FAST角点提取,并添加旋转不变性;
将包含环境信息的图像做成高斯金字塔模型,对包含环境信息的图像用高斯卷积核进行高斯模糊处理,然后采用较小分辨率进行降采样,以添加尺度不变性,选取满足条件的图像作为关键帧;
通过估计不同关键帧之间相机运动得到相机位姿。
作为上述方法的一种改进,所述步骤2-1)的FAST角点提取具体包括:
步骤2-1-1)对包含环境信息的图像进行处理,以待检测像素为圆心,以预设的长度值为半径做圆,设置待检测像素的亮度为Ip;
步骤2-1-2)在与圆相交的像素中,找寻与圆中心点的像素差大于Ip+T或小于Ip-T的像素点,阈值T为Ip的20%;
步骤2-1-3)随机选取圆上的16个点,从16个点中间隔选取4个点,判断是否其中3个点与中心点的像素差大于阈值T,判断为是,则记录下满足阈值条件的点,继续选取余下的点,直至遍历完16个点,得到N个像素差大于阈值T的点,从而得到该待检测像素的角点;判断是否遍历完每个待测像素,判断为否,转至步骤2-1-1);否则,转至步骤2-1-4);
步骤2-1-4)得到该图像的FAST角点。
作为上述方法的一种改进,所述步骤3)具体包括:
从视觉轨迹中采样m个点,m≥4,得到UWB坐标系下的矩阵XU以及相机坐标系下的矩阵XL;
其中,xu,means为UWB坐标系下x值的均值,xL,means为相机坐标系下x值的均值;从而统一相机坐标系和UWB坐标系。
作为上述方法的一种改进,所述步骤4)具体包括:
步骤4-1)利用最小化重投影误差的方式实现位姿的最大后验估计;
步骤4-2)根据坐标系的转换,将关键帧由相机坐标系映射到UWB坐标系,得到带有绝对坐标的关键帧;
步骤4-3)对带有绝对坐标的关键帧进行闭环检测,判断该关键帧是否已跟踪,判断为否,采用DBoW2词袋模型方法进行重定位,根据该关键帧建立地图点,将建立的图放入地图集保存,并将新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图,计算比例因子,并对关键帧和地图点进行调整。
一种UWB和视觉SLAM融合算法的定位建图***,所述***包括:获取模块、关键帧提取模块、坐标系转换模块和检测建图模块;其中,
所述获取模块,用于实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述关键帧提取模块,用于对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
所述坐标系转换模块,用于根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
所述检测建图模块,用于根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
与现有技术相比,本发明的优势在于:
本发明的方法在没有传感器位置的先验信息条件下实时计算UWB全局坐标系与相机坐标系之间的转换关系,并且在环境光线亮度低或者场景相似的情况下,也能在线进行跟踪,减少累积位置误差。
附图说明
图1是本发明的UWB和视觉SLAM融合算法的定位建图方法流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例1
如图1所示,本发明的实施例1提出了一种UWB和相机传感器融合的定位建图方法,该方法包括如下步骤:
1.以移动机器人初始位置为原点,初始朝向为X坐标轴,建立世界坐标系,UWB定位标签位于车身框架原点也就是车后轴重心,其他UWB定位锚点地面。在移动机器人运动过程中,通过实时获取UWB定位标签和UWB定位锚点传输的UWB信号,使用经典的MDS算法(Multiple Dimensional Scalling,降维算法)初始化第一次的UWB位置,并用EKF算法(Extended Kalman Filter,扩展卡尔曼滤波)来更新获取UWB坐标。在小车运行过程中,相机实时运行记录下小车的运行轨迹计算位置关系。
2.对于相机传感器得到的图像数据进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧,具体步骤如下:
2-1.提取FAST角点,以待检测像素为圆心,3为半径,做一个圆,设置像素亮度为Ip
2-2.检测与圆相交的像素中与中心点的像素差大于Ip+T或小于Ip-T(T可设为Ip的20%)即像素差大于T;
2-3.预测试步骤:随机选取P为中心的圆上的16个像素点,从中选择四个点,不要太过集中,以1、5、9、13四点为例,若其中有三个与中心像素值的差大于阈值T,则继续执行,否则不继续筛查;
2-3.若16个点检测完成时,选取的圆上连续N个点大于Ip+T或小于Ip-T则认定该像素为角点;
2-4.对每个像素循环以上步骤,执行相同操作;
2-5.添加尺度不变性:将采集得到的原始图像做成高斯金字塔模型,对原始图像用高斯卷积核进行高斯模糊处理,然后对其进行分辨率较小的降采样图像
2-6.将图像分为不同水平,在若干个水平进行FAST角点提取;
3.通过UWB锚点获取完整的3D定位,根据相机实时采集的图像提取的特征点,确定满足条件的关键帧,初始关键帧的特征数必须大于100,当前关键帧的描述子转为BoW,并实时计算当前帧相对于活动地图的位姿,用当前帧更新上一帧,实时跟踪最新一帧位置;
4.统一视觉坐标系和UWB坐标系,利用轨迹匹配方法:
4-1:从视觉轨迹中采样m个点(m≥4)
4-2:从矩阵XL和XU上去除均值得到变换矩阵R的估计值
4-3:通过以下公式进行坐标转换
6.小车获得从N个静态UWB基站得到的距离测量值Dn;
7.待估计的状态向量为x
8.纯视觉状态向量方程为
UWB线程状态方程为
据优化后获得的比例因子作为单目初始帧的尺度,获得关键帧的3D点,用三角测量初始化得到的三维点来生成地图点,更新关键帧间的连接关系;
9.利用最小化重投影误差的方式实现位姿的最大后验估计(MAP),且决定新一帧是否作为关键帧加入地图;
10.将关键帧坐标通过像素平面映射到统一后的UWB坐标系下,获得带有绝对定位的关键帧坐标;
11.若跟踪丢失,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图
随着每一次视觉线程和UWB线程的更新,关键帧和地图点会按照估计得到的比例因子进行调整。随后任何新的位姿数据将拥有新的比例
12.采用DBoW2词袋模型方法进行重定位,对于每个新的关键帧都会在DBoW2数据库中查询到Atltas中的几个通过检测汉明距离确立的相似关键帧。Ka定义为待匹配帧来查询数据库,Km为匹配候选帧来匹配地图点,每个Ka挑选三个Km进行匹配,通过词袋库的正向索引得到各个匹配点的2D匹配关系,从而建立匹配点的匹配关系检测可能存在的回环;
13.验证环节:
检查时间的一致性:是否在一段时间内可以多次检测到回环;
检查空间一致性:引入通过UWB线程获得的关键帧坐标,进行坐标匹配;
14.每次跟踪失败时,***会构建一个子地图,可以增加***的鲁棒性。每次新建立的地图与子地图有共同的部分会进行地图融合,将有不限数量的子地图且带有UWB关键帧的词袋数据库保存至多地图中,以保证地图场景重识别的效率。
实施例2
本发明的实施例2提出了一种UWB和视觉SLAM融合算法的定位建图***,基于实施例1的方法实现,该***包括:获取模块、关键帧提取模块、坐标系转换模块和检测建图模块;其中,
获取模块,用于实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
关键帧提取模块,用于对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
坐标系转换模块,用于根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
检测建图模块,用于根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.一种UWB和视觉SLAM融合算法的定位建图方法,基于部署在移动车辆上的UWB定位标签和相机传感器以及设置在地面上的UWB定位锚点实现,所述方法包括:
步骤1)实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
步骤2)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
步骤3)根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
步骤4)根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图;
所述步骤1)具体包括:
以移动车辆的初始位置为原点,初始朝向为X坐标轴,建立UWB坐标系,使用MDS算法初始化第一次的UWB位置,并用EKF算法进行更新,得到移动车辆在UWB坐标系下的坐标;在车辆运行过程中,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述步骤4)具体包括:
步骤4-1)利用最小化重投影误差的方式实现位姿的最大后验估计;
步骤4-2)根据坐标系的转换,将关键帧由相机坐标系映射到UWB坐标系,得到带有绝对坐标的关键帧;
步骤4-3)对带有绝对坐标的关键帧进行闭环检测,判断该关键帧是否已跟踪,判断为否,采用DBoW2词袋模型方法进行重定位,根据该关键帧建立地图点,将建立的图放入地图集保存,并将新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图,计算比例因子,并对关键帧和地图点进行调整。
2.根据权利要求1所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述方法还包括将UWB定位标签设置在车辆后轴重心,设置在地面上的UWB定位锚点多于2个。
3.根据权利要求1所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤2)具体包括:
步骤2-1)对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;通过估计不同关键帧之间相机运动得到相机位姿;
步骤2-2)通过UWB锚点获取完整的3D定位,根据提取的特征点,确定关键帧,并实时更新一帧位置。
4.根据权利要求3所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤2-1)具体包括:
将包含环境信息的图像分为不同水平,在每个水平进行FAST角点提取,并添加旋转不变性;
将包含环境信息的图像做成高斯金字塔模型,对包含环境信息的图像用高斯卷积核进行高斯模糊处理,然后采用较小分辨率进行降采样,以添加尺度不变性,选取满足条件的图像作为关键帧;
通过估计不同关键帧之间相机运动得到相机位姿。
5.根据权利要求4所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤2-1)的FAST角点提取具体包括:
步骤2-1-1)对包含环境信息的图像进行处理,以待检测像素为圆心,以预设的长度值为半径做圆,设置待检测像素的亮度为Ip;
步骤2-1-2)在与圆相交的像素中,找寻与圆中心点的像素差大于Ip+T或小于Ip-T的像素点,阈值T为Ip的20%;
步骤2-1-3)随机选取圆上的16个点,从16个点中间隔选取4个点,判断是否其中3个点与中心点的像素差大于阈值T,判断为是,则记录下满足阈值条件的点,继续选取余下的点,直至遍历完16个点,得到N个像素差大于阈值T的点,从而得到该待检测像素的角点;判断是否遍历完每个待测像素,判断为否,转至步骤2-1-1);否则,转至步骤2-1-4);
步骤2-1-4)得到该图像的FAST角点。
6.根据权利要求1所述的UWB和视觉SLAM融合算法的定位建图方法,其特征在于,所述步骤3)具体包括:
从视觉轨迹中采样m个点,m≥4,得到UWB坐标系下的矩阵XU以及相机坐标系下的矩阵XL;
其中,xu,means为UWB坐标系下x值的均值,xL,means为相机坐标系下x值的均值;
从而统一相机坐标系和UWB坐标系。
7.一种UWB和视觉SLAM融合算法的定位建图***,其特征在于,所述***包括:获取模块、关键帧提取模块、坐标系转换模块和检测建图模块;其中,
所述获取模块,用于实时获取UWB定位标签和UWB定位锚点传输的UWB信号,得到移动车辆在UWB坐标系下的坐标,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述关键帧提取模块,用于对包含环境信息的图像进行处理,根据帧间特征点匹配,计算帧间运动,提取特征点,选取满足条件的图像作为关键帧;
所述坐标系转换模块,用于根据轨迹匹配方法,统一相机坐标系和UWB坐标系;
所述检测建图模块,用于根据统一的坐标系,将关键帧转换为带有UWB坐标系的绝对坐标并进行闭环检测,判断该关键帧是否已跟踪,判断为否,根据该关键帧建立地图点,将建立的图放入地图集保存,并对新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里寻找满足当前位置信息的匹配地图;
所述获取模块的处理过程具体包括:
以移动车辆的初始位置为原点,初始朝向为X坐标轴,建立UWB坐标系,使用MDS算法初始化第一次的UWB位置,并用EKF算法进行更新,得到移动车辆在UWB坐标系下的坐标;在车辆运行过程中,同步获取相机采集的包含环境信息的图像,建立相机坐标系;
所述检测建图模块的处理过程具体包括:
利用最小化重投影误差的方式实现位姿的最大后验估计;
根据坐标系的转换,将关键帧由相机坐标系映射到UWB坐标系,得到带有绝对坐标的关键帧;
对带有绝对坐标的关键帧进行闭环检测,判断该关键帧是否已跟踪,判断为否,采用DBoW2词袋模型方法进行重定位,根据该关键帧建立地图点,将建立的图放入地图集保存,并将新放入的图与地图集里的子地图的共同部分进行地图融合;判断为是,在地图集里重定位包含当前关键帧的地图,找到满足当前位置的匹配地图,将该地图设置为活动地图,计算比例因子,并对关键帧和地图点进行调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111455381.9A CN114264297B (zh) | 2021-12-01 | 2021-12-01 | Uwb和视觉slam融合算法的定位建图方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111455381.9A CN114264297B (zh) | 2021-12-01 | 2021-12-01 | Uwb和视觉slam融合算法的定位建图方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114264297A CN114264297A (zh) | 2022-04-01 |
CN114264297B true CN114264297B (zh) | 2022-10-18 |
Family
ID=80826298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111455381.9A Active CN114264297B (zh) | 2021-12-01 | 2021-12-01 | Uwb和视觉slam融合算法的定位建图方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114264297B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116105720B (zh) * | 2023-04-10 | 2023-06-23 | 中国人民解放军国防科技大学 | 低照度场景机器人主动视觉slam方法、装置和设备 |
CN117459898A (zh) * | 2023-12-22 | 2024-01-26 | 浙江深寻科技有限公司 | 一种应急定位通信方法及*** |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101149800B1 (ko) * | 2011-12-01 | 2012-06-08 | 국방과학연구소 | 초광대역 레이더 와 스테레오 카메라를 이용한 은폐장애물 감지장치 및 방법 |
CN106570888A (zh) * | 2016-11-10 | 2017-04-19 | 河海大学 | 一种基于fast角点和金字塔klt的目标跟踪方法 |
CN111373393B (zh) * | 2017-11-24 | 2022-05-31 | 华为技术有限公司 | 图像检索方法和装置以及图像库的生成方法和装置 |
CN110657803B (zh) * | 2018-06-28 | 2021-10-29 | 深圳市优必选科技有限公司 | 机器人定位方法、装置以及存储装置 |
CN112197770B (zh) * | 2020-12-02 | 2021-03-12 | 北京欣奕华数字科技有限公司 | 一种机器人的定位方法及其定位装置 |
CN112907580B (zh) * | 2021-03-26 | 2024-04-19 | 东南大学 | 一种应用于弱纹理场景下的综合点线特征的图像特征提取和匹配算法 |
CN113124856B (zh) * | 2021-05-21 | 2023-03-14 | 天津大学 | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 |
CN113706612B (zh) * | 2021-10-28 | 2022-02-11 | 天地(常州)自动化股份有限公司 | 融合uwb和单目视觉slam的煤矿井下车辆定位方法 |
-
2021
- 2021-12-01 CN CN202111455381.9A patent/CN114264297B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114264297A (zh) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112014857B (zh) | 用于智能巡检的三维激光雷达定位导航方法及巡检机器人 | |
CN114264297B (zh) | Uwb和视觉slam融合算法的定位建图方法及*** | |
CN113359097B (zh) | 一种毫米波雷达和相机联合标定的方法 | |
CN111882612A (zh) | 一种基于三维激光检测车道线的车辆多尺度定位方法 | |
CN110073362A (zh) | 用于车道标记检测的***及方法 | |
CN111830953A (zh) | 车辆自定位方法、装置及*** | |
CN110599545B (zh) | 一种基于特征的构建稠密地图的*** | |
CN112734765A (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 | |
CN114088081B (zh) | 一种基于多段联合优化的用于精确定位的地图构建方法 | |
CN112505671B (zh) | Gnss信号缺失环境下毫米波雷达目标定位方法及装置 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN114119659A (zh) | 一种多传感器融合的目标跟踪方法 | |
CN111553342B (zh) | 一种视觉定位方法、装置、计算机设备和存储介质 | |
CN112432653A (zh) | 基于点线特征的单目视觉惯性里程计方法 | |
CN115235478B (zh) | 基于视觉标签和激光slam的智能汽车定位方法及*** | |
CN114219836B (zh) | 一种基于时空信息辅助的无人机视频车辆跟踪方法 | |
CN111239761B (zh) | 一种用于室内实时建立二维地图的方法 | |
CN113870317B (zh) | 基于增强型视觉目标跟踪的可见光定位方法及*** | |
CN113850864B (zh) | 一种面向室外移动机器人的gnss/lidar回环检测方法 | |
CN114782689A (zh) | 一种基于多帧数据融合的点云平面分割方法 | |
Li et al. | 3D semantic map construction based on point cloud and image fusion | |
CN114913224A (zh) | 基于视觉slam的用于移动机器人的构图方法 | |
Wang et al. | Raillomer: Rail vehicle localization and mapping with LiDAR-IMU-odometer-GNSS data fusion | |
CN117315268B (zh) | 一种基于毫米波雷达的slam方法及*** | |
CN114268918B (zh) | 一种快速离线建库的室内csi指纹定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |