CN110345944A - 融合视觉特征和imu信息的机器人定位方法 - Google Patents
融合视觉特征和imu信息的机器人定位方法 Download PDFInfo
- Publication number
- CN110345944A CN110345944A CN201910448746.1A CN201910448746A CN110345944A CN 110345944 A CN110345944 A CN 110345944A CN 201910448746 A CN201910448746 A CN 201910448746A CN 110345944 A CN110345944 A CN 110345944A
- Authority
- CN
- China
- Prior art keywords
- imu
- coordinate system
- indicate
- acceleration
- relative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
Abstract
融合视觉特征和IMU信息的机器人定位方法,本发明提出了一种单目视觉与IMU融合的方法。首先视觉前端位姿跟踪采用特征点估计机器人位姿,并利用纯视觉信息对IMU偏差模型,绝对尺度和重力加速度方向进行估计。同时IMU解算得到的高精度位姿信息为优化搜索过程提供初始参照,并作为状态量和视觉导航信息一起参与优化。后端采用了基于滑动窗口的紧耦合非线性优化方法,实时优化位姿和地图,且滑动窗口法计算里程计时候运算复杂度保持固定,提高了算法鲁棒性。
Description
技术领域
本发明涉及一种机器人室内视觉定位方法,具体是一种融合视觉特征和IMU 信息的机器人定位方法。
背景技术
移动机器人同时定位与地图构建(Simultaneous Localization and Mapping)问题,就是让机器人在环境未加或不确定的情况下,利用自身配备的传感器感知外界信息,对自身位置进行定位,并在此基础上进行地图构建。
视觉定位是当下机器人SLAM研究的热点。视觉定位方法使用所获取的图像序列,通过提取图像特征并根据特征点的运动变化在不同帧中执行特征匹配来提取移动机器人的运动参数。单目SLAM存在初始化的尺度问题和追踪的尺度漂移问题,在复杂的环境下,为了填补单目视觉的缺陷,同时提高单目视觉***的鲁棒性,通常需耍与其它传感器一起使用。惯性导航数据稳定,但积累误差更为严重,这两种技术的融合可以将单目视觉SLAM的高精度与惯性导航数据的稳定性结合起来,取长补短,达到满足定位精度的目的。陈熙源提出一种使用扩展卡尔曼滤波器来融合摄像机和IMU数据进行摄像机姿态跟踪的方法(陈熙源.一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法[P].江苏:CN103983263A,2014-08-13.)。但是在跟踪情况下没有使用IMU的先验数据,因此***极易不收敛,导致定位精度较差。王强等提出视觉惯性里程计的实现方法,利用当前图像特征点与地图扩展模块所维护的三维地图点对应的空间约束关系、图像帧之间特征匹配约束关系和图像帧间IMU的约束信息,计算出每一帧图像对应的设备的位置和姿态(王强.视觉惯性里程计的实现方法及***[p].上海: CN108489482A,2018-09-04.)。然而,此方法需要不断地利用视觉算法确定相机的位姿,计算量较大。Qin Tong等提出的基于单目相机和低成本的IMU传感器的六自由度状态估计算法,视觉方面采用的是稀疏光流法进行跟踪定位,论文中提出了一种鲁棒性的视觉惯性联合初始化过程和恢复过程(Tong Q,Peiliang L,Shaojie S.VINS-Mono:A Robust and Versatile Monocular Visual-Inertial StateEstimator[J].IEEE Transactions on Robotics,2018:1-17.)。然而,整个***采用的是最基本的参考帧跟踪模型,无法克服复杂的运动环境。
发明内容
为了克服现有方法上的缺点,本发明提出了一种单目视觉与IMU融台的机器人定位方法。
本发明首先视觉前端位姿跟踪采用特征点估计机器人位姿,并利用纯视觉信息对IMU偏差模型,绝对尺度和重力加速度方向进行估计。同时IMU解算得到的高精度位姿信息为优化搜索过程提供初始参照,并作为状态量和视觉导航信息一起参与优化。后端采用了基于滑动窗口的紧耦合非线性优化方法,实时优化位姿和地图,且滑动窗口法计算里程计时候运算复杂度保持固定,提高了算法鲁棒性。本发明实现了单目视觉和惯导信息融合的机器人SLAM,能够对机器人运动和周围环境进行精确的估计。
融合视觉特征和IMU信息的机器人定位方法,具体步骤如下:
步骤1:使用单目相机进行位姿估计;
本发明首先对单目相机捕获的图像帧,使用ORB特征提取算法,提取丰富的ORB特征点,根据两帧图像之间特征点的像素位置,利用多目几何知识恢复出单目相机的运动过程,估计机器人位姿。
假设某空间点坐标为Pi=[Xi,Yi,Zi]T,其投影的像素坐标为Ui=[ui,vi]T,像素位置与空间点位置的关系如下:
siUi=K exp(ξ^)Pi (1)
上式中,si表示深度图的尺度因子,K代表相机的内参矩阵,ξ为相机位姿的李代数表示,exp表示李代数的指数映射。最后通过构建最小二乘问题,计算相机最优位姿,使其误差最小化。计算公式如下:
步骤2:使用IMU进行位姿估计;
根据IMU提供的数据信息,利用基于预积分的IMU动力学模型建立相机的运动模型,采用运动模型对机器人位姿进行实时初步估计。
IMU可以输出加速度aB和角速度ωB,定义世界坐标系为W,IMU的参考坐标系为B,通过IMU预积分,根据其在k时刻下的状态,推算出其在k+1时刻下的状态。预积分后,IMU的方向、速度和位置分别更新为:
其中,表示IMU坐标系B在k+1时刻相对于世界坐标系的旋转矩阵;表示IMU坐标系B在k时刻相对于世界坐标系的旋转矩阵;表示IMU坐标系B在k+1时刻相对于世界坐标系的速度;exp表示李代数的指数映射;Δt表示IMU的采样间隔;表示IMU坐标系B在k时刻相对于世界坐标系的速度;gw表示当前的重力加速度;表示IMU坐标系B在k+1时刻相对于世界坐标系的位移;表示IMU坐标系B在k时刻相对于世界坐标系的位移;ba 与bg分别表示IMU中陀螺仪和加速度计的偏差。
步骤3:视觉惯性联合初始化;
将步骤1中获得的纯视觉数据和步骤2中获得的IMU数据相结合,并对IMU 偏差模型,绝对尺度和重力加速度方向进行估计。
首先进行陀螺仪偏差估计,根据视觉信息求得的关键帧之间的旋转,对比利用IMU预积分模型求得的旋转,以偏差为变量,最小化两者的差值即可得到关于陀螺仪的偏差:
其中,N代表关键帧的个数; 是由视觉SLAM算法计算得到的相机坐标系相对于世界坐标系的旋转,RCB是标定矩阵;ΔRi,i+1为、连续两个关键帧间的陀螺仪积分所得到的旋转矩阵,为ΔRi,i1随陀螺仪偏差变化方程的一阶近似结果;最后通过高斯-牛顿法求解bg。
然后,利用上述陀螺仪偏差估计的结果,对尺度和重力加速度进行估计。对于三个相连接的关键帧之间的两两关系,利用两两之间的预积分测量值,得到线性方程:
记第i,i+1,i+2时刻的关键帧标号为1,2,3,则上式各项分别为:
在上式中,表示相机中心C在世界坐标系下的位置,Δt为帧间时间差, I为单位矩阵,RWC表示相机坐标系C相对于世界坐标系的旋转矩阵;RWB表示 IMU坐标系B在相对于世界坐标系的旋转矩阵;Δv表示帧间速度;S和gw分别为所求的尺度和重力加速度估计。
最后,利用尺度和重力加速度估计的结果,对IMU加速度偏差进行估计。考虑3个连续关键帧之间的线性关系,可得:
记第i,i+1,i+2时刻的关键帧标号为1,2,3,则φ(i),ζ(i)和ψ(i)的求解过程如下:
上式中[](:,1:2)表示使用矩阵前两列数据;RWI表示惯性***在世界坐标系的方向;表示在惯性坐标系中的重力方向;RWC表示相机坐标系C相对于世界坐标系的旋转矩阵;RWB表示IMU坐标系B在相对于世界坐标系的旋转矩阵;为第2、3关键帧的ΔP2,3随加速度变化方程的一阶近似结果,为第2、3关键帧的Δv2,3随加速度变化方程的一阶近似结果Δt为帧间时间差,I为单位矩阵,s 和δθxy为需要估计的尺度因子和重力加速度方向角,ba是加速度偏差。
步骤4:使用滑动窗口法对位姿进行优化;
通过重投影误差与IMU的预积分残差,建立相邻关键帧之间的约束关系,对传感器测量值和***状态量建立最小二乘式,使用优化方法,迭代求解出当前帧位姿的最优值。***状态向量X表示如下:
其中x0,x1,·xn表示滑动窗口内的n+1个所有相机的状态,分别表示i时刻下IMU坐标系相对于世界坐标系的旋转,速度和位移,ba,bg分别表示加速度计偏差和陀螺仪偏差。构造目标函数:
其中为IMU的测量误差,为单目相机的测量误差,B表示IMU 的测量数据集,C表示单目相机的测量数据集,为IMU坐标系下滑动窗口从第i个关键帧到j个关键帧的预积分噪声项协方差,为相机坐标系下滑动窗口第j个关键帧中第l个特征点的噪声协方差。
IMU第i帧和第j帧之间的位移,速度,旋转和IMU偏差的测量残差表示为:
上式中分别表示平移,速度,旋转和IMU偏差带来的误差项;为两帧间旋转变换ΔR相对于重力加速度的一阶近似;为两帧间速度变化Δv相对于重力加速度的一阶近似;为两帧间位移变化Δp相对于重力加速度的一阶近似;为两帧间速度变化Δv相对于加速度的一阶近似;为两帧间位移变化Δp相对于加速度的一阶近似。
视觉残差是重投影误差,对于第l个路标点P,将P从第一次观看到它的第 i个相机坐标系,转换到当前的第j个相机坐标系下的像素坐标,其中视觉误差项为:
上式中,为正切平面上的任意两个正交基;是估计第l个路标点在第j 个相机归一化相机坐标系中的可能坐标;为第l个路标点在第j个相机归一化相机坐标系中的观察到的坐标;和表示第l个路标点在第j个相机中的像素坐标;表示IMU坐标系相对于相机坐标系的位姿变换;表示从世界坐标系到IMU坐标系的位姿变换。
优选地,步骤3中,将步骤1中获得的纯视觉数据和步骤2中获得的IMU 数据相结合,并对IMU偏差模型,绝对尺度和重力加速度方向进行估计。
优选地,步骤4中,使用滑动窗口法对位姿进行优化通过重投影误差与IMU 的预积分残差,建立相邻关键帧之间的约束关系,对传感器测量值和***状态量建立最小二乘式,使用优化方法,迭代求解出当前帧位姿的最优值。
本发明的优点是:本发明设计的融合视觉特征和IMU信息的机器人定位方法,一方面由于该算法跟踪过程中通过重投影误差与IMU的预积分,建立相邻关键帧之间的约束关系,相比于没有使用IMU先验数据的扩展卡尔曼滤波算法,算法鲁棒性更强,精度更高。另一方面,在融合过程中采用了基于滑动窗口法的后端优化算法,实时优化位姿和地图,且滑动窗口法计算里程计时候运算复杂度保持固定状态,使整个***运行起来更加稳定,提高了鲁棒性。
附图说明
图1是本发明的方法流程图。
图2是本发明的实验平台。
图3是本发明的定位结果展示图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
融合视觉特征和IMU信息的机器人定位方法,如图1所示,平台组成主耍包括联想Thinkpad电脑1、EAIBOT移动小车2、MYNTEYE惯导相机3。MYNT EYE惯导相机3置于EAIBOT移动小车2上方,两者通过USB连接;Thinkpad 电脑1通过终端远程控制EAIBOT移动小车2。
结台图2,本发明方法的具体实施方式如下:
将MYNT EYE惯导相机与EAIBOT移动小车通过USB相连后,开启联想 thinkpad,输入相机运行指令,启动算法。实例中相机的采样频率为30HZ,关键帧的采样频率更低,IMU的采样频率为100HZ。
步骤1:本发明首先对MYNT EYE相机捕获的图像帧,使用ORB特征提取算法,提取丰富的ORB特征点,根据两帧图像之间特征点的像素位置,利用多目几何知识恢复出单目相机的运动过程,估计机器人位姿。
假设某空间点坐标为Pi=[Xi,Yi,Zi]T,其投影的像素坐标为Ui=[ui,vi]T,像素位置与空间点位置的关系如下:
siUi=K exp(ξ^)Pi (1)
上式中,sj表示深度图的尺度因子,K代表相机的内参矩阵,ξ为相机位姿的李代数表示。最后通过构建最小二乘问题,计算相机最优位姿,使其误差最小化。计算公式如下:
步骤2:根据MYNT EYE的IMU提供的数据信息,利用基于预积分的IMU 动力学模型建立相机的运动模型,采用运动模型对机器人位姿进行实时初步估计。
定义世界坐标系为W,IMU的参考坐标系为B,通过IMU预积分,根据其在k时刻下的状态,推算出其在k+1时刻下的状态。预积分后,IMU的方向、速度和位置分别更新为:
其中,aB和ωB分别为IMU输出的加速度和角速度,表示IMU坐标系B在 k+1时刻相对于世界坐标系的旋转矩阵;表示IMU坐标系B在k时刻相对于世界坐标系的旋转矩阵;表示IMU坐标系B在k+1时刻相对于世界坐标系的速度;Exp表示李代数的指数映射;Δt表示IMU的采样间隔;表示 IMU坐标系B在k时刻相对于世界坐标系的速度;gw表示当前的重力加速度;表示IMU坐标系B在k+1时刻相对于世界坐标系的位移;表示IMU 坐标系B在k时刻相对于世界坐标系的位移;ba与bg分别表示IMU中陀螺仪和加速度计的偏差。
步骤3:通过键盘控制小车朝一个方向移动一段距离,使相机进入初始化过程。将步骤1中获得的纯视觉数据和步骤2中获得的IMU数据相结合,并对IMU 偏差模型,绝对尺度和重力加速度方向进行估计。
首先进行陀螺仪偏差估计,根据视觉信息求得的关键帧之间的旋转,对比利用IMU预积分模型求得的旋转,以偏差为变量,最小化两者的差值即可得到关于陀螺仪的偏差:
其中,N代表关键帧的个数; 是由视觉SLAM算法计算得到的相机坐标系相对于世界坐标系的旋转,RCB是标定矩阵;ΔRi,i+1为连续两个关键帧间的陀螺仪积分所得到的旋转矩阵,为ΔRi,i+1随陀螺仪偏差变化方程的一阶近似结果;最后通过高斯-牛顿法求解bg。
然后,利用上述陀螺仪偏差估计的结果,对尺度和重力加速度进行估计。对于三个相连接的关键帧之间的两两关系,利用两两之间的预积分测量值,得到线性方程:
记第i,i-1,i-2时刻的关键帧标号为1,2,3,则上式各项分别为:
在上式中,表示相机中心C在世界坐标系下的位置,Δt为帧间时间差,I为单位矩阵,RWC表示相机坐标系C相对于世界坐标系的旋转矩阵;RWB表示IMU 坐标系B在相对于世界坐标系的旋转矩阵;Δv表示帧间速度;S和gW分别为所求的尺度和重力加速度估计。
最后,利用尺度和重力加速度估计的结果,对IMU加速度偏差进行估计。考虑3个连续关键帧之间的线性关系,可得:
记第i,i+1,i+2时刻的关键帧标号为1,2,3,则φ(i),ζ(i)和ψ(i)的求解过程如下:
上式中[](:,1:2)表示使用矩阵前两列数据;RWI表示惯性***在世界坐标系的方向;表示在惯性坐标系中的重力方向;RWC表示相机坐标系C相对于世界坐标系的旋转矩阵;RWB表示IMU坐标系B在相对于世界坐标系的旋转矩阵;为第2、3关键帧的ΔP2,3随加速度变化方程的一阶近似结果,为第2、3关键帧的Δv2,3随加速度变化方程的一阶近似结果Δt为帧间时间差,I为单位矩阵,s 和δθxy为需要估计的尺度因子和重力加速度方向角,ba是加速度偏差。
步骤4:通过重投影误差与IMU的预积分残差,建立相邻关键帧之间的约束关系,对传感器测量值和***状态量建立最小二乘式,使用优化方法,迭代求解出当前帧位姿的最优值。***状态向量X表示如下:
其中x0,x1,…xn表示滑动窗口内的n+1个所有相机的状态,分别表示i时刻下IMU坐标系相对于世界坐标系的旋转,速度和位移,ba,bg分别表示加速度计偏差和陀螺仪偏差。构造目标函数:
其中为IMU的测量误差,为单目相机的测量误差,B表示IMU 的测量数据集,C表示单目相机的测量数据集,为IMU坐标系下滑动窗口从第i个关键帧到j个关键帧的预积分噪声项协方差,为相机坐标系下滑动窗口第j个关键帧中第l个特征点的噪声协方差。
IMU第i帧和第j帧之间的位移,速度,旋转和IMU偏差的测量残差表示为:
上式中分别表示平移,速度,旋转和IMU偏差带来的误差项;为两帧间旋转变换ΔR相对于重力加速度的一阶近似;为两帧间速度变化Δv相对于重力加速度的一阶近似;为两帧间位移变化Δp相对于重力加速度的一阶近似;为两帧间速度变化Δv相对于加速度的一阶近似;为两帧间位移变化Δp相对于加速度的一阶近似。
视觉残差是重投影误差,对于第l个路标点P,将P从第一次观看到它的第 i个相机坐标系,转换到当前的第j个相机坐标系下的像素坐标,其中视觉误差项为:
上式中,为正切平面上的任意两个正交基;是估计第l个路标点在第j 个相机归一化相机坐标系中的可能坐标;为第l个路标点在第j个相机归一化相机坐标系中的观察到的坐标;和表示第l个路标点在第j个相机中的像素坐标;表示IMU坐标系相对于相机坐标系的位姿变换;表示从世界坐标系到IMU坐标系的位姿变换。
最后本发明实时输出小车当前时刻下的位姿变换信息和周围环境地图,如图 3所示。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (3)
1.融合视觉特征和IMU信息的机器人定位方法,具体步骤如下:
步骤1:使用单目相机进行位姿估计;
首先对单目相机捕获的图像帧,使用ORB特征提取算法,提取丰富的ORB特征点,根据两帧图像之间特征点的像素位置,利用多目几何知识恢复出单目相机的运动过程,估计机器人位姿;
假设某空间点坐标为Pi=[Xi,Yi,Zi]T,其投影的像素坐标为Ui=[ui,vi]T,像素位置与空间点位置的关系如下:
siUi=Kexp(ξ^)Pi (1)
上式中,si表示深度图的尺度因子,K代表相机的内参矩阵,ξ为相机位姿的李代数表示,exp表示李代数的指数映射;最后通过构建最小二乘问题,计算相机最优位姿,使其误差最小化;计算公式如下:
步骤2:使用IMU进行位姿估计;
根据IMU提供的数据信息,利用基于预积分的IMU动力学模型建立相机的运动模型,采用运动模型对机器人位姿进行实时初步估计;
IMU可以输出加速度αB和角速度ωB,定义世界坐标系为W,IMU的参考坐标系为B,通过IMU预积分,根据其在k时刻下的状态,推算出其在k+1时刻下的状态;预积分后,IMU的方向、速度和位置分别更新为:
其中,表示IMU坐标系B在k+1时刻相对于世界坐标系的旋转矩阵;表示IMU坐标系B在k时刻相对于世界坐标系的旋转矩阵;表示IMU坐标系B在k+1时刻相对于世界坐标系的速度;exp表示李代数的指数映射;Δt表示IMU的采样间隔;表示IMU坐标系B在k时刻相对于世界坐标系的速度;gw表示当前的重力加速度;表示IMU坐标系B在k+1时刻相对于世界坐标系的位移;表示IMU坐标系B在k时刻相对于世界坐标系的位移;ba与bg分别表示IMU中陀螺仪和加速度计的偏差;
步骤3:视觉惯性联合初始化;
将步骤1中获得的纯视觉数据和步骤2中获得的IMU数据相结合,并对IMU偏差模型,绝对尺度和重力加速度方向进行估计;
首先进行陀螺仪偏差估计,根据视觉信息求得的关键帧之间的旋转,对比利用IMU预积分模型求得的旋转,以偏差为变量,最小化两者的差值即可得到关于陀螺仪的偏差:
其中,N代表关键帧的个数; 是由视觉SLAM算法计算得到的相机坐标系相对于世界坐标系的旋转,RCB是标定矩阵;ΔRi,i+1为、连续两个关键帧间的陀螺仪积分所得到的旋转矩阵,为ΔRi,i+1随陀螺仪偏差变化方程的一阶近似结果;最后通过高斯-牛顿法求解bg;
然后,利用上述陀螺仪偏差估计的结果,对尺度和重力加速度进行估计;对于三个相连接的关键帧之间的两两关系,利用两两之间的预积分测量值,得到线性方程:
记第i,i+1,i+2时刻的关键帧标号为1,2,3,则上式各项分别为:
在上式中,表示相机中心C在世界坐标系下的位置,Δt为帧间时间差,I为单位矩阵,RWC表示相机坐标系C相对于世界坐标系的旋转矩阵;RWB表示IMU坐标系B在相对于世界坐标系的旋转矩阵;Δv表示帧间速度;s和gw分别为所求的尺度和重力加速度估计;
最后,利用尺度和重力加速度估计的结果,对IMU加速度偏差进行估计;考虑3个连续关键帧之间的线性关系,可得:
记第i,i+1,i+2时刻的关键帧标号为1,2,3,则φ(i),ζ(i)和ψ(i)的求解过程如下:
上式中[](:,1:2)表示使用矩阵前两列数据;RWI表示惯性***在世界坐标系的方向;表示在惯性坐标系中的重力方向;RWC表示相机坐标系C相对于世界坐标系的旋转矩阵;RWB表示IMU坐标系B在相对于世界坐标系的旋转矩阵;为第2、3关键帧的ΔP2,3随加速度变化方程的一阶近似结果,为第2、3关键帧的Δv2,3随加速度变化方程的一阶近似结果Δt为帧间时间差,I为单位矩阵,s和δθxy为需要估计的尺度因子和重力加速度方向角,ba是加速度偏差;
步骤4:使用滑动窗口法对位姿进行优化;
通过重投影误差与IMU的预积分残差,建立相邻关键帧之间的约束关系,对传感器测量值和***状态量建立最小二乘式,使用优化方法,迭代求解出当前帧位姿的最优值;***状态向量X表示如下:
其中x0,x1,…xn表示滑动窗口内的n+1个所有相机的状态,分别表示i时刻下IMU坐标系相对于世界坐标系的旋转,速度和位移,ba,bg分别表示加速度计偏差和陀螺仪偏差;构造目标函数:
其中为IMU的测量误差,为单目相机的测量误差,B表示IMU的测量数据集,C表示单目相机的测量数据集,为IMU坐标系下滑动窗口从第i个关键帧到j个关键帧的预积分噪声项协方差,为相机坐标系下滑动窗口第j个关键帧中第l个特征点的噪声协方差;
IMU第i帧和第j帧之间的位移,速度,旋转和IMU偏差的测量残差表示为:
上式中分别表示平移,速度,旋转和IMU偏差带来的误差项;为两帧间旋转变换ΔR相对于重力加速度的一阶近似;为两帧间速度变化Δv相对于重力加速度的一阶近似;为两帧间位移变化Δp相对于重力加速度的一阶近似;为两帧间速度变化Δv相对于加速度的一阶近似;为两帧间位移变化Δp相对于加速度的一阶近似;
视觉残差是重投影误差,对于第l个路标点P,将P从第一次观看到它的第i个相机坐标系,转换到当前的第j个相机坐标系下的像素坐标,其中视觉误差项为:
上式中,为正切平面上的任意两个正交基;是估计第l个路标点在第j个相机归一化相机坐标系中的可能坐标;为第l个路标点在第j个相机归一化相机坐标系中的现察到的坐标;和表示第l个路标点在第j个相机中的像素坐标;表示IMU坐标系相对于相机坐标系的位姿变换;表示从世界坐标系到IMU坐标系的位姿变换。
2.根据权利要求1所述的一种融合视觉特征和IMU信息的机器人定位方法,其特征在于:步骤3中,将步骤1中获得的纯视觉数据和步骤2中获得的IMU数据相结合,并对IMU偏差模型,绝对尺度和重力加速度方向进行估计。
3.根据权利要求1所述的一种融合视觉特征和IMU信息的机器人定位方法,其特征在于:步骤4中,使用滑动窗口法对位姿进行优化通过重投影误差与IMU的预积分残差,建立相邻关键帧之间的约束关系,对传感器测量值和***状态量建立最小二乘式,使用优化方法,迭代求解出当前帧位姿的最优值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448746.1A CN110345944A (zh) | 2019-05-27 | 2019-05-27 | 融合视觉特征和imu信息的机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448746.1A CN110345944A (zh) | 2019-05-27 | 2019-05-27 | 融合视觉特征和imu信息的机器人定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110345944A true CN110345944A (zh) | 2019-10-18 |
Family
ID=68174118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910448746.1A Pending CN110345944A (zh) | 2019-05-27 | 2019-05-27 | 融合视觉特征和imu信息的机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110345944A (zh) |
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047620A (zh) * | 2019-11-15 | 2020-04-21 | 广东工业大学 | 一种基于深度点线特征的无人机视觉里程计方法 |
CN111156997A (zh) * | 2020-03-02 | 2020-05-15 | 南京航空航天大学 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
CN111156998A (zh) * | 2019-12-26 | 2020-05-15 | 华南理工大学 | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 |
CN111207774A (zh) * | 2020-01-17 | 2020-05-29 | 山东大学 | 一种用于激光-imu外参标定的方法及*** |
CN111257853A (zh) * | 2020-01-10 | 2020-06-09 | 清华大学 | 一种基于imu预积分的自动驾驶***激光雷达在线标定方法 |
CN111308415A (zh) * | 2019-11-01 | 2020-06-19 | 华为技术有限公司 | 一种基于时间延迟的在线估计位姿的方法和设备 |
CN111340851A (zh) * | 2020-05-19 | 2020-06-26 | 北京数字绿土科技有限公司 | 基于双目视觉与imu融合的slam方法 |
CN111462231A (zh) * | 2020-03-11 | 2020-07-28 | 华南理工大学 | 一种基于rgbd传感器和imu传感器的定位方法 |
CN111538029A (zh) * | 2020-04-24 | 2020-08-14 | 江苏盛海智能科技有限公司 | 一种视觉与雷达融合的测量方法及终端 |
CN111553933A (zh) * | 2020-04-17 | 2020-08-18 | 东南大学 | 一种应用于不动产测量基于优化的视觉惯性组合测量方法 |
CN111583387A (zh) * | 2020-04-21 | 2020-08-25 | 北京鼎路科技有限公司 | 一种无人驾驶室外场景三维重建的方法和*** |
CN111578937A (zh) * | 2020-05-29 | 2020-08-25 | 天津工业大学 | 同时优化外参数的视觉惯性里程计*** |
CN111595333A (zh) * | 2020-04-26 | 2020-08-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及*** |
CN111623773A (zh) * | 2020-07-17 | 2020-09-04 | 国汽(北京)智能网联汽车研究院有限公司 | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 |
CN111693047A (zh) * | 2020-05-08 | 2020-09-22 | 中国航空工业集团公司西安航空计算技术研究所 | 一种高动态场景下的微小型无人机视觉导航方法 |
CN111735445A (zh) * | 2020-06-23 | 2020-10-02 | 煤炭科学研究总院 | 融合单目视觉与imu的煤矿巷道巡检机器人***及导航方法 |
CN111739063A (zh) * | 2020-06-23 | 2020-10-02 | 郑州大学 | 一种基于多传感器融合的电力巡检机器人定位方法 |
CN111780754A (zh) * | 2020-06-23 | 2020-10-16 | 南京航空航天大学 | 基于稀疏直接法的视觉惯性里程计位姿估计方法 |
CN111795686A (zh) * | 2020-06-08 | 2020-10-20 | 南京大学 | 一种移动机器人定位与建图的方法 |
CN111805535A (zh) * | 2020-06-11 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种定位导航方法、装置以及计算机存储介质 |
CN111932611A (zh) * | 2020-05-26 | 2020-11-13 | 北京百度网讯科技有限公司 | 物***置获取方法和装置 |
CN111928847A (zh) * | 2020-09-22 | 2020-11-13 | 蘑菇车联信息科技有限公司 | 惯性测量单元位姿数据优化方法、装置及电子设备 |
CN111932616A (zh) * | 2020-07-13 | 2020-11-13 | 清华大学 | 一种利用并行计算加速的双目视觉惯性里程计方法 |
CN112097768A (zh) * | 2020-11-17 | 2020-12-18 | 深圳市优必选科技股份有限公司 | 机器人位姿的确定方法、装置、机器人及存储介质 |
CN112102403A (zh) * | 2020-08-11 | 2020-12-18 | 国网安徽省电力有限公司淮南供电公司 | 用于输电塔场景下的自主巡检无人机的高精度定位方法及其*** |
CN112129282A (zh) * | 2020-09-30 | 2020-12-25 | 杭州海康机器人技术有限公司 | 一种不同导航方式之间定位结果的转换方法、转换装置 |
CN112230242A (zh) * | 2020-09-30 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | 位姿估计***和方法 |
CN112304307A (zh) * | 2020-09-15 | 2021-02-02 | 浙江大华技术股份有限公司 | 一种基于多传感器融合的定位方法、装置和存储介质 |
CN112378396A (zh) * | 2020-10-29 | 2021-02-19 | 江苏集萃未来城市应用技术研究所有限公司 | 基于抗差lm视觉惯性里程计与uwb混合高精度室内定位方法 |
CN112484725A (zh) * | 2020-11-23 | 2021-03-12 | 吉林大学 | 一种基于多传感器融合的智能汽车高精度定位与时空态势安全方法 |
CN112652001A (zh) * | 2020-11-13 | 2021-04-13 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位*** |
CN112648994A (zh) * | 2020-12-14 | 2021-04-13 | 首都信息发展股份有限公司 | 基于深度视觉里程计和imu的相机位姿估计方法及装置 |
CN112710308A (zh) * | 2019-10-25 | 2021-04-27 | 阿里巴巴集团控股有限公司 | 机器人的定位方法、装置和*** |
CN112734765A (zh) * | 2020-12-03 | 2021-04-30 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 |
CN112747750A (zh) * | 2020-12-30 | 2021-05-04 | 电子科技大学 | 一种基于单目视觉里程计和imu融合的定位方法 |
CN112923919A (zh) * | 2021-01-21 | 2021-06-08 | 湖南格纳微信息科技有限公司 | 基于图优化的行人定位方法及*** |
CN113052855A (zh) * | 2021-02-26 | 2021-06-29 | 苏州迈思捷智能科技有限公司 | 一种基于视觉-imu-轮速计融合的语义slam方法 |
CN113077515A (zh) * | 2021-06-07 | 2021-07-06 | 之江实验室 | 一种水下视觉惯导压力定位的紧耦合初始化方法 |
CN113091738A (zh) * | 2021-04-09 | 2021-07-09 | 安徽工程大学 | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 |
CN113240597A (zh) * | 2021-05-08 | 2021-08-10 | 西北工业大学 | 基于视觉惯性信息融合的三维软件稳像方法 |
CN113375665A (zh) * | 2021-06-18 | 2021-09-10 | 西安电子科技大学 | 基于多传感器松紧耦合的无人机位姿估计方法 |
CN113436261A (zh) * | 2021-06-24 | 2021-09-24 | 湖南大学 | 一种面向封闭园区自动驾驶的单目视觉惯性定位方法 |
CN113450411A (zh) * | 2021-06-30 | 2021-09-28 | 电子科技大学 | 一种基于方差分量估计理论的实时自生位姿计算方法 |
CN113465628A (zh) * | 2021-06-17 | 2021-10-01 | 杭州鸿泉物联网技术股份有限公司 | 惯性测量单元数据补偿方法及*** |
CN113483755A (zh) * | 2021-07-09 | 2021-10-08 | 北京易航远智科技有限公司 | 一种基于非全局一致地图的多传感器组合定位方法及*** |
CN113566833A (zh) * | 2021-07-28 | 2021-10-29 | 上海工程技术大学 | 一种多传感器融合的车辆定位方法及*** |
CN113587934A (zh) * | 2021-07-30 | 2021-11-02 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
CN113608523A (zh) * | 2020-04-20 | 2021-11-05 | 中国科学院沈阳自动化研究所 | 一种基于单目视觉和惯性融合的车辆场景动态性分析方法 |
CN114001733A (zh) * | 2021-10-28 | 2022-02-01 | 浙江大学 | 一种基于地图的一致性高效视觉惯性定位算法 |
CN114543786A (zh) * | 2022-03-31 | 2022-05-27 | 华中科技大学 | 一种基于视觉惯性里程计的爬壁机器人定位方法 |
WO2022134060A1 (en) * | 2020-12-25 | 2022-06-30 | Intel Corporation | Camera registration via robot |
CN114693754A (zh) * | 2022-05-30 | 2022-07-01 | 湖南大学 | 一种基于单目视觉惯导融合的无人机自主定位方法与*** |
CN114964276A (zh) * | 2022-05-26 | 2022-08-30 | 哈尔滨工业大学 | 一种融合惯导的动态视觉slam方法 |
CN115371665A (zh) * | 2022-09-13 | 2022-11-22 | 哈尔滨工业大学 | 一种基于深度相机和惯性融合的移动机器人定位方法 |
WO2023051019A1 (zh) * | 2021-09-30 | 2023-04-06 | 达闼科技(北京)有限公司 | 视觉惯性里程计方法、装置、电子设备、存储介质及计算机程序 |
CN115930971A (zh) * | 2023-02-01 | 2023-04-07 | 七腾机器人有限公司 | 一种机器人定位与建图的数据融合处理方法 |
CN116026316A (zh) * | 2023-03-30 | 2023-04-28 | 山东科技大学 | 一种耦合视觉惯性里程计与gnss的无人船航迹推算方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建*** |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及*** |
CN109242887A (zh) * | 2018-07-27 | 2019-01-18 | 浙江工业大学 | 一种基于多摄像机和imu的实时人体上肢动作捕捉方法 |
CN109631894A (zh) * | 2018-12-11 | 2019-04-16 | 智灵飞(北京)科技有限公司 | 一种基于滑动窗口的单目视觉惯性紧耦合方法 |
-
2019
- 2019-05-27 CN CN201910448746.1A patent/CN110345944A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建*** |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及*** |
CN109242887A (zh) * | 2018-07-27 | 2019-01-18 | 浙江工业大学 | 一种基于多摄像机和imu的实时人体上肢动作捕捉方法 |
CN109631894A (zh) * | 2018-12-11 | 2019-04-16 | 智灵飞(北京)科技有限公司 | 一种基于滑动窗口的单目视觉惯性紧耦合方法 |
Non-Patent Citations (1)
Title |
---|
禹鑫燚 等: "SLAM过程中的机器人位姿估计优化算法研究", 《高技术通讯》 * |
Cited By (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112710308B (zh) * | 2019-10-25 | 2024-05-31 | 阿里巴巴集团控股有限公司 | 机器人的定位方法、装置和*** |
CN112710308A (zh) * | 2019-10-25 | 2021-04-27 | 阿里巴巴集团控股有限公司 | 机器人的定位方法、装置和*** |
CN111308415A (zh) * | 2019-11-01 | 2020-06-19 | 华为技术有限公司 | 一种基于时间延迟的在线估计位姿的方法和设备 |
CN111047620A (zh) * | 2019-11-15 | 2020-04-21 | 广东工业大学 | 一种基于深度点线特征的无人机视觉里程计方法 |
CN111156998B (zh) * | 2019-12-26 | 2022-04-15 | 华南理工大学 | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 |
CN111156998A (zh) * | 2019-12-26 | 2020-05-15 | 华南理工大学 | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 |
CN111257853A (zh) * | 2020-01-10 | 2020-06-09 | 清华大学 | 一种基于imu预积分的自动驾驶***激光雷达在线标定方法 |
CN111207774A (zh) * | 2020-01-17 | 2020-05-29 | 山东大学 | 一种用于激光-imu外参标定的方法及*** |
CN111156997A (zh) * | 2020-03-02 | 2020-05-15 | 南京航空航天大学 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
CN111156997B (zh) * | 2020-03-02 | 2021-11-30 | 南京航空航天大学 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
GB2597632A (en) * | 2020-03-11 | 2022-02-02 | Univ South China Tech | RGBD sensor and IMU sensor-based positioning method |
CN111462231B (zh) * | 2020-03-11 | 2023-03-31 | 华南理工大学 | 一种基于rgbd传感器和imu传感器的定位方法 |
WO2021180128A1 (zh) * | 2020-03-11 | 2021-09-16 | 华南理工大学 | 一种基于rgbd传感器和imu传感器的定位方法 |
CN111462231A (zh) * | 2020-03-11 | 2020-07-28 | 华南理工大学 | 一种基于rgbd传感器和imu传感器的定位方法 |
CN111553933B (zh) * | 2020-04-17 | 2022-11-18 | 东南大学 | 一种应用于不动产测量基于优化的视觉惯性组合测量方法 |
CN111553933A (zh) * | 2020-04-17 | 2020-08-18 | 东南大学 | 一种应用于不动产测量基于优化的视觉惯性组合测量方法 |
CN113608523A (zh) * | 2020-04-20 | 2021-11-05 | 中国科学院沈阳自动化研究所 | 一种基于单目视觉和惯性融合的车辆场景动态性分析方法 |
CN113608523B (zh) * | 2020-04-20 | 2023-03-14 | 中国科学院沈阳自动化研究所 | 一种基于单目视觉和惯性融合的车辆场景动态性分析方法 |
CN111583387A (zh) * | 2020-04-21 | 2020-08-25 | 北京鼎路科技有限公司 | 一种无人驾驶室外场景三维重建的方法和*** |
CN111538029A (zh) * | 2020-04-24 | 2020-08-14 | 江苏盛海智能科技有限公司 | 一种视觉与雷达融合的测量方法及终端 |
CN111595333A (zh) * | 2020-04-26 | 2020-08-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及*** |
CN111693047A (zh) * | 2020-05-08 | 2020-09-22 | 中国航空工业集团公司西安航空计算技术研究所 | 一种高动态场景下的微小型无人机视觉导航方法 |
CN111340851A (zh) * | 2020-05-19 | 2020-06-26 | 北京数字绿土科技有限公司 | 基于双目视觉与imu融合的slam方法 |
CN111932611A (zh) * | 2020-05-26 | 2020-11-13 | 北京百度网讯科技有限公司 | 物***置获取方法和装置 |
CN111932611B (zh) * | 2020-05-26 | 2024-05-10 | 阿波罗智联(北京)科技有限公司 | 物***置获取方法和装置 |
CN111578937B (zh) * | 2020-05-29 | 2024-01-09 | 上海新天策数字科技有限公司 | 同时优化外参数的视觉惯性里程计*** |
CN111578937A (zh) * | 2020-05-29 | 2020-08-25 | 天津工业大学 | 同时优化外参数的视觉惯性里程计*** |
CN111795686B (zh) * | 2020-06-08 | 2024-02-02 | 南京大学 | 一种移动机器人定位与建图的方法 |
CN111795686A (zh) * | 2020-06-08 | 2020-10-20 | 南京大学 | 一种移动机器人定位与建图的方法 |
CN111805535A (zh) * | 2020-06-11 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种定位导航方法、装置以及计算机存储介质 |
CN111735445A (zh) * | 2020-06-23 | 2020-10-02 | 煤炭科学研究总院 | 融合单目视觉与imu的煤矿巷道巡检机器人***及导航方法 |
CN111739063A (zh) * | 2020-06-23 | 2020-10-02 | 郑州大学 | 一种基于多传感器融合的电力巡检机器人定位方法 |
CN111780754A (zh) * | 2020-06-23 | 2020-10-16 | 南京航空航天大学 | 基于稀疏直接法的视觉惯性里程计位姿估计方法 |
CN111735445B (zh) * | 2020-06-23 | 2022-02-11 | 煤炭科学研究总院 | 融合单目视觉与imu的煤矿巷道巡检机器人***及导航方法 |
CN111739063B (zh) * | 2020-06-23 | 2023-08-18 | 郑州大学 | 一种基于多传感器融合的电力巡检机器人定位方法 |
CN111932616B (zh) * | 2020-07-13 | 2022-10-14 | 清华大学 | 一种利用并行计算加速的双目视觉惯性里程计方法 |
CN111932616A (zh) * | 2020-07-13 | 2020-11-13 | 清华大学 | 一种利用并行计算加速的双目视觉惯性里程计方法 |
CN111623773A (zh) * | 2020-07-17 | 2020-09-04 | 国汽(北京)智能网联汽车研究院有限公司 | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 |
CN112102403B (zh) * | 2020-08-11 | 2022-11-25 | 国网安徽省电力有限公司淮南供电公司 | 用于输电塔场景下的自主巡检无人机的高精度定位方法及其*** |
CN112102403A (zh) * | 2020-08-11 | 2020-12-18 | 国网安徽省电力有限公司淮南供电公司 | 用于输电塔场景下的自主巡检无人机的高精度定位方法及其*** |
CN112304307A (zh) * | 2020-09-15 | 2021-02-02 | 浙江大华技术股份有限公司 | 一种基于多传感器融合的定位方法、装置和存储介质 |
CN111928847A (zh) * | 2020-09-22 | 2020-11-13 | 蘑菇车联信息科技有限公司 | 惯性测量单元位姿数据优化方法、装置及电子设备 |
CN112129282B (zh) * | 2020-09-30 | 2021-06-18 | 杭州海康机器人技术有限公司 | 一种不同导航方式之间定位结果的转换方法、转换装置 |
CN112230242A (zh) * | 2020-09-30 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | 位姿估计***和方法 |
CN112129282A (zh) * | 2020-09-30 | 2020-12-25 | 杭州海康机器人技术有限公司 | 一种不同导航方式之间定位结果的转换方法、转换装置 |
CN112230242B (zh) * | 2020-09-30 | 2023-04-25 | 深兰人工智能(深圳)有限公司 | 位姿估计***和方法 |
CN112378396A (zh) * | 2020-10-29 | 2021-02-19 | 江苏集萃未来城市应用技术研究所有限公司 | 基于抗差lm视觉惯性里程计与uwb混合高精度室内定位方法 |
CN112652001A (zh) * | 2020-11-13 | 2021-04-13 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位*** |
CN112097768B (zh) * | 2020-11-17 | 2021-03-02 | 深圳市优必选科技股份有限公司 | 机器人位姿的确定方法、装置、机器人及存储介质 |
CN112097768A (zh) * | 2020-11-17 | 2020-12-18 | 深圳市优必选科技股份有限公司 | 机器人位姿的确定方法、装置、机器人及存储介质 |
CN112484725A (zh) * | 2020-11-23 | 2021-03-12 | 吉林大学 | 一种基于多传感器融合的智能汽车高精度定位与时空态势安全方法 |
CN112734765A (zh) * | 2020-12-03 | 2021-04-30 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 |
CN112734765B (zh) * | 2020-12-03 | 2023-08-22 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 |
CN112648994B (zh) * | 2020-12-14 | 2023-12-05 | 首都信息发展股份有限公司 | 基于深度视觉里程计和imu的相机位姿估计方法及装置 |
CN112648994A (zh) * | 2020-12-14 | 2021-04-13 | 首都信息发展股份有限公司 | 基于深度视觉里程计和imu的相机位姿估计方法及装置 |
WO2022134060A1 (en) * | 2020-12-25 | 2022-06-30 | Intel Corporation | Camera registration via robot |
CN112747750A (zh) * | 2020-12-30 | 2021-05-04 | 电子科技大学 | 一种基于单目视觉里程计和imu融合的定位方法 |
CN112923919A (zh) * | 2021-01-21 | 2021-06-08 | 湖南格纳微信息科技有限公司 | 基于图优化的行人定位方法及*** |
CN113052855A (zh) * | 2021-02-26 | 2021-06-29 | 苏州迈思捷智能科技有限公司 | 一种基于视觉-imu-轮速计融合的语义slam方法 |
CN113052855B (zh) * | 2021-02-26 | 2021-11-02 | 苏州迈思捷智能科技有限公司 | 一种基于视觉-imu-轮速计融合的语义slam方法 |
CN113091738A (zh) * | 2021-04-09 | 2021-07-09 | 安徽工程大学 | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 |
CN113240597B (zh) * | 2021-05-08 | 2024-04-26 | 西北工业大学 | 基于视觉惯性信息融合的三维软件稳像方法 |
CN113240597A (zh) * | 2021-05-08 | 2021-08-10 | 西北工业大学 | 基于视觉惯性信息融合的三维软件稳像方法 |
CN113077515B (zh) * | 2021-06-07 | 2021-09-21 | 之江实验室 | 一种水下视觉惯导压力定位的紧耦合初始化方法 |
CN113077515A (zh) * | 2021-06-07 | 2021-07-06 | 之江实验室 | 一种水下视觉惯导压力定位的紧耦合初始化方法 |
CN113465628A (zh) * | 2021-06-17 | 2021-10-01 | 杭州鸿泉物联网技术股份有限公司 | 惯性测量单元数据补偿方法及*** |
CN113375665A (zh) * | 2021-06-18 | 2021-09-10 | 西安电子科技大学 | 基于多传感器松紧耦合的无人机位姿估计方法 |
CN113375665B (zh) * | 2021-06-18 | 2022-12-02 | 西安电子科技大学 | 基于多传感器松紧耦合的无人机位姿估计方法 |
CN113436261B (zh) * | 2021-06-24 | 2022-04-29 | 湖南大学 | 一种面向封闭园区自动驾驶的单目视觉惯性定位方法 |
CN113436261A (zh) * | 2021-06-24 | 2021-09-24 | 湖南大学 | 一种面向封闭园区自动驾驶的单目视觉惯性定位方法 |
CN113450411A (zh) * | 2021-06-30 | 2021-09-28 | 电子科技大学 | 一种基于方差分量估计理论的实时自生位姿计算方法 |
CN113450411B (zh) * | 2021-06-30 | 2023-02-28 | 电子科技大学 | 一种基于方差分量估计理论的实时自身位姿计算方法 |
CN113483755A (zh) * | 2021-07-09 | 2021-10-08 | 北京易航远智科技有限公司 | 一种基于非全局一致地图的多传感器组合定位方法及*** |
CN113483755B (zh) * | 2021-07-09 | 2023-11-07 | 北京易航远智科技有限公司 | 一种基于非全局一致地图的多传感器组合定位方法及*** |
CN113566833A (zh) * | 2021-07-28 | 2021-10-29 | 上海工程技术大学 | 一种多传感器融合的车辆定位方法及*** |
CN113587934A (zh) * | 2021-07-30 | 2021-11-02 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
CN113587934B (zh) * | 2021-07-30 | 2024-03-19 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
WO2023051019A1 (zh) * | 2021-09-30 | 2023-04-06 | 达闼科技(北京)有限公司 | 视觉惯性里程计方法、装置、电子设备、存储介质及计算机程序 |
CN114001733B (zh) * | 2021-10-28 | 2024-03-15 | 浙江大学 | 一种基于地图的一致性高效视觉惯性定位算法 |
CN114001733A (zh) * | 2021-10-28 | 2022-02-01 | 浙江大学 | 一种基于地图的一致性高效视觉惯性定位算法 |
CN114543786B (zh) * | 2022-03-31 | 2024-02-02 | 华中科技大学 | 一种基于视觉惯性里程计的爬壁机器人定位方法 |
CN114543786A (zh) * | 2022-03-31 | 2022-05-27 | 华中科技大学 | 一种基于视觉惯性里程计的爬壁机器人定位方法 |
CN114964276A (zh) * | 2022-05-26 | 2022-08-30 | 哈尔滨工业大学 | 一种融合惯导的动态视觉slam方法 |
CN114693754A (zh) * | 2022-05-30 | 2022-07-01 | 湖南大学 | 一种基于单目视觉惯导融合的无人机自主定位方法与*** |
CN115371665A (zh) * | 2022-09-13 | 2022-11-22 | 哈尔滨工业大学 | 一种基于深度相机和惯性融合的移动机器人定位方法 |
CN115930971B (zh) * | 2023-02-01 | 2023-09-19 | 七腾机器人有限公司 | 一种机器人定位与建图的数据融合处理方法 |
CN115930971A (zh) * | 2023-02-01 | 2023-04-07 | 七腾机器人有限公司 | 一种机器人定位与建图的数据融合处理方法 |
CN116026316A (zh) * | 2023-03-30 | 2023-04-28 | 山东科技大学 | 一种耦合视觉惯性里程计与gnss的无人船航迹推算方法 |
CN116026316B (zh) * | 2023-03-30 | 2023-08-29 | 山东科技大学 | 一种耦合视觉惯性里程计与gnss的无人船航迹推算方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110345944A (zh) | 融合视觉特征和imu信息的机器人定位方法 | |
CN110125928B (zh) | 一种基于前后帧进行特征匹配的双目惯导slam*** | |
CN109376785B (zh) | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 | |
CN106017463B (zh) | 一种基于定位传感装置的飞行器定位方法 | |
CN106679648B (zh) | 一种基于遗传算法的视觉惯性组合的slam方法 | |
CN108489482B (zh) | 视觉惯性里程计的实现方法及*** | |
CN107193279A (zh) | 基于单目视觉和imu信息的机器人定位与地图构建*** | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN108665540A (zh) | 基于双目视觉特征和imu信息的机器人定位与地图构建*** | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
CN111462231B (zh) | 一种基于rgbd传感器和imu传感器的定位方法 | |
CN110030994B (zh) | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 | |
CN110095116A (zh) | 一种基于lift的视觉定位和惯性导航组合的定位方法 | |
CN110702107A (zh) | 一种单目视觉惯性组合的定位导航方法 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN109631887A (zh) | 基于双目、加速度与陀螺仪的惯性导航高精度定位方法 | |
CN205426175U (zh) | 一种融合车载多传感器的slam装置 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN112115874B (zh) | 一种融合云端的视觉slam***及方法 | |
CN110553648A (zh) | 一种用于室内导航的方法和*** | |
CN110675453B (zh) | 一种已知场景中运动目标的自定位方法 | |
CN110533719B (zh) | 基于环境视觉特征点识别技术的增强现实定位方法及装置 | |
CN109579825A (zh) | 基于双目视觉和卷积神经网络的机器人定位***及方法 | |
CN103994765A (zh) | 一种惯性传感器的定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |
|
RJ01 | Rejection of invention patent application after publication |