CN108981693A - 基于单目相机的vio快速联合初始化方法 - Google Patents

基于单目相机的vio快速联合初始化方法 Download PDF

Info

Publication number
CN108981693A
CN108981693A CN201810685385.8A CN201810685385A CN108981693A CN 108981693 A CN108981693 A CN 108981693A CN 201810685385 A CN201810685385 A CN 201810685385A CN 108981693 A CN108981693 A CN 108981693A
Authority
CN
China
Prior art keywords
acceleration
gravity
imu
speed
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810685385.8A
Other languages
English (en)
Other versions
CN108981693B (zh
Inventor
潘树国
黄砺枭
王帅
曾攀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Publication of CN108981693A publication Critical patent/CN108981693A/zh
Application granted granted Critical
Publication of CN108981693B publication Critical patent/CN108981693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单目相机的VIO快速联合初始化方法,包括如下步骤:(1)用ORB‑SLAM处理几秒钟的视频以获得初始的位姿和几个关键帧;(2)通过步骤(1)中的关键帧与IMU预积分构建代价函数计算陀螺仪偏差;(3)通过解算连续帧间的线性模型求取重力加速度计偏置、重力加速度、重力加速度校准与重力加速度计偏置;(4)通过步骤(3)中的重力加速度校准与参数分离求出尺度与速度信息。本发明的初始化方法具有更快的初始化速度,对定位精度影响很小,本发明提出的方法可以将初始化时间控制在10秒以内;提高联合初始化的速度对于提高实时性具有重要意义。

Description

基于单目相机的VIO快速联合初始化方法
技术领域
本发明涉及机器人视觉定位导航技术领域,尤其是一种基于单目相机的VIO快速联合初始化方法。
背景技术
智能移动终端的状态估计已经成为计算机视觉和机器人领域的热门话题,因为它可应用于微型飞行器、自动驾驶汽车、虚拟现实和增强现实等新兴技术。传统的智能移动终端定位分为室外定位和室内定位。室外定位包括卫星定位和基站定位,室内定位主要依靠多传感器融合。在不同的传感器***中,视觉惯性***由于其体积小、成本低、潜力大而受到了广泛的关注。视觉惯性***有两种估计位姿的主要方法:非线性优化方法和递归滤波方法。单目视觉***可以提供足够的环境信息来完成3D建图和定位,但不能恢复尺度信息,因此限制了其在现实世界中在机器人方面的应用。由于IMU传感器提供自身运动信息,并且可以估计重力方向而且可观测绝对俯仰角,这使得单目视觉惯性***可以恢复尺度信息。
初始状态估计是视觉惯性里程计的一个重要步骤,大多数现有的单目VINS方法在没有良好初始状态估计的情况下是无法进行精确定位的,并且如果运动估计由于缺乏初始条件而失败,它们也不能对运动进行恢复。已有VIO给出的初始化方法为相机姿态、尺度、速度、重力、陀螺仪和加速度计偏差提供了最佳解决方案,但初始化收敛需要10秒以上的时间。港科大提出的VINS介绍的另一种初始化方法提供了一个鲁棒的初始化过程,能够从未知的初始状态引导***,但是需要大量计算资源来计算重力方向。
发明内容
本发明所要解决的技术问题在于,提供一种基于单目相机的VIO快速联合初始化方法,具有更快的初始化速度,对定位精度影响很小,能够将初始化时间控制在10秒以内。
为解决上述技术问题,本发明提供一种基于单目相机的VIO快速联合初始化方法,包括如下步骤:
(1)用ORB-SLAM处理几秒钟的视频以获得初始的位姿和几个关键帧;
(2)通过步骤(1)中的关键帧与IMU预积分构建代价函数计算陀螺仪偏差;
(3)通过解算连续帧间的线性模型求取重力加速度计偏置、重力加速度、重力加速度校准与重力加速度计偏置;
(4)通过步骤(3)中的重力加速度校准与参数分离求出尺度与速度信息。
优选的,步骤(3)中,重力加速度计偏置估计具体为:两个连续关键帧之间的运动可以用两帧间所测量的预积分ΔR,Δv,Δp来描述,由预积分方程:
i和i+1分别是帧数,分别是IMU的第i+1帧在世界坐标系下的旋转、速度和平移,ΔRi,i+1、Δvi,i+1和Δpi,i+1分别是IMU的第i和i+1帧间的世界坐标系下的旋转、速度和平移增量,Δti,i+1是时间差,分别是平移相对于角速度和加速度的雅各比矩阵,分别是速度相对于角速度和加速度的雅各比矩阵,是旋转相对于角速度的雅各比矩阵,表示第i帧的加速度计和陀螺仪偏置,gw是世界坐标系中的重力加速度矢量,w是世界表系,b是IMU坐标系,bi和bi+1分别是第i和i+1帧的IMU坐标系;在世界参考坐标系中定义IMU测量得到的旋转平移以及速度
根据两个连续关键帧的已测得旋转可以对陀螺仪偏差进行估计,对于所有连续关键帧对,通过最小化陀螺仪计算IMU预积分和ORB-SLAM计算的相对旋转之间的差值来优化陀螺仪偏置:
N是关键帧的数量,是从IMU帧到世界帧的旋转矩阵,从相机坐标转到世界坐标系的旋转矩阵由ORB-SLAM进行计算,ΔRi,i+1是由预积分计算出来的两个连续关键帧之间旋转矩阵,本发明用高斯牛顿法对式(2)进行解算。
优选的,步骤(3)中,重力加速度估计具体为:获得陀螺仪偏差之后可以通过补偿陀螺仪偏置再用预积分准确计算出相机的位置、速度与旋转,由ORB-SLAM计算的摄像机轨迹的尺度值是一个相对值,所以当实际估计从IMU到相机的帧间位移时需要引入一个尺度值s,分别是相机到世界坐标系下的平移和旋转,是IMU和相机之间的平移参数;
结合公式(3)和公式(1),忽略加速度偏置可以得到:
目标是用线性方程组估计重力和未知尺度,为了减少运算的复杂性,运算过程中考虑三个连续关键帧之间的两个关系(4)和(3)中的速度关系以消除速度,并且分离变量如下:
将三个连续关键帧(5)之间的所有关系叠加到测量模型A3(N-2)×4x4×1=B3(N-2)×1中,可以通过奇异值分解SVD来求解模型以得到比例因子s*和重力矢量因为有3(N-2)个方程和4个未知数,至少需要4个关键帧。
优选的,步骤(3)中,重力加速度校准与重力加速度计偏置具体为:为了增加可观测性,增加加速度计偏差和重力常数G,引入参考重力加速度方向和已经计算的重力方向可以如下计算旋转矩阵:
重力加速度校准为:
由于z方向的旋转不会影响到gw,RWI可以由x与y两轴的旋转进行参数化,通过引入一个微小的扰动δθ对gw进行优化
由一阶泰勒近似:
结合式(9)与(4)并考虑加速度计偏置:
观测三个关键帧后联立式(5),可以得到:
其中λ(i)的表达方式同式(5),将三个连续关键帧之间的所有关系式(11)叠加到测量模型A3(N-2)×6x6×1=B3(N-1)×1中,同样可以通过SVD分解得到尺度信息S*,重力加速度矫正信息以及加速度偏置由于使用了3(N-2)个等式以及6个未知量,结算方程至少需要4个关键帧。
优选的,步骤(4)中,尺度与速度信息估计具体为:将速度,重力加速度以及尺度联立为状态向量,等是IMU在i时刻在bi坐标系下的速度:
其中为第i个IMU帧下的速度,考虑两个连续关键帧式(4)可以表示(12)为:
将参数分离后可以得到线性测量模型:
通过计算最小二乘模型:
可以获得尺度及每一帧的速度信息。
本发明的有益效果为:本发明的初始化方法具有更快的初始化速度,对定位精度影响很小,本发明提出的方法可以将初始化时间控制在10秒以内;提高联合初始化的速度对于提高实时性具有重要意义。
附图说明
图1为本发明的方法流程示意图。
图2为本发明估计的尺度、重力和IMU偏置示意图。
图3为本发明采用本发明的初始化方法与传统初始化方法的VIO轨迹与真实轨迹之间的均方根误差(RMSE)对比示意图。
具体实施方式
如图1所示,基于单目相机的VIO快速联合初始化方法,包括如下步骤:
(1)用ORB-SLAM处理几秒钟的视频以获得初始的位姿和几个关键帧;
(2)通过步骤(1)中的关键帧与IMU预积分构建代价函数计算陀螺仪偏差;
(3)通过解算连续帧间的线性模型求取重力加速度计偏置、重力加速度、重力加速度校准与重力加速度计偏置;
(4)通过步骤(3)中的重力加速度校准与参数分离求出尺度与速度信息。
步骤一、重力加速度计偏置估计
两个连续关键帧之间的运动可以用两帧间所测量的预积分ΔR,Δv,Δp来描述。由预积分方程:
i和i+1分别是帧数,分别是IMU的第i+1帧在世界坐标系下的旋转、速度和平移,ΔRi,i+1、Δvi,i+1和Δpi,i+1分别是IMU的第i和i+1帧间的世界坐标系下的旋转、速度和平移增量,Δti,i+1是时间差,分别是平移相对于角速度和加速度的雅各比矩阵,分别是速度相对于角速度和加速度的雅各比矩阵,是旋转相对于角速度的雅各比矩阵,表示第i帧的加速度计和陀螺仪偏置,gw是世界坐标系中的重力加速度矢量,w是世界表系,b是IMU坐标系,bi和bi+1分别是第i和i+1帧的IMU坐标系;在世界参考坐标系中定义IMU测量得到的旋转平移以及速度
根据两个连续关键帧的已测得旋转可以对陀螺仪偏差进行估计。对于所有连续关键帧对,本发明通过最小化陀螺仪计算IMU预积分和ORB-SLAM计算的相对旋转之间的差值来优化陀螺仪偏置:
N是关键帧的数量。是从IMU帧到世界帧的旋转矩阵。从相机坐标转到世界坐标系的旋转矩阵由ORB-SLAM进行计算。ΔRi,i+1是由预积分计算出来的两个连续关键帧之间旋转矩阵。本发明用高斯牛顿法对式(2)进行解算。
步骤二、重力加速度估计
获得陀螺仪偏差之后可以通过补偿陀螺仪偏置再用预积分准确计算出相机的位置、速度与旋转。由ORB-SLAM计算的摄像机轨迹的尺度值是一个相对值,所以当实际估计从IMU到相机的帧间位移时需要引入一个尺度值s,分别是相机到世界坐标系下的平移和旋转,是IMU和相机之间的平移参数。
结合公式(3)和公式(1),忽略加速度偏置可以得到:
本次计算的目标是用线性方程组估计重力和未知尺度。为了减少运算的复杂性,运算过程中考虑三个连续关键帧之间的两个关系(4)和(3)中的速度关系以消除速度,并且分离变量如下:
将三个连续关键帧(5)之间的所有关系叠加到测量模型A3(N-2)×4x4×1=B3(N-2)×1中。我们可以通过奇异值分解(SVD)来求解模型以得到比例因子s*和重力矢量因为我们有3(N-2)个方程和4个未知数,我们至少需要4个关键帧。
步骤三、重力加速度校准以及加速度偏置估计
为了增加可观测性,考虑增加加速度计偏差和重力常数G。引入参考重力加速度方向和已经计算的重力方向我们可以如下计算旋转矩阵:
重力加速度校准为:
由于z方向的旋转不会影响到gw,RWI可以由x与y两轴的旋转进行参数化。本发明通过引入一个微小的扰动δθ对gw进行优化
由一阶泰勒近似:
结合式(9)与(4)并考虑加速度计偏置:
观测三个关键帧后联立式(5),可以得到:
其中λ(i)的表达方式同式(5)。将三个连续关键帧之间的所有关系式(11)叠加到测量模型A3(N-2)×6x6×1=B3(N-1)×1中。同样可以通过SVD分解得到尺度信息s*,重力加速度矫正信息以及加速度偏置由于使用了3(N-2)个等式以及6个未知量,结算方程至少需要4个关键帧
步骤四、尺度及速度估计
将速度,重力加速度以及尺度联立为状态向量,等是IMU在i时刻在bi坐标系下的速度:
其中为第i个IMU帧下的速度,考虑两个连续关键帧式(4)可以表示(12)为:
将参数分离后可以得到线性测量模型:
通过计算最小二乘模型:
可以获得尺度及每一帧的速度信息。
本发明使用EuRoC数据集中的数据对提出的基于Visual-Inertial ORB-SLAM的快速初始化方法进行了实验。该数据集收集在飞行在两个房间中以及工业环境中的微型飞行器(MAV)所采集到的图像信息以及IMU信息。数据集包含图像,同步IMU测量(ADIS16448,200Hz)以及精确的运动和结构地面实况(VICON和Leica MS50)。它包含11个序列,根据照明情况,纹理和运动速度分类为简单,中等和困难。
本发明采用了序列V1_02_medium运行快速初始化方法。图2为估计的尺度,重力和IMU偏置。可以看出,所有变量在10秒内收敛到稳定,而VIO需要15秒。对于EuRoC数据集,我们观察到MAV在飞行了10s后就可以实现准确的初始化。
图3对比了采用本发明的初始化方法与传统初始化方法的VIO轨迹与真实轨迹之间的均方根误差(RMSE)。
表1统计了采用本发明的初始化方法与传统初始化方法的VIO轨迹与真实轨迹之间的均方根误差(RMSE)。可以看到本发明所采用的方法精度与传统VIO精度相差在2厘米以内,并且本发明测试了采用传统方式进行初始化会失败的数据组V1_03_diffcult,最后可以看到本发明采用的初始化方式成功对数据序列进行了初始化,由此验证了本发明的初始化方式具有更好的鲁棒性。
表1与真实轨迹之间的均方根误差(RMSE)统计

Claims (5)

1.基于单目相机的VIO快速联合初始化方法,其特征在于,包括如下步骤:
(1)用ORB-SLAM处理几秒钟的视频以获得初始的位姿和几个关键帧;
(2)通过步骤(1)中的关键帧与IMU预积分构建代价函数计算陀螺仪偏差;
(3)通过解算连续帧间的线性模型求取重力加速度计偏置、重力加速度、重力加速度校准与重力加速度计偏置;
(4)通过步骤(3)中的重力加速度校准与参数分离求出尺度与速度信息。
2.如权利要求1所述的基于单目相机的VIO快速联合初始化方法,其特征在于,步骤(3)中,重力加速度计偏置估计具体为:两个连续关键帧之间的运动可以用两帧间所测量的预积分ΔR,Δv,Δp来描述,由预积分方程:
i和i+1分别是时刻,分别是IMU的i+1时刻在世界坐标系下的旋转、速度和平移,ΔRi,i+1、Δvi,i+1和Δpi,i+1分别是IMU的i和i+1时刻间的世界坐标系下的旋转、速度和平移增量,Δti,i+1是时间差,分别是平移相对于角速度和加速度的雅各比矩阵,分别是速度相对于角速度和加速度的雅各比矩阵,是旋转相对于角速度的雅各比矩阵,ba和bg表示加速度计和陀螺仪偏置,gw是世界坐标系中的重力加速度矢量,w是世界表系,b是IMU坐标系,bi和bi+1分别是第i和i+1时刻的IMU坐标系;在世界参考坐标系中定义IMU测量得到的旋转平移以及速度
根据两个连续关键帧的已测得旋转可以对陀螺仪偏差进行估计,对于所有连续关键帧对,通过最小化陀螺仪计算IMU预积分和ORB-SLAM计算的相对旋转之间的差值来优化陀螺仪偏置:
N是关键帧的数量,是从IMU帧到世界帧的旋转矩阵,从相机坐标转到世界坐标系的旋转矩阵由ORB-SLAM进行计算,ΔRi,i+1是由预积分计算出来的两个连续关键帧之间旋转矩阵,本发明用高斯牛顿法对式(2)进行解算。
3.如权利要求1所述的基于单目相机的VIO快速联合初始化方法,其特征在于,步骤(3)中,重力加速度估计具体为:获得陀螺仪偏差之后可以通过补偿陀螺仪偏置再用预积分准确计算出相机的位置、速度与旋转,由ORB-SLAM计算的摄像机轨迹的尺度值是一个相对值,所以当实际估计从IMU到相机的帧间位移时需要引入一个尺度值s,分别是相机到世界坐标系下的平移和旋转,是IMU和相机之间的平移参数;
结合公式(3)和公式(1),忽略加速度偏置可以得到:
目标是用线性方程组估计重力和未知尺度,为了减少运算的复杂性,运算过程中考虑三个连续关键帧之间的两个关系(4)和(3)中的速度关系以消除速度,并且分离变量如下:
将三个连续关键帧(5)之间的所有关系叠加到测量模型A3(N-2)×4x4×1=B3(N-2)×1中,可以通过奇异值分解SVD来求解模型以得到比例因子s*和重力矢量因为有3(N-2)个方程和4个未知数,至少需要4个关键帧。
4.如权利要求1所述的基于单目相机的VIO快速联合初始化方法,其特征在于,步骤(3)中,重力加速度校准与重力加速度计偏置具体为:为了增加可观测性,增加加速度计偏差和重力常数G,引入参考重力加速度方向和已经计算的重力方向可以如下计算旋转矩阵:
重力加速度校准为:
由于z方向的旋转不会影响到gw,RWI可以由x与y两轴的旋转进行参数化,通过引入一个微小的扰动δθ对gw进行优化
由一阶泰勒近似:
结合式(9)与(4)并考虑加速度计偏置:
观测三个关键帧后联立式(5),可以得到:
其中λ(i)的表达方式同式(5),将三个连续关键帧之间的所有关系式(11)叠加到测量模型A3(N-2)×6x6×1=B3(N-1)×1中,同样可以通过SVD分解得到尺度信息s*,重力加速度矫正信息以及加速度偏置由于使用了3(N-2)个等式以及6个未知量,结算方程至少需要4个关键帧。
5.如权利要求1所述的基于单目相机的VIO快速联合初始化方法,其特征在于,步骤(4)中,尺度与速度信息估计具体为:将速度,重力加速度以及尺度联立为状态向量,等是IMU在i时刻在bi坐标系下的速度:
其中为第i个IMU帧下的速度,考虑两个连续关键帧式(4)可以表示(12)为:
将参数分离后可以得到线性测量模型:
通过计算最小二乘模型:
可以获得尺度及每一帧的速度信息。
CN201810685385.8A 2018-03-22 2018-06-28 基于单目相机的vio快速联合初始化方法 Active CN108981693B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810241538 2018-03-22
CN201810241538X 2018-03-22

Publications (2)

Publication Number Publication Date
CN108981693A true CN108981693A (zh) 2018-12-11
CN108981693B CN108981693B (zh) 2021-10-29

Family

ID=64539248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810685385.8A Active CN108981693B (zh) 2018-03-22 2018-06-28 基于单目相机的vio快速联合初始化方法

Country Status (1)

Country Link
CN (1) CN108981693B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767470A (zh) * 2019-01-07 2019-05-17 浙江商汤科技开发有限公司 一种跟踪***初始化方法及终端设备
CN109887003A (zh) * 2019-01-23 2019-06-14 亮风台(上海)信息科技有限公司 一种用于进行三维跟踪初始化的方法与设备
CN110030994A (zh) * 2019-03-21 2019-07-19 东南大学 一种基于单目的鲁棒性视觉惯性紧耦合定位方法
CN110068875A (zh) * 2019-04-30 2019-07-30 深圳市万普拉斯科技有限公司 地磁传感器校准方法、移动终端及计算机可读存储介质
CN110084832A (zh) * 2019-04-25 2019-08-02 亮风台(上海)信息科技有限公司 相机位姿的纠正方法、装置、***、设备和存储介质
CN110702107A (zh) * 2019-10-22 2020-01-17 北京维盛泰科科技有限公司 一种单目视觉惯性组合的定位导航方法
CN111578937A (zh) * 2020-05-29 2020-08-25 天津工业大学 同时优化外参数的视觉惯性里程计***
CN111665826A (zh) * 2019-03-06 2020-09-15 北京奇虎科技有限公司 基于激光雷达与单目相机的深度图获取方法及扫地机器人
CN112862768A (zh) * 2021-01-28 2021-05-28 重庆邮电大学 一种基于点线特征的自适应单目vio初始化方法
WO2022061799A1 (zh) * 2020-09-27 2022-03-31 深圳市大疆创新科技有限公司 位姿估计的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103033189A (zh) * 2012-12-26 2013-04-10 北京航空航天大学 一种深空探测巡视器惯性/视觉组合导航方法
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN107025668A (zh) * 2017-03-30 2017-08-08 华南理工大学 一种基于深度相机的视觉里程计的设计方法
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建***
CN107607111A (zh) * 2017-09-07 2018-01-19 驭势科技(北京)有限公司 加速度偏置估计方法和装置、视觉惯性里程计及其应用
CN107767425A (zh) * 2017-10-31 2018-03-06 南京维睛视空信息科技有限公司 一种基于单目vio的移动端AR方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103033189A (zh) * 2012-12-26 2013-04-10 北京航空航天大学 一种深空探测巡视器惯性/视觉组合导航方法
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN107025668A (zh) * 2017-03-30 2017-08-08 华南理工大学 一种基于深度相机的视觉里程计的设计方法
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建***
CN107607111A (zh) * 2017-09-07 2018-01-19 驭势科技(北京)有限公司 加速度偏置估计方法和装置、视觉惯性里程计及其应用
CN107767425A (zh) * 2017-10-31 2018-03-06 南京维睛视空信息科技有限公司 一种基于单目vio的移动端AR方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANASTASIOS I.等: "A Multi-State Constraint Kalman Filter for Vision-aided Inertial Navigation", 《2007 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》 *
LAURENT KNEIP等: "Deterministic Initialization of Metric State Estimation Filters for Loosely-Coupled Monocular Vision-Inertial Systems", 《2011 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
逯建军等: "惯性/双目视觉里程计深组合导航方法", 《导航定位与授时》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767470B (zh) * 2019-01-07 2021-03-02 浙江商汤科技开发有限公司 一种跟踪***初始化方法及终端设备
CN109767470A (zh) * 2019-01-07 2019-05-17 浙江商汤科技开发有限公司 一种跟踪***初始化方法及终端设备
CN109887003A (zh) * 2019-01-23 2019-06-14 亮风台(上海)信息科技有限公司 一种用于进行三维跟踪初始化的方法与设备
CN109887003B (zh) * 2019-01-23 2021-11-19 亮风台(上海)信息科技有限公司 一种用于进行三维跟踪初始化的方法与设备
CN111665826A (zh) * 2019-03-06 2020-09-15 北京奇虎科技有限公司 基于激光雷达与单目相机的深度图获取方法及扫地机器人
CN110030994A (zh) * 2019-03-21 2019-07-19 东南大学 一种基于单目的鲁棒性视觉惯性紧耦合定位方法
CN110084832A (zh) * 2019-04-25 2019-08-02 亮风台(上海)信息科技有限公司 相机位姿的纠正方法、装置、***、设备和存储介质
CN110084832B (zh) * 2019-04-25 2021-03-23 亮风台(上海)信息科技有限公司 相机位姿的纠正方法、装置、***、设备和存储介质
CN110068875A (zh) * 2019-04-30 2019-07-30 深圳市万普拉斯科技有限公司 地磁传感器校准方法、移动终端及计算机可读存储介质
CN110068875B (zh) * 2019-04-30 2021-06-08 深圳市万普拉斯科技有限公司 地磁传感器校准方法、移动终端及计算机可读存储介质
CN110702107A (zh) * 2019-10-22 2020-01-17 北京维盛泰科科技有限公司 一种单目视觉惯性组合的定位导航方法
CN111578937A (zh) * 2020-05-29 2020-08-25 天津工业大学 同时优化外参数的视觉惯性里程计***
CN111578937B (zh) * 2020-05-29 2024-01-09 上海新天策数字科技有限公司 同时优化外参数的视觉惯性里程计***
WO2022061799A1 (zh) * 2020-09-27 2022-03-31 深圳市大疆创新科技有限公司 位姿估计的方法和装置
CN112862768A (zh) * 2021-01-28 2021-05-28 重庆邮电大学 一种基于点线特征的自适应单目vio初始化方法

Also Published As

Publication number Publication date
CN108981693B (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
CN108981693A (zh) 基于单目相机的vio快速联合初始化方法
CN110030994B (zh) 一种基于单目的鲁棒性视觉惯性紧耦合定位方法
Weiss et al. Real-time onboard visual-inertial state estimation and self-calibration of MAVs in unknown environments
Cao et al. Accurate position tracking with a single UWB anchor
WO2021180128A1 (zh) 一种基于rgbd传感器和imu传感器的定位方法
CN110095116A (zh) 一种基于lift的视觉定位和惯性导航组合的定位方法
CN108036785A (zh) 一种基于直接法与惯导融合的飞行器位姿估计方法
Xiong et al. G-VIDO: A vehicle dynamics and intermittent GNSS-aided visual-inertial state estimator for autonomous driving
CN105953796A (zh) 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN108846857A (zh) 视觉里程计的测量方法及视觉里程计
Omari et al. Metric visual-inertial navigation system using single optical flow feature
Kang et al. Vins-vehicle: A tightly-coupled vehicle dynamics extension to visual-inertial state estimator
CN109798891A (zh) 基于高精度动作捕捉***的惯性测量单元标定***
CN109238277B (zh) 视觉惯性数据深度融合的定位方法及装置
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN112284379B (zh) 一种基于非线性积分补偿的组合运动测量***的惯性预积分方法
CN111539982B (zh) 一种移动平台中基于非线性优化的视觉惯导初始化方法
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Hu et al. Tightly coupled visual-inertial-UWB indoor localization system with multiple position-unknown anchors
Irmisch et al. Simulation framework for a visual-inertial navigation system
Ling et al. RGB-D inertial odometry for indoor robot via keyframe-based nonlinear optimization
Kehoe et al. Partial aircraft state estimation from optical flow using non-model-based optimization
Meier et al. Detection and characterization of moving objects with aerial vehicles using inertial-optical flow
Ready et al. Inertially aided visual odometry for miniature air vehicles in gps-denied environments
Soloviev et al. Fusion of inertial, optical flow, and airspeed measurements for UAV navigation in GPS-denied environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant