CN111539982B - 一种移动平台中基于非线性优化的视觉惯导初始化方法 - Google Patents

一种移动平台中基于非线性优化的视觉惯导初始化方法 Download PDF

Info

Publication number
CN111539982B
CN111539982B CN202010302564.6A CN202010302564A CN111539982B CN 111539982 B CN111539982 B CN 111539982B CN 202010302564 A CN202010302564 A CN 202010302564A CN 111539982 B CN111539982 B CN 111539982B
Authority
CN
China
Prior art keywords
imu
frame
initial value
visual
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010302564.6A
Other languages
English (en)
Other versions
CN111539982A (zh
Inventor
康健
王志军
冯辰
于艺晗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Weisheng Tyco Technology Co ltd
Original Assignee
Beijing Weisheng Tyco Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Weisheng Tyco Technology Co ltd filed Critical Beijing Weisheng Tyco Technology Co ltd
Priority to CN202010302564.6A priority Critical patent/CN111539982B/zh
Publication of CN111539982A publication Critical patent/CN111539982A/zh
Application granted granted Critical
Publication of CN111539982B publication Critical patent/CN111539982B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种移动平台中基于非线性优化的视觉惯导初始化方法,包括:利用移动平台的相机采集视频流得到图像帧以及其共视点,利用移动平台的IMU采集IMU数据流并进行预积分得到IMU位姿;判断IMU是否充分运动,若IMU运动充分,则开始初始化;若IMU运动不充分,则继续采集视频流以及IMU数据流;利用共视点构成的向量减法三角形法则,联立N个图像帧以及其共视的点构成的线性方程组,计算得到重力初值、每个点到其可视相机帧光心的距离参数d初值以及相机速度初值;利用非线性紧耦合优化算法得到优化后的重力、相机位姿以及速度、共视点3D位置。本发明针对现有技术的不足,提高了移动平台初始估计的精确度,达到了更高定位精度、更高鲁棒性的初始化效果。

Description

一种移动平台中基于非线性优化的视觉惯导初始化方法
技术领域
本发明涉及定位技术领域,特别是涉及一种移动平台中基于非线性优化的视觉惯导初始化方法。
背景技术
近些年,定位技术是当下机器人、无人机等移动平台中研究的热点。在各种各样传感器的组合中,视觉和惯导融合成为了最具潜力而又经济实惠的方案。首先,移动平台中的相机可以提供环境的相关信息,使得定位技术能够定位相机以及识别出曾到过的地方。但纯视觉的初始化方法非常容易因为运动模糊造成失败,且存在尺度不确定性的缺点。其次,移动平台中的IMU(惯性测量单元)可以提供自运动的相关信息,这使得定位技术可以恢复单目视觉初始化无法做到的尺度信息,并且可以估计重力方向。但低精度的惯导初始化性能有限,且高精度的惯导初始化无法民用,费用太高。两者的结合初始化方法获得的参数估计更精确,使得定位技术可以高精度、健壮性地计算相机位姿以及移动平台的增量运动。
发明内容
本发明针对现有技术的不足,本发明采用共视点构成的向量三角形法则对重力等参数进行初始估计,并采用非线性紧耦合优化算法实现了视觉惯导的初始化,提供了更高精度、更高鲁棒性的一种移动平台中基于非线性优化的视觉惯导初始化方法。
本发明解决其技术问题所采用的技术方案是:
步骤一、利用移动平台中的相机采集视频流得到图像帧以及其共视点,利用移动平台中的IMU采集IMU数据流;
步骤二、对IMU数据流进行预积分得到与图像帧对齐的IMU位姿;
步骤三、判断IMU是否充分运动,若IMU运动充分,则开始初始化;若IMU运动不充分,则继续采集视频流以及IMU数据流;
步骤四、选取任意三个连续图像帧共视的点,利用向量减法三角形法则计算得到视觉位移变化,利用同一段时间内视觉位移变化与IMU位移变化相,联立N个图像帧以及其共视的点构成的线性方程组,进行最小二乘求解得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值,此世界坐标系是指以相机第一帧为参考坐标系;通过重力初值以及参数d初值,计算得到世界坐标系下相机第一帧的速度初值;
步骤五、IMU预积分计算得到姿态变化的过程中存在陀螺仪零漂的误差影响,通过对上述步骤四中线性方程组进行最小二乘求解,估计得到IMU陀螺仪零漂初值;
步骤六、对上述步骤四中优化后的视觉位移变化进行平均得到视觉位移变化的初值;利用上述步骤五中得到的陀螺仪零漂,计算得到优化后的IMU姿态变化,由于IMU与视觉帧对齐,可得到视觉姿态变化的初值;通过步骤四中算得的距离参数d计算得到每个共视点的初始位置;利用重力模值不变的特点,得到重力方向向量;选取连续两帧图像,同时选取共视点数大于阈值μ以及平移属于设定阈值区间的两帧非连续图像,对选出的图像进行重投影误差计算,对与上述图像帧对应的IMU进行IMU残差计算,通过去量纲分别得到重投影误差与IMU残差对应的无量纲误差;将得到的两个无量纲误差进行求和,利用LM(Levenberg-Marquardt)算法对此误差和进行最小化,得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
所述步骤三中判断IMU是否充分运动具体为所获取IMU的加速度的标准差是否大于阈值α;若加速度的标准差大于阈值α,则认为IMU运动充分;若加速度的标准差小于或等于阈值α,则认为IMU运动不充分。
所述步骤四具体包括:
4.1)在准备初始化的20个图像帧中,选取任意三个连续图像帧c1、c2、c3,取其中一个共视的点yi,该点到图像帧c1、c2、c3光心的距离参数分别为分别为图像帧c1、c2、c3光心指向该点的单位方向向量,利用向量减法三角形法则可得图像帧c1、c2间视觉位移变化sc1c2
Rc1c2为图像帧c2到c1的旋转矩阵,利用同一段时间内视觉位移变化与IMU位移变化相等,可得如下等式:
其中,RIC、PIC分别为IMU与相机的外参旋转、平移,Rb1b2为与图像帧c2对齐的IMUb2到与图像帧c1对齐的IMUb1的旋转矩阵,Δt23为图像帧c2与图像帧c3的时间差,gw为世界坐标系下相机第一帧的重力,Δp12.、Δv12分别为IMU预积分得到的IMUb2与b1间的位移变化、速度变化;
4.2)联立20个图像帧以及其共视的点构成的线性方程组,进行最小二乘求解得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值,此世界坐标系是指以相机第一帧为参考坐标系,通过重力初值以及参数d初值,计算得到世界坐标系下相机第一帧的速度初值。
所述步骤六具体包括:
6.1)对上述步骤四中优化后的视觉位移变化进行平均得到视觉位移变化的初值,利用上述步骤五中得到的陀螺仪零漂,计算得到优化后的IMU姿态变化,由于IMU与视觉帧对齐,可得到视觉姿态变化的初值;
6.2)通过步骤四中算得的距离参数d计算得到每个共视点的初始位置,利用重力模值不变的特点,得到重力方向向量;
6.3)选取连续两帧图像,同时选取共视点数大于阈值μ以及平移属于设定阈值区间的两帧非连续图像,对选出的图像进行重投影误差计算,对与上述图像帧对应的IMU进行IMU残差计算,通过去量纲分别得到重投影误差与IMU残差对应的无量纲误差,将得到的两个无量纲误差进行求和,利用LM(Levenberg-Marquardt)算法对此误差和进行最小化,得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
本发明与现有技术相比,具有如下优点和有益效果:
本发明采用共视点构成的向量三角形法则对重力等参数进行初始估计,相比于现有移动平台中的视觉惯导初始化方法,本发明的初始估计精确度更高;同时采用非线性紧耦合优化算法实现了视觉惯导的初始化,达到了更高定位精度、更高鲁棒性的移动平台初始化效果。
附图说明
图1是一种移动平台中基于非线性优化的视觉惯导初始化方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一具体实施方式,如图1所示,本发明提供了一种移动平台中基于非线性优化的视觉惯导初始化方法,包括步骤一至步骤六。
步骤一、利用移动平台中的相机采集视频流得到图像帧以及其共视点,利用移动平台中的IMU采集IMU数据流。
步骤二、对IMU数据流进行预积分得到与图像帧对齐的IMU位姿。
步骤三、判断IMU是否充分运动,若IMU运动充分,则开始初始化;若IMU运动不充分,则继续采集视频流以及IMU数据流。
其中,所述判断IMU是否充分运动具体为所获取IMU的加速度的标准差是否大于阈值α;若加速度的标准差大于阈值α,则认为IMU运动充分;若加速度的标准差小于或等于阈值α,则认为IMU运动不充分。
步骤四、选取任意三个连续图像帧共视的点,利用向量减法三角形法则计算得到视觉位移变化,利用同一段时间内视觉位移变化与IMU位移变化相等,联立N个图像帧以及其共视的点构成的线性方程组,进行最小二乘求解得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值,此世界坐标系是指以相机第一帧为参考坐标系;通过重力初值以及参数d初值,计算得到世界坐标系下相机第一帧的速度初值。
所述步骤四具体包括:
4.1)在准备初始化的20个图像帧中,选取任意三个连续图像帧c1、c2、c3,取其中一个共视的点yi,该点到图像帧c1、c2、c3光心的距离参数分别为分别为图像帧c1、c2、c3光心指向该点的单位方向向量,利用向量减法三角形法则可得图像帧c1、c2间视觉位移变化sc1c2
Rc1c2为图像帧c2到c1的旋转矩阵,利用同一段时间内视觉位移变化与IMU位移变化相等,可得如下等式:
其中,RIC、PIC分别为IMU与相机的外参旋转、平移,Rb1b2为与图像帧c2对齐的IMUb2到与图像帧c1对齐的IMUb1的旋转矩阵,Δt23为图像帧c2与图像帧c3的时间差,gw为世界坐标系下相机第一帧的重力,Δp12.、Δv12分别为IMU预积分得到的IMUb2与b1间的位移变化、速度变化;
4.2)联立20个图像帧以及其共视的点构成的线性方程组,进行最小二乘求解得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值,此世界坐标系是指以相机第一帧为参考坐标系,通过重力初值以及参数d初值,计算得到世界坐标系下相机第一帧的速度初值。
步骤五、IMU预积分计算得到姿态变化的过程中存在陀螺仪零漂的误差影响,通过对上述步骤四中线性方程组进行最小二乘求解,估计得到IMU陀螺仪零漂初值。
步骤六、对上述步骤四中优化后的视觉位移变化进行平均得到视觉位移变化的初值;利用上述步骤五中得到的陀螺仪零漂,计算得到优化后的IMU姿态变化,由于IMU与视觉帧对齐,可得到视觉姿态变化的初值;通过步骤四中算得的距离参数d计算得到每个共视点的初始位置;利用重力模值不变的特点,得到重力方向向量;选取连续两帧图像,同时选取共视点数大于阈值μ以及平移属于设定阈值区间的两帧非连续图像,对选出的图像进行重投影误差计算,对与上述图像帧对应的IMU进行IMU残差计算,通过去量纲分别得到重投影误差与IMU残差对应的无量纲误差;将得到的两个无量纲误差进行求和,利用LM(Levenberg-Marquardt)算法对此误差和进行最小化,得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
所述步骤六具体包括:
6.1)对上述步骤四中优化后的视觉位移变化进行平均得到视觉位移变化的初值,利用上述步骤五中得到的陀螺仪零漂,计算得到优化后的IMU姿态变化,由于IMU与视觉帧对齐,可得到视觉姿态变化的初值;
6.2)通过步骤四中算得的距离参数d计算得到每个共视点的初始位置,利用重力模值不变的特点,得到重力方向向量;
6.3)选取连续两帧图像,同时选取共视点数大于阈值μ以及平移属于设定阈值区间的两帧非连续图像,对选出的图像进行重投影误差计算,对与上述图像帧对应的IMU进行IMU残差计算,通过去量纲分别得到重投影误差与IMU残差对应的无量纲误差,将得到的两个无量纲误差进行求和,利用LM(Levenberg-Marquardt)算法对此误差和进行最小化,得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
下面结合附图,对本发明技术方案进行详细解释,方便本领域技术人员理解。
图1所示一种移动平台中基于非线性优化的视觉惯导初始化方法的流程图:首先,利用移动平台中的相机采集视频流得到图像帧以及其共视点,利用移动平台中的IMU采集IMU数据流并进行预积分得到与图像帧对齐的IMU位姿;接着,判断IMU是否充分运动,若IMU运动充分,则开始初始化;若IMU运动不充分,则继续采集视频流以及IMU数据流;然后,利用共视点构成的向量减法三角形法则计算得到视觉位移变化,联立N个图像帧以及其共视的点构成的线性方程组,计算得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值以及世界坐标系下相机第一帧的速度初值,此世界坐标系是指以相机第一帧为参考坐标系;接着,计算得到陀螺仪零漂;最后,利用非线性紧耦合优化算法得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
针对现有移动平台中的纯视觉定位方法存在尺度不确定,易受环境条件影响的缺点;现有移动平台中的低精度惯导定位方法存在性能有限的缺点。本发明采用非线性紧耦合优化算法实现了视觉惯导的初始化,达到了更高定位精度、更高鲁棒性的移动平台初始化效果。针对现有移动平台中方法存在初始估计不精确的缺点,本发明采用共视点构成的向量三角形法则对重力等参数进行初始估计,达到了移动平台初始估计精确度更高的效果。

Claims (4)

1.一种移动平台中基于非线性优化的视觉惯导初始化方法,其特征在于,包括:
步骤一、利用移动平台中的相机采集视频流得到图像帧以及其共视点,利用移动平台中的IMU采集IMU数据流;
步骤二、对IMU数据流进行预积分得到与图像帧对齐的IMU位姿;
步骤三、判断IMU是否充分运动,若IMU运动充分,则开始初始化;若IMU运动不充分,则继续采集视频流以及IMU数据流;
步骤四、选取任意三个连续图像帧共视的点,利用向量减法三角形法则计算得到视觉位移变化,利用同一段时间内视觉位移变化与IMU位移变化相,联立N个图像帧以及其共视点构成的线性方程组,进行最小二乘求解得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值,此世界坐标系是指以相机第一帧为参考坐标系;通过重力初值以及参数d初值,计算得到世界坐标系下相机第一帧的速度初值;
步骤五、IMU预积分计算得到姿态变化的过程中存在陀螺仪零漂的误差影响,通过对上述步骤四中线性方程组进行最小二乘求解,估计得到IMU陀螺仪零漂初值;
步骤六、对上述步骤四中优化后的视觉位移变化进行平均得到视觉位移变化的初值;利用上述步骤五中得到的陀螺仪零漂,计算得到优化后的IMU姿态变化,由于IMU与视觉帧对齐,可得到视觉姿态变化的初值;通过步骤四中算得的距离参数d计算得到每个共视点的初始位置;利用重力模值不变的特点,得到重力方向向量;选取连续两帧图像,同时选取共视点数大于阈值μ以及平移属于设定阈值区间的两帧非连续图像,对选出的图像进行重投影误差计算,对与上述图像帧对应的IMU进行IMU残差计算,通过去量纲分别得到重投影误差与IMU残差对应的无量纲误差;将得到的两个无量纲误差进行求和,利用LM算法对此误差和进行最小化,得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
2.如权利要求1所述的一种移动平台中基于非线性优化的视觉惯导初始化方法,其特征在于,所述步骤三中判断IMU是否充分运动具体为所获取IMU的加速度的标准差是否大于阈值α;若加速度的标准差大于阈值α,则认为IMU运动充分;若加速度的标准差小于或等于阈值α,则认为IMU运动不充分。
3.如权利要求1所述的一种移动平台中基于非线性优化的视觉惯导初始化方法,其特征在于,所述步骤四具体包括:4.1)在准备初始化的20个图像帧中,选取任意三个连续图像帧c1、c2、c3,取其中一个共视的点yi,该点到图像帧c1、c2、c3光心的距离参数分别为分别为图像帧c1、c2、c3光心指向该点的单位方向向量,利用向量减法三角形法则可得图像帧c1、c2间视觉位移变化sc1c2
Rc1c2为图像帧c2到c1的旋转矩阵,利用同一段时间内视觉位移变化与IMU位移变化相等,可得如下等式:
其中,RIC、PIC分别为IMU与相机的外参旋转、平移,为与图像帧c2对齐的IMUb2到与图像帧c1对齐的IMUb1的旋转矩阵,Δt23为图像帧c2与图像帧c3的时间差,gw为世界坐标系下相机第一帧的重力,Δp12、Δv12分别为IMU预积分得到的IMUb2与b1间的位移变化、速度变化;4.2)联立20个图像帧以及其共视的点构成的线性方程组,进行最小二乘求解得到世界坐标系下相机第一帧的重力初值、每个共视点到其可视相机帧光心的距离参数d初值,此世界坐标系是指以相机第一帧为参考坐标系,通过重力初值以及参数d初值,计算得到世界坐标系下相机第一帧的速度初值。
4.如权利要求1所述的一种移动平台中基于非线性优化的视觉惯导初始化方法,其特征在于,所述步骤六具体包括:
6.1)对上述步骤四中优化后的视觉位移变化进行平均得到视觉位移变化的初值,利用上述步骤五中得到的陀螺仪零漂,计算得到优化后的IMU姿态变化,由于IMU与视觉帧对齐,可得到视觉姿态变化的初值;
6.2)通过步骤四中算得的距离参数d计算得到每个共视点的初始位置,利用重力模值不变的特点,得到重力方向向量;
6.3)选取连续两帧图像,同时选取共视点数大于阈值μ以及平移属于设定阈值区间的两帧非连续图像,对选出的图像进行重投影误差计算,对与上述图像帧对应的IMU进行IMU残差计算,通过去量纲分别得到重投影误差与IMU残差对应的无量纲误差,将得到的两个无量纲误差进行求和,利用LM算法对此误差和进行最小化,得到优化后的世界坐标系下相机第一帧的重力、世界坐标系下相机的位姿以及速度、每个共视点的3D位置、IMU的陀螺仪零漂与加速度计零漂。
CN202010302564.6A 2020-04-17 2020-04-17 一种移动平台中基于非线性优化的视觉惯导初始化方法 Active CN111539982B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010302564.6A CN111539982B (zh) 2020-04-17 2020-04-17 一种移动平台中基于非线性优化的视觉惯导初始化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010302564.6A CN111539982B (zh) 2020-04-17 2020-04-17 一种移动平台中基于非线性优化的视觉惯导初始化方法

Publications (2)

Publication Number Publication Date
CN111539982A CN111539982A (zh) 2020-08-14
CN111539982B true CN111539982B (zh) 2023-09-15

Family

ID=71979963

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010302564.6A Active CN111539982B (zh) 2020-04-17 2020-04-17 一种移动平台中基于非线性优化的视觉惯导初始化方法

Country Status (1)

Country Link
CN (1) CN111539982B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114199275B (zh) * 2020-09-18 2024-06-21 阿里巴巴集团控股有限公司 传感器的参数确定方法和装置
WO2022061799A1 (zh) * 2020-09-27 2022-03-31 深圳市大疆创新科技有限公司 位姿估计的方法和装置

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016187758A1 (en) * 2015-05-23 2016-12-01 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***
CN109029433A (zh) * 2018-06-28 2018-12-18 东南大学 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN109147058A (zh) * 2018-08-31 2019-01-04 腾讯科技(深圳)有限公司 用于视觉惯导信息融合的初始化方法和装置以及存储介质
CN109307508A (zh) * 2018-08-29 2019-02-05 中国科学院合肥物质科学研究院 一种基于多关键帧的全景惯导slam方法
CN109993113A (zh) * 2019-03-29 2019-07-09 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
CN110084832A (zh) * 2019-04-25 2019-08-02 亮风台(上海)信息科技有限公司 相机位姿的纠正方法、装置、***、设备和存储介质
CN110125928A (zh) * 2019-03-27 2019-08-16 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam***
WO2019157925A1 (zh) * 2018-02-13 2019-08-22 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及***
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN110599545A (zh) * 2019-09-06 2019-12-20 电子科技大学中山学院 一种基于特征的构建稠密地图的***
CN110702107A (zh) * 2019-10-22 2020-01-17 北京维盛泰科科技有限公司 一种单目视觉惯性组合的定位导航方法
CN110726406A (zh) * 2019-06-03 2020-01-24 北京建筑大学 一种改进的非线性优化单目惯导slam的方法
CN113011231A (zh) * 2019-12-20 2021-06-22 舜宇光学(浙江)研究院有限公司 分类滑窗方法和slam定位方法及其***和电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140323148A1 (en) * 2013-04-30 2014-10-30 Qualcomm Incorporated Wide area localization from slam maps
WO2014179745A1 (en) * 2013-05-02 2014-11-06 Qualcomm Incorporated Methods for facilitating computer vision application initialization
SG11201908974XA (en) * 2017-03-29 2019-10-30 Agency Science Tech & Res Real time robust localization via visual inertial odometry
CN110657803B (zh) * 2018-06-28 2021-10-29 深圳市优必选科技有限公司 机器人定位方法、装置以及存储装置

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016187758A1 (en) * 2015-05-23 2016-12-01 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***
WO2019157925A1 (zh) * 2018-02-13 2019-08-22 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及***
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN109029433A (zh) * 2018-06-28 2018-12-18 东南大学 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN109307508A (zh) * 2018-08-29 2019-02-05 中国科学院合肥物质科学研究院 一种基于多关键帧的全景惯导slam方法
CN109147058A (zh) * 2018-08-31 2019-01-04 腾讯科技(深圳)有限公司 用于视觉惯导信息融合的初始化方法和装置以及存储介质
CN110125928A (zh) * 2019-03-27 2019-08-16 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam***
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
CN109993113A (zh) * 2019-03-29 2019-07-09 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110084832A (zh) * 2019-04-25 2019-08-02 亮风台(上海)信息科技有限公司 相机位姿的纠正方法、装置、***、设备和存储介质
CN110726406A (zh) * 2019-06-03 2020-01-24 北京建筑大学 一种改进的非线性优化单目惯导slam的方法
CN110599545A (zh) * 2019-09-06 2019-12-20 电子科技大学中山学院 一种基于特征的构建稠密地图的***
CN110702107A (zh) * 2019-10-22 2020-01-17 北京维盛泰科科技有限公司 一种单目视觉惯性组合的定位导航方法
CN113011231A (zh) * 2019-12-20 2021-06-22 舜宇光学(浙江)研究院有限公司 分类滑窗方法和slam定位方法及其***和电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
T Liu 等.High altitude monocular visuai-inertial state estimation:Initialization and sensor fusion.《IEEE International Conference on Robotics and Automation》.2017,全文. *
盛淼.基于双目视觉惯导的SLAM算法研究.《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》.2020,I140-446. *
陈常 等.基于视觉的同时定位与地图构建的研究进展.计算机应用研究.2017,(第03期),第7-13页. *

Also Published As

Publication number Publication date
CN111539982A (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN111024066B (zh) 一种无人机视觉-惯性融合室内定位方法
CN109540126B (zh) 一种基于光流法的惯性视觉组合导航方法
CN111811506B (zh) 视觉/惯性里程计组合导航方法、电子设备及存储介质
CN109764880B (zh) 紧耦合车辆轮子编码器数据的视觉惯性测程方法及***
US8761439B1 (en) Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
CN111795686B (zh) 一种移动机器人定位与建图的方法
Heo et al. EKF-based visual inertial navigation using sliding window nonlinear optimization
CN110044354A (zh) 一种双目视觉室内定位与建图方法及装置
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN110207693B (zh) 一种鲁棒立体视觉惯性预积分slam方法
CN110533719B (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
CN108981693A (zh) 基于单目相机的vio快速联合初始化方法
CN111539982B (zh) 一种移动平台中基于非线性优化的视觉惯导初始化方法
CN111609868A (zh) 一种基于改进光流法的视觉惯性里程计方法
CN115371665B (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
CN103900473A (zh) 一种基于摄像头与重力感应器融合的智能移动设备六自由度位姿估计方法
CN114964276A (zh) 一种融合惯导的动态视觉slam方法
Tang et al. LE-VINS: A robust solid-state-LiDAR-enhanced visual-inertial navigation system for low-speed robots
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及***
CN112284381A (zh) 视觉惯性实时初始化对准方法及***
CN117073720A (zh) 弱环境与弱动作控制下快速视觉惯性标定与初始化方法及设备
CN114440877B (zh) 一种异步多相机视觉惯性里程计定位方法
CN114543786B (zh) 一种基于视觉惯性里程计的爬壁机器人定位方法
CN109737950B (zh) 基于vio和动力学模型的水下机器人定位***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant