CN113298796B - 一种基于最大后验imu的线特征slam初始化方法 - Google Patents
一种基于最大后验imu的线特征slam初始化方法 Download PDFInfo
- Publication number
- CN113298796B CN113298796B CN202110645920.9A CN202110645920A CN113298796B CN 113298796 B CN113298796 B CN 113298796B CN 202110645920 A CN202110645920 A CN 202110645920A CN 113298796 B CN113298796 B CN 113298796B
- Authority
- CN
- China
- Prior art keywords
- imu
- initialization
- lbd
- matrix
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011423 initialization method Methods 0.000 title claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 14
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 17
- 230000001133 acceleration Effects 0.000 claims description 14
- 230000010354 integration Effects 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 abstract description 3
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 15
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 15
- 238000005286 illumination Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于最大后验IMU的线特征SLAM初始化方法,通过合并梯度相近的像素点来实现像素合并,通过计算NFA检测获得的近似矩形是否可以作为可被提取的线特征。为在尺度空间内对线特征构建矩形支撑域,分解支撑域分解为大小相等的子区域,并结合全局和局部高斯权重系数对子区域进行梯度计算,从而获得的描述矩阵。通过相机采集到的连续三帧图像对应的LBD描述子构建三焦点张量的矩阵并求解。将地图点边缘化构建最小化重投影误差方程,获得轨迹的先验信息,以及先关的信息矩阵,用这些信息进行IMU数据的优化。此方法初始化精度更高、耗时更少,能够为后续定位带来良好的初值。
Description
技术领域
本发明属于图像制导领域,涉及一种图像惯导初始化定位方法,具体涉及一种基于最大后验IMU的线特征SLAM初始化方法。
背景技术
同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)被认为是实现移动机器人自主作业的核心技术,已被广泛应用于无人机、无人车和虚拟现实等领域。对于室内环境,由于建筑物会对GPS信号进行遮蔽,无人机定位多采用SLAM技术,为了克服单一传感器自身精度的不足,常采用多传感器融合策略,如视觉惯性就是一种有效的融合方法,且相机和惯性测量单元(Inertial Measurement Unit,IMU)均具有重量轻、成本低的特点,符合室内无人机轻量化和低功耗的需求。
随着技术的发展和越来越多开源***的出现,视觉SLAM技术逐渐地成熟,然而仍有很多实际的问题需要解决。其中视觉SLAM的局限之一是过于依赖场景特征,如大部分视觉SLAM中采用的点特征。当场景中纹理信息缺失时或相机快速运动导致图像模糊时,点特征的数量往往较少,影响了位姿估计的精度。现有主流的视觉惯性SLAM有VINS-MONO,ORB-SLAM等,在光照条件好的环境中定位较为精准。但在弱纹理、弱照明及光照变化明显等场景会产生初始化失败以及特征点提取变少导致的定位失效。线特征在此类场景具有较高的光照不变性,在较大的视角变化下也比较稳定。但基于线特征的视觉惯性SLAM初始化时间远超过点特征,由此本发明专利提出一种基于后验IMU的点线特征SLAM初始化方法减少点线特征SLAM初始化时间。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于最大后验IMU的线特征SLAM初始化方法。
本发明由视觉特征处理,IMU初始化和联合初始化三大部分组成。首先利用LSD线特征提取算法对接收到的图像进行处理,用LBD方法对提取的线特征添加描述子,构建线特征空间信息;其次将连续三帧图像对应的LBD描述子构建三焦点张量的矩阵并求解得到纯视觉的位姿;接下来使用最大后验估计处理IMU的预积分数据,求得旋转矩阵,速度,位移的误差;最后,主要任务为对齐相机与IMU信息以及对状态变量进行初始估计,包括相机与IMU信息对齐,初始估计的状态向量则主要包括重力向量g、速度v、尺度s与偏差bias,为后端优化模块提供良好初值。
技术方案
一种基于最大后验IMU的线特征SLAM初始化方法,其特征在于步骤如下:
步骤1:采用LSD算法对相机拍摄图像进行边缘提取,得到若干条带;
步骤2、添加LBD描述子:计算出每个条带对应的特征向量BDj,将特征向量BDj与条带并将生成LBD描述子;
步骤3、线特征初始化:将连续三帧图像对应的LBD描述子构建一个三焦点张量的矩阵并求解,取数值最小的一组解得到位姿信息获得轨迹的先验信息,完成位姿初始化;
步骤4、IMU初始化:以轨迹的先验信息进行IMU数据的优化;
将所有轨迹和关键帧的位姿固定,仅仅优化IMU的相关参数:
其中,s也就是整个地图的尺度;Rwg∈SO(3)是重力加速度方向,表示为g=Rwggi gi=(0,0,G)T,表示IMU的加速度和角速度偏差,/>是所有的关键帧对应的无尺度的速度;
相对于真值s*v表示的速度,使用速度同时,在初始化的过程中偏置的值固定不变,将重力加速度纳入到优化公式中;所有的测量值都是IMU的变量,同时用Li,j为IMU从第i帧到第j帧之间的预积分,L0,k表示在初始化窗口的连续关键帧之间的预积分;
制定一个最大后验估计:
p(χk|L0:k)∝p(L0:k|χk)p(χk)
其中,p(L0:k|χk)表示在给定第k帧IMU数据的情况下,从0到k帧的可能的IMU测量值分布可能性;p(χk)为IMU状态的先验;
将其分解为:
找到参数使后验概率最大,意味着使其负对数的值更小:
IMU的预积分都是服从高斯分布的,则MAP问题等价于:
其中,rp和为先验值和IMU测量值的残差,而∑p和/>为他们的协方差;
优化的过程中;
定义旋转矩阵,速度,位移的误差如下:
步骤5、视觉惯性联合初始化:将视觉初始位姿与IMU初始化结果即旋转矩阵,速度,位移的误差作一阶线性相似,对其求解最小二乘得到速度,加速度和尺度信息,完成初始化。
有益效果
本发明提出的一种基于最大后验IMU的线特征SLAM初始化方法,通过合并梯度相近的像素点来实现像素合并,通过计算NFA(Number of False Alarms)检测获得的近似矩形是否可以作为可被提取的线特征。为在尺度空间内对线特征构建矩形支撑域,分解支撑域分解为大小相等的子区域,并结合全局和局部高斯权重系数对子区域进行梯度计算,从而获得的描述矩阵。通过相机采集到的连续三帧图像对应的LBD描述子构建三焦点张量的矩阵并求解。将地图点边缘化构建最小化重投影误差方程,获得轨迹的先验信息,以及先关的信息矩阵,用这些信息进行IMU数据的优化。
本发明提出的一种基于后验IMU的线特征SLAM初始化方法,该方法将传统的IMU初始化使用最小二乘法求初值转变为MAP(最大后验估计)求初值,降低了计算复杂度,这缩同时IMU初始化结果更稳健,短了整体初始化时间。满足无人机在弱纹理、弱照明及光照变化明显等场景的快速部署。相较于线特征原始初始化方法,此方法初始化精度更高、耗时更少,能够为后续定位带来良好的初值。
附图说明
图1:本发明中具体实施步骤的流程图
图2:LBD算子描述图
图3:线特征初始化位姿示意图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
由图1看出本发明的思路:首先通过LSD算法提取图像中的线特征信息,再添加LBD描述子来进行前后帧的特征匹配;视觉初始化首先进行相机位姿初始化利用PNP求解位姿,再进行空间线特征初始化,利用三焦点张量的矩阵并求解得到旋转矩阵;IMU进行预积分将帧与帧之间的IMU相对测量信息转换为约束节点(载***姿)参与到优化框架中,对IMU相对测量进行处理,使得它与绝对位姿解耦,从而大大提高优化速度。最后通过联合初始化求解最终的无人机位姿。
具体过程:
1、采用LSD算法对相机拍摄图像进行边缘提取,得到若干条带;
接收外部传感器传输的图像后,使用LSD算法将线段定义为一个连续的图像区域,在该图像区域内所有的点都大致拥有相同的图像梯度方向。线段检测LSD算法就能根据赫姆霍兹原理通过有效的融合梯度方向和线段校验从而生成准确的线段,并且控制错误检测率在一个较低的水准。
2、添加LBD描述子:计算出每个条带对应的特征向量BDj,将特征向量BDj与条带并将生成LBD描述子;
利用改进的LBD描述子描述线段的局部外观,并结合几何约束来实现线段匹配。
如图1所示,由若干个相互平行的条带组成一个线段支持域LSR,并定义d⊥与dL两个方向来实现旋转不变性,其中d⊥为线段的方向,d⊥为dL的顺时针垂直方向。设条带数目为m,宽度为长度为线段的长度。考虑到距离中心较远的像素梯度对描述子的影响,LBD算法引入全局高斯权重函数fg,以降低LSR区域内沿d⊥方向远离中心行的权重。同时,引入局部高斯权重函数ft,以削弱边界效应,避免条带间描述子的骤然变化。
计算出每个条带尽对应的特征向量BDj,并将其合并以生成LBD描述子
对于每个条带Bj,其条带描述子BDj由BJ-1和BJ+1计算得到,具体计算过程为:对于Bj的第K行,累计该行中四个方向(d⊥和dL的正反方向)。
像素的梯度:
其中,为λ=fg(k)fl(k)为高斯权重系数。通过条带Bj的四个累积梯度,可以构造条带描述矩阵BDMj:
其中
最后计算该矩阵的均值向量Mj和标准差Sj,进而得到LBD特征向量:
此时,LBD描述子为8m维的特征向量。为了提高描述子的匹配效率,还需要将LBD描述子转化为二进制描述子。二进制编码的规则是:对于特征向量LBD中,若第P个元素比第q个元素大,编码为1,否则编码为0。按照一定的顺序取出若干对后,可以形成一个与BRIEF描述子类似的二值编码串,从而可以使用汉明距离来度量两个LBD描述子之间的距离。
3、线特征初始化:将连续三帧图像对应的LBD描述子构建一个三焦点张量的矩阵并求解,取数值最小的一组解得到位姿信息获得轨迹的先验信息,完成位姿初始化;
如图2所示,设定空间线特征端点P,Q在三帧相机视图上投影分别为{P1,Q1},{P2,Q2},{P3,Q3},其中I1,I2,I3∈R3为计算投影时相对应的线系数。
本文基于相机运动为小旋转且连续的假设,使相邻相机视图之前旋转相同,即R1=RT,R2=I,R3=R,其中I为3*3单位向量,R可以近似表示为:
线系数Ii,i={1,2,3}的几何含义是垂直于投影中心Ci与pi,Qi形成平面的向量参数。在同一个参考坐标系中,两个线系数向量叉乘后平行于直线PQ,垂直于第三个线系数向量。可构建几何约束式如下:
以此对三帧匹配线特征进行此约束,可得三个二次方程形成的方程组,未知数为式(1.1)中的r1,r2,r3,采用多项式求解器即可以得到r1,r2,r3的八组解。针对每组解的旋转矩阵R使用三焦点张量方程在假定t2=0线性近似可得到t1,t3,最后对八组解的t1,t3回代式(1.2)中进行验证,取数值最小的一组解,可完成位姿初始化。
4、以轨迹的先验信息进行IMU数据的优化;
这一步的主要目标是通过上一步中视觉计算出的位姿,从而获得IMU相关参数的优化结果。位姿优化需要一个很好的初值。因此,将所有轨迹和关键帧的位姿固定,仅仅优化IMU的相关参数。
其中,s也就是整个地图的尺度;Rwg∈SO(3)是重力加速度方向,表示为g=Rwggi gi=(0,0,G)T,表示IMU的加速度和角速度偏差,/>是所有的关键帧对应的无尺度的速度。
相对于真值s*v表示的速度,使用速度使得优化过程更加容易;同时,假设在初始化的过程中偏置的值固定不变,随机游走几乎没有什么影响,并且从一开始就将重力加速度纳入到优化公式中。所有的测量值都是IMU的变量,同时用Li,j为IMU从第i帧到第j帧之间的预积分,L0,k表示在初始化窗口的连续关键帧之间的预积分。有了定义的状态和测量值,我们可以制定一个最大后验估计(MAP估计问题),其中后验分布是:
p(χk|L0:k)∝p(L0:k|χk)p(χk) (0.7)
其中,p(L0:k|χk)表示在给定第k帧IMU数据的情况下,从0到k帧的可能的IMU测量值分布可能性。p(χk)为IMU状态的先验。考虑到测量值之间相互独立,可以将其分解为:
我们需要找到参数使后验概率最大,意味着使其负对数的值更小:
因为假设IMU的预积分都是服从高斯分布的,则MAP问题等价于:
其中,rp和为先验值和IMU测量值的残差,而∑p和/>为他们的协方差。在本次优化的过程中,不在考虑视觉投影误差,只有IMU的误差。我们定义旋转矩阵,速度,位移的误差如下:
5、视觉惯性联合初始化:视觉惯性联合初始化:将视觉初始位姿与IMU初始化结果即旋转矩阵,速度,位移的误差作一阶线性相似,对其求解最小二乘得到速度,加速度和尺度信息,完成初始化。
在进行陀螺仪偏置初始化的时候要同时使用到IMU测量的旋转和视觉测量的旋转,即联合视觉和惯性的数据。同时求得的尺度S的值不仅仅是IMU的,还是视觉和IMU整个***的尺度。旋转我们可以通过两种方式求得,一种是陀螺仪测量值,另一种就是视觉观测值。陀螺仪的误差有两部分测量噪声和陀螺仪偏置,噪声暂时忽略,而视觉的误差就只有观测噪声,因此两者差值的绝对值就是陀螺仪偏置,将整个滑动窗口的所有的旋转做差构成了一个最小化误差模型:
公式1.12中第一个式子的第一项和第二项作四元数旋转的广义乘积就可以得到相机从bk到bk+1下的相对旋转(bk+1坐标系下),第三项是陀螺仪从bk+1到bk下的相对旋转(bk坐标系下),两者在做广义乘积,就是首先从bk到bk+1旋转,然后再从bk+1到bk旋转,相当于做差,第二个式子就是前面预积分提到的一阶线性近似。然后取最小二乘,也可以使用SVD分解等方法求解。在求得陀螺仪偏置之后要再次将陀螺仪偏置代入到预积分中再求一次预积分的值会更加精确。
将状态量统一到一个状态向量中,如公式1.13所示:
速度是在bk坐标系下的,重力加速度在初始相机坐标系下,求解这几个量是由P、V数学模型而求得,同时考虑两个连续关键帧bk和bk+1。即求出速度、重力加速度和尺度标定值。
Claims (1)
1.一种基于最大后验IMU的线特征SLAM初始化方法,其特征在于步骤如下:步骤1:采用LSD算法对相机拍摄图像进行边缘提取,得到若干条带;
步骤2、添加LBD描述子:计算出每个条带对应的特征向量BDj,将特征向量BDj与条带合并生成LBD描述子;
步骤3、线特征初始化:将连续三帧图像对应的LBD描述子构建一个三焦点张量的矩阵并求解,取数值最小的一组解得到位姿信息获得轨迹的先验信息,完成位姿初始化;
步骤4、IMU初始化:以轨迹的先验信息进行IMU数据的优化;
将所有轨迹和关键帧的位姿固定,仅优化IMU的相关参数:
其中,s也就是整个地图的尺度;Rwg∈SO(3)是重力加速度方向,表示为g=Rwggi,gi=(0,0,G)T,表示IMU的加速度和角速度偏差,/>是所有的关键帧对应的无尺度的速度;
相对于真值s*v表示的速度,使用速度,同时,在初始化的过程中偏置的值固定不变,将重力加速度纳入到优化公式中;所有的测量值都是IMU的变量,同时用Li,j为IMU从第i帧到第j帧之间的预积分,L0,k表示在初始化窗口的连续关键帧之间的预积分;
制定一个最大后验估计:
p(χk|L0:k)∝p(L0:k|χk)p(χk)
其中,p(L0:k|χk)表示在给定第k帧IMU数据的情况下,从0到k帧的可能的IMU测量值分布可能性;p(χk)为IMU状态的先验;
将其分解为:
找到参数使后验概率最大,意味着使其负对数的值更小:
IMU的预积分都是服从高斯分布的,则MAP问题等价于:
其中,和/>为先验值和IMU测量值的残差,而∑p和/>为他们的协方差;
优化的过程中;
定义旋转矩阵,速度,位移的误差如下:
步骤5、视觉惯性联合初始化:将视觉初始位姿与IMU初始化结果即旋转矩阵,速度,位移的误差作一阶线性相似,对其求解最小二乘得到速度,加速度和尺度信息,完成初始化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110645920.9A CN113298796B (zh) | 2021-06-10 | 2021-06-10 | 一种基于最大后验imu的线特征slam初始化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110645920.9A CN113298796B (zh) | 2021-06-10 | 2021-06-10 | 一种基于最大后验imu的线特征slam初始化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113298796A CN113298796A (zh) | 2021-08-24 |
CN113298796B true CN113298796B (zh) | 2024-04-19 |
Family
ID=77327774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110645920.9A Active CN113298796B (zh) | 2021-06-10 | 2021-06-10 | 一种基于最大后验imu的线特征slam初始化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298796B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102865881A (zh) * | 2012-03-06 | 2013-01-09 | 武汉大学 | 一种惯性测量单元的快速标定方法 |
CN109558879A (zh) * | 2017-09-22 | 2019-04-02 | 华为技术有限公司 | 一种基于点线特征的视觉slam方法和装置 |
CN109579840A (zh) * | 2018-10-25 | 2019-04-05 | 中国科学院上海微***与信息技术研究所 | 一种点线特征融合的紧耦合双目视觉惯性slam方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110490085A (zh) * | 2019-07-24 | 2019-11-22 | 西北工业大学 | 点线特征视觉slam***的快速位姿估计算法 |
CN111462210A (zh) * | 2020-03-31 | 2020-07-28 | 华南理工大学 | 一种基于极线约束的单目线特征地图构建方法 |
CN112509044A (zh) * | 2020-12-02 | 2021-03-16 | 重庆邮电大学 | 一种基于点线特征融合的双目视觉slam方法 |
CN112749665A (zh) * | 2021-01-15 | 2021-05-04 | 东南大学 | 一种基于图像边缘特征的视觉惯性slam方法 |
CN112802196A (zh) * | 2021-02-01 | 2021-05-14 | 北京理工大学 | 基于点线特征融合的双目惯性同时定位与地图构建方法 |
CN112862768A (zh) * | 2021-01-28 | 2021-05-28 | 重庆邮电大学 | 一种基于点线特征的自适应单目vio初始化方法 |
CN112927251A (zh) * | 2021-03-26 | 2021-06-08 | 中国科学院自动化研究所 | 基于形态学的场景稠密深度图获取方法、***及装置 |
-
2021
- 2021-06-10 CN CN202110645920.9A patent/CN113298796B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102865881A (zh) * | 2012-03-06 | 2013-01-09 | 武汉大学 | 一种惯性测量单元的快速标定方法 |
CN109558879A (zh) * | 2017-09-22 | 2019-04-02 | 华为技术有限公司 | 一种基于点线特征的视觉slam方法和装置 |
CN109579840A (zh) * | 2018-10-25 | 2019-04-05 | 中国科学院上海微***与信息技术研究所 | 一种点线特征融合的紧耦合双目视觉惯性slam方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110490085A (zh) * | 2019-07-24 | 2019-11-22 | 西北工业大学 | 点线特征视觉slam***的快速位姿估计算法 |
CN111462210A (zh) * | 2020-03-31 | 2020-07-28 | 华南理工大学 | 一种基于极线约束的单目线特征地图构建方法 |
CN112509044A (zh) * | 2020-12-02 | 2021-03-16 | 重庆邮电大学 | 一种基于点线特征融合的双目视觉slam方法 |
CN112749665A (zh) * | 2021-01-15 | 2021-05-04 | 东南大学 | 一种基于图像边缘特征的视觉惯性slam方法 |
CN112862768A (zh) * | 2021-01-28 | 2021-05-28 | 重庆邮电大学 | 一种基于点线特征的自适应单目vio初始化方法 |
CN112802196A (zh) * | 2021-02-01 | 2021-05-14 | 北京理工大学 | 基于点线特征融合的双目惯性同时定位与地图构建方法 |
CN112927251A (zh) * | 2021-03-26 | 2021-06-08 | 中国科学院自动化研究所 | 基于形态学的场景稠密深度图获取方法、***及装置 |
Non-Patent Citations (1)
Title |
---|
基于非线性优化的单目视觉/惯性组合导航算法;程传奇;郝向阳;李建胜;刘智伟;胡鹏;;中国惯性技术学报;20171015(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113298796A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
Cvišić et al. | SOFT‐SLAM: Computationally efficient stereo visual simultaneous localization and mapping for autonomous unmanned aerial vehicles | |
Kaiser et al. | Simultaneous state initialization and gyroscope bias calibration in visual inertial aided navigation | |
Wefelscheid et al. | Three-dimensional building reconstruction using images obtained by unmanned aerial vehicles | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
Eckenhoff et al. | Tightly-coupled visual-inertial localization and 3-d rigid-body target tracking | |
Yin et al. | Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments | |
CN112240768A (zh) | 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法 | |
CN109558879A (zh) | 一种基于点线特征的视觉slam方法和装置 | |
Ding et al. | Vehicle pose and shape estimation through multiple monocular vision | |
Shamwell et al. | Vision-aided absolute trajectory estimation using an unsupervised deep network with online error correction | |
Jiang et al. | DVIO: An optimization-based tightly coupled direct visual-inertial odometry | |
Seiskari et al. | HybVIO: Pushing the limits of real-time visual-inertial odometry | |
Zhang et al. | Vision-aided localization for ground robots | |
Zachariah et al. | Self-motion and wind velocity estimation for small-scale UAVs | |
Chen et al. | Stereo visual inertial pose estimation based on feedforward-feedback loops | |
CN114485640A (zh) | 基于点线特征的单目视觉惯性同步定位与建图方法及*** | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 | |
Cui et al. | An improved SLAM based on RK-VIF: Vision and inertial information fusion via Runge-Kutta method | |
Li et al. | Two-step lidar/camera/imu spatial and temporal calibration based on continuous-time trajectory estimation | |
Samadzadeh et al. | Srvio: Super robust visual inertial odometry for dynamic environments and challenging loop-closure conditions | |
Pirvu et al. | Depth distillation: unsupervised metric depth estimation for UAVs by finding consensus between kinematics, optical flow and deep learning | |
Jo et al. | Mixture density-PoseNet and its application to monocular camera-based global localization | |
CN113298796B (zh) | 一种基于最大后验imu的线特征slam初始化方法 | |
Liu et al. | A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |