CN108648215B - 基于imu的slam运动模糊位姿跟踪算法 - Google Patents

基于imu的slam运动模糊位姿跟踪算法 Download PDF

Info

Publication number
CN108648215B
CN108648215B CN201810651885.XA CN201810651885A CN108648215B CN 108648215 B CN108648215 B CN 108648215B CN 201810651885 A CN201810651885 A CN 201810651885A CN 108648215 B CN108648215 B CN 108648215B
Authority
CN
China
Prior art keywords
pose
imu
camera
matrix
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810651885.XA
Other languages
English (en)
Other versions
CN108648215A (zh
Inventor
霍智勇
陈钊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201810651885.XA priority Critical patent/CN108648215B/zh
Publication of CN108648215A publication Critical patent/CN108648215A/zh
Application granted granted Critical
Publication of CN108648215B publication Critical patent/CN108648215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明揭示了一种基于IMU的SLAM运动模糊位姿跟踪算法,包括如下步骤:S1、对输入的图像序列进行ORB特征提取,根据特征点数目判断图像序列种类,根据判断结果,择一进行S2或S3步骤;S2、若为正常图像,利用匀速运动模型估计相机初始位姿,执行运动参数的捆集调整;S3、若为运动模糊图像,利用IMU运动方程得到估计位姿,利用扩展卡尔曼滤波器得到优化位姿,将估计位姿与优化位姿进行合并,得到相机的最终位姿。本发明针对SLAM无法对图像序列中运动模糊段进行相机定位和跟踪丢失问题,结合并利用惯性测量单元运动学方程以及扩展卡尔曼滤波器计算并优化相机位姿,使得SLAM能获得连续可靠的相机位姿定位和跟踪。

Description

基于IMU的SLAM运动模糊位姿跟踪算法
技术领域
本发明涉及一种跟踪算法,尤其涉及一种基于IMU的SLAM运动模糊位姿跟踪算法,属于计算机视觉和机器人领域。
背景技术
同步定位与地图构建(Simultaneous localization and mapping,SLAM)是近年来计算机视觉和机器人领域的一个研究热点。SLAM技术能够构建和更新未知环境中的地图,并实时跟踪定位。早期的SLAM方法利用滤波解决问题,Davinson等提出了实时单个相机的MonoSLAM方法,其以扩展卡尔曼滤波为后端,追踪前端非常稀疏的特征点。Eade等提出了尺度可变的单目SLAM方法,它利用粒子滤波和自顶向下的搜索以实现实时绘制大数目的路标点。这些方法多是用滤波器处理图像帧以关联估计地图点的位置和相机位姿,由于连续图像帧只含有少量的新信息,因此这些方法的计算成本高昂,并且会累积线性误差,计算结果的准确性较低。
之后Strasdat等证明了在同等计算成本下,基于关键帧的SLAM方法比滤波方法更精确。Klein等基于关键帧技术提出了PTAM,它实现了跟踪与建图过程的并行化,并且是第一个使用非线性优化,而不是使用传统的滤波器作为后端的方案。Mur-Artal等提出了ORB-SLAM2,它支持单目、双目、RGB-D三种模式;整个***围绕ORB特征进行计算,包括视觉里程计与回环检测的ORB字典;ORB的回环检测是其亮点;创新式地使用了三个线程完成SLAM,并且围绕特征点进行了不少的优化。
为了顺应上述发展趋势,目前也出现了采用基于关键帧的ORB-SLAM2跟踪相机位姿的相关技术。然而其中仍存在一些问题值得研究,例如结合利用视觉特征与IMU信息来更好的进行相机位姿跟踪任务等。
综上所述,如何提供一种基于IMU的SLAM运动模糊位姿跟踪算法,以解决SLAM无法对图像序列中运动模糊段进行相机定位和跟踪丢失问题,也就成为了行业内技术人员所共同期望解决的问题之一。
发明内容
鉴于现有技术存在上述缺陷,本发明的目的是提出一种基于IMU的SLAM运动模糊位姿跟踪算法。
具体而言,一种基于IMU的SLAM运动模糊位姿跟踪算法,包括如下步骤:
S1、对输入的图像序列进行ORB特征提取,根据提取到的特征点数目判断图像序列属于正常图像还是运动模糊图像,根据判断结果,择一进行S2或S3步骤;
S2、若判断结果为正常图像,利用匀速运动模型估计相机初始位姿,然后执行运动参数的捆集调整;
S3、若判断结果为运动模糊图像,利用IMU运动方程得到估计位姿,然后利用扩展卡尔曼滤波器得到优化位姿,最后将估计位姿与优化位姿进行合并,得到相机的最终位姿。
优选地,S1中所述对输入的图像序列进行ORB特征提取,包括如下步骤:
S11、FAST角点检测,在图像中选取像素p,假设它的亮度为Ip,设置一个阈值T,以像素p为中心,选取半径为3的圆上的16个像素点,若选取的圆上有连续的N个点的亮度大于Ip+T或小于Ip-T,那么像素p则被认为是特征点,循环上述步骤,对每一个像素执行相同的操作;
S12、计算BRIEF描述子,利用特征点的主方向为BRIEF描述子增加旋转不变特性,计算特征点的主方向,计算公式为,
Figure BDA0001704302640000021
其中,m01、m10为图像块的矩,
所述BRIEF描述子为由0和1组成的向量,其中,0和1编码了关键点附近两个像素p和q的大小关系,若p大于q,则取1,反之取0。
优选地,S2中所述利用匀速运动模型估计相机初始位姿,然后执行运动参数的捆集调整,包括如下步骤:
S21、更新匀速运动模型中的速度矩阵,根据匀速运动模型,当前帧的初始位姿Tc=VT1,其中V为速度矩阵,Tl为上一帧的相机位姿;
S22、对世界坐标系中3-D点和图像中的关键点进行匹配,执行运动参数的捆集调整优化相机位姿,包括方向R∈SO(3)和位置t∈R3,针对匹配的世界坐标系中的3-D点Xi∈R3以及关键点
Figure BDA0001704302640000031
最小化它们之间的重投影误差,
Figure BDA0001704302640000032
其中,X为所有匹配点对的集合,ρ为鲁棒Huber代价函数,∑为与关键点尺度相关联的协方差矩阵,
投影函数πs定义为,
Figure BDA0001704302640000033
其中,(fx,fy)为焦距,(cx,cy)为原点偏移量,b为基线。
优选地,所述估计位姿包括估计位置参数以及估计姿态参数,所述优化位姿包括优化位置参数以及优化姿态参数,所述最终位姿包括最终位置参数以及最终姿态参数。
优选地,S3中所述利用IMU运动方程得到估计位姿,然后利用扩展卡尔曼滤波器得到优化位姿,包括如下步骤:
S31、对惯性世界坐标系和IMU坐标系构建旋转矩阵,然后将该矩阵求导,得到旋转矩阵的微分方程,通过解微分方程,得到矩阵变量,最后转化成IMU的姿态四元数;
S32、通过坐标系之间的空间关系,能够利用IMU的位置、姿态得出相机的估计位姿;
S33、得到相机的估计位姿后,利用扩展卡尔曼滤波器对估计位姿进行优化,获得优化位姿。
优选地,所述S31具体包括如下步骤:
旋转矩阵C的表达式为,
Figure BDA0001704302640000041
其中,i,j,k为惯性世界坐标系的单位向量,i′,j′,k′为IMU坐标系的单位向量,对旋转矩阵c求导得到微分方程
Figure BDA0001704302640000042
Figure BDA0001704302640000043
解微分方程
Figure BDA0001704302640000044
得到矩阵变量,并转化成IMU姿态四元数
Figure BDA0001704302640000045
估计IMU位置,然后进行二次积分得到位移值,
Figure BDA0001704302640000046
Figure BDA0001704302640000047
其中,
Figure BDA0001704302640000048
为惯性世界坐标系下IMU的位置,
Figure BDA0001704302640000049
为其速度,g为世界坐标系下的引力向量。
优选地,所述S32具体包括如下步骤:
计算公式为,
Figure BDA0001704302640000051
Figure BDA0001704302640000052
其中,
Figure BDA0001704302640000053
为估计位置参数,
Figure BDA0001704302640000054
是由视觉坐标系到惯性世界坐标系的旋转,
Figure BDA0001704302640000055
为IMU的姿态,np为相机位置测量噪声,
Figure BDA0001704302640000056
为估计姿态参数,
Figure BDA0001704302640000057
表示由IMU坐标系到相机坐标系的旋转。
优选地,所述S33具体包括如下步骤:
测量矩阵为,
Figure BDA0001704302640000058
其中,
Figure BDA0001704302640000059
Figure BDA00017043026400000510
Figure BDA00017043026400000511
为线性化误差测量值的矩阵,
依据测量矩阵H,根据卡尔曼滤波过程更新估计值,由校正值计算得到优化位姿。
优选地,所述依据测量矩阵H,根据卡尔曼滤波过程更新估计值,具体包括如下步骤:
S331、计算余量
Figure BDA00017043026400000512
计算公式为,
Figure BDA00017043026400000513
其中,
Figure BDA0001704302640000061
S332、计算新息S,计算公式为,S=HPHT+R,
其中,R为相机平移与旋转测量噪声的协方差矩阵;
S333、计算卡尔曼增益K,计算公式为,K=PHTS-1
S334、计算校正值
Figure BDA0001704302640000062
计算公式为,
Figure BDA0001704302640000063
优选地,所述S3还包括,利用双目图像确定视觉尺度因子。
与现有技术相比,本发明的优点主要体现在以下几个方面:
本发明针对SLAM无法对图像序列中运动模糊段进行相机定位和跟踪丢失问题,结合并利用惯性测量单元运动学方程以及扩展卡尔曼滤波器计算并优化相机位姿,使得SLAM能获得连续可靠的相机位姿定位和跟踪。本发明不仅有效地提升了计算结果的准确性,同时也对计算过程进行了优化,降低了计算成本,提升了算法效率,为其后续的推广使用打下了基础。此外,本发明也为同领域内的其他相关问题提供了参考,可以以此为依据进行拓展延伸,运用于领域内其他算法的技术方案中,具有十分广阔的应用前景。
综上所述,本发明提出了一种基于IMU的SLAM运动模糊位姿跟踪算法,具有很高的使用及推广价值。
以下便结合实施例附图,对本发明的具体实施方式作进一步的详述,以使本发明技术方案更易于理解、掌握。
附图说明
图1为本发明的原理示意图。
具体实施方式
如图1所示,本发明揭示了一种基于IMU的SLAM运动模糊位姿跟踪算法,本发明基于ORB-SLAM2框架进行改进,结合并利用了IMU的测量值来跟踪相机位姿。
具体而言,包括如下步骤:
S1、对输入的图像序列进行ORB特征提取,根据提取到的特征点数目判断图像序列属于正常图像还是运动模糊图像,根据判断结果,择一进行S2或S3步骤;
S2、若判断结果为正常图像,利用匀速运动模型估计相机初始位姿,然后执行运动参数的捆集调整;
S3、若判断结果为运动模糊图像,利用IMU运动方程得到估计位姿,然后利用扩展卡尔曼滤波器得到优化位姿,最后将估计位姿与优化位姿进行合并,得到相机的最终位姿。
S1中所述对输入的图像序列进行ORB特征提取,包括如下步骤:
S11、FAST角点检测,在图像中选取像素p,假设它的亮度为Ip,设置一个阈值T,以像素p为中心,选取半径为3的圆上的16个像素点,若选取的圆上有连续的N个点的亮度大于Ip+T或小于Ip-T,那么像素p则被认为是特征点,循环上述步骤,对每一个像素执行相同的操作;
S12、计算BRIEF描述子,利用特征点的主方向为BRIEF描述子增加旋转不变特性,计算特征点的主方向,计算公式为,
Figure BDA0001704302640000071
其中,m01、m10为图像块的矩,
所述BRIEF描述子为由0和1组成的向量,其中,0和1编码了关键点附近两个像素p和q的大小关系,若p大于q,则取1,反之取0。
S2中所述利用匀速运动模型估计相机初始位姿,然后执行运动参数的捆集调整,包括如下步骤:
S21、更新匀速运动模型中的速度矩阵,根据匀速运动模型,当前帧的初始位姿Tc=VT1,其中V为速度矩阵,Tl为上一帧的相机位姿;
S22、对世界坐标系中3-D点和图像中的关键点进行匹配,执行运动参数的捆集调整优化相机位姿,包括方向R∈SO(3)和位置t∈R3,针对匹配的世界坐标系中的3-D点Xi∈R3以及关键点
Figure BDA0001704302640000081
最小化它们之间的重投影误差,
Figure BDA0001704302640000082
其中,X为所有匹配点对的集合,ρ为鲁棒Huber代价函数,∑为与关键点尺度相关联的协方差矩阵,
投影函数πs定义为,
Figure BDA0001704302640000083
其中,(fx,fy)为焦距,(cx,cy)为原点偏移量,b为基线。上述这些都能从校准中获得。
所述估计位姿包括估计位置参数以及估计姿态参数,所述优化位姿包括优化位置参数以及优化姿态参数,所述最终位姿包括最终位置参数以及最终姿态参数。
S3中所述利用IMU运动方程得到估计位姿,然后利用扩展卡尔曼滤波器得到优化位姿,包括如下步骤:
S31、对惯性世界坐标系和IMU坐标系构建旋转矩阵,然后将该矩阵求导,得到旋转矩阵的微分方程,通过解微分方程,得到矩阵变量,最后转化成IMU的姿态四元数;
S32、通过坐标系之间的空间关系,能够利用IMU的位置、姿态得出相机的估计位姿;
S33、得到相机的估计位姿后,利用扩展卡尔曼滤波器对估计位姿进行优化,获得优化位姿。
所述S31具体包括如下步骤:
旋转矩阵c的表达式为,
Figure BDA0001704302640000091
其中,i,j,k为惯性世界坐标系的单位向量,i′,j′,k′为IMU坐标系的单位向量,对旋转矩阵c求导得到
Figure BDA0001704302640000092
Figure BDA0001704302640000093
Figure BDA0001704302640000094
则有微分方程
Figure BDA0001704302640000095
Figure BDA0001704302640000096
解微分方程
Figure BDA0001704302640000097
得到矩阵变量,并转化成IMU姿态四元数
Figure BDA0001704302640000098
估计IMU位置,即由加速度去除重力分量,然后进行二次积分得到位移值,
Figure BDA0001704302640000099
Figure BDA00017043026400000910
其中,
Figure BDA00017043026400000911
为惯性世界坐标系下IMU的位置,
Figure BDA00017043026400000912
为其速度,g为世界坐标系下的引力向量。
所述S32具体包括如下步骤:
计算公式为,
Figure BDA0001704302640000101
Figure BDA0001704302640000102
其中,
Figure BDA0001704302640000103
为估计位置参数,
Figure BDA0001704302640000104
是由视觉坐标系到惯性世界坐标系的旋转,
Figure BDA0001704302640000105
为IMU的姿态,np为相机位置测量噪声,
Figure BDA0001704302640000106
为估计姿态参数,
Figure BDA0001704302640000107
表示由IMU坐标系到相机坐标系的旋转。
所述S33具体包括如下步骤:
测量矩阵为,
Figure BDA0001704302640000108
其中,
Figure BDA0001704302640000109
Figure BDA00017043026400001010
Figure BDA00017043026400001011
为线性化误差测量值的矩阵,
依据测量矩阵H,根据卡尔曼滤波过程更新估计值,由校正值计算得到优化位姿。
所述依据测量矩阵H,根据卡尔曼滤波过程更新估计值,具体包括如下步骤:
S331、计算余量
Figure BDA0001704302640000111
计算公式为,
Figure BDA0001704302640000112
其中,
Figure BDA0001704302640000113
S332、计算新息S,计算公式为,S=HPHT+R,
其中,R为相机平移与旋转测量噪声的协方差矩阵;
S333、计算卡尔曼增益K,计算公式为,K=PHTS-1
S334、计算校正值
Figure BDA0001704302640000114
计算公式为,
Figure BDA0001704302640000115
所述S3还包括,利用双目图像确定视觉尺度因子。
本发明针对SLAM无法对图像序列中运动模糊段进行相机定位和跟踪丢失问题,结合并利用惯性测量单元运动学方程以及扩展卡尔曼滤波器计算并优化相机位姿,使得SLAM能获得连续可靠的相机位姿定位和跟踪。本发明不仅有效地提升了计算结果的准确性,同时也对计算过程进行了优化,降低了计算成本,提升了算法效率,为其后续的推广使用打下了基础。此外,本发明也为同领域内的其他相关问题提供了参考,可以以此为依据进行拓展延伸,运用于领域内其他算法的技术方案中,具有十分广阔的应用前景。
综上所述,本发明提出了一种基于IMU的SLAM运动模糊位姿跟踪算法,具有很高的使用及推广价值。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神和基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (1)

1.一种基于IMU的SLAM运动模糊位姿跟踪算法,其特征在于,包括如下步骤:
S1、对输入的图像序列进行ORB特征提取,根据提取到的特征点数目判断图像序列属于正常图像还是运动模糊图像,根据判断结果,择一进行S2或S3步骤;
S2、若判断结果为正常图像,利用匀速运动模型估计相机初始位姿,然后执行运动参数的捆集调整;
S3、若判断结果为运动模糊图像,利用IMU运动方程得到估计位姿,然后利用扩展卡尔曼滤波器得到优化位姿,最后将估计位姿与优化位姿进行合并,得到相机的最终位姿;
S1中所述对输入的图像序列进行ORB特征提取,包括如下步骤:
S11、FAST角点检测,在图像中选取像素p,假设它的亮度为Ip,设置一个阈值T,以像素p为中心,选取半径为3的圆上的16个像素点,若选取的圆上有连续的N个点的亮度大于Ip+T或小于Ip-T,那么像素p则被认为是特征点,循环上述步骤,对每一个像素执行相同的操作;
S12、计算BRIEF描述子,利用特征点的主方向为BRIEF描述子增加旋转不变特性,计算特征点的主方向,计算公式为,
Figure FDA0003279464840000011
其中,m01、m10为图像块的矩,
所述BRIEF描述子为由0和1组成的向量,其中,0和1编码了关键点附近两个像素p和q的大小关系,若p大于q,则取1,反之取0;
S2中所述利用匀速运动模型估计相机初始位姿,然后执行运动参数的捆集调整,包括如下步骤:
S21、更新匀速运动模型中的速度矩阵,根据匀速运动模型,当前帧的初始位姿Tc=VTl,其中V为速度矩阵,Tl为上一帧的相机位姿;
S22、对世界坐标系中3-D点和图像中的关键点进行匹配,执行运动参数的捆集调整优化相机位姿,包括方向R∈SO(3)和位置t∈R3,针对匹配的世界坐标系中的3-D点Xi∈R3以及关键点
Figure FDA0003279464840000021
最小化它们之间的重投影误差,
Figure FDA0003279464840000022
其中,X为所有匹配点对的集合,ρ为鲁棒Huber代价函数,∑为与关键点尺度相关联的协方差矩阵,
投影函数πs定义为,
Figure FDA0003279464840000023
其中,(fx,fy)为焦距,(cx,cy)为原点偏移量,b为基线;
所述估计位姿包括估计位置参数以及估计姿态参数,所述优化位姿包括优化位置参数以及优化姿态参数,所述最终位姿包括最终位置参数以及最终姿态参数;
S3中所述利用IMU运动方程得到估计位姿,然后利用扩展卡尔曼滤波器得到优化位姿,包括如下步骤:
S31、对惯性世界坐标系和IMU坐标系构建旋转矩阵,然后将该矩阵求导,得到旋转矩阵的微分方程,通过解微分方程,得到矩阵变量,最后转化成IMU的姿态四元数;
S32、通过坐标系之间的空间关系,能够利用IMU的位置、姿态得出相机的估计位姿;
S33、得到相机的估计位姿后,利用扩展卡尔曼滤波器对估计位姿进行优化,获得优化位姿;
所述S31具体包括如下步骤:
旋转矩阵C的表达式为,
Figure FDA0003279464840000031
其中,i,j,k为惯性世界坐标系的单位向量,i′,j′,k′为IMU坐标系的单位向量,对旋转矩阵C求导得到微分方程
Figure FDA0003279464840000032
Figure FDA0003279464840000033
解微分方程
Figure FDA0003279464840000034
得到矩阵变量,并转化成IMU姿态四元数
Figure FDA0003279464840000035
估计IMU位置,然后进行二次积分得到位移值,
Figure FDA0003279464840000036
Figure FDA0003279464840000037
其中,
Figure FDA0003279464840000038
为惯性世界坐标系下IMU的位置,
Figure FDA0003279464840000039
为其速度,g为世界坐标系下的引力向量;
所述S32具体包括如下步骤:
计算公式为,
Figure FDA0003279464840000041
Figure FDA0003279464840000042
其中,
Figure FDA0003279464840000043
为估计位置参数,
Figure FDA0003279464840000044
是由视觉坐标系到惯性世界坐标系的旋转,
Figure FDA0003279464840000045
为IMU的姿态,np为相机位置测量噪声,
Figure FDA0003279464840000046
为估计姿态参数,
Figure FDA0003279464840000047
表示由IMU坐标系到相机坐标系的旋转;
所述S33具体包括如下步骤:
测量矩阵为,
Figure FDA0003279464840000048
其中,
Figure FDA0003279464840000049
Figure FDA00032794648400000410
Figure FDA00032794648400000411
为线性化误差测量值的矩阵,
依据测量矩阵H,根据卡尔曼滤波过程更新估计值,由校正值计算得到优化位姿;
所述依据测量矩阵H,根据卡尔曼滤波过程更新估计值,具体包括如下步骤:
S331、计算余量
Figure FDA00032794648400000412
计算公式为,
Figure FDA00032794648400000413
其中,
Figure FDA00032794648400000414
S332、计算新息S,计算公式为,S=HPHT+R,
其中,R为相机平移与旋转测量噪声的协方差矩阵;
S333、计算卡尔曼增益K,计算公式为,K=PHTS-1
S334、计算校正值
Figure FDA0003279464840000051
计算公式为,
Figure FDA0003279464840000052
所述S3还包括,利用双目图像确定视觉尺度因子。
CN201810651885.XA 2018-06-22 2018-06-22 基于imu的slam运动模糊位姿跟踪算法 Active CN108648215B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810651885.XA CN108648215B (zh) 2018-06-22 2018-06-22 基于imu的slam运动模糊位姿跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810651885.XA CN108648215B (zh) 2018-06-22 2018-06-22 基于imu的slam运动模糊位姿跟踪算法

Publications (2)

Publication Number Publication Date
CN108648215A CN108648215A (zh) 2018-10-12
CN108648215B true CN108648215B (zh) 2022-04-15

Family

ID=63752985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810651885.XA Active CN108648215B (zh) 2018-06-22 2018-06-22 基于imu的slam运动模糊位姿跟踪算法

Country Status (1)

Country Link
CN (1) CN108648215B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109682385A (zh) * 2018-11-05 2019-04-26 天津大学 一种基于orb特征的即时定位与地图构建的方法
CN111161348B (zh) * 2018-11-08 2023-12-05 深圳市优必选科技有限公司 一种基于单目相机的物***姿估计方法、装置及设备
CN110118556A (zh) * 2019-04-12 2019-08-13 浙江工业大学 一种基于协方差交叉融合slam的机器人定位方法及装置
CN110070577B (zh) * 2019-04-30 2023-04-28 电子科技大学 基于特征点分布的视觉slam关键帧与特征点选取方法
CN110232662B (zh) * 2019-05-10 2022-06-10 昆明理工大学 一种人脸位姿协同***下的多新息抗扰滤波方法
CN110782492B (zh) * 2019-10-08 2023-03-28 三星(中国)半导体有限公司 位姿跟踪方法及装置
US11610330B2 (en) 2019-10-08 2023-03-21 Samsung Electronics Co., Ltd. Method and apparatus with pose tracking
CN111044054B (zh) * 2020-01-06 2023-02-03 哈尔滨工业大学 一种基于单目slam算法利用卡尔曼滤波进行位姿优化的方法
CN111540016B (zh) * 2020-04-27 2023-11-10 深圳南方德尔汽车电子有限公司 基于图像特征匹配的位姿计算方法、装置、计算机设备及存储介质
CN113237484A (zh) * 2021-04-21 2021-08-10 四川轻化工大学 基于slam的相机和imu的外部旋转参数求解方法
CN113392909B (zh) * 2021-06-17 2022-12-27 深圳市睿联技术股份有限公司 数据处理方法、数据处理装置、终端及可读存储介质
CN113658260B (zh) * 2021-07-12 2024-07-23 南方科技大学 机器人位姿计算方法、***、机器人及存储介质
CN114399532A (zh) * 2022-01-06 2022-04-26 广东汇天航空航天科技有限公司 一种相机位姿确定方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN106446815A (zh) * 2016-09-14 2017-02-22 浙江大学 一种同时定位与地图构建方法
CN106940704A (zh) * 2016-11-25 2017-07-11 北京智能管家科技有限公司 一种基于栅格地图的定位方法及装置
CN107437258A (zh) * 2016-05-27 2017-12-05 株式会社理光 特征提取方法、运动状态估计方法以及运动状态估计装置
CN108036785A (zh) * 2017-11-24 2018-05-15 浙江大学 一种基于直接法与惯导融合的飞行器位姿估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN107437258A (zh) * 2016-05-27 2017-12-05 株式会社理光 特征提取方法、运动状态估计方法以及运动状态估计装置
CN106446815A (zh) * 2016-09-14 2017-02-22 浙江大学 一种同时定位与地图构建方法
CN106940704A (zh) * 2016-11-25 2017-07-11 北京智能管家科技有限公司 一种基于栅格地图的定位方法及装置
CN108036785A (zh) * 2017-11-24 2018-05-15 浙江大学 一种基于直接法与惯导融合的飞行器位姿估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ORB-SLAM: a Versatile and Accurate Monocular SLAM;Mur-Artal R 等;《IEEE Transactions on Robotics》;20151231;全文 *
基于图优化的单目视觉SLAM技术研究;王丽佳;《中国优秀硕士学位论文全文数据库信息科技辑》;20171115;全文 *

Also Published As

Publication number Publication date
CN108648215A (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
CN108648215B (zh) 基于imu的slam运动模糊位姿跟踪算法
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam***
CN107564061B (zh) 一种基于图像梯度联合优化的双目视觉里程计算方法
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN109676604B (zh) 机器人曲面运动定位方法及其运动定位***
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN111024066B (zh) 一种无人机视觉-惯性融合室内定位方法
CN106446815B (zh) 一种同时定位与地图构建方法
CN110084832B (zh) 相机位姿的纠正方法、装置、***、设备和存储介质
CN109165680B (zh) 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN111609868A (zh) 一种基于改进光流法的视觉惯性里程计方法
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN111882602B (zh) 基于orb特征点和gms匹配过滤器的视觉里程计实现方法
CN111932674A (zh) 一种线激光视觉惯性***的优化方法
CN110751123B (zh) 一种单目视觉惯性里程计***及方法
CN111307146B (zh) 一种基于双目相机和imu的虚拟现实头戴显示设备定位***
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
WO2023005457A1 (zh) 位姿计算方法和装置、电子设备、可读存储介质
CN113532420B (zh) 一种融合点线特征的视觉惯性里程计方法
CN112541423A (zh) 一种同步定位与地图构建方法和***
CN112767546A (zh) 移动机器人基于双目图像的视觉地图生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant