CN111288989A - 一种小型无人机视觉定位方法 - Google Patents

一种小型无人机视觉定位方法 Download PDF

Info

Publication number
CN111288989A
CN111288989A CN202010116259.8A CN202010116259A CN111288989A CN 111288989 A CN111288989 A CN 111288989A CN 202010116259 A CN202010116259 A CN 202010116259A CN 111288989 A CN111288989 A CN 111288989A
Authority
CN
China
Prior art keywords
depth
frame
feature points
imu
variance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010116259.8A
Other languages
English (en)
Other versions
CN111288989B (zh
Inventor
赵文杰
尹文财
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202010116259.8A priority Critical patent/CN111288989B/zh
Publication of CN111288989A publication Critical patent/CN111288989A/zh
Application granted granted Critical
Publication of CN111288989B publication Critical patent/CN111288989B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种小型无人机视觉定位方法,所述方法应用在无人机上,为无人机提供准确而可靠的定位,包括以下步骤:从多路摄像头中提取视觉特征点;使用深度滤波器对特征点进行深度融合,得到特征点的深度和方差;使用预积分技术对IMU数据进行预处理;使用IMU数据、视觉特征点对***进行初始化;使用滑窗优化方式估计***关键帧位姿,并利用特征点深度方差构建信息矩阵。本发明可通过提取无人机周围环境的视觉特征,实现复杂环境下的小型无人机视觉定位。

Description

一种小型无人机视觉定位方法
技术领域
本发明涉及视觉定位领域,具体涉及一种基于多相机的环视视觉定位方法,属于无人机自主导航与飞行控制等技术领域。
背景技术
可靠而准确的定位是无人***实现运动控制、避障、路径规划以及抓取等各种复杂任务的基础。传统无人机为实现导航与定位功能,对GPS、IMU、磁罗盘等传感器有着较强的依赖性。在传统结构化、合作场景下,该定位方式尚可匹配无人机定位需求。然而,在丛林穿越等复杂场景下,GPS信号容易被遮挡和丢失,而IMU的漂移等特性也使得无人机的长时间定位存在风险。同时,磁罗盘等装置容易受到环境的电磁干扰。基于以上种种原因,无人机的飞行环境受到限制。
随着无人机的任务场景越来越复杂,传统的定位手段面临了上述诸多挑战,随着计算机技术和人工智能科技的不断发展,基于视觉惯性传感器的导航***成为了近年来的研究热点,其中最主要的一个研究领域是SLAM(Simultaneous Localization andMapping)。无人机利用激光雷达、相机、IMU等传感器感知环境信息进而实现无人机自身的位置姿态求解,同时对周围信息建模,生成全局一致的地图。
主流的视觉SLAM方案依赖于单个相机或者一对双目相机进行环境信息的感知,在复杂光照场景下很容易发生特征的丢失。现有的多相机方案中,虽然对各相机的数据进行了融合,但对各相机的特征没有一个很好的区分,导致定位结果精度不高。
发明内容
本发明提出了一种基于多相机的环视视觉定位方法,该方法可在非结构化、复杂光照场景下,实现高精度视觉定位。在丛林等复杂光照环境下,针对基于传统组合导航的小型无人机定位困难的情况,本发明提出基于视觉的无人机定位方法。目前,基于单目和双目的视觉惯性导航***VINS(visual inertial navigation system)在精确性、稳定性和鲁棒性方面已经有一些较成熟的研究方法。但由于传感器本身的缺陷,对复杂光照环境下的应用还需要进一步的研究。
为解决上述问题,本发明采用的技术方案为:
为了获得更大的视场角从而提升***对环境的适应性,本发明采用多路摄像头来构建视觉信息。
为了快速初始化以及获得尽可能大的视场角,本发明综合采用了单目相机与双目相机,从而构成围绕载体的环视视觉传感器方案。
为了限制滑窗优化中特征的数量,同时也为了解决特征点差异问题,本发明提出了基于深度滤波器(DF)的信息矩阵的构建方法。
本发明小型无人机视觉定位方法,包括如下步骤:
步骤1:从多路摄像头中提取特征点,具体为从两路单目摄像头,两路双目摄像头中接收图像数据,输出视觉帧的特征点信息;
为了尽可能的提取出环境中的视觉特征,同时保证特征点数量不至于过高,影响***解算速度,本发明采用极大值抑制算法对新特征点位置进行了限制。
步骤2:使用深度滤波器对特征点进行深度融合,得到特征点的深度和方差;
通过对同一特征点的多次观测进行融合,得到特征点深度的最优估计。在提升特征点深度估计精度的同时,对特征点深度方差进行了估计,使得来自不同构型的相机具有不同的深度方差,为滑窗优化中视觉特征的信息矩阵构建提供了参考值。
步骤3:使用预积分技术对IMU(Inertial measurement unit惯性测量单元)数据进行预处理;
通过预积分技术,避免了因***线性化点的变化而造成的IMU重复积分,提升***解算效率。
步骤4:使用IMU数据、视觉特征点对***进行初始化;
使用前视双目摄像头对***进行初始化,在保证精度的同时提高了***初始化速度。
步骤5:使用滑窗优化方式估计***关键帧位姿。
使用IMU,视觉特征点数据构建基于滑窗的联合优化方法。首先,对特征点进行甄选,选择一定规模的,具有良好约束的特征点送入滑窗进行优化。其次,采用步骤2中特征点的方差构建视觉特征的信息矩阵,调整特征点在优化中的权重,保证了优化方向,从而使得***能适应不同构型的相机。
本发明与现有技术相比,其显著优点为:(1)使用多路异构相机,构成基于无人机机体的环视视觉传感方案,最大可能的提取环境信息,提高了环境特征的跟踪能力;(2)采用一种新的策略对滑窗内的特征点数量进行了约束,在保证实时性的情况下,提高了***的精度;(3)采用一种基于深度滤波器(DF)的信息矩阵的构建方式,使得***能够对不同特征点的优化权值进行调整,从而让***能够适应不同类型的视觉传感器。本发明在公开数据集和仿真环境下进行了实验验证,实验结果表明,本发明定位精度高,环境适应性好,可以实现复杂光照环境下的小型无人机高精度定位。
附图说明
图1是基于多相机的环视视觉定位方法流程图。
图2是视觉特征提取示意图。
图3是特征点深度估计示意图。
图4是***初始化示意图。
图5是***滑窗优化示意图。
图6是使用深度滤波器在KITTI数据集下的实验结果示意图。
图7是GAZABAL仿真环境下视觉信息示意图。
图8是本发明在GAZABAL仿真环境下的实验结果示意图。
具体实施方式
为了克服在未知复杂光照环境下无人机定位问题,本发明创新性的提出使用多路摄像头进行视觉定位,同时使用深度滤波器技术对视觉特征进行了优化和区分,使得本发明能够融合不同构型的摄像头信息。总体流程图如图1所示,下面对本发明的具体步骤进行详细说明:
步骤1,从多路摄像头中提取特征点;
从两路单目摄像头、两路双目摄像头中接收图像数据,输出视觉帧的特征点信息,1个视觉帧对应6个图像帧;
如图2所示,步骤1具体包括:
步骤1.1特征提取与跟踪
特征提取与跟踪模块接收一帧新图像,用KLT算法来跟踪前一帧的稀疏特征点。同时,为了保证有足够的特征信息被使用,当最新帧跟踪的特征点小于规定值时,本模块提取新的Shi-Tomasi角点,使得每一帧图像所对应的特征点数量都保持一定的值。同时为了使得角点不会过于集中,采用极大值抑制算法对新特征点位置进行了限制。最后,采用基于本质矩阵的RANSAC算法,对特征点的误匹配进行了消除。
步骤1.2关键帧判断
对当前帧图像中的特征点进行统计分析,从而判断当前帧是否作为关键帧。判断依据有两个:第一,如果新提取特征点数量超过一定阈值,则认为是新的关键帧;第二,如果旧特征点的平均像素移动距离超过一定的阈值,则认为是新的关键帧。如果以上两个条件都不满足,则认为该帧不是关键帧。
步骤2,使用深度滤波器对特征点进行深度融合,得到特征点的深度和方差。
为了解决不同构型相机的特征点差异问题,本发明在特征点深度处理上采用了深度滤波器的策略,对于滑窗内所有的点,用深度方差来描述特征估计的可信度,由于一个特征点能够同时被多个关键帧观测到,因此特征点的深度估计可以通过迭代的方式融合多个图像的观测,从而有效的估计出深度的均值和方差,方差可以在优化时调整该特征点的权值,从而进一步提高优化效率和精度。
如图3所示,步骤2具体按如下步骤实施:
步骤2.1:三角测量对特征点深度做单次估计;首先,利用特征点首次观测帧与当前帧的位姿,使用三角测量方法,估算特征点深度。
s1x1 Tx1-s2x1 TRx2=x1 Tt
s1(Rx2)Tx1-s2(Rx2)TRx2=(Rx2)Tt
特征点深度满足上述方程组,其中x1,x2分别表示特征点在首次观测帧与当前帧中的归一化坐标,R,t表示两帧间位姿变换,s1,s2特征点在首次观测帧与当前帧中的深度。本发明使用Cramer's法则对该方程组中的深度值s1进行求解。
步骤2.2:求解特征点单次估计的深度方差:本发明使用几何不确定度来对特征点深度方差进行估计,δp=|||p||-||p′|||。||p||表示特征点深度估计值,||p′||表示对特征点像素值进行一个像素的扰动后,新的特征点深度估计值。δp即为深度的一个几何不确定度,也就是深度融合的一个测量值所对应的均方误差。
步骤2.3:将上一状态最优深度与当前测量深度融合:对于滑动窗口内所有特征点,本发明用一个近似均匀高斯分布来描述特征点的深度分布,
Figure BDA0002391584300000051
其中,
Figure BDA0002391584300000052
为以真值
Figure BDA0002391584300000053
为中心的高斯分布,
Figure BDA0002391584300000054
为测量方差,ρ表示为该测量值属于有效测量的概率。
Figure BDA0002391584300000055
为均匀分布,dmin,dmax为其上下限。进一步,将将真实的后验分布近似表达为
Figure BDA0002391584300000056
由四个参数控制,分别为Z,σ,a,b。当新的测量值dk到来时,深度滤波器的更新做如下处理:
步骤2.3.1:计算深度融合初值:
Figure BDA0002391584300000057
Zold
Figure BDA0002391584300000058
分别表示上一次深度融合后深度均值与方差,Zest
Figure BDA0002391584300000059
分别表示当前观测所计算的深度均值与方差。
步骤2.3.2:计算权重系数c1:
Figure BDA00023915843000000510
aold,bold别表示上一次深度融合后均匀分布的左右边界权重系数c1决定着新的观测深度值和方差对本次融合深度值和方差的加权比重;
步骤2.3.3:计算权重系数c2:
Figure BDA00023915843000000511
aest,best别表示当前观测所计算的均匀分布的左右边界;Zrange为场景的平均深度,权重系数c2由上一次融合后的Beta分布参数决定,控制由上一次融合后的深度得到的深度估计值对本次深度融合的加权比重。
步骤2.3.4:归一化系数c1,c2:
Figure BDA00023915843000000512
步骤2.3.5:计算系数f,e用于更新Beta分布的参数a,b:
Figure BDA0002391584300000061
Figure BDA0002391584300000062
步骤2.3.6:更新融合后的深度值:
Znew=c1·m+c2·Zest
步骤2.3.7:更新融合后的深度值方差:
Figure BDA0002391584300000063
步骤2.3.8:更新融合后的a,b:
Figure BDA0002391584300000064
步骤3,使用预积分技术对IMU数据进行预处理。IMU预积分借鉴纯视觉SLAM中图优化的思想,将帧与帧之间IMU相对测量信息转换为约束节点(载***姿)的边参与到优化框架中。
步骤4,使用IMU数据、视觉特征点对环视视觉SLAM***进行初始化。为了初始化的快速性和准确性,本发明使用前视双目摄像头初始化本***。初始化采用视觉和IMU的松耦合方案。
如图4所示,所述的步骤4具体按如下步骤实施:
步骤4.1:使用左右摄像头信息,利用深度滤波的方式求解第一帧特征点的深度和方差。
步骤4.2:使用PNP的方式求解第二帧相对于第一帧的位姿。
步骤4.3:深度滤波求解第一帧与第二帧中尚未三角化的特征点的深度和方差。
步骤4.4:使用PNP的方式求解第三帧相对于第二帧的位姿。
步骤4.5:深度滤波求解前三帧中尚未初始化的特征点的深度和方差。
步骤4.6:按照步骤4.4、4.5的方式,迭代计算,直到求出滑窗内所有帧的位姿和特征点深度及方差。
步骤4.7:跟IMU预积分值进行对齐,求解重力方向,IMU的bias误差以及每一帧对应的速度。
步骤4.8:根据滑窗内所有帧的位姿以及相机外参,初始化其他相机观测的特征点深度及方差。
步骤5,使用滑窗优化方式估计SLAM***关键帧位姿。由于深度滤波器的使用,当SLAM***初始化完成之后,虽然滑窗内其他相机的特征点未参与初始化的优化操作,但其深度已经进行了有效的估计,初始化完成后,SLAM***可以平滑的从双目传感器切换到环视传感。本发明使用滑动窗口优化手段来进行SLAM***的状态估计,从而有效估计出无人机的运动状态,路标点的深度,IMU的偏置。SLAM***的状态量为
Figure BDA0002391584300000071
Figure BDA0002391584300000072
Figure BDA0002391584300000073
其中,
Figure BDA0002391584300000074
表示路标点j在第k相机***内的首观测帧的深度;xi表示第i个关键帧的运动状态信息,
Figure BDA0002391584300000075
bai,bgi分别表示位置,速度,姿态,IMU加速度偏置,IMU角速度偏置;在此,取IMU的运动状态为***的运动状态,包括位置、姿态、速度、IMU加速度偏置、IMU角速度偏置;
Figure BDA0002391584300000076
表示IMU与第j相机***的外参;通过最小化所有测量值残差的马氏距离的方式,来获得SLAM***状态量的最大后验估计。SLAM***的最大后验估计可以转化为如下最小二乘问题:
Figure BDA0002391584300000077
如图5所示,所述的步骤5具体按如下步骤实施:
步骤5.1:特征点筛选;根据特征点深度方差,对特征点进行排序。优先选择方差小,被跟踪次数高的特征点构建优化方程,同时保证滑窗内特征点数目不超过一定的阈值,提高求解速度。
步骤5.2:构建视觉重投影误差项;采用视觉重投影误差来构建视觉残差项,对于路标点,在同一相机***下的不同帧之间构建重投影误差。对于路标点l,假设在第k个相机***观测下,在第i帧被首次观测到,其归一化坐标为
Figure BDA0002391584300000078
第j帧观测下,其归一化坐标为
Figure BDA0002391584300000079
则两帧观测间的重投影误差表示为:
Figure BDA00023915843000000710
Figure BDA0002391584300000081
Figure BDA0002391584300000082
其中,
Figure BDA0002391584300000083
表示
Figure BDA0002391584300000084
所在切平面的一组基;
Figure BDA0002391584300000085
表示路标点l首次被第k个相机***观测到的像素坐标;
Figure BDA0002391584300000086
表示路标点l在第j帧观测下,被第k个相机***观测到的像素坐标;
Figure BDA0002391584300000087
表示第k个相机***的反投影函数,由相机内参决定;
Figure BDA0002391584300000088
表示第k个相机***与IMU的外参;λl为特征点逆深度值;
Figure BDA0002391584300000089
表示第i帧的位姿;
Figure BDA00023915843000000810
表示第j帧的位姿该误差项的信息矩阵由特征点深度方差确定。
步骤5.3:构建IMU预积分残差项;关键帧bk与bk+1之间的IMU预积分残差项如下所示:
Figure BDA00023915843000000811
其中,
Figure BDA00023915843000000812
δba,δbg分别表示预积分位移增量、速度增量、旋转增量、IMU加速度偏置、IMU角速度偏置残差;
Figure BDA00023915843000000813
分别表示预积分位移增量的真值和测量值;
Figure BDA00023915843000000814
分别表示预积分速度增量的真值和测量值;
Figure BDA00023915843000000815
分别表示预积分旋转增量的真值和测量值在SO3空间上的表示,取对数转换到se3空间中;
Figure BDA00023915843000000816
分别表示bk+1帧与bk帧的IMU加速度偏置;
Figure BDA00023915843000000817
分别表示bk+1帧与bk帧的IMU角速度偏置。
步骤5.4:边缘化残差项;边缘化将滑窗内的某些较旧或者不满足要求的视觉帧剔除,使用舒尔补的方式,在边缘化过程将相关联的约束转变为一个先验的约束条件放到优化问题中。
步骤5.5:求解优化方程:使用LM算法对优化方程进行求解,得到SLAM***所有状态,进而得到无人机当前的位置、姿态、速度等信息。
为了测试深度滤波器的效果,本发明使用KITTI的灰度双目摄像头数据进行了实验,实验结果见图6。结果表明,在相同环境和参数配置下,采用深度滤波器的策略使得本发明在复杂环境下有着更好的表现力。
为了测试多目异构环视视觉方法的效果,本发明在GAZABAL仿真环境下进行了实验,包括1路前视双目摄像头,1路后视双目摄像头,左右2路单目摄像头,1个低精度IMU。实验结果见图8。实验结果表明,多路摄像头的引入使得结果的精度有了较大的提升,多相机的视觉特征点更加丰富,本发明可以根据特征点的方差,选择有利于求解优化方程的特征点进行优化。同时由于特征点在空间的分布更加的均匀,对于估计无人机的6DOF位姿而言,相比于单一视角是更加有利的。在某些场景下,多相机算法的精度提升达到了50%以上。在图7所示的场景下,由于前视双目摄像头视场角内的图像缺少视觉特征,导致里程计产生了比较明显的锯齿状,无人机存在失控的风险。然而对于多相机算法而言,由于视场角的增大,周围的环境中可提取的特征点依然丰富,本发明依然处于有效运行状态。

Claims (5)

1.一种小型无人机视觉定位方法,其特征在于包括如下步骤:
步骤1:从多路摄像头中提取特征点
从两路单目摄像头、两路双目摄像头中接收图像数据,输出视觉帧的特征点信息;
步骤2:使用深度滤波器对特征点进行深度融合,得到特征点的深度和方差;
步骤3:使用预积分技术对IMU数据进行预处理;
步骤4:使用IMU数据、视觉特征点对***进行初始化;
步骤5:使用滑窗优化方式估计***关键帧位姿。
2.根据权利要求1所述的小型无人机视觉定位方法,其特征在于所述的步骤1)具体为:
步骤1.1特征提取与跟踪
接收一帧新图像,用KLT算法跟踪前一帧的稀疏特征点,当最新帧跟踪的特征点小于规定值时,提取新的Shi-Tomasi角点,使得每一帧图像所对应的特征点数量都保持一定值;为了使角点不过于集中,采用极大值抑制算法对新特征点位置进行限制;最后,采用基于本质矩阵的RANSAC算法对特征点的误匹配进行消除;
步骤1.2关键帧判断
对当前帧图像中的特征点进行统计分析,从而判断当前帧是否作为关键帧,判断依据有两个:第一,如果新提取特征点数量超过一定阈值,则认为当前帧是新的关键帧;第二,如果旧特征点的平均像素移动距离超过一定的阈值,则认为当前帧是新的关键帧;如果以上两个条件都不满足,则认为该帧不是关键帧。
3.根据权利要求1所述的小型无人机视觉定位方法,其特征在于所述的步骤2)具体为:
步骤2.1:利用特征点首次观测帧与当前帧的位姿,使用三角测量方法,估算特征点深度,特征点深度满足下述方程组:,
s1x1 Tx1-s2x1 TRx2=x1 Tt
s1(Rx2)Tx1-s2(Rx2)TRx2=(Rx2)Tt
其中x1,x2分别表示特征点在首次观测帧与当前帧中的归一化坐标,R表示帧间姿态的变换,t表示帧间位置的变换,s1,s2表示特征点在首次观测帧与当前帧中的深度,对该方程组中的深度值进行求解;
步骤2.2:求解特征点单次估计的深度方差
使用几何不确定度来对特征点深度方差进行估计,δp=|||p||-||p′|||;
||p||表示特征点深度估计值,||p′||表示对特征点像素值进行一个像素的扰动后的新特征点深度估计值;δp即为深度的一个几何不确定度,也就是深度融合的一个测量值所对应的均方误差;
步骤2.3:将上一状态最优深度与当前测量深度融合
对于***内所有特征点,用一个近似均匀高斯分布来描述特征点的深度分布,
Figure FDA0002391584290000021
其中,
Figure FDA0002391584290000022
为以真值
Figure FDA0002391584290000023
为中心的高斯分布,
Figure FDA0002391584290000024
为测量方差,ρ表示为该测量值属于有效测量的概率,
Figure FDA0002391584290000025
为均匀分布,dmin、dmax为其上下限;将真实的后验分布近似表达为
Figure FDA0002391584290000026
由四个参数控制,分别为Z,σ,a,b;当新的测量值dk到来时,深度滤波器的更新做如下处理:
步骤2.3.1:计算深度融合初值:
Figure FDA0002391584290000027
Zold
Figure FDA0002391584290000028
分别表示上一次深度融合后深度均值与方差,Zest
Figure FDA0002391584290000029
分别表示当前观测所计算的深度均值与方差;
步骤2.3.2:计算权重系数c1:
Figure FDA00023915842900000210
aold,bold别表示上一次深度融合后均匀分布的左右边界,权重系数c1决定着新的观测深度值和方差对本次融合深度值和方差的加权比重;
步骤2.3.3:计算权重系数c2:
Figure FDA00023915842900000211
aest,best别表示当前观测所计算的均匀分布的左右边界;Zrange为场景的平均深度,权重系数c2由上一次融合后的Beta分布参数决定,控制由上一次融合后的深度得到的深度估计值对本次深度融合的加权比重;
步骤2.3.4:归一化系数c1,c2:
Figure FDA0002391584290000031
步骤2.3.5:计算系数f、e用于更新Beta分布的参数a、b:
Figure FDA0002391584290000032
Figure FDA0002391584290000033
步骤2.3.6:更新融合后的深度值:
Znew=c1·m+c2·Zest
步骤2.3.7:更新融合后的深度值方差:
Figure FDA0002391584290000034
步骤2.3.8:更新融合后的a、b:
Figure FDA0002391584290000035
4.根据权利要求1所述的小型无人机视觉定位方法,其特征在于所述的步骤4)具体为:
步骤4.1:使用左右摄像头信息,利用深度滤波的方式求解第一帧特征点的深度和方差;
步骤4.2:使用PNP的方式求解第二帧相对于第一帧的位姿;
步骤4.3:深度滤波求解第一帧与第二帧中尚未三角化的特征点的深度和方差;
步骤4.4:使用PNP的方式求解第三帧相对于第二帧的位姿;
步骤4.5:深度滤波求解前三帧中尚未初始化的特征点的深度和方差;
步骤4.6:按照步骤4.4、4.5,迭代计算,直到求出滑窗内所有帧的位姿和特征点深度及方差;
步骤4.7:跟IMU预积分值进行对齐,求解重力方向,IMU的bias误差以及每一帧对应的速度;
步骤4.8:根据滑窗内所有帧的位姿以及相机外参,初始化其他相机观测的特征点深度及方差。
5.根据权利要求1所述的小型无人机视觉定位方法,其特征在于所述的步骤5)具体为:
步骤5.1:特征点筛选
根据特征点深度方差,对特征点进行排序;选择方差小,被跟踪次数高的特征点构建优化方程,同时保证滑窗内特征点数目不超过一定的阈值;
步骤5.2:构建视觉重投影误差项
采用视觉重投影误差来构建视觉残差项,对于路标点,在同一相机***下的不同帧之间构建重投影误差;对于路标点l,假设在第k个相机***观测下,在第i帧被首次观测到,其归一化坐标为
Figure FDA0002391584290000041
第j帧观测下,其归一化坐标为
Figure FDA0002391584290000042
则两帧观测间的重投影误差表示为:
Figure FDA0002391584290000043
Figure FDA0002391584290000044
Figure FDA0002391584290000045
其中,
Figure FDA0002391584290000046
表示
Figure FDA0002391584290000047
所在切平面的一组基;
Figure FDA0002391584290000048
表示路标点l首次被第k个相机***观测到的像素坐标;
Figure FDA0002391584290000049
表示路标点l在第j帧观测下,被第k个相机***观测到的像素坐标;
Figure FDA00023915842900000410
表示第k个相机***的反投影函数,由相机内参决定;
Figure FDA00023915842900000411
表示第k个相机***与IMU的外参;λl为特征点逆深度值;
Figure FDA00023915842900000412
表示第i帧的位姿;
Figure FDA00023915842900000413
表示第j帧的位姿该误差项的信息矩阵由特征点深度方差确定;
步骤5.3:构建IMU预积分残差项
关键帧bk与bk+1之间的IMU预积分残差项如下所示:
Figure FDA0002391584290000051
其中,
Figure FDA0002391584290000052
δba,δbg分别表示预积分位移增量、速度增量、旋转增量、IMU加速度偏置、IMU角速度偏置残差;
Figure FDA0002391584290000053
分别表示预积分位移增量的真值和测量值;
Figure FDA0002391584290000054
分别表示预积分速度增量的真值和测量值;
Figure FDA0002391584290000055
分别表示预积分旋转增量的真值和测量值在SO3空间上的表示,取对数转换到se3空间中;
Figure FDA0002391584290000056
分别表示bk+1帧与bk帧的IMU加速度偏置;
Figure FDA0002391584290000057
分别表示bk+1帧与bk帧的IMU角速度偏置;
步骤5.4:边缘化残差项
边缘化过程将相关联的约束通过舒尔补的方式转变为一个先验的约束条件放到优化问题中;
步骤5.5:求解***方程
***的状态量为
Figure FDA0002391584290000058
Figure FDA0002391584290000059
Figure FDA00023915842900000510
其中,
Figure FDA00023915842900000511
表示路标点j在第k相机***内的首观测帧的深度;xi表示第i个关键帧的运动状态信息,
Figure FDA00023915842900000512
bai,bgi分别表示位置,速度,姿态,IMU加速度偏置,IMU角速度偏置;在此,取IMU的运动状态为***的运动状态,包括位置、姿态、速度、IMU加速度偏置、IMU角速度偏置;
Figure FDA00023915842900000513
表示IMU与第j相机***的外参;
通过最小化所有测量值残差的马氏距离的方式,来获得***状态量的最大后验估计;***的最大后验估计转化为如下最小二乘问题:
Figure FDA00023915842900000514
其中,||rp-Hpχ||2为边缘化残差项,通过舒尔补的方式获得;使用LM算法对优化方程进行求解,得到***所有状态,从而得到无人机当前的位置、姿态、速度信息。
CN202010116259.8A 2020-02-25 2020-02-25 一种小型无人机视觉定位方法 Active CN111288989B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010116259.8A CN111288989B (zh) 2020-02-25 2020-02-25 一种小型无人机视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010116259.8A CN111288989B (zh) 2020-02-25 2020-02-25 一种小型无人机视觉定位方法

Publications (2)

Publication Number Publication Date
CN111288989A true CN111288989A (zh) 2020-06-16
CN111288989B CN111288989B (zh) 2021-11-05

Family

ID=71020493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010116259.8A Active CN111288989B (zh) 2020-02-25 2020-02-25 一种小型无人机视觉定位方法

Country Status (1)

Country Link
CN (1) CN111288989B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112179338A (zh) * 2020-09-07 2021-01-05 西北工业大学 一种基于视觉和惯导融合的低空无人机自身定位方法
CN112240768A (zh) * 2020-09-10 2021-01-19 西安电子科技大学 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法
CN112344923A (zh) * 2021-01-11 2021-02-09 浙江欣奕华智能科技有限公司 一种机器人的定位方法及其定位装置
CN112686953A (zh) * 2020-12-21 2021-04-20 北京三快在线科技有限公司 基于逆深度参数的视觉定位方法、装置、电子设备
CN113155140A (zh) * 2021-03-31 2021-07-23 上海交通大学 用于室外特征稀疏环境下的机器人slam方法及***
CN113159197A (zh) * 2021-04-26 2021-07-23 北京华捷艾米科技有限公司 一种纯旋转运动状态判定方法及装置
CN113689485A (zh) * 2021-08-25 2021-11-23 北京三快在线科技有限公司 无人机深度信息的确定方法、装置、无人机及存储介质
CN115371665A (zh) * 2022-09-13 2022-11-22 哈尔滨工业大学 一种基于深度相机和惯性融合的移动机器人定位方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600660B2 (en) * 2006-09-29 2013-12-03 Honeywell International Inc. Multipath modeling for deep integration
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN107808407A (zh) * 2017-10-16 2018-03-16 亿航智能设备(广州)有限公司 基于双目相机的无人机视觉slam方法、无人机及存储介质
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***
CN108615244A (zh) * 2018-03-27 2018-10-02 中国地质大学(武汉) 一种基于cnn和深度滤波器的图像深度估计方法及***
CN108981687A (zh) * 2018-05-07 2018-12-11 清华大学 一种视觉与惯性融合的室内定位方法
CN109238277A (zh) * 2018-08-01 2019-01-18 清华大学 视觉惯性数据深度融合的定位方法及装置
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN109816726A (zh) * 2019-01-29 2019-05-28 京东方科技集团股份有限公司 一种基于深度滤波器的视觉里程计地图更新方法和***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600660B2 (en) * 2006-09-29 2013-12-03 Honeywell International Inc. Multipath modeling for deep integration
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN107808407A (zh) * 2017-10-16 2018-03-16 亿航智能设备(广州)有限公司 基于双目相机的无人机视觉slam方法、无人机及存储介质
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***
CN108615244A (zh) * 2018-03-27 2018-10-02 中国地质大学(武汉) 一种基于cnn和深度滤波器的图像深度估计方法及***
CN108981687A (zh) * 2018-05-07 2018-12-11 清华大学 一种视觉与惯性融合的室内定位方法
CN109238277A (zh) * 2018-08-01 2019-01-18 清华大学 视觉惯性数据深度融合的定位方法及装置
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN109816726A (zh) * 2019-01-29 2019-05-28 京东方科技集团股份有限公司 一种基于深度滤波器的视觉里程计地图更新方法和***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG JINGJING 等: "Research on Autonomous Positioning Method of UAV Based on Binocular Vision", 《2019 CHINESE AUTOMATION CONGRESS (CAC)》 *
王丹 等: "基于点线特征的单目视觉同时定位与地图构建算法", 《机器人》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112179338A (zh) * 2020-09-07 2021-01-05 西北工业大学 一种基于视觉和惯导融合的低空无人机自身定位方法
CN112240768A (zh) * 2020-09-10 2021-01-19 西安电子科技大学 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法
CN112686953A (zh) * 2020-12-21 2021-04-20 北京三快在线科技有限公司 基于逆深度参数的视觉定位方法、装置、电子设备
CN112344923A (zh) * 2021-01-11 2021-02-09 浙江欣奕华智能科技有限公司 一种机器人的定位方法及其定位装置
CN112344923B (zh) * 2021-01-11 2021-04-16 浙江欣奕华智能科技有限公司 一种机器人的定位方法及其定位装置
CN113155140A (zh) * 2021-03-31 2021-07-23 上海交通大学 用于室外特征稀疏环境下的机器人slam方法及***
CN113155140B (zh) * 2021-03-31 2022-08-02 上海交通大学 用于室外特征稀疏环境下的机器人slam方法及***
CN113159197A (zh) * 2021-04-26 2021-07-23 北京华捷艾米科技有限公司 一种纯旋转运动状态判定方法及装置
CN113689485A (zh) * 2021-08-25 2021-11-23 北京三快在线科技有限公司 无人机深度信息的确定方法、装置、无人机及存储介质
CN115371665A (zh) * 2022-09-13 2022-11-22 哈尔滨工业大学 一种基于深度相机和惯性融合的移动机器人定位方法

Also Published As

Publication number Publication date
CN111288989B (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
CN111288989B (zh) 一种小型无人机视觉定位方法
CN109029433B (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN108375370B (zh) 一种面向智能巡防无人机的复合导航***
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及***
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN112347840A (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN110044354A (zh) 一种双目视觉室内定位与建图方法及装置
Li et al. Estimating position of mobile robots from omnidirectional vision using an adaptive algorithm
Hwangbo et al. Visual-inertial UAV attitude estimation using urban scene regularities
CN110749308B (zh) 使用消费级gps和2.5d建筑物模型的面向slam的室外定位方法
Cai et al. Mobile robot localization using gps, imu and visual odometry
CN109579825A (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
Magree et al. Monocular visual mapping for obstacle avoidance on UAVs
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
Spaenlehauer et al. A loosely-coupled approach for metric scale estimation in monocular vision-inertial systems
CN115574816A (zh) 仿生视觉多源信息智能感知无人平台
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN112945233B (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
CN112762929B (zh) 一种智能导航方法、装置和设备
Hu et al. 1d-lrf aided visual-inertial odometry for high-altitude mav flight
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及***
CN112991400A (zh) 一种无人艇的多传感器辅助定位方法
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant