CN106780699A - 一种基于sins/gps和里程计辅助的视觉slam方法 - Google Patents

一种基于sins/gps和里程计辅助的视觉slam方法 Download PDF

Info

Publication number
CN106780699A
CN106780699A CN201710012804.7A CN201710012804A CN106780699A CN 106780699 A CN106780699 A CN 106780699A CN 201710012804 A CN201710012804 A CN 201710012804A CN 106780699 A CN106780699 A CN 106780699A
Authority
CN
China
Prior art keywords
phi
delta
sin
sins
cos
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710012804.7A
Other languages
English (en)
Other versions
CN106780699B (zh
Inventor
徐晓苏
杨博
代维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201710012804.7A priority Critical patent/CN106780699B/zh
Publication of CN106780699A publication Critical patent/CN106780699A/zh
Application granted granted Critical
Publication of CN106780699B publication Critical patent/CN106780699B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种基于SINS/GPS和里程计辅助的视觉SLAM方法,包括如下步骤:当全球卫星定位***信号可用时,将GPS与捷联惯性导航***输出信息进行数据融合,得到姿态、速度、位置等信息;当GPS信号不可用时,将里程计与SINS输出信息进行数据融合,得到姿态、速度、位置等信息;利用双目摄像机拍摄得到环境图片,对其进行特征提取和特征匹配;利用上述得到的先验姿态、速度、位置信息和环境特征实现定位与地图构建,完成视觉SLAM算法。本发明利用SINS、GPS和里程计辅助视觉SLAM,能够实现室外和室内两种环境下的定位与地图构建,应用范围广泛,且能够提高定位的精度和鲁棒性。

Description

一种基于SINS/GPS和里程计辅助的视觉SLAM方法
技术领域
本发明涉及移动机器人自动导航技术领域,尤其是一种基于SINS/GPS和里程计辅助的视觉SLAM方法。
背景技术
同时定位与地图构建(Simultaneous localization and mapping,SLAM)问题是移动机器人研究领域的基本问题之一,是移动机器人在未知环境中实现自主导航与自主控制的关键。
解决SLAM问题的方法有很多,随着视觉传感器的发展、成本的降低以及图像处理技术的提高,视觉SLAM方法得到了广泛的应用,视觉传感器也逐步取代其他传感器称为解决SLAM问题中获取外部环境信息的主要传感器。
然而,随着SLAM方法应用的广泛化,其应用的环境也越来越多,单一的传感器已经无法在复杂环境下解决SLAM问题。因此,出现了多传感器协同解决SLAM问题。目前,应用比较多的是GPS辅助视觉SLAM方法或里程计辅助视觉SLAM方法。然而,GPS信号在有遮挡环境下或室内环境下很容易失效,而里程计的误差较大,无法适应较复杂的环境。一旦一种传感器失效,则定位导航的精度将受到很大的影响。因此,出现一种能够适应多种环境、室内室外均可应用,且精度相对较高的SLAM方法是很有必要的。
发明内容
发明目的:为克服现有技术中存在的不足,本发明提供了一种可以适应多种环境且能够提高定位、制图精度的SLAM方法。
技术方案:为解决上述技术问题,本发明提供了一种基于SINS/GPS和里程计辅助的视觉SLAM方法,包括如下步骤:
步骤1:当GPS信号可用时,将GPS与SINS输出信息进行数据融合,得到姿态、速度、位置信息;
步骤2:当GPS信号不可用时,将里程计与SINS输出信息进行数据融合,得到姿态、速度、位置信息;
步骤3:利用双目摄像机拍摄得到环境图片,对环境图片进行特征提取和特征匹配;
步骤4:利用步骤1和步骤2得到的姿态、速度、位置信息和环境特征实现定位与地图构建。
进一步的,所述步骤1中当GPS信号可用时,将GPS与SINS输出信息进行数据融合,得到姿态、速度、位置信息,具体为:
步骤1.1:选择导航坐标系n为地理坐标系,其xyz分被指向“东北天”方向;选择载体坐标系b的原点在载体质心,其xyz分被指向载体的“右前上”;选取***状态向量为:
其中,分别为东向和北向速度误差;φu、φe、φn分别为天向、东向和北向平台误差角;δL、δλ、δh分别为载体纬度、经度和高度误差;分别为b系下xyz三轴的陀螺常值误差;分别为b系下xy方向上的加速度计常值误差;
SINS/GPS***的状态方程表示为:
其中,φ=[φu φe φn]T RM、RN分被为卯酉圈和子午圈半径,为计算出的速度,为计算出的速度误差,为计算得到的数学平台旋转角速度,为地球旋转角速度,为计算得到的数学平台相对地球的旋转角速度,为对应的计算误差;分别为b系下陀螺仪和加速度计的随机误差;Cω分别为:
步骤1.2:选择载体的速度作为观测量:SINS/GPS***的观测方程表示为:
其中,为载体SINS解算出的速度;为GPS输出的速度;ν为零均值高斯白噪声过程;Hk为观测矩阵,且:Hk=[I2×2 02×10];
步骤1.3:使用四阶龙格-库塔积分方法,以采样周期T为步长将步骤1.1和步骤1.2分别建立的SINS/GPS***的状态方程和观测方程离散化,得到离散形式的状态方程和观测方程,记为:
利用容积卡尔曼滤波方法,对SINS/GPS***进行数据融合,其过程如下:
(1)选定滤波初值:
(2)计算2n个sigma点与对应权值:
(3)对k-1时刻状态估计误差方差阵Pk-1进行Cholesky分解:
(4)求取2n个容积点并通过非线性状态方程进行传播:
(5)求取状态一步预测值与误差方阵一步预测值:
(6)计算量测预测值:
(7)计算量测预测误差方差阵:
(8)计算状态和量测间互协方差阵为
(9)计算增益矩:
(10)计算状态值估计值与状态估计误差方差阵:
估计出状态向量后,通过闭环反馈,得到SINS/GPS***输出的位置、速度、姿态信息;当GPS无信号或者***停止运行时数据融合结束,否则,(2)~(10)循环执行。
进一步的,所述步骤2中当GPS信号不可用时,将里程计与SINS输出信息进行数据融合,得到姿态、速度、位置信息,具体为:
步骤2.1:选取SINS/OD***状态向量为:
其中,δαψ为里程计航向安装误差角;δαθ为里程计俯仰安装误差角;δKD为里程计的标度误差;分别为东向和北向速度误差;φu、φe、φn分别为天向、东向和北向平台误差角;δL、δλ、δh分别为载体纬度、经度和高度误差;分别为b系下xyz三轴的陀螺常值误差;分别为b系下xy方向上的加速度计常值误差;
SINS/OD***的状态方程表示为:
步骤2.2:选择载体的速度作为观测量:SINS/OD***的观测方程表示为:
其中,为载体SINS解算出的速度;为里程计输出的速度;为b系下的真实速度;为里程计在b系下输出误差向量;ν为零均值高斯白噪声过程;
δαψ和δαθ一般较小,近似表示为:
其中,KD为里程计的标度系数;PD为里程计的输出脉冲;
步骤2.3:使用四阶龙格-库塔积分方法,以采样周期T为步长将步骤2.1和步骤2.2分别建立的SINS/OD状态方程和观测方程离散化,得到离散形式的状态方程和观测方程,记为:
利用容积卡尔曼滤波(CKF)方法,对SINS/OD***进行数据融合,其过程如下:
(1)选定滤波初值:
(2)计算2n个sigma点与对应权值:
(3)对k-1时刻状态估计误差方差阵Pk-1进行Cholesky分解:
(4)求取2n个容积点并通过非线性状态方程进行传播:
(5)求取状态一步预测值与误差方阵一步预测值:
(6)将一步预测误差方差Pk/k-1阵进行Cholesky分解:
(7)求取2n个容积点并通过非线性量测方程进行传播:
(8)计算量测预测值:
(9)计算量测预测误差方差阵:
(10)计算状态和量测间互协方差阵为
(11)计算增益矩:
(12)计算状态值估计值与状态估计误差方差阵:
估计出状态向量后,通过闭环反馈,得到SINS/OD***输出的位置、速度、姿态信息;当GPS有信号或者***停止运行时数据融合结束,否则,(2)~(11)循环执行。
进一步的,所述步骤3中利用摄像机拍摄得到环境图片,对环境图片进行特征提取和特征匹配,具体为:
步骤3.1:由双目摄像机拍摄得到左右两张图片;对每张图片,利用高斯卷积核对图像进行线性尺度变换,构建尺度空间:
其中,I(x,y)为二维图像,G(x,y,σ)为尺度可变的高斯函数,具体表达式如下:
图像尺度空间L(x,y,σ)是通过图像I(x,y)与具有可变核的高斯滤波函数G(x,y,σ)进行卷积形成的;用图像的高斯金子塔来表示,金子塔的层数为:log(width)/log(2)-2,width为图像宽度;每层放置4张经不同高斯核卷积核处理过的图像;
步骤3.2:对同一层内两张相邻的经过高斯卷积的图片做差,得到高斯差分金字塔(DOG):
在三维尺度空间D(x,y,σ)中,搜索每个点的26个领域,如果该点为局部极值点,则将该点保存为候选关键点;
对D(x,y,σ)进行泰勒展开:
其中:
去除对比度低的关键点,即:的点;
计算Hessian矩阵H:
设矩阵H的两个特征值分别为λ1和λ2,且:λ1=rλ2;则:
设置r=10,如果则该关键点位于边缘部分,应当去除,反之,保留关键点;
所保留下的关键点即为提取出的特征点;
步骤3.3:利用特征点邻域内像素的梯度方向分布特性为每个特征点定义主方向;每个像素点的梯度幅值为:
梯度方向为:
利用像素点梯度创建梯度方向直方图;直方图以每10°为一个柱,共36个柱;柱所代表的方向为像素点的梯度方向,柱的长短代表了梯度幅值;最后选择直方图的主峰值作为该特征点的主方向,选取量值达到主峰值80%以上的局部峰值作为辅助方向;
步骤3.4:计算以特征点为中心的8×8的窗口,并平均分为4个子窗口,计算每个子窗口内,8个方向上的梯度幅值并累加;得到每个特征点的描述符;通过特征点之间的距离计算公式判断两幅图片特征点之间的相似程度,从而进行特征匹配:
其中,li和ri分别为左右图像上特征点的描述符;distance越小,说明特征点越相似;
将双目摄像机在当前时刻拍摄到的2幅图片与以前时刻拍摄过的图片进行特征匹配,判断特征点是否出现过,若出现过,则不需要进行状态、观测向量增广,则执行完步骤3.5后,需要需要进行状态、观测向量增广;
步骤3.5:通过三角测距原理求取特征点在载体坐标系内的位置(xb,yb,zb):
其中,B为左右摄像机投影中心间的距离,xleft和xright分别为空间点在左右摄像机图像上的投影横坐标,f为摄像机的焦距,视差Disparity=xleft-xright
进一步的,所述步骤4中利用步骤1和步骤2得到的姿态、速度、位置信息和环境特征实现定位与地图构建,具体为:
步骤4.1:选取载体初始位置的质心为原点建立世界坐标系w,w系的xyz分被指向“东北天”方向;该坐标系与地球固联,xyz始终指向“东北天”方向,且原点位置不随载体运动变化;选取***的状态向量为:
其中,代表在世界坐标系w下,载体的位置坐标,初始值均为零;代表在世界坐标系w下,特征点的位置坐标;M为特征点的数量;
组合导航***的状态方程表示为:
其中,V=[νe νn νu]T代表由SINS/GPS***或SINS/OD***计算得到的“东北天”方向上的速度;ΔT代表采样时间间隔;
步骤4.2:选择特征点在载体坐标系内的位置:为观测向量;其中,m为同一时间特征点的数量。
***的观测方程可表示为:
令:则:
其中,ψ、γ、θ分别为SINS/GPS***或SINS/OD***计算得到载体航向角、横摇角和纵摇角;
步骤4.3:利用标准卡尔曼滤波方法进行***数据融合,其过程如下:
(2)选定滤波初值:
(3)状态更新:
(4)量测更新
Kk=Pk/k-1Hk T(HkPk/k-1Hk T+Rk)-1
Pk=(I-KkHk)Pk/k-1
估计出状态向量后,通过闭环反馈,完成定位以及地图的制作;***停止运行时,数据融合结束。
本发明对于现有技术具有以下优点:
1.本发明针对室外情况和室内情况,分别提供了SINS/GPS组合导航和SINS/OD组合导航方法辅助视觉SLAM的方法,从而使得该方法在室内和室外均可以应用,克服了现有技术应用环境单一的问题。
2.本发明利用SINS/GPS组合导航和SINS/OD组合导航方法,可以提供精度较高的先验姿态、速度、位置信息,从而进一步提高了视觉SLAM的定位与制图的精度。
3.本发明可以实现载***置的三维定位与制图,克服现有技术中大多数只在二维平面上进行定位与制图的缺陷。
附图说明
图1是本发明的***框图;
图2是本发明SINS/GPS子***的示意图;
图3是本发明SINS/OD子***的示意图;
图4是本发明中特征提取与特征匹配的流程图;
图5是本发明在GPS信号良好时的定位效果图;
图6是本发明在GPS信号不可用时的定位效果图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
如图1所示是本发明的***方案图。当GPS信号可用时,由SINS/GPS***提供先验的姿态、速度、位置信息;当GPS信号不可用时,由SINS/OD***提供先验的姿态、速度、位置信息。其中SINS为捷联惯性导航***(Strap-down Inertial Navigation System)、OD为里程计(Odometry)。同时,双目摄像机拍摄得到环境图片,并进行特征提取、特征匹配等工作,最后由视觉SLAM算法计算得到位置信息并完成制图。
如图2和3所示是本发明SINS/GPS子***和SINS/OD子***的方案图,两个子***都使用IMU采集得到载体的比力信息和角速度信息,并进行捷联解算。SINS/GPS子***通过GPS测量得到速度信息,而SINS/OD***,使用里程计测量得到速度信息,并将本身误差带入滤波器中。两个子***均采用CKF滤波器完成数据融合。
SINS/GPS子***进行数据融合过程如下:
选取***状态向量为:
建立SINS/GPS***的状态方程:
择载体的速度作为观测量:建立SINS/GPS***的观测方程:
使用四阶龙格-库塔积分方法,以采样周期T为步长将上述建立的SINS/GPS状态方程和观测方程离散化,得到离散形式的状态方程和观测方程,简记为:
利用容积卡尔曼滤波(CKF)方法,对上述SINS/GPS***进行数据融合:
1)选定滤波初值:
(2)计算2n个sigma点与对应权值:
(3)对k-1时刻状态估计误差方差阵Pk-1进行Cholesky分解:
(4)求取2n个容积点并通过非线性状态方程进行传播:
(5)求取状态一步预测值与误差方阵一步预测值:
(6)计算量测预测值:
(7)计算量测预测误差方差阵:
(8)计算状态和量测间互协方差阵为
(9)计算增益矩:
(10)计算状态值估计值与状态估计误差方差阵:
SINS/OD子***进行数据融合过程如下:
选取SINS/OD***状态向量为:
建立SINS/OD***的状态方程:
选择载体的速度作为观测量:建立SINS/OD***的观测方程:
使用四阶龙格-库塔积分方法,以采样周期T为步长将上述建立的SINS/OD状态方程和观测方程离散化,得到离散形式的状态方程和观测方程:
利用容积卡尔曼滤波(CKF))方法,对上述SINS/OD***进行数据融合:
(1)选定滤波初值:
(2)计算2n个sigma点与对应权值:
(3)对k-1时刻状态估计误差方差阵Pk-1进行Cholesky分解:
(4)求取2n个容积点并通过非线性状态方程进行传播:
(5)求取状态一步预测值与误差方阵一步预测值:
(6)将一步预测误差方差Pk/k-1阵进行Cholesky分解:
(7)求取2n个容积点并通过非线性量测方程进行传播:
(8)计算量测预测值:
(9)计算量测预测误差方差阵:
(10)计算状态和量测间互协方差阵为
(11)计算增益矩:
(12)计算状态值估计值与状态估计误差方差阵:
如图4所示是本发明特征提取与特征匹配的流程图,其过程如下:
1.由双目摄像机拍摄得到左右两张图片;对每张图片,利用高斯卷积核对图像进行线性尺度变换,构建尺度空间:
其中,I(x,y)为二维图像,G(x,y,σ)为尺度可变的高斯函数,具体表达式如下:
图像尺度空间L(x,y,σ)是通过图像I(x,y)与具有可变核的高斯滤波函数G(x,y,σ)进行卷积形成的;可以用图像的高斯金子塔来表示,金子塔的层数为:log(width)/log(2)-2,width为图像宽度;每层放置4张经不同高斯核卷积核处理过的图像;
2.对同一层内两张相邻的经过高斯卷积的图片做差,得到高斯差分金字塔(DOG):
在三维尺度空间D(x,y,σ)中,搜索每个点的26个领域,如果该点为局部极值点,则将该点保存为候选关键点;
对D(x,y,σ)进行泰勒展开:
其中:
去除对比度低的关键点,即:的点;
计算Hessian矩阵H:
设矩阵H的两个特征值分别为λ1和λ2,且:λ1=rλ2;则:
设置r=10,如果则该关键点位于边缘部分,应当去除,反之,保留关键点;
所保留下的关键点就是提取出的特征点;
3.利用特征点邻域内像素的梯度方向分布特性为每个特征点定义主方向;每个像素点的梯度幅值为:
梯度方向为:
利用像素点梯度创建梯度方向直方图;直方图以每10°为一个柱,共36个柱;柱所代表的方向为像素点的梯度方向,柱的长短代表了梯度幅值;最后选择直方图的主峰值作为该特征点的主方向,选取量值达到主峰值80%以上的局部峰值作为辅助方向;
4.计算以特征点为中心的8×8的窗口,并平均分为4个子窗口,计算每个子窗口内,8个方向上的梯度幅值并累加;得到每个特征点的描述符;通过特征点之间的距离计算公式判断两幅图片特征点之间的相似程度,从而进行特征匹配:
其中,li和ri分别为左右图像上特征点的描述符。distance越小,说明特征点越相似;
5:通过三角测距原理求取特征点在载体坐标系内的位置(xb,yb,zb):
其中,B为左右摄像机投影中心间的距离,xleft和xright分别为空间点在左右摄像机图像上的投影横坐标,f为摄像机的焦距,视差Disparity=xleft-xright
最后,利用上述得到的先验位置信息和环境信息完成视觉SLAM算法,实现定位与地图构建,具体过程如下:
选取***的状态向量为:
建立***的状态方程:
选择特征点在载体坐标系内的位置:为观测向量,建立***的观测方程:
利用标准卡尔曼滤波方法进行***数据融合:
(2)选定滤波初值:
(1)状态更新:
(2)量测更新
Kk=Pk/k-1Hk T(HkPk/k-1Hk T+Rk)-1
Pk=(I-KkHk)Pk/k-1
使用如下的实例说明本发明的有益效果:
在MATLAB环境下,分被模拟GPS信号可用和GPS信号不可用两种情况下,利用本发明提供的基于SINS/GPS和里程计辅助的视觉SLAM方法进行定位与制图的仿真。结果如图5和图6所示。其中,细轨迹代表真实轨迹;粗轨迹代表载体通过计算得到的定位轨迹;带有数字的点代表换环境特征点;半椭球代表特征点的定位精度,最***的椭球为特征点初始定位精度,而最内部的椭球代表最终的特征点初始定位精度,即,制图的精度。可以发现,该精度在不断提高。
以上结果表明,GPS信号可用和GPS信号不可用在两种情况下,本发明提供的方法都可以以较高精度完成定位与制图。
本发明包括如下步骤:当全球卫星定位***(GPS)信号可用时,将GPS与捷联惯性导航***(SINS)输出信息进行数据融合,得到姿态、速度、位置等信息;当GPS信号不可用时,将里程计(OD)与SINS输出信息进行数据融合,得到姿态、速度、位置等信息;利用双目摄像机拍摄得到环境图片,对其进行特征提取和特征匹配;利用上述得到的先验姿态、速度、位置信息和环境特征实现定位与地图构建,完成视觉SLAM算法。本发明利用SINS、GPS和里程计辅助视觉SLAM,能够实现室外和室内两种环境下的定位与地图构建,应用范围广泛,且能够提高定位的精度和鲁棒性。
以上详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均属于本发明的保护范围。

Claims (5)

1.一种基于SINS/GPS和里程计辅助的视觉SLAM方法,其特征在于,包括如下步骤:
步骤1:当GPS信号可用时,将GPS与SINS输出信息进行数据融合,得到姿态、速度、位置信息;
步骤2:当GPS信号不可用时,将里程计与SINS输出信息进行数据融合,得到姿态、速度、位置信息;
步骤3:利用双目摄像机拍摄得到环境图片,对环境图片进行特征提取和特征匹配;
步骤4:利用步骤1和步骤2得到的姿态、速度、位置信息和环境特征实现定位与地图构建。
2.如权利要求1所述的基于SINS/GPS和里程计辅助的视觉SLAM方法,其特征在于,所述步骤1中当GPS信号可用时,将GPS与SINS输出信息进行数据融合,得到姿态、速度、位置信息,具体为:
步骤1.1:选择导航坐标系n为地理坐标系,其xyz分被指向“东北天”方向;选择载体坐标系b的原点在载体质心,其xyz分被指向载体的“右前上”;选取***状态向量为:
x = δv e n δv n n φ e φ n φ u δ L δ λ δ h ▿ x b ▿ y b ϵ x b ϵ y b ϵ z b
其中,分别为东向和北向速度误差;φu、φe、φn分别为天向、东向和北向平台误差角;δL、δλ、δh分别为载体纬度、经度和高度误差;分别为b系下xyz三轴的陀螺常值误差;分别为b系下xy方向上的加速度计常值误差;
SINS/GPS***的状态方程表示为:
φ · = C ω - 1 [ ( I - C n n ′ ) ω ~ i n n + δω i n n - C b n ′ ϵ b ] + w g n δ v · n = ( I - C n ′ n ) f n ′ - ( 2 δω i e n + δω e n n ) × v ~ n - ( 2 ω ~ i e n + ω ~ e n n ) × δ v ~ n + C n ′ n C b n ′ ▿ b + w a n δ · L = δv N R M + h δ λ · = δv E sec L R N + h + v E sec L tan L R N + h δ L ϵ · b = 0 ▿ · b = 0
其中,φ=[φu φe φn]T RM、RN分被为卯酉圈和子午圈半径,为计算出的速度,为计算出的速度误差,为计算得到的数学平台旋转角速度,为地球旋转角速度,为计算得到的数学平台相对地球的旋转角速度,为对应的计算误差;分别为b系下陀螺仪和加速度计的随机误差;Cω分别为:
C n n ′ = cosφ n cosφ u _ sinφ n sinφ e sinφ u cosφ n sinφ u + sinφ n sinφ e sinφ u _ sinφ n cosφ e _ cosφ e sinφ u cosφ e cosφ u sinφ e sinφ n cosφ u + cosφ n sinφ e sinφ u sinφ n sinφ u _ cosφ n sinφ e sinφ u cosφ n cosφ e
C ω = cosφ n 0 - sinφ n cosφ e 0 1 sinφ e sinφ n 0 cosφ n cosφ e
步骤1.2:选择载体的速度作为观测量:SINS/GPS***的观测方程表示为:
z = v ~ s n - v ~ G n = H k x + v
其中,为载体SINS解算出的速度;为GPS输出的速度;ν为零均值高斯白噪声过程;Hk为观测矩阵,且:Hk=[I2×2 02×10];
步骤1.3:使用四阶龙格-库塔积分方法,以采样周期T为步长将步骤1.1和步骤1.2分别建立的SINS/GPS***的状态方程和观测方程离散化,得到离散形式的状态方程和观测方程,记为:
x k = f ( x k - 1 ) + ω k - 1 z k = h ( x k ) + v k
利用容积卡尔曼滤波方法,对SINS/GPS***进行数据融合,其过程如下:
(1)选定滤波初值:
x ^ 0 = E ( x 0 ) P 0 = E ( x 0 - x ^ 0 ) ( x 0 - x ^ 0 ) T
(2)计算2n个sigma点与对应权值:
ξ i = n [ 1 ] i , w i = 1 / 2 n i = 1 , 2 , ... , 2 n
(3)对k-1时刻状态估计误差方差阵Pk-1进行Cholesky分解:
P k - 1 = S k - 1 S k - 1 T
(4)求取2n个容积点并通过非线性状态方程进行传播:
χ k - 1 i = S k - 1 ξ i + x ^ k - 1 i = 1 , 2 , ... , 2 n
χ k / k - 1 * i = f ( χ k / k - 1 i ) i = 1 , 2 , ... , 2 n
(5)求取状态一步预测值与误差方阵一步预测值:
x ^ k / k - 1 = 1 2 n Σ i = 1 2 n χ k / k - 1 * i
P k / k - 1 = 1 2 n Σ i = 1 2 n χ k / k - 1 * i χ k / k - 1 * i T - x ^ k / k - 1 x ^ k / k - 1 T + Q k - 1
(6)计算量测预测值:
z ^ k | k - 1 = H k x ^ k | k - 1
(7)计算量测预测误差方差阵:
P z z , k | k - 1 = H k P k | k - 1 H k T
(8)计算状态和量测间互协方差阵为
P x z , k | k - 1 = P k | k - 1 H k T
(9)计算增益矩:
K k = P x z , k / k - 1 / P z z , k / k - 1 - 1
(10)计算状态值估计值与状态估计误差方差阵:
x ^ k = x ^ k / k - 1 + K k ( z ^ k - z ^ k / k - 1 )
P k = P k / k - 1 - K k P z z , k / k - 1 K k T
估计出状态向量后,通过闭环反馈,得到SINS/GPS***输出的位置、速度、姿态信息;当GPS无信号或者***停止运行时数据融合结束,否则,(2)~(10)循环执行。
3.如权利要求1所述的基于SINS/GPS和里程计辅助的视觉SLAM方法,其特征在于,所述步骤2中当GPS信号不可用时,将里程计与SINS输出信息进行数据融合,得到姿态、速度、位置信息,具体为:
步骤2.1:选取SINS/OD***状态向量为:
x = δv e n δv n n φ e φ n φ u δ L δ λ δ h ▿ x b ▿ y b ϵ x b ϵ y b ϵ z b δα ψ δK D δα θ
其中,δαψ为里程计航向安装误差角;δαθ为里程计俯仰安装误差角;δKD为里程计的标度误差;分别为东向和北向速度误差;φu、φe、φn分别为天向、东向和北向平台误差角;δL、δλ、δh分别为载体纬度、经度和高度误差;分别为b系下xyz三轴的陀螺常值误差;分别为b系下xy方向上的加速度计常值误差;
SINS/OD***的状态方程表示为:
φ · = C ω - 1 [ ( I - C n n ′ ) ω ~ i n n + δω i n n - C b n ′ ϵ b ] + w g n δ v · n = ( I - C n ′ n ) f n ′ - ( 2 δω i e n + δω e n n ) × v ~ n - ( 2 ω ~ i e n + ω ~ e n n ) × δ v ~ n + C n ′ n C b n ′ ▿ b + w a n δ L · = δv N R M + h δ λ · = δv E sec L R N + h + v E sec L tan L R N + h δ L ϵ · b = 0 ▿ · b = 0 δ α · ψ = 0 δ K · D = 0 δ α · θ = 0
步骤2.2:选择载体的速度作为观测量:SINS/OD***的观测方程表示为:
z = v ~ s n - C b n v ~ D b = δv n - [ I - ( C n n ′ ) T ] C b n ′ ( v D b + δv D b ) + v
其中,为载体SINS解算出的速度;为里程计输出的速度;为b系下的真实速度;为里程计在b系下输出误差向量;ν为零均值高斯白噪声过程;
δαψ和δαθ一般较小,近似表示为:
δν D b = δ α ψ δK D δα θ K D P D
其中,KD为里程计的标度系数;PD为里程计的输出脉冲;
步骤2.3:使用四阶龙格-库塔积分方法,以采样周期T为步长将步骤2.1和步骤2.2分别建立的SINS/OD状态方程和观测方程离散化,得到离散形式的状态方程和观测方程,记为:
x k = f ( x k - 1 ) + ω k - 1 z k = h ( x k ) + v k
利用容积卡尔曼滤波(CKF)方法,对SINS/OD***进行数据融合,其过程如下:
(1)选定滤波初值:
x ^ 0 = E ( x 0 ) P 0 = E ( x 0 - x ^ 0 ) ( x 0 - x ^ 0 ) T
(2)计算2n个sigma点与对应权值:
ξ i = n [ 1 ] i , w i = 1 / 2 n i = 1 , 2 , ... , 2 n
(3)对k-1时刻状态估计误差方差阵Pk-1进行Cholesky分解:
P k - 1 = S k - 1 S k - 1 T
(4)求取2n个容积点并通过非线性状态方程进行传播:
χ k - 1 i = S k - 1 ξ i + x ^ k - 1 i = 1 , 2 , ... , 2 n
χ k / k - 1 * i = f ( χ k / k - 1 i ) i = 1 , 2 , ... , 2 n
(5)求取状态一步预测值与误差方阵一步预测值:
x ^ k / k - 1 = 1 2 n Σ i = 1 2 n χ k / k - 1 * i
P k / k - 1 = 1 2 n Σ i = 1 2 n χ k / k - 1 * i χ k / k - 1 * i T - x ^ k / k - 1 x ^ k / k - 1 T + Q k - 1
(6)将一步预测误差方差Pk/k-1阵进行Cholesky分解:
P k / k - 1 = S k / k - 1 S k / k - 1 T ,
(7)求取2n个容积点并通过非线性量测方程进行传播:
χ ~ k - 1 i = S k / k - 1 ξ i + x ^ k / k - 1 i = 1 , 2 , ... , 2 n
Z k / k - 1 i = h ( χ ~ k - 1 i ) i = 1 , 2 , ... , 2 n
(8)计算量测预测值:
z ^ k / k - 1 = 1 2 n Σ i = 1 2 n Z k / k - 1 i
(9)计算量测预测误差方差阵:
P z z , k / k - 1 = 1 2 n Σ i = 1 2 n Z k / k - 1 i Z k / k - 1 i T - z ^ k / k - 1 z ^ k / k - 1 T + R k
(10)计算状态和量测间互协方差阵为
P x z , k / k - 1 = 1 2 n Σ i = 1 2 n χ k / k - 1 i * Z k / k - 1 i T - x ^ k / k - 1 z ^ k / k - 1 T
(11)计算增益矩:
K k = P x z , k / k - 1 / P z z , k / k - 1 - 1
(12)计算状态值估计值与状态估计误差方差阵:
x ^ k = x ^ k / k - 1 + K k ( z ^ k - z ^ k / k - 1 )
P k = P k / k - 1 - K k P z z , k / k - 1 K k T
估计出状态向量后,通过闭环反馈,得到SINS/OD***输出的位置、速度、姿态信息;当GPS有信号或者***停止运行时数据融合结束,否则,(2)~(11)循环执行。
4.如权利要求1所述的基于SINS/GPS和里程计辅助的视觉SLAM方法,其特征在于,所述步骤3中利用摄像机拍摄得到环境图片,对环境图片进行特征提取和特征匹配,具体为:
步骤3.1:由双目摄像机拍摄得到左右两张图片;对每张图片,利用高斯卷积核对图像进行线性尺度变换,构建尺度空间:
L ( x , y , σ ) = G ( x , y , σ ) ⊗ I ( x , y )
其中,I(x,y)为二维图像,G(x,y,σ)为尺度可变的高斯函数,具体表达式如下:
G ( x , y , σ ) = 1 2 πσ 2 e - ( x 2 + y 2 ) 2 σ 2
图像尺度空间L(x,y,σ)是通过图像I(x,y)与具有可变核的高斯滤波函数G(x,y,σ)进行卷积形成的;用图像的高斯金子塔来表示,金子塔的层数为:log(width)/log(2)-2,width为图像宽度;每层放置4张经不同高斯核卷积核处理过的图像;
步骤3.2:对同一层内两张相邻的经过高斯卷积的图片做差,得到高斯差分金字塔(DOG):
D ( x , y , σ ) = ( G ( x , y , k σ ) - G ( x , y , σ ) ) ⊗ I ( x , y ) = L ( x , y , k σ ) - L ( x , y , σ )
在三维尺度空间D(x,y,σ)中,搜索每个点的26个领域,如果该点为局部极值点,则将该点保存为候选关键点;
对D(x,y,σ)进行泰勒展开:
D ( x ^ ) = D + 1 2 ∂ D T ∂ x x ^
其中:
去除对比度低的关键点,即:的点;
计算Hessian矩阵H:
H = D x x D x y D x y D y y
设矩阵H的两个特征值分别为λ1和λ2,且:λ1=rλ2;则:
Tr 2 ( H ) D e t ( H ) = ( λ 1 + λ 2 ) 2 λ 1 λ 2 = ( r + 1 ) 2 r
设置r=10,如果则该关键点位于边缘部分,应当去除,反之,保留关键点;
所保留下的关键点即为提取出的特征点;
步骤3.3:利用特征点邻域内像素的梯度方向分布特性为每个特征点定义主方向;每个像素点的梯度幅值为:
m ( x , y ) = ( L ( x + 1 , y ) - L ( x - 1 , y ) ) 2 + ( L ( x , y + 1 ) - L ( x , y - 1 ) ) 2
梯度方向为:
θ ( x , y ) = tan - 1 L ( x , y + 1 ) - L ( x , y - 1 ) L ( x + 1 , y ) - L ( x - 1 , y )
利用像素点梯度创建梯度方向直方图;直方图以每10°为一个柱,共36个柱;柱所代表的方向为像素点的梯度方向,柱的长短代表了梯度幅值;最后选择直方图的主峰值作为该特征点的主方向,选取量值达到主峰值80%以上的局部峰值作为辅助方向;
步骤3.4:计算以特征点为中心的8×8的窗口,并平均分为4个子窗口,计算每个子窗口内,8个方向上的梯度幅值并累加;得到每个特征点的描述符;通过特征点之间的距离计算公式判断两幅图片特征点之间的相似程度,从而进行特征匹配:
d i s tan c e = Σ i = 1 n ( l i - r i ) 2
其中,li和ri分别为左右图像上特征点的描述符;distance越小,说明特征点越相似;
将双目摄像机在当前时刻拍摄到的2幅图片与以前时刻拍摄过的图片进行特征匹配,判断特征点是否出现过,若出现过,则不需要进行状态、观测向量增广,则执行完步骤3.5后,需要需要进行状态、观测向量增广;
步骤3.5:通过三角测距原理求取特征点在载体坐标系内的位置(xb,yb,zb):
x b = f B · x l e f t D i s p a r i t y y b = f B · x r i g h t D i s p a r i t y z b = B · f D i s p a r i t y
其中,B为左右摄像机投影中心间的距离,xleft和xright分别为空间点在左右摄像机图像上的投影横坐标,f为摄像机的焦距,视差Disparity=xleft-xright
5.如权利要求1所述的基于SINS/GPS和里程计辅助的视觉SLAM方法,其特征在于,所述步骤4中利用步骤1和步骤2得到的姿态、速度、位置信息和环境特征实现定位与地图构建,具体为:
步骤4.1:选取载体初始位置的质心为原点建立世界坐标系w,w系的xyz分被指向“东北天”方向;该坐标系与地球固联,xyz始终指向“东北天”方向,且原点位置不随载体运动变化;选取***的状态向量为:
x = x 0 w y 0 w z 0 w x 1 w y 1 w z 1 w ... x M w y M w z M w
其中,代表在世界坐标系w下,载体的位置坐标,初始值均为零;代表在世界坐标系w下,特征点的位置坐标;M为特征点的数量;
组合导航***的状态方程表示为:
X 0 , k = X 0 , k - 1 + Δ T · V X i , k = X i , k - 1 i = 1... M
其中,V=[νe νn νu]T代表由SINS/GPS***或SINS/OD***计算得到的“东北天”方向上的速度;ΔT代表采样时间间隔;
步骤4.2:选择特征点在载体坐标系内的位置:为观测向量;其中,m为同一时间特征点的数量。
***的观测方程可表示为:
z = C w b X i + v
令:则:
H = cos γ cos ψ _ sin γ sin ψ sin θ cos γ sin ψ + sin γ cos ψ sin θ _ sin γ cos θ _ cos θ sin ψ cos ψ cos θ sin θ sin γ cos ψ + cos γ sin ψ sin θ sin γ sin ψ _ cos γ cos ψ sin θ cos γ cos θ
其中,ψ、γ、θ分别为SINS/GPS***或SINS/OD***计算得到载体航向角、横摇角和纵摇角;
步骤4.3:利用标准卡尔曼滤波方法进行***数据融合,其过程如下:
(2)选定滤波初值:
x ^ 0 = E ( x 0 ) P 0 = E ( x 0 - x ^ 0 ) ( x 0 - x ^ 0 ) T
(1)状态更新:
x ^ k / k - 1 = Φ k / k - 1 x ^ k - 1
P k / k - 1 = Φ k / k - 1 P k - 1 Φ k / k - 1 T + Γ k - 1 Q k - 1 Γ k - 1 T
(2)量测更新
Kk=Pk/k-1Hk T(HkPk/k-1Hk T+Rk)-1
x ^ k = x ^ k / k - 1 + K k ( Z k - H k x ^ k / k - 1 )
Pk=(I-KkHk)Pk/k-1
估计出状态向量后,通过闭环反馈,完成定位以及地图的制作;***停止运行时,数据融合结束。
CN201710012804.7A 2017-01-09 2017-01-09 一种基于sins/gps和里程计辅助的视觉slam方法 Active CN106780699B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710012804.7A CN106780699B (zh) 2017-01-09 2017-01-09 一种基于sins/gps和里程计辅助的视觉slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710012804.7A CN106780699B (zh) 2017-01-09 2017-01-09 一种基于sins/gps和里程计辅助的视觉slam方法

Publications (2)

Publication Number Publication Date
CN106780699A true CN106780699A (zh) 2017-05-31
CN106780699B CN106780699B (zh) 2020-10-16

Family

ID=58950624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710012804.7A Active CN106780699B (zh) 2017-01-09 2017-01-09 一种基于sins/gps和里程计辅助的视觉slam方法

Country Status (1)

Country Link
CN (1) CN106780699B (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN107389064A (zh) * 2017-07-27 2017-11-24 长安大学 一种基于惯性导航的无人车变道控制方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及***
CN107741234A (zh) * 2017-10-11 2018-02-27 深圳勇艺达机器人有限公司 一种基于视觉的离线地图构建及定位方法
CN108230247A (zh) * 2017-12-29 2018-06-29 达闼科技(北京)有限公司 基于云端的三维地图的生成方法、装置、设备及应用程序
CN108592914A (zh) * 2018-04-08 2018-09-28 河南科技学院 无gps情况下的复杂区域巡视机器人定位、导航及授时方法
CN108873038A (zh) * 2018-09-10 2018-11-23 芜湖盟博科技有限公司 自主泊车定位方法及定位***
CN109029433A (zh) * 2018-06-28 2018-12-18 东南大学 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN109115232A (zh) * 2017-06-22 2019-01-01 华为技术有限公司 导航的方法和装置
CN109490931A (zh) * 2018-09-03 2019-03-19 天津远度科技有限公司 飞行定位方法、装置及无人机
CN109612476A (zh) * 2018-12-04 2019-04-12 广州辰创科技发展有限公司 基于惯性导航技术的地图重构方法、装置、惯性导航***及计算机存储介质
CN109931926A (zh) * 2019-04-04 2019-06-25 山东智翼航空科技有限公司 一种基于站心坐标系的小型无人机无缝自主式导航算法
CN109982398A (zh) * 2019-02-25 2019-07-05 广州市香港科大***研究院 室内外无缝定位方法、装置、设备及介质
CN110174105A (zh) * 2019-06-14 2019-08-27 西南科技大学 一种复杂环境下智能体自主导航算法及***
CN110243358A (zh) * 2019-04-29 2019-09-17 武汉理工大学 多源融合的无人车室内外定位方法及***
CN110412635A (zh) * 2019-07-22 2019-11-05 武汉大学 一种环境信标支持下的gnss/sins/视觉紧组合方法
CN110597252A (zh) * 2019-09-03 2019-12-20 安徽江淮汽车集团股份有限公司 自动驾驶汽车融合定位控制方法、装置、设备及存储介质
WO2020024845A1 (zh) * 2018-08-01 2020-02-06 京东方科技集团股份有限公司 定位方法和装置
CN111006655A (zh) * 2019-10-21 2020-04-14 南京理工大学 机场巡检机器人多场景自主导航定位方法
CN111024062A (zh) * 2019-12-31 2020-04-17 芜湖哈特机器人产业技术研究院有限公司 基于伪gnss及ins的制图***
CN111337037A (zh) * 2020-05-19 2020-06-26 北京数字绿土科技有限公司 移动激光雷达slam制图装置及数据处理方法
CN111693042A (zh) * 2020-05-06 2020-09-22 上海燧方智能科技有限公司 一种自动驾驶装置精准定位的方法及***
CN111721298A (zh) * 2020-06-24 2020-09-29 重庆赛迪奇智人工智能科技有限公司 一种slam室外大场景精准定位方法
CN111982133A (zh) * 2019-05-23 2020-11-24 北京地平线机器人技术研发有限公司 基于高精地图对车辆进行定位的方法、装置及电子设备
CN112033422A (zh) * 2020-08-28 2020-12-04 的卢技术有限公司 一种多传感器融合的slam方法
CN112068168A (zh) * 2020-09-08 2020-12-11 中国电子科技集团公司第五十四研究所 一种基于视觉误差补偿的地质灾害未知环境组合导航方法
CN112105961A (zh) * 2019-07-26 2020-12-18 深圳市大疆创新科技有限公司 基于多数据融合的定位方法、可移动平台及存储介质
CN112284396A (zh) * 2020-10-29 2021-01-29 的卢技术有限公司 一种适用于地下停车场的车辆定位方法
CN112489176A (zh) * 2020-11-26 2021-03-12 香港理工大学深圳研究院 一种融合ESKF,g2o和点云匹配的紧耦合建图方法
CN112840235A (zh) * 2018-09-21 2021-05-25 古野电气株式会社 导航装置、导航支援信息的生成方法及生成程序
CN113310487A (zh) * 2021-05-25 2021-08-27 云南电网有限责任公司电力科学研究院 一种面向地面移动机器人的组合导航方法和装置
CN114674313A (zh) * 2022-03-31 2022-06-28 淮阴工学院 一种基于ckf算法的gps/bds和sins融合的无人配送车导航定位方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101413800A (zh) * 2008-01-18 2009-04-22 南京航空航天大学 导航/稳瞄一体化***的导航、稳瞄方法
US20100176987A1 (en) * 2009-01-15 2010-07-15 Takayuki Hoshizaki Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera
CN102538781A (zh) * 2011-12-14 2012-07-04 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN103323002A (zh) * 2012-03-19 2013-09-25 联想(北京)有限公司 即时定位与地图构建方法和装置
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN104729506A (zh) * 2015-03-27 2015-06-24 北京航空航天大学 一种视觉信息辅助的无人机自主导航定位方法
CN105411490A (zh) * 2015-10-26 2016-03-23 曾彦平 移动机器人的实时定位方法及移动机器人
CN106289285A (zh) * 2016-08-20 2017-01-04 南京理工大学 一种关联场景的机器人侦察地图及构建方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101413800A (zh) * 2008-01-18 2009-04-22 南京航空航天大学 导航/稳瞄一体化***的导航、稳瞄方法
US20100176987A1 (en) * 2009-01-15 2010-07-15 Takayuki Hoshizaki Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera
CN102538781A (zh) * 2011-12-14 2012-07-04 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN103323002A (zh) * 2012-03-19 2013-09-25 联想(北京)有限公司 即时定位与地图构建方法和装置
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN104729506A (zh) * 2015-03-27 2015-06-24 北京航空航天大学 一种视觉信息辅助的无人机自主导航定位方法
CN105411490A (zh) * 2015-10-26 2016-03-23 曾彦平 移动机器人的实时定位方法及移动机器人
CN106289285A (zh) * 2016-08-20 2017-01-04 南京理工大学 一种关联场景的机器人侦察地图及构建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高扬: ""可量测影像实景导航关键技术研究"", 《中国博士学位论文全文数据库 基础科学辑》 *

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN107356252B (zh) * 2017-06-02 2020-06-16 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN109115232B (zh) * 2017-06-22 2021-02-23 华为技术有限公司 导航的方法和装置
CN109115232A (zh) * 2017-06-22 2019-01-01 华为技术有限公司 导航的方法和装置
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及***
CN107389064A (zh) * 2017-07-27 2017-11-24 长安大学 一种基于惯性导航的无人车变道控制方法
CN107741234A (zh) * 2017-10-11 2018-02-27 深圳勇艺达机器人有限公司 一种基于视觉的离线地图构建及定位方法
CN108230247B (zh) * 2017-12-29 2019-03-15 达闼科技(北京)有限公司 基于云端的三维地图的生成方法、装置、设备及计算机可读的存储介质
CN108230247A (zh) * 2017-12-29 2018-06-29 达闼科技(北京)有限公司 基于云端的三维地图的生成方法、装置、设备及应用程序
CN108592914A (zh) * 2018-04-08 2018-09-28 河南科技学院 无gps情况下的复杂区域巡视机器人定位、导航及授时方法
CN109029433A (zh) * 2018-06-28 2018-12-18 东南大学 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
US11100670B2 (en) 2018-08-01 2021-08-24 Boe Technology Group Co., Ltd. Positioning method, positioning device and nonvolatile computer-readable storage medium
WO2020024845A1 (zh) * 2018-08-01 2020-02-06 京东方科技集团股份有限公司 定位方法和装置
CN109490931A (zh) * 2018-09-03 2019-03-19 天津远度科技有限公司 飞行定位方法、装置及无人机
CN108873038A (zh) * 2018-09-10 2018-11-23 芜湖盟博科技有限公司 自主泊车定位方法及定位***
CN108873038B (zh) * 2018-09-10 2020-11-06 芜湖盟博科技有限公司 自主泊车定位方法及定位***
CN112840235A (zh) * 2018-09-21 2021-05-25 古野电气株式会社 导航装置、导航支援信息的生成方法及生成程序
CN109612476A (zh) * 2018-12-04 2019-04-12 广州辰创科技发展有限公司 基于惯性导航技术的地图重构方法、装置、惯性导航***及计算机存储介质
CN109982398B (zh) * 2019-02-25 2021-04-16 广州市香港科大***研究院 室内外无缝定位方法、装置、设备及介质
CN109982398A (zh) * 2019-02-25 2019-07-05 广州市香港科大***研究院 室内外无缝定位方法、装置、设备及介质
CN109931926A (zh) * 2019-04-04 2019-06-25 山东智翼航空科技有限公司 一种基于站心坐标系的小型无人机无缝自主式导航算法
CN110243358A (zh) * 2019-04-29 2019-09-17 武汉理工大学 多源融合的无人车室内外定位方法及***
CN110243358B (zh) * 2019-04-29 2023-01-03 武汉理工大学 多源融合的无人车室内外定位方法及***
CN111982133A (zh) * 2019-05-23 2020-11-24 北京地平线机器人技术研发有限公司 基于高精地图对车辆进行定位的方法、装置及电子设备
CN110174105A (zh) * 2019-06-14 2019-08-27 西南科技大学 一种复杂环境下智能体自主导航算法及***
CN110174105B (zh) * 2019-06-14 2022-02-11 西南科技大学 一种复杂环境下智能体自主导航算法及***
CN110412635A (zh) * 2019-07-22 2019-11-05 武汉大学 一种环境信标支持下的gnss/sins/视觉紧组合方法
CN110412635B (zh) * 2019-07-22 2023-11-24 武汉大学 一种环境信标支持下的gnss/sins/视觉紧组合方法
CN112105961A (zh) * 2019-07-26 2020-12-18 深圳市大疆创新科技有限公司 基于多数据融合的定位方法、可移动平台及存储介质
CN110597252A (zh) * 2019-09-03 2019-12-20 安徽江淮汽车集团股份有限公司 自动驾驶汽车融合定位控制方法、装置、设备及存储介质
CN111006655A (zh) * 2019-10-21 2020-04-14 南京理工大学 机场巡检机器人多场景自主导航定位方法
CN111024062B (zh) * 2019-12-31 2022-03-29 芜湖哈特机器人产业技术研究院有限公司 基于伪gnss及ins的制图***
CN111024062A (zh) * 2019-12-31 2020-04-17 芜湖哈特机器人产业技术研究院有限公司 基于伪gnss及ins的制图***
CN111693042A (zh) * 2020-05-06 2020-09-22 上海燧方智能科技有限公司 一种自动驾驶装置精准定位的方法及***
CN111337037A (zh) * 2020-05-19 2020-06-26 北京数字绿土科技有限公司 移动激光雷达slam制图装置及数据处理方法
CN111337037B (zh) * 2020-05-19 2020-09-29 北京数字绿土科技有限公司 移动激光雷达slam制图装置及数据处理方法
CN111721298A (zh) * 2020-06-24 2020-09-29 重庆赛迪奇智人工智能科技有限公司 一种slam室外大场景精准定位方法
CN112033422A (zh) * 2020-08-28 2020-12-04 的卢技术有限公司 一种多传感器融合的slam方法
CN112033422B (zh) * 2020-08-28 2023-11-21 的卢技术有限公司 一种多传感器融合的slam方法
CN112068168A (zh) * 2020-09-08 2020-12-11 中国电子科技集团公司第五十四研究所 一种基于视觉误差补偿的地质灾害未知环境组合导航方法
CN112068168B (zh) * 2020-09-08 2024-03-15 中国电子科技集团公司第五十四研究所 一种基于视觉误差补偿的地质灾害未知环境组合导航方法
CN112284396A (zh) * 2020-10-29 2021-01-29 的卢技术有限公司 一种适用于地下停车场的车辆定位方法
CN112284396B (zh) * 2020-10-29 2023-01-03 的卢技术有限公司 一种适用于地下停车场的车辆定位方法
CN112489176A (zh) * 2020-11-26 2021-03-12 香港理工大学深圳研究院 一种融合ESKF,g2o和点云匹配的紧耦合建图方法
CN113310487A (zh) * 2021-05-25 2021-08-27 云南电网有限责任公司电力科学研究院 一种面向地面移动机器人的组合导航方法和装置
CN114674313A (zh) * 2022-03-31 2022-06-28 淮阴工学院 一种基于ckf算法的gps/bds和sins融合的无人配送车导航定位方法

Also Published As

Publication number Publication date
CN106780699B (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN106780699A (zh) 一种基于sins/gps和里程计辅助的视觉slam方法
CN109631887B (zh) 基于双目、加速度与陀螺仪的惯性导航高精度定位方法
CN106679648B (zh) 一种基于遗传算法的视觉惯性组合的slam方法
CN107796391A (zh) 一种捷联惯性导航***/视觉里程计组合导航方法
CN109991636A (zh) 基于gps、imu以及双目视觉的地图构建方法及***
CN104075715B (zh) 一种结合地形和环境特征的水下导航定位方法
CN108731670A (zh) 基于量测模型优化的惯性/视觉里程计组合导航定位方法
CN103697889B (zh) 一种基于多模型分布式滤波的无人机自主导航与定位方法
CN107229063A (zh) 一种基于gnss和视觉里程计融合的无人驾驶汽车导航定位精度矫正方法
CN108225308A (zh) 一种基于四元数的扩展卡尔曼滤波算法的姿态解算方法
CN105953796A (zh) 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN104729506A (zh) 一种视觉信息辅助的无人机自主导航定位方法
CN106017463A (zh) 一种基于定位传感装置的飞行器定位方法
CN111024072B (zh) 一种基于深度学习的卫星地图辅助导航定位方法
CN105509739A (zh) 采用固定区间crts平滑的ins/uwb紧组合导航***及方法
Randeniya et al. Vision–IMU integration using a slow-frame-rate monocular vision system in an actual roadway setting
CN105737823A (zh) 基于五阶ckf的gps/sins/cns组合导航方法
CN106840211A (zh) 一种基于kf和stupf组合滤波的sins大方位失准角初始对准方法
Dumble et al. Airborne vision-aided navigation using road intersection features
CN104949673B (zh) 一种基于非视觉感知信息的目标定位方法及装置
CN109080648B (zh) 一种轨道检测方法及轨检小车
CN114002725A (zh) 一种车道线辅助定位方法、装置、电子设备及存储介质
Samadzadegan et al. Autonomous navigation of Unmanned Aerial Vehicles based on multi-sensor data fusion
CN115574816B (zh) 仿生视觉多源信息智能感知无人平台
JP2002532770A (ja) 映像に関連してカメラポーズを決定する方法及びシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant