CN103954283A - 基于景象匹配/视觉里程的惯性组合导航方法 - Google Patents

基于景象匹配/视觉里程的惯性组合导航方法 Download PDF

Info

Publication number
CN103954283A
CN103954283A CN201410128459.XA CN201410128459A CN103954283A CN 103954283 A CN103954283 A CN 103954283A CN 201410128459 A CN201410128459 A CN 201410128459A CN 103954283 A CN103954283 A CN 103954283A
Authority
CN
China
Prior art keywords
image
unmanned plane
navigation
point
scene matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410128459.XA
Other languages
English (en)
Other versions
CN103954283B (zh
Inventor
赵春晖
王荣志
张天武
潘泉
马鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Chenxiang Zhuoyue Technology Co ltd
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201410128459.XA priority Critical patent/CN103954283B/zh
Publication of CN103954283A publication Critical patent/CN103954283A/zh
Application granted granted Critical
Publication of CN103954283B publication Critical patent/CN103954283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于景象匹配/视觉里程的惯性组合导航方法,根据视觉里程原理,计算无人机航拍实时图像序列的单应矩阵,通过累积连续两帧实时图之间的相对位移,递推计算出无人机的当前位置;由于视觉里程导航随时间的增加会产生累积误差,因而引入基于FREAK特征的景象匹配算法进行辅助修正,景象匹配具有定位精度高、自主性强、抗电磁干扰等优点,在适配区可以进行高精度定位,有效补偿视觉里程导航长时间工作产生的累积误差;建立惯性导航***的误差模型以及视觉数据的量测模型,通过卡尔曼滤波得出最优估计结果,并对惯性导航***进行校正。本发明有效改善了导航精度,有助于提高无人机自主飞行能力。

Description

基于景象匹配/视觉里程的惯性组合导航方法
技术领域
本发明属于无人机导航定位技术领域,涉及一种基于景象匹配/视觉里程的惯性组合导航方法。 
背景技术
高精度、高动态及高可靠的自主导航是保证无人机顺利完成各种任务的关键技术之一,对于增强无人机自主行为能力,提高作战效能具有十分重要的意义。导航方式分为卫星导航、无线电导航、惯性导航等,其中惯性导航(INS)以其高度自主的突出优点,在导航技术中占有特殊的位置,现有无人机导航***都是以惯性导航为核心构成组合导航***,完成复杂环境下无人机的自主导航。 
目前,无人机导航的最主要方式是INS/GPS组合导航***,但在未知的、动态变化的复杂环境下,GPS信号功率弱,易受到电磁干扰,在信号盲区甚至会停止工作,导致组合导航***出现极大错误,产生不可预估的后果,而我国的北斗卫星导航***处于不断发展阶段,其可靠性和精确性尚难满足诸如军事应用等高精度导航要求。 
发明内容
要解决的技术问题 
为了避免现有技术的不足之处,本发明提出一种基于景象匹配/视觉里程的惯性组合导航方法,实现无人机复杂环境下全自主导航。 
技术方案 
一种基于景象匹配/视觉里程的惯性组合导航方法,其特征在于步骤如下: 
步骤1:在无人机飞行过程中,机载下视摄像机实时获取地面图像a; 
步骤2:利用图像a与前一帧图像a′,确定无人机的视觉里程,步骤如下: 
A、使用Harris角点检测算法分别在连续两帧实时图像a与a′中提取特征点; 
B、在图像a中以(x,y)T为中心的方形区域中搜索与图像a′中的每个特征点(x,y)T具有最高邻域互相关的匹配点;同时,在图像a′中以(x,y)T为中心的方形区域中搜索 与图像a中的每个特征点(x,y)T具有最高邻域互相关的匹配点; 
C、运用RANSAC鲁棒估计方法得到最大的一致点集和单应矩阵H的估计,过程为首先随机抽取4组匹配点对组成一个随机样本,并计算单应矩阵H;然后对步骤B中的每个匹配点对,计算距离dis;再设定阈值t,若dis<t,则此匹配点对为内点,否则剔除,并统计内点数目;重复上述过程k次,选择H; 
D、由划定为内点的所有匹配点对具有最大内点数的H重新估计使用重新获得的H计算出图像a′中与图像a中每个特征点(x,y)T相对应的点(x1,y1)T。并使用步骤B中方法分别在图像a中以(x,y)T为中心的方形区域中搜索与图像a′中的每个特征点(x1,y1)T具有最高邻域互相关的匹配点;同时,在图像a′中以(x1,y1)T为中心的方形区域中搜索与图像a中的每个特征点(x,y)T具有最高邻域互相关的匹配点; 
E、重复步骤B到步骤D,直到匹配点对的数目稳定为止; 
步骤3:当无人机进入适配区时,根据惯性导航***对无人机进行粗定位,在机载存储设备中找到与粗定位结果对应的基准图像b,并与实时图像a进行景象匹配,确定无人机的位置; 
步骤4:在适配区中利用步骤3得到的无人机位置校正视觉里程产生的误差,得到无人机较精确地位置; 
步骤5:利用惯性导航***给出无人机当前的位置和姿态; 
步骤6:使用惯性导航***的误差方程作为组合导航***的状态方程,导航坐标系选择为东北天坐标系,将步骤4中得出位置与步骤5中得出位置的差值作为量测。用卡尔曼滤波器估计出惯性***的漂移误差,并使用该漂移误差校正惯性导航***,得到融合后的导航参数。 
所述步骤3的过程如下:首先无人机机载下视摄像机实时获取地面图像a,对图像a进行预处理,得到图像c;然后提取图像b与图像c的FAST特征;再使用FREAK特征描述符对提取的FAST特征进行描述;利用最近汉明距离的相似性准则进行特征匹配,得到匹配位置,即当前无人机的位置。 
所述地面图像a为光学图像或红外图像。 
有益效果 
本发明提出的一种基于景象匹配/视觉里程的惯性组合导航方法,根据视觉里程原理,计算无人机航拍实时图像序列的单应矩阵,通过累积连续两帧实时图之间的相对位移,递推计算出无人机的当前位置;由于视觉里程导航随时间的增加会产生累积误差,因而引入基于FREAK特征的景象匹配算法进行辅助修正,景象匹配具有定位精度高、自主性强、抗电磁干扰等优点,在适配区可以进行高精度定位,有效补偿视觉里程导航长时间工作产生的累积误差;建立惯性导航***的误差模型以及视觉数据的量测模型,通过卡尔曼滤波得出最优估计结果,并对惯性导航***进行校正。本发明有效改善了导航精度,有助于提高无人机自主飞行能力。 
但是,景象匹配适配区分度的研究表明,只有在适配区的匹配才能够为无人机提供较为可靠的位置信息,而在非适配区如沙漠、海面等,景象匹配是无法正常工作的。 
视觉里程是通过处理连续两帧图像估计运动信息的技术,该技术作为一种新的导航定位方式,已成功应用于自主移动机器人中。在无人机飞行过程中,由于连续两帧图像均为无人机平台下同一传感器、同一时间段、同一条件拍摄的图像,具有相同的噪声分布和成像误差,且不存在自然条件变化造成的成像差异,因此能够在非适配区提供较精确的定位信息;同时,连续两帧图像尺寸相比于景象匹配中基准图尺寸要小得多,因此匹配时间较少,从而提高导航***的实时性。 
因此,本发明提出一种基于景象匹配/视觉里程的无人机惯性组合导航方法,该方法具有自主性强、载荷轻、设备成本低以及抗干扰性强等优点,为无人机导航***的工程应用提供一种可行的技术方案。是一种基于计算机视觉的导航方式,具有定位精度高、抗电子干扰能力强及机载设备尺寸小、成本低等显著优点,可消除惯性导航***长时间工作的累积误差,大幅度提高惯性导航***的定位精度,成为GPS失效、故障或精度下降等情况下的备用导航发法。 
附图说明
图1是本发明的框架流程 
图2是两视图单应变换关系图 
图3是FREAK描述子采样模式 
具体实施方式
现结合实施例、附图对本发明作进一步描述: 
本发明中基于景象匹配/视觉里程的惯性组合导航方法,利用侦察手段获取无人机预定飞行区域的地物景象作为基准图,当携带视觉传感器的无人机飞过预定的区域时,获取当地图像并按像素点分辨率、飞行高度和视场等参数生成一定大小的地物景象作为实时图,通过实时图与基准图的匹配,找出实时图在基准图中的位置,进而确定出无人机当前的准确位置。景象匹配导航精度不受导航时间影响,具备抗电磁干扰能力强、自主性好、精度高、成本低、体积小、信息丰富等优点,将其与惯性导航进行组合能够大大提高导航***的整体性能,因此在无人机导航中开展惯性/景象匹配自主组合导航研究,有利于摆脱外界辅助***,增强无人机的可靠性、机动性、隐蔽性、抗干扰性和生存能力。主要包括惯性导航、景象匹配、视觉里程、融合校正与组合导航卡尔曼滤波五个部分,包括以下步骤: 
第一步,机载下视摄像机实时获取地面图像a,通过估计实时图像a与前一帧实时图像a′的单应矩阵,确定无人机的视觉里程。 
具体实施步骤如下: 
1、运用Harris角点检测算法分别在连续两帧实时图像a与a′中提取特征点; 
2、对a′中的每个特征点(x,y)T,在a中以(x,y)T为中心的方形区域中搜索具有最高邻域互相关的匹配点。同理,对a中的每个特征点在a′中搜索其匹配点,最终确定匹配特征点对; 
3、运用RANSAC鲁棒估计方法得到最大的一致点集并且计算连续两帧实时图像a与a′之间的单应矩阵H。具体流程包括:(1)随机抽取4组匹配点对组成一个随机样本,并计算单应矩阵H;(2)对步骤2中的每个匹配点对,计算距离dis;(3)设定阈值t(t小于实时图边长的一半),若dis<t,则此匹配点对为内点,否则剔除,并统计内点数目;(4)重复上述过程k次,选择具有最大内点数的H; 
4、由划定为内点的所有匹配点重新计算单应矩阵H,并由H决定步骤2中的搜索区域的位置,从而确定更准确的匹配点对; 
5、重复步骤2到步骤4,直到匹配点对的数目稳定为止,并且使用最终确定的稳定匹配点对计算出单应矩阵H。 
6、使用步骤5得到的单应矩阵H,并且根据惯性元件提供的姿态信息与气压高度计提供的高度信息,求出摄像机在拍摄连续两帧图像时的相对位移,通过累积摄像机的位移,利用之前估计的位置,循环地计算出无人机当前的位置。 
第二步,当无人机进入适配区时,根据惯性导航***对无人机进行粗定位,根据粗定位结果,在预先存储的无人机飞行区域航拍基准图中裁剪圆形基准子图像b,基准子图半径需大于惯性元件单位时间平均漂移距离与无人机在两个适配区之间飞行时间乘积的1.5倍。将实时图像a与基准子图像b进行景象匹配,确定无人机的位置。景象匹配具体步骤如下: 
1、分别对实时图像a与基准子图像b进行灰度化,并且提取实时图像a与基准子图像b的FAST特征点。 
2、对每一个FAST特征点求出其FREAK特征描述算子,其步骤如下: 
如图3所示,FREAK以每个特征点为中心构建圆形采样,中心密集,四周稀疏,采样数量以指数形式递减。使用不同的高斯核预平滑每个采样圆,高斯核的标准差与圆的大小成正比。 
FREAK描述子由差分高斯的比特串构成,定义采样圆的准则T为 
Pa代表采样对,I(·)代表平滑后的采样圆强度值。选择N个采样对,定义二进制准则 
F = &Sigma; 0 &le; a < N 2 a T ( P a )
即可得到N维的二进制比特串。 
采样对的选取是一个由粗到精的过程,准则如下: 
a)创建一个能包含5万个特征点的大矩阵D,每行代表一个特征点,通过对每个特征点的43个采样圆强度进行两两比较,得到1000多维描述子; 
b)计算矩阵D每一列的均值与方差,当均值为0.5时方差最大,可以保证特征描述符的独特性。 
c)根据方差的大小对每一列进行排序,方差最大的位于第一列。 
d)保留前N列,对每个特征点进行描述,得到N维二进制比特串。本发明选择N=256。 
如图3,在所有采样圆中选择M(M=45)个对称采样对,计算局部梯度为 
O = 1 M &Sigma; P O &Element; G ( I ( P O r 1 ) - I ( P O r 2 ) ) P O r 1 - P O r 2 | | P O r 1 - P O r 2 | |
对应采样圆的二维向量,I(·)代表平滑后的采样圆强度值。 
3、计算进行匹配的两个特征点FREAK描述符的最近汉明距离。为了滤除误匹配,本发明设置一个阈值10,高于该则直接滤除,低于该阈值的点被认为是相互匹配的两点。 
4、根据步骤2和步骤3中的方法进行特征匹配,通过确定实时图像a中特征点在基准子图像b中的位置来确定实时图像a在基准子图像b中的位置,从而确定飞机当前位置。 
第三步,利用第二步得到的无人机位置校正视觉里程产生的误差,得到无人机较精确的位置Pvision,并通过惯性导航***给出无人机当前的位置Pins与姿态Ains。 
假设在适配区通过景象匹配得到的无人机位置误差很小,在此步骤中直接使用景象匹配的结果对视觉里程计算出的位置进行重置。 
第四步,使用卡尔曼滤波器对Pvision、Pins和Ains进行估计,得到最优导航信息。 
具体实施例如下: 
1、在无人机飞行过程中,机载下视摄像机实时获取地面图像a。 
利用无人机机载的下视光学摄像机或者红外摄像机实时获取地面图像序列,但只需保存当前帧与前一帧图像即可。 
2、利用图像a与前一帧图像a′,通过估计a与a′的单应矩阵,确定无人机的视觉里程。 
如图2所示,无人机在飞行状态下,机载摄像机在不同位姿下连续拍摄两帧图像I1和I2,对应的摄像机坐标系为F和F′,假定平面π上的点P映射为图像I1中的点p和I2中的点p′,对应于F和F′中的向量为则存在 
p &RightArrow; &prime; = R c 1 c 2 p &RightArrow; + t
和t分别代表两次拍摄间无人机的旋转和平移运动。 
由图2,n是c1处相对于平面π的法向量,d是c1到平面π的距离,有 
n T p &RightArrow; = d
因此, 
p &RightArrow; &prime; = R p &RightArrow; + t n T p &RightArrow; d = H c p &RightArrow;
其中, 
H c = R c 1 c 2 + tn T d
称为平面π关于摄像机的单应矩阵。 
考虑摄像机内参数,则 
p = K p &RightArrow; , p &prime; = K p &RightArrow; &prime;
因此, 
p′=KHcK-1p=Hp 
其中, 
H = K ( R c 1 c 2 + tn T d ) K - 1
称为平面π关于两帧图像的单应矩阵。 
根据文献可知,单应矩阵是自由度为8的3×3矩阵,因此需要知道两幅图像之间4组匹配点对来计算,为了防止出现退化,这4组匹配点对所在平面要求不能通过摄像机光心,且空间4个点任意3个点不共线。 
另外,由于摄像机固连在无人机上,可以认为摄像机的姿态与无人机的姿态一致,由机载的惯导器件提供,分别为偏航角ψ、俯仰角θ、横滚角γ,因此有 
R c 1 c 2 = R n c 2 R c 1 n
其中是c2处摄像机坐标系到导航坐标系的旋转矩阵,为 
R n c 2 = cos &gamma; cos &psi; - sin &theta; sin &gamma; sin &psi; cos &gamma; sin &psi; + sin &theta; sin &gamma; cos &psi; - cos &theta; sin &gamma; - cos &theta; sin &psi; cos &theta; cos &psi; sin &theta; sin &gamma; cos &psi; + sin &theta; cos &gamma; sin &psi; sin &gamma; sin &psi; - sin &theta; cos &gamma; cos &psi; cos &theta; cos &gamma;
同理可得
如果假设地面为平面,则n=(0,0,1)T,当计算出单应矩阵后,根据惯导提供的姿态信息与气压高度计提供的高度信息,使用上述公式求出摄像机在拍摄连续两帧图像时的相对位移,通过累积摄像机的位移,利用之前估计的位置,循环地计算出无人机当前的位置。具体实施步骤如下: 
2.1、运用Harris角点检测算法分别在连续两帧实时图像a与a′中提取特征点; 
2.2、对a′中的每个特征点(x,y)T,在a中以(x,y)T为中心的方形区域中搜索具有最高邻域互相关的匹配,对称的,对a中的每个特征点在a′中搜索其匹配,最终确定匹配特征点对; 
2.3、运用RANSAC鲁棒估计方法得到最大的一致点集和单应矩阵H的估计。具体流程包括:(1)随机抽取4组匹配点对组成一个随机样本,并计算单应矩阵H;(2)对步骤B中的每个匹配点对,计算距离dis;(3)设定阈值t,若dis<t,则此匹配点对为内点,否则剔除,并统计内点数目;(4)重复上述过程k次,选择具有最大内点数的H; 
2.4、由划定为内点的所有匹配点对H重新估计,并由H决定步骤2.2中的搜索区域,更准确地确定匹配点对; 
2.5、重复步骤2.2到步骤2.4,直到匹配点对的数目稳定为止。 
3、当无人机进入适配区时,根据惯性导航***对无人机进行粗定位,在机载存储 设备中找到与粗定位结果对应的基准图像b,并与实时图像a进行景象匹配,确定无人机的位置。 
本发明采用基于FREAK描述符的景象匹配算法对实时图与基准图进行匹配,如图3所示,FREAK描述子采用类似视网膜采样模式,以每个特征点为中心构建圆形采样,中心密集,四周稀疏,采样数量以指数形式递减。为了增强采样圆的鲁棒性,提高描述符的稳定性与独特性,使用不同的高斯核预平滑每个采样圆,高斯核的标准差与圆的大小成正比。 
FREAK描述子由差分高斯的比特串构成,定义采样圆的准则T为 
Pa代表采样对,I(·)代表平滑后的采样圆强度值。选择N个采样对,定义二进制准则 
F = &Sigma; 0 &le; a < N 2 a T ( P a )
即可得到N维的二进制比特串。 
采样对的选取是一个由粗到精的过程,准则如下: 
a)创建一个能包含5万个特征点的大矩阵D,每行代表一个特征点,通过对每个特征点的43个采样圆强度进行两两比较,得到1000多维描述子; 
b)计算矩阵D每一列的均值与方差,当均值为0.5时方差最大,可以保证特征描述符的独特性。 
c)根据方差的大小对每一列进行排序,方差最大的位于第一列。 
d)保留前N列,对每个特征点进行描述,得到N维二进制比特串。本文选择N=256。 
采样对的选取准则保证了描述符的灰度不变性。 
如图3,在所有采样圆中选择M(M=45)个对称采样对,计算局部梯度为 
O = 1 M &Sigma; P O &Element; G ( I ( P O r 1 ) - I ( P O r 2 ) ) P O r 1 - P O r 2 | | P O r 1 - P O r 2 | |
对应采样圆的二维向量,I(·)代表平滑后的采样圆强度值。采样对的对称性保证了描述子的旋转不变性。 
FREAK描述符是1和0组成的二进制比特串,因此相似性准则采用最近汉明距离方法,即对进行匹配的两个描述符按位进行异或操作。针对512维FREAK描述符,最大汉明距离为512,最小为0,为了滤除误匹配,设置一个阈值T,高于T则直接滤除,本文中阈值设为10。 
4、在适配区中利用景象匹配得到的无人机位置校正视觉里程产生的误差,得到无人机较精确地位置。 
由于在适配区中景象匹配的定位结果是可靠的,因此直接利用景象匹配得到的无人机位置对视觉里程计算得到的位置进行重置,消除视觉里程长时间工作产生的累积误差。 
5、利用惯性导航***给出无人机当前的位置和姿态。 
6、利用卡尔曼滤波算法估计无人机当前的精确位置和姿态。 
使用惯性导航***的误差方程作为组合导航***的状态方程,导航坐标系选择为东北天坐标系,将4中位置与5中位置的差值作为量测值,用卡尔曼滤波器估计出惯性***的漂移误差,然后校正惯性导航***,得到融合后的导航参数。 

Claims (3)

1.一种基于景象匹配/视觉里程的惯性组合导航方法,其特征在于步骤如下:
步骤1:在无人机飞行过程中,机载下视摄像机实时获取地面图像a;
步骤2:利用图像a与前一帧图像a′,确定无人机的视觉里程,步骤如下:
A、使用Harris角点检测算法分别在连续两帧实时图a与a′中提取特征点;
B、在图像a中以(x,y)T为中心的方形区域中搜索与图像a′中的每个特征点(x,y)T具有最高邻域互相关的匹配点;同时,在图像a′中以(x,y)T为中心的方形区域中搜索与图像a中的每个特征点(x,y)T具有最高邻域互相关的匹配点;
C、运用RANSAC鲁棒估计方法得到最大的一致点集和单应矩阵H的估计,过程为首先随机抽取4组匹配点对组成一个随机样本,并计算单应矩阵H;然后对步骤B中的每个匹配点对,计算距离dis;再设定阈值t,若dis<t,则此匹配点对为内点,否则剔除,并统计内点数目;重复上述过程k次,选择H;
D、由划定为内点的所有匹配点对具有最大内点数的H重新估计,使用重新获得的H计算出图像a′中与图像a中每个特征点(x,y)T相对应的点(x1,y1)T。并使用步骤B中方法分别在图像a中以(x,y)T为中心的方形区域中搜索与图像a′中的每个特征点(x1,y1)T具有最高邻域互相关的匹配点;同时,在图像a′中以(x1,y1)T为中心的方形区域中搜索与图像a中的每个特征点(x,y)T具有最高邻域互相关的匹配点;
E、重复步骤B到步骤D,直到匹配点对的数目稳定为止;
步骤3:当无人机进入适配区时,根据惯性导航***对无人机进行粗定位,在机载存储设备中找到与粗定位结果对应的基准图b,并与实时图a进行景象匹配,确定无人机的位置;
步骤4:在适配区中利用步骤3得到的无人机位置校正视觉里程产生的误差,得到无人机较精确地位置;
步骤5:利用惯性导航***给出无人机当前的位置和姿态;
步骤6:使用惯性导航***的误差方程作为组合导航***的状态方程,导航坐标系选择为东北天坐标系,将步骤4中得出位置与步骤5中得出位置的差值作为量测。用卡尔曼滤波器估计出惯性***的漂移误差,并使用该漂移误差校正惯性导航***,得到融合后的导航参数。
2.根据权利要求1所述基于景象匹配/视觉里程的惯性组合导航方法,其特征在于:所述地面图像a为光学图像或红外图像。
3.根据权利要求1所述基于景象匹配/视觉里程的惯性组合导航方法,其特征在于:所述步骤3的过程如下:首先无人机机载下视摄像机实时获取地面图像a,对图像a进行预处理,得到图像c;然后提取图像b与图像c的FAST特征;再使用FREAK特征描述符对提取的FAST特征进行描述;利用最近汉明距离的相似性准则进行特征匹配,得到匹配位置,即当前无人机的位置。
CN201410128459.XA 2014-04-01 2014-04-01 基于景象匹配/视觉里程的惯性组合导航方法 Active CN103954283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410128459.XA CN103954283B (zh) 2014-04-01 2014-04-01 基于景象匹配/视觉里程的惯性组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410128459.XA CN103954283B (zh) 2014-04-01 2014-04-01 基于景象匹配/视觉里程的惯性组合导航方法

Publications (2)

Publication Number Publication Date
CN103954283A true CN103954283A (zh) 2014-07-30
CN103954283B CN103954283B (zh) 2016-08-31

Family

ID=51331593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410128459.XA Active CN103954283B (zh) 2014-04-01 2014-04-01 基于景象匹配/视觉里程的惯性组合导航方法

Country Status (1)

Country Link
CN (1) CN103954283B (zh)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105045276A (zh) * 2015-07-03 2015-11-11 深圳一电科技有限公司 无人机飞行控制方法及装置
CN105180933A (zh) * 2015-09-14 2015-12-23 中国科学院合肥物质科学研究院 基于直行路口检测的移动机器人航迹推算修正***及方法
CN105222772A (zh) * 2015-09-17 2016-01-06 泉州装备制造研究所 一种基于多源信息融合的高精度运动轨迹检测***
CN105374043A (zh) * 2015-12-02 2016-03-02 福州华鹰重工机械有限公司 视觉里程计背景过滤方法及装置
CN105675013A (zh) * 2014-11-21 2016-06-15 中国飞行试验研究院 民用飞机惯导动态校准方法
CN105865451A (zh) * 2016-04-19 2016-08-17 深圳市神州云海智能科技有限公司 用于移动机器人室内定位的方法和设备
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN107067415A (zh) * 2017-03-21 2017-08-18 南京航空航天大学 一种基于图像匹配的目标快速精确定位方法
CN107167140A (zh) * 2017-05-26 2017-09-15 江苏大学 一种无人机视觉定位累积误差抑制方法
CN107270904A (zh) * 2017-06-23 2017-10-20 西北工业大学 基于图像配准的无人机辅助引导控制***及方法
CN107462244A (zh) * 2017-04-24 2017-12-12 北京航空航天大学 一种基于gps定位和航摄图像匹配的航空遥感平台姿态角高精度测量方法
CN107498559A (zh) * 2017-09-26 2017-12-22 珠海市微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
CN107843240A (zh) * 2017-09-14 2018-03-27 中国人民解放军92859部队 一种海岸带区域无人机影像同名点信息快速提取方法
CN107967691A (zh) * 2016-10-20 2018-04-27 株式会社理光 一种视觉里程计算方法和装置
CN108196285A (zh) * 2017-11-30 2018-06-22 中山大学 一种基于多传感器融合的精确定位***
CN108544494A (zh) * 2018-05-31 2018-09-18 珠海市微半导体有限公司 一种基于惯性和视觉特征的定位装置、方法及机器人
CN108846857A (zh) * 2018-06-28 2018-11-20 清华大学深圳研究生院 视觉里程计的测量方法及视觉里程计
CN108981692A (zh) * 2018-06-14 2018-12-11 兰州晨阳启创信息科技有限公司 一种基于惯导/视觉里程计的列车定位方法及***
CN109102013A (zh) * 2018-08-01 2018-12-28 重庆大学 一种适于隧道环境特性的改进freak特征点匹配稳像方法
CN109143305A (zh) * 2018-09-30 2019-01-04 百度在线网络技术(北京)有限公司 车辆导航方法和装置
CN109341700A (zh) * 2018-12-04 2019-02-15 中国航空工业集团公司西安航空计算技术研究所 一种低能见度下固定翼飞机视觉辅助着陆导航方法
CN109341685A (zh) * 2018-12-04 2019-02-15 中国航空工业集团公司西安航空计算技术研究所 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
CN109360295A (zh) * 2018-10-31 2019-02-19 张维玲 一种基于像差分析的里程测量***及方法
CN109523579A (zh) * 2018-11-12 2019-03-26 北京联海信息***有限公司 一种无人机视频图像与三维地图的匹配方法和装置
CN109791048A (zh) * 2016-08-01 2019-05-21 无限增强现实以色列有限公司 使用场景捕获数据校准惯性测量单元(imu)的组件的方法和***
CN109782012A (zh) * 2018-12-29 2019-05-21 中国电子科技集团公司第二十研究所 一种基于光电图像特征关联的测速方法
CN110388939A (zh) * 2018-04-23 2019-10-29 湖南海迅自动化技术有限公司 一种基于航拍图像匹配的车载惯导定位误差修正方法
CN111238488A (zh) * 2020-03-18 2020-06-05 湖南云顶智能科技有限公司 一种基于异源图像匹配的飞行器精确定位方法
CN112577493A (zh) * 2021-03-01 2021-03-30 中国人民解放军国防科技大学 一种基于遥感地图辅助的无人机自主定位方法及***
CN113390410A (zh) * 2021-08-04 2021-09-14 北京云恒科技研究院有限公司 一种适用于无人机的惯性组合导航方法
CN113432594A (zh) * 2021-07-05 2021-09-24 北京鑫海宜科技有限公司 一种基于地图与环境的无人机自动导航***
CN114265427A (zh) * 2021-12-06 2022-04-01 江苏方天电力技术有限公司 一种基于红外图像匹配的巡检无人机辅助导航***及方法
CN116518981B (zh) * 2023-06-29 2023-09-22 中国人民解放军国防科技大学 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107796417B (zh) * 2016-09-06 2021-02-05 北京自动化控制设备研究所 一种自适应估计景象匹配与惯导安装误差的方法
CN107966147B (zh) * 2016-10-20 2021-02-05 北京自动化控制设备研究所 一种大机动情况下景象匹配的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6856894B1 (en) * 2003-10-23 2005-02-15 International Business Machines Corporation Navigating a UAV under remote control and manual control with three dimensional flight depiction
EP1975646A2 (en) * 2007-03-28 2008-10-01 Honeywell International Inc. Lader-based motion estimation for navigation
CN101598556A (zh) * 2009-07-15 2009-12-09 北京航空航天大学 一种未知环境下无人机视觉/惯性组合导航方法
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN102538781A (zh) * 2011-12-14 2012-07-04 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN102829785A (zh) * 2012-08-30 2012-12-19 中国人民解放军国防科学技术大学 基于序列图像和基准图匹配的飞行器全参数导航方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6856894B1 (en) * 2003-10-23 2005-02-15 International Business Machines Corporation Navigating a UAV under remote control and manual control with three dimensional flight depiction
EP1975646A2 (en) * 2007-03-28 2008-10-01 Honeywell International Inc. Lader-based motion estimation for navigation
CN101598556A (zh) * 2009-07-15 2009-12-09 北京航空航天大学 一种未知环境下无人机视觉/惯性组合导航方法
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN102538781A (zh) * 2011-12-14 2012-07-04 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN102829785A (zh) * 2012-08-30 2012-12-19 中国人民解放军国防科学技术大学 基于序列图像和基准图匹配的飞行器全参数导航方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
庄瞳等: "一种基于单目视觉的微型无人机姿态算法", 《计算机工程》 *
李耀军等: "基于空间关系几何约束的无人机景象匹配导航", 《计算机应用研究》 *
陈方等: "惯性组合导航***中的快速景象匹配算法研究", 《宇航学报》 *

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105675013A (zh) * 2014-11-21 2016-06-15 中国飞行试验研究院 民用飞机惯导动态校准方法
CN105675013B (zh) * 2014-11-21 2019-03-01 中国飞行试验研究院 民用飞机惯导动态校准方法
CN105045276A (zh) * 2015-07-03 2015-11-11 深圳一电科技有限公司 无人机飞行控制方法及装置
CN105180933A (zh) * 2015-09-14 2015-12-23 中国科学院合肥物质科学研究院 基于直行路口检测的移动机器人航迹推算修正***及方法
CN105180933B (zh) * 2015-09-14 2017-11-21 中国科学院合肥物质科学研究院 基于直行路口检测的移动机器人航迹推算修正***及方法
CN105222772B (zh) * 2015-09-17 2018-03-16 泉州装备制造研究所 一种基于多源信息融合的高精度运动轨迹检测***
CN105222772A (zh) * 2015-09-17 2016-01-06 泉州装备制造研究所 一种基于多源信息融合的高精度运动轨迹检测***
CN105374043A (zh) * 2015-12-02 2016-03-02 福州华鹰重工机械有限公司 视觉里程计背景过滤方法及装置
CN105865451A (zh) * 2016-04-19 2016-08-17 深圳市神州云海智能科技有限公司 用于移动机器人室内定位的方法和设备
CN105865451B (zh) * 2016-04-19 2019-10-01 深圳市神州云海智能科技有限公司 用于移动机器人室内定位的方法和设备
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN109791048A (zh) * 2016-08-01 2019-05-21 无限增强现实以色列有限公司 使用场景捕获数据校准惯性测量单元(imu)的组件的方法和***
US11125581B2 (en) 2016-08-01 2021-09-21 Alibaba Technologies (Israel) LTD. Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data
CN107967691B (zh) * 2016-10-20 2021-11-23 株式会社理光 一种视觉里程计算方法和装置
CN107967691A (zh) * 2016-10-20 2018-04-27 株式会社理光 一种视觉里程计算方法和装置
CN107067415B (zh) * 2017-03-21 2019-07-30 南京航空航天大学 一种基于图像匹配的目标定位方法
CN107067415A (zh) * 2017-03-21 2017-08-18 南京航空航天大学 一种基于图像匹配的目标快速精确定位方法
CN107462244A (zh) * 2017-04-24 2017-12-12 北京航空航天大学 一种基于gps定位和航摄图像匹配的航空遥感平台姿态角高精度测量方法
CN107167140B (zh) * 2017-05-26 2019-11-08 江苏大学 一种无人机视觉定位累积误差抑制方法
CN107167140A (zh) * 2017-05-26 2017-09-15 江苏大学 一种无人机视觉定位累积误差抑制方法
CN107270904B (zh) * 2017-06-23 2020-07-03 西北工业大学 基于图像配准的无人机辅助引导控制***及方法
CN107270904A (zh) * 2017-06-23 2017-10-20 西北工业大学 基于图像配准的无人机辅助引导控制***及方法
CN107843240A (zh) * 2017-09-14 2018-03-27 中国人民解放军92859部队 一种海岸带区域无人机影像同名点信息快速提取方法
CN107498559A (zh) * 2017-09-26 2017-12-22 珠海市微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
CN108196285A (zh) * 2017-11-30 2018-06-22 中山大学 一种基于多传感器融合的精确定位***
CN110388939A (zh) * 2018-04-23 2019-10-29 湖南海迅自动化技术有限公司 一种基于航拍图像匹配的车载惯导定位误差修正方法
CN108544494B (zh) * 2018-05-31 2023-10-24 珠海一微半导体股份有限公司 一种基于惯性和视觉特征的定位装置、方法及机器人
CN108544494A (zh) * 2018-05-31 2018-09-18 珠海市微半导体有限公司 一种基于惯性和视觉特征的定位装置、方法及机器人
CN108981692A (zh) * 2018-06-14 2018-12-11 兰州晨阳启创信息科技有限公司 一种基于惯导/视觉里程计的列车定位方法及***
CN108846857A (zh) * 2018-06-28 2018-11-20 清华大学深圳研究生院 视觉里程计的测量方法及视觉里程计
CN109102013A (zh) * 2018-08-01 2018-12-28 重庆大学 一种适于隧道环境特性的改进freak特征点匹配稳像方法
CN109143305A (zh) * 2018-09-30 2019-01-04 百度在线网络技术(北京)有限公司 车辆导航方法和装置
CN109360295A (zh) * 2018-10-31 2019-02-19 张维玲 一种基于像差分析的里程测量***及方法
CN109523579A (zh) * 2018-11-12 2019-03-26 北京联海信息***有限公司 一种无人机视频图像与三维地图的匹配方法和装置
CN109341700A (zh) * 2018-12-04 2019-02-15 中国航空工业集团公司西安航空计算技术研究所 一种低能见度下固定翼飞机视觉辅助着陆导航方法
CN109341685B (zh) * 2018-12-04 2023-06-30 中国航空工业集团公司西安航空计算技术研究所 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
CN109341685A (zh) * 2018-12-04 2019-02-15 中国航空工业集团公司西安航空计算技术研究所 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
CN109782012A (zh) * 2018-12-29 2019-05-21 中国电子科技集团公司第二十研究所 一种基于光电图像特征关联的测速方法
CN111238488A (zh) * 2020-03-18 2020-06-05 湖南云顶智能科技有限公司 一种基于异源图像匹配的飞行器精确定位方法
CN112577493A (zh) * 2021-03-01 2021-03-30 中国人民解放军国防科技大学 一种基于遥感地图辅助的无人机自主定位方法及***
CN113432594A (zh) * 2021-07-05 2021-09-24 北京鑫海宜科技有限公司 一种基于地图与环境的无人机自动导航***
CN113390410A (zh) * 2021-08-04 2021-09-14 北京云恒科技研究院有限公司 一种适用于无人机的惯性组合导航方法
CN114265427A (zh) * 2021-12-06 2022-04-01 江苏方天电力技术有限公司 一种基于红外图像匹配的巡检无人机辅助导航***及方法
CN114265427B (zh) * 2021-12-06 2024-02-02 江苏方天电力技术有限公司 一种基于红外图像匹配的巡检无人机辅助导航***及方法
CN116518981B (zh) * 2023-06-29 2023-09-22 中国人民解放军国防科技大学 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法

Also Published As

Publication number Publication date
CN103954283B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
CN103954283B (zh) 基于景象匹配/视觉里程的惯性组合导航方法
CN105865454B (zh) 一种基于实时在线地图生成的无人机导航方法
CN102435188B (zh) 一种用于室内环境的单目视觉/惯性全自主导航方法
US8213706B2 (en) Method and system for real-time visual odometry
CN106097304B (zh) 一种无人机实时在线地图生成方法
EP2503510B1 (en) Wide baseline feature matching using collaborative navigation and digital terrain elevation data constraints
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN105678754A (zh) 一种无人机实时地图重建方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN108917753B (zh) 基于从运动恢复结构的飞行器位置确定方法
CN102607532B (zh) 一种利用飞控数据的低空影像快速匹配方法
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN115406447B (zh) 拒止环境下基于视觉惯性的四旋翼无人机自主定位方法
CN114693754A (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与***
Warren et al. High altitude stereo visual odometry
Abdi et al. Pose estimation of unmanned aerial vehicles based on a vision-aided multi-sensor fusion
Hosen et al. Vision-aided nonlinear observer for fixed-wing unmanned aerial vehicle navigation
CN112945233B (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Fusini et al. Experimental validation of a uniformly semi-globally exponentially stable non-linear observer for gnss-and camera-aided inertial navigation for fixed-wing uavs
CN109341685B (zh) 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
Beauvisage et al. Multimodal visual-inertial odometry for navigation in cold and low contrast environment
CN114723920A (zh) 一种基于点云地图的视觉定位方法
Hosen et al. A vision-aided nonlinear observer for fixed-wing UAV navigation
Liu et al. 6-DOF motion estimation using optical flow based on dual cameras
CN113239936A (zh) 一种基于深度学习与特征点提取的无人机视觉导航方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190826

Address after: Room 404, Material Building, Northwest Polytechnic University, 127 Youyi West Road, Xi'an City, Shaanxi Province, 710072

Patentee after: Xi'an Northwestern Polytechnical University Asset Management Co.,Ltd.

Address before: 710072 Xi'an friendship West Road, Shaanxi, No. 127

Patentee before: Northwestern Polytechnical University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191113

Address after: 710072 floor 19, building B, innovation and technology building, northwest Polytechnic University, No.127, Youyi West Road, Beilin District, Xi'an, Shaanxi Province

Patentee after: Shaanxi CISCO Rudi Network Security Technology Co.,Ltd.

Address before: Room 404, Material Building, Northwest Polytechnic University, 127 Youyi West Road, Xi'an City, Shaanxi Province, 710072

Patentee before: Xi'an Northwestern Polytechnical University Asset Management Co.,Ltd.

TR01 Transfer of patent right
CP01 Change in the name or title of a patent holder

Address after: Floor 19, block B, innovation and technology building, Northwest University of technology, 127 Youyi West Road, Beilin District, Xi'an City, Shaanxi Province, 710072

Patentee after: Shaanxi University of technology Ruidi Information Technology Co.,Ltd.

Address before: Floor 19, block B, innovation and technology building, Northwest University of technology, 127 Youyi West Road, Beilin District, Xi'an City, Shaanxi Province, 710072

Patentee before: Shaanxi CISCO Rudi Network Security Technology Co.,Ltd.

CP01 Change in the name or title of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20231008

Address after: 518000 Unit 204, Xingyuanju 2, Xilihu Road, Xili Street, Nanshan District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Onoan Technology Co.,Ltd.

Address before: Floor 19, block B, innovation and technology building, Northwest University of technology, 127 Youyi West Road, Beilin District, Xi'an City, Shaanxi Province, 710072

Patentee before: Shaanxi University of technology Ruidi Information Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231220

Address after: 710000, No. 581, East Zone, National E-commerce Demonstration Base, No. 528 Tianguba Road, Software New City, High tech Zone, Xi'an City, Shaanxi Province

Patentee after: Xi'an Chenxiang Zhuoyue Technology Co.,Ltd.

Address before: 518000 Unit 204, Xingyuanju 2, Xilihu Road, Xili Street, Nanshan District, Shenzhen, Guangdong Province

Patentee before: Shenzhen Onoan Technology Co.,Ltd.

TR01 Transfer of patent right