CN109871024A - 一种基于轻量级视觉里程计的无人机位姿估计方法 - Google Patents
一种基于轻量级视觉里程计的无人机位姿估计方法 Download PDFInfo
- Publication number
- CN109871024A CN109871024A CN201910008794.9A CN201910008794A CN109871024A CN 109871024 A CN109871024 A CN 109871024A CN 201910008794 A CN201910008794 A CN 201910008794A CN 109871024 A CN109871024 A CN 109871024A
- Authority
- CN
- China
- Prior art keywords
- characteristic point
- unmanned plane
- point
- binaryzation
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于轻量级视觉里程计的无人机位姿估计方法。通过安装在无人机上的深度相机对无人机前方视场环境进信息采集,获取无人机前方视场环境中的空间点的二维图像信息和三维坐标信息;利用改进SIFT特征匹配算法,处理获得初步匹配的匹配点对:利用随机一致性算法剔除候选特征点中的误匹配点,得到精确匹配的匹配点对;利用精确匹配的匹配点对求解无人机运动参数,进而求得无人机位置的变化量和姿态角。本发明方法减少了无人机所携带的设备而且价格相对较低。同时,视觉信号稳定,稳定性强,不存在累积误差,能够提高无人机自主位姿估计的准确性和鲁棒性。
Description
技术领域
本发明涉及了一种无人机位姿估计方法,特别涉及了一种基于轻量级视觉里程计的无人机位姿估计方法。
背景技术
近年来,无人机因其操作方便、结构稳定、无人驾驶以及机动灵活等优点,进而在目标跟踪与定位、航拍勘测、消防营救等领域得到了广泛的应用。显然,利用无人机进行目标跟踪与定位、无人机自主降落、无人机位姿控制等问题中,无人机位姿态的确定是必不可少的重要环节,也一直是一个无法回避的技术难题。
目前,在传统无人机导航中,无人机依靠GPS和IMU进行自身位姿信息的获取。然而在很多环境中GPS信号容易出现缺失的情况,例如在室内,无人机便无法确定自己的位置信息。与此同时,IMU根据陀螺仪和加速度计的姿态变化,通过积分的方式获取位姿信息的。但是在实际应用中往往会产生累计误差,进而降低位姿估计的精度。
发明内容
为了解决现有技术的缺点与不足,本发明提供一种基于轻量级视觉里程计的无人机位姿估计方法。
如图1所示,本发明的目的通过以下步骤的技术方案实现:
1)通过安装在无人机上的深度相机对无人机前方视场环境进信息采集,获取无人机前方视场环境中的空间点的二维图像信息和三维坐标信息;
2)对步骤1)获取的二维图像信息,利用改进SIFT特征匹配算法,处理获得初步匹配的匹配点对;
3)对步骤2)获取的初步匹配的特征点对,利用随机一致性算法(RANSAC)剔除候选特征点中的误匹配点,得到精确匹配的匹配点对;
4)利用精确匹配的匹配点对求解无人机运动参数,进而求得无人机位置的变化量和姿态角。
所述步骤2)具体为:首先进行特征点检测;其次对获取的特征点进行二值化的特征点描述;以二值化的特征点描述对相邻两幅图像间的特征点进行粗匹配,获取初步匹配的匹配点对。
所述步骤2)改进SIFT特征匹配算法具体包括以下步骤:
2.1)进行特征点检测:由二维图像建立二维图像空间,接着由二维图像进行降采样处理后再和高斯核函数进行卷积处理获得不同图像尺寸的采样图像并构成高斯尺度空间,然后由高斯尺度空间中的每相邻两层采样图像作差得到不同的DoG尺度图像并构成了DoG尺度空间,在DoG尺度空间中检测极值点(Blob)作为特征点;且在针对DoG尺度空间中的每个像素点进行检测极值点时,每个像素点与同尺度的DoG尺度图像中的8个相邻像素点和上、下相邻尺度的DoG尺度图像中的各9像素点的共计26个像素点进行比较,这样能确保在尺度空间和二维图像空间中均能检测到极值点;
2.2)对获取的特征点进行特征点描述得到特征点的梯度特征向量,将特征点的梯度特征向量进行二值化,获得二值化梯度特征向量,具体公式为:
其中,a为二值化阈值,f表示特征点的梯度特征向量,f=[f1,f2,,f128],fi表示梯度特征向量中的第i个梯度信息,bi表示二值化后的第i个梯度信息;
2.3)通过上述步骤2.1)~2.2)获得每一幅图像的特征点并二值化描述处理,对相邻两帧图像间的特征点进行粗匹配,获取候选特征点:
对相邻两帧图像,采用特征点的二值化梯度特征向量间的欧式距离作为两帧图像中特征点相似性的判定度量,取两帧图像中特征点的二值化梯度特征向量间的欧式距离最近的一对特征点和欧式距离次近的一对特征点,在这两对特征点中,如果最近的欧式距离除以次近的欧式距离少于预设比例阈值,则判断欧式距离最近的一对特征点相似,作为匹配点对,舍去欧式距离次近的一对特征点;
2.4)重复上述步骤2.2)过程,直到得到两帧图像中满足条件的所有匹配点对。
通过上述改进SIFT特征匹配算法这样处理后能大大减少数据表征计算量,既能保证匹配点获得的准确性,又能缩短匹配计算中的时间。
所述步骤4)中,求解无人机运动参数的计算方式如下:
4.1)首先建立如下无人机运动参数公式:
然后构建残差平方和函数min{R,T},用最小二乘法求解获得目标函数最小时的旋转矩阵R和平移向量T;:
min{R,T}=||Pqj-(RPpj+T)||2
式中,Ppj和Pqj分别为相邻两帧序列图像中匹配点对的两个特征点对应的三维坐标,由步骤3)得到的精确匹配的特征点和步骤1)获取的三维坐标信息结合得到;上角标p代表前一帧图像,上角标q代表后一帧图像,j为精确匹配的匹配点对的序数,x,y,z代表三维坐标;||||表示向量绝对值;
4.2)采用以下公式求解无人机位置的变化量和姿态角:
其中,θ、ψ对应横滚角、俯仰角、偏航角,r11-r33表示为旋转矩阵R中的各个元素,t为无人机空间位置的变化量。
所述的深度相机采用real senseD435深度相机。
本发明仅使用real senseD435深度相机进行信息采集,减少无人机位姿估计时所携带设备,同时深度相机能够直接获取空间点的三维坐标信息。
不同于传统的视觉里程计,现有的SIFT算法在特征点描述阶段消耗了大量的时间,存在实时性差的问题,本发明利用改进的SIFI特征匹配算法进行特征点匹配,将SIFT特征向量进行二值化,从而显著提高无人机位姿估计的效率和准确性。
本发明与现有技术相比,具有如下有点和有益效果:
1、本发明提出的方法,减少了无人机所携带的设备而且价格相对较低。
2、本发明采用real senseD435深度相机获取空间点的二维图像信息和三维坐标信息,避免了单目里程计需要多次变换坐标系并经过大量计算才能求解出空间点的三维坐标,提高了计算的速度与精度。
3、本发明提出将SIFT特征向量进行二值化,在实现提高保证检测精度的同时,解决了传统视觉里程计使用SIFT算法在特征点描述阶段消耗大量时间,进而导致实时性差的问题。
附图说明
图1是本发明方法的逻辑流程图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
如图1所示,本发明的具体实施例如下:
1)通过安装在无人机上的real senseD435深度相机对无人机前方视场环境进信息采集,获取无人机前方视场环境中的空间点的二维图像信息和三维坐标信息;
2)对步骤1)获取的二维图像信息,利用改进SIFT特征匹配算法,处理获得初步匹配的匹配点对:
2.1)进行特征点检测:由二维图像建立二维图像空间,接着由二维图像进行降采样处理后再和高斯核函数进行卷积处理获得不同图像尺寸的采样图像并构成高斯尺度空间,然后由高斯尺度空间中的每相邻两层采样图像作差得到不同的DoG尺度图像并构成了DoG尺度空间,在DoG尺度空间中检测极值点(Blob)作为特征点;且在针对DoG尺度空间中的每个像素点进行检测极值点时,每个像素点与同尺度的DoG尺度图像中的8个相邻像素点和上、下相邻尺度的DoG尺度图像中的各9像素点的共计26个像素点进行比较,这样能确保在尺度空间和二维图像空间中均能检测到极值点;
2.2)对获取的特征点进行特征点描述得到特征点的梯度特征向量,将特征点的梯度特征向量进行二值化,获得二值化梯度特征向量,具体公式为:
其中,a为二值化阈值,取f的中值,f表示特征点的梯度特征向量,f=[f1,f2,,f128],fi表示梯度特征向量中的第i个梯度信息,bi表示二值化后的第i个梯度信息;
2.3)通过上述步骤2.1)~2.2)获得每一幅图像的特征点并二值化描述处理,对相邻两帧图像间的特征点进行粗匹配,获取候选特征点:
对相邻两帧图像,采用特征点的二值化梯度特征向量间的欧式距离作为两帧图像中特征点相似性的判定度量,取两帧图像中特征点的二值化梯度特征向量间的欧式距离最近的一对特征点和欧式距离次近的一对特征点,在这两对特征点中,如果最近的欧式距离除以次近的欧式距离少于预设比例阈值,则判断欧式距离最近的一对特征点相似,作为匹配点对,舍去欧式距离次近的一对特征点;
2.4)重复上述步骤2.2)过程,直到得到两帧图像中满足条件的所有匹配点对。
3)对步骤2)获取的初步匹配的特征点对,利用随机一致性算法(RANSAC)剔除候选特征点中的误匹配点,得到精确匹配的匹配点对;
4)利用精确匹配的匹配点对求解无人机运动参数,进而求得无人机位置的变化量和姿态角:
4.1)首先建立如下方程组:
然后构建残差平方和函数min{R,T},求解获得目标函数最小时的旋转矩阵R和平移向量T;
min{R,T}=||Pqj-(RPpj+T)||2
式中,Ppj和Pqj分别为相邻两帧序列图像中匹配点对的两个特征点对应的三维坐标,由步骤3)得到的精确匹配的特征点和步骤1)获取的三维坐标信息结合得到;上角标p代表前一帧图像,上角标q代表后一帧图像,j为精确匹配的匹配点对的序数,x,y,z代表三维坐标;
4.2)采用以下公式求解无人机位置的变化量和姿态角:
其中,θ、ψ对应横滚角、俯仰角、偏航角,r11-r33表示为旋转矩阵R中的各个元素,例如r11表示旋转矩阵R中的第1行第1列元素,t为无人机空间位置的变化量。
本实施例首先利用无人机采集的相邻的两帧序列图像,共进行三组特征提取与特征匹配的对比实验,得到原SIFI特征匹配算法所需的时间与改进后的算法匹配时间对比如表1所示。
表1
由表1所得,改进的SIFI算法在实现提高保证检测精度的同时,大大缩短了匹配所消耗的时间。解决了传统视觉里程计使用SIFT匹配算法消耗大量时间,进而导致实时性差的问题。
本实施例其次利用标准数据集The EuRoc Dataset,通过与复杂的视觉slam***,即LIBVISO2方法,对无人机位姿估计做定性对比的实验分析,结果如表2所示。
表2
表2中,利用本发明的估计方法和复杂的LIBVIOSO2估计方法分别在标准数据集The EuRoc Dataset下的MH_01_easy、MH_02_easy、MH_03_medium、MH_01_difficult四种数据进行无人机位姿估计。根据估计结果,计算出绝对估计误差—ATE(m)和相对位姿误差—RPE(m/s)。
由表2可见,本发明提出的方法在绝对估计误差和相对位姿误差同复杂的LIBVISO2方法接近,同时对比标准数据集提供的无人机实际位姿信息,显示本发明的估计方法估计的无人机位姿与实际位姿差别不大。
实验进一步表明,本实施例方法在提高无人机位姿估计准确性的同时,不同于复杂的LIBVISO2估计方法,始终保持低开销,实现轻量化。
由上述实施可见,本发明方法减少了无人机所携带的设备而且价格相对较低。同时,视觉信号稳定,稳定性强,不存在累积误差,能够提高无人机自主位姿估计的准确性和鲁棒性。
以上,仅为本发明较佳的具体实施方式;但本发明的保护范围并不局限于此。任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其改进构思加以等同替换或改变,都应涵盖在本发明的保护范围。
Claims (5)
1.一种基于轻量级视觉里程计的无人机位姿估计方法,其特征在于:包括以下步骤:
1)通过安装在无人机上的深度相机对无人机前方视场环境进信息采集,获取无人机前方视场环境中的空间点的二维图像信息和三维坐标信息;
2)对步骤1)获取的二维图像信息,利用改进SIFT特征匹配算法,处理获得初步匹配的匹配点对;
3)对步骤2)获取的初步匹配的特征点对,利用随机一致性算法(RANSAC)剔除候选特征点中的误匹配点,得到精确匹配的匹配点对;
4)利用精确匹配的匹配点对求解无人机运动参数,进而求得无人机位置的变化量和姿态角。
2.根据权利要求1所述的一种基于轻量级视觉里程计的无人机位姿估计方法,其特征在于:所述步骤2)具体为:首先进行特征点检测;其次对获取的特征点进行二值化的特征点描述;以二值化的特征点描述对相邻两幅图像间的特征点进行粗匹配,获取初步匹配的匹配点对。
3.根据权利要求1或2所述的一种基于轻量级视觉里程计的无人机位姿估计方法,其特征在于:所述步骤2)改进SIFT特征匹配算法具体包括以下步骤:
2.1)进行特征点检测:由二维图像建立二维图像空间,接着由二维图像进行降采样处理后再和高斯核函数进行卷积处理获得不同图像尺寸的采样图像并构成高斯尺度空间,然后由高斯尺度空间中的每相邻两层采样图像作差得到不同的DoG尺度图像并构成了DoG尺度空间,在DoG尺度空间中检测极值点(Blob)作为特征点;且在针对DoG尺度空间中的每个像素点进行检测极值点时,每个像素点与同尺度的DoG尺度图像中的8个相邻像素点和上、下相邻尺度的DoG尺度图像中的各9像素点的共计26个像素点进行比较;
2.2)对获取的特征点进行特征点描述得到特征点的梯度特征向量,将特征点的梯度特征向量进行二值化,获得二值化梯度特征向量,具体公式为:
其中,a为二值化阈值,f表示特征点的梯度特征向量,f=[f1,f2,,f128],fi表示梯度特征向量中的第i个梯度信息,bi表示二值化后的第i个梯度信息;
2.3)通过上述步骤2.1)~2.2)获得每一幅图像的特征点并二值化描述处理,对相邻两帧图像间的特征点进行粗匹配,获取候选特征点:对相邻两帧图像,采用特征点的二值化梯度特征向量间的欧式距离作为两帧图像中特征点相似性的判定度量,取两帧图像中特征点的二值化梯度特征向量间的欧式距离最近的一对特征点和欧式距离次近的一对特征点,在这两对特征点中,如果最近的欧式距离除以次近的欧式距离少于预设比例阈值,则判断欧式距离最近的一对特征点相似,作为匹配点对,舍去欧式距离次近的一对特征点;
2.4)重复上述步骤2.2)过程,直到得到两帧图像中满足条件的所有匹配点对。
4.根据权利要求1所述的一种基于轻量级视觉里程计的无人机位姿估计方法,其特征在于:所述步骤4)中,求解无人机运动参数的计算方式如下:
4.1)首先建立如下无人机运动参数公式:
然后构建残差平方和函数min{R,T},用最小二乘法求解获得目标函数最小时的旋转矩阵R和平移向量T;:
min{R,T}=||Pqj-(RPpj+T)||2
式中,Ppj和Pqj分别为相邻两帧序列图像中匹配点对的两个特征点对应的三维坐标,由步骤3)得到的精确匹配的特征点和步骤1)获取的三维坐标信息结合得到;上角标p代表前一帧图像,上角标q代表后一帧图像,j为精确匹配的匹配点对的序数,x,y,z代表三维坐标;||||表示向量绝对值;
4.2)采用以下公式求解无人机位置的变化量和姿态角:
其中,θ、ψ对应横滚角、俯仰角、偏航角,r11-r33表示为旋转矩阵R中的各个元素,t为无人机空间位置的变化量。
5.根据权利要求1所述的一种基于轻量级视觉里程计的无人机位姿估计方法,其特征在于:所述的深度相机采用real senseD435深度相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910008794.9A CN109871024A (zh) | 2019-01-04 | 2019-01-04 | 一种基于轻量级视觉里程计的无人机位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910008794.9A CN109871024A (zh) | 2019-01-04 | 2019-01-04 | 一种基于轻量级视觉里程计的无人机位姿估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109871024A true CN109871024A (zh) | 2019-06-11 |
Family
ID=66917570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910008794.9A Pending CN109871024A (zh) | 2019-01-04 | 2019-01-04 | 一种基于轻量级视觉里程计的无人机位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109871024A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751123A (zh) * | 2019-06-25 | 2020-02-04 | 北京机械设备研究所 | 一种单目视觉惯性里程计***及方法 |
CN111210463A (zh) * | 2020-01-15 | 2020-05-29 | 上海交通大学 | 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及*** |
CN111461998A (zh) * | 2020-03-11 | 2020-07-28 | 中国科学院深圳先进技术研究院 | 一种环境重建方法及装置 |
CN112102646A (zh) * | 2019-06-17 | 2020-12-18 | 北京初速度科技有限公司 | 一种泊车定位中的停车场入口定位方法、装置及车载终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104121902A (zh) * | 2014-06-28 | 2014-10-29 | 福州大学 | 基于Xtion摄像机的室内机器人视觉里程计实现方法 |
US20160203373A1 (en) * | 2014-02-08 | 2016-07-14 | Honda Motor Co., Ltd. | System and method for mapping, localization, and pose correction of a vehicle based on images |
CN108764080A (zh) * | 2018-05-17 | 2018-11-06 | 中国电子科技集团公司第五十四研究所 | 一种基于点云空间二值化的无人机视觉避障方法 |
CN108833928A (zh) * | 2018-07-03 | 2018-11-16 | 中国科学技术大学 | 交通监控视频编码方法 |
-
2019
- 2019-01-04 CN CN201910008794.9A patent/CN109871024A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160203373A1 (en) * | 2014-02-08 | 2016-07-14 | Honda Motor Co., Ltd. | System and method for mapping, localization, and pose correction of a vehicle based on images |
CN104121902A (zh) * | 2014-06-28 | 2014-10-29 | 福州大学 | 基于Xtion摄像机的室内机器人视觉里程计实现方法 |
CN108764080A (zh) * | 2018-05-17 | 2018-11-06 | 中国电子科技集团公司第五十四研究所 | 一种基于点云空间二值化的无人机视觉避障方法 |
CN108833928A (zh) * | 2018-07-03 | 2018-11-16 | 中国科学技术大学 | 交通监控视频编码方法 |
Non-Patent Citations (1)
Title |
---|
陈本清等: "基于SIFT和TPS算法的四旋翼无人机图像自动配准", 《遥感技术与应用》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102646A (zh) * | 2019-06-17 | 2020-12-18 | 北京初速度科技有限公司 | 一种泊车定位中的停车场入口定位方法、装置及车载终端 |
CN112102646B (zh) * | 2019-06-17 | 2021-12-31 | 北京初速度科技有限公司 | 一种泊车定位中的停车场入口定位方法、装置及车载终端 |
CN110751123A (zh) * | 2019-06-25 | 2020-02-04 | 北京机械设备研究所 | 一种单目视觉惯性里程计***及方法 |
CN111210463A (zh) * | 2020-01-15 | 2020-05-29 | 上海交通大学 | 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及*** |
CN111210463B (zh) * | 2020-01-15 | 2022-07-15 | 上海交通大学 | 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及*** |
CN111461998A (zh) * | 2020-03-11 | 2020-07-28 | 中国科学院深圳先进技术研究院 | 一种环境重建方法及装置 |
WO2021179745A1 (zh) * | 2020-03-11 | 2021-09-16 | 中国科学院深圳先进技术研究院 | 一种环境重建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN111156984B (zh) | 一种面向动态场景的单目视觉惯性slam方法 | |
CN110223348B (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
CN105856230B (zh) | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 | |
CN109166149A (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与*** | |
CN108711166A (zh) | 一种基于四旋翼无人机的单目相机尺度估计方法 | |
CN109871024A (zh) | 一种基于轻量级视觉里程计的无人机位姿估计方法 | |
CN111024066A (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN111862201B (zh) | 一种基于深度学习的空间非合作目标相对位姿估计方法 | |
CN111739063A (zh) | 一种基于多传感器融合的电力巡检机器人定位方法 | |
CN109029433A (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN109544636A (zh) | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及*** | |
CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位***及方法 | |
Yu et al. | Robust robot pose estimation for challenging scenes with an RGB-D camera | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN110675453B (zh) | 一种已知场景中运动目标的自定位方法 | |
Fleer et al. | Comparing holistic and feature-based visual methods for estimating the relative pose of mobile robots | |
CN107677274A (zh) | 基于双目视觉的无人机自主着陆导航信息实时解算方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
Zheng et al. | Robust and accurate monocular visual navigation combining IMU for a quadrotor | |
CN112179373A (zh) | 一种视觉里程计的测量方法及视觉里程计 | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190611 |
|
WD01 | Invention patent application deemed withdrawn after publication |