CN110319772B - 基于无人机的视觉大跨度测距方法 - Google Patents
基于无人机的视觉大跨度测距方法 Download PDFInfo
- Publication number
- CN110319772B CN110319772B CN201910628362.8A CN201910628362A CN110319772B CN 110319772 B CN110319772 B CN 110319772B CN 201910628362 A CN201910628362 A CN 201910628362A CN 110319772 B CN110319772 B CN 110319772B
- Authority
- CN
- China
- Prior art keywords
- camera
- imu
- aerial vehicle
- unmanned aerial
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于无人机的视觉大跨度测距方法,可用于大场景测距。通过飞行器携带视觉传感器,对需要测量的对象场景进行影像数据的获取并通过飞控获取IMU信息;通过图传将数据传给地面站;通过光流法跟踪FAST特征点并筛选提取关键帧;通过非线性优化进行传感器数据融合;利用多立体视觉技术对场景进行三维建模;在三维模型中选取测量点进行测距。本发明方法通过关键帧与图像模糊度筛选减少冗余图片数量,减轻重构时间,提高重构效率;与纯图片的三维重构相比,可以重构出真实尺度的三维模型且模型精度更高;与GPS与图像融合相比,可以在无GPS信号环境下(如山区、室内)进行三维重构,提高了***的鲁棒性。
Description
技术领域
本发明涉及一种测绘技术,特别涉及一种基于无人机的视觉大跨度测距方法。
背景技术
目标场景的三维重构技术在测绘领域得到了广泛的应用。三维重构可以将多视角拍摄的二维图像重建成空间物体的三维模型,进行物体尺寸的测量。以花坛举例,人们想要测量花坛的直径周长,由于花坛尺寸较大无法直接测量。通过无人机对花坛航拍,可以重构出花坛的三维模型,在模型上选点即可获得花坛的真实尺寸。目前有两种三维建模的方式。1)完全通过图像进行三维建模,但所得的三维模型缺乏尺度因子,需要在模型中换算比例尺。2)通过GPS与图像融合的方式,计算出实际尺寸的三维模型。但该方法,对GPS定位精度高。在无GPS信号环境下无法进行重构,如山区,室内等。
发明内容
本发明是针对空间物体测距存在的问题,提出了一种基于无人机的视觉大跨度测距方法,基于IMU(惯性测量单元)与图像融合的三维重构测距方法,可以得到真实尺度的三维模型,同时增加了重构的鲁棒性,在无GPS信号环境下也能进行三维重构。
本发明的技术方案为:一种基于无人机的视觉大跨度测距方法,具体包括如下步骤:
1)采用无人机采集视频数据与IMU数据,对视频数据进行预处理后,将预处理后带有特征点和关键帧的视频数据和IMU数据传输给地面服务器;
2)利用平均视差、跟踪质量与图像模糊度挑选视频中关键帧;
3)利用传感器融合技术,通过IMU预积分和选取的关键帧得到相机的粗略位姿,再通过视频帧中的特征点进行非线性优化,得到相机的精确位姿,即飞行轨迹;
4)最后进行稠密重建获取实际尺度的三维重构模型,在建立的三维模型上直接进行选点测距。
所述步骤1)具体实现方法如下:
1.1)首先采用kalibr工具包对无人机的摄像头与IMU的内参与外参进行标定,通过标定的参数对相机所拍摄的视频进行畸变矫正;
1.2)通过无人机航拍,获取矫正后的视频数据和IMU数据,视频数据和IMU数据包括相机的三轴加速度和角速度,图像信息;
1.3)获得视频数据和IMU数据后,提取第一张视频帧FAST特征点并通过光流法跟踪,得到后续帧匹配的特征点,根据图像中特征点多少进行关键帧筛选,然后将带有特征点和关键帧的视频数据和IMU数据通过无线传输到地面服务器。
所述步骤2)具体实现方法如下:
2.1)通过对匹配的特征点采用多点透视成像算法计算当前帧与上一个关键帧的旋转矩阵,平移矩阵;如果在当前帧和上一个关键帧之间跟踪的旋转矩阵,平移矩阵超出设定阈值,则将当前帧视为新的关键帧;
2.2)通过将跟踪特征数量低于设定数量的关键帧也视为新的关键帧,以此避免跟踪特征完全丢失,提高跟踪质量;
2.3)在无参考图像情况下,通过对得到的所有关键帧进行拉普拉斯变换后,再计算相邻像素间的平均梯度差,用平均梯度差来衡量模糊度,数值越低帧越模糊,当平均梯度差小于设定梯度阈值时,则剔除该关键帧。
所述步骤3)具体实现方法如下:
3.1)通过IMU预积分计算关键帧在世界坐标系下的位姿关系,计算出相机的粗略位姿;相机的粗略位姿获取过程中通过对齐IMU数据与关键帧数据,使用关键帧图像之间的匹配来约束IMU的预计分误差;
3.2)通过非线性算法,优化特征点和相机的位姿,得到相机的精确位姿。
所述步骤4)具体实现方法如下:
4.1)采用了极线搜索和块匹配技术在关键帧图片,对每个像素点的极线上选取3*3的像素块与其他关键帧图片相互逐个比较相似度,得到像素在各个图片中的位置;
4.2)通过对不同关键帧中同一个像素点在空间中的三维映射点采用深度滤波技术多次进行三角测量使深度估计收敛到一个稳定值;
4.3)通过相机位姿将各个关键帧图片视角下的点云进行旋转、平移到世界坐标系下,拼接得到实际尺度的三维模型,在建立的三维模型上可以直接进行选点测距。
本发明的有益效果在于:本发明基于无人机的视觉大跨度测距方法,通过关键帧与图像模糊度筛选减少冗余图片数量,减轻重构时间,提高重构效率;与纯图片的三维重构相比,可以重构出真实尺度的三维模型且模型精度更高;与GPS与图像融合相比,可以在无GPS信号环境下(如山区、室内)进行三维重构,提高了***的鲁棒性。
附图说明
图1为本发明的方法流程图;
图2为本发明的方法流程框图;
图3为本发明实施例IMU预积分原理图;
图4为本发明实施例传感器优化后的相机位姿图;
图5为本发明实施例极线约束原理图。
具体实施方式
如图1、2所示基于无人机的视觉大跨度测距方法流程图,对给定对象的三维模型进行测距,包括目标对象的尺寸,多个对象之间的距离,测距所需硬件为:无人机、地面站服务器、单目摄像头、无线路由器等。具体实现方法如下:
1、采用无人机采集视频数据与IMU数据,对视频数据进行图像预处理后,将预处理后图像数据和IMU数据传输给地面服务器;
步骤1具体实现步骤为:
1.1首先采用kalibr工具包对无人机的摄像头与IMU的内参与外参进行标定,通过标定的参数对相机所拍摄的视频进行畸变矫正;
1.2通过无人机航拍,获取矫正后的视频数据和IMU数据,视频数据和IMU数据包括相机的三轴加速度和角速度,图像信息;
1.3获得视频数据和IMU数据后,提取第一张视频帧FAST特征点并通过光流法跟踪,得到后续帧匹配的特征点,根据图像中特征点多少进行关键帧筛选,然后将带有特征点和关键帧的视频数据和IMU数据通过无线传输到地面服务器。
2、利用平均视差、跟踪质量与图像模糊度挑选视频中关键帧;
具体实现步骤为:
2.1通过对匹配的特征点采用PNP(多点透视成像)算法计算当前帧与上一个关键帧的旋转矩阵,平移矩阵。如果在当前帧和上一个关键帧之间跟踪的旋转矩阵,平移矩阵超出设定阈值,则将当前帧视为新的关键帧;
2.2为了防止在轨迹跟踪时特征点过少导致跟踪失败。通过将跟踪特征数量低于设定数量的关键帧也视为新的关键帧,以此避免跟踪特征完全丢失,提高跟踪质量。
2.3在无参考图像情况下,先对得到的所有关键帧进行拉普拉斯变换后,再计算相邻像素间的平均梯度差,用平均梯度差来衡量模糊度,数值越低帧越模糊,当平均梯度差小于设定梯度阈值时,则剔除该关键帧。
3、利用传感器融合技术,通过IMU预积分和选取的关键帧得到相机的粗略位姿,再通过视频帧中的特征点进行非线性优化,得到相机的精确位姿,即飞行轨迹。
具体实现步骤为:
3.1通过IMU预积分计算关键帧在世界坐标系下的位姿关系,计算出相机的粗略位姿。即在世界坐标系下,IMU在k时刻的位置,速度,旋转分别对应 如图3所示,i与j时刻的关键帧之间的位姿关系可由IMU预积分得到,它们满足迭代式。
式中:上标w代表世界坐标系;下标bk代表IMU坐标系的k时刻;下标t代表t时刻;下标bk+1代表IMU坐标系的k+1时刻;为t时刻,IMU在世界坐标系下的旋转,为t时刻IMU的加速度;为t时刻IMU加速度的偏置;gw为在世界坐标系下的重力;为t时刻IMU的角速度;为t时刻IMU角速度的偏置;
即当前时刻的状态可以通过上一时刻状态来迭代求得。将相邻两关键帧之间的一段时间的IMU预积分起来,得到两帧之间的IMU相对运动。
相机的粗略位姿获取过程中通过对齐IMU数据与关键帧数据,使用关键帧图像之间的匹配来约束IMU的预计分误差。
3.2通过非线性算法,优化特征点和相机的位姿,得到相机的精确位姿。首先,将位姿,速度,相机外参等状态量整合到一个状态向量中进行非线性优化。状态向量如下:
由(5)(6)推导出(4)
式中:X为状态向量;Xk为IMU的状态变量;bg为IMU的重力偏置;ba为IMU的加速度偏置;为相机与IMU相对的状态变量;为相机与IMU之间的位移;为相机与IMU之间的旋转;λi为特征点坐标,i=1,2,...,m;
非线性优化目标函数如下:
相机位姿优化结果如图4所示。
4、最后进行稠密重建获取实际尺度的三维重构模型,在建立的三维模型上直接进行选点测距。
具体实现步骤为:
4.1采用了极线搜索和块匹配技术在关键帧图片,对每个像素点的极线上选取3*3的像素块与其他关键帧图片相互逐个比较相似度,得到像素在各个图片中的位置。如图5所示,d表示三维点的深度,o1、o2表示第一张图片和第二张图片的相机中心,R、T表示2两帧图片之间的旋转矩阵和平移矩阵,p1、p2表示第一张图片和第二张图片上的像素点,l2表示p1在第二张图片中的极线。
4.2通过对不同关键帧中同一个像素点在空间中的三维映射点采用深度滤波技术多次进行三角测量使深度估计收敛到一个稳定值。
4.3通过相机位姿将各个关键帧图片视角下的点云进行旋转、平移到世界坐标系下,拼接得到实际尺度的三维模型,在建立的三维模型上可以直接进行选点测距。
实验结果,通过基于无人机的视觉大跨度测距方法得到了三维模型,并可以再三维模型上进行真实尺度的测距。基于本发明的测距***,测绘工作者可以非常方便的进行测绘工作。
Claims (3)
1.一种基于无人机的视觉大跨度测距方法,其特征在于,具体包括如下步骤:
1)采用无人机采集视频数据与IMU数据,对视频数据进行预处理后,将预处理后带有特征点和关键帧的视频数据和IMU数据传输给地面服务器;具体实现方法如下:
1.1)首先采用kalibr工具包对无人机的摄像头与IMU的内参与外参进行标定,通过标定的参数对相机所拍摄的视频进行畸变矫正;
1.2)通过无人机航拍,获取矫正后的视频数据和IMU数据,视频数据和IMU数据包括相机的三轴加速度和角速度,图像信息;
1.3)获得视频数据和IMU数据后,提取第一张视频帧FAST特征点并通过光流法跟踪,得到后续帧匹配的特征点,根据图像中特征点多少进行关键帧筛选,然后将带有特征点和关键帧的视频数据和IMU数据通过无线传输到地面服务器;
2)利用平均视差、跟踪质量与图像模糊度挑选视频中关键帧;具体实现方法如下:
2.1)通过对匹配的特征点采用多点透视成像算法计算当前帧与上一个关键帧的旋转矩阵,平移矩阵;如果在当前帧和上一个关键帧之间跟踪的旋转矩阵,平移矩阵超出设定阈值,则将当前帧视为新的关键帧;
2.2)通过将跟踪特征数量低于设定数量的关键帧也视为新的关键帧,以此避免跟踪特征完全丢失,提高跟踪质量;
2.3)在无参考图像情况下,通过对得到的所有关键帧进行拉普拉斯变换后,再计算相邻像素间的平均梯度差,用平均梯度差来衡量模糊度,数值越低帧越模糊,当平均梯度差小于设定梯度阈值时,则剔除该关键帧;
3)利用传感器融合技术,通过IMU预积分和选取的关键帧得到相机的粗略位姿,再通过视频帧中的特征点进行非线性优化,得到相机的精确位姿,即飞行轨迹;
4)最后进行稠密重建获取实际尺度的三维重构模型,在建立的三维模型上直接进行选点测距。
2.根据权利要求1所述基于无人机的视觉大跨度测距方法,其特征在于,所述步骤3)具体实现方法如下:
3.1)通过IMU预积分计算关键帧在世界坐标系下的位姿关系,计算出相机的粗略位姿;相机的粗略位姿获取过程中通过对齐IMU数据与关键帧数据,使用关键帧图像之间的匹配来约束IMU的预计分误差;
3.2)通过非线性算法,优化特征点和相机的位姿,得到相机的精确位姿。
3.根据权利要求1或2所述基于无人机的视觉大跨度测距方法,其特征在于,所述步骤4)具体实现方法如下:
4.1)采用了极线搜索和块匹配技术在关键帧图片,对每个像素点的极线上选取3*3的像素块与其他关键帧图片相互逐个比较相似度,得到像素在各个图片中的位置;
4.2)通过对不同关键帧中同一个像素点在空间中的三维映射点采用深度滤波技术多次进行三角测量使深度估计收敛到一个稳定值;
4.3)通过相机位姿将各个关键帧图片视角下的点云进行旋转、平移到世界坐标系下,拼接得到实际尺度的三维模型,在建立的三维模型上可以直接进行选点测距。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910628362.8A CN110319772B (zh) | 2019-07-12 | 2019-07-12 | 基于无人机的视觉大跨度测距方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910628362.8A CN110319772B (zh) | 2019-07-12 | 2019-07-12 | 基于无人机的视觉大跨度测距方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110319772A CN110319772A (zh) | 2019-10-11 |
CN110319772B true CN110319772B (zh) | 2020-12-15 |
Family
ID=68122084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910628362.8A Active CN110319772B (zh) | 2019-07-12 | 2019-07-12 | 基于无人机的视觉大跨度测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110319772B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047620A (zh) * | 2019-11-15 | 2020-04-21 | 广东工业大学 | 一种基于深度点线特征的无人机视觉里程计方法 |
CN113125791B (zh) * | 2019-12-30 | 2023-10-20 | 南京智能情资创新科技研究院有限公司 | 一种基于特征物体和光流法的运动相机测速方法 |
CN112149495B (zh) * | 2020-08-07 | 2023-07-28 | 中国矿业大学(北京) | 一种基于视差追踪的视频关键帧提取方法 |
CN112365537B (zh) * | 2020-10-13 | 2023-06-27 | 天津大学 | 一种基于三维点云对齐的主动相机重定位方法 |
CN112697044B (zh) * | 2020-12-17 | 2021-11-26 | 北京航空航天大学 | 一种基于无人机平台的静态刚性物体视觉测量方法 |
CN112505065B (zh) * | 2020-12-28 | 2022-11-04 | 上海工程技术大学 | 一种实现室内无人机对大部件表面缺陷进行检测的方法 |
CN113284224B (zh) * | 2021-04-20 | 2024-06-18 | 北京行动智能科技有限公司 | 基于单纯码的自动建图方法和装置、定位方法及设备 |
CN113139949B (zh) * | 2021-04-30 | 2023-04-07 | 逻腾(杭州)科技有限公司 | 一种机器人图像模糊度检测方法 |
CN115272494B (zh) * | 2022-09-29 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 相机与惯性测量单元的标定方法、装置和计算机设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104424630A (zh) * | 2013-08-20 | 2015-03-18 | 华为技术有限公司 | 三维重建方法及装置、移动终端 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN106123802A (zh) * | 2016-06-13 | 2016-11-16 | 天津大学 | 一种自主流动式三维形貌测量方法 |
WO2018081348A1 (en) * | 2016-10-26 | 2018-05-03 | The Charles Stark Draper Laboratory, Inc. | Vision-inertial navigation with variable contrast tracking residual |
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建*** |
CN108413917B (zh) * | 2018-03-15 | 2020-08-07 | 中国人民解放军国防科技大学 | 非接触式三维测量***、非接触式三维测量方法及测量装置 |
CN109520497B (zh) * | 2018-10-19 | 2022-09-30 | 天津大学 | 基于视觉和imu的无人机自主定位方法 |
-
2019
- 2019-07-12 CN CN201910628362.8A patent/CN110319772B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110319772A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110319772B (zh) | 基于无人机的视觉大跨度测距方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN110009739B (zh) | 移动摄像机的数字视网膜的运动特征的提取与编码方法 | |
CN107316325B (zh) | 一种基于图像配准的机载激光点云与影像配准融合方法 | |
Teller et al. | Calibrated, registered images of an extended urban area | |
CN110807809B (zh) | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 | |
CN113850126A (zh) | 一种基于无人机的目标检测和三维定位方法和*** | |
CN110799921A (zh) | 拍摄方法、装置和无人机 | |
CN111815765B (zh) | 一种基于异构数据融合的图像三维重建方法 | |
CN107560603B (zh) | 一种无人机倾斜摄影测量***及测量方法 | |
CN106780729A (zh) | 一种无人机序列影像批处理三维重建方法 | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
CN102072725A (zh) | 一种基于激光点云和实景影像进行空间三维测量的方法 | |
CN110533719B (zh) | 基于环境视觉特征点识别技术的增强现实定位方法及装置 | |
JP2012118666A (ja) | 三次元地図自動生成装置 | |
CN112465969A (zh) | 基于无人机航拍影像数据的实时三维建模方法及*** | |
CN107038753B (zh) | 立体视觉三维重建***及方法 | |
CN112598706B (zh) | 无需精确时空同步的多相机运动目标三维轨迹重建方法 | |
CN114638897B (zh) | 基于无重叠视域的多相机***的初始化方法、***及装置 | |
CN110986888A (zh) | 一种航空摄影一体化方法 | |
CN110458945B (zh) | 通过空中倾斜摄影结合视频数据的自动建模方法及*** | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及*** | |
CN115950435A (zh) | 无人机巡检影像的实时定位方法 | |
CN113240749B (zh) | 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |