CN114322943B - 一种基于无人机前视图像的目标距离测量方法及装置 - Google Patents

一种基于无人机前视图像的目标距离测量方法及装置 Download PDF

Info

Publication number
CN114322943B
CN114322943B CN202111532928.0A CN202111532928A CN114322943B CN 114322943 B CN114322943 B CN 114322943B CN 202111532928 A CN202111532928 A CN 202111532928A CN 114322943 B CN114322943 B CN 114322943B
Authority
CN
China
Prior art keywords
distance
target distance
characteristic line
line segments
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111532928.0A
Other languages
English (en)
Other versions
CN114322943A (zh
Inventor
曹云峰
张传奇
马宁
丁萌
庄丽葵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202111532928.0A priority Critical patent/CN114322943B/zh
Publication of CN114322943A publication Critical patent/CN114322943A/zh
Application granted granted Critical
Publication of CN114322943B publication Critical patent/CN114322943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于无人机前视图像的目标距离测量方法及装置,方法包括如下步骤:参考帧选取、特征点提取、特征点匹配、基于特征线段的距离计算、目标距离计算和目标距离序列滤波;装置包括:参考帧选取模块、特征点提取模块、特征点匹配模块、基于特征线段的距离计算模块、目标距离计算模块和目标距离序列滤波模块。本发明方法流程简明,装置易于部署,实施过程中借助了机载导航设备提供的位姿数据而不需要进行相机标定或获取目标先验信息,目标距离测量结果准确度高,适用于无人机飞行场景,且计算量小、计算速度快。

Description

一种基于无人机前视图像的目标距离测量方法及装置
技术领域
本发明涉及光学测距技术领域,尤其是一种基于无人机前视图像的目标距离测量方法及装置。
背景技术
近年来,无人机在军事和民用领域取得了广泛的应用,例如情报、监视和侦察,以及电力线检查、资源调查和精准农业等。但无论是多变的战场环境还是普通的野外环境中,都存在一些威胁飞行安全的障碍物,如楼房、线塔、树木等。因此,这些任务要求无人机具备较强的自主避障能力。
无人机实现自主避障的一般过程是:首先,通过机载传感器对无人机所处的场景和周围环境进行感知,确定对飞行安全有潜在威胁的障碍物目标;其次,获取场景中障碍物目标的具体信息,包括大小、方位、运动轨迹、距离等;最后,基于以上信息,依靠飞行器的制导与控制***完成轨迹规划和规避机动。其中,依靠机载传感器来获取障碍物目标信息是无人机实现自主避障的关键。
当前,无人机能够装备的用于场景和目标感知的传感器大致分为主动式和被动式两类。主动式传感器通过发射电磁波并接收回波来实现对周围环境的感知,例如超声波探测器、合成孔径雷达、激光雷达等。这类传感器的缺点在于体积大、能耗高,易受室外阳光敏感性的限制,且容易被敌方探测设备追踪。相比之下,机载光学相机等被动式视觉传感器在尺寸、重量、成本和响应速度等方面具有明显的优势,适合部署在不同尺寸和种类的无人机上。此外,得益于计算机视觉技术的发展,视觉传感器已经可以胜任大多数的二维视觉任务,即通过机载光学图像实现目标的检测、识别和跟踪,获取其大小、种类、方位、运动轨迹等信息。但对于无人机的制导与控制***而言,要实现有效的避障,障碍物目标的距离信息不可或缺。在当前的技术水平下,借助图像本身的信息来进行目标距离测量仍然极具挑战。
在这方面,研究者们会借助前视图像序列中各帧之间所包含的运动视差信息。当使用单目相机在不同视图下拍摄同一静态物体的两张或多张图像时,相机与场景之间的相对运动所产生的视差信息便可用于求解目标距离。这一思想类似于立体视觉中的三角测量。除此之外,一些人工设计的特征也被用于提取图像中的目标信息。这样,借助多视图几何的原理,便可显式地求解图像中某点在真实世界中的三维坐标。这类基于人工特征和多视图几何的目标距离测量方法已被应用于许多三维视觉任务,例如从运动中恢复结构、即时定位与地图构建等。
然而,将这类方法应用于无人机自主避障过程中的目标距离测量依然存在以下难点:(1)特征匹配是在两张图像的特征点之间建立联系的关键步骤,因此特征匹配误差会对目标测量结果的准确度造成不利影响。(2)无人机飞行过程中高度和姿态不断变化,现有的测量方法及装置难以满足这一场景下的应用需求。(3)目标距离测量结果序列可能存在振荡和跳变,不能直接用于避障制导和飞行控制。
发明内容
本发明所要解决的技术问题在于,提供一种基于无人机前视图像的目标距离测量方法及装置,方法简明,装置易于部署,结果准确度高,且适用于室外飞行场景。
为解决上述技术问题,本发明提供一种基于无人机前视图像的目标距离测量方法,包括如下步骤:
(1)从当前飞行阶段的图像序列中选取某特定时刻的图像作为参考帧;
(2)对于参考帧和当前帧图像,在给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子;
(3)基于特征提取结果,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配,并根据上述度量来剔除误匹配;
(4)借助机载导航设备所提供的位姿信息,根据所设计的基于特征线段的距离计算模型来计算各对特征线段所对应的距离;
(5)获得包含所有特征线段对距离计算结果的集合,通过取中位数的方式计算目标距离;
(6)采用离散扩展Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果。
优选的,步骤(1)中,参考帧的选取依靠飞行过程中机载导航设备记录的各时刻的位置信息来实现,选取的标准是使得参考帧与当前帧之间的水平距离与前一时刻目标距离测量结果之间的比值保持恒定。
优选的,步骤(3)中,特征匹配所选用的相似性度量是特征点对应的描述子之间的欧氏距离;剔除误匹配根据相似性度量筛选并剔除弱匹配和模糊匹配。
优选的,步骤(4)中,根据所设计的基于特征线段的距离计算模型来计算各对特征线段所对应的距离,具体为:特征线段构造,在参考帧和当前帧中连结任意两个匹配特征点来构造出一条特征线段;特征线段变换及长度计算,在无人机飞行过程的纵向平面内对特征线段进行变换,以满足距离计算的需要;特征线段对应的距离计算,根据几何成像关系,计算各对特征线段所对应的当前帧下的距离。
优选的,步骤(5)中,为了准确且鲁棒地表征目标距离,对包含所有特征线段对距离计算结果的集合取中位数,以此作为目标距离计算结果。
优选的,步骤(6)中,采用离散扩展Kalman滤波算法对目标距离计算结果进行滤波具体为:扩展Kalman滤波模型构建,根据基于特征线段的距离计算模型选取合适的状态量和观测量,构建***状态方程和观测方程;扩展Kalman滤波器设计与应用,根据扩展Kalman滤波的原理,推导得到滤波器的预测和更新方程并加以应用。
相应的,一种基于无人机前视图像的目标距离测量装置,包括:参考帧选取模块,从当前飞行阶段的图像序列中选取某特定时刻的图像作为参考帧;特征点提取模块,在参考帧和当前帧图像中给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子;特征点匹配模块,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配和剔除误匹配;基于特征线段的距离计算模块,借助机载导航设备所提供的位姿信息,根据所设计的基于特征线段的距离计算模型来计算各对特征线段对应的距离;目标距离计算模块,对包含所有特征线段对距离计算结果的集合取中位数,以此作为目标距离计算结果;目标距离序列滤波模块,采用离散Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果。
优选的,特征点匹配模块包括:特征匹配度量计算单元,用于计算参考帧和当前帧中特征点的128维描述子之间的差方和并以此作为特征匹配度量;剔除弱匹配单元,用于剔除特征点误匹配中的弱匹配;剔除模糊匹配单元,用于剔除特征点误匹配中的模糊匹配。
优选的,基于特征线段的距离计算模块包括:特征线段构造单元,用于根据特征匹配结果在参考帧和当前帧中构造特征线段;特征线段变换及长度计算单元,用于在无人机飞行过程的纵向平面内对特征线段进行变换,并计算变换后的特征线段长度,从而满足距离计算的需要;特征线段对应的距离计算单元,用于计算各对特征线段对应的距离值并组成集合。
优选的,目标距离序列滤波模块包括:扩展Kalman滤波模型构建单元,用于确定扩展Kalman滤波模型的状态量和观测量,并构建***状态方程和观测方程;扩展Kalman滤波器设计与应用单元,用于对模块输出的前视图像序列对应的目标深度计算结果进行滤波,从而得到更加平滑且准确的目标距离测量结果序列。
本发明的有益效果为:本发明通过利用特征线段长度而非特征点像素位置来进行距离计算,减小了特征匹配误差造成的不利影响;在距离计算模型中引入了机载导航信息,使本发明能够适用于高度和姿态不断变化的无人机飞行场景;通过设计并应用离散扩展Kalman滤波器,进一步改善了目标距离计算结果的准确度和输出序列的平滑性;本发明方法流程简明,装置易于部署,实施过程中借助了机载导航设备提供的位姿数据而不需要进行相机标定或获取目标先验信息,目标距离测量结果准确度高,适用于无人机飞行场景,且计算量小、计算速度快。
附图说明
图1为本发明提供的一种基于无人机前视图像的目标距离测量方法的流程示意图。
图2为本发明实施例1提供的特征点匹配的流程示意图。
图3为本发明实施例1提供的参考帧和当前帧的示例图及特征提取与匹配结果示意图。
图4为本发明实施例1提供的基于特征线段的距离计算的流程示意图。
图5为本发明实施例1提供的目标距离序列滤波的流程示意图。
图6为本发明实施例1提供的滤波前后的目标距离计算和目标距离测量结果对比示意图。
图7为本发明提供的一种基于无人机前视图像的目标距离测量装置的结构示意图。
图8为本发明实施例2提供的特征点匹配模块的结构示意图。
图9为本发明实施例2提供的基于特征线段的距离计算模块的结构示意图。
图10为本发明实施例2提供的目标距离序列滤波模块的结构示意图。
具体实施方式
如图1所示,一种基于无人机前视图像的目标距离测量方法,包括如下步骤:
(1)从当前飞行阶段的图像序列中选取某特定时刻的图像作为参考帧;
(2)对于参考帧和当前帧图像,在给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子;
(3)基于特征提取结果,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配,并根据上述度量来剔除误匹配;
(4)借助机载导航设备所提供的位姿信息,根据所设计的基于特征线段的距离计算模型来计算各对特征线段所对应的距离;
(5)获得包含所有特征线段对距离计算结果的集合,通过取中位数的方式计算目标距离;
(6)采用离散扩展Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果。
实施例1:
本发明的实施例1针对无人机飞行过程中拍摄的前视光学图像的特点,设计了一种基于无人机前视图像的目标距离测量方法,如图1所示,包括:
步骤S100:参考帧选取。
具体地,在飞行过程中使用机载光学相机拍摄前视图像,并使用机载导航设备记录对应时刻的位置信息。在当前时刻t,以当前拍摄到的图像作为当前帧,并从过往拍摄的图像序列中选取参考帧,选取的标准是使得参考帧与当前帧之间的水平距离(基线长度b)与前一时刻目标距离测量结果zt-1之比保持在0.25,即b=0.25zt-1
步骤S110:特征点提取。
具体地,对于参考帧和当前帧图像,在给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子。由于本方法只需要使用特征点的像素位置信息,所以如果有两个或两个以上特征点的像素坐标相同但尺度和主方向不同,那么只需保留其中一个点及其描述子。
步骤S120:特征点匹配。
具体地,基于特征点提取结果,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配,并根据上述度量来剔除误匹配。进一步地,如图2所示,在步骤S120中,可以包括:
步骤S121:特征匹配度量计算。
具体地,假设从参考帧和当前帧中的目标区域中各提取到n和m个SIFT特征点,则参考帧中任意一个特征点fi(i=1,…,n)和当前帧中任意一个特征点gj(j=1,…,m)的128维特征描述子之间的差方和(SSD)由下式计算:
Figure BDA0003412084770000061
对所有n×m个特征点对进行上述计算,以此作为特征匹配度量。
步骤S122:剔除弱匹配。
具体地,在上述n×m个特征点对中,将不满足下式条件的匹配视为弱匹配并剔除:
Figure BDA0003412084770000062
其中,MT为匹配阈值,一般取为10。
步骤S123:剔除模糊匹配。
具体地,在上述n×m个特征点对中,将不满足下式条件的匹配视为模糊匹配并剔除:
Figure BDA0003412084770000063
Figure BDA0003412084770000064
Figure BDA0003412084770000065
其中,MR为最大比值,一般取为0.6。经过上述步骤,完成特征匹配和剔除误匹配,得到特征匹配结果,特征匹配点之间的对应关系如图3中横跨两帧图像的细线所示。
步骤S130:基于特征线段的距离计算。
具体地,根据特征匹配结果以及机载导航设备所记录的参考帧和当前帧的位置和姿态信息,使用基于特征线段的距离计算模型来计算各对特征线段所对应的距离。进一步地,如图4所示,在步骤S130中,可以包括:
步骤S131:特征线段构造。
具体地,假设在特征匹配结果中,参考帧和当前帧之间共包含p对匹配点。在当前帧中,连结图像中的任意两个特征点可构造出一条线段。在参考帧中,连结对应的匹配特征点也可构造出对应的特征线段。两帧之间共可构造出q=p(p-1)/2对特征线段。对于任意一对特征线段,将参考帧和当前帧中的原始线段长度分别记为L1和L2。相应地,在拍摄参考帧和当前帧的时刻,无人机的俯仰角分别为θ1和θ2
步骤S132:特征线段变换及长度计算。
具体地,在无人机飞行过程的纵向平面内对特征线段进行变换,以满足距离计算的需要。变换方式是根据两个特征点的视线LOS将特征线段向经过图像中心的铅垂面进行投影。为了计算变换后的特征线段长度,对于参考帧和当前帧,执行同样的操作如下:
记特征点(即特征线段的端点)A和B的像素坐标分别为(xA,yA)和(xB,yB),计算其视线角:
Figure BDA0003412084770000071
Figure BDA0003412084770000072
其中,fy是相机的纵向焦距,cy是图像中心点的像素纵坐标,即图像高度的一半。
计算变换后的特征线段长度:
Figure BDA0003412084770000073
/>
步骤S133:特征线段对应的距离计算。
具体地,根据几何成像关系,计算当前帧下第k(k=1,…,q)对特征线段对应的距离值zk
Figure BDA0003412084770000074
对所有q对特征线段都执行上述步骤,得到包含q个距离值的集合{zk|k=1,…,q}。
步骤S140:目标距离计算。
具体地,对包含所有特征线段对距离计算结果的集合取中位数,以此作为目标距离计算结果:
Figure BDA0003412084770000075
步骤S150:目标距离序列滤波。
具体地,采用离散扩展Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果。进一步地,如图5所示,在步骤S150中,可以包括:
步骤S151:扩展Kalman滤波模型构建。
具体地,确定扩展Kalman滤波模型的状态量为
Figure BDA0003412084770000081
观测量为当前目标距离z,建立当前时刻t下***状态方程和观测方程:
Figure BDA0003412084770000082
Figure BDA0003412084770000083
其中,bt是t-1时刻到t时刻的无人机水平位移,w和v分别是过程噪声和观测噪声。
步骤S152:扩展Kalman滤波器设计与应用。
具体地,设计扩展Kalman滤波器的预测和更新方程如下:
Figure BDA0003412084770000084
Figure BDA0003412084770000085
Figure BDA0003412084770000086
Figure BDA0003412084770000087
Pt|t=(I-KtHt)Pt|t-1
其中,P和Q分别是过程噪声协方差和观测噪声协方差,K是滤波器增益,
Figure BDA0003412084770000088
和/>
Figure BDA0003412084770000089
分别是状态方程和观测方程的一阶偏导数。
将步骤S140后得到的前视图像序列对应的目标距离计算结果序列作为滤波器的输入,能够输出得到更加平滑且准确的目标距离测量结果序列。滤波前后的目标距离计算和目标距离测量结果的对比如图6所示。
实施例2:
本发明的实施例2提供了一种基于无人机前视图像的目标距离测量装置,如图7所示,包括以下模块:参考帧选取模块200,从当前飞行阶段的图像序列中选取某特定时刻的图像作为参考帧;特征点提取模块210,在参考帧和当前帧图像中给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子;特征点匹配模块220,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配和剔除误匹配;基于特征线段的距离计算模块230,借助机载导航设备所提供的位姿信息,根据所设计的基于特征线段的距离计算模型来计算各对特征线段对应的距离;目标距离计算模块240,对包含所有特征线段对距离计算结果的集合取中位数,以此作为目标距离计算结果;目标距离序列滤波模块250,采用离散Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果。
在本实施例中,进一步地,如图8所示,特征点匹配模块220包括:特征匹配度量计算单元221,用于计算参考帧和当前帧中特征点的128维描述子之间的差方和并以此作为特征匹配度量;剔除弱匹配单元222,用于剔除特征点误匹配中的弱匹配;剔除模糊匹配单元223,用于剔除特征点误匹配中的模糊匹配。
在本实施例中,进一步地,如图9所示,基于特征线段的距离计算模块230包括:特征线段构造单元231,用于根据特征匹配结果在参考帧和当前帧中构造特征线段;特征线段变换及长度计算单元232,用于在无人机飞行过程的纵向平面内对特征线段进行变换,并计算变换后的特征线段长度,从而满足距离计算的需要;特征线段对应的距离计算单元233,用于计算各对特征线段对应的距离值并组成集合。
在本实施例中,进一步地,如图10所示,目标距离序列滤波模块250包括:扩展Kalman滤波模型构建单元251,用于确定扩展Kalman滤波模型的状态量和观测量,并构建***状态方程和观测方程;扩展Kalman滤波器设计与应用单元252,用于对模块240输出的前视图像序列对应的目标深度计算结果进行滤波,从而得到更加平滑且准确的目标距离测量结果序列。

Claims (8)

1.一种基于无人机前视图像的目标距离测量方法,其特征在于,包括如下步骤:
(1)从当前飞行阶段的图像序列中选取某特定时刻的图像作为参考帧;
(2)对于参考帧和当前帧图像,在给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子;
(3)基于特征提取结果,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配,并根据上述度量来剔除误匹配;
(4)借助机载导航设备所提供的位姿信息,根据所设计的基于特征线段的距离计算模型来计算各对特征线段所对应的距离;具体为:特征线段构造,在参考帧和当前帧中连结任意两个匹配特征点来构造出一条特征线段;特征线段变换及长度计算,在无人机飞行过程的纵向平面内对特征线段进行变换,以满足距离计算的需要;特征线段对应的距离计算,根据几何成像关系,计算各对特征线段所对应的当前帧下的距离;
(5)获得包含所有特征线段对距离计算结果的集合,通过取中位数的方式计算目标距离;
(6)采用离散扩展Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果。
2.如权利要求1所述的基于无人机前视图像的目标距离测量方法,其特征在于,步骤(1)中,参考帧的选取依靠飞行过程中机载导航设备记录的各时刻的位置信息来实现,选取的标准是使得参考帧与当前帧之间的水平距离与前一时刻目标距离测量结果之间的比值保持恒定。
3.如权利要求1所述的基于无人机前视图像的目标距离测量方法,其特征在于,步骤(3)中,特征匹配所选用的相似性度量是特征点对应的描述子之间的欧氏距离;剔除误匹配根据相似性度量筛选并剔除弱匹配和模糊匹配。
4.如权利要求1所述的基于无人机前视图像的目标距离测量方法,其特征在于,步骤(5)中,对包含所有特征线段对距离计算结果的集合取中位数,以此作为目标距离计算结果。
5.如权利要求1所述的基于无人机前视图像的目标距离测量方法,其特征在于,步骤(6)中,采用离散扩展Kalman滤波算法对目标距离计算结果进行滤波具体为:扩展Kalman滤波模型构建,根据基于特征线段的距离计算模型选取合适的状态量和观测量,构建***状态方程和观测方程;扩展Kalman滤波器设计与应用,根据扩展Kalman滤波的原理,推导得到滤波器的预测和更新方程并加以应用。
6.一种实现如权利要求1所述的基于无人机前视图像的目标距离测量方法的装置,其特征在于,包括:参考帧选取模块,从当前飞行阶段的图像序列中选取某特定时刻的图像作为参考帧;特征点提取模块,在参考帧和当前帧图像中给定的目标区域中提取SIFT特征点,并给出对应的SIFT描述子;特征点匹配模块,将特征点对应的描述子之间的欧氏距离作为相似性度量来进行特征匹配和剔除误匹配;基于特征线段的距离计算模块,借助机载导航设备所提供的位姿信息,根据所设计的基于特征线段的距离计算模型来计算各对特征线段对应的距离;目标距离计算模块,对包含所有特征线段对距离计算结果的集合取中位数,以此作为目标距离计算结果;目标距离序列滤波模块,采用离散Kalman滤波算法,对前视图像序列对应的目标距离计算结果序列进行滤波,给出平滑且准确度更高的目标距离测量结果;
基于特征线段的距离计算模块包括:特征线段构造单元,用于根据特征匹配结果在参考帧和当前帧中构造特征线段;特征线段变换及长度计算单元,用于在无人机飞行过程的纵向平面内对特征线段进行变换,并计算变换后的特征线段长度,从而满足距离计算的需要;特征线段对应的距离计算单元,用于计算各对特征线段对应的距离值并组成集合。
7.如权利要求6所述的基于无人机前视图像的目标距离测量装置,其特征在于,特征点匹配模块包括:特征匹配度量计算单元,用于计算参考帧和当前帧中特征点的128维描述子之间的差方和并以此作为特征匹配度量;剔除弱匹配单元,用于剔除特征点误匹配中的弱匹配;剔除模糊匹配单元,用于剔除特征点误匹配中的模糊匹配。
8.如权利要求6所述的基于无人机前视图像的目标距离测量装置,其特征在于,目标距离序列滤波模块包括:扩展Kalman滤波模型构建单元,用于确定扩展Kalman滤波模型的状态量和观测量,并构建***状态方程和观测方程;扩展Kalman滤波器设计与应用单元,用于对模块输出的前视图像序列对应的目标深度计算结果进行滤波,从而得到更加平滑且准确的目标距离测量结果序列。
CN202111532928.0A 2021-12-15 2021-12-15 一种基于无人机前视图像的目标距离测量方法及装置 Active CN114322943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111532928.0A CN114322943B (zh) 2021-12-15 2021-12-15 一种基于无人机前视图像的目标距离测量方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111532928.0A CN114322943B (zh) 2021-12-15 2021-12-15 一种基于无人机前视图像的目标距离测量方法及装置

Publications (2)

Publication Number Publication Date
CN114322943A CN114322943A (zh) 2022-04-12
CN114322943B true CN114322943B (zh) 2023-03-28

Family

ID=81051909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111532928.0A Active CN114322943B (zh) 2021-12-15 2021-12-15 一种基于无人机前视图像的目标距离测量方法及装置

Country Status (1)

Country Link
CN (1) CN114322943B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109813334A (zh) * 2019-03-14 2019-05-28 西安工业大学 基于双目视觉的实时高精度车辆里程计算方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3867410B2 (ja) * 1998-09-02 2007-01-10 株式会社明電舎 三次元視覚位置決め方法及び装置
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
EP2527787B1 (en) * 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
CN108052110A (zh) * 2017-09-25 2018-05-18 南京航空航天大学 基于双目视觉的无人机编队飞行方法和***
CN109376785B (zh) * 2018-10-31 2021-09-24 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN110146110B (zh) * 2019-05-20 2022-11-15 哈尔滨工程大学 一种室内环境机器人线特征icnn数据关联的误匹配判定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109813334A (zh) * 2019-03-14 2019-05-28 西安工业大学 基于双目视觉的实时高精度车辆里程计算方法

Also Published As

Publication number Publication date
CN114322943A (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
Kong et al. Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system
Meingast et al. Vision based terrain recovery for landing unmanned aerial vehicles
EP0436213B1 (en) Obstacle detection system
Strydom et al. Visual odometry: autonomous uav navigation using optic flow and stereo
Schneider et al. Fast and effective online pose estimation and mapping for UAVs
CN113485441A (zh) 结合无人机高精度定位和视觉跟踪技术的配网巡检方法
CN103149939A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
EP3757606A2 (en) Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames
Sanfourche et al. Perception for UAV: Vision-Based Navigation and Environment Modeling.
KR102289752B1 (ko) Gps 음영 지역에서 경로 비행을 수행하는 드론 및 그 방법
Ivanovas et al. Block matching based obstacle avoidance for unmanned aerial vehicle
Oliveira et al. Real-time and post-processed georeferencing for hyperpspectral drone remote sensing
Conte et al. High accuracy ground target geo-location using autonomous micro aerial vehicle platforms
CN113589848B (zh) 基于机器视觉的多无人机探测定位跟踪***及方法
Hartley et al. Using roads for autonomous air vehicle guidance
Steffen et al. On visual real time mapping for unmanned aerial vehicles
Kamat et al. A survey on autonomous navigation techniques
Bhanu et al. Inertial navigation sensor integrated motion analysis for obstacle detection
Ramos et al. Vision-based tracking of non-cooperative space bodies to support active attitude control detection
CN114322943B (zh) 一种基于无人机前视图像的目标距离测量方法及装置
Aminzadeh et al. Implementation and performance evaluation of optical flow navigation system under specific conditions for a flying robot
Hintze Autonomous landing of a rotary unmanned aerial vehicle in a non-cooperative environment using machine vision
Al-Kaff Vision-based navigation system for unmanned aerial vehicles
Kang et al. Development of a peripheral-central vision system for small UAS tracking
Zheng et al. Integrated navigation system with monocular vision and LIDAR for indoor UAVs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant