CN107543539B - 一种无人机的位置信息获取方法及无人机 - Google Patents
一种无人机的位置信息获取方法及无人机 Download PDFInfo
- Publication number
- CN107543539B CN107543539B CN201610496595.3A CN201610496595A CN107543539B CN 107543539 B CN107543539 B CN 107543539B CN 201610496595 A CN201610496595 A CN 201610496595A CN 107543539 B CN107543539 B CN 107543539B
- Authority
- CN
- China
- Prior art keywords
- image
- unmanned aerial
- aerial vehicle
- features
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及通信领域,公开了一种无人机的位置信息获取方法及无人机。本发明实施方式中,通过提取无人机摄像头拍摄到图像的静态目标特征和运动特征,计算无人机当前位置的实时数据,再根据该计算的实时数据和利用无人机自带的定位装置得到的定位信息,获取无人机当前的位置信息。通过这种方式,可以将图像处理技术引用到无人机位置信息获取中,提高无人机位置信息的实时性及精确度。
Description
技术领域
本发明涉及通信领域,特别涉及一种无人机的位置信息获取方法及无人机。
背景技术
无人机的研究在最近几年有了很大的进展,应用领域也越来越广。在军用方面,由于无人机具有预警时间短、隐蔽性好、侦察能力强、巡航时间长、成本低、作战损失小等特点,可以广泛用于侦察、攻击、电子对抗等军事任务,也可用于靶机实验。在民用方面,可用于通信中继、气象探测、灾害监测、农药喷洒、地质勘测、地图测绘、交通管制、边境控制等诸多领域。
本申请的发明人发现,以往的无人机主要依靠惯性导航***和全球定位***GPS进行导航,然而,导航过程中惯性器件具有累积误差,对初始值过于敏感,而GPS并不是总是可以获取的,并且即使是可以获取,精度往往满足不了无人机导航的需求。
发明内容
本发明实施方式的目的在于提供一种无人机的位置信息获取方法及无人机,使得图像处理技术被引用到无人机的位置信息获取中,极大提高了所获取的无人机位置信息的实时性及精确度。
为解决上述技术问题,本发明的实施方式提供了一种无人机的位置信息获取方法,包括:
获取安装于所述无人机上的摄像头拍摄到的图像;
提取所述图像的静态目标特征;
对所述图像进行动态分析,提取运动特征;
基于所述提取的静态目标特征和运动特征,计算所述无人机当前位置的实时数据;
根据所述计算的实时数据,和利用所述无人机自带的定位装置得到的定位信息,获取所述无人机当前的位置信息。
本发明的实施方式还提供了一种无人机,包含:
图像获取模块,用于获取安装于无人机上的摄像头拍摄到的图像;
静态目标特征提取模块,用于提取所述获取模块中图像的静态目标特征;
运动特征提取模块,用于对所述获取模块中图像进行动态分析,提取运动特征;
计算模块,用于基于所述提取模块提取的静态目标特征和所述分析模块提取的运动特征,计算所述无人机当前位置的实时数据;
位置信息获取模块,用于根据所述计算模块计算的实时数据,和利用所述无人机自带的定位装置得到的定位信息,获取所述无人机当前的位置信息。。
本发明实施方式相对于现有技术而言,通过提取无人机摄像头拍摄到图像的静态目标特征和运动特征,计算出无人机当前位置的实时数据,再根据该计算的实时数据和利用无人机自带的定位装置得到的定位信息,获取无人机当前的位置信息。通过这种方式,可以将图像处理技术引用到无人机位置信息获取中,提高无人机位置信息的实时性及精确度。
另外,在获取到所述图像后,提取所述静态目标特征之前,还包括:对所述图像进行去除噪声干扰的预处理;在提取所述静态目标特征中,提取经所述预处理后的图像内的静态目标特征。
获取安装于无人机上的摄像头拍摄到的图像时,容易受到噪声的影响,所以在获取到该图像后,需要先对该图像进行去除噪声干扰的预处理,有效防止噪声对数据准确性的影响。
另外,所述提取图像的静态目标特征,具体包括:提取所述图像的几何特征;提取所述图像的点特征;将提取的所述几何特征和点特征进行特征融合,得到所述静态目标特征。在提取到图像的几何特征和点特征以后,将所提取的几何特征和点特征进行特征融合,以得到更为准确的图像的静态目标特征。
另外,在所述提取图像的几何特征中,通过霍夫变换处理提取所述图像的几何特征;在所述提取图像的点特征中,通过Harris算法提取所述图像的点特征。
采用霍夫变换处理提取图像的几何特征,是因为直线等几何形状被变换到特定坐标系中时,可以用点来表示,而且采用霍夫变换提取图像的几何特征,可以更好的减少噪声干扰。采用Harris算法提取图像的点特征,不仅使得所提取图像点特征的准确度高而且实时性也很高。
附图说明
图1是根据本发明第一实施方式的一种无人机的位置信息获取方法流程图;
图2是根据本发明第一实施方式的卡尔曼滤波估计器示意图;
图3是根据本发明第一实施方式的卡尔曼算法流程图;
图4是根据本发明第二实施方式的一种无人机的位置信息获取方法流程图;
图5是根据本发明第二实施方式的霍夫变换过程示意图;
图6是根据本发明第二实施方式的FCM聚类算法流程图;
图7是根据本发明第三实施方式的一种无人机的位置信息获取方法流程图;
图8是根据本发明第四实施方式的一种无人机的结构示意图;
图9是根据本发明第五实施方式的一种无人机的结构示意图;
图10是根据本发明第六实施方式的一种无人机的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种无人机的位置信息获取方法。具体流程如图1所示。
在步骤101中,获取安装于无人机上的摄像头拍摄到的图像。
具体地说,通过无人机上的摄像头拍摄图像,可以更好的捕捉运动信息,而且摄像头属于被动传感器,利用的是可见光或者红外线这种自然信息,这在军事隐蔽侦查上优于重要。
在步骤102中,提取图像的静态目标特征。
具体地说,在导引无人机小范围飞行或起降时,常利用静止的标志物,它们既可以是专门设计的诸如定点降落时常常在降落点事先放置特殊形状或颜色的标志物,又可以是本来就有的道路,楼房,门窗,电线甚至地平线等。而且,摄像头获得的初始信息以图像的形式存在,伴随大量的冗余信息,需要采用图像处理技术来提取有效信息。图像处理技术以及摄像头硬件的发展,使得计算机视觉技术可以引入到获取无人机位置信息(即无人机导航)的技术中。其中,计算机视觉技术用于从图像中获取导航有效信息,实现对图像中静止或运动目标的提取,此处,用来提取图像的静态目标特征。
在步骤103中,对图像进行动态分析,提取运动特征。
具体地说,无人机大范围长时间的飞行时,所利用的特征标志物多是运动的,例如,将地面的运动车辆或是编队飞行中队列中的其他无人机作为标志物等。这时候,就需要利用计算机视觉技术,从图像中获取导航有效信息,此处,用来提取图像的运动特征。
在步骤104中,基于提取的静态目标特征和运动特征,计算无人机当前位置的实时数据。
光流特征和静态特征是用于测速,光流就是通过检测图像中光点和暗点的移动,来判断图像中像素点相对于无人机的移动速度,再加上图像的静态特征,自然就可以得到无人机相对于地面的移动速度,从而得到无人机的一个相对位置。因此,通过对所提取的静态目标特征和运动特征进行状态估计和数据融合,可以得到无人机当前位置的实时数据参数。
在步骤105中,根据计算的实时数据,和利用无人机自带的定位装置得到的定位信息,获取无人机当前的位置信息。
具体地说,根据图像中所提取目标特征得到的无人机当前位置的实时数据参数,可以采用卡尔曼算法并结合一些先验知识用于无人机自身运动状态的估计,得到无人机当前的位置信息。其中,本实施方式中的先验知识为无人机自带的定位装置得到的定位信息,无人机自带的定位装置可以为惯性导航***和GPS。也就是说,通过采用卡尔曼算法对无人机的实时数据参数和惯性导航***参数、GPS参数进行数据融合,得到无人机当前的位置信息。其中,采用卡尔曼算法融合三种数据的算法如下所示:
基于第i个摄像头传感器的卡尔曼滤波估计器,如图2所示,对无人机的实时数据参数和惯性导航***参数、GPS参数进行数据融合的卡尔曼算法流程,如图3所示。
不难发现,在本实施方式中,通过计算机视觉技术提取出无人机摄像头拍摄到图像的静态目标特征和运动特征,并根据所提取的静态目标特征和运动特征,计算出无人机当前位置的实时数据,再将所计算的实时数据和利用无人机自带的惯性导航***和GPS得到的定位信息进行状态估计与数据融合,从而得到无人机当前的位置信息。通过这种方式,弥补了无人机导航过程中惯性器件的累积误差和GPS间断导致的导航缺陷,有效提高无人机导航的实时性及精确度。
本发明的第二实施方式涉及一种无人机的位置信息获取方法。第二实施方式在第一实施方式的基础上做了进一步改进,主要改进之处在于:在本发明第二实施方式中,具体给出了提取图像静态目标特征的过程及该过程中所采用的算法与技术方案,同时也具体给出了对图像进行动态分析并提取运动特征的过程及该过程中所采用的算法及技术方案。具体流程如图4所示。
本实施方式中的步骤401与本发明的第一实施方式的步骤101相同,为减少重复,在此不再赘述。
在步骤402中,提取图像的静态目标特征;又进一步包括如下子步骤:
在子步骤4021中,提取图像的几何特征。
具体地说,通过霍夫变换处理提取图像的几何特征。其中,根据直线的霍夫变换公式,如等式(2)所示:
X*cos(θ)+y*sin(θ)=r 等式(2)
在等式(1)中,角度θ指r与X轴之间的夹角,r为到直线几何垂直距离。任何在直线上点,x,y都可以表达,其中,r,θ是常量。
完成霍夫变换,预览霍夫空间结果,寻找最大霍夫值,设置阈值,反变换到图像三原色RGB值空间,越界处理,显示霍夫变换处理以后的图像。
进一步地,等式(2)所示的霍夫变换过程,如图5所示。
将θ角在负90度到90度范围里,划分为很多区间,对所有的像素点(x,y)在所有θ角的时候,求出ρ,从而累加ρ值出现的次数,如等式(3)所示:
ρ=xcos(θ)+ysin(θ) 等式(3)
对每一个像素点(x,y)进行如等式(3)的计算,求出霍夫变换矩阵H,图像变换进入霍夫空间,然后在霍夫空间中求出最大值,阈值设定为0.5*max(H(:)),即最大值的一半,最后需要从霍夫空间返回原来的RGB空间。
在子步骤4022中,提取图像的点特征。
具体地说,通过Harris算法提取图像的点特征。Harris的思想是对E(x,y)求极大值,其中,(x,y)代表灰度值变化最大的方向,然后求出该方向的垂直方向的灰度值变化,最后比较得出结论。为了加快求解速度,Harris对E(x,y)中的灰度值变化部分进行泰勒展开。若令D=I(x+u,y+v)-I(u,v),则有D(x,y)可以在原点(0,0)Taylor展开,最后得到D=I(x+u,y+v)-I(u,v),则有D(x,y)可以在原点(0,0)处泰勒展开,最后得到等式(4),其中,
也就是说,x方向的差分近似等于1/2[f(x+1,y)-f(x-1,y)]。这样可以很容易求得每个像素的H矩阵。求得H矩阵的目的是因为Harris通过计算发现,E(x,y)的两个互相垂直的灰度值变化方向是H的特征向量方向,而相应的特征值就是其灰度值变化量。即它的解为H的最大特征值λ1的特征向量(x1,y2)。并且有此时E(x1,y1)=λ1。由矩阵论知识,(x1,y1)的垂直方向为H的另一个特征值λ2对应的特征向量。相应的有E(x2,y2)=λ2。所以只要求得H的两个特征值就可以判断该点是不是角点。
在子步骤4023中,将提取的几何特征和点特征进行特征融合,得到静态目标特征。
具体地说,根据根据几何特征和提取出来的点特征,进行特征融合,优化特征提取结果,丰富图像特征表述。
在步骤403中,对图像进行动态分析,提取运动特征;又进一步包括如下子步骤:
在子步骤4031中,为图像中的每一个像素点赋予一个速度矢量,形成一个图像运动场,进行特征光流计算。
具体地说,给图像中的每一个像素点赋予一个速度矢量,这就形成了一个图像运动场,在运动的一个特定时刻,图像上的点与三维物体上的点一一对应,这种对应关系可由投影关系得到,在2D+t维的情况下(3D和更高维度亦然),假设位于(x,y,t)的像素的亮度是I(x,y,t)。该体素在两个图像帧之间移动了△x、△y、△t。于是可以得出一个亮度相同的结论,如等式(5)所示:
I(x,y,t)=I(x+△x,y+△y,t+△t) 等式(5)
假设该移动很小,那么可以根据泰勒级数得出等式(6),
因此可以推出等式(7),
最终可得出结论,如等式(8)所示:
根据各个像素点的速度矢量特征,对图像进行动态分析。
在子步骤4032中,基于模糊C均值FCM聚类算法进行光流聚类,得到光流计算结果。
具体地说,FCM聚类算法的流程图,如图6所示,在基于模糊C均值FCM聚类算法进行光流聚类的过程中:
首先,对聚类过程中所用的参数进行初始化。其中,指定聚类类别数为C,2≤C≤n,n是数据个数,指定迭代停止阈值为ε,指定聚类中心的初始值为V0,指定迭代计数器为b,b的初始值为b=0。
其次,根据等式(9)计算或更新划分矩阵U。其中,等式(9)为:
接着,根据等式(10)更新聚类中心V(b+1)。其中,等式(10)为:
最后,如果||Vb-V(b+1)||<ε,则算法停止并输出划分矩阵和聚类中心V,否则令b=b+1,转向执行上述步骤。
在子步骤4033中,根据光流计算结果检测运动目标,得到运动特征。
具体地说,用LK算法对序列图像进行计算,并根据光流计算结果检测运动目标。
步骤404至405与本发明的第一实施方式的步骤104至105完全相同,为减少重复,在此不再赘述。
本实施方式不但可以达到第一实施方式的技术效果,而且,在提取到图像的几何特征和点特征以后,将所提取的几何特征和点特征进行特征融合,可以得到更为准确的图像的静态目标特征。另外,采用霍夫变换处理提取图像的几何特征,是因为直线等几何形状被变换到特定坐标系中时,可以用点来表示,而且采用霍夫变换提取图像的几何特征,可以更好的减少噪声干扰。采用Harris算法提取图像的点特征,不仅使得所提取图像点特征的准确度高而且实时性也很高。
本发明的第三实施方式涉及一种无人机的位置信息获取方法。第三实施方式在第一实施方式的基础上做了进一步改进,主要改进之处在于:在本发明第三实施方式中,在获取到所述图像后,提取所述静态目标特征之前,需要先对所获取的图像进行去除噪声干扰的预处理,使得在后续提取静态目标特征时,提取经预处理后的图像内的静态目标特征。具体流程如图7所示。
本实施方式中的步骤701与本发明的第一实施方式的步骤101相同,为减少重复,在此不再赘述。
在步骤702中,对所获取图像进行去除噪声干扰的预处理。
具体地说,获取安装于无人机上的摄像头拍摄到的图像时,容易受到噪声的影响,所以在获取到该图像后,需要先对该图像进行去除噪声干扰的预处理,有效防止噪声对数据准确性的影响。
本实施方式中采用中值滤波的方法去除噪声干扰,下面以3×3的窗口内的各像素为例进行中值滤波的介绍。
对3×3窗口内的每一列分别计算最大值、中值和最小值,这样就得到3组数据,分别为最大值组、中值组和最小值组。计算过程表示如下,其中,max表示取最大值操作,med表示取中值操作,min表示取最小值操作。其中,
最大值组为:Max0=max[P0,P3,P6],Max1=max[P1,P4,P7],Max2=max[P2,P5,P8],
中值组为:Med0=med[P0,P3,P6],Med1=med[P1,P4,P7],Med2=med[P2,P5,P8]
最小值组为:Min0=min[P0,P3,P6],Min1=min[P1,P4,P7],Min2=min[P2,P5,P8]
本发明实施方式中,通过上述的中值滤波方式进行噪声干扰的去除。
步骤703至706与本发明的第一实施方式的步骤102至105相同,为减少重复,在此不再赘述。
本实施方式通过在进行特征提取之前,先对摄像头拍摄到的图像进行降噪预处理,可以进一步提高图像处理的准确度。
本发明第四实施方式涉及一种无人机。包括:图像获取模块10、静态目标特征提取模块11、运动特征提取模块12、计算模块13和位置信息获取模块14,如图8所示。
图像获取模块10,用于获取安装于无人机上的摄像头拍摄到的图像;
静态目标特征提取模块11,用于提取获取模块中图像的静态目标特征;
运动特征提取模块12,用于对获取模块中图像进行动态分析,提取运动特征;
计算模块13,用于基于提取模块提取的静态目标特征和所述分析模块提取的运动特征,计算无人机当前位置的实时数据;
位置信息获取模块14,用于根据计算模块计算的实时数据,和利用无人机自带的定位装置得到的定位信息,获取无人机当前的位置信息。
不难发现,本实施方式为与第一实施方式相对应的***实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
本发明第五实施方式涉及一种无人机。第五实施方式在第四实施方式的基础上做了进一步改进,主要改进之处在于:在本发明第五实施方式中,在静态目标特征提取模块11中还包括:几何特征提取子模块110,点特征提取子模块111,融合子模块112,在运动特征提取模块12中还包括:特征光流计算子模块120,光流聚类子模块121,检测运动目标子模块122,如图9所示。
其中,几何特征提取子模块110,用于提取所述图像的几何特征;
点特征提取子模块111,用于提取所述图像的点特征;
融合子模块112,用于将所述几何特征提取子模块提取的几何特征和所述点特征提取子模块提取的点特征进行特征融合,得到所述静态目标特征;
特征光流计算子模块120,用于为所述图像中的每一个像素点赋予一个速度矢量,形成一个图像运动场,进行特征光流计算;
光流聚类子模块121,用于基于模糊C均值FCM聚类算法进行光流聚类,得到光流计算结果;
检测运动目标子模块122,用于根据所述光流聚类子模块的光流计算结果检测运动目标,得到所述运动特征。
由于第二实施方式与本实施方式相互对应,因此本实施方式可与第二实施方式互相配合实施。第二实施方式中提到的相关技术细节在本实施方式中依然有效,在第二实施方式中所能达到的技术效果在本实施方式中也同样可以实现,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第二实施方式中。
本发明第六实施方式涉及一种无人机。第六实施方式在第四实施方式的基础上做了进一步改进,主要改进之处在于:在本发明第六实施方式中,还包括去噪模块15,如图10所示。
去噪模块15,用于对图像进行去除噪声干扰。
具体地说,获取安装于无人机上的摄像头拍摄到的图像时,容易受到噪声的影响,所以在获取到该图像后,需要先对该图像进行去除噪声干扰的预处理,从而有效防止噪声对数据准确性的影响。
由于第三实施方式与本实施方式相互对应,因此本实施方式可与第三实施方式互相配合实施。第三实施方式中提到的相关技术细节在本实施方式中依然有效,在第三实施方式中所能达到的技术效果在本实施方式中也同样可以实现,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第三实施方式中。
本领域技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
Claims (8)
1.一种无人机的位置信息获取方法,其特征在于,包括:
获取安装于所述无人机上的摄像头拍摄到的图像;
提取所述图像的静态目标特征;其中,所述静态目标特征包括所述图像中的静态标志物的特征;
对所述图像进行动态分析,提取运动特征;其中,所述运动特征包括所述图像中的运动标志物的特征;
基于所述提取的静态目标特征和运动特征,计算所述无人机当前位置的实时数据;
根据所述无人机当前位置的实时数据,和利用所述无人机自带的定位装置得到的定位信息,获取所述无人机当前的位置信息;
其中,提取所述图像的静态目标特征包括:
通过霍夫变换处理提取所述图像的几何特征,具体为:
根据直线的霍夫变换公式完成霍夫变换,预览霍夫空间结果,寻找最大霍夫值,设置阈值,反变换到图像三原色RGB值空间,越界处理,显示霍夫变换处理以后的图像,所述霍夫变换公式为:x*cos(θ)+y*sin(θ)=r,角度θ指r与X轴之间的夹角,r为到直线几何垂直距离,任何在直线上点,x,y都可以表达,其中,r,θ是常量;
将θ角在负90度到90度范围里,划分为很多区间,对所有的像素点(x,y)在所有θ角的时候,求出ρ,从而累加ρ值出现的次数:ρ=x cos(θ)+y sin(θ),对每一个像素点(x,y)进行ρ的计算,求出霍夫变换矩阵H,图像变换进入霍夫空间,并在霍夫空间中求出最大值,设定阈值,再从霍夫空间返回原来的RGB空间;
通过Harris算法提取所述图像的点特征,具体为:
求取像素点在(xi,yi)方向的灰度变化值E(xi,yi),并根据求取的E(xi,yi)确定灰度变化值最大的方向(xm,ym),求出该方向的垂直方向的灰度值变化,并对E(xi,yi)中的灰度值变化部分进行泰勒展开,求得每个像素的H矩阵,则E(xi,yi)的两个互相垂直的灰度值变化方向是H的特征向量方向,而E(xi,yi)相应的特征值是H灰度值变化量,根据H的两个特征值来判断点特征是否为角点;
将提取的所述几何特征和点特征进行特征融合,得到所述静态目标特征。
2.根据权利要求1所述的无人机的位置信息获取方法,其特征在于,在获取到所述图像后,提取所述静态目标特征之前,还包括:
对所述图像进行去除噪声干扰的预处理,得到预处理后的图像;
所述提取所述静态目标特征,包括:
提取经所述预处理后的图像内的静态目标特征。
3.根据权利要求1所述的无人机的位置信息获取方法,其特征在于,所述对图像进行动态分析,提取运动特征中,具体包括:
为所述图像中的每一个像素点赋予一个速度矢量,形成一个图像运动场,进行特征光流计算;
基于模糊C均值FCM聚类算法进行光流聚类,得到光流计算结果;
根据所述光流计算结果检测运动目标,得到所述运动特征。
4.根据权利要求1至3中任一项所述的无人机的位置信息获取方法,其特征在于,所述无人机自带的定位装置包括惯性导航***和全球定位***GPS。
5.根据权利要求4所述的无人机的位置信息获取方法,其特征在于,所述获取无人机当前的位置信息,具体包括:
采用卡尔曼算法,对所述计算的实时数据、所述惯性导航***的定位信息和所述GPS的定位信息进行数据融合,得到所述无人机当前的位置信息。
6.一种无人机,其特征在于,包括:
图像获取模块,用于获取安装于无人机上的摄像头拍摄到的图像;其中,静态目标特征包括所述图像中的静态标志物的特征;
静态目标特征提取模块,用于提取所述图像获取模块中图像的静态目标特征;其中,运动特征包括所述图像中的运动标志物的特征;
运动特征提取模块,用于对所述图像获取模块中图像进行动态分析,提取运动特征;
计算模块,用于基于所述静态目标特征提取模块提取的静态目标特征和所述运动特征提取模块提取的运动特征,计算所述无人机当前位置的实时数据;
位置信息获取模块,用于根据所述计算模块计算的实时数据,和利用所述无人机自带的定位装置得到的定位信息,获取所述无人机当前的位置信息;
所述静态目标特征提取模块,具体包括:
几何特征提取子模块,用于通过霍夫变换处理提取所述图像的几何特征,具体为:
根据直线的霍夫变换公式完成霍夫变换,预览霍夫空间结果,寻找最大霍夫值,设置阈值,反变换到图像三原色RGB值空间,越界处理,显示霍夫变换处理以后的图像,所述霍夫变换公式为:x*cos(θ)+y*sin(θ)=r,角度θ指r与X轴之间的夹角,r为到直线几何垂直距离,任何在直线上点,x,y都可以表达,其中,r,θ是常量;
将θ角在负90度到90度范围里,划分为很多区间,对所有的像素点(x,y)在所有θ角的时候,求出ρ,从而累加ρ值出现的次数:ρ=x coS(θ)+y sin(θ),对每一个像素点(x,y)进行ρ的计算,求出霍夫变换矩阵H,图像变换进入霍夫空间,并在霍夫空间中求出最大值,设定阈值,再从霍夫空间返回原来的RGB空间;
点特征提取子模块,用于通过Harris算法提取所述图像的点特征,具体为:
求取像素点在(xi,yi)方向的灰度变化值E(xi,yi),并根据求取的E(xi,yi)确定灰度值变化最大的方向(xm,ym),求出该方向的垂直方向的灰度值变化,并对E(xi,yi)中的灰度值变化部分进行泰勒展开,求得每个像素的H矩阵,则E(xi,yi)的两个互相垂直的灰度值变化方向是H的特征向量方向,而E(xi,yi)相应的特征值是H灰度值变化量,根据H的两个特征值来判断点特征是否为角点;
融合子模块,用于将所述几何特征提取子模块提取的几何特征和所述点特征提取子模块提取的点特征进行特征融合,得到所述静态目标特征。
7.根据权利要求6所述的无人机,其特征在于,还包括:
去噪模块,用于对所述图像获取模块中图像进行去除噪声干扰的预处理;
所述静态目标特征提取模块和所述运动特征提取模块对经所述去噪模块预处理后的图像进行特征提取。
8.根据权利要求7所述的无人机,其特征在于,所述运动特征提取模块具体包括:
特征光流计算子模块,用于为所述图像中的每一个像素点赋予一个速度矢量,形成一个图像运动场,进行特征光流计算;
光流聚类子模块,用于基于模糊C均值FCM聚类算法进行光流聚类,得到光流计算结果;
检测运动目标子模块,用于根据所述光流聚类子模块的光流计算结果检测运动目标,得到所述运动特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610496595.3A CN107543539B (zh) | 2016-06-29 | 2016-06-29 | 一种无人机的位置信息获取方法及无人机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610496595.3A CN107543539B (zh) | 2016-06-29 | 2016-06-29 | 一种无人机的位置信息获取方法及无人机 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107543539A CN107543539A (zh) | 2018-01-05 |
CN107543539B true CN107543539B (zh) | 2021-06-01 |
Family
ID=60966067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610496595.3A Active CN107543539B (zh) | 2016-06-29 | 2016-06-29 | 一种无人机的位置信息获取方法及无人机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107543539B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110686664A (zh) * | 2018-07-04 | 2020-01-14 | 上海峰飞航空科技有限公司 | 视觉定位***、无人机以及自检测无人机自身位置的方法 |
CN109459777B (zh) * | 2018-11-21 | 2021-08-17 | 北京木业邦科技有限公司 | 一种机器人、机器人定位方法及其存储介质 |
CN109975844B (zh) * | 2019-03-25 | 2020-11-24 | 浙江大学 | 一种基于光流法的gps信号防漂移方法 |
WO2021038485A1 (en) * | 2019-08-27 | 2021-03-04 | Indian Institute Of Science | System and method for autonomous navigation of unmanned aerial vehicle (uav) in gps denied environment |
CN113570546B (zh) * | 2021-06-16 | 2023-12-05 | 北京农业信息技术研究中心 | 一种风机运行状态检测方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10055572C1 (de) * | 2000-11-09 | 2002-01-24 | Astrium Gmbh | Verfahren zur Leitungserkennung für tieffliegende Fluggeräte |
CN101532841B (zh) * | 2008-12-30 | 2010-09-08 | 华中科技大学 | 基于地标捕获跟踪的飞行器导航定位方法 |
CN102426019B (zh) * | 2011-08-25 | 2014-07-02 | 航天恒星科技有限公司 | 一种无人机景象匹配辅助导航方法及*** |
CN102788579A (zh) * | 2012-06-20 | 2012-11-21 | 天津工业大学 | 基于sift算法的无人机视觉导航方法 |
CN103822631B (zh) * | 2014-02-28 | 2016-05-18 | 哈尔滨伟方智能科技开发有限责任公司 | 一种面向旋翼的卫星和光流场视觉结合的定位方法与装置 |
CN104359482A (zh) * | 2014-11-26 | 2015-02-18 | 天津工业大学 | 基于lk光流算法的视觉导航方法 |
CN104729506B (zh) * | 2015-03-27 | 2017-11-14 | 北京航空航天大学 | 一种视觉信息辅助的无人机自主导航定位方法 |
CN105021184B (zh) * | 2015-07-08 | 2017-10-24 | 西安电子科技大学 | 一种用于移动平台下视觉着舰导航的位姿估计***及方法 |
-
2016
- 2016-06-29 CN CN201610496595.3A patent/CN107543539B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107543539A (zh) | 2018-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111326023B (zh) | 一种无人机航线预警方法、装置、设备及存储介质 | |
CN107543539B (zh) | 一种无人机的位置信息获取方法及无人机 | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
US8320615B2 (en) | Systems and methods for recognizing a target from a moving platform | |
US8503730B2 (en) | System and method of extracting plane features | |
Dusha et al. | Fixed-wing attitude estimation using computer vision based horizon detection | |
CN112781599B (zh) | 确定车辆的位置的方法 | |
CN113568435B (zh) | 一种基于无人机自主飞行态势感知趋势的分析方法与*** | |
CN112378397B (zh) | 无人机跟踪目标的方法、装置及无人机 | |
CN115406447B (zh) | 拒止环境下基于视觉惯性的四旋翼无人机自主定位方法 | |
CN108844538A (zh) | 一种基于视觉/惯导的无人机避障航点生成方法 | |
CN112379681A (zh) | 无人机避障飞行方法、装置及无人机 | |
EP4209755A1 (en) | Positioning method and positioning apparatus of mobile device | |
US9342746B1 (en) | Maneuverless passive range estimation using monocular image sequences | |
Williams et al. | Feature and pose constrained visual aided inertial navigation for computationally constrained aerial vehicles | |
Sun et al. | An improved FAST feature extraction based on RANSAC method of vision/SINS integrated navigation system in GNSS-denied environments | |
KR20210034253A (ko) | 위치 추정 장치 및 방법 | |
US10235577B1 (en) | Maneuverless passive range estimation using monocular image sequences | |
CN112380933B (zh) | 无人机识别目标的方法、装置及无人机 | |
Saif et al. | Adaptive motion pattern analysis for machine vision based moving detection from UAV aerial images | |
CN113971697A (zh) | 一种空地协同车辆定位定向方法 | |
Liu et al. | A joint optical flow and principal component analysis approach for motion detection | |
Wu et al. | Improving robustness of line features for VIO in dynamic scene | |
Yoo et al. | Saliency combined particle filtering for aircraft tracking | |
WO2020244467A1 (zh) | 一种运动状态估计方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |